2. Optimierungsprobleme 6
|
|
- Imke Esser
- vor 7 Jahren
- Abrufe
Transkript
1 6 2. Beispiele Konvexe Mengen und Funktionen Konvexe Optimierungsprobleme Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen Zulässigkeitsbereich S I aus sogenannten Lösungen (solutions) Zulässigkeit (Test y S I ) kann in polynomialer Zeit überprüft werden Aufgabe: bestimme für eine Instanz I und eine Zielfunktion c : S I -> Q (rationale Zahlen) eine Optimallösung y = OPT(I) d.h. y S I mit OPT(I) = c(y)! c(x) für alle x S I OPT(I) bezeichnet je nach Kontext die optimale Lösung oder den Zielfunktionswert der optimalen Lösung eine solche Lösung heißt globales Optimum (globales Minimum) oder Optimum (Minimum) Ein Algorithmus, der dies leistet, heißt exakt 2. Beispiel: Traveling Salesman Problem (TSP) Instanz vollständiger Graph K n, n " 3 Kantenbewertung c(e) mit rationalen Zahlen " 0 Aufgabe
2 2. Beispiele 7-2 Bestimme einen Hamilton Kreis C mit minimaler Länge!!"" # # $!""!!#" Beispiel einer Instanz G = K n in der Ebene mit Euklidischem Abstand Zwei zulässige Lösungen 2. Beispiele Beispiel: Minimum Spanning Tree (MST) Instanz ungerichteter (einfacher) Graph G reellwertige Kantengewichte c(e), e E(G) Aufgabe finde spannenden Baum T von G mit minimalem Gewicht c(t)!!"" # # $!""!!#" oder stelle fest, dass G nicht zusammenhängend (zh) ist
3 2. Beispiele 7-4 Beispiel von Instanzen Instanz G = K n in der Ebene mit Euklidischem Abstand und eine zulässige Lösung Instanz 2 G = K 4 mit Kantenkosten c(e) aus Kostenmatrix " # $ %!! " & # " $ " => zugehöriger Graph G ist 2. Beispiele 7-5 => zugehöriger Graph G ist G zugehörige Menge S I zulässiger Lösungen besteht aus n n-2 = 6 verschiedenen spannenden Bäumen
4 2. Beispiele Beispiel: Lineare Optimierung (LP) Instanz m x n Matrix A = (a ij ), m Spalten-Vektor b, n Spalten-Vektor c, alle mit rationalen bzw. o.b.d.a. ganzen Zahlen diese Größen definieren den zulässigen Bereich 2. Beispiele 7-7! "!!# R $ " %#! &' # # "$ Zielfunktion c(x) = c T x LP ist ein stetiges Optimierungsproblem! MST und TSP waren diskret. Dennoch lässt sich LP als ein diskretes Beispiel A = (,,), b = (2) zulässige Lösungen erfüllen x + x 2 + x 3 = 2, x j " 0 und bilden damit einen Simplex x 3 v 3 v 2 x 2 v x Beachte: hier gibt es unendlich viele Lösungen, darunter auch nicht ganzzahlige Mann kann jedoch zeigen: Das Optimum wird in einer der endlich vielen "Ecken" v angenommen
5 2. Beispiele 7-8 Mann kann jedoch zeigen: Das Optimum wird in einer der endlich vielen "Ecken" v k angenommen => Beschränkung auf endliche Menge im Prinzip möglich Umgekehrt lassen sich auch diskrete Probleme als LP auffassen minimal spannende Bäume als Vektoren gegebener Graph G 3 2 minimal spannende Bäume von G als Vektoren (Inzidenzvektoren)! 2 0 3! 0 3 2! 0 Konvexe Hülle der Inzidenzvektoren = Polytop (gelbe Menge) 2. Beispiele 7-9 x 3 v 3 v x 2 x v 2 Polytop = gelbe Menge Ermittlung minimal spannender Baum = lineare Optimierung über diesem Polytop zugehöriges LP ist gegeben durch x + x 2 + x 3 = 2 x! x 2! x 3! x j " 0 sogenannte lineare Beschreibung, nützlich für Entwurf von Algorithmen
6 2. Beispiele 7-0 sogenannte lineare Beschreibung, nützlich für Entwurf von Algorithmen 8- Nachbarschaften Nachbarschaften sind für stetige Probleme in natürlicher Weise als!-umgebung bzgl. einer Norm definiert. Wie für diskrete Probleme? Eine Nachbarschaft für eine Problemklasse P 0 ist gegeben durch eine Abbildung! "! # " " # " für jede Instanz I P 0 N I (y) heißt die Nachbarschaft von y S I. Ist I klar, so schreiben wir kurz N(y) 2.4 Beispiel: TSP Definieren Nachbarschaft über 2-Tausch N 2 (y) := { x S I x entsteht aus y durch Ersetzen von! 2 Kanten aus y durch andere Kanten } Verallgemeinerung auf k " 2 möglich, führt zu Nachbarschaft N (y)
7 8-2 Verallgemeinerung auf k " 2 möglich, führt zu Nachbarschaft N k (y) 2.5 Beispiel: MST Nachbarschaft über Austausch einer Kante auf Fundamentalkreis definieren N(y) := { x S I x entsteht aus y durch Hinzufügen einer Kante und Entfernen einer anderen auf dem entstehenden Kreis } G T T' 2.6 Beispiel: LP Nachbarschaft über!-umgebung definieren N (y) := { x Ax = b, x " 0, y-x! 8-3 N! (y) := { x Ax = b, x " 0, y-x!! } y! Lokale und globale Optima Sei Problemklasse P 0 mit Nachbarschaft N gegeben und I P 0 y S I heißt lokal optimal bzgl. N, falls c(y)! c(x) für alle x N I (y) 2.7 Beispiel: Lokale Minima in der Analysis
8 Beispiel: TSP Lokal optimale Lösungen bzgl. N k heißen k-optimal Exakte Nachbarschaft Eine Nachbarschaft bzgl. einer Problemklasse P 0 heißt exakt :<=> für jede Instanz I gilt: ist y S I lokal optimal bzgl. N I, so ist y global optimal für I 2.9 Beispiel: TSP N 2 ist nicht exakt Gegenbeispiel: 8-5 Kosten a 5 2 Kosten b Kosten c 4 3 a < b < c Tour y = "außen rum" hat Kosten 5b Da die beiden grünen Kanten adjazent sind, kommt bei jedem 2-Tausch höchstens eine grüne Kante dazu, im günstigsten Fall also eine grüne und eine rote Die neue Tour ist schlechter, falls a+c > 2b => y lokal optimal bzgl. N 2 Durch doppelten 2-Tausch können die beiden grünen Kanten in die Tour kommen
9 Diese Tour ist besser als y, falls 2a+c < 3b a < b < c und a+c > 2b und 2a+c < 3b ist erfüllt für a =, b = 4, c = 8 N n ist exakt klar, da N (y) = S! n I 2.0 Beispiel: MST Die Nachbarschaft von MST ist exakt Beweis: Nutze Satz aus ADM I: T ist optimal <=> Für jede Nicht-Baum-Kante e gilt: e ist teuerste Kante in dem von e erzeugten Kreis bzgl. T 8-7! Nachbarschaft motiviert das Prinzip der Lokalen Suche Algorithmus Lokale Suche Input Instanz I eines Optimierungsproblems P 0 mit Nachbarschaft N I Startlösung y S I Output lokales Optimum bzgl. N I Methode iterative Verbesserung while es gibt bessere Lösung x N I (y) do wähle bessere Lösung x N I (y) y := x return y 2. Satz (Lokale Suche für MST)
10 Satz (Lokale Suche für MST) Die lokale Suche bzgl. der MST-Nachbarschaft ist ein polynomialer Algorithmus zur Bestimmung eines (global) optimalen MST, falls (a) immer eine Nichtbaumkante f gewählt wird, die billiger als die teuerste Kante auf dem von f induzierten Kreis K ist (b) immer die teuerste Baumkante e aus dem von f induzierten Kreis K entfernt wird Beweis:. Da die Nachbarschaft exakt ist, liefert der Algorithmus bei Terminierung eine global optimale Lösung 2. Der Algorithmus terminiert in polynomialer Zeit Claim : Eine ausgetauschte Kante kommt nie wieder zurück in den Baum Beweis durch Widerspruch Sei K der Kreis beim Austausch der Kante e, d.h. e wird entfernt. e K Betrachte späteren Zeitpunkt t, zu dem e zum ersten Mal als Nichtbaumkante gewählt wird und 8-9 Betrachte späteren Zeitpunkt t, zu dem e zum ersten Mal als Nichtbaumkante gewählt wird und wieder in den Baum kommt. => e erzeugt einen Kreis K' e K K' => K' ist aus K entstanden durch die Folge der lokalen Suchschritte bis zum Zeitpunkt t In jedem dieser Schritte schließt e (als Nichtbaumkante) einen Kreis K(e) im momentanen Baum Claim 2: In jedem Schritt gilt c(e) " c(g) für alle Kanten g K(e) Beweis durch Induktion entlang der Folge von Kreisen K = K, K 2, K 3,... Induktionsanfang (klar für K = K nach Konstruktion) Induktionsschritt von K i auf K i+ klar für K i = K i+ sei K i # K i+ Dann sind 2 Fälle möglich K entsteht durch Vergrößerung von K
11 8-0 K i+ entsteht durch Vergrößerung von K i => K i+ = K i - (einige Kanten inklusive der momentan gelöschten Kante e') + P (P ist Teil des momentanen Kreises aus dem wir e' löschen) P e e e' => c(e') " c(f) für alle Kanten f P wegen (b) c(e) " c(e') nach Induktionsvoraussetzung, (b) => c(e) " c(f) für alle Kanten f K i+ K i+ entsteht durch Verkleinerung von K i => K i+ = K + (einige Kanten inklusive der momentan hinzugefügten Kante e') - P (P ist Teil von K i ) 8- f 0 P e e e' => c(e') < c(f 0 ) für entfernte Kante f 0, c(e) " c(f) für alle Kanten f P nach Induktionsvoraussetzung => c(e) " c(f) für alle Kanten f K i+ Claim 2 => Widerspruch zur Wahl von e gemäß (a) Also gibt es maximal m-n+ Austauschschritte (m = # Kanten, n = # Knoten). Jeder dieser Schritte kann in O(n) durchgeführt werden teuerste Kante e im induzierten Kreis ermitteln und mit der Nichtbaumkante f vergleichen [durch Breitensuche in O(# Kanten im Baum) = O(n)] e und f austauschen, falls c(e) < c(f) [bei Speicherung des Baumes als Array von Adjazenzlisten in O(n)] Insgesamt also O((m-n+)n) = O(mn)
12 8-2 Insgesamt also O((m-n+)n) = O(mn)! Bemerkung: Haben in ADM I bessere Algorithmen kennengelernt, Kruskal O(m log n) und Prim O(n 2 ) Übung: Analyse der lokalen Suche für TSP mit der k-opt Nachbarschaft. Ist sie polynomial? 2.3 Konvexe Mengen und Funktionen 9- Konvexkombination zweier Vektoren Seien x, y R n. Dann heißt jeder Punkt der Form z = λ x + (-λ) y mit 0! λ! eine Konvexkombination von x und y (strikte Konvexkombination falls 0 < λ < ) die Konvexkombinationen sind genau die Punkte auf der Verbindungsgeraden zwischen x und y x-y x y Punkte auf Verbindungsgeraden haben als Vektoren die Form y + λ(x-y) Konvexe Menge S! R n heißt konvex, falls S alle Konvexkombinationen von je zwei Punkten x, y S enthält 2.2 Beispiel:
13 2.3 Konvexe Mengen und Funktionen 9-2 R n, Ø, {x}, x R n sind konvex Im R sind die konvexen Mengen genau die Intervalle Die konxen Mengen im R 2 sind solche ohne "Einbuchtungen" A B C 2.3 Lemma Der Durchschnitt von (beliebig vielen) konvexen Mengen ist konvex Beweis: Sei S = " i I S i, S i konvex Seien x, y S, 0! λ!, z = λ x + (-λ) y Def. S => x,y S i für alle i => z S i für alle i => z S! Lemma 2.3 ist Basis für die Definition der konvexen Hülle einer Menge Die konvexe Hülle conv(s) einer Menge S ist die kleinste konvexe Menge, die S enthält, d.h. 2.3 Konvexe Mengen und Funktionen 9-3!"#$%!& ' "! "# " ("#$)* Dieser Durchschnitt existiert, da M = R n an der Durchschnittsbildung beteiligt ist eine äquivalente Beschreibung (Übung) ist conv(s) = { λ x λ k x k x i S, λ i " 0, $ λ i =, k endlich } Satz von Caratheodory: k! n+ reicht im R n Konvexe Funktion Sei S! R n konvex. Eine Funktion c : S -> R heißt konvex in S, falls c(λ x + (-λ) y)! λ c(x) + (-λ) c(y) für alle x, y S, 0! λ! 2.4 Beispiel Jede lineare Funktion ist konvex Interpretation von konvexen Funktionen c : R -> R
14 2.3 Konvexe Mengen und Funktionen 9-4 c(y)!"c(x) + (-!) c(y) c(x) c x z y z := λ x + (-λ) y c(z)! λ c(x) + (-λ) c(y) 2.5 Lemma Sei c konvex in S! R n. Dann ist für jede reelle Zahl t die Niveaumenge S t := { x S c(x)! t } konvex Beweis: Sei z := λ x + (-λ) y mit x, y S t, 0! λ! => c(z)! λ c(x) + (-λ) c(y) da c konvex => z S t!! λ t + (-λ) t da x, y S t Niveaumengen einer konvexen Funktion c : R 2 -> R 2.3 Konvexe Mengen und Funktionen 9-5 Niveaumengen einer konvexen Funktion c : R 2 -> R c = 3 2 Konkave Funktion c in S! R n heißt konkav, falls -c konvex ist <=> c(λ x + (-λ) y) " λ c(x) + (-λ) c(y) für alle x, y S, 0! λ!
15 2.4 Konvexe Optimierungsprobleme 0- Konvexe Optimierung = Minimierung einer konvexen Funktion über einer konvexen Menge. 2.6 Satz (lokal - global) Sei I eine Instanz eines Optimierungsproblems mit S I! R n konvex und c konvex in S I. => Die Nachbarschaft N! (y) := { x S I : y-x!! } definiert durch den Euklidischen Abstand ist für jedes! > 0 exakt. Beweis: Sei! > 0 fest und y lokales Optimum bzgl. N!. Sei x S I beliebig. Zeige c(y)! c(x). Klar falls x N! (y) Sei also x N! (y) => für geeignete Wahl von λ ist z := λ x + (-λ) y N! (y) und z # y. 2.4 Konvexe Optimierungsprobleme 0-2 S I x z N! (y) y c konvex => c(z)! λ c(x) + (-λ) c(y), außerdem c(z) " c(y), da y lokal optimal!!#" "!# " $"!!%"!!%" "!# " $"!!%"!!""!! $!!%" $ $ Also c(x) " c(y)! Beachte: dies gilt ohne weitere Annahmen an c; insbesondere braucht c nicht differenzierbar zu sein. Historische Definition konvexer Optimierungsprobleme Eine Instanz I eines Optimierungsproblems heißt konvexes Optimierungsproblem falls S ist gegeben als Menge aller x R n, die folgende Nebenbedingungen erfüllen:
16 2.4 Konvexe Optimierungsprobleme 0-3 S I ist gegeben als Menge aller x R n, die folgende Nebenbedingungen erfüllen: g i (x) " 0 g i : R n -> R konkav, i =,...,m i =,...,m c ist konvex in S I 2.7 Lemma Die zulässige Menge S I einer Instanz I eines historisch definierten konvexen Optimierungsproblem ist konvex Beweis: g i konkav => -g i konvex => S i := { x -g i (x)! 0 } = { x g i (x) " 0 } konvex => S I = " i S i ist konvex wegen Lemma 2.3! 2.8 Satz In einem konvexen Optimierungsproblem ist jedes lokale Optimum ein globales Optimum 2.9 Bemerkung Es kann viele globale Optima geben 2.4 Konvexe Optimierungsprobleme 0-4 Es kann viele globale Optima geben Jede Instanz von LP ist ein konvexes Optimierungsproblem => jedes lokale Minimum ist ein globales Minimum Die Analysis bietet hinreichende Kriterien für die Konvexität glatter Funktionen: D! R n offen, c : D -> R ist 2-mal stetig differenzierbar, Hessematrix (= Matrix der 2. partiellen Ableitungen) von c ist positiv semidefinit
Optimale Lösungen mit Greedy-Strategie erfordern Optimalität der Greedy-Wahl. Beispiele für optimale Greedy-Lösungen
Wiederholung Optimale Lösungen mit Greedy-Strategie erfordern Optimalität der Greedy-Wahl unabhängig von Subproblemen Optimalität der Subprobleme Beispiele für optimale Greedy-Lösungen Scheduling Problem
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
Mehr1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)
. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)
Mehr8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule
1 / 31 8. Konvexe Tobias Boelter TopMath Frühlingsschule Mittwoch, 5. März 2014 2 / 31 Es können auch nicht konvexe untersucht werden, wir beschränken uns hier aber auf konvexe. Mit einem Polytop ist hier
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls
MehrAufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph.
Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph. a) Es seien W 1 = (V, E 1 ), W 2 = (V, E 2 ) Untergraphen von G, die beide Wälder sind. Weiter gelte E 1 > E 2.
Mehr4.2 Minimale Spannbäume: Der Algorithmus von Jarník/Prim Definition 4.2.1
Allgemeines. Minimale Spannbäume: Der Algorithmus von Jarník/Prim Definition.. (a) Ein Graph G =(V, E) heißt kreisfrei, wenn er keinen Kreis besitzt. Beispiel: Ein kreisfreier Graph: FG KTuEA, TU Ilmenau
Mehr6. Übung zur Linearen Optimierung SS08
6 Übung zur Linearen Optimierung SS08 1 Sei G = (V, E) ein schlichter ungerichteter Graph mit n Ecken und m Kanten Für eine Ecke v V heißt die Zahl der Kanten (u, v) E Grad der Ecke (a) Ist die Anzahl
MehrProseminar Online Algorithmen, Prof. Dr. Rolf Klein
Proseminar Online Algorithmen, Prof. Dr. Rolf Klein Vortrag von Michael Daumen am 13.12.2000 Thema : Minimum Spanning Tree und 2-Approximation der TSP-Tour Inhalt des Vortrags : 1. genaue Vorstellung des
MehrVorlesung Datenstrukturen
Vorlesung Datenstrukturen Minimale Spannbäume Maike Buchin 18.7., 20.7.2017 Einführung Motivation: Verbinde Inseln mit Fähren oder Städte mit Schienen und verbrauche dabei möglichst wenig Länge. Problem:
MehrBetriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 21 1 Approximationsalgorithmen auf
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrDatenstrukturen und Algorithmen
Prof. Dr. Erika Ábrahám Datenstrukturen und Algorithmen 1/1 Datenstrukturen und Algorithmen Vorlesung 14: Prof. Dr. Erika Ábrahám Theorie Hybrider Systeme Informatik 2 http://ths.rwth-aachen.de/teaching/ss-14/
MehrTeil I. Lineare Optimierung
Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,
Mehr3. Minimale Spannbäume. Definition 99 T heißt minimaler Spannbaum (MSB, MST) von G, falls T Spannbaum von G ist und gilt:
3. Minimale Spannbäume Sei G = (V, E) ein einfacher ungerichteter Graph, der o.b.d.a. zusammenhängend ist. Sei weiter w : E R eine Gewichtsfunktion auf den Kanten von G. Wir setzen E E: w(e ) = e E w(e),
MehrOperations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.
Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme
MehrBetriebswirtschaftliche Optimierung
Institut für Statistik und OR Uni Graz 1 Approximationsalgorithmen auf metrischen Instanzen Minimum Spanning Tree Definition (Spannbaum) Ein Spannbaum in einem Graphen G = (V,E) ist ein kreisfreier Teilgraph
MehrÜberblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP
Kap..1 Heuristiken Kap.. Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 3. VO DAP SS 008 14. Juli 009 Überblick
MehrKap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien
Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 23. VO DAP2 SS 2008 14. Juli 2009
Mehrmit. Wir definieren (Skalarprodukt = Winkel).
1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert
MehrKap. 3: Exakte Lösungsverfahren für NPschwierige. Optimierungsprobleme VO Algorithm Engineering
Kap. 3: Exakte Lösungsverfahren für NPschwierige kombinatorische Optimierungsprobleme VO Algorithm Engineering 3.1 Einführung Professor Dr. Petra Mutzel 3.2 Komb. vs. Ganzzahlige Opt. Lehrstuhl für Algorithm
Mehr3.6 Branch-and-Bound-Verfahren
36 Branch-and-Bound-Verfahren Die Branch-and-Bound -Methode beruht darauf, auf eine intelligente Weise alle zulässigen Lösungen eines kombinatorischen Optimierungsproblems aufzulisten und mit Hilfe von
MehrGanzzahlige lineare Programme
KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am 07..0 Minimale Schnitte in Graphen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
MehrÜbungsblatt 2 - Lösung
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 2 - Lösung Vorlesung Algorithmentechnik im WS 08/09 Ausgabe 04. November 2008 Abgabe 8. November, 5:0 Uhr (im Kasten vor Zimmer
MehrOperations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung
Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrEinführung in das Seminar Algorithmentechnik
Einführung in das Seminar Algorithmentechnik 10. Mai 2012 Henning Meyerhenke, Roland Glantz 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Roland undglantz: nationales Einführung Forschungszentrum
MehrDas Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering
Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme
MehrAlgorithmische Graphentheorie
Algorithmische Graphentheorie Vorlesung 7 und 8: Euler- und Hamilton-Graphen Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 17. April 2018 1/96 WIEDERHOLUNG Eulersche
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am 0..0 Minimale Schnitte in Graphen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
MehrMinimal spannende Bäume
http://www.uni-magdeburg.de/harbich/ Minimal spannende Fakultät für Informatik Otto-von-Guericke-Universität 2 Inhalt Definition Wege Untergraphen Kantengewichtete Graphen Minimal spannende Algorithmen
MehrBäume und Wälder. Seminar: Graphentheorie Sommersemester 2015 Dozent: Dr. Thomas Timmermann
Bäume und Wälder Seminar: Graphentheorie Sommersemester 2015 Dozent: Dr. Thomas Timmermann Ida Feldmann 2-Fach Bachelor Mathematik und Biologie 6. Fachsemester Inhaltsverzeichnis Einleitung 1 1. Bäume
MehrAlgorithmische Graphentheorie
1 Algorithmische Graphentheorie Sommersemester 2014 5. Vorlesung Matchings / Paarungen II Kombinatorischer Algorithmus, Anwendung für Handlungsreisende, LP-Runden Dr. Joachim Spoerhase Prof. Dr. Alexander
MehrGrundlagen: Algorithmen und Datenstrukturen
Grundlagen: Algorithmen und Datenstrukturen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 00
MehrWie findet man den optimalen Weg zum Ziel? Klassische Probleme der Kombinatorischen Optimierung
Wie findet man den optimalen Weg zum Ziel? Klassische Probleme der Kombinatorischen Optimierung Teilnehmer/innen: Markus Dahinten, Graf Münster Gymnasium Bayreuth Robert Fay, Herder Gymnasium Berlin Falko
MehrDefinition Ein gerichteter Graph G = (V, E) ist ein Graph von geordneten Paaren (u, v) mit u V und v V.
Kapitel 4 Graphenalgorithmen 4.1 Definitionen Definition 4.1.1. Der Graph G = (V, E) ist über die beiden Mengen V und E definiert, wobei V die Menge der Knoten und E die Menge der Kanten in dem Graph ist.
MehrFolien aus der Vorlesung Optimierung I SS2013
Folien aus der Vorlesung Optimierung I SS2013 Dr. Jens Maßberg Institut für Optimierung und Operations Research, Universität Ulm July 10, 2013 Datenstrukturen für Graphen und Digraphen Graph Scanning Algorithmus
Mehrzul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) =
2. Grundlagen der nicht-linearen konvexen Optimierung 2.1. Die Karush-Kuhn-Tucker Bedingungen. Unser Basisproblem (NLO) sei geben durch min f(x) NLO g i (x) 0, i I = {1,..., m} x R n f, g i stetig differenzierbar.
MehrEigenschaften von LPs
2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört
MehrTheoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
MehrDualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
Mehr3. Musterlösung. Problem 1: Boruvka MST
Universität Karlsruhe Algorithmentechnik Fakultät für Informatik WS 06/07 ITI Wagner. Musterlösung Problem : Boruvka MST pt (a) Beweis durch Widerspruch. Sei T MST von G, e die lokal minimale Kante eines
MehrGraphentheorie. Kürzeste Wege. Kürzeste Wege. Kürzeste Wege. Rainer Schrader. 25. Oktober 2007
Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 25. Oktober 2007 1 / 20 2 / 20 Wir werden Optimierungsprobleme vom folgenden Typ betrachten: gegeben eine Menge X und eine Funktion
MehrVortrag 20: Kurze Vektoren in Gittern
Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die
MehrÜbung zur Vorlesung Diskrete Mathematik (MAT.107) Blatt Beispiellösungen Abgabefrist:
Svenja Hüning, Michael Kerber, Hannah Schreiber WS 2016/2017 Übung zur Vorlesung Diskrete Mathematik (MAT.107) Blatt Beispiellösungen Abgabefrist: Hinweise: Dieses Blatt präsentiert Beispiellösungen zu
Mehr5. Bäume und Minimalgerüste
5. Bäume und Minimalgerüste Charakterisierung von Minimalgerüsten 5. Bäume und Minimalgerüste Definition 5.1. Es ein G = (V, E) ein zusammenhängender Graph. H = (V,E ) heißt Gerüst von G gdw. wenn H ein
MehrDas Multi Traveling Salesman Problem
Das Multi Traveling Salesman Problem Harald Voit Seminar Ganzzahlige Optimierung 19. bis 21. Januar 2007 Wallenfels Das Multi Traveling Salesman Problem p.1/26 Übersicht Vom TSP zum ATSP Das Multi Traveling
MehrAnalysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit
A Analysis, Woche 9 Mehrdimensionale Differentialrechnung I A 9. Differenzierbarkeit A3 =. (9.) Definition 9. Sei U R m offen, f : U R n eine Funktion und a R m. Die Funktion f heißt differenzierbar in
MehrDas Matching Polytop
Das Matching Polytop Manuel Schneider Institut für Mathematik, TU Berlin Seminar: Algorithmische Diskrete Mathematik 27. Mai 2008 Überblick 1 Beschreibungen durch Ungleichungen Das Perfekte Matching Polytop
MehrOperations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung.
Operations Research Rainer Schrader Flüsse in Netzwerken Zentrum für Angewandte Informatik Köln 2. Juli 2007 1 / 53 2 / 53 Flüsse in Netzwerken Unimodularität Gliederung Netzwerke und Flüsse bipartite
MehrWir betrachten einen einfachen Algorithmus, der den Zusammenhang eines Graphen testen soll.
Kapitel 2 Zusammenhang 2.1 Zusammenhängende Graphen Wir betrachten einen einfachen Algorithmus, der den Zusammenhang eines Graphen testen soll. (1) Setze E = E, F =. (2) Wähle e E und setze F = F {e},
MehrTheoretische Informatik 1
Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 02.07.2015 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP
Mehr11. Übung zu Algorithmen I 6. Juli 2016
11. Übung zu Algorithmen I 6. Juli 2016 Lisa Kohl lisa.kohl@kit.edu mit Folien von Lukas Barth Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP ein Algorithmus
MehrMusterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:
Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,
MehrDie Theorie der Toleranzen und deren Anwendung auf das Traveling Salesman Problem
Die Theorie der Toleranzen und deren Anwendung auf das Traveling Salesman Problem Gerold Jäger 4. Februar 2010 Gerold Jäger Theorie der Toleranzen 4. Februar 2010 1 / 35 Überblick 1 Theorie der Toleranzen
Mehr\ E) eines Graphen G = (V, E) besitzt die gleiche Knotenmenge V und hat als Kantenmenge alle Kanten des vollständigen Graphen ohne die Kantenmenge E.
Das Komplement Ḡ = (V, ( V ) \ E) eines Graphen G = (V, E) besitzt die gleiche Knotenmenge V und hat als Kantenmenge alle Kanten des vollständigen Graphen ohne die Kantenmenge E. Ein Graph H = (V, E )
MehrTheoretische Informatik 1
Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 10.06.2016 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP
MehrAlgorithmische Geometrie, SoSe 2005 Skriptmitschrift vom 29. April 2005
Algorithmische Geometrie, SoSe 2005 Skriptmitschrift vom 29. April 2005 Antonia Wittmers Igor Savchenko Konvexe Hüllen Inkrementeller Algorithmus für die konvexe Hülle Dabei heißt inkrementeller Algorithmus,
Mehr3 Klassifikation wichtiger Optimierungsprobleme
3 Klassifikation wichtiger Optimierungsprobleme 3.1 Das MIN- -TSP Wir kehren nochmal zurück zum Handlungsreisendenproblem für Inputs (w {i,j} ) 1 i
MehrEuler und Hamiltonkreise
Euler und Hamiltonkreise 1. Königsberger Brücken 2. Eulerwege und Kreise Definition, Algorithmus mit Tiefensuche 3. Hamiltonwege und Kreise Definition 4. Problem des Handlungsreisenden Enumeration und
MehrKapitel IV Minimale Spannbäume
Kapitel IV Minimale Spannbäume 1. Grundlagen Ein Graph G = (V, E) besteht aus einer Menge V von Knoten und einer Menge E von Kanten. Wir werden nur endliche Knoten- (und damit auch Kanten-) Mengen betrachten.
MehrAlgorithmische Geometrie: Delaunay Triangulierung (Teil 2)
Algorithmische Geometrie: Delaunay Triangulierung (Teil 2) Nico Düvelmeyer WS 2009/2010, 2.2.2010 Überblick 1 Delaunay Triangulierungen 2 Berechnung der Delaunay Triangulierung Randomisiert inkrementeller
Mehr1.Aufgabe: Minimal aufspannender Baum
1.Aufgabe: Minimal aufspannender Baum 11+4+8 Punkte v 1 v 2 1 3 4 9 v 3 v 4 v 5 v 7 7 4 3 5 8 1 4 v 7 v 8 v 9 3 2 7 v 10 Abbildung 1: Der Graph G mit Kantengewichten (a) Bestimme mit Hilfe des Algorithmus
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik
Lösungsskizzen zu den Klausuraufgaben zum Kurs Algorithmische Mathematik KSL09 Aufgabe. Zeigen oder widerlegen Sie: Es existiert ein Graph mit Valenzsequenz (8,,,,,,,,,). Geben Sie im Falle der Existenz
MehrKAPITEL 3. Konvexe Funktionen
KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn
MehrInnere-Punkt-Methoden
Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction
MehrKAPITEL 10 DIE INNERE-PUNKTE-METHODE
KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach
MehrAlgorithmische Graphentheorie
Algorithmische Graphentheorie Vorlesung 6: Kreis- und Wegeprobleme Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 27. März 2018 1/47 KREIS- UND WEGEPROBLEME 2/47
MehrDie Tangentialebene. {(x, y, z) z = f(x 0, y 0 )+ f x (x 0, y 0 )(x x 0 )+ f. y (x 0, y 0 )(y y 0 )}
Die Tangentialebene Der Graph der linearen Approximation ist Tangentialebene an den Graph der Funktion. In Symbolen: Es sei D R 2. Es sei f : D R, (x, y) f(x, y) differenzierbar. Dann ist {(x, y, z) z
MehrComputer Science Department - High Performance and Web Computing Group. Optimierungsprobleme
Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 18 Was tun mit NP-harten Problemen? Viele praxisrelevante
MehrSchnittebenenverfahren und Heuristiken
KAPITEL 6 Schnittebenenverfahren und Heuristiken Wir betrachten nun Optimierungsprobleme vom Typ (68) minc T x s.d. Ax b,x 0,x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n,b R m gegeben
MehrDas Trust-Region-Verfahren
Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein
MehrKap. 4: Lineare Programmierung
Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.
MehrEulerweg, Eulerkreis. Das Königsberger Brückenproblem. Definition 3.1. Ein Weg, der jede Kante von G genau einmal
3. Kreis- und Wegeprobleme Kapitelübersicht 3. Kreis- und Wegeprobleme Eulerweg, Eulerkreis Charakterisierung von eulerschen Graphen Bestimmung von eulerschen Wegen und Kreisen Hamiltonsche Graphen Definition
MehrInformatik III - WS07/08
Informatik III - WS07/08 Kapitel 4 1 Informatik III - WS07/08 Prof. Dr. Dorothea Wagner dwagner@ira.uka.de Kapitel 4 : Komplexitätsklassen Informatik III - WS07/08 Kapitel 4 2 Sprachen, Probleme, Zeitkomplexität
Mehr6. Musterlösung. Problem 1: Abgeschlossenheit der Addition *
Universität Karlsruhe Algorithmentehnik Fakultät für Informatik WS 05/06 ITI Wagner 6. Musterlösung Problem 1: Abgeshlossenheit der Addition * Zeigen oder widerlegen Sie: Die Summe 1 2 zweier Kreise ist
Mehr1. Klausur zur Vorlesung Algorithmentechnik Wintersemester 2005/2006
1. Klausur zur Vorlesung Algorithmentechnik Wintersemester 2005/2006 Hier Aufkleber mit Name und Matrikelnummer anbringen Vorname: Nachname: Matrikelnummer: Beachten Sie: Bringen Sie den Aufkleber mit
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 4. Januar 2011 Berthold Vöcking, Informatik 1 () Vorlesung
MehrFerienkurs zur algorithmischen diskreten Mathematik Kapitel 1: Grundlagen der algorithmischen Graphentheorie
Ferienkurs zur algorithmischen diskreten Mathematik Kapitel 1: Grundlagen der algorithmischen Graphentheorie Dipl-Math. Wolfgang Kinzner 2.4.2012 Kapitel 1: Grundlagen der algorithmischen Graphgentheorie
Mehr1 Der Simplex Algorithmus I
1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier
MehrDas Steinerbaumproblem
Das Steinerbaumproblem Natalie Richert Fakultät für Elektrotechnik, Informatik und Mathematik, Universität Paderborn 4. Februar 008 / 3 Überblick Problembeschreibung Vorstellung von zwei Approimationsalgorithmen
MehrVorlesung: Analysis II für Ingenieure. Wintersemester 07/08. Michael Karow. Themen: Niveaumengen und Gradient
Vorlesung: Analysis II für Ingenieure Wintersemester 07/08 Michael Karow Themen: Niveaumengen und Gradient Wir betrachten differenzierbare reellwertige Funktionen f : R n G R, G offen Zur Vereinfachung
MehrVORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 20. November 2014 INSTITUT FÜR THEORETISCHE 0 KIT 20.11.2014 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der
MehrMinimal spannender Baum
Minimal spannender Baum 16 1 2 21 5 11 19 6 6 3 14 33 10 5 4 18 Die Kreise zeigen die vorgesehenen Standorte neu zu errichtender Filialen einer Bank. Entlang der bestehenden Straßen sollen Telefonleitungen
MehrApproximationsalgorithmen
Approximationsalgorithmen 1. Vorlesung Joachim Spoerhase Alexander Wolff Lehrstuhl für Informatik I Wintersemester 2017/18 Bücher zur Vorlesung Vijay V. Vazirani Approximation Algorithms Springer-Verlag
MehrAlgorithmische Graphentheorie
Algorithmische Graphentheorie Vorlesung 4: Suchstrategien Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 14. April 2017 HALBORDNUNG TOPOLOGISCHE ORDNUNG TOPOLOGISCHES
MehrSchnittebenenverfahren für das symmetrische
Schnittebenenverfahren für das symmetrische TSP Sebastian Peetz Mathematisches Institut Universität Bayreuth 19. Januar 2007 / Blockseminar Ganzzahlige Optimierung, Bayreuth Gliederung 1 Das symmetrische
MehrVon den Kanten von Gewicht 4 wird nur noch eine ausgewählt, die zu dem letzten nicht ausgewählten Knoten führt: 1. Juni
CHAPTER. GRAPHEN.. B Ä UME.. Bäume Ein schlichter Graph ohne Kreise heisst Wald, ist er noch zusätzlich zusammenhängend so wird er Baum genannt. Bevor wir Bäume genauer beschreiben ein kleines LEMMA...
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 16 Programm: Einführung
MehrWas bisher geschah. gerichtete / ungerichtete Graphen G = (V, E) Darstellungen von Graphen
Was bisher geschah gerichtete / ungerichtete Graphen G = (V, E) Darstellungen von Graphen Spezielle Graphen: I n, K n, P n, C n, K m,n, K 1,n, K n1,...,n m Beziehungen zwischen Graphen: Isomorphie, Teilgraph,
MehrInformatik II, SS 2016
Informatik II - SS 208 (Algorithmen & Datenstrukturen) Vorlesung 4 (..208) Graphenalgorithmen III Algorithmen und Komplexität Bäume Gegeben: Zusammenhängender, ungerichteter Graph G = V, E Baum: Zusammenhängender,
Mehr3.2 Generischer minimaler Spannbaum-Algorithmus
3.2 Generischer minimaler Spannbaum-Algorithmus Initialisiere Wald F von Bäumen, jeder Baum ist ein singulärer Knoten (jedes v V bildet einen Baum) while Wald F mehr als einen Baum enthält do wähle einen
MehrKapitel 8: Bipartite Graphen Gliederung der Vorlesung
Gliederung der Vorlesung 1. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege 4. Minimale spannende Bäume 5. Färbungen und Cliquen 6. Traveling Salesman Problem 7. Flüsse in Netzwerken
Mehr