Kombinatorische Optimierung
|
|
- Moritz Meyer
- vor 5 Jahren
- Abrufe
Transkript
1 Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
2 Wiederholung Bin-Packing: Bin-Packing N PC schon für zwei Behälter, im allgemeinen Fall streng N P-vollständig Greedy-Algorithmen: First-Fit-Decreasing hat relative Güte 3/2 2 Henning Meyerhenke:
3 Wiederholung Bin-Packing: Bin-Packing N PC schon für zwei Behälter, im allgemeinen Fall streng N P-vollständig Greedy-Algorithmen: First-Fit-Decreasing hat relative Güte 3/2 Asymptotisches Approximationsschema: Partitioniere Zahlen in Gruppe gemäß ihrer Größe Packe die größten Zahlen, jede Zahl in einen Behälter Mittlere Gruppen verpacken Kleine Gruppe u.a. mit NEXTFIT verpacken 2 Henning Meyerhenke:
4 Vorlesungen 19 und 20 Programm: Übung zu linearer Programmierung Übungen zum Bin-Packing Wiederholung des bisherigen Stoffes Approximation von Max-Cut 3 Henning Meyerhenke:
5 Inhalt Approximation Max-Cut Der Algorithmus von Goemans und Williamson Das Problem des dünnsten Schnitts 4 Henning Meyerhenke:
6 Schnitte maximaler Größe in Graphen Problem (Max-Cut) Sei G = (V, E) ein ungerichteter Graph. Finde eine Partition (V 1, V 2 ) in G mit maximaler Schnittgröße! Bemerkung Komplexität: N P-schwer 5 Henning Meyerhenke:
7 Schnitte maximaler Größe in Graphen Problem (Max-Cut) Sei G = (V, E) ein ungerichteter Graph. Finde eine Partition (V 1, V 2 ) in G mit maximaler Schnittgröße! Bemerkung Komplexität: N P-schwer Beispiel: Siehe Tafel! 5 Henning Meyerhenke:
8 Einfacher deterministischer Max-Cut-Algorithmus SIMPLEAPPROXMAXCUT(Graph G = (V, E)) Sei (V 1, V 2 ) eine beliebige Partition von V while es gibt einen Knoten v mit mehr internen als externen Kanten do Verschiebe v in den jeweils anderen Teil der Partition od 6 Henning Meyerhenke:
9 Einfacher deterministischer Max-Cut-Algorithmus SIMPLEAPPROXMAXCUT(Graph G = (V, E)) Sei (V 1, V 2 ) eine beliebige Partition von V while es gibt einen Knoten v mit mehr internen als externen Kanten do Verschiebe v in den jeweils anderen Teil der Partition od Behauptung: Der obige Algorithmus hat relative Güte 2. Frage: Warum? Beweisen Sie in Gruppenarbeit! 6 Henning Meyerhenke:
10 Inhalt Approximation Max-Cut Der Algorithmus von Goemans und Williamson Das Problem des dünnsten Schnitts 7 Henning Meyerhenke:
11 Einführende Grundlagen Definition Eine n n-matrix A über R heißt genau dann positiv semidefinit, wenn gilt: x R n : x T Ax 0. 8 Henning Meyerhenke:
12 Einführende Grundlagen Definition Eine n n-matrix A über R heißt genau dann positiv semidefinit, wenn gilt: x R n : x T Ax 0. Definition Semidefinites Programm SDP: optimiere C X = c ij x ij i,j udn A k X = a k,ij x ij b k i,j k, wobei X = (x ij ) symmetrisch positiv semidefinit ist. Beispiel: Siehe Tafel! 8 Henning Meyerhenke:
13 Fakten zur semidefiniten Programmierung Gram: A ist genau dann symmetrisch positiv semidefinit, wenn es eine m n-matrix B gibt mit B T B = A. Cholesky: Ist A positiv semidefinit und symmetrisch, kann die obige Matrix B in Zeit O(n 3 ) mittels Cholesky-Zerlegung berechnet werden. 9 Henning Meyerhenke:
14 Fakten zur semidefiniten Programmierung Gram: A ist genau dann symmetrisch positiv semidefinit, wenn es eine m n-matrix B gibt mit B T B = A. Cholesky: Ist A positiv semidefinit und symmetrisch, kann die obige Matrix B in Zeit O(n 3 ) mittels Cholesky-Zerlegung berechnet werden. Diagonale: Sind alle Diagonaleinträge einer symmetrisch positiv semidefiniten Matrix A gleich 1, sind die Spalten der zugehörigen Matrix B Einheitsvektoren im R n. Komplexität: Semidefinite Optimierung kann in Zeit O(poly(n, m, log( 1 ε )) mit absoluter Güte ε für beliebiges ε > 0 gelöst werden. 9 Henning Meyerhenke:
15 Arithmetisierung von Max-Cut Sei A G die Adjazenzmatrix des Graphen G. Sei x der Indikatorvektor für eine Partition von G, d. h. x i = Zu Kante {v i, v j } E betrachte: Größe des Schnitts: C(x) = {v i,v j } E { 1 falls vi V 1 +1 falls v i V 2 { 1 2 (1 x 1 {v ix j ) = i, v j } liegt im Schnitt 0 sonst. 1 2 (1 x ix j ) = 2 1 a ij (1 x i x j ). i<j 10 Henning Meyerhenke:
16 Max-Cut als quadratisches Optimierungsproblem QUADRATISCHES PROGRAMM (QP) FÜR MAX-CUT: maximiere 1 2 a ij (1 x i x j ) (1) i<j udn x i { 1, +1} i (2) 11 Henning Meyerhenke:
17 Max-Cut als quadratisches Optimierungsproblem QUADRATISCHES PROGRAMM (QP) FÜR MAX-CUT: maximiere 1 2 a ij (1 x i x j ) (1) i<j udn x i { 1, +1} i (2) Bemerkung Ganzzahligkeit der x i macht das QP schwer lösbar (N P-schwer). 11 Henning Meyerhenke:
18 Max-Cut als quadratisches Optimierungsproblem QUADRATISCHES PROGRAMM (QP) FÜR MAX-CUT: maximiere 1 2 a ij (1 x i x j ) (1) i<j udn x i { 1, +1} i (2) Bemerkung Ganzzahligkeit der x i macht das QP schwer lösbar (N P-schwer). Relaxierung und schließlich Transformation in ein SDP. 11 Henning Meyerhenke:
19 Relaxiertes QP Ersetze zunächst binäre Variablen x i durch Vektoren x i mit n Einträgen, davon ist der erste aus {-1, +1}, der Rest 0 Feststellung: x i hat Länge 1, ändert aber noch nichts an Komplexität Relaxierung: Ersetze x i durch reelle Vektoren u i der Länge 1 (d. h. u i u i = 1). 12 Henning Meyerhenke:
20 Relaxiertes QP Ersetze zunächst binäre Variablen x i durch Vektoren x i mit n Einträgen, davon ist der erste aus {-1, +1}, der Rest 0 Feststellung: x i hat Länge 1, ändert aber noch nichts an Komplexität Relaxierung: Ersetze x i durch reelle Vektoren u i der Länge 1 (d. h. u i u i = 1). Relaxiertes QP für Max-Cut maximiere 1 2 a ij (1 u i u j ) i<j (3) udn u i ist Vektor der Länge 1 i (4) 12 Henning Meyerhenke:
21 Umformulierung des relaxierten QP in SDP n 2 neue Variablen y ij mit y ij = u i u j, Y = (y ij ). Sei B die Matrix, deren Spalten die Vektoren u i sind. Es gilt: Y = B T B. Y ist symm. pos. semidefinit, y ii = Henning Meyerhenke:
22 Umformulierung des relaxierten QP in SDP n 2 neue Variablen y ij mit y ij = u i u j, Y = (y ij ). Sei B die Matrix, deren Spalten die Vektoren u i sind. Es gilt: Y = B T B. Y ist symm. pos. semidefinit, y ii = 1. Semidefinites Programm SD-Cut für Max-Cut maximiere 1 2 a ij (1 y ij ) (5) i<j udn Y = (y ij ) ist symmetrisch positiv semidefinit (6) y ii = 1 i (7) 13 Henning Meyerhenke:
23 Lösung des relaxierten Problems Wir lösen nun SD-CUT in polynomieller Zeit mit absolutem Fehler ε (als bekannt vorausgesetzt). Berechne y (ε) ij mit 0 OPT(SD-CUT) 2 1 a ij (1 y (ε) ij ) ε. i<j Abschätzung für später: Da OPT(G) OPT(SD-CUT) (Relaxierung vergrößert Lösungsraum), folgt: OPT(SD-CUT) 1 2 a ij (1 y (ε) ij ) ε (8) i<j OPT(SD-CUT) ε 1 2 a ij (1 y (ε) ij ) (9) i<j OPT(G) ε 1 2 a ij (1 y (ε) ij ). (10) i<j 14 Henning Meyerhenke:
24 Rücktransformation in Max-Cut-Lösung Anwendung von Fakten (Folie 9): Cholesky-Zerlegung: Aus Y (ε) die Matrix B bestimmen. Die Spalten von B sind die Vektoren u i. Die u i sind Einheitsvektoren (wegen y ii = 1). 15 Henning Meyerhenke:
25 Rücktransformation in Max-Cut-Lösung Anwendung von Fakten (Folie 9): Cholesky-Zerlegung: Aus Y (ε) die Matrix B bestimmen. Die Spalten von B sind die Vektoren u i. Die u i sind Einheitsvektoren (wegen y ii = 1). Umwandlung der u i in Indikatorvariablen x i : Teile Vektoren in zwei Mengen auf! Idee: Bestimme zufällig den Normalenvektor r einer Trennebene durch den Ursprung. Vektoren werden je nach Lage bzgl. Trennebene in V 1 oder V 2 verteilt. Fakt: Ist sgn(r u i ) = sgn(r u j ), liegen u i und u j auf verschiedenen Seiten der Trennebene. 15 Henning Meyerhenke:
26 Algorithmus SDP-MAX-CUT 16 Henning Meyerhenke:
27 Algorithmus SDP-MAX-CUT Theorem Sei G = (V, E) ein Graph mit mindestens einer Kante. Für den Algorithmus MAX-CUT gilt: E[MAX-CUT(G)] OPT(G), d. h. die erwartete relative Güte beträgt Henning Meyerhenke:
28 Beweisbeginn Für die Indikatorvariable z ij = ist E[z ij ] = a ij P[x i = x j ] und damit E[MAX-CUT(G)] = { 1 falls {u i, u j } über den Schnitt geht, 0 sonst {u i,u j } E z ij = i<j a ij E[z ij ] = a ij P[x i = x j ] i<j = a ij P[sgn(r u i ) = sgn(r u j )]. i<j Fakt: Alle Schnittgeraden mit der durch u i und u j aufgespannten Ebene sind gleich wahrscheinlich. Fakt: Für u [ 1, +1] gilt: arccos π u Weiter an der Tafel! (1 u) Henning Meyerhenke:
29 Zusammenfassung Max-Cut einfach mit relativer Güte 2 zu approximieren Arithmetisierung führt zu quadratischem Programm für Max-Cut Relaxierung auf SDP, Lösung als Black Box" 18 Henning Meyerhenke:
30 Zusammenfassung Max-Cut einfach mit relativer Güte 2 zu approximieren Arithmetisierung führt zu quadratischem Programm für Max-Cut Relaxierung auf SDP, Lösung als Black Box" Rücktransformation: Entscheidung anhand von Lage zu zufälliger Trennebene 1 Relative Güte von rührt von Abschätzung des arccos her, zugehöriger Winkel zwischen den Vektoren u i und u j 18 Henning Meyerhenke:
31 Vorlesung 21 Programm: Approximation des dünnsten Schnitts 19 Henning Meyerhenke:
32 Inhalt Approximation Max-Cut Der Algorithmus von Goemans und Williamson Das Problem des dünnsten Schnitts 20 Henning Meyerhenke:
33 Einführung Definition (SPARSESTCUT) Sei G = (V, E) ein Graph mit n Knoten und m Kanten Für eine nicht leere Menge S V bezeichne (S, S) die Menge der Kanten von G, die genau einen Endknoten in S haben (Schnitt) Ein dünnster Schnitt des Graphen G = (V, E) hat die Größe E(S, S) min S V, S V /2 S Das Berechnen des dünnsten Schnitts hat wichtige Anwendungen in der Theorie: Divide-and-Conquer-Algorithmen 21 Henning Meyerhenke:
34 Historie Wie Probleme zuvor ist SPARSESTCUT N P-schwer zu optimieren. Approximationen für SPARSESTCUT und eng verwandte Probleme: Eigenvektor-basierte Ansätze mit Faktor-n-Approximation (Cheeger 70, Alon 85, Alon-Milman 85) O(log n)-approximation mit LP (Mehrgüter-Flüsse) von Leighton und Rao ( 88) Nun: Arora, Rao und Vazirani ( 04, 09): O( log n)-approximation in Polynomialzeit Neuere Techniken existieren (schneller, aber nicht mit besserer Güte) 22 Henning Meyerhenke:
35 Der ARV-Algorithmus [Arora, Rao und Vazirani] Kernidee: Einbettung der Knoten in einen abstrakten Raum, wobei die Kanten nicht zu sehr gedehnt werden dürfen, Partitionierung des Graphen durch Partitionierung des Raumes 23 Henning Meyerhenke:
36 Der ARV-Algorithmus [Arora, Rao und Vazirani] Kernidee: Einbettung der Knoten in einen abstrakten Raum, wobei die Kanten nicht zu sehr gedehnt werden dürfen, Partitionierung des Graphen durch Partitionierung des Raumes Vorgehensweise: Wir konstruieren ein semidefinites Programm (SDP) für SPARSESTCUT Die Lösung des SDP weist jedem Knoten i einen Punkt x i auf der Einheitskugel im R n zu Diese Lösung kann man als l 2 2 -Metrik ansehen: d(i, j) = x i x j 2 2 Ziel: Zuweisung finden, die die durchschnittliche Distanz zwischen allen Knotenpaaren groß macht, die durchschnittliche Distanz zwischen adjazenten Knoten aber klein Komplexität der Einbettung hängt von Metrik ab, für l 1 und l 2 N P-schwer, daher verwenden wir die l 2 2 -Norm 23 Henning Meyerhenke:
37 Der ARV-Algorithmus Vorgehensweise (Forts.) Das Haupttheorem besagt, dass man unter gewissen Voraussetzungen ein Paar von Teilmengen S, T X eines metrischen Raums X findet, so dass S, T = Ω(n) und 1 d(s, T ) = = Ω( ) log n Dann lässt sich d in l 1 mit durchschnittlicher Verzerrung O( log n) einbetten: Bilde jedes x X auf d(x, S) ab Hierdurch wird auf die Gerade R eingebettet Wähle für d in X die quadratische Euklidische Norm l Henning Meyerhenke:
38 Der ARV-Algorithmus Vorgehensweise (Forts.) Das Haupttheorem besagt, dass man unter gewissen Voraussetzungen ein Paar von Teilmengen S, T X eines metrischen Raums X findet, so dass S, T = Ω(n) und 1 d(s, T ) = = Ω( ) log n Dann lässt sich d in l 1 mit durchschnittlicher Verzerrung O( log n) einbetten: Bilde jedes x X auf d(x, S) ab Hierdurch wird auf die Gerade R eingebettet Wähle für d in X die quadratische Euklidische Norm l 2 2 Beim anschließenden Runden macht man nicht zu viel falsch 24 Henning Meyerhenke:
39 Der ARV-Algorithmus Vorgehensweise (Forts.) Um das Theorem zu beweisen, gibt man einen randomisierten Algorithmus mit zwei Phasen an, der die gewünschten Teilmengen S und T findet Phase 1: Wähle zufällig eine Hyperebene und teile X in zwei Punktmengen, die relativ weit (Θ(1/ log n)) von der Hyperebene entfernt liegen, jeweils auf unterschiedlichen Seiten Phase 2: Entferne wiederholt Paare von Punkten, die in den verschiedenen ( Hälften liegen und einander zu nah sind (näher als O 1 log n )) 25 Henning Meyerhenke:
40 Der ARV-Algorithmus Vorgehensweise (Forts.) Um das Theorem zu beweisen, gibt man einen randomisierten Algorithmus mit zwei Phasen an, der die gewünschten Teilmengen S und T findet Phase 1: Wähle zufällig eine Hyperebene und teile X in zwei Punktmengen, die relativ weit (Θ(1/ log n)) von der Hyperebene entfernt liegen, jeweils auf unterschiedlichen Seiten Phase 2: Entferne wiederholt Paare von Punkten, die in den verschiedenen ( Hälften liegen und einander zu nah sind (näher als O 1 log n )) Man erhält so zwei Mengen, die weit genug auseinander liegen Schwierigkeit: Zu zeigen, dass beide Mengen Ω(n) Punkte haben 25 Henning Meyerhenke:
41 Modellierung von SPARSESTCUT { } E(S, S) SC(G) = min : S V, S n S 2 { } ij E d(i, j) E(S, S) η(g) = min = d=δ S i,j d(i, j) S S Mit Indikatorvektor x ergibt sich: SC(G) nη(g) 2SC(G) η(g) = ij E (x i x j ) 2 min x i { 1,1} i,j (x i x j ) 2 Zur Erinnerung: ij E (x i x j ) 2 = x T Lx Klar: Optimierung von η(g) ist N P-schwer 26 Henning Meyerhenke:
42 Einheits-l 2 2 -Repräsentation Idee: Relaxierung mit Einheits-l 2 2 -Repräsentation Definition (l 2 2 -Repräsentation) Eine l 2 2-Repräsentation eines Graphen ist eine Zuweisung eines Punktes (Vektors) an jeden Knoten, etwa x i an Knoten i, so dass für alle i, j, k die Dreiecksungleichung gilt: x i x j 2 + x j x k 2 x i x k 2 Eine l 2 2 -Repräsentation heißt Einheits-l2 2 -Repräsentation, falls alle Punkte auf der Einheitskugel liegen, d. h. Länge 1 haben. 27 Henning Meyerhenke:
43 Relaxierung von SPARSESTCUT Relaxierung der x i von ganzen Zahlen aus der Menge { 1, 1} zu n-dimensionalen Einheitsvektoren: η (G) = ij E x i x j 2 min x i R n, x i 2 =1 i,j x i x j 2 Resultat: Semidefinites Programm (SDP): 1 min x i R n 4 x i x j 2 (11) ij E s.t. i x i 2 = 1 (Vektoren der Länge 1) (12) i, j, k x i x j 2 + x j x k 2 x i x k 2 (13) i<j x i x j 2 4c(1 c)n 2 (14) 28 Henning Meyerhenke:
44 Relaxierung von SPARSESTCUT (Forts.) Umformung in SDP durch passende Skalierung: min x i x j 2 (15) ij E s.t. i, j, k x i x j 2 + x j x k 2 x i x k 2 (16) i<j x i x j 2 = 1 (17) Durch die Dreiecksungleichungen werden die Lösungen auf l 2 2-Metriken beschränkt Durch die Länge 1 der gesuchten Vektoren (vorige Formulierung) liegen diese auf der Einheitskugel 29 Henning Meyerhenke:
45 Semidefinite Programmierung Definition Eine n n-matrix Y über R heißt genau dann positiv semidefinit, wenn gilt: x R n : x T Yx 0. Definition SEMIDEFINITES PROGRAMM SDP: optimiere C Y = c ij y ij i,j gemäß A k Y = a k,ij y ij b k i,j k, wobei Y = (y ij ) symmetrisch positiv semidefinit ist. Semidefinite Optimierung kann in Zeit O(poly(n, m, log( 1 ε )) mit absoluter Güte ε für beliebiges ε > 0 gelöst werden. 30 Henning Meyerhenke:
46 Fakten zur SDP Y ist genau dann symmetrisch positiv semidefinit, wenn es eine m n-matrix X gibt mit X T X = Y. Also: Y ij = x i, x j 31 Henning Meyerhenke:
47 Fakten zur SDP Y ist genau dann symmetrisch positiv semidefinit, wenn es eine m n-matrix X gibt mit X T X = Y. Also: Y ij = x i, x j Ist Y positiv semidefinit und symmetrisch, kann die obige Matrix X in Zeit O(n 3 ) mittels Cholesky-Zerlegung berechnet werden. Sind alle Diagonaleinträge einer symmetrisch positiv semidefiniten Matrix Y gleich 1, sind die Spalten der zugehörigen Matrix X Einheitsvektoren im R n. Wir betrachten den SDP-Löser einfach als Black Box, der die gewünschte Lösung in Polynomialzeit berechnet 31 Henning Meyerhenke:
48 Zusammenhang zwischen Schnitt und Lösung des SDP Jeder Schnitt (S, S) ergibt direkt eine offensichtliche Einheits-l 2 2 -Repräsentation: Allen Knoten in S wird ein Einheitsvektor v 0 zugewiesen Allen Knoten in S wird der Vektor v 0 zugewiesen 32 Henning Meyerhenke:
49 Zusammenhang zwischen Schnitt und Lösung des SDP Jeder Schnitt (S, S) ergibt direkt eine offensichtliche Einheits-l 2 2 -Repräsentation: Allen Knoten in S wird ein Einheitsvektor v 0 zugewiesen Allen Knoten in S wird der Vektor v 0 zugewiesen Für diese Zuweisung sind die Werte von η(g) und η (G) gleich Wichtige Beobachtung Es gilt immer: η (G) η(g) Grund: Jede zulässige Lösung für SPARSESTCUT ist auch eine zulässige Lösung für das SDP (Auffüllen des Vektors mit lauter Nullen) Es gibt aber für das SDP noch mehr zulässige Lösungen mit potentiell niedrigeren Zielfunktionswerten 32 Henning Meyerhenke:
50 Partitionierung von l 2 2 Große separierte Mengen finden Definition Seien v 1, v 2,..., v n R n und 0. Zwei Mengen von Vektoren S und T heißen -separiert, wenn für jedes x i S, x j T gilt: x i x j 2. Wir benötigen zwei -separierte Mengen S, T linearer Größe, also d l 2 2 (S, T ) = mit S = Ω(n) und T = Ω(n) Wollen: = Ω((log n) 1/2 ) min x i x j 2 i S,j T 33 Henning Meyerhenke:
51 Partitionierung von l 2 2 Haupttheorem Theorem (Haupttheorem) Für jedes c > 0 gibt es c, b > 0 derart, dass jede Einheits-l 2 2 -Repräsentation mit i<j x i x j 2 4c(1 c)n 2 und n Punkten -separierte Teilmengen S, T der Größe c n enthält, wobei = b/ log n Es gibt einen randomisierten Polynomialzeit-Algorithmus, der diese Teilmengen S und T findet Bemerkung: Der obige Wert für ist scharf. Beispiel: Hypercube { 1, 1} d 34 Henning Meyerhenke:
52 Der ARV-Algorithmus Zur Erinnerung Um das Theorem zu beweisen, gibt man einen randomisierten Algorithmus mit zwei Phasen an, der die gewünschten Teilmengen S und T findet Phase 1: Wähle zufällig eine Hyperebene und teile X in zwei Punktmengen S und T, die auf unterschiedlichen Seiten der Hyperebene liegen Phase 2: Entferne wiederholt Paare von Punkten, die in den verschiedenen Seiten liegen und einander zu nah sind (näher als O ( 1 log n )) 35 Henning Meyerhenke:
53 Transformation SDP Schnitt Approximationsfaktor Sei W = ij E x i x j 2 der optimale Wert für das SDP. Wissen: W = η (G) η(g) Wieviel verlieren wir durch das Runden der Lösung? 36 Henning Meyerhenke:
54 Transformation SDP Schnitt Approximationsfaktor Sei W = ij E x i x j 2 der optimale Wert für das SDP. Wissen: W = η (G) η(g) Wieviel verlieren wir durch das Runden der Lösung? Lemma Es gibt einen randomisierten Polynomialzeit-Algorithmus, der mit hoher Wkt. einen Schnitt findet, der c -balanciert ist und Größe O(W log n) hat. Definition Ein Schnitt (S, S) ist c -balanciert, falls sowohl S als auch S mindestens c V Knoten haben. 36 Henning Meyerhenke:
55 Beweis Approximationsfaktor Beweis. Der Algorithmus zum Haupttheorem liefert -separierte Mengen S und T für = b/ log n Bezeichne V 0 die Knoten, deren Vektoren in S liegen Assoziiere mit jeder Kante e = {i, j} eine Länge w e = x i x j 2 Also: W = e E w e = {i,j} E x i x j 2 S und T sind mindestens voneinander entfernt (bzgl. dieser Distanz) 37 Henning Meyerhenke:
56 Beweis Approximationsfaktor (Forts.) Beweis. Bezeichne V s die Knoten mit Distanz s von S Wir erstellen einen Schnitt wie folgt: Ziehe eine Zufallszahl r zwischen 0 und Gebe den Schnitt (V r, V V r ) aus Weil S V r und T V V r, ist dies ein c -balancierter Schnitt 38 Henning Meyerhenke:
57 Beweis Approximationsfaktor (Forts.) Beweis. Bezeichne V s die Knoten mit Distanz s von S Wir erstellen einen Schnitt wie folgt: Ziehe eine Zufallszahl r zwischen 0 und Gebe den Schnitt (V r, V V r ) aus Weil S V r und T V V r, ist dies ein c -balancierter Schnitt Bezeichne E s die Menge der Kanten, die aus V s herausführen Weil V 0 = S c n: E s = E s V s V s E s V s c n 38 Henning Meyerhenke:
58 Beweis Approximationsfaktor (Forts.) Beweis. Wir wollen nun die Größe des Schnitts beschränken Beitrag jeder Kante e = {i, j} zu E s im Intervall (s 1, s 2 ), s 1 = d(i, V 0 ), s 2 = d(j, V 0 ) Aus Dreiecksungleichung folgt: s 2 s 1 w e 39 Henning Meyerhenke:
59 Beweis Approximationsfaktor (Forts.) Beweis. Wir wollen nun die Größe des Schnitts beschränken Beitrag jeder Kante e = {i, j} zu E s im Intervall (s 1, s 2 ), s 1 = d(i, V 0 ), s 2 = d(j, V 0 ) Aus Dreiecksungleichung folgt: s 2 s 1 w e W = e w e s=0 E s ds Also: Der erwartete Wert von E s über dem Intervall [0, ] ist höchstens W / 39 Henning Meyerhenke:
60 Beweis Approximationsfaktor (Forts.) Beweis. Wir wollen nun die Größe des Schnitts beschränken Beitrag jeder Kante e = {i, j} zu E s im Intervall (s 1, s 2 ), s 1 = d(i, V 0 ), s 2 = d(j, V 0 ) Aus Dreiecksungleichung folgt: s 2 s 1 w e W = e w e s=0 E s ds Also: Der erwartete Wert von E s über dem Intervall [0, ] ist höchstens W / Resultat: Der Algorithmus berechnet daher einen Schnitt mit Größe höchstens 2W / = O(W log n) mit Wkt. mindestens 1/2 Schließlich: W = η (G) η(g) W log n η(g) log n 39 Henning Meyerhenke:
61 Zusammenfassung ARV Approximation von Graphzerlegungen SPARSESTCUT ist strukturell eng verwandt mit anderen besprochenen Problemstellungen Relaxierung hier mit SDP statt mit Eigenvektorproblem Komplexer in der Laufzeit, aber mit besserer Qualitätsschranke ARV-Algorithmus ist wichtiger Beitrag zur Approximation von Partitionierungsproblemen Aus Zeitgründen in der Vorlesung nicht vollständig Neue Ergebnisse: Gleiche Schranke bei besserer Laufzeit Literaturhinweis Sanjeev Arora, Satish Rao, Umesh V. Vazirani: Expander flows, geometric embeddings and graph partitioning. J. ACM 56(2): (2009) 40 Henning Meyerhenke:
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, Henning Meyerhenke
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, 01.02.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Wiederholung TSP: Kurz:
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 16 Programm: Einführung
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrTheoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
MehrGraphenalgorithmen und lineare Algebra Hand in Hand Prof. Dr. Henning Meyerhenke
Graphenalgorithmen und lineare Algebra Hand in Hand Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 9 Programm: Übungsblatt
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 18 Was tun mit NP-harten Problemen? Viele praxisrelevante
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 4. Januar 2011 Berthold Vöcking, Informatik 1 () Vorlesung
MehrAlgorithmische Methoden zur Netzwerkanalyse Vorlesung 11, Henning Meyerhenke
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 11, 18.01.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum
MehrTheoretische Informatik 1
Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 10.06.2016 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP
MehrKombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrAlgorithmische Methoden zur Netzwerkanalyse Vorlesung 12, Henning Meyerhenke
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 12, 25.01.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrVorlesung 2 KÜRZESTE WEGE
Vorlesung 2 KÜRZESTE WEGE 34 Kürzeste Wege im Graphen Motivation! Heute:! Kürzeste Wege von einem Knoten (SSSP)! Kürzeste Wege zwischen allen Knotenpaaren (APSP)! Viele Anwendungen:! Navigationssysteme!
MehrTheoretische Informatik 1
Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 02.07.2015 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Die Forschungsuniversität Meyerhenke, in der Institut für Theoretische Informatik
MehrOptimierung. Vorlesung 08
Optimierung Vorlesung 08 Heute Dualität Ganzzahligkeit Optimierung der Vorlesung durch Evaluierung 2 Das duale LP Das primale LP Maximiere c T x unter Ax b, x R d 0. wird zu dem dualen LP Minimiere b T
MehrÜberblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP
Kap..1 Heuristiken Kap.. Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 3. VO DAP SS 008 14. Juli 009 Überblick
MehrKap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien
Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 23. VO DAP2 SS 2008 14. Juli 2009
MehrTypischerweise sind randomisierte Algorithmen einfacher zu beschreiben und zu implementieren als deterministische Algorithmen.
Kapitel Randomisierte Algorithmen Einleitung Definition: Ein Algorithmus, der im Laufe seiner Ausführung gewisse Entscheidungen zufällig trifft, heisst randomisierter Algorithmus. Beispiel: Bei der randomisierten
Mehr1 Einführung in Lineare Programme und Dualität
Gliederung Inhaltsverzeichnis 1 Einführung in Lineare Programme und Dualität 1 1.1 Lineare Programme......................... 1 1.2 Dualität............................... 2 2 Grundlegende Sätze und Definitionen
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am 17.01.013 Parametrisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am 07..0 Minimale Schnitte in Graphen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
MehrDas Rucksackproblem: schwache NP-Härte und Approximation
Das Rucksackproblem: schwache NP-Härte und Approximation Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1. Februar 2010 Berthold Vöcking, Informatik 1 () Vorlesung
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrDaniel Borchmann. Sommerakademie Görlitz September 2007
Einführung in Semidenite Programmierung Daniel Borchmann Sommerakademie Görlitz 2007 12. September 2007 1 Einleitung Lineare Optimierung Semidenite Optimierung 2 MAX-CUT MAX-BISECTION MAX-2SAT Einleitung
MehrEffiziente Algorithmen (SS2015)
Effiziente Algorithmen (SS205) Kapitel 5 Approximation II Walter Unger Lehrstuhl für Informatik 2.06.205 07:59 5 Inhaltsverzeichnis < > Walter Unger 5.7.205 :3 SS205 Z Inhalt I Set Cover Einleitung Approximation
MehrSCHNITTERHALTUNG (SPEKTRALE APPROXIMATION)
Vorlesung 12 AUSDÜNNUNG VON GRAPHEN SCHNITTERHALTUNG (SPEKTRALE APPROXIMATION) 387 Wiederholung: Approximative Schnitterhaltung Ziel: Approximationsalgorithmus: A(S(G)) Ziele bei Eingabe eines dichten
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrOptimierung. Vorlesung 9
Optimierung Vorlesung 9 Heute Facility location problem 1. Komplemetärer Schlupf 2. Das Facility Location Problem 3. Problemstellung LP, Duales, Schlupf Eine Approximationsalgorithmus Analyse und Beweis
MehrVorlesung 7 GRAPHBASIERTE BILDSEGMENTIERUNG
Vorlesung 7 GRAPHBASIERTE BILDSEGMENTIERUNG 195 Bildsegmentierung! Aufgabe: Bestimme inhaltlich zusammenhängende, homogene Bereiche eines Bildes! Weit verbreitetes Problem in der Bildverarbeitung! Viele
MehrGanzzahlige lineare Programme
KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 7. Dezember 2017 INSTITUT FÜR THEORETISCHE 0 07.12.2017 Dorothea Wagner - Theoretische Grundlagen der Informatik INSTITUT FÜR THEORETISCHE KIT Die Forschungsuniversität
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am..03 Randomisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
MehrEuklidische Distanzmatrizen. Andrei Grecu
Euklidische Distanzmatrizen Andrei Grecu Übersicht Motivation Definition und Problemstellung Algo 1: Semidefinite Programmierung Algo 2: Multidimensional Scaling Algo 3: Spring Embedder Algo 4: Genetischer
MehrApproximationsalgorithmen. 19. Dezember / 28
Approximationsalgorithmen 19. Dezember 2017 1 / 28 Optimierungsprobleme Das Ziel: Bearbeite schwierige Optimierungsprobleme der Form opt y f (x, y) so dass L(x, y). Die Zielfunktion f (x, y) ist zu minimieren
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
MehrÜbung 2 Algorithmen II
Yaroslav Akhremtsev, Demian Hespe yaroslav.akhremtsev@kit.edu, hespe@kit.edu Mit Folien von Michael Axtmann (teilweise) http://algo2.iti.kit.edu/algorithmenii_ws17.php - 0 Akhremtsev, Hespe: KIT Universität
MehrOperations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.
Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme
Mehrverschiedenen Recheneinheiten, die miteinander kommunizieren können
Vorlesung 9 BALANCIERUNG DYNAMISCHER UNABHÄNGIGER LASTEN 293 Lastbalancierung Motivation Ein paralleles System besteht aus verschiedenen Recheneinheiten, die miteinander kommunizieren können Warum parallel
MehrÜbersicht. Grundlagen. Methoden zum Entwurf von Approximationsalgorithmen. Approximationsklassen. Das PCP-Theorem
Übersicht Einführung Grundlagen Methoden zum Entwurf von Approximationsalgorithmen Das PCP-Theorem Probabilistische Programmierung Derandomisierung V ertex C over Minimum W eig hted V ertex C over Instanz:
MehrAlgorithmische Methoden zur Netzwerkanalyse Vorlesung 10, Henning Meyerhenke
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 10, 11.01.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Übung am 16.12.2010 INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Map Labeling INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu
MehrEinführung in das Seminar Algorithmentechnik
Einführung in das Seminar Algorithmentechnik 10. Mai 2012 Henning Meyerhenke, Roland Glantz 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Roland undglantz: nationales Einführung Forschungszentrum
MehrEffiziente Algorithmen II
10. Präsenzaufgabenblatt, WiSe 2014/15 Übungstunde am 19.01.2015 Aufgabe Q Betrachten Sie das Knapsackpolytop P = conv(v ) mit V = {x n i=1 a ix i α} {0, 1} n für gegebenes α und a i 0 (insbesondere ist
MehrOptimierung. Vorlesung 02
Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am 0..0 Minimale Schnitte in Graphen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 20. November 2014 INSTITUT FÜR THEORETISCHE 0 KIT 20.11.2014 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der
MehrKapitel 9: Lineare Programmierung Gliederung
Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen
MehrSeien u, v V, u v. Da G zusammenhängend ist, muss mindestens ein Pfad zwischen u und v existieren.
Beweis: 1. 2. Seien u, v V, u v. Da G zusammenhängend ist, muss mindestens ein Pfad zwischen u und v existieren. Widerspruchsannahme: Es gibt zwei verschiedene Pfade zwischen u und v. Dann gibt es einen
MehrNäherungsalgorithmen (Approximationsalgorithmen) WiSe 2012/13 in Trier
Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2012/13 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 21. November 2012 Näherungsalgorithmen, Fernau, Universität Trier, WiSe 2012/13
MehrNäherungsalgorithmen (Approximationsalgorithmen) WiSe 2008/09 in Trier. Henning Fernau Universität Trier
Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2008/09 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Näherungsalgorithmen Gesamtübersicht Organisatorisches Einführung / Motivation
MehrSPEKTRALE GRAPHENTHEORIE
SPEKTRALE GRAPHENTHEORIE 179 Graphen, Matrizen, Spektren! Graph als Matrix:! Adjazenzmatrix! Inzidenzmatrix! Laplacematrix!...! Spektrum: Menge der Eigenwerte! Motivation: Sagt das Spektrum etwas über
MehrOptimierung. Vorlesung 04
Optimierung Vorlesung 04 Übungsbetrieb Mangels Teilnehmer keine Dienstagsübung mehr. Prüfung laut Paul: Di, 10. Feb. 2015 00:01-23:59 2 Was bisher geschah LP: Maximiere c T x unter Ax = b, x 0. Basis:
MehrEinführung in Berechenbarkeit, Komplexität und Formale Sprachen
Einführung in Berechenbarkeit, Komplexität und Formale Sprachen V17, 10.12.09 Willkommen zur Vorlesung Einführung in Berechenbarkeit, Komplexität und Formale Sprachen Friedhelm Meyer auf der Heide 1 Rückblick:
MehrEffiziente Algorithmen Lineares Programmieren 216. Schwache Dualität
Effiziente Algorithmen Lineares Programmieren 216 Schwache Dualität Sei wieder z = max{ c T x Ax b, x 0 } (P ) und w = min{ b T u A T u c, u 0 }. (D) x ist primal zulässig, wenn x { x Ax b, x 0 }. u ist
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
Mehr2. Entsprechende Listen P i von Vorgängern von i 3. for i := 1 to n do. (ii) S i = Knoten 2 + 1}
1. Berechne für jeden Knoten i in BFS-Art eine Liste S i von von i aus erreichbaren Knoten, so dass (i) oder (ii) gilt: (i) S i < n 2 + 1 und Si enthält alle von i aus erreichbaren Knoten (ii) S i = n
MehrApproximationsalgorithmen
Approximationsalgorithmen 1. Vorlesung Joachim Spoerhase Alexander Wolff Lehrstuhl für Informatik I Wintersemester 2017/18 Bücher zur Vorlesung Vijay V. Vazirani Approximation Algorithms Springer-Verlag
MehrUNABHÄNGIGER LASTEN. Vorlesung 9 BALANCIERUNG DYNAMISCHER. Graphenalgorithmen und lineare Algebra Hand in Hand
Vorlesung 9 BALANCIERUNG DYNAMISCHER UNABHÄNGIGER LASTEN 266 Lastbalancierung Motivation! Ein paralleles System besteht aus! verschiedenen Recheneinheiten,! die miteinander kommunizieren können! Warum
MehrQuadratische Formen und Definitheit
Universität Basel Wirtschaftswissenschaftliches Zentrum Quadratische Formen und Definitheit Dr. Thomas Zehrt Inhalt: 1. Quadratische Formen 2. Quadratische Approximation von Funktionen 3. Definitheit von
MehrVorlesung 2 KÜRZESTE WEGE
Vorlesung 2 KÜRZESTE WEGE 45 Kürzeste Wege im Graphen Motivation! Heute:! Kürzeste Wege von einem Knoten (SSSP)! Distanzen zwischen allen Knotenpaaren (APD)! Viele Anwendungen:! Navis! Netzwerkrouting!...
MehrWiederholung. Divide & Conquer Strategie
Wiederholung Divide & Conquer Strategie Binäre Suche O(log n) Rekursives Suchen im linken oder rechten Teilintervall Insertion-Sort O(n 2 ) Rekursives Sortieren von a[1..n-1], a[n] Einfügen von a[n] in
MehrÜbungsblatt 6. Vorlesung Theoretische Grundlagen der Informatik im WS 16/17
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Vorlesung Theoretische Grundlagen der Informatik im WS 16/17 Ausgabe 22. Dezember 2016 Abgabe 17. Januar 2017, 11:00 Uhr
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 3 Programm des
Mehr9 Metrische und normierte Räume
9 Metrische und normierte Räume Idee: Wir wollen Abstände zwischen Punkten messen. Der Abstand soll eine reelle Zahl 0 sein (ohne Dimensionsangabe wie Meter...). 9.1 Definition Sei X eine Menge. Eine Metrik
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 4 Programm des
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Kapitel 1 Markus Lohrey Universität Leipzig http://www.informatik.uni-leipzig.de/~lohrey/rand WS 2005/2006 Markus Lohrey (Universität Leipzig) Randomisierte Algorithmen WS 2005/2006
MehrVORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind
MehrDer n-dimensionale Raum
Der n-dimensionale Raum Mittels R kann nur eine Größe beschrieben werden. Um den Ort eines Teilchens im Raum festzulegen, werden schon drei Größen benötigt. Interessiert man sich für den Bewegungszustand
MehrDas Suchproblem. Gegeben Menge von Datensätzen. Beispiele Telefonverzeichnis, Wörterbuch, Symboltabelle
122 4. Suchen Lineare Suche, Binäre Suche, Interpolationssuche, Untere Schranken [Ottman/Widmayer, Kap. 3.2, Cormen et al, Kap. 2: Problems 2.1-3,2.2-3,2.3-5] 123 Das Suchproblem Gegeben Menge von Datensätzen.
Mehr9.2 Die Klassen QP und BQP
Definition (r-universell): sei R eine Menge von reversieblen booleschen Funktionen, die auf einer konstanten Anzahl von Bits operieren. R heißt r-universell, falls jede reversible Funktion als Verknüpfung
MehrDas Problem des minimalen Steiner-Baumes
Das Problem des minimalen Steiner-Baumes Ein polynomieller Approximationsalgorithmus Benedikt Wagner 4.05.208 INSTITUT FU R THEORETISCHE INFORMATIK, LEHRSTUHL ALGORITHMIK KIT Die Forschungsuniversita t
Mehr( ) ( ) < b k, 1 k n} (2) < x k
Technische Universität Dortmund Fakultät für Mathematik Proseminar Analysis Prof. Dr. Röger Benjamin Czyszczon Satz von Heine Borel Gliederung 1. Zellen und offene Überdeckungen 2. Satz von Heine Borel
MehrOptimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn
Optimierung Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung 1 Assignment Problem (Zuordnungsproblem) Gewichtetes Perfektes Bipartites Matching agents Costs tasks Weise jedem Agenten genau
MehrVortrag 20: Kurze Vektoren in Gittern
Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die
MehrAlgorithmische Geometrie: Delaunay Triangulierung (Teil 1)
Algorithmische Geometrie: Delaunay Triangulierung (Teil 1) Nico Düvelmeyer WS 2009/2010, 26.1.2010 Überblick 1 Motivation Interpolation von Höhendaten 2 Triangulierungen von ebenen Punktmengen 3 Delaunay
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 06. Dezember 2011 INSTITUT FÜR THEORETISCHE 0 KIT 06.12.2011 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der
MehrVorlesung Algorithmische Geometrie Konvexe Hülle im R 3
Vorlesung Algorithmische Geometrie Konvexe Hülle im R 3 LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Andreas Gemsa 26.06.2012 Prüfung! Termine: 20. Juli 27.
MehrVorlesung Datenstrukturen
Vorlesung Datenstrukturen Weitere Grundlagen Maike Buchin 20.4.2017 Wiederholung wir interessieren uns für effizienten Algorithmen und Datenstrukturen Laufzeiten messen wir asymptotisch in der Oh-Notation
MehrZahlen und metrische Räume
Zahlen und metrische Räume Natürliche Zahlen : Die natürlichen Zahlen sind die grundlegendste Zahlenmenge, da man diese Menge für das einfache Zählen verwendet. N = {1, 2, 3, 4,...} Ganze Zahlen : Aus
MehrDas Suchproblem 4. Suchen Das Auswahlproblem Suche in Array
Das Suchproblem Gegeben. Suchen Lineare Suche, Binäre Suche, Interpolationssuche, Untere Schranken [Ottman/Widmayer, Kap. 3.2, Cormen et al, Kap. 2: Problems 2.-3,2.2-3,2.3-] Menge von Datensätzen. Beispiele
MehrRolf Wanka Sommersemester Vorlesung
Peer-to to-peer-netzwerke Rolf Wanka Sommersemester 2007 12. Vorlesung 12.07.2007 rwanka@cs.fau.de basiert auf einer Vorlesung von Christian Schindelhauer an der Uni Freiburg Aufbau Viceroy Knoten in Viceroy
Mehr16. November 2011 Zentralitätsmaße. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87
16. November 2011 Zentralitätsmaße H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87 Darstellung in spektraler Form Zentralität genügt Ax = κ 1 x (Herleitung s. Tafel), daher ist x der Eigenvektor
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten
MehrOperations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung.
Operations Research Rainer Schrader Flüsse in Netzwerken Zentrum für Angewandte Informatik Köln 2. Juli 2007 1 / 53 2 / 53 Flüsse in Netzwerken Unimodularität Gliederung Netzwerke und Flüsse bipartite
MehrEinheit 11 - Graphen
Einheit - Graphen Bevor wir in medias res (eigentlich heißt es medias in res) gehen, eine Zusammenfassung der wichtigsten Definitionen und Notationen für Graphen. Graphen bestehen aus Knoten (vertex, vertices)
Mehr