Daniel Borchmann. Sommerakademie Görlitz September 2007
|
|
- Günter Kopp
- vor 7 Jahren
- Abrufe
Transkript
1 Einführung in Semidenite Programmierung Daniel Borchmann Sommerakademie Görlitz September 2007
2 1 Einleitung Lineare Optimierung Semidenite Optimierung 2 MAX-CUT MAX-BISECTION MAX-2SAT
3 Einleitung Optimierungsaufgaben Gegeben sei eine Zielfunktion f : R n R. Dann betrachten wir maximiere f (x) so dass f i (x) = b i für i {1,..., m} h i (x) 0 für i {1,..., l} mit den Nebenbedingungen gegeben durch die Funktionen f i, h i : R R. Wir denieren Z := {x f i (x) = b i für alle i {1,..., m} die Menge der zulässigen Lösungen. und h i (x) 0 für alle i {1,..., l}}
4 Einleitung Problem: Eziente Lösung solcher Aufgaben ist im allgemeinen schwierig bis hin zu praktisch unmöglich. Idee: Relaxation (Vereinfachung) des Problems, um obere Schranken für den optimalen Wert zu erhalten oder Näherungslösungen zu berechnen meist durch Vergröÿerung von Z.
5 Einleitung Problem: Eziente Lösung solcher Aufgaben ist im allgemeinen schwierig bis hin zu praktisch unmöglich. Idee: Relaxation (Vereinfachung) des Problems, um obere Schranken für den optimalen Wert zu erhalten oder Näherungslösungen zu berechnen meist durch Vergröÿerung von Z.
6 Einleitung Lineare Optimierung Lineare Optimierung 1. Versuch: Wir betrachten die Standardform 1 einer linearen Optimierungsaufgabe maximiere c x so dass x R n, Ax = b, x 0 (LP) Probleme dieser Form treten häug auf, bekannte Lösungsmethoden sind Simplexverfahren Innere-Punkt Methoden... 1 hier mit Gleichungsnebenbedingungen
7 Einleitung Lineare Optimierung Lineare Optimierung 1. Versuch: Wir betrachten die Standardform 1 einer linearen Optimierungsaufgabe maximiere c x so dass x R n, Ax = b, x 0 (LP) Probleme dieser Form treten häug auf, bekannte Lösungsmethoden sind Simplexverfahren Innere-Punkt Methoden... 1 hier mit Gleichungsnebenbedingungen
8 Einleitung Lineare Optimierung Lineare Optimierung 1. Versuch: Wir betrachten die Standardform 1 einer linearen Optimierungsaufgabe maximiere c x so dass x R n, Ax = b, x 0 (LP) Probleme dieser Form treten häug auf, bekannte Lösungsmethoden sind Simplexverfahren Innere-Punkt Methoden... 1 hier mit Gleichungsnebenbedingungen
9 Einleitung Lineare Optimierung Relaxation bestimmter Probleme führen unter anderem auf lineare Optimierungsaufgaben, so zum Beispiel MAX-CUT, die Berechnung eines maximalen Schnittes in einem gewichteten Graphen, MAX-BISECTION, eine Variante von MAX-CUT mit gleichmächtigen Knotenmengen, MAX-2SAT, die Berechnung einer optimalen Belegung einer Klausel in CNF mit jeweils genau zwei Variablen. Diese Relaxationen liefern aber zu wenig Informationen! Verallgemeinerung der Linearen Optimierung auf Semidenite Optimierung (Semidenite Programming, SDP)
10 Einleitung Lineare Optimierung Relaxation bestimmter Probleme führen unter anderem auf lineare Optimierungsaufgaben, so zum Beispiel MAX-CUT, die Berechnung eines maximalen Schnittes in einem gewichteten Graphen, MAX-BISECTION, eine Variante von MAX-CUT mit gleichmächtigen Knotenmengen, MAX-2SAT, die Berechnung einer optimalen Belegung einer Klausel in CNF mit jeweils genau zwei Variablen. Diese Relaxationen liefern aber zu wenig Informationen! Verallgemeinerung der Linearen Optimierung auf Semidenite Optimierung (Semidenite Programming, SDP)
11 Einleitung Lineare Optimierung Relaxation bestimmter Probleme führen unter anderem auf lineare Optimierungsaufgaben, so zum Beispiel MAX-CUT, die Berechnung eines maximalen Schnittes in einem gewichteten Graphen, MAX-BISECTION, eine Variante von MAX-CUT mit gleichmächtigen Knotenmengen, MAX-2SAT, die Berechnung einer optimalen Belegung einer Klausel in CNF mit jeweils genau zwei Variablen. Diese Relaxationen liefern aber zu wenig Informationen! Verallgemeinerung der Linearen Optimierung auf Semidenite Optimierung (Semidenite Programming, SDP)
12 Einleitung Lineare Optimierung Relaxation bestimmter Probleme führen unter anderem auf lineare Optimierungsaufgaben, so zum Beispiel MAX-CUT, die Berechnung eines maximalen Schnittes in einem gewichteten Graphen, MAX-BISECTION, eine Variante von MAX-CUT mit gleichmächtigen Knotenmengen, MAX-2SAT, die Berechnung einer optimalen Belegung einer Klausel in CNF mit jeweils genau zwei Variablen. Diese Relaxationen liefern aber zu wenig Informationen! Verallgemeinerung der Linearen Optimierung auf Semidenite Optimierung (Semidenite Programming, SDP)
13 Einleitung Lineare Optimierung Relaxation bestimmter Probleme führen unter anderem auf lineare Optimierungsaufgaben, so zum Beispiel MAX-CUT, die Berechnung eines maximalen Schnittes in einem gewichteten Graphen, MAX-BISECTION, eine Variante von MAX-CUT mit gleichmächtigen Knotenmengen, MAX-2SAT, die Berechnung einer optimalen Belegung einer Klausel in CNF mit jeweils genau zwei Variablen. Diese Relaxationen liefern aber zu wenig Informationen! Verallgemeinerung der Linearen Optimierung auf Semidenite Optimierung (Semidenite Programming, SDP)
14 Einleitung Semidenite Optimierung Denition Eine Matrix X R n n heiÿt positiv semidenit, wenn für alle x R n stets x T Xx 0 gilt. Theorem Sei X R n n symmetrisch. Dann sind folgende Aussagen äquivalent: a) X ist positiv semidenit b) X hat keine negativen Eigenwerte c) Für jedes y R n gilt y T Xy 0 d) Es existiert eine Matrix C R n n mit X = CC T.
15 Einleitung Semidenite Optimierung Denition Eine Matrix X R n n heiÿt positiv semidenit, wenn für alle x R n stets x T Xx 0 gilt. Theorem Sei X R n n symmetrisch. Dann sind folgende Aussagen äquivalent: a) X ist positiv semidenit b) X hat keine negativen Eigenwerte c) Für jedes y R n gilt y T Xy 0 d) Es existiert eine Matrix C R n n mit X = CC T.
16 Einleitung Semidenite Optimierung Semidenite Programmierung 2. Versuch: Statt der Optimierungsaufgabe (LP) betrachten wir nun maximiere tr(wx ) so dass tr(a j X ) = b j für j {1,..., m}, X 0 (SDP) mit symmetrischen Matrizen W, A j, X und tr(x ) = n i=1 X ii der Spur von X.
17 Einleitung Semidenite Optimierung Semidenite Programmierung 2. Versuch: Statt der Optimierungsaufgabe (LP) betrachten wir nun maximiere tr(wx ) so dass tr(a j X ) = b j für j {1,..., m}, X 0 (SDP) mit symmetrischen Matrizen W, A j, X und tr(x ) = n i=1 X ii der Spur von X.
18 Einleitung Semidenite Optimierung Vorteile Lösung von (SDP) ist immernoch praktisch schnell (z.b. mit Inneren-Punkt Methoden): Semidenite Optimierungsaufgaben sind innerhalb einer vorgegeben Fehlertoleranz ε > 0 polynomiell in n und log 1 ε lösbar Relaxationen zu Problemen der Form (SDP) liefern im allgemeinen bessere Schranken als lineare Relaxationen Approximationsalgorithmen auf Basis von (SDP) liefern meist bessere Ergebnisse
19 Einleitung Semidenite Optimierung Vorteile Lösung von (SDP) ist immernoch praktisch schnell (z.b. mit Inneren-Punkt Methoden): Semidenite Optimierungsaufgaben sind innerhalb einer vorgegeben Fehlertoleranz ε > 0 polynomiell in n und log 1 ε lösbar Relaxationen zu Problemen der Form (SDP) liefern im allgemeinen bessere Schranken als lineare Relaxationen Approximationsalgorithmen auf Basis von (SDP) liefern meist bessere Ergebnisse
20 Einleitung Semidenite Optimierung Vorteile Lösung von (SDP) ist immernoch praktisch schnell (z.b. mit Inneren-Punkt Methoden): Semidenite Optimierungsaufgaben sind innerhalb einer vorgegeben Fehlertoleranz ε > 0 polynomiell in n und log 1 ε lösbar Relaxationen zu Problemen der Form (SDP) liefern im allgemeinen bessere Schranken als lineare Relaxationen Approximationsalgorithmen auf Basis von (SDP) liefern meist bessere Ergebnisse
21 Einleitung Semidenite Optimierung Abbildung: Vergleich von LP und SDP bei MAX-SAT, aus [GHL06]
22 MAX-CUT Beispiel: MAX-CUT Gegeben sei ein nichtnegativ gewichteter Graph G = (V, E) mit Knotenmenge V und Kantenmenge E, E 1. Ohne Einschränkung sei G vollständig 2. Es bezeichne weiterhin w ij das Gewicht der Kante (i, j) E. Es sei das Gewicht w das Schnittes (S, V \ S) gegeben durch w(s, V \ S) := w ij. i S,j / S 2 nicht vorhanden Kanten bekommen das Gewicht 0
23 MAX-CUT Beispiel: MAX-CUT Gegeben sei ein nichtnegativ gewichteter Graph G = (V, E) mit Knotenmenge V und Kantenmenge E, E 1. Ohne Einschränkung sei G vollständig 2. Es bezeichne weiterhin w ij das Gewicht der Kante (i, j) E. Es sei das Gewicht w das Schnittes (S, V \ S) gegeben durch w(s, V \ S) := w ij. i S,j / S 2 nicht vorhanden Kanten bekommen das Gewicht 0
24 MAX-CUT Dann ist das Problem MAX-CUT gegeben durch maximiere w(s, V \ S) so dass S V Theorem MAX-CUT N PC.
25 MAX-CUT Dann ist das Problem MAX-CUT gegeben durch maximiere w(s, V \ S) so dass S V Theorem MAX-CUT N PC.
26 MAX-CUT MAX-CUT als SDP Idee: Assoziere mit einem Knoten i V eine Variable y i { 1, 1}, so dass i S y i = 1 gilt. Dann ist mit S = {y i y i = 1} das Gewicht eines Schnittes gegeben durch w(s, V \ S) = 1 w ij (1 y i y j ). 2 i<j
27 MAX-CUT MAX-CUT als SDP Idee: Assoziere mit einem Knoten i V eine Variable y i { 1, 1}, so dass i S y i = 1 gilt. Dann ist mit S = {y i y i = 1} das Gewicht eines Schnittes gegeben durch w(s, V \ S) = 1 w ij (1 y i y j ). 2 i<j
28 MAX-CUT Dann ergibt sich MAX-CUT zu maximiere so dass 1 w ij (1 y i y j ) 2 i<j y i { 1, 1} für alle i V (MAX-CUT)
29 MAX-CUT Beobachtung: Die Variablen y i y j treten als Produkt auf, d.h die Matrix Y = (y i y j ) V i,j=1 ist positiv semidenit mit Y ii = 1. Dies ergibt: SDP (MAX-CUT) maximiere so dass 1 w ij (1 Y ij ) 2 i<j Y ii = 1 für alle i V Y 0 (MAX-CUT-SDP)
30 MAX-CUT Beobachtung: Die Variablen y i y j treten als Produkt auf, d.h die Matrix Y = (y i y j ) V i,j=1 ist positiv semidenit mit Y ii = 1. Dies ergibt: SDP (MAX-CUT) maximiere so dass 1 w ij (1 Y ij ) 2 i<j Y ii = 1 für alle i V Y 0 (MAX-CUT-SDP)
31 MAX-CUT Approximation von MAX-CUT Bemerkung Mit Hilfe von (MAX-CUT-SDP) wurden signikante Verbesserungen in der Berechnung von Näherungslösungen von MAX-CUT erzielt: Der erwartete Wert bei der Lösung von MAX-CUT ist mindestens Optimalwert. (1.1382; siehe z.b. [GW95]) Idee dazu: Fasse Variablen y i in (MAX-CUT) als eindimensionale Vektoren mit euklidischer Norm 1 auf. Mögliche Relaxation ist dann: Statt eindimensional auch mehrdimensional zulassen.
32 MAX-CUT Approximation von MAX-CUT Bemerkung Mit Hilfe von (MAX-CUT-SDP) wurden signikante Verbesserungen in der Berechnung von Näherungslösungen von MAX-CUT erzielt: Der erwartete Wert bei der Lösung von MAX-CUT ist mindestens Optimalwert. (1.1382; siehe z.b. [GW95]) Idee dazu: Fasse Variablen y i in (MAX-CUT) als eindimensionale Vektoren mit euklidischer Norm 1 auf. Mögliche Relaxation ist dann: Statt eindimensional auch mehrdimensional zulassen.
33 MAX-CUT Approximation von MAX-CUT Bemerkung Mit Hilfe von (MAX-CUT-SDP) wurden signikante Verbesserungen in der Berechnung von Näherungslösungen von MAX-CUT erzielt: Der erwartete Wert bei der Lösung von MAX-CUT ist mindestens Optimalwert. (1.1382; siehe z.b. [GW95]) Idee dazu: Fasse Variablen y i in (MAX-CUT) als eindimensionale Vektoren mit euklidischer Norm 1 auf. Mögliche Relaxation ist dann: Statt eindimensional auch mehrdimensional zulassen.
34 MAX-CUT maximiere so dass 1 w ij (1 v T i v j ) 2 i<j v i S n 1 für alle i V (APPROX) Setze dann Y = Gram({v 1,..., v V }) = (v T i v j ) V i,j=1 womit (APPROX) wieder auf (MAX-CUT-SDP) führt.
35 MAX-CUT maximiere so dass 1 w ij (1 v T i v j ) 2 i<j v i S n 1 für alle i V (APPROX) Setze dann Y = Gram({v 1,..., v V }) = (v T i v j ) V i,j=1 womit (APPROX) wieder auf (MAX-CUT-SDP) führt.
36 MAX-CUT Dies führt dann zu Algorithmus (Approximationsalgorithmus für MAX-CUT, [GW95]) 1) Löse (APPROX) als SDP mit Lösung {v 1,..., v V }, 2) wähle zufällig einen Vektor r S n 1, 3) und setze S = {i v T i r 0}. Bemerkung Für den Erwartungswert E w E w α 1 2 i<j des Schnittes gilt w ij (1 v T i v j ) = α OPT unter den genannten Nebenbedingungen mit 2 θ α = min 0<θ π π 1 cos θ >
37 MAX-CUT Dies führt dann zu Algorithmus (Approximationsalgorithmus für MAX-CUT, [GW95]) 1) Löse (APPROX) als SDP mit Lösung {v 1,..., v V }, 2) wähle zufällig einen Vektor r S n 1, 3) und setze S = {i v T i r 0}. Bemerkung Für den Erwartungswert E w E w α 1 2 i<j des Schnittes gilt w ij (1 v T i v j ) = α OPT unter den genannten Nebenbedingungen mit 2 θ α = min 0<θ π π 1 cos θ >
38 MAX-CUT Berechnung der garantierten erwarteten Güte Lemma Es gilt E w = 1 π i<j w ij arccos(v T i v j ) Beweis E w = i<j w ij Pr[v i und v j werden durch r getrennt] = i<j w ij Pr[sgn(v T i r) sgn(v T j r)] Bild = w ij 1 π arccos(v T i v j ) i<j
39 MAX-CUT Berechnung der garantierten erwarteten Güte Lemma Es gilt E w = 1 π i<j w ij arccos(v T i v j ) Beweis E w = i<j w ij Pr[v i und v j werden durch r getrennt] = i<j w ij Pr[sgn(v T i r) sgn(v T j r)] Bild = w ij 1 π arccos(v T i v j ) i<j
40 MAX-CUT Berechnung der garantierten erwarteten Güte Lemma Es gilt E w = 1 π i<j w ij arccos(v T i v j ) Beweis E w = i<j w ij Pr[v i und v j werden durch r getrennt] = i<j w ij Pr[sgn(v T i r) sgn(v T j r)] Bild = w ij 1 π arccos(v T i v j ) i<j
41 MAX-CUT Berechnung der garantierten erwarteten Güte Lemma Es gilt E w = 1 π i<j w ij arccos(v T i v j ) Beweis E w = i<j w ij Pr[v i und v j werden durch r getrennt] = i<j w ij Pr[sgn(v T i r) sgn(v T j r)] Bild = w ij 1 π arccos(v T i v j ) i<j
42 MAX-CUT Lemma Es ist für 1 y 1 mit 1 π arccos(y) α 1 (1 y) 2 2 θ α = min 0<θ π π 1 cos θ > Beweis. 1 π arccos(y) 1 (1 y) min 1 y<1 2 1 π arccos(y) cos θ y 2 1 (1 y) = min 0<θ π π 2 θ 1 cos θ
43 MAX-CUT Lemma Es ist für 1 y 1 mit 1 π arccos(y) α 1 (1 y) 2 2 θ α = min 0<θ π π 1 cos θ > Beweis. 1 π arccos(y) 1 (1 y) min 1 y<1 2 1 π arccos(y) cos θ y 2 1 (1 y) = min 0<θ π π 2 θ 1 cos θ
44 MAX-CUT Lemma Es ist für 1 y 1 mit 1 π arccos(y) α 1 (1 y) 2 2 θ α = min 0<θ π π 1 cos θ > Beweis. 1 π arccos(y) 1 (1 y) min 1 y<1 2 1 π arccos(y) cos θ y 2 1 (1 y) = min 0<θ π π 2 θ 1 cos θ
45 MAX-CUT Zusammen gilt nun E w = 1 π i<j α 1 2 w ij arccos(v T i v j ) i<j w ij (1 v T i v j ) = α OPT Bemerkung Die Berechnungsungenauigkeit bei Lösung von (APPROX) kann in den Approximationsfaktor verschoben werden. Die Güte von ist die bislang beste, bekannte Approximationsgüte (nach [Wa06]) Verbesserung auf Optimalwert (1.0615) ist in N PC (siehe [Has97])
46 MAX-CUT Zusammen gilt nun E w = 1 π i<j α 1 2 w ij arccos(v T i v j ) i<j w ij (1 v T i v j ) = α OPT Bemerkung Die Berechnungsungenauigkeit bei Lösung von (APPROX) kann in den Approximationsfaktor verschoben werden. Die Güte von ist die bislang beste, bekannte Approximationsgüte (nach [Wa06]) Verbesserung auf Optimalwert (1.0615) ist in N PC (siehe [Has97])
47 MAX-CUT Zusammen gilt nun E w = 1 π i<j α 1 2 w ij arccos(v T i v j ) i<j w ij (1 v T i v j ) = α OPT Bemerkung Die Berechnungsungenauigkeit bei Lösung von (APPROX) kann in den Approximationsfaktor verschoben werden. Die Güte von ist die bislang beste, bekannte Approximationsgüte (nach [Wa06]) Verbesserung auf Optimalwert (1.0615) ist in N PC (siehe [Has97])
48 MAX-CUT Zusammen gilt nun E w = 1 π i<j α 1 2 w ij arccos(v T i v j ) i<j w ij (1 v T i v j ) = α OPT Bemerkung Die Berechnungsungenauigkeit bei Lösung von (APPROX) kann in den Approximationsfaktor verschoben werden. Die Güte von ist die bislang beste, bekannte Approximationsgüte (nach [Wa06]) Verbesserung auf Optimalwert (1.0615) ist in N PC (siehe [Has97])
49 MAX-CUT Zusammen gilt nun E w = 1 π i<j α 1 2 w ij arccos(v T i v j ) i<j w ij (1 v T i v j ) = α OPT Bemerkung Die Berechnungsungenauigkeit bei Lösung von (APPROX) kann in den Approximationsfaktor verschoben werden. Die Güte von ist die bislang beste, bekannte Approximationsgüte (nach [Wa06]) Verbesserung auf Optimalwert (1.0615) ist in N PC (siehe [Has97])
50 MAX-BISECTION Beispiel: MAX-BISECTION Wir betrachten MAX-CUT mit der Zusatzbedingung, dass E 2N und dass beide Knotenmengen gleichmächtig sein sollen: maximiere so dass 1 w ij (1 y i y j ) 2 i<j y i { 1, 1} für alle i V V y i = 0 i=1
51 MAX-BISECTION MAX-BISECTION als SDP Beobachtung: Schreibe V y i=1 i = 0 als e T y = 0 mit e = (1) V i=1 R V und y = (y i ) V i=1 R V. Weiterhin setzen wir wieder Y = (y i y j ) V. i,j=1 Statt der Bedingung e T y = 0 setzen wir dann Dies ergibt: tr(ee T Y ) = 0 SDP (MAX-BISECTION) 1 maximiere w ij (1 Y ij ) 2 i<j so dass tr(ee T Y ) = 0 Y ii = 1 für alle i V Y 0 (MAX-BISEC)
52 MAX-BISECTION MAX-BISECTION als SDP Beobachtung: Schreibe V y i=1 i = 0 als e T y = 0 mit e = (1) V i=1 R V und y = (y i ) V i=1 R V. Weiterhin setzen wir wieder Y = (y i y j ) V. i,j=1 Statt der Bedingung e T y = 0 setzen wir dann Dies ergibt: tr(ee T Y ) = 0 SDP (MAX-BISECTION) 1 maximiere w ij (1 Y ij ) 2 i<j so dass tr(ee T Y ) = 0 Y ii = 1 für alle i V Y 0 (MAX-BISEC)
53 MAX-BISECTION Algorithmus (MAX-BISECTION nach Frieze/Jerrum, [Ye99]) 1) Löse die Relaxation (MAX-BISEC) und bestimme den Schnitt S wie bei MAX-CUT 2) falls die erhaltenen Mengen nicht gleichmächtig sind, dann tausche solange leichte Knoten aus der gröÿeren Menge in die kleiner Menge, bis dies erfüllt ist Bemerkung Der oben angegebene Algorithmus hat einen erwarteten Wert von Optimalwert (1.536) Die Relaxation (MAX-BISEC) kann genutzt werden, um Näherungsalgorithmen zu konstruieren, deren erwarteter Wert gröÿer oder gleich Optimalwert ist. (1.4306, siehe [Ye99])
54 MAX-BISECTION Algorithmus (MAX-BISECTION nach Frieze/Jerrum, [Ye99]) 1) Löse die Relaxation (MAX-BISEC) und bestimme den Schnitt S wie bei MAX-CUT 2) falls die erhaltenen Mengen nicht gleichmächtig sind, dann tausche solange leichte Knoten aus der gröÿeren Menge in die kleiner Menge, bis dies erfüllt ist Bemerkung Der oben angegebene Algorithmus hat einen erwarteten Wert von Optimalwert (1.536) Die Relaxation (MAX-BISEC) kann genutzt werden, um Näherungsalgorithmen zu konstruieren, deren erwarteter Wert gröÿer oder gleich Optimalwert ist. (1.4306, siehe [Ye99])
55 MAX-2SAT Beispiel: MAX-2SAT Gegeben sei n N und eine Menge C = {C j C j = x αj 1 j1 von Klauseln. x αj 2, j {1,..., n}, α j2 j1, α j2 { 1, 1}} Dann ist MAX-2SAT die Maximierungsaufgabe Finde eine Belegung der Variablen x i derart, dass die Anzahl der gültigen Klauseln C j maximal wird.
56 MAX-2SAT Beispiel: MAX-2SAT Gegeben sei n N und eine Menge C = {C j C j = x αj 1 j1 von Klauseln. x αj 2, j {1,..., n}, α j2 j1, α j2 { 1, 1}} Dann ist MAX-2SAT die Maximierungsaufgabe Finde eine Belegung der Variablen x i derart, dass die Anzahl der gültigen Klauseln C j maximal wird.
57 MAX-2SAT MAX-2SAT als SDP Vorbetrachtungen assoziere mit jeder Variablen x i {true, false} eine Variable y i { 1, 1} Einführung einer weiteren Variablen y 0 { 1, 1} Wir setzen x i auf true dann und nur dann, wenn y 0 = y i gilt.
58 MAX-2SAT MAX-2SAT als SDP Vorbetrachtungen assoziere mit jeder Variablen x i {true, false} eine Variable y i { 1, 1} Einführung einer weiteren Variablen y 0 { 1, 1} Wir setzen x i auf true dann und nur dann, wenn y 0 = y i gilt.
59 MAX-2SAT MAX-2SAT als SDP Vorbetrachtungen assoziere mit jeder Variablen x i {true, false} eine Variable y i { 1, 1} Einführung einer weiteren Variablen y 0 { 1, 1} Wir setzen x i auf true dann und nur dann, wenn y 0 = y i gilt.
60 MAX-2SAT Ziel: Deniere Funktion v : C N, welche die wahren Klauseln zählt. Es bezeichne N die Anzahl der in C vorkommenden Variablen. Für die Variablen x i mit i {0,..., N} deniere { 0 falls xi = false v(x i ) = 1 falls x i = true oder mit Hilfe der Variablen y i : v(x i ) = 1 + y 0y i. 2 Entsprechend setze v(x i ) = 1 y 0y i. 2
61 MAX-2SAT Ziel: Deniere Funktion v : C N, welche die wahren Klauseln zählt. Es bezeichne N die Anzahl der in C vorkommenden Variablen. Für die Variablen x i mit i {0,..., N} deniere { 0 falls xi = false v(x i ) = 1 falls x i = true oder mit Hilfe der Variablen y i : v(x i ) = 1 + y 0y i. 2 Entsprechend setze v(x i ) = 1 y 0y i. 2
62 MAX-2SAT Ziel: Deniere Funktion v : C N, welche die wahren Klauseln zählt. Es bezeichne N die Anzahl der in C vorkommenden Variablen. Für die Variablen x i mit i {0,..., N} deniere { 0 falls xi = false v(x i ) = 1 falls x i = true oder mit Hilfe der Variablen y i : v(x i ) = 1 + y 0y i. 2 Entsprechend setze v(x i ) = 1 y 0y i. 2
63 MAX-2SAT Deniere nun v auf den Klauseln x i x k : v(x i x k ) = 1 (x i x k ) = 1 1 y 0y i 2 = 1 + y 0y i 4 1 y 0 y k y 0y k y i y k 4
64 MAX-2SAT Damit nun MAX-2SAT als Optimierungsaufgabe maximiere v(c) c C so dass y i { 1, 1} für alle i {0,..., N} (MAX-2SAT)
65 MAX-2SAT Es ist v(c) = a c C i<j ij(1 + y i y j ) + b ij (1 y i y j ). Dann kann die Optimierungsaufgabe (MAX-2SAT) geschrieben werden als maximiere a ij (1 + y i y j ) + b ij (1 y i y j ) i<j so dass y i S 0 für alle i {0,..., N}
66 MAX-2SAT Es ist v(c) = a c C i<j ij(1 + y i y j ) + b ij (1 y i y j ). Dann kann die Optimierungsaufgabe (MAX-2SAT) geschrieben werden als maximiere a ij (1 + y i y j ) + b ij (1 y i y j ) i<j so dass y i S 0 für alle i {0,..., N}
67 MAX-2SAT Schlieÿlich wieder die Relaxation: Lasse statt S 0 auch S n 1 zu: SDP (MAX-2SAT) maximiere so dass a ij (1 + Y ij ) + b ij (1 Y ij ) i<j Y ii = 1 für alle i {0,..., N}, Y 0 Bemerkung Wir erhalten damit als Lösung {v 0,..., v V }, wählen wieder r S n 1 zufällig und setzen alle Variablen x i auf true, die die Gleichung sgn v T r = sgn v T i 0 r erfüllen, den Rest auf false. Bemerkung Eine Verbesserung auf Optimalwert (also einer Güte von ) ist möglich!
68 MAX-2SAT Schlieÿlich wieder die Relaxation: Lasse statt S 0 auch S n 1 zu: SDP (MAX-2SAT) maximiere so dass a ij (1 + Y ij ) + b ij (1 Y ij ) i<j Y ii = 1 für alle i {0,..., N}, Y 0 Bemerkung Wir erhalten damit als Lösung {v 0,..., v V }, wählen wieder r S n 1 zufällig und setzen alle Variablen x i auf true, die die Gleichung sgn v T r = sgn v T i 0 r erfüllen, den Rest auf false. Bemerkung Eine Verbesserung auf Optimalwert (also einer Güte von ) ist möglich!
69 MAX-2SAT Schlieÿlich wieder die Relaxation: Lasse statt S 0 auch S n 1 zu: SDP (MAX-2SAT) maximiere so dass a ij (1 + Y ij ) + b ij (1 Y ij ) i<j Y ii = 1 für alle i {0,..., N}, Y 0 Bemerkung Wir erhalten damit als Lösung {v 0,..., v V }, wählen wieder r S n 1 zufällig und setzen alle Variablen x i auf true, die die Gleichung sgn v T r = sgn v T i 0 r erfüllen, den Rest auf false. Bemerkung Eine Verbesserung auf Optimalwert (also einer Güte von ) ist möglich!
70 Danke
71 Literaturhinweise I [Ali93] [BV04] [FJ95] Farid Alizadeh Interior Point Methods in Semidenite Programming with Applications to Combinatorial Optimization (online) Stephen Boyd und Lieven Vandenberghe Convex Optimization Cambridge University Press, 2004 Alan Frieze und Mark Jerrum Improved Approximation Algorithms for MAX k-cut and MAX-BISECTION (online)
72 Literaturhinweise II [GHL06] Carla P. Gomes et. al The Power of Semidenite Programming Relaxations for MAXSAT In Proc. Conf. Intregration of AI/OR (CPAIOR06), 2006 (online) [GW95] [Has97] Michel X. Goemans und David P. Williamson Improved Approximation Algorithms for Maximum Cut and Satisability Problems Using Semidenite Programming Proceedings of the 26th Annual ACM Symposium on Theory of Computing, (online) Johan Håstad Some optimal inapproximability results (online)
73 Literaturhinweise III [helm] [Wa06] [Ye99] Christop Helmberg Semidenite Programming zu nden unter ~helmberg/semidef.html Rolf Wanka Approximationsalgorithmen Teubner Verlag, Wiesbaden, 2006 Yinyu Ye A.699-Approimation Algorithm for Max-Bisection (online)
Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2008/09 in Trier. Henning Fernau Universität Trier
Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2008/09 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Näherungsalgorithmen Gesamtübersicht Organisatorisches Einführung / Motivation
MehrNäherungsalgorithmen (Approximationsalgorithmen) WiSe 2012/13 in Trier
Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2012/13 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 21. November 2012 Näherungsalgorithmen, Fernau, Universität Trier, WiSe 2012/13
MehrAlgorithmische Methoden zur Netzwerkanalyse Vorlesung 13, Henning Meyerhenke
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, 01.02.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum
MehrÜbersicht. Grundlagen. Methoden zum Entwurf von Approximationsalgorithmen. Approximationsklassen. Das PCP-Theorem
Übersicht Einführung Grundlagen Methoden zum Entwurf von Approximationsalgorithmen Das PCP-Theorem Probabilistische Programmierung Derandomisierung V ertex C over Minimum W eig hted V ertex C over Instanz:
MehrApproximationsalgorithmen
Approximationsalgorithmen 1. Vorlesung Joachim Spoerhase Alexander Wolff Lehrstuhl für Informatik I Wintersemester 2017/18 Bücher zur Vorlesung Vijay V. Vazirani Approximation Algorithms Springer-Verlag
MehrOptimierung. Vorlesung 9
Optimierung Vorlesung 9 Heute Facility location problem 1. Komplemetärer Schlupf 2. Das Facility Location Problem 3. Problemstellung LP, Duales, Schlupf Eine Approximationsalgorithmus Analyse und Beweis
MehrKapitel 9: Lineare Programmierung Gliederung
Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 16 Programm: Einführung
MehrMaximum and Minimum Satisfiability Problem
and Lehrstuhl für Wissensverarbeitung und Informationssysteme Universität Potsdam 25. Januar 2006 Agenda 1 2 3 I Erfüllbarkeitsproblem der Aussagenlogik : Aussagenlogische Formel auf Erfüllbarkeit prüfen
MehrOptimierung. Vorlesung 02
Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j
Mehr4.4 Quadratische Optimierungsprobleme
4.4 Quadratische Optimierungsprobleme 1. Quadratische Programme (QP) 1 2 xt P x + q T x + r s.t. Gx h (4.34) wobei P S n +, G R (m n) und A R (p n) Zielfunktion (ZF) ist (konvex) quadratisch Nebenbedingungen
MehrSeminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)
Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Anna Raaz 21.12.2007 Einführung Die Relaxierung von Lagrange wird in der stochastischen Optimierung meistens
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 18 Was tun mit NP-harten Problemen? Viele praxisrelevante
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 4. Januar 2011 Berthold Vöcking, Informatik 1 () Vorlesung
MehrAufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden
MehrLiteratur für diese VO. Überblick. Kap. 5: Approximationsalgorithmen für kombinatorische Optimierungsprobleme
Kap. : Approximationsalgorithmen für kombinatorische Optimierungsprobleme Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS Fakultät für Informatik, TU Dortmund Literatur für diese VO
MehrKap. 4.3: Das Dualitätstheorem der linearen Optimierung
Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur
MehrKap. 5: Approximationsalgorithmen für kombinatorische Optimierungsprobleme
Kap. 5: Approximationsalgorithmen für kombinatorische Optimierungsprobleme Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18./20. VO A&D WS 08/09
MehrLineare Optimierung: Simplexverfahren Phase Ⅰ
Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren
MehrTypischerweise sind randomisierte Algorithmen einfacher zu beschreiben und zu implementieren als deterministische Algorithmen.
Kapitel Randomisierte Algorithmen Einleitung Definition: Ein Algorithmus, der im Laufe seiner Ausführung gewisse Entscheidungen zufällig trifft, heisst randomisierter Algorithmus. Beispiel: Bei der randomisierten
MehrEinführung in Berechenbarkeit, Komplexität und Formale Sprachen
Einführung in Berechenbarkeit, Komplexität und Formale Sprachen V17, 10.12.09 Willkommen zur Vorlesung Einführung in Berechenbarkeit, Komplexität und Formale Sprachen Friedhelm Meyer auf der Heide 1 Rückblick:
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 7. Dezember 2017 INSTITUT FÜR THEORETISCHE 0 07.12.2017 Dorothea Wagner - Theoretische Grundlagen der Informatik INSTITUT FÜR THEORETISCHE KIT Die Forschungsuniversität
MehrTheoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
MehrNP-vollständig - Was nun?
Kapitel 4 NP-vollständig - Was nun? Wurde von einem Problem gezeigt, dass es NP-vollständig ist, ist das Problem damit nicht gelöst oder aus der Welt geschafft. In der Praxis muss es trotzdem gelöst werden.
MehrVortrag 20: Kurze Vektoren in Gittern
Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die
MehrSeminar. Das Steinerbaumproblem
Seminar Das Steinerbaumproblem Philipp Gillitzer Matrikelnr.: 51829 Studiengang Informatik(IT-Sicherheit) Semester 6 Hochschule Aalen Wintersemester 16/17 1 Inhaltsverzeichnis 1 Einleitung 3 2 Grundlagen
MehrInformatik III - WS07/08
Informatik III - WS07/08 Kapitel 4 1 Informatik III - WS07/08 Prof. Dr. Dorothea Wagner dwagner@ira.uka.de Kapitel 4 : Komplexitätsklassen Informatik III - WS07/08 Kapitel 4 2 Sprachen, Probleme, Zeitkomplexität
MehrWie komme ich von hier zum Hauptbahnhof?
NP-Vollständigkeit Wie komme ich von hier zum Hauptbahnhof? P Wie komme ich von hier zum Hauptbahnhof? kann ich verwende für reduzieren auf Finde jemand, der den Weg kennt! Alternativ: Finde eine Stadtkarte!
Mehrf f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.
Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales
MehrEinführung in das Seminar Algorithmentechnik
Einführung in das Seminar Algorithmentechnik 10. Mai 2012 Henning Meyerhenke, Roland Glantz 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Roland undglantz: nationales Einführung Forschungszentrum
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Wiederholung Bin-Packing:
MehrPerlen der Informatik I Wintersemester 2012 Aufgabenblatt 7
Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt
Mehr09. Übung zu Algorithmen I 12. Juli 2017
09. Übung zu Algorithmen I 12. Juli 2017 Björn Kaidel bjoern.kaidel@kit.edu mit Folien von Lukas Barth 1 / 67 Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP
MehrApproximationsalgorithmen. Wintersemester 2013/14 HERZLICH WILLKOMMEN!
Approximationsalgorithmen Wintersemester 2013/14 HERZLICH WILLKOMMEN! 1 / 39 Worum geht s? Eine Bemerkung von Vasek Chvatal In den kommunistischen Ländern des Ostblocks in den 60 er und 70 er Jahren war
MehrRundreiseproblem und Stabilität von Approximationsalg.
Das Rundreiseproblem und Stabilität von Approximationsalgorithmen Friedrich Alexander Universität Erlangen-Nürnberg Seminar Perlen der theoretischen Informatik, 2008-01-19 http://verplant.org/uni/perlen/
MehrTechnische Universität München Zentrum Mathematik. Optimierung 2, WS 2008/09 Übungsblatt 12
Technische Universität München Zentrum Mathematik Prof. Dr. P. Gritzmann, Dipl.-Inf. Dipl.-Math. S. Borgwardt, Dr. M. Ritter Optimierung 2, WS 2008/09 Übungsblatt 12 Aufgabe 12.1 Betrachten Sie die folgenden
MehrOptimierung. Vorlesung 08
Optimierung Vorlesung 08 Heute Dualität Ganzzahligkeit Optimierung der Vorlesung durch Evaluierung 2 Das duale LP Das primale LP Maximiere c T x unter Ax b, x R d 0. wird zu dem dualen LP Minimiere b T
MehrApproximation mit relativer Gütegarantie Überblick und einführende Beispiele
Approximation mit relativer Gütegarantie Überblick und einführende Beispiele Marvin Schiller 4. Oktober 2007. Einführung In diesem Essay geben wir einen Überblick über eine Auswahl von algorithmischen
MehrOptimierung Optimization. Vorlesung 01
Optimierung Optimization Vorlesung 01 Organisatorisches skopalik@mail.upb.de Büro: F1.209 (Sprechstunde nach Vereinbarung) Vorlesung: Freitags, 11:15 12:45, F0 053 Übungen: Dienstags, 13:15 14:00, F0 053
MehrOptimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn
Optimierung Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung 1 Assignment Problem (Zuordnungsproblem) Gewichtetes Perfektes Bipartites Matching agents Costs tasks Weise jedem Agenten genau
MehrNachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2011/2012
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Nachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2011/2012 Hier Aufkleber mit Name und Matrikelnr. anbringen
MehrDer chinesische Restsatz mit Anwendung
Der chinesische Restsatz mit Anwendung Nike Garath n.garath@gmx.de Martrikelnummer: 423072 Seminar: Verschlüsslungs- und Codierungstheorie Dozent: Dr. Thomas Timmermann Sommersemester 2017 Inhaltsverzeichnis
MehrSchnittebenenverfahren für das symmetrische
Schnittebenenverfahren für das symmetrische TSP Sebastian Peetz Mathematisches Institut Universität Bayreuth 19. Januar 2007 / Blockseminar Ganzzahlige Optimierung, Bayreuth Gliederung 1 Das symmetrische
MehrAlgorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke
Algorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke Steve Göring 13.07.2012 1/18 Gliederung Einleitung Grundlagen Vertex-Cover-Problem Set-Cover-Problem Lösungsalgorithmen
Mehr1 Einführung in Lineare Programme und Dualität
Gliederung Inhaltsverzeichnis 1 Einführung in Lineare Programme und Dualität 1 1.1 Lineare Programme......................... 1 1.2 Dualität............................... 2 2 Grundlegende Sätze und Definitionen
MehrOptimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
MehrApproximationsklassen für Optimierungsprobleme
Approximationsklassen für Optimierungsprobleme Matthias Erbar 19. September 2007 Inhaltsverzeichnis 1 Einleitung 1 2 Approximationsalgorithmen mit garantierter Güte 2 2.1 Terminologie......................................
MehrApproximationsalgorithmen
Effiziente Algorithmen Lösen NP-vollständiger Probleme 320 Approximationsalgorithmen In polynomieller Zeit lässen sich nicht exakte Lösungen von NP-harten Problemen berechnen. Approximationsalgorithmen
MehrAbbildung 1: Reduktion: CLIQUE zu VERTEX-COVER. links: Clique V = {u, v, x, y}. rechts:der Graph Ḡ mit VC V \ V = {w, z}
u v u v z w z w y x y x Abbildung 1: Reduktion: CLIQUE zu VERTEX-COVER. links: Clique V = {u, v, x, y}. rechts:der Graph Ḡ mit VC V \ V = {w, z} Definition 0.0.1 (Vertex Cover (VC)). Gegeben: Ein ungerichteter
MehrMathematik für Studierende der Biologie und des Lehramtes Chemie
Einführung I Mathematik für Studierende der Biologie und des Lehramtes Chemie Dominik Schillo Universität des Saarlandes 007 (Stand: 007, 4:9 Uhr) Wie viel Kilogramm Salzsäure der Konzentration % muss
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Übung am 16.12.2010 INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
MehrSudoku ist NP-vollständig
Sudoku ist NP-vollständig Seminar über Algorithmen und Komplexität Freie Universität Berlin Institut für Informatik SS 007 Sarah Will 8.07.007 Einführung Sudoku ist ein japanisches Logikrätsel und hat
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
MehrD-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 10
D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler Lösungen Serie 10 1. Für a 1 : 1 1 0, a 2 : 1 1, a 3 : 1 1 1, b : 2 2 2 1 und A : (a 1, a 2, a 3 ) gelten welche der folgenden Aussagen? (a) det(a)
MehrApproximierbarkeit. Definition. Ein Optimierungsproblem P ist gegeben durch ein Quadrupel. P = (I, Sol, m, goal), wobei:
Approximierbarkeit Ein Optimierungsproblem P ist gegeben durch ein Quadrupel wobei: P = (I, Sol, m, goal), I ist die Menge der Instanzen von P. Sol ist eine Funktion, die ein x I abbildet auf die Menge
MehrÜbung 2 Algorithmen II
Yaroslav Akhremtsev, Demian Hespe yaroslav.akhremtsev@kit.edu, hespe@kit.edu Mit Folien von Michael Axtmann (teilweise) http://algo2.iti.kit.edu/algorithmenii_ws17.php - 0 Akhremtsev, Hespe: KIT Universität
MehrEffiziente Algorithmen (SS2015)
Effiziente Algorithmen (SS205) Kapitel 5 Approximation II Walter Unger Lehrstuhl für Informatik 2.06.205 07:59 5 Inhaltsverzeichnis < > Walter Unger 5.7.205 :3 SS205 Z Inhalt I Set Cover Einleitung Approximation
MehrKap. 5: Planaritätsbasierte Verfahren
Kap. 5: Planaritätsbasierte Verfahren Prof. Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering LS11 Universität Dortmund 23. VO WS07/08 21. Januar 2008 Literatur für diese VO M. Kaufmann, D. Wagner (Eds.):
MehrAlgorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS Oktober 2016
Technische Universität Wien Institut für Computergraphik und Algorithmen Algorithms and Complexity Group 186.815 Algorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS 2016 5. Oktober 2016 Machen Sie
MehrOptimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze
MehrAlgorithmen I. Prof. Jörn Müller-Quade Institut für Theoretische Informatik Web: https://crypto.iti.kit.edu/index.php?
Algorithmen I Prof. Jörn Müller-Quade 05.07.2017 Institut für Theoretische Informatik Web: https://crypto.iti.kit.edu/index.php?id=799 (Folien von Peter Sanders) KIT Institut für Theoretische Informatik
MehrStetigkeit und Dierenzierbarkeit im R n
Stetigkeit und Dierenzierbarkeit im R n 1 Stetigkeit Wir übertragen den Stetigkeitsbegri auf mehrstellige reellwertige Funktionen. Denition 1. Sei M R n. Eine Funktion f : M R heiÿt stetig in a M gdw.
MehrEffiziente Algorithmen Lineares Programmieren 216. Schwache Dualität
Effiziente Algorithmen Lineares Programmieren 216 Schwache Dualität Sei wieder z = max{ c T x Ax b, x 0 } (P ) und w = min{ b T u A T u c, u 0 }. (D) x ist primal zulässig, wenn x { x Ax b, x 0 }. u ist
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrExtremwerte von Funktionen mehrerer reeller Variabler
Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein
Mehr2.6 Asymptotische Approximation: Min Binpacking
2.6 Asymptotische Approximation: Min Binpacking In diesem Abschnitt geht es die Erscheinung, dass manche Optimierungsprobleme Approximationsalgorithmen haben, die nur für Inputs x mit groÿem Wert m (x)
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrApproximationsalgorithmen. 19. Dezember / 28
Approximationsalgorithmen 19. Dezember 2017 1 / 28 Optimierungsprobleme Das Ziel: Bearbeite schwierige Optimierungsprobleme der Form opt y f (x, y) so dass L(x, y). Die Zielfunktion f (x, y) ist zu minimieren
MehrGanzzahlige lineare Programme
KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.
Mehr1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1
1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme Duales Problem Lemma 1.4. Das zum Transportproblem duale Problem lautet: max unter den Nebenbedingungen m a i u i + i=1
MehrKapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester
MehrSteiner Bäume. Dipl.-Math. Maria Kandyba Lehrstuhl für Algorithm Engineering, LS VO 15. Januar 2007
Steiner Bäume Dipl.-Math. Maria Kandyba Lehrstuhl für Algorithm Engineering, LS11 12 VO 15. Januar 2007 Überblick Einführung Definition und Motivation Komplexität Approximationsalgorithmen Distanznetzwerk
MehrDas Problem des minimalen Steiner-Baumes
Das Problem des minimalen Steiner-Baumes Ein polynomieller Approximationsalgorithmus Benedikt Wagner 4.05.208 INSTITUT FU R THEORETISCHE INFORMATIK, LEHRSTUHL ALGORITHMIK KIT Die Forschungsuniversita t
MehrDas Rucksackproblem. Definition Sprache Rucksack. Satz
Das Rucksackproblem Definition Sprache Rucksack Gegeben sind n Gegenstände mit Gewichten W = {w 1,...,w n } N und Profiten P = {p 1,...,p n } N. Seien ferner b, k N. RUCKSACK:= {(W, P, b, k) I [n] : i
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Mehr10. Übung zur Linearen Algebra I -
. Übung zur Linearen Algebra I - en Kommentare an Hannes.Klarner@FU-Berlin.de FU Berlin. WS 29-. Aufgabe 37 i Für welche α R besitzt das lineare Gleichungssystem 4 αx + αx 2 = 4x + α + 2x 2 = α genau eine,
MehrÜberblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP
Kap..1 Heuristiken Kap.. Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 3. VO DAP SS 008 14. Juli 009 Überblick
MehrKap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien
Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 23. VO DAP2 SS 2008 14. Juli 2009
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Dr. Hanjo Täubig Lehrstuhl für Eziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester 2007/08
Mehr47 Singulärwertzerlegung
47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrAngewandte Multivariate Statistik Prof. Dr. Ostap Okhrin
Angewandte Multivariate Statistik Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Ostap Okhrin 1 of 46 Angewandte Multivariate Statistik A Short Excursion into Matrix Algebra Elementare Operationen
MehrAlgorithmen und Datenstrukturen 2. Stefan Florian Palkovits, BSc Juni 2016
Algorithmen und Datenstrukturen Übung Stefan Florian Palkovits, BSc 09 e09@student.tuwien.ac.at 9. Juni 0 Aufgabe 9: Anwenden der Spanning Tree Heuristik auf symmetrisches TSP 9 8 7 8 8 7 Bilden eines
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung
MehrOperations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung
Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am..03 Randomisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
MehrChinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151
Inhaltsverzeichnis 1 Kernkonzepte der linearen Optimierung... 1 1.1 Einführung... 1 1.2 Grundlegende Definitionen... 8 1.3 Grafische Lösung... 10 1.4 Standardform und grundlegende analytische Konzepte...
MehrOptimierung. Vorlesung 04
Optimierung Vorlesung 04 Übungsbetrieb Mangels Teilnehmer keine Dienstagsübung mehr. Prüfung laut Paul: Di, 10. Feb. 2015 00:01-23:59 2 Was bisher geschah LP: Maximiere c T x unter Ax = b, x 0. Basis:
MehrAufwand und Komplexität Vorlesung vom Komplexität und Effizienz
Aufwand und Komplexität Vorlesung vom 15.12.17 Komplexität und Effizienz Aufwand: Anzahl dominanter Operationen (worst-case). Beispiel. Landau-Symbol O(n). Beispiel. Definition: Aufwand eines Algorithmus.
MehrÜberblick. Kap. 1.4: Minimum Weight Perfect Matching. 1.3 Blüten-Schrumpf Algorithmus für Maximum Matching
Kap. 1.4: Minimum Weight Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 4. VO 6. November 2006 Überblick kurze Wiederholung: 1.2 Blüten-Schrumpf-Algorithmus für Perfektes Matching
Mehra) Die Householder-Transformation, welche den ersten Spaltenvektor a 1 = der Matrix A auf , a 1 αe A = QR, A k =: Q k R k, A k+1 := R k Q k.
Karlsruher Institut für Technologie (KIT) Institut für Analysis Prof. Dr. W. Reichel Sommersemester 00 7.07.00 MODULPRÜFUNG Numerische Methoden (Höhere Mathematik IV für die Fachrichtung Meteorologie bzw.
MehrDualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
MehrAlgorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck
Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach
MehrLineare Algebra: Determinanten und Eigenwerte
: und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b
MehrDynamische Programmierung II
Vorlesungstermin 10: Dynamische Programmierung II Markus Püschel David Steurer talks2.dsteurer.org/dp2.pdf Algorithmen und Datenstrukturen, Herbstsemester 2018, ETH Zürich Plan für heute Dynamische Programmierung
MehrSchnittebenenverfahren und Heuristiken
KAPITEL 6 Schnittebenenverfahren und Heuristiken Wir betrachten nun Optimierungsprobleme vom Typ (68) minc T x s.d. Ax b,x 0,x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n,b R m gegeben
Mehr1 Übungsaufgaben zu Kapitel 1
Übungsaufgaben zu Kapitel. Übungsaufgaben zu Abschnitt... Aufgabe. Untersuchen Sie die nachstehend definierten Folgen ( a k ) k und ( b k ) k auf Konvergenz und bestimmen Sie ggf. den jeweiligen Grenzwert:
MehrAufgaben und Lösungen zur Abschlußklausur zur Mathematik 1 (Wiederholer und Nachzügler) vom
Aufgaben und Lösungen zur Abschlußklausur zur Mathematik (Wiederholer und Nachzügler) vom 6.3.8. In der Menge M n n aller quadratischen Matrizen vom Format n n mit Einträgen aus R werden die folgenden
Mehr