Daniel Borchmann. Sommerakademie Görlitz September 2007

Größe: px
Ab Seite anzeigen:

Download "Daniel Borchmann. Sommerakademie Görlitz September 2007"

Transkript

1 Einführung in Semidenite Programmierung Daniel Borchmann Sommerakademie Görlitz September 2007

2 1 Einleitung Lineare Optimierung Semidenite Optimierung 2 MAX-CUT MAX-BISECTION MAX-2SAT

3 Einleitung Optimierungsaufgaben Gegeben sei eine Zielfunktion f : R n R. Dann betrachten wir maximiere f (x) so dass f i (x) = b i für i {1,..., m} h i (x) 0 für i {1,..., l} mit den Nebenbedingungen gegeben durch die Funktionen f i, h i : R R. Wir denieren Z := {x f i (x) = b i für alle i {1,..., m} die Menge der zulässigen Lösungen. und h i (x) 0 für alle i {1,..., l}}

4 Einleitung Problem: Eziente Lösung solcher Aufgaben ist im allgemeinen schwierig bis hin zu praktisch unmöglich. Idee: Relaxation (Vereinfachung) des Problems, um obere Schranken für den optimalen Wert zu erhalten oder Näherungslösungen zu berechnen meist durch Vergröÿerung von Z.

5 Einleitung Problem: Eziente Lösung solcher Aufgaben ist im allgemeinen schwierig bis hin zu praktisch unmöglich. Idee: Relaxation (Vereinfachung) des Problems, um obere Schranken für den optimalen Wert zu erhalten oder Näherungslösungen zu berechnen meist durch Vergröÿerung von Z.

6 Einleitung Lineare Optimierung Lineare Optimierung 1. Versuch: Wir betrachten die Standardform 1 einer linearen Optimierungsaufgabe maximiere c x so dass x R n, Ax = b, x 0 (LP) Probleme dieser Form treten häug auf, bekannte Lösungsmethoden sind Simplexverfahren Innere-Punkt Methoden... 1 hier mit Gleichungsnebenbedingungen

7 Einleitung Lineare Optimierung Lineare Optimierung 1. Versuch: Wir betrachten die Standardform 1 einer linearen Optimierungsaufgabe maximiere c x so dass x R n, Ax = b, x 0 (LP) Probleme dieser Form treten häug auf, bekannte Lösungsmethoden sind Simplexverfahren Innere-Punkt Methoden... 1 hier mit Gleichungsnebenbedingungen

8 Einleitung Lineare Optimierung Lineare Optimierung 1. Versuch: Wir betrachten die Standardform 1 einer linearen Optimierungsaufgabe maximiere c x so dass x R n, Ax = b, x 0 (LP) Probleme dieser Form treten häug auf, bekannte Lösungsmethoden sind Simplexverfahren Innere-Punkt Methoden... 1 hier mit Gleichungsnebenbedingungen

9 Einleitung Lineare Optimierung Relaxation bestimmter Probleme führen unter anderem auf lineare Optimierungsaufgaben, so zum Beispiel MAX-CUT, die Berechnung eines maximalen Schnittes in einem gewichteten Graphen, MAX-BISECTION, eine Variante von MAX-CUT mit gleichmächtigen Knotenmengen, MAX-2SAT, die Berechnung einer optimalen Belegung einer Klausel in CNF mit jeweils genau zwei Variablen. Diese Relaxationen liefern aber zu wenig Informationen! Verallgemeinerung der Linearen Optimierung auf Semidenite Optimierung (Semidenite Programming, SDP)

10 Einleitung Lineare Optimierung Relaxation bestimmter Probleme führen unter anderem auf lineare Optimierungsaufgaben, so zum Beispiel MAX-CUT, die Berechnung eines maximalen Schnittes in einem gewichteten Graphen, MAX-BISECTION, eine Variante von MAX-CUT mit gleichmächtigen Knotenmengen, MAX-2SAT, die Berechnung einer optimalen Belegung einer Klausel in CNF mit jeweils genau zwei Variablen. Diese Relaxationen liefern aber zu wenig Informationen! Verallgemeinerung der Linearen Optimierung auf Semidenite Optimierung (Semidenite Programming, SDP)

11 Einleitung Lineare Optimierung Relaxation bestimmter Probleme führen unter anderem auf lineare Optimierungsaufgaben, so zum Beispiel MAX-CUT, die Berechnung eines maximalen Schnittes in einem gewichteten Graphen, MAX-BISECTION, eine Variante von MAX-CUT mit gleichmächtigen Knotenmengen, MAX-2SAT, die Berechnung einer optimalen Belegung einer Klausel in CNF mit jeweils genau zwei Variablen. Diese Relaxationen liefern aber zu wenig Informationen! Verallgemeinerung der Linearen Optimierung auf Semidenite Optimierung (Semidenite Programming, SDP)

12 Einleitung Lineare Optimierung Relaxation bestimmter Probleme führen unter anderem auf lineare Optimierungsaufgaben, so zum Beispiel MAX-CUT, die Berechnung eines maximalen Schnittes in einem gewichteten Graphen, MAX-BISECTION, eine Variante von MAX-CUT mit gleichmächtigen Knotenmengen, MAX-2SAT, die Berechnung einer optimalen Belegung einer Klausel in CNF mit jeweils genau zwei Variablen. Diese Relaxationen liefern aber zu wenig Informationen! Verallgemeinerung der Linearen Optimierung auf Semidenite Optimierung (Semidenite Programming, SDP)

13 Einleitung Lineare Optimierung Relaxation bestimmter Probleme führen unter anderem auf lineare Optimierungsaufgaben, so zum Beispiel MAX-CUT, die Berechnung eines maximalen Schnittes in einem gewichteten Graphen, MAX-BISECTION, eine Variante von MAX-CUT mit gleichmächtigen Knotenmengen, MAX-2SAT, die Berechnung einer optimalen Belegung einer Klausel in CNF mit jeweils genau zwei Variablen. Diese Relaxationen liefern aber zu wenig Informationen! Verallgemeinerung der Linearen Optimierung auf Semidenite Optimierung (Semidenite Programming, SDP)

14 Einleitung Semidenite Optimierung Denition Eine Matrix X R n n heiÿt positiv semidenit, wenn für alle x R n stets x T Xx 0 gilt. Theorem Sei X R n n symmetrisch. Dann sind folgende Aussagen äquivalent: a) X ist positiv semidenit b) X hat keine negativen Eigenwerte c) Für jedes y R n gilt y T Xy 0 d) Es existiert eine Matrix C R n n mit X = CC T.

15 Einleitung Semidenite Optimierung Denition Eine Matrix X R n n heiÿt positiv semidenit, wenn für alle x R n stets x T Xx 0 gilt. Theorem Sei X R n n symmetrisch. Dann sind folgende Aussagen äquivalent: a) X ist positiv semidenit b) X hat keine negativen Eigenwerte c) Für jedes y R n gilt y T Xy 0 d) Es existiert eine Matrix C R n n mit X = CC T.

16 Einleitung Semidenite Optimierung Semidenite Programmierung 2. Versuch: Statt der Optimierungsaufgabe (LP) betrachten wir nun maximiere tr(wx ) so dass tr(a j X ) = b j für j {1,..., m}, X 0 (SDP) mit symmetrischen Matrizen W, A j, X und tr(x ) = n i=1 X ii der Spur von X.

17 Einleitung Semidenite Optimierung Semidenite Programmierung 2. Versuch: Statt der Optimierungsaufgabe (LP) betrachten wir nun maximiere tr(wx ) so dass tr(a j X ) = b j für j {1,..., m}, X 0 (SDP) mit symmetrischen Matrizen W, A j, X und tr(x ) = n i=1 X ii der Spur von X.

18 Einleitung Semidenite Optimierung Vorteile Lösung von (SDP) ist immernoch praktisch schnell (z.b. mit Inneren-Punkt Methoden): Semidenite Optimierungsaufgaben sind innerhalb einer vorgegeben Fehlertoleranz ε > 0 polynomiell in n und log 1 ε lösbar Relaxationen zu Problemen der Form (SDP) liefern im allgemeinen bessere Schranken als lineare Relaxationen Approximationsalgorithmen auf Basis von (SDP) liefern meist bessere Ergebnisse

19 Einleitung Semidenite Optimierung Vorteile Lösung von (SDP) ist immernoch praktisch schnell (z.b. mit Inneren-Punkt Methoden): Semidenite Optimierungsaufgaben sind innerhalb einer vorgegeben Fehlertoleranz ε > 0 polynomiell in n und log 1 ε lösbar Relaxationen zu Problemen der Form (SDP) liefern im allgemeinen bessere Schranken als lineare Relaxationen Approximationsalgorithmen auf Basis von (SDP) liefern meist bessere Ergebnisse

20 Einleitung Semidenite Optimierung Vorteile Lösung von (SDP) ist immernoch praktisch schnell (z.b. mit Inneren-Punkt Methoden): Semidenite Optimierungsaufgaben sind innerhalb einer vorgegeben Fehlertoleranz ε > 0 polynomiell in n und log 1 ε lösbar Relaxationen zu Problemen der Form (SDP) liefern im allgemeinen bessere Schranken als lineare Relaxationen Approximationsalgorithmen auf Basis von (SDP) liefern meist bessere Ergebnisse

21 Einleitung Semidenite Optimierung Abbildung: Vergleich von LP und SDP bei MAX-SAT, aus [GHL06]

22 MAX-CUT Beispiel: MAX-CUT Gegeben sei ein nichtnegativ gewichteter Graph G = (V, E) mit Knotenmenge V und Kantenmenge E, E 1. Ohne Einschränkung sei G vollständig 2. Es bezeichne weiterhin w ij das Gewicht der Kante (i, j) E. Es sei das Gewicht w das Schnittes (S, V \ S) gegeben durch w(s, V \ S) := w ij. i S,j / S 2 nicht vorhanden Kanten bekommen das Gewicht 0

23 MAX-CUT Beispiel: MAX-CUT Gegeben sei ein nichtnegativ gewichteter Graph G = (V, E) mit Knotenmenge V und Kantenmenge E, E 1. Ohne Einschränkung sei G vollständig 2. Es bezeichne weiterhin w ij das Gewicht der Kante (i, j) E. Es sei das Gewicht w das Schnittes (S, V \ S) gegeben durch w(s, V \ S) := w ij. i S,j / S 2 nicht vorhanden Kanten bekommen das Gewicht 0

24 MAX-CUT Dann ist das Problem MAX-CUT gegeben durch maximiere w(s, V \ S) so dass S V Theorem MAX-CUT N PC.

25 MAX-CUT Dann ist das Problem MAX-CUT gegeben durch maximiere w(s, V \ S) so dass S V Theorem MAX-CUT N PC.

26 MAX-CUT MAX-CUT als SDP Idee: Assoziere mit einem Knoten i V eine Variable y i { 1, 1}, so dass i S y i = 1 gilt. Dann ist mit S = {y i y i = 1} das Gewicht eines Schnittes gegeben durch w(s, V \ S) = 1 w ij (1 y i y j ). 2 i<j

27 MAX-CUT MAX-CUT als SDP Idee: Assoziere mit einem Knoten i V eine Variable y i { 1, 1}, so dass i S y i = 1 gilt. Dann ist mit S = {y i y i = 1} das Gewicht eines Schnittes gegeben durch w(s, V \ S) = 1 w ij (1 y i y j ). 2 i<j

28 MAX-CUT Dann ergibt sich MAX-CUT zu maximiere so dass 1 w ij (1 y i y j ) 2 i<j y i { 1, 1} für alle i V (MAX-CUT)

29 MAX-CUT Beobachtung: Die Variablen y i y j treten als Produkt auf, d.h die Matrix Y = (y i y j ) V i,j=1 ist positiv semidenit mit Y ii = 1. Dies ergibt: SDP (MAX-CUT) maximiere so dass 1 w ij (1 Y ij ) 2 i<j Y ii = 1 für alle i V Y 0 (MAX-CUT-SDP)

30 MAX-CUT Beobachtung: Die Variablen y i y j treten als Produkt auf, d.h die Matrix Y = (y i y j ) V i,j=1 ist positiv semidenit mit Y ii = 1. Dies ergibt: SDP (MAX-CUT) maximiere so dass 1 w ij (1 Y ij ) 2 i<j Y ii = 1 für alle i V Y 0 (MAX-CUT-SDP)

31 MAX-CUT Approximation von MAX-CUT Bemerkung Mit Hilfe von (MAX-CUT-SDP) wurden signikante Verbesserungen in der Berechnung von Näherungslösungen von MAX-CUT erzielt: Der erwartete Wert bei der Lösung von MAX-CUT ist mindestens Optimalwert. (1.1382; siehe z.b. [GW95]) Idee dazu: Fasse Variablen y i in (MAX-CUT) als eindimensionale Vektoren mit euklidischer Norm 1 auf. Mögliche Relaxation ist dann: Statt eindimensional auch mehrdimensional zulassen.

32 MAX-CUT Approximation von MAX-CUT Bemerkung Mit Hilfe von (MAX-CUT-SDP) wurden signikante Verbesserungen in der Berechnung von Näherungslösungen von MAX-CUT erzielt: Der erwartete Wert bei der Lösung von MAX-CUT ist mindestens Optimalwert. (1.1382; siehe z.b. [GW95]) Idee dazu: Fasse Variablen y i in (MAX-CUT) als eindimensionale Vektoren mit euklidischer Norm 1 auf. Mögliche Relaxation ist dann: Statt eindimensional auch mehrdimensional zulassen.

33 MAX-CUT Approximation von MAX-CUT Bemerkung Mit Hilfe von (MAX-CUT-SDP) wurden signikante Verbesserungen in der Berechnung von Näherungslösungen von MAX-CUT erzielt: Der erwartete Wert bei der Lösung von MAX-CUT ist mindestens Optimalwert. (1.1382; siehe z.b. [GW95]) Idee dazu: Fasse Variablen y i in (MAX-CUT) als eindimensionale Vektoren mit euklidischer Norm 1 auf. Mögliche Relaxation ist dann: Statt eindimensional auch mehrdimensional zulassen.

34 MAX-CUT maximiere so dass 1 w ij (1 v T i v j ) 2 i<j v i S n 1 für alle i V (APPROX) Setze dann Y = Gram({v 1,..., v V }) = (v T i v j ) V i,j=1 womit (APPROX) wieder auf (MAX-CUT-SDP) führt.

35 MAX-CUT maximiere so dass 1 w ij (1 v T i v j ) 2 i<j v i S n 1 für alle i V (APPROX) Setze dann Y = Gram({v 1,..., v V }) = (v T i v j ) V i,j=1 womit (APPROX) wieder auf (MAX-CUT-SDP) führt.

36 MAX-CUT Dies führt dann zu Algorithmus (Approximationsalgorithmus für MAX-CUT, [GW95]) 1) Löse (APPROX) als SDP mit Lösung {v 1,..., v V }, 2) wähle zufällig einen Vektor r S n 1, 3) und setze S = {i v T i r 0}. Bemerkung Für den Erwartungswert E w E w α 1 2 i<j des Schnittes gilt w ij (1 v T i v j ) = α OPT unter den genannten Nebenbedingungen mit 2 θ α = min 0<θ π π 1 cos θ >

37 MAX-CUT Dies führt dann zu Algorithmus (Approximationsalgorithmus für MAX-CUT, [GW95]) 1) Löse (APPROX) als SDP mit Lösung {v 1,..., v V }, 2) wähle zufällig einen Vektor r S n 1, 3) und setze S = {i v T i r 0}. Bemerkung Für den Erwartungswert E w E w α 1 2 i<j des Schnittes gilt w ij (1 v T i v j ) = α OPT unter den genannten Nebenbedingungen mit 2 θ α = min 0<θ π π 1 cos θ >

38 MAX-CUT Berechnung der garantierten erwarteten Güte Lemma Es gilt E w = 1 π i<j w ij arccos(v T i v j ) Beweis E w = i<j w ij Pr[v i und v j werden durch r getrennt] = i<j w ij Pr[sgn(v T i r) sgn(v T j r)] Bild = w ij 1 π arccos(v T i v j ) i<j

39 MAX-CUT Berechnung der garantierten erwarteten Güte Lemma Es gilt E w = 1 π i<j w ij arccos(v T i v j ) Beweis E w = i<j w ij Pr[v i und v j werden durch r getrennt] = i<j w ij Pr[sgn(v T i r) sgn(v T j r)] Bild = w ij 1 π arccos(v T i v j ) i<j

40 MAX-CUT Berechnung der garantierten erwarteten Güte Lemma Es gilt E w = 1 π i<j w ij arccos(v T i v j ) Beweis E w = i<j w ij Pr[v i und v j werden durch r getrennt] = i<j w ij Pr[sgn(v T i r) sgn(v T j r)] Bild = w ij 1 π arccos(v T i v j ) i<j

41 MAX-CUT Berechnung der garantierten erwarteten Güte Lemma Es gilt E w = 1 π i<j w ij arccos(v T i v j ) Beweis E w = i<j w ij Pr[v i und v j werden durch r getrennt] = i<j w ij Pr[sgn(v T i r) sgn(v T j r)] Bild = w ij 1 π arccos(v T i v j ) i<j

42 MAX-CUT Lemma Es ist für 1 y 1 mit 1 π arccos(y) α 1 (1 y) 2 2 θ α = min 0<θ π π 1 cos θ > Beweis. 1 π arccos(y) 1 (1 y) min 1 y<1 2 1 π arccos(y) cos θ y 2 1 (1 y) = min 0<θ π π 2 θ 1 cos θ

43 MAX-CUT Lemma Es ist für 1 y 1 mit 1 π arccos(y) α 1 (1 y) 2 2 θ α = min 0<θ π π 1 cos θ > Beweis. 1 π arccos(y) 1 (1 y) min 1 y<1 2 1 π arccos(y) cos θ y 2 1 (1 y) = min 0<θ π π 2 θ 1 cos θ

44 MAX-CUT Lemma Es ist für 1 y 1 mit 1 π arccos(y) α 1 (1 y) 2 2 θ α = min 0<θ π π 1 cos θ > Beweis. 1 π arccos(y) 1 (1 y) min 1 y<1 2 1 π arccos(y) cos θ y 2 1 (1 y) = min 0<θ π π 2 θ 1 cos θ

45 MAX-CUT Zusammen gilt nun E w = 1 π i<j α 1 2 w ij arccos(v T i v j ) i<j w ij (1 v T i v j ) = α OPT Bemerkung Die Berechnungsungenauigkeit bei Lösung von (APPROX) kann in den Approximationsfaktor verschoben werden. Die Güte von ist die bislang beste, bekannte Approximationsgüte (nach [Wa06]) Verbesserung auf Optimalwert (1.0615) ist in N PC (siehe [Has97])

46 MAX-CUT Zusammen gilt nun E w = 1 π i<j α 1 2 w ij arccos(v T i v j ) i<j w ij (1 v T i v j ) = α OPT Bemerkung Die Berechnungsungenauigkeit bei Lösung von (APPROX) kann in den Approximationsfaktor verschoben werden. Die Güte von ist die bislang beste, bekannte Approximationsgüte (nach [Wa06]) Verbesserung auf Optimalwert (1.0615) ist in N PC (siehe [Has97])

47 MAX-CUT Zusammen gilt nun E w = 1 π i<j α 1 2 w ij arccos(v T i v j ) i<j w ij (1 v T i v j ) = α OPT Bemerkung Die Berechnungsungenauigkeit bei Lösung von (APPROX) kann in den Approximationsfaktor verschoben werden. Die Güte von ist die bislang beste, bekannte Approximationsgüte (nach [Wa06]) Verbesserung auf Optimalwert (1.0615) ist in N PC (siehe [Has97])

48 MAX-CUT Zusammen gilt nun E w = 1 π i<j α 1 2 w ij arccos(v T i v j ) i<j w ij (1 v T i v j ) = α OPT Bemerkung Die Berechnungsungenauigkeit bei Lösung von (APPROX) kann in den Approximationsfaktor verschoben werden. Die Güte von ist die bislang beste, bekannte Approximationsgüte (nach [Wa06]) Verbesserung auf Optimalwert (1.0615) ist in N PC (siehe [Has97])

49 MAX-CUT Zusammen gilt nun E w = 1 π i<j α 1 2 w ij arccos(v T i v j ) i<j w ij (1 v T i v j ) = α OPT Bemerkung Die Berechnungsungenauigkeit bei Lösung von (APPROX) kann in den Approximationsfaktor verschoben werden. Die Güte von ist die bislang beste, bekannte Approximationsgüte (nach [Wa06]) Verbesserung auf Optimalwert (1.0615) ist in N PC (siehe [Has97])

50 MAX-BISECTION Beispiel: MAX-BISECTION Wir betrachten MAX-CUT mit der Zusatzbedingung, dass E 2N und dass beide Knotenmengen gleichmächtig sein sollen: maximiere so dass 1 w ij (1 y i y j ) 2 i<j y i { 1, 1} für alle i V V y i = 0 i=1

51 MAX-BISECTION MAX-BISECTION als SDP Beobachtung: Schreibe V y i=1 i = 0 als e T y = 0 mit e = (1) V i=1 R V und y = (y i ) V i=1 R V. Weiterhin setzen wir wieder Y = (y i y j ) V. i,j=1 Statt der Bedingung e T y = 0 setzen wir dann Dies ergibt: tr(ee T Y ) = 0 SDP (MAX-BISECTION) 1 maximiere w ij (1 Y ij ) 2 i<j so dass tr(ee T Y ) = 0 Y ii = 1 für alle i V Y 0 (MAX-BISEC)

52 MAX-BISECTION MAX-BISECTION als SDP Beobachtung: Schreibe V y i=1 i = 0 als e T y = 0 mit e = (1) V i=1 R V und y = (y i ) V i=1 R V. Weiterhin setzen wir wieder Y = (y i y j ) V. i,j=1 Statt der Bedingung e T y = 0 setzen wir dann Dies ergibt: tr(ee T Y ) = 0 SDP (MAX-BISECTION) 1 maximiere w ij (1 Y ij ) 2 i<j so dass tr(ee T Y ) = 0 Y ii = 1 für alle i V Y 0 (MAX-BISEC)

53 MAX-BISECTION Algorithmus (MAX-BISECTION nach Frieze/Jerrum, [Ye99]) 1) Löse die Relaxation (MAX-BISEC) und bestimme den Schnitt S wie bei MAX-CUT 2) falls die erhaltenen Mengen nicht gleichmächtig sind, dann tausche solange leichte Knoten aus der gröÿeren Menge in die kleiner Menge, bis dies erfüllt ist Bemerkung Der oben angegebene Algorithmus hat einen erwarteten Wert von Optimalwert (1.536) Die Relaxation (MAX-BISEC) kann genutzt werden, um Näherungsalgorithmen zu konstruieren, deren erwarteter Wert gröÿer oder gleich Optimalwert ist. (1.4306, siehe [Ye99])

54 MAX-BISECTION Algorithmus (MAX-BISECTION nach Frieze/Jerrum, [Ye99]) 1) Löse die Relaxation (MAX-BISEC) und bestimme den Schnitt S wie bei MAX-CUT 2) falls die erhaltenen Mengen nicht gleichmächtig sind, dann tausche solange leichte Knoten aus der gröÿeren Menge in die kleiner Menge, bis dies erfüllt ist Bemerkung Der oben angegebene Algorithmus hat einen erwarteten Wert von Optimalwert (1.536) Die Relaxation (MAX-BISEC) kann genutzt werden, um Näherungsalgorithmen zu konstruieren, deren erwarteter Wert gröÿer oder gleich Optimalwert ist. (1.4306, siehe [Ye99])

55 MAX-2SAT Beispiel: MAX-2SAT Gegeben sei n N und eine Menge C = {C j C j = x αj 1 j1 von Klauseln. x αj 2, j {1,..., n}, α j2 j1, α j2 { 1, 1}} Dann ist MAX-2SAT die Maximierungsaufgabe Finde eine Belegung der Variablen x i derart, dass die Anzahl der gültigen Klauseln C j maximal wird.

56 MAX-2SAT Beispiel: MAX-2SAT Gegeben sei n N und eine Menge C = {C j C j = x αj 1 j1 von Klauseln. x αj 2, j {1,..., n}, α j2 j1, α j2 { 1, 1}} Dann ist MAX-2SAT die Maximierungsaufgabe Finde eine Belegung der Variablen x i derart, dass die Anzahl der gültigen Klauseln C j maximal wird.

57 MAX-2SAT MAX-2SAT als SDP Vorbetrachtungen assoziere mit jeder Variablen x i {true, false} eine Variable y i { 1, 1} Einführung einer weiteren Variablen y 0 { 1, 1} Wir setzen x i auf true dann und nur dann, wenn y 0 = y i gilt.

58 MAX-2SAT MAX-2SAT als SDP Vorbetrachtungen assoziere mit jeder Variablen x i {true, false} eine Variable y i { 1, 1} Einführung einer weiteren Variablen y 0 { 1, 1} Wir setzen x i auf true dann und nur dann, wenn y 0 = y i gilt.

59 MAX-2SAT MAX-2SAT als SDP Vorbetrachtungen assoziere mit jeder Variablen x i {true, false} eine Variable y i { 1, 1} Einführung einer weiteren Variablen y 0 { 1, 1} Wir setzen x i auf true dann und nur dann, wenn y 0 = y i gilt.

60 MAX-2SAT Ziel: Deniere Funktion v : C N, welche die wahren Klauseln zählt. Es bezeichne N die Anzahl der in C vorkommenden Variablen. Für die Variablen x i mit i {0,..., N} deniere { 0 falls xi = false v(x i ) = 1 falls x i = true oder mit Hilfe der Variablen y i : v(x i ) = 1 + y 0y i. 2 Entsprechend setze v(x i ) = 1 y 0y i. 2

61 MAX-2SAT Ziel: Deniere Funktion v : C N, welche die wahren Klauseln zählt. Es bezeichne N die Anzahl der in C vorkommenden Variablen. Für die Variablen x i mit i {0,..., N} deniere { 0 falls xi = false v(x i ) = 1 falls x i = true oder mit Hilfe der Variablen y i : v(x i ) = 1 + y 0y i. 2 Entsprechend setze v(x i ) = 1 y 0y i. 2

62 MAX-2SAT Ziel: Deniere Funktion v : C N, welche die wahren Klauseln zählt. Es bezeichne N die Anzahl der in C vorkommenden Variablen. Für die Variablen x i mit i {0,..., N} deniere { 0 falls xi = false v(x i ) = 1 falls x i = true oder mit Hilfe der Variablen y i : v(x i ) = 1 + y 0y i. 2 Entsprechend setze v(x i ) = 1 y 0y i. 2

63 MAX-2SAT Deniere nun v auf den Klauseln x i x k : v(x i x k ) = 1 (x i x k ) = 1 1 y 0y i 2 = 1 + y 0y i 4 1 y 0 y k y 0y k y i y k 4

64 MAX-2SAT Damit nun MAX-2SAT als Optimierungsaufgabe maximiere v(c) c C so dass y i { 1, 1} für alle i {0,..., N} (MAX-2SAT)

65 MAX-2SAT Es ist v(c) = a c C i<j ij(1 + y i y j ) + b ij (1 y i y j ). Dann kann die Optimierungsaufgabe (MAX-2SAT) geschrieben werden als maximiere a ij (1 + y i y j ) + b ij (1 y i y j ) i<j so dass y i S 0 für alle i {0,..., N}

66 MAX-2SAT Es ist v(c) = a c C i<j ij(1 + y i y j ) + b ij (1 y i y j ). Dann kann die Optimierungsaufgabe (MAX-2SAT) geschrieben werden als maximiere a ij (1 + y i y j ) + b ij (1 y i y j ) i<j so dass y i S 0 für alle i {0,..., N}

67 MAX-2SAT Schlieÿlich wieder die Relaxation: Lasse statt S 0 auch S n 1 zu: SDP (MAX-2SAT) maximiere so dass a ij (1 + Y ij ) + b ij (1 Y ij ) i<j Y ii = 1 für alle i {0,..., N}, Y 0 Bemerkung Wir erhalten damit als Lösung {v 0,..., v V }, wählen wieder r S n 1 zufällig und setzen alle Variablen x i auf true, die die Gleichung sgn v T r = sgn v T i 0 r erfüllen, den Rest auf false. Bemerkung Eine Verbesserung auf Optimalwert (also einer Güte von ) ist möglich!

68 MAX-2SAT Schlieÿlich wieder die Relaxation: Lasse statt S 0 auch S n 1 zu: SDP (MAX-2SAT) maximiere so dass a ij (1 + Y ij ) + b ij (1 Y ij ) i<j Y ii = 1 für alle i {0,..., N}, Y 0 Bemerkung Wir erhalten damit als Lösung {v 0,..., v V }, wählen wieder r S n 1 zufällig und setzen alle Variablen x i auf true, die die Gleichung sgn v T r = sgn v T i 0 r erfüllen, den Rest auf false. Bemerkung Eine Verbesserung auf Optimalwert (also einer Güte von ) ist möglich!

69 MAX-2SAT Schlieÿlich wieder die Relaxation: Lasse statt S 0 auch S n 1 zu: SDP (MAX-2SAT) maximiere so dass a ij (1 + Y ij ) + b ij (1 Y ij ) i<j Y ii = 1 für alle i {0,..., N}, Y 0 Bemerkung Wir erhalten damit als Lösung {v 0,..., v V }, wählen wieder r S n 1 zufällig und setzen alle Variablen x i auf true, die die Gleichung sgn v T r = sgn v T i 0 r erfüllen, den Rest auf false. Bemerkung Eine Verbesserung auf Optimalwert (also einer Güte von ) ist möglich!

70 Danke

71 Literaturhinweise I [Ali93] [BV04] [FJ95] Farid Alizadeh Interior Point Methods in Semidenite Programming with Applications to Combinatorial Optimization (online) Stephen Boyd und Lieven Vandenberghe Convex Optimization Cambridge University Press, 2004 Alan Frieze und Mark Jerrum Improved Approximation Algorithms for MAX k-cut and MAX-BISECTION (online)

72 Literaturhinweise II [GHL06] Carla P. Gomes et. al The Power of Semidenite Programming Relaxations for MAXSAT In Proc. Conf. Intregration of AI/OR (CPAIOR06), 2006 (online) [GW95] [Has97] Michel X. Goemans und David P. Williamson Improved Approximation Algorithms for Maximum Cut and Satisability Problems Using Semidenite Programming Proceedings of the 26th Annual ACM Symposium on Theory of Computing, (online) Johan Håstad Some optimal inapproximability results (online)

73 Literaturhinweise III [helm] [Wa06] [Ye99] Christop Helmberg Semidenite Programming zu nden unter ~helmberg/semidef.html Rolf Wanka Approximationsalgorithmen Teubner Verlag, Wiesbaden, 2006 Yinyu Ye A.699-Approimation Algorithm for Max-Bisection (online)

Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2008/09 in Trier. Henning Fernau Universität Trier

Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2008/09 in Trier. Henning Fernau Universität Trier Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2008/09 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Näherungsalgorithmen Gesamtübersicht Organisatorisches Einführung / Motivation

Mehr

Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2012/13 in Trier

Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2012/13 in Trier Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2012/13 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 21. November 2012 Näherungsalgorithmen, Fernau, Universität Trier, WiSe 2012/13

Mehr

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, Henning Meyerhenke

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, Henning Meyerhenke Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, 01.02.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum

Mehr

Übersicht. Grundlagen. Methoden zum Entwurf von Approximationsalgorithmen. Approximationsklassen. Das PCP-Theorem

Übersicht. Grundlagen. Methoden zum Entwurf von Approximationsalgorithmen. Approximationsklassen. Das PCP-Theorem Übersicht Einführung Grundlagen Methoden zum Entwurf von Approximationsalgorithmen Das PCP-Theorem Probabilistische Programmierung Derandomisierung V ertex C over Minimum W eig hted V ertex C over Instanz:

Mehr

Approximationsalgorithmen

Approximationsalgorithmen Approximationsalgorithmen 1. Vorlesung Joachim Spoerhase Alexander Wolff Lehrstuhl für Informatik I Wintersemester 2017/18 Bücher zur Vorlesung Vijay V. Vazirani Approximation Algorithms Springer-Verlag

Mehr

Optimierung. Vorlesung 9

Optimierung. Vorlesung 9 Optimierung Vorlesung 9 Heute Facility location problem 1. Komplemetärer Schlupf 2. Das Facility Location Problem 3. Problemstellung LP, Duales, Schlupf Eine Approximationsalgorithmus Analyse und Beweis

Mehr

Kapitel 9: Lineare Programmierung Gliederung

Kapitel 9: Lineare Programmierung Gliederung Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 16 Programm: Einführung

Mehr

Maximum and Minimum Satisfiability Problem

Maximum and Minimum Satisfiability Problem and Lehrstuhl für Wissensverarbeitung und Informationssysteme Universität Potsdam 25. Januar 2006 Agenda 1 2 3 I Erfüllbarkeitsproblem der Aussagenlogik : Aussagenlogische Formel auf Erfüllbarkeit prüfen

Mehr

Optimierung. Vorlesung 02

Optimierung. Vorlesung 02 Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j

Mehr

4.4 Quadratische Optimierungsprobleme

4.4 Quadratische Optimierungsprobleme 4.4 Quadratische Optimierungsprobleme 1. Quadratische Programme (QP) 1 2 xt P x + q T x + r s.t. Gx h (4.34) wobei P S n +, G R (m n) und A R (p n) Zielfunktion (ZF) ist (konvex) quadratisch Nebenbedingungen

Mehr

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Anna Raaz 21.12.2007 Einführung Die Relaxierung von Lagrange wird in der stochastischen Optimierung meistens

Mehr

Approximationsalgorithmen für NP-harte Optimierungsprobleme

Approximationsalgorithmen für NP-harte Optimierungsprobleme Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 18 Was tun mit NP-harten Problemen? Viele praxisrelevante

Mehr

Approximationsalgorithmen für NP-harte Optimierungsprobleme

Approximationsalgorithmen für NP-harte Optimierungsprobleme Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 4. Januar 2011 Berthold Vöcking, Informatik 1 () Vorlesung

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

Literatur für diese VO. Überblick. Kap. 5: Approximationsalgorithmen für kombinatorische Optimierungsprobleme

Literatur für diese VO. Überblick. Kap. 5: Approximationsalgorithmen für kombinatorische Optimierungsprobleme Kap. : Approximationsalgorithmen für kombinatorische Optimierungsprobleme Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS Fakultät für Informatik, TU Dortmund Literatur für diese VO

Mehr

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur

Mehr

Kap. 5: Approximationsalgorithmen für kombinatorische Optimierungsprobleme

Kap. 5: Approximationsalgorithmen für kombinatorische Optimierungsprobleme Kap. 5: Approximationsalgorithmen für kombinatorische Optimierungsprobleme Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18./20. VO A&D WS 08/09

Mehr

Lineare Optimierung: Simplexverfahren Phase Ⅰ

Lineare Optimierung: Simplexverfahren Phase Ⅰ Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren

Mehr

Typischerweise sind randomisierte Algorithmen einfacher zu beschreiben und zu implementieren als deterministische Algorithmen.

Typischerweise sind randomisierte Algorithmen einfacher zu beschreiben und zu implementieren als deterministische Algorithmen. Kapitel Randomisierte Algorithmen Einleitung Definition: Ein Algorithmus, der im Laufe seiner Ausführung gewisse Entscheidungen zufällig trifft, heisst randomisierter Algorithmus. Beispiel: Bei der randomisierten

Mehr

Einführung in Berechenbarkeit, Komplexität und Formale Sprachen

Einführung in Berechenbarkeit, Komplexität und Formale Sprachen Einführung in Berechenbarkeit, Komplexität und Formale Sprachen V17, 10.12.09 Willkommen zur Vorlesung Einführung in Berechenbarkeit, Komplexität und Formale Sprachen Friedhelm Meyer auf der Heide 1 Rückblick:

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 7. Dezember 2017 INSTITUT FÜR THEORETISCHE 0 07.12.2017 Dorothea Wagner - Theoretische Grundlagen der Informatik INSTITUT FÜR THEORETISCHE KIT Die Forschungsuniversität

Mehr

Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme

Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien

Mehr

NP-vollständig - Was nun?

NP-vollständig - Was nun? Kapitel 4 NP-vollständig - Was nun? Wurde von einem Problem gezeigt, dass es NP-vollständig ist, ist das Problem damit nicht gelöst oder aus der Welt geschafft. In der Praxis muss es trotzdem gelöst werden.

Mehr

Vortrag 20: Kurze Vektoren in Gittern

Vortrag 20: Kurze Vektoren in Gittern Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die

Mehr

Seminar. Das Steinerbaumproblem

Seminar. Das Steinerbaumproblem Seminar Das Steinerbaumproblem Philipp Gillitzer Matrikelnr.: 51829 Studiengang Informatik(IT-Sicherheit) Semester 6 Hochschule Aalen Wintersemester 16/17 1 Inhaltsverzeichnis 1 Einleitung 3 2 Grundlagen

Mehr

Informatik III - WS07/08

Informatik III - WS07/08 Informatik III - WS07/08 Kapitel 4 1 Informatik III - WS07/08 Prof. Dr. Dorothea Wagner dwagner@ira.uka.de Kapitel 4 : Komplexitätsklassen Informatik III - WS07/08 Kapitel 4 2 Sprachen, Probleme, Zeitkomplexität

Mehr

Wie komme ich von hier zum Hauptbahnhof?

Wie komme ich von hier zum Hauptbahnhof? NP-Vollständigkeit Wie komme ich von hier zum Hauptbahnhof? P Wie komme ich von hier zum Hauptbahnhof? kann ich verwende für reduzieren auf Finde jemand, der den Weg kennt! Alternativ: Finde eine Stadtkarte!

Mehr

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0. Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales

Mehr

Einführung in das Seminar Algorithmentechnik

Einführung in das Seminar Algorithmentechnik Einführung in das Seminar Algorithmentechnik 10. Mai 2012 Henning Meyerhenke, Roland Glantz 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Roland undglantz: nationales Einführung Forschungszentrum

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Wiederholung Bin-Packing:

Mehr

Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 7

Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 7 Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt

Mehr

09. Übung zu Algorithmen I 12. Juli 2017

09. Übung zu Algorithmen I 12. Juli 2017 09. Übung zu Algorithmen I 12. Juli 2017 Björn Kaidel bjoern.kaidel@kit.edu mit Folien von Lukas Barth 1 / 67 Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP

Mehr

Approximationsalgorithmen. Wintersemester 2013/14 HERZLICH WILLKOMMEN!

Approximationsalgorithmen. Wintersemester 2013/14 HERZLICH WILLKOMMEN! Approximationsalgorithmen Wintersemester 2013/14 HERZLICH WILLKOMMEN! 1 / 39 Worum geht s? Eine Bemerkung von Vasek Chvatal In den kommunistischen Ländern des Ostblocks in den 60 er und 70 er Jahren war

Mehr

Rundreiseproblem und Stabilität von Approximationsalg.

Rundreiseproblem und Stabilität von Approximationsalg. Das Rundreiseproblem und Stabilität von Approximationsalgorithmen Friedrich Alexander Universität Erlangen-Nürnberg Seminar Perlen der theoretischen Informatik, 2008-01-19 http://verplant.org/uni/perlen/

Mehr

Technische Universität München Zentrum Mathematik. Optimierung 2, WS 2008/09 Übungsblatt 12

Technische Universität München Zentrum Mathematik. Optimierung 2, WS 2008/09 Übungsblatt 12 Technische Universität München Zentrum Mathematik Prof. Dr. P. Gritzmann, Dipl.-Inf. Dipl.-Math. S. Borgwardt, Dr. M. Ritter Optimierung 2, WS 2008/09 Übungsblatt 12 Aufgabe 12.1 Betrachten Sie die folgenden

Mehr

Optimierung. Vorlesung 08

Optimierung. Vorlesung 08 Optimierung Vorlesung 08 Heute Dualität Ganzzahligkeit Optimierung der Vorlesung durch Evaluierung 2 Das duale LP Das primale LP Maximiere c T x unter Ax b, x R d 0. wird zu dem dualen LP Minimiere b T

Mehr

Approximation mit relativer Gütegarantie Überblick und einführende Beispiele

Approximation mit relativer Gütegarantie Überblick und einführende Beispiele Approximation mit relativer Gütegarantie Überblick und einführende Beispiele Marvin Schiller 4. Oktober 2007. Einführung In diesem Essay geben wir einen Überblick über eine Auswahl von algorithmischen

Mehr

Optimierung Optimization. Vorlesung 01

Optimierung Optimization. Vorlesung 01 Optimierung Optimization Vorlesung 01 Organisatorisches skopalik@mail.upb.de Büro: F1.209 (Sprechstunde nach Vereinbarung) Vorlesung: Freitags, 11:15 12:45, F0 053 Übungen: Dienstags, 13:15 14:00, F0 053

Mehr

Optimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn

Optimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn Optimierung Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung 1 Assignment Problem (Zuordnungsproblem) Gewichtetes Perfektes Bipartites Matching agents Costs tasks Weise jedem Agenten genau

Mehr

Nachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2011/2012

Nachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2011/2012 Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Nachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2011/2012 Hier Aufkleber mit Name und Matrikelnr. anbringen

Mehr

Der chinesische Restsatz mit Anwendung

Der chinesische Restsatz mit Anwendung Der chinesische Restsatz mit Anwendung Nike Garath n.garath@gmx.de Martrikelnummer: 423072 Seminar: Verschlüsslungs- und Codierungstheorie Dozent: Dr. Thomas Timmermann Sommersemester 2017 Inhaltsverzeichnis

Mehr

Schnittebenenverfahren für das symmetrische

Schnittebenenverfahren für das symmetrische Schnittebenenverfahren für das symmetrische TSP Sebastian Peetz Mathematisches Institut Universität Bayreuth 19. Januar 2007 / Blockseminar Ganzzahlige Optimierung, Bayreuth Gliederung 1 Das symmetrische

Mehr

Algorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke

Algorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke Algorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke Steve Göring 13.07.2012 1/18 Gliederung Einleitung Grundlagen Vertex-Cover-Problem Set-Cover-Problem Lösungsalgorithmen

Mehr

1 Einführung in Lineare Programme und Dualität

1 Einführung in Lineare Programme und Dualität Gliederung Inhaltsverzeichnis 1 Einführung in Lineare Programme und Dualität 1 1.1 Lineare Programme......................... 1 1.2 Dualität............................... 2 2 Grundlegende Sätze und Definitionen

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

Approximationsklassen für Optimierungsprobleme

Approximationsklassen für Optimierungsprobleme Approximationsklassen für Optimierungsprobleme Matthias Erbar 19. September 2007 Inhaltsverzeichnis 1 Einleitung 1 2 Approximationsalgorithmen mit garantierter Güte 2 2.1 Terminologie......................................

Mehr

Approximationsalgorithmen

Approximationsalgorithmen Effiziente Algorithmen Lösen NP-vollständiger Probleme 320 Approximationsalgorithmen In polynomieller Zeit lässen sich nicht exakte Lösungen von NP-harten Problemen berechnen. Approximationsalgorithmen

Mehr

Abbildung 1: Reduktion: CLIQUE zu VERTEX-COVER. links: Clique V = {u, v, x, y}. rechts:der Graph Ḡ mit VC V \ V = {w, z}

Abbildung 1: Reduktion: CLIQUE zu VERTEX-COVER. links: Clique V = {u, v, x, y}. rechts:der Graph Ḡ mit VC V \ V = {w, z} u v u v z w z w y x y x Abbildung 1: Reduktion: CLIQUE zu VERTEX-COVER. links: Clique V = {u, v, x, y}. rechts:der Graph Ḡ mit VC V \ V = {w, z} Definition 0.0.1 (Vertex Cover (VC)). Gegeben: Ein ungerichteter

Mehr

Mathematik für Studierende der Biologie und des Lehramtes Chemie

Mathematik für Studierende der Biologie und des Lehramtes Chemie Einführung I Mathematik für Studierende der Biologie und des Lehramtes Chemie Dominik Schillo Universität des Saarlandes 007 (Stand: 007, 4:9 Uhr) Wie viel Kilogramm Salzsäure der Konzentration % muss

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Übung am 16.12.2010 INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft

Mehr

Sudoku ist NP-vollständig

Sudoku ist NP-vollständig Sudoku ist NP-vollständig Seminar über Algorithmen und Komplexität Freie Universität Berlin Institut für Informatik SS 007 Sarah Will 8.07.007 Einführung Sudoku ist ein japanisches Logikrätsel und hat

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester

Mehr

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 10

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 10 D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler Lösungen Serie 10 1. Für a 1 : 1 1 0, a 2 : 1 1, a 3 : 1 1 1, b : 2 2 2 1 und A : (a 1, a 2, a 3 ) gelten welche der folgenden Aussagen? (a) det(a)

Mehr

Approximierbarkeit. Definition. Ein Optimierungsproblem P ist gegeben durch ein Quadrupel. P = (I, Sol, m, goal), wobei:

Approximierbarkeit. Definition. Ein Optimierungsproblem P ist gegeben durch ein Quadrupel. P = (I, Sol, m, goal), wobei: Approximierbarkeit Ein Optimierungsproblem P ist gegeben durch ein Quadrupel wobei: P = (I, Sol, m, goal), I ist die Menge der Instanzen von P. Sol ist eine Funktion, die ein x I abbildet auf die Menge

Mehr

Übung 2 Algorithmen II

Übung 2 Algorithmen II Yaroslav Akhremtsev, Demian Hespe yaroslav.akhremtsev@kit.edu, hespe@kit.edu Mit Folien von Michael Axtmann (teilweise) http://algo2.iti.kit.edu/algorithmenii_ws17.php - 0 Akhremtsev, Hespe: KIT Universität

Mehr

Effiziente Algorithmen (SS2015)

Effiziente Algorithmen (SS2015) Effiziente Algorithmen (SS205) Kapitel 5 Approximation II Walter Unger Lehrstuhl für Informatik 2.06.205 07:59 5 Inhaltsverzeichnis < > Walter Unger 5.7.205 :3 SS205 Z Inhalt I Set Cover Einleitung Approximation

Mehr

Kap. 5: Planaritätsbasierte Verfahren

Kap. 5: Planaritätsbasierte Verfahren Kap. 5: Planaritätsbasierte Verfahren Prof. Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering LS11 Universität Dortmund 23. VO WS07/08 21. Januar 2008 Literatur für diese VO M. Kaufmann, D. Wagner (Eds.):

Mehr

Algorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS Oktober 2016

Algorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS Oktober 2016 Technische Universität Wien Institut für Computergraphik und Algorithmen Algorithms and Complexity Group 186.815 Algorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS 2016 5. Oktober 2016 Machen Sie

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

Algorithmen I. Prof. Jörn Müller-Quade Institut für Theoretische Informatik Web: https://crypto.iti.kit.edu/index.php?

Algorithmen I. Prof. Jörn Müller-Quade Institut für Theoretische Informatik Web: https://crypto.iti.kit.edu/index.php? Algorithmen I Prof. Jörn Müller-Quade 05.07.2017 Institut für Theoretische Informatik Web: https://crypto.iti.kit.edu/index.php?id=799 (Folien von Peter Sanders) KIT Institut für Theoretische Informatik

Mehr

Stetigkeit und Dierenzierbarkeit im R n

Stetigkeit und Dierenzierbarkeit im R n Stetigkeit und Dierenzierbarkeit im R n 1 Stetigkeit Wir übertragen den Stetigkeitsbegri auf mehrstellige reellwertige Funktionen. Denition 1. Sei M R n. Eine Funktion f : M R heiÿt stetig in a M gdw.

Mehr

Effiziente Algorithmen Lineares Programmieren 216. Schwache Dualität

Effiziente Algorithmen Lineares Programmieren 216. Schwache Dualität Effiziente Algorithmen Lineares Programmieren 216 Schwache Dualität Sei wieder z = max{ c T x Ax b, x 0 } (P ) und w = min{ b T u A T u c, u 0 }. (D) x ist primal zulässig, wenn x { x Ax b, x 0 }. u ist

Mehr

Algorithmische Methoden für schwere Optimierungsprobleme

Algorithmische Methoden für schwere Optimierungsprobleme Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund

Mehr

Extremwerte von Funktionen mehrerer reeller Variabler

Extremwerte von Funktionen mehrerer reeller Variabler Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein

Mehr

2.6 Asymptotische Approximation: Min Binpacking

2.6 Asymptotische Approximation: Min Binpacking 2.6 Asymptotische Approximation: Min Binpacking In diesem Abschnitt geht es die Erscheinung, dass manche Optimierungsprobleme Approximationsalgorithmen haben, die nur für Inputs x mit groÿem Wert m (x)

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Approximationsalgorithmen. 19. Dezember / 28

Approximationsalgorithmen. 19. Dezember / 28 Approximationsalgorithmen 19. Dezember 2017 1 / 28 Optimierungsprobleme Das Ziel: Bearbeite schwierige Optimierungsprobleme der Form opt y f (x, y) so dass L(x, y). Die Zielfunktion f (x, y) ist zu minimieren

Mehr

Ganzzahlige lineare Programme

Ganzzahlige lineare Programme KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.

Mehr

1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1

1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1 1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme Duales Problem Lemma 1.4. Das zum Transportproblem duale Problem lautet: max unter den Nebenbedingungen m a i u i + i=1

Mehr

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester

Mehr

Steiner Bäume. Dipl.-Math. Maria Kandyba Lehrstuhl für Algorithm Engineering, LS VO 15. Januar 2007

Steiner Bäume. Dipl.-Math. Maria Kandyba Lehrstuhl für Algorithm Engineering, LS VO 15. Januar 2007 Steiner Bäume Dipl.-Math. Maria Kandyba Lehrstuhl für Algorithm Engineering, LS11 12 VO 15. Januar 2007 Überblick Einführung Definition und Motivation Komplexität Approximationsalgorithmen Distanznetzwerk

Mehr

Das Problem des minimalen Steiner-Baumes

Das Problem des minimalen Steiner-Baumes Das Problem des minimalen Steiner-Baumes Ein polynomieller Approximationsalgorithmus Benedikt Wagner 4.05.208 INSTITUT FU R THEORETISCHE INFORMATIK, LEHRSTUHL ALGORITHMIK KIT Die Forschungsuniversita t

Mehr

Das Rucksackproblem. Definition Sprache Rucksack. Satz

Das Rucksackproblem. Definition Sprache Rucksack. Satz Das Rucksackproblem Definition Sprache Rucksack Gegeben sind n Gegenstände mit Gewichten W = {w 1,...,w n } N und Profiten P = {p 1,...,p n } N. Seien ferner b, k N. RUCKSACK:= {(W, P, b, k) I [n] : i

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

10. Übung zur Linearen Algebra I -

10. Übung zur Linearen Algebra I - . Übung zur Linearen Algebra I - en Kommentare an Hannes.Klarner@FU-Berlin.de FU Berlin. WS 29-. Aufgabe 37 i Für welche α R besitzt das lineare Gleichungssystem 4 αx + αx 2 = 4x + α + 2x 2 = α genau eine,

Mehr

Überblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP

Überblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP Kap..1 Heuristiken Kap.. Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 3. VO DAP SS 008 14. Juli 009 Überblick

Mehr

Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien

Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 23. VO DAP2 SS 2008 14. Juli 2009

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Dr. Hanjo Täubig Lehrstuhl für Eziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester 2007/08

Mehr

47 Singulärwertzerlegung

47 Singulärwertzerlegung 47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar

Mehr

Algorithmische Methoden für schwere Optimierungsprobleme

Algorithmische Methoden für schwere Optimierungsprobleme Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund

Mehr

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Angewandte Multivariate Statistik Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Ostap Okhrin 1 of 46 Angewandte Multivariate Statistik A Short Excursion into Matrix Algebra Elementare Operationen

Mehr

Algorithmen und Datenstrukturen 2. Stefan Florian Palkovits, BSc Juni 2016

Algorithmen und Datenstrukturen 2. Stefan Florian Palkovits, BSc Juni 2016 Algorithmen und Datenstrukturen Übung Stefan Florian Palkovits, BSc 09 e09@student.tuwien.ac.at 9. Juni 0 Aufgabe 9: Anwenden der Spanning Tree Heuristik auf symmetrisches TSP 9 8 7 8 8 7 Bilden eines

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

Algorithmen II Vorlesung am

Algorithmen II Vorlesung am Algorithmen II Vorlesung am..03 Randomisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum

Mehr

Chinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151

Chinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151 Inhaltsverzeichnis 1 Kernkonzepte der linearen Optimierung... 1 1.1 Einführung... 1 1.2 Grundlegende Definitionen... 8 1.3 Grafische Lösung... 10 1.4 Standardform und grundlegende analytische Konzepte...

Mehr

Optimierung. Vorlesung 04

Optimierung. Vorlesung 04 Optimierung Vorlesung 04 Übungsbetrieb Mangels Teilnehmer keine Dienstagsübung mehr. Prüfung laut Paul: Di, 10. Feb. 2015 00:01-23:59 2 Was bisher geschah LP: Maximiere c T x unter Ax = b, x 0. Basis:

Mehr

Aufwand und Komplexität Vorlesung vom Komplexität und Effizienz

Aufwand und Komplexität Vorlesung vom Komplexität und Effizienz Aufwand und Komplexität Vorlesung vom 15.12.17 Komplexität und Effizienz Aufwand: Anzahl dominanter Operationen (worst-case). Beispiel. Landau-Symbol O(n). Beispiel. Definition: Aufwand eines Algorithmus.

Mehr

Überblick. Kap. 1.4: Minimum Weight Perfect Matching. 1.3 Blüten-Schrumpf Algorithmus für Maximum Matching

Überblick. Kap. 1.4: Minimum Weight Perfect Matching. 1.3 Blüten-Schrumpf Algorithmus für Maximum Matching Kap. 1.4: Minimum Weight Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 4. VO 6. November 2006 Überblick kurze Wiederholung: 1.2 Blüten-Schrumpf-Algorithmus für Perfektes Matching

Mehr

a) Die Householder-Transformation, welche den ersten Spaltenvektor a 1 = der Matrix A auf , a 1 αe A = QR, A k =: Q k R k, A k+1 := R k Q k.

a) Die Householder-Transformation, welche den ersten Spaltenvektor a 1 = der Matrix A auf , a 1 αe A = QR, A k =: Q k R k, A k+1 := R k Q k. Karlsruher Institut für Technologie (KIT) Institut für Analysis Prof. Dr. W. Reichel Sommersemester 00 7.07.00 MODULPRÜFUNG Numerische Methoden (Höhere Mathematik IV für die Fachrichtung Meteorologie bzw.

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Dynamische Programmierung II

Dynamische Programmierung II Vorlesungstermin 10: Dynamische Programmierung II Markus Püschel David Steurer talks2.dsteurer.org/dp2.pdf Algorithmen und Datenstrukturen, Herbstsemester 2018, ETH Zürich Plan für heute Dynamische Programmierung

Mehr

Schnittebenenverfahren und Heuristiken

Schnittebenenverfahren und Heuristiken KAPITEL 6 Schnittebenenverfahren und Heuristiken Wir betrachten nun Optimierungsprobleme vom Typ (68) minc T x s.d. Ax b,x 0,x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n,b R m gegeben

Mehr

1 Übungsaufgaben zu Kapitel 1

1 Übungsaufgaben zu Kapitel 1 Übungsaufgaben zu Kapitel. Übungsaufgaben zu Abschnitt... Aufgabe. Untersuchen Sie die nachstehend definierten Folgen ( a k ) k und ( b k ) k auf Konvergenz und bestimmen Sie ggf. den jeweiligen Grenzwert:

Mehr

Aufgaben und Lösungen zur Abschlußklausur zur Mathematik 1 (Wiederholer und Nachzügler) vom

Aufgaben und Lösungen zur Abschlußklausur zur Mathematik 1 (Wiederholer und Nachzügler) vom Aufgaben und Lösungen zur Abschlußklausur zur Mathematik (Wiederholer und Nachzügler) vom 6.3.8. In der Menge M n n aller quadratischen Matrizen vom Format n n mit Einträgen aus R werden die folgenden

Mehr