Inhaltsübersicht für heute:

Ähnliche Dokumente
Diskrete Optimierung (Einführung zur Vorlesung)

Diskrete Optimierung (Einführung zur Vorlesung)

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Inhaltsübersicht für heute:

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

Kap. 3: Exakte Lösungsverfahren für NPschwierige. Optimierungsprobleme VO Algorithm Engineering

2. Optimierungsprobleme 6

Konvexe Optimierungsprobleme

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

Mathematik 2 für Wirtschaftsinformatik

Inhaltsübersicht für heute:

Kombinatorische Optimierung

Inhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen

Konvexe Mengen und Funktionen

Innere-Punkt-Methoden

KAPITEL 3. Konvexe Funktionen

Optimierungstheorie Scheinklausur Sommersemester Juli 2007

Optimierung für Nichtmathematiker

Kuhn-Tucker Bedingung

Einführung in die Mathematik des Operations Research

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme

Optimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn

Lineare Optimierung. Volker Kaibel Fakultät für Mathematik Institut für Mathematische Optimierung Otto-von-Guericke Universität Magdeburg

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering

Klausurrepetitorium ABWL

3.1. Existenzsatz und Struktur der Lösungsmenge

Ganzzahlige lineare Programme

Kap. 4: Lineare Programmierung

Teil I. Lineare Optimierung

Optimierung für Nichtmathematiker

Der Branching-Operator B

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Kapitel 4. Optimierungsalgorithmen. Technische Universität Wien. Gunnar Klau Technische Universität Wien. Institut für Computergraphik und Algorithmen

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Übungen zur Ingenieur-Mathematik III WS 2011/12 Blatt Aufgabe 25: Berechnen Sie den kritischen Punkt der Funktion

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

Das Lagrange-duale Problem

Aufgabensammlung uncf Klausurentrainer zur Optimierung

Lagrange-Relaxierung und Subgradientenverfahren

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

4.4 Quadratische Optimierungsprobleme

ist ein Polyeder. c) Sei F eine Seite von P. Wann ist f 1 (F ) eine Seite von f 1 (P )? Begründen Sie Ihre Antwort. x 1. x = max{ x i i N n }.

Kapitel 2. Mathematik für Mikroökonomie

Die Lagrange-duale Funktion

Einführung in das Seminar Algorithmentechnik

Vorlesung Lineare Optimierung (Sommersemester 2010)

Vorlesung Lineare Optimierung (Sommersemester 2010)

Wirtschaftsmathematik II

8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule

Schnittebenenverfahren und Heuristiken

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer

1 Einführung in Lineare Programme und Dualität

Die Verbindung von Linearer Programmierung und Graphentheorie

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

4 Differenzierbarkeit einer konjugierten Funktion

Optimierung. Vorlesung 08

3.4 Exakte Verfahren für (Gemischt-) Ganzzahlige Optimierung

Optimierung für Nichtmathematiker

Inhaltsübersicht für heute:

Branch-and-Bound und Varianten. Kapitel 3. Branch-and-Bound und Varianten. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 98 / 159

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2005/2006

Wir gewichten die Kanten von G wie folgt: Kante e 1 e 2 e 3 e 4 e 5 e 6 e 7 e 8 d(e i )

mit. Wir definieren (Skalarprodukt = Winkel).

Optimieren unter Nebenbedingungen

Chinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151

Schnittebenenverfahren für das symmetrische

Eigenschaften von LPs

Das Matching Polytop

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung

Probeklausur Optimierung

Grundlagen der Optimierung. Übung 6

Inhalt der Vorlesung. 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen)

Operations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung.

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) =

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Übung 5, Analytische Optimierung

Optimierung I. Einführung in die Optimierung. Skript zur Vorlesung von Prof. Dr. Mirjam Dür Prof. Dr. Alexander Martin

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn

1. Grundlagen der konvexen Analysis Version

Insbesondere sind nach dieser Definition also auch die leere Menge und einpunktige Teilmengen konvex.

Optimierung. Vorlesung 02

Angewandte Mathematik für die Informatik

Lagrange-Multiplikatoren

2.4 Verallgemeinerte Ungleichungen

1 Der Simplex Algorithmus I

Einführung in die Mathematik des Operations Research. Prof. Dr. Frank Vallentin

Dualität bei konvexer Optimierung

Teil 6. Differentialrechnung mehrerer Veränderlicher

Konvexe Mengen. Kanglin,Chen. Universität Bremen, Proseminar WS 04/05

3 Optimierung mehrdimensionaler Funktionen f : R n R

Approximationsalgorithmen

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

Wie schreibe ich einen Kürzester Kruzester

Transkript:

Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation

Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation

Branch-and-Bound Beim systematischen Enumerieren aller Lösungen sollen möglichst viele frühzeitig durch obere und untere Schranken ausgeschlossen werden. Bsp: {0, 1}-Rucksack: Gewichte a N n, Kapazität b N, Nutzen c N n, max c T x s.t. a T x b, x {0, 1} n Obere Schranke: max c T x s.t. a T x b, x [0, 1] n [LP-Relaxation] Untere Schranke: Sortiere nach Nutzen/Gewicht und fülle danach auf Ablaufskizze (für Maximierungsprobleme): M... Menge offener Probleme, anfangs M = {Ursprungsproblem} f... Wert der besten bekannten Lösung, anfangs f = 1. Falls M = STOP, sonst wähle P M, M M \ {P} 2. Berechne obere Schranke f (P). 3. Falls f (P) < f (P enthält keine OL), gehe zu 1. 4. Berechne zulässige Lösung ˆf (P) für P (untere Schranke). 5. Ist ˆf (P) > f (neue beste Lösung), setze f ˆf (P) 6. Ist f (P) = ˆf (P) (keine bessere Lösung in P), gehe zu 1. 7. Teile P in kleinere Teilprobleme P i, M M {P 1,..., P k } 8. Gehe zu 1.

Beispiel: {0, 1}-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) 9 7 6 4 4 3 14 Nutzen (c) 18 6 18 7 6 5 Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 14, x [0, 1] 6 [LP-Relaxation] Untere Schranke: Nach Sortierung möglichst lange auffüllen

Beispiel: {0, 1}-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) 9 7 6 4 4 3 14 Nutzen (c) 18 6 18 7 6 5 Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 14, x [0, 1] 6 [LP-Relaxation] Untere Schranke: Nach Sortierung möglichst lange auffüllen P 1 : Originalproblem OS: C + 8 9 A=34 US: C +D +F =30

Beispiel: {0, 1}-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) 9 7 6 4 4 3 14 Nutzen (c) 18 6 18 7 6 5 Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 14, x [0, 1] 6 [LP-Relaxation] Untere Schranke: Nach Sortierung möglichst lange auffüllen P 1 : Originalproblem OS: C + 8 9 A=34 US: C +D +F =30 1 x A 0

Beispiel: {0, 1}-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) 9 7 6 4 4 3 14 Nutzen (c) 18 6 18 7 6 5 Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 14, x [0, 1] 6 [LP-Relaxation] Untere Schranke: Nach Sortierung möglichst lange auffüllen P 1 : Originalproblem OS: C + 8 9 A=34 US: C +D +F =30 P 2 : x A =1 x B =x C =0 OS: A + D + 1 3 F = 26 2 3 OS <30 keine OL 1 x A 0

Beispiel: {0, 1}-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) 9 7 6 4 4 3 14 Nutzen (c) 18 6 18 7 6 5 Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 14, x [0, 1] 6 [LP-Relaxation] Untere Schranke: Nach Sortierung möglichst lange auffüllen P 1 : Originalproblem OS: C + 8 9 A=34 US: C +D +F =30 P 2 : x A =1 x B =x C =0 OS: A + D + 1 3 F = 26 2 3 OS <30 keine OL 1 x A 0 P 3 : x A =0 OS: C +D +F + 1 4 E =31 1 2 US: C +D +F =30

Beispiel: {0, 1}-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) 9 7 6 4 4 3 14 Nutzen (c) 18 6 18 7 6 5 Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 14, x [0, 1] 6 [LP-Relaxation] Untere Schranke: Nach Sortierung möglichst lange auffüllen P 1 : Originalproblem OS: C + 8 9 A=34 US: C +D +F =30 P 2 : x A =1 x B =x C =0 OS: A + D + 1 3 F = 26 2 3 OS <30 keine OL 1 x A 0 P 3 : x A =0 OS: C +D +F + 1 4 E =31 1 2 US: C +D +F =30 1 x E 0

Beispiel: {0, 1}-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) 9 7 6 4 4 3 14 Nutzen (c) 18 6 18 7 6 5 Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 14, x [0, 1] 6 [LP-Relaxation] Untere Schranke: Nach Sortierung möglichst lange auffüllen P 1 : Originalproblem OS: C + 8 9 A=34 US: C +D +F =30 P 2 : x A =1 x B =x C =0 OS: A + D + 1 3 F = 26 2 3 OS <30 keine OL 1 x A 0 P 4 : x A =0, x E =1 OS: E +C +D =31 US: E +C +D =31 P 3 : x A =0 OS: C +D +F + 1 4 E =31 1 2 US: C +D +F =30 1 x E 0

Beispiel: {0, 1}-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) 9 7 6 4 4 3 14 Nutzen (c) 18 6 18 7 6 5 Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 14, x [0, 1] 6 [LP-Relaxation] Untere Schranke: Nach Sortierung möglichst lange auffüllen P 1 : Originalproblem OS: C + 8 9 A=34 US: C +D +F =30 P 2 : x A =1 x B =x C =0 OS: A + D + 1 3 F = 26 2 3 OS <30 keine OL 1 x A 0 P 4 : x A =0, x E =1 OS: E +C +D =31 US: E +C +D =31 P 3 : x A =0 OS: C +D +F + 1 4 E =31 1 2 US: C +D +F =30 1 x E 0 P 5 : x A =x E =0 OS: C+ D +F + 1 7 B =30 6 7 OS <31 keine OL

Immer dann wird der Branch&Bound Baum groß werden, wenn viele Lösungen sehr nahe an der Optimallösung sind. Entscheidend für den Erfolg von Branch&Bound: Wie kommt man zu guten oberen und unteren Schranken?

Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation

Konvexe Mengen und konvexe Hülle Eine Menge C R n heißt konvex, wenn für alle x, y C auch die Verbindungsstrecke [x, y] := {αx + (1 α)y : α [0, 1]} in C liegt.

Konvexe Mengen und konvexe Hülle Eine Menge C R n heißt konvex, wenn für alle x, y C auch die Verbindungsstrecke [x, y] := {αx + (1 α)y : α [0, 1]} in C liegt. Bspe:, R n, Halbräume, der Schnitt konvexer Mengen ist konvex, Polyeder, der k-dim. Einheitssimplex k := {α R k + : k i=1 α i = 1} Halbraum Schnitt 1 3 1 1

Konvexe Mengen und konvexe Hülle Eine Menge C R n heißt konvex, wenn für alle x, y C auch die Verbindungsstrecke [x, y] := {αx + (1 α)y : α [0, 1]} in C liegt. Bspe:, R n, Halbräume, der Schnitt konvexer Mengen ist konvex, Polyeder, der k-dim. Einheitssimplex k := {α R k + : k i=1 α i = 1} Für S R n ist die konvexe Hülle der Schnitt aller konvexen Mengen, die S enthalten, conv S := {C konvex : S C}.

Konvexe Mengen und konvexe Hülle Eine Menge C R n heißt konvex, wenn für alle x, y C auch die Verbindungsstrecke [x, y] := {αx + (1 α)y : α [0, 1]} in C liegt. Bspe:, R n, Halbräume, der Schnitt konvexer Mengen ist konvex, Polyeder, der k-dim. Einheitssimplex k := {α R k + : k i=1 α i = 1} Für S R n ist die konvexe Hülle der Schnitt aller konvexen Mengen, die S enthalten, conv S := {C konvex : S C}. Für gegebene Punkte x (i) R n, i {1,..., k} und α k heißt x = α i x (i) Konvexkombination der Punkte x (i). 0.4 0.2 0. 0.4

Konvexe Mengen und konvexe Hülle Eine Menge C R n heißt konvex, wenn für alle x, y C auch die Verbindungsstrecke [x, y] := {αx + (1 α)y : α [0, 1]} in C liegt. Bspe:, R n, Halbräume, der Schnitt konvexer Mengen ist konvex, Polyeder, der k-dim. Einheitssimplex k := {α R k + : k i=1 α i = 1} Für S R n ist die konvexe Hülle der Schnitt aller konvexen Mengen, die S enthalten, conv S := {C konvex : S C}. Für gegebene Punkte x (i) R n, i {1,..., k} und α k heißt x = α i x (i) Konvexkombination der Punkte x (i). conv S ist die Menge aller Konvexkombinationen endlich vieler Punkte aus S, conv S = { k i=1 α ix (i) : x (i) S, i = 1,..., k N, α k }.

Konvexe Hülle und ganzz. Optimierung Satz Die konvexe Hülle endlich vieler Punkte ist ein (beschränktes) Polyeder.

Konvexe Hülle und ganzz. Optimierung Satz Die konvexe Hülle endlich vieler Punkte ist ein (beschränktes) Polyeder. Die ganzzahlige Hülle eines Polyeders P = {x R n : Ax b} ist die konvexe Hülle der in P enthaltenen ganzz. Punkte, P I := conv(p Z n ). Satz Ist A Q m n und b Q m, dann ist die ganzz. Hülle P I des Polyeders P = {x R n : Ax b} selbst ein Polyeder. Problem: Beschreibung von P I meist unbekannt oder extrem groß! P P I [Ausnahme z.b. für A tot. unimod., b Z n ist P = P I ]

Konvexe Hülle und ganzz. Optimierung Satz Die konvexe Hülle endlich vieler Punkte ist ein (beschränktes) Polyeder. Die ganzzahlige Hülle eines Polyeders P = {x R n : Ax b} ist die konvexe Hülle der in P enthaltenen ganzz. Punkte, P I := conv(p Z n ). Satz Ist A Q m n und b Q m, dann ist die ganzz. Hülle P I des Polyeders P = {x R n : Ax b} selbst ein Polyeder. Problem: Beschreibung von P I meist unbekannt oder extrem groß! Falls die ganzzahlige Hülle gut linear beschreibbar ist, kann man das ganzzahlige Optimierungsproblem mit Simplex lösen: Satz Ist für P = {x R n : Ax b} die ganzzahlige Hülle durch P I = {x R n : A I x b I } gegeben, so gilt: sup{c T x : A I x b I, x R n } = sup{c T x : Ax b, x Z n }, Argmin{c T x : A I x b I, x R n } = conv Argmin{c T x : Ax b, x Z n }.

Konvexe Funktionen Eine Funktion f : R n R := R { } heißt konvex, wenn f (αx + (1 α)y) αf (x) + (1 α)f (y) für x, y R n und α [0, 1]. Sie heißt streng konvex, wenn f (αx + (1 α)y) < αf (x) + (1 α)f (y) für x, y R n, x y und α (0, 1). f(x) f(y) f(x) f(y) x y x y

Konvexe Funktionen Eine Funktion f : R n R := R { } heißt konvex, wenn f (αx + (1 α)y) αf (x) + (1 α)f (y) für x, y R n und α [0, 1]. Sie heißt streng konvex, wenn f (αx + (1 α)y) < αf (x) + (1 α)f (y) für x, y R n, x y und α (0, 1). Der Epigraph {( einer ) Funktion f : R n } R ist die Menge x epi f := : x R r n, r f (x) [die Punkte oberhalb von f (x)] epi f epi f

Konvexe Funktionen Eine Funktion f : R n R := R { } heißt konvex, wenn f (αx + (1 α)y) αf (x) + (1 α)f (y) für x, y R n und α [0, 1]. Sie heißt streng konvex, wenn f (αx + (1 α)y) < αf (x) + (1 α)f (y) für x, y R n, x y und α (0, 1). Der Epigraph {( einer ) Funktion f : R n } R ist die Menge x epi f := : x R r n, r f (x) [die Punkte oberhalb von f (x)] Satz Eine Funktion ist genau dann konvex, wenn ihr Epigraph konvex ist. epi f epi f

Konvexe Funktionen Eine Funktion f : R n R := R { } heißt konvex, wenn f (αx + (1 α)y) αf (x) + (1 α)f (y) für x, y R n und α [0, 1]. Sie heißt streng konvex, wenn f (αx + (1 α)y) < αf (x) + (1 α)f (y) für x, y R n, x y und α (0, 1). Der Epigraph {( einer ) Funktion f : R n } R ist die Menge x epi f := : x R r n, r f (x) [die Punkte oberhalb von f (x)] Satz Eine Funktion ist genau dann konvex, wenn ihr Epigraph konvex ist. Bsp: Sind f i : R n R konvex, so auch f mit f (x) := sup i f i (x), x R n. f1 epi f fk f2 f3

Konvexe Funktionen Eine Funktion f : R n R := R { } heißt konvex, wenn f (αx + (1 α)y) αf (x) + (1 α)f (y) für x, y R n und α [0, 1]. Sie heißt streng konvex, wenn f (αx + (1 α)y) < αf (x) + (1 α)f (y) für x, y R n, x y und α (0, 1). Der Epigraph {( einer ) Funktion f : R n } R ist die Menge x epi f := : x R r n, r f (x) [die Punkte oberhalb von f (x)] Satz Eine Funktion ist genau dann konvex, wenn ihr Epigraph konvex ist. Bsp: Sind f i : R n R konvex, so auch f mit f (x) := sup i f i (x), x R n. Satz Jedes lokale Minimum einer konvexen Funktion ist auch globales Minimum, und für streng konvexe Funktionen ist es das einzige. Für konvexe Funktionen gibt es gute Optimierungsverfahren.

Konvexe Funktionen Eine Funktion f : R n R := R { } heißt konvex, wenn f (αx + (1 α)y) αf (x) + (1 α)f (y) für x, y R n und α [0, 1]. Sie heißt streng konvex, wenn f (αx + (1 α)y) < αf (x) + (1 α)f (y) für x, y R n, x y und α (0, 1). Der Epigraph {( einer ) Funktion f : R n } R ist die Menge x epi f := : x R r n, r f (x) [die Punkte oberhalb von f (x)] Satz Eine Funktion ist genau dann konvex, wenn ihr Epigraph konvex ist. Bsp: Sind f i : R n R konvex, so auch f mit f (x) := sup i f i (x), x R n. Satz Jedes lokale Minimum einer konvexen Funktion ist auch globales Minimum, und für streng konvexe Funktionen ist es das einzige. Für konvexe Funktionen gibt es gute Optimierungsverfahren. Eine Funktion f heißt konkav, wenn f konvex ist. (Jedes lokale Maximum einer konkaven Funktion ist auch globales.)

Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation

Relaxation Konzept auf beliebige Optimierungsprobleme anwendbar (hier Maximieren): Definition Gegeben zwei Optimierungsprobleme mit X, W R n und f, f : R n R (OP) max f (x) s.t. x X bzw. (RP) max f (x) s.t. x W, (RP) heißt Relaxation von (OP), falls 1. X W, 2. f (x) f (x) für alle x X.

Relaxation Konzept auf beliebige Optimierungsprobleme anwendbar (hier Maximieren): Definition Gegeben zwei Optimierungsprobleme mit X, W R n und f, f : R n R (OP) max f (x) s.t. x X bzw. (RP) max f (x) s.t. x W, (RP) heißt Relaxation von (OP), falls 1. X W, 2. f (x) f (x) für alle x X. Sei (RP) eine Relaxation von (OP). Beobachtung 1. v(rp) v(op). [(RP) liefert obere Schranke] 2. Ist (RP) unzulässig, so auch (OP), 3. Ist x OL von (RP) und gilt x X sowie f (x ) = f (x ), dann ist x OL von (OP).

Relaxation Konzept auf beliebige Optimierungsprobleme anwendbar (hier Maximieren): Definition Gegeben zwei Optimierungsprobleme mit X, W R n und f, f : R n R (OP) max f (x) s.t. x X bzw. (RP) max f (x) s.t. x W, (RP) heißt Relaxation von (OP), falls 1. X W, 2. f (x) f (x) für alle x X. Sei (RP) eine Relaxation von (OP). Beobachtung 1. v(rp) v(op). [(RP) liefert obere Schranke] 2. Ist (RP) unzulässig, so auch (OP), 3. Ist x OL von (RP) und gilt x X sowie f (x ) = f (x ), dann ist x OL von (OP). Man sucht nun möglichst kleines W X und f f so, dass (RP) noch gut lösbar ist. Eine Relaxation (RP) von (OP) heißt exakt, falls v(op) = v(rp) gilt.

Allgemein: Konvexe Relaxation Wird Konvexität für W und (bei max) Konkavität für f gefordert, spricht man von konvexer Relaxation. Meist (aber nicht immer!) dient die Konvexität als Garant für vernünftige Lösbarkeit der Relaxation.

Allgemein: Konvexe Relaxation Wird Konvexität für W und (bei max) Konkavität für f gefordert, spricht man von konvexer Relaxation. Meist (aber nicht immer!) dient die Konvexität als Garant für vernünftige Lösbarkeit der Relaxation. Bsp: Für ein kombinatorisches Max.-Problem mit endl. Grundmenge Ω, zulässigen Lösungen F 2 Ω und linearer Zielfunktion c R Ω ist max c T x s.t. x conv{χ Ω (F ) : F F} eine exakte konvexe (sogar lineare) Relaxation, aber nur dann nützlich, wenn das Polyeder conv{χ(f ) : F F} gut durch ein nicht zu großes Ungleichungssystem Ax b darstellbar ist.

Allgemein: Konvexe Relaxation Wird Konvexität für W und (bei max) Konkavität für f gefordert, spricht man von konvexer Relaxation. Meist (aber nicht immer!) dient die Konvexität als Garant für vernünftige Lösbarkeit der Relaxation. Bsp: Für ein kombinatorisches Max.-Problem mit endl. Grundmenge Ω, zulässigen Lösungen F 2 Ω und linearer Zielfunktion c R Ω ist max c T x s.t. x conv{χ Ω (F ) : F F} eine exakte konvexe (sogar lineare) Relaxation, aber nur dann nützlich, wenn das Polyeder conv{χ(f ) : F F} gut durch ein nicht zu großes Ungleichungssystem Ax b darstellbar ist. In der globalen Optimierung werden auf Teilintervallen nichtlineare Funktionen nach unten durch konvexe Funktionen abgeschätzt. Bsp: Betrachte (OP) min f (x) := 1 2 x T Qx + q T x s.t. x [0, 1] n mit f nicht konvex, d.h., λ min (Q) < 0. [λ min... minimaler Eigenwert] Es ist Q λ min (Q)I positiv semidefinit und wegen xi 2 x i auf [0, 1] n gilt f (x) := 1 2 x T (Q λ min (Q)I )x +(q +λ min (Q)1) T x f (x) x [0, 1] n. Damit ist (RP) min f (x) s.t. x [0, 1] n eine konvexe Relaxation von (OP).

Die LP-Relaxation für Ganzzahlige Programme Für ein ganzzahliges Programm max c T x s.t. Ax b, x Z n entsteht die LP-Relaxation durch Weglassen der Ganzz.-Bedingung, max c T x s.t. Ax b, x R n. Ist Relaxation, denn X := {x Z n : Ax b} {x R n : Ax b} =: W. [wird von allen Standardlösern für gemischt-ganzz. Programme verwendet]

Die LP-Relaxation für Ganzzahlige Programme Für ein ganzzahliges Programm max c T x s.t. Ax b, x Z n entsteht die LP-Relaxation durch Weglassen der Ganzz.-Bedingung, max c T x s.t. Ax b, x R n. Ist Relaxation, denn X := {x Z n : Ax b} {x R n : Ax b} =: W. [wird von allen Standardlösern für gemischt-ganzz. Programme verwendet] Bsp: Rucksackproblem: n = 2, Gewichte a = (6, 8) T, Kapazität b = 10, max c T x s.t. a T x b, x Z n + max c T x s.t. a T x b, x 0, x 2 1 a zulässige ganzzahlige Punkte: LP-Relaxation: grün beste Relaxation: die konvexe Hülle 1 x 1

Die LP-Relaxation für Ganzzahlige Programme Für ein ganzzahliges Programm max c T x s.t. Ax b, x Z n entsteht die LP-Relaxation durch Weglassen der Ganzz.-Bedingung, max c T x s.t. Ax b, x R n. Ist Relaxation, denn X := {x Z n : Ax b} {x R n : Ax b} =: W. [wird von allen Standardlösern für gemischt-ganzz. Programme verwendet] Bsp: Rucksackproblem: n = 2, Gewichte a = (6, 8) T, Kapazität b = 10, max c T x s.t. a T x b, x Z n + max c T x s.t. a T x b, x 0, x 2 1 a zulässige ganzzahlige Punkte: LP-Relaxation: grün beste Relaxation: die konvexe Hülle 1 x 1

Die LP-Relaxation für Ganzzahlige Programme Für ein ganzzahliges Programm max c T x s.t. Ax b, x Z n entsteht die LP-Relaxation durch Weglassen der Ganzz.-Bedingung, max c T x s.t. Ax b, x R n. Ist Relaxation, denn X := {x Z n : Ax b} {x R n : Ax b} =: W. [wird von allen Standardlösern für gemischt-ganzz. Programme verwendet] Bsp: Rucksackproblem: n = 2, Gewichte a = (6, 8) T, Kapazität b = 10, max c T x s.t. a T x b, x Z n + max c T x s.t. a T x b, x 0, x 2 1 a zulässige ganzzahlige Punkte: LP-Relaxation: grün beste Relaxation: die konvexe Hülle 1 x 1

Die LP-Relaxation für Ganzzahlige Programme Für ein ganzzahliges Programm max c T x s.t. Ax b, x Z n entsteht die LP-Relaxation durch Weglassen der Ganzz.-Bedingung, max c T x s.t. Ax b, x R n. Ist Relaxation, denn X := {x Z n : Ax b} {x R n : Ax b} =: W. [wird von allen Standardlösern für gemischt-ganzz. Programme verwendet] Bsp: ganzzahliger Mehrgüterfluss gebrochener Mehrgüterfluss s 1 s 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 s 1 s 1 1 1 1 0.5 1 1 0.5 1 1 1 1 1 1 1 0.5 0.5 1 1 1 1 auch zu groß, bräuchten die konvexe Hülle t 1 t 1 ganzz. geht nicht, X = t 1 t 1 gebrochen geht, W

Lagrange-Relaxation [Allg. für restr. Opt. verwendbar, hier vorerst nur Unglgs.-Nebenbed.] Unbequeme Nebenbedingungen werden mit einem Lagrangemultiplikator, der die Verletzung bestraft, in die Zielfunktion gehoben (g : R n R k ): (OP) max f (x) s.t. g(x) 0 λ 0 x Ω (RP λ ) max s.t. c T x λ T g(x) x Ω Ist Relaxation: X := {x Ω : g(x) 0} {x Ω} =: W und für x X, λ 0 gilt f (x) f (x) λ T g(x) =: f (x) wegen g(x) 0.

Lagrange-Relaxation [Allg. für restr. Opt. verwendbar, hier vorerst nur Unglgs.-Nebenbed.] Unbequeme Nebenbedingungen werden mit einem Lagrangemultiplikator, der die Verletzung bestraft, in die Zielfunktion gehoben (g : R n R k ): (OP) max f (x) s.t. g(x) 0 λ 0 x Ω (RP λ ) max s.t. c T x λ T g(x) x Ω Ist Relaxation: X := {x Ω : g(x) 0} {x Ω} =: W und für x X, λ 0 gilt f (x) f (x) λ T g(x) =: f (x) wegen g(x) 0. Definiere die duale Funktion ϕ(λ) := sup x Ω [ f (x) g(x) T λ ] = v(rp λ ) [für jedes feste x linear in λ] Für jedes λ 0 gilt ϕ(λ) v(op) [obere Schranke] ϕ(λ) gut berechenbar, falls (RP λ ) leicht lösbar ϕ ist als sup von in λ linearen Funktionen konvex Beste Schranke ist inf{ϕ(λ) : λ 0} [konvexes Problem!] gut mit Verfahren der konvexen Optimierung bestimmbar!

Beispiel: Ganzzahliger Mehrgüterfluss A sei die Knoten-Kanten-Inz.-Matrix zu D = (V, E), 2 Güter, Lagrange-Relaxation der koppelnden Kapazitätsbedingungen mit λ 0: min c (1)T x (1) + c (2)T x (2) s.t. Ax (1) = b (1) Ax (2) = b (2) λ x (1) + x (2) w x (1) w, x (2) w x (1) Z E +, x (2) Z E +. min (c (1) +λ) T x (1) +(c (2) +λ) T x (2) λ T w s.t. Ax (1) =b (1) Ax (2) =b (2) x (1) w, x (2) w, x (1) Z E +, x (2) Z E +. Relaxation zerfällt in zwei unabhängige Minimale-Kosten-Fluss-Probleme (RP (i) λ ) min (c(i) +λ) T x (i) s.t. Ax (i) = b (i), w x (i) Z E + i {1, 2} Diese sind effizient ganzzahlig lösbar!

Beispiel: Ganzzahliger Mehrgüterfluss A sei die Knoten-Kanten-Inz.-Matrix zu D = (V, E), 2 Güter, Lagrange-Relaxation der koppelnden Kapazitätsbedingungen mit λ 0: min c (1)T x (1) + c (2)T x (2) s.t. Ax (1) = b (1) Ax (2) = b (2) λ x (1) + x (2) w x (1) w, x (2) w x (1) Z E +, x (2) Z E +. min (c (1) +λ) T x (1) +(c (2) +λ) T x (2) λ T w s.t. Ax (1) =b (1) Ax (2) =b (2) x (1) w, x (2) w, x (1) Z E +, x (2) Z E +. Relaxation zerfällt in zwei unabhängige Minimale-Kosten-Fluss-Probleme (RP (i) λ ) min (c(i) +λ) T x (i) s.t. Ax (i) = b (i), w x (i) Z E + i {1, 2} Diese sind effizient ganzzahlig lösbar! Zerfällt das Problem bei Lagrange-Relaxation in unabhängige Teilprobleme, nennt man das Lagrange-Dekomposition. Damit können oft deutlich größere Probleme sehr effizient gelöst werden. Bekommt man dadurch auch eine bessere Schranke?

Vergleich Lagrange- und LP-Relaxation Sei Ω Z n endlich und D Q k n, d Q k, (OP) max c T x s.t. Dx d λ 0 x Ω (RP λ ) max ct x + λ T (d Dx) s.t. x Ω Im Bsp: Ω = Ω (1) Ω (2) mit Ω (i) = {x Z E + : Ax = b (i), x w}, i {1, 2}. Satz inf v(rp λ) = sup{c T x : Dx d, x conv Ω}. λ 0 Ist conv Ω gleich der zulässigen Menge der LP-Relaxation von Ω, sind die Werte der besten Lagrange- und der LP-Relaxation gleich!

Vergleich Lagrange- und LP-Relaxation Sei Ω Z n endlich und D Q k n, d Q k, (OP) max c T x s.t. Dx d λ 0 x Ω (RP λ ) max ct x + λ T (d Dx) s.t. x Ω Im Bsp: Ω = Ω (1) Ω (2) mit Ω (i) = {x Z E + : Ax = b (i), x w}, i {1, 2}. Satz inf v(rp λ) = sup{c T x : Dx d, x conv Ω}. λ 0 Ist conv Ω gleich der zulässigen Menge der LP-Relaxation von Ω, sind die Werte der besten Lagrange- und der LP-Relaxation gleich! Im Bsp ist A total unimodular, daher gilt für i {1, 2} und w Z E conv{x Z E + : Ax = b (i), x w} = {x 0 : Ax = b (i), x w}. Das beste λ ergibt den Wert des gebrochenen Mehrgüterflussproblems!

Vergleich Lagrange- und LP-Relaxation Sei Ω Z n endlich und D Q k n, d Q k, (OP) max c T x s.t. Dx d λ 0 x Ω (RP λ ) max ct x + λ T (d Dx) s.t. x Ω Im Bsp: Ω = Ω (1) Ω (2) mit Ω (i) = {x Z E + : Ax = b (i), x w}, i {1, 2}. Satz inf v(rp λ) = sup{c T x : Dx d, x conv Ω}. λ 0 Ist conv Ω gleich der zulässigen Menge der LP-Relaxation von Ω, sind die Werte der besten Lagrange- und der LP-Relaxation gleich! Im Bsp ist A total unimodular, daher gilt für i {1, 2} und w Z E conv{x Z E + : Ax = b (i), x w} = {x 0 : Ax = b (i), x w}. Das beste λ ergibt den Wert des gebrochenen Mehrgüterflussproblems! Allgemein: Sei {x Z n : Ax b} = Ω eine Formulierung von Ω. Nur falls {x R n : Ax b} conv Ω, kann die Lagrange-Relaxation einen besseren Wert liefern als die LP-Relaxation.