Diskrete Optimierung (Einführung zur Vorlesung)

Größe: px
Ab Seite anzeigen:

Download "Diskrete Optimierung (Einführung zur Vorlesung)"

Transkript

1 Diskrete Optimierung (Einführung zur Vorlesung) Christoph Helmberg : [,]

2 Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete Graphen).3 Anwendung: Netzwerkflüsse.4 Mehrgüterflussprobleme.5 Ganzzahlige und Kombinatorische Optimierung.6 Branch-and-Bound.7 Konvexe Mengen, konvexe Hülle, konvexe Funktionen.8 Relaxation.9 Anwendung: Rundreiseprobleme (TSP).0 Finden guter Lösungen, Heuristiken. Gemischt-ganzzahlige Optimierung 2: 2 [2,2]

3 . Anwendung: Das Heiratsproblem (bipartites Matching) Bilde möglichst viele Paare! Männer Frauen, Arbeiter Maschinen, Studierende Studienplätze,... (geht auch gewichtet) 3: 3 [3,5]

4 . Anwendung: Das Heiratsproblem (bipartites Matching) Bilde möglichst viele Paare! Maximal (nicht vergrößerbar), aber kein Kardinalitätsmaximum Männer Frauen, Arbeiter Maschinen, Studierende Studienplätze,... (geht auch gewichtet) 3: 4 [3,5]

5 . Anwendung: Das Heiratsproblem (bipartites Matching) Bilde möglichst viele Paare! Maximum Cardinality Matching (sogar perfekt) Männer Frauen, Arbeiter Maschinen, Studierende Studienplätze,... (geht auch gewichtet) 3: 5 [3,5]

6 Bipartites Matching Ein (ungerichteter) Graph G = (V, E) ist ein Paar bestehend aus Knotenmenge V und Kantenmenge E {{u, v} : u, v V, u v}. Zwei Knoten u, v V heißen adjazent/benachbart, falls {u, v} E. Ein Knoten v V und eine Kante e E heißen inzident, falls v e. Zwei Kanten e, f V heißen inzident, falls e f. 4: 6 [6,8]

7 Bipartites Matching Ein (ungerichteter) Graph G = (V, E) ist ein Paar bestehend aus Knotenmenge V und Kantenmenge E {{u, v} : u, v V, u v}. Zwei Knoten u, v V heißen adjazent/benachbart, falls {u, v} E. Ein Knoten v V und eine Kante e E heißen inzident, falls v e. Zwei Kanten e, f V heißen inzident, falls e f. Eine Kantenmenge M E heißt Matching/Paarung, falls für e, f M mit e f stets e f =. Das Matching heißt perfekt, falls V = 2 M. 4: 7 [6,8]

8 Bipartites Matching Ein (ungerichteter) Graph G = (V, E) ist ein Paar bestehend aus Knotenmenge V und Kantenmenge E {{u, v} : u, v V, u v}. Zwei Knoten u, v V heißen adjazent/benachbart, falls {u, v} E. Ein Knoten v V und eine Kante e E heißen inzident, falls v e. Zwei Kanten e, f V heißen inzident, falls e f. Eine Kantenmenge M E heißt Matching/Paarung, falls für e, f M mit e f stets e f =. Das Matching heißt perfekt, falls V = 2 M. G = (V, E) heißt bipartit, falls V = V V 2 mit V V 2 = und E {{u, v} : u V, v V 2 }. 4: 8 [6,8]

9 Modellierung: kardinalitätsmaximales bipartites Matching gegeben: G = (V V 2, E) bipartit gesucht: Matching M E mit M maximal { falls e M Variablen: x {0, } E mit x e = (e E) 0 sonst. (steht für den Inzidenz-/charakteristischen Vektor von M bzgl. E) Nebenbedingung: Ax, wobei A {0, } V E Knoten-Kanten-Inzidenzmatrix zu G: A v,e = { falls v e 0 sonst. (v V, e E) A B C b c a d D E A = (a) (b) (c) (d) (A) 0 0 (B) (C) (D) (E) 0 5: 9 [9,0]

10 Modellierung: kardinalitätsmaximales bipartites Matching gegeben: G = (V V 2, E) bipartit gesucht: Matching M E mit M maximal { falls e M Variablen: x {0, } E mit x e = (e E) 0 sonst. (steht für den Inzidenz-/charakteristischen Vektor von M bzgl. E) Nebenbedingung: Ax, wobei A {0, } V E Knoten-Kanten-Inzidenzmatrix zu G: A v,e = Optimierungsproblem: { falls v e 0 sonst. (v V, e E) max T x s.t. Ax x {0, } E So kein LP! x {0, } E zu x [0, ] E vergrößern LP Für G bipartit gilt: Simplex liefert immer eine Optimallösung x {0, } E! (Für allgemeine Graphen G i.a. aber nicht!) 5: 0 [9,0]

11 Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete Graphen).3 Anwendung: Netzwerkflüsse.4 Mehrgüterflussprobleme.5 Ganzzahlige und Kombinatorische Optimierung.6 Branch-and-Bound.7 Konvexe Mengen, konvexe Hülle, konvexe Funktionen.8 Relaxation.9 Anwendung: Rundreiseprobleme (TSP).0 Finden guter Lösungen, Heuristiken. Gemischt-ganzzahlige Optimierung 6: [,]

12 .2 Ganzzahlige Polyeder Simplex liefert automatisch eine ganzzahlige Lösung, wenn alle Ecken der zulässigen Menge ganzzahlig sind. min c T x s.t. x X := {x 0 : Ax = b} Hat X nur ganzzahlige Ecken? 7: 2 [2,4]

13 .2 Ganzzahlige Polyeder Simplex liefert automatisch eine ganzzahlige Lösung, wenn alle Ecken der zulässigen Menge ganzzahlig sind. min c T x s.t. x X := {x 0 : Ax = b} Hat X nur ganzzahlige Ecken? Fast nie! Aber es gibt wichtige Klassen von Matrizen A Z m n, für die X für jedes (!) b Z m nur ganzzahlige Ecken hat: Eine Ecke ist ganzzahlig Basislösung x B = A B b Zm Wenn det(a B ) =, folgt mit der Cramer schen Regel x B Z m. 7: 3 [2,4]

14 .2 Ganzzahlige Polyeder Simplex liefert automatisch eine ganzzahlige Lösung, wenn alle Ecken der zulässigen Menge ganzzahlig sind. min c T x s.t. x X := {x 0 : Ax = b} Hat X nur ganzzahlige Ecken? Fast nie! Aber es gibt wichtige Klassen von Matrizen A Z m n, für die X für jedes (!) b Z m nur ganzzahlige Ecken hat: Eine Ecke ist ganzzahlig Basislösung x B = A B b Zm Wenn det(a B ) =, folgt mit der Cramer schen Regel x B Z m. Eine Matrix A Z m n mit vollem Zeilenrang heißt unimodular, falls det(a B ) = für jede Basis B erfüllt ist. Satz A Z m n ist genau dann unimodular, wenn für jedes b Z m alle Ecken des Polyeders X := {x 0 : Ax = b} ganzzahlig sind. Gilt das auch für X := {x 0 : Ax b}? 7: 4 [2,4]

15 Total unimodulare Matrizen {x 0 : Ax b} {[ x s ] [ x 0 : [A, I ] s ] } = b Sicher ganzzahlig, falls Ā = [A, I ] unimodular ist. Determinantenentwicklung nach Laplace für jede Basis B Eine Matrix A heißt total unimodular, falls für jede quadratische Untermatrix von A die Determinante den Wert 0, oder hat. (geht nur, wenn A {0,, } m n ) Satz (Hoffmann und Kruskal) A Z m n ist genau dann total unimodular, wenn für jedes b Z m alle Ecken des Polyeders X := {x 0 : Ax b} ganzzahlig sind. 8: 5 [5,5] Beachte: A tot. unimod. A T bzw. [A, A, I, I ] tot. unimod. Konsequenz: duales LP, Gleichungsvarianten, etc. sind ganzzahlig

16 Total unimodulare Matrizen erkennen Satz (Heller und Tompkins) A {0,, } m n habe höchstens zwei Einträge pro Spalte. A ist total unimodular Die Zeilen von A können in zwei Klassen eingeteilt werden, sodass (i) Zeilen mit einem + und einem Eintrag in derselben Spalte in dieselbe Klasse, (ii) Zeilen mit zwei vorzeichengleichen Einträgen in der gleichen Spalte in unterschiedliche Klassen kommen. Beispiel : die Knoten-Kanten-Inzidenzmatrix eines bipartiten Graphen A B C b c a d D E A = (a) (b) (c) (d) (A) 0 0 (B) (C) (D) (E) 0 9: 6 [6,6]

17 Beispiel : bipartite Graphen A... Knoten-Kanten-Inzidenzmatrix von G = (V V 2, E) bipartit Bipartites Matching maximaler Kardinalität: max T x s.t. Ax, x 0 Wegen A tot. unimod. hat die zul. Menge nur ganzzahlige Ecken Simplex liefert Optimallösung x {0, } E. Das Duale ist auch ganzzahlig, wegen A T tot. unimod.: min T y s.t. A T y, y 0 Interpretation: y {0, } V ist Inzidenzvektor einer kleinsten Knotenmenge V V, sodass e E : e V (Minimum Vertex Cover) Das Zuweisungsproblem: V = V 2 = n, vollständig bipartit: E = {{u, v} : u V, v V 2 }; Kantengewichte c R E Suche ein perfektes Matching minimalen Gesamtgewichts: min c T x s.t. Ax =, x 0 ist auch ganzzahlig, weil [A; A] tot. unimod. 0: 7 [7,7]

18 Beispiel 2: Knoten-Kanten-Inzidenzmatrix von Digraphen Ein Digraph/gerichteter Graph D = (V, E) ist ein Paar bestehend aus Knotenmenge V und einer (Multi-)Menge gerichteter Kanten/Pfeile E {(u, v) : u, v V, u v}. [Mehrfachkanten sind erlaubt!] Für e = (u, v) E ist u der Schaft und v die Spitze von e. Die Knoten-Kanten-Inzidenzmatrix A {0,, } V E von D hat Einträge v ist Schaft von e A v,e = v ist Spitze von e (v V, e E). 0 sonst Die Knoten-Kanten-Inzidenzmatrix eines Digraphen ist total unimodular. A a b c B C d D e A = f (a) (b) (c) (d) (e) (f ) (A) (B) (C) (D) : 8 [8,8]

19 Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete Graphen).3 Anwendung: Netzwerkflüsse.4 Mehrgüterflussprobleme.5 Ganzzahlige und Kombinatorische Optimierung.6 Branch-and-Bound.7 Konvexe Mengen, konvexe Hülle, konvexe Funktionen.8 Relaxation.9 Anwendung: Rundreiseprobleme (TSP).0 Finden guter Lösungen, Heuristiken. Gemischt-ganzzahlige Optimierung 2: 9 [9,9]

20 .3 Anwendung: Netzwerkflüsse Modellierungswerkzeug: Transportprobleme, Evakuierungspläne, Auftrags-, Verkehrsplanung,... Ein Netzwerk (D, w) besteht aus einem Digraphen D = (V, E) und (Kanten-)Kapazitäten w R E +. Ein Vektor x R E heißt Fluss auf (D, w), falls er die Flusserhaltungsgleichungen x e = x e (v V ) e=(u,v) E e=(v,u) E erfüllt. [ Ax = 0 für Knoten-Kanten-Inzidenzmatrix A] Ein Fluss x R E auf (D,w) heißt zulässig, falls 0 x w [auch untere Schranken machbar] Fluss zulässiger Fluss 3: 20 [20,20]

21 Maximale s-t-flüsse, Minimale s-t-schnitte Gegeben Quelle s V und Senke t V mit (t, s) E, finde einen zulässigen Fluss x R E auf (D, w) mit maximalem Flusswert x (t,s). s max a b 5 4 B c 2 C d d 7 f 9 t A = LP: max x (t,s) s.t. Ax = 0, 0 x w, (a) (b) (c) (d) (e) (f ) (s) (B) (C) (t) Falls w Z E, ist Simplex-OL x Z E, weil [A; A; I ] tot. unimod. 4: 2 [2,24]

22 Maximale s-t-flüsse, Minimale s-t-schnitte Gegeben Quelle s V und Senke t V mit (t, s) E, finde einen zulässigen Fluss x R E auf (D, w) mit maximalem Flusswert x (t,s). B s max C 7 9 t S = {s}, δ + (S) = {(s, B), (s, C)}, w(δ + (S)) = = 9. LP: max x (t,s) s.t. Ax = 0, 0 x w, Falls w Z E, ist Simplex-OL x Z E, weil [A; A; I ] tot. unimod. Jedes S V mit s S und t / S definiert einen s-t-schnitt δ + (S) := {(u, v) E : u S, v / S}, darüber fließt höchstens w(δ + (S)) := e δ + (S) w e, der Wert des Schnitts. 4: 22 [2,24]

23 Maximale s-t-flüsse, Minimale s-t-schnitte Gegeben Quelle s V und Senke t V mit (t, s) E, finde einen zulässigen Fluss x R E auf (D, w) mit maximalem Flusswert x (t,s). s max B 4 S = {s, B, C}, 7 2 t δ + (S) = {(B, t), (C, t)}, w(δ + (S)) = 7 + = 8. 5 C 9 LP: max x (t,s) s.t. Ax = 0, 0 x w, Falls w Z E, ist Simplex-OL x Z E, weil [A; A; I ] tot. unimod. Jedes S V mit s S und t / S definiert einen s-t-schnitt δ + (S) := {(u, v) E : u S, v / S}, darüber fließt höchstens w(δ + (S)) := e δ + (S) w e, der Wert des Schnitts. 4: 23 [2,24]

24 Maximale s-t-flüsse, Minimale s-t-schnitte Gegeben Quelle s V und Senke t V mit (t, s) E, finde einen zulässigen Fluss x R E auf (D, w) mit maximalem Flusswert x (t,s). s 4: 24 [2,24] max B 2 2 C LP: max x (t,s) s.t. Ax = 0, 0 x w, t S = {s, C}, δ + (S) = {(s, B), (C, B), (C, t)}, w(δ + (S)) = = 7= x (t,s) Falls w Z E, ist Simplex-OL x Z E, weil [A; A; I ] tot. unimod. Jedes S V mit s S und t / S definiert einen s-t-schnitt δ + (S) := {(u, v) E : u S, v / S}, darüber fließt höchstens w(δ + (S)) := e δ + (S) w e, der Wert des Schnitts. Satz (Max-Flow Min-Cut Theorem von Ford und Fulkerson) Der maximale Wert eines s-t-flusses ist gleich dem minimalen Werte eines s-t-schnitts. [beide durch Simplex bestimmbar]

25 Minimale-Kosten-Flüsse (Min-Cost-Flow) Die Flussmenge wird durch Balancen b R V ( T b = 0) auf den Knoten vorgegeben, pro Flusseinheit fallen Kantenkosten c R E an. Finde den günstigsten Fluss. 5 5: 25 [25,25] min [ ] x s.t x w LP: min c T x s.t. Ax = b, 0 x w, x = Für b, c und w ganzz. ist Simplex-OL x Z E, weil [A; A; I ] tot. unimod. [geht auch mit unteren Schranken auf den Kanten: u x w!] Für LPs min c T x s.t. Ax = b, u x w, A Knoten-Kanten-Inz. gibt es eine besonders effiziente Simplex-Variante, den Netzwerksimplex, dieser braucht nur Addition, Subtraktion und Vergleiche! Extrem breite Anwendungsmöglichkeiten, beliebtes Modellierungswerkzeug

26 Beispiel: Transportproblem Eine Firma mit mehreren Produktionsstandorten hat mehrere Kunden zu beliefern. Wie geschieht dies am günstigsten unter Berücksichtigung der Transportkosten? : 26 [26,26] Beachte: Nur ein Produkttyp!

27 Beispiel: Evakuierungsplanung Bestimme für jeden Raum den Fluchtweg, sodass das Gebäude schnellstmöglich geräumt ist. Pro Abschnitt sind Kapazität pro Zeiteinheit und Durchquerungszeit bekannt. 7: 27 [27,34]

28 Beispiel: Evakuierungsplanung Bestimme für jeden Raum den Fluchtweg, sodass das Gebäude schnellstmöglich geräumt ist. Pro Abschnitt sind Kapazität pro Zeiteinheit und Durchquerungszeit bekannt / /2 4/2 2/2 3/ 2/2 2/2 4 / / 2/ 40 /2 4 / 2/ / 3 4 Kanten mit Kapazität und Durchquerungszeit 7: 28 [27,34]

29 Beispiel: Evakuierungsplanung Bestimme für jeden Raum den Fluchtweg, sodass das Gebäude schnellstmöglich geräumt ist. Pro Abschnitt sind Kapazität pro Zeiteinheit und Durchquerungszeit bekannt. 4 / /2 / 4/2 4 2/2 4 / / 2/ 40 2/ / 4 /2 3 2/2 3/ / Geometrie nicht wichtig, vereinfachbar 7: 29 [27,34]

30 Beispiel: Evakuierungsplanung Bestimme für jeden Raum den Fluchtweg, sodass das Gebäude schnellstmöglich geräumt ist. Pro Abschnitt sind Kapazität pro Zeiteinheit und Durchquerungszeit bekannt. t=0 4 t= / /2 / 4/2 4 2/2 4 / / 2/ 40 2/ / 4 /2 3 2/2 3/ / t=2 Diskretisierung der Zeit, ein Niveau pro Zeiteinheit 7: 30 [27,34]

31 Beispiel: Evakuierungsplanung Bestimme für jeden Raum den Fluchtweg, sodass das Gebäude schnellstmöglich geräumt ist. Pro Abschnitt sind Kapazität pro Zeiteinheit und Durchquerungszeit bekannt. t=0 4 t= / /2 / 4/2 4 2/2 4 / / 2/ 40 2/ / 4 /2 3 2/2 3 t=2 3 Durchquerungszeit verbindet Niveaus, Kapazität bleibt 7: 3 [27,34]

32 Beispiel: Evakuierungsplanung Bestimme für jeden Raum den Fluchtweg, sodass das Gebäude schnellstmöglich geräumt ist. Pro Abschnitt sind Kapazität pro Zeiteinheit und Durchquerungszeit bekannt. t=0 4 t= t=2 / / 4 / / 2/ 2/2 40 2/ / 4 4/2 / Durchquerungszeit verbindet Niveaus, Kapazität bleibt 7: 32 [27,34]

33 Beispiel: Evakuierungsplanung Bestimme für jeden Raum den Fluchtweg, sodass das Gebäude schnellstmöglich geräumt ist. Pro Abschnitt sind Kapazität pro Zeiteinheit und Durchquerungszeit bekannt. t=0 4 t= t= Steigende Kosten auf den Ausgangskanten für rasches Verlassen 2 2 7: 33 [27,34]

34 Beispiel: Evakuierungsplanung Bestimme für jeden Raum den Fluchtweg, sodass das Gebäude schnellstmöglich geräumt ist. Pro Abschnitt sind Kapazität pro Zeiteinheit und Durchquerungszeit bekannt. t=0 4 t= t= Steigende Kosten auf den Ausgangskanten für rasches Verlassen Ansatz nur ok, wenn Personen nicht unterschieden werden müssen! 2 2 7: 34 [27,34]

35 Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete Graphen).3 Anwendung: Netzwerkflüsse.4 Mehrgüterflussprobleme.5 Ganzzahlige und Kombinatorische Optimierung.6 Branch-and-Bound.7 Konvexe Mengen, konvexe Hülle, konvexe Funktionen.8 Relaxation.9 Anwendung: Rundreiseprobleme (TSP).0 Finden guter Lösungen, Heuristiken. Gemischt-ganzzahlige Optimierung 8: 35 [35,35]

36 .4 Mehrgüterflussprobleme (Multicommodity Flow) In einem Neztwerk (D, w) sind für unterschiedliche Güter K = {,..., k} mit Quellen/Senken (s i, t i ) und Flusswerten f i, i K, zulässige Flüsse x (i) R E zu finden, die in Summe die Kapazitätsbedingungen einhalten. s s t t 9: 36 [36,43]

37 .4 Mehrgüterflussprobleme (Multicommodity Flow) In einem Neztwerk (D, w) sind für unterschiedliche Güter K = {,..., k} mit Quellen/Senken (s i, t i ) und Flusswerten f i, i K, zulässige Flüsse x (i) R E zu finden, die in Summe die Kapazitätsbedingungen einhalten. s s t t Mischen verboten! 9: 37 [36,43]

38 .4 Mehrgüterflussprobleme (Multicommodity Flow) In einem Neztwerk (D, w) sind für unterschiedliche Güter K = {,..., k} mit Quellen/Senken (s i, t i ) und Flusswerten f i, i K, zulässige Flüsse x (i) R E zu finden, die in Summe die Kapazitätsbedingungen einhalten. s s t t ganzz. geht nicht 9: 38 [36,43]

39 .4 Mehrgüterflussprobleme (Multicommodity Flow) In einem Neztwerk (D, w) sind für unterschiedliche Güter K = {,..., k} mit Quellen/Senken (s i, t i ) und Flusswerten f i, i K, zulässige Flüsse x (i) R E zu finden, die in Summe die Kapazitätsbedingungen einhalten. s s t t gebrochen geht 9: 39 [36,43]

40 .4 Mehrgüterflussprobleme (Multicommodity Flow) In einem Neztwerk (D, w) sind für unterschiedliche Güter K = {,..., k} mit Quellen/Senken (s i, t i ) und Flusswerten f i, i K, zulässige Flüsse x (i) R E zu finden, die in Summe die Kapazitätsbedingungen einhalten. s s Umsetzung s s t t gebrochen geht Kopie t t Kopie 2 9: 40 [36,43]

41 .4 Mehrgüterflussprobleme (Multicommodity Flow) In einem Neztwerk (D, w) sind für unterschiedliche Güter K = {,..., k} mit Quellen/Senken (s i, t i ) und Flusswerten f i, i K, zulässige Flüsse x (i) R E zu finden, die in Summe die Kapazitätsbedingungen einhalten. s s Umsetzung s s t t gebrochen geht Kopie t t Kopie 2 min c ()T x () + c (2)T x (2) s.t. Ax () = b () Ax (2) = b (2) Ix () + Ix (2) w x () 0, x (2) 0. 9: 4 [36,43]

42 .4 Mehrgüterflussprobleme (Multicommodity Flow) In einem Neztwerk (D, w) sind für unterschiedliche Güter K = {,..., k} mit Quellen/Senken (s i, t i ) und Flusswerten f i, i K, zulässige Flüsse x (i) R E zu finden, die in Summe die Kapazitätsbedingungen einhalten. s s Umsetzung s s t t gebrochen geht A 0 0 A I I i.a. nicht tot.unimod.! Kopie t t Kopie 2 min c ()T x () + c (2)T x (2) s.t. Ax () = b () Ax (2) = b (2) Ix () + Ix (2) w x () 0, x (2) 0. 9: 42 [36,43]

43 .4 Mehrgüterflussprobleme (Multicommodity Flow) In einem Neztwerk (D, w) sind für unterschiedliche Güter K = {,..., k} mit Quellen/Senken (s i, t i ) und Flusswerten f i, i K, zulässige Flüsse x (i) R E zu finden, die in Summe die Kapazitätsbedingungen einhalten. s s Umsetzung s s t t gebrochen geht Gebrochen gut lösbar, ganzzahlig SEHR schwer! Kopie t t Kopie 2 min c ()T x () + c (2)T x (2) s.t. Ax () = b () Ax (2) = b (2) Ix () + Ix (2) w x () 0, x (2) 0. 9: 43 [36,43]

44 Beispiel: Logistik Paletten sind bedarfsgerecht mit LKWs zwischen Lagern zu verschieben B A C pro Artikel ein Palettengraph A B C A B C t=0 t= t=2 t=3 t=0.5 t=.5 t=2.5 t=3.5 20: 44 [44,44]

45 Weitere Anwendungsbereiche } gebrochen: Kapazitätsplanung für ganzzahlig: Zeitdiskretisierte Routen- und Ablaufplanung Straßenverkehr Schienenverkehr Internet Logistik (Engpassanalyse/Steuerung) Produktion (Maschinenauslastung/-belegung) Network-Design: Auslegung soll Erfüllung möglichst aller Bedarfe auch bei Störung erlauben. [ Robuste Varianten sind extrem schwer!] Mehrgüterflussprobleme werden oft als zugrundeliegendes Modell eingesetzt, das mit weiteren Bedingungen kombiniert wird. 2: 45 [45,45]

46 Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete Graphen).3 Anwendung: Netzwerkflüsse.4 Mehrgüterflussprobleme.5 Ganzzahlige und Kombinatorische Optimierung.6 Branch-and-Bound.7 Konvexe Mengen, konvexe Hülle, konvexe Funktionen.8 Relaxation.9 Anwendung: Rundreiseprobleme (TSP).0 Finden guter Lösungen, Heuristiken. Gemischt-ganzzahlige Optimierung 22: 46 [46,46]

47 .5 Ganzzahlige Optimierung (Integer Programming) vorwiegend: Lineare Programme mit ausschließlich ganzzahligen Variablen (sonst gemischt-ganzzahlige Optimierung/Mixed Integer Programming) max s.t. c T x Ax b x Z n Enthält meist viele Binär-Variablen ({0,}) für ja/nein Entscheidungen Schwierigkeit: i.a. nicht effizient lösbar, Komplexitätsklasse NP exakte Lösung oft sehr Enumerations-lastig (system. Durchprobieren) Exakte Lösung durch Kombination folgender Techniken: (obere) Schranken durch lineare/konvexe Relaxation verbessert durch Schnittebenenansätze zulässige Lösungen (untere Schranken) durch Rundungs- und Lokale-Suche-Heuristiken Enumeration durch Branch&Bound, Branch&Cut 23: 47 [47,47]

48 Kombinatorische Optimierung Mathematisch: Gegeben eine endliche Grundmenge Ω, eine Menge zulässiger Teilmengen F 2 Ω [Potenzmenge, Menge aller Teilmengen] und eine Zielfunktion c : F Q, bestimme max{c(f ) : F F} oder F Argmax{c(F ) : F F} Hier nur lineares c: c(f ) := e F c e mit c Q Ω. Bsp: Matching maximaler Kardinalität in G = (V, E): Ω = E, F = {M E : M Matching in G}, c = Bsp2: Minimum Vertex Cover für G = (V, E): Ω = V, F = {V V : e V für e E}, c = Formulierung über Binäre Programme: Notation: Inzidenz-/Charakteristischer Vektor χ Ω (F ) {0, } Ω für F Ω [kurz χ(f ), erfüllt [χ(f )] e = e F ] Ein lineares Programm max{c T x : Ax b, x [0, ] Ω } heißt Formulierung des kombinatorischen Optimierungsproblems, falls {x {0, } Ω : Ax b} = {χ(f ) : F F}. 24: 48 [48,48]

49 (Algorithmische) Komplexität von Problemen Eine Instanz I eines Problems ist eine konkrete Wertebelegung der Problemdaten; ihre Größe I ist die Kodierungslänge, also die Anzahl der Zeichen im Beschreibungsstring nach einem sinnvollen Kodierungsschema. Die Laufzeit eines Algorithmus für eine Instanz ist die Anzahl der ausgeführten elementaren Operationen (ein Symbol lesen/schreiben, Bytes addieren/multiplizieren/vergleichen, etc.) Ein Algorithmus löst ein Problem polynomial oder effizient, wenn er für jede Instanz die richtige Antwort innerhalb einer Laufzeit liefert, die durch ein Polynom in der Kodierungslänge beschränkt ist. Ein Problem heißt polynomial/effizient lösbar, wenn es einen Algorithmus gibt, der es effizient löst. Die Klasse P umfasst alle Probleme, die effizient lösbar sind. Bsp: Lineare Optimierung ist in P, ABER Simplex löst es nicht effizient. Bsp2: Kardinalitätsmaximales Matching in allgemeinen Graphen ist in P. Bsp3: Minimum Vertex Cover in bipartiten Graphen ist in P. 25: 49 [49,49]

50 Entscheidungsprobleme und die Klasse NP In einem Entscheidungsproblem ist jede Instanz eine Frage, die entweder mit Ja oder mit Nein zu beantworten ist. Ein Entscheidungsproblem ist nichtdeterministisch polynomial lösbar, wenn für jede Ja -Instanz I ein Lösungsstring (das Zertifikat) existiert, mit dem die Richtigkeit der Ja -Antwort in Laufzeit polynomial beschränkt in I nachgewiesen werden kann. [Es geht nur um Ja!] Die Klasse NP umfasst alle Entscheidungsprobleme, die nichtdeterministisch polynomial lösbar sind. Es gilt: P NP 26: 50 [50,54]

51 Entscheidungsprobleme und die Klasse NP In einem Entscheidungsproblem ist jede Instanz eine Frage, die entweder mit Ja oder mit Nein zu beantworten ist. Ein Entscheidungsproblem ist nichtdeterministisch polynomial lösbar, wenn für jede Ja -Instanz I ein Lösungsstring (das Zertifikat) existiert, mit dem die Richtigkeit der Ja -Antwort in Laufzeit polynomial beschränkt in I nachgewiesen werden kann. [Es geht nur um Ja!] Die Klasse NP umfasst alle Entscheidungsprobleme, die nichtdeterministisch polynomial lösbar sind. Es gilt: P NP Bsp: Hamilton scher Kreis: In einem Graphen G = (V, E) heißt eine Kantenmenge C = {{v, v 2 }, {v 2, v 3 },..., {v k, v k }, {v k, v }} E ein Kreis (der Länge k), falls v i v j für i j. Ein Kreis C heißt hamiltonsch, falls C = V. 26: 5 [50,54]

52 Entscheidungsprobleme und die Klasse NP 26: 52 [50,54] In einem Entscheidungsproblem ist jede Instanz eine Frage, die entweder mit Ja oder mit Nein zu beantworten ist. Ein Entscheidungsproblem ist nichtdeterministisch polynomial lösbar, wenn für jede Ja -Instanz I ein Lösungsstring (das Zertifikat) existiert, mit dem die Richtigkeit der Ja -Antwort in Laufzeit polynomial beschränkt in I nachgewiesen werden kann. [Es geht nur um Ja!] Die Klasse NP umfasst alle Entscheidungsprobleme, die nichtdeterministisch polynomial lösbar sind. Es gilt: P NP Bsp: Hamilton scher Kreis: In einem Graphen G = (V, E) heißt eine Kantenmenge C = {{v, v 2 }, {v 2, v 3 },..., {v k, v k }, {v k, v }} E ein Kreis (der Länge k), falls v i v j für i j. Ein Kreis C heißt hamiltonsch, falls C = V. Entscheidungsproblem: Enthält G einen Hamilton schen Kreis? Ja-Antwort ist effizient überprüfbar, das Problem ist in NP

53 Entscheidungsprobleme und die Klasse NP 26: 53 [50,54] In einem Entscheidungsproblem ist jede Instanz eine Frage, die entweder mit Ja oder mit Nein zu beantworten ist. Ein Entscheidungsproblem ist nichtdeterministisch polynomial lösbar, wenn für jede Ja -Instanz I ein Lösungsstring (das Zertifikat) existiert, mit dem die Richtigkeit der Ja -Antwort in Laufzeit polynomial beschränkt in I nachgewiesen werden kann. [Es geht nur um Ja!] Die Klasse NP umfasst alle Entscheidungsprobleme, die nichtdeterministisch polynomial lösbar sind. Es gilt: P NP Bsp: Hamilton scher Kreis: In einem Graphen G = (V, E) heißt eine Kantenmenge C = {{v, v 2 }, {v 2, v 3 },..., {v k, v k }, {v k, v }} E ein Kreis (der Länge k), falls v i v j für i j. Ein Kreis C heißt hamiltonsch, falls C = V. Entscheidungsproblem: Enthält G einen Hamilton schen Kreis? Ja-Antwort ist effizient überprüfbar, das Problem ist in NP

54 Entscheidungsprobleme und die Klasse NP 26: 54 [50,54] In einem Entscheidungsproblem ist jede Instanz eine Frage, die entweder mit Ja oder mit Nein zu beantworten ist. Ein Entscheidungsproblem ist nichtdeterministisch polynomial lösbar, wenn für jede Ja -Instanz I ein Lösungsstring (das Zertifikat) existiert, mit dem die Richtigkeit der Ja -Antwort in Laufzeit polynomial beschränkt in I nachgewiesen werden kann. [Es geht nur um Ja!] Die Klasse NP umfasst alle Entscheidungsprobleme, die nichtdeterministisch polynomial lösbar sind. Es gilt: P NP Bsp: Hamilton scher Kreis: In einem Graphen G = (V, E) heißt eine Kantenmenge C = {{v, v 2 }, {v 2, v 3 },..., {v k, v k }, {v k, v }} E ein Kreis (der Länge k), falls v i v j für i j. Ein Kreis C heißt hamiltonsch, falls C = V. Entscheidungsproblem: Enthält G einen Hamilton schen Kreis? Ja-Antwort ist effizient überprüfbar, das Problem ist in NP

55 NP-vollständige Probleme Ein Entscheidungsproblem P ist polynomial transformierbar auf ein Entscheidungsproblem P 2, wenn es einen Algorithmus gibt, der jede Instanz I von P in Laufzeit polynomial in I in eine Instanz I 2 von P 2 transformiert, sodass I 2 genau dann Ja-Instanz von P 2 ist, wenn I Ja-Instanz von P ist. Ist P polynomial auf P 2 transformierbar, dann löst ein effizienter Algorithmus für P 2 auch P effizient; P 2 ist mindestens so schwer wie P. Ist P NP und ist jedes ˆP NP polynomial auf P transformierbar, so heißt P NP-vollständig. Kann ein NP-vollständiges Problem P polynomial auf ein Problem ˆP NP transformiert werden, ist auch ˆP NP-vollständig; sie sind gleich schwer. 27: 55 [55,57]

56 NP-vollständige Probleme Ein Entscheidungsproblem P ist polynomial transformierbar auf ein Entscheidungsproblem P 2, wenn es einen Algorithmus gibt, der jede Instanz I von P in Laufzeit polynomial in I in eine Instanz I 2 von P 2 transformiert, sodass I 2 genau dann Ja-Instanz von P 2 ist, wenn I Ja-Instanz von P ist. Ist P polynomial auf P 2 transformierbar, dann löst ein effizienter Algorithmus für P 2 auch P effizient; P 2 ist mindestens so schwer wie P. Ist P NP und ist jedes ˆP NP polynomial auf P transformierbar, so heißt P NP-vollständig. Kann ein NP-vollständiges Problem P polynomial auf ein Problem ˆP NP transformiert werden, ist auch ˆP NP-vollständig; sie sind gleich schwer. Es gibt dicke Sammlungen NP-vollständiger Probleme, dazu gehören: ganzzahlige Optimierung (in Entscheidungsversion) ganzzahliger Mehrgüterfluss Hamilton scher Kreis Minimum Vertex Cover auf allgemeinen Graphen Das Rucksack-Problem (für große Zahlen) 27: 56 [55,57]

57 NP-vollständige Probleme Ein Entscheidungsproblem P ist polynomial transformierbar auf ein Entscheidungsproblem P 2, wenn es einen Algorithmus gibt, der jede Instanz I von P in Laufzeit polynomial in I in eine Instanz I 2 von P 2 transformiert, sodass I 2 genau dann Ja-Instanz von P 2 ist, wenn I Ja-Instanz von P ist. Ist P polynomial auf P 2 transformierbar, dann löst ein effizienter Algorithmus für P 2 auch P effizient; P 2 ist mindestens so schwer wie P. Ist P NP und ist jedes ˆP NP polynomial auf P transformierbar, so heißt P NP-vollständig. Kann ein NP-vollständiges Problem P polynomial auf ein Problem ˆP NP transformiert werden, ist auch ˆP NP-vollständig; sie sind gleich schwer. Gibt es einen effizienten Algorithmus für eines der NP-vollständigen Probleme, sind alle effizient lösbar. Man vermutet seit Jahren: P NP. Will man alle Instanzen lösen können, ist wahrscheinlich eine teilweise Enumeration unvermeidbar. Ein Problem ist NP-schwer, wenn damit ein NP-vollständiges lösbar wäre. 27: 57 [55,57]

58 Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete Graphen).3 Anwendung: Netzwerkflüsse.4 Mehrgüterflussprobleme.5 Ganzzahlige und Kombinatorische Optimierung.6 Branch-and-Bound.7 Konvexe Mengen, konvexe Hülle, konvexe Funktionen.8 Relaxation.9 Anwendung: Rundreiseprobleme (TSP).0 Finden guter Lösungen, Heuristiken. Gemischt-ganzzahlige Optimierung 28: 58 [58,58]

59 .6 Branch-and-Bound Beim systematischen Enumerieren aller Lösungen sollen möglichst viele frühzeitig durch obere und untere Schranken ausgeschlossen werden. 29: 59 [59,59] Bsp: {0, }-Rucksack: Gewichte a N n, Kapazität b N, Nutzen c N n, max c T x s.t. a T x b, x {0, } n Obere Schranke: max c T x s.t. a T x b, x [0, ] n [LP-Relaxation] Untere Schranke: Sortiere nach Nutzen/Gewicht und fülle danach auf Ablaufskizze (für Maximierungsprobleme): M... Menge offener Probleme, anfangs M = {Ursprungsproblem} f... Wert der besten bekannten Lösung, anfangs f =. Falls M = STOP, sonst wähle P M, M M \ {P} 2. Berechne obere Schranke f (P). 3. Falls f (P) < f (P enthält keine OL), gehe zu. 4. Berechne zulässige Lösung ˆf (P) für P (untere Schranke). 5. Ist ˆf (P) > f (neue beste Lösung), setze f ˆf (P) 6. Ist f (P) = ˆf (P) (keine bessere Lösung in P), gehe zu. 7. Teile P in kleinere Teilprobleme P i, M M {P,..., P k } 8. Gehe zu.

60 Beispiel: {0, }-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) Nutzen (c) Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 4, x [0, ] 6 [LP-Relaxation] Untere Schranke: Nach Sortierung möglichst lange auffüllen 30: 60 [60,67]

61 Beispiel: {0, }-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) Nutzen (c) Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 4, x [0, ] 6 Untere Schranke: Nach Sortierung möglichst lange auffüllen P : Originalproblem OS: C A=34 US: C +D +F =30 [LP-Relaxation] 30: 6 [60,67]

62 Beispiel: {0, }-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) Nutzen (c) Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 4, x [0, ] 6 Untere Schranke: Nach Sortierung möglichst lange auffüllen P : Originalproblem OS: C A=34 US: C +D +F =30 x A 0 [LP-Relaxation] 30: 62 [60,67]

63 Beispiel: {0, }-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) Nutzen (c) Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 4, x [0, ] 6 Untere Schranke: Nach Sortierung möglichst lange auffüllen P : Originalproblem OS: C A=34 US: C +D +F =30 P 2 : x A = x B =x C =0 OS: A + D + 3 F = OS <30 keine OL x A 0 [LP-Relaxation] 30: 63 [60,67]

64 Beispiel: {0, }-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) Nutzen (c) Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 4, x [0, ] 6 Untere Schranke: Nach Sortierung möglichst lange auffüllen P : Originalproblem OS: C A=34 US: C +D +F =30 P 2 : x A = x B =x C =0 OS: A + D + 3 F = OS <30 keine OL x A 0 P 3 : x A =0 OS: C +D +F + 4 E =3 2 US: C +D +F =30 [LP-Relaxation] 30: 64 [60,67]

65 Beispiel: {0, }-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) Nutzen (c) Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 4, x [0, ] 6 Untere Schranke: Nach Sortierung möglichst lange auffüllen P : Originalproblem OS: C A=34 US: C +D +F =30 P 2 : x A = x B =x C =0 OS: A + D + 3 F = OS <30 keine OL x A 0 P 3 : x A =0 OS: C +D +F + 4 E =3 2 US: C +D +F =30 x E 0 [LP-Relaxation] 30: 65 [60,67]

66 Beispiel: {0, }-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) Nutzen (c) : 66 [60,67] Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 4, x [0, ] 6 Untere Schranke: Nach Sortierung möglichst lange auffüllen P : Originalproblem OS: C A=34 US: C +D +F =30 P 2 : x A = x B =x C =0 OS: A + D + 3 F = OS <30 keine OL x A 0 P 4 : x A =0, x E = OS: E +C +D =3 US: E +C +D =3 P 3 : x A =0 OS: C +D +F + 4 E =3 2 US: C +D +F =30 x E 0 [LP-Relaxation]

67 Beispiel: {0, }-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) Nutzen (c) : 67 [60,67] Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 4, x [0, ] 6 Untere Schranke: Nach Sortierung möglichst lange auffüllen P : Originalproblem OS: C A=34 US: C +D +F =30 P 2 : x A = x B =x C =0 OS: A + D + 3 F = OS <30 keine OL x A 0 P 4 : x A =0, x E = OS: E +C +D =3 US: E +C +D =3 P 3 : x A =0 OS: C +D +F + 4 E =3 2 US: C +D +F =30 x E 0 [LP-Relaxation] P 5 : x A =x E =0 OS: C+ D +F + 7 B = OS <3 keine OL

68 Immer dann wird der Branch&Bound Baum groß werden, wenn viele Lösungen sehr nahe an der Optimallösung sind. Entscheidend für den Erfolg von Branch&Bound: Wie kommt man zu guten oberen und unteren Schranken? 3: 68 [68,68]

69 Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete Graphen).3 Anwendung: Netzwerkflüsse.4 Mehrgüterflussprobleme.5 Ganzzahlige und Kombinatorische Optimierung.6 Branch-and-Bound.7 Konvexe Mengen, konvexe Hülle, konvexe Funktionen.8 Relaxation.9 Anwendung: Rundreiseprobleme (TSP).0 Finden guter Lösungen, Heuristiken. Gemischt-ganzzahlige Optimierung 32: 69 [69,69]

70 .7 Konvexe Mengen und konvexe Hülle Eine Menge C R n heißt konvex, wenn für alle x, y C auch die Verbindungsstrecke [x, y] := {αx + ( α)y : α [0, ]} in C liegt. 33: 70 [70,74]

71 .7 Konvexe Mengen und konvexe Hülle Eine Menge C R n heißt konvex, wenn für alle x, y C auch die Verbindungsstrecke [x, y] := {αx + ( α)y : α [0, ]} in C liegt. Bspe:, R n, Halbräume, der Schnitt konvexer Mengen ist konvex, Polyeder, der k-dim. Einheitssimplex k := {α R k + : k i= α i = } Halbraum Schnitt 3 33: 7 [70,74]

72 .7 Konvexe Mengen und konvexe Hülle Eine Menge C R n heißt konvex, wenn für alle x, y C auch die Verbindungsstrecke [x, y] := {αx + ( α)y : α [0, ]} in C liegt. Bspe:, R n, Halbräume, der Schnitt konvexer Mengen ist konvex, Polyeder, der k-dim. Einheitssimplex k := {α R k + : k i= α i = } Für S R n ist die konvexe Hülle der Schnitt aller konvexen Mengen, die S enthalten, conv S := {C konvex : S C}. 33: 72 [70,74]

73 .7 Konvexe Mengen und konvexe Hülle Eine Menge C R n heißt konvex, wenn für alle x, y C auch die Verbindungsstrecke [x, y] := {αx + ( α)y : α [0, ]} in C liegt. Bspe:, R n, Halbräume, der Schnitt konvexer Mengen ist konvex, Polyeder, der k-dim. Einheitssimplex k := {α R k + : k i= α i = } Für S R n ist die konvexe Hülle der Schnitt aller konvexen Mengen, die S enthalten, conv S := {C konvex : S C}. Für gegebene Punkte x (i) R n, i {,..., k} und α k heißt x = α i x (i) Konvexkombination der Punkte x (i) : 73 [70,74] 0.4

74 .7 Konvexe Mengen und konvexe Hülle Eine Menge C R n heißt konvex, wenn für alle x, y C auch die Verbindungsstrecke [x, y] := {αx + ( α)y : α [0, ]} in C liegt. Bspe:, R n, Halbräume, der Schnitt konvexer Mengen ist konvex, Polyeder, der k-dim. Einheitssimplex k := {α R k + : k i= α i = } Für S R n ist die konvexe Hülle der Schnitt aller konvexen Mengen, die S enthalten, conv S := {C konvex : S C}. Für gegebene Punkte x (i) R n, i {,..., k} und α k heißt x = α i x (i) Konvexkombination der Punkte x (i). conv S ist die Menge aller Konvexkombinationen endlich vieler Punkte aus S, conv S = { k i= α ix (i) : x (i) S, i =,..., k N, α k }. 33: 74 [70,74]

75 Konvexe Hülle und ganzz. Optimierung Satz Die konvexe Hülle endlich vieler Punkte ist ein (beschränktes) Polyeder. 34: 75 [75,77]

76 Konvexe Hülle und ganzz. Optimierung Satz Die konvexe Hülle endlich vieler Punkte ist ein (beschränktes) Polyeder. Die ganzzahlige Hülle eines Polyeders P = {x R n : Ax b} ist die konvexe Hülle der in P enthaltenen ganzz. Punkte, P I := conv(p Z n ). Satz Ist A Q m n und b Q m, dann ist die ganzz. Hülle P I des Polyeders P = {x R n : Ax b} selbst ein Polyeder. Problem: Beschreibung von P I meist unbekannt oder extrem groß! P P I [Ausnahme z.b. für A tot. unimod., b Z n ist P = P I ] 34: 76 [75,77]

77 Konvexe Hülle und ganzz. Optimierung Satz Die konvexe Hülle endlich vieler Punkte ist ein (beschränktes) Polyeder. Die ganzzahlige Hülle eines Polyeders P = {x R n : Ax b} ist die konvexe Hülle der in P enthaltenen ganzz. Punkte, P I := conv(p Z n ). Satz Ist A Q m n und b Q m, dann ist die ganzz. Hülle P I des Polyeders P = {x R n : Ax b} selbst ein Polyeder. Problem: Beschreibung von P I meist unbekannt oder extrem groß! Falls die ganzzahlige Hülle gut linear beschreibbar ist, kann man das ganzzahlige Optimierungsproblem mit Simplex lösen: Satz Ist für P = {x R n : Ax b} die ganzzahlige Hülle durch P I = {x R n : A I x b I } gegeben, so gilt: sup{c T x : A I x b I, x R n } = sup{c T x : Ax b, x Z n }, Argmin{c T x : A I x b I, x R n } = conv Argmin{c T x : Ax b, x Z n }. 34: 77 [75,77]

78 Konvexe Funktionen Eine Funktion f : R n R := R { } heißt konvex, wenn f (αx + ( α)y) αf (x) + ( α)f (y) für x, y R n und α [0, ]. Sie heißt streng konvex, wenn f (αx + ( α)y) < αf (x) + ( α)f (y) für x, y R n, x y und α (0, ). f(x) f(x) f(y) f(y) x y x y 35: 78 [78,83]

79 Konvexe Funktionen Eine Funktion f : R n R := R { } heißt konvex, wenn f (αx + ( α)y) αf (x) + ( α)f (y) für x, y R n und α [0, ]. Sie heißt streng konvex, wenn f (αx + ( α)y) < αf (x) + ( α)f (y) für x, y R n, x y und α (0, ). Der Epigraph {( einer ) Funktion f : R n } R ist die Menge x epi f := : x R r n, r f (x) [die Punkte oberhalb von f (x)] epi f epi f 35: 79 [78,83]

80 Konvexe Funktionen Eine Funktion f : R n R := R { } heißt konvex, wenn f (αx + ( α)y) αf (x) + ( α)f (y) für x, y R n und α [0, ]. Sie heißt streng konvex, wenn f (αx + ( α)y) < αf (x) + ( α)f (y) für x, y R n, x y und α (0, ). Der Epigraph {( einer ) Funktion f : R n } R ist die Menge x epi f := : x R r n, r f (x) [die Punkte oberhalb von f (x)] Satz Eine Funktion ist genau dann konvex, wenn ihr Epigraph konvex ist. epi f epi f 35: 80 [78,83]

81 Konvexe Funktionen Eine Funktion f : R n R := R { } heißt konvex, wenn f (αx + ( α)y) αf (x) + ( α)f (y) für x, y R n und α [0, ]. Sie heißt streng konvex, wenn f (αx + ( α)y) < αf (x) + ( α)f (y) für x, y R n, x y und α (0, ). Der Epigraph {( einer ) Funktion f : R n } R ist die Menge x epi f := : x R r n, r f (x) [die Punkte oberhalb von f (x)] Satz Eine Funktion ist genau dann konvex, wenn ihr Epigraph konvex ist. Bsp: Sind f i : R n R konvex, so auch f mit f (x) := sup i f i (x), x R n. f epi f fk f2 f3 35: 8 [78,83]

82 Konvexe Funktionen Eine Funktion f : R n R := R { } heißt konvex, wenn f (αx + ( α)y) αf (x) + ( α)f (y) für x, y R n und α [0, ]. Sie heißt streng konvex, wenn f (αx + ( α)y) < αf (x) + ( α)f (y) für x, y R n, x y und α (0, ). Der Epigraph {( einer ) Funktion f : R n } R ist die Menge x epi f := : x R r n, r f (x) [die Punkte oberhalb von f (x)] Satz Eine Funktion ist genau dann konvex, wenn ihr Epigraph konvex ist. Bsp: Sind f i : R n R konvex, so auch f mit f (x) := sup i f i (x), x R n. Satz Jedes lokale Minimum einer konvexen Funktion ist auch globales Minimum, und für streng konvexe Funktionen ist es das einzige. Für konvexe Funktionen gibt es gute Optimierungsverfahren. 35: 82 [78,83]

83 Konvexe Funktionen Eine Funktion f : R n R := R { } heißt konvex, wenn f (αx + ( α)y) αf (x) + ( α)f (y) für x, y R n und α [0, ]. Sie heißt streng konvex, wenn f (αx + ( α)y) < αf (x) + ( α)f (y) für x, y R n, x y und α (0, ). Der Epigraph {( einer ) Funktion f : R n } R ist die Menge x epi f := : x R r n, r f (x) [die Punkte oberhalb von f (x)] Satz Eine Funktion ist genau dann konvex, wenn ihr Epigraph konvex ist. Bsp: Sind f i : R n R konvex, so auch f mit f (x) := sup i f i (x), x R n. Satz Jedes lokale Minimum einer konvexen Funktion ist auch globales Minimum, und für streng konvexe Funktionen ist es das einzige. Für konvexe Funktionen gibt es gute Optimierungsverfahren. Eine Funktion f heißt konkav, wenn f konvex ist. (Jedes lokale Maximum einer konkaven Funktion ist auch globales.) 35: 83 [78,83]

84 Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete Graphen).3 Anwendung: Netzwerkflüsse.4 Mehrgüterflussprobleme.5 Ganzzahlige und Kombinatorische Optimierung.6 Branch-and-Bound.7 Konvexe Mengen, konvexe Hülle, konvexe Funktionen.8 Relaxation.9 Anwendung: Rundreiseprobleme (TSP).0 Finden guter Lösungen, Heuristiken. Gemischt-ganzzahlige Optimierung 36: 84 [84,84]

85 .8 Relaxation Konzept auf beliebige Optimierungsprobleme anwendbar (hier Maximieren): Definition Gegeben zwei Optimierungsprobleme mit X, W R n und f, f : R n R (OP) max f (x) s.t. x X bzw. (RP) max f (x) s.t. x W, (RP) heißt Relaxation von (OP), falls. X W, 2. f (x) f (x) für alle x X. 37: 85 [85,87]

86 .8 Relaxation Konzept auf beliebige Optimierungsprobleme anwendbar (hier Maximieren): Definition Gegeben zwei Optimierungsprobleme mit X, W R n und f, f : R n R (OP) max f (x) s.t. x X bzw. (RP) max f (x) s.t. x W, (RP) heißt Relaxation von (OP), falls. X W, 2. f (x) f (x) für alle x X. Sei (RP) eine Relaxation von (OP). Beobachtung. v(rp) v(op). [(RP) liefert obere Schranke] 2. Ist (RP) unzulässig, so auch (OP), 3. Ist x OL von (RP) und gilt x X sowie f (x ) = f (x ), dann ist x OL von (OP). 37: 86 [85,87]

87 .8 Relaxation Konzept auf beliebige Optimierungsprobleme anwendbar (hier Maximieren): 37: 87 [85,87] Definition Gegeben zwei Optimierungsprobleme mit X, W R n und f, f : R n R (OP) max f (x) s.t. x X bzw. (RP) max f (x) s.t. x W, (RP) heißt Relaxation von (OP), falls. X W, 2. f (x) f (x) für alle x X. Sei (RP) eine Relaxation von (OP). Beobachtung. v(rp) v(op). [(RP) liefert obere Schranke] 2. Ist (RP) unzulässig, so auch (OP), 3. Ist x OL von (RP) und gilt x X sowie f (x ) = f (x ), dann ist x OL von (OP). Man sucht nun möglichst kleines W X und f f so, dass (RP) noch gut lösbar ist. Eine Relaxation (RP) von (OP) heißt exakt, falls v(op) = v(rp) gilt.

88 Allgemein: Konvexe Relaxation Wird Konvexität für W und (bei max) Konkavität für f gefordert, spricht man von konvexer Relaxation. Meist (aber nicht immer!) dient die Konvexität als Garant für vernünftige Lösbarkeit der Relaxation. 38: 88 [88,90]

89 Allgemein: Konvexe Relaxation Wird Konvexität für W und (bei max) Konkavität für f gefordert, spricht man von konvexer Relaxation. Meist (aber nicht immer!) dient die Konvexität als Garant für vernünftige Lösbarkeit der Relaxation. Bsp: Für ein kombinatorisches Max.-Problem mit endl. Grundmenge Ω, zulässigen Lösungen F 2 Ω und linearer Zielfunktion c R Ω ist max c T x s.t. x conv{χ Ω (F ) : F F} eine exakte konvexe (sogar lineare) Relaxation, aber nur dann nützlich, wenn das Polyeder conv{χ(f ) : F F} gut durch ein nicht zu großes Ungleichungssystem Ax b darstellbar ist. 38: 89 [88,90]

90 Allgemein: Konvexe Relaxation Wird Konvexität für W und (bei max) Konkavität für f gefordert, spricht man von konvexer Relaxation. Meist (aber nicht immer!) dient die Konvexität als Garant für vernünftige Lösbarkeit der Relaxation. 38: 90 [88,90] Bsp: Für ein kombinatorisches Max.-Problem mit endl. Grundmenge Ω, zulässigen Lösungen F 2 Ω und linearer Zielfunktion c R Ω ist max c T x s.t. x conv{χ Ω (F ) : F F} eine exakte konvexe (sogar lineare) Relaxation, aber nur dann nützlich, wenn das Polyeder conv{χ(f ) : F F} gut durch ein nicht zu großes Ungleichungssystem Ax b darstellbar ist. In der globalen Optimierung werden auf Teilintervallen nichtlineare Funktionen nach unten durch konvexe Funktionen abgeschätzt. Bsp: Betrachte (OP) min f (x) := 2 x T Qx + q T x s.t. x [0, ] n mit f nicht konvex, d.h., λ min (Q) < 0. [λ min... minimaler Eigenwert] Es ist Q λ min (Q)I positiv semidefinit und wegen xi 2 x i auf [0, ] n gilt f (x) := 2 x T (Q λ min (Q)I )x +(q +λ min (Q)) T x f (x) x [0, ] n. Damit ist (RP) min f (x) s.t. x [0, ] n eine konvexe Relaxation von (OP).

91 Die LP-Relaxation für Ganzzahlige Programme Für ein ganzzahliges Programm max c T x s.t. Ax b, x Z n entsteht die LP-Relaxation durch Weglassen der Ganzz.-Bedingung, max c T x s.t. Ax b, x R n. Ist Relaxation, denn X := {x Z n : Ax b} {x R n : Ax b} =: W. [wird von allen Standardlösern für gemischt-ganzz. Programme verwendet] 39: 9 [9,95]

92 Die LP-Relaxation für Ganzzahlige Programme Für ein ganzzahliges Programm max c T x s.t. Ax b, x Z n entsteht die LP-Relaxation durch Weglassen der Ganzz.-Bedingung, max c T x s.t. Ax b, x R n. Ist Relaxation, denn X := {x Z n : Ax b} {x R n : Ax b} =: W. [wird von allen Standardlösern für gemischt-ganzz. Programme verwendet] Bsp: Rucksackproblem: n = 2, Gewichte a = (6, 8) T, Kapazität b = 0, max c T x s.t. a T x b, x Z n + max c T x s.t. a T x b, x 0, x 2 a zulässige ganzzahlige Punkte: LP-Relaxation: grün beste Relaxation: die konvexe Hülle x 39: 92 [9,95]

93 Die LP-Relaxation für Ganzzahlige Programme Für ein ganzzahliges Programm max c T x s.t. Ax b, x Z n entsteht die LP-Relaxation durch Weglassen der Ganzz.-Bedingung, max c T x s.t. Ax b, x R n. Ist Relaxation, denn X := {x Z n : Ax b} {x R n : Ax b} =: W. [wird von allen Standardlösern für gemischt-ganzz. Programme verwendet] Bsp: Rucksackproblem: n = 2, Gewichte a = (6, 8) T, Kapazität b = 0, max c T x s.t. a T x b, x Z n + max c T x s.t. a T x b, x 0, x 2 a zulässige ganzzahlige Punkte: LP-Relaxation: grün beste Relaxation: die konvexe Hülle x 39: 93 [9,95]

94 Die LP-Relaxation für Ganzzahlige Programme Für ein ganzzahliges Programm max c T x s.t. Ax b, x Z n entsteht die LP-Relaxation durch Weglassen der Ganzz.-Bedingung, max c T x s.t. Ax b, x R n. Ist Relaxation, denn X := {x Z n : Ax b} {x R n : Ax b} =: W. [wird von allen Standardlösern für gemischt-ganzz. Programme verwendet] Bsp: Rucksackproblem: n = 2, Gewichte a = (6, 8) T, Kapazität b = 0, max c T x s.t. a T x b, x Z n + max c T x s.t. a T x b, x 0, x 2 a zulässige ganzzahlige Punkte: LP-Relaxation: grün beste Relaxation: die konvexe Hülle x 39: 94 [9,95]

95 Die LP-Relaxation für Ganzzahlige Programme Für ein ganzzahliges Programm max c T x s.t. Ax b, x Z n entsteht die LP-Relaxation durch Weglassen der Ganzz.-Bedingung, max c T x s.t. Ax b, x R n. Ist Relaxation, denn X := {x Z n : Ax b} {x R n : Ax b} =: W. [wird von allen Standardlösern für gemischt-ganzz. Programme verwendet] Bsp: ganzzahliger Mehrgüterfluss gebrochener Mehrgüterfluss s s s s auch zu groß, bräuchten die konvexe Hülle t t ganzz. geht nicht, X = t t gebrochen geht, W 39: 95 [9,95]

96 Lagrange-Relaxation [Allg. für restr. Opt. verwendbar, hier vorerst nur Unglgs.-Nebenbed.] Unbequeme Nebenbedingungen werden mit einem Lagrangemultiplikator, der die Verletzung bestraft, in die Zielfunktion gehoben (g : R n R k ): (OP) max f (x) s.t. g(x) 0 λ 0 x Ω (RP λ ) max s.t. c T x λ T g(x) x Ω Ist Relaxation: X := {x Ω : g(x) 0} {x Ω} =: W und für x X, λ 0 gilt f (x) f (x) λ T g(x) =: f (x) wegen g(x) 0. 40: 96 [96,97]

97 Lagrange-Relaxation [Allg. für restr. Opt. verwendbar, hier vorerst nur Unglgs.-Nebenbed.] Unbequeme Nebenbedingungen werden mit einem Lagrangemultiplikator, der die Verletzung bestraft, in die Zielfunktion gehoben (g : R n R k ): (OP) max f (x) s.t. g(x) 0 λ 0 x Ω (RP λ ) max s.t. c T x λ T g(x) x Ω Ist Relaxation: X := {x Ω : g(x) 0} {x Ω} =: W und für x X, λ 0 gilt f (x) f (x) λ T g(x) =: f (x) wegen g(x) 0. Definiere die duale Funktion ϕ(λ) := sup x Ω [ f (x) g(x) T λ ] = v(rp λ ) [für jedes feste x linear in λ] Für jedes λ 0 gilt ϕ(λ) v(op) [obere Schranke] ϕ(λ) gut berechenbar, falls (RP λ ) leicht lösbar ϕ ist als sup von in λ linearen Funktionen konvex Beste Schranke ist inf{ϕ(λ) : λ 0} [konvexes Problem!] gut mit Verfahren der konvexen Optimierung bestimmbar! 40: 97 [96,97]

98 Beispiel: Ganzzahliger Mehrgüterfluss A sei die Knoten-Kanten-Inz.-Matrix zu D = (V, E), 2 Güter, Lagrange-Relaxation der koppelnden Kapazitätsbedingungen mit λ 0: min c ()T x () + c (2)T x (2) s.t. Ax () = b () Ax (2) = b (2) λ x () + x (2) w x () w, x (2) w x () Z E +, x (2) Z E +. min (c () +λ) T x () +(c (2) +λ) T x (2) λ T w s.t. Ax () =b () Ax (2) =b (2) x () w, x (2) w, x () Z E +, x (2) Z E +. Relaxation zerfällt in zwei unabhängige Minimale-Kosten-Fluss-Probleme (RP (i) λ ) min (c(i) +λ) T x (i) s.t. Ax (i) = b (i), w x (i) Z E + i {, 2} Diese sind effizient ganzzahlig lösbar! 4: 98 [98,99]

99 Beispiel: Ganzzahliger Mehrgüterfluss A sei die Knoten-Kanten-Inz.-Matrix zu D = (V, E), 2 Güter, Lagrange-Relaxation der koppelnden Kapazitätsbedingungen mit λ 0: min c ()T x () + c (2)T x (2) s.t. Ax () = b () Ax (2) = b (2) λ x () + x (2) w x () w, x (2) w x () Z E +, x (2) Z E +. 4: 99 [98,99] min (c () +λ) T x () +(c (2) +λ) T x (2) λ T w s.t. Ax () =b () Ax (2) =b (2) x () w, x (2) w, x () Z E +, x (2) Z E +. Relaxation zerfällt in zwei unabhängige Minimale-Kosten-Fluss-Probleme (RP (i) λ ) min (c(i) +λ) T x (i) s.t. Ax (i) = b (i), w x (i) Z E + i {, 2} Diese sind effizient ganzzahlig lösbar! Zerfällt das Problem bei Lagrange-Relaxation in unabhängige Teilprobleme, nennt man das Lagrange-Dekomposition. Damit können oft deutlich größere Probleme sehr effizient gelöst werden. Bekommt man dadurch auch eine bessere Schranke?

100 Vergleich Lagrange- und LP-Relaxation Sei Ω Z n endlich und D Q k n, d Q k, (OP) max c T x s.t. Dx d λ 0 x Ω (RP λ ) max ct x + λ T (d Dx) s.t. x Ω Im Bsp: Ω = Ω () Ω (2) mit Ω (i) = {x Z E + : Ax = b (i), x w}, i {, 2}. Satz inf v(rp λ) = sup{c T x : Dx d, x conv Ω}. λ 0 Ist conv Ω gleich der zulässigen Menge der LP-Relaxation von Ω, sind die Werte der besten Lagrange- und der LP-Relaxation gleich! 42: 00 [00,02]

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen

Mehr

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Anwendung: Das Heiratsproblem Ganzzahligkeit von Polyedern Anwendung: Netzwerkflüsse Mehrgüterflussprobleme Ganzzahlige Optimierung Inhaltsübersicht für heute: Anwendung: Das

Mehr

Diskrete Optimierung (Einführung zur Vorlesung)

Diskrete Optimierung (Einführung zur Vorlesung) Diskrete Optimierung (Einführung zur Vorlesung) Christoph Helmberg : [,] Inhaltsübersicht Ganzzahlige Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS200/ / 29Lineare Optimierung 30Der Simplex-Algorithmus 3Das Heiratsproblem 32Ganzzahligkeit von Polyedern 33Ne Inhaltsübersicht 29Lineare Optimierung

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

Optimierung. Vorlesung 08

Optimierung. Vorlesung 08 Optimierung Vorlesung 08 Heute Dualität Ganzzahligkeit Optimierung der Vorlesung durch Evaluierung 2 Das duale LP Das primale LP Maximiere c T x unter Ax b, x R d 0. wird zu dem dualen LP Minimiere b T

Mehr

Optimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn

Optimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn Optimierung Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung 1 Assignment Problem (Zuordnungsproblem) Gewichtetes Perfektes Bipartites Matching agents Costs tasks Weise jedem Agenten genau

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2007)

Vorlesung Lineare Optimierung (Sommersemester 2007) 1 Vorlesung Lineare Optimierung (Sommersemester 007) Kapitel 9: Ganzzahlige Polyeder und Kombinatorische Dualität Volker Kaibel Otto-von-Guericke Universität Magdeburg Montag, 9. Juli 007 Gliederung Ganzzahlige

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung

Mehr

KAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN

KAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN KPITEL 6 GNZZHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULRE MTRIZEN F. VLLENTIN,. GUNDERT. Ganzzahlige lineare Programme Viele Optimierungsprobleme des Operations Research lassen sich als ganzzahlige lineare

Mehr

Kap. 3: Exakte Lösungsverfahren für NPschwierige. Optimierungsprobleme VO Algorithm Engineering

Kap. 3: Exakte Lösungsverfahren für NPschwierige. Optimierungsprobleme VO Algorithm Engineering Kap. 3: Exakte Lösungsverfahren für NPschwierige kombinatorische Optimierungsprobleme VO Algorithm Engineering 3.1 Einführung Professor Dr. Petra Mutzel 3.2 Komb. vs. Ganzzahlige Opt. Lehrstuhl für Algorithm

Mehr

2. Optimierungsprobleme 6

2. Optimierungsprobleme 6 6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen

Mehr

Ecken des Zuordnungsproblems

Ecken des Zuordnungsproblems Total unimodulare Matrizen Ecken des Zuordnungsproblems Definition.6 Ein Zuordnungsproblem mit den Vorzeichenbedingungen 0 apple x ij apple für i, j =,...,n statt x ij 2{0, } heißt relaxiertes Zuordnungproblem.

Mehr

Ganzzahlige lineare Programme

Ganzzahlige lineare Programme KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.

Mehr

Kapitel 9: Lineare Programmierung Gliederung

Kapitel 9: Lineare Programmierung Gliederung Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen

Mehr

Literatur für diese VO. Überblick. Kap. 5: Approximationsalgorithmen für kombinatorische Optimierungsprobleme

Literatur für diese VO. Überblick. Kap. 5: Approximationsalgorithmen für kombinatorische Optimierungsprobleme Kap. : Approximationsalgorithmen für kombinatorische Optimierungsprobleme Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS Fakultät für Informatik, TU Dortmund Literatur für diese VO

Mehr

Operations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung.

Operations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung. Operations Research Rainer Schrader Flüsse in Netzwerken Zentrum für Angewandte Informatik Köln 2. Juli 2007 1 / 53 2 / 53 Flüsse in Netzwerken Unimodularität Gliederung Netzwerke und Flüsse bipartite

Mehr

Kap. 5: Approximationsalgorithmen für kombinatorische Optimierungsprobleme

Kap. 5: Approximationsalgorithmen für kombinatorische Optimierungsprobleme Kap. 5: Approximationsalgorithmen für kombinatorische Optimierungsprobleme Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18./20. VO A&D WS 08/09

Mehr

Optimierungsprobleme. B. Langfeld, M. Ritter, B. Wilhelm Diskrete Optimierung: Fallstudien aus der Praxis

Optimierungsprobleme. B. Langfeld, M. Ritter, B. Wilhelm Diskrete Optimierung: Fallstudien aus der Praxis Optimierungsprobleme Instanz eines Optimierungsproblems zulässiger Bereich (meist implizit definiert) Zielfunktion Optimierungsrichtung opt {max, min} Optimierungsproblem Menge von Instanzen meist implizit

Mehr

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25. Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme 10 Matching-Probleme 10.1 Definition von Matching-Probleme Definition 21 [2-dimensionales Matching] Sei G = (V, E) ein ungerichteter Graph und E E. E ist ein Matching, wenn für alle Kantenpaare e 1, e

Mehr

Klausurvorbereitung. 1 Zentrale Begriffe. 2 Bipartite Graphen. 2.1 Begriffe. Vorlesung Graphen und Optimierung Sommersemester 2011 Prof. S.

Klausurvorbereitung. 1 Zentrale Begriffe. 2 Bipartite Graphen. 2.1 Begriffe. Vorlesung Graphen und Optimierung Sommersemester 2011 Prof. S. Vorlesung Graphen und Optimierung Sommersemester 2011 Prof. S. Lange Klausurvorbereitung Hier finden Sie alle Begriffe, Zusammenhänge und Algorithmen, die mit Blick auf die Klausur relevant sind. Um es

Mehr

Effiziente Algorithmen I 11. Übungsblatt, Wintersemester 2015/16 Abgabetermin:

Effiziente Algorithmen I 11. Übungsblatt, Wintersemester 2015/16 Abgabetermin: 11 11. Übungsblatt, Wintersemester 2015/16 Abgabetermin: 19.01.2016 Aufgabe 29 Bestimmen Sie mit der Stepping-Stone-ethode einen Transportplan mit minimalen Kosten für das klassische Transportproblem mit

Mehr

Betriebliche Optimierung

Betriebliche Optimierung Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 22 1 Das Travelling Salesperson Problem

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Betriebswirtschaftliche Optimierung

Betriebswirtschaftliche Optimierung Institut für Statistik und OR Uni Graz 1 Das Travelling Salesperson Problem 2 Das Travelling Salesperson Problem Zentrales Problem der Routenplanung Unzählige wissenschaftliche Artikel theoretischer sowie

Mehr

Approximationsalgorithmen. 19. Dezember / 28

Approximationsalgorithmen. 19. Dezember / 28 Approximationsalgorithmen 19. Dezember 2017 1 / 28 Optimierungsprobleme Das Ziel: Bearbeite schwierige Optimierungsprobleme der Form opt y f (x, y) so dass L(x, y). Die Zielfunktion f (x, y) ist zu minimieren

Mehr

Effiziente Algorithmen I

Effiziente Algorithmen I 9. Präsenzaufgabenblatt, WiSe 2013/14 Übungstunden am 13.01. & 15.01.2014 Aufgabe Q Gegeben sei ein Fluss-Netzwerk mit Digraph D = (V, A), Knotenkapazitäten c(u, v) 0, Quelle s und Senke t. Kann sich der

Mehr

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme

Mehr

Approximierbarkeit. Definition. Ein Optimierungsproblem P ist gegeben durch ein Quadrupel. P = (I, Sol, m, goal), wobei:

Approximierbarkeit. Definition. Ein Optimierungsproblem P ist gegeben durch ein Quadrupel. P = (I, Sol, m, goal), wobei: Approximierbarkeit Ein Optimierungsproblem P ist gegeben durch ein Quadrupel wobei: P = (I, Sol, m, goal), I ist die Menge der Instanzen von P. Sol ist eine Funktion, die ein x I abbildet auf die Menge

Mehr

Flüsse und Zuordnungen. Kapitel 6. Peter Becker (H-BRS) Graphentheorie Wintersemester 2018/ / 296

Flüsse und Zuordnungen. Kapitel 6. Peter Becker (H-BRS) Graphentheorie Wintersemester 2018/ / 296 Kapitel 6 Peter Becker (H-BRS) Graphentheorie Wintersemester 2018/19 227 / 296 Inhalt Inhalt 6 Flussnetzwerke Berechnung maximaler Flüsse Max-Flow-Min-Cut Matchings Peter Becker (H-BRS) Graphentheorie

Mehr

Trennender Schnitt. Wie groß kann der Fluss in dem folgenden Flussnetzwerk höchstens sein?

Trennender Schnitt. Wie groß kann der Fluss in dem folgenden Flussnetzwerk höchstens sein? 6. Flüsse und Zuordnungen max-flow min-cut Trennender Schnitt Wie groß kann der Fluss in dem folgenden Flussnetzwerk höchstens sein? a e s c d t b f Der Fluss kann nicht größer als die Kapazität der der

Mehr

Approximationsalgorithmen

Approximationsalgorithmen Approximationsalgorithmen 1. Vorlesung Joachim Spoerhase Alexander Wolff Lehrstuhl für Informatik I Wintersemester 2017/18 Bücher zur Vorlesung Vijay V. Vazirani Approximation Algorithms Springer-Verlag

Mehr

Einführung in die Mathematik des Operations Research

Einführung in die Mathematik des Operations Research Universität zu Köln Mathematisches Institut Prof. Dr. F. Vallentin Einführung in die Mathematik des Operations Research Sommersemester 3 en zur Klausur (7. Oktober 3) Aufgabe ( + 3 + 5 = Punkte). Es sei

Mehr

Inhalt. 2 Transportoptimierung Das klassische Transportproblern Modell 73

Inhalt. 2 Transportoptimierung Das klassische Transportproblern Modell 73 Inhalt 1 Lineare Optimierung 13 1.1 Das Modell der linearen Optimierung 13 1.2 Graphische Lösung 20 1.3 Der primale Simplexalgorithmus 23 1.3.1 Grundlagen 24 1.3.2 Der Optimalitätstest 27 1.3.3 Verbesserungsschritt

Mehr

1 Matroide. 1.1 Definitionen und Beispiele. Seminar zur ganzzahligen Optimierung Thema: Durchschnitt von Matroiden - Satz von Edmonds von Dany Sattler

1 Matroide. 1.1 Definitionen und Beispiele. Seminar zur ganzzahligen Optimierung Thema: Durchschnitt von Matroiden - Satz von Edmonds von Dany Sattler Seminar zur ganzzahligen Optimierung Thema: Durchschnitt von Matroiden - Satz von Edmonds von Dany Sattler 1 Matroide 1.1 Definitionen und Beispiele 1. Definition (Unabhängigkeitssystem): Ein Mengensystem

Mehr

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter

Mehr

Algorithmische Mathematik I

Algorithmische Mathematik I Algorithmische Mathematik I Wintersemester 2011 / 2012 Prof. Dr. Sven Beuchler Peter Zaspel Übungsblatt zur Wiederholung Teil 1. Abgabe am -. Aufgabe 1. a) Was ist eine B-adische Darstellung mit fixer

Mehr

Effiziente Algorithmen II

Effiziente Algorithmen II 10. Präsenzaufgabenblatt, WiSe 2014/15 Übungstunde am 19.01.2015 Aufgabe Q Betrachten Sie das Knapsackpolytop P = conv(v ) mit V = {x n i=1 a ix i α} {0, 1} n für gegebenes α und a i 0 (insbesondere ist

Mehr

3.6 Branch-and-Bound-Verfahren

3.6 Branch-and-Bound-Verfahren 36 Branch-and-Bound-Verfahren Die Branch-and-Bound -Methode beruht darauf, auf eine intelligente Weise alle zulässigen Lösungen eines kombinatorischen Optimierungsproblems aufzulisten und mit Hilfe von

Mehr

Inhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen

Inhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen Inhalt Problemstellung und Überblick Allgemeine Problemstellung und Terminologie Überblick über spezielle Klassen von Optimierungsproblemen 40: 40 [40,40] 2.1 Das Optimierungsproblem in allgemeiner Form

Mehr

Algorithmische Graphentheorie

Algorithmische Graphentheorie Algorithmische Graphentheorie Sommersemester 204 4. Vorlesung Matchings / Paarungen Kombinatorische Anwendungen des Max-Flow-Min-Cut-Theorems Prof. Dr. Alexander Wolff 2 Paarungen (Matchings) Def. Sei

Mehr

Aufgaben zur Klausurvorbereitung

Aufgaben zur Klausurvorbereitung Vorlesung Graphen und Optimierung Sommersemester 2013/14 Prof. S. Lange Aufgaben zur Klausurvorbereitung Hier finden Sie eine Reihe von Übungsaufgaben, die wir an den beiden Vorlesungsterminen am 29.01.2014

Mehr

Das Multi Traveling Salesman Problem

Das Multi Traveling Salesman Problem Das Multi Traveling Salesman Problem Harald Voit Seminar Ganzzahlige Optimierung 19. bis 21. Januar 2007 Wallenfels Das Multi Traveling Salesman Problem p.1/26 Übersicht Vom TSP zum ATSP Das Multi Traveling

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

Chinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151

Chinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151 Inhaltsverzeichnis 1 Kernkonzepte der linearen Optimierung... 1 1.1 Einführung... 1 1.2 Grundlegende Definitionen... 8 1.3 Grafische Lösung... 10 1.4 Standardform und grundlegende analytische Konzepte...

Mehr

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2005/2006

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2005/2006 Universität Hannover Wirtschaftswissenschaftliche Fakultät Lehrstuhl für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 005/006

Mehr

Einführung in das Seminar Algorithmentechnik

Einführung in das Seminar Algorithmentechnik Einführung in das Seminar Algorithmentechnik 10. Mai 2012 Henning Meyerhenke, Roland Glantz 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Roland undglantz: nationales Einführung Forschungszentrum

Mehr

Effiziente Algorithmen I

Effiziente Algorithmen I H 10. Präsenzaufgabenblatt, Wintersemester 2015/16 Übungstunde am 18.01.2015 Aufgabe Q Ein Reiseveranstalter besitzt ein Flugzeug, das maximal p Personen aufnehmen kann. Der Veranstalter bietet einen Flug

Mehr

Die Verbindung von Linearer Programmierung und Graphentheorie

Die Verbindung von Linearer Programmierung und Graphentheorie Die Verbindung von Linearer Programmierung und Graphentheorie Definition 5.9. Ein kombinatorisches Optimierungsproblem entspricht einem LP, bei dem statt der Vorzeichenbedingungen x i 0 Bedingungen der

Mehr

Wir gewichten die Kanten von G wie folgt: Kante e 1 e 2 e 3 e 4 e 5 e 6 e 7 e 8 d(e i )

Wir gewichten die Kanten von G wie folgt: Kante e 1 e 2 e 3 e 4 e 5 e 6 e 7 e 8 d(e i ) Prof. Dr. U. Faigle J. Voss SS 2011 12. Übung zur Einführung in die Mathematik des Operations Research Dieses Übungsblatt wird nicht mehr gewertet. Aufgabe 1: Sei G = (V, E) ein gerichteter Graph und x

Mehr

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung Gliederung der Vorlesung. Fallstudie Bipartite Graphen. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen. Minimal spannende Bäume. Kürzeste Pfade. Traveling Salesman Problem. Flüsse in Netzwerken

Mehr

3.4 Exakte Verfahren für (Gemischt-) Ganzzahlige Optimierung

3.4 Exakte Verfahren für (Gemischt-) Ganzzahlige Optimierung 32KAPITEL 3. NP-SCHWIERIGE KOMBINATORISCHE OPTIMIERUNGSPROBLEME n Anzahl der Ungleichungen 3 8 4 20 5 40 6 910 7 87.472 8 >488.602.996 Tabelle 3.1: Anzahl der Ungleichungen des LOP-Polytops für n 8 3.4

Mehr

Vorlesung Kombinatorische Optimierung (Wintersemester 2007/08)

Vorlesung Kombinatorische Optimierung (Wintersemester 2007/08) 1 Vorlesung Kombinatorische Optimierung (Wintersemester 2007/08) Kapitel 5: NP-schwierige Probleme Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 21. Dezember 2007) Rucksack Problem

Mehr

Durchschnitt von Matroiden

Durchschnitt von Matroiden Durchschnitt von Matroiden Satz von Edmonds Dany Sattler 18. Januar 2007/ Seminar zur ganzzahligen Optimierung / Wallenfels Definition: Unabhängigkeitssystem Definition: Ein Mengensystem (S, J ) nennt

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 02.07.2015 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP

Mehr

Klausur zum Modul Einführung in die Diskrete Mathematik

Klausur zum Modul Einführung in die Diskrete Mathematik Klausur zum Modul Einführung in die Diskrete Mathematik 11.2.2014 Aufgabe 1 [10 Punkte] Sei G ein ungerichteter Graph, k N und x, y, z V (G). Zeigen Sie: Gibt es k paarweise kantendisjunkte x-y-wege und

Mehr

Das Matching Polytop

Das Matching Polytop Das Matching Polytop Manuel Schneider Institut für Mathematik, TU Berlin Seminar: Algorithmische Diskrete Mathematik 27. Mai 2008 Überblick 1 Beschreibungen durch Ungleichungen Das Perfekte Matching Polytop

Mehr

Schnittebenenverfahren für das symmetrische

Schnittebenenverfahren für das symmetrische Schnittebenenverfahren für das symmetrische TSP Sebastian Peetz Mathematisches Institut Universität Bayreuth 19. Januar 2007 / Blockseminar Ganzzahlige Optimierung, Bayreuth Gliederung 1 Das symmetrische

Mehr

Algorithmische Graphentheorie

Algorithmische Graphentheorie Algorithmische Graphentheorie Vorlesung 13: Flüsse und Zuordnungen Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 9. Juni 2017 DURCHSATZ D(e) ist die maximale Flussmenge,

Mehr

Einführung in Berechenbarkeit, Komplexität und Formale Sprachen

Einführung in Berechenbarkeit, Komplexität und Formale Sprachen Einführung in Berechenbarkeit, Komplexität und Formale Sprachen V17, 10.12.09 Willkommen zur Vorlesung Einführung in Berechenbarkeit, Komplexität und Formale Sprachen Friedhelm Meyer auf der Heide 1 Rückblick:

Mehr

Überblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP

Überblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP Kap..1 Heuristiken Kap.. Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 3. VO DAP SS 008 14. Juli 009 Überblick

Mehr

Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien

Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 23. VO DAP2 SS 2008 14. Juli 2009

Mehr

Kapitel 5: Minimale spannende Bäume Gliederung der Vorlesung

Kapitel 5: Minimale spannende Bäume Gliederung der Vorlesung Gliederung der Vorlesung 1. Grundbegriffe 2. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege. Minimale spannende Bäume. Färbungen und Cliquen. Traveling Salesman Problem. Flüsse in Netzwerken

Mehr

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 = Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 20. November 2014 INSTITUT FÜR THEORETISCHE 0 KIT 20.11.2014 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der

Mehr

Ganzzahlige Optimierung

Ganzzahlige Optimierung Outlines Ganzzahlige Optimierung Minikurs im Cluster Intelligent Systems for Decision Support Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 16. Juni 2009 Outlines Outline

Mehr

Informatik III - WS07/08

Informatik III - WS07/08 Informatik III - WS07/08 Kapitel 4 1 Informatik III - WS07/08 Prof. Dr. Dorothea Wagner dwagner@ira.uka.de Kapitel 4 : Komplexitätsklassen Informatik III - WS07/08 Kapitel 4 2 Sprachen, Probleme, Zeitkomplexität

Mehr

Theoretische Informatik II

Theoretische Informatik II Theoretische Informatik II Einheit 5.2 Das P N P Problem 1. Nichtdeterministische Lösbarkeit 2. Sind N P-Probleme handhabbar? 3. N P-Vollständigkeit Bei vielen schweren Problemen ist Erfolg leicht zu testen

Mehr

Schnittebenenverfahren und Heuristiken

Schnittebenenverfahren und Heuristiken KAPITEL 6 Schnittebenenverfahren und Heuristiken Wir betrachten nun Optimierungsprobleme vom Typ (68) minc T x s.d. Ax b,x 0,x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n,b R m gegeben

Mehr

Kap. 7 Optimierung. Überblick. Optimierung: Einführung. Motivation. Beispiele für Optimierungsprobleme. Rundreiseprobleme (TSP)

Kap. 7 Optimierung. Überblick. Optimierung: Einführung. Motivation. Beispiele für Optimierungsprobleme. Rundreiseprobleme (TSP) Kap. 7 Optimierung Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 22. VO 2. TEIL DAP2 SS 2009 9. Juli 2009 Überblick Einführung Einige klassische Optimierungsprobleme,

Mehr

Matching. Organisatorisches. VL-18: Matching. (Datenstrukturen und Algorithmen, SS 2017) Gerhard Woeginger. Tanzabend

Matching. Organisatorisches. VL-18: Matching. (Datenstrukturen und Algorithmen, SS 2017) Gerhard Woeginger. Tanzabend Organisatorisches VL-18: Matching (Datenstrukturen und Algorithmen, SS 2017) Gerhard Woeginger Vorlesung: Gerhard Woeginger (Zimmer 4024 im E1) Sprechstunde: Mittwoch 11:15 12:00 Übungen: Tim Hartmann,

Mehr

Der Branching-Operator B

Der Branching-Operator B Branching 1 / 17 Der Branching-Operator B Unser Ziel: Löse das allgemeine Minimierungsproblem minimiere f (x), so dass Lösung(x). B zerlegt eine Menge von Lösungen in disjunkte Teilmengen. Die wiederholte

Mehr

6. Übung zur Linearen Optimierung SS08

6. Übung zur Linearen Optimierung SS08 6 Übung zur Linearen Optimierung SS08 1 Sei G = (V, E) ein schlichter ungerichteter Graph mit n Ecken und m Kanten Für eine Ecke v V heißt die Zahl der Kanten (u, v) E Grad der Ecke (a) Ist die Anzahl

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Graphenalgorithmen Maximaler Fluss Einleitung Flussnetzwerke Ford-Fulkerson Fulkerson Methode Maximales bipartites Matching

Mehr

Algorithmische Graphentheorie

Algorithmische Graphentheorie c NASA (earthasart.gsfc.nasa.gov/ganges.html) 1 Algorithmische Graphentheorie Sommersemester 2015 2. Vorlesung Flüsse Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I 2 Gewinnmaximierung Sie sind Chef

Mehr

Das Heiratsproblem. Definition Matching

Das Heiratsproblem. Definition Matching Das Heiratsproblem Szenario: Gegeben: n Frauen und m > n Männer. Bekanntschaftsbeziehungen zwischen allen Männern und Frauen. Fragestellung: Wann gibt es für jede der Frauen einen Heiratspartner? Modellierung

Mehr

Netzwerk-Simplex. MinCostFlow als Lineares Programm. 1 of 12 Netzwerksimplex

Netzwerk-Simplex. MinCostFlow als Lineares Programm. 1 of 12 Netzwerksimplex Netzwerk-Simplex MinCostFlow als Lineares Programm of 2 Netzwerksimplex MinCostFlow geg: gerichteter Graph G, Kapazitäten u R R 0 { }, Bedarfe b V R, Pfeilkosten c R R ges: zulässiger b-fluss f mit minimalen

Mehr

Algorithmische Graphentheorie

Algorithmische Graphentheorie 1 Algorithmische Graphentheorie Sommersemester 2014 5. Vorlesung Matchings / Paarungen II Kombinatorischer Algorithmus, Anwendung für Handlungsreisende, LP-Runden Dr. Joachim Spoerhase Prof. Dr. Alexander

Mehr

Probabilistische Analyse von Algorithmen

Probabilistische Analyse von Algorithmen Lehrstuhl Informatik I Algorithmen & Komplexität RWTH Aachen 27. Mai 2005 Übersicht Einführung 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s Motivation

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 10.06.2016 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2010)

Vorlesung Lineare Optimierung (Sommersemester 2010) 1 Vorlesung Lineare Optimierung (Sommersemester 2010) Kapitel 6: Die Geometrie der Linearen Optimierung Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 15. Juni 2010) Gliederung 2 Das

Mehr

Grundlagen der Optimierung. Übung 6

Grundlagen der Optimierung. Übung 6 Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren

Mehr

Statistik und Graphentheorie

Statistik und Graphentheorie Statistik und Graphentheorie Sommersemester 2014 24. März 2015 Teil Graphentheorie Matrikelnummer: 1 (12) 2 (12) 3 (12) 4 (12) 5 (12) (60) Aufgabe 1 (12 Punkte) Gegeben sei das folgende Netzwerk: (a) Berechnen

Mehr

Gemischt-ganzzahlige und Kombinatorische Optimierung

Gemischt-ganzzahlige und Kombinatorische Optimierung 5. Präsenzaufgabenblatt, Sommersemester 2015 Übungstunde am 15.06.2015 Aufgabe J Betrachten Sie die LP-Relaxierung max c T x a T x b 0 x i 1 des 0/1-Knapsack-Problems mit n Gegenständen, c 0 und a > 0.

Mehr

Datenstrukturen & Algorithmen Lösungen zu Blatt 11 FS 14

Datenstrukturen & Algorithmen Lösungen zu Blatt 11 FS 14 Eidgenössische Technische Hochschule Zürich Ecole polytechnique fédérale de Zurich Politecnico federale di Zurigo Federal Institute of Technology at Zurich Institut für Theoretische Informatik 14. Mai

Mehr

Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme

Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Kapitel 4. Optimierungsalgorithmen. Technische Universität Wien. Gunnar Klau Technische Universität Wien. Institut für Computergraphik und Algorithmen

Kapitel 4. Optimierungsalgorithmen. Technische Universität Wien. Gunnar Klau Technische Universität Wien. Institut für Computergraphik und Algorithmen Kapitel 4 Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen 1 Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren

Mehr

Approximationsalgorithmen für NP-harte Optimierungsprobleme

Approximationsalgorithmen für NP-harte Optimierungsprobleme Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 18 Was tun mit NP-harten Problemen? Viele praxisrelevante

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Übung am 16.12.2010 INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft

Mehr

Einführung in Operations Research

Einführung in Operations Research Wolfgang Domschke Andreas Drexl Einführung in Operations Research Achte Auflage fyj Springer Inhaltsverzeichnis Vorwort Symbolverzeichnis V XIII Kapitel 1: Einführung 1 1.1 Begriff des Operations Research

Mehr

Algorithmen II Vorlesung am

Algorithmen II Vorlesung am Algorithmen II Vorlesung am 0..0 Minimale Schnitte in Graphen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum

Mehr

Betriebliche Optimierung

Betriebliche Optimierung Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 21 1 Approximationsalgorithmen auf

Mehr

Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,...

Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,... Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,..., k, so dass gilt M = k c i P i i=1 k c i = r. i=1 Diskrete Strukturen 7.1 Matchings

Mehr

Approximationsalgorithmen für NP-harte Optimierungsprobleme

Approximationsalgorithmen für NP-harte Optimierungsprobleme Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 4. Januar 2011 Berthold Vöcking, Informatik 1 () Vorlesung

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr