Diskrete Optimierung (Einführung zur Vorlesung)
|
|
- Ulrich August Vogel
- vor 8 Jahren
- Abrufe
Transkript
1 Diskrete Optimierung (Einführung zur Vorlesung) Christoph Helmberg : [,]
2 Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete Graphen).3 Anwendung: Netzwerkflüsse.4 Mehrgüterflussprobleme.5 Ganzzahlige und Kombinatorische Optimierung.6 Branch-and-Bound.7 Konvexe Mengen, konvexe Hülle, konvexe Funktionen.8 Relaxation.9 Anwendung: Rundreiseprobleme (TSP).0 Finden guter Lösungen, Heuristiken. Gemischt-ganzzahlige Optimierung 2: 2 [2,2]
3 . Anwendung: Das Heiratsproblem (bipartites Matching) Bilde möglichst viele Paare! Männer Frauen, Arbeiter Maschinen, Studierende Studienplätze,... (geht auch gewichtet) 3: 3 [3,5]
4 . Anwendung: Das Heiratsproblem (bipartites Matching) Bilde möglichst viele Paare! Maximal (nicht vergrößerbar), aber kein Kardinalitätsmaximum Männer Frauen, Arbeiter Maschinen, Studierende Studienplätze,... (geht auch gewichtet) 3: 4 [3,5]
5 . Anwendung: Das Heiratsproblem (bipartites Matching) Bilde möglichst viele Paare! Maximum Cardinality Matching (sogar perfekt) Männer Frauen, Arbeiter Maschinen, Studierende Studienplätze,... (geht auch gewichtet) 3: 5 [3,5]
6 Bipartites Matching Ein (ungerichteter) Graph G = (V, E) ist ein Paar bestehend aus Knotenmenge V und Kantenmenge E {{u, v} : u, v V, u v}. Zwei Knoten u, v V heißen adjazent/benachbart, falls {u, v} E. Ein Knoten v V und eine Kante e E heißen inzident, falls v e. Zwei Kanten e, f V heißen inzident, falls e f. 4: 6 [6,8]
7 Bipartites Matching Ein (ungerichteter) Graph G = (V, E) ist ein Paar bestehend aus Knotenmenge V und Kantenmenge E {{u, v} : u, v V, u v}. Zwei Knoten u, v V heißen adjazent/benachbart, falls {u, v} E. Ein Knoten v V und eine Kante e E heißen inzident, falls v e. Zwei Kanten e, f V heißen inzident, falls e f. Eine Kantenmenge M E heißt Matching/Paarung, falls für e, f M mit e f stets e f =. Das Matching heißt perfekt, falls V = 2 M. 4: 7 [6,8]
8 Bipartites Matching Ein (ungerichteter) Graph G = (V, E) ist ein Paar bestehend aus Knotenmenge V und Kantenmenge E {{u, v} : u, v V, u v}. Zwei Knoten u, v V heißen adjazent/benachbart, falls {u, v} E. Ein Knoten v V und eine Kante e E heißen inzident, falls v e. Zwei Kanten e, f V heißen inzident, falls e f. Eine Kantenmenge M E heißt Matching/Paarung, falls für e, f M mit e f stets e f =. Das Matching heißt perfekt, falls V = 2 M. G = (V, E) heißt bipartit, falls V = V V 2 mit V V 2 = und E {{u, v} : u V, v V 2 }. 4: 8 [6,8]
9 Modellierung: kardinalitätsmaximales bipartites Matching gegeben: G = (V V 2, E) bipartit gesucht: Matching M E mit M maximal { falls e M Variablen: x {0, } E mit x e = (e E) 0 sonst. (steht für den Inzidenz-/charakteristischen Vektor von M bzgl. E) Nebenbedingung: Ax, wobei A {0, } V E Knoten-Kanten-Inzidenzmatrix zu G: A v,e = { falls v e 0 sonst. (v V, e E) A B C b c a d D E A = (a) (b) (c) (d) (A) 0 0 (B) (C) (D) (E) 0 5: 9 [9,0]
10 Modellierung: kardinalitätsmaximales bipartites Matching gegeben: G = (V V 2, E) bipartit gesucht: Matching M E mit M maximal { falls e M Variablen: x {0, } E mit x e = (e E) 0 sonst. (steht für den Inzidenz-/charakteristischen Vektor von M bzgl. E) Nebenbedingung: Ax, wobei A {0, } V E Knoten-Kanten-Inzidenzmatrix zu G: A v,e = Optimierungsproblem: { falls v e 0 sonst. (v V, e E) max T x s.t. Ax x {0, } E So kein LP! x {0, } E zu x [0, ] E vergrößern LP Für G bipartit gilt: Simplex liefert immer eine Optimallösung x {0, } E! (Für allgemeine Graphen G i.a. aber nicht!) 5: 0 [9,0]
11 Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete Graphen).3 Anwendung: Netzwerkflüsse.4 Mehrgüterflussprobleme.5 Ganzzahlige und Kombinatorische Optimierung.6 Branch-and-Bound.7 Konvexe Mengen, konvexe Hülle, konvexe Funktionen.8 Relaxation.9 Anwendung: Rundreiseprobleme (TSP).0 Finden guter Lösungen, Heuristiken. Gemischt-ganzzahlige Optimierung 6: [,]
12 .2 Ganzzahlige Polyeder Simplex liefert automatisch eine ganzzahlige Lösung, wenn alle Ecken der zulässigen Menge ganzzahlig sind. min c T x s.t. x X := {x 0 : Ax = b} Hat X nur ganzzahlige Ecken? 7: 2 [2,4]
13 .2 Ganzzahlige Polyeder Simplex liefert automatisch eine ganzzahlige Lösung, wenn alle Ecken der zulässigen Menge ganzzahlig sind. min c T x s.t. x X := {x 0 : Ax = b} Hat X nur ganzzahlige Ecken? Fast nie! Aber es gibt wichtige Klassen von Matrizen A Z m n, für die X für jedes (!) b Z m nur ganzzahlige Ecken hat: Eine Ecke ist ganzzahlig Basislösung x B = A B b Zm Wenn det(a B ) =, folgt mit der Cramer schen Regel x B Z m. 7: 3 [2,4]
14 .2 Ganzzahlige Polyeder Simplex liefert automatisch eine ganzzahlige Lösung, wenn alle Ecken der zulässigen Menge ganzzahlig sind. min c T x s.t. x X := {x 0 : Ax = b} Hat X nur ganzzahlige Ecken? Fast nie! Aber es gibt wichtige Klassen von Matrizen A Z m n, für die X für jedes (!) b Z m nur ganzzahlige Ecken hat: Eine Ecke ist ganzzahlig Basislösung x B = A B b Zm Wenn det(a B ) =, folgt mit der Cramer schen Regel x B Z m. Eine Matrix A Z m n mit vollem Zeilenrang heißt unimodular, falls det(a B ) = für jede Basis B erfüllt ist. Satz A Z m n ist genau dann unimodular, wenn für jedes b Z m alle Ecken des Polyeders X := {x 0 : Ax = b} ganzzahlig sind. Gilt das auch für X := {x 0 : Ax b}? 7: 4 [2,4]
15 Total unimodulare Matrizen {x 0 : Ax b} {[ x s ] [ x 0 : [A, I ] s ] } = b Sicher ganzzahlig, falls Ā = [A, I ] unimodular ist. Determinantenentwicklung nach Laplace für jede Basis B Eine Matrix A heißt total unimodular, falls für jede quadratische Untermatrix von A die Determinante den Wert 0, oder hat. (geht nur, wenn A {0,, } m n ) Satz (Hoffmann und Kruskal) A Z m n ist genau dann total unimodular, wenn für jedes b Z m alle Ecken des Polyeders X := {x 0 : Ax b} ganzzahlig sind. 8: 5 [5,5] Beachte: A tot. unimod. A T bzw. [A, A, I, I ] tot. unimod. Konsequenz: duales LP, Gleichungsvarianten, etc. sind ganzzahlig
16 Total unimodulare Matrizen erkennen Satz (Heller und Tompkins) A {0,, } m n habe höchstens zwei Einträge pro Spalte. A ist total unimodular Die Zeilen von A können in zwei Klassen eingeteilt werden, sodass (i) Zeilen mit einem + und einem Eintrag in derselben Spalte in dieselbe Klasse, (ii) Zeilen mit zwei vorzeichengleichen Einträgen in der gleichen Spalte in unterschiedliche Klassen kommen. Beispiel : die Knoten-Kanten-Inzidenzmatrix eines bipartiten Graphen A B C b c a d D E A = (a) (b) (c) (d) (A) 0 0 (B) (C) (D) (E) 0 9: 6 [6,6]
17 Beispiel : bipartite Graphen A... Knoten-Kanten-Inzidenzmatrix von G = (V V 2, E) bipartit Bipartites Matching maximaler Kardinalität: max T x s.t. Ax, x 0 Wegen A tot. unimod. hat die zul. Menge nur ganzzahlige Ecken Simplex liefert Optimallösung x {0, } E. Das Duale ist auch ganzzahlig, wegen A T tot. unimod.: min T y s.t. A T y, y 0 Interpretation: y {0, } V ist Inzidenzvektor einer kleinsten Knotenmenge V V, sodass e E : e V (Minimum Vertex Cover) Das Zuweisungsproblem: V = V 2 = n, vollständig bipartit: E = {{u, v} : u V, v V 2 }; Kantengewichte c R E Suche ein perfektes Matching minimalen Gesamtgewichts: min c T x s.t. Ax =, x 0 ist auch ganzzahlig, weil [A; A] tot. unimod. 0: 7 [7,7]
18 Beispiel 2: Knoten-Kanten-Inzidenzmatrix von Digraphen Ein Digraph/gerichteter Graph D = (V, E) ist ein Paar bestehend aus Knotenmenge V und einer (Multi-)Menge gerichteter Kanten/Pfeile E {(u, v) : u, v V, u v}. [Mehrfachkanten sind erlaubt!] Für e = (u, v) E ist u der Schaft und v die Spitze von e. Die Knoten-Kanten-Inzidenzmatrix A {0,, } V E von D hat Einträge v ist Schaft von e A v,e = v ist Spitze von e (v V, e E). 0 sonst Die Knoten-Kanten-Inzidenzmatrix eines Digraphen ist total unimodular. A a b c B C d D e A = f (a) (b) (c) (d) (e) (f ) (A) (B) (C) (D) : 8 [8,8]
19 Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete Graphen).3 Anwendung: Netzwerkflüsse.4 Mehrgüterflussprobleme.5 Ganzzahlige und Kombinatorische Optimierung.6 Branch-and-Bound.7 Konvexe Mengen, konvexe Hülle, konvexe Funktionen.8 Relaxation.9 Anwendung: Rundreiseprobleme (TSP).0 Finden guter Lösungen, Heuristiken. Gemischt-ganzzahlige Optimierung 2: 9 [9,9]
20 .3 Anwendung: Netzwerkflüsse Modellierungswerkzeug: Transportprobleme, Evakuierungspläne, Auftrags-, Verkehrsplanung,... Ein Netzwerk (D, w) besteht aus einem Digraphen D = (V, E) und (Kanten-)Kapazitäten w R E +. Ein Vektor x R E heißt Fluss auf (D, w), falls er die Flusserhaltungsgleichungen x e = x e (v V ) e=(u,v) E e=(v,u) E erfüllt. [ Ax = 0 für Knoten-Kanten-Inzidenzmatrix A] Ein Fluss x R E auf (D,w) heißt zulässig, falls 0 x w [auch untere Schranken machbar] Fluss zulässiger Fluss 3: 20 [20,20]
21 Maximale s-t-flüsse, Minimale s-t-schnitte Gegeben Quelle s V und Senke t V mit (t, s) E, finde einen zulässigen Fluss x R E auf (D, w) mit maximalem Flusswert x (t,s). s max a b 5 4 B c 2 C d d 7 f 9 t A = LP: max x (t,s) s.t. Ax = 0, 0 x w, (a) (b) (c) (d) (e) (f ) (s) (B) (C) (t) Falls w Z E, ist Simplex-OL x Z E, weil [A; A; I ] tot. unimod. 4: 2 [2,24]
22 Maximale s-t-flüsse, Minimale s-t-schnitte Gegeben Quelle s V und Senke t V mit (t, s) E, finde einen zulässigen Fluss x R E auf (D, w) mit maximalem Flusswert x (t,s). B s max C 7 9 t S = {s}, δ + (S) = {(s, B), (s, C)}, w(δ + (S)) = = 9. LP: max x (t,s) s.t. Ax = 0, 0 x w, Falls w Z E, ist Simplex-OL x Z E, weil [A; A; I ] tot. unimod. Jedes S V mit s S und t / S definiert einen s-t-schnitt δ + (S) := {(u, v) E : u S, v / S}, darüber fließt höchstens w(δ + (S)) := e δ + (S) w e, der Wert des Schnitts. 4: 22 [2,24]
23 Maximale s-t-flüsse, Minimale s-t-schnitte Gegeben Quelle s V und Senke t V mit (t, s) E, finde einen zulässigen Fluss x R E auf (D, w) mit maximalem Flusswert x (t,s). s max B 4 S = {s, B, C}, 7 2 t δ + (S) = {(B, t), (C, t)}, w(δ + (S)) = 7 + = 8. 5 C 9 LP: max x (t,s) s.t. Ax = 0, 0 x w, Falls w Z E, ist Simplex-OL x Z E, weil [A; A; I ] tot. unimod. Jedes S V mit s S und t / S definiert einen s-t-schnitt δ + (S) := {(u, v) E : u S, v / S}, darüber fließt höchstens w(δ + (S)) := e δ + (S) w e, der Wert des Schnitts. 4: 23 [2,24]
24 Maximale s-t-flüsse, Minimale s-t-schnitte Gegeben Quelle s V und Senke t V mit (t, s) E, finde einen zulässigen Fluss x R E auf (D, w) mit maximalem Flusswert x (t,s). s 4: 24 [2,24] max B 2 2 C LP: max x (t,s) s.t. Ax = 0, 0 x w, t S = {s, C}, δ + (S) = {(s, B), (C, B), (C, t)}, w(δ + (S)) = = 7= x (t,s) Falls w Z E, ist Simplex-OL x Z E, weil [A; A; I ] tot. unimod. Jedes S V mit s S und t / S definiert einen s-t-schnitt δ + (S) := {(u, v) E : u S, v / S}, darüber fließt höchstens w(δ + (S)) := e δ + (S) w e, der Wert des Schnitts. Satz (Max-Flow Min-Cut Theorem von Ford und Fulkerson) Der maximale Wert eines s-t-flusses ist gleich dem minimalen Werte eines s-t-schnitts. [beide durch Simplex bestimmbar]
25 Minimale-Kosten-Flüsse (Min-Cost-Flow) Die Flussmenge wird durch Balancen b R V ( T b = 0) auf den Knoten vorgegeben, pro Flusseinheit fallen Kantenkosten c R E an. Finde den günstigsten Fluss. 5 5: 25 [25,25] min [ ] x s.t x w LP: min c T x s.t. Ax = b, 0 x w, x = Für b, c und w ganzz. ist Simplex-OL x Z E, weil [A; A; I ] tot. unimod. [geht auch mit unteren Schranken auf den Kanten: u x w!] Für LPs min c T x s.t. Ax = b, u x w, A Knoten-Kanten-Inz. gibt es eine besonders effiziente Simplex-Variante, den Netzwerksimplex, dieser braucht nur Addition, Subtraktion und Vergleiche! Extrem breite Anwendungsmöglichkeiten, beliebtes Modellierungswerkzeug
26 Beispiel: Transportproblem Eine Firma mit mehreren Produktionsstandorten hat mehrere Kunden zu beliefern. Wie geschieht dies am günstigsten unter Berücksichtigung der Transportkosten? : 26 [26,26] Beachte: Nur ein Produkttyp!
27 Beispiel: Evakuierungsplanung Bestimme für jeden Raum den Fluchtweg, sodass das Gebäude schnellstmöglich geräumt ist. Pro Abschnitt sind Kapazität pro Zeiteinheit und Durchquerungszeit bekannt. 7: 27 [27,34]
28 Beispiel: Evakuierungsplanung Bestimme für jeden Raum den Fluchtweg, sodass das Gebäude schnellstmöglich geräumt ist. Pro Abschnitt sind Kapazität pro Zeiteinheit und Durchquerungszeit bekannt / /2 4/2 2/2 3/ 2/2 2/2 4 / / 2/ 40 /2 4 / 2/ / 3 4 Kanten mit Kapazität und Durchquerungszeit 7: 28 [27,34]
29 Beispiel: Evakuierungsplanung Bestimme für jeden Raum den Fluchtweg, sodass das Gebäude schnellstmöglich geräumt ist. Pro Abschnitt sind Kapazität pro Zeiteinheit und Durchquerungszeit bekannt. 4 / /2 / 4/2 4 2/2 4 / / 2/ 40 2/ / 4 /2 3 2/2 3/ / Geometrie nicht wichtig, vereinfachbar 7: 29 [27,34]
30 Beispiel: Evakuierungsplanung Bestimme für jeden Raum den Fluchtweg, sodass das Gebäude schnellstmöglich geräumt ist. Pro Abschnitt sind Kapazität pro Zeiteinheit und Durchquerungszeit bekannt. t=0 4 t= / /2 / 4/2 4 2/2 4 / / 2/ 40 2/ / 4 /2 3 2/2 3/ / t=2 Diskretisierung der Zeit, ein Niveau pro Zeiteinheit 7: 30 [27,34]
31 Beispiel: Evakuierungsplanung Bestimme für jeden Raum den Fluchtweg, sodass das Gebäude schnellstmöglich geräumt ist. Pro Abschnitt sind Kapazität pro Zeiteinheit und Durchquerungszeit bekannt. t=0 4 t= / /2 / 4/2 4 2/2 4 / / 2/ 40 2/ / 4 /2 3 2/2 3 t=2 3 Durchquerungszeit verbindet Niveaus, Kapazität bleibt 7: 3 [27,34]
32 Beispiel: Evakuierungsplanung Bestimme für jeden Raum den Fluchtweg, sodass das Gebäude schnellstmöglich geräumt ist. Pro Abschnitt sind Kapazität pro Zeiteinheit und Durchquerungszeit bekannt. t=0 4 t= t=2 / / 4 / / 2/ 2/2 40 2/ / 4 4/2 / Durchquerungszeit verbindet Niveaus, Kapazität bleibt 7: 32 [27,34]
33 Beispiel: Evakuierungsplanung Bestimme für jeden Raum den Fluchtweg, sodass das Gebäude schnellstmöglich geräumt ist. Pro Abschnitt sind Kapazität pro Zeiteinheit und Durchquerungszeit bekannt. t=0 4 t= t= Steigende Kosten auf den Ausgangskanten für rasches Verlassen 2 2 7: 33 [27,34]
34 Beispiel: Evakuierungsplanung Bestimme für jeden Raum den Fluchtweg, sodass das Gebäude schnellstmöglich geräumt ist. Pro Abschnitt sind Kapazität pro Zeiteinheit und Durchquerungszeit bekannt. t=0 4 t= t= Steigende Kosten auf den Ausgangskanten für rasches Verlassen Ansatz nur ok, wenn Personen nicht unterschieden werden müssen! 2 2 7: 34 [27,34]
35 Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete Graphen).3 Anwendung: Netzwerkflüsse.4 Mehrgüterflussprobleme.5 Ganzzahlige und Kombinatorische Optimierung.6 Branch-and-Bound.7 Konvexe Mengen, konvexe Hülle, konvexe Funktionen.8 Relaxation.9 Anwendung: Rundreiseprobleme (TSP).0 Finden guter Lösungen, Heuristiken. Gemischt-ganzzahlige Optimierung 8: 35 [35,35]
36 .4 Mehrgüterflussprobleme (Multicommodity Flow) In einem Neztwerk (D, w) sind für unterschiedliche Güter K = {,..., k} mit Quellen/Senken (s i, t i ) und Flusswerten f i, i K, zulässige Flüsse x (i) R E zu finden, die in Summe die Kapazitätsbedingungen einhalten. s s t t 9: 36 [36,43]
37 .4 Mehrgüterflussprobleme (Multicommodity Flow) In einem Neztwerk (D, w) sind für unterschiedliche Güter K = {,..., k} mit Quellen/Senken (s i, t i ) und Flusswerten f i, i K, zulässige Flüsse x (i) R E zu finden, die in Summe die Kapazitätsbedingungen einhalten. s s t t Mischen verboten! 9: 37 [36,43]
38 .4 Mehrgüterflussprobleme (Multicommodity Flow) In einem Neztwerk (D, w) sind für unterschiedliche Güter K = {,..., k} mit Quellen/Senken (s i, t i ) und Flusswerten f i, i K, zulässige Flüsse x (i) R E zu finden, die in Summe die Kapazitätsbedingungen einhalten. s s t t ganzz. geht nicht 9: 38 [36,43]
39 .4 Mehrgüterflussprobleme (Multicommodity Flow) In einem Neztwerk (D, w) sind für unterschiedliche Güter K = {,..., k} mit Quellen/Senken (s i, t i ) und Flusswerten f i, i K, zulässige Flüsse x (i) R E zu finden, die in Summe die Kapazitätsbedingungen einhalten. s s t t gebrochen geht 9: 39 [36,43]
40 .4 Mehrgüterflussprobleme (Multicommodity Flow) In einem Neztwerk (D, w) sind für unterschiedliche Güter K = {,..., k} mit Quellen/Senken (s i, t i ) und Flusswerten f i, i K, zulässige Flüsse x (i) R E zu finden, die in Summe die Kapazitätsbedingungen einhalten. s s Umsetzung s s t t gebrochen geht Kopie t t Kopie 2 9: 40 [36,43]
41 .4 Mehrgüterflussprobleme (Multicommodity Flow) In einem Neztwerk (D, w) sind für unterschiedliche Güter K = {,..., k} mit Quellen/Senken (s i, t i ) und Flusswerten f i, i K, zulässige Flüsse x (i) R E zu finden, die in Summe die Kapazitätsbedingungen einhalten. s s Umsetzung s s t t gebrochen geht Kopie t t Kopie 2 min c ()T x () + c (2)T x (2) s.t. Ax () = b () Ax (2) = b (2) Ix () + Ix (2) w x () 0, x (2) 0. 9: 4 [36,43]
42 .4 Mehrgüterflussprobleme (Multicommodity Flow) In einem Neztwerk (D, w) sind für unterschiedliche Güter K = {,..., k} mit Quellen/Senken (s i, t i ) und Flusswerten f i, i K, zulässige Flüsse x (i) R E zu finden, die in Summe die Kapazitätsbedingungen einhalten. s s Umsetzung s s t t gebrochen geht A 0 0 A I I i.a. nicht tot.unimod.! Kopie t t Kopie 2 min c ()T x () + c (2)T x (2) s.t. Ax () = b () Ax (2) = b (2) Ix () + Ix (2) w x () 0, x (2) 0. 9: 42 [36,43]
43 .4 Mehrgüterflussprobleme (Multicommodity Flow) In einem Neztwerk (D, w) sind für unterschiedliche Güter K = {,..., k} mit Quellen/Senken (s i, t i ) und Flusswerten f i, i K, zulässige Flüsse x (i) R E zu finden, die in Summe die Kapazitätsbedingungen einhalten. s s Umsetzung s s t t gebrochen geht Gebrochen gut lösbar, ganzzahlig SEHR schwer! Kopie t t Kopie 2 min c ()T x () + c (2)T x (2) s.t. Ax () = b () Ax (2) = b (2) Ix () + Ix (2) w x () 0, x (2) 0. 9: 43 [36,43]
44 Beispiel: Logistik Paletten sind bedarfsgerecht mit LKWs zwischen Lagern zu verschieben B A C pro Artikel ein Palettengraph A B C A B C t=0 t= t=2 t=3 t=0.5 t=.5 t=2.5 t=3.5 20: 44 [44,44]
45 Weitere Anwendungsbereiche } gebrochen: Kapazitätsplanung für ganzzahlig: Zeitdiskretisierte Routen- und Ablaufplanung Straßenverkehr Schienenverkehr Internet Logistik (Engpassanalyse/Steuerung) Produktion (Maschinenauslastung/-belegung) Network-Design: Auslegung soll Erfüllung möglichst aller Bedarfe auch bei Störung erlauben. [ Robuste Varianten sind extrem schwer!] Mehrgüterflussprobleme werden oft als zugrundeliegendes Modell eingesetzt, das mit weiteren Bedingungen kombiniert wird. 2: 45 [45,45]
46 Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete Graphen).3 Anwendung: Netzwerkflüsse.4 Mehrgüterflussprobleme.5 Ganzzahlige und Kombinatorische Optimierung.6 Branch-and-Bound.7 Konvexe Mengen, konvexe Hülle, konvexe Funktionen.8 Relaxation.9 Anwendung: Rundreiseprobleme (TSP).0 Finden guter Lösungen, Heuristiken. Gemischt-ganzzahlige Optimierung 22: 46 [46,46]
47 .5 Ganzzahlige Optimierung (Integer Programming) vorwiegend: Lineare Programme mit ausschließlich ganzzahligen Variablen (sonst gemischt-ganzzahlige Optimierung/Mixed Integer Programming) max s.t. c T x Ax b x Z n Enthält meist viele Binär-Variablen ({0,}) für ja/nein Entscheidungen Schwierigkeit: i.a. nicht effizient lösbar, Komplexitätsklasse NP exakte Lösung oft sehr Enumerations-lastig (system. Durchprobieren) Exakte Lösung durch Kombination folgender Techniken: (obere) Schranken durch lineare/konvexe Relaxation verbessert durch Schnittebenenansätze zulässige Lösungen (untere Schranken) durch Rundungs- und Lokale-Suche-Heuristiken Enumeration durch Branch&Bound, Branch&Cut 23: 47 [47,47]
48 Kombinatorische Optimierung Mathematisch: Gegeben eine endliche Grundmenge Ω, eine Menge zulässiger Teilmengen F 2 Ω [Potenzmenge, Menge aller Teilmengen] und eine Zielfunktion c : F Q, bestimme max{c(f ) : F F} oder F Argmax{c(F ) : F F} Hier nur lineares c: c(f ) := e F c e mit c Q Ω. Bsp: Matching maximaler Kardinalität in G = (V, E): Ω = E, F = {M E : M Matching in G}, c = Bsp2: Minimum Vertex Cover für G = (V, E): Ω = V, F = {V V : e V für e E}, c = Formulierung über Binäre Programme: Notation: Inzidenz-/Charakteristischer Vektor χ Ω (F ) {0, } Ω für F Ω [kurz χ(f ), erfüllt [χ(f )] e = e F ] Ein lineares Programm max{c T x : Ax b, x [0, ] Ω } heißt Formulierung des kombinatorischen Optimierungsproblems, falls {x {0, } Ω : Ax b} = {χ(f ) : F F}. 24: 48 [48,48]
49 (Algorithmische) Komplexität von Problemen Eine Instanz I eines Problems ist eine konkrete Wertebelegung der Problemdaten; ihre Größe I ist die Kodierungslänge, also die Anzahl der Zeichen im Beschreibungsstring nach einem sinnvollen Kodierungsschema. Die Laufzeit eines Algorithmus für eine Instanz ist die Anzahl der ausgeführten elementaren Operationen (ein Symbol lesen/schreiben, Bytes addieren/multiplizieren/vergleichen, etc.) Ein Algorithmus löst ein Problem polynomial oder effizient, wenn er für jede Instanz die richtige Antwort innerhalb einer Laufzeit liefert, die durch ein Polynom in der Kodierungslänge beschränkt ist. Ein Problem heißt polynomial/effizient lösbar, wenn es einen Algorithmus gibt, der es effizient löst. Die Klasse P umfasst alle Probleme, die effizient lösbar sind. Bsp: Lineare Optimierung ist in P, ABER Simplex löst es nicht effizient. Bsp2: Kardinalitätsmaximales Matching in allgemeinen Graphen ist in P. Bsp3: Minimum Vertex Cover in bipartiten Graphen ist in P. 25: 49 [49,49]
50 Entscheidungsprobleme und die Klasse NP In einem Entscheidungsproblem ist jede Instanz eine Frage, die entweder mit Ja oder mit Nein zu beantworten ist. Ein Entscheidungsproblem ist nichtdeterministisch polynomial lösbar, wenn für jede Ja -Instanz I ein Lösungsstring (das Zertifikat) existiert, mit dem die Richtigkeit der Ja -Antwort in Laufzeit polynomial beschränkt in I nachgewiesen werden kann. [Es geht nur um Ja!] Die Klasse NP umfasst alle Entscheidungsprobleme, die nichtdeterministisch polynomial lösbar sind. Es gilt: P NP 26: 50 [50,54]
51 Entscheidungsprobleme und die Klasse NP In einem Entscheidungsproblem ist jede Instanz eine Frage, die entweder mit Ja oder mit Nein zu beantworten ist. Ein Entscheidungsproblem ist nichtdeterministisch polynomial lösbar, wenn für jede Ja -Instanz I ein Lösungsstring (das Zertifikat) existiert, mit dem die Richtigkeit der Ja -Antwort in Laufzeit polynomial beschränkt in I nachgewiesen werden kann. [Es geht nur um Ja!] Die Klasse NP umfasst alle Entscheidungsprobleme, die nichtdeterministisch polynomial lösbar sind. Es gilt: P NP Bsp: Hamilton scher Kreis: In einem Graphen G = (V, E) heißt eine Kantenmenge C = {{v, v 2 }, {v 2, v 3 },..., {v k, v k }, {v k, v }} E ein Kreis (der Länge k), falls v i v j für i j. Ein Kreis C heißt hamiltonsch, falls C = V. 26: 5 [50,54]
52 Entscheidungsprobleme und die Klasse NP 26: 52 [50,54] In einem Entscheidungsproblem ist jede Instanz eine Frage, die entweder mit Ja oder mit Nein zu beantworten ist. Ein Entscheidungsproblem ist nichtdeterministisch polynomial lösbar, wenn für jede Ja -Instanz I ein Lösungsstring (das Zertifikat) existiert, mit dem die Richtigkeit der Ja -Antwort in Laufzeit polynomial beschränkt in I nachgewiesen werden kann. [Es geht nur um Ja!] Die Klasse NP umfasst alle Entscheidungsprobleme, die nichtdeterministisch polynomial lösbar sind. Es gilt: P NP Bsp: Hamilton scher Kreis: In einem Graphen G = (V, E) heißt eine Kantenmenge C = {{v, v 2 }, {v 2, v 3 },..., {v k, v k }, {v k, v }} E ein Kreis (der Länge k), falls v i v j für i j. Ein Kreis C heißt hamiltonsch, falls C = V. Entscheidungsproblem: Enthält G einen Hamilton schen Kreis? Ja-Antwort ist effizient überprüfbar, das Problem ist in NP
53 Entscheidungsprobleme und die Klasse NP 26: 53 [50,54] In einem Entscheidungsproblem ist jede Instanz eine Frage, die entweder mit Ja oder mit Nein zu beantworten ist. Ein Entscheidungsproblem ist nichtdeterministisch polynomial lösbar, wenn für jede Ja -Instanz I ein Lösungsstring (das Zertifikat) existiert, mit dem die Richtigkeit der Ja -Antwort in Laufzeit polynomial beschränkt in I nachgewiesen werden kann. [Es geht nur um Ja!] Die Klasse NP umfasst alle Entscheidungsprobleme, die nichtdeterministisch polynomial lösbar sind. Es gilt: P NP Bsp: Hamilton scher Kreis: In einem Graphen G = (V, E) heißt eine Kantenmenge C = {{v, v 2 }, {v 2, v 3 },..., {v k, v k }, {v k, v }} E ein Kreis (der Länge k), falls v i v j für i j. Ein Kreis C heißt hamiltonsch, falls C = V. Entscheidungsproblem: Enthält G einen Hamilton schen Kreis? Ja-Antwort ist effizient überprüfbar, das Problem ist in NP
54 Entscheidungsprobleme und die Klasse NP 26: 54 [50,54] In einem Entscheidungsproblem ist jede Instanz eine Frage, die entweder mit Ja oder mit Nein zu beantworten ist. Ein Entscheidungsproblem ist nichtdeterministisch polynomial lösbar, wenn für jede Ja -Instanz I ein Lösungsstring (das Zertifikat) existiert, mit dem die Richtigkeit der Ja -Antwort in Laufzeit polynomial beschränkt in I nachgewiesen werden kann. [Es geht nur um Ja!] Die Klasse NP umfasst alle Entscheidungsprobleme, die nichtdeterministisch polynomial lösbar sind. Es gilt: P NP Bsp: Hamilton scher Kreis: In einem Graphen G = (V, E) heißt eine Kantenmenge C = {{v, v 2 }, {v 2, v 3 },..., {v k, v k }, {v k, v }} E ein Kreis (der Länge k), falls v i v j für i j. Ein Kreis C heißt hamiltonsch, falls C = V. Entscheidungsproblem: Enthält G einen Hamilton schen Kreis? Ja-Antwort ist effizient überprüfbar, das Problem ist in NP
55 NP-vollständige Probleme Ein Entscheidungsproblem P ist polynomial transformierbar auf ein Entscheidungsproblem P 2, wenn es einen Algorithmus gibt, der jede Instanz I von P in Laufzeit polynomial in I in eine Instanz I 2 von P 2 transformiert, sodass I 2 genau dann Ja-Instanz von P 2 ist, wenn I Ja-Instanz von P ist. Ist P polynomial auf P 2 transformierbar, dann löst ein effizienter Algorithmus für P 2 auch P effizient; P 2 ist mindestens so schwer wie P. Ist P NP und ist jedes ˆP NP polynomial auf P transformierbar, so heißt P NP-vollständig. Kann ein NP-vollständiges Problem P polynomial auf ein Problem ˆP NP transformiert werden, ist auch ˆP NP-vollständig; sie sind gleich schwer. 27: 55 [55,57]
56 NP-vollständige Probleme Ein Entscheidungsproblem P ist polynomial transformierbar auf ein Entscheidungsproblem P 2, wenn es einen Algorithmus gibt, der jede Instanz I von P in Laufzeit polynomial in I in eine Instanz I 2 von P 2 transformiert, sodass I 2 genau dann Ja-Instanz von P 2 ist, wenn I Ja-Instanz von P ist. Ist P polynomial auf P 2 transformierbar, dann löst ein effizienter Algorithmus für P 2 auch P effizient; P 2 ist mindestens so schwer wie P. Ist P NP und ist jedes ˆP NP polynomial auf P transformierbar, so heißt P NP-vollständig. Kann ein NP-vollständiges Problem P polynomial auf ein Problem ˆP NP transformiert werden, ist auch ˆP NP-vollständig; sie sind gleich schwer. Es gibt dicke Sammlungen NP-vollständiger Probleme, dazu gehören: ganzzahlige Optimierung (in Entscheidungsversion) ganzzahliger Mehrgüterfluss Hamilton scher Kreis Minimum Vertex Cover auf allgemeinen Graphen Das Rucksack-Problem (für große Zahlen) 27: 56 [55,57]
57 NP-vollständige Probleme Ein Entscheidungsproblem P ist polynomial transformierbar auf ein Entscheidungsproblem P 2, wenn es einen Algorithmus gibt, der jede Instanz I von P in Laufzeit polynomial in I in eine Instanz I 2 von P 2 transformiert, sodass I 2 genau dann Ja-Instanz von P 2 ist, wenn I Ja-Instanz von P ist. Ist P polynomial auf P 2 transformierbar, dann löst ein effizienter Algorithmus für P 2 auch P effizient; P 2 ist mindestens so schwer wie P. Ist P NP und ist jedes ˆP NP polynomial auf P transformierbar, so heißt P NP-vollständig. Kann ein NP-vollständiges Problem P polynomial auf ein Problem ˆP NP transformiert werden, ist auch ˆP NP-vollständig; sie sind gleich schwer. Gibt es einen effizienten Algorithmus für eines der NP-vollständigen Probleme, sind alle effizient lösbar. Man vermutet seit Jahren: P NP. Will man alle Instanzen lösen können, ist wahrscheinlich eine teilweise Enumeration unvermeidbar. Ein Problem ist NP-schwer, wenn damit ein NP-vollständiges lösbar wäre. 27: 57 [55,57]
58 Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete Graphen).3 Anwendung: Netzwerkflüsse.4 Mehrgüterflussprobleme.5 Ganzzahlige und Kombinatorische Optimierung.6 Branch-and-Bound.7 Konvexe Mengen, konvexe Hülle, konvexe Funktionen.8 Relaxation.9 Anwendung: Rundreiseprobleme (TSP).0 Finden guter Lösungen, Heuristiken. Gemischt-ganzzahlige Optimierung 28: 58 [58,58]
59 .6 Branch-and-Bound Beim systematischen Enumerieren aller Lösungen sollen möglichst viele frühzeitig durch obere und untere Schranken ausgeschlossen werden. 29: 59 [59,59] Bsp: {0, }-Rucksack: Gewichte a N n, Kapazität b N, Nutzen c N n, max c T x s.t. a T x b, x {0, } n Obere Schranke: max c T x s.t. a T x b, x [0, ] n [LP-Relaxation] Untere Schranke: Sortiere nach Nutzen/Gewicht und fülle danach auf Ablaufskizze (für Maximierungsprobleme): M... Menge offener Probleme, anfangs M = {Ursprungsproblem} f... Wert der besten bekannten Lösung, anfangs f =. Falls M = STOP, sonst wähle P M, M M \ {P} 2. Berechne obere Schranke f (P). 3. Falls f (P) < f (P enthält keine OL), gehe zu. 4. Berechne zulässige Lösung ˆf (P) für P (untere Schranke). 5. Ist ˆf (P) > f (neue beste Lösung), setze f ˆf (P) 6. Ist f (P) = ˆf (P) (keine bessere Lösung in P), gehe zu. 7. Teile P in kleinere Teilprobleme P i, M M {P,..., P k } 8. Gehe zu.
60 Beispiel: {0, }-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) Nutzen (c) Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 4, x [0, ] 6 [LP-Relaxation] Untere Schranke: Nach Sortierung möglichst lange auffüllen 30: 60 [60,67]
61 Beispiel: {0, }-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) Nutzen (c) Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 4, x [0, ] 6 Untere Schranke: Nach Sortierung möglichst lange auffüllen P : Originalproblem OS: C A=34 US: C +D +F =30 [LP-Relaxation] 30: 6 [60,67]
62 Beispiel: {0, }-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) Nutzen (c) Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 4, x [0, ] 6 Untere Schranke: Nach Sortierung möglichst lange auffüllen P : Originalproblem OS: C A=34 US: C +D +F =30 x A 0 [LP-Relaxation] 30: 62 [60,67]
63 Beispiel: {0, }-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) Nutzen (c) Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 4, x [0, ] 6 Untere Schranke: Nach Sortierung möglichst lange auffüllen P : Originalproblem OS: C A=34 US: C +D +F =30 P 2 : x A = x B =x C =0 OS: A + D + 3 F = OS <30 keine OL x A 0 [LP-Relaxation] 30: 63 [60,67]
64 Beispiel: {0, }-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) Nutzen (c) Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 4, x [0, ] 6 Untere Schranke: Nach Sortierung möglichst lange auffüllen P : Originalproblem OS: C A=34 US: C +D +F =30 P 2 : x A = x B =x C =0 OS: A + D + 3 F = OS <30 keine OL x A 0 P 3 : x A =0 OS: C +D +F + 4 E =3 2 US: C +D +F =30 [LP-Relaxation] 30: 64 [60,67]
65 Beispiel: {0, }-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) Nutzen (c) Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 4, x [0, ] 6 Untere Schranke: Nach Sortierung möglichst lange auffüllen P : Originalproblem OS: C A=34 US: C +D +F =30 P 2 : x A = x B =x C =0 OS: A + D + 3 F = OS <30 keine OL x A 0 P 3 : x A =0 OS: C +D +F + 4 E =3 2 US: C +D +F =30 x E 0 [LP-Relaxation] 30: 65 [60,67]
66 Beispiel: {0, }-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) Nutzen (c) : 66 [60,67] Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 4, x [0, ] 6 Untere Schranke: Nach Sortierung möglichst lange auffüllen P : Originalproblem OS: C A=34 US: C +D +F =30 P 2 : x A = x B =x C =0 OS: A + D + 3 F = OS <30 keine OL x A 0 P 4 : x A =0, x E = OS: E +C +D =3 US: E +C +D =3 P 3 : x A =0 OS: C +D +F + 4 E =3 2 US: C +D +F =30 x E 0 [LP-Relaxation]
67 Beispiel: {0, }-Rucksackproblem Gegenstand A B C D E F Kapazität Gewicht(a) Nutzen (c) : 67 [60,67] Sortierung Nutzen/Gewicht: C > A > D > F > E > B. Obere Schranke: max c T x s.t. a T x 4, x [0, ] 6 Untere Schranke: Nach Sortierung möglichst lange auffüllen P : Originalproblem OS: C A=34 US: C +D +F =30 P 2 : x A = x B =x C =0 OS: A + D + 3 F = OS <30 keine OL x A 0 P 4 : x A =0, x E = OS: E +C +D =3 US: E +C +D =3 P 3 : x A =0 OS: C +D +F + 4 E =3 2 US: C +D +F =30 x E 0 [LP-Relaxation] P 5 : x A =x E =0 OS: C+ D +F + 7 B = OS <3 keine OL
68 Immer dann wird der Branch&Bound Baum groß werden, wenn viele Lösungen sehr nahe an der Optimallösung sind. Entscheidend für den Erfolg von Branch&Bound: Wie kommt man zu guten oberen und unteren Schranken? 3: 68 [68,68]
69 Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete Graphen).3 Anwendung: Netzwerkflüsse.4 Mehrgüterflussprobleme.5 Ganzzahlige und Kombinatorische Optimierung.6 Branch-and-Bound.7 Konvexe Mengen, konvexe Hülle, konvexe Funktionen.8 Relaxation.9 Anwendung: Rundreiseprobleme (TSP).0 Finden guter Lösungen, Heuristiken. Gemischt-ganzzahlige Optimierung 32: 69 [69,69]
70 .7 Konvexe Mengen und konvexe Hülle Eine Menge C R n heißt konvex, wenn für alle x, y C auch die Verbindungsstrecke [x, y] := {αx + ( α)y : α [0, ]} in C liegt. 33: 70 [70,74]
71 .7 Konvexe Mengen und konvexe Hülle Eine Menge C R n heißt konvex, wenn für alle x, y C auch die Verbindungsstrecke [x, y] := {αx + ( α)y : α [0, ]} in C liegt. Bspe:, R n, Halbräume, der Schnitt konvexer Mengen ist konvex, Polyeder, der k-dim. Einheitssimplex k := {α R k + : k i= α i = } Halbraum Schnitt 3 33: 7 [70,74]
72 .7 Konvexe Mengen und konvexe Hülle Eine Menge C R n heißt konvex, wenn für alle x, y C auch die Verbindungsstrecke [x, y] := {αx + ( α)y : α [0, ]} in C liegt. Bspe:, R n, Halbräume, der Schnitt konvexer Mengen ist konvex, Polyeder, der k-dim. Einheitssimplex k := {α R k + : k i= α i = } Für S R n ist die konvexe Hülle der Schnitt aller konvexen Mengen, die S enthalten, conv S := {C konvex : S C}. 33: 72 [70,74]
73 .7 Konvexe Mengen und konvexe Hülle Eine Menge C R n heißt konvex, wenn für alle x, y C auch die Verbindungsstrecke [x, y] := {αx + ( α)y : α [0, ]} in C liegt. Bspe:, R n, Halbräume, der Schnitt konvexer Mengen ist konvex, Polyeder, der k-dim. Einheitssimplex k := {α R k + : k i= α i = } Für S R n ist die konvexe Hülle der Schnitt aller konvexen Mengen, die S enthalten, conv S := {C konvex : S C}. Für gegebene Punkte x (i) R n, i {,..., k} und α k heißt x = α i x (i) Konvexkombination der Punkte x (i) : 73 [70,74] 0.4
74 .7 Konvexe Mengen und konvexe Hülle Eine Menge C R n heißt konvex, wenn für alle x, y C auch die Verbindungsstrecke [x, y] := {αx + ( α)y : α [0, ]} in C liegt. Bspe:, R n, Halbräume, der Schnitt konvexer Mengen ist konvex, Polyeder, der k-dim. Einheitssimplex k := {α R k + : k i= α i = } Für S R n ist die konvexe Hülle der Schnitt aller konvexen Mengen, die S enthalten, conv S := {C konvex : S C}. Für gegebene Punkte x (i) R n, i {,..., k} und α k heißt x = α i x (i) Konvexkombination der Punkte x (i). conv S ist die Menge aller Konvexkombinationen endlich vieler Punkte aus S, conv S = { k i= α ix (i) : x (i) S, i =,..., k N, α k }. 33: 74 [70,74]
75 Konvexe Hülle und ganzz. Optimierung Satz Die konvexe Hülle endlich vieler Punkte ist ein (beschränktes) Polyeder. 34: 75 [75,77]
76 Konvexe Hülle und ganzz. Optimierung Satz Die konvexe Hülle endlich vieler Punkte ist ein (beschränktes) Polyeder. Die ganzzahlige Hülle eines Polyeders P = {x R n : Ax b} ist die konvexe Hülle der in P enthaltenen ganzz. Punkte, P I := conv(p Z n ). Satz Ist A Q m n und b Q m, dann ist die ganzz. Hülle P I des Polyeders P = {x R n : Ax b} selbst ein Polyeder. Problem: Beschreibung von P I meist unbekannt oder extrem groß! P P I [Ausnahme z.b. für A tot. unimod., b Z n ist P = P I ] 34: 76 [75,77]
77 Konvexe Hülle und ganzz. Optimierung Satz Die konvexe Hülle endlich vieler Punkte ist ein (beschränktes) Polyeder. Die ganzzahlige Hülle eines Polyeders P = {x R n : Ax b} ist die konvexe Hülle der in P enthaltenen ganzz. Punkte, P I := conv(p Z n ). Satz Ist A Q m n und b Q m, dann ist die ganzz. Hülle P I des Polyeders P = {x R n : Ax b} selbst ein Polyeder. Problem: Beschreibung von P I meist unbekannt oder extrem groß! Falls die ganzzahlige Hülle gut linear beschreibbar ist, kann man das ganzzahlige Optimierungsproblem mit Simplex lösen: Satz Ist für P = {x R n : Ax b} die ganzzahlige Hülle durch P I = {x R n : A I x b I } gegeben, so gilt: sup{c T x : A I x b I, x R n } = sup{c T x : Ax b, x Z n }, Argmin{c T x : A I x b I, x R n } = conv Argmin{c T x : Ax b, x Z n }. 34: 77 [75,77]
78 Konvexe Funktionen Eine Funktion f : R n R := R { } heißt konvex, wenn f (αx + ( α)y) αf (x) + ( α)f (y) für x, y R n und α [0, ]. Sie heißt streng konvex, wenn f (αx + ( α)y) < αf (x) + ( α)f (y) für x, y R n, x y und α (0, ). f(x) f(x) f(y) f(y) x y x y 35: 78 [78,83]
79 Konvexe Funktionen Eine Funktion f : R n R := R { } heißt konvex, wenn f (αx + ( α)y) αf (x) + ( α)f (y) für x, y R n und α [0, ]. Sie heißt streng konvex, wenn f (αx + ( α)y) < αf (x) + ( α)f (y) für x, y R n, x y und α (0, ). Der Epigraph {( einer ) Funktion f : R n } R ist die Menge x epi f := : x R r n, r f (x) [die Punkte oberhalb von f (x)] epi f epi f 35: 79 [78,83]
80 Konvexe Funktionen Eine Funktion f : R n R := R { } heißt konvex, wenn f (αx + ( α)y) αf (x) + ( α)f (y) für x, y R n und α [0, ]. Sie heißt streng konvex, wenn f (αx + ( α)y) < αf (x) + ( α)f (y) für x, y R n, x y und α (0, ). Der Epigraph {( einer ) Funktion f : R n } R ist die Menge x epi f := : x R r n, r f (x) [die Punkte oberhalb von f (x)] Satz Eine Funktion ist genau dann konvex, wenn ihr Epigraph konvex ist. epi f epi f 35: 80 [78,83]
81 Konvexe Funktionen Eine Funktion f : R n R := R { } heißt konvex, wenn f (αx + ( α)y) αf (x) + ( α)f (y) für x, y R n und α [0, ]. Sie heißt streng konvex, wenn f (αx + ( α)y) < αf (x) + ( α)f (y) für x, y R n, x y und α (0, ). Der Epigraph {( einer ) Funktion f : R n } R ist die Menge x epi f := : x R r n, r f (x) [die Punkte oberhalb von f (x)] Satz Eine Funktion ist genau dann konvex, wenn ihr Epigraph konvex ist. Bsp: Sind f i : R n R konvex, so auch f mit f (x) := sup i f i (x), x R n. f epi f fk f2 f3 35: 8 [78,83]
82 Konvexe Funktionen Eine Funktion f : R n R := R { } heißt konvex, wenn f (αx + ( α)y) αf (x) + ( α)f (y) für x, y R n und α [0, ]. Sie heißt streng konvex, wenn f (αx + ( α)y) < αf (x) + ( α)f (y) für x, y R n, x y und α (0, ). Der Epigraph {( einer ) Funktion f : R n } R ist die Menge x epi f := : x R r n, r f (x) [die Punkte oberhalb von f (x)] Satz Eine Funktion ist genau dann konvex, wenn ihr Epigraph konvex ist. Bsp: Sind f i : R n R konvex, so auch f mit f (x) := sup i f i (x), x R n. Satz Jedes lokale Minimum einer konvexen Funktion ist auch globales Minimum, und für streng konvexe Funktionen ist es das einzige. Für konvexe Funktionen gibt es gute Optimierungsverfahren. 35: 82 [78,83]
83 Konvexe Funktionen Eine Funktion f : R n R := R { } heißt konvex, wenn f (αx + ( α)y) αf (x) + ( α)f (y) für x, y R n und α [0, ]. Sie heißt streng konvex, wenn f (αx + ( α)y) < αf (x) + ( α)f (y) für x, y R n, x y und α (0, ). Der Epigraph {( einer ) Funktion f : R n } R ist die Menge x epi f := : x R r n, r f (x) [die Punkte oberhalb von f (x)] Satz Eine Funktion ist genau dann konvex, wenn ihr Epigraph konvex ist. Bsp: Sind f i : R n R konvex, so auch f mit f (x) := sup i f i (x), x R n. Satz Jedes lokale Minimum einer konvexen Funktion ist auch globales Minimum, und für streng konvexe Funktionen ist es das einzige. Für konvexe Funktionen gibt es gute Optimierungsverfahren. Eine Funktion f heißt konkav, wenn f konvex ist. (Jedes lokale Maximum einer konkaven Funktion ist auch globales.) 35: 83 [78,83]
84 Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete Graphen).3 Anwendung: Netzwerkflüsse.4 Mehrgüterflussprobleme.5 Ganzzahlige und Kombinatorische Optimierung.6 Branch-and-Bound.7 Konvexe Mengen, konvexe Hülle, konvexe Funktionen.8 Relaxation.9 Anwendung: Rundreiseprobleme (TSP).0 Finden guter Lösungen, Heuristiken. Gemischt-ganzzahlige Optimierung 36: 84 [84,84]
85 .8 Relaxation Konzept auf beliebige Optimierungsprobleme anwendbar (hier Maximieren): Definition Gegeben zwei Optimierungsprobleme mit X, W R n und f, f : R n R (OP) max f (x) s.t. x X bzw. (RP) max f (x) s.t. x W, (RP) heißt Relaxation von (OP), falls. X W, 2. f (x) f (x) für alle x X. 37: 85 [85,87]
86 .8 Relaxation Konzept auf beliebige Optimierungsprobleme anwendbar (hier Maximieren): Definition Gegeben zwei Optimierungsprobleme mit X, W R n und f, f : R n R (OP) max f (x) s.t. x X bzw. (RP) max f (x) s.t. x W, (RP) heißt Relaxation von (OP), falls. X W, 2. f (x) f (x) für alle x X. Sei (RP) eine Relaxation von (OP). Beobachtung. v(rp) v(op). [(RP) liefert obere Schranke] 2. Ist (RP) unzulässig, so auch (OP), 3. Ist x OL von (RP) und gilt x X sowie f (x ) = f (x ), dann ist x OL von (OP). 37: 86 [85,87]
87 .8 Relaxation Konzept auf beliebige Optimierungsprobleme anwendbar (hier Maximieren): 37: 87 [85,87] Definition Gegeben zwei Optimierungsprobleme mit X, W R n und f, f : R n R (OP) max f (x) s.t. x X bzw. (RP) max f (x) s.t. x W, (RP) heißt Relaxation von (OP), falls. X W, 2. f (x) f (x) für alle x X. Sei (RP) eine Relaxation von (OP). Beobachtung. v(rp) v(op). [(RP) liefert obere Schranke] 2. Ist (RP) unzulässig, so auch (OP), 3. Ist x OL von (RP) und gilt x X sowie f (x ) = f (x ), dann ist x OL von (OP). Man sucht nun möglichst kleines W X und f f so, dass (RP) noch gut lösbar ist. Eine Relaxation (RP) von (OP) heißt exakt, falls v(op) = v(rp) gilt.
88 Allgemein: Konvexe Relaxation Wird Konvexität für W und (bei max) Konkavität für f gefordert, spricht man von konvexer Relaxation. Meist (aber nicht immer!) dient die Konvexität als Garant für vernünftige Lösbarkeit der Relaxation. 38: 88 [88,90]
89 Allgemein: Konvexe Relaxation Wird Konvexität für W und (bei max) Konkavität für f gefordert, spricht man von konvexer Relaxation. Meist (aber nicht immer!) dient die Konvexität als Garant für vernünftige Lösbarkeit der Relaxation. Bsp: Für ein kombinatorisches Max.-Problem mit endl. Grundmenge Ω, zulässigen Lösungen F 2 Ω und linearer Zielfunktion c R Ω ist max c T x s.t. x conv{χ Ω (F ) : F F} eine exakte konvexe (sogar lineare) Relaxation, aber nur dann nützlich, wenn das Polyeder conv{χ(f ) : F F} gut durch ein nicht zu großes Ungleichungssystem Ax b darstellbar ist. 38: 89 [88,90]
90 Allgemein: Konvexe Relaxation Wird Konvexität für W und (bei max) Konkavität für f gefordert, spricht man von konvexer Relaxation. Meist (aber nicht immer!) dient die Konvexität als Garant für vernünftige Lösbarkeit der Relaxation. 38: 90 [88,90] Bsp: Für ein kombinatorisches Max.-Problem mit endl. Grundmenge Ω, zulässigen Lösungen F 2 Ω und linearer Zielfunktion c R Ω ist max c T x s.t. x conv{χ Ω (F ) : F F} eine exakte konvexe (sogar lineare) Relaxation, aber nur dann nützlich, wenn das Polyeder conv{χ(f ) : F F} gut durch ein nicht zu großes Ungleichungssystem Ax b darstellbar ist. In der globalen Optimierung werden auf Teilintervallen nichtlineare Funktionen nach unten durch konvexe Funktionen abgeschätzt. Bsp: Betrachte (OP) min f (x) := 2 x T Qx + q T x s.t. x [0, ] n mit f nicht konvex, d.h., λ min (Q) < 0. [λ min... minimaler Eigenwert] Es ist Q λ min (Q)I positiv semidefinit und wegen xi 2 x i auf [0, ] n gilt f (x) := 2 x T (Q λ min (Q)I )x +(q +λ min (Q)) T x f (x) x [0, ] n. Damit ist (RP) min f (x) s.t. x [0, ] n eine konvexe Relaxation von (OP).
91 Die LP-Relaxation für Ganzzahlige Programme Für ein ganzzahliges Programm max c T x s.t. Ax b, x Z n entsteht die LP-Relaxation durch Weglassen der Ganzz.-Bedingung, max c T x s.t. Ax b, x R n. Ist Relaxation, denn X := {x Z n : Ax b} {x R n : Ax b} =: W. [wird von allen Standardlösern für gemischt-ganzz. Programme verwendet] 39: 9 [9,95]
92 Die LP-Relaxation für Ganzzahlige Programme Für ein ganzzahliges Programm max c T x s.t. Ax b, x Z n entsteht die LP-Relaxation durch Weglassen der Ganzz.-Bedingung, max c T x s.t. Ax b, x R n. Ist Relaxation, denn X := {x Z n : Ax b} {x R n : Ax b} =: W. [wird von allen Standardlösern für gemischt-ganzz. Programme verwendet] Bsp: Rucksackproblem: n = 2, Gewichte a = (6, 8) T, Kapazität b = 0, max c T x s.t. a T x b, x Z n + max c T x s.t. a T x b, x 0, x 2 a zulässige ganzzahlige Punkte: LP-Relaxation: grün beste Relaxation: die konvexe Hülle x 39: 92 [9,95]
93 Die LP-Relaxation für Ganzzahlige Programme Für ein ganzzahliges Programm max c T x s.t. Ax b, x Z n entsteht die LP-Relaxation durch Weglassen der Ganzz.-Bedingung, max c T x s.t. Ax b, x R n. Ist Relaxation, denn X := {x Z n : Ax b} {x R n : Ax b} =: W. [wird von allen Standardlösern für gemischt-ganzz. Programme verwendet] Bsp: Rucksackproblem: n = 2, Gewichte a = (6, 8) T, Kapazität b = 0, max c T x s.t. a T x b, x Z n + max c T x s.t. a T x b, x 0, x 2 a zulässige ganzzahlige Punkte: LP-Relaxation: grün beste Relaxation: die konvexe Hülle x 39: 93 [9,95]
94 Die LP-Relaxation für Ganzzahlige Programme Für ein ganzzahliges Programm max c T x s.t. Ax b, x Z n entsteht die LP-Relaxation durch Weglassen der Ganzz.-Bedingung, max c T x s.t. Ax b, x R n. Ist Relaxation, denn X := {x Z n : Ax b} {x R n : Ax b} =: W. [wird von allen Standardlösern für gemischt-ganzz. Programme verwendet] Bsp: Rucksackproblem: n = 2, Gewichte a = (6, 8) T, Kapazität b = 0, max c T x s.t. a T x b, x Z n + max c T x s.t. a T x b, x 0, x 2 a zulässige ganzzahlige Punkte: LP-Relaxation: grün beste Relaxation: die konvexe Hülle x 39: 94 [9,95]
95 Die LP-Relaxation für Ganzzahlige Programme Für ein ganzzahliges Programm max c T x s.t. Ax b, x Z n entsteht die LP-Relaxation durch Weglassen der Ganzz.-Bedingung, max c T x s.t. Ax b, x R n. Ist Relaxation, denn X := {x Z n : Ax b} {x R n : Ax b} =: W. [wird von allen Standardlösern für gemischt-ganzz. Programme verwendet] Bsp: ganzzahliger Mehrgüterfluss gebrochener Mehrgüterfluss s s s s auch zu groß, bräuchten die konvexe Hülle t t ganzz. geht nicht, X = t t gebrochen geht, W 39: 95 [9,95]
96 Lagrange-Relaxation [Allg. für restr. Opt. verwendbar, hier vorerst nur Unglgs.-Nebenbed.] Unbequeme Nebenbedingungen werden mit einem Lagrangemultiplikator, der die Verletzung bestraft, in die Zielfunktion gehoben (g : R n R k ): (OP) max f (x) s.t. g(x) 0 λ 0 x Ω (RP λ ) max s.t. c T x λ T g(x) x Ω Ist Relaxation: X := {x Ω : g(x) 0} {x Ω} =: W und für x X, λ 0 gilt f (x) f (x) λ T g(x) =: f (x) wegen g(x) 0. 40: 96 [96,97]
97 Lagrange-Relaxation [Allg. für restr. Opt. verwendbar, hier vorerst nur Unglgs.-Nebenbed.] Unbequeme Nebenbedingungen werden mit einem Lagrangemultiplikator, der die Verletzung bestraft, in die Zielfunktion gehoben (g : R n R k ): (OP) max f (x) s.t. g(x) 0 λ 0 x Ω (RP λ ) max s.t. c T x λ T g(x) x Ω Ist Relaxation: X := {x Ω : g(x) 0} {x Ω} =: W und für x X, λ 0 gilt f (x) f (x) λ T g(x) =: f (x) wegen g(x) 0. Definiere die duale Funktion ϕ(λ) := sup x Ω [ f (x) g(x) T λ ] = v(rp λ ) [für jedes feste x linear in λ] Für jedes λ 0 gilt ϕ(λ) v(op) [obere Schranke] ϕ(λ) gut berechenbar, falls (RP λ ) leicht lösbar ϕ ist als sup von in λ linearen Funktionen konvex Beste Schranke ist inf{ϕ(λ) : λ 0} [konvexes Problem!] gut mit Verfahren der konvexen Optimierung bestimmbar! 40: 97 [96,97]
98 Beispiel: Ganzzahliger Mehrgüterfluss A sei die Knoten-Kanten-Inz.-Matrix zu D = (V, E), 2 Güter, Lagrange-Relaxation der koppelnden Kapazitätsbedingungen mit λ 0: min c ()T x () + c (2)T x (2) s.t. Ax () = b () Ax (2) = b (2) λ x () + x (2) w x () w, x (2) w x () Z E +, x (2) Z E +. min (c () +λ) T x () +(c (2) +λ) T x (2) λ T w s.t. Ax () =b () Ax (2) =b (2) x () w, x (2) w, x () Z E +, x (2) Z E +. Relaxation zerfällt in zwei unabhängige Minimale-Kosten-Fluss-Probleme (RP (i) λ ) min (c(i) +λ) T x (i) s.t. Ax (i) = b (i), w x (i) Z E + i {, 2} Diese sind effizient ganzzahlig lösbar! 4: 98 [98,99]
99 Beispiel: Ganzzahliger Mehrgüterfluss A sei die Knoten-Kanten-Inz.-Matrix zu D = (V, E), 2 Güter, Lagrange-Relaxation der koppelnden Kapazitätsbedingungen mit λ 0: min c ()T x () + c (2)T x (2) s.t. Ax () = b () Ax (2) = b (2) λ x () + x (2) w x () w, x (2) w x () Z E +, x (2) Z E +. 4: 99 [98,99] min (c () +λ) T x () +(c (2) +λ) T x (2) λ T w s.t. Ax () =b () Ax (2) =b (2) x () w, x (2) w, x () Z E +, x (2) Z E +. Relaxation zerfällt in zwei unabhängige Minimale-Kosten-Fluss-Probleme (RP (i) λ ) min (c(i) +λ) T x (i) s.t. Ax (i) = b (i), w x (i) Z E + i {, 2} Diese sind effizient ganzzahlig lösbar! Zerfällt das Problem bei Lagrange-Relaxation in unabhängige Teilprobleme, nennt man das Lagrange-Dekomposition. Damit können oft deutlich größere Probleme sehr effizient gelöst werden. Bekommt man dadurch auch eine bessere Schranke?
100 Vergleich Lagrange- und LP-Relaxation Sei Ω Z n endlich und D Q k n, d Q k, (OP) max c T x s.t. Dx d λ 0 x Ω (RP λ ) max ct x + λ T (d Dx) s.t. x Ω Im Bsp: Ω = Ω () Ω (2) mit Ω (i) = {x Z E + : Ax = b (i), x w}, i {, 2}. Satz inf v(rp λ) = sup{c T x : Dx d, x conv Ω}. λ 0 Ist conv Ω gleich der zulässigen Menge der LP-Relaxation von Ω, sind die Werte der besten Lagrange- und der LP-Relaxation gleich! 42: 00 [00,02]
Inhaltsübersicht für heute:
Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Anwendung: Das Heiratsproblem Ganzzahligkeit von Polyedern Anwendung: Netzwerkflüsse Mehrgüterflussprobleme Ganzzahlige Optimierung Inhaltsübersicht für heute: Anwendung: Das
MehrDiskrete Optimierung (Einführung zur Vorlesung)
Diskrete Optimierung (Einführung zur Vorlesung) Christoph Helmberg : [,] Inhaltsübersicht Ganzzahlige Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS200/ / 29Lineare Optimierung 30Der Simplex-Algorithmus 3Das Heiratsproblem 32Ganzzahligkeit von Polyedern 33Ne Inhaltsübersicht 29Lineare Optimierung
MehrOptimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze
MehrOptimierung. Vorlesung 08
Optimierung Vorlesung 08 Heute Dualität Ganzzahligkeit Optimierung der Vorlesung durch Evaluierung 2 Das duale LP Das primale LP Maximiere c T x unter Ax b, x R d 0. wird zu dem dualen LP Minimiere b T
MehrOptimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn
Optimierung Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung 1 Assignment Problem (Zuordnungsproblem) Gewichtetes Perfektes Bipartites Matching agents Costs tasks Weise jedem Agenten genau
MehrVorlesung Lineare Optimierung (Sommersemester 2007)
1 Vorlesung Lineare Optimierung (Sommersemester 007) Kapitel 9: Ganzzahlige Polyeder und Kombinatorische Dualität Volker Kaibel Otto-von-Guericke Universität Magdeburg Montag, 9. Juli 007 Gliederung Ganzzahlige
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung
MehrKAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN
KPITEL 6 GNZZHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULRE MTRIZEN F. VLLENTIN,. GUNDERT. Ganzzahlige lineare Programme Viele Optimierungsprobleme des Operations Research lassen sich als ganzzahlige lineare
MehrKap. 3: Exakte Lösungsverfahren für NPschwierige. Optimierungsprobleme VO Algorithm Engineering
Kap. 3: Exakte Lösungsverfahren für NPschwierige kombinatorische Optimierungsprobleme VO Algorithm Engineering 3.1 Einführung Professor Dr. Petra Mutzel 3.2 Komb. vs. Ganzzahlige Opt. Lehrstuhl für Algorithm
Mehr2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
MehrEcken des Zuordnungsproblems
Total unimodulare Matrizen Ecken des Zuordnungsproblems Definition.6 Ein Zuordnungsproblem mit den Vorzeichenbedingungen 0 apple x ij apple für i, j =,...,n statt x ij 2{0, } heißt relaxiertes Zuordnungproblem.
MehrGanzzahlige lineare Programme
KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.
MehrKapitel 9: Lineare Programmierung Gliederung
Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen
MehrLiteratur für diese VO. Überblick. Kap. 5: Approximationsalgorithmen für kombinatorische Optimierungsprobleme
Kap. : Approximationsalgorithmen für kombinatorische Optimierungsprobleme Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS Fakultät für Informatik, TU Dortmund Literatur für diese VO
MehrOperations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung.
Operations Research Rainer Schrader Flüsse in Netzwerken Zentrum für Angewandte Informatik Köln 2. Juli 2007 1 / 53 2 / 53 Flüsse in Netzwerken Unimodularität Gliederung Netzwerke und Flüsse bipartite
MehrKap. 5: Approximationsalgorithmen für kombinatorische Optimierungsprobleme
Kap. 5: Approximationsalgorithmen für kombinatorische Optimierungsprobleme Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18./20. VO A&D WS 08/09
MehrOptimierungsprobleme. B. Langfeld, M. Ritter, B. Wilhelm Diskrete Optimierung: Fallstudien aus der Praxis
Optimierungsprobleme Instanz eines Optimierungsproblems zulässiger Bereich (meist implizit definiert) Zielfunktion Optimierungsrichtung opt {max, min} Optimierungsproblem Menge von Instanzen meist implizit
MehrOperations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.
Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme
MehrAlgorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme
10 Matching-Probleme 10.1 Definition von Matching-Probleme Definition 21 [2-dimensionales Matching] Sei G = (V, E) ein ungerichteter Graph und E E. E ist ein Matching, wenn für alle Kantenpaare e 1, e
MehrKlausurvorbereitung. 1 Zentrale Begriffe. 2 Bipartite Graphen. 2.1 Begriffe. Vorlesung Graphen und Optimierung Sommersemester 2011 Prof. S.
Vorlesung Graphen und Optimierung Sommersemester 2011 Prof. S. Lange Klausurvorbereitung Hier finden Sie alle Begriffe, Zusammenhänge und Algorithmen, die mit Blick auf die Klausur relevant sind. Um es
MehrEffiziente Algorithmen I 11. Übungsblatt, Wintersemester 2015/16 Abgabetermin:
11 11. Übungsblatt, Wintersemester 2015/16 Abgabetermin: 19.01.2016 Aufgabe 29 Bestimmen Sie mit der Stepping-Stone-ethode einen Transportplan mit minimalen Kosten für das klassische Transportproblem mit
MehrBetriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 22 1 Das Travelling Salesperson Problem
MehrKombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
MehrBetriebswirtschaftliche Optimierung
Institut für Statistik und OR Uni Graz 1 Das Travelling Salesperson Problem 2 Das Travelling Salesperson Problem Zentrales Problem der Routenplanung Unzählige wissenschaftliche Artikel theoretischer sowie
MehrApproximationsalgorithmen. 19. Dezember / 28
Approximationsalgorithmen 19. Dezember 2017 1 / 28 Optimierungsprobleme Das Ziel: Bearbeite schwierige Optimierungsprobleme der Form opt y f (x, y) so dass L(x, y). Die Zielfunktion f (x, y) ist zu minimieren
MehrEffiziente Algorithmen I
9. Präsenzaufgabenblatt, WiSe 2013/14 Übungstunden am 13.01. & 15.01.2014 Aufgabe Q Gegeben sei ein Fluss-Netzwerk mit Digraph D = (V, A), Knotenkapazitäten c(u, v) 0, Quelle s und Senke t. Kann sich der
MehrDas Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering
Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme
MehrApproximierbarkeit. Definition. Ein Optimierungsproblem P ist gegeben durch ein Quadrupel. P = (I, Sol, m, goal), wobei:
Approximierbarkeit Ein Optimierungsproblem P ist gegeben durch ein Quadrupel wobei: P = (I, Sol, m, goal), I ist die Menge der Instanzen von P. Sol ist eine Funktion, die ein x I abbildet auf die Menge
MehrFlüsse und Zuordnungen. Kapitel 6. Peter Becker (H-BRS) Graphentheorie Wintersemester 2018/ / 296
Kapitel 6 Peter Becker (H-BRS) Graphentheorie Wintersemester 2018/19 227 / 296 Inhalt Inhalt 6 Flussnetzwerke Berechnung maximaler Flüsse Max-Flow-Min-Cut Matchings Peter Becker (H-BRS) Graphentheorie
MehrTrennender Schnitt. Wie groß kann der Fluss in dem folgenden Flussnetzwerk höchstens sein?
6. Flüsse und Zuordnungen max-flow min-cut Trennender Schnitt Wie groß kann der Fluss in dem folgenden Flussnetzwerk höchstens sein? a e s c d t b f Der Fluss kann nicht größer als die Kapazität der der
MehrApproximationsalgorithmen
Approximationsalgorithmen 1. Vorlesung Joachim Spoerhase Alexander Wolff Lehrstuhl für Informatik I Wintersemester 2017/18 Bücher zur Vorlesung Vijay V. Vazirani Approximation Algorithms Springer-Verlag
MehrEinführung in die Mathematik des Operations Research
Universität zu Köln Mathematisches Institut Prof. Dr. F. Vallentin Einführung in die Mathematik des Operations Research Sommersemester 3 en zur Klausur (7. Oktober 3) Aufgabe ( + 3 + 5 = Punkte). Es sei
MehrInhalt. 2 Transportoptimierung Das klassische Transportproblern Modell 73
Inhalt 1 Lineare Optimierung 13 1.1 Das Modell der linearen Optimierung 13 1.2 Graphische Lösung 20 1.3 Der primale Simplexalgorithmus 23 1.3.1 Grundlagen 24 1.3.2 Der Optimalitätstest 27 1.3.3 Verbesserungsschritt
Mehr1 Matroide. 1.1 Definitionen und Beispiele. Seminar zur ganzzahligen Optimierung Thema: Durchschnitt von Matroiden - Satz von Edmonds von Dany Sattler
Seminar zur ganzzahligen Optimierung Thema: Durchschnitt von Matroiden - Satz von Edmonds von Dany Sattler 1 Matroide 1.1 Definitionen und Beispiele 1. Definition (Unabhängigkeitssystem): Ein Mengensystem
MehrComputer Science Department - High Performance and Web Computing Group. Optimierungsprobleme
Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter
MehrAlgorithmische Mathematik I
Algorithmische Mathematik I Wintersemester 2011 / 2012 Prof. Dr. Sven Beuchler Peter Zaspel Übungsblatt zur Wiederholung Teil 1. Abgabe am -. Aufgabe 1. a) Was ist eine B-adische Darstellung mit fixer
MehrEffiziente Algorithmen II
10. Präsenzaufgabenblatt, WiSe 2014/15 Übungstunde am 19.01.2015 Aufgabe Q Betrachten Sie das Knapsackpolytop P = conv(v ) mit V = {x n i=1 a ix i α} {0, 1} n für gegebenes α und a i 0 (insbesondere ist
Mehr3.6 Branch-and-Bound-Verfahren
36 Branch-and-Bound-Verfahren Die Branch-and-Bound -Methode beruht darauf, auf eine intelligente Weise alle zulässigen Lösungen eines kombinatorischen Optimierungsproblems aufzulisten und mit Hilfe von
MehrInhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen
Inhalt Problemstellung und Überblick Allgemeine Problemstellung und Terminologie Überblick über spezielle Klassen von Optimierungsproblemen 40: 40 [40,40] 2.1 Das Optimierungsproblem in allgemeiner Form
MehrAlgorithmische Graphentheorie
Algorithmische Graphentheorie Sommersemester 204 4. Vorlesung Matchings / Paarungen Kombinatorische Anwendungen des Max-Flow-Min-Cut-Theorems Prof. Dr. Alexander Wolff 2 Paarungen (Matchings) Def. Sei
MehrAufgaben zur Klausurvorbereitung
Vorlesung Graphen und Optimierung Sommersemester 2013/14 Prof. S. Lange Aufgaben zur Klausurvorbereitung Hier finden Sie eine Reihe von Übungsaufgaben, die wir an den beiden Vorlesungsterminen am 29.01.2014
MehrDas Multi Traveling Salesman Problem
Das Multi Traveling Salesman Problem Harald Voit Seminar Ganzzahlige Optimierung 19. bis 21. Januar 2007 Wallenfels Das Multi Traveling Salesman Problem p.1/26 Übersicht Vom TSP zum ATSP Das Multi Traveling
Mehr3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)
3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände
MehrChinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151
Inhaltsverzeichnis 1 Kernkonzepte der linearen Optimierung... 1 1.1 Einführung... 1 1.2 Grundlegende Definitionen... 8 1.3 Grafische Lösung... 10 1.4 Standardform und grundlegende analytische Konzepte...
MehrKlausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2005/2006
Universität Hannover Wirtschaftswissenschaftliche Fakultät Lehrstuhl für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 005/006
MehrEinführung in das Seminar Algorithmentechnik
Einführung in das Seminar Algorithmentechnik 10. Mai 2012 Henning Meyerhenke, Roland Glantz 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Roland undglantz: nationales Einführung Forschungszentrum
MehrEffiziente Algorithmen I
H 10. Präsenzaufgabenblatt, Wintersemester 2015/16 Übungstunde am 18.01.2015 Aufgabe Q Ein Reiseveranstalter besitzt ein Flugzeug, das maximal p Personen aufnehmen kann. Der Veranstalter bietet einen Flug
MehrDie Verbindung von Linearer Programmierung und Graphentheorie
Die Verbindung von Linearer Programmierung und Graphentheorie Definition 5.9. Ein kombinatorisches Optimierungsproblem entspricht einem LP, bei dem statt der Vorzeichenbedingungen x i 0 Bedingungen der
MehrWir gewichten die Kanten von G wie folgt: Kante e 1 e 2 e 3 e 4 e 5 e 6 e 7 e 8 d(e i )
Prof. Dr. U. Faigle J. Voss SS 2011 12. Übung zur Einführung in die Mathematik des Operations Research Dieses Übungsblatt wird nicht mehr gewertet. Aufgabe 1: Sei G = (V, E) ein gerichteter Graph und x
MehrKapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung
Gliederung der Vorlesung. Fallstudie Bipartite Graphen. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen. Minimal spannende Bäume. Kürzeste Pfade. Traveling Salesman Problem. Flüsse in Netzwerken
Mehr3.4 Exakte Verfahren für (Gemischt-) Ganzzahlige Optimierung
32KAPITEL 3. NP-SCHWIERIGE KOMBINATORISCHE OPTIMIERUNGSPROBLEME n Anzahl der Ungleichungen 3 8 4 20 5 40 6 910 7 87.472 8 >488.602.996 Tabelle 3.1: Anzahl der Ungleichungen des LOP-Polytops für n 8 3.4
MehrVorlesung Kombinatorische Optimierung (Wintersemester 2007/08)
1 Vorlesung Kombinatorische Optimierung (Wintersemester 2007/08) Kapitel 5: NP-schwierige Probleme Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 21. Dezember 2007) Rucksack Problem
MehrDurchschnitt von Matroiden
Durchschnitt von Matroiden Satz von Edmonds Dany Sattler 18. Januar 2007/ Seminar zur ganzzahligen Optimierung / Wallenfels Definition: Unabhängigkeitssystem Definition: Ein Mengensystem (S, J ) nennt
MehrTheoretische Informatik 1
Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 02.07.2015 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP
MehrKlausur zum Modul Einführung in die Diskrete Mathematik
Klausur zum Modul Einführung in die Diskrete Mathematik 11.2.2014 Aufgabe 1 [10 Punkte] Sei G ein ungerichteter Graph, k N und x, y, z V (G). Zeigen Sie: Gibt es k paarweise kantendisjunkte x-y-wege und
MehrDas Matching Polytop
Das Matching Polytop Manuel Schneider Institut für Mathematik, TU Berlin Seminar: Algorithmische Diskrete Mathematik 27. Mai 2008 Überblick 1 Beschreibungen durch Ungleichungen Das Perfekte Matching Polytop
MehrSchnittebenenverfahren für das symmetrische
Schnittebenenverfahren für das symmetrische TSP Sebastian Peetz Mathematisches Institut Universität Bayreuth 19. Januar 2007 / Blockseminar Ganzzahlige Optimierung, Bayreuth Gliederung 1 Das symmetrische
MehrAlgorithmische Graphentheorie
Algorithmische Graphentheorie Vorlesung 13: Flüsse und Zuordnungen Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 9. Juni 2017 DURCHSATZ D(e) ist die maximale Flussmenge,
MehrEinführung in Berechenbarkeit, Komplexität und Formale Sprachen
Einführung in Berechenbarkeit, Komplexität und Formale Sprachen V17, 10.12.09 Willkommen zur Vorlesung Einführung in Berechenbarkeit, Komplexität und Formale Sprachen Friedhelm Meyer auf der Heide 1 Rückblick:
MehrÜberblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP
Kap..1 Heuristiken Kap.. Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 3. VO DAP SS 008 14. Juli 009 Überblick
MehrKap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien
Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 23. VO DAP2 SS 2008 14. Juli 2009
MehrKapitel 5: Minimale spannende Bäume Gliederung der Vorlesung
Gliederung der Vorlesung 1. Grundbegriffe 2. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege. Minimale spannende Bäume. Färbungen und Cliquen. Traveling Salesman Problem. Flüsse in Netzwerken
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 20. November 2014 INSTITUT FÜR THEORETISCHE 0 KIT 20.11.2014 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der
MehrGanzzahlige Optimierung
Outlines Ganzzahlige Optimierung Minikurs im Cluster Intelligent Systems for Decision Support Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 16. Juni 2009 Outlines Outline
MehrInformatik III - WS07/08
Informatik III - WS07/08 Kapitel 4 1 Informatik III - WS07/08 Prof. Dr. Dorothea Wagner dwagner@ira.uka.de Kapitel 4 : Komplexitätsklassen Informatik III - WS07/08 Kapitel 4 2 Sprachen, Probleme, Zeitkomplexität
MehrTheoretische Informatik II
Theoretische Informatik II Einheit 5.2 Das P N P Problem 1. Nichtdeterministische Lösbarkeit 2. Sind N P-Probleme handhabbar? 3. N P-Vollständigkeit Bei vielen schweren Problemen ist Erfolg leicht zu testen
MehrSchnittebenenverfahren und Heuristiken
KAPITEL 6 Schnittebenenverfahren und Heuristiken Wir betrachten nun Optimierungsprobleme vom Typ (68) minc T x s.d. Ax b,x 0,x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n,b R m gegeben
MehrKap. 7 Optimierung. Überblick. Optimierung: Einführung. Motivation. Beispiele für Optimierungsprobleme. Rundreiseprobleme (TSP)
Kap. 7 Optimierung Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 22. VO 2. TEIL DAP2 SS 2009 9. Juli 2009 Überblick Einführung Einige klassische Optimierungsprobleme,
MehrMatching. Organisatorisches. VL-18: Matching. (Datenstrukturen und Algorithmen, SS 2017) Gerhard Woeginger. Tanzabend
Organisatorisches VL-18: Matching (Datenstrukturen und Algorithmen, SS 2017) Gerhard Woeginger Vorlesung: Gerhard Woeginger (Zimmer 4024 im E1) Sprechstunde: Mittwoch 11:15 12:00 Übungen: Tim Hartmann,
MehrDer Branching-Operator B
Branching 1 / 17 Der Branching-Operator B Unser Ziel: Löse das allgemeine Minimierungsproblem minimiere f (x), so dass Lösung(x). B zerlegt eine Menge von Lösungen in disjunkte Teilmengen. Die wiederholte
Mehr6. Übung zur Linearen Optimierung SS08
6 Übung zur Linearen Optimierung SS08 1 Sei G = (V, E) ein schlichter ungerichteter Graph mit n Ecken und m Kanten Für eine Ecke v V heißt die Zahl der Kanten (u, v) E Grad der Ecke (a) Ist die Anzahl
MehrDatenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Graphenalgorithmen Maximaler Fluss Einleitung Flussnetzwerke Ford-Fulkerson Fulkerson Methode Maximales bipartites Matching
MehrAlgorithmische Graphentheorie
c NASA (earthasart.gsfc.nasa.gov/ganges.html) 1 Algorithmische Graphentheorie Sommersemester 2015 2. Vorlesung Flüsse Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I 2 Gewinnmaximierung Sie sind Chef
MehrDas Heiratsproblem. Definition Matching
Das Heiratsproblem Szenario: Gegeben: n Frauen und m > n Männer. Bekanntschaftsbeziehungen zwischen allen Männern und Frauen. Fragestellung: Wann gibt es für jede der Frauen einen Heiratspartner? Modellierung
MehrNetzwerk-Simplex. MinCostFlow als Lineares Programm. 1 of 12 Netzwerksimplex
Netzwerk-Simplex MinCostFlow als Lineares Programm of 2 Netzwerksimplex MinCostFlow geg: gerichteter Graph G, Kapazitäten u R R 0 { }, Bedarfe b V R, Pfeilkosten c R R ges: zulässiger b-fluss f mit minimalen
MehrAlgorithmische Graphentheorie
1 Algorithmische Graphentheorie Sommersemester 2014 5. Vorlesung Matchings / Paarungen II Kombinatorischer Algorithmus, Anwendung für Handlungsreisende, LP-Runden Dr. Joachim Spoerhase Prof. Dr. Alexander
MehrProbabilistische Analyse von Algorithmen
Lehrstuhl Informatik I Algorithmen & Komplexität RWTH Aachen 27. Mai 2005 Übersicht Einführung 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s Motivation
MehrTheoretische Informatik 1
Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 10.06.2016 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP
MehrVorlesung Lineare Optimierung (Sommersemester 2010)
1 Vorlesung Lineare Optimierung (Sommersemester 2010) Kapitel 6: Die Geometrie der Linearen Optimierung Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 15. Juni 2010) Gliederung 2 Das
MehrGrundlagen der Optimierung. Übung 6
Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren
MehrStatistik und Graphentheorie
Statistik und Graphentheorie Sommersemester 2014 24. März 2015 Teil Graphentheorie Matrikelnummer: 1 (12) 2 (12) 3 (12) 4 (12) 5 (12) (60) Aufgabe 1 (12 Punkte) Gegeben sei das folgende Netzwerk: (a) Berechnen
MehrGemischt-ganzzahlige und Kombinatorische Optimierung
5. Präsenzaufgabenblatt, Sommersemester 2015 Übungstunde am 15.06.2015 Aufgabe J Betrachten Sie die LP-Relaxierung max c T x a T x b 0 x i 1 des 0/1-Knapsack-Problems mit n Gegenständen, c 0 und a > 0.
MehrDatenstrukturen & Algorithmen Lösungen zu Blatt 11 FS 14
Eidgenössische Technische Hochschule Zürich Ecole polytechnique fédérale de Zurich Politecnico federale di Zurigo Federal Institute of Technology at Zurich Institut für Theoretische Informatik 14. Mai
MehrTheoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
MehrKapitel 4. Optimierungsalgorithmen. Technische Universität Wien. Gunnar Klau Technische Universität Wien. Institut für Computergraphik und Algorithmen
Kapitel 4 Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen 1 Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 18 Was tun mit NP-harten Problemen? Viele praxisrelevante
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Übung am 16.12.2010 INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
MehrEinführung in Operations Research
Wolfgang Domschke Andreas Drexl Einführung in Operations Research Achte Auflage fyj Springer Inhaltsverzeichnis Vorwort Symbolverzeichnis V XIII Kapitel 1: Einführung 1 1.1 Begriff des Operations Research
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am 0..0 Minimale Schnitte in Graphen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
MehrBetriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 21 1 Approximationsalgorithmen auf
MehrSatz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,...
Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,..., k, so dass gilt M = k c i P i i=1 k c i = r. i=1 Diskrete Strukturen 7.1 Matchings
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 4. Januar 2011 Berthold Vöcking, Informatik 1 () Vorlesung
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
Mehr