Inhaltsübersicht für heute:

Größe: px
Ab Seite anzeigen:

Download "Inhaltsübersicht für heute:"

Transkript

1 Inhaltsübersicht für heute: Dualität Anwendung: Spieltheorie Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann?

2 Inhaltsübersicht für heute: Dualität Anwendung: Spieltheorie Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann?

3 Dualität Mit jedem konvexen Minimierungsproblem löst man automatisch ein verwandtes konvexes Maximierungsproblem, das als die Bestimmung einer besten Schranke für den Optimalwert des Originalproblems interpretiert werden kann. Die duale Optimallösung (wenn sie existiert) gibt wichtige Zusatzinforamtion über das Originalproblem. Für Lineare Optimierung ist das besonders einfach und anschaulich.

4 Untere Schranken, algebraisch Eine Ungleichung a T x α heißt gültig für ein Optimierungsproblem mit zulässiger Menge X, wenn sie für alle x X erfüllt ist. a T Betrachte X := {x : Ax b} mit A = 1.. Nichtneg. Linearkombination der Zeilen Ax b und r.s. vergrößern a T m a T 1 x b 1 y 1 ( 0). amx T b m y m ( 0) 0 T x 1 η( 0) : (y T A)x y T b η liefert eine gültige Ungleichung für X (und man erhält alle so!).

5 Untere Schranken, algebraisch Eine Ungleichung a T x α heißt gültig für ein Optimierungsproblem mit zulässiger Menge X, wenn sie für alle x X erfüllt ist. a T Betrachte X := {x : Ax b} mit A = 1.. Nichtneg. Linearkombination der Zeilen Ax b und r.s. vergrößern a T m a T 1 x b 1 y 1 ( 0). amx T b m y m ( 0) 0 T x 1 η( 0) : (y T A)x y T b η liefert eine gültige Ungleichung für X (und man erhält alle so!). Für ein ȳ 0 mit A T ȳ = c folgt min{c T x : Ax b} b T ȳ. Die größte untere Schranke?

6 Untere Schranken, algebraisch Eine Ungleichung a T x α heißt gültig für ein Optimierungsproblem mit zulässiger Menge X, wenn sie für alle x X erfüllt ist. a T Betrachte X := {x : Ax b} mit A = 1.. Nichtneg. Linearkombination der Zeilen Ax b und r.s. vergrößern a T m a T 1 x b 1 y 1 ( 0). amx T b m y m ( 0) 0 T x 1 η( 0) : (y T A)x y T b η liefert eine gültige Ungleichung für X (und man erhält alle so!). Für ein ȳ 0 mit A T ȳ = c folgt min{c T x : Ax b} b T ȳ. Die größte untere Schranke? max{b T y : A T y = c, y 0}

7 Das Duale in Normalform Betrachte min c T x Ax = b, x 0. Erlaubte Linearkombionation der Zeilen Ax = b und Ix 0 a T 1 x = b 1 y 1 ( R). amx T = b m y m ( R) e1 T x 0 z 1( 0). en T x 0 z n ( 0) : (y T A + z T I )x y T b

8 Das Duale in Normalform Betrachte min c T x Ax = b, x 0. Erlaubte Linearkombionation der Zeilen Ax = b und Ix 0 a T 1 x = b 1 y 1 ( R). amx T = b m y m ( R) e1 T x 0 z 1( 0). en T x 0 z n ( 0) : (y T A + z T I )x y T b Die beste untere Schranke liefert das Duale LP in Normalform: max b T y max b T y A T y + z = c y R m, z 0 A T y 0 y R m, y und z sind die Dualvariablen.

9 Dualisierungsregeln Nach dem gleichen Muster ergibt sich min c T x max b T y Ax b y 0 Ax b y 0 Ax = b y frei x 0 A T y c x 0 A T y c x frei A T y = c Insbesondere ist das Duale des Dualen LPs wieder das Primale LP.

10 Mozart: das Duale geometrisch (P M ) max c T x Ax b x 0 min b T y (D M ) A T y c a 2 y e1 A = 1 1, b = 6, [ ] 3 c = 2 e 2 1 [ ] ȳ = 0 4 A T ȳ = c, b 5 T ȳ = 28 2 x T a 1 c a 1+ 2a 3 a 3 x K

11 Mozart: das Duale optimal (P M ) max c T x Ax b x 0 x T a 1 min b T y (D M ) A T y c a 2 y 0 a 1+a 2 = c e1 A = 1 1, b = 6, a [ ] 3 c = 2 e2 1 [ ] [ ] ȳ = A T ȳ = = c, b 2 T ȳ = 16, x = 2 0 x K

12 Wo ist das Duale im Simplex-Algorithmus? Input: zulässige Basis B, x B = A 1 B b 1. BTRAN: Bestimme ȳ := A T B c B durch Lösen von A T B y = c B. 2. PRICE: z N := c N A T Nȳ, ist z N 0, STOP (Optimallösung), sonst wähle î N mit zî < 0.. (P) min c T x [A B, A N ] x 0 [ xb x N ] =b (D) max b [ T y A T B A T N ] [ zb y + y R m, z 0 1. Schritt: Setze z B = 0 und löse 1. duale Block-Zeile ȳ 2. Schritt: Bestimme z N aus der 2. dualen Block-Zeile z N ] [ cb = c N ]

13 Wo ist das Duale im Simplex-Algorithmus? Input: zulässige Basis B, x B = A 1 B b 1. BTRAN: Bestimme ȳ := A T B c B durch Lösen von A T B y = c B. 2. PRICE: z N := c N A T Nȳ, ist z N 0, STOP (Optimallösung), sonst wähle î N mit zî < 0.. (P) min c T x [A B, A N ] x 0 [ xb x N ] =b (D) max b [ T y A T B A T N ] [ zb y + y R m, z 0 1. Schritt: Setze z B = 0 und löse 1. duale Block-Zeile ȳ 2. Schritt: Bestimme z N aus der 2. dualen Block-Zeile Ist die duale Lösung zulässig ( z N 0), ergibt das die Schranke z N ] [ cb = c N min x X ct x ȳ T b = c T B A 1 B = c B x B = c T x [ OL] ]

14 Wo ist das Duale im Simplex-Algorithmus? Input: zulässige Basis B, x B = A 1 B b 1. BTRAN: Bestimme ȳ := A T B c B durch Lösen von A T B y = c B. 2. PRICE: z N := c N A T Nȳ, ist z N 0, STOP (Optimallösung), sonst wähle î N mit zî < 0.. (P) min c T x [A B, A N ] x 0 [ xb x N ] =b (D) max b [ T y A T B A T N ] [ zb y + y R m, z 0 1. Schritt: Setze z B = 0 und löse 1. duale Block-Zeile ȳ 2. Schritt: Bestimme z N aus der 2. dualen Block-Zeile Ist die duale Lösung zulässig ( z N 0), ergibt das die Schranke z N ] [ cb = c N min x X ct x ȳ T b = c T B A 1 B = c B x B = c T x [ OL] Beachte: PRICE sucht einfach ein dual unzulässiges z i mit i N! ]

15 (D) max b T y Das duale Simplex-Verfahren [ A T B A T N ] [ zb y + z N ] [ cb = c N ], y R m, z 0 Dual zulässige Basis: z B = 0, y = A T B (c B z B ), z N = c N A T N y 0 Kostenänderung in Abh. von z B : y T b = cb T c B zb T A 1 B }{{ b } =: x B

16 (D) max b T y Das duale Simplex-Verfahren [ A T B A T N ] [ zb y + z N ] [ cb = c N ], y R m, z 0 Dual zulässige Basis: z B = 0, y = A T B (c B z B ), z N = c N A T N y 0 Kostenänderung in Abh. von z B : y T b = cb T c B zb T A 1 B }{{ b } =: x B Input: dual zulässige Basis B, ȳ = A T B c b, z N = c N A T Nȳ 0 1. FTRAN: Bestimme x B := A 1 B b durch Lösen von A Bx B = b. 2. PRICE: Ist x B 0, STOP (Optimallösung), sonst wähle ĵ {1,..., m} mit x B(ĵ) < BTRAN: Bestimme w := A T ĵ und berechne ω N := A T N w B 4. RATIO: Ist ω N 0 STOP (Duales unbeschränkt), sonst wähle î Argmin i N { z i ω i : ω i > 0}, ζ := z î ωî 5. Update: ȳ := ȳ ζ w, z N := z N ζ ω, z B(ĵ) := ζ N := N \ {î} B(ĵ), B(ĵ) := î, GOTO 1.

17 (P) min Schwache und Starke Dualität c T x Ax = b x 0 (D) max b T y A T y + z = c y R m, z 0 Ist x primal zulässig und (y, z) dual zulässig, dann gilt c T x b T y = (A T y + z) T x b T y = (Ax b) T y + z T x = z T x 0

18 (P) min Schwache und Starke Dualität c T x Ax = b x 0 (D) max b T y A T y + z = c y R m, z 0 Ist x primal zulässig und (y, z) dual zulässig, dann gilt c T x b T y = (A T y + z) T x b T y = (Ax b) T y + z T x = z T x 0 Schwache Dualität: Der Wert jeder zulässigen Lösung beschränkt den Optimalwert des jeweils Dualen. [gilt immer!] Ist ein LP unbeschränkt, ist dessen Duales unzulässig.

19 (P) min Schwache und Starke Dualität c T x Ax = b x 0 (D) max b T y A T y + z = c y R m, z 0 Ist x primal zulässig und (y, z) dual zulässig, dann gilt c T x b T y = (A T y + z) T x b T y = (Ax b) T y + z T x = z T x 0 Schwache Dualität: Der Wert jeder zulässigen Lösung beschränkt den Optimalwert des jeweils Dualen. [gilt immer!] Ist ein LP unbeschränkt, ist dessen Duales unzulässig. Dualitätslücke: Differenz aus primalem und dualem Optimalwert.

20 (P) min Schwache und Starke Dualität c T x Ax = b x 0 (D) max b T y A T y + z = c y R m, z 0 Ist x primal zulässig und (y, z) dual zulässig, dann gilt c T x b T y = (A T y + z) T x b T y = (Ax b) T y + z T x = z T x 0 Schwache Dualität: Der Wert jeder zulässigen Lösung beschränkt den Optimalwert des jeweils Dualen. [gilt immer!] Ist ein LP unbeschränkt, ist dessen Duales unzulässig. Dualitätslücke: Differenz aus primalem und dualem Optimalwert. Starke Dualität: Primaler und dualer Optimalwert sind gleich, (beide werden angenommen). [gilt i.a. nicht für Konv. Opt.]

21 (P) min Schwache und Starke Dualität c T x Ax = b x 0 (D) max b T y A T y + z = c y R m, z 0 Ist x primal zulässig und (y, z) dual zulässig, dann gilt c T x b T y = (A T y + z) T x b T y = (Ax b) T y + z T x = z T x 0 Schwache Dualität: Der Wert jeder zulässigen Lösung beschränkt den Optimalwert des jeweils Dualen. [gilt immer!] Ist ein LP unbeschränkt, ist dessen Duales unzulässig. Dualitätslücke: Differenz aus primalem und dualem Optimalwert. Starke Dualität: Primaler und dualer Optimalwert sind gleich, (beide werden angenommen). [gilt i.a. nicht für Konv. Opt.] Satz (Starke Dualität in der Linearen Optimierung) Hat ein LP einen endlichen Optimalwert, so wird dieser sowohl primal als auch dual angenommen. Beweis: Simplex-Alg. mit Auswahlregeln von Bland.

22 Es können beide unzulässig sein! (P u ) max x 1 x 1 x 2 1 x 1 + x 2 0 x 1 0, x 2 0 (D u ) max y 1 y 1 y 2 1 y 1 + y 2 0 y 1 0, y 2 0 (P u ) Es kann nicht x x 1 und x 2 x 1 sein. (D u ) Es kann nicht y y 2 und y 1 y 2 sein.

23 Inhaltsübersicht für heute: Dualität Anwendung: Spieltheorie Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann?

24 Anwendung: Spieltheorie 2-Personen Matrix-Spiel: Für eine gegebene Auszahlungsmatrix M R m n wählt Spieler 1 (S1) eine Zeile i und Spieler 2 (S2) eine Spalte j. Spieler 1 zahlt an Spieler 2 den Betrag M ij.

25 Anwendung: Spieltheorie 2-Personen Matrix-Spiel: Für eine gegebene Auszahlungsmatrix M R m n wählt Spieler 1 (S1) eine Zeile i und Spieler 2 (S2) eine Spalte j. Spieler 1 zahlt an Spieler 2 den Betrag M ij. Wenn S2 weiß, dass S1 Zeile i wählt, wählt S2 max j=1,...,n (A T e i ) j.

26 Anwendung: Spieltheorie 2-Personen Matrix-Spiel: Für eine gegebene Auszahlungsmatrix M R m n wählt Spieler 1 (S1) eine Zeile i und Spieler 2 (S2) eine Spalte j. Spieler 1 zahlt an Spieler 2 den Betrag M ij. Wenn S2 weiß, dass S1 Zeile i wählt, wählt S2 max j=1,...,n (A T e i ) j. S1 bestimmt eine optimale Wahrscheinlichkeits-Verteilung für eine zufällige Zeilenwahl, um nicht so leicht voraussagbar zu sein: min max j=1,...,n (M T x) j 1 T x = 1 x 0

27 Anwendung: Spieltheorie 2-Personen Matrix-Spiel: Für eine gegebene Auszahlungsmatrix M R m n wählt Spieler 1 (S1) eine Zeile i und Spieler 2 (S2) eine Spalte j. Spieler 1 zahlt an Spieler 2 den Betrag M ij. Wenn S2 weiß, dass S1 Zeile i wählt, wählt S2 max j=1,...,n (A T e i ) j. S1 bestimmt eine optimale Wahrscheinlichkeits-Verteilung für eine zufällige Zeilenwahl, um nicht so leicht voraussagbar zu sein: min max j=1,...,n (M T min s x) j 1 T s (M x = 1 (P 1 ) T x) j j = 1,..., n 1 x 0 T x = 1 x 0, s R

28 Anwendung: Spieltheorie 2-Personen Matrix-Spiel: Für eine gegebene Auszahlungsmatrix M R m n wählt Spieler 1 (S1) eine Zeile i und Spieler 2 (S2) eine Spalte j. Spieler 1 zahlt an Spieler 2 den Betrag M ij. Wenn S2 weiß, dass S1 Zeile i wählt, wählt S2 max j=1,...,n (A T e i ) j. S1 bestimmt eine optimale Wahrscheinlichkeits-Verteilung für eine zufällige Zeilenwahl, um nicht so leicht voraussagbar zu sein: min max j=1,...,n (M T min s x) j 1 T s (M x = 1 (P 1 ) T x) j j = 1,..., n 1 x 0 T x = 1 x 0, s R S2 tut das gleiche für sich max min i=1,...,m (My) i 1 T y = 1 y 0 (P 2 ) max t t (My) j i = 1,..., m 1 T y = 1 y 0, t R (P 2 ) ist das Duale zu (P 1 ), beide sind zul., also ist v(p 1 ) = v(p 2 ). Man muss die Strategie des Gegners gar nicht kennen!

29 Inhaltsübersicht für heute: Dualität Anwendung: Spieltheorie Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann?

30 (P) min c T x Ax = b x 0 Komplementarität (D) max b T y A T y + z = c y R m, z 0 c T x b T y = z T x 0 gilt für bel. primal und dual zul. Lösungen. Satz (vom komplementären Schlupf) Primal und dual zulässige Lösungen x und (ȳ, z) sind genau dann optimal, wenn x i z i = 0 für i = 1,..., n.

31 (P) min c T x Ax = b x 0 Komplementarität (D) max b T y A T y + z = c y R m, z 0 c T x b T y = z T x 0 gilt für bel. primal und dual zul. Lösungen. Satz (vom komplementären Schlupf) Primal und dual zulässige Lösungen x und (ȳ, z) sind genau dann optimal, wenn x i z i = 0 für i = 1,..., n. Eine Ungleichung heißt aktiv in einem Punkt, wenn sie in dem Punkt mit Gleichheit erfüllt ist, sonst nicht aktiv oder inaktiv.

32 (P) min c T x Ax = b x 0 Komplementarität (D) max b T y A T y + z = c y R m, z 0 c T x b T y = z T x 0 gilt für bel. primal und dual zul. Lösungen. Satz (vom komplementären Schlupf) Primal und dual zulässige Lösungen x und (ȳ, z) sind genau dann optimal, wenn x i z i = 0 für i = 1,..., n. Eine Ungleichung heißt aktiv in einem Punkt, wenn sie in dem Punkt mit Gleichheit erfüllt ist, sonst nicht aktiv oder inaktiv. Folgerungen: Ist in einer OL eine Variable in x oder z > 0, ist deren duale Ungleichung in jeder OL des jeweiligen dualen aktiv!

33 (P) min c T x Ax = b x 0 Komplementarität (D) max b T y A T y + z = c y R m, z 0 c T x b T y = z T x 0 gilt für bel. primal und dual zul. Lösungen. Satz (vom komplementären Schlupf) Primal und dual zulässige Lösungen x und (ȳ, z) sind genau dann optimal, wenn x i z i = 0 für i = 1,..., n. Eine Ungleichung heißt aktiv in einem Punkt, wenn sie in dem Punkt mit Gleichheit erfüllt ist, sonst nicht aktiv oder inaktiv. Folgerungen: Ist in einer OL eine Variable in x oder z > 0, ist deren duale Ungleichung in jeder OL des jeweiligen dualen aktiv! Ist in einer OL eine Unglg. des LPs inaktiv, ist deren Dualvariable in jeder OL des jeweiligen dualen gleich Null!

34 (P) min c T x Ax = b x 0 Komplementarität (D) max b T y A T y + z = c y R m, z 0 c T x b T y = z T x 0 gilt für bel. primal und dual zul. Lösungen. Satz (vom komplementären Schlupf) Primal und dual zulässige Lösungen x und (ȳ, z) sind genau dann optimal, wenn x i z i = 0 für i = 1,..., n. Eine Ungleichung heißt aktiv in einem Punkt, wenn sie in dem Punkt mit Gleichheit erfüllt ist, sonst nicht aktiv oder inaktiv. Folgerungen: Ist in einer OL eine Variable in x oder z > 0, ist deren duale Ungleichung in jeder OL des jeweiligen dualen aktiv! Ist in einer OL eine Unglg. des LPs inaktiv, ist deren Dualvariable in jeder OL des jeweiligen dualen gleich Null! Tatsächlich gibt die Größe der Dualvariablen wesentliche Information über den Einfluss der Unglg. auf den Optimalwert...

35 e 1 Geometrische Interpretation der Komplementarität x T e 2 a 2 a 1 (P M ) a +a =c 1 2 a 3 max x K c T x Ax b x 0 A = (D M ) min, b = b T y A T y c y , c = [ 3 2 Inaktive Ungleichungen können nicht zur besten Schranke beitragen, die aktiven Restr. halten die OL. (Gleichungen sind immer aktiv!) y j a j (bzw. z i ) ist Kraftanteil von Restriktion i im Kräftegleichgewicht. ]

36 e 1 Geometrische Interpretation der Komplementarität x T e 2 a 2 a 1 (P M ) a +a =c 1 2 a 3 max x K c T x Ax b x 0 A = (D M ) min, b = b T y A T y c y , c = [ 3 2 Inaktive Ungleichungen können nicht zur besten Schranke beitragen, die aktiven Restr. halten die OL. (Gleichungen sind immer aktiv!) y j a j (bzw. z i ) ist Kraftanteil von Restriktion i im Kräftegleichgewicht. Der Gradient der Zielfunktion liegt im Kegel der Gradienten der aktiven Restriktionen. (Die Vorzeichen sind je nach Richtungen anzupassen!) ]

37 Sensitivitätsanalyse Wie sensibel reagiert die OL auf Änderungen in welchen Daten? (P) min c T x Ax = b x 0 (D) max b T y A T y + z = c y R m, z 0 Wie weit ist b veränderbar bei gleicher optimaler Basis B? x B = A 1 B b 0, y = A T B c B, z N = c N A T N y 0

38 Sensitivitätsanalyse Wie sensibel reagiert die OL auf Änderungen in welchen Daten? (P) min c T x Ax = b x 0 (D) max b T y A T y + z = c y R m, z 0 Wie weit ist b veränderbar bei gleicher optimaler Basis B? x B = A 1 B b 0, y = A T B c B, z N = c N A T N y 0 b(t) := b + t b erhält duale Zul. für t R, primale aber nur wenn x B (t) = x B +t A 1 B }{{ b } 0 max B ] i [ x B ] i >0 [ x B ] i t max B ] i [ x B ] i <0 [ x B ] i =: x B

39 Sensitivitätsanalyse Wie sensibel reagiert die OL auf Änderungen in welchen Daten? (P) min c T x Ax = b x 0 (D) max b T y A T y + z = c y R m, z 0 Wie weit ist b veränderbar bei gleicher optimaler Basis B? x B = A 1 B b 0, y = A T B c B, z N = c N A T N y 0 b(t) := b + t b erhält duale Zul. für t R, primale aber nur wenn x B (t) = xb +t A 1 B }{{ b 0 max } [x B ] i [ x B ] i >0 [ x B ] i t max =: x B Für diese t ist der Optimalwert = b T y + t b T y (Kompl.!), sonst ist dieser Wert auf jeden Fall eine untere Schranke. [x B ] i [ x B ] i <0 [ x B ] i

40 Sensitivitätsanalyse Wie sensibel reagiert die OL auf Änderungen in welchen Daten? (P) min c T x Ax = b x 0 (D) max b T y A T y + z = c y R m, z 0 Wie weit ist b veränderbar bei gleicher optimaler Basis B? x B = A 1 B b 0, y = A T B c B, z N = c N A T N y 0 b(t) := b + t b erhält duale Zul. für t R, primale aber nur wenn x B (t) = xb +t A 1 B }{{ b 0 max } [x B ] i [ x B ] i >0 [ x B ] i t max =: x B Für diese t ist der Optimalwert = b T y + t b T y (Kompl.!), sonst ist dieser Wert auf jeden Fall eine untere Schranke. [x B ] i [ x B ] i <0 [ x B ] i Für b = e j beziffert yj die marginalen Kosten der Veränderung, bei Ressourcennebenbed. heißen die yj oft Schattenpreise.

41 Sensitivitätsanalyse für die Kostenkoeffizienten Wie weit ist c veränderbar bei gleicher optimaler Basis B? x B = A 1 B b 0, y = A T B c B, z N = c N A T N y 0 c(t) := c + t c erhält primale Zul. für t R, duale aber nur wenn z N (t) = zn + t ( c N A T N A T B c B) 0 }{{} =: z N max [ z N ] i >0 [z N ] i [ z N ] i t max [ z N ] i <0 [z N ] i [ z N ] i Für diese t ist der Optimalwert = c T x + t c T x (Kompl.), sonst ist dieser Wert eine obere Schranke.

42 Inhaltsübersicht für heute: Dualität Anwendung: Spieltheorie Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann?

43 Spaltengenerierung Was tun, wenn es zu viele Variablen gibt um das LP aufzustellen? Das Simpex-Verfahren benötigt je Iteration nur die Basis-Variablen (x N = 0!), solange eine verbessernde Nichtbasis-Spalte in PRICE erzeugt werden kann. Das nutzt die Spaltengenerierung.

44 Spaltengenerierung Was tun, wenn es zu viele Variablen gibt um das LP aufzustellen? Das Simpex-Verfahren benötigt je Iteration nur die Basis-Variablen (x N = 0!), solange eine verbessernde Nichtbasis-Spalte in PRICE erzeugt werden kann. Das nutzt die Spaltengenerierung. Am Beispiel: Zuschnittproblem: Aus möglichst wenigen Metern von Standardblechrollen der Breite (b 0 = 1000mm) sollen kleinere Breiten b j (in mm) mit Gesamtlänge h j, j = 1,..., m geschnitten werden.

45 Modellierung des Zuschnittproblems Daten: Länge h j der Breite b j N (j = 1,..., m) aus Breite b 0 Modell: Schnittmuster s N m 0 enthält die Breite b j genau s j mal. { Menge der zul. Schnittmuster: S = s N m 0 : } m j=0 s jb j b 0

46 Modellierung des Zuschnittproblems Daten: Länge h j der Breite b j N (j = 1,..., m) aus Breite b 0 Modell: Schnittmuster s N m 0 enthält die Breite b j genau s j mal. { Menge der zul. Schnittmuster: S = s N m 0 : } m j=0 s jb j b 0 Variable x s gibt die Länge an, mit der s S geschnitten wird. [sx s ] j ist der Beitrag von Schnittmuster s zum Bedarf l j.

47 Modellierung des Zuschnittproblems Daten: Länge h j der Breite b j N (j = 1,..., m) aus Breite b 0 Modell: Schnittmuster s N m 0 enthält die Breite b j genau s j mal. { Menge der zul. Schnittmuster: S = s N m 0 : } m j=0 s jb j b 0 Variable x s gibt die Länge an, mit der s S geschnitten wird. [sx s ] j ist der Beitrag von Schnittmuster s zum Bedarf l j. min s S x s max h T y (P S ) s S sx s h (D S ) s T y 1 s S x 0 y 0 sucht die minimal notwendige Gesamtlänge um alle l j zu erfüllen. Schwierigkeit: S ist riesig!

48 Modellierung des Zuschnittproblems Daten: Länge h j der Breite b j N (j = 1,..., m) aus Breite b 0 Modell: Schnittmuster s N m 0 enthält die Breite b j genau s j mal. { Menge der zul. Schnittmuster: S = s N m 0 : } m j=0 s jb j b 0 Variable x s gibt die Länge an, mit der s S geschnitten wird. [sx s ] j ist der Beitrag von Schnittmuster s zum Bedarf l j. min s S x s max h T y (P S ) s S sx s h (D S ) s T y 1 s S x 0 y 0 sucht die minimal notwendige Gesamtlänge um alle l j zu erfüllen. Schwierigkeit: S ist riesig! Idee: Starte mit Ŝ = {e j : j = 1,..., m}, löse (PŜ) ŷ, bestimme, wie in PRICE, s S mit kleinsten red. Kosten s Argmin s S ẑ }{{} s := 1 s T ŷ setze Ŝ := Ŝ { s}, iteriere. Pricingproblem

49 Das Pricingproblem des Zuschnittproblems Für ŷ 0, b j N (j = 0,..., m), bestimme s Argmin{1 s T ŷ} s S max ŷ T s b T s b 0, s N m 0 Dieses ganzzahlige Optimierungsproblem heißt Rucksackproblem.

50 Das Pricingproblem des Zuschnittproblems Für ŷ 0, b j N (j = 0,..., m), bestimme s Argmin{1 s T ŷ} s S max ŷ T s b T s b 0, s N m 0 Dieses ganzzahlige Optimierungsproblem heißt Rucksackproblem. Falls b 0 nicht zu groß, gut rekursiv lösbar (dynamic programming). Die beste Füllung bis Kapazität b mit Objekten 1,..., k hat den Wert k k F ( b, k) := max ŷ j s j : b j s j b, s j N 0 für b = 0,..., b 0, k = 0,..., m, j=1 j=1 wobei F (0, 0) := 0 und F ( b, k) := für ( b) N, k = 0,..., m.

51 Das Pricingproblem des Zuschnittproblems Für ŷ 0, b j N (j = 0,..., m), bestimme s Argmin{1 s T ŷ} s S max ŷ T s b T s b 0, s N m 0 Dieses ganzzahlige Optimierungsproblem heißt Rucksackproblem. Falls b 0 nicht zu groß, gut rekursiv lösbar (dynamic programming). Die beste Füllung bis Kapazität b mit Objekten 1,..., k hat den Wert k k F ( b, k) := max ŷ j s j : b j s j b, s j N 0 für b = 0,..., b 0, k = 0,..., m, j=1 j=1 wobei F (0, 0) := 0 und F ( b, k) := für ( b) N, k = 0,..., m. Nun gilt F ( b, k) = max { } b = 1,..., b F ( b, k 1), F ( b b k, k) + ŷ k für 0, k = 1,..., m. (Entweder k nicht verwenden oder k einmal verwenden und Rest bestmöglich füllen)

52 Beispiel Rucksackproblem b 0 = 10, b 1 = 3, b 2 = 5, b 3 = 6, ŷ 1 = 2, ŷ 2 = 4, ŷ 3 = 5 F ( b, k) = max { F ( b, k 1), F ( b b k, } b = 1,..., b k) + ŷ k für 0, k = 1,..., m. b F ( b, 0) F ( b, 1) F ( b, 2) F ( b, 3) (1) 8 (2) 8 (2) 9 0 6(1) 6 (1) 7 (3) 8 0 4(1) 6 (2) 6 (2) 7 0 4(1) 4 (1) 5 (3) 6 0 4(1) 4 (1) 5 (3) 5 0 2(1) 4 (2) 4 (2) 4 0 2(1) 2 (1) 2 (1) 3 0 2(1) 2 (1) 2 (1) Rekonstruktion der Lösung durch Objektindices.

53 Zusammenfassung Spaltengenerierung Zuschnittproblem Daten: Länge h j der Breite b j (j = 1,..., m) aus Breite b 0 0. Schritt: Ŝ = {e j : j = 1,..., m} (pro j: Breite j einmal) 1. Schritt Ermittle OLen ˆx, ŷ von (PŜ) min s Ŝ x s s Ŝ sx s h x 0 (DŜ) max h T y s T y 1 s Ŝ y 0 2. Schritt: Löse das Pricingprobelm als Rucksack max (ŷ ) T s b T s b 0, s N m 0 s 3. Schritt: Ist 1 s T ŷ 0 (oder beinahe) STOP (gut genug) sonst Ŝ := Ŝ { s}, GOTO 1. (auch Entfernen ungebrauchter Muster möglich)

54 Zusammenfassung Spaltengenerierung Zuschnittproblem Daten: Länge h j der Breite b j (j = 1,..., m) aus Breite b 0 0. Schritt: Ŝ = {e j : j = 1,..., m} (pro j: Breite j einmal) 1. Schritt Ermittle OLen ˆx, ŷ von (PŜ) min s Ŝ x s s Ŝ sx s h x 0 (DŜ) max h T y s T y 1 s Ŝ y 0 2. Schritt: Löse das Pricingprobelm als Rucksack max (ŷ ) T s b T s b 0, s N m 0 s 3. Schritt: Ist 1 s T ŷ 0 (oder beinahe) STOP (gut genug) sonst Ŝ := Ŝ { s}, GOTO 1. (auch Entfernen ungebrauchter Muster möglich) Bemerkungen zur Praxis: Anfangsmenge Ŝ muss Zul. und endl. OL garantieren Verwendet m verschiedene Schnittmuster (# Basisvar.), oft zuviel Längen ˆx S nicht ganzzahlig, oft wenige lange, einige sehr kurze Anfangs gute Verbesserung, dann SEHR langsam (tailing off effect)

55 Inhaltsübersicht für heute: Dualität Anwendung: Spieltheorie Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann?

56 Schnittebenenverfahren Gleiche Idee, wenn es zu viele Ungleichungen a T j x b j, j I gibt: 0. Schritt: Wähle Î I, die endliche OL garantiert 1. Schritt Ermittle OLen ˆx, ŷ von (PÎ) min max ct x aj T (DÎ) x b j j Î j Î b jy j j Î a jy j c y 0 2. Schritt: Löse das Separierungsproblem: Finde eine (maximal) verletzte Ungleichung j Argmax j I {b j a T j ˆx } 3. Schritt: Ist b j a T j ˆx 0 (oder beinahe) STOP (gut genug) sonst Î := Î { j}, GOTO 1. (auch Entfernen inaktiver Ungleichungen möglich)

57 Schnittebenenverfahren Gleiche Idee, wenn es zu viele Ungleichungen a T j x b j, j I gibt: 0. Schritt: Wähle Î I, die endliche OL garantiert 1. Schritt Ermittle OLen ˆx, ŷ von (PÎ) min max ct x aj T (DÎ) x b j j Î j Î b jy j j Î a jy j c y 0 2. Schritt: Löse das Separierungsproblem: Finde eine (maximal) verletzte Ungleichung j Argmax j I {b j a T j ˆx } 3. Schritt: Ist b j a T j ˆx 0 (oder beinahe) STOP (gut genug) sonst Î := Î { j}, GOTO 1. (auch Entfernen inaktiver Ungleichungen möglich) Bemerkungen: Schnittebenenvefahren = Spaltengenerierung im Dualen gute Erfolge in kombinatorischer/ganzz. Optimierung Linearisierung konvexer Nebenbedingungen (oft gibt es besseres!) Je nach separierter Unglg.-Klasse starker tailing off effect

58 1. Konvexe Nebenbedindungen mit Schnittebenen

59 Konvexe Nebenbedindungen mit Schnittebenen 1. 2.

60 Konvexe Nebenbedindungen mit Schnittebenen

61 Konvexe Nebenbedindungen mit Schnittebenen Problem: Schleifende Schnitte numerisch ungünstig, ungenau

62 Inhaltsübersicht für heute: Dualität Anwendung: Spieltheorie Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann?

63 Wann den primalen, wann den dualen Simplex verwenden? Für ein festes LP: Für viele LPs aus der Praxis scheint der duale Simplex etwas schneller zu sein (vermutlich weil viele LPs nach ähnlichen Denkmustern erstellt werden). Innere-Punkte-Verfahren (s. später) sind bei großen Instanzen oft schneller und weniger anfällig bzgl. Degeneriertheit, aber ein Test lohnt sich.

64 Wann den primalen, wann den dualen Simplex verwenden? Für ein festes LP: Für viele LPs aus der Praxis scheint der duale Simplex etwas schneller zu sein (vermutlich weil viele LPs nach ähnlichen Denkmustern erstellt werden). Innere-Punkte-Verfahren (s. später) sind bei großen Instanzen oft schneller und weniger anfällig bzgl. Degeneriertheit, aber ein Test lohnt sich. Spaltengenerierung: Nach Einfügen von Variablen bleibt die primale Basis zulässig (die alte Duale Lösung nicht), also setzt man mit dem primalen Simplex direkt fort! (Innere-Punkte-Verfahren sind dafür ungeeignet)

65 Wann den primalen, wann den dualen Simplex verwenden? Für ein festes LP: Für viele LPs aus der Praxis scheint der duale Simplex etwas schneller zu sein (vermutlich weil viele LPs nach ähnlichen Denkmustern erstellt werden). Innere-Punkte-Verfahren (s. später) sind bei großen Instanzen oft schneller und weniger anfällig bzgl. Degeneriertheit, aber ein Test lohnt sich. Spaltengenerierung: Nach Einfügen von Variablen bleibt die primale Basis zulässig (die alte Duale Lösung nicht), also setzt man mit dem primalen Simplex direkt fort! (Innere-Punkte-Verfahren sind dafür ungeeignet) Schnittebenen-Verfahren: Nach Einfügen einer Schnittebene bleibt die duale Basis zulässig (die alte primale Lösung nicht), also setzt man mit dem dualen Simplex direkt fort! (Innere-Punkte-Verfahren sind dafür ungeeignet)

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max

Mehr

4.3.3 Simplexiteration

4.3.3 Simplexiteration 7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform

Mehr

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung Operations Research Rainer Schrader Die Simplexmethode Zentrum für Angewandte Informatik Köln 18 Juni 00 1 / 1 / 1 Gliederung LP-Dualität ein lineares Produktionsmodell der Simplexalgorithmus Phase I Endlichkeit

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Schranken für zulässige Lösungen

Schranken für zulässige Lösungen Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung

Mehr

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 7 Lineare Programmierung II 1 Lineare Programme Lineares Programm: Lineare Zielfunktion Lineare Nebenbedingungen (Gleichungen oder Ungleichungen) Spezialfall der konvexen Optimierung

Mehr

Optimalitätsbedingungen

Optimalitätsbedingungen Optimalitätsbedingungen Nadja Irmscher 28. Mai 2010 1 Nachweis von Suboptimalität und Abbruchkriterien Über das gegebene Programm minimiere f 0 (x) über x D sodass f i (x) 0, i = 1,..., m h i (x) = 0,

Mehr

Kapitel 4. Optimierungsalgorithmen. Technische Universität Wien. Gunnar Klau Technische Universität Wien. Institut für Computergraphik und Algorithmen

Kapitel 4. Optimierungsalgorithmen. Technische Universität Wien. Gunnar Klau Technische Universität Wien. Institut für Computergraphik und Algorithmen Kapitel 4 Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen 1 Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren

Mehr

Sattelpunkt-Interpretation

Sattelpunkt-Interpretation Sattelpunkt-Interpretation Vinzenz Lang 14. Mai 2010 Die Sattelpunkt-Interpretation befasst sich mit der Interpretation der Lagrange- Dualität. Sie wird im weiteren Verlauf des Seminars nicht noch einmal

Mehr

Inhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen

Inhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen Inhalt Problemstellung und Überblick Allgemeine Problemstellung und Terminologie Überblick über spezielle Klassen von Optimierungsproblemen 40: 40 [40,40] 2.1 Das Optimierungsproblem in allgemeiner Form

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach

Mehr

10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G

10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G 48 0 Operations Research In der Standardform eines Maximierungsproblem: Max ( w) mit ( w) + u. d. N. z + x l + n ( a gj + j= g G e E n d j x j = z 0 j= n a l j x j = b l für alle l L j= x g n + a gj x

Mehr

Lösung allgemeiner linearer Programme

Lösung allgemeiner linearer Programme Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt

Mehr

4. Dualität Dualität 4.1 Dualität von LPs und der Dualitätssatz. Die duale Form eines LP in allgemeiner Form. Herleitung der dualen Form

4. Dualität Dualität 4.1 Dualität von LPs und der Dualitätssatz. Die duale Form eines LP in allgemeiner Form. Herleitung der dualen Form 2... 22 4.2 Die Bedingungen vom komplementären Schlupf... 23 4.3 Das Kürzeste-Wege-Problem und zugehörige duale Problem... 24 4.4 Das Farkas Lemma... 25 4.5 Duale Information im Tableau... 26 4.6 Der duale

Mehr

Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau

Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau Ziele: Einführung in richtige Einordnung von Optimierungsproblemen Modellierungstechniken praktische Umsetzung

Mehr

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)

Mehr

Optimale Steuerung 1 Prozessoptimierung 1

Optimale Steuerung 1 Prozessoptimierung 1 Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung

Mehr

Optimierung I. Prof. Dr. Christoph Helmberg. 15. Februar 2004

Optimierung I. Prof. Dr. Christoph Helmberg. 15. Februar 2004 Optimierung I Prof. Dr. Christoph Helmberg 15. Februar 24 Inhaltsverzeichnis Einführung 3.1 Konvexe Optimierung................................ 4.1.1 Lineare Optimierung............................ 6.1.2

Mehr

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme

Mehr

Überblick Kap. 5: Graph Coloring

Überblick Kap. 5: Graph Coloring Überblick Kap. 5: Graph Coloring Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 10./11. VO 18.12.0 / 8.1.07 5.1 Einführung Definition und Motivation Sudoku 5.2 ILP-Formulierungen

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag

Mehr

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, Henning Meyerhenke

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, Henning Meyerhenke Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, 01.02.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum

Mehr

Einführung in die Lineare Programmierung

Einführung in die Lineare Programmierung Einführung in die Lineare Programmierung Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 RWTH Aachen 28. Mai 2008 Elementares Beispiel Die kanonische Form Die algebraische Gleichungsform Gegeben seien

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

2. Optimierungsprobleme 6

2. Optimierungsprobleme 6 6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen

Mehr

λ i x i λ i 0, x i X, nur endlich viele λ i 0}.

λ i x i λ i 0, x i X, nur endlich viele λ i 0}. jobname LinOpt Sommer Aufgabe a) Sei X R n. Dann ist b) Cone X = { x i X λ i x i λ i, x i X, nur endlich viele λ i }. x Cone S = Lin S x Lin S = Cone S. Also gibt es nicht-negative Koeffizienten µ i von

Mehr

Übungsblatt 6 Lösungsvorschläge

Übungsblatt 6 Lösungsvorschläge Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Lösungsvorschläge Vorlesung Algorithmentechnik im WS 09/10 Problem 1: Größter Kreis in konvexem Polygon [vgl. Kapitel 6

Mehr

Spieltheorie. Nash-Gleichgewichts-Berechnung. Bernhard Nebel und Robert Mattmüller. Arbeitsgruppe Grundlagen der Künstlichen Intelligenz 14.

Spieltheorie. Nash-Gleichgewichts-Berechnung. Bernhard Nebel und Robert Mattmüller. Arbeitsgruppe Grundlagen der Künstlichen Intelligenz 14. Spieltheorie Nash-Gleichgewichts-Berechnung Albert-Ludwigs-Universität Freiburg Bernhard Nebel und Robert Mattmüller Arbeitsgruppe Grundlagen der Künstlichen Intelligenz 14. Mai 2012 14. Mai 2012 B. Nebel,

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Maximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge)

Maximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge) Beispiel: Produktionsplanung Maximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge) Produktionskapazität Ressourcenmenge bei als fest angenommenem

Mehr

Optimierung I. Dr. Ulf Lorenz F2.413

Optimierung I. Dr. Ulf Lorenz F2.413 Optimierung I Dr. Ulf Lorenz F2.413 flulo@upb.de Organisation Dozent: Dr. Ulf Lorenz F2.413 Fürstenallee 11 email: flulo@upb.de WWW: http://www.upb.de/cs/flulo (hier auch aktuelle Infos + Ü-Zettel) Vorlesungen:

Mehr

1 Lineare Optimierung, Simplex-Verfahren

1 Lineare Optimierung, Simplex-Verfahren 1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und

Mehr

Lineare Programmierung

Lineare Programmierung asis Definition 3.38 Gegeben sei ein LP in der Normalform mit m als Rang der Matrix 2 R m n. x 2 R n mit x = b heißt asislösung gdw. n m Komponenten x i gleich Null und die zu den restlichen Variablen

Mehr

3.4 Exakte Verfahren für (Gemischt-) Ganzzahlige Optimierung

3.4 Exakte Verfahren für (Gemischt-) Ganzzahlige Optimierung 32KAPITEL 3. NP-SCHWIERIGE KOMBINATORISCHE OPTIMIERUNGSPROBLEME n Anzahl der Ungleichungen 3 8 4 20 5 40 6 910 7 87.472 8 >488.602.996 Tabelle 3.1: Anzahl der Ungleichungen des LOP-Polytops für n 8 3.4

Mehr

Zu zwei Matrizen A R m n und B R p q existiert das Matrizenprodukt A B n = p und es gilt dann. A B = (a ij ) (b jk ) = (c ik ) = C R m q mit c ik =

Zu zwei Matrizen A R m n und B R p q existiert das Matrizenprodukt A B n = p und es gilt dann. A B = (a ij ) (b jk ) = (c ik ) = C R m q mit c ik = H 6. Die Matrizen A, B, C und D seien gegeben durch 5 A =, B =, C = 4 5 4, D =. 5 7 5 4 4 Berechnen Sie (sofern möglich) alle Matrizenprodukte X Y mit X, Y {A, B, C, D}. Zu zwei Matrizen A R m n und B

Mehr

3. Grundlagen der Linearen Programmierung

3. Grundlagen der Linearen Programmierung 3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations

Mehr

Optimierungsalgorithmen

Optimierungsalgorithmen Optimierungsalgorithmen Jakob Puchinger Algorithmen und Datenstrukturen 2 Arbeitsbereich für Algorithmen und Datenstrukturen Institut für Computergraphik und Algorithmen Technische Universität Wien Übersicht

Mehr

3. Schnittebenenverfahren

3. Schnittebenenverfahren 3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare

Mehr

Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber

Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Sitzplatznr.: Wiederholungsklausur zur Vorlesung Operations Research im Wintersemester

Mehr

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Tardos Janick Martinez Esturo jmartine@techfak.uni-bielefeld.de xx.08.2007 Sommerakademie Görlitz Arbeitsgruppe 5 Gliederung

Mehr

Einführung in die Wirtschaftsinformatik VO WS 2008 / 2009

Einführung in die Wirtschaftsinformatik VO WS 2008 / 2009 Einführung in die Wirtschaftsinformatik VO WS 2008 / 2009 Daten Modelle Steuerung Wilfried Grossmann Teil 3: Steuerung Mathematische Modelle werden häufig dazu verwendet um ein optimales Verhalten zu bestimmen

Mehr

Lagrange-Relaxierung und Subgradientenverfahren

Lagrange-Relaxierung und Subgradientenverfahren Lagrange-Relaxierung und Subgradientenverfahren Wir wollen nun eine Methode vorstellen, mit der man gegebene Relaxierungen verbessern kann. Wir werden die Idee zunächst an der 1-Baum-Relaxierung des symmetrischen

Mehr

6. Softwarewerkzeuge für die Lineare Programmierung

6. Softwarewerkzeuge für die Lineare Programmierung 6. Softwarewerkzeuge für die Lineare Programmierung Inhalt 6. Softwarewerkzeuge für die Lineare Programmierung GNU Linear Programming Kit Operations Research I Hochschule Bonn-Rhein-Sieg, SS 2013 314 GNU

Mehr

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9 Chr.Nelius: Zahlentheorie (SS 2007) 9 4. ggt und kgv (4.1) DEF: Eine ganze Zahl g heißt größter gemeinsamer Teiler (ggt) zweier ganzer Zahlen a und b, wenn gilt: GGT 0 ) g 0 GGT 1 ) g a und g b GGT 2 )

Mehr

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Kapitel 1 Unimodularität Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Inhalt 1 Unimodularität Total unimodulare Matrizen Inzidenzmatrix Optimierungsprobleme auf Graphen Peter

Mehr

Optimierung in R. Michael Scholz

Optimierung in R. Michael Scholz N Optimierung in R Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) Michael Scholz Institut für Statistik und Ökonometrie Georg-August-Universität Göttingen Fortgeschrittene Mathematik: Optimierung

Mehr

OPERATIONS RESEARCH I LINEARE PLANUNGS RECHNUNO UND NETZPLANTECHNIK

OPERATIONS RESEARCH I LINEARE PLANUNGS RECHNUNO UND NETZPLANTECHNIK BODO RUNZHEIMER OPERATIONS RESEARCH I LINEARE PLANUNGS RECHNUNO UND NETZPLANTECHNIK SIMPLEX-METHODE -TRANSPORT-METHODE STRUKTURANALYSE ZEITPLANUNG ZEIT-KOSTEN PLANUNG- ANWENDUNGSMÖGLICHKEITEN 5., VERBESSERTE

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

Vorlesung: Nicht-kooperative Spieltheorie. Teil 4: 2-Personen-Nullsummenspiele

Vorlesung: Nicht-kooperative Spieltheorie. Teil 4: 2-Personen-Nullsummenspiele Vorlesung: Nicht-kooperative Spieltheorie Teil 4: 2-Personen-Nullsummenspiele Dr. Thomas Krieger Wintertrimester 2009 Dr. Thomas Krieger Vorlesung: Nicht-kooperative Spieltheorie 1 Definition 2-Personen-Nullsummenspiele

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,

Mehr

Lineare Programmierung

Lineare Programmierung Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in

Mehr

Vektor-Additions-Systeme und Invarianten

Vektor-Additions-Systeme und Invarianten Vektor-Additions-Systeme und Invarianten http://www.informatik.uni-bremen.de/theorie/teach/petri Renate Klempien-Hinrichs Stellen- und Transitions-Vektoren T -Invarianten S-Invarianten Bezug zu erreichbaren

Mehr

Überbestimmte Gleichungssysteme, Regression

Überbestimmte Gleichungssysteme, Regression Überbestimmte Gleichungssysteme, Regression 8. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas MUL 16. Mai 2013 C. Brand, E. Hausenblas 8. Vorlesung 1 / 19 Gliederung 1 Überbestimmte

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Probabilistische Analyse von Algorithmen

Probabilistische Analyse von Algorithmen Lehrstuhl Informatik I Algorithmen & Komplexität RWTH Aachen 27. Mai 2005 Übersicht Einführung 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s Motivation

Mehr

Reelle Zahlen, Gleichungen und Ungleichungen

Reelle Zahlen, Gleichungen und Ungleichungen 9 2. Vorlesung Reelle Zahlen, Gleichungen und Ungleichungen 4 Zahlenmengen und der Körper der reellen Zahlen 4.1 Zahlenmengen * Die Menge der natürlichen Zahlen N = {0,1,2,3,...}. * Die Menge der ganzen

Mehr

2. Spezielle anwendungsrelevante Funktionen

2. Spezielle anwendungsrelevante Funktionen 2. Spezielle anwendungsrelevante Funktionen (1) Affin-lineare Funktionen Eine Funktion f : R R heißt konstant, wenn ein c R mit f (x) = c für alle x R existiert linear, wenn es ein a R mit f (x) = ax für

Mehr

Integrierte Umlauf- und Dienstplanung im ÖPNV

Integrierte Umlauf- und Dienstplanung im ÖPNV Integrierte Umlauf- und Dienstplanung im ÖPNV Frico 2007 Weíder Dres. Löbel, Borndörfer und GbR Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB) weider@zib.de http://www.zib.de/weider Planung im

Mehr

Kapitel 2: Lineare Optimierung

Kapitel 2: Lineare Optimierung Kapitel 2: Lineare Optimierung Aufgabe 2.1: Lösen Sie zeichnerisch die folgenden LP-Modelle: a) Max. F(x,y) = 4x + 3y b) Max. F(x,y) = x + y c) Max. F(x,y) = x y x + 3y 9 5x + y 1 2x y x + 2y 2 x + 2y

Mehr

A cutting plane algorithm for graph coloring

A cutting plane algorithm for graph coloring A cutting plane algorithm for graph coloring Ein Schnittebenenverfahren zur Färbung von Graphen Bachelor-Thesis von Lena Maria Schwan aus Hachenburg Oktober 2010 Fachbereich Mathematik AG Optimierung A

Mehr

Zur Berechnung ganzer Punkte auf Mordellkurven über globalen Körpern

Zur Berechnung ganzer Punkte auf Mordellkurven über globalen Körpern Zur Berechnung ganzer Punkte auf Mordellkurven über globalen Körpern Michael E. Pohst Institut für Mathematik Technische Universität Berlin 4. Februar, 2015 Mordells Gleichung ist y 2 = x 3 + κ mit einer

Mehr

Sensitivitätsanalyse in der Linearen Optimierung

Sensitivitätsanalyse in der Linearen Optimierung Sensitivitätsanalyse in der Linearen Optimierung Bei der Sensitivitätsanalyse werden i. allg. Größen des Ausgangsproblems variiert, und es wird untersucht, welche Wirkung eine derartige Modifikation auf

Mehr

KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen)

KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen) Mathematisches Institut WS 2012/13 der Heinrich-Heine-Universität 7.02.2013 Düsseldorf Prof. Dr. Achim Schädle KLAUSUR zu Einführung in die Optimierung Bitte folgende Angaben ergänzen und DEUTLICH LESBAR

Mehr

Methoden der linearen Optimierung

Methoden der linearen Optimierung Methoden der linearen Optimierung Mike Hüftle 31. Juli 2006 Inhaltsverzeichnis 1 Einleitung 2 1.1.................................... 2 2 Lineare Optimierung 3 2.1 Lineares Modell............................

Mehr

Diskrete Optimierungsverfahren zur Lösung von Sudokus

Diskrete Optimierungsverfahren zur Lösung von Sudokus Diskrete Optimierungsverfahren zur Lösung von Sudokus Seminarvortrag von Daniel Scholz am 6. Dezember 2006 Am Beispiel der Lösung von Sudokurätseln mit Hilfe der linearen Optimierung werden verschiedenen

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

2.2 Lineare Gleichungssysteme (LGS)

2.2 Lineare Gleichungssysteme (LGS) 2.2 Lineare Gleichungssysteme (LGS) Definition 2.2.. Ein LGS über einem Körper K von m Gleichungen in n Unbekannten x,..., x n ist ein Gleichungssystem der Form a x + a 2 x 2 +... + a n x n = b a 2 x +

Mehr

Das Multi Traveling Salesman Problem

Das Multi Traveling Salesman Problem Das Multi Traveling Salesman Problem Harald Voit Seminar Ganzzahlige Optimierung 19. bis 21. Januar 2007 Wallenfels Das Multi Traveling Salesman Problem p.1/26 Übersicht Vom TSP zum ATSP Das Multi Traveling

Mehr

Optimierung Operations Research Spieltheorie

Optimierung Operations Research Spieltheorie 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Karl Heinz Borgwardt Optimierung Operations Research Spieltheorie

Mehr

Vorwort Abbildungsverzeichnis Teil I Mathematik 1

Vorwort Abbildungsverzeichnis Teil I Mathematik 1 Inhaltsverzeichnis Vorwort Abbildungsverzeichnis V XIII Teil I Mathematik 1 1 Elementare Grundlagen 3 1.1 Grundzüge der Mengenlehre... 3 1.1.1 Darstellungsmöglichkeiten von Mengen... 4 1.1.2 Mengenverknüpfungen...

Mehr

Netzwerk-Simplex. MinCostFlow als Lineares Programm. 1 of 12 Netzwerksimplex

Netzwerk-Simplex. MinCostFlow als Lineares Programm. 1 of 12 Netzwerksimplex Netzwerk-Simplex MinCostFlow als Lineares Programm of 2 Netzwerksimplex MinCostFlow geg: gerichteter Graph G, Kapazitäten u R R 0 { }, Bedarfe b V R, Pfeilkosten c R R ges: zulässiger b-fluss f mit minimalen

Mehr

Tropische Kurven zählen. Enumerative Geometrie. Alg. Geometrie. Beispiel Strategie. Geometrie. Kurven Multiplizität Correspondence Theorem Ergebnisse

Tropische Kurven zählen. Enumerative Geometrie. Alg. Geometrie. Beispiel Strategie. Geometrie. Kurven Multiplizität Correspondence Theorem Ergebnisse Alg. Ebene e Hannah Markwig Technische Universität Kaiserslautern 6. Juli 2006 Alg. Inhalt 1 () 2 3 Der Algorithmus zum Zählen ebener 4 Der Algorithmus Alg. Algebraische Geometrische Objekte sind Nullstellengebilde

Mehr

Optimierungsprobleme. B. Langfeld, M. Ritter, B. Wilhelm Diskrete Optimierung: Fallstudien aus der Praxis

Optimierungsprobleme. B. Langfeld, M. Ritter, B. Wilhelm Diskrete Optimierung: Fallstudien aus der Praxis Optimierungsprobleme Instanz eines Optimierungsproblems zulässiger Bereich (meist implizit definiert) Zielfunktion Optimierungsrichtung opt {max, min} Optimierungsproblem Menge von Instanzen meist implizit

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel

Mehr

Übungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung.

Übungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung. Übungsaufgaben Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler Teil : Lineare Algebra und Optimierung Wintersemester Matrizenrechnung Aufgabe ( 3 0 Gegeben sind die Matrizen A = 2 5 2 4 D =

Mehr

1. Entscheidung bei Unsicherheit

1. Entscheidung bei Unsicherheit Prof. Dr. Ma C. Wewel Lösungen zu den Übungsaufgaben Management Science Seite. Entscheidung bei Unsicherheit A. B. C. 6 km 6 km 6 km D. a) Nutzenmatri (Kundenanteile von K in %) u(k A,M A ), 6 +, 6 +,

Mehr

. tr K/Q (b n b 1 ) tr K/Q (b n b n ) Verhalten der Diskriminante unter Basistransformation

. tr K/Q (b n b 1 ) tr K/Q (b n b n ) Verhalten der Diskriminante unter Basistransformation Definition der Diskriminante Sei K ein Zahlkörper, also eine endliche Körpererweiterung von Q. Sei b 1,..., b n eine Basis von K als Q-Vektorraum. Dann heißt die rationale Zahl tr K/Q (b 1 b 1 ) tr K/Q

Mehr

Klassifikation von Signifikanztests

Klassifikation von Signifikanztests Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Daniel Borchmann. Sommerakademie Görlitz September 2007

Daniel Borchmann. Sommerakademie Görlitz September 2007 Einführung in Semidenite Programmierung Daniel Borchmann Sommerakademie Görlitz 2007 12. September 2007 1 Einleitung Lineare Optimierung Semidenite Optimierung 2 MAX-CUT MAX-BISECTION MAX-2SAT Einleitung

Mehr

Extrema mit Nebenbedingungen

Extrema mit Nebenbedingungen Extrema mit Nebenbedingungen Gesucht ist das Extremum der Funktion f(x,y) = 5 x y unter der Nebenbedingung g(x,y) = x+y =. 5 y x In diesem einfachen Fall kann die Nebenbedingung nach einer Variablen aufgelöst

Mehr

Diskrete Optimierung (Einführung zur Vorlesung)

Diskrete Optimierung (Einführung zur Vorlesung) Diskrete Optimierung (Einführung zur Vorlesung) Christoph Helmberg : [,] Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete

Mehr

Approximation im Sinne der Analysis:

Approximation im Sinne der Analysis: 1 Approximation im Sinne der Analysis: Satz von Weierstrass: (1815-1897) Sei f eine stetige Funktion auf [a, b]. Dann gibt es zu jedem ε > 0 ein Polynom P ε mit: max x [a,b] f(x) P ε(x) < ε Numerische

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Aufgaben zur nicht-linearen Optimierung Teil II Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Aufgabe 5 Bestimmen

Mehr

16. FUNKTIONEN VON MEHREREN VARIABLEN

16. FUNKTIONEN VON MEHREREN VARIABLEN 16. FUNKTIONEN VON MEHREREN VARIABLEN 1 Reelle Funktionen auf dem R 2 Wir betrachten Funktionen f(x 1, x 2 ) von zwei reellen Variablen x 1, x 2, z.b. f(x 1, x 2 ) = x 2 1 + x2 2, g(x 1, x 2 ) = x 2 1

Mehr

Gleichungen (und Ungleichungen)

Gleichungen (und Ungleichungen) Gleichungen (und Ungleichungen) Äquivalente Umformungen Bruchgleichungen Wurzel-, Logarithmen- und Exponentialgleichungen Betragsgleichungen Gleichungen mit Parametern 1 Allgemeines über Gleichungen Gleichungen

Mehr

Lineare Optimierungsmodelle

Lineare Optimierungsmodelle Lineare Optimierungsmodelle Simplex-Methode Vortragender: Michael Schneider Agenda Motivation Operations Research Aufbau linearer Optimierungsmodelle Simplex-Methode Ausblick 2 Problemstellung Futtermischung

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)

Mehr