Standard-/kanonische Form Simplex Dualität Kompl./Sensitivität Spaltengen. Schnittebenen Welchen? Inhalt

Größe: px
Ab Seite anzeigen:

Download "Standard-/kanonische Form Simplex Dualität Kompl./Sensitivität Spaltengen. Schnittebenen Welchen? Inhalt"

Transkript

1 Inhalt Lineare Optimierung Standardform und kanonische Form Der Simplex-Algorithmus Dualität Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? 54: 54 [54,54]

2 3 Lineare Optimierung Zwei typische Schreibweisen für ein Lineares Programm (LP) LP in Standardform min s.t. c T x Ax = b x 0 LP in kanonischer Form max s.t. c T x Ax b x 0 Wenn nicht anders erwähnt, dann c R n, A R m n, b R m. x 0 und Ax b sind jeweils elementweise zu vestehen, also x 0 : x R n + = {x R n : x i 0, i = 1,... n} Egal ob man minimieren oder maximieren will, Gleichungen oder Ungleichungen hat, Variablen mit oder ohne Nichtnegativitätsbedingungen hat, man kann jedes LP in so eine Form bringen. 55: 55 [55,55]

3 Umformen von LPs maximieren minimieren: max c T x s.t. Ax = b, x 0 min( c) T x s.t. Ax = b, x 0 Gleichungen Ungleichungen: [ A Ax = b A ] [ x b b Ungleichungen Gleichungen: durch Schlupfvariablen s 0 max s.t. c T x Ax b x 0 max c T x [ ] x s.t. [A, I ] = b s x 0, s 0 ] [I Identität] Statt jeder freien Variable x i R zwei vorzeichenbeschränkte: x + i 0 und x i 0 mit x i = x + i x i 56: 56 [56,56]

4 Kleines Beispiel zur Illustration: Mozart-Problem Maximiere den Gewinn bei Produktion von Mozart-Kugeln und -Talern: Marzipan Nougat Edelherb Gewinn Pro Kugel: 2 Teile 1 Teil 1 Teil 3 Euro Pro Taler: 1 Teil 1 Teil 2 Teile 2 Euro verfügbar: 10 Teile 6 Teile 9 Teile Variablen: x K... Anzahl Kugeln x T... Anzahl Taler max 3x K + 2x T s.t. 2x K + 1x T 10 1x K + 1x T 6 1x K + 2x T 9 x K 0, x T 0 min [ 3, 2, 0, 0, 0]x s.t x = x 0 [x R 5 +] : 57 [57,57]

5 Anwendung: Tschebyscheff-Approximation z.b. in der Filtersynthese (hier stark vereinfacht): Eine gewünschte Impulsantwort (geg. Funktion) h : [0, 1] R soll möglichst gut durch gewichtete Addition verfügbarer Impulsantworten h i : [0, 1] R, i = 1,..., n dargestellt werden. Modellierung: h(t) n i=1 x ih i (t) für gegebene t j [0, 1], Variable x i R, i = 1,..., n als Gewicht von h i, Diskretisierung von [0, 1] z.b. in Schritte t j := j 1 m 1, j = 1,..., m min s [max. Abweichung über alle t j ] s.t. 58: 58 [58,58] s h(t j ) n i=1 x ih i (t j ) s, j = 1,..., m, x R n, s R h(t j ) und h i (t j ) sind mit Diskretisierung t j gegebene Konstanten! Mathematisches Problem: Minimiere Ax b über x R n [ d := max i=1,...,m d i Unendlich-Norm für d R m ] min s s.t. 1s Ax b 1s 1 = [1, 1,..., 1] T x R n, s R

6 Ähnlich: 1-Norm Minimierung Mathematisches Problem: Minimiere Ax b 1 über x R n [ d 1 := m i=1 d i 1-/Manhattan-Norm für d R m ] Variable s i d i s i d i s i (i {1,..., m}) Formulierung als LP: min s.t. 1 T s I s Ax b I s x R n, s R m Im Gegensatz zur -Norm ist es bei der 1-Norm egal, wo die Abweichung groß ist, solange die Summe klein bleibt. Ausreißer fallen weniger ins Gewicht (aber es gibt meist auch ein paar Koordinaten mit starker Abweichung). 59: 59 [59,59]

7 Geometrische LP-Interpretation: WH Skalarprodukt c T x c T x = c x cos α mit α Winkel zw. c und x. Für c = 1 ist (wie im Bild) c T x die Länge der Projektion von x auf die Gerade {γc : γ R} {x : c T x γ} ist der Halbraum aller Punkte, deren Projektion auf c kleiner gleich γ ist. c ist Gradient der linearen Fkt. c T x (zeigt in Richtung steilster Anstieg) Für A = a T 1. a T m x α c T x T c x< γ T c x= γ ist Zeile j von Ax b gerade a T j x b j T c c x> γ 60: 60 [60,60]

8 Geometrische Interpretation: am Mozart-Problem Wegen x K 0 x K 0 ist [ max 3 2 ] x c T 2 1 a1 T 1 1 [ ] s.t. 1 2 xk a2 T x T a3 T wieder das Mozart-Problem e T 1 e T 2 Definition Ein Polyeder ist der Schnitt endlich vieler Halbräume. Die zulässige Menge jedes LPs ist also ein Polyeder. e 1 x T a 2 a 1 e 2 c a 3 x K 61: 61 [61,61]

9 Geometrische Interpretation: Optimallösung Wegen x K 0 x K 0 ist [ max 3 2 ] x c T 2 1 a1 T 1 1 [ ] s.t. 1 2 xk a2 T x T a3 T 62: 62 [62,62] wieder das Mozart-Problem e T 1 e T 2 Offensichtlich ist eine Ecke des Polyeders eine Optimallösung, sie erfüllt Dimension viele Ungleichungen mit Gleichheit, hier: a1 T [ ] [ ] [ ] 2 1 xk 10 a2 T = x 1 1 x T 6 K = 4, x T = 2 Ecken sind besonders wichtig! Interpretation in Standardform? e 1 x T a 2 a 1 e 2 c a 3 x K

10 Interpretation einer Ecke in Standardform (Standardform: nur Gleichungsnebenbed. durch Schlupfvariablen) max s.t. [ ] x x = x K 0, x T 0, s 1 0, s 2 0, s 3 0 In dieser Darstellung ist n = 5, m = 3. Jeder Ungleichung ist genau eine Schlupfvariable zugeordnet! (s i Zeile i, x K für x K 0 und x T für x T 0) Wegen der m Gleichungen hat das Polyeder Dimension n m. Jede Ecke erfüllt n m weitere Ungleichungen als Gleichungen ( Schlupfvariablen sind 0), die eindeutig diesen Punkt festlegen, der sich ergebende Wert der anderen Schlupfvariablen (= Abstand zu Ungleichungen) muss dabei nichtnegativ sein (sonst unzul. ). e 1 x T a 2 a 1 e 2 c a 3 x K 63: 63 [63,63]

11 Inhalt Lineare Optimierung Standardform und kanonische Form Der Simplex-Algorithmus Dualität Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? 64: 64 [64,64]

12 3.2 Der Simplex-Algorithmus (für Standardform) Gegeben A R m n, b R m, c R n, mit Rang A = m, bestimme 65: 65 [65,65] min c T x s.t. Ax = b, x 0 Idee: Gehe von der aktuellen Ecke zu einer benachbarten besseren. Notation: Für B {1,..., n} m sei A B := [A,B(1),..., A,B(m) ] R m m. B {1,..., n} m heißt Basis, falls A B regulär ist. Wir fassen eine Basis B auch als Menge von Spaltenindices auf, definieren eine dazupassende Nichtbasis N ({1,..., n} \ B) n m mit B N = {1,..., n}, dann teilt sich das System in Ax = b A B x B + A N x N = b x B = A 1 B (b A Nx N ). Jede Wahl x N R n m erzwingt ein eindeutiges x B zu einer gemeinsamen Lösung x von Ax = b. Gilt für x N = 0, dass x B = A 1 B b 0, heißt die Basis zulässig. Die Nichtbasisvariablen x i, i N, werden auf 0 gesetzt, die Basisvariablen x i, i B, durch x B = A 1 B b bestimmt.

13 Eine benachbarte bessere Ecke finden 66: 66 [66,66] B sei nun eine zulässige Basis, also 0 x B := A 1 B (b A N x N ) für x N := 0 Benachbarte Ecke: Eine Gleichung x i = 0 mit i N aufgeben und x i vergrößern bis die nächste Ungleichung erreicht wird. Veränderung der Zielfunktion abhängig von x N : e1 x T a1 a 2 x K ++ c T x = cb T x B + cn T x N = cb T A 1 B b + (c N A T N A T B c B) }{{} =: z N e 2 c T xn Die reduzierten Kosten z N zeigen die Veränderung abh. von x N an. Ist z N 0 Ecke nicht verbesserbar, Optimallösung gefunden. Sonst wähle im Pricing-Schritt ein î N mit zî < 0 xî ist die (in die Basis) eintretende Variable und wird vergrößert. a3 x K

14 Zur Zulässigkeit muss x B = A 1 B (b A îxî) 0 bleiben, [Aî Spalte î] mit w := A 1 B A î muss wxî x B erfüllt sein. Ist w 0 darf xî beliebig groß werden Problem unbeschränkt. Sonst wähle im Ratio-Test { } xb(j) ĵ Argmin j=1,...,m : w j > 0 w j x B(ĵ) ist die (aus der Basis) austretende Variable. Sie wird nun im Basisaustauschschritt durch xî ersetzt, N N \ {î} {B(ĵ)}, B(ĵ) î, und der Algorithmus wird von dieser neuen Ecke aus fortgesetzt. 67: 67 [67,67]

15 Das (primale revidierte) Simplex-Verfahren Input: zulässige Basis B, x B = A 1 B b 0 1. BTRAN: Bestimme ȳ := A T B c B durch Lösen von A T B y = c B. 2. PRICE: z N := c N A T Nȳ. Ist z N 0, STOP (Optimallösung), sonst wähle î N mit zî < FTRAN: Bestimme w := A 1 B A î durch Lösen von A B w = Aî. 4. RATIO: Ist w 0, STOP (Problem { unbeschränkt), } sonst wähle xb(j) ĵ Argmin j=1,...,m w j : w j > 0, ξ := x B(ĵ) wĵ 5. Update: x B := x B ξ w, xî := ξ, N := (N \ {î}) {B(ĵ)}, B(ĵ) := î, GOTO 1. (Lösung der Glgssysteme nutzt sparsity etc., nicht invertieren!) Das Paar (ĵ, î) wird auch Pivot-Element genannt. 68: 68 [68,68]

16 Endlichkeit und Kreisen In jeder Iteration mit ξ > 0 wird der Zielfunktionswert strikt besser, und der Algorithmus besucht diese Ecke nie wieder. 69: 69 [69,69] Ist ξ = 0, wechselt man nur zu einer anderen Basisdarstellung derselben Ecke (sie liegt auf mehr als n m Ungleichungen). Bei ungünstiger Wahl in Pricing und Ratio-Test wird die gleiche Basis später wieder besucht der Algorithmus kreist. Mit den Auswahlregeln von Bland (wähle aus den erlaubten Variablen jeweils die mit kleinstem Index) wird jede Basis höchstens einmal besucht und der Algorithmus endet nach endlich vielen Iterationen. (In der Praxis nimmt man andere Auswahlregeln und nutzt Bland nur, wenn Kreisen beobachtet wird.) Hat ein LP zwei unterschiedliche Basen, die den gleichen Punkt beschreiben, nennt man das LP und derartige Basen degeneriert oder entartet. Für entartete LPs kann der Simplex-Algorithmus sehr langsam sein, dann sind Innere-Punkte-Verfahren (s. dort) meist besser.

17 Finden einer zulässigen Ausgangsbasis Die 2-Phasen-Methode Löse in Phase 1 das Hilfsproblem (o.b.d.a. b 0) zul. Anfangs-Basis: die Spalten von s min 1 T s Ist Optimalwert=0 zul. Basis des Originalproblems gefunden, löse dieses in Phase s.t. Ax + Is = b x 0, s 0 2. Liefert überprüfbaren Nachweis (Zertifikat) für (Un-)Zulässigkeit! Die Big-M Methode (o.b.d.a. b 0) min s.t. c T x + M1 T s Ax + Is = b x 0, s 0 zul. Basis: die Spalten von s Ist M > 0 groß genug, werden die s i = 0. Vorteil: sucht gleich gute Basis Nachteil: Wie groß muss M sein? 70: 70 [70,70] In Standard-Software muss man sich darum nicht kümmern!

18 Mit dem Simplex-Algorithmus zeigt man Satz (Hauptsatz der Linearen Optimierung) Hat ein LP in Standardform einen endlichen Optimalwert, so wird dieser auch in einer Ecke angenommen. 71: 71 [71,71]

19 Inhalt Lineare Optimierung Standardform und kanonische Form Der Simplex-Algorithmus Dualität Anwendung: Spieltheorie Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? 72: 72 [72,72]

20 3.3 Dualität Mit jedem konvexen Minimierungsproblem löst man automatisch ein verwandtes konvexes Maximierungsproblem, das als die Bestimmung einer besten Schranke für den Optimalwert des Originalproblems interpretiert werden kann. Die duale Optimallösung (wenn sie existiert) gibt wichtige Zusatzinformation über das Originalproblem. Für Lineare Optimierung ist das besonders einfach und anschaulich. 73: 73 [73,73]

21 Untere Schranken, algebraisch 74: 74 [74,74] Eine Ungleichung a T x α heißt gültig für ein Optimierungsproblem mit zulässiger Menge X, wenn sie für alle x X erfüllt ist. a T Betrachte X := {x : Ax b} mit A = 1.. Nichtneg. Linearkombination der Zeilen Ax b und r.s. verkleinern a T m a T 1 x b 1 y 1 ( 0). amx T b m y m ( 0) 0 T x 1 η( 0) : (y T A)x y T b η [ x X ] liefert eine gültige Ungleichung für X (und man erhält alle so!). Für ein ȳ 0 mit A T ȳ = c folgt min{c T x : Ax b} b T ȳ. Die größte untere Schranke? max{b T y : A T y = c, y 0}

22 Das Duale in Normalform Betrachte min c T x s.t. Ax = b, x 0. Erlaubte Linearkombination der Zeilen Ax = b und Ix 0 a T 1 x = b 1 y 1 ( R). amx T = b m y m ( R) e1 T x 0 z 1( 0). en T x 0 z n ( 0) : (y T A + z T I )x y T b Die beste untere Schranke liefert das Duale LP in Normalform: max b T y max b T y s.t. A T y + z = c y R m, z 0 s.t. A T y c y R m, 75: 75 [75,75] y und z sind die Dualvariablen.

23 Dualisierungsregeln Nach dem gleichen Muster ergibt sich min c T x max b T y Ax b y 0 Ax b y 0 Ax = b y frei x 0 A T y c x 0 A T y c x frei A T y = c Insbesondere ist das Duale des Dualen LPs wieder das Primale LP. 76: 76 [76,76]

24 Mozart: das Duale geometrisch (P M ) (D M ) A = 77: 77 [77,77] [ ] 3 max s.t. c T x Ax b x 0 min b T y s.t. A T y c y 0 e1, b =, c = 2 1 ȳ = 0 A T ȳ = 2 [ 4 5 x T a 2 a 1 e 2 ] c, b T ȳ = 28 c a 1+ 2a 3 a 3 x K

25 Mozart: das Duale optimal (P M ) max s.t. c T x Ax b x 0 min b T y (D M ) s.t. A T y c a 2 y 0 a 1+a 2 = c A = , b = 10 e1 6, a [ ] 3 c = 2 e2 1 [ ] [ ȳ = A T ȳ = = c, b 2 T ȳ = 16, x = : 78 [78,78] x T a 1 ] x K

26 Wo ist das Duale im Simplex-Algorithmus? Input: zulässige Basis B, x B = A 1 B b 1. BTRAN: Bestimme ȳ := A T B c B durch Lösen von A T B y = c B. 2. PRICE: z N := c N A T Nȳ, ist z N 0, STOP (Optimallösung), sonst wähle î N mit zî < 0.. (P) 79: 79 [79,79] min c T x s.t. [A B, A N ] x 0 [ xb x N ] =b (D) max b [ T y A T s.t. B A T N ] [ zb y + y R m, z 0 1. Schritt: Setze z B = 0 und löse 1. duale Block-Zeile ȳ 2. Schritt: Bestimme z N aus der 2. dualen Block-Zeile Ist die duale Lösung zulässig ( z N 0), ergibt das die Schranke z N ] [ cb = c N min x X ct x ȳ T b = c T B A 1 B b = c B x B = c T x [ OL] Beachte: PRICE sucht einfach ein dual unzulässiges z i mit i N! ]

27 (D) max b T y s.t. Das duale Simplex-Verfahren [ A T B A T N ] y + [ zb z N ] = [ cb c N ], y R m, z 0 Dual zulässige Basis: z B = 0, y = A T B (c B z B ), z N = c N A T N y 0 Kostenänderung in Abh. von z B : y T b = cb T c B zb T A 1 B }{{ b } =: x B Input: dual zulässige Basis B, ȳ = A T B c b, z N = c N A T Nȳ 0 1. FTRAN: Bestimme x B := A 1 B b durch Lösen von A Bx B = b. 2. PRICE: Ist x B 0, STOP (Optimallösung), sonst wähle ĵ {1,..., m} mit x B(ĵ) < BTRAN: Bestimme w := A T ĵ und berechne ω N := A T N w B 4. RATIO: Ist ω N 0 STOP (Duales unbeschränkt), sonst wähle î Argmin i N { z i ω i : ω i > 0}, ζ := z î ωî 5. Update: ȳ := ȳ ζ w, z N := z N ζ ω, z B(ĵ) := ζ N := (N \ {î}) {B(ĵ)}, B(ĵ) := î, GOTO 1. 80: 80 [80,80]

28 81: 81 [81,81] (P) min s.t. Schwache und Starke Dualität c T x Ax = b x 0 (D) max s.t. b T y A T y + z = c y R m, z 0 Ist x primal zulässig und (y, z) dual zulässig, dann gilt c T x b T y = (A T y + z) T x b T y = (Ax b) T y + z T x = z T x 0 Schwache Dualität: Der Wert jeder zulässigen Lösung beschränkt den Optimalwert des jeweils Dualen. [gilt immer!] Ist ein LP unbeschränkt, ist dessen Duales unzulässig. Dualitätslücke: Differenz aus primalem und dualem Optimalwert. Starke Dualität: Primaler und dualer Optimalwert sind gleich, (beide werden angenommen). [gilt i.a. nicht für Konv. Opt.] Satz (Starke Dualität in der Linearen Optimierung) Hat ein LP einen endlichen Optimalwert, so wird dieser sowohl primal als auch dual angenommen. Beweis: Simplex-Alg. mit Auswahlregeln von Bland.

29 Es können beide unzulässig sein! (P u ) max x 1 s.t. x 1 x 2 1 x 1 + x 2 0 x 1 0, x 2 0 (D u ) (P u ) Es kann nicht x x 1 und x 2 x 1 sein. (D u ) Es kann nicht y y 2 und y 1 y 2 sein. max y 1 s.t. y 1 y 2 1 y 1 + y 2 0 y 1 0, y : 82 [82,82]

30 Anwendung: Spieltheorie 2-Personen Matrix-Spiel: Für eine gegebene Auszahlungsmatrix M R m n wählt Spieler 1 (S1) eine Zeile i und Spieler 2 (S2) eine Spalte j. Spieler 1 zahlt an Spieler 2 den Betrag M ij. 83: 83 [83,83] Wenn S2 weiß, dass S1 Zeile i wählt, wählt S2 max j=1,...,n (M T e i ) j. S1 bestimmt eine optimale Wahrscheinlichkeits-Verteilung für eine zufällige Zeilenwahl, um nicht so leicht voraussagbar zu sein: min max j=1,...,n (M T min s x) j s.t. 1 T s.t. s (M x = 1 (P 1 ) T x) j j = 1,..., n 1 x 0 T x = 1 x 0, s R S2 tut das gleiche für sich max min i=1,...,m (My) i s.t. 1 T y = 1 y 0 (P 2 ) max t s.t. t (My) j i = 1,..., m 1 T y = 1 y 0, t R (P 2 ) ist das Duale zu (P 1 ), beide sind zul., also ist v(p 1 ) = v(p 2 ). Man muss die Strategie des Gegners gar nicht kennen!

31 Inhalt Lineare Optimierung Standardform und kanonische Form Der Simplex-Algorithmus Dualität Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? 84: 84 [84,84]

32 85: 85 [85,85] (P) min s.t. c T x Ax = b x 0 Komplementarität (D) max s.t. b T y A T y + z = c y R m, z 0 c T x b T y = z T x 0 gilt für bel. primal und dual zul. Lösungen. Satz (vom komplementären Schlupf) Primal und dual zulässige Lösungen x und (ȳ, z) sind genau dann optimal, wenn x i z i = 0 für i = 1,..., n. Eine Ungleichung heißt aktiv in einem Punkt, wenn sie in dem Punkt mit Gleichheit erfüllt ist, sonst nicht aktiv oder inaktiv. Folgerungen: Ist in einer OL eine Variable in x oder z > 0, ist deren duale Ungleichung in jeder OL des jeweiligen dualen aktiv! Ist in einer OL eine Unglg. des LPs inaktiv, ist deren Dualvariable in jeder OL des jeweiligen dualen gleich Null! Tatsächlich gibt die Größe der Dualvariablen wesentliche Information über den Einfluss der Unglg. auf den Optimalwert...

33 e 1 Geometrische Interpretation der Komplementarität x T e 2 a 2 a 1 (P M ) a +a =c 1 2 a 3 max s.t. x K c T x Ax b x 0 A = (D M ) min s.t., b = b T y A T y c y [ ] 3, c = 2 Inaktive Ungleichungen können nicht zur besten Schranke beitragen, die aktiven Restr. halten die OL. (Gleichungen sind immer aktiv!) y j a j (bzw. z i ) ist Kraftanteil von Restriktion i im Kräftegleichgewicht. Der Gradient der Zielfunktion liegt im Kegel der Gradienten der aktiven Restriktionen. (Die Vorzeichen sind je nach Richtungen anzupassen!) 86: 86 [86,86]

34 Sensitivitätsanalyse Wie sensibel reagiert die OL auf Änderungen in welchen Daten? (P) min s.t. c T x Ax = b x 0 (D) max s.t. b T y A T y + z = c y R m, z 0 Wie weit ist b veränderbar bei gleicher optimaler Basis B? x B = A 1 B b 0, y = A T B c B, z N = c N A T N y 0 b(t) := b + t b erhält duale Zul. für t R, primale aber nur wenn x B (t) = xb +t A 1 B }{{ b 0 max } [x B ] i [ x B ] i >0 [ x B ] i t max =: x B Für diese t ist der Optimalwert = b T y + t b T y (Kompl.!), sonst ist dieser Wert auf jeden Fall eine untere Schranke. 87: 87 [87,87] [x B ] i [ x B ] i <0 [ x B ] i Für b = e j beziffert yj die marginalen Kosten der Veränderung, bei Ressourcennebenbed. heißen die yj oft Schattenpreise.

35 Sensitivitätsanalyse für die Kostenkoeffizienten Wie weit ist c veränderbar bei gleicher optimaler Basis B? x B = A 1 B b 0, y = A T B c B, z N = c N A T N y 0 c(t) := c + t c erhält primale Zul. für t R, duale aber nur wenn z N (t) = zn + t ( c N A T N A T B c B) 0 }{{} =: z N max [ z N ] i >0 [z N ] i [ z N ] i t max [ z N ] i <0 [z N ] i [ z N ] i Für diese t ist der Optimalwert = c T x + t c T x (Kompl.), sonst ist dieser Wert eine obere Schranke. 88: 88 [88,88]

36 Inhalt Lineare Optimierung Standardform und kanonische Form Der Simplex-Algorithmus Dualität Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? 89: 89 [89,89]

37 3.5 Spaltengenerierung Was tun, wenn es zu viele Variablen gibt um das LP aufzustellen? Das Simpex-Verfahren benötigt je Iteration nur die Basis-Variablen (x N = 0!), solange eine verbessernde Nichtbasis-Spalte in PRICE erzeugt werden kann. Das nutzt die Spaltengenerierung. Am Beispiel: Zuschnittproblem: Aus möglichst wenigen Metern von Standardblechrollen der Breite (b 0 = 1000mm) sollen kleinere Breiten b j (in mm) mit Gesamtlänge h j, j = 1,..., m geschnitten werden. 90: 90 [90,90]

38 Modellierung des Zuschnittproblems 91: 91 [91,91] Daten: Länge h j der Breite b j N (j = 1,..., m) aus Breite b 0 Modell: Schnittmuster s N m 0 enthält die Breite b j genau s j mal. { Menge der zul. Schnittmuster: S = s N m 0 : } m j=0 s jb j b 0 Variable x s gibt die Länge an, mit der s S geschnitten wird. [sx s ] j ist der Beitrag von Schnittmuster s zum Bedarf h j. min s S x s max h T y (P S ) s.t. s S sx s h (D S ) s.t. s T y 1 s S x 0 y 0 sucht die minimal notwendige Gesamtlänge um alle h j zu erfüllen. Schwierigkeit: S ist riesig! Idee: Starte mit Ŝ = {e j : j = 1,..., m}, löse (PŜ) ŷ, bestimme, wie in PRICE, s S mit kleinsten red. Kosten s Argmin s S ẑ }{{} s := 1 s T ŷ setze Ŝ := Ŝ { s}, iteriere. Pricingproblem

39 Das Pricingproblem des Zuschnittproblems Für ŷ 0, b j N (j = 0,..., m), bestimme s Argmin s S {1 s T ŷ} 92: 92 [92,92] max ŷ T s s.t. b T s b 0, s N m 0 Dieses ganzzahlige Optimierungsproblem heißt Rucksackproblem. Falls b 0 nicht zu groß, gut rekursiv lösbar (dynamic programming). Die beste Füllung bis Kapazität b mit Objekten 1,..., k hat den Wert k k F ( b, k) := max ŷ j s j : b j s j b, s j N 0 für b = 0,..., b 0, k = 0,..., m, j=1 j=1 wobei F (0, 0) := 0 und F ( b, k) := für ( b) N, k = 0,..., m. Nun gilt F ( b, k) = max { } b = 1,..., b F ( b, k 1), F ( b b k, k) + ŷ k für 0, k = 1,..., m. (Entweder k nicht verwenden oder k einmal verwenden und Rest bestmöglich füllen)

40 Beispiel Rucksackproblem b 0 = 10, b 1 = 3, b 2 = 5, b 3 = 6, ŷ 1 = 2, ŷ 2 = 4, ŷ 3 = 5 F ( b, k) = max { F ( b, k 1), F ( b b k, } b = 1,..., b k) + ŷ k für 0, k = 1,..., m. b F ( b, 0) F ( b, 1) F ( b, 2) F ( b, 3) (1) 8 (2) 8 (2) 9 0 6(1) 6 (1) 7 (3) 8 0 4(1) 6 (2) 6 (2) 7 0 4(1) 4 (1) 5 (3) 6 0 4(1) 4 (1) 5 (3) 5 0 2(1) 4 (2) 4 (2) 4 0 2(1) 2 (1) 2 (1) 3 0 2(1) 2 (1) 2 (1) Rekonstruktion der Lösung durch Objektindices. 93: 93 [93,93]

41 Zusammenfassung Spaltengenerierung Zuschnittproblem 94: 94 [94,94] Daten: Länge h j der Breite b j (j = 1,..., m) aus Breite b 0 0. Schritt: Ŝ = {e j : j = 1,..., m} (pro j: Breite j einmal) 1. Schritt Ermittle OLen ˆx, ŷ von (PŜ) min s.t. s Ŝ x s s Ŝ sx s h x 0 (DŜ) max h T y s.t. s T y 1 s Ŝ y 0 2. Schritt: Löse das Pricingprobelm als Rucksack max (ŷ ) T s s.t. b T s b 0, s N m 0 s 3. Schritt: Ist 1 s T ŷ 0 (oder beinahe) STOP (gut genug) sonst Ŝ := Ŝ { s}, GOTO 1. (auch Entfernen ungebrauchter Muster möglich) Bemerkungen zur Praxis: Anfangsmenge Ŝ muss Zulässigkeit und endliche OL garantieren Verwendet m verschiedene Schnittmuster (# Basisvar.). Oft zu viele! Längen ˆx S nicht ganzzahlig, oft wenige lange, einige sehr kurze Anfangs gute Verbesserung, dann SEHR langsam (tailing off effect)

42 Inhalt Lineare Optimierung Standardform und kanonische Form Der Simplex-Algorithmus Dualität Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? 95: 95 [95,95]

43 3.6 Schnittebenenverfahren Gleiche Idee, wenn es zu viele Ungleichungen a T j x b j, j I gibt: 96: 96 [96,96] 0. Schritt: Wähle Î I, die endliche OL garantiert 1. Schritt Ermittle OLen ˆx, ŷ von (PÎ) min max ct x s.t. aj T (DÎ) s.t. x b j j Î j Î b jy j j Î a jy j c y 0 2. Schritt: Löse das Separierungsproblem: Finde eine (maximal) verletzte Ungleichung j Argmax j I {b j a T j ˆx } 3. Schritt: Ist b j a T j ˆx 0 (oder beinahe) STOP (gut genug) sonst Î := Î { j}, GOTO 1. (auch Entfernen inaktiver Ungleichungen möglich) Bemerkungen: Schnittebenenvefahren = Spaltengenerierung im Dualen gute Erfolge in kombinatorischer/ganzz. Optimierung Eher ungünstig: Linearisierung konvexer Nebenbedingungen Je nach separierter Unglg.-Klasse starker tailing off effect

44 Konvexe Nebenbedingungen mit Schnittebenen Problem: Schleifende Schnitte numerisch ungünstig, ungenau 97: 97 [97,97]

45 Inhalt Lineare Optimierung Standardform und kanonische Form Der Simplex-Algorithmus Dualität Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? 98: 98 [98,98]

46 3.7 Wann primalen, wann dualen Simplex verwenden? Für ein festes LP: Für viele LPs aus der Praxis scheint der duale Simplex etwas schneller zu sein (vermutlich weil viele LPs nach ähnlichen Denkmustern erstellt werden). Innere-Punkte-Verfahren (s. später) sind bei großen Instanzen oft schneller und weniger anfällig bzgl. Degeneriertheit, aber ein Test lohnt sich. Spaltengenerierung: Nach Einfügen von Variablen bleibt die primale Basis zulässig (die alte Duale Lösung nicht), also setzt man mit dem primalen Simplex direkt fort! (Innere-Punkte-Verfahren sind dafür ungeeignet) Schnittebenen-Verfahren: Nach Einfügen einer Schnittebene bleibt die duale Basis zulässig (die alte primale Lösung nicht), also setzt man mit dem dualen Simplex direkt fort! (Innere-Punkte-Verfahren sind dafür ungeeignet) 99: 99 [99,99]

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Dualität Anwendung: Spieltheorie Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? Inhaltsübersicht für heute: Dualität

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

6. Einführung 43. gilt. Dann soll also A B x B = b eindeutig lösbar sein, also A B vollen Rang haben, d. h. invertierbar (regulär) sein.

6. Einführung 43. gilt. Dann soll also A B x B = b eindeutig lösbar sein, also A B vollen Rang haben, d. h. invertierbar (regulär) sein. 6. Einführung 43 und aus der linearen Unabhängigkeit der (a i ) i I(x) folgt y i = z i auch für i I(x). Insgesamt gilt also y = z, d. h., nach Definition 6.9 ist x eine Ecke von P. Beachte: Der Koordinatenvektor

Mehr

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind

Mehr

Optimierung. Vorlesung 02

Optimierung. Vorlesung 02 Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j

Mehr

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max

Mehr

4.3.3 Simplexiteration

4.3.3 Simplexiteration 7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige

Mehr

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

Das Lagrange-duale Problem

Das Lagrange-duale Problem Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h

Mehr

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur

Mehr

Optimierung. Vorlesung 08

Optimierung. Vorlesung 08 Optimierung Vorlesung 08 Heute Dualität Ganzzahligkeit Optimierung der Vorlesung durch Evaluierung 2 Das duale LP Das primale LP Maximiere c T x unter Ax b, x R d 0. wird zu dem dualen LP Minimiere b T

Mehr

Eigenschaften von LPs

Eigenschaften von LPs 2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört

Mehr

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen Kapitel IV: Grundlagen der Linearen Optimierung Inhaltsverzeichnis Abschnitt 3-5 3 Der Simplexalgorithmus 58 3.1 Grundlagen..............................

Mehr

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform

Mehr

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005 Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung

Mehr

3.2.5 Dualität der linearen Optimierung I

3.2.5 Dualität der linearen Optimierung I 3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem

Mehr

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung Operations Research Rainer Schrader Die Simplexmethode Zentrum für Angewandte Informatik Köln 18 Juni 00 1 / 1 / 1 Gliederung LP-Dualität ein lineares Produktionsmodell der Simplexalgorithmus Phase I Endlichkeit

Mehr

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen

Mehr

Kap. 4: Lineare Programmierung

Kap. 4: Lineare Programmierung Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.

Mehr

Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau

Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau Ziele: Einführung in richtige Einordnung von Optimierungsproblemen Modellierungstechniken praktische Umsetzung

Mehr

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m) Minimumproblem Definition 4.7 Ein LP der Form nx Minimiere Z = c j x j j=1 unter den Nebenbedingungen nx d ij x j b i (i =1,...,m) j=1 und den Vorzeichenbedingungen x j 0(j =1,...,n) heißt Minimumproblem.

Mehr

Optimale Steuerung 1 Prozessoptimierung 1

Optimale Steuerung 1 Prozessoptimierung 1 Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung

Mehr

mit. Wir definieren (Skalarprodukt = Winkel).

mit. Wir definieren (Skalarprodukt = Winkel). 1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Übung 3, Simplex-Algorithmus

Übung 3, Simplex-Algorithmus Übung 3, 21.6.2011 Simplex-Algorithmus Aufgabe 3.1 Lösen Sie das folgende Optimierungsproblem (von Aufgabe 2.3) graphisch. Substituieren Sie dazu z = 5 y um ein 2-dimensionales Problem zu erhalten. Rechnung

Mehr

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende) . Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)

Mehr

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester

Mehr

3.1. Existenzsatz und Struktur der Lösungsmenge

3.1. Existenzsatz und Struktur der Lösungsmenge 3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall

Mehr

Die duale Simplexmethode

Die duale Simplexmethode Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen

Mehr

Kap. 4.2: Simplex- Algorithmus

Kap. 4.2: Simplex- Algorithmus Kap. 4.2: Simplex- Algorithmus Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 14.-17. VO A&D WS 08/09 2.12.-16.12.2008 Petra Mutzel Alg. & Dat.

Mehr

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten

Mehr

Lineare Optimierung: Simplexverfahren Phase Ⅰ

Lineare Optimierung: Simplexverfahren Phase Ⅰ Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2009)

Vorlesung Lineare Optimierung (Sommersemester 2009) 1 Vorlesung Lineare Optimierung (Sommersemester 2009) Kapitel 7: Der Simplex-Algorithmus Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 18. Juni 2009) Gliederung 2 Ecken, Kanten, Extremalstrahlen

Mehr

Inhaltsverzeichnis Grundlagen der Linearen Optimierung

Inhaltsverzeichnis Grundlagen der Linearen Optimierung Inhaltsverzeichnis 4 Grundlagen der Linearen Optimierung 1 4.1 Grundbegriffe............................. 1 4.1.1 Lineare Optimierung..................... 1 4.1.2 Das Grundmodell eines linearen Optimierungsproblems

Mehr

Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel 3 - Lineare Optimierung

Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel 3 - Lineare Optimierung Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel - Lineare Optimierung Sascha Kurz Jörg Rambau 8. August Lösung Aufgabe.. Da es sich um ein homogenes

Mehr

Lösung allgemeiner linearer Programme

Lösung allgemeiner linearer Programme Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt

Mehr

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25. Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme

Mehr

6 Korrektheit des Simplexalgorithmus

6 Korrektheit des Simplexalgorithmus 6 Korrektheit des Simplexalgorithmus Folgerung: Es sei L: Ax = b, c T x max LP und A B nicht-degenerierte PZB von L und es gebe c r := c r c B A B A r > 0 a) Falls a r := A B a r 0, dann L unbeschränkt

Mehr

Diskrete Optimierung

Diskrete Optimierung Alexander Martin, Sven O. Krumke Diskrete Optimierung SPIN Springer s internal project number, if known 14. April 2009 Springer Berlin Heidelberg NewYork Hong Kong London Milan Paris Tokyo Wir widmen

Mehr

Dr. Anita Kripfganz SS 2014

Dr. Anita Kripfganz SS 2014 Dr. Anita Kripfganz SS 2014 4. Lösungsverfahren 4.1. Schnittebenenmethode Im Jahre 1958 hat R. Gomory ein allgemeines Schnittebenenverfahren zur Lösung ganzzahliger linearer Optimierungsprobleme vorgeschlagen.

Mehr

Über- und unterbestimmte

Über- und unterbestimmte Über- und unterbestimmte Systeme (verallgemeinerte Lösungen) Über- und unterbestimmte Systeme Ax = b ist genau dann für alle b R m eindeutig lösbar, wenn m = n und rk A = n. Falls m n oder rk A < min{m,

Mehr

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sandro Grunert WS 08/09 Seminar Optimierung Technische Universität Chemnitz 1 Inhaltsverzeichnis 0 Grundlegende Situation

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

Modellprädiktive Regelung auf Grundlage Linearer Programmierung

Modellprädiktive Regelung auf Grundlage Linearer Programmierung Modellprädiktive Regelung auf Grundlage Linearer Programmierung Tobias Kreisel Universität Bayreuth Mathematisches Institut Seminar MPC Motivation Probleme der MPC mathematisch beweisbare Stabilität mitunter

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

Hauptsatz und Optimalitätskriterium der Simplexmethode

Hauptsatz und Optimalitätskriterium der Simplexmethode Kapitel 4 Hauptsatz und Optimalitätskriterium der Simplexmethode In diesem Abschnitt wird das wichtigste Verfahren zur Lösung linearer Optimierungsprobleme eingeführt die Simplexmethode Es existiere für

Mehr

1 Lineare Optimierung, Simplex-Verfahren

1 Lineare Optimierung, Simplex-Verfahren 1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und

Mehr

Grundlagen der Optimierung. Übung 6

Grundlagen der Optimierung. Übung 6 Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren

Mehr

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)

Mehr

Effiziente Algorithmen Lineares Programmieren 216. Schwache Dualität

Effiziente Algorithmen Lineares Programmieren 216. Schwache Dualität Effiziente Algorithmen Lineares Programmieren 216 Schwache Dualität Sei wieder z = max{ c T x Ax b, x 0 } (P ) und w = min{ b T u A T u c, u 0 }. (D) x ist primal zulässig, wenn x { x Ax b, x 0 }. u ist

Mehr

Optimierung. Vorlesung 04

Optimierung. Vorlesung 04 Optimierung Vorlesung 04 Übungsbetrieb Mangels Teilnehmer keine Dienstagsübung mehr. Prüfung laut Paul: Di, 10. Feb. 2015 00:01-23:59 2 Was bisher geschah LP: Maximiere c T x unter Ax = b, x 0. Basis:

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

Zuordnungsproblem. Beispiele. Mathematisches Modell. Lösungsmethoden. auch Ernennungs-, Zuweisungs-, Assignmentproblem

Zuordnungsproblem. Beispiele. Mathematisches Modell. Lösungsmethoden. auch Ernennungs-, Zuweisungs-, Assignmentproblem Zuordnungsproblem auch Ernennungs-, Zuweisungs-, Assignmentproblem Beispiele Mathematisches Modell Lösungsmethoden HTW-Berlin FB3 Prof. Dr. F. Hartl 1 2 Anwendungen Zuordnung von - 1 ME von A i nach B

Mehr

Chinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151

Chinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151 Inhaltsverzeichnis 1 Kernkonzepte der linearen Optimierung... 1 1.1 Einführung... 1 1.2 Grundlegende Definitionen... 8 1.3 Grafische Lösung... 10 1.4 Standardform und grundlegende analytische Konzepte...

Mehr

Lineare Optimierung Teil 2

Lineare Optimierung Teil 2 Lineare Optimierung Teil 2 Primale Degeneration Duale Degeneration = Mehrdeutigkeit Normalform kanonische Form Duale Simplexmethode HTW-Berlin FB3 Prof. Dr.F. Hartl 1 Primale Degeneration/1 Besitzt eine

Mehr

1 Einführung in Lineare Programme und Dualität

1 Einführung in Lineare Programme und Dualität Gliederung Inhaltsverzeichnis 1 Einführung in Lineare Programme und Dualität 1 1.1 Lineare Programme......................... 1 1.2 Dualität............................... 2 2 Grundlegende Sätze und Definitionen

Mehr

Einführung in Operations Research Vorlesung 9:

Einführung in Operations Research Vorlesung 9: Einführung in Operations Research Vorlesung 9: 11.1.2018 Prof. Dr. Thomas Slawig AG Algorithmische Optimale Steuerung basierend auf einer LV, Folien und Beispielen von Prof. Dr. Klaus Jansen Institut für

Mehr

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen 10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie

Mehr

4. Dualität Dualität 4.1 Dualität von LPs und der Dualitätssatz. Die duale Form eines LP in allgemeiner Form. Herleitung der dualen Form

4. Dualität Dualität 4.1 Dualität von LPs und der Dualitätssatz. Die duale Form eines LP in allgemeiner Form. Herleitung der dualen Form 2... 22 4.2 Die Bedingungen vom komplementären Schlupf... 23 4.3 Das Kürzeste-Wege-Problem und zugehörige duale Problem... 24 4.4 Das Farkas Lemma... 25 4.5 Duale Information im Tableau... 26 4.6 Der duale

Mehr

Die Lagrange-duale Funktion

Die Lagrange-duale Funktion Die Lagrange-duale Funktion Gregor Leimcke 21. April 2010 1 Die Lagrangefunktion Wir betrachten das allgemeine Optimierungsproblem wobei minimiere f 0 über D sodass f i 0, i = 1,..., m 1.1 D = h i = 0,

Mehr

Ganzzahlige lineare Programme

Ganzzahlige lineare Programme KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.

Mehr

Kap. 4.2: Simplex- Algorithmus

Kap. 4.2: Simplex- Algorithmus Kap. 4.: Simplex- Algorithmus Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS Fakultät für Informatik, TU Dortmund Literatur für diese VO V. Chvatal: Linear Programming D. ertsimas:

Mehr

(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung)

(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung) Lineare Optimierung Unterbestimmte LGS und Optimierung Bei lösbaren unterbestimmten linearen Gleichungssystemen haben wir die Qual der Wahl in Abhängigkeit von den freien Parametern (Anzahl = Anzahl Unbekannte

Mehr

Klausurrepetitorium ABWL

Klausurrepetitorium ABWL Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches

Mehr

Die lineare Programmierung. Die Standardform 1 / 56

Die lineare Programmierung. Die Standardform 1 / 56 Die lineare Programmierung Die Standardform 1 / 56 Die Standardform der linearen Programmierung - Für n reellwertige, nichtnegative Variablen x 1 0,..., x n 0 erfülle die m linearen Gleichungen n a ij

Mehr

4 Lineare Optimierung

4 Lineare Optimierung 4 Lineare Optimierung In diesem Kapitel werden wir uns mit effizienten Verfahren im Bereich der linearen Optimierung beschäftigen. 4.1 Einführung Als Einführung betrachten wir das Beispiel einer Erdölraffinerie.

Mehr

Vortrag 20: Kurze Vektoren in Gittern

Vortrag 20: Kurze Vektoren in Gittern Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die

Mehr

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sandro Grunert WS 08/09 Seminar Optimierung Technische Universität Chemnitz Inhaltsverzeichnis 2 Inhaltsverzeichnis 0 Grundlegende

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Kap. 3: Exakte Lösungsverfahren für NPschwierige. Optimierungsprobleme VO Algorithm Engineering

Kap. 3: Exakte Lösungsverfahren für NPschwierige. Optimierungsprobleme VO Algorithm Engineering Kap. 3: Exakte Lösungsverfahren für NPschwierige kombinatorische Optimierungsprobleme VO Algorithm Engineering 3.1 Einführung Professor Dr. Petra Mutzel 3.2 Komb. vs. Ganzzahlige Opt. Lehrstuhl für Algorithm

Mehr

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare

Mehr

z = c T x : Ax = b, x 0 }, - die Darstellung der Nichtbasisvektoren durch die Basis ist

z = c T x : Ax = b, x 0 }, - die Darstellung der Nichtbasisvektoren durch die Basis ist Kapitel 5 Die Simplexmethode Es werden folgende Bezeichnungen verwendet: - das untersuchte Problem ist min x R n { z = c T x : Ax = b, x 0 }, - die erste zulässige Basislösung sei x = x 1, x 2,, x m, 0,,

Mehr

Optimalitätsbedingungen

Optimalitätsbedingungen Optimalitätsbedingungen Nadja Irmscher 28. Mai 2010 1 Nachweis von Suboptimalität und Abbruchkriterien Über das gegebene Programm minimiere f 0 (x) über x D sodass f i (x) 0, i = 1,..., m h i (x) = 0,

Mehr

4.4 Quadratische Optimierungsprobleme

4.4 Quadratische Optimierungsprobleme 4.4 Quadratische Optimierungsprobleme 1. Quadratische Programme (QP) 1 2 xt P x + q T x + r s.t. Gx h (4.34) wobei P S n +, G R (m n) und A R (p n) Zielfunktion (ZF) ist (konvex) quadratisch Nebenbedingungen

Mehr

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Anna Raaz 21.12.2007 Einführung Die Relaxierung von Lagrange wird in der stochastischen Optimierung meistens

Mehr

Lineare Optimierung Dantzig 1947

Lineare Optimierung Dantzig 1947 Lineare Optimierung Dantzig 947 Lineare Optimierungs-Aufgaben lassen sich mit Maple direkt lösen: with(simplex): g:= 4*x + x2

Mehr

Lineare Programmierung

Lineare Programmierung asis Definition 3.38 Gegeben sei ein LP in der Normalform mit m als Rang der Matrix 2 R m n. x 2 R n mit x = b heißt asislösung gdw. n m Komponenten x i gleich Null und die zu den restlichen Variablen

Mehr

Schnittebenenverfahren und Heuristiken

Schnittebenenverfahren und Heuristiken KAPITEL 6 Schnittebenenverfahren und Heuristiken Wir betrachten nun Optimierungsprobleme vom Typ (68) minc T x s.d. Ax b,x 0,x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n,b R m gegeben

Mehr

Übungsblatt 6 Lösungsvorschläge

Übungsblatt 6 Lösungsvorschläge Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Lösungsvorschläge Vorlesung Algorithmentechnik im WS 09/10 Problem 1: Größter Kreis in konvexem Polygon [vgl. Kapitel 6

Mehr

8. Lineare Optimierung

8. Lineare Optimierung 8. Lineare Optimierung 1 Einführung (1) Praktische Probleme sind oft Probleme mit Nebenbedingungen, z.b.: Ein Produktionsprozess hängt von Lieferterminen ab Die Menge der verstaubaren Güter ist durch die

Mehr

Optimierungstheorie Scheinklausur Sommersemester Juli 2007

Optimierungstheorie Scheinklausur Sommersemester Juli 2007 Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur

Mehr

ist ein Polyeder. c) Sei F eine Seite von P. Wann ist f 1 (F ) eine Seite von f 1 (P )? Begründen Sie Ihre Antwort. x 1. x = max{ x i i N n }.

ist ein Polyeder. c) Sei F eine Seite von P. Wann ist f 1 (F ) eine Seite von f 1 (P )? Begründen Sie Ihre Antwort. x 1. x = max{ x i i N n }. alteklausuraufgaben 1 LinOpt Klausur Sommersemester 05 Aufgabe 1 a) Definieren Sie den Begriff der konischen Hülle. b) Sei S R n. Zeigen Sie: Cone S = Lin S x S : x Cone (S \ {x}). Aufgabe 2 a) Definieren

Mehr

Die Lagrange - duale Optimierungsaufgabe und ihre geometrische Interpretation

Die Lagrange - duale Optimierungsaufgabe und ihre geometrische Interpretation und ihre geometrische Interpretation Vortrag von Elisabeth Zschorlich 09.12.2008 Inhaltsverzeichnis 1 Die Lagrange - duale Optimierungsaufgabe 2 1.1 Einführung...................................... 2 1.2

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach

Mehr

1. Transport- und Zuordnungsprobleme

1. Transport- und Zuordnungsprobleme 1. Transport- und Zuordnungsprobleme Themen 1. Transport- und Zuordnungsprobleme Themen: Analyse der Problemstruktur Spezielle Varianten des Simplexalgorithmus für Transport- und Zuordnungsprobleme Bezug

Mehr

Mathematische Methoden der Algorithmik

Mathematische Methoden der Algorithmik Mathematische Methoden der Algorithmik Dozent: Prof. Dr. Sándor P. Fekete Assistent: Nils Schweer Digitalisierung: Winfried Hellmann Wintersemester 2008/2009 Inhaltsverzeichnis 2 1 Einführung Problem 1.1

Mehr

10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G

10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G 48 0 Operations Research In der Standardform eines Maximierungsproblem: Max ( w) mit ( w) + u. d. N. z + x l + n ( a gj + j= g G e E n d j x j = z 0 j= n a l j x j = b l für alle l L j= x g n + a gj x

Mehr

Optimierung I. Dr. Ulf Lorenz F2.413

Optimierung I. Dr. Ulf Lorenz F2.413 Optimierung I Dr. Ulf Lorenz F2.413 flulo@upb.de Organisation Dozent: Dr. Ulf Lorenz F2.413 Fürstenallee 11 email: flulo@upb.de WWW: http://www.upb.de/cs/flulo (hier auch aktuelle Infos + Ü-Zettel) Vorlesungen:

Mehr

Seminar Optimierung - Approximation and fitting. Christian Bretzke

Seminar Optimierung - Approximation and fitting. Christian Bretzke Seminar Optimierung - Approximation and fitting Christian Bretzke 1 Inhaltsverzeichnis 1 Norm Approximation 3 1.1 Verschiedene Interpretation.................................. 3 1.2 Gewichtete NAP........................................

Mehr