Studientag zur Algorithmischen Mathematik
|
|
|
- Friedrich Acker
- vor 9 Jahren
- Abrufe
Transkript
1 Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012
2 Outline Lineares Programm (LP) in Standardform Dualität Der Simplexalgorithmus
3 Lineares Programm (LP) in Standardform max c x so dass Ax = b x 0 mit b 0, A R m n, b R m, c R n.
4 Umformung in Standardform min c x max c x so dass Ax = b x 0
5 Umformung in Standardform min c x max( c) x max c x so dass Ax = b x 0
6 Umformung in Standardform min c x max( c) x b i < 0 max c x so dass Ax = b x 0
7 Umformung in Standardform min c x max( c) x max c x so dass Ax = b x 0 b i < 0 multipliziere Zeile i mit ( 1)
8 Umformung in Standardform min c x max( c) x max c x so dass Ax = b x 0 b i < 0 multipliziere Zeile i mit ( 1) a x b i
9 Umformung in Standardform max c x so dass Ax = b x 0 min c x max( c) x b i < 0 multipliziere Zeile i mit ( 1) a x b i a x + s i = b i, s i 0 (s i Schlupfvariable)
10 Umformung in Standardform max c x so dass Ax = b x 0 min c x max( c) x b i < 0 multipliziere Zeile i mit ( 1) a x b i a x + s i = b i, s i 0 a x b i (s i Schlupfvariable)
11 Umformung in Standardform max c x so dass Ax = b x 0 min c x max( c) x b i < 0 multipliziere Zeile i mit ( 1) a x b i a x + s i = b i, s i 0 a x b i a x s i = b i, s i 0 (s i Schlupfvariable) (s i Schlupfvariable)
12 Umformung in Standardform max c x so dass Ax = b x 0 min c x max( c) x b i < 0 multipliziere Zeile i mit ( 1) a x b i a x + s i = b i, s i 0 a x b i a x s i = b i, s i 0 beliebiges x i (ohne x i 0) (s i Schlupfvariable) (s i Schlupfvariable)
13 Umformung in Standardform min c x max( c) x max c x so dass Ax = b x 0 b i < 0 multipliziere Zeile i mit ( 1) a x b i a x + s i = b i, s i 0 (s i Schlupfvariable) a x b i a x s i = b i, s i 0 (s i Schlupfvariable) beliebiges x i (ohne x i 0) x i = x + i x i, x + i, x i 0 Aufspalten der Variablen
14 Beispiel min x 1 x 2 s.d. x 1 x 2 3 2x 1 + x 2 8 x 2 0
15 Beispiel min x 1 x 2 s.d. x 1 x 2 3 2x 1 + x 2 8 x 2 0 max x 1 + x 2 s.d. x 1 x 2 3 2x 1 + x 2 8 x 2 0
16 Beispiel min x 1 x 2 s.d. x 1 x 2 3 2x 1 + x 2 8 x 2 0 max x 1 + x 2 s.d. x 1 x 2 s 1 = 3 2x 1 + x 2 + s 2 = 8 x 2, s 1, s 2 0
17 Beispiel min x 1 x 2 s.d. x 1 x 2 3 2x 1 + x 2 8 x 2 0 max x + 1 x 1 + x 2 s.d. x + 1 x 1 x 2 s 1 = 3 2x + 1 2x 1 + x 2 + s 2 = 8 x + 1, x 1, x 2, s 1, s 2 0
18 Das duale Programm (P) max c x s.d. Ax = b x 0 primales Programm
19 Das duale Programm (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm
20 Das duale Programm (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm x heißt zulässig für (P), falls x die Nebenbedingungen erfüllt, d.h. Ax = b, x 0.
21 Das duale Programm (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm x heißt zulässig für (P), falls x die Nebenbedingungen erfüllt, d.h. Ax = b, x 0. (P) heißt zulässig, wenn es ein zulässiges x für (P) gibt.
22 Das duale Programm (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm x heißt zulässig für (P), falls x die Nebenbedingungen erfüllt, d.h. Ax = b, x 0. (P) heißt zulässig, wenn es ein zulässiges x für (P) gibt. (P) heißt beschränkt, wenn der optimale Zielfunktionswert endlich ist.
23 Das duale Programm (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm x heißt zulässig für (P), falls x die Nebenbedingungen erfüllt, d.h. Ax = b, x 0. (P) heißt zulässig, wenn es ein zulässiges x für (P) gibt. (P) heißt beschränkt, wenn der optimale Zielfunktionswert endlich ist. Analog definiert man diese Begriffe für (D).
24 Schwache Dualität (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm Satz: Ist x 0 zulässig für (P) und y zulässig für (D), so gilt c x y b.
25 Schwache Dualität (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm Satz: Ist x 0 zulässig für (P) und y zulässig für (D), so gilt c x y b. Beweis: c x c y A x 0
26 Schwache Dualität (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm Satz: Ist x 0 zulässig für (P) und y zulässig für (D), so gilt c x y b. Beweis: c y A c x 0 x (y A)x =
27 Schwache Dualität (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm Satz: Ist x 0 zulässig für (P) und y zulässig für (D), so gilt c x y b. Beweis: c x c y A x 0 (y A)x = y (Ax) Ax=b =
28 Schwache Dualität (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm Satz: Ist x 0 zulässig für (P) und y zulässig für (D), so gilt c x y b. Beweis: c x c y A x 0 (y A)x = y (Ax) Ax=b = y b
29 Dualitätssatz Satz: Ist (P) zulässig und beschränkt, so ist auch (D) zulässig und beschränkt, und es gibt Optimallösungen x von (P) und y von (D) mit c x = y b.
30 Dualitätssatz Satz: Ist (P) zulässig und beschränkt, so ist auch (D) zulässig und beschränkt, und es gibt Optimallösungen x von (P) und y von (D) mit c x = y b. Beweisidee Sei x Optimallösung von (P), d.h. von min c x (P) s.d. Ax = b x 0
31 Dualitätssatz Satz: Ist (P) zulässig und beschränkt, so ist auch (D) zulässig und beschränkt, und es gibt Optimallösungen x von (P) und y von (D) mit c x = y b. Beweisidee Sei x Optimallösung von (P), d.h. von min c x (P) s.d. Ax = b x 0 f = c h = A g = I n
32 Dualitätssatz Satz: Ist (P) zulässig und beschränkt, so ist auch (D) zulässig und beschränkt, und es gibt Optimallösungen x von (P) und y von (D) mit c x = y b. Beweisidee Sei x Optimallösung von (P), d.h. von min c x f = c (P) s.d. Ax = b h = A x 0 g = I n Nach Kuhn-Tucker existieren dann notwendigerweise λ R m und µ R n, µ 0 mit 1. c = λ A µ I n 2. µ x = 0
33 Dualitätssatz Satz: Ist (P) zulässig und beschränkt, so ist auch (D) zulässig und beschränkt, und es gibt Optimallösungen x von (P) und y von (D) mit c x = y b. Beweisidee Sei x Optimallösung von (P), d.h. von min c x min y (P) s.d. Ax = b (D) b s.d. y x 0 A c Nach Kuhn-Tucker existieren dann notwendigerweise λ R m und µ R n, µ 0 mit 1. c ( λ )A 2. (( λ )A c )x = 0
34 Dualitätssatz Satz: Ist (P) zulässig und beschränkt, so ist auch (D) zulässig und beschränkt, und es gibt Optimallösungen x von (P) und y von (D) mit c x = y b. Beweisidee Sei x Optimallösung von (P), d.h. von min c x min y (P) s.d. Ax = b (D) b s.d. y x 0 A c Nach Kuhn-Tucker existieren dann notwendigerweise λ R m und µ R n, µ 0 mit 1. c ( λ )A 2. (( λ )A c )x = 0 ( λ )b = ( λ )Ax = c x.
35 Dualitätssatz (ausführliche Version) Entweder (P) und (D) sind beide zulässig und beschränkt.
36 Dualitätssatz (ausführliche Version) Entweder (P) und (D) sind beide zulässig und beschränkt. Dann haben Sie den gleichen Zielfunktionswert
37 Dualitätssatz (ausführliche Version) Entweder (P) und (D) sind beide zulässig und beschränkt. Dann haben Sie den gleichen Zielfunktionswert oder (P) ist zulässig und unbeschränkt und (D) ist unzulässig
38 Dualitätssatz (ausführliche Version) Entweder (P) und (D) sind beide zulässig und beschränkt. Dann haben Sie den gleichen Zielfunktionswert oder (P) ist zulässig und unbeschränkt und (D) ist unzulässig oder (P) ist unzulässig und (D) ist zulässig und unbeschränkt
39 Dualitätssatz (ausführliche Version) Entweder (P) und (D) sind beide zulässig und beschränkt. Dann haben Sie den gleichen Zielfunktionswert oder (P) ist zulässig und unbeschränkt und (D) ist unzulässig oder (P) ist unzulässig und (D) ist zulässig und unbeschränkt oder (P) und (D) sind beide unzulässig.
40 Dualisieren Manchmal ist es hilfreich, duale Programme von Problemen aufzustellen, die nicht in Standardform gegeben sind.
41 Dualisieren Manchmal ist es hilfreich, duale Programme von Problemen aufzustellen, die nicht in Standardform gegeben sind. (P) max c x s.d. Ax b
42 Dualisieren Manchmal ist es hilfreich, duale Programme von Problemen aufzustellen, die nicht in Standardform gegeben sind. (P) max c x + c x s.d. Ax + Ax + s = b x +, x, s 0
43 Dualisieren Manchmal ist es hilfreich, duale Programme von Problemen aufzustellen, die nicht in Standardform gegeben sind. (P) max c x + c x s.d. Ax + Ax + s = b x +, x, s 0 (D) min y b s.d. y A c y A c y A 0
44 Dualisieren Manchmal ist es hilfreich, duale Programme von Problemen aufzustellen, die nicht in Standardform gegeben sind. (P) max c x + c x s.d. Ax + Ax + s = b x +, x, s 0 (D) min y b s.d. y A c y A c y A 0 (P) max c x s.d. Ax b (D) min y b s.d. y A = c y A 0
45 Geometrische Interpretation der Schritte des Simplexalgorithmus gestrichelt: Zulässigkeitsbereich.
46 Geometrische Interpretation der Schritte des Simplexalgorithmus gestrichelt: Zulässigkeitsbereich. BlauePfeile: Pivotschritte in Phase I.
47 Geometrische Interpretation der Schritte des Simplexalgorithmus gestrichelt: Zulässigkeitsbereich. BlauePfeile: Pivotschritte in Phase I. Rote Pfeile: Pivotschritte in Phase II.
48 Geometrische Interpretation der Schritte des Simplexalgorithmus gestrichelt: Zulässigkeitsbereich. BlauePfeile: Pivotschritte in Phase I. Rote Pfeile: Pivotschritte in Phase II.
49 Lösung linearer Programme mit dem Simplexalgorithmus max c x Ax = b ( 0) x 0 Begriffe: Basis: Indexmenge von m linear unabhängigen Spalten von A.
50 Lösung linearer Programme mit dem Simplexalgorithmus max c x Ax = b ( 0) x 0 Begriffe: Basis: Indexmenge von m linear unabhängigen Spalten von A. Ecke: Zu Basis B gehört eine Ecke x B = A 1.B b, x N = 0.
51 Lösung linearer Programme mit dem Simplexalgorithmus max c x Ax = b ( 0) x 0 Begriffe: Basis: Indexmenge von m linear unabhängigen Spalten von A. Ecke: Zu Basis B gehört eine Ecke x B = A 1.B b, x N = 0. zulässige Basis: B heißt zulässig, wenn x 0.
52 Lösung linearer Programme mit dem Simplexalgorithmus max c x Ax = b ( 0) x 0 Begriffe: Basis: Indexmenge von m linear unabhängigen Spalten von A. Ecke: Zu Basis B gehört eine Ecke x B = A 1.B b, x N = 0. zulässige Basis: B heißt zulässig, wenn x 0. Starte von zulässiger Basis (Ecke) und gehe in Aufstiegsrichtung, so lange es möglich ist.
53 Der Simplexalgorithmus Ggb. zulässige Basis B c N c B A 1.B A.N c B A 1.B b A 1.B A.B A 1.B A.N A 1.B b
54 Der Simplexalgorithmus Ggb. zulässige Basis B c N c B A 1.B A.N c B A 1.B b I B A 1.B A.N A 1.B b
55 Der Simplexalgorithmus Finde Aufstiegsrichtung c N c B A 1.B A.N c B A 1.B b I B A 1.B A.N A 1.B b Finde Aufstiegsrichtung: c j c B A 1.B A.j > 0
56 Der Simplexalgorithmus Finde begrenzende Nichtnegativitätsrelation c N c B A 1.B A.N c B A 1.B b I B A 1.B A.N A 1.B b Finde Aufstiegsrichtung: c j cb A 1.B A.j > 0 Finde begrenzende Nichtnegativitätsrelation: i = argmin{ A 1.B b (A 1.B A) ij (A 1.B A) ij > 0}.
57 Der Simplexalgorithmus Pivotiere auf (A 1.B A) ij c N c B A 1.B A.N c B A 1.B b I B A 1.B A.N A 1.B b Finde Aufstiegsrichtung: c j cb A 1.B A.j > 0 Finde begrenzende Nichtnegativitätsrelation: i = argmin{ A 1.B b (A 1.B A) ij Pivotiere auf (A 1.B A) ij. (A 1.B A) ij > 0}.
58 Der Simplexalgorithmus Falls keine Aufstiegsrichtung existiert, ist (cb A 1.B )A c c N c B A 1.B A.N c B A 1.B b I B A 1.B A.N A 1.B b Finde Aufstiegsrichtung: c j cb A 1.B A.j > 0 Finde begrenzende Nichtnegativitätsrelation: i = argmin{ A 1.B b (A 1.B A) ij Pivotiere auf (A 1.B A) ij. (A 1.B A) ij > 0}.
59 Der Simplexalgorithmus Falls keine Aufstiegsrichtung existiert, ist (cb A 1.B )A c. Also ist cb A 1.B zulässig für (D) und cb A 1.B b = c B x B = c x c N c B A 1.B A.N c B A 1.B b I B A 1.B A.N A 1.B b Finde Aufstiegsrichtung: c j cb A 1.B A.j > 0 Finde begrenzende Nichtnegativitätsrelation: i = argmin{ A 1.B b (A 1.B A) ij Pivotiere auf (A 1.B A) ij. (A 1.B A) ij > 0}.
60 Der Simplexalgorithmus Falls es keine begrenzende Nichtnegativitätsrelation gibt, so ist das Problem unbeschränkt c N c B A 1.B A.N c B A 1.B b I B A 1.B A.N A 1.B b Finde Aufstiegsrichtung: c j cb A 1.B A.j > 0 Finde begrenzende Nichtnegativitätsrelation: i = argmin{ A 1.B b (A 1.B A) ij Pivotiere auf (A 1.B A) ij. (A 1.B A) ij > 0}.
61 Phase I Falls keine zulässige Startbasis bekannt ist, lösen wir mit dem Simplexalgorithmus das Hilfsproblem
62 Phase I Falls keine zulässige Startbasis bekannt ist, lösen wir mit dem Simplexalgorithmus das Hilfsproblem max y i Ax + y = b x, y 0
63 Phase I Falls keine zulässige Startbasis bekannt ist, lösen wir mit dem Simplexalgorithmus das Hilfsproblem max y i Ax + y = b x, y A I n b
64 Phase I Falls keine zulässige Startbasis bekannt ist, lösen wir mit dem Simplexalgorithmus das Hilfsproblem max y i Ax + y = b x, y 0 e A e b A I n b
65 Phase I Falls keine zulässige Startbasis bekannt ist, lösen wir mit dem Simplexalgorithmus das Hilfsproblem max y i Ax + y = b x, y 0 e A e b A I n b Wenn Lösung Zielfunktionswert 0 hat, d.h. alle y = 0, dann kann man künstliche Zeilen streichen und hat zulässige Basis
66 Phase I Falls keine zulässige Startbasis bekannt ist, lösen wir mit dem Simplexalgorithmus das Hilfsproblem max y i Ax + y = b x, y 0 e A e b A I n b Wenn Lösung Zielfunktionswert 0 hat, d.h. alle y = 0, dann kann man künstliche Zeilen streichen und hat zulässige Basis ansonsten hat ursprüngliches Problem keine zulässige Lösung
67 Beispiel max x + 1 x 1 + x 2 s.d. x + 1 x 1 x 2 s 1 = 3 2x + 1 2x 1 + x 2 + s 2 = 8 x + 1, x 1, x 2, s 1, s 2 0
68 Beispiel max x + 1 x 1 + x 2 s.d. x + 1 x 1 x 2 s 1 = 3 2x + 1 2x 1 + x 2 + s 2 = 8 x + 1, x 1, x 2, s 1, s 2 0 Wir haben mit s 2 schon einen Einheitsvektor, deswegen benötigen wir nur noch eine künstliche Schlupfvariable und erhalten folgendes Hilfstableau.
69 Beispiel max x + 1 x 1 + x 2 s.d. x + 1 x 1 x 2 s 1 = 3 2x + 1 2x 1 + x 2 + s 2 = 8 x + 1, x 1, x 2, s 1, s 2 0 Wir haben mit s 2 schon einen Einheitsvektor, deswegen benötigen wir nur noch eine künstliche Schlupfvariable und erhalten folgendes Hilfstableau
70 Beispiel max x + 1 x 1 + x 2 s.d. x + 1 x 1 x 2 s 1 = 3 2x + 1 2x 1 + x 2 + s 2 = 8 x + 1, x 1, x 2, s 1, s 2 0 Wir haben mit s 2 schon einen Einheitsvektor, deswegen benötigen wir nur noch eine künstliche Schlupfvariable und erhalten folgendes Hilfstableau
71 Beispiel
72 Beispiel
73 Beispiel künstlicher Zielfunktionswert ist 0 = zulässige Basis gefunden
74 Beispiel künstlicher Zielfunktionswert ist 0 = zulässige Basis gefunden
75 Beispiel
76 Beispiel Tableau ist final, Optimallösung (x + 1, x 1, x 2, s 1, s 2 ) = ( 11 3, 0, 2 3, 0, 0), optimaler Zielfunktionswert =
77 Beispiel Tableau ist final, Optimallösung (x + 1, x 1, x 2, s 1, s 2 ) = ( 11 3, 0, 2 3, 0, 0), optimaler Zielfunktionswert = 13 3 Also ist 1 3 (11, 2) Optimallösung des Ausgangsproblems
78 Veranschaulichung der Schritte
VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max
6 Korrektheit des Simplexalgorithmus
6 Korrektheit des Simplexalgorithmus Folgerung: Es sei L: Ax = b, c T x max LP und A B nicht-degenerierte PZB von L und es gebe c r := c r c B A B A r > 0 a) Falls a r := A B a r 0, dann L unbeschränkt
Kap. 4.3: Das Dualitätstheorem der linearen Optimierung
Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur
Dualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung
Operations Research Rainer Schrader Die Simplexmethode Zentrum für Angewandte Informatik Köln 18 Juni 00 1 / 1 / 1 Gliederung LP-Dualität ein lineares Produktionsmodell der Simplexalgorithmus Phase I Endlichkeit
Kap. 4: Lineare Programmierung
Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.
Lösung allgemeiner linearer Programme
Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt
Optimierung. Vorlesung 08
Optimierung Vorlesung 08 Heute Dualität Ganzzahligkeit Optimierung der Vorlesung durch Evaluierung 2 Das duale LP Das primale LP Maximiere c T x unter Ax b, x R d 0. wird zu dem dualen LP Minimiere b T
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze
Aufgabe 3.1: LP-Problem mit allen Bedingungstypen
Johann Wolfgang Goethe-Universität Frankfurt am Main Lehrst.f.BWL, insb. Quant. Methoden Prof. Dr. Dietrich Ohse Interpretation, zulässige Lösung, Dualität 18. Mai 2004 Aufgabe 3.1: LP-Problem mit allen
Numerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)
Die duale Simplexmethode
Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen
3.1. Existenzsatz und Struktur der Lösungsmenge
3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall
Lineare Optimierung: Simplexverfahren Phase Ⅰ
Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren
Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik
Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik 1142KWL09 Aufgabe 1. Zeigen Sie, dass für alle n 2 gilt: n paarweise verschiedene Geraden im R 2 schneiden sich untereinander
Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)
Minimumproblem Definition 4.7 Ein LP der Form nx Minimiere Z = c j x j j=1 unter den Nebenbedingungen nx d ij x j b i (i =1,...,m) j=1 und den Vorzeichenbedingungen x j 0(j =1,...,n) heißt Minimumproblem.
Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:
Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten
10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen
10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie
Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik
Lösungsskizzen zu den Klausuraufgaben zum Kurs Algorithmische Mathematik KSL09 Aufgabe. Zeigen oder widerlegen Sie: Es existiert ein Graph mit Valenzsequenz (8,,,,,,,,,). Geben Sie im Falle der Existenz
VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind
1. Transport- und Zuordnungsprobleme
1. Transport- und Zuordnungsprobleme Themen 1. Transport- und Zuordnungsprobleme Themen: Analyse der Problemstruktur Spezielle Varianten des Simplexalgorithmus für Transport- und Zuordnungsprobleme Bezug
Optimierung. Vorlesung 02
Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j
Grundlagen der Optimierung. Übung 6
Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren
Übung 3, Simplex-Algorithmus
Übung 3, 21.6.2011 Simplex-Algorithmus Aufgabe 3.1 Lösen Sie das folgende Optimierungsproblem (von Aufgabe 2.3) graphisch. Substituieren Sie dazu z = 5 y um ein 2-dimensionales Problem zu erhalten. Rechnung
Schranken für zulässige Lösungen
Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung
Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b
Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung
a n = 2a n n 1 IV = 2(n 1)2 n n 1 = (n 1)2 n n 1 = n2 n 1.
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL07 Aufgabe. Wir definieren die Folge {a n } n N rekursiv vermöge a 0 := 0, a n := a n + n für n. Zeigen Sie: a n = n n für
1 Der Simplex Algorithmus I
1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung
λ i x i λ i 0, x i X, nur endlich viele λ i 0}.
jobname LinOpt Sommer Aufgabe a) Sei X R n. Dann ist b) Cone X = { x i X λ i x i λ i, x i X, nur endlich viele λ i }. x Cone S = Lin S x Lin S = Cone S. Also gibt es nicht-negative Koeffizienten µ i von
Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn
Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,
Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)
Optimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
4. Dualität Dualität 4.1 Dualität von LPs und der Dualitätssatz. Die duale Form eines LP in allgemeiner Form. Herleitung der dualen Form
2... 22 4.2 Die Bedingungen vom komplementären Schlupf... 23 4.3 Das Kürzeste-Wege-Problem und zugehörige duale Problem... 24 4.4 Das Farkas Lemma... 25 4.5 Duale Information im Tableau... 26 4.6 Der duale
Optimierungstheorie Scheinklausur Sommersemester Juli 2007
Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur
Kombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
Optimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung
Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005
Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung
Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme
Kapitel 11 Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Wir betrachten folgendes Optimierungsproblem z = c T x min! Ax = b (11.1) (11.2) x j ganz für j = 1,..., n 1 n, (11.3)
Eigenschaften von LPs
2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört
Lineare Programmierung (2)
Inhalt Rückblick Motivation - linearen Programmierung Flussprobleme Multiple Warenflüsse Fortsetzung Simplex Algorithmus Initialisierung Fundamentalsatz der linearen Programmierung schwache Dualität Dualität
Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme
Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter
Kurseinheit 2»Dualität und weiterführende Methoden«
Inhaltsübersicht 1 Gliederung Kurseinheit 1»Simpleverfahren«1. Einleitung 1.1. Einordnung und Übersicht des Stoffes 1.2. Einführendes Beispiel und Grundlagen 2. Lineare Gleichungssysteme 2.1. Die allgemeine
Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.
Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme
Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester
KAPITEL 3. Konvexe Funktionen
KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn
3.2.5 Dualität der linearen Optimierung I
3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem
Das Lagrange-duale Problem
Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h
Kuhn-Tucker-Bedingung
Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann
4.3.3 Simplexiteration
7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige
Lineare Programmierung Vorlesung WS 02/03. Winfried Hochstättler BTU Cottbus
Lineare Programmierung Vorlesung WS 02/03 Winfried Hochstättler BTU Cottbus 24. Februar 2004 Inhaltsverzeichnis Notation, allgemeine Grundlagen 3. Etwas Notation........................... 3.2 Algorithmus.............................
Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel 3 - Lineare Optimierung
Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel - Lineare Optimierung Sascha Kurz Jörg Rambau 8. August Lösung Aufgabe.. Da es sich um ein homogenes
Mitschrift der Vorlesung: Kombinatorische Optimierung
Mitschrift der Vorlesung: Kombinatorische Optimierung bei Prof. Socher-Ambrosius Niels-Peter de Witt 26. April 2002 Inhaltsverzeichnis 1 Einführung 2 1.1 Beispiel: Profil zersägen.......................
KAPITEL 10 DIE INNERE-PUNKTE-METHODE
KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach
Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner
Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare
Teil I. Lineare Optimierung
Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,
KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen)
Mathematisches Institut WS 2012/13 der Heinrich-Heine-Universität 7.02.2013 Düsseldorf Prof. Dr. Achim Schädle KLAUSUR zu Einführung in die Optimierung Bitte folgende Angaben ergänzen und DEUTLICH LESBAR
3. Schnittebenenverfahren
3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research
Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck
Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach
Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. Aufgabe 1. Zeigen Sie, dass für alle k, n N gilt: 6 Punkte
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL4 6 Punkte Aufgabe. Zeigen Sie, dass für alle k, n N gilt: (k + ) teilt ((k + ) n ). Wir zeigen Sie Behauptung per Induktion
Angewandte Mathematik für die Informatik
Angewandte Mathematik für die Informatik PD Dr. Louchka Popova-Zeugmann PD Dr. Wolfgang Kössler 17. Mai 2017 1 Lineare Optimierung Allgemeine LOA Ganzzahlige Optimierung Differentialgleichungen Differentialgleichungen
10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G
48 0 Operations Research In der Standardform eines Maximierungsproblem: Max ( w) mit ( w) + u. d. N. z + x l + n ( a gj + j= g G e E n d j x j = z 0 j= n a l j x j = b l für alle l L j= x g n + a gj x
Aufgaben zu Kapitel 23
Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Verständnisfragen Aufgabe 23 Bestimmen Sie grafisch die optimale Lösung x der Zielfunktion z = c T x unter den Nebenbedingungen mit dem Zielfunktionsvektor
Geometrische Interpretation
Geometrische Interpretation Stefanie Riedel 10. Mai 2010 1 Starke und schwache Dualität über Wertemengen Wir betrachten eine einfache geometrische Interpretation dualer Funktionen aus der Menge G: G =
Aufgabe 5.3 Duale Simplexverfahren
Aufgabe 5.3 Knut Krause Thomas Siwczyk Stefan Tittel Technische Universität Dortmund Fakultät für Informatik Algorithmen und Datenstrukturen 15. Januar 2009 Gliederung 1 Aufgabenstellung und Motivation
3. Der Simplexalgorithmus Der Simplexalgorithmus 3.1 Formen des Linearen Optimierungsproblem. (3.1) Allgemeine Form !"#! " # # R $ %!
11 3.1 Formen des Linearen Optimierungsproblem... 12 3.2 Zulässige Basislösungen... 13 3.3 Die Geometrie von Linearen Programmen... 14 3.4 Lokale Suche unter den zulässigen Basislösungen... 15 3.5 Organisation
Lineare Optimierung Teil 2
Lineare Optimierung Teil 2 Primale Degeneration Duale Degeneration = Mehrdeutigkeit Normalform kanonische Form Duale Simplexmethode HTW-Berlin FB3 Prof. Dr.F. Hartl 1 Primale Degeneration/1 Besitzt eine
Ganzzahlige lineare Programme
KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.
Mathematische Grundlagen für Wirtschaftswissenschaftler Übungsaufgaben aus Kapitel 3 - Lineare Optimierung
Mathematische Grundlagen für Wirtschaftswissenschaftler Übungsaufgaben aus Kapitel 3 - Lineare Optimierung Sascha Kurz Jörg Rambau 24. November 2009 2 Aufgabe 3.1. Ein in m Depots gelagertes homogenes
CARL HANSER VERLAG. Peter Stingl. Operations Research Linearoptimierung
ARL HANSER VERLAG Peter Stingl Operations Research Linearoptimierung -446-228-6 wwwhanserde 2 Lineare Optimierungsprobleme x 2 6 P P sentartete Ecke ( 4) x +x 2 5 PPPPPPPPPPPPPPP X x + x 2 7 2x +x 2 8
Einführung in die Lineare Programmierung
Einführung in die Lineare Programmierung Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 RWTH Aachen 28. Mai 2008 Elementares Beispiel Die kanonische Form Die algebraische Gleichungsform Gegeben seien
Der Simplex-Algorithmus
5 Lineare Programmierung Simplex-Algorithmus Der Simplex-Algorithmus Standardverfahren zur Lösung von LPs, von G B Dantzig entwickelt Grundidee: Versuche ausgehend von einer Startecke mit einer Ausgangsbasis
Operations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung.
Operations Research Rainer Schrader Flüsse in Netzwerken Zentrum für Angewandte Informatik Köln 2. Juli 2007 1 / 53 2 / 53 Flüsse in Netzwerken Unimodularität Gliederung Netzwerke und Flüsse bipartite
Lineare Programmierung Teil I
Seminar über Algorithmen Prof. Dr. Helmut Alt Lineare Programmierung Teil I Lena Schlipf, Benjamin Jankovic Lena Schlipf, Benjamin Jankovic Seminar über Algorithmen SS05 1 Struktur des Vortrags 1. Was
Standard-/kanonische Form Simplex Dualität Kompl./Sensitivität Spaltengen. Schnittebenen Welchen? Inhalt
Inhalt Lineare Optimierung Standardform und kanonische Form Der Simplex-Algorithmus Dualität Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? 54:
Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008
Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester
Optimierung. Vorlesung 04
Optimierung Vorlesung 04 Übungsbetrieb Mangels Teilnehmer keine Dienstagsübung mehr. Prüfung laut Paul: Di, 10. Feb. 2015 00:01-23:59 2 Was bisher geschah LP: Maximiere c T x unter Ax = b, x 0. Basis:
Hauptsatz und Optimalitätskriterium der Simplexmethode
Kapitel 4 Hauptsatz und Optimalitätskriterium der Simplexmethode In diesem Abschnitt wird das wichtigste Verfahren zur Lösung linearer Optimierungsprobleme eingeführt die Simplexmethode Es existiere für
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
Vorlesung Lineare Optimierung (Sommersemester 2009)
1 Vorlesung Lineare Optimierung (Sommersemester 2009) Kapitel 7: Der Simplex-Algorithmus Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 18. Juni 2009) Gliederung 2 Ecken, Kanten, Extremalstrahlen
Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls
Dr. Anita Kripfganz SS 2014
Dr. Anita Kripfganz SS 2014 4. Lösungsverfahren 4.1. Schnittebenenmethode Im Jahre 1958 hat R. Gomory ein allgemeines Schnittebenenverfahren zur Lösung ganzzahliger linearer Optimierungsprobleme vorgeschlagen.
4 Lineare Optimierung
4 Lineare Optimierung In diesem Kapitel werden wir uns mit effizienten Verfahren im Bereich der linearen Optimierung beschäftigen. 4.1 Einführung Als Einführung betrachten wir das Beispiel einer Erdölraffinerie.
Bonusmaterial Lineare Optimierung ideale Ausnutzung von Kapazitäten
Bonusmaterial Lineare Optimierung ideale Ausnutzung von Kapazitäten 23 231 Die Zweiphasenmethode Beim Simplexalgorithmus zur Lösung linearer Optimierungsprobleme in Standardform wählt man im zugehörigen
4.1. Basislösung und kanonische Form
4.1. asislösung und kanonische Form ekannt: Jedes LOP kann äquivalent in ein Programm vom Typ III umgeformt werden. Jedes nichtleere Polyeder vom Typ III ist spitz. Für ein LOP vom Typ III gehört im Falle
Klausurrepetitorium ABWL
Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches
