Studientag zur Algorithmischen Mathematik
|
|
- Friedrich Acker
- vor 7 Jahren
- Abrufe
Transkript
1 Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012
2 Outline Lineares Programm (LP) in Standardform Dualität Der Simplexalgorithmus
3 Lineares Programm (LP) in Standardform max c x so dass Ax = b x 0 mit b 0, A R m n, b R m, c R n.
4 Umformung in Standardform min c x max c x so dass Ax = b x 0
5 Umformung in Standardform min c x max( c) x max c x so dass Ax = b x 0
6 Umformung in Standardform min c x max( c) x b i < 0 max c x so dass Ax = b x 0
7 Umformung in Standardform min c x max( c) x max c x so dass Ax = b x 0 b i < 0 multipliziere Zeile i mit ( 1)
8 Umformung in Standardform min c x max( c) x max c x so dass Ax = b x 0 b i < 0 multipliziere Zeile i mit ( 1) a x b i
9 Umformung in Standardform max c x so dass Ax = b x 0 min c x max( c) x b i < 0 multipliziere Zeile i mit ( 1) a x b i a x + s i = b i, s i 0 (s i Schlupfvariable)
10 Umformung in Standardform max c x so dass Ax = b x 0 min c x max( c) x b i < 0 multipliziere Zeile i mit ( 1) a x b i a x + s i = b i, s i 0 a x b i (s i Schlupfvariable)
11 Umformung in Standardform max c x so dass Ax = b x 0 min c x max( c) x b i < 0 multipliziere Zeile i mit ( 1) a x b i a x + s i = b i, s i 0 a x b i a x s i = b i, s i 0 (s i Schlupfvariable) (s i Schlupfvariable)
12 Umformung in Standardform max c x so dass Ax = b x 0 min c x max( c) x b i < 0 multipliziere Zeile i mit ( 1) a x b i a x + s i = b i, s i 0 a x b i a x s i = b i, s i 0 beliebiges x i (ohne x i 0) (s i Schlupfvariable) (s i Schlupfvariable)
13 Umformung in Standardform min c x max( c) x max c x so dass Ax = b x 0 b i < 0 multipliziere Zeile i mit ( 1) a x b i a x + s i = b i, s i 0 (s i Schlupfvariable) a x b i a x s i = b i, s i 0 (s i Schlupfvariable) beliebiges x i (ohne x i 0) x i = x + i x i, x + i, x i 0 Aufspalten der Variablen
14 Beispiel min x 1 x 2 s.d. x 1 x 2 3 2x 1 + x 2 8 x 2 0
15 Beispiel min x 1 x 2 s.d. x 1 x 2 3 2x 1 + x 2 8 x 2 0 max x 1 + x 2 s.d. x 1 x 2 3 2x 1 + x 2 8 x 2 0
16 Beispiel min x 1 x 2 s.d. x 1 x 2 3 2x 1 + x 2 8 x 2 0 max x 1 + x 2 s.d. x 1 x 2 s 1 = 3 2x 1 + x 2 + s 2 = 8 x 2, s 1, s 2 0
17 Beispiel min x 1 x 2 s.d. x 1 x 2 3 2x 1 + x 2 8 x 2 0 max x + 1 x 1 + x 2 s.d. x + 1 x 1 x 2 s 1 = 3 2x + 1 2x 1 + x 2 + s 2 = 8 x + 1, x 1, x 2, s 1, s 2 0
18 Das duale Programm (P) max c x s.d. Ax = b x 0 primales Programm
19 Das duale Programm (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm
20 Das duale Programm (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm x heißt zulässig für (P), falls x die Nebenbedingungen erfüllt, d.h. Ax = b, x 0.
21 Das duale Programm (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm x heißt zulässig für (P), falls x die Nebenbedingungen erfüllt, d.h. Ax = b, x 0. (P) heißt zulässig, wenn es ein zulässiges x für (P) gibt.
22 Das duale Programm (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm x heißt zulässig für (P), falls x die Nebenbedingungen erfüllt, d.h. Ax = b, x 0. (P) heißt zulässig, wenn es ein zulässiges x für (P) gibt. (P) heißt beschränkt, wenn der optimale Zielfunktionswert endlich ist.
23 Das duale Programm (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm x heißt zulässig für (P), falls x die Nebenbedingungen erfüllt, d.h. Ax = b, x 0. (P) heißt zulässig, wenn es ein zulässiges x für (P) gibt. (P) heißt beschränkt, wenn der optimale Zielfunktionswert endlich ist. Analog definiert man diese Begriffe für (D).
24 Schwache Dualität (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm Satz: Ist x 0 zulässig für (P) und y zulässig für (D), so gilt c x y b.
25 Schwache Dualität (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm Satz: Ist x 0 zulässig für (P) und y zulässig für (D), so gilt c x y b. Beweis: c x c y A x 0
26 Schwache Dualität (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm Satz: Ist x 0 zulässig für (P) und y zulässig für (D), so gilt c x y b. Beweis: c y A c x 0 x (y A)x =
27 Schwache Dualität (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm Satz: Ist x 0 zulässig für (P) und y zulässig für (D), so gilt c x y b. Beweis: c x c y A x 0 (y A)x = y (Ax) Ax=b =
28 Schwache Dualität (P) max c x s.d. Ax = b x 0 primales Programm min y (D) b s.d. y A c duales Programm Satz: Ist x 0 zulässig für (P) und y zulässig für (D), so gilt c x y b. Beweis: c x c y A x 0 (y A)x = y (Ax) Ax=b = y b
29 Dualitätssatz Satz: Ist (P) zulässig und beschränkt, so ist auch (D) zulässig und beschränkt, und es gibt Optimallösungen x von (P) und y von (D) mit c x = y b.
30 Dualitätssatz Satz: Ist (P) zulässig und beschränkt, so ist auch (D) zulässig und beschränkt, und es gibt Optimallösungen x von (P) und y von (D) mit c x = y b. Beweisidee Sei x Optimallösung von (P), d.h. von min c x (P) s.d. Ax = b x 0
31 Dualitätssatz Satz: Ist (P) zulässig und beschränkt, so ist auch (D) zulässig und beschränkt, und es gibt Optimallösungen x von (P) und y von (D) mit c x = y b. Beweisidee Sei x Optimallösung von (P), d.h. von min c x (P) s.d. Ax = b x 0 f = c h = A g = I n
32 Dualitätssatz Satz: Ist (P) zulässig und beschränkt, so ist auch (D) zulässig und beschränkt, und es gibt Optimallösungen x von (P) und y von (D) mit c x = y b. Beweisidee Sei x Optimallösung von (P), d.h. von min c x f = c (P) s.d. Ax = b h = A x 0 g = I n Nach Kuhn-Tucker existieren dann notwendigerweise λ R m und µ R n, µ 0 mit 1. c = λ A µ I n 2. µ x = 0
33 Dualitätssatz Satz: Ist (P) zulässig und beschränkt, so ist auch (D) zulässig und beschränkt, und es gibt Optimallösungen x von (P) und y von (D) mit c x = y b. Beweisidee Sei x Optimallösung von (P), d.h. von min c x min y (P) s.d. Ax = b (D) b s.d. y x 0 A c Nach Kuhn-Tucker existieren dann notwendigerweise λ R m und µ R n, µ 0 mit 1. c ( λ )A 2. (( λ )A c )x = 0
34 Dualitätssatz Satz: Ist (P) zulässig und beschränkt, so ist auch (D) zulässig und beschränkt, und es gibt Optimallösungen x von (P) und y von (D) mit c x = y b. Beweisidee Sei x Optimallösung von (P), d.h. von min c x min y (P) s.d. Ax = b (D) b s.d. y x 0 A c Nach Kuhn-Tucker existieren dann notwendigerweise λ R m und µ R n, µ 0 mit 1. c ( λ )A 2. (( λ )A c )x = 0 ( λ )b = ( λ )Ax = c x.
35 Dualitätssatz (ausführliche Version) Entweder (P) und (D) sind beide zulässig und beschränkt.
36 Dualitätssatz (ausführliche Version) Entweder (P) und (D) sind beide zulässig und beschränkt. Dann haben Sie den gleichen Zielfunktionswert
37 Dualitätssatz (ausführliche Version) Entweder (P) und (D) sind beide zulässig und beschränkt. Dann haben Sie den gleichen Zielfunktionswert oder (P) ist zulässig und unbeschränkt und (D) ist unzulässig
38 Dualitätssatz (ausführliche Version) Entweder (P) und (D) sind beide zulässig und beschränkt. Dann haben Sie den gleichen Zielfunktionswert oder (P) ist zulässig und unbeschränkt und (D) ist unzulässig oder (P) ist unzulässig und (D) ist zulässig und unbeschränkt
39 Dualitätssatz (ausführliche Version) Entweder (P) und (D) sind beide zulässig und beschränkt. Dann haben Sie den gleichen Zielfunktionswert oder (P) ist zulässig und unbeschränkt und (D) ist unzulässig oder (P) ist unzulässig und (D) ist zulässig und unbeschränkt oder (P) und (D) sind beide unzulässig.
40 Dualisieren Manchmal ist es hilfreich, duale Programme von Problemen aufzustellen, die nicht in Standardform gegeben sind.
41 Dualisieren Manchmal ist es hilfreich, duale Programme von Problemen aufzustellen, die nicht in Standardform gegeben sind. (P) max c x s.d. Ax b
42 Dualisieren Manchmal ist es hilfreich, duale Programme von Problemen aufzustellen, die nicht in Standardform gegeben sind. (P) max c x + c x s.d. Ax + Ax + s = b x +, x, s 0
43 Dualisieren Manchmal ist es hilfreich, duale Programme von Problemen aufzustellen, die nicht in Standardform gegeben sind. (P) max c x + c x s.d. Ax + Ax + s = b x +, x, s 0 (D) min y b s.d. y A c y A c y A 0
44 Dualisieren Manchmal ist es hilfreich, duale Programme von Problemen aufzustellen, die nicht in Standardform gegeben sind. (P) max c x + c x s.d. Ax + Ax + s = b x +, x, s 0 (D) min y b s.d. y A c y A c y A 0 (P) max c x s.d. Ax b (D) min y b s.d. y A = c y A 0
45 Geometrische Interpretation der Schritte des Simplexalgorithmus gestrichelt: Zulässigkeitsbereich.
46 Geometrische Interpretation der Schritte des Simplexalgorithmus gestrichelt: Zulässigkeitsbereich. BlauePfeile: Pivotschritte in Phase I.
47 Geometrische Interpretation der Schritte des Simplexalgorithmus gestrichelt: Zulässigkeitsbereich. BlauePfeile: Pivotschritte in Phase I. Rote Pfeile: Pivotschritte in Phase II.
48 Geometrische Interpretation der Schritte des Simplexalgorithmus gestrichelt: Zulässigkeitsbereich. BlauePfeile: Pivotschritte in Phase I. Rote Pfeile: Pivotschritte in Phase II.
49 Lösung linearer Programme mit dem Simplexalgorithmus max c x Ax = b ( 0) x 0 Begriffe: Basis: Indexmenge von m linear unabhängigen Spalten von A.
50 Lösung linearer Programme mit dem Simplexalgorithmus max c x Ax = b ( 0) x 0 Begriffe: Basis: Indexmenge von m linear unabhängigen Spalten von A. Ecke: Zu Basis B gehört eine Ecke x B = A 1.B b, x N = 0.
51 Lösung linearer Programme mit dem Simplexalgorithmus max c x Ax = b ( 0) x 0 Begriffe: Basis: Indexmenge von m linear unabhängigen Spalten von A. Ecke: Zu Basis B gehört eine Ecke x B = A 1.B b, x N = 0. zulässige Basis: B heißt zulässig, wenn x 0.
52 Lösung linearer Programme mit dem Simplexalgorithmus max c x Ax = b ( 0) x 0 Begriffe: Basis: Indexmenge von m linear unabhängigen Spalten von A. Ecke: Zu Basis B gehört eine Ecke x B = A 1.B b, x N = 0. zulässige Basis: B heißt zulässig, wenn x 0. Starte von zulässiger Basis (Ecke) und gehe in Aufstiegsrichtung, so lange es möglich ist.
53 Der Simplexalgorithmus Ggb. zulässige Basis B c N c B A 1.B A.N c B A 1.B b A 1.B A.B A 1.B A.N A 1.B b
54 Der Simplexalgorithmus Ggb. zulässige Basis B c N c B A 1.B A.N c B A 1.B b I B A 1.B A.N A 1.B b
55 Der Simplexalgorithmus Finde Aufstiegsrichtung c N c B A 1.B A.N c B A 1.B b I B A 1.B A.N A 1.B b Finde Aufstiegsrichtung: c j c B A 1.B A.j > 0
56 Der Simplexalgorithmus Finde begrenzende Nichtnegativitätsrelation c N c B A 1.B A.N c B A 1.B b I B A 1.B A.N A 1.B b Finde Aufstiegsrichtung: c j cb A 1.B A.j > 0 Finde begrenzende Nichtnegativitätsrelation: i = argmin{ A 1.B b (A 1.B A) ij (A 1.B A) ij > 0}.
57 Der Simplexalgorithmus Pivotiere auf (A 1.B A) ij c N c B A 1.B A.N c B A 1.B b I B A 1.B A.N A 1.B b Finde Aufstiegsrichtung: c j cb A 1.B A.j > 0 Finde begrenzende Nichtnegativitätsrelation: i = argmin{ A 1.B b (A 1.B A) ij Pivotiere auf (A 1.B A) ij. (A 1.B A) ij > 0}.
58 Der Simplexalgorithmus Falls keine Aufstiegsrichtung existiert, ist (cb A 1.B )A c c N c B A 1.B A.N c B A 1.B b I B A 1.B A.N A 1.B b Finde Aufstiegsrichtung: c j cb A 1.B A.j > 0 Finde begrenzende Nichtnegativitätsrelation: i = argmin{ A 1.B b (A 1.B A) ij Pivotiere auf (A 1.B A) ij. (A 1.B A) ij > 0}.
59 Der Simplexalgorithmus Falls keine Aufstiegsrichtung existiert, ist (cb A 1.B )A c. Also ist cb A 1.B zulässig für (D) und cb A 1.B b = c B x B = c x c N c B A 1.B A.N c B A 1.B b I B A 1.B A.N A 1.B b Finde Aufstiegsrichtung: c j cb A 1.B A.j > 0 Finde begrenzende Nichtnegativitätsrelation: i = argmin{ A 1.B b (A 1.B A) ij Pivotiere auf (A 1.B A) ij. (A 1.B A) ij > 0}.
60 Der Simplexalgorithmus Falls es keine begrenzende Nichtnegativitätsrelation gibt, so ist das Problem unbeschränkt c N c B A 1.B A.N c B A 1.B b I B A 1.B A.N A 1.B b Finde Aufstiegsrichtung: c j cb A 1.B A.j > 0 Finde begrenzende Nichtnegativitätsrelation: i = argmin{ A 1.B b (A 1.B A) ij Pivotiere auf (A 1.B A) ij. (A 1.B A) ij > 0}.
61 Phase I Falls keine zulässige Startbasis bekannt ist, lösen wir mit dem Simplexalgorithmus das Hilfsproblem
62 Phase I Falls keine zulässige Startbasis bekannt ist, lösen wir mit dem Simplexalgorithmus das Hilfsproblem max y i Ax + y = b x, y 0
63 Phase I Falls keine zulässige Startbasis bekannt ist, lösen wir mit dem Simplexalgorithmus das Hilfsproblem max y i Ax + y = b x, y A I n b
64 Phase I Falls keine zulässige Startbasis bekannt ist, lösen wir mit dem Simplexalgorithmus das Hilfsproblem max y i Ax + y = b x, y 0 e A e b A I n b
65 Phase I Falls keine zulässige Startbasis bekannt ist, lösen wir mit dem Simplexalgorithmus das Hilfsproblem max y i Ax + y = b x, y 0 e A e b A I n b Wenn Lösung Zielfunktionswert 0 hat, d.h. alle y = 0, dann kann man künstliche Zeilen streichen und hat zulässige Basis
66 Phase I Falls keine zulässige Startbasis bekannt ist, lösen wir mit dem Simplexalgorithmus das Hilfsproblem max y i Ax + y = b x, y 0 e A e b A I n b Wenn Lösung Zielfunktionswert 0 hat, d.h. alle y = 0, dann kann man künstliche Zeilen streichen und hat zulässige Basis ansonsten hat ursprüngliches Problem keine zulässige Lösung
67 Beispiel max x + 1 x 1 + x 2 s.d. x + 1 x 1 x 2 s 1 = 3 2x + 1 2x 1 + x 2 + s 2 = 8 x + 1, x 1, x 2, s 1, s 2 0
68 Beispiel max x + 1 x 1 + x 2 s.d. x + 1 x 1 x 2 s 1 = 3 2x + 1 2x 1 + x 2 + s 2 = 8 x + 1, x 1, x 2, s 1, s 2 0 Wir haben mit s 2 schon einen Einheitsvektor, deswegen benötigen wir nur noch eine künstliche Schlupfvariable und erhalten folgendes Hilfstableau.
69 Beispiel max x + 1 x 1 + x 2 s.d. x + 1 x 1 x 2 s 1 = 3 2x + 1 2x 1 + x 2 + s 2 = 8 x + 1, x 1, x 2, s 1, s 2 0 Wir haben mit s 2 schon einen Einheitsvektor, deswegen benötigen wir nur noch eine künstliche Schlupfvariable und erhalten folgendes Hilfstableau
70 Beispiel max x + 1 x 1 + x 2 s.d. x + 1 x 1 x 2 s 1 = 3 2x + 1 2x 1 + x 2 + s 2 = 8 x + 1, x 1, x 2, s 1, s 2 0 Wir haben mit s 2 schon einen Einheitsvektor, deswegen benötigen wir nur noch eine künstliche Schlupfvariable und erhalten folgendes Hilfstableau
71 Beispiel
72 Beispiel
73 Beispiel künstlicher Zielfunktionswert ist 0 = zulässige Basis gefunden
74 Beispiel künstlicher Zielfunktionswert ist 0 = zulässige Basis gefunden
75 Beispiel
76 Beispiel Tableau ist final, Optimallösung (x + 1, x 1, x 2, s 1, s 2 ) = ( 11 3, 0, 2 3, 0, 0), optimaler Zielfunktionswert =
77 Beispiel Tableau ist final, Optimallösung (x + 1, x 1, x 2, s 1, s 2 ) = ( 11 3, 0, 2 3, 0, 0), optimaler Zielfunktionswert = 13 3 Also ist 1 3 (11, 2) Optimallösung des Ausgangsproblems
78 Veranschaulichung der Schritte
VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max
Mehr6 Korrektheit des Simplexalgorithmus
6 Korrektheit des Simplexalgorithmus Folgerung: Es sei L: Ax = b, c T x max LP und A B nicht-degenerierte PZB von L und es gebe c r := c r c B A B A r > 0 a) Falls a r := A B a r 0, dann L unbeschränkt
MehrKap. 4.3: Das Dualitätstheorem der linearen Optimierung
Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur
MehrDualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
MehrOperations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung
Operations Research Rainer Schrader Die Simplexmethode Zentrum für Angewandte Informatik Köln 18 Juni 00 1 / 1 / 1 Gliederung LP-Dualität ein lineares Produktionsmodell der Simplexalgorithmus Phase I Endlichkeit
MehrKap. 4: Lineare Programmierung
Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.
MehrLösung allgemeiner linearer Programme
Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt
MehrOptimierung. Vorlesung 08
Optimierung Vorlesung 08 Heute Dualität Ganzzahligkeit Optimierung der Vorlesung durch Evaluierung 2 Das duale LP Das primale LP Maximiere c T x unter Ax b, x R d 0. wird zu dem dualen LP Minimiere b T
MehrOptimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze
MehrAufgabe 3.1: LP-Problem mit allen Bedingungstypen
Johann Wolfgang Goethe-Universität Frankfurt am Main Lehrst.f.BWL, insb. Quant. Methoden Prof. Dr. Dietrich Ohse Interpretation, zulässige Lösung, Dualität 18. Mai 2004 Aufgabe 3.1: LP-Problem mit allen
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)
MehrDie duale Simplexmethode
Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen
Mehr3.1. Existenzsatz und Struktur der Lösungsmenge
3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall
MehrLineare Optimierung: Simplexverfahren Phase Ⅰ
Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik
Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik 1142KWL09 Aufgabe 1. Zeigen Sie, dass für alle n 2 gilt: n paarweise verschiedene Geraden im R 2 schneiden sich untereinander
MehrMinimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)
Minimumproblem Definition 4.7 Ein LP der Form nx Minimiere Z = c j x j j=1 unter den Nebenbedingungen nx d ij x j b i (i =1,...,m) j=1 und den Vorzeichenbedingungen x j 0(j =1,...,n) heißt Minimumproblem.
MehrKapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:
Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten
Mehr10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen
10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik
Lösungsskizzen zu den Klausuraufgaben zum Kurs Algorithmische Mathematik KSL09 Aufgabe. Zeigen oder widerlegen Sie: Es existiert ein Graph mit Valenzsequenz (8,,,,,,,,,). Geben Sie im Falle der Existenz
MehrVORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind
Mehr1. Transport- und Zuordnungsprobleme
1. Transport- und Zuordnungsprobleme Themen 1. Transport- und Zuordnungsprobleme Themen: Analyse der Problemstruktur Spezielle Varianten des Simplexalgorithmus für Transport- und Zuordnungsprobleme Bezug
MehrOptimierung. Vorlesung 02
Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j
MehrGrundlagen der Optimierung. Übung 6
Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren
MehrÜbung 3, Simplex-Algorithmus
Übung 3, 21.6.2011 Simplex-Algorithmus Aufgabe 3.1 Lösen Sie das folgende Optimierungsproblem (von Aufgabe 2.3) graphisch. Substituieren Sie dazu z = 5 y um ein 2-dimensionales Problem zu erhalten. Rechnung
MehrSchranken für zulässige Lösungen
Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung
MehrWiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b
Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung
Mehra n = 2a n n 1 IV = 2(n 1)2 n n 1 = (n 1)2 n n 1 = n2 n 1.
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL07 Aufgabe. Wir definieren die Folge {a n } n N rekursiv vermöge a 0 := 0, a n := a n + n für n. Zeigen Sie: a n = n n für
Mehr1 Der Simplex Algorithmus I
1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier
MehrVORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung
Mehrλ i x i λ i 0, x i X, nur endlich viele λ i 0}.
jobname LinOpt Sommer Aufgabe a) Sei X R n. Dann ist b) Cone X = { x i X λ i x i λ i, x i X, nur endlich viele λ i }. x Cone S = Lin S x Lin S = Cone S. Also gibt es nicht-negative Koeffizienten µ i von
MehrOptimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn
Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,
MehrSimplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)
MehrOptimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
Mehr4. Dualität Dualität 4.1 Dualität von LPs und der Dualitätssatz. Die duale Form eines LP in allgemeiner Form. Herleitung der dualen Form
2... 22 4.2 Die Bedingungen vom komplementären Schlupf... 23 4.3 Das Kürzeste-Wege-Problem und zugehörige duale Problem... 24 4.4 Das Farkas Lemma... 25 4.5 Duale Information im Tableau... 26 4.6 Der duale
MehrOptimierungstheorie Scheinklausur Sommersemester Juli 2007
Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur
MehrKombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung
MehrSchnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005
Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung
MehrEffiziente Algorithmen Lineares Programmieren 216. Schwache Dualität
Effiziente Algorithmen Lineares Programmieren 216 Schwache Dualität Sei wieder z = max{ c T x Ax b, x 0 } (P ) und w = min{ b T u A T u c, u 0 }. (D) x ist primal zulässig, wenn x { x Ax b, x 0 }. u ist
MehrDie duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme
Kapitel 11 Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Wir betrachten folgendes Optimierungsproblem z = c T x min! Ax = b (11.1) (11.2) x j ganz für j = 1,..., n 1 n, (11.3)
MehrEigenschaften von LPs
2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört
MehrLineare Programmierung (2)
Inhalt Rückblick Motivation - linearen Programmierung Flussprobleme Multiple Warenflüsse Fortsetzung Simplex Algorithmus Initialisierung Fundamentalsatz der linearen Programmierung schwache Dualität Dualität
MehrComputer Science Department - High Performance and Web Computing Group. Optimierungsprobleme
Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter
MehrKurseinheit 2»Dualität und weiterführende Methoden«
Inhaltsübersicht 1 Gliederung Kurseinheit 1»Simpleverfahren«1. Einleitung 1.1. Einordnung und Übersicht des Stoffes 1.2. Einführendes Beispiel und Grundlagen 2. Lineare Gleichungssysteme 2.1. Die allgemeine
MehrOperations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.
Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme
MehrKapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester
MehrKAPITEL 3. Konvexe Funktionen
KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Dualität Anwendung: Spieltheorie Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? Inhaltsübersicht für heute: Dualität
MehrOptimierung 1 Zwischenklausur
Optimierung Zwischenlausur Tobias Breiten und Laurent Pfeiffer, Universität Graz 8. Mai 8 Lösung der Aufgabe. Wir führen Schlupfvariablen ein (positiv und negativ), um das Problem auf Standardform zu bringen
MehrKuhn-Tucker-Bedingung
Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann
MehrOperations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung
Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden
MehrH. Meyerhenke: Kombinatorische Optimierung. Paralleles Rechnen, Institut für Theoretische Informatik, Fakultät für Informatik
VORLESUNG 13 Smoothed Analysis des Simplex-Algorithmus Nach Heiko Röglin, Universität Bonn, Vorlesungsskript Introduction to Smoothed Analysis vom 9. Januar 2012 78 Wiederholung Simplex-Algorithmus! Korrektheit:!
Mehr3.2.5 Dualität der linearen Optimierung I
3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem
MehrDas Lagrange-duale Problem
Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h
MehrKuhn-Tucker-Bedingung
Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann
Mehr4.3.3 Simplexiteration
7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige
MehrLineare Programmierung Vorlesung WS 02/03. Winfried Hochstättler BTU Cottbus
Lineare Programmierung Vorlesung WS 02/03 Winfried Hochstättler BTU Cottbus 24. Februar 2004 Inhaltsverzeichnis Notation, allgemeine Grundlagen 3. Etwas Notation........................... 3.2 Algorithmus.............................
MehrMathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel 3 - Lineare Optimierung
Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel - Lineare Optimierung Sascha Kurz Jörg Rambau 8. August Lösung Aufgabe.. Da es sich um ein homogenes
MehrMitschrift der Vorlesung: Kombinatorische Optimierung
Mitschrift der Vorlesung: Kombinatorische Optimierung bei Prof. Socher-Ambrosius Niels-Peter de Witt 26. April 2002 Inhaltsverzeichnis 1 Einführung 2 1.1 Beispiel: Profil zersägen.......................
MehrKAPITEL 10 DIE INNERE-PUNKTE-METHODE
KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach
MehrProseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner
Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare
MehrTeil I. Lineare Optimierung
Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,
MehrKLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen)
Mathematisches Institut WS 2012/13 der Heinrich-Heine-Universität 7.02.2013 Düsseldorf Prof. Dr. Achim Schädle KLAUSUR zu Einführung in die Optimierung Bitte folgende Angaben ergänzen und DEUTLICH LESBAR
Mehr3. Schnittebenenverfahren
3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research
MehrOptimierung. R. Verfürth
Optimierung für Elektro- und Informationstechniker Vorlesungsskriptum SS 207 R. Verfürth Fakultät für Mathematik, Ruhr-Universität Bochum Inhaltsverzeichnis Einleitung 5 Kapitel I. Grundlagen I.. Problemstellung
MehrAlgorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck
Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. Aufgabe 1. Zeigen Sie, dass für alle k, n N gilt: 6 Punkte
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL4 6 Punkte Aufgabe. Zeigen Sie, dass für alle k, n N gilt: (k + ) teilt ((k + ) n ). Wir zeigen Sie Behauptung per Induktion
MehrAngewandte Mathematik für die Informatik
Angewandte Mathematik für die Informatik PD Dr. Louchka Popova-Zeugmann PD Dr. Wolfgang Kössler 17. Mai 2017 1 Lineare Optimierung Allgemeine LOA Ganzzahlige Optimierung Differentialgleichungen Differentialgleichungen
Mehr10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G
48 0 Operations Research In der Standardform eines Maximierungsproblem: Max ( w) mit ( w) + u. d. N. z + x l + n ( a gj + j= g G e E n d j x j = z 0 j= n a l j x j = b l für alle l L j= x g n + a gj x
MehrAufgaben zu Kapitel 23
Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Verständnisfragen Aufgabe 23 Bestimmen Sie grafisch die optimale Lösung x der Zielfunktion z = c T x unter den Nebenbedingungen mit dem Zielfunktionsvektor
MehrGeometrische Interpretation
Geometrische Interpretation Stefanie Riedel 10. Mai 2010 1 Starke und schwache Dualität über Wertemengen Wir betrachten eine einfache geometrische Interpretation dualer Funktionen aus der Menge G: G =
MehrAufgabe 5.3 Duale Simplexverfahren
Aufgabe 5.3 Knut Krause Thomas Siwczyk Stefan Tittel Technische Universität Dortmund Fakultät für Informatik Algorithmen und Datenstrukturen 15. Januar 2009 Gliederung 1 Aufgabenstellung und Motivation
Mehr3. Der Simplexalgorithmus Der Simplexalgorithmus 3.1 Formen des Linearen Optimierungsproblem. (3.1) Allgemeine Form !"#! " # # R $ %!
11 3.1 Formen des Linearen Optimierungsproblem... 12 3.2 Zulässige Basislösungen... 13 3.3 Die Geometrie von Linearen Programmen... 14 3.4 Lokale Suche unter den zulässigen Basislösungen... 15 3.5 Organisation
MehrLineare Optimierung Teil 2
Lineare Optimierung Teil 2 Primale Degeneration Duale Degeneration = Mehrdeutigkeit Normalform kanonische Form Duale Simplexmethode HTW-Berlin FB3 Prof. Dr.F. Hartl 1 Primale Degeneration/1 Besitzt eine
MehrGanzzahlige lineare Programme
KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.
MehrSeminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)
Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Anna Raaz 21.12.2007 Einführung Die Relaxierung von Lagrange wird in der stochastischen Optimierung meistens
MehrMathematische Grundlagen für Wirtschaftswissenschaftler Übungsaufgaben aus Kapitel 3 - Lineare Optimierung
Mathematische Grundlagen für Wirtschaftswissenschaftler Übungsaufgaben aus Kapitel 3 - Lineare Optimierung Sascha Kurz Jörg Rambau 24. November 2009 2 Aufgabe 3.1. Ein in m Depots gelagertes homogenes
MehrTechnische Universität München
Technische Universität München Zentrum Mathematik Fallstudien Diskrete Optimierung Dipl.-Math.Oec Melanie Bestle Dr. Michael Ritter Dienstag, 10. Mai 2011: Dualität 1 Dualität: Geometrische Herleitung
MehrCARL HANSER VERLAG. Peter Stingl. Operations Research Linearoptimierung
ARL HANSER VERLAG Peter Stingl Operations Research Linearoptimierung -446-228-6 wwwhanserde 2 Lineare Optimierungsprobleme x 2 6 P P sentartete Ecke ( 4) x +x 2 5 PPPPPPPPPPPPPPP X x + x 2 7 2x +x 2 8
MehrEinführung in die Lineare Programmierung
Einführung in die Lineare Programmierung Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 RWTH Aachen 28. Mai 2008 Elementares Beispiel Die kanonische Form Die algebraische Gleichungsform Gegeben seien
Mehr6. Einführung 43. gilt. Dann soll also A B x B = b eindeutig lösbar sein, also A B vollen Rang haben, d. h. invertierbar (regulär) sein.
6. Einführung 43 und aus der linearen Unabhängigkeit der (a i ) i I(x) folgt y i = z i auch für i I(x). Insgesamt gilt also y = z, d. h., nach Definition 6.9 ist x eine Ecke von P. Beachte: Der Koordinatenvektor
MehrDer Simplex-Algorithmus
5 Lineare Programmierung Simplex-Algorithmus Der Simplex-Algorithmus Standardverfahren zur Lösung von LPs, von G B Dantzig entwickelt Grundidee: Versuche ausgehend von einer Startecke mit einer Ausgangsbasis
MehrOperations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung.
Operations Research Rainer Schrader Flüsse in Netzwerken Zentrum für Angewandte Informatik Köln 2. Juli 2007 1 / 53 2 / 53 Flüsse in Netzwerken Unimodularität Gliederung Netzwerke und Flüsse bipartite
MehrLineare Programmierung Teil I
Seminar über Algorithmen Prof. Dr. Helmut Alt Lineare Programmierung Teil I Lena Schlipf, Benjamin Jankovic Lena Schlipf, Benjamin Jankovic Seminar über Algorithmen SS05 1 Struktur des Vortrags 1. Was
MehrStandard-/kanonische Form Simplex Dualität Kompl./Sensitivität Spaltengen. Schnittebenen Welchen? Inhalt
Inhalt Lineare Optimierung Standardform und kanonische Form Der Simplex-Algorithmus Dualität Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? 54:
MehrModellprädiktive Regelung auf Grundlage Linearer Programmierung
Modellprädiktive Regelung auf Grundlage Linearer Programmierung Tobias Kreisel Universität Bayreuth Mathematisches Institut Seminar MPC Motivation Probleme der MPC mathematisch beweisbare Stabilität mitunter
MehrKlausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008
Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester
MehrOptimierung. Vorlesung 04
Optimierung Vorlesung 04 Übungsbetrieb Mangels Teilnehmer keine Dienstagsübung mehr. Prüfung laut Paul: Di, 10. Feb. 2015 00:01-23:59 2 Was bisher geschah LP: Maximiere c T x unter Ax = b, x 0. Basis:
MehrHauptsatz und Optimalitätskriterium der Simplexmethode
Kapitel 4 Hauptsatz und Optimalitätskriterium der Simplexmethode In diesem Abschnitt wird das wichtigste Verfahren zur Lösung linearer Optimierungsprobleme eingeführt die Simplexmethode Es existiere für
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrVorlesung Lineare Optimierung (Sommersemester 2009)
1 Vorlesung Lineare Optimierung (Sommersemester 2009) Kapitel 7: Der Simplex-Algorithmus Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 18. Juni 2009) Gliederung 2 Ecken, Kanten, Extremalstrahlen
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls
MehrDr. Anita Kripfganz SS 2014
Dr. Anita Kripfganz SS 2014 4. Lösungsverfahren 4.1. Schnittebenenmethode Im Jahre 1958 hat R. Gomory ein allgemeines Schnittebenenverfahren zur Lösung ganzzahliger linearer Optimierungsprobleme vorgeschlagen.
Mehr4 Lineare Optimierung
4 Lineare Optimierung In diesem Kapitel werden wir uns mit effizienten Verfahren im Bereich der linearen Optimierung beschäftigen. 4.1 Einführung Als Einführung betrachten wir das Beispiel einer Erdölraffinerie.
MehrBonusmaterial Lineare Optimierung ideale Ausnutzung von Kapazitäten
Bonusmaterial Lineare Optimierung ideale Ausnutzung von Kapazitäten 23 231 Die Zweiphasenmethode Beim Simplexalgorithmus zur Lösung linearer Optimierungsprobleme in Standardform wählt man im zugehörigen
MehrInhaltsverzeichnis Grundlagen der Linearen Optimierung
Inhaltsverzeichnis 4 Grundlagen der Linearen Optimierung 1 4.1 Grundbegriffe............................. 1 4.1.1 Lineare Optimierung..................... 1 4.1.2 Das Grundmodell eines linearen Optimierungsproblems
Mehr4.1. Basislösung und kanonische Form
4.1. asislösung und kanonische Form ekannt: Jedes LOP kann äquivalent in ein Programm vom Typ III umgeformt werden. Jedes nichtleere Polyeder vom Typ III ist spitz. Für ein LOP vom Typ III gehört im Falle
MehrKlausurrepetitorium ABWL
Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches
Mehr