3.1. Existenzsatz und Struktur der Lösungsmenge

Ähnliche Dokumente
Dualitätssätze der linearen Optimierung

1 Der Simplex Algorithmus I

GEOMETRIE DER POLYEDER

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Studientag zur Algorithmischen Mathematik

Effiziente Algorithmen Lineares Programmieren 216. Schwache Dualität

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Geometrische Interpretation

Teil I. Lineare Optimierung

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b

Vorlesung Lineare Optimierung (Sommersemester 2010)

Konvexe Mengen und Funktionen

3.2.5 Dualität der linearen Optimierung I

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

Innere-Punkt-Methoden

Inhaltsübersicht für heute:

Kap. 4: Lineare Programmierung

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)

Das Lagrange-duale Problem

Lineare Ungleichungen und die Struktur von Polyedern

mit. Wir definieren (Skalarprodukt = Winkel).

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung

Optimalitätsbedingungen

Optimierung für Wirtschaftsinformatiker: Lineare Programme

6 Korrektheit des Simplexalgorithmus

Dr. Anita Kripfganz SS 2014

λ i x i λ i 0, x i X, nur endlich viele λ i 0}.

Lineare Optimierung Dantzig 1947

3 Polytope. 3.1 Polyeder

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung

Analysis I. Guofang Wang Universität Freiburg

Das Lebesgue-Maß im R p

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

Optimalitätskriterien

Numerische Lineare Algebra

Standard-/kanonische Form Simplex Dualität Kompl./Sensitivität Spaltengen. Schnittebenen Welchen? Inhalt

Insbesondere sind nach dieser Definition also auch die leere Menge und einpunktige Teilmengen konvex.

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

1 Lineare Optimierung, Simplex-Verfahren

4. Dualität Dualität 4.1 Dualität von LPs und der Dualitätssatz. Die duale Form eines LP in allgemeiner Form. Herleitung der dualen Form

Kuhn-Tucker-Bedingung

Zusammenfassung Analysis 2

Konvexe Mengen. Def. Eine Teilmenge A R n heißt konvex, wenn sie mit je zwei Punkten x,y auch stets deren Verbindungsstrecke

Kombinatorische Optimierung

Optimierung für Nichtmathematiker

Diskrete Optimierung

4.3.3 Simplexiteration

3.5 Duale Vektorräume und Abbildungen

Optimierung I. Einführung in die Optimierung. Skript zur Vorlesung von Prof. Dr. Mirjam Dür Prof. Dr. Alexander Martin Prof. Dr.

Lösungsvorschläge für das 5. Übungsblatt

5 Die Allgemeine Lineare Gruppe

Grundlagen der Optimierung. Übung 6

Vollständigkeit. 1 Konstruktion der reellen Zahlen

37 Gauß-Algorithmus und lineare Gleichungssysteme

Lineare (Un-)Gleichungen und lineare Optimierung

Lösbarkeit linearer Gleichungssysteme

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9

KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen)

Kapitel 3. Lineare Optimierung. 3.1 Aufgabenstellung. Wir betrachten den

Übungen zum Vorkurs Mathematik

18 Höhere Ableitungen und Taylorformel

β 1 x :=., und b :=. K n β m

Lineare Optimierung. bei Prof. Walter Alt. Semester: SS 2006 und WS 2009

Vorlesung: Nicht-kooperative Spieltheorie. Teil 4: 2-Personen-Nullsummenspiele

4 Lineare Optimierung

Universität Karlsruhe (TH) Mathematisches Institut II. Prof. Dr. A. Kirsch. Optimierungstheorie. Skript zur Vorlesung im Sommersemester 2002

4.4 Quadratische Optimierungsprobleme

Diskrete Optimierung

b liegt zwischen a und c.

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II Thomas Brox, Fabian Kuhn

OPTIMIERUNG I. Christian Clason. Fakultät für Mathematik Universität Duisburg-Essen

Elemente der Algebra und Zahlentheorie Musterlösung, Serie 3, Wintersemester vom 15. Januar 2006

ist reelles lineares Funktional. x(t) ϕ(t) dt ist reelles lineares Funktional für alle ϕ L 2 (0, 1).

Aufgaben zu Kapitel 23

Affine Geometrie (Einfachere, konstruktive Version)

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K).

Einführung in die Mathematik des Operations Research

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

Dualität bei konvexer Optimierung

4 Messbare Funktionen

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)

Eigenschaften von LPs

1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1

Operations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung.

Zu zwei Matrizen A R m n und B R p q existiert das Matrizenprodukt A B n = p und es gilt dann. A B = (a ij ) (b jk ) = (c ik ) = C R m q mit c ik =

1 Häufungswerte von Folgen

6 Lineare Gleichungssysteme

Rückblick auf die letzte Vorlesung. Bemerkung

Grundlagen der Mathematik 1

4 Der Gauß Algorithmus

A = α α 0 2α α

2.3 Basis und Dimension

8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule

Lineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010

Übungsblatt 6 Lösungsvorschläge

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

Transkript:

3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall eines Polyeders kann man durch eine zusätzliche Bedingung an die Zielfunktion diese Existenz sichern. Satz 3.1. Sei P = {x R n Ax b} undm := inf{c T x x P} >. Dann existiert min{c T c x P}. Beweis: Nach dem Satz von Motzkin giltp = Q+C mit einem PolytopQund einem konvexen polyedrischen KegelC. MitQ = conv{u 1,...,u k } undc = cone{v 1,...,v l } ergibt sich x P x = k l λ i u i + µ j v j mitλ i 0, λ i = 1,µ j 0. i=1 j=1 Insbesondere istu i P für allei. Nach Voraussetzung ist c T x = k l k λ i c T u i + µ j c T v j m λ i,µ j : λ i 0, λ i = 1,µ j 0, i=1 j=1 i=1 also c T v j 0 für alle j. Mit min{c T u i i = 1,...,k} = c T u i 0 für ein i 0 {1,...,k} folgt hieraus k c T x λ i c T u i c T u i 0 x P, also die Behauptung. i=1 Satz 3.2. Sei P R n ein nichtleeres Polyeder. (i) Ist F := argmin{c T x x P}, dann istf eine Seite von P. (ii) Ist P spitz, dann ist wenigstens eine Ecke vonp optimal. Beweis: Mitmin{c T x x P} = c T x =: m für ein x P ist F = {x P c T x = m} und die Hyperebene H := {x R n c T x = m} eine Stützhyperebene von P. Damit ist F eine Seite vonp. FallsP spitz ist, dann folgt aus Satz 2.16, dass auch F spitz ist. Definition. Sei f : R n R. Dann heißt Niveaumenge der Funktionf zum Niveauα. N f (α) := {x R n f(x) α} Die Niveaumengen einer linearen Funktionf(x) = c T x sind also Halbräume. Für die MinimalstellenmengeF von f aufp gilt dannf = P N f (m). 1

3.2. Dualität Wir betrachten jetzt Paare linearer Optimierungsaufgaben, bei denen man aus der Lösung der einen Aufgabe auf die Lösung der anderen Aufgabe schließen kann. Definition. Ein Paar linearer Aufgaben (P) : min{c T x x B} (D) : max{b T y y B D } heißt dual, falls gilt: (i) c T x b T y für allex B, für alley B D (ii) c T x = b T y für ein x B, für ein y B D (schwache Dualität) (starke Dualität). mit (i) Anwendungsmöglichkeiten: Schranken für Optimallösungen Existenzaussagen Optimalitätsbedingungen Lösungsalgorithmen Entsprechend der Grundtypen linearer Ungleichungssysteme betrachten wir nun folgende Grundtypen linearer Programme: Typ I: (P I ) min{c T x Ax b} Typ II: (P II ) min{c T x Ax b,x 0} Typ III: (P III ) min{c T x Ax = b,x 0} Es genügt, die Dualtät für Programme vom Typ III zu betrachten. Satz 3.3. [Dualitätssatz, Existenzsatz] IstB := {x R n Ax = b,x 0} und B D := {y R n A T y c}, dann gilt: min { c T x Ax = b,x 0 } = max { b T y R n A T y c }. Beweis: Existenz und schwache Dualität: Es gilt offensichtlich b T y = x T A T y c T x x B, y B D. (*) Sei x B,ẙ B D. Dann ist b T y c T x für alle y B D und b T ẙ c T x für alle x B. Aus Satz 3.1 folgt hieraus die Existenz von Lösungen für beide Aufgaben, also mit (*) max(d I ) min(p III ). Starke Dualität: Zulässigkeit und schwache Dualität (*) entsprechen der Implikation Ax = b x 0 = ct x+b T y 0. A T y c 2

Eine Umformung und die Anwendung des Homogenisierungslemmas (Lemma 2.7) ergibt Ax b t 0 Ax +b t 0 x 0 A T y c t 0 t 0 = c T x+b T y +0 t 0. Nach dem Farkas-Lemma ist diese Implikation äquivalent zur Lösbarkeit des Systems A T (u u ) v Aw = c = b b T (u u ) c T w s = 0 u,u 0,v 0,w 0,s 0. Mitu := u u und der Interpretation vonv undsals Schlupfvariable ist äquivalent dazu das folgende System lösbar: A T u c Aw = b w 0 b T u c T w 0. Sei etwa(ů,ẘ) eine Lösung. Dann istů B,ẘ B D. Zusammen mit der schwachen Dualität (*) ergibt sich b T ů = c T ẘ, also starke Dualität. Folgerung. Zweimaliges Dualisieren führt auf das Ausgangsproblem zurück. Bezeichnung: inf{c T x x B} := +, falls B = sup{b T y y B D } :=, fallsb D = Satz 3.4. [Dualitätssatz, Existenzsatz; allgemeiner Fall] IstB := {x R n Ax = b,x 0} oderb D := {y R n A T y c}, dann gilt: inf { c T x Ax = b,x 0 } = sup { b T y R n A T y c }. Existiert die Lösung einer Aufgabe, dann existiert auch die Lösung der anderen Aufgabe. Der gemeinsame Optimalwert istx T Ay für entsprechende Lösungenx,y. Beweis: Fall a: B,B D : Die Behauptung folgt aus Satz 3.3. Fall b: B = : Nach dem Farkas-Lemma existiert ein ȳ mit A T ȳ 0,b T ȳ < 0. Nach Voraussetzung istb D, es existiert also ein ỹ mita T ỹ c. Folglich gilt A T (ỹ t ȳ) c t 0 und b T (ỹ t ȳ) + fürt +. Damit istinf{c T x x B} = + = sup{b T y y B D }. Fall c: B D = : Analog zu b) erhält maninf{c T x x B} = = sup{b T y y B D }. Ist nun x eine Lösung von min{c T x x B}, dann muss nach c) B D gelten. Der Dualitätssatz 3.3 liefert dannc T x = y b = y Ax. Für eine Lösungy vonmax{b T y y B D } erhält man mit b) dasselbe Resultat. Folgerung. Besitzt das Dualproblem max{b T y A T y c} die Maximalstelle y mit m := b T y, dann existieren nichtnegative Zahlen x i, mit Hilfe derer sich die Ungleichung bt y m als Linearkombination der Ungleichungen ausa T y c darstellen lässt. 3

3.3. Komplementarität und Schattenpreise Seien x,s R n +. Dann heißt die Beziehung xt s = 0 zwischen x,s 0 Komplementarität. In der Optimierung ist die Komplementarität zwischen den Variablen der primalen Aufgabe und den Schlupfvariablen der dualen Aufgabe charakteristisch für optimale Lösungen beider Aufgaben. Satz 3.4. [Komplementaritätssatz] Die Optima in den Aufgaben (P III ) und (D I ) seien endlich. Für x zulässig in (P III ) undẙ zulässig in (D I ) sind dann folgende zwei Aussagen äquivalent: (i) x undẙ sind jeweils optimal. (ii) Es gilt x T (c A T ẙ) = 0 (Komplementarität). Außerdem gilt für jede Zeilea it y c i ausa T y c alternativ (iii) Es existiert eine Optimallösungx in (P III ) mitx i > 0. (iv) Es existiert eine Optimallösungy in (D I ) mita it y < c i. Beweis: (i) (ii): x undẙ sind jeweils optimal Dualität c T x = b T ẙ x T (c A T ẙ) = 0. (iii) (iv): Für jeweilige Optimallösungen schließen sich nach (ii) die Bedingungen (iii) und (iv) aus. Wir zeigen nun, dass entweder (ii) oder (iv) gilt. Sei m := c T x = min{c T x x P III } = max{b T y y P D I } = bt y. Bedingung (iv) gelte nicht für die Zeileiaus A T y c, d.h. für jede Optimallösung von (D I ) gilt: A T y c, b T y m = a it y c i, wobei a i die i-te Spalte von A bezeichnet. Diese Implikation ist nach Lemma 2.7 (Homogenisierung) äquivalent zu A T c ( ) T ( ) b T m a i y 0 = 0. 0 T c 1 i t Nach dem Farkas-Lemma ist also das folgende System imr n+2 lösbar: ( ) ( ) x A b 0 x c T m r a i =, r 0, 1 c s i s etwa mitx R n +,r,s R +. Fürx := x +e i mit demi-ten Einheitsvektore i R n gilt dann Ax = br, x 0, r 0 (*) c T x m r. (**) 1. Fall: r = 0. Dann ist Ax = 0 und c T x 0. Sei x + eine Optimallösung von (P III ), also c T x + = m. Damit ist x := x + +x wegen (*) eine zulässige und wegen (**) auch eine optimale Lösung von (P III ) mitx i > 0. 2. Fall: r > 0. Dann ist x := 1 x wegen (*) eine zulässige und wegen (**) auch eine r optimale Lösung von (P III ) mitx i = 1 (x r i +1) > 0. 4

Komplementarität: allgemeiner Fall Wir betrachten das folgende Paar allgemeiner dualer Programme: (P) : Ax+ By a Dx+ Fy = b x 0 c T x+d T y min! (D) : A T u+d T v c B T u+f T v = d u 0 a T u+ b T v max! Dann erhält man für Optimallösungenx in (P) bzw. y in (D) mit den Schlupfvariablen z := Ax +By a undw := c A T u D T v aus den Ungleichungsrestriktionen die folgenden Komplementaritätsbedingungen: w T x = 0, z T u = 0. ökonomische Interpretation der dualen Variablen: Definition. Die Optimallösungen des dualen Problems heißen Schattenpreise. Schattenpreise liefern Indikatoren für Produktionsentscheidungen beschreiben die Auswirkung kleiner Änderungen in den Ressourcenschranken auf die optimalen Kosten. Liegt in der Optimallösung Entartung vor, dann sind die Schattenpreise nicht eindeutig. 5