6 Lineare Optimierung

Ähnliche Dokumente
Teil I. Lineare Optimierung

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:

Optimierung. Vorlesung 02

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

Proseminar Konvexe Mengen: Der Satz von Carathéodory

Eigenschaften von LPs

11. Darstellung von Kurven und Flächen

1 Lineare Optimierung, Simplex-Verfahren

Lineare Optimierung: Simplexverfahren Phase Ⅰ

Numerische Lineare Algebra

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

Lösungen zu Aufgabenblatt 6

1 Der Simplex Algorithmus I

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme

Kombinatorische Optimierung

Optimierung für Wirtschaftsinformatiker: Lineare Programme

2.3 Basis und Dimension

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206

Kuhn-Tucker Bedingung

3.2.5 Dualität der linearen Optimierung I

Grundlagen der Optimierung. Übung 6

Dualitätssätze der linearen Optimierung

Die duale Simplexmethode

Vorlesung Mathematik WS 08/09. Friedel Bolle. Vorbemerkung

10. Übung zur Linearen Algebra I -

Höhere Mathematik für die Fachrichtung Physik

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

1. Hausaufgabenblatt (16.04./ )

Lineare Algebra 2. Lösung zu Aufgabe 7.2:

Studientag zur Algorithmischen Mathematik

Klausur - Analysis 1

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Lineare Optimierungsaufgaben - eine Einführung

47 Singulärwertzerlegung

1 Einführung Gleichungen und 2 Unbekannte Gleichungen und 3 Unbekannte... 4

Lineare Optimierung Dantzig 1947

Hauptsatz und Optimalitätskriterium der Simplexmethode

Das Lagrange-duale Problem

7.1 Matrizen und Vektore

Optimale Steuerung 1 Prozessoptimierung 1

$Id: reell.tex,v /11/15 13:12:24 hk Exp $

Über- und unterbestimmte

6 Metrische Klassifikation der Quadriken

Abbildung 1: Graphische Lösung der ersten Übungsaufgabe

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b

Übungsbeispiel 1: Quadratische Modellierung

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

Die Lagrange-duale Funktion

8. Lineare Optimierung

(λ), t P j i = P j i. heißt symmetrisch, wenn t A = A und antisymmetrisch, wenn

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

32 2 Lineare Algebra

Reihenentwicklung II. 1 Potenzreihenentwicklung von Lösungen

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Wirtschaftsmathematik

Wirtschaftsmathematik für International Management (BA)

Optimierungstheorie Scheinklausur Sommersemester Juli 2007

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

Konvexe Optimierungsprobleme

6 Lineare Gleichungssysteme

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Die Lösungsmenge besteht aus allen n-tupeln reeller Zahlen x 1

Lineare Gleichungssysteme

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)

Kapitel V. Affine Geometrie

2 Die Dimension eines Vektorraums

β 1 x :=., und b :=. K n β m

Geometrische Interpretation

x 3 Genau dann liegt ein Punkt X mit dem Ortsvektor x auf g, wenn es ein λ R gib,t so dass

mit. Wir definieren (Skalarprodukt = Winkel).

Kurseinheit 2»Dualität und weiterführende Methoden«

2.2 Lineare Gleichungssysteme (LGS)

Lineare Optimierungsmodelle

4 Der Gauß Algorithmus

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme

Systeme von linearen Ungleichungen

Lineare Programmierung

Damit läßt sich die Aufgabe durch einfaches Rechnen zeigen: k=1

9. Woche: Elliptische Kurven - Gruppenarithmetik. 9. Woche: Elliptische Kurven - Gruppenarithmetik 187/ 238

Optimierung unter Nebenbedingungen

Einführung in die Algebra

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn

1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1

Transkript:

6 Lineare Optimierung Um die Aufgabenstellung deutlich zu machen, beginnen wir mit einem (natürlich sehr vereinfachten) Beispiel: Produtionsplan einer (zugegebenermaßen sehr leinen) Schuhfabri. Hergestellt werden sollen Damen und Herrenschuhe, und zwar jeweils nur ein odell. Die Produtionsbedingungen ergeben sich aus der folgenden Tabelle. Damenschuh Herrenschuh verfügbar Herstellungszeit [h] 20 10 8000 aschinenbearbeitung [h] 4 5 2000 Lederbedarf [dm 2 ] 6 15 4500 Reingewinn [Euro] 16 32 Unter der Annahme, daß eine Absatzschwierigeiten entstehen, soll berechnet werden, wieviele Damen und Herrenschuhe hergestellt werden müssen, damit der Gewinn optimal wird, natürlich unter Einhaltung obiger Restritionen. athematische Formulierung: Sei die Zahl der produzierten Damenschuhe, die Zahl der produzierten Herrenschuhe. Dann lauten die Produtionsbedingungen: 20 + 10 8000 (i) 4x 1 + 5 2000 (ii) 6 + 15 4500 (iii) (iv) (v) (6.1) Gesucht sind Zahlen (, ), die diesen Ungleichungen genügen und den Gewinn maximieren, also Gewinn: f(, ) = 16 + 32 = max. (6.2) Die Funtion f aus (6.2) heißt Zielfuntion, die Ungleichungen (6.1) heißen Nebenbedingungen. In diesem Beispiel ann man sich die Lösung geometrisch veranschaulichen. Gleichzeitig legt es die Lösungsidee für den allgemeinen Fall nahe. Die Ungleichungen (6.1) beschreiben Halbebenen in IR 2, die durch Geraden begrenzt werden (vgl. Zeichnung). Der Durchschnitt aller dieser Halbebenen beschreibt den zulässigen Bereich aller der Puntepaare (, ), die den Ungleichungen (6.1) genügen. f(, ) = 16 + 32 =, mit variablem, beschreibt eine Geradenschar. Es ist ein maximales m derart zu bestimmen, daß (mindestens) ein Punt des zulässigen Bereichs auf der Geraden f(, ) = m liegt. 60

Wachstumsrichtung von (v) (iv) (i) (ii) (iii) Die geometrische Lösung ist nun einfach. an verschiebt die Geradenschar so lange im Sinne fallender, bis zum ersten al ein Punt aus auf einer Geraden liegt oder, falls die Geradenschar die gleiche Steigung hat wie eine Begrenzungsstrece von, sogar eine ganze Strece. Dieser Punt oder alle Punte der genannten Strece optimieren die Zielfuntion. Wir wollen uns an weiteren Beispielen dieser Art lar machen, was je nach Beschaffenheit von (zulässiger Bereich) und f (Zielfuntion) passieren ann. 1) falls nicht beschränt ist, ann f ein aximum annehmen, es muß dies aber nicht. 2) = ist möglich. 61

3) Die optimale Lösung ann, muß aber nicht eindeutig sein. 4) Es gibt überflüssige Nebenbedingungen. Fazit: Alle Beispiele zeigen: Wenn eine optimale Lösung existiert, dann wird sie (vielleicht nicht nur, aber auch) in einer Ece des zulässigen Bereichs angenommen. Im allgemeinen Fall wird ein lineares Optimierungsproblem die folgende Gestalt haben c 1 + c 2 +... + c n x n = max a 11 + a 12 +... + a 1n x n b 1 a 21 +... + a 2n x n b 2. a m1 + + a mn x n b m. x n 62

Wir schreiben das urz in atrixschreibweise. it c T = (c 1,...,c n ) IR n, A = (a ij ) IR m n, x T = (,..., x n ) IR n, b T = (b 1,..., b m ) IR m folgt c T x = max A x b x (L ) c T x heißt Zielfuntion, = {x IR n, Ax b, x } zulässiger Bereich. Ax b und x sind im Sinne obiger Ungleichungen omponentenweise zu verstehen. Die Elemente heißen zulässige Punte (zulässige Lösungen) und ein zulässiges x heißt optimal, wenn für alle zulässigen Vetoren y gilt c T x c T y. Natürlich sind auch andere Formulierungen von (L ) möglich und gebräuchlich. Dies hängt von der jeweiligen Aufgabenstellung ab. Wir stellen sie hier urz zusammen und zeigen, wie sie sich ineinander überführen lassen (um einen möglichst allgemeinen Typ von Optimierungsaufgaben behandeln zu önnen). a) Eine aximierungsaufgabe wird zu einer inimierungsaufgabe durch Übergang zum Negativen der Zielfuntion. b) Eine Ungleichung c T x = max c T x = min a i1 +... + a in x n b i ann durch Einführen einer Schlupfvariablen y i in eine Gleichung a i1 +... + a in x n + y i = b i überführt werden. c) Tritt eine Gleichung als Nebenbedingung auf, a j1 +... + a jn x n = b j, so ann sie durch 2 Ungleichungen ersetzt werden: a j1 +... + a jn x n b j a j1... a jn x n b j d) Eine Komponente x i von x, für die eine Vorzeichenbedingung besteht, ann ersetzt werden durch den Ausdruc x i = x i+ x i und die Forderung x i+, x i. Vorsicht: Diese Zerlegung muß auch in der Zielfuntion berücsichtigt werden. e) Jede Ungleichung ann durch ultipliation mit 1 in eine Ungleichung überführt werden (und umgeehrt). 63

Insbesondere ann also jede Optimierungsaufgabe mit linearer Zielfuntion und linearen Nebenbedingungen in die folgende Form gebracht werden c T x = min Ax = b (L) x, wobei c IR n, A IR m n, b IR m gegeben sind. Wir verdeutlichen an einem Beispiel die Überführung einer vorgelegten Aufgabe in die Form (L). an beachte dabei, daß sich bei Einführung von Schlupfvariablen die Zahl der Nebenbedingungen vergrößert und daß insbesondere bei Ersetzung einer nicht vorzeichenbeschränten Variablen durch 2 Ungleichungen (im Beispiel +, ) sich auch i.a. die Variablenanzahl mit Koeffizienten 0 in der Zielfuntion vergrößert. Beispiel: Die Aufgabe 2 + 3 = max wird so zu + 5 + 7 10 nicht vorzeichenbeschränt 2+ 2 + 3 + 0y 1 + 0y 2 + 0y 3 = min unter + + + y 1 = 5 + + + y 2 = +7 ++ + y 3 = +10 + y 1 y 2 y 3 c T x = min, x = (+,,, y 1, y 2, y 3 ) T, c = (2, 2, 3, 0, 0, 0) T IR 6 Ax = b, A = (a 1, a 1, a 2, I m ) IR m n, a 1 = ( 1, 1, 1) T, a 2 = ( 1, 1, 0) T x, m = 3 = Zahl der Gleichungen < n = 6 = Zahl der Variablen 64

Bemerungen zur Form (L): Das Fazit aus den Beispielen 1) 4) läßt vermuten, daß Ecen bei der Lösung der Optimierungsprobleme eine wesentliche Rolle spielen werden. In IR 2 und IR 3 lassen sich Ecen als Schnittpunte von Geraden oder Ebenen, also durch Gleichungen beschreiben. Obwohl in den meisten Fällen Nebenbedingungen durch Ungleichungen gegeben werden ( Ax b ), ist es deshalb günstiger, sie in Form von Gleichungen und leichter zu behandelnden Vorzeichenrestritionen darzustellen. Um zu einer Lösungsidee für das Problem (L) zu ommen, ehren wir nochmals zu den anfangs betrachteten Beispielen 1) 4) zurüc. Da die optimale Lösung auch immer in einer Ece angenommen wird, liegt es nahe, alle Ecen zu bestimmen, in ihnen den Zielfuntionswert zu berechnen und die Ece mit dem optimalen Zielfuntionswert auszuwählen. Dieses Vorgehen ist problematisch, weil es einerseits, insbesondere bei vielen Ungleichungsrestritionen, schwierig sein wird, alle Ecen zu bestimmen, und andererseits dabei viele Ecen umsonst berechnet werden. Erfolgversprechend ist die nächste Idee: an beginne mit einer Ece (wie findet man die?), bestimme in dieser Ece den Zielfuntionswert und gehe dann längs einer Kante, längs der der Zielfuntionswert abnimmt, zu einer Nachbarece über und bestimme deren Zielfuntionswert usw., bis man am inimum angelangt ist. (Wie erennt man das?) Dabei önnen natürlich alle die Situationen eintreten, die wir in den Beispielen 1) 4) ennengelernt haben. Insbesondere hoffen wir aber, daß man auf diese Weise nicht alle Ecen durchlaufen muß, bis man am inimum angeommen ist. an mache sich diese Problemati auch an Beispielen im IR 3 lar. Wir haben in der Tat mit der obigen Vorgehensweise die Grundidee des nun zu besprechenden Lösungsalgorithmus beschrieben. Bei der Umsetzung dieser geometrischen Lösungsidee in einen Lösungsalgorithmus für die Aufgabenstellung (L) treten eine Reihe von Problemen auf, wie etwa Wie beschreibt man Ecen im IR n? Wie beschreibt man Kanten? Was heißt Laufen auf einer Kante? Wird der optimale Wert wirlich in einer Ece angenommen? Was bedeuten die Beobachtungen aus den Beispielen 1) 4) im allgemeinen Fall? Diese und weitere auftauchende Fragen wollen wir im folgenden zu lösen versuchen. Dabei werden die Lösungsideen aus der anschaulichen Problemstellung (L ) ommen (, die wir der Anschauung halber nochmals, samt ihrer geometrischen Interpretation sizzieren,) und werden dann in die algebraische und algorithmische Sprache für das Problem (L) übersetzt werden müssen. 65

Lineare Optimierungsaufgaben: Formulierungen n j=1 n j=1 c j x j = min, c = (c 1,...,c n ) T IR n c T x a ij x j b i, i = 1,...,m, A x b A = (a ij ) IR m n atrixschreibweise = min (L ) b = (b 1,..., b m ) T IR m x i, i J {1,..., n} x i, i J Im IR 2 (auch IR 3 ) hat man die Veranschaulichung a x + a x = b 11 1 12 2 1 T c x = 1 x >= 0 2 a x + a x = b 21 1 22 2 2 T c x = > 2 1 = {x IR n ; A x b, x i, i J} heißt zulässiger Bereich, c T x heißt Zielfuntion. Problem (L) c T x = min, c IR n Ax = b, A IR m n, b IR m x = {x IR n ; A x = b, x } heißt zulässiger Bereich, c T x heißt Zielfuntion, und x heißt optimal, falls x und c T x c T x x. Beachte: Die Vetoren c, b und die atrix A sind gemäß den Umformungen nicht die gleichen wie in (L ). (L) Beschreibung von Ecen Der zulässige Bereich eines linearen Optimierungsproblems wird im IR 2 begrenzt, im IR 3 durch Ebenen, im IR n durch sog. Hyperebenen. durch Geraden 66

Geometrisch anschaulich ist eine Ece eines solchen Bereichs ein Punt, der nicht auf der Verbindungsgeraden zweier Punte liegt, die auch sind. athematische Fassung dieses Sachverhalts: Definition 6.1 1) Eine enge K IR n heißt onvex (Def.) {, K gilt x = λ + (1 λ) K, 0 λ 1 x heißt Konvexombination von und. 2) Eine Konvexombination heißt echt (Def.) λ 0, 1 3) Sei K IR n eine enge, die durch Hyperebenen begrenzt wird. x K heißt Ece von K (Def.) x hat eine Darstellung als echte Konvex ombination 2er verschiedener Punte von K Sätzchen 6.2: Die zulässige enge eines linearen Optimierungsproblems (in der Normalform) = {x IR n, Ax = b, x } wo A IR m n, b IR m, m < n, ist onvex. Beweis: Seien,, und x = λ + (1 λ), λ [0, 1], so folgt Ax = A(λ + (1 λ) ) = λ A + (1 λ) A = λ b + (1 λ) b = b. Aus x = λ + (1 λ) folgt x, also x. Charaterisierung von Ecen Sei A = (a 1,...,a n ), d.h. a i seien die Spalten von A. Für x = (,...,x n ) T ann n Ax = b geschrieben werden als a i x i = b. i=1 67

Sei = {x IR n ; Ax = b, x } der zulässige Bereich eines linearen Optimierungsproblems, dann ann x (Œ bis auf Umnumerierung) geschrieben werden als x = (,...,x p, 0,..., 0) T,,...,x p > 0, 0 p n. Dann gilt folgende Charaterisierung von Ecen: Satz 6.3 Sei x = {x IR n ; Ax = b, x }, so daß n i=1 Dann gilt a i x i = b, x i > 0 für i = 1,..., p, x i = 0 für i = p + 1,...,n, p. a) x 0 ist Ece von b = 0. (p = 0) b) x 0 ist Ece von Die Spalten a i, die zu positiven Komponenten von x gehören, sind linear unabhängig. (p > 0) Beweis: a) offensichtlich, denn 0 = λ + (1 λ),,, λ > 0 = = = 0. b) (indiret): Annahme: a 1,...,a p seien linear abhängig, d.h. (d 1,...,d p ) T IR p, p nicht alle d i = 0, mit a i d i = 0. Setze i=1 d := (d 1,...,d p, 0,..., 0) T IR n Ad = 0 { Ax = b für x gilt x A(x + δ d) = b δ IR x + δ d für leine δ IR, da x i > 0 für i = 1,..., p, d.h. δ > 0, so daß x + δ d =, x δ d = und x = 1 2 (x1 + ) (Def.) = x ist eine Ece. 68

Beweis: b) (indiret) Annahme: x ist eine Ece, d.h.,,, so daß { A = b A = b x = λ > 0 + (1 λ) > 0 } { x 1 i = i = 0 für i > p da, und x i = 0 für i > p A( ) = 0 p i=1 a i ( i x2 i ) = 0 ai lin. = unabh., λ (0, 1) } { x 1 i = i für i p } x1 =. Korollar 6.4 Eine Ece von hat maximal m positive Komponenten, wo m = Rang A. Eine Ece x heißt entartet, wenn sie weniger als m positive Komponenten besitzt. an ann dann die zu positiven Komponenten von x gehörenden Spaltenvetoren von A durch Hinzunahme weiterer Spalten von A zu einer Basis des IR m ergänzen und ommt somit zum Begriff der Basislösung. Definition 6.5 Gegeben sei das Problem c T x = min, x = {x IR n ; Ax = b, x }, RgA = m. m linear unabhängige Spalten x heißt Basislösung (Basisvetor) zur Indexmenge J } (Def.) a i von A, i J, J = m, x i = 0 für i J a i x i = b i J so daß und Beachte: Es wird nicht gefordert x i > 0 für i J. Jede Ece x definiert also eine Basislösung zu einer (im entarteten Fall nicht eindeutigen) Basis des IR m aus Spaltenvetoren von A. Umgeehrt beschreibt jede Basislösung eindeutig eine Ece. 69