Inhaltsverzeichnis. Optimierung. I Lineare Optimierung 6. Volker John. 19. Juli II Nichtlineare Optimierung Einführung 3.

Größe: px
Ab Seite anzeigen:

Download "Inhaltsverzeichnis. Optimierung. I Lineare Optimierung 6. Volker John. 19. Juli II Nichtlineare Optimierung Einführung 3."

Transkript

1 Inhaltsverzeichnis 1 Einführung 3 I Lineare Optimierung 6 1 Grundlagen 7 Optimierung Volker John 19 Juli 006 Geometrische Deutung des Linearen Programms 10 3 Basislösungen eines linearen Programms in Normalform 14 4 Hauptsatz und Optimalitätskriterium der Simplexmethode 18 5 Die Simplexmethode 3 6 Bestimmung einer ersten zulässigen Basislösung 8 7 Zur Ausartung 3 71 Die Methode der ε Störung 3 7 Die lexikographische Simplexmethode 35 8 Zur Effizienz der Simplexmethode Maße für die Effizienz 36 8 Zur worst case Komplexität der Simplexmethode 37 9 Dualitätssätze der linearen Optimierung Die duale Simplexmethode Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme 55 II Nichtlineare Optimierung 60 1 Einleitung 61 Nichtlineare Optimierung ohne Nebenbedingungen 64 1 Minimierung nichtglatter Funktionen in einer Variablen 64 Differenzierbare Funktionen 69 1

2 3 Konvexität Konvexe Mengen 70 3 Konvexe und konkave Funktionen 7 33 Ungleichungen und konvexe Mengen Extrema von konvexen Funktionen 75 4 Optimalitätskriterien Einleitung 77 4 Lokale Minima für Optimierungsprobleme ohne Einschränkungen an das zulässige Gebiet Lokale Minima für Optimierungsprobleme, bei denen das zulässige Gebiet durch Ungleichungen gegeben ist Globale Theorie der Lagrange Multiplikatoren 85 5 Lösungsverfahren Projektionsverfahren 89 5 Penalty Verfahren Strafverfahren) 9 53 Barrieremethoden SQP Verfahren 96 Kapitel 1 Einführung Die Optimierung untersucht im Prinzip die Fragestellung: Gesucht ist die optimale Lösung eines Problems unter irgendwelchen Bedingungen Die mathematische Formulierung ist: Gegeben seien Funktionen f : R n R, g i : S R, i = 1,, m, S R n, suche fx) Extremum unter den Bedingungen g i x) 0, i = 1,, m Sind alle Funktionen linear, so hat man ein Problem der linearen Optimierung Bei Optimierungsproblemen müssen folgende Fragestellungen untersucht werden: - Wie lauten notwendige und hinreichende Bedingungen für die Existenz von Lösungen? - Wie kann man Lösungen mit möglichst geringem Aufwand berechnen? Was sind die effizientesten Algorithmen? In der Einführung werden einige typische Beispiele von Optimierungsproblemen angegeben Beispiel 11 Rundreiseproblem Gegeben sind n verschiedene Orte O i, i = 1,, n Die Entfernung zwischen den Orten O i und O j sei a ij Anstelle der Entfernung können auch andere Parameter wie Kosten oder Zeit genommen werden Man nimmt im allgemeinen auch a ij a ji an Das Rundreiseproblem oder auch Traveling Salesman Problem kann nun wie folgt formuliert werden: Ein Reisender, der in einem Ort startet, möchte alle restlichen Orte genau einmal besuchen und zum Ausgangsort zurückkehren In welcher Reihenfolge hat er die Orte zu besuchen, damit die Gesamtlänge des Reiseweges minimal wird? Beispiel 1 Landwirtschaft, Anbauoptimierung Es stehen 100 ha Ackerland zur Verfügung, die mit Kartoffeln x 1 ha und Getreide x ha bestellt werden sollen Ein Teil der Anbaufläche kann auch brach bleiben Die Betriebskosten sind wie folgt GE = Geldeinheit): Kartoffeln Getreide insgesamt verfügbar Anbaukosten GE/ha GE Arbeitstage/ha Tage Reingewinn GE/ha Bei welcher Bewirtschaftung erzielt man den größten Gewinn? 3

3 Die mathematische Formulierung des Problems ist wie folgt: Diese Aufgabe kann man graphisch lösen ) x ) max 5) z = 40x x max 11) 4) 10x 1 + 0x ) x 1 + 4x ) x 1 + x ) x 1, x 0 15) 1) 3) Abbildung 11: Darstellung der Nebenbedingungen und der Zielfunktion zum Beispiel 1 Die Nebenbedingungen beschreiben Halbebenen und der Durchschnitt der Halbebenen ist gerade die Menge der Paare x 1, x ), in denen man das Maximum sucht Zur graphischen Darstellung der Zielfunktion z wähle man sich einen beliebigen Punkt x 1, x ) und berechne die Gerade z durch diesen Punkt In diesem Beispiel soll die Zielfunktion maximiert werden, das heißt, der Zielfunktionswert steigt, wenn man die Gerade orthogonal zu ihrem Anstieg nach oben verschiebt Der letzte Punkt, der alle Nebenbedingungen erfüllt und der auf einer parallelen Geraden zur dargestellten Geraden liegt, ist der mit einem Kreis gekennzeichnete Punkt x 1, x ) = 60, 5) Die Lösung dieses linearen Optimierungsproblems ist demzufolge x 1 = 60 ha, x = 5 ha x1 rungen erfüllt Das zugehörige Optimierungsproblem lautet: z = 10x x + 7x 3 min 8x 1 + 1x + 3x 3 90 x 1 + 0x + 3x x 1 + 5x x x + 89x x 1, x, x 3 0, wobei die Maßeinheit für x 1, x, x 3 hier 100 g ist Die gerundete) Lösung lautet: x 1 = 771, x = 0, x 3 = 445, also 771 g Weißbrot und 445 g Milch, das heißt vegetarisch Die Kosten sind rund 48 GE Beispiel 14 Rucksackproblem Ein Wanderer kann in seinem Rucksack ein Gesamtgewicht von N tragen Er hat n Gegenstände, die er mitnehmen möchte und jeder Gegenstand hat einen gewissen Nutzen n i, i = 1,, n Das Gesamtgewicht aller Gegenstände übersteigt das zulässige Maximalgewicht Das Optimierungsproblem des Wanderers besteht nun darin, eine Teilmenge von Gegenständen mit maximalem Nutzen zu finden, so dass das Gesamtgewicht dieser Teilmenge höchstens N ist Dabei kann als zusätzliche Nebenbedingung auftreten, dass gewisse Lösungskomponenten ganzzahlig sein müssen, zum Beispiel die Anzahl der Paar Schuhe, die er mitnehmen soll Beispiel 15 Zuordnungsproblem In einer Firma stehen zur Fertigung von n Produkten n Maschinen zur Verfügung Jede Maschine eignet sich zur Herstellung jedes Produktes unterschiedlich gut Es ergeben sich je nach Zuordnung verschiedene Arbeitszeiten Jeder Maschine soll genau ein Produkt zugeordnet werden Das Optimierungsproblem besteht darin, die Gesamtfertigungszeit der Produkte zu minimieren Bemerkung 16 Operations Research In der Fachliteratur werden Optimierungsaufgaben oft unter dem Begriff Operations Research Optimalplanung) geführt Literaturempfehlungen sind: Jarre and Stoer [JS04], Borgwardt [Bor01], Elster, Reinhardt, Schäuble, Donath [ERSD77], vor allem über das Gebiet der linearen Optimierung gibt es auch eine Reihe älterer Lehrbücher, die man verwenden kann Beispiel 13 Ernährungsprogramm Es stehen die folgenden drei Nahrungsmittel zur Verfügung alle Angaben jeweils für 100 Gramm): Eiweiß Fett Kohlenhyd Wasser Preis 1 Weißbrot Wurst Milch Ein Ernährungsprogramm wird nur zugelassen, wenn es folgende Mindestanforderungen erfüllt: Eiweiß: 90 g, Fett: 80 g, Kohlenhydrate: 500 g, Wasser 500 g Ziel ist es, das kostengünstigste Ernährungsprogramm zu finden, welches diese Anforde- 4 5

4 Kapitel 1 Grundlagen Teil I Lineare Optimierung Definition 11 Lineares Optimierungsproblem, lineares Programm Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt, wenn das Extremum einer linearen Funktion z = c i x i = c T x 11) zu bestimmen ist, über der durch das lineare Ungleichungssystem a ij x j >) b i, i = 1,, m 1) x j 0, j = 1,, n, 13) definierten Punktmenge Seien x, y R n Dann wird die Bezeichnung verwendet x >)y x i >)y i, i = 1,, n, Definition 1 Zulässiger Bereich Die Menge M aller Punkte, die das Ungleichungssystem 1) 13) erfüllen, heißt zulässiger Bereich Beispiel 13 Der zulässige Bereich, der durch lineare Nebenbedingungen beschrieben ist, ist der Durchschnitt von Halbräumen Für n = sind das Halbebenen und ein Beispiel ist in Abbildung 11 zu sehen Der zulässige Bereich ist nicht notwendig beschränkt Er kann auch leer sein Definition 14 Konvexität Eine Punktmenge M heißt konvex, wenn mit beliebigem x 1, x M auch alle Punkte der Gestalt λx λ)x, 0 λ 1, zu M gehören Für den R n bedeutet Konvexität, dass mit zwei Punkten x 1, x aus M auch ihre Verbindungsstrecke in M liegt Satz 15 Die durch das lineare Ungleichungssystem 1) 13) definierte Punktmenge ist konvex 6 7

5 Beweis: Seien x 1, x M gegeben Dann gelten Mit λ [0, 1] gilt Ax 1 b, x 1 0, Ax b, x 0 λax 1 λb, 1 λ)ax 1 λ)b Addition und Linearität der Matrizenmultiplikation ergibt Analog folgt A λx λ)x ) b λx λ)x 0 Der Durchschnitt beliebig vieler konvexer Mengen ist wieder konvex Übungsaufgabe Definition 16 Konvexe Hülle Die kleinstmögliche konvexe Menge M, die eine vorgegebene Punktmenge P enthält, heißt deren konvexe Hülle Beispiel 17 Die dick umrandete Menge ist die konvexe Hülle der dünn umrandeten Menge Beispiel 111 Bei einem Viereck im R sind die Eckpunkte gerade die vier Ecken Bei einer Kugel im R n, n 1, sind alle Randpunkte Eckpunkte Definition 11 Konvexes Polyeder Eine beschränkte Menge M mit endlich vielen Eckpunkten heißt konvexes Polyeder Beispiel 113 Konvexe Polyeder in R d, d = 1,, 3 Ein konvexes Polyeder in R 1 ist ein abgeschlossenes Intervall In R und R 3 kann man sich konvexe Polyeder noch gut vorstellen Ein Beispiel in R findet man in Abbildung 11 Satz 114 Sei M eine konvexe, abgeschlossene und beschränkte Menge, P sei die Menge der Eckpunkte von M Dann ist M die konvexe Hülle von P Beweis: Literatur Beweisidee mit trennenden Hyperebenen siehe [ERSD77, Satz 48] Satz 115 Ist der Lösungsbereich M = {x : Ax b, x 0} beschränkt, so ist er ein konvexes Polyeder Beweis: Siehe später, Folgerung 37 Beispiel 18 Die Menge { } 1 M = n : n N ist nicht konvex, da sie aus diskreten Punkten besteht Ihre konvexe Hülle ist 0, 1] Definition 19 Konvexe Linearkombination Gegeben seien q Punkte x 1,, x q Betrachtet werden alle Punkte der Gestalt q q x = λ i x i, 0 λ i 1, λ i = 1 14) Dann heißt die mit 14) erklärte Menge konvexe Linearkombination der Punkte x 1,, x q Welche Punkte einer konvexen Menge sollen ausgezeichnet werden? Definition 110 Eckpunkt oder Extrempunkt einer konvexen Menge Gegeben sei eine konvexe Menge M Der Punkt x M heißt Eckpunkt oder Extrempunkt von M, wenn aus x = λx λ)x, x 1, x M, 0 < λ < 1, folgt x = x 1 = x Man sagt, x lässt sich nicht als echte konvexe Linearkombination von x 1, x darstellen 8 9

6 Kapitel Geometrische Deutung des Linearen Programms In diesem Abschnitt wird gezeigt, dass sich das anschauliche Merkmal des zweidimensionalen linearen Programms aus Beispiel 1, nämlich dass das Optimum auf dem Rand angenommen wird, verallgemeinern lässt Historie zur Untersuchung linearer Optimierungsprobleme: Leonid V Kantorovitch ); Methode der Auflösungskoeffizienten Frank L Hitchcock, Transportproblem George Dantzig ), Simplexmethode Definition 1 Lineares Optimierungsproblem in 1 Normalform, lineares Programm in Normalform Gesucht werden die Werte der n Variablen x 1,, x n so, dass die lineare Funktion z = c j x j, = c T x 1) die sogenannte Zielfunktion, unter den Nebenbedingungen a ij x j b i, i = 1,, m, Ax b) ) x j 0, j = 1,, n, x 0) 3) ein Minimum annimmt Alle Koeffizienten sind reell Das System 1) 3) heißt lineares Optimierungsproblem oder lineares Programm in 1 Normalform Bemerkung 1 Ob 1) in min oder max Form benutzt wird, ist im allgemeinen ohne Belang, in [JS04] wird beispielsweise die max Form verwendet Die Relationen, =, im System der Nebenbedingungen sind im wesentlichen äquivalent 3 Fehlt zum Beispiel für einen Index k die Bedingung x k 0, so setzt man x k := x k ˆx k mit x k, ˆx k 0 Man erhöht damit die Anzahl der Variablen um Eins Definition 3 Zulässiger Punkt Ein Punkt x = x 1,, x n ) T heißt zulässig, wenn er die Nebenbedingungen ), 3) erfüllt Die Gesamtheit aller zulässigen Punkte heißt zulässiger Bereich 10 Für die Lösung von 1) 3) kommen nur zulässige Punkte in Betracht Der zulässige Bereich ist konvex Ist er beschränkt, so ist er ein konvexes Polyeder Ist der zulässige Bereich nicht beschränkt ist, dann gilt: - entweder ist 1) über diesen Bereich selbst nicht beschränkt, Beispiel: Minimiere x 1 x im Bereich {x 1, x ) : x 1 0, x 0}, - oder 1) ist über dem unbeschränkten Bereich beschränkt Dann kann man Zusatzbedingungen an den zulässigen Bereich stellen, die das Optimum nicht ändern, so dass der neue zulässige Bereich beschränkt ist Beispiel: Minimiere x 1 + x im Bereich {x 1, x ) : x 1 0, x 0} Weitere Beispiele findet man in Beispiel 6 Wenn von einem konvexen Polyeder gesprochen wird, ist ab sofort immer ein abgeschlossenes konvexes Polyeder gemeint Satz 4 Extremwertannahme Eine auf einem konvexen Polyeder definierte lineare Funktion z = fx) nimmt ihren kleinsten Wert in mindestens) einem Eckpunkt an Beweis: Seien x 1, x p die Eckpunkte des konvexen Polyeders Die Funktion fx) nehme ihr Minimum in x 0 an, das heißt fx 0 ) fx) 4) für alle Punkte x des konvexen Polyeders Dass das Minimum angenommen wird, folgt nach dem Satz von Bolzano Weierstrass stetige Funktion in einem kompakten Gebiet nimmt ihre Extremwerte an) Ist x 0 kein Eckpunkt, so existiert eine Darstellung Satz 114) x 0 = p λ j x j, 0 λ j 1, p λ j = 1 Aus der Linearität von f folgt p p f x 0 ) = f λ j x j = λ j f x j ) Sei ein Index l definiert durch Dann folgt fx l ) = min fx j),,p f x 0 ) fx l ) p λ j = fx l ) 5) Wegen 4) und 5) wird das Minimum für x l angenommen Folgerung 5 Wird das Minimum in mehr als einem Eckpunkt des konvexen Polyeders angenommen, so wird es auf der konvexen Hülle dieser Eckpunkte angenommen Beweis: Ohne Beschränkung der Allgemeinheit seien die Eckpunkte so numeriert, dass die Zielfunktion fx) ihr Minimum in den Eckpunkten x 1,, x q annehme Die konvexe Hülle dieser Eckpunkte ist { } q q x : x = λ i x i, 0 λ i 1, λ i = 1 11

7 Aus der Linearität von f folgt q ) q q f x) = f λ i x i = λ i fx i ) = fx 1 ) λ i = fx 1 ) = min b) Es gibt überflüssig Nebenbedingungen Die Zielfunktion nimmt ihren Extremwert in 0, 0) an und die drei oberen Nebenbedingungen sind überflüssig x Geometrische Interpretation Die Gleichung z = c T x d mit einer vorgegebenen Konstanten d ist die Gleichung einer Hyperebene in R n Für n = 3, hat man beispielsweise die Normalform einer Ebenengleichung, wobei c ein Normalenvektor der Ebene ist Sei z = c T x die Zielfunktion Es ist gerade z ) T z z c = z =,, x 1 x n Außerdem ist c orthogonal zu den Hyperebenen c T x = const Sei ein beliebiger Vektor einer Hyperebene gegeben, etwa zwischen den Punkten x und ˆx, dann gilt c T x = const, c T ˆx = const, = c T x ˆx) = 0 Aus der Menge c T x = const wählen wir diejenige Hyperebene, die einen vorgegebenen Punkt x 0, nicht notwendig einen Eckpunkt, enthält: c T x = c T x 0 Wir definieren g := {x : x = x 0 + tc, t R} Diese Gerade enthält x 0 und sie ist orthogonal zu c T x = const Für alle x g gilt bezüglich der Zielfunktion z = c T x = c T x 0 + tc) = c T x 0 + t c =: z 0 + t c, wobei z 0 der Startwert der Zielfunktion ist Sei t > 0 Dann folgt z > z 0, das heißt, der Wert der Zielfunktion wächst streng monoton in Richtung von c Wenn man z zu maximieren hat, so verschiebe man die Gerade in Richtung des Gradienten Also, ausgehend von c T x x 0 ) = 0 konstruiere man in Richtung von c eine Schar zu c T x x 0 ) = 0 paralleler Hyperebenen mit dem Ziel, diejenige Hyperebene aus der Schar zu finden, die {x : Ax b, x 0} berühert mit der Eigenschaft, dass {x : Ax b, x 0} ganz im negativen Halbraum der berührenden Hyperebene liegt Berührung bedeutet, dass {x : Ax b, x 0} { c T x = const } eine Teilmenge des Randes des Polyeders ist, zum Beispiel ein Eckpunkt c) Der zulässige Bereich ist leer x d) Der Optimalwert ist nicht beschränkt x x 1 x 1 Beispiel 6 Beispiele für Situationen die in linearen Programmen auftreten können a) Es gibt unendlich viele Lösungen eine gesamte Kante) x z x 1 x 1 z 1 13

8 Kapitel 3 Basislösungen eines linearen Programms in Normalform Definition 31 Lineares Programm in Normalform, einfache Normalform Gegeben sei das lineare Programm unter den folgenden Bedingungen z = c T x min! 31) Ax = b 3) x 0 33) mit x R n, b R m und A R m n Dieses Problem wird lineares Programm in ) Normalform genannt Bemerkung 3 Wenn man die lineare Ungleichung n a i jx j b i gegeben hat, so kann man eine sogenannte Schlupfvariable einführen n a i jx j + x n +1 = b i, x n +1 0 Mit Hilfe der Schlupfvariablen gelingt es aus dem linearen Programm in 1 Normalform ein lineares Programm in Normalform zu machen Diese sind äquivalent Die Kosten der Einführung von Schlupfvariablen bestehen darin, dass man die Dimension des Lösungsvektors erhöht Wir machen jetzt die folgenden Voraussetzungen: 1 m < n, das heißt weniger Nebenbedingungen als Unbekannte rga) = m, das heißt, A hat vollen Zeilenrang 3 Ax = b, x 0 sei widerspruchsfrei, das heißt, der zulässige Bereich ist nicht leer Definition 33 Basislösung Basislösungen des linearen Programms 31) 33) sollen die Lösungsvektoren x = x i1,, x im, 0,, 0) T heißen, für die die m Variablen x i1,, x im eine nicht singuläre Koeffizientenmatrix A m,m = a i1,, a im ) besitzen, wobei a j ), j = 1,, n, die Spaltenvektoren von A bezeichne 14 Die ersten m Variablen einer Basislösung können beliebige reelle Zahlen sein Definition 34 zulässige Basislösung, ausgeartete entartete) Basislösung Gilt für eine Basislösung x = x i1,, x im, 0,, 0) T, dass x ij 0 für alle j = 1,, m, dann heißt sie zulässig Verschwindet sie in mindestens einer Variablen, so heißt sie ausgeartet oder entartet Die Komponenten einer Basislösung werden Basisvariable genannt, die zugehörigen Spaltenvektoren heißen Basisvektoren Entsprechend spricht man von Nichtbasisvariablen und Nichtbasisvektoren Beispiel 35 z = x 1 x min! x 1 + 3x + x 3 = 3 3x 1 + x + x 4 = 3 x 0 Zulässige, nicht ausgeartete Basislösungen sind i1 = 3, i = 4) ) x = 0, 0, 3, 3) T 1 0, A, =, z = oder i1 = 1, i = ) x = 3/4, 3/4, 0, 0) T, A, x 3 4, 3 4 ) Wir führen jetzt die weitere Nebenbedingung 1 z 3 ), z = 3 x 1 + x 3 ein Die Nebenbedingungen des erweiterten linearen Programms haben die Gestalt x 1 x x x 4 = x 5 Dann ist eine ausgeartete zulässige Basislösung des erweiterten linearen Programms i1 = 1, i =, i3 = 5) 3/4, 3/4, 0, 0, 0) T, A 3,3 = , z = x1

9 Im Bild erkennt man, was Ausartung bedeutet Die Ecke 3/4, 3/4) des zulässigen Bereichs ist bereits durch die ersten beiden Nebenbedingungen bestimmt Durch die neue Nebenbedingung ist diese Ecke nun wahlweise durch die ersten beiden, durch die erste und die dritte oder die zweite und die dritte Nebenbedingung bestimmt Die Nebenbedingungen, die diese Ecke des zulässigen Bereichs bestimmen, sind nicht mehr eindeutig Satz 36 Ein Eckpunkt eines zulässigen Bereichs M = {x : Ax = b, x 0} liegt genau dann vor, wenn seine Koordinaten eine zulässige Basislösung bilden Beweis: a) Aus Basislösung folgt Eckpunkt Sei x = x 1, x,, x m, 0,, 0) T eine zulässige Basislösung, das heißt a 1 x 1 + a x + + a m x m = b, die Vektoren a 1,, a m sind linear unabhängig und die Nichtbasisvariablen x m+1,, x n sind gleich Null Der Beweis wird indirekt geführt, indem angenommen wird, dass x = x 1,, x m, 0,, 0) kein Eckpunkt ist Dann gibt es Punkte x 1, x M mit λx λ)x = x, x 1 x, 0 < λ < 1 Da die letzten n m Komponenten von x verschwinden, muss das auch für entsprechenden Komponenten von x 1 und x gelten, da alle Komponenten dieser Vektoren nichtnegativ sind Seien nun T T x 1 = x 1) 1, x1),, x1) m, 0,, 0), x = x ) 1, x),, x) m, 0,, 0) Da diese Punkte zulässig sind, folgt a 1 x 1) 1 + a x 1) + + a m x 1) m = b, a 1 x ) 1 + a x ) + + a m x ) m = b Wegen der linearen Unabhängigkeit der Vektoren a 1,, a m folgt daraus x 1 = x, was im Widerspruch zur Annahme steht Also ist x ein Eckpunkt b) Aus Eckpunkt folgt Basislösung Sei x ein Eckpunkt des zulässigen Bereichs mit den nichtnegativen Koordinaten x 1,, x k, das heißt, es gilt a 1 x 1 + a x + + a k x k = b, x j > 0 für a j R m j = 1,, k n Ohne Beschränkung der Allgemeinheit seien die verschwindenden Komponenten die hinteren Es ist zu zeigen, dass a 1,, a k linear unabhängig sind Der Beweis ist wieder indirekt Wir nehmen also an, dass es ein y R k gibt mit a 1 y 1 + a y + + a k y k = 0 und mindestens einem y i 0 Für jede reelle Zahl µ gilt damit k a j x j + µy j ) = b Das bedeutet, die Punkte und k a j x j µy j ) = b x 1 = x 1 + µy 1,, x k + µy k, 0,, 0), x = x 1 µy 1,, x k µy k, 0,, 0) 16 erfüllen die Nebenbedinungen 3) Falls man µ > 0 hinreichend klein wählt, sind alle Komponenten dieser Punkte nichtnegativ und x 1, x sind zulässig Aus der Konstruktion von x 1, x folgt, dass x = 05x x gilt Das ist im Widerspruch zur Eckpunktannahme von x Diese Darstellung für den Eckpunkt x kann nur existieren, wenn x 1 = x Da µ positiv ist, muss also y 1 = = y k = 0 gelten Also sind a 1,, a k linear unabhängig Die Basislösung verlangt jedoch m linear unabhängige Vektoren: - Fall k > m m + 1 Vektoren des R m sind stets linear abhänging Dieser Fall kann also nicht eintreten - Fall k = m In diesem Fall besitzt die zulässige Basislösung m positiven Komponenten, sie ist also nicht ausgeartet - Fall k < m In diesem Fall hat man eine zulässige Basislösung mit weniger als m positiven Komponenten, also eine ausgeartete Basislösung Aus den restlichen Spalten von A konstruiert man eine Menge von linear unabhängigen Vektoren a 1,, a m, für welche offensichtlich a 1 x a k x k + a k a m 0 = b gilt Diese Konstruktion ist möglich, da rga) = m ist Folgerung 37 Satz 115 Ist der Lösungsbereich M = {x : Ax = b, x 0} beschränkt, so ist er ein konvexes Polyeder Beweis: Man kann nur endlich viele Mengen von m linear unabhängigen Spaltenvektoren der Matrix A bilden Maximalanzahl ist Übungsaufgabe) Mit dem eben bewiesenen Satz hat damit M nur endlich viele Ecken Eine weitere Folgerung des eben bewiesenen Satzes, zusammen mit Satz 4 ist wie folgt Folgerung 38 Eine über einem konvexen Polyeder M = {x : Ax = b, x 0} definierte lineare Funktion z = c T x nimmt ihr Minimum für wenigstens eine zulässige Basislösung an Mit Hilfe der bisherigen Resultate können wir versuchen, ein Verfahren zur Lösung von min x R n { z = c T x : Ax = b, x 0 } zu konstruieren: ) n 1 Aufstellung der linearen Gleichungssysteme der Dimension m aus m Ax = b Ist die so generierte Matrix A m,m regulär? 3 Angabe der Lösung für reguläre A m,m 4 Auswahl der zulässigen Lösungen 5 Bestimmung der Lösungen), die das Minimum liefern Diese Herangehensweise ist jedoch schon bei relativ kleiner Anzahl von Unbekannten und Nebenbedingungen viel zu aufwendig Zum Beispiel hätte man bei n = 0, m = 10 schon Gleichungssysteme aufzustellen und diese zu untersuchen Das Ziel wird nun sein, ein Verfahren zu finden, welches einen cleveren Weg zum Optimum findet, unter Nutzung von zulässigen Basislösungen 17

10 Alle Nichtbasisvektoren a m+1,, a n werden durch die Basis dargestellt a j = x 1j a x mj a m, j = m + 1,, n 43) Kapitel 4 Hauptsatz und Optimalitätskriterium der Simplexmethode Mit diesen Darstellungskoeffizienten x ij werden die Hilfsgrößen eingeführt z j = c 1 x 1j + c x j + + c m x mj, j = m + 1,, n, 44) Satz 4 Hauptsatz der Simplexmethode Sei z 0 der Wert der Zielfunktion für die zulässige Basislösung x = x 1,, x m, 0,, 0) T, x i > 0, i = 1,, m Gilt für ein festes j = k, j = m + 1,, n, dass z k c k > 0, so existiert wenigstens eine zulässige Basislösung mit einem Zielfunktionswert kleiner als z 0 Beweis: Sei θ > 0 vorerst beliebig gewählt Man multipliziere 43) und 44) für j = k mit θ und bilde 41) - θ 43) und 4) - θ 44): a 1 x 1 θx 1k ) + a x θx k ) + + a m x m θx mk ) + θa k = b, 45) In diesem Abschnitt wird das wichtigste Verfahren zur Lösung linearer Optimierungsprobleme eingeführt die Simplexmethode Es existiere für { min z = c T x : Ax = b, x 0 } x R n eine zulässige Basislösung mit x > 0 Definition 41 Simplex Ein Simplex ist die Menge aller Punkte x = x 1,, x n ) mit x i 1, x i 0, i = 1,, n Für n = ist das Dreieck mit den Eckpunkten 0, 0), 1, 0), 0, 1) ein Simplex Bild Das geometrische Prinzip der Simplexmethode ist wie folgt: 1 Man beginnt an einer Ecke des zulässigen Bereichs mit einer Startlösung x 1 und dem Zielfunktionswert zx 1 ) Dann geht man entlang einer absteigenden Kante, dass heisst, bei welcher der Zielfunktionswert kleiner wird, zx 1 ) > zx ) zu einer sogenannten benachbarten Ecke x 3 Wiederhole Schritt so lange, bis es keine absteigende Kante mehr gibt Wir werden später diskutieren, dass man auch Simplexschritte ausführen kann, bei denen der Zielfunktionswert gleich bleibt In diesem Fall ist die Beschreibung des zweiten Schritts auch abzuändern, da man nicht zu einer benachbarten Ecke geht, sondern auf der gegebenen Ecke die Basis ändert Diese Situation kann im Falle der Ausartung eintreten Man nennt zwei Basislösungen benachbart, wenn sie sich nur in einem Basisvektor unterscheiden Sei x = x 1,, x m, 0,, 0) T eine erste zulässige Basislösung Es gilt a 1 x 1 + a x + + a m x m = b 41) Dabei sind {a 1,, a m } linear unabhängige Vektoren Der Zielfunktionswert ist demzufolge z 0 = c 1 x c m x m 4) 18 c 1 x 1 θx 1k ) + c x θx k ) + + c m x m θx mk ) + θc k = z 0 θz k + θc k = z 0 + θ c k z k ) 46) In der Gleichung 45) steht ein Vektor, der Ax = b erfüllt: x 1 θx 1k,, x m θx mk, 0,, θ,, 0) T Es wird in Lemma 43 gezeigt, dass man mit diesem Vektor eine Basislösung erhält Man hätte eine zulässige Basislösung, wenn x i θx ik 0, i = 1,, m Der zugehörige Zielfunktionswert ist durch die Gleichung 46) gegeben Er ist kleiner als z 0 falls θ > 0 und z k c k > 0 Unter der Annahme, dass der Hauptsatz bereits vollständig bewiesen ist, haben wir ein hinreichendes Kriterium um zu entscheiden, ob es eine zulässige Basislösung mit einem kleineren Zielfunktionswert gibt Man benötigt jetzt noch eine Methode zur Konstruktion dieser zulässigen Basislösung Diese erfolgt mit Hilfe von θ Diese Größe wird definiert durch x i x l θ = min =: 47),,m,xik>0 x ik x lk Damit das funktioniert, brauchen wir ein x ik > 0 Falls es kein solches x ik gibt, dann folgt, dass die Zielfunktion nach unten unbeschränkt ist Man kann nämlich in diesem Fall θ beliebig groß wählen, da stets x i θx ik 0 Aus 46) folgt dann, dass unter der Bedingung c k z k < 0 die Zielfunktion unbeschränkt nach unten ist Fazit: Falls für ein z k c k > 0 alle x ik 0, dann ist die Zielfunktion nicht von unten beschränkt und man breche die Simplexmethode ab Wenn man Entartung ausschließt, dann ist θ eindeutig bestimmt, das heißt, das Minimum in 47) wird für genau einen Index l angenommen Es gilt auch die Umkehrung, dass falls der Index l in 47) nicht eindeutig bestimmt ist, dann hat man Ausartung Ausartung kann zur Folge haben, dass gilt zx i ) = zx i+1 ) = Das nennt man einen Basiszyklus Sei der Index l in 47) eindeutig bestimmt Dann hat man a 1 x 1 x ) l + + a l 1 x l 1 x ) l +a l+1 x l+1 x l x lk x l+1,k x lk x 1k ) + + a m x m x l x lk x mk 19 x l 1,k x lk ) + x l a k x lk = b,

11 und die neue zulässige Lösung ˆx i = x i x l x lk x ik, i = 1,, m, i l, ˆx k = x l x lk 48) Alle Komponenten sind auf Grund der Konstruktion nichtnegativ und bei Ausschluss der Entartung sogar positiv Man hat also die Komponente x l aus der Basisliste gestrichen und durch die Komponente x k ersetzt Es gilt also, 48) ist eine zulässige Lösung mit einem kleineren Zielfunktionswert als die ursprüngliche Lösung Damit bleibt nur noch die Basiseigenschaft von {a 1,, a l 1, a k, a l+1,, a m } zu prüfen Lemma 43 Sei {w 1,, w m } ein System linear unabhängiger Vektoren und sei w = m µ i w i, µ l 0 49) Dann ist auch {w 1,, w l 1, w, w l+1, w m } ein System linear unabhängiger Vektoren Beweis: Indirekter Beweis Sei {w 1,, w l 1, w, w l+1, w m } kein System linear unabhängiger Vektoren Dann gibt es Zahlen α 1,, α l 1, α l+1,, α m, α, von denen wenigstens eine ungleich Null ist, so dass m,i l α i w i + αw = 0 In diese Gleichung wird 49) eingesetzt Es folgt m,i l α i + αµ i ) w i + αµ l w l = 0 Die Vektoren {w 1,, w m } sind linear unabhängig, das heißt, alle Koeffizienten in dieser Gleichung müssen Null sein Wegen µ l 0 folgt dann α = 0 und daraus α i = 0 für alle i Damit ist gezeigt, dass {w 1,, w l 1, w, w l+1, w m } ein System linear unabhängiger Vektoren ist Damit ist die Basiseigenschaft von {a 1,, a l 1, a k, a l+1,, a m } gewährleistet Im allgemeinen ist der Hauptsatz der Simplexmethode solange anzuwenden, wie noch wenigstens ein z k c k > 0 ist Dabei kann man im allgemeinen nicht erwarten, falls noch q Größen z j c j > 0 existieren, dass man noch q Schritte auszuführen hat Gilt für alle z j c j 0, j Index von Nichtbasisvariablen, so ist man in dem Sinne fertig, dass der Hauptsatz nicht mehr anwendbar ist Der Hauptsatz gibt aber bisher nur ein hinreichendes und kein notwendiges Kriterium für die Existenz einer Basislösung mit einem kleineren Zielfunktionswert Im folgenden Satz wird gezeigt, dass das Kriterium auch notwendig ist Satz 44 Optimalitätskriterium Eine zulässige Basislösung x R n mit z 0 x) = m c ix i ist optimale Basislösung, wenn für alle j = m + 1,, n gilt z j c j 0 Beweis: Sei x = x 1,, x m, 0,, 0) T Des weiteren sei y = y 1,, y n ) T eine beliebige zulässige Lösung a 1 y 1 + a y + + a n y n = b, y 0, 410) mit z = c i y i 411) 0 Zu zeigen ist, dass z 0 z für alle y Durch 43) ist jeder Nichtbasisvektor mit Hilfe der Basis dargestellt Jetzt wird diese Darstellung auf die Basisvektoren ausgedehnt wobei a j = x 1j a x mj a m, j = 1,, n, { 1 für i = j x ij = 0 für i j, i = 1,, m 41) Weiter gilt die Darstellung 44) für z j, j = m + 1,, n Mit 41) hat man eine analoge Darstellung für j = 1,, m, die sich letztlich auf z j = c j reduziert Zusammen mit der Voraussetzung gilt jetzt z j c j, j = 1,, n Mit 411) folgt nun z i y i z 413) Nun wird in 410) die Darstellung aller Spaltenvektoren durch die ersten m Spaltenvektoren eingesetzt m y 1 x i1 a i + y m x i a i + + y n Durch Umordnung nach den Basisvektoren folgt n a 1 y j x 1j + a n y j x j + + a m m n x in a i = b y j x mj = b 414) Analog schreibt man 413) mit Hilfe von 44) und der entsprechenden Darstellung für j = 1,, m, mit 41) z j = c j, j = 1,, m) n c 1 y j x 1j + c n y j x j + + c m n Der Vektor x ist eine zulässige Basislösung, das heißt, es gilt y j x mj z 415) a 1 x 1 + a x + + a m x m = b 416) Da {a 1,, a m } eine Basis ist, ist die Darstellung von b mit Hilfe dieser Vektoren eindeutig Damit folgt aus 414) und 416) x i = y j x ij, i = 1,, m Setzt man dies in 415), so erhält man z 0 = m c i x i z An dieser Stelle sollen die Ergebnisse und Beobachtungen dieses Abschnitts zusammengefasst werden: min x R n{c T x : Ax = b, x 0} ist zu lösen Man braucht eine erste Basis A B = a 1,, a m ) mit der Basislösung x B = x 1,, x m ) T Damit hat man auch einen Nichtbasisanteil A N = a m+1,, a n ) und x N = x m+1,, x n ) T Auch der Kostenvektor wird in dieser Form zerlegt c T = c T B, ct N) = c1,, c m, c m+1,, c n ) T 1

12 Aus Ax = b folgt A B x B + A N x N = b = x B = A 1 B b A 1 B A N x N Dieser Ausdruck wird in die zu minimierende Zielfunktion eingesetzt c T B A 1 B b A 1 B A ) N x N + c T N x N min Das heisst c T x = c T B A 1 B }{{ b c T B } A 1 B A N c T N) xn min konstant 1 Fall: β = c T B A 1 B A N c T N < 0 Dann folgt c T x = c T BA 1 B b β m+1 }{{} <0 x m β }{{} n <0 x n min Das heißt, der Zielfunktionswert kann mit x i > 0 für i = m + 1,, n nicht verkleinert werden Damit hat man Optimalität erreicht Fall: c T B A 1 B A N c T N 0 und β j = 0 für mindestens einen Index j Dann ist das Optimum nicht eindeutig bestimmt 3 Fall: c T B A 1 B A N c T N 0 Dann bewirkt die Aufnahme einer Nichtbasisvariablen in die Basis eine Verkleinerung der Zielfunktion Nun ist noch die Frage zu klären, welche Nichtbasisvariable man in die Basis aufnehmen soll, falls es mehrere Indizes j mit z j c j > 0 gibt In diesem Falle wähle man z k c k = max z j c j j NBV,zj cj>0 Der Index der Basisvariablen, die aus der bisherigen Basis entfernt werden soll, ist durch 47) gegeben Kapitel 5 Die Simplexmethode Es werden folgende Bezeichnungen verwendet: - das untersuchte Problem ist min x R n { z = c T x : Ax = b, x 0 }, - die erste zulässige Basislösung sei x = x 1, x,, x m, 0,, 0) T, x 0, mit z 0 = c T x, - die Basisvektoren sind A B = a 1,, a m ), - die Nichtbasisvektoren sind A N = a m+1,, a n ), - die Darstellung der Nichtbasisvektoren durch die Basis ist - die Hilfsgrößen z j sind a j = x 1j a 1 + x mj a m, j = m + 1,, n, z j = c 1 x 1j + c x j + + c m x mj, j = m + 1,, n Diese Größen werden in der sogenannten Simplextabelle eingetragen: m + 1 m + k n i c i x i c m+1 c m+ c k c n 1 c 1 x 1 x 1,m+1 x 1,m+ x 1,k x 1,n c x x,m+1 x,m+ x,k x,n l c l x l x l,m+1 x l,m+ x l,k x l,n m c m x m x m,m+1 x m,m+ x m,k x m,n z 0 z m+1 c m+1 z m+ c m+ z k c k z n c n Basisteil Nichtbasisteil Bei der Simplexmethode folgt man jetzt im wesentlichen dem Beweis des Hauptsatzes Sei z k c k > 0 Gilt für mehrere Indizes j {m+1,, n}, dass z j c j > 0, so nehme man zum Beispiel einen Index, bei dem die Differenz maximal ist z k c k := max z j c j j=m+1,,n, Dann liegt x k als Nichtbasisvariable vor, die in die Basis soll Nun bestimmt man θ = das heißt, x l soll aus der Basis raus min,,m,xik>0 x i x ik =: x l x lk, 3

13 Definition 51 Hauptspalte, Hauptzeile, Hauptelement, Pivotelement Die Spalte k nennt man Hauptspalte, die Zeile l heißt Hauptzeile und das Element x lk heißt Hauptelement oder Pivotelement Die neue Basislösung sei ˆx 1,, ˆx l 1, ˆx k, ˆx l+1,, ˆx m, 0,, 0) T 51) Nun müssen die Elemente der neuen Simplextabelle bestimmt werden: 1 Man benötigt insbesondere eine Darstellung von 51) Aus 48) erhält man Aus 43) folgt für j = k ˆx i = x i x l x lk x ik, i = 1,, m; i l; ˆx k = x l x lk 5) a l = 1 x lk a k x 1k a 1 x l 1,k a l 1 x l+1,k a l+1 x mk a m ) = x 1k a 1 x l 1,k a l 1 + a k x l+1,k a l+1 x mk a m 53) x lk x lk x m x lk Damit haben wir eine Darstellung des bisherigen Basisvektors a l durch die neue Basis und die neuen Elemente der alten Hauptspalte sind ˆx kl = 1 x lk, x lk ˆx il = x ik x lk, i = 1,, m, i k 54) 3 Für den Rest erhält man, beispielhaft an a n gezeigt, die folgende Darstellung, wobei man in der ersten Gleichung die alte Basisdarstellung 43) nutzt: a n = x 1n a x l 1,n a l 1 + x l+1,n a l x mn a n + x ln a l }{{} = x 1n x 1kx ln + + Man erhält also x lk ) a x mn x mkx ln x lk ) a m x l 1,n x l 1,kx ln x lk 53) ) a l 1 + x ln x lk a k ˆx kj = x lj x lk, j = m + 1,, n, j k, 55) ˆx ij = x ij x lj x ik, x }{{} lk ˆxkj i = 1,, m, i k, j = m + 1,, n, j l56) 4 Die Elemente z 0, z m+1 c m+1,, z n c n transformieren sich ebenfalls nach den obigen Regeln Damit sind alle Elemente der neuen Simplextabelle berechnet Zur Berechnung von ˆx ij benötigt man die im Rechteck angeordneten Elemente x ij, x lj, x lk und x ik der alten Simplextabelle Deshalb spricht man auch von der Rechteckregel Die Basisform der Simplexmethode ist wie folgt: 4 1 Normalform des linearen Programms herstellen erste zulässige Basislösung angeben 3 Simplextabelle zu dieser Basislösung erstellen 4 Existieren Bewertungen z j c j > 0? Wenn ja, gehe zu 6 5 Sind alle Bewertungen z j c j < 0? Wenn ja, einzige Optimallösung gefunden, Simplexmethode beendet Wenn nicht, gibt es außer negativen Bewertungen z j c j nur noch verschwindende, dann ist das Optimum nicht eindeutig Man hat ein Optimum gefunden, beende Simplexmethode 6 Wähle die Hauptspalte, also die Spalte, zu der das größte z j c j > 0, j = k gehört 7 Falls x ik 0 für alle i = 1,, m, so ist die Zielfunktion nach unten nicht beschränkt, beende Simplexmethode 8 Bestimme θ zur Festlegung der Hauptzeile und des Pivotelements 9 Basistransformation: 91 Ersetze das Pivotelement durch seinen Kehrwert, siehe 54) 9 Multipliziere die übrigen Elemente der Hauptzeile mit diesem Kehrwert, einschließlich x l, siehe 5) und 55) 93 Multipliziere die übrigen Elemente der Hauptspalte mit dem negativen Kehrwert, siehe 54) 94 Vermindere die nicht in einer Hauptreihe stehenden Elemente, einschließlich der übrigen Werte von x i und der letzten Zeile, um das Produkt der zugehörigen Hauptreihenelemente Rechteckregel) Dabei nimmt man für das Pivotelement schon den neuen Wert und für die übrigen Elemente die alten Werte, siehe 5) und 56) 10 Gehe zu 4 Beispiel 5 Wir betrachten das lineare Programm z = 3x 1 x 4x 3 x 4 min! x 1 x x 3 x 4 = x 5 x 6 x x Bekannt sei eine erste zulässige Basislösung x 1 = 350, x 4 = 5, x 7 = 100, die den Zielfunktionswert z = 1075 besitzt Die Basisvektoren sind demzufolge a 1 = 1, 0 a 4 =, 0 a 7 = Gesucht ist nun die Darstellung der Nichtbasisvektoren durch die Basisvektoren Setze A B = a 1, a 4, a 7 ) und A N = a, a 3, a 4, a 5 ) Dann ist die Matrix X der Simplexkoeffizienten gesucht, für die gilt Man erhält hier A N = A B X = X = A 1 B A N 1 3/ 1/ 0 X = 1 3/4 1/4 1/

14 Daraus ergibt sich und somit z = c 1 x 1 + c 4 x 4 + c 7 x 7 = ) ) = 4, z 3 = 9/ + 3/4 + 0 = 15/4, z 5 = 3/ + 1/4 + 0 = 5/4, z 6 = 0 1/ + 0 = 1/ z c =, z 3 c 3 = 1/4, z 5 c 5 = 5/4, z 6 c 6 = 1/ Damit erhält man folgende Simplextabelle: i c i x i / 1/ /4-1/4 1/ /4-5/4-1/ Es gibt nur einen Index k mit z k c k > 0, nämlich k = 3 Damit ist die Hauptspalte bestimmt Schritt 6) Zur Bestimmung der Hauptzeile Schritt 8) berechnet man θ: ) { xi 350 θ = min = min xi3>0,i {1,4,7} 3/, 100 } = 0 5 x i3 für i = 7 Damit ist der Hauptzeilenindex l = 7 und das Pivotelement x 73 = 5 Nun führt man die Basistransformation aus Schritt 9): i c i x i /5-3/10 1/ 3/ /10 3/0-1/4 7/ /5 1/5 0-1/ /10-1/0-5/4-9/0 Den neuen Wert für x 1 erhält man beispielsweise aus Eine zulässige Basislösung, die gleichzeitig ein Optimum ist, ist x = 1, 0, 0, 0) T Wir nehmen als Basisvariablen x 1 und x Da x verschwindet, ist die Basislösung ausgeartet Man hat ) ) A B =, A 4 1 N = 0 1 und erhält die Simplextabelle 3 4 i c i x i /3 1/ /3-1/3-1 1/3-1/3 Gemäß Simplexmethode muss x 3 in die Basis anstelle von x eingeführt werden Man erhält die Simplextabelle 4 i c i x i /4 1/ /4-1/4-1 -1/4-1/4 Damit ist das Optimalitätskriterium der Simplexmethode erfüllt und diese wird beendet Man hat für das Optimum x = 1, 0, 0, 0) T mit diesen beiden Simplextabellen zwei unterschiedliche Basisdarstellungen Der Zielfunktionswert hat sich im Simplexschritt nicht verändert, es wurde lediglich die Basis gewechselt x 1 = = = 30 5 Da in der neuen Simplextabelle alle Werte z j c j < 0, j {, 5, 6, 7}, hat man die einzige Optimallösung bestimme: x = 30, 0, 0, 40, 0, 0, 0) T Bemerkung 53 Angenommen, man hat in einer Simplextabelle mehrere z j c j > 0 Zu einer dieser Spalten mögen nur Koeffizienten x ij 0 gehören Dann ist die Zielfunktion unbeschränkt Beispiel 54 Zur Ausartung Wir betrachten das lineare Programm z = x 1 min! ) x 1 ) x x 3 = 4 x 4 x 0 6 7

15 Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung Wie gut das geht, hängt auch vom konkreten Problem ab 1 Fall Liegt { min z = c T x : Ax b, x 0 } x R n vor und gilt b 0 Dann führt man Schlupfvariablen ein und setzt x = 0,, 0, b T ) T Fall Liegt das lineare Optimierungsproblem in der Gestalt { min z = c T x : Ax = b, x 0 } x R n vor mit A = a ij ), i = 1,, m; j = 1,, n, b = b 1,, b m ) T, a ij 0, b i 0 für alle i, j Dann kann man mit einer sogenannten Engpassmethode zur ersten zulässigen Basislösung gelangen: 1 Ordne die Variablen nach wachsenden Zielfunktionskoeffizienten c i, Beispiel z = 10x 1 6x 4x 3 3x 4 5x 5 min! x x = x 9 x 0 Dann ist die Ordnung x 1, x, x 5, x 3, x 4 In der festgelegten Reihenfolge werden die Variablen mit dem größtmöglichen Wert genommen, so dass die Nebenbedingungen erfüllt sind Im Beispiel beginnt man mit x 1 = 3 3 Man setzt diesen Wert ein und entfernt die Variable damit aus den Nebenbedingungen Im Beispiel ergibt sich x x 3 x 9 = Aus der zweiten Gleichung folgt x = x 3 = x 7 = 0, welche Werte man auch gleich einsetzen kann Damit vereinfacht sich das System der Nebenbedingungen zu x 4 x 5 x 6 x 8 x 9 = ) 4 Gehe zu Im Beispiel betrachtet man als nächstes x 5, da ja bereits x = 0 gilt Der maximale Wert von x 5, so dass 61) erfüllt ist, beträgt x 5 = 1 Einsetzen ergibt x 4 x 6 x 8 x 9 = ) Damit folgt x 6 = 0 Da ja auch schon x 3 = 0 gilt, wird nun x 4 betrachtet Der maximale Wert von x 4, so dass 6) erfüllt ist, ist x 4 = Man erhält ) ) ) 1 0 x8 0 = 0 1 x 9 Nun bestimmt man die letzten beiden Werte und erhält als erste zulässige Basislösung x = 3, 0, 0,, 1, 0, 0, 0, ) T Bemerkung 61 Hat man bei der Engpassmethode nicht genügend Variablen, dann führt man künstliche Variablen ein Bemerkung 6 Anderes Ordnungsprinzip der Variablen im Fall, dass die Koeffizienten von unterschiedlicher Größenordnung sind Wir betrachten das lineare Optimierungsproblem z = 10x 1 + 0x + 30x x x 5 min! x 1 ) x ) = 101 x 5 x 0 Nach dem obigen Ordnungsprinzip hat man die Reihenfolge x 1, x, x 3, x 4, x 5 und erhält mit der Engpassmethode die erste zulässige Basislösung Übungsaufgabe x 1 = 101, x 4 = 99 = z 0 = 485 Man erhält jedoch mit einer anderen Basislösung einen schon viel kleineren Zielfunktionswert x 3 =, x 5 = 1 = z 0 = 110 In diesem Fall ist das Ordnungsprinzip { min günstiger min j,cj 0 c j i,aij 0 9 { bi a ij }}

16 3 Fall Die erste zulässige Basislösung soll jetzt - ohne spezielle Voraussetzungen und - mit Hilfe der Simplexmethode bestimmt werden Dazu betrachten wir c j x j = c T x min! 63) Ax = b, 64) x 0 65) und nehmen b 0 an Das kann immer durch Multiplikation der entsprechenden Gleichungen mit einer negativen Zahl erreicht werden Dem Problem 63) 65) wird die Hilfsaufgabe m x n+i min! 66) a ij x j + x n+i = b i, i = 1,, m, 67) x j 0, j = 1,, m + n 68) zugeordnet Die Variablen x n+1,, x n+m heißen künstliche Variablen Zur Bestimmung der ersten zulässigen Basislösung von 63) 65) wird eine Zweiphasenmethode verwendet: 1 Phase Wähle als erste zulässige Basislösung für 66) 68) x i = 0, i = 1,, n, x n+i = b i, i = 1,, m Phase Löse 66) 68) mit der Simplexmethode Es stellt sich nun die Frage, ob man auf diesem Wege schließlich eine erste zulässige Basislösung für 63) 65) erhält Im nächsten Satz wird gezeigt, dass die Lösung von 66) 68) nicht ausgeartet ist Lemma 63 Unter der Annahme, dass 66) 68) keine ausgearteten Basislösungen besitzt, liefert die Simplexmethode nach endlich vielen Schritten eine optimale Lösung des linearen Optimierungsproblems 66) 68) Beweis: Da Ausartung per Annahme ausgeschlossen ist, kann kein Basiszyklus auftreten Es ist dann nur noch die Beschränktheit von unten der Zielfunktion 66) über 67) bis 68) zu zeigen Das ist offensichtlich, da 66) eine Summe nichtnegativer reeller Zahlen ist, die durch Null nach unten beschränkt ist Nun wird eine Bedingung angegeben, mit welcher man aus dem Optimum des Hilfsproblems 66) 68) eine erste zulässige Basislösung von 63) 65) erhält Satz 64 Sei x 0 eine Optimallösung der künstlichen Aufgabe 66) 68) mit dem zugehörigen Zielfunktionswert z 0 Gilt z 0 = 0, so ist sind die ersten n Komponenten von x 0 eine zulässige Basislösung der Aufgabe 63) 65) Gilt jedoch z 0 > 0, so besitzt 63) 65) keine zulässige Basislösung Beweis: Aus z 0 = 0 folgt x n+i = 0, i = 1,, m, das heißt im Optimum verschwinden alle künstlichen Variablen Also hat x 0 die Gestalt x 0 = x 1,, x n, 0,, 0) T }{{} m Da x 0 mit der Simplexmethode konstruiert wurde, folgt dass x 0 eine zulässige Basislösung von 63) 65) ist 30 Sei nun z 0 > 0 Der Beweis wird indirekt geführt, das heißt, wir nehmen an, dass 63) 65) die zulässige Basislösung x = x 1,, x n ) T besitzt Dann besitzt jedoch 66) 68) die zulässige Basislösung x 1,, x n, 0,, 0) T mit dem zugehörigen Zielfunktionswert 66) z = 0 Das ist im Widerspruch zur Annahme dass z 0 der minimale Wert ist 4 Fall Die M Methode Es wird das lineare Optimierungsproblem 63) 65) betrachtet und diesem die folgende Hilfsaufgabe zugeordnet m c j x j + M x n+i min! 69) a ij x j + x n+i = b i i = 1,, m, 610) x 0 611) Bei dieser Aufgabe muss der Straffaktor M > 0 hinreichend groß gewählt werden, damit im Optimum die Variablen x n+1,, x n+m verschwinden Das Problem besteht darin, dass man im allgemeinen nicht von vornherein festlegen kann, wie groß M zu wählen ist Möglich sind Aussagen folgender Gestalt: Satz 65 Es existiert ein M 0 > 0, so dass für alle M > M 0 aus der Lösbarkeit von 63) 65) die Lösbarkeit von 69) 611) mit x n+1 = = x n+m = 0 folgt Beweis: Siehe Literatur Der Vorteil der M Methode im Vergleich zur Herangehensweise von Fall 3 wird mit folgendem Satz beschrieben Satz 66 Falls 69) 611) eine Lösung x = x 1,, x n, 0,, 0) T }{{} m besitzt, so ist x = x 1,, x n ) T bereits eine Optimallösung von 63) 65) Beweis: Siehe Literatur 31

17 Sei x = x 1,, x m, 0,, 0) T a 1,, a m : eine zulässige Basislösung mit den Basisvektoren Kapitel 7 Zur Ausartung Nach Definition 34 liegt Ausartung dann vor, wenn mindestens eine der Variablen x i, i = 1, m, einer zulässigen Basislösung verschwindet Das dahinterliegende Problem ist, dass die Zuordnung Ecke zulässige Basislösung nicht eindeutig ist Eine Ecke des Polyeders kann Basislösung zu verschiedenen Basen sein Das kann aber nur bei ausgearteten Basislösungen auftreten Aus der Ausartung einer zulässigen Basislösung folgt jedoch nicht unbedingt, dass zu der entsprechenden Ecke mehr als eine zulässige Basislösung gehört Beispiel 71 Betrachte das lineare Programm mit z = x 1 + x x 3 min!, A = ) ) 0, b = 1 Der einzige Extremalpunkt ist x = 0, 0, 1) T Zulässige Basen sind ) ) ) ) , und, Der Grund für die Nichteindeutigkeit der Basis besteht darin, dass es zu viele Ungleichungen gibt, die den Extremalpunkt bestimmen In diesem Beispiel ist er durch die beiden Gleichungen ) ) ) ) ) ) 1 0 x x1 0 = und = 0 1 x x 1 gleichermaßen gegeben Das haben wir bereits in den Beispielen 35 Teil) und 54 gesehen In der Praxis stellt sich heraus, dass die meisten zu lösenden linearen Programme ausgeartet sind In der Simplexmethode ist es möglich, dass im Falle der Ausartung der zulässigen Basislösung nur ein Basiswechsel stattfindet, siehe Beispiel54 Das kann zu einem unendlichen Zyklus werden, einem sogenannten Basiszyklus Es ist jedoch möglich, Ausartung prinzipiell auszuschließen beziehungsweise einen Basiszyklus zu umgehen Im wesentlichen gibt es dazu zwei Techniken: - die Methode der ε Störung, - die lexikographische Simplexmethode a 1 x a m x m = b, a 1 x 1j + + a m x mj = a j, j = 1,, n 7) Sei ε > 0 vorgegeben und sie A B = a 1,, a m ) die Matrix der Basisvektoren Dann betrachtet man anstelle 71) ein lineares Programm mit gestörten Nebenbedingungen c T x min! A B x + ε j 7) = b = 73) A B x + ε j a j = a 1 x 1 + x 1j ε j + + a m x m + x mj ε j = b Mit den Nebenbedingungen 73) hat man für hinreichend kleines ε die zulässige Basislösung x ε) i := x i + x ij ε j = x i + ε i + x ij ε j, j=m+1 da für i = 1,, m gilt x ij = δ ij Die Eigenschaft der Basislösung folgt daraus, dass die Basis nicht geändert wurde und die Nebenbedingung in 73) erfüllt ist Die Zulässigkeit folgt aus ε i > 0 und ε i ε j für i < j und hinreichend kleines ε Der zugehörige Zielfunktionswert ist m m m m ) z ε) 0 = c i x i + c i x ij ε j = c i x i + c i x ij ε j = m c i x i + z j ε j Im Bild wird die Störung der Nebenbedingungen graphisch veranschaulicht Im dicken Punkt schneiden sich drei Geraden Das führt dazu, dass die Zuordnung Ecke Basislösung nicht eindeutig ist Man hat Ausartung Durch die Störung der Nebenbedingungen durchgezogene Geraden) erreicht man, dass es nur noch Schnittpunkte mit genau zwei Geraden gibt 71 Die Methode der ε Störung Wir betrachten das lineare Optimierungsproblem { min c T x : Ax = b, x 0 } 71) x R n 3 33

18 Bemerkung 7 Berechnung von θ In der Simplexmethode benötigt man die Größe θ, siehe 47) Sei z k c k > 0 Dann berechnet sich θ in der Methode der ε Störung durch θ = min,,m;xik>0 x ε) x i i + ε i + n j=m+1 = min x ijε j 74) x ik,,m;xik>0 x ik Satz 73 Sei x = x 1,, x m, 0,, 0) T eine zulässige Basislösung der Originalaufgabe 71) Falls x i θ = min = 0,,m;xik>0 x ik gilt Ausartung), dann gibt es ein ε > 0 dergestalt, dass θ = min,,m;xik>0 x ε) i x ik = xε) l > 0 ε 0, ε) 75) x lk und der Index l ist im gestörten Problem 73) eindeutig bestimmt Beweis: Aus den Vorbetrachtungen folgt x ε) i > 0 und damit θ > 0 in 75) für ε 0, ε) Die Eindeutigkeit von l wird indirekt bewiesen Sei l also nicht eindeutig bestimmt, das heißt es gibt zwei Indizes l 1 l mit x l1 + ε l1 + n j=m+1 x l1jε j x l1k = x l + ε l + n j=m+1 x ljε j x lk für alle ε 0, ε) Die beiden Terme sind Polynome in ε Diese sind genau dann gleich für alle ε 0, ε), wenn sie in allen Koeffizienten übereinstimmen Insbesondere müssen die Koeffizienten vor den Termen mit Potenz l 1 und l gleich sein Ist l 1 l, so ist für den linken Term der Koeffizient vor ε l1 ungleich Null und für den rechten Term gleich Null Für den Koeffizienten vor ε l gilt sinngemäß das gleiche Diese Koeffizienten können nur dann gleich sein, wenn l 1 = l, im Widerspruch zur Annahme Prinzipiell kann diese Manipulation in jedem Simplexschritt durchgeführt werden und man kann damit sichern, dass l stets eindeutig bestimmt ist Diese Vorgehensweise ist für jeden Eckpunkt des zulässigen Bereichs ausgeführt zu denken Da die Anzahl der Eckpunkte endlich ist, erhält man folgenden Satz Satz 74 Zu jedem linearen Optimierungsproblem existiert bei geeigneter Wahl von ε 0, ε ) ein gestörtes lineares Optimierungsproblem, so dass dieses keine ausgeartete zulässige Basislösung besitzt Für ε 0 konvergiert das Optimum des gestörten Problems 73) zum Optimum des Originalproblems 71) Bemerkung 75 Praktische Umsetzung der Methode der ε Störung Trotz dieser schönen Theorie macht man das alles bei praktischen Problemen nicht Für diese wird vorgeschlagen: Falls in einer zulässigen Basislösung wenigstens ein Wert x i = 0 bestimmt wurde, so kann θ = 0 sein Wähle dann l = min xik>0 {i : x i = 0}, wobei i über alle Basisvariablen läuft und k der Index der festgelegten Hauptspalte ist, und transformiere mit diesem Index l Theoretisch besteht die Gefahr eines Zyklus, in der Praxis ist das aber eher unwahrscheinlich 7 Die lexikographische Simplexmethode Bei der lexikographischen Simplexmethode erfolgt die Auswahl der zu tauschenden Basisvektoren so, dass keine Wiederholungen auftreten können Definition 76 Lexikopositiver Vektor Ein Vektor x R n heißt lexikopositiv, falls x = 0,, 0, x i, x i+1,, x m ) T mit i 1 und x i > 0 Das heißt, die erste von Null verschwindende Komponente ist positiv Die Schreibweise ist x > l 0 Sei y R n Dann ist y > l x genau dann, wenn y x > l 0 Wir betrachten das lineare Programm 71) mit rga) = m Sei x B = x 1,, x m, 0,, 0) T eine zulässige Basislösung Die zugehörige Matrix der Basisvektoren sei A B R m m und die der Nichtbasisvektoren A N Dann sind die Zeilen der Matrix lexikopositiv, da b, Ā) := A 1 B b, A) = A 1 b, A B, A N ) R m n+1) B A 1 B b, A) = x B, I m, ā m+1,, ā n ), x B 0 und I m die Einheitsmatrix des R m m ist Falls die Basisvariablen nicht die ersten m Variablen sind, dann ordnet man sie nach vorn Anstelle von 47) wird bei der lexikographischen Simplexmethode der Index l durch e T i b, Ā) θ = min =: et l b, Ā) >l;,,m,xik>0 x ik x lk bestimmt, wobei e i R m der Einheitsvektor ist, der in der i ten Komponente eine Eins hat Das heißt, das Minimum wird bezüglich der lexikographischen Ordnung genommen Das obige Symbol bedeutet, dass man sich wie üblich alle Einträge mit x ik > 0 ansieht, die zugehörigen Vektoren e T i b, Ā) bildet, durch x ik dividiert und von den so erhaltenen Vektoren den lexikographisch kleinsten nimmt, um l zu bestimmen Es gilt, siehe beispielsweise [JS04]: - Falls l in der allgemeinen Simplexmethode 47) eindeutig bestimmt ist, erhält man bei der lexikographischen Simplexmethode den gleichen Index - Die lexikographische Simplexmethode definiert einen eindeutigen Index l Man kann zeigen, dass eine Nichteindeutigkeit im Widerspruch zu rga) = m steht - Das Ergebnis eines lexikographischen Simplexschrittes ist wiederum eine lexikopositive Basis - Bei der neuen Basislösung ist entweder der Zielfunktionswert kleiner oder die Differenz der Koeffizienten der Zielfunktion der neuen und der alten Basis ist lexikopositiv Im ersten Fall hat man die Ecke verlassen Im zweiten Fall kann es bei weiteren lexikographischen Simplexschritten nicht passieren, dass die alte Basis noch einmal verwendet wird Ein Basiszyklus ist ausgeschlossen Bei der lexikographischen Simplexmethode werden also ausgehend von einer lexikopositiven Startlösung weitere lexikopositive Lösungen erzeugt Dieses Verfahren ist endlich Es bricht entweder mit einer Lösung des Optimierungsproblems ab, oder es wird gefunden, dass die Zielfunktion nicht nach unten beschränkt ist Die Anzahl der Schritte kann n! nicht übersteigen Diese Schranke ist allerdings für größere Werte von n für die Praxis bedeutungslos 34 35

Hauptsatz und Optimalitätskriterium der Simplexmethode

Hauptsatz und Optimalitätskriterium der Simplexmethode Kapitel 4 Hauptsatz und Optimalitätskriterium der Simplexmethode In diesem Abschnitt wird das wichtigste Verfahren zur Lösung linearer Optimierungsprobleme eingeführt die Simplexmethode Es existiere für

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

z = c T x : Ax = b, x 0 }, - die Darstellung der Nichtbasisvektoren durch die Basis ist

z = c T x : Ax = b, x 0 }, - die Darstellung der Nichtbasisvektoren durch die Basis ist Kapitel 5 Die Simplexmethode Es werden folgende Bezeichnungen verwendet: - das untersuchte Problem ist min x R n { z = c T x : Ax = b, x 0 }, - die erste zulässige Basislösung sei x = x 1, x 2,, x m, 0,,

Mehr

- Wie lauten notwendige und hinreichende Bedingungen für die Existenz von

- Wie lauten notwendige und hinreichende Bedingungen für die Existenz von Kapitel 1 Einführung Die Optimierung oder Programmierung untersucht die Fragestellung: Gesucht ist die optimale Lösung eines Problems unter irgendwelchen Bedingungen. Die mathematische Formulierung ist:

Mehr

Mathematische Optimierung. Volker John

Mathematische Optimierung. Volker John Mathematische Optimierung Volker John Sommersemester 2009 Inhaltsverzeichnis 1 Einführung 3 I Lineare Optimierung 6 1 Grundlagen 7 2 Geometrische Deutung des Linearen Programms 10 3 Basislösungen eines

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Die duale Simplexmethode

Die duale Simplexmethode Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende) . Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)

Mehr

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Kapitel 11 Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Wir betrachten folgendes Optimierungsproblem z = c T x min! Ax = b (11.1) (11.2) x j ganz für j = 1,..., n 1 n, (11.3)

Mehr

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten

Mehr

Lineare Optimierung: Simplexverfahren Phase Ⅰ

Lineare Optimierung: Simplexverfahren Phase Ⅰ Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren

Mehr

Eigenschaften von LPs

Eigenschaften von LPs 2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört

Mehr

Mathematische Optimierung. Volker John

Mathematische Optimierung. Volker John Mathematische Optimierung Volker John Sommersemester 2007 Inhaltsverzeichnis 1 Einführung 3 I Lineare Optimierung 6 1 Grundlagen 7 2 Geometrische Deutung des Linearen Programms 10 3 Basislösungen eines

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x

Mehr

1 Lineare Optimierung, Simplex-Verfahren

1 Lineare Optimierung, Simplex-Verfahren 1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und

Mehr

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen 10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie

Mehr

Optimierung. Vorlesung 02

Optimierung. Vorlesung 02 Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j

Mehr

6. Einführung 43. gilt. Dann soll also A B x B = b eindeutig lösbar sein, also A B vollen Rang haben, d. h. invertierbar (regulär) sein.

6. Einführung 43. gilt. Dann soll also A B x B = b eindeutig lösbar sein, also A B vollen Rang haben, d. h. invertierbar (regulär) sein. 6. Einführung 43 und aus der linearen Unabhängigkeit der (a i ) i I(x) folgt y i = z i auch für i I(x). Insgesamt gilt also y = z, d. h., nach Definition 6.9 ist x eine Ecke von P. Beachte: Der Koordinatenvektor

Mehr

Lineare Optimierung und Simplex-Algorithmus

Lineare Optimierung und Simplex-Algorithmus Lineare Optimierung und Simplex-Algorithmus Problemstellung Beispiel : Unser Unternehmen verfügt über drei Maschinen A, B, C, mit denen zwei verschiedene Produkte P, P2 hergestellt werden. Die Maschinen

Mehr

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter

Mehr

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

4.3.3 Simplexiteration

4.3.3 Simplexiteration 7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25. Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme

Mehr

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind

Mehr

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 15. April 2018 1/46 Die Dimension eines Vektorraums Satz 2.27 (Basisergänzungssatz) Sei V ein Vektorraum über einem Körper K. Weiter seien v 1,...,

Mehr

7.1 Matrizen und Vektore

7.1 Matrizen und Vektore 7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit

Mehr

mit. Wir definieren (Skalarprodukt = Winkel).

mit. Wir definieren (Skalarprodukt = Winkel). 1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert

Mehr

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005 Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung

Mehr

4 Holomorphie-Konvexität. Definition Satz. 42 Kapitel 2 Holomorphiegebiete

4 Holomorphie-Konvexität. Definition Satz. 42 Kapitel 2 Holomorphiegebiete 42 Kapitel 2 Holomorphiegebiete 4 Holomorphie-Konvexität Wir wollen weitere Beziehungen zwischen Pseudokonvexität und affiner Konvexität untersuchen. Zunächst stellen wir einige Eigenschaften konvexer

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

KAPITEL 10 DIE INNERE-PUNKTE-METHODE

KAPITEL 10 DIE INNERE-PUNKTE-METHODE KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach

Mehr

Aufgaben zu Kapitel 23

Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Verständnisfragen Aufgabe 23 Bestimmen Sie grafisch die optimale Lösung x der Zielfunktion z = c T x unter den Nebenbedingungen mit dem Zielfunktionsvektor

Mehr

Für die Matrikelnummer M = Dann sind durch A =

Für die Matrikelnummer M = Dann sind durch A = Musterlösung zum. Blatt 9. Aufgabe: Gegeben seien m 3 + 2 m m 3 m 2 m 4 + m 7 m 3 A := m m 2 m 2 + 2 m 2 m 4 + m 5 und b := m 6 m 4 + a) Finden Sie eine Lösung x R 7 für die Gleichung Ax =. b) Finden Sie

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als

Mehr

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 } A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

Optimale Steuerung 1 Prozessoptimierung 1

Optimale Steuerung 1 Prozessoptimierung 1 Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung

Mehr

Ganzzahlige lineare Programme

Ganzzahlige lineare Programme KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.

Mehr

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)

Mehr

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann

Mehr

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann

Mehr

2.3 Basis und Dimension

2.3 Basis und Dimension Lineare Algebra I WS 205/6 c Rudolf Scharlau 65 2.3 Basis und Dimension In diesem zentralen Abschnitt werden einige für die gesamte Lineare Algebra fundamentale Grundbegriffe eingeführt: Lineare Abhängigkeit

Mehr

1. Hausaufgabenblatt (16.04./ )

1. Hausaufgabenblatt (16.04./ ) Lehrstuhl Ingenieurmathematik Modul: (Wirtschaftsingenieurwesen/Betriebswirtschaftslehre/Informatik) Sommersemester 2014 1. Hausaufgabenblatt (16.04./23.04.2015) Aufgabe H 1.1 Lösen Sie die linearen Gleichungssysteme

Mehr

Konvexe Optimierungsprobleme

Konvexe Optimierungsprobleme von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung In der linearen

Mehr

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 5 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

3 Systeme linearer Gleichungen

3 Systeme linearer Gleichungen 3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +

Mehr

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q:

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q: Lineare Algebra D-MATH, HS 214 Prof Richard Pink Serie 5 1 [Aufgabe] Invertieren Sie folgende Matrizen über Q: 1 a) 1 1 1 1 1 2 1 1 1 b) 1 2 1 1 1 1 2 1 1 1 1 2 1 2 3 1 c) 1 3 3 2 2 1 5 3 1 2 6 1 [Lösung]

Mehr

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen Kapitel IV: Grundlagen der Linearen Optimierung Inhaltsverzeichnis Abschnitt 3-5 3 Der Simplexalgorithmus 58 3.1 Grundlagen..............................

Mehr

Probeklausur Optimierung

Probeklausur Optimierung Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften Dr. Nico Düvelmeyer Hamburg, 4. Juli 2011 Probeklausur Optimierung Bitte selber ausfüllen: Name: (darf anonymisiert werden)

Mehr

Elemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren

Elemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren 3. Wurzelsysteme Als erstes führen wir den Begriff eines Wurzelsystems ein. Definition 3.1 (Wurzelsystem). Eine endliche Teilmenge Φ V {0} heißt Wurzelsystem falls gilt: (R1) Φ Rα = {±α} für α Φ, (R2)

Mehr

Optimierungstheorie Scheinklausur Sommersemester Juli 2007

Optimierungstheorie Scheinklausur Sommersemester Juli 2007 Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

05. Lineare Gleichungssysteme

05. Lineare Gleichungssysteme 05 Lineare Gleichungssysteme Wir betrachten ein System von m Gleichungen in n Unbestimmten (Unbekannten) x 1,, x n von der Form a 11 x 1 + a 12 x 2 + a 13 x 3 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + a

Mehr

Extremalprobleme mit Nebenbedingungen

Extremalprobleme mit Nebenbedingungen Extremalprobleme mit Nebenbedingungen In diesem Abschnitt untersuchen wir Probleme der folgenden Form: g(x 0 ) = inf{g(x) : x Ω, f(x) = 0}, (x 0 Ω, f(x 0 ) = 0). (1) Hierbei sind Ω eine offene Menge des

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

3. Übungsblatt zur Lineare Algebra I für Physiker

3. Übungsblatt zur Lineare Algebra I für Physiker Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Lineare Gleichungssystem

Lineare Gleichungssystem Lineare Gleichungssystem 8. Juli 07 Inhaltsverzeichnis Einleitung Der Gauß-Algorithmus 4 3 Lösbarkeit von Gleichungssystemen 6 Einleitung Wir haben uns bisher hauptsächlich mit dem Finden von Nullstellen

Mehr

5 Teilmengen von R und von R n

5 Teilmengen von R und von R n 5 Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,...,x n ) : x i R} = R }... {{ R }. n mal Für x R ist x der Abstand zum Nullpunkt. Die entsprechende Verallgemeinerung

Mehr

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen

Mehr

1 Lineare Gleichungssysteme und Matrizen

1 Lineare Gleichungssysteme und Matrizen 1 Lineare Gleichungssysteme und Matrizen Das Studium linearer Gleichungssysteme und ihrer Lösungen ist eines der wichtigsten Themen der linearen Algebra. Wir werden zunächst einige grundlegende Begriffe

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 19 8. Juli 2010 Kapitel 14. Gewöhnliche Differentialgleichungen zweiter Ordnung 14.1 Systeme gewöhnlicher linearer Differentialgleichungen erster

Mehr

2. Optimierungsprobleme 6

2. Optimierungsprobleme 6 6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen

Mehr

Über- und unterbestimmte

Über- und unterbestimmte Über- und unterbestimmte Systeme (verallgemeinerte Lösungen) Über- und unterbestimmte Systeme Ax = b ist genau dann für alle b R m eindeutig lösbar, wenn m = n und rk A = n. Falls m n oder rk A < min{m,

Mehr

2. Spezielle anwendungsrelevante Funktionen

2. Spezielle anwendungsrelevante Funktionen 2. Spezielle anwendungsrelevante Funktionen (1) Affin-lineare Funktionen Eine Funktion f : R R heißt konstant, wenn ein c R mit f (x) = c für alle x R existiert linear, wenn es ein a R mit f (x) = ax für

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung

Mehr

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit 3 Lineare Algebra (Teil : Lineare Unabhängigkeit 3. Der Vektorraum R n Die Menge R n aller n-dimensionalen Spalten a reeller Zahlen a,..., a n R bildet bezüglich der Addition a b a + b a + b. +. :=. (53

Mehr

Grundlagen der Optimierung. Übung 6

Grundlagen der Optimierung. Übung 6 Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren

Mehr

Lineare Algebra 1. Roger Burkhardt

Lineare Algebra 1. Roger Burkhardt Lineare Algebra 1 Roger Burkhardt roger.burkhardt@fhnw.ch Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 1 Einführung Lineare Gleichungen Definition

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom Übungsaufgaben 11. Übung: Woche vom 9. 1.-13. 1. 2017 (Numerik): Heft Ü 1: 12.28.a,b; 12.29.b,c (jeweils mit Fehlerabschätzung); 6.26; 6.27.a (auch mit Lagrange-Interpolationspolynom); 6.25; 6.28 (auch

Mehr

Konvexe Mengen und Funktionen

Konvexe Mengen und Funktionen Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf

Mehr

Kuhn-Tucker Bedingung

Kuhn-Tucker Bedingung Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,

Mehr

(a), für i = 1,..., n.

(a), für i = 1,..., n. .4 Extremwerte Definition Sei M R n eine Teilmenge, f : M R stetig, a M ein Punkt. f hat in a auf M ein relatives (oder lokales) Maximum bzw. ein relatives (oder lokales) Minimum, wenn es eine offene Umgebung

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrangetex,v 18 01/11/09 14:07:08 hk Exp $ $Id: untermfgtex,v 14 01/11/1 10:00:34 hk Exp hk $ Extrema unter Nebenbedingungen Lagrange-Multiplikatoren In der letzten Sitzung hatten wir begonnen die

Mehr

1. Transport- und Zuordnungsprobleme

1. Transport- und Zuordnungsprobleme 1. Transport- und Zuordnungsprobleme Themen 1. Transport- und Zuordnungsprobleme Themen: Analyse der Problemstruktur Spezielle Varianten des Simplexalgorithmus für Transport- und Zuordnungsprobleme Bezug

Mehr

Das Lagrange-duale Problem

Das Lagrange-duale Problem Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h

Mehr

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode 6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,

Mehr

Topologische Begriffe

Topologische Begriffe Kapitel 3 Topologische Begriffe 3.1 Inneres, Rand und Abschluss von Mengen Definition (innerer Punkt und Inneres). Sei (V, ) ein normierter Raum über K, und sei M V eine Menge. Ein Vektor v M heißt innerer

Mehr

Lineare Optimierung Teil 2

Lineare Optimierung Teil 2 Lineare Optimierung Teil 2 Primale Degeneration Duale Degeneration = Mehrdeutigkeit Normalform kanonische Form Duale Simplexmethode HTW-Berlin FB3 Prof. Dr.F. Hartl 1 Primale Degeneration/1 Besitzt eine

Mehr

Übung 3, Simplex-Algorithmus

Übung 3, Simplex-Algorithmus Übung 3, 21.6.2011 Simplex-Algorithmus Aufgabe 3.1 Lösen Sie das folgende Optimierungsproblem (von Aufgabe 2.3) graphisch. Substituieren Sie dazu z = 5 y um ein 2-dimensionales Problem zu erhalten. Rechnung

Mehr

Ausgewählte Lösungen zu den Übungsblättern 4-5

Ausgewählte Lösungen zu den Übungsblättern 4-5 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

9 Lineare Gleichungssysteme

9 Lineare Gleichungssysteme 9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der

Mehr

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 5. April 2018 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf )

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf ) Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 65 (das agraökonomische Schaf ) Sascha Kurz Jörg Rambau 25 November 2009 2 66 Die Karush-Kuhn-Tucker-Methode Die Erkenntnisse

Mehr