Mathematische Optimierung. Volker John

Größe: px
Ab Seite anzeigen:

Download "Mathematische Optimierung. Volker John"

Transkript

1 Mathematische Optimierung Volker John Sommersemester 2009

2 Inhaltsverzeichnis 1 Einführung 3 I Lineare Optimierung 6 1 Grundlagen 7 2 Geometrische Deutung des Linearen Programms 10 3 Basislösungen eines linearen Programms in Normalform 14 4 Hauptsatz und Optimalitätskriterium der Simplexmethode 18 5 Die Simplexmethode 22 6 Bestimmung einer ersten zulässigen Basislösung 27 7 Zur Ausartung Die Methode der ε Störung Die lexikographische Simplexmethode 34 8 Zur Effizienz der Simplexmethode Maße für die Effizienz Zur worst case Komplexität der Simplexmethode 37 9 Dualitätssätze der linearen Optimierung Die duale Simplexmethode Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Innere Punkt Verfahren Das Newton Verfahren Ein Kurz Schritt Algorithmus 60 II Nichtlineare Optimierung 67 1 Einleitung 68 1

3 2 Nichtlineare Optimierung ohne Nebenbedingungen Minimierung nichtglatter Funktionen in einer Variablen Differenzierbare Funktionen in mehreren Dimensionen Abstiegsverfahren Abstiegsmethoden für quadratische Funktionen 78 3 Konvexität Konvexe Mengen Konvexe und konkave Funktionen Ungleichungen und konvexe Mengen Extrema von konvexen Funktionen 87 4 Optimalitätskriterien Einleitung Lokale Minima für Optimierungsprobleme ohne Einschränkungen an das zulässige Gebiet Lokale Minima für Optimierungsprobleme, bei denen das zulässige Gebiet durch Ungleichungen gegeben ist Globale Theorie der Lagrange Multiplikatoren 97 5 Lösungsverfahren Projektionsverfahren Penalty Verfahren (Strafverfahren) Barrieremethoden SQP Verfahren 107 2

4 Kapitel 1 Einführung Die Optimierung oder Programmierung untersucht die Fragestellung: Gesucht ist die optimale Lösung eines Problems unter irgendwelchen Bedingungen Die mathematische Formulierung ist: Gegeben seien Funktionen f : R n R, g i : S R, i = 1,,m, S R n, suche f(x) Extremum unter den Bedingungen g i (x) 0, i = 1,,m Sind alle Funktionen linear, so hat man ein Problem der linearen Optimierung oder linearen Programmierung, siehe Teil I Bei Optimierungsproblemen müssen folgende Fragestellungen untersucht werden: - Wie lauten notwendige und hinreichende Bedingungen für die Existenz von Lösungen? - Wie kann man Lösungen mit möglichst geringem Aufwand berechnen? Was sind die effizientesten Algorithmen? In der Einführung werden einige typische Beispiele von Optimierungsproblemen angegeben Beispiel 11 Rundreiseproblem Gegeben sind n verschiedene Orte O i, i = 1,,n Die Entfernung zwischen den Orten O i und O j sei a ij Anstelle der Entfernung können auch andere Parameter wie Kosten oder Zeit genommen werden Man nimmt im allgemeinen auch a ij a ji an Das Rundreiseproblem oder auch Traveling Salesman Problem kann nun wie folgt formuliert werden: Ein Reisender, der in einem Ort startet, möchte alle restlichen Orte genau einmal besuchen und zum Ausgangsort zurückkehren In welcher Reihenfolge hat er die Orte zu besuchen, damit die Gesamtlänge des Reiseweges minimal wird? Beispiel 12 Landwirtschaft, Anbauoptimierung Es stehen 100 ha Ackerland zur Verfügung, die mit Kartoffeln x 1 ha und Getreide x 2 ha bestellt werden sollen Ein Teil der Anbaufläche kann auch brach bleiben Die Betriebskosten sind wie folgt (GE = Geldeinheit): Kartoffeln Getreide insgesamt verfügbar Anbaukosten GE/ha GE Arbeitstage/ha Tage Reingewinn GE/ha Bei welcher Bewirtschaftung erzielt man den größten Gewinn? 3

5 Die mathematische Formulierung des Problems ist wie folgt: zu maximierende Funktion: z = 40x x 2 max, zur Verfügung stehendes Geld: 10x x , zur Verfügung stehende Zeit: x 1 + 4x 2 160, zur Verfügung stehende Fläche: x 1 + x 2 100, keine negativen Anbauflächen: x 1, x 2 0 Diese Aufgabe kann man graphisch lösen x (2) (4) (5) max (3) (5) (1) x 1 Abbildung 11: Darstellung der Nebenbedingungen und der Zielfunktion zum Beispiel 12 Die Nebenbedingungen beschreiben Halbebenen und der Durchschnitt der Halbebenen ist gerade die Menge der Paare (x 1, x 2 ), in denen man das Maximum sucht Zur graphischen Darstellung der Zielfunktion z wähle man sich einen beliebigen Punkt (x 1, x 2 ) und berechne die Gerade z durch diesen Punkt In diesem Beispiel soll die Zielfunktion maximiert werden, das heißt, der Zielfunktionswert steigt, wenn man die Gerade orthogonal zu ihrem Anstieg nach oben verschiebt Der letzte Punkt, der alle Nebenbedingungen erfüllt und der auf einer parallelen Geraden zur dargestellten Geraden liegt, ist der mit einem Kreis gekennzeichnete Punkt (x 1, x 2 ) = (60, 25) Die Lösung dieses linearen Optimierungsproblems ist demzufolge x 1 = 60 ha, x 2 = 25 ha und der Gewinn ist 5400 GE Beispiel 13 Ernährungsprogramm Es stehen die folgenden drei Nahrungsmittel zur Verfügung (alle Angaben jeweils für 100 Gramm): Eiweiß Fett Kohlenhyd Wasser Preis 1 Weißbrot Wurst Milch Ein Ernährungsprogramm wird nur zugelassen, wenn es folgende Mindestanforderungen erfüllt: Eiweiß: 90 g, Fett: 80 g, Kohlenhydrate: 500 g, Wasser 2500 g Ziel ist es, das kostengünstigste Ernährungsprogramm zu finden, welches diese Anforde- 4

6 rungen erfüllt Das zugehörige Optimierungsproblem lautet: z = 10x x 2 + 7x 3 min 8x x 2 + 3x 3 90 x x 2 + 3x x 1 + 5x x x x x 1, x 2, x 3 0, wobei die Maßeinheit für x 1, x 2, x 3 hier 100 g ist Die (gerundete) Lösung lautet: x 1 = 771, x 2 = 0, x 3 = 2445, also 771 g Weißbrot und 2445 g Milch, das heißt vegetarisch Die Kosten sind rund 248 GE Beispiel 14 Rucksackproblem Ein Wanderer kann in seinem Rucksack ein Gesamtgewicht von N tragen Er hat n Gegenstände, die er mitnehmen möchte und jeder Gegenstand hat einen gewissen Nutzen n i, i = 1,,n Das Gesamtgewicht aller Gegenstände übersteigt das zulässige Maximalgewicht Das Optimierungsproblem des Wanderers besteht nun darin, eine Teilmenge von Gegenständen mit maximalem Nutzen zu finden, so dass das Gesamtgewicht dieser Teilmenge höchstens N ist Dabei kann als zusätzliche Nebenbedingung auftreten, dass gewisse Lösungskomponenten ganzzahlig sein müssen, zum Beispiel die Anzahl der Paar Schuhe, die er mitnehmen soll Beispiel 15 Zuordnungsproblem In einer Firma stehen zur Fertigung von n Produkten n Maschinen zur Verfügung Jede Maschine eignet sich zur Herstellung jedes Produktes unterschiedlich gut Es ergeben sich je nach Zuordnung verschiedene Arbeitszeiten Jeder Maschine soll genau ein Produkt zugeordnet werden Das Optimierungsproblem besteht darin, die Gesamtfertigungszeit der Produkte zu minimieren Bemerkung 16 Operations Research In der Fachliteratur werden Optimierungsaufgaben oft unter dem Begriff Operations Research (Optimalplanung) geführt Literaturempfehlungen sind: Jarre und Stoer [JS04], Borgwardt [Bor01], Elster, Reinhardt, Schäuble, Donath [ERSD77], vor allem über das Gebiet der linearen Optimierung gibt es auch eine Reihe älterer Lehrbücher, die man verwenden kann 5

7 Teil I Lineare Optimierung 6

8 Kapitel 1 Grundlagen Definition 11 Lineares Optimierungsproblem, lineares Programm Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt, wenn das Extremum einer linearen Funktion z = n c i x i = c T x (11) zu bestimmen ist, über der durch das lineare Ungleichungssystem i=1 n a ij x j (>) b i, i = 1,, m (12) j=1 x j 0, j = 1,,n, (13) definierten Punktmenge Seien x,y R n Dann wird die Bezeichnung verwendet x (>)y x i (>)y i, i = 1,,n, Definition 12 Zulässiger Bereich Die Menge M aller Punkte, die das Ungleichungssystem (12) (13) erfüllen, heißt zulässiger Bereich Beispiel 13 Der zulässige Bereich, der durch lineare Nebenbedingungen beschrieben ist, ist der Durchschnitt von Halbräumen Für n = 2 sind das Halbebenen und ein Beispiel ist in Abbildung 11 zu sehen Der zulässige Bereich ist nicht notwendig beschränkt Er kann auch leer sein Definition 14 Konvexität Eine Punktmenge M heißt konvex, wenn mit beliebigem x 1, x 2 M auch alle Punkte der Gestalt λx 1 + (1 λ)x 2, 0 λ 1, zu M gehören Für den R n bedeutet Konvexität, dass mit zwei Punkten x 1,x 2 aus M auch ihre Verbindungsstrecke in M liegt Satz 15 Die durch das lineare Ungleichungssystem (12) (13) definierte Punktmenge ist konvex 7

9 Beweis: Seien x 1,x 2 M gegeben Dann gelten Ax 1 b, x 1 0, Ax 2 b, x 2 0 Mit λ [0, 1] gelten λax 1 λb, (1 λ)ax 2 (1 λ)b Addition und Linearität der Matrizenmultiplikation ergibt A(λx 1 + (1 λ)x 2) b Analog folgt λx 1 + (1 λ)x 2 0 Der Durchschnitt beliebig vieler konvexer Mengen ist wieder konvex Übungsaufgabe Definition 16 Konvexe Hülle Die kleinstmögliche konvexe Menge M, die eine vorgegebene Punktmenge P enthält, heißt deren konvexe Hülle Beispiel 17 Die dick umrandete Menge ist die konvexe Hülle der gestrichelt umrandeten Menge Beispiel 18 Die Menge M = { } 1 n : n N ist nicht konvex, da sie aus diskreten Punkten besteht Ihre konvexe Hülle ist (0, 1] Definition 19 Konvexe Linearkombination Gegeben seien q Punkte x 1,,x q Betrachtet werden alle Punkte der Gestalt q q x = λ i x i, 0 λ i 1, λ i = 1 (14) i=1 Dann heißt die mit (14) erklärte Menge konvexe Linearkombination der Punkte x 1,,x q Welche Punkte einer konvexen Menge sollen ausgezeichnet werden? Definition 110 Eckpunkt oder Extrempunkt einer konvexen Menge Gegeben sei eine konvexe Menge M Der Punkt x M heißt Eckpunkt oder Extrempunkt von M, wenn aus x = λx 1 + (1 λ)x 2, x 1,x 2 M, 0 < λ < 1, folgt x = x 1 = x 2 Man sagt, x lässt sich nicht als echte konvexe Linearkombination von Punkten x 1,x 2 M darstellen Beispiel 111 Bei einem Viereck im R 2 sind die Eckpunkte gerade die vier Ecken Bei einer Kugel im R n, n 1, sind alle Randpunkte Eckpunkte i=1 8

10 Definition 112 Konvexes Polyeder Eine beschränkte konvexe Menge M mit endlich vielen Eckpunkten heißt konvexes Polyeder Beispiel 113 Konvexe Polyeder in R n, n = 1, 2, 3 Ein konvexes Polyeder in R 1 ist ein abgeschlossenes Intervall In R 2 und R 3 kann man sich konvexe Polyeder noch gut vorstellen Ein Beispiel in R 2 findet man in Abbildung 11 Satz 114 Sei M eine konvexe, abgeschlossene und beschränkte Menge, P sei die Menge der Eckpunkte von M Dann ist M die konvexe Hülle von P Beweis: Literatur Beweisidee mit trennenden Hyperebenen siehe [ERSD77, Satz 248] Satz 115 Ist der Lösungsbereich M = {x : Ax b,x 0} beschränkt, so ist er ein konvexes Polyeder Beweis: Siehe später, Folgerung 37 9

11 Kapitel 2 Geometrische Deutung des Linearen Programms In diesem Abschnitt wird gezeigt, dass sich das anschauliche Merkmal des zweidimensionalen linearen Programms aus Beispiel 12, nämlich dass das Optimum auf dem Rand angenommen wird, verallgemeinern lässt Historie zur Untersuchung linearer Optimierungsprobleme: Leonid V Kantorovitch ( ); Methode der Auflösungskoeffizienten Frank L Hitchcock, Transportproblem George Dantzig ( ), Simplexmethode Narendra Karmarkar (geb 1957), Innere Punkt Methoden für lineare Programme Definition 21 Lineares Optimierungsproblem in 1 Normalform, lineares Programm in Normalform Gesucht werden die Werte der n Variablen x 1,,x n so, dass die lineare Funktion z = n c j x j = c T x (21) j=1 die sogenannte Zielfunktion, unter den Nebenbedingungen n a ij x j b i, i = 1,,m, (Ax b), (22) j=1 x j 0, j = 1,,n, (x 0), (23) ein Minimum annimmt Alle Koeffizienten sind reell Das System (21) (23) heißt lineares Optimierungsproblem oder lineares Programm in 1 Normalform Bemerkung 22 1 Ob (21) in min oder max Form benutzt wird, ist im allgemeinen ohne Belang, in [JS04] wird beispielsweise die max Form verwendet 2 Die Relationen, =, im System der Nebenbedingungen sind im wesentlichen äquivalent 3 Fehlt zum Beispiel für einen Index k die Bedingung x k 0, so setzt man x k := x k ˆx k mit x k, ˆx k 0 Man erhöht damit die Anzahl der Variablen um Eins 10

12 Definition 23 Zulässiger Punkt, zulässiger Bereich Ein Punkt x = (x 1,, x n ) T heißt zulässig, wenn er die Nebenbedingungen (22), (23) erfüllt Die Gesamtheit aller zulässigen Punkte heißt zulässiger Bereich Für die Lösung von (21) (23) kommen nur zulässige Punkte in Betracht Der zulässige Bereich ist konvex Ist er beschränkt, so ist er ein konvexes Polyeder Ist der zulässige Bereich nicht beschränkt ist, dann gilt: entweder ist (21) über diesen Bereich selbst nicht beschränkt, Beispiel: Minimiere 2x 1 x 2 im Bereich {(x 1, x 2 ) : x 1 0, x 2 0}, oder (21) ist über dem unbeschränkten Bereich beschränkt Dann kann man Zusatzbedingungen an den zulässigen Bereich stellen, die das Optimum nicht ändern, so dass der neue zulässige Bereich beschränkt ist Beispiel: Minimiere 2x 1 + x 2 im Bereich {(x 1, x 2 ) : x 1 0, x 2 0} Weitere Beispiele findet man in Beispiel 26 Wenn von einem konvexen Polyeder gesprochen wird, ist ab sofort immer ein abgeschlossenes konvexes Polyeder gemeint Satz 24 Extremwertannahme Eine auf einem konvexen Polyeder definierte lineare Funktion z = f(x) nimmt ihren kleinsten Wert in (mindestens) einem Eckpunkt an Beweis: Seien x 1, x p die Eckpunkte des konvexen Polyeders M Die Funktion f(x) nehme ihr Minimum in x 0 M an, das heißt f(x 0) f(x) (24) für alle Punkte x des konvexen Polyeders Dass das Minimum angenommen wird, folgt nach dem Satz von Bolzano Weierstraß (stetige Funktion in einem kompakten Gebiet nimmt ihre Extremwerte an) Ist x 0 kein Eckpunkt, so existiert eine Darstellung (Satz 114) px x 0 = λ jx j, 0 λ j 1, j=1 px λ j = 1 j=1 Aus der Linearität von f folgt f (x 0) = f! px px λ jx j = λ jf (x j) j=1 j=1 Sei ein Index l definiert durch Dann folgt f(x l ) = min j=1,,p f(xj) f (x 0) f(x l ) px λ j = f(x l ) (25) j=1 Wegen (24) und (25) wird das Minimum für x l angenommen Folgerung 25 Wird das Minimum in mehr als einem Eckpunkt des konvexen Polyeders angenommen, so wird es auf der konvexen Hülle dieser Eckpunkte angenommen Beweis: Ohne Beschränkung der Allgemeinheit seien die Eckpunkte so numeriert, dass die Zielfunktion f(x) ihr Minimum in den Eckpunkten x 1,,x q annehme Die konvexe Hülle dieser Eckpunkte ist ( ) qx qx x : x = λ ix i, 0 λ i 1, λ i = 1 i=1 i=1 11

13 Aus der Linearität von f folgt! qx qx qx f( x) = f λ ix i = λ if(x i) = f(x 1) λ i = f(x 1), womit die Folgerung bewiesen ist i=1 i=1 i=1 Geometrische Interpretation Die Gleichung z = c T x d mit einer vorgegebenen Konstanten d ist die Gleichung einer Hyperebene in R n Für n = 3, hat man beispielsweise die Normalform einer Ebenengleichung, wobei c ein Normalenvektor der Ebene ist Sei z = c T x die Zielfunktion Es ist gerade ( ) T z z c = z =,, x 1 x n Außerdem ist c orthogonal zu den Hyperebenen c T x = const Sei nämlich ein beliebiger Vektor einer Hyperebene gegeben, etwa zwischen den Punkten x und ˆx, dann gilt c T x = const, c T ˆx = const = c T ( x ˆx) = 0 Aus der Menge {c T x = const} wählen wir diejenige Hyperebene, die einen vorgegebenen zulässigen Punkt x 0 M, nicht notwendig einen Eckpunkt, enthält: c T x = c T x 0 Wir definieren g := {x : x = x 0 + tc, t R} Diese Gerade enthält x 0 und sie ist orthogonal zu c T x = const Für alle x g gilt bezüglich der Zielfunktion z = c T x = c T (x 0 + tc) = c T x 0 + t c 2 2 =: z 0 + t c 2 2, wobei z 0 der Startwert der Zielfunktion ist Sei t > 0 Dann folgt z > z 0, das heißt, der Wert der Zielfunktion wächst streng monoton in Richtung von c Wenn man z zu maximieren hat, so verschiebe man die Hyperebene in Richtung ihres Gradienten Also, ausgehend von c T (x x 0 ) = 0 konstruiere man in Richtung von c eine Schar zu c T (x x 0 ) = 0 paralleler Hyperebenen mit dem Ziel, diejenige Hyperebene aus der Schar zu finden, die {x : Ax b, x 0} berührt mit der Eigenschaft, dass {x : Ax b, x 0} ganz im negativen Halbraum der berührenden Hyperebene liegt Berührung bedeutet, dass {x : Ax b, x 0} { c T x = const } eine Teilmenge des Randes des Polyeders ist, zum Beispiel ein Eckpunkt Beispiel 26 Beispiele für Situationen die in linearen Programmen auftreten können a) Es gibt unendlich viele Lösungen (eine gesamte Kante) x 2 x 1 z 12

14 b) Es gibt überflüssig Nebenbedingungen Die Zielfunktion nimmt ihren Extremwert in (0, 0) an und die drei oberen Nebenbedingungen sind überflüssig x 2 z c) Der zulässige Bereich ist leer x 2 x 1 x 1 d) Der Optimalwert ist nicht beschränkt x 2 z x 1 13

15 Kapitel 3 Basislösungen eines linearen Programms in Normalform Definition 31 Lineares Programm in 2 Normalform, einfache Normalform Gegeben sei das lineare Programm unter den folgenden Bedingungen z = c T x min! (31) Ax = b (32) x 0 (33) mit x R n, b R m und A R m n Dieses Problem wird lineares Programm in (2) Normalform genannt Bemerkung 32 Wenn man die lineare Ungleichung a i jx j b i n j=1 gegeben hat, so kann man eine sogenannte Schlupfvariable einführen a i jx j + x n +1 = b i, x n +1 0 n j=1 Mit Hilfe der Schlupfvariablen gelingt es aus dem linearen Programm in 1 Normalform ein lineares Programm in 2 Normalform zu machen Diese sind äquivalent Die Kosten der Einführung von Schlupfvariablen bestehen darin, dass man die Dimension des Lösungsvektors erhöht Wir machen jetzt die folgenden Voraussetzungen: 1 m < n, das heißt weniger Nebenbedingungen als Unbekannte 2 rg(a) = m, das heißt, A hat vollen Zeilenrang, das heißt die Nebenbedingungen sind linear unabhängig 3 Ax = b, x 0 sei widerspruchsfrei, das heißt, der zulässige Bereich ist nicht leer Definition 33 Basislösung Basislösungen des linearen Programms (31) (33) sollen die Lösungsvektoren x = (x i1,,x im, 0,,0) T heißen, für die die m Variablen x i1,, x im eine nicht singuläre Koeffizientenmatrix A m,m = (a i1,,a im ) R m m, besitzen, wobei (a j ),j = 1,,n, die Spaltenvektoren von A bezeichne 14

16 Die ersten m Variablen einer Basislösung können beliebige reelle Zahlen sein Definition 34 zulässige Basislösung, ausgeartete (entartete) Basislösung, Basisvariable, Basisvektor Gilt für eine Basislösung x = (x i1,, x im, 0,,0) T, dass x ij 0 für alle j = 1,, m, dann heißt sie zulässig Verschwindet sie in mindestens einer der Variablen x i1,,x im, so heißt sie ausgeartet oder entartet Die Komponenten einer Basislösung werden Basisvariable genannt, die zugehörigen Spaltenvektoren heißen Basisvektoren Entsprechend spricht man von Nichtbasisvariablen und Nichtbasisvektoren Beispiel 35 z = x 1 x 2 min! x 1 + 3x 2 + x 3 = 3 3x 1 + x 2 + x 4 = 3 x 0 Zulässige, nicht ausgeartete Basislösungen sind (i1 = 3, i2 = 4) ( ) x = (0, 0, 3, 3) T 1 0, A 2,2 =, z = oder (i1 = 1, i2 = 2) x = (3/4, 3/4, 0, 0) T, A 2,2 ( ), z = 3 2 x ( 3 4, 3 4 ) z 1 3 x 1 Wir führen jetzt die weitere Nebenbedingung x 1 + x ein Die Nebenbedingungen des erweiterten linearen Programms haben die Gestalt x 1 x x x 4 = x 5 Dann ist eine ausgeartete zulässige Basislösung des erweiterten linearen Programms (i1 = 1, i2 = 2, i3 = 5) (3/4, 3/4, 0, 0, 0) T, A 3,3 = , z =

17 Im Bild erkennt man, was Ausartung bedeutet Die Ecke (3/4, 3/4) des zulässigen Bereichs ist bereits durch die ersten beiden Nebenbedingungen bestimmt Durch die neue Nebenbedingung ist diese Ecke nun wahlweise durch die ersten beiden, durch die erste und die dritte oder die zweite und die dritte Nebenbedingung bestimmt Die Nebenbedingungen, die diese Ecke des zulässigen Bereichs bestimmen, sind nicht mehr eindeutig Satz 36 Ein Eckpunkt eines zulässigen Bereichs M = {x : Ax = b, x 0} liegt genau dann vor, wenn seine Koordinaten eine zulässige Basislösung bilden Beweis: a) Aus Basislösung folgt Eckpunkt Sei x = (x 1, x 2,, x m,0,, 0) T eine zulässige Basislösung, das heißt x i 0, i = 1, m, a 1x 1 + a 2x a mx m = b, die Vektoren a 1,,a m sind linear unabhängig und die Nichtbasisvariablen x m+1,, x n sind gleich Null Der Beweis wird indirekt geführt, indem angenommen wird, dass x = (x 1,, x m,0,, 0) kein Eckpunkt ist Dann gibt es Punkte x 1,x 2 M mit λx 1 + (1 λ)x 2 = x, x 1 x 2, 0 < λ < 1 Da die letzten n m Komponenten von x verschwinden, muss das auch für entsprechenden Komponenten von x 1 und x 2 gelten, da alle Komponenten dieser Vektoren nichtnegativ sind Seien nun x 1 = x (1) 1, x(1) 2,, x(1) m,0,, 0 T, x2 = Da diese Punkte zulässig sind, folgt a 1x (1) 1 + a 2x (1) a mx (1) m = b, a 1x (2) 1 + a 2x (2) a mx (2) m = b x (2) 1, x(2) 2,, x(2) m,0,, 0 T Wegen der linearen Unabhängigkeit der Vektoren a 1,,a m folgt daraus x 1 = x 2, was im Widerspruch zur Annahme steht Also ist x ein Eckpunkt b) Aus Eckpunkt folgt Basislösung Sei x ein Eckpunkt des zulässigen Bereichs mit den positiven Koordinaten x 1,, x k, das heißt, es gilt a 1x 1 + a 2x a k x k = b mit x j > 0, j = 1,, k n Ohne Beschränkung der Allgemeinheit seien die verschwindenden Komponenten die hinteren Es ist zu zeigen, dass a 1,,a k linear unabhängig sind Der Beweis ist wieder indirekt Wir nehmen also an, dass es ein y R k gibt mit a 1y 1 + a 2y a k y k = 0 und mindestens einem y i 0 Für jede reelle Zahl µ gelten damit kx a j (x j + µy j) = b j=1 Das bedeutet, die Punkte und kx a j (x j µy j) = b j=1 x 1 = (x 1 + µy 1,, x k + µy k,0,, 0), x 2 = (x 1 µy 1,, x k µy k,0,, 0) erfüllen die Nebenbedinungen (32) Falls man µ > 0 hinreichend klein wählt, sind alle Komponenten dieser Punkte nichtnegativ und x 1,x 2 sind zulässig Aus der Konstruktion von x 1,x 2 folgt, dass x = 05x 1+05x 2 gilt Das ist im Widerspruch zur Eckpunktannahme von x Diese Darstellung für den Eckpunkt x kann nur existieren, wenn x 1 = x 2 Da µ positiv ist, muss also y 1 = = y k = 0 gelten Also sind a 1,,a k linear unabhängig Die Basislösung verlangt jedoch m linear unabhängige Vektoren: 16

18 - Fall k > m m + 1 Vektoren des R m sind stets linear abhänging Dieser Fall kann also nicht eintreten - Fall k = m In diesem Fall besitzt die zulässige Basislösung m positiven Komponenten, sie ist also nicht ausgeartet - Fall k < m In diesem Fall hat man eine zulässige Basislösung mit weniger als m positiven Komponenten, also eine ausgeartete Basislösung Aus den restlichen Spalten von A konstruiert man eine Menge von linear unabhängigen Vektoren a 1,,a m, für welche offensichtlich a 1x a k x k + a k a m0 = b gilt Diese Konstruktion ist möglich, da rg(a) = m ist Folgerung 37 Satz 115 Ist der Lösungsbereich M = {x : Ax = b,x 0} beschränkt, so ist er ein konvexes Polyeder Beweis: Man kann nur endlich viele Mengen von m linear unabhängigen Spaltenvektoren der Matrix A bilden (Maximalanzahl ist Übungsaufgabe) Mit dem eben bewiesenen Satz hat damit M nur endlich viele Ecken Eine weitere Folgerung des eben bewiesenen Satzes, zusammen mit Satz 24 ist wie folgt Folgerung 38 Eine über einem konvexen Polyeder M = {x : Ax = b,x 0} definierte lineare Funktion z = c T x nimmt ihr Minimum für wenigstens eine zulässige Basislösung an Bemerkung 39 Naives Verfahren Mit Hilfe der bisherigen Resultate können wir versuchen, ein Verfahren zur Lösung von { min z = c T x : Ax = b,x 0 } x R n zu konstruieren: ( ) n 1 Aufstellung der linearen Gleichungssysteme der Dimension m aus m Ax = b 2 Ist die so generierte Matrix A m,m regulär? 3 Angabe der Lösung für reguläre A m,m 4 Auswahl der zulässigen Lösungen 5 Bestimmung der Lösung(en), die das Minimum liefern Diese Herangehensweise ist jedoch schon bei relativ kleiner Anzahl von Unbekannten und Nebenbedingungen viel zu aufwendig Zum Beispiel hätte man bei n = 20, m = 10 schon Gleichungssysteme aufzustellen und diese zu untersuchen Das Ziel wird nun sein, ein Verfahren zu finden, welches einen cleveren Weg zum Optimum findet, unter Nutzung von zulässigen Basislösungen 17

19 Kapitel 4 Hauptsatz und Optimalitätskriterium der Simplexmethode In diesem Abschnitt wird das wichtigste Verfahren zur Lösung linearer Optimierungsprobleme eingeführt die Simplexmethode Es existiere für { min z = c T x : Ax = b,x 0 } x R n eine zulässige, nicht ausgeartete Basislösung Definition 41 Simplex Ein Simplex ist die Menge aller Punkte x = (x 1,,x n ) T mit n x i 1, x i 0, i = 1,,n i=1 Simplizes sind spezielle konvexe Polyeder Für n = 2 ist das Dreieck mit den Eckpunkten (0, 0), (1, 0), (0, 1) ein Simplex Bemerkung 42 Geometrisches Prinzip der Simplexmethode Das geometrische Prinzip der Simplexmethode ist wie folgt: 1 Man beginnt an einer Ecke des zulässigen Bereichs mit einer Startlösung x 1 und dem Zielfunktionswert z(x 1 ) 2 Dann geht man entlang einer absteigenden Kante, dass heißt, bei welcher der Zielfunktionswert kleiner wird, z(x 1 ) > z(x 2 ) zu einer sogenannten benachbarten Ecke x 2 3 Wiederhole Schritt 2 so lange, bis es keine absteigende Kante mehr gibt Dieses geometrische Prinzip muss in die algebraische Terminologie mit Basislösungen usw transformiert werden Wir werden später auch diskutieren, dass man Simplexschritte ausführen kann, bei denen der Zielfunktionswert gleich bleibt In diesem Fall ist die Beschreibung des zweiten Schritts auch abzuändern, da man nicht zu einer benachbarten Ecke geht, sondern auf der gegebenen Ecke die Basis ändert Diese Situation kann im Falle der Ausartung eintreten Man nennt zwei Basislösungen benachbart, wenn sie sich nur in einem Basisvektor unterscheiden Sei x = (x 1,, x m, 0,,0) T eine erste zulässige Basislösung Es gilt a 1 x 1 + a 2 x a m x m = b (41) 18

20 Dabei sind {a 1,,a m } linear unabhängige Vektoren Der Zielfunktionswert ist demzufolge z 0 = c 1 x c m x m (42) Alle Nichtbasisvektoren a m+1,,a n werden durch die Basis dargestellt a j = x 1j a x mj a m, j = m + 1,, n (43) Mit diesen Darstellungskoeffizienten x ij, die nichts mit den Werten x 1,,x m der Basislösung zu tun haben, werden die Hilfsgrößen eingeführt z j = c 1 x 1j + c 2 x 2j + + c m x mj, j = m + 1,,n, (44) Satz 43 Hauptsatz der Simplexmethode Sei z 0 der Wert der Zielfunktion für die zulässige Basislösung x = (x 1,, x m, 0,,0) T, x i > 0, i = 1,,m Gilt für ein k mit m + 1 k n, dass z k c k > 0, so existiert wenigstens eine zulässige Basislösung mit einem Zielfunktionswert kleiner als z 0 Beweis: Sei θ > 0 vorerst beliebig gewählt Man multipliziere (43) für j = k mit θ und bilde (41) θ (43): a 1 (x 1 θx 1k ) + a 2 (x 2 θx 2k ) + + a m (x m θx mk ) + θa k = b, (45) In der Gleichung (45) steht ein Vektor, der Ax = b erfüllt: (x 1 θx 1k,, x m θx mk,0,, θ,, 0) T (46) Es wird in den Lemmata 44 und 47 gezeigt, dass man mit diesem Vektor eine Basislösung konstruieren kann Für seinen Zielfunktionswert gilt c 1 (x 1 θx 1k ) + c 2 (x 2 θx 2k ) + + c m (x m θx mk ) + θc k = z 0 θz k + θc k = z 0 + θ (c k z k ) (47) Der zugehörige Zielfunktionswert ist kleiner als z 0 falls θ > 0 und z k c k > 0 Unter der Annahme, dass der Hauptsatz bereits vollständig bewiesen ist, haben wir ein hinreichendes Kriterium um zu entscheiden, ob es eine zulässige Basislösung mit einem kleineren Zielfunktionswert gibt Man benötigt jetzt noch eine Methode zur Konstruktion dieser zulässigen Basislösung Diese erfolgt mit Hilfe von θ Lemma 44 Wahl von θ Sei θ = Dann ist die Lösung (46) zulässig min i=1,,m,x ik >0 x i x ik =: x l x lk (48) Beweis: Man hat a 1 x 1 x «l x 1k + + a l 1 x l 1 x «l x l 1,k + a l x l x «l x l,k x lk x lk x lk {z } und die neue Lösung +a l+1 x l+1 x «l x l+1,k + + a m x m x «l x mk + x l a k = b, x lk x lk x lk ˆx i = x i x l x lk x ik, i = 1,, m, i l, ˆx k = x l x lk (49) Alle Komponenten sind auf Grund der Konstruktion nichtnegativ und bei Ausschluss der Entartung sogar positiv Damit hat man eine zulässige Lösung erhalten Man hat also die Komponente x l aus der Basisliste gestrichen und durch die Komponente x k ersetzt =0 19

21 Bemerkung 45 Nicht nach unten beschränkte Zielfunktion Damit die Wahl (48) von θ überhaupt funktioniert, brauchen wir ein x ik > 0 Falls es kein solches x ik gibt, dann folgt, dass die Zielfunktion nach unten unbeschränkt ist Man kann nämlich in diesem Fall θ beliebig groß wählen, da stets x i θx ik 0 Aus (47) folgt dann, dass unter der Bedingung c k z k < 0 die Zielfunktion unbeschränkt nach unten ist Fazit: Falls für ein z k c k > 0 alle x ik 0, dann ist die Zielfunktion nicht von unten beschränkt und man breche die Simplexmethode ab Bemerkung 46 Basiszyklus Wenn man Entartung ausschließt, dann wird das Minimum in (48) wird für genau einen Index l angenommen Es gilt auch die Umkehrung, dass falls der Index l in (48) nicht eindeutig bestimmt ist, dann hat man Ausartung Ausartung kann zur Folge haben, dass gilt z(x i ) = z(x i+1 ) = Das nennt man einen Basiszyklus Es gilt also, (49) ist eine zulässige Lösung mit einem kleineren Zielfunktionswert als die ursprüngliche Lösung Damit bleibt nur noch die Basiseigenschaft von {a 1,,a l 1,a k,a l+1,,a m } zu prüfen Lemma 47 Sei {w 1,,w m } ein System linear unabhängiger Vektoren und sei w = m µ i w i, µ l 0 (410) i=1 Dann ist auch {w 1,,w l 1,w,w l+1, w m } ein System linear unabhängiger Vektoren Beweis: Indirekter Beweis Sei {w 1,,w l 1,w,w l+1, w m} kein System linear unabhängiger Vektoren Dann gibt es Zahlen α 1,, α l 1, α l+1,, α m, α, von denen wenigstens eine ungleich Null ist, so dass mx α iw i + αw = 0 i=1,i l In diese Gleichung wird (410) eingesetzt Es folgt mx i=1,i l (α i + αµ i)w i + αµ l w l = 0 Die Vektoren {w 1,,w m} sind linear unabhängig, das heißt, alle Koeffizienten in dieser Gleichung müssen Null sein Wegen µ l 0 folgt dann α = 0 und daraus α i = 0 für alle i Damit ist gezeigt, dass {w 1,,w l 1,w,w l+1, w m} ein System linear unabhängiger Vektoren ist Folgerung 48 Das im Hauptsatz der Simplexmethode, Satz 43, konstruierte System von Vektoren ist mit der Wahl von θ nach (48) ein System linear unabhängiger Vektoren Beweis: Da in der Linearkombination (43) der Faktor vor a l gleich x lk (= µ l ) ist und wir x lk > 0 bei der Definition von l vorausgesetzt haben, lässt sich Lemma 47 anwenden und die Basiseigenschaft von {a 1,,a l 1,a k,a l+1,,a m} ist gewährleistet Bemerkung 49 Im allgemeinen ist der Hauptsatz der Simplexmethode solange anzuwenden, wie noch wenigstens ein z k c k > 0 ist Dabei kann man im allgemeinen nicht erwarten, falls noch q Größen z j c j > 0 existieren, dass man noch q Schritte auszuführen hat Gilt für alle z j c j 0, j Index von Nichtbasisvariablen, so ist man in dem Sinne fertig, dass der Hauptsatz nicht mehr anwendbar ist Der Hauptsatz gibt aber bisher nur ein hinreichendes und kein notwendiges Kriterium für die Existenz einer Basislösung mit einem kleineren Zielfunktionswert 20

22 Im folgenden Satz wird gezeigt, dass das Kriterium auch notwendig ist Satz 410 Optimalitätskriterium Eine zulässige Basislösung x R n mit z 0 = m i=1 c ix i ist optimale Basislösung, wenn für alle j = m+1,,n, gilt z j c j 0 Beweis: Sei x = (x 1,, x m,0,, 0) T Des weiteren sei y = (y 1,, y n) T beliebige zulässige Lösung eine a 1y 1 + a 2y a ny n = b, y 0, (411) nx mit z = c iy i (412) Zu zeigen ist, dass z 0 z für alle y Durch (43) ist jeder Nichtbasisvektor mit Hilfe der Basis dargestellt Jetzt wird diese Darstellung auf die Basisvektoren ausgedehnt wobei i=1 a j = x 1ja x mja m, j = 1,, n, j 1 für i = j x ij =, i = 1,, m (413) 0 für i j Weiter gilt die Darstellung (44) für z j, j = m + 1,, n Mit (413) hat man eine analoge Darstellung für j = 1,, m, die sich letztlich auf z j = c j reduziert Zusammen mit der Voraussetzung gilt jetzt z j c j, j = 1,, n Mit (412) folgt nun nx z iy i z (414) i=1 Nun wird in (411) die Darstellung aller Spaltenvektoren durch die ersten m Spaltenvektoren eingesetzt X m X m X m y 1 x i1a i + y 2 x i2a i + + y n x ina i = b i=1 i=1 Durch Umordnung nach den Basisvektoren folgt X n X n a 1 y jx 1j + a 2 y jx 2j + + a m j=1 j=1 i=1 n X j=1 y jx mj = b (415) Analog schreibt man (414) mit Hilfe von (44) und der entsprechenden Darstellung für j = 1,, m, mit (413) (z j = c j, j = 1,, m) X n X n c 1 y jx 1j + c 2 y jx 2j + + c m j=1 j=1 n X j=1 Der Vektor x ist eine zulässige Basislösung, das heißt, es gilt y jx mj z (416) a 1x 1 + a 2x a mx m = b (417) Da {a 1,,a m} eine Basis ist, ist die Darstellung von b mit Hilfe dieser Vektoren eindeutig Damit folgt aus (415) und (417) x i = nx y jx ij, i = 1,, m j=1 Setzt man dies in (416), so erhält man z 0 = mx c ix i z i=1 21

23 Kapitel 5 Die Simplexmethode Bemerkung 51 Simplextabelle und Simplexmethode Es werden folgende Bezeichnungen verwendet: - das untersuchte Problem ist min x R n { z = c T x : Ax = b,x 0 }, - die erste zulässige Basislösung sei x = (x 1, x 2,, x m, 0,,0) T, x 0, mit z 0 = c T x, - die Basisvektoren sind A B = (a 1,,a m ), - die Nichtbasisvektoren sind A N = (a m+1,,a n ), - die Darstellung der Nichtbasisvektoren durch die Basis ist a j = x 1j a x mj a m, j = m + 1,,n, - die Hilfsgrößen z j sind z j = c 1 x 1j + c 2 x 2j + + c m x mj, j = m + 1,,n Diese Größen werden in der sogenannten Simplextabelle eingetragen: m + 1 m + 2 k n i c i x i c m+1 c m+2 c k c n 1 c 1 x 1 x 1,m+1 x 1,m+2 x 1,k x 1,n 2 c 2 x 2 x 2,m+1 x 2,m+2 x 2,k x 2,n l c l x l x l,m+1 x l,m+2 x l,k x l,n m c m x m x m,m+1 x m,m+2 x m,k x m,n z 0 z m+1 c m+1 z m+2 c m+2 z k c k z n c n Basisteil Nichtbasisteil Bei der Simplexmethode folgt man jetzt im wesentlichen dem Beweis des Hauptsatzes Sei z k c k > 0 Gilt für mehrere Indizes j {m+1,, n}, dass z j c j > 0, so nehme man zum Beispiel einen Index, bei dem die Differenz maximal ist z k c k := max z j c j j=m+1,,n, Dann liegt x k als Nichtbasisvariable vor, die in die Basis soll Nun bestimmt man θ = das heißt, x l soll aus der Basis raus min i=1,,m,x ik >0 x i x ik =: x l x lk, 22

24 Definition 52 Hauptspalte, Hauptzeile, Hauptelement, Pivotelement Die Spalte k nennt man Hauptspalte, die Zeile l heißt Hauptzeile und das Element x lk heißt Hauptelement oder Pivotelement Bemerkung 53 Berechnung der Einträge der neuen Simplextabelle Die neue Basislösung sei (ˆx 1,, ˆx l 1, ˆx k, ˆx l+1,, ˆx m, 0,,0) T (51) Nun müssen die Elemente der neuen Simplextabelle bestimmt werden: 1 Man benötigt insbesondere eine Darstellung von (51) Aus (49) erhält man 2 Aus (43) folgt für j = k ˆx i = x i x l x lk x ik, i = 1,,m; i l; ˆx k = x l x lk (52) a l = 1 x lk (a k x 1k a 1 x l 1,k a l 1 x l+1,k a l+1 x mk a m ) = x 1k a 1 x l 1,k a l 1 + a k x l+1,k a l+1 x mk a m (53) x lk x lk x lk x lk Damit haben wir eine Darstellung des neuen Nichtbasisvektors a l durch die neue Basis und die neuen Elemente der alten Hauptspalte sind x lk ˆx kl = 1 x lk, ˆx il = x ik x lk, i = 1,,m, i k (54) 3 Für den Rest erhält man, beispielhaft an a n gezeigt, die folgende Darstellung, wobei man in der ersten Gleichung die alte Basisdarstellung (43) nutzt: a n = x 1n a x l 1,n a l 1 + x l+1,n a l x mn a n + x ln a l }{{} = ( x 1n x 1kx ln + + x lk ) ( a ( x mn x mkx ln x lk ) a m x l 1,n x l 1,kx ln x lk (53) ) a l 1 + x ln x lk a k Man erhält also die folgenden Koeffizienten für die neue Basisdarstellung ˆx kj = x lj x lk, j = m + 1,,n, j k, (55) ˆx ij = x ij x lj x ik, x }{{} lk ˆx kj i = 1,,m, i k, j = m + 1,,n, j l(56) 4 Die Elemente z 0, z m+1 c m+1,,z n c n transformieren sich ebenfalls nach den obigen Regeln Übungsaufgabe Damit sind alle Elemente der neuen Simplextabelle berechnet Zur Berechnung von ˆx ij benötigt man die im Rechteck angeordneten Elemente x ij, x lj, x lk und x ik der alten Simplextabelle Deshalb spricht man auch von der Rechteckregel 23

25 Bemerkung 54 Basisform der Simplexmethode 1 Normalform des linearen Programms herstellen 2 Erste zulässige Basislösung angeben 3 Simplextabelle zu dieser Basislösung erstellen 4 Existieren Bewertungen z j c j > 0? Wenn ja, gehe zu 6 5 Sind alle Bewertungen z j c j < 0? - Wenn ja, einzige Optimallösung gefunden, Simplexmethode beendet - Wenn nicht, dann gibt es außer negativen Bewertungen z j c j nur noch verschwindende Das Optimum nicht eindeutig Man hat ein Optimum gefunden, beende Simplexmethode 6 Wähle die Hauptspalte, also die Spalte, zu der das größte z j c j > 0, j = k gehört 7 Falls x ik 0 für alle i = 1,,m, so ist die Zielfunktion nach unten nicht beschränkt, beende Simplexmethode 8 Bestimme θ zur Festlegung der Hauptzeile und des Pivotelements 9 Basistransformation: 91 Ersetze das Pivotelement durch seinen Kehrwert, siehe (54) 92 Multipliziere die übrigen Elemente der Hauptzeile mit diesem Kehrwert, einschließlich x l, siehe (52) und (55) 93 Multipliziere die übrigen Elemente der Hauptspalte mit dem negativen Kehrwert, siehe (54) 94 Vermindere die nicht in einer Hauptreihe stehenden Elemente, einschließlich der übrigen Werte von x i und der letzten Zeile, um das Produkt der zugehörigen Hauptreihenelemente (Rechteckregel) Dabei nimmt man für das Pivotelement schon den neuen Wert und für die übrigen Elemente die alten Werte, siehe (52) und (56) 10 Gehe zu 4 Beispiel 55 Wir betrachten das lineare Programm z = 3x 1 2x 2 4x 3 x 4 min! x x 2 x x 4 = x x 6 x 7 x 0 Bekannt sei eine erste zulässige Basislösung x 1 = 350, x 4 = 25, x 7 = 100, die den Zielfunktionswert z = 1075 besitzt Die Basisvektoren sind demzufolge a 1 = 2 1 1, a 4 = 0 2 2, a 7 = Gesucht ist nun die Darstellung der Nichtbasisvektoren durch die Basisvektoren Setze A B = (a 1,a 4,a 7 ) und A N = (a 2,a 3,a 5,a 6 ) Dann ist die Matrix X der Simplexkoeffizienten gesucht, für die gilt A N = A B X = X = A 1 B A N 24

26 Man erhält hier Daraus ergibt sich und somit X = 1 3/2 1/ /4 1/4 1/ z 2 = c 1 x 12 + c 4 x 42 + c 7 x 72 = ( 3)1 + ( 1)1 + 0( 2) = 4, z 3 z 5 = 9/2 + 3/4 + 0 = 15/4, = 3/2 + 1/4 + 0 = 5/4, z 6 = 0 1/2 + 0 = 1/2 z 2 c 2 = 2, z 3 c 3 = 1/4, z 5 c 5 = 5/4, z 6 c 6 = 1/2 Damit erhält man folgende Simplextabelle: i c i x i /2 1/ /4-1/4 1/ /4-5/4-1/2 Es gibt nur einen Index k mit z k c k > 0, nämlich k = 3 Damit ist die Hauptspalte bestimmt (Schritt 6) Zur Bestimmung der Hauptzeile (Schritt 8) berechnet man θ: ( ) { xi 350 θ = min = min x i3>0,i {1,4,7} 3/2, 100 } = 20 5 x i3 für i = 7 Damit ist der Hauptzeilenindex l = 7 und das Pivotelement x 73 = 5 Nun führt man die Basistransformation aus (Schritt 9): i c i x i /5-3/10 1/2 3/ /10 3/20-1/4 7/ /5 1/5 0-1/ /10-1/20-5/4-9/20 Den neuen Wert für x 1 erhält man beispielsweise aus x 1 = = = Da in der neuen Simplextabelle alle Werte z j c j < 0, j {2, 5, 6, 7}, hat man die einzige Optimallösung bestimme: x = (320, 0, 20, 40, 0, 0, 0) T Bemerkung 56 Angenommen, man hat in einer Simplextabelle mehrere z j c j > 0 Zu einer dieser Spalten mögen nur Koeffizienten x ij 0 gehören Dann ist die Zielfunktion unbeschränkt Beispiel 57 Zur Ausartung Wir betrachten das lineare Programm ( z = x 1 min! ) x 1 ( ) x 2 1 x 3 = 4 x 4 x 0 25

27 Eine zulässige Basislösung, die gleichzeitig ein Optimum ist, ist x = (1, 0, 0, 0) T Wir nehmen als Basisvariablen x 1 und x 2 Da x 2 verschwindet, ist die Basislösung ausgeartet Man hat A B = und erhält die Simplextabelle ( ) ( 1 0, A N = i c i x i /3 1/ /3-1/3-1 1/3-1/3 Die Simplexmethode sagt uns an dieser Stelle nicht, dass das Optimum bereits erreicht ist! Gemäß Simplexmethode muss x 3 in die Basis anstelle von x 2 eingeführt werden Man erhält die Simplextabelle 2 4 i c i x i /4 1/ /4-1/4-1 -1/4-1/4 Damit ist das Optimalitätskriterium der Simplexmethode erfüllt und diese wird beendet Man hat für das Optimum x = (1, 0, 0, 0) T mit diesen beiden Simplextabellen zwei unterschiedliche Basisdarstellungen Der Zielfunktionswert hat sich im Simplexschritt nicht verändert, es wurde lediglich die Basis gewechselt ) 26

28 Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung Wie gut das geht, hängt auch vom konkreten Problem ab Bemerkung 61 1 Fall Liegt { min z = c T x : Ax b,x 0 } x R n vor und gilt b 0 Dann führt man Schlupfvariablen ein und setzt x = (0,,0,b T ) T Bemerkung 62 2 Fall, Engpassmethode Liegt das lineare Programm in der Gestalt min x R n { z = c T x : Ax = b,x 0 } vor mit A = (a ij ),i = 1,,m; j = 1,,n, b = (b 1,, b m ) T, a ij 0, b i 0 für alle i, j Dann kann man mit einer sogenannten Engpassmethode zur ersten zulässigen Basislösung gelangen: 1 Ordne die Variablen nach wachsenden Zielfunktionskoeffizienten c i, Beispiel z = 10x 1 6x 2 4x 3 3x 4 5x 5 min! x x = x 9 8 x 0 Dann ist die Ordnung x 1, x 2, x 5, x 3, x 4 2 In der festgelegten Reihenfolge werden die Variablen mit dem größtmöglichen Wert genommen, so dass die Nebenbedingungen erfüllt sind Im Beispiel beginnt man mit x 1 = 3 3 Man setzt diesen Wert ein und entfernt die Variable damit aus den Nebenbedingungen Im Beispiel ergibt sich x 2 x 3 x 9 =

29 Aus der zweiten Gleichung folgt x 2 = x 3 = x 7 = 0, welche Werte man auch gleich einsetzen kann Damit vereinfacht sich das System der Nebenbedingungen zu x 4 x 5 x 6 x 8 x 9 = (61) 4 Gehe zu 2 Im Beispiel betrachtet man als nächstes x 5, da ja bereits x 2 = 0 gilt Der maximale Wert von x 5, so dass (61) erfüllt ist, beträgt x 5 = 1 Einsetzen ergibt x 4 x 6 x 8 x 9 = (62) Damit folgt x 6 = 0 Da ja auch schon x 3 = 0 gilt, wird nun x 4 betrachtet Der maximale Wert von x 4, so dass (62) erfüllt ist, ist x 4 = 2 Man erhält ( ) ( ) ( ) 1 0 x8 0 = 0 1 x 9 2 Nun bestimmt man die letzten beiden Werte und erhält als erste zulässige Basislösung x = (3, 0, 0, 2, 1, 0, 0, 0, 2) T Bemerkung 63 Hat man bei der Engpassmethode nicht genügend Variablen, dann führt man künstliche Variablen ein Bemerkung 64 Anderes Ordnungsprinzip der Variablen im Fall, dass die Koeffizienten von unterschiedlicher Größenordnung sind Wir betrachten das lineare Programm z = 10x x x x x 5 min! x 1 x 2 ( ) x 5 = x 0 ( Nach dem obigen Ordnungsprinzip hat man die Reihenfolge x 1, x 2, x 3, x 4, x 5 und erhält mit der Engpassmethode die erste zulässige Basislösung Übungsaufgabe x 1 = 101 2, x 4 = 99 2 = z = 2485 Man erhält jedoch mit einer anderen Basislösung einen schon viel kleineren Zielfunktionswert x 3 = 2, x 5 = 1 = z = 110 In diesem Fall ist das Ordnungsprinzip { c j min j,c j 0 min i,a ij 0 günstiger Bei diesem Ordnungsprinzip wird auch die Größe der Matrixeinträge und der rechten Seite beachtet Im Beispiel kann man x 3 wegen der großen Matrixeinträge nur relativ klein wählen, wenn man die Nebenbedingungen nicht verletzen will { bi a ij }} ) 28

30 Im Gegensatz dazu kann man x 1 sehr groß wählen ohne die Nebenbedingungen zu verletzen Der etwas höhere Koeffizient vor x 3 in der Zielfunktion führt wegen des viel kleineren möglichen Wertes dieser Variablen letztlich auf einen kleineren Beitrag als 10x 1 mit großem x 1 Bemerkung 65 3 Fall, Bestimmung mit Hilfe der Simplexmethode Die erste zulässige Basislösung soll jetzt - ohne spezielle Voraussetzungen und - mit Hilfe der Simplexmethode bestimmt werden Dazu betrachten wir n c j x j = c T x min! (63) j=1 Ax = b, (64) x 0 (65) und nehmen b 0 an Das kann immer durch Multiplikation der entsprechenden Gleichungen mit einer negativen Zahl erreicht werden Dem Problem (63) (65) wird die Hilfsaufgabe m x n+i min! (66) i=1 n a ij x j + x n+i = b i, i = 1,,m, (67) j=1 x j 0, j = 1,,m + n (68) zugeordnet Die Variablen x n+1,,x n+m heißen künstliche Variablen Zur Bestimmung der ersten zulässigen Basislösung von (63) (65) wird eine Zweiphasenmethode verwendet: 1 Phase Wähle als erste zulässige Basislösung für (66) (68) x i = 0, i = 1,,n, x n+i = b i, i = 1,, m 2 Phase Löse (66) (68) mit der Simplexmethode Es stellt sich nun die Frage, ob man auf diesem Wege schließlich eine erste zulässige Basislösung für (63) (65) erhält Im nächsten Satz wird gezeigt, dass eine Lösung von (66) (68) existiert, falls man Ausartung ausschließt Lemma 66 Unter der Annahme, dass (66) (68) keine ausgearteten Basislösungen besitzt, liefert die Simplexmethode nach endlich vielen Schritten eine optimale Lösung des linearen Programms (66) (68) Beweis: Da Ausartung per Annahme ausgeschlossen ist, kann kein Basiszyklus auftreten Somit verringert die Simplexmethode in jedem Schritt den Zielfunktionswert Es ist dann nur noch die Beschränktheit von unten der Zielfunktion (66) über (67) bis (68) zu zeigen Das ist offensichtlich, da (66) eine Summe nichtnegativer reeller Zahlen ist, die durch Null nach unten beschränkt ist Nun wird eine Bedingung angegeben, mit welcher man aus dem Optimum des Hilfsproblems (66) (68) eine erste zulässige Basislösung von (63) (65) erhält Satz 67 Sei x 0 eine Optimallösung der künstlichen Aufgabe (66) (68) mit dem zugehörigen Zielfunktionswert z 0 Gilt z 0 = 0, so sind die ersten n Komponenten von x 0 eine zulässige Basislösung der Aufgabe (63) (65) Gilt jedoch z 0 > 0, so besitzt (63) (65) keine zulässige Basislösung 29

31 Beweis: Aus z 0 = 0 folgt x n+i = 0, i = 1,, m, das heißt im Optimum verschwinden alle künstlichen Variablen Also hat x 0 die Gestalt x 0 = (x 1,, x n, 0,, 0) T {z } m Da x 0 mit der Simplexmethode konstruiert wurde, folgt dass x 0 eine zulässige Basislösung von (63) (65) ist Sei nun z 0 > 0 Der Beweis wird indirekt geführt, das heißt, wir nehmen an, dass (63) (65) die zulässige Basislösung x = ( x 1,, x n) T besitzt Dann besitzt jedoch (66) (68) die zulässige Basislösung ( x 1,, x n,0,, 0) T mit dem zugehörigen Zielfunktionswert (66) z = 0 Das ist im Widerspruch zur Annahme dass z 0 der minimale Wert ist Bemerkung 68 4 Fall, M Methode Die M Methode Es wird das lineare Programm (63) (65) betrachtet und diesem die folgende Hilfsaufgabe zugeordnet n m c j x j + M x n+i min! (69) j=1 i=1 n a ij x j + x n+i = b i i = 1,,m, (610) j=1 x 0 (611) Bei dieser Aufgabe muss der Straffaktor M > 0 hinreichend groß gewählt werden, damit im Optimum die Variablen x n+1,,x n+m verschwinden Die Schwierigkeit besteht darin, dass man im allgemeinen nicht von vornherein festlegen kann, wie groß M zu wählen ist Möglich sind Aussagen folgender Gestalt: Satz 69 Es existiert ein M 0 > 0, so dass für alle M > M 0 aus der Lösbarkeit von (63) (65) die Lösbarkeit von (69) (611) mit x n+1 = = x n+m = 0 folgt Beweis: Siehe Literatur Der Vorteil der M Methode im Vergleich zur Herangehensweise von Fall 3 wird mit folgendem Satz beschrieben Satz 610 Falls (69) (611) eine Lösung x = (x 1,, x n, 0,,0 }{{} m besitzt, so ist x = (x 1,,x n ) T bereits eine Optimallösung von (63) (65) Beweis: Das sieht man durch Einsetzen von x in (69) (611) ) T 30

32 Kapitel 7 Zur Ausartung Bemerkung 71 Nach Definition 34 liegt Ausartung dann vor, wenn mindestens eine der Variablen x i, i = 1,m, einer zulässigen Basislösung verschwindet Das dahinterliegende Problem ist, dass die Zuordnung Ecke zulässige Basislösung nicht eindeutig ist Eine Ecke des Polyeders kann Basislösung zu verschiedenen Basen sein Das kann aber nur bei ausgearteten Basislösungen auftreten Beispiel 72 Betrachte das lineare Programm mit ( z = x 1 + x 2 x 3 min!, A = ) ( 0, b = 1 Der einzige Extremalpunkt ist x = (0, 0, 1) T Zulässige Basen sind ( ) ( ) ( ) ( ) , und, Der Grund für die Nichteindeutigkeit der Basis besteht darin, dass es zu viele Nebenbedingungen gibt, die den Extremalpunkt bestimmen In diesem Beispiel ist er durch die beiden Gleichungen ( ) ( ) ( ) ( ) ( ) ( ) 1 0 x x2 0 = und = 0 1 x x 3 1 gleichermaßen gegeben Das haben wir bereits in den Beispielen 35 (2 Teil) und 57 gesehen Bemerkung 73 In der Praxis stellt sich heraus, dass die meisten zu lösenden linearen Programme ausgeartet sind In der Simplexmethode ist es möglich, dass im Falle der Ausartung der zulässigen Basislösung nur ein Basiswechsel stattfindet, siehe Beispiel 57 Das kann zu einem unendlichen Zyklus werden, einem sogenannten Basiszyklus Es ist jedoch möglich, Ausartung prinzipiell auszuschließen, beispielsweise mit der Methode der ε Störung, beziehungsweise einen Basiszyklus zu umgehen, mit der lexikographischen Simplexmethode 71 Die Methode der ε Störung Bemerkung 74 Herangehensweise Wir betrachten das lineare Programm ) { min c T x : Ax = b, x 0 } (71) x R n 31

33 Sei x = (x 1,, x m, 0,,0) T eine zulässige Basislösung mit den Basisvektoren a 1,,a m : a 1 x a m x m = b, a 1 x 1j + + a m x mj = a j, j = 1,,n (72) Sei ε > 0 vorgegeben und sei A B = (a 1,,a m ) die Matrix der Basisvektoren Dann betrachtet man anstelle (71) ein lineares Programm mit gestörten Nebenbedingungen A B x + c T x min! n ε j (72) = b = (73) j=1 A B x + n ε j a j = a 1 x 1 + j=1 n x 1j ε j + + a m x m + j=1 n x mj ε j = b Mit den Nebenbedingungen (73) hat man für hinreichend kleines ε die zulässige Basislösung n n x (ε) i := x i + x ij ε j = x i + ε i + x ij ε j, j=1 j=m+1 da für i = 1,,m, gilt x ij = δ ij Die Eigenschaft der Basislösung folgt daraus, dass die Basis nicht geändert wurde und die Nebenbedingung in (73) erfüllt ist Die Zulässigkeit folgt für hinreichend kleines ε aus ε i > 0 und ε i ε j für i < j n ε i > x ij ε j = x (ε) i > 0 j=m+1 Die Basislösung x (ε) ist also für hinreichend kleine ε nicht ausgeartet Der zugehörige Zielfunktionswert ist z (ε) 0 = = m m c i x i + i=1 m c i x i + i=1 i=1 c i n z j ε j j=1 n j=1 x ij ε j = m c i x i + i=1 j=1 ( n m ) c i x ij Im Bild 71 wird die Störung der Nebenbedingungen graphisch veranschaulicht Im dicken Punkt schneiden sich drei Geraden Das führt dazu, dass die Zuordnung Ecke Basislösung nicht eindeutig ist Man hat Ausartung Durch die Störung der Nebenbedingungen (durchgezogene Geraden) erreicht man, dass es nur noch Schnittpunkte mit genau zwei Geraden gibt j=1 i=1 ε j Bemerkung 75 Berechnung von θ In der Simplexmethode benötigt man die Größe θ, siehe (48) Sei z k c k > 0 Dann berechnet sich θ in der Methode der ε Störung durch θ = min i=1,,m;x ik >0 x (ε) i x ik = x i + ε i + n j=m+1 min x ijε j (74) i=1,,m;x ik >0 x ik 32

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Hauptsatz und Optimalitätskriterium der Simplexmethode

Hauptsatz und Optimalitätskriterium der Simplexmethode Kapitel 4 Hauptsatz und Optimalitätskriterium der Simplexmethode In diesem Abschnitt wird das wichtigste Verfahren zur Lösung linearer Optimierungsprobleme eingeführt die Simplexmethode Es existiere für

Mehr

z = c T x : Ax = b, x 0 }, - die Darstellung der Nichtbasisvektoren durch die Basis ist

z = c T x : Ax = b, x 0 }, - die Darstellung der Nichtbasisvektoren durch die Basis ist Kapitel 5 Die Simplexmethode Es werden folgende Bezeichnungen verwendet: - das untersuchte Problem ist min x R n { z = c T x : Ax = b, x 0 }, - die erste zulässige Basislösung sei x = x 1, x 2,, x m, 0,,

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Die duale Simplexmethode

Die duale Simplexmethode Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

Mathematische Optimierung. Volker John

Mathematische Optimierung. Volker John Mathematische Optimierung Volker John Sommersemester 2007 Inhaltsverzeichnis 1 Einführung 3 I Lineare Optimierung 6 1 Grundlagen 7 2 Geometrische Deutung des Linearen Programms 10 3 Basislösungen eines

Mehr

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende) . Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)

Mehr

Lineare Optimierung: Simplexverfahren Phase Ⅰ

Lineare Optimierung: Simplexverfahren Phase Ⅰ Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

Eigenschaften von LPs

Eigenschaften von LPs 2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört

Mehr

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Kapitel 11 Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Wir betrachten folgendes Optimierungsproblem z = c T x min! Ax = b (11.1) (11.2) x j ganz für j = 1,..., n 1 n, (11.3)

Mehr

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten

Mehr

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x

Mehr

1 Lineare Optimierung, Simplex-Verfahren

1 Lineare Optimierung, Simplex-Verfahren 1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und

Mehr

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen 10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie

Mehr

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Lineare Optimierung und Simplex-Algorithmus

Lineare Optimierung und Simplex-Algorithmus Lineare Optimierung und Simplex-Algorithmus Problemstellung Beispiel : Unser Unternehmen verfügt über drei Maschinen A, B, C, mit denen zwei verschiedene Produkte P, P2 hergestellt werden. Die Maschinen

Mehr

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25. Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme

Mehr

4.3.3 Simplexiteration

4.3.3 Simplexiteration 7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige

Mehr

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

4 Holomorphie-Konvexität. Definition Satz. 42 Kapitel 2 Holomorphiegebiete

4 Holomorphie-Konvexität. Definition Satz. 42 Kapitel 2 Holomorphiegebiete 42 Kapitel 2 Holomorphiegebiete 4 Holomorphie-Konvexität Wir wollen weitere Beziehungen zwischen Pseudokonvexität und affiner Konvexität untersuchen. Zunächst stellen wir einige Eigenschaften konvexer

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 15. April 2018 1/46 Die Dimension eines Vektorraums Satz 2.27 (Basisergänzungssatz) Sei V ein Vektorraum über einem Körper K. Weiter seien v 1,...,

Mehr

7.1 Matrizen und Vektore

7.1 Matrizen und Vektore 7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit

Mehr

mit. Wir definieren (Skalarprodukt = Winkel).

mit. Wir definieren (Skalarprodukt = Winkel). 1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert

Mehr

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind

Mehr

Konvexe Optimierungsprobleme

Konvexe Optimierungsprobleme von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann

Mehr

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann

Mehr

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005 Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung

Mehr

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen Kapitel IV: Grundlagen der Linearen Optimierung Inhaltsverzeichnis Abschnitt 3-5 3 Der Simplexalgorithmus 58 3.1 Grundlagen..............................

Mehr

3. Übungsblatt zur Lineare Algebra I für Physiker

3. Übungsblatt zur Lineare Algebra I für Physiker Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte

Mehr

Triangulierungen von Punktmengen und Polyedern

Triangulierungen von Punktmengen und Polyedern Triangulierungen von Punktmengen und Polyedern Vorlesung im Sommersemester 2000 Technische Universität Berlin Jörg Rambau 17.05.2000 Sekundärpolytop und 6 bistellare Operationen In diesem Kapitel werden

Mehr

1 Lineare Gleichungssysteme und Matrizen

1 Lineare Gleichungssysteme und Matrizen 1 Lineare Gleichungssysteme und Matrizen Das Studium linearer Gleichungssysteme und ihrer Lösungen ist eines der wichtigsten Themen der linearen Algebra. Wir werden zunächst einige grundlegende Begriffe

Mehr

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)

Mehr

3 Systeme linearer Gleichungen

3 Systeme linearer Gleichungen 3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +

Mehr

Aufgaben zu Kapitel 23

Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Verständnisfragen Aufgabe 23 Bestimmen Sie grafisch die optimale Lösung x der Zielfunktion z = c T x unter den Nebenbedingungen mit dem Zielfunktionsvektor

Mehr

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit 3 Lineare Algebra (Teil : Lineare Unabhängigkeit 3. Der Vektorraum R n Die Menge R n aller n-dimensionalen Spalten a reeller Zahlen a,..., a n R bildet bezüglich der Addition a b a + b a + b. +. :=. (53

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung In der linearen

Mehr

Optimierungstheorie Scheinklausur Sommersemester Juli 2007

Optimierungstheorie Scheinklausur Sommersemester Juli 2007 Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

Optimale Steuerung 1 Prozessoptimierung 1

Optimale Steuerung 1 Prozessoptimierung 1 Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige

Mehr

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode 6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,

Mehr

3. Grundlagen der Linearen Programmierung

3. Grundlagen der Linearen Programmierung 3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations

Mehr

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 } A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrangetex,v 18 01/11/09 14:07:08 hk Exp $ $Id: untermfgtex,v 14 01/11/1 10:00:34 hk Exp hk $ Extrema unter Nebenbedingungen Lagrange-Multiplikatoren In der letzten Sitzung hatten wir begonnen die

Mehr

Ganzzahlige lineare Programme

Ganzzahlige lineare Programme KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.

Mehr

KAPITEL 10 DIE INNERE-PUNKTE-METHODE

KAPITEL 10 DIE INNERE-PUNKTE-METHODE KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach

Mehr

Das Lagrange-duale Problem

Das Lagrange-duale Problem Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

Über- und unterbestimmte

Über- und unterbestimmte Über- und unterbestimmte Systeme (verallgemeinerte Lösungen) Über- und unterbestimmte Systeme Ax = b ist genau dann für alle b R m eindeutig lösbar, wenn m = n und rk A = n. Falls m n oder rk A < min{m,

Mehr

2. Optimierungsprobleme 6

2. Optimierungsprobleme 6 6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen

Mehr

Probeklausur Optimierung

Probeklausur Optimierung Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften Dr. Nico Düvelmeyer Hamburg, 4. Juli 2011 Probeklausur Optimierung Bitte selber ausfüllen: Name: (darf anonymisiert werden)

Mehr

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 5 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus

Mehr

05. Lineare Gleichungssysteme

05. Lineare Gleichungssysteme 05 Lineare Gleichungssysteme Wir betrachten ein System von m Gleichungen in n Unbestimmten (Unbekannten) x 1,, x n von der Form a 11 x 1 + a 12 x 2 + a 13 x 3 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + a

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

Kuhn-Tucker Bedingung

Kuhn-Tucker Bedingung Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

Konvexe Mengen und Funktionen

Konvexe Mengen und Funktionen Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf

Mehr

9 Lineare Gleichungssysteme

9 Lineare Gleichungssysteme 9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der

Mehr

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen

Mehr

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { }

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { } Zur Einleitung: Lineare Gleichungssysteme Wir untersuchen zunächst mit Methoden, die Sie vermutlich aus der Schule kennen, explizit einige kleine lineare Gleichungssysteme. Das Gleichungssystem I wird

Mehr

Grundlagen der Optimierung. Übung 6

Grundlagen der Optimierung. Übung 6 Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

5 Teilmengen von R und von R n

5 Teilmengen von R und von R n 5 Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,...,x n ) : x i R} = R }... {{ R }. n mal Für x R ist x der Abstand zum Nullpunkt. Die entsprechende Verallgemeinerung

Mehr

Analysis II 14. Übungsblatt

Analysis II 14. Übungsblatt Jun.-Prof. PD Dr. D. Mugnolo Wintersemester 01/13 F. Stoffers 04. Februar 013 Analysis II 14. Übungsblatt 1. Aufgabe (8 Punkte Man beweise: Die Gleichung z 3 + z + xy = 1 besitzt für jedes (x, y R genau

Mehr

1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1

1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1 1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme Duales Problem Lemma 1.4. Das zum Transportproblem duale Problem lautet: max unter den Nebenbedingungen m a i u i + i=1

Mehr

Lineare Algebra 1. Roger Burkhardt

Lineare Algebra 1. Roger Burkhardt Lineare Algebra 1 Roger Burkhardt roger.burkhardt@fhnw.ch Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 1 Einführung Lineare Gleichungen Definition

Mehr

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3 Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 5. April 2018 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

Lagrange-Multiplikatoren

Lagrange-Multiplikatoren Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i

Mehr

Lineare Programmierung

Lineare Programmierung asis Definition 3.38 Gegeben sei ein LP in der Normalform mit m als Rang der Matrix 2 R m n. x 2 R n mit x = b heißt asislösung gdw. n m Komponenten x i gleich Null und die zu den restlichen Variablen

Mehr

Abbildung 1: Graphische Lösung der ersten Übungsaufgabe

Abbildung 1: Graphische Lösung der ersten Übungsaufgabe Lösungen zu den Übungsaufgaben im Kapitel 1 des Lehrbuches Operations Research Deterministische Modelle und Methoden von Stephan Dempe und Heiner Schreier 1. Lösen Sie die folgende lineare Optimierungsaufgabe

Mehr

(a), für i = 1,..., n.

(a), für i = 1,..., n. .4 Extremwerte Definition Sei M R n eine Teilmenge, f : M R stetig, a M ein Punkt. f hat in a auf M ein relatives (oder lokales) Maximum bzw. ein relatives (oder lokales) Minimum, wenn es eine offene Umgebung

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung

Mehr

1.6 Implizite Funktionen

1.6 Implizite Funktionen 1 1.6 Implizite Funktionen Wir werden uns jetzt mit nichtlinearen Gleichungen beschäftigen, f(x) = 0, wobei f = (f 1,..., f m ) stetig differenzierbar auf einem Gebiet G R n und m < n ist. Dann hat man

Mehr

Lineare Optimierung Teil 2

Lineare Optimierung Teil 2 Lineare Optimierung Teil 2 Primale Degeneration Duale Degeneration = Mehrdeutigkeit Normalform kanonische Form Duale Simplexmethode HTW-Berlin FB3 Prof. Dr.F. Hartl 1 Primale Degeneration/1 Besitzt eine

Mehr

Lineares Gleichungssystem - Vertiefung

Lineares Gleichungssystem - Vertiefung Lineares Gleichungssystem - Vertiefung Die Lösung Linearer Gleichungssysteme ist das "Gauß'sche Eliminationsverfahren" gut geeignet - schon erklärt unter Z02. Alternativ kann mit einem Matrixformalismus

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

7.11. Extrema unter Nebenbedingungen

7.11. Extrema unter Nebenbedingungen 7.11. Extrema unter Nebenbedingungen Randextrema Wir haben schon bemerkt, daß die üblichen Tests mit Hilfe von (eventuell höheren) Ableitungen nur Kriterien für (lokale) Extrema im Inneren des Definitionsgebietes

Mehr

Ausgewählte Lösungen zu den Übungsblättern 4-5

Ausgewählte Lösungen zu den Übungsblättern 4-5 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit

Mehr

18 Höhere Ableitungen und Taylorformel

18 Höhere Ableitungen und Taylorformel 8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a

Mehr

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf )

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf ) Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 65 (das agraökonomische Schaf ) Sascha Kurz Jörg Rambau 25 November 2009 2 66 Die Karush-Kuhn-Tucker-Methode Die Erkenntnisse

Mehr

Lineare Optimierung Dantzig 1947

Lineare Optimierung Dantzig 1947 Lineare Optimierung Dantzig 947 Lineare Optimierungs-Aufgaben lassen sich mit Maple direkt lösen: with(simplex): g:= 4*x + x2

Mehr

Topologische Begriffe

Topologische Begriffe Kapitel 3 Topologische Begriffe 3.1 Inneres, Rand und Abschluss von Mengen Definition (innerer Punkt und Inneres). Sei (V, ) ein normierter Raum über K, und sei M V eine Menge. Ein Vektor v M heißt innerer

Mehr

2. Spezielle anwendungsrelevante Funktionen

2. Spezielle anwendungsrelevante Funktionen 2. Spezielle anwendungsrelevante Funktionen (1) Affin-lineare Funktionen Eine Funktion f : R R heißt konstant, wenn ein c R mit f (x) = c für alle x R existiert linear, wenn es ein a R mit f (x) = ax für

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr