10. Lineare Optimierung
|
|
|
- Paula Scholz
- vor 9 Jahren
- Abrufe
Transkript
1 10. Lineare Optimierung Im Kontext der Optimierungsmodelle: Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen Lösungsraum Unterraum des n Problem der linearen Optimierung Minimiere unter den Nebenbedingungen In Vektor-/Matrixschreibweise: min c T x udn Ax b und x 0 Andere Darstellungen lassen sich in Normalform transformieren (später mehr dazu) Peter Buchholz
2 Lineare Optimierung oder Programmierung ist das bekannteste Optimierungsproblem mit praktisch gut einsetzbarem Lösungsalgorithmus (Simplex-Algo.) vielen Anwendungen Gliederung: 10.1 Beispiel und Lösungsprinzip 10.2 Formale Grundlagen 10.3 Prinzip des Simplexverfahrens 10.4 Der Simplexalgorithmus 10.5 Allgemeines Simplexverfahren 10.6 Typische Anwendungsbeispiele 10.7 Dualität 10.8 Sensitivitätsanalyse 10.9 Stochastische lineare Programmierung Weitere Aspekte der linearen Optimierung Peter Buchholz
3 Lineare Optimierung ist das wichtigste Optimierungsverfahren in der Praxis, da viele reale Problemstellungen durch lineare Modelle angenähert werden können für lineare Probleme effiziente Optimierungsverfahren zur Verfügung stehen lineare Probleme gut verständlich sind und damit auch die optimalen Lösungen nachvollzogen werden können lineare Probleme als Unterprobleme in vielen komplexeren Optimierungsproblemen auftauchen. Folgende Herleitung ist formaler als bisher, Beweisideen auf den z. T. Folien, Beweise an der Tafel und im Skript! Peter Buchholz
4 10.1 Beispiele und Lösungsprinzip Beispiel Hobbygärtner (aus Domschke/Drexl 98) Garten soll mit Blumen und Gemüse bepflanzt werden Gartenfläche 100m 2 davon für Blumen geeignet 60m 2 anfallende Kosten Blumen 9 /m 2 Gemüse 6 /m 2 Kapital des Gärtners 720 Erlöse Blumen 20 /m 2 Gemüse 10 /m 2 Ziel: Maximierung der Erlöse durch Wahl der Anbaufläche Blumen x 1 m 2 Gemüse x 2 m 2 aus der Problemstellung folgt x 1 0 und x 2 0 Formalisierung: min 20x1 10x unter den Nebenbedingungen: (1) (2) (3) (4') 2 x1 x2 100 x1 60 9x1 6x2 720 x 0, x Peter Buchholz
5 x 2 Graphische Veranschaulichung der Lösung -20x 1-10x 2 =-2400 Isogewinn-Geraden x 1-10x 2 =-2000 zulässiger Bereich 20 x Peter Buchholz 2016 x 1 =60 9x 1 +6x 2 =720 x 1 +x 2 =100 5
6 Im Beispiel Allgemein 2 Variablen nicht selten n > 1000 Variablen n+m (=5) Restriktionen definieren je (Halb-)Fläche des 2 Halbraum des n unter Einschluss der trennenden Geraden Hyperebenen der Dim. n-1 zulässiger Bereich ist Schnitt von 5 Halbflächen des 2 n+m Halbräumen des n f(x) = const = Z definiert Isogewinn- Gerade Hyperebene der Dimension n-1 Peter Buchholz
7 Parallelverschiebung der Isogewinn-Geraden/Hyperebene variiert Z Isogewinn-Gerade/Hyperebene liegt je nach Z-Wert völlig außerhalb des zulässigen Bereichs Z-Wert nicht erreichbar quer durch den zulässigen Bereich durch Parallelverschiebung kann Z-Wert verkleinert werden! genau auf dem Rand des zulässigen Bereichs u.u. optimal, da eine weitere Verkleinerung durch Parallelverschiebung u.u. den zulässigen Bereich verlässt Definition Rand des zulässigen Bereichs: Eckpunkt im 2 Eckpunkt im n Segment der Rand-Geraden Ausschnitt der Rand-Hyperebene inkl. Eckpunkt inkl. Eckpunkt Optimale Lösung sollte in einem Eckpunkt des zulässigen Bereichs liegen! Peter Buchholz
8 Eckpunkt des zulässigen Bereichs (normalerweise) Schnittpunkt von 2 Geraden n Hyperebenen n m Wenn n+m Restriktionen existieren, gibt es bis zu Eckpunkte n Im Beispiel 5 10 Eckpunkte 2 Falls das Optimum auf einem Eckpunkt liegt, so führt folgende (naive) Idee zur Bestimmung des Optimums: Schnittpunkte der Gerade/Hyperebenen nacheinander erzeugen jeden Schnittpunkt auf Zulässigkeit prüfen jeden Schnittpunkt auf Optimalität prüfen u.u. viele Punkte zu untersuchen, aber endliches Verfahren Wie geht es besser? Systematische Untersuchung von Eckpunkten! Peter Buchholz
9 Idee (des Simplexverfahrens) Starte von einem initialen Eckpunkt des zulässigen Bereichs (in der Normalform ist oft 0 ein solcher Eckpunkt) Wähle einen besseren Nachbar-Eckpunkt (auf verbindender Kante sollte Zielfunktionswert linear fallen) Fahre fort, bis kein besserer Nachbar-Eckpunkt mehr zu finden ist Terminaler Eckpunkt sollte die optimale Lösung repräsentieren! Bisher alles Ahnungen, die zu zeigen sind! Insbesondere optimale Lösung in einem Eckpunkt oder enthält einen Eckpunkt lokal optimaler Eckpunkt (ohne bessere Nachbarn) ist auch global optimal existiert überhaupt ein Optimum Peter Buchholz
10 Können wir immer eine Lösung finden? Welche Schwierigkeiten sind schon jetzt erkennbar? Betrachten wir zur Vereinfachung den eindimensionalen Fall: min cx unter den Nebenbedingungen ax b und x 0 Einige Fallunterscheidungen: 1. a>0, b>0 scheint ok zu sein 2. a>0, b<0 zulässiger Bereich leer 3. a<0, c>0 scheint ok zu sein 4. a<0, c<0 Zielfunktion unbeschränkt Fälle 2. und 4. ohne Optimum! Zusätzliche Probleme bei mehrdimensionalen Zielfunktionen und mehreren Nebenbedingungen lassen sich erahnen! Peter Buchholz
11 Standardform der linearen Optimierung: min (c T x) unter den Nebenbedingungen Ax = b und x 0 = statt Umformung in Standardform durch Einführung von Schlupfvariablen: Statt Ax b schreiben wir mit der Zielfunktion min c T x+0 T u Ax b u Ax u b, u x A I b Nebenbedingungen der Form Ax b => (A,-I) verwenden Im Folgenden werden die Schlupfvariablen direkt integriert Schreibweise: Z = min f(x) = c T x unter den Nebenbedingungen Ax=b A ist eine mn Matrix wobei mn gilt Wir setzen im weiteren voraus, dass rg(a)=rg(a,b)=m damit das Gleichungssystem eine Lösung hat Peter Buchholz
12 10.2 Formale Grundlagen Einige einfache Definitionen und Eigenschaften: Die euklidische Norm x für einen Punkt x n ist definiert durch Der Abstand zwischen zwei Punkte x und y ist definiert durch x-y Eine Kugel K mit Radius und Mittelpunkt m n (-Kugel) ist die Punktmenge K := {x x-m } Eine Menge M n heißt beschränkt, wenn es eine Konstante c gibt mit x c für alle xm Eine Menge M n heißt abgeschlossen, wenn für jede konvergente Folge {x i M} i=1,..., der Grenzwert in M liegt (x i ist eine konvergente Folge, falls >0, i 0 : x i x < für ii 0 ) Eine Gerade g ist im n definiert durch die Menge aller Punkte {x + y - +} für ein y0 Peter Buchholz
13 Definition 10.1 (Linearkombinationen) Für x 1,..., x r n und Koeffizienten 1,..., r 0heißt x = 1 x r x r nichtnegative Linearkombination von x 1,..., x r wenn zusätzlich i = 1 konvexe Linearkombination, wenn zusätzlich i > 0 für alle i {1,..., r} echte konvexe Linearkombination. Definition 10.2 (Konvexität im n ) Für Punkte x,y n heißt die Punktmenge x + (1-)y (01) Verbindungsstrecke zwischen x und y. Eine Menge M n heißt konvex, wenn für alle ihre Punktpaare x,y M die Verbindungsstrecke zwischen x und y in M liegt. Eine Funktion f: M heißt streng konvex, falls M eine konvexe Menge ist und für alle x, y M (x y) und (0,1) stets folgt f(x + (1-)y) < f(x) + (1-)f(y), falls nur f(x + (1-)y) f(x) + (1-)f(y) gilt, so ist die Funktion konvex. Peter Buchholz
14 Der Durchschnitt konvexer Mengen M i (ii) ist konvex, da x, y M x, y M i für alle ii (d.h. Verbindungstrecke ist in allen M i ) konvex nicht konvex Konvexe Mengen und konvexe Funktionen sind von großer Bedeutung, da bei ihnen lokale und globale Optima zusammenfallen Wir betrachten hier nur die Auswirkungen der Konvexität in der linearen Optimierung (allgemeine konvexe Optimierungsprobleme werden nicht untersucht) Peter Buchholz
15 W = {x n Ax = b, x 0} zulässige Bereich eines linearen Optimierungsproblems Satz 10.3 (zulässiger Bereich) Der zulässige Bereich W eines linearen Optimierungsproblems ist konvex. Beweis: Seien x,y W und z = x + (1 )y mit 0 1. Dann ist z 0 und Az = Ax + (1 )Ay = b + (1 )b = b Peter Buchholz
16 Sei Z der minimale Wert eines linearen Optimierungsproblems und L(Z) = {x c T x = Z, xw} Satz 10.4 (Lösungsmenge) Die Menge der optimalen Lösungen L(Z) eines linearen Optimierungsproblems ist konvex. Beweis: Seien x, y L(Z) und z = x + (1 - )y c T z = c T x + (1-)c T y = Z + (1-)Z = Z womit z L(Z) gilt. Peter Buchholz
17 Definition 10.5 (Rand- und Extrempunkte) Ein Punkt x einer konvexen Menge M heißt Randpunkt von M, wenn keine -Kugel ( > 0) um x existiert, die nur Punkte aus M enthält. Extrempunkt von M, wenn x nicht als echte konvexe Linearkombination von Punkten aus M darstellbar ist. Jeder Extrempunkt ist auch Randpunkt (falls -Kugel ( > 0) um x existiert, so kann x als Linearkomb. von Punkten auf dem Rand der Kugel dargestellt werden) Peter Buchholz
18 Definition 10.6 (konvexe Strukturen) Die Menge aller konvexen Linearkombinationen endlich vieler Punkte des n heißt konvexes Polytop. Ein konvexes Polytop, das von n+1 nicht auf einer Hyperebene liegenden Punkten des n aufgespannt wird, heißt Simplex. Die Menge aller nichtnegativen Linearkombinationen endlich vieler Punktes des n heißt konvexer polyedrischer Kegel. Die Summe eines konvexen Polytops P und eines konvexen polyedrischen Kegels C konvexes Polyeder. P+C := {x = x P + x C x P P, x C C} Es gilt jedes konvexe Polytop ist eine kompakte (d.h. abgeschlossene und beschränkte) und konvexe Menge konvexe polyedrische Kegel und damit auch konvexe Polyeder können unbeschränkt sein Peter Buchholz
19 Beispiele für n=2: Konvexes Polytop Simplex Konvexes Polyeder Konvexer polyedrischer Kegel C Konvexes Polytop P Konvexes Polyeder Die Extrempunkte eines konvexen Polyeders werden Ecken genannt Peter Buchholz
20 Polyeder können auch als Durchschnitt endlich vieler Halbräume {x n A j x b j } mit festen (Zeilen-) Vektoren A j und reellen Zahlen b j definiert werden. Ein Polyeder ist offensichtlich nicht unbedingt beschränkt Jede Gleichung definiert A j x = b j eine Hyperebene Wir können die Matrix A wie folgt definieren Ein Punkt x n ist genau dann ein Extrempunkt, wenn j=1,..n A j x j = b und die Vektoren A j, die zu x j >0 gehören, linear unabhängig sind Extrempunkte in Polyedern heißen auch Ecken oder Eckpunkte Peter Buchholz
21 Extrempunkte können u.u. auch durch weniger als m (=Anzahl Zeilen von A und rang(a)) positive Elemente charakterisiert sein mit der Lösung (1, 1, 0, 0, 0)T Man spricht dann von einer degenerierten Ecke Peter Buchholz
22 Satz 10.7 Der zulässige Bereich M eines linearen Optimierungsproblems ist ein konvexes Polyeder Beweisskizze: Polyeder können als Durchschnitt endlich vieler Halbräume, die durch A j x b j charakterisiert sind, beschrieben werden Da jeder Halbraum konvex ist, ist auch deren Schnitt konvex Nicht unbedingt ein Polytop, da M unbeschränkt sein kann Peter Buchholz
23 Mögliche Situationen M = Ø. Damit hat das Problem keine zulässige Lösung und auch kein Minimum M Ø und beschränkt. Zulässiger Bereich ist konvexes Polytop. Da Zielfunktion auf M stetig nimmt sie auf M (konvex und abgeschlossen) ihr Minimum an M Ø und unbeschränkt. Zulässiger Bereich ist konvexes Polyeder. Optimale Lösung existiert nur, wenn Zielfunktion auf M nach unten beschränkt Peter Buchholz
24 Satz 10.8 Besitzt ein lineares Optimierungsproblem eine optimale Lösung, dann ist mindestens eine Ecke des zulässigen Bereichs M eine optimale Lösung. Beweisskizze: (sei M nicht leer) Falls M unbeschränkt, so ist M Summe konvexer polyedrischer Kegel und konvexes Polytop => zeige Minimum auf Ecke des Polytops Peter Buchholz
25 Satz 10.9 (Lokale und globale Minima) Ein lokales Minimum der Zielfunktion f(.) eines linearen Optimierungsproblems auf dem zulässigen Bereich W ist auch ein globales Minimum. Beweis: Sei x 0 W lokales Minimum und f(x 1 )<f(x 0 ) für x 1 W. Da W konvex Verbindungsstrecke von x 0 nach x 1 liegt ganz in W Im Inneren der Strecke für Punkte x = x 0 + (1-)x 1 (0<<1) ist f(x) = f(x 0 ) + (1-)f(x 1 ) < f(x 0 ) gilt auch für 1, xx 0 damit kann x 0 kein lokales Minimum sein! Peter Buchholz
26 Fazit: Unsere Ahnungen treffen zu: Falls es eine optimale Lösung gibt, so gibt es einen Eckpunkt des zulässigen Bereichs, auf dem das Optimum angenommen wird (Optimum muss nicht existieren: leerer zulässiger Bereich, Unbeschränktheit +...?) Wenn ein Eckpunkt gefunden wurde, dessen Nachbar-Eckpunkte größere Zielfunktionswerte aufweisen, so wurde ein (globales) Optimum gefunden Naiver Ansatz zum Finden des Optimums: 1. Teste jeweils n aus n+m Hyperebenen auf lineare Unabhängigkeit 2. Falls sie unabhängig sind, teste ihren Schnittpunkt auf Zulässigkeit 3. Falls zulässig bestimme den Wert der Zielfunktion Minimum der berechneten Zielfunktionswerte ist die gesuchte Lösung Besserer Ansatz: Schrittweise Verbesserung der Zielfunktion durch Auswahl besserer Nachbareckpunkte ( Simplexverfahren) Peter Buchholz
27 Historie des Simplexalgorithmus: 10.3 Prinzip des Simplexverfahrens Fourier 1826: Algorithmus zum Test der Konsistenz einer Menge von Ungleichungen (aufwändig) Kantorowitsch 1939: Erste Behandlung der linearen Optimierung und Vorstellung des Simplexverfahrens (Bedeutung wurde noch nicht erkannt) Dantzig 1947: Arbeit über lineare Optimierung mit dem Simplexverfahren (Interesse insbesondere beim Militär) Anwendungen des Verfahrens durch Koopmans (Nobelpreis für Wirtschaftswissenschaften 1975) In der Folgezeit: Weiterentwicklung des Ansatzes u.a. durch John von Neumann. Khachian (1975) und Karmarkar (1984) Ellipsoid-Methode mit besserer worstcase Komplexität Peter Buchholz
28 Schritte des Algorithmus: Ausgehend von einem Eckpunkt des zulässigen Bereichs Schnittpunkt von n Hyperebenen Nachbareckpunkte aufsuchen Nachbareckpunkte entstehen durch Austausch einer Hyperebene (Eckpunkt + n Kandidaten Simplex) Kandidaten überprüfen auf Zulässigkeit auf lokale Optimalität ( optimale Lösung) während der Berechnung Probleme erkennen zulässige Menge leer Lösung nicht beschränkt Terminierung des Vorgehens zeigen und Komplexität prüfen Peter Buchholz
29 Peter Buchholz Untersuchung eines Beispiels: b Ax x c udn 5) 3, ( ) min( x x x x T Einführung der nichtnegativen Schlupfvariablen liefert das Gleichungssystem Ax b x x x x x Unter der zusätzlichen Bedingung x0 und c i =0 für i>n ist die optimale Lösung des modifizierten Problems identisch zur optimalen Lösung des Ausgangsproblems.
30 x1 2x1 2x1 3x 1 x2 3x 3x 5x x 3 x 4 x Z x 2 -x 1 +x 2 =2 (x 3 =0) x 3 2x 1 +3x 2 =12 (x 5 =0) x 5 2x 1-3x 2 =3 (x 4 =0) x 4 Peter Buchholz x 1 30
31 Erinnerung an die Lösung linearer Gleichungssysteme: Sei Ax = b lineares Gleichungssystem mit pq Koeffizienten-Matrix Sei rg(a) = p < q B=(A i 1,..., A ip ) pp Untermatrix, die aus p unabhängigen Spalten von A besteht x B =(x i 1,...,x ip )T sei der entsprechende Teilvektor von x x* B sei die eindeutige Lösung von Bx B = b Man nennt dann (Annahme: Basis umfasst die ersten p Variablen) x*=(x 1,...,x p,0,...,0) T q eine Basislösung von Ax = b mit den Basisvariablen x 1,...,x p und den Nichtbasisvariablen x p+1,...,x q Begriffe Basisvariablen und Nichtbasisvariablen, zulässige/optimale Basislösungen werden auch für lineare Optimierungsprobleme verwendet. Peter Buchholz
32 Übertragung auf unseren Fall: A ist ein mn+m Matrix mit rg(a)=m Gleichungssystem Ax = b ist unterbestimmt, d.h. n Variablen können frei gesetzt werden und bestimmen eindeutig den Wert der restlichen m Variablen (Zulässigkeit der Eckpunkte wird dabei erst einmal nicht beachtet) Vorgehen: Setze Werte der Nichtbasisvariablen (z.b. setze (0,...,0) als eine mögliche (geschickte)wahl) Bestimme daraus Werte der Basisvariablen n Variablen an ihrer Untergrenze n Hyperebenen 1 Punkt (falls Hyperebenen unabhängig) 1 Eckpunkt (falls zulässig) Peter Buchholz
33 Wir definieren folgendes erweiterte Gleichungssystem: z ist freie Variable ohne Vorzeichenbeschränkung Äquivalentes Optimierungsproblem mit dem zulässigen Bereich Falls (x,,x j ) eine Basislösung von A ist, so ist 1 jm (x,,x j, z) eine Basislösung von A^ 1 jm Peter Buchholz
34 Satz Zu jedem Extrempunkt x des zulässigen Bereichs W gibt es eine zulässige Basis, so dass y = (x i ) i Basislösung von By = b ist und umgekehrt. Beweisskizze: Ausgehend von einem Extrempunkt des zulässigen Bereichs wird per Widerspruchsbeweis gezeigt, dass die Indizes der Nichtnullelemente in x zu linear unabhängigen Spalten gehören und damit eine Basis bilden oder zu einer Basis ergänzt werden können. Für die andere Richtung des Beweises wird per Widerspruchsbeweis gezeigt, dass ausgehend von einer Basis ein Punkt, der die Nebenbedingungsgleichungen erfüllt und dessen Indizes der Nichtnullelemente eine Teilmenge der Basis bilden, auch ein Extrempunkt sein muss. Peter Buchholz
35 Legt ein Extrempunkt die zugehörige Basis eindeutig fest? Leider nein, wie folgendes Beispiel zeigt. Der einzige Extrempunkt ist (0, 0, 1) T Extrempunkt ist durch weniger als 2 (allg. n) Nichtnullelemente charakterisiert zu diesem Extrempunkt kann man die Basen {1,3} und {2,3} wählen Basiswechsel würde den Extrempunkt nicht ändern Bei linearer Abhängigkeit der Ungleichungen schneiden mehr als n Hyperebenen in einem Punkt: dies führt zu Schwierigkeiten (entarteter/degenerierter Extrempunkt/Eckpunkt) Peter Buchholz
36 Im Beispiel ist x = (0, 0, 2, 3, 12) ein zulässiger Eckpunkt (Schlupfvariablen > 0 und x 1 = x 2 = 0 und f(x)=z = 0) wegen b0 ist der Nullpunkt zulässig (siehe Folie 35) Weitere Schritte: Austausch einer Basisvariable x i und einer Nichtbasisvariable x j x j wird Basisvariable und damit x i Nichtbasisvariable es wird ein neuer Eckpunkt berechnet dieser muss zulässig sein darf keinen schlechteren (größeren) Funktionswert liefern (beide Aspekte sind beim Austausch zu beachten) Peter Buchholz
37 Erster Schritt: Zielfunktion zeigt, dass eine Vergrößerung von x 1 und x 2 jeweils einen besseren Wert liefert Auswahl von x 2, da Koeffizient kleiner x 2 in die Basis aufnehmen (d.h. auf Wert >0 setzen) dafür eine Variable aus der Basis entfernen (auf 0 setzen) Beachtung Zulässigkeit + Güte der neuen Ecke x 1 = 0, x 3 = 0 (1) x 2 = 2; (2) 3x 2 3; (3) 3x 2 12 (zulässig) x 1 = 0, x 4 = 0 (1) x 2 2; (2) 3x 2 = 3; (3) 3x 2 12 (nicht zulässig) x 1 = 0, x 5 = 0 (1) x 2 2; (2) 3x 2 3; (3) 3x 2 = 12 (nicht zulässig) Austausch von x 2 und x 3 ist die einzige mögliche Alternative Neue Basislösung (0, 2, 0, 9, 6) mit Zielfunktionswert -10 Peter Buchholz
38 Umschreiben des Gleichungssystems: Einsetzen von x 2 = x 1 x liefert -x 1 +x 2 +x 3 = 2 -x 1 +3x 3 +x 4 = 9 5x 1-3x 3 +x 5 = 6-8x 1 +5x 3 = -10 (1 )=(1) (2 )=(2)+3(1) (3 )=(3)-3(1) (Z )=(Z)+5(1) Umgestellt und raumsparender notiert x 1 x 3 x 2 x 4 x = 2 (1 ) = = = -10 (2 ) (3 ) (Z ) Peter Buchholz
39 Neue Zielfunktion zeigt, dass nur die Vergrößerung von x 1 zu einer Verbesserung führt x 1 in die Basis aufnehmen Beachtung Zulässigkeit + Güte der neuen Ecke x 3 = 0, x 2 = 0 (1) x 1 = -2; (2) x 1-9; (3) 5x 1 6 (nicht zulässig) x 3 = 0, x 4 = 0 (1) x 1-2; (2) x 1 = -9; (3) 5x 1 6 (nicht zulässig) x 3 = 0, x 5 = 0 (1) x 1-2; (2) x 1-9; (3) 5x 1 = 6 (zulässig) x 5 verlässt die Basis Umschreiben des Gleichungssystems per Eliminationsmethode: x 3 x 5 x 2 x 4 x 1 2/5 1/5 1 = 16/5 (1 )=(1 )+(3 )/5 12/5 1/5 1 = 51/5-3/5 1/5 1 = 6/5 1/5 8/5 = -98/5 (2 )=(2 )+(3 )/5 (3 )=(3 )/5 (Z )=(Z )+(3 )8/5 Peter Buchholz
40 x = (6/5, 16/5, 0, 51/5, 0) T ist neue zulässige Basislösung Hyperebenen x 3 = x 5 = 0 Zielfunktionswert 98/5 Koeffizienten der Zielfunktion zeigen, dass keine lokale Verbesserung mehr möglich ist globales Optimum wurde gefunden Bisheriges Vorgehen muss nun noch formalisiert werden siehe nächster Abschnitt Peter Buchholz
41 10.4 Der Simplexalgorithmus Simplextableau: Standardisierte Form der Notation der Schritte des Simplexverfahrens (Unterstützung zugehöriger Programme) Ideen folgen Vorgehen im letzten Abschnitt Nun noch formalisierte Darstellung der einzelnen Schritte Darstellungsformen in der Literatur nicht eindeutig (aber ähnlich) Wir gehen aus von einem Optimierungsproblem: min (f(x)) = min (c T x) udn Ax = b, x 0, b 0 In der Regel seien die Variablen n+1,...,n+m Schlupfvariablen Die Darstellung umfasst aber auch Fälle, bei denen einige Nebenbedingungen explizit als Gleichungen vorliegen Peter Buchholz
42 Lineares Optimierungsproblem in Tableauform: x 1 x n x n+1 x n+m -b a 11 a 1n b a m1 a mn b m c 1 c n c n+1 c n+m Z Falls x n+1,... n+m Schlupfvariablen, sind die zugehörigen c i gleich 0. Reduzierte (kompakte) Form des Tableaus (hier verwendet) x 1 x n -b a 11 a 1n -b 1 -x n+1 a m1 a mn -b m -x n+m c 1 c n Z f(x) Speicherung der Variablen, die die Basis bilden. Von Schritt zu Schritt Austausch von Variablen aus erster Zeile und letzter Spalte Peter Buchholz
43 Veranschaulichung des Vorgehens am Beispiel: x 1 x 2 -b x x x f(x) Basislösung ist zulässig, falls alle b i 0 (bei Standardform immer gegeben) Entscheidung über Modifikationen, um zum Folgetableau zu gelangen: Prüfung auf Optimalität der Basislösung: optimal falls alle c i 0 Entscheidung über zu vertauschendes Basis-/Nichtbasis-Variablenpaar in Basis aufnehmen: Bestimme Spaltenindex l derart dass c l = min{c i i = 1,...n} im Beispiel l = 2 also x 2 (Sonderfall l nicht eindeutig, später) aus Basis entlassen: Bestimme Zeilenindex k derart dass b k /a kl = min{b i /a il i = 1,...,n; a il > 0} im Beispiel k = 1 also x 3 (Sonderfälle k nicht eindeutig, es existiert kein k später) k Pivotzeile und l Pivotspalte und a kl das Pivotelement Peter Buchholz
44 Austauschschritt (Eliminationsmethode) Vertauschung Pivot-Zeile/-Spalte bzgl. Benennung (im Beispiel x 2 und x 3 ) Berechnung neuer Einträge Pivotelement a kl := 1 / a kl restliche Pivotzeile a kj := a kj / a kl zugehöriges b b k := b k / a kl restliche Pivotspalte a il := -a il / a kl zugehöriges c c l := -c l / a kl restliche Elemente a ij := a ij -a il a kj / a kl restliche b b i := b i -a il b k / a kl restliche c c j := c j -c l a kj / a kl Wert der Zielfunktion Z := Z + c l b k / a kl (i = 1,...,m; i k) (j = 1,...,n; j l) Berechnungsschritte liefern neues Tableau, welches für den nächsten Schritt des Algorithmus verwendet wird, solange, bis das Optimum erreicht ist. Peter Buchholz
45 Tableau nach dem 1. Schritt x 1 x 3 -b x x x f(x) Basislösung nicht optimal, da c 1 < 0 Entscheidung über Pivotelemente l = 1 (x 1 ) und k = 3 (x 5 ) Tableau nach dem 2. Schritt x 5 x 3 -b x x x f(x) Basislösung optimal, da alle c i > 0 Resultierender Basisvektor (1.2, 3.2, 0, 10.2, 0) Zielfunktionswert 19.6 Peter Buchholz
46 Behandlung der Sonderfälle: Pivotspalte l nicht eindeutig nicht kritisch: einen der Kandidaten auswählen Pivotzeile nicht eindeutig u.u. kritisch: bei jeder Wahl wird (mindestens) ein b i = 0 im folgenden Schritt wird ein anderes b j = 0 Möglichkeit des Kreiselns besteht einfache Abhilfe: zufällige Auswahl einer Pivotzeile aus den Kandidaten Weitere Aspekte: Korrektheit Endlichkeit Aufwand Peter Buchholz 2016 Nächster Abschnitt 46
47 10.5 Allgemeines Simplexverfahren Bisher untersucht Normalform der linearen Optimierung: 1. Minimierung der Zielfunktion 2. in strukturellen Relationen 3. x 0 als Wertebereich der Variablen 4. b 0 als Grenzwert der strukturellen Relationen (falls A=(A,I)) Andere Formen in Normalform übertragbar: 1. max (f(x)) min (- f(x)) 2. a T x b -a T x -b 3. Wertebereich der Variablen x u > 0 x = x u und x 0 x 0 x = 0 x und x 0 x unbeschränkt 2 Variablen mit x = x x und x, x 0 4. mit allen diesen Änderungen b 0 nicht erzwingbar! Peter Buchholz
48 b 0 definierte auf natürlich Weise eine zulässige Basislösung (nämlich 0)! Falls dies nicht gilt, wie kommt man zur initialen Basislösung? Ausweg: Vorphase mit Simplexverfahren, welches ausgehend vom Initialtableau eine zulässige Basislösung zu ermitteln versucht worauf sich die Standardform-Phase anschließt Strategie der Vorphase Einsatz des Simplexverfahrens, das von n-hyperebenen-schnittpunkt (potenzielle Ecke) zum nächsten voranschreitet indem eine Hyperebene weggelassen und eine neue Hyperebene aufgenommen wird Strategie des Austauschs nicht Verbesserung der Zielfunktion, sondern schrittweise Verbesserung/Beseitigung schlechter Zeilen i mit b i <0 (Verbesserung b i > b i ; Beseitigung b i 0) Peter Buchholz
49 Beispiel: f ( x) c T x x x 3 1 x 1 x Ax udn 2 3 b 2 Initiales (vollständiges) Tableau zur Ausführung der Vorphase: x 1 x 2 x 3 x 4 x 5 b (1) (2) (3) (Z) Lösung nicht zulässig, da b 1 und b 2 kleiner 0 sind (b und nicht b ist hier im Tableau angegeben!!) Gute Zeile 3 und schlechte Zeilen 1 und 2 Peter Buchholz
50 Vorgehen in der Vorphase: Folge von Schritten basierend auf Vorgängertableau gute Zeilen G := {i i = 1,..., m; b i 0} schlechte Zeilen S := {i i = 1,..., m; b i < 0} Konzentration auf eine schlechte Zeile s S, solange bis diese Zeile gut wird; naheliegende Wahl s = max s {s S} Überprüfung auf Unlösbarkeit: unlösbar (zulässiger Bereich leer) falls a s1,..., a sn > 0 Aufnahme in Basis, Pivotspalte l: Vergrößerung jeder Spaltenvariablen j mit a sj < 0 den Wert von b s Auswahl von l willkürlich aus {j j = 1,...,n; a sj < 0} Entlassung aus Basis: Pivotzeile k: Konzentration auf interessierende Kandidaten, d.h. i G soll gut bleiben, liefert Beschränkung der l-variablen falls a il > 0: Wert b i /a il bestimme Zeilenindex derart, dass b k /a kl = min ig {b i /a il a il > 0} falls Menge leer wähle k = s Austauschschritt wie in der Simplex-Hauptphase (siehe Folie 44) Peter Buchholz
51 Beispiel: Auswahl Pivotspalte l = 1 und Pivotzeile k = 3 und s = 2 Tableau nach dem ersten Schritt: x 1 x 2 x 3 x 4 x 5 b 0 1/ / / / / /2-10 Kompaktes Tableau x 2 x 5 -b 1/2 3/2-3 -x x 4 1/2 1/2-2 -x 1 1/2 5/2-10 f(x) (1 ) (2 ) (3 ) (Z ) Fazit (1 )=(1)+3/2(3) (2 )=(2)+(3) (3 )=1/2(3) (Z )=(Z)+5/2(3) -b zur Berechnung verwenden (1 ) jetzt gut (Zufall, nicht angezielt) (2 ) weiter schlecht, aber besser als vorher (3 ) nach wie vor gut Peter Buchholz
52 Kann man allgemeine Aussagen treffen bzgl. i G und k? i G, i k, s k : b i = b i -a il b k / a kl b i -a il b i / a il = 0 Peter Buchholz 2016 (da b i 0, b k /a kl b i /a il ) bleibt gut!! i G, i = k: b k = b k / a kl 0 (da b k 0, a kl > 0) bleibt gut!! s und s k: i G, s = k : b s = b s -a sl b k / a kl b s (da a sl < 0, b k 0, a kl > 0) wird nicht schlechter oder besser, falls b k > 0!! b i = b i -a il b s / a sl b i (da b i 0, b s, a sl < 0, a il 0 sonst wäre i = k) bleibt gut!! s und s = k : b s = b s / a sl > 0 (da b s, a sl < 0) wird gut!! Da b k = 0 nur bei degenerierten Ecken (d.h. Schnittpunkt von mehr als n Hyperebenen, Gefahr des Kreiselns ) gilt, gibt es bei Problemen ohne degenerierte Ecken immer eine Verbesserung! 52
53 Beispiel nächster Schritt: Basislösung nicht zulässige, da Zeile 2 schlecht (Zeile 3 gut!) Entscheidung über Basis-/Nichtbasis-Variablen-Paar zum Tausch: l=1 (x 2 ) und k=3 (x 1 ) Tableau nach dem Schritt x 1 x 5 -b x x x f(x) (1 )=(1 )-(3 ) (2 )=(2 )+4(3 ) (3 )=2(3 ) (Z )=(Z )-(3 ) Basislösung ist nun zulässige Übergang in Hauptphase! Peter Buchholz
54 Beispiel erster Schritt Hauptphase: Lösung noch nicht optimal, da c 1 < 0 Entscheidung über Basis-/Nichtbasis-Variablen-Paar zum Tausch: l=1 (x 1 ) und k=2 (x 4 ) Tableau nach dem Schritt x 4 x 5 -b 1/4 7/4-5/2 -x 3 1 3/4-3/2 -x 1-1/2-1/2-1 -x 2 1/4 11/4-19/2 f(x) (1 )=(1 )-(2 )/4 (2 )=(2 )/4 (3 )=(3 )-(2 )/2 (Z )=(Z )+(2 )/4 Optimale Lösung gefunden! Vektor (1.5, 1, 2.5, 0, 0) T mit Zielfunktionswert 9.5 Peter Buchholz
55 Satz (Korrektheit des Simplexalgorithmus) Der Simplexalgorithmus ist partiell korrekt, d.h. er liefert ein korrektes Resultat falls er terminiert. Beweis: Aus der Entwicklung des Algorithmus wissen wir: Die Vorphase des Algorithmus endet entweder mit der Feststellung der Unlösbarkeit (zulässige Menge leer) oder mit einer zulässigen Basislösung (nach endlicher Schrittzahl) Die Hauptphase des Algorithmus endet entweder mit der Feststellung der Unbeschränktheit (Zielfunktion beliebig klein) oder mit einer optimalen Basislösung (nach endlicher Schrittzahl) oder endet potenziell nicht bei degenerierten Problemen Peter Buchholz
56 Satz (Endlichkeit bei nicht degenerierten Problemen) Der Simplexalgorithmus ist für nicht degenerierte Probleme endlich. Beweis: Für nicht degenerierte Probleme gilt: Die Vorphase wird in endlich vielen Schritten überwunden: In jedem Schritt wird der b-wert einer schlechten Gleichung verbessert, wenn nicht konsolidiert Damit kann keine Basislösung mehrfach besucht werden Die Hauptphase wird in endlich vielen Schritten überwunden: In jedem Schritt wird der Zielfunktionswert verbessert Damit kann keine Basislösung mehrfach besucht werden Die in der Vor- und Hauptphase besuchten Basislösungen sind alle verschieden (und es gibt nur endlich viele Schnittpunkte von n Hyperebenen) Peter Buchholz
57 Satz (Aufwand des Simplexalgorithmus) Der zeitliche Aufwand eines Schrittes des Simplexalgorithmus ist O(nm). Die Zahl der Schritte ist im schlechtesten Fall (worst case) bei nicht m n degenerierten Problemen also exponentiell in m und n. n Beweis: Je Schritt ist jeder Eintrag des (m n)-simplex-tableaus (bzw. der gewählten Datenstruktur) umzurechnen Bei nicht degenerierten Problemen werden maximal alle möglichen Basisvektoren (Schnittebenen von n Hyperebenen) besucht. Es gibt (n aus n+m) potenzielle Basisvektoren. Peter Buchholz
58 Praktische Resultate und Beobachtungen: Es existieren (sehr mühsam konstruierte) worst case -Beispiele Der Simplex-Algorithmus ist für praktische Probleme recht effizient Beobachtung: Laufzeit oft linear in n und m Einer der wenigen exponentiellen Algorithmen, der in der Praxis effizient ist Für die meisten praktischen Probleme der schnellste bekannte Algorithmus, auch wenn vom worst case -Verhalten bessere Algorithmen existieren Es existieren zahlreiche Varianten des Simplexalgorithmus: für spezielle Problemklassen (z.b. spärlich besetzte Matrizen) zur Berücksichtigung von Restriktionsgleichungen, unbeschränkter Strukturvariablen etc. Peter Buchholz
59 Betrachtung der optimalen Lösung Peter Buchholz
60 Simplextableau (erweitert) nach Berechnung des Optimums: x 1 x n x n+1 x n+m -b 11 1n m1 mn m 0 falls Lösung minimal. 1 n Z Peter Buchholz
61 10.6 Typische Anwendungsbeispiele Simplexalgorithmus ist einer der meist eingesetzten Algorithmen des Operations Research viele praktische Probleme lassen sich durch lineare Programme approximieren reale Beispiele umfassen oft sehr viele Variablen (mehrere 1000 sind keine Seltenheit) Es existieren einige typische Anwendungen mit spezieller Struktur Hier kurz vorgestellt: Produktionsplanung Transportproblem Peter Buchholz
62 Ein praxisrelevantes lineares Optimierungsproblem Unternehmen produziert mit Hilfe von m Produktionsfaktoren (R 1,..., R m ) n Produkte (P 1,..., P n ) je Einheit von Produkt P j (j = 1,...,n) sind a ij (i = 1,...,m) Einheiten von R i erforderlich von Produktionsfaktor R i sind b i (>0) Einheiten vorhanden anfallende Kosten sind Fixkosten k 0 variable Kosten k j je Einheit P j erzielbare Erlöse sind g j je Einheit P j Welche Mengen x j von P j sind zu erzeugen, um den Gewinn zu maximieren? Formalisierung: udn j1 Peter Buchholz 2016 n a ij x min j b f ( x i ( i 1,, xn) n g j k j x j j1 1,, m) und x j 0( j 1,, n) 62
63 Transportproblem: Bringe Güter möglichst kostengünstig vom Produzenten zum Konsumenten! Peter Buchholz
64 Hier einfacher Sonderfall mit einem Gut! Gut wird an n Standorten (P 1,,P n ) in den Mengen p 1,,,p n produziert an m Standorten (V 1,,V m ) in den Mengen v 1,,v m verbraucht transportiert von P i nach V j mit Kosten c ij Entscheidungsvariablen x ij Einheiten des Gutes werden von P i nach V j transportiert Nebenbedingungen und Zielfunktion: Maximal soviel ausgeben, wie produziert wird j=1,,m x ij p i Mindestens soviel liefern, wie verbraucht wird i=1,,n x ij v j Kosten j=1,,m i=1,,n x ij c ij Peter Buchholz
65 Problem lösbar, falls i=1,,n p i j=1,,m v j Falls keine Gleichheit vorliegt, Einführung eines zusätzlichen Verbrauchers m+1 mit c im+1 = 0 und v im+1 = i=1,,n p i - j=1,,m v j der verbleibende Reste aufnimmt Formales Optimierungsproblem (m wird falls nötig auf m+1 gesetzt): Peter Buchholz
66 Lineares Optimierungsproblem mit nm Variablen und n+m Ungleichungen Eigenschaften von Matrix A enthält nur Elemente 0 und 1 nur 2nm der (n+m)nm Elemente sind 1 regelmäßige Struktur mit n oder m Nichtnullelementen pro Zeile Spärlich besetzte Matrix mit nur 0/1 Elementen erlaubt eine kompakte Speicherung der Matrix A eine speicher- und zeiteffiziente Realisierung des Simplexalgorithmus spezielle Form hier nicht behandelt. Peter Buchholz
67 10.7 Dualität Beispiel zur Erläuterung der Dualität Aus den Nebenbedingungen lassen sich Schranken für f(x) ableiten Peter Buchholz
68 Verallgemeinerung des Prinzips: y 1 und y 2 sind die Faktoren für die Nebenbedingungen, damit die Koeffizienten der Zielfunktion erreicht werden muss gelten Koeffizienten müssen gleiche Vorzeichen haben (Linearkomb. von Ungleichungen!) so dass y 1, y 2 0 Optimierung der Zielfunktion erfordert möglichst kleine Werte Peter Buchholz
69 Zu jedem linearen Optimierungsproblem P existiert eine duales Problem P Offensichtlich gilt: Problem P = Problem P (das duale Problem des dualen Problems entspricht dem Ausgangsproblem) Peter Buchholz
70 Form der Dualität ausgehend von der Standardform: Primales Problem Minimierungsproblem Variable Vorzeichenbeschränkte Variable Nicht vorzeichenbeschränkte Variable Koeffizienten der Zielfunktion Koeffizientenmatrix Duales Problem Maximierungsproblem Echte Nebenbedingung Ungleichung ( bei max, bei min) Gleichung Rechte Seite der Nebenbedingungen Transponierte Koeffizientenmatrix Peter Buchholz
71 Satz (Zulässige Lösungen) Sei x eine zulässige Lösung des primalen Problems P und y eine zulässige Lösung des dualen Problems P, dann gilt f(x) g(y). Beweis: Da y zulässig, gilt A T y c bzw. c T y T A. Ferner gilt x 0 und Ax = b. Damit gilt auch f(x) = c T x y T Ax = y T b = g(y). Peter Buchholz
72 Satz (Dualitätstheorem) Wenn das primale Problem P und das duale Problem P zulässige Lösungen besitzen, so besitzen die Probleme auch optimale Lösungen und es gilt Satz und liefern folgende Schranken für den optimalen Zielfunktionswert Z*: g(y) Z* f(x) für beliebige zulässige Lösungen y des dualen Problems und x des primalen Problems. Peter Buchholz
73 Zusammenfassung der wichtigsten Resultate bzgl. der Dualität: Mögliche Fälle: 1. Zielfunktion von P unbeschränkt zulässiger Bereich von P leer 2. Zielfunktion von P unbeschränkt zulässiger Bereich von P leer 3. Zulässiger Bereich von P leer und zulässiger Bereich von P leer 4. Beide Probleme haben Lösungen und die optimalen Lösungen haben identische Zielfunktionswerte Einer dieser Fälle tritt immer auf! Peter Buchholz
74 Wenn wir das primale Problem P und das zugehörige duale Problem P mit Schlupfvariablen erweitern, so ist: x T = (x 1,, x n, x n+1,, x n+m ) der Vektor des primalen Problems, y T = (y 1,, y m, y m+1,, y n+m ) der Vektor des dualen Problems. Zulässige Lösungen x* und y* sind optimal, wenn gilt (Satz vom komplementären Schlupf) x i* y m+i* = 0 (für alle i = 1,, n) y j* x n+j* = 0 (für alle j = 1,, m) Daraus lässt sich ableiten x i* 0 i te Nebenbedingung im dualen Problem ohne Schlupf y j* 0 j te Nebenbedingung im primalen Problem ohne Schlupf _ Peter Buchholz
75 Mathematischer Zusammenhang zwischen primaler und dualer Lösung: Simplexverfahren kann in primaler und dualer Form realisiert werden Peter Buchholz
76 Interpretation der Dualität am Beispiel des Produktionsproblems: Schattenpreise (oder Knappheitskosten) beschreiben entgangene Erlöse durch fehlende Ressourcen/Faktoren Peter Buchholz
77 10.8 Sensitivitätsanalyse Oft sind die Parameter eines Problems nur geschätzt oder ändern sich über die Zeit: Erlöse oder Kosten variieren (d.h. Koeffizienten c i schwanken) Verfügbarkeit von Ressourcen ist nicht exakt vorhersehbar (d.h. Koeffizienten b j schwanken) Ressourcenverbrauch ist variabel (d.h. Koeffizienten A ij schwanken) Sensitivitätsanalyse beschäftigt sich mit der Änderung der optimalen Lösung bei variierenden Parametern Peter Buchholz
78 Formale Darstellung: Man kann zwei unterschiedliche Effekte beobachten: (1) Die Lösung bleibt qualitativ identisch (d.h. die optimale Lösung im selben Eckpunkt) und ändert sich nur quantitativ (2) Die Lösung ändert sich qualitativ (d.h. das Optimum liegt in einem neuen Eckpunkt). Sensitivitätsanalyse beschäftigt sich mit (1), während (2) durch die parametrische Analyse behandelt wird. Peter Buchholz
79 Struktur des erweiterten Simplex-Tableaus nach Berechnung des Optimums Peter Buchholz
80 x 2 Beispiel: max f(x) = max (x 1 + x 2 ) udn -x 1 + x 2 2 x 1 + 2x 2 6 2x 1 + x 2 6 x 1, x 2 0 Optimaler Punkt (2,2) Mit Z * = x 1 Peter Buchholz
81 Änderungen der Zielfunktionskoeffizienten : Welche Werte c können gewählt werden, ohne die optimale Ecke zu verlassen? x Änderung der Steigung der Isogewinn- Graden Im Beispiel: Falls die Drehung zu stark wird, ist statt (2,2) einer der Punkte (2/3,8/3) oder (3,0) optimal x 1 Peter Buchholz
82 Bestimmung der möglichen Änderungen: Damit x Minimalpunkt bleibt, müssen alle Koeffizienten j (1 j n Nichtbasisvariable) nichtnegativ bleiben, d.h. Zur Definition der Parameter siehe Folie 79 Peter Buchholz
83 Änderung der rechten Seite (Vektor b): x x 1 Optimale Lösung bleibt qualitativ erhalten, falls Für den optimalen Funktionswert gilt dann Parallelverschiebung der Restriktionsgraden Peter Buchholz
84 Änderung der Koeffizientenmatrix A: x Wir betrachten nur den Fall, dass sich eine Spalte der Matrix A ändert (d.h. die Gewichte eines Faktors ändern sich) Sei j Änderungsvektor der Länge m und e j Zeilenvektor (0,..,0,1,0,,0) Position j A( j ) = A + j e j (modifizierte Koeffizientenmatrix) x 1 Peter Buchholz
85 1) j Basisvariable (d.h. n+1 j n+m) Es gilt (Sherman-Morrison-Woodbury-Formel): Bisherige Basis liefert zulässige Lösung, falls dann gilt 2) j Nichtbasisvariable (d.h. 1 j n) Es gilt Sei Peter Buchholz
86 j ist eine Modifikation, für die die Basis für das Optimum unverändert bleibt, wenn Peter Buchholz
87 10.9 Stochastische lineare Programmierung Annahme: Unsicherheit wird durch Stochastik modelliert Szenario (hier zweistufig): In einer ersten Stufe müssen unter Unsicherheit Entscheidungen getroffen werden In der zweiten Stufe realisiert sich die Unsicherheit und es können Entscheidungen getroffen werden, um die gewählte Erststufenentscheidung an die aktuelle Situation anzupassen (engl. recourse) Ziel: Finde eine Lösung (Erststufen- und Zweitstufenlösung), so dass der Erwartungswert der Zielfunktion minimiert/maximiert wird! Peter Buchholz
88 Formale Darstellung: x ist der Vektor der Erststufenvariablen (Länge n) c ist der Vektor der Zielfunktionskoeffizienten der 1. Stufe A, b definieren Nebenbedingungen für die Erststufenvariablen (Dimension m x n bzw. m) Q(x,) ist der Wert der zweiten Stufe, = (q, T, W, h) ist eine Zufallsvektor das Zweitstufenproblem lautet y ist der Vektor der Zweitstufenvariablen (Länge s) q der Vektor Zielfunktionskoeffizienten der 2. Stufe T, W und h definieren den zulässigen Bereich für die Zweitstufenvariablen (Dimensionen r x n, r x s, r) Peter Buchholz
89 Falls es nur endlich viele Szenarien k = (q k, T k, W k, h k ) (k=1,..,k, p k Wahrscheinlichkeit Szenario k) gibt, so gilt Eingesetzt ergibt sich folgendes lineare Optimierungsproblem mit n + k s k Variablen (s k Anzahl Variablen in Szenario k) Spezielle Struktur ermöglicht effiziente Lösung, aber Komplexität steigt mit Zahl der Szenarien Lösung ist optimal und liefert Werte für die Erststufenvariablen und die Zweitstufenvariablen nach Szenarienrealisierung Peter Buchholz
90 In den meisten Fällen ist die Anzahl der Szenarien unendlich (oft überabzählbar) und von Z U-[0,1]-verteilten ZVs abhängig Übergang von der exakten Optimierung zur Approximation bzw. Schätzung des Optimums Vorgehen: Generiere K Szenarien und löse das Problem sei (x *, y * 1,,y * K) die optimale Lösung Wähle x* als Erststufenentscheidung Nach Realisierung des Zufalls entsteht Szenario K+1, bestimme Peter Buchholz
91 Mögliche Probleme bei der Lösung der zweiten Stufe: 1. Für mögliche Szenarien ist das Problem unbeschränkt dies deutet auf einen Spezifikationsfehler hin! 2. Für mögliche Szenarien ist das Problem unlösbar diese Situation kann u.u. toleriert werden, wenn entsprechende Szenarien mit sehr kleiner Wahrscheinlichkeit auftreten. Formale Behandlung solcher Fälle ist schwierig, da ein Zielfunktionswert zu einem unendlichen Erwartungswert führt Peter Buchholz
92 Auswahl von Szenarien: 1. Auswahl repräsentativer Szenarien durch Anwender 2. Systematische Auswahl der Werte der definierenden Zufallsvariablen zur gleichmäßigen Abdeckung des Wertebereichs (bei wenigen definierenden Zufallsvariablen) 3. Monte Carlo Methode, d.h. zufällige Generierung von Szenarien mit Hilfe von Zufallszahlen Güte der ermittelten Lösung kann durch statistische Verfahren bewertet werden (z.b. Konfidenzintervalle) Peter Buchholz
93 10.10 Weitere Aspekte der linearen Optimierung Zahlreiche Erweiterungen und Spezialisierungen des Simplexalgorithmus existieren: Revidierte Simplexmethode für große Probleme Speicherung von B -1 und Berechnung der Größen aus der Matrix, dadurch speichereffizient, laufzeiteffizient falls A spärlich besetzt Dekompositionsverfahren für Matrizen mit spezieller Struktur, z.b. Peter Buchholz
94 Probleme mit mehrfacher Zielsetzung: min f(x)=cx udn Ax = b, x 0 Meistens existiert kein Optimum x*, so dass f i (x*) minimal für alle i Lösungsansätze 1. Ziele nach Wichtigkeit ordnen: Bestimme X 1 optimale Lösungsmenge für Ziel 1, bestimme X 2 optimale Lösungsmenge für Ziel 2 mit zulässigem Bereich X 1, 2. Zielgewichtung mit Parametern i, so dass c = i C i 3. Dominantes Ziel optimieren (C i ) T x mit zusätzlichen Nebenbedingungen (C j ) T x a j für j i 4. Pareto-Optimierung, Goal-Programming führen aus der linearen Optimierung heraus Peter Buchholz
95 Algorithmen mit polynomieller worst case Komplexität existieren, sind aber in der Praxis i.d.r. nicht effizienter als Simplexmethode. Idee der Ellipsoid-Methode für max b T u udn A T u c: 1.Starte mit zulässiger Lösung u 0 und setze r=0, - = b T u r, + = ; 2.Setze r=r+1 und wähle + > r > - 3.Falls M r = Ø setze + = r, sonst wähle u M r und setze - = b T u Fahre bei 2. fort bis + - Verfahren benutzt verschiedene Erweiterungen und Optimierungen Basisschritte feststellen ob M r leer sonst Bestimmung eines Elements aus M r. Peter Buchholz
96 Warum sollte man auf verfügbare Implementierung des Simplex-Algorithmus zurückgreifen und nicht selber programmieren?? Die Antwort auf den folgenden Folien von Bob Bixby Peter Buchholz
6. Lineare Optimierung. ij j i j ( ) Andere Darstellungen lassen sich in Normalform transformieren (später mehr dazu)
6. Lineare Optimierung Im Kontext der Optimierungsmodelle: Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen Lösungsraum Unterraum des R n Problem der linearen Optimierung Minimiere f(
Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme
Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter
1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)
. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)
Eigenschaften von LPs
2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört
Teil I. Lineare Optimierung
Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung
Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung
Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen Kapitel IV: Grundlagen der Linearen Optimierung Inhaltsverzeichnis Abschnitt 3-5 3 Der Simplexalgorithmus 58 3.1 Grundlagen..............................
4.3.3 Simplexiteration
7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige
Kombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind
Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)
Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen
be/ji/3(2) 2-1 2 im Kontext der OR-Optimierungsmodelle Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen Standardform: - Planungsziel min bzw. min Z(x) = c 1 x 1 + c 2 x 2 + + c n x n Z(x)
Lineare Optimierung: Simplexverfahren Phase Ⅰ
Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren
Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)
Minimumproblem Definition 4.7 Ein LP der Form nx Minimiere Z = c j x j j=1 unter den Nebenbedingungen nx d ij x j b i (i =1,...,m) j=1 und den Vorzeichenbedingungen x j 0(j =1,...,n) heißt Minimumproblem.
Lösung allgemeiner linearer Programme
Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt
Dualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen
10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie
Optimierung. Vorlesung 02
Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j
1 Der Simplex Algorithmus I
1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier
mit. Wir definieren (Skalarprodukt = Winkel).
1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert
Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:
Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten
Die duale Simplexmethode
Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen
Optimale Steuerung 1 Prozessoptimierung 1
Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung
6 Korrektheit des Simplexalgorithmus
6 Korrektheit des Simplexalgorithmus Folgerung: Es sei L: Ax = b, c T x max LP und A B nicht-degenerierte PZB von L und es gebe c r := c r c B A B A r > 0 a) Falls a r := A B a r 0, dann L unbeschränkt
VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max
Lineare Optimierung Teil 2
Lineare Optimierung Teil 2 Primale Degeneration Duale Degeneration = Mehrdeutigkeit Normalform kanonische Form Duale Simplexmethode HTW-Berlin FB3 Prof. Dr.F. Hartl 1 Primale Degeneration/1 Besitzt eine
Lineare Programmierung Teil I
Seminar über Algorithmen Prof. Dr. Helmut Alt Lineare Programmierung Teil I Lena Schlipf, Benjamin Jankovic Lena Schlipf, Benjamin Jankovic Seminar über Algorithmen SS05 1 Struktur des Vortrags 1. Was
Optimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn
Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,
1 Lineare Optimierung, Simplex-Verfahren
1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und
Hauptsatz und Optimalitätskriterium der Simplexmethode
Kapitel 4 Hauptsatz und Optimalitätskriterium der Simplexmethode In diesem Abschnitt wird das wichtigste Verfahren zur Lösung linearer Optimierungsprobleme eingeführt die Simplexmethode Es existiere für
Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006
Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden
Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung
Operations Research Rainer Schrader Die Simplexmethode Zentrum für Angewandte Informatik Köln 18 Juni 00 1 / 1 / 1 Gliederung LP-Dualität ein lineares Produktionsmodell der Simplexalgorithmus Phase I Endlichkeit
Kap. 4: Lineare Programmierung
Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.
Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.
Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme
Kap. 4.3: Das Dualitätstheorem der linearen Optimierung
Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur
Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b
Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung
Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005
Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung
3.2.5 Dualität der linearen Optimierung I
3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem
1. Transport- und Zuordnungsprobleme
1. Transport- und Zuordnungsprobleme Themen 1. Transport- und Zuordnungsprobleme Themen: Analyse der Problemstruktur Spezielle Varianten des Simplexalgorithmus für Transport- und Zuordnungsprobleme Bezug
Übung 3, Simplex-Algorithmus
Übung 3, 21.6.2011 Simplex-Algorithmus Aufgabe 3.1 Lösen Sie das folgende Optimierungsproblem (von Aufgabe 2.3) graphisch. Substituieren Sie dazu z = 5 y um ein 2-dimensionales Problem zu erhalten. Rechnung
Über- und unterbestimmte
Über- und unterbestimmte Systeme (verallgemeinerte Lösungen) Über- und unterbestimmte Systeme Ax = b ist genau dann für alle b R m eindeutig lösbar, wenn m = n und rk A = n. Falls m n oder rk A < min{m,
Lineare Optimierungsmodelle
Lineare Optimierungsmodelle Simplex-Methode Vortragender: Michael Schneider Agenda Motivation Operations Research Aufbau linearer Optimierungsmodelle Simplex-Methode Ausblick 2 Problemstellung Futtermischung
9 Lineare Gleichungssysteme
9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der
Zugeordneter bipartiter Graph
Zugeordneter bipartiter Graph Für ein Transportproblem sei A = {A 1,...,A m } die Menge der Fabriken und B = {B 1,...,B n } sei die Menge der Warenhäuser. Wir ordnen nun einem Transportproblem einen bipartiten
Optimierung. Vorlesung 08
Optimierung Vorlesung 08 Heute Dualität Ganzzahligkeit Optimierung der Vorlesung durch Evaluierung 2 Das duale LP Das primale LP Maximiere c T x unter Ax b, x R d 0. wird zu dem dualen LP Minimiere b T
Lineare Optimierung Dantzig 1947
Lineare Optimierung Dantzig 947 Lineare Optimierungs-Aufgaben lassen sich mit Maple direkt lösen: with(simplex): g:= 4*x + x2
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden
1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1
1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme Duales Problem Lemma 1.4. Das zum Transportproblem duale Problem lautet: max unter den Nebenbedingungen m a i u i + i=1
Aufgaben zu Kapitel 23
Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Verständnisfragen Aufgabe 23 Bestimmen Sie grafisch die optimale Lösung x der Zielfunktion z = c T x unter den Nebenbedingungen mit dem Zielfunktionsvektor
Der Simplex-Algorithmus
5 Lineare Programmierung Simplex-Algorithmus Der Simplex-Algorithmus Standardverfahren zur Lösung von LPs, von G B Dantzig entwickelt Grundidee: Versuche ausgehend von einer Startecke mit einer Ausgangsbasis
2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
Optimierung. Vorlesung 04
Optimierung Vorlesung 04 Übungsbetrieb Mangels Teilnehmer keine Dienstagsübung mehr. Prüfung laut Paul: Di, 10. Feb. 2015 00:01-23:59 2 Was bisher geschah LP: Maximiere c T x unter Ax = b, x 0. Basis:
Klausurrepetitorium ABWL
Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches
10.2 Linearkombinationen
147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition
Kap. 4.2: Simplex- Algorithmus
Kap. 4.2: Simplex- Algorithmus Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 14.-17. VO A&D WS 08/09 2.12.-16.12.2008 Petra Mutzel Alg. & Dat.
, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.
154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =
Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung
8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen
Lineares Optimieren. W. Kippels 12. April Inhaltsverzeichnis. 1 Einleitung 2. 2 Die Beispielaufgabe 2. 3 Einführung von Schlupfvariablen 2
Lineares Optimieren W. Kippels 1. April 015 Inhaltsverzeichnis 1 Einleitung Die Beispielaufgabe Einführung von Schlupfvariablen 4 Die Simplex-Methode 5 Das Basis-Austauschverfahren 4 6 Fortsetzung der
Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester
7.1 Matrizen und Vektore
7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit
Mitschrift der Vorlesung: Kombinatorische Optimierung
Mitschrift der Vorlesung: Kombinatorische Optimierung bei Prof. Socher-Ambrosius Niels-Peter de Witt 26. April 2002 Inhaltsverzeichnis 1 Einführung 2 1.1 Beispiel: Profil zersägen.......................
10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G
48 0 Operations Research In der Standardform eines Maximierungsproblem: Max ( w) mit ( w) + u. d. N. z + x l + n ( a gj + j= g G e E n d j x j = z 0 j= n a l j x j = b l für alle l L j= x g n + a gj x
Probeklausur Optimierung
Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften Dr. Nico Düvelmeyer Hamburg, 4. Juli 2011 Probeklausur Optimierung Bitte selber ausfüllen: Name: (darf anonymisiert werden)
Aufgabe 5.3 Duale Simplexverfahren
Aufgabe 5.3 Knut Krause Thomas Siwczyk Stefan Tittel Technische Universität Dortmund Fakultät für Informatik Algorithmen und Datenstrukturen 15. Januar 2009 Gliederung 1 Aufgabenstellung und Motivation
z = c T x : Ax = b, x 0 }, - die Darstellung der Nichtbasisvektoren durch die Basis ist
Kapitel 5 Die Simplexmethode Es werden folgende Bezeichnungen verwendet: - das untersuchte Problem ist min x R n { z = c T x : Ax = b, x 0 }, - die erste zulässige Basislösung sei x = x 1, x 2,, x m, 0,,
Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner
Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare
8. Lineare Optimierung
8. Lineare Optimierung 1 Einführung (1) Praktische Probleme sind oft Probleme mit Nebenbedingungen, z.b.: Ein Produktionsprozess hängt von Lieferterminen ab Die Menge der verstaubaren Güter ist durch die
3 Systeme linearer Gleichungen
3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +
Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.
Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen
KAPITEL 3. Konvexe Funktionen
KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn
37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
Innere-Punkt-Methoden
Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction
Grundlagen der Optimierung. Übung 6
Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren
CARL HANSER VERLAG. Peter Stingl. Operations Research Linearoptimierung
ARL HANSER VERLAG Peter Stingl Operations Research Linearoptimierung -446-228-6 wwwhanserde 2 Lineare Optimierungsprobleme x 2 6 P P sentartete Ecke ( 4) x +x 2 5 PPPPPPPPPPPPPPP X x + x 2 7 2x +x 2 8
Lineare Optimierung und Simplex-Algorithmus
Lineare Optimierung und Simplex-Algorithmus Problemstellung Beispiel : Unser Unternehmen verfügt über drei Maschinen A, B, C, mit denen zwei verschiedene Produkte P, P2 hergestellt werden. Die Maschinen
Wirtschaftsmathematik für International Management (BA)
Wirtschaftsmathematik für International Management (BA) Wintersemester 2012/13 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Lineare Algebra 4 Lineare Programme 5 Folgen und Reihen 6
05. Lineare Gleichungssysteme
05 Lineare Gleichungssysteme Wir betrachten ein System von m Gleichungen in n Unbestimmten (Unbekannten) x 1,, x n von der Form a 11 x 1 + a 12 x 2 + a 13 x 3 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + a
Vorlesung Lineare Optimierung (Sommersemester 2010)
1 Vorlesung Lineare Optimierung (Sommersemester 2010) Kapitel 6: Die Geometrie der Linearen Optimierung Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 15. Juni 2010) Gliederung 2 Das
Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018
(Analysis und lineare Algebra) im Sommersemester 2018 15. April 2018 1/46 Die Dimension eines Vektorraums Satz 2.27 (Basisergänzungssatz) Sei V ein Vektorraum über einem Körper K. Weiter seien v 1,...,
Angewandte Mathematik für die Informatik
Angewandte Mathematik für die Informatik PD Dr. Louchka Popova-Zeugmann PD Dr. Wolfgang Kössler 17. Mai 2017 1 Lineare Optimierung Allgemeine LOA Ganzzahlige Optimierung Differentialgleichungen Differentialgleichungen
3.1. Existenzsatz und Struktur der Lösungsmenge
3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall
Wir gewichten die Kanten von G wie folgt: Kante e 1 e 2 e 3 e 4 e 5 e 6 e 7 e 8 d(e i )
Prof. Dr. U. Faigle J. Voss SS 2011 12. Übung zur Einführung in die Mathematik des Operations Research Dieses Übungsblatt wird nicht mehr gewertet. Aufgabe 1: Sei G = (V, E) ein gerichteter Graph und x
Optimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung
Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme
Kapitel 11 Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Wir betrachten folgendes Optimierungsproblem z = c T x min! Ax = b (11.1) (11.2) x j ganz für j = 1,..., n 1 n, (11.3)
Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber
Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Sitzplatznr.: Wiederholungsklausur zur Vorlesung Operations Research im Wintersemester
Einführung in die Lineare Programmierung
Einführung in die Lineare Programmierung Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 RWTH Aachen 28. Mai 2008 Elementares Beispiel Die kanonische Form Die algebraische Gleichungsform Gegeben seien
