Optimierung. Nürnberg, Oktober 2015

Größe: px
Ab Seite anzeigen:

Download "Optimierung. Nürnberg, Oktober 2015"

Transkript

1 1 Optimierung Nürnberg, Oktober 2015 Prof. Dr. Yvonne Stry Technische Hochschule Nürnberg Fakultät Angewandte Mathematik, Physik und Allgemeinwissenschaften Keßlerplatz Nürnberg Germany

2

3 1 Beispiel einer Gewinnmaximierung: Wir betrachten einen Weinproduzenten, der über 100 ha Rebfläche und eine Kapazität von Arbeitsstunden (AS) pro Jahr verfügt. Der Winzer hat die Option, zwei Rotweine herzustellen: einen teuren Barrique-Wein und eine billigere Cuvee, von denen er jeweils maximal 50 bzw. 160 Fässer verkaufen kann. Der Produktionsaufwand pro Fass beträgt: für den Barrique: 1 ha Rebfläche und 20 AS/Jahr, für die Cuvee: 0,5 ha Rebfläche und 5 AS/Jahr. Der Verkauf eines Barrique-Fasses bringt einen Gewinn von 5.000e, während am Cuvee-Fass e zu verdienen sind. Der Önologe will nun wissen, wie viele Fässer er von der jeweiligen Sorte absetzen muss, um seinen Gewinn zu maximieren. Lineares Programm: Entscheidungsvariablen sind x 1 Anzahl der produzierten Fässer von Barrique und x 2 Anzahl der produzierten Fässer vom Cuvee Graphische Lösung: max 5.000x x 2 x IR 2 : x 1 50 x x 1 +0,5x x 1 + 5x x 1 0, x 2 0. x 2 f = x 1 = f = x 2 = 160 (30,140) x 1 = Polyeder der zulässigen Lösungen (5.000,1.500) Parallelverschiebung Rebfläche Arbeit x 2 = 0 x 1

4 2 Beispiel zur Minimierung einer Zielfunktion: Die DACH-Bank, präsent in den Ländern Deutschland, Austria und der Schweiz (Confoederatio Helvetica), möchte in ihren Nostro-Bestand zwei neue Staatsanleihen aus Griechenland (G) und Portugal (P) aufnehmen. Die bankinternen Investmentabteilungen der drei Ländern schätzen jeweils die Ertragskraft der Anleihen unterschiedlich ein und fordern daher am Ende des Investitionszeitraums auch unterschiedliche Mindestertragsvolumina. Die länderspezifischen Prognosen können der nachfolgenden Tabelle entnommen werden: Land Ertrag G Ertrag P Mindestvolumen D e A e CH e Die Analysten der Bank schätzen die Ausfallwahrscheinlichkeit dieser Anleihen (Bonitätsrisiko) für Griechenland auf 5%, für Portugal auf 3%. Der Finanzvorstand der Bank möchte nun unter Einhaltung der Vorgaben aus allen drei Ländern so investieren, dass das Ausfallrisiko möglichst gering ausfällt. Lineares Programm: Entscheidungsvariablen sind x 1 Investitionsvolumen (in Mio e) für die die griechische Anleihe und x 2 für das portugiesische Wertpapier Graphische Lösung: min 0,05x 1 +0,03x 2 x IR 2 : x 1 +3x 2 9 x 1 + x 2 6 2x 1 + x 2 8 x 1 0, x 2 0 x x 1 = 0 f=0,45 unbeschränktes Polyeder der zulässigen Lösungen 4 D (2,4) (0,05;0,03) 2 Parallelverschiebung 0 f=0,22 A CH x 2 = 0 x 1 10

5 3 Eine konvexe Menge ist dadurch gekennzeichnet, dass für je zwei Punkte aus dieser Menge auch die Verbindungsstrecke zwischen diesen beiden Punkten vollständig zu dieser Menge gehört. Allgemein ist ein Polyeder ein räumlicher Körper mit Ecken, Kanten und Seitenflächen, der an keiner Stelle irgendwelche Rundungen aufweist. Im Zweidimensionalen ist ein Polyeder ein Vieleck endlicher Ausdehnung mit Ecken, Kanten und einem Inneren. Ein Polyeder heißt konvex, wenn es keine Löcher und einspringende Ecken hat, d.h. wenn es eine konvexe Menge ist. Wir bezeichnen jetzt die Menge der zulässigen Lösungen eines linearen Programms mit P. Es gilt allgemein: P ist stets abgeschlossen und konvex. Ist P zusätzlich noch beschränkt, dann ist P ein konvexes Polyeder und es gibt mindestens eine Optimallösung. Falls P nicht beschränkt ist, dann ist P in eine Richtung offen in der anderen polyeder-ähnlich. Es gibt dann mindestens eine Optimallösung oder keine Optimallösung. Die Niveaulinien der Zielfunktion sind im IR 2 Geraden und im IR 3 Ebenen. Niveaulinien zu verschiedenen Zielfunktionswerten verlaufen zueinander parallel. Optimale Lösungen liegen, falls vorhanden, am Rande des Polyeders oder des polyeder-ähnlichen Bereichs, und zwar in einer Ecke (es existiert genau eine optimale Lösung) oder zwischen optimalen Ecken (es existieren unendlich viele optimale Lösungen). Im Fall einer eindeutigen Lösung haben alle der optimalen Lösung benachbarten Ecken einen niedrigeren Zielfunktionswert.

6 4 Ein standardisiertes lineares Programm, kurz (SLP) genannt, hat die Form max x n x IR n : A x = b x i 0 für alle i n. Dabei ist A eine reelle m n-matrix mit m n, welche die m m- Einheitsmatrix I enthält. Für b IR m muss b 0 gelten. Die Bedingungen x i 0 werden Nichtnegativitätsbedingungen oder Vorzeichenbeschränkungen genannt. Ein SLP besteht, abgesehen von den Nichtnegativitätsbedingungen, also nur aus Gleichungen. Gleichungen erhält man durch die Einführung von Schlupfvariablen. Hat man nach Einführung der Schlupfvariablen nun insgesamt n 1 Variablen, so führt man für die Zielfunktion f( x) die (nicht vorzeichenbeschränkte!) Variable x n ein, d.h. man setzt f( x) =: x n und fügt das Äquivalent f( x)+x n = 0 als letzte Gleichung hinzu.

7 5 Im zum SLP gehörenden Gleichungssystem tritt in jeder Gleichung eine Variable mit dem Koeffizienten 1 auf, die in den anderen Gleichungen nicht vorkommt. Man nennt diese Variablen Basisvariablen (BV). Diese bilden die so genannte Basis. Die anderen Variablen heißen Nichtbasisvariablen (NBV) und bilden die so genannte Nichtbasis. Die Austauschregel des Simplexverfahrens besteht aus drei Schritten: Wähle in der letzten Zeile das Minimum über alle negativen Werte, die in zu NBV gehörenden Spalten stehen. Die durch diese Wahl festgelegte Spalte heißt Pivotspalte. Die Pivotspalte bestimmt die NBV, die in die Basis aufgenommen wird. Nun werden nur die Zeilen betrachtet, die in der Pivotspalte positive Koeffzienten haben. Für diese Zeilen bildet man die Quotienten aus der rechten Seite der jeweiligen Zeile und dem entsprechenden (positiven) Koeffizienten aus der Pivotspalte. Durch das Minimum dieser Quotienten wird die so genannte Pivotzeile bestimmt. Die mit der Pivotzzeile korrespondierende Variable wird aus der Basis entfernt. An deren Stelle wird die zur Pivotspalte gehörende Variable in die Basis aufgenommen. Falls in der letzten Zeile in den zu den NBV gehörenden Spalten keine negativen Werte zu finden sind, so ist die aktuelle Basis optimal. Die optimalen Werte der BV können auf der rechten Seite des Schemas abgelesen werden. Die Werte der NBV sind stets Null.

8 6 max x n x IR n : A x = b x i 0 für alle i n. Die letzten m Spalten der (m,n)-matrix A (m n) entsprechen dann der Einheitsmatrix I m. Der Vektor b besteht nur aus nichtnegativen Komponenten. BV x 1 x 2 x 3 x 4 x 5 x 6 x 7 b MIN x 4 a 11 a 12 a b 1 x 5 a 21 a 22 a b 2 x 6 a 31 a 32 a b 3 x 7 c 1 c 2 c

9 7 Die folgenden Schritte sind zur Lösung eines linearen Programmes nötig: a) Bringe das Problem in die Form des Starttableaus mit b 0. b) Prüfe, ob in der letzten Zeile alle zu den NBV gehörenden Spalten nichtnegative Werte enthalten, d.h. ob gilt c k 0 für alle k mit x k ist NBV. Falls ja: STOPP, die aktuelle Basis ist optimal. Die optimalen Werte der BV können auf der rechten Seite des Schemas abgelesen werden. Die Werte aller NBV sind Null. c) Andernfalls bestimme das Minimum aller in Frage kommenden negativen c k -Werte, etwa c t = min{c k c k < 0 für alle k mit x k ist NBV}. Tritt das Minimum in der t-ten Spalte auf, so ist diese die Pivotspalte und die NBV x t ist in die neue Basis aufzunehmen. d) Über dem Wert c t stehen in der Pivotspalte die Werte a it (hier a 1t,a 2t,a 3t ). Prüfe, ob keiner dieser Werte positiv ist, etwa a it 0 für alle i = 1,...,m 1. Falls ja: STOPP, das lineare Programm besitzt keine Optimallösung. e) Andernfalls bilde für alle Zeilen mit positiven a it -Werten den Quotienten aus der rechten Seite der jeweiligen Zeile und dem a it -Wert. Ermittle dann das Minimum dieser Quotienten, etwa b s a st = min{ b i a it a it > 0, 1 i m 1}. Tritt das Minimum in der s-ten Zeile auf, so ist diese die Pivotzeile. Die zur Pivotzeile gehörende BV (d.h. die an s-ter Stelle in der Basis stehende BV), wird aus der Basis eliminiert. f) Führe den Basistausch durch: x t kommt an s-ter Stelle (=Pivotzeile) in die neue Basis. Die an dieser Stelle stehende BV wird eliminiert. Bestimme das neue Simplextableau, d.h. erzeuge mittels elementarer Umformungen aus der Pivotspalte die s-te Einheitsspalte (die 1 steht in der Pivotzeile). Gehe dann zu Schritt b).

10 8 Ausgehend vom dualen Starttableau BV x 1 x 2... x i... x n+m+1 b x n+1 a 11 a a 1i... a 1(n+m+1) b 1 x n+2 a 21 a a 2i... a 2(n+m+1) b x a s1 a s2... a si... a s(n+m+1) b s x m 1 a 31 a a (m 1)i... a (m 1)(n+m+1) b m 1 x m c 1 c 2... c i formulieren wir jetzt die duale Simplexmethode kompakt: Die folgenden Schritte sind zur Lösung eines linearen Programmes nötig: a) Bringe das Problem in die duale Standardform, d.h. die letzte Zeile (m-te Zeile) enthält keine negativen Koeffizienten: c i 0 ( Optimalität und duale Zulässigkeit ). b) Prüfe, ob die Basislösung primal zulässig ist, d.h. ob gilt b j 0 für alle j = 1,...,m 1. Falls ja: STOPP, die aktuelle Lösung ist primal (und dual) zulässig und damit optimal. c) Andernfalls bestimme das Minimum aller in Frage kommenden negativen b j -Werte, etwa b s = min{b j b j < 0 für alle j = 1,...,m 1}. Tritt das Minimum in der s-ten Zeile auf, so ist diese die Pivotzeile und die an dieser Stelle stehende BV x wird aus der Basis eliminiert. d) Neben dem Wert b s stehen in der Pivotzeile die Werte a si (hier a s1,a s2,...,a s(n+m+1) ). Prüfe, ob in den NBV-Spalten keiner dieser Werte negativ ist, etwa a si 0 für alle i mit x i ist NBV. Falls ja: STOPP, das primale Problem besitzt keine Optimallösung. e) Andernfalls bilde für alle NBV-Spalten mit negativena si -Werten den Quotienten aus dem jeweiligen c i -Wert der letzten Zeile und dem a si -Wert. Ermittle dann das Maximum dieser Quotienten, etwa c t a st = max{ c i a si a si < 0 für i mit x i ist NBV}. Tritt das Maximum in der t-ten Spalte auf, so ist diese die Pivotspalte und die NBV x t ist in die neue Basis aufzunehmen.

11 f) Führe den Basistausch durch: x t kommt an s-ter Stelle (=Pivotzeile) in die neue Basis. Die an dieser Stelle stehende BV wird eliminiert. Bestimme das neue Simplextableau, d.h. erzeuge mittels elementarer Umformungen aus der Pivotspalte die s-te Einheitsspalte (die 1 steht in der Pivotzeile). Gehe dann zu Schritt b). 9

12 10 Übung: Produktionsplanung Ein Unternehmen stellt zwei Produkte (P1 und P2) her, die mit einem Gewinn von 10 Euro bzw. 20 Euro pro Mengeneinheit verkauft werden. Zur Herstellung sind eine Maschine, ein Rohstoff und Arbeitskräfte erforderlich: Für die Herstellung einer Mengeneinheit von P1 benötigt man 1 Stunde Maschinenzeit, für P2 ebenfalls. Insgesamt stehen 100 Stunden zur Verfügung. Für die Herstellung einer Mengeneinheit von P1 benötigt man 6 Mengeneinheiten Rohstoff, für P2 9 Mengeneinheiten. Insgesamt stehen 720 Mengeneinheiten Rohstoff zur Verfügung. Für die Herstellung einer Mengeneinheit von P1 benötigt man 0 Stunden Arbeitskräfte, für P2 benötig man 1 Stunde Arbeitskräfte. Insgesamt stehen Arbeitskräfte für 60 Stunden zur Verfügung. Das Unternehmen will den Gewinn maximieren. Lösen Sie das Problem graphisch. Führen Sie Schlupfvariablen ein und führen Sie den Simplex-Algorithmus durch. Übung: Dualer Simplex-Algorithmus Maximieren Sie 8x 1 9x 2 unter den Nebenbedingungen x 1 + 3x 2 6, 2x 1 + x 2 4, sowie x 1,x 2 0. Es ist das duale Simplex-Verfahren anzuwenden (zuerst Schlupfvariablen einführen). Übung: M-Methode, Strafterme Maximieren Sie x 1 x 2 3x 3 unter den Nebenbedingungen x 1 + x 2 10, x 1 x 3 12, x 1 x 2 x 3 8, 2x 1 x 2 + x 3 2 sowie x 1,...,x 4 0. Es ist die M-Methode anzuwenden (zuerst Schlupfvariablen einführen, dann künstliche Variablen und Strafterme). Übung: M-Methode, Strafterme oder dualer Simplex-Algorithmus Sie können die M-Methode bzw. den dualen Simplex-Allgorithmus auch auf das Beispiel der DACH-Bank anwenden.

13 11 Übung: Optimaltableau Wir maximieren 30x x 2 unter den Nebenbedingungen x 1 +x 2 10, 5x 1 + 2x 2 30, x 2 9, sowie x 1,x 2 0. a) Geben Sie das Ausgangstableau für den Simplex-Algorithmus an. b) Sie erhalten beim Simplexverfahren das Tableau BV x 1 x 2 x 3 x 4 x 5 x 6 b x 3 0 3/5 1 1/ x 1 1 2/5 0 1/ x x Welche Werte nehmen die Variablen x 1,...,x 6 an? Welchen Wert nimmt die Zielfunktion an? Liegt das Optimaltableau vor? c) Sie erhalten beim Simplexverfahren das Tableau BV x 1 x 2 x 3 x 4 x 5 x 6 b x /3 1/ /3 x /3 1/ /3 x /3 1/ /3 x /3 5/ /3 Welche Werte nehmen die Variablen x 1,...,x 6 an? Welchen Wert nimmt die Zielfunktion an? Liegt das Optimaltableau vor? Übung: Optimaltableau Ein Maximierungsproblem in den Variablen x 1,x 2 mit 3 Restriktionen und Vorzeichenbedingungen liefert beim Simplexverfahren das Tableau BV x 1 x 2 x 3 x 4 x 5 x 6 b x /2 1/ x /8 3/ /2 x /8 9/ /2 x Welche Werte nehmen die Variablen x 1,...,x 6 an? Welchen Wert nimmt die Zielfunktion an? Liegt das Optimaltableau vor? Können Sie eine Optimallösung angeben? Gibt es weitere Optimallösungen? Wenn ja, wie lassen sich diese berechnen?

14 12 Übung: Graphische Lösung Das lineare Optimierungsproblem (P) max 2x 1 +x 2 (x 1,x 2 ) IR 2 : x 1 +3x 2 3 2x 1 x 2 4 x 1,x 2 0 ist graphisch lösbar. Fertigen Sie eine Skizze an (x 1 -Achse und x 2 -Achse jeweils von 0 bis 4). Welche der folgenden Alternativen sind richtig? Für das Problem (P) ist richtig: A: Die Menge der zulässigen Lösungen ist leer. B: Die Menge der zulässigen Lösungen ist beschränkt. C: Die Menge der zulässigen Lösungen ist unbeschränkt. D: Die Optimallösung ist x = (3,3) T. E: Die Optimallösung ist x = (3,2) T. F: Es gibt unendlich viele Optimallösungen. G: Wird zu (P) die Restriktion 2x 1 + x 2 6 hinzugefügt, so ändert sich die Optimallösung nicht. H: Wird zu (P) die Restriktion 2x 1 + x 2 6 hinzugefügt, so ist Optimallösung x = (3,0) T. I: Wird zu (P) die Restriktion 2x 1 + x 2 6 hinzugefügt, so gibt es unendlich viele Optimallösungen.

15 13 Übung: Interpretation des Endtableaus des Simplexverfahrens Zwei Produkte P 1 und P 2 sind auf drei Märkten M 1, M 2 und M 3 in den Mengen x 1 und x 2 absetzbar. Aufgrund strategischer Überlegungen des Unternehmens ergeben sich für die jeweiligen Absatzmärkte folgende Restriktionen: M 1 : 5x 1 +2x 2 370; M 2 : x 1 +x 2 110; M 3 : x 1 +2x Maximiert werden soll der Gewinn, der durch die Funktion f(x 1,x 2 ) = 3x 1 + 5x 2 gegeben ist. Führt man für die drei Restriktion die Schlupfvariablen x 3 (für M 1 ), x 4 (für M 2 ) und x 5 (für M 3 ) ein, so erhält man folgendes Endtableau des Simplexverfahrens: BV x 1 x 2 x 3 x 4 x 5 x 6 b x /4 0-1/ x /8 1-3/8 0 0 x /8 0 5/ x /8 0 19/ Welche der folgenden Aussagen sind richtig? Richtig sind folgende Aussagen: A: Das Problem hat unendlich viele Optimallösungen. B: Das Problem hat eine eindeutige Optimallösung. C: Die/Eine Optimallösung für die Produktionsmengen lautet x 1 = 50, x 2 = 0. D: Die/Eine Optimallösung für die Produktionsmengen lautet x 1 = 50, x 2 = 60. E: Der Gewinn im Optimum beträgt 60 Geldeinheiten. F: Der Gewinn im Optimum beträgt 450 Geldeinheiten. G: Im Simplexverfahren gibt es eine entartete Ecke. H: Im Markt M 1 ist die Strategieschranke erreicht: 5x 1 + 2x 2 = 370. I: Im Markt M 2 ist die Strategieschranke erreicht: x 1 + x 2 = 110.

16 14 Strafterme: In der Praxis treten bei linearen Programmen als Restriktionen nicht nur Ungleichungen, sondern häufig auch Gleichungen auf. Um die Simplexmethode starten zu können, müssen auch solche Programme auf die Standardform gebracht werden. Dies geschieht durch die Einführung von Hilfsvariablen (auch künstliche Variablen genannt) und die Manipulation der Zielfunktion mit geeigneten Straftermen. M-Methode: Nicht äquivalentes Ersatzproblem min c 1 x c n x n + Mx n Mx n+m ( ) x x IR n+m : (A I m ) = x b H bzw. mit Variable für Zielfunktionswert x 0, x H 0. max x n+m+1 ( ) x IR n+m+1 A I : m 0 c 1... c n M... M 1 x x H x n+m+1 x 0, x H 0. nach elementaren Umformungen folgendes Starttableau max x n+m+1 ( ) x IR n+m+1 A I : m 0 c 1... c n x x H x n+m+1 x 0, x H 0 = ( b 0 = ( b ) )

17 15 Transformationsmöglichkeiten: a) Gibt es als Nebenbedingung eine Gleichung der Form a i1 x a in x n = b i mit b i < 0, dann multipliziere man diese Gleichung mit dem Faktor 1. b) Liegt eine Ungleichung der Form a i1 x a in x n b i mit b i < 0 vor, so führe man zuerst eine Schlupfvariable ein und multipliziere dann die so entstandene Gleichung mit dem Faktor 1. c) Eine Ungleichung der Form a i1 x a in x n b i überführt man zunächst durch Einführung einer Schlupfvariablen x n+i 0 in eine Gleichung a i1 x a in x n x n+i = b i. Auf alle in diesen drei Fällen entstandenen Gleichungen muss man dann noch die M-Methode anwenden. Weitere Transformationsmöglichkeiten: a) Tritt in einem linearen Programm eine nicht vorzeichenbeschränkte Variable x j auf, so führt die Substitution x j = y j z j mit y j 0 und z j 0 auf zwei neue vorzeichenbeschränkte Variablen y j und z j. b) Besitzt ein lineares Programm eine Restriktion der Form so substituiert man x j L j mit L j < 0, x j = x j L j und erhält als neue Restriktion die Nichtnegativitätsbedingung x j 0. In allen Restriktionen, in denen die Variable x j auftaucht, ist diese durch x j + L j zu ersetzen. Diese Substitution muss auch in der Zielfunktion durchgeführt werden.

18 16 Sensitivitätsanalyse, Basisinverse: Sind s 1,..., s n die Spalten des Starttableaus und s 1,opt,..., s n,opt die korrespondierenden Spalten des (durch das Simplexverfahren ermittelten) Optimaltableaus. Dann gilt die Gleichung s i,opt = B 1 opt s i für alle i = 1,...,n. Dabei ist B opt 1 die Basisinverse des Optimaltableaus. Diese Matrix ergibt sich aus den zur Startbasis gehörenden Spalten des Optimaltableaus.

19 17 Dualität: Primales Problem: mit x = (x 1,...,x n ) T, c = (c 1,...,c n ) T, b = (b 1,...,b m ) T und A = (a ji ) in Vektorschreibweise max c T x x IR n : A x b x 0. Duales Problem: mit y = (y 1,...,y m ) T in Vektorschreibweise min b T y y IR m : A T y c y 0. Das duale Problem wird aus einem primalen Problem mittels folgender Transformationsregeln erzeugt: Eine primale Maximierung / Minimierung wird zu einer dualen Minimierung / Maximierung. Der Lösungsvektor des dualen Problems ( y) hat die Dimension der rechten Seite des primalen Problems ( b). In die duale Zielfunktion wird die rechte Seite des primalen Problems ( b) eingesetzt. Der Vektor aus der Zielfunktion des primalen Problems ( c) wird zur rechten Seite des dualen Problems. Die Koeffizientenmatrix des dualen Problems entspricht der transponierten Matrix des primalen Problems (A A T ). Zu Ungleichungen des primalen Problems gehören nichtnegative Komponenten von y. Zu Gleichungen des primalen Problems gehören unbeschränkte Komponenten von y. Unbeschränkte Komponenten des primalen Lösungsvektors ( x) führen zu Gleichungen, nichtnegative Komponenten zu Ungleichungen im dualen Problem. Treten dabei in den Problemen Ungleichungen auf, so müssen diese bei einer Maximierung die Form, bei einer Minimierung die Form haben. Man beachte: Wendet man obige Regeln auf ein duales Problem an, so wird aus diesem wieder das ursprüngliche primale Problem. Daher spricht man von zueinander dualen Problemen.

20 18 Merkhilfe Tucker-Diagramm: x x k IR... x n 0 y 1 0 a a 1k... a 1n b 1... y l IR a l1... a lk... a ln = b l... y m 0 a m1... a mk... a mn b m c 1 = c k c n Beispiel: Primales Problem: max 2x 1 +3x 2 x IR 2 : 3x 1 +5x 2 4 4x 1 +6x 2 = 3 x 1 2 x 1 + x 2 1 x 2 0 Tucker-Diagramm: Duales Problem: x 1 IR x 2 0 y y 2 IR 4 6 = 3 y y = 2 3 min 4y 1 +3y 2 +2y 3 y 4 y IR 4 : 3y 1 +4y 2 +y 3 y 4 = 2 5y 1 +6y 2 y 4 3 y 1 0, y 3 0, y 4 0.

21 19 Dualitätssatz der linearen Programmierung: x und y seien zulässige Lösungen zweier zueinander dualer Probleme, dann gilt: Zulässige Zielfunktionswerte des Minimierungsproblems sind immer obere Schranken für zulässige Zielfunktionswerte des Maximierungsproblems, d.h. es gilt stets c T x b T y. Wenn das primale Problem eine endliche Optimallösung x besitzt, dann besitzt auch das duale Problem eine endliche Optimallösung y und die Optimalwerte der Zielfunktionen beider Probleme sind gleich, d.h. c T x = b T y. x und y sind genau dann Optimallösungen des dualen Paares, wenn die so genannte Complementary Slackness-Bedingung erfüllt ist: y T (A x b) = x T (A T y c) = 0. Eine unmittelbare Folgerung aus dem ersten Teil des Dualitätssatzes ist: Ist das primale Problem unbeschränkt, so besitzt das duale Problem keine zulässigen Lösungen. Ist das duale Problem unbeschränkt, so besitzt das primale Problem keine zulässigen Lösungen. Ökonomische Interpretation des dualen Problems: Ändert man die Kapazität einer Ressource b j um b j, so ändert sich der optimale Zielfunktionswert ungefähr um y j b j. Deshalb nennt man y den Vektor der Schattenpreise. Übliche Bezeichnungen sind auch Opportunitätskosten bzw. Knappheitskosten.

22 } } 20 Zusammenhang Optimalwerte primales und duales Problem: Im optimalen Simplextableau des primalen Problems stehen in der letzten Zeile unter den primalen Schlupfvariablen die Werte der Strukturvariablen einer zulässigen dualen Lösung. Die entsprechenden Werte der dualen Schlupfvariablen findet man in der letzten Zeile unter den primalen Strukturvariablen. Umgekehrt findet man im optimalen Simplextableau des dualen Problems die entsprechenden Werte des primalen Problems. } BV Primale Strukturvariablen Primale Schlupfvariablen } Zielfkt. x 1 x n x n+1 x n+m x n+m+1 b Werte der dualen Schlupfvariablen Werte der dualen Strukturvariablen dualer und primaler Zielfkt.wert

23 21 Die duale Simplexmethode: a) Bringe das Problem in die duale Standardform, d.h. die letzte Zeile (m-te Zeile) enthält keine negativen Koeffizienten: c i 0 ( Optimalität und duale Zulässigkeit ). b) Prüfe, ob die Basislösung primal zulässig ist, d.h. ob gilt b j 0 für alle j = 1,...,m 1. Falls ja: STOPP, die aktuelle Lösung ist primal (und dual) zulässig und damit optimal. c) Andernfalls bestimme das Minimum aller in Frage kommenden negativen b j -Werte, etwa b s = min{b j b j < 0 für alle j = 1,...,m 1}. Tritt das Minimum in der s-ten Zeile auf, so ist diese die Pivotzeile und die an dieser Stelle stehende BV x wird aus der Basis eliminiert. d) Neben dem Wert b s stehen in der Pivotzeile die Werte a si (hier a s1,a s2,...,a s(n+m+1) ). Prüfe, ob in den NBV-Spalten keiner dieser Werte negativ ist, etwa a si 0 für alle i mit x i ist NBV. Falls ja: STOPP, das primale Problem besitzt keine Optimallösung. e) Andernfalls bilde für alle NBV-Spalten mit negativena si -Werten den Quotienten aus dem jeweiligen c i -Wert der letzten Zeile und dem a si -Wert. Ermittle dann das Maximum dieser Quotienten, etwa c t a st = max{ c i a si a si < 0 für i mit x i ist NBV}. Tritt das Maximum in der t-ten Spalte auf, so ist diese die Pivotspalte und die NBV x t ist in die neue Basis aufzunehmen. f) Führe den Basistausch durch: x t kommt an s-ter Stelle (=Pivotzeile) in die neue Basis. Die an dieser Stelle stehende BV wird eliminiert. Bestimme das neue Simplextableau, d.h. erzeuge mittels elementarer Umformungen aus der Pivotspalte die s-te Einheitsspalte (die 1 steht in der Pivotzeile). Gehe dann zu Schritt b).

24 22 Beispiel: DACH-Bank mit dualem Simplex-Verfahren BV x 1 x 2 x 3 x 4 x 5 x 6 b x x x x 6 0,05 0, MAX 0, 05 0, 01 BV x 1 x 2 x 3 x 4 x 5 x 6 b x 2 1/3 1 1/ x 4 2/3 0 1/ x 5 5/3 0 1/ x 6 0,04 0 0, ,09 MAX 0, 024 0, 03 BV x 1 x 2 x 3 x 4 x 5 x 6 b x /5 0 1/5 0 2 x /5 1 2/5 0 1 x /5 0 3/5 0 3 x , , ,21 MAX 0, 01 0, 06 BV x 1 x 2 x 3 x 4 x 5 x 6 b x x x x ,01 0,02 1 0,22

25 23 Beispiel: DACH-Bank mit M-Methode Wir führen die folgenden (nicht äquivalenten) Umformungen des Ausgangsproblems durch: min 0,05x 1 +0,03x 2 +Mx 4 +Mx 6 +Mx 8 x IR 8 : x 1 +3x 2 x 3 +x 4 = 9 x 1 + x 2 x 5 +x 6 = 6 2x 1 + x 2 x 7 +x 8 = 8 x 1,...,x 8 0, dann mit x 9 := 0,05x 1 +0,03x 2 +Mx 4 +Mx 6 +Mx 8 max x 9 x IR 9 : x 1 +3x 2 x 3 + x 4 = 9 x 1 + x 2 x 5 + x 6 = 6 2x 1 + x 2 x 7 + x 8 = 8 0,05x 1 +0,03x 2 +Mx 4 +Mx 6 +Mx 8 +x 9 = 0 x 1,...,x 8 0. Das Startproblem für die M-Methode hat dann die Form: max x 9 x IR 9 : x 1 +3x 2 x 3 +x 4 = 9 x 1 + x 2 x 5 +x 6 = 6 2x 1 + x 2 x 7 +x 8 = 8 (0,05 4M)x 1 +(0,03 5M)x 2 +Mx 3 +Mx 5 +Mx 7 +x 9 = 23M x 1,...,x 8 0. Es ergeben sich die folgenden Tableaus des Simplexverfahrens: BV x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x 9 b MIN x x x x 9 (0,05 4M) (0,03 5M) M 0 M 0 M M BV x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x 9 b MIN x 2 1/3 1 1/3 1/ x 6 2/3 0 1/3 1/ /2 x 8 5/3 0 1/3 1/ x 9 (0,04 ) 0 (0,01 ) ( 0,01 ) M 0 M 0 1 ( 0,09 7M 3 2M 3 + 5M 3 8M)

26 24 BV x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x 9 b MIN x /5 2/ /5 1/ x /5 1/ /5 2/ /2 x /5 1/ /5 3/5 0 3 x (0,002 ) ( 0,002 ) M 0 (0,024 ) ( 0,024 ) 1 ( 0,21 M) M 5 + 6M 5 2M 5 + 7M 5 BV x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x 9 b MIN x /2 1/2 1/2 1/ /2 x /2 1/2 5/2 5/ /2 5 x /2 1/2 3/2 3/ /2 9 x ,01 (0,01+M) 0,06 ( 0,06+M) 0 M 1 0,27 BV x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x 9 b MIN x x x x M 0,01 ( 0,01+M) 0,02 ( 0,02+M) 1 0,22

27 25 Beispiel eines nichtlinearen Problems: minf(x,y) (x,y) IR 2 : g(x,y) 0. In der Abb. haben wir die Zielfunktion f(x,y) = x 2 + y 2 und die Restriktion g(x,y) = 1 x y gewählt. Die Lösung des Optimierungsproblems ergibt sich für dieses Beispiel geometrisch offensichtlich zu P 0 = (x 0,y 0 ) = (1/2,1/2). y f f ~ g P f zulässiger Bereich P 0 g x f = 1/4 g = 0 f = 1/2 f = 1

28 26 KKT-Bedingungen: Es gelte g(x 0,y 0 ) 0 und der Punkt (x 0,y 0 ) IR 2 sei eine lokale Lösung a) des Optimierungsproblems mit Ungleichungsrestriktion { } { } minf(x,y) maxf(x,y) bzw. so dass g(x,y) 0 so dass g(x,y) 0. Dann gibt es ein λ 0 0 (Minimierungsproblem) bzw. λ 0 0 (Maximierungsproblem) mit λ 0 g(x 0,y 0 ) = 0 f(x 0,y 0 )+λ 0 g(x 0,y 0 ) = 0. b) des Optimierungsproblems mit Gleichungsrestriktion { minf(x,y) so dass g(x,y) = 0 Dann gibt es ein λ 0 IR mit } oder { maxf(x,y) so dass g(x,y) = 0. g(x 0,y 0 ) = 0 f(x 0,y 0 )+λ 0 g(x 0,y 0 ) = 0. In beiden Fällen heißt die Konstante λ 0 Lagrange-Multiplikator. Die Bedingungen nennt man Karush-Kuhn-Tucker-Gleichungen oder auch KKT- Bedingungen. } Definiert man die Lagrangefunktion als L(x,y,λ) := f(x,y)+λg(x,y), so lässt sich der zweite Teil der KKT-Bedingungen komponentenweise mit den partiellen Ableitungen von L nach x bzw. y schreiben: L x (x,y,λ) = f x (x,y)+λg x (x,y)! = 0, L y (x,y,λ) = f y (x,y)+λg y (x,y)! = 0.

29 27 Complementary-Slackness: Die erste KTT-Bedingung λ 0 g(x 0,y 0 ) = 0 (für den Fall einer Ungleichungsrestriktion) ist unter dem Namen Complementary-Slackness bekannt. Sie charakterisiert drei mögliche geometrische Fälle, die für den Fall eines Minimierungsproblems in der Abb. wiedergegeben sind (Das eingezeichnete Minimum sei das unrestringierte Minimum der Zielfunktion) x* g Minimum x* g x* g 0 g streng aktiv > 0, g(x,y ) = g schwach aktiv 0 = g(x,y ) = g inaktiv 0 = 0,g(x,y ) < Bei einer streng aktiven Restriktion ist der Lagrange-Multiplikator ungleich Null. Zu einer schwach aktiven bzw. inaktiven Nebenbedingungen gehört ein Langrange-Multiplikator mit dem Wert Null.

30 28 Das allgemeine nichtlineare Optimierungsproblem minf( x) x IR n : g i ( x) 0, i = 1,...,p, g j ( x) = 0, j = p+1,...,m, mit p Ungleichungen und m p Gleichungen als Restriktionen heißt regulär im Punkt x 0, falls folgende Regularitätsbedingungen erfüllt sind: a) Die Gradienten der Gleichungsrestriktionen g j ( x 0 ), j = p + 1,...,m, sind linear unabhängig. b) Es gibt einen Vektor s IR n mit g T i ( x 0) s < 0 für i {1,2,...,p} mit g i ( x 0 ) = 0 ( alle aktiven Ungleichungsrestriktionen ). g T j ( x 0) s < 0 für j = p+1,...,m ( alle Gleichungsrestriktionen ). In vielen praktischen Anwendungen ist die Regularität erfüllt. Wir werden daher unsere weiteren Untersuchungen nur noch auf reguläre Probleme beschränken. Sei x 0 IR n eine lokale Lösung des regulären Problems Dann gibt es einen Vektor mit λ i 0, i = 1,...,p, und minf( x) x IR n : g i ( x) 0, i = 1,...,p, g j ( x) = 0, j = p+1,...,m. λ = (λ1,λ 2,...,λ m ) T IR m λ i g i ( x 0 ) = 0, i = 1,...,p g j ( x 0 ) = 0, j = p+1,...,m f( x 0 )+λ 1 g 1 ( x 0 ) + λ 2 g 2 ( x 0 )+...+λ m g m ( x 0 ) = 0. Diese m + n Gleichungen zur Bestimmmung von x 0 und λ heißen Karush- Kuhn-Tucker-Bedingungen (KKT-Bedingungen). Man nennt λ den Vektor der Lagrangemultiplikatoren.

31 29 Hinreichende Bedingungen: Bei einem nichtlinearen Optimierungsproblem in zwei Unbekannten mit nur einer Gleichheitsrestriktion hat die geränderte Hessematrix die Gestalt H(λ,x,y) = 0 g x g y g x L xx L xy. g y L yx L yy Bei einem nichtlinearen Optimierungsproblem in zwei Unbekannten mit nur einer Gleichheitsrestriktion seien für x 0,y 0,λ 0 die notwendigen KKT- Bedingungen für ein Extremum erfüllt. Dann ist nur die Determinante der geränderten Hessematrix H im Punkt (λ 0,x 0,y 0 ) zu untersuchen. Es gilt: Falls deth(λ 0,x 0,y 0 ) > 0, so liegt ein lokales Maximum vor. Falls deth(λ 0,x 0,y 0 ) < 0, so liegt ein lokales Minimum vor. Ökonomische Interpretation der Lagrange-Multiplikatoren: Der Lagrange-Multiplikator λ einer Nebenbedingung misst die Stärke der Änderung der Zielfunktion, die sich aus der Änderung dieser Restriktion ergibt. Für kleine ε ist λ ε eine gute Approximation für die Änderung des Optimalwertes der Zielfunktion.

32 30 Hinreichende Bedingungen allgemein bei Gleichungsrestriktionen: minf( x) x IR n : g j ( x) = 0, j = 1,...,m. Lagrange-Multiplikatoren: λ T = (λ 1,λ 2,...,λ m ) Lagrange-Funktion: L( x, λ) = f( x)+ λ T g( x) Notwendige KKT-Bedingungen für ein Extremum im Punkt ( x 0, λ 0 ): L λj ( x 0, λ 0 ) = g j ( x 0 ) = 0, j = 1,...,m, L xi ( x 0, λ 0 ) = 0, i = 1,...,n. (m+n,m+n)-hessematrix von L( x, λ): L λ1λ 1... L λ1λ m L λ1x 1... L λ1x n H( λ, x) = L λmλ 1... L λmλ m L λmx 1... L λmx n L x1λ 1... L x1λ m L x1x 1... L x1x n L xnλ 1... L xnλ m L xnx 1... L xnx n Beachte: L λjλ i = λ i g j ( x) = 0 für i,j = 1,...,m und L λjx i = x i g j ( x) Für den Vektor ( x 0, λ 0 ) IR n+m seien die notwendigen KKT-Bedingungen für ein Extremum erfüllt. Es sei g g x x n H( g m g λ 0, x 0 ) = x 1... m x n g 1 g x 1... m x 1 L x1x 1... L x1x n g 1 g x n... m x n L xnx 1... L xnx n die so genannte geränderte (oder auch berandete) Hessematrix im Punkt ( x 0, λ 0 ). Dann gilt: Falls die letzten n m Hauptminoren von H das Vorzeichen von ( 1) m haben, dann ist ( x 0, λ 0 ) IR n+m ein lokales Minimum. Falls die letzten n m Hauptminoren von H alternierendes Vorzeichen haben, beginnend mit dem Vorzeichen von ( 1) m+1, dann ist ( x 0, λ 0 ) IR n+m ein lokales Maximum.

Eigenschaften von LPs

Eigenschaften von LPs 2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört

Mehr

4.3.3 Simplexiteration

4.3.3 Simplexiteration 7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige

Mehr

Inhaltsverzeichnis Grundlagen der Linearen Optimierung

Inhaltsverzeichnis Grundlagen der Linearen Optimierung Inhaltsverzeichnis 4 Grundlagen der Linearen Optimierung 1 4.1 Grundbegriffe............................. 1 4.1.1 Lineare Optimierung..................... 1 4.1.2 Das Grundmodell eines linearen Optimierungsproblems

Mehr

Lösung allgemeiner linearer Programme

Lösung allgemeiner linearer Programme Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt

Mehr

Übung 3, Simplex-Algorithmus

Übung 3, Simplex-Algorithmus Übung 3, 21.6.2011 Simplex-Algorithmus Aufgabe 3.1 Lösen Sie das folgende Optimierungsproblem (von Aufgabe 2.3) graphisch. Substituieren Sie dazu z = 5 y um ein 2-dimensionales Problem zu erhalten. Rechnung

Mehr

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten

Mehr

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen Kapitel IV: Grundlagen der Linearen Optimierung Inhaltsverzeichnis Abschnitt 3-5 3 Der Simplexalgorithmus 58 3.1 Grundlagen..............................

Mehr

Lineare Optimierung: Simplexverfahren Phase Ⅰ

Lineare Optimierung: Simplexverfahren Phase Ⅰ Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)

Mehr

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m) Minimumproblem Definition 4.7 Ein LP der Form nx Minimiere Z = c j x j j=1 unter den Nebenbedingungen nx d ij x j b i (i =1,...,m) j=1 und den Vorzeichenbedingungen x j 0(j =1,...,n) heißt Minimumproblem.

Mehr

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende) . Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)

Mehr

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen 10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie

Mehr

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter

Mehr

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2 Kapitel 12 Lagrange-Funktion Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28 Optimierung unter Nebenbedingungen Aufgabe: Berechne die Extrema der Funktion unter der Nebenbedingung

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind

Mehr

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur

Mehr

Lineare Optimierung Teil 2

Lineare Optimierung Teil 2 Lineare Optimierung Teil 2 Primale Degeneration Duale Degeneration = Mehrdeutigkeit Normalform kanonische Form Duale Simplexmethode HTW-Berlin FB3 Prof. Dr.F. Hartl 1 Primale Degeneration/1 Besitzt eine

Mehr

Kuhn-Tucker Bedingung

Kuhn-Tucker Bedingung Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,

Mehr

10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G

10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G 48 0 Operations Research In der Standardform eines Maximierungsproblem: Max ( w) mit ( w) + u. d. N. z + x l + n ( a gj + j= g G e E n d j x j = z 0 j= n a l j x j = b l für alle l L j= x g n + a gj x

Mehr

3.2.5 Dualität der linearen Optimierung I

3.2.5 Dualität der linearen Optimierung I 3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem

Mehr

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005 Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

Extrema mit Nebenbedingungen

Extrema mit Nebenbedingungen Extrema mit Nebenbedingungen Gesucht ist das Extremum der Funktion f(x,y) = 5 x y unter der Nebenbedingung g(x,y) = x+y =. 5 y x In diesem einfachen Fall kann die Nebenbedingung nach einer Variablen aufgelöst

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform

Mehr

Optimale Steuerung 1 Prozessoptimierung 1

Optimale Steuerung 1 Prozessoptimierung 1 Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

Optimierung. Vorlesung 02

Optimierung. Vorlesung 02 Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j

Mehr

1 Lineare Optimierung, Simplex-Verfahren

1 Lineare Optimierung, Simplex-Verfahren 1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und

Mehr

Wie man die Matrix der Zeit versteht (Matrix)

Wie man die Matrix der Zeit versteht (Matrix) Lineare und Nichtlineare Optimierung 1Semester Begleitendes Skriptum zur Vorlesung im FH-Masterstudiengang Technisches Management von Johann Wiesenbauer FH Campus Wien 2014 1 Lineare Optimierung 11 Grundbegrie

Mehr

Klausurrepetitorium ABWL

Klausurrepetitorium ABWL Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches

Mehr

Der Simplex-Algorithmus

Der Simplex-Algorithmus 5 Lineare Programmierung Simplex-Algorithmus Der Simplex-Algorithmus Standardverfahren zur Lösung von LPs, von G B Dantzig entwickelt Grundidee: Versuche ausgehend von einer Startecke mit einer Ausgangsbasis

Mehr

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung Operations Research Rainer Schrader Die Simplexmethode Zentrum für Angewandte Informatik Köln 18 Juni 00 1 / 1 / 1 Gliederung LP-Dualität ein lineares Produktionsmodell der Simplexalgorithmus Phase I Endlichkeit

Mehr

Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel 3 - Lineare Optimierung

Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel 3 - Lineare Optimierung Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel - Lineare Optimierung Sascha Kurz Jörg Rambau 8. August Lösung Aufgabe.. Da es sich um ein homogenes

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

Übung 5, Analytische Optimierung

Übung 5, Analytische Optimierung Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =

Mehr

Multivariate Analysis

Multivariate Analysis Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

Die duale Simplexmethode

Die duale Simplexmethode Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen

Mehr

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn Optimierung Vorlesung 5 Optimierung mit Nebenbedingungen 1 Minimierung mit Gleichheitsrestriktionen Gegeben: Funktion,,,, : Ziel:,,, Unrestringierter Fall: Notwendige Bedingung für lokales Minimum keine

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Aufgaben zu Kapitel 23

Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Verständnisfragen Aufgabe 23 Bestimmen Sie grafisch die optimale Lösung x der Zielfunktion z = c T x unter den Nebenbedingungen mit dem Zielfunktionsvektor

Mehr

8. Lineare Optimierung

8. Lineare Optimierung 8. Lineare Optimierung 1 Einführung (1) Praktische Probleme sind oft Probleme mit Nebenbedingungen, z.b.: Ein Produktionsprozess hängt von Lieferterminen ab Die Menge der verstaubaren Güter ist durch die

Mehr

Optimierungstheorie Scheinklausur Sommersemester Juli 2007

Optimierungstheorie Scheinklausur Sommersemester Juli 2007 Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur

Mehr

Kurseinheit 2»Dualität und weiterführende Methoden«

Kurseinheit 2»Dualität und weiterführende Methoden« Inhaltsübersicht 1 Gliederung Kurseinheit 1»Simpleverfahren«1. Einleitung 1.1. Einordnung und Übersicht des Stoffes 1.2. Einführendes Beispiel und Grundlagen 2. Lineare Gleichungssysteme 2.1. Die allgemeine

Mehr

14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert

14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert 14 Optimierung unter Nebenbedingungen 14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert [1] Lösen sie die folgenden Probleme, indem Sie diese auf ein univariates Problem zurückführen. Zeigen

Mehr

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung

Mehr

Simplex-Verfahren. Kapitel 3. Simplex-Verfahren. Peter Becker (H-BRS) Lineare und kombinatorische Optimierung Wintersemester 2017/ / 372

Simplex-Verfahren. Kapitel 3. Simplex-Verfahren. Peter Becker (H-BRS) Lineare und kombinatorische Optimierung Wintersemester 2017/ / 372 Kapitel 3 Simplex-Verfahren Peter Becker (H-BRS) Lineare und kombinatorische Optimierung Wintersemester 2017/18 104 / 372 Inhalt Inhalt 3 Simplex-Verfahren Primaler Simplexalgorithmus Unbeschränktheit

Mehr

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25. Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme

Mehr

7.1 Matrizen und Vektore

7.1 Matrizen und Vektore 7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit

Mehr

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester

Mehr

Probeklausur Optimierung

Probeklausur Optimierung Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften Dr. Nico Düvelmeyer Hamburg, 4. Juli 2011 Probeklausur Optimierung Bitte selber ausfüllen: Name: (darf anonymisiert werden)

Mehr

Mitschrift der Vorlesung: Kombinatorische Optimierung

Mitschrift der Vorlesung: Kombinatorische Optimierung Mitschrift der Vorlesung: Kombinatorische Optimierung bei Prof. Socher-Ambrosius Niels-Peter de Witt 26. April 2002 Inhaltsverzeichnis 1 Einführung 2 1.1 Beispiel: Profil zersägen.......................

Mehr

Zugeordneter bipartiter Graph

Zugeordneter bipartiter Graph Zugeordneter bipartiter Graph Für ein Transportproblem sei A = {A 1,...,A m } die Menge der Fabriken und B = {B 1,...,B n } sei die Menge der Warenhäuser. Wir ordnen nun einem Transportproblem einen bipartiten

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

Kap. 4: Lineare Programmierung

Kap. 4: Lineare Programmierung Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.

Mehr

4 Lineare Optimierung

4 Lineare Optimierung 4 Lineare Optimierung In diesem Kapitel werden wir uns mit effizienten Verfahren im Bereich der linearen Optimierung beschäftigen. 4.1 Einführung Als Einführung betrachten wir das Beispiel einer Erdölraffinerie.

Mehr

Einführung in die Lineare Optimierung

Einführung in die Lineare Optimierung Kapitel 2 Einführung in die Lineare Optimierung lineare Modelle der relevanten Umwelt werden wegen ihrer Einfachheit häufig gegenüber nichtlinearen Ansätzen vorgezogen, lineare Optimierungsprobleme können

Mehr

mit. Wir definieren (Skalarprodukt = Winkel).

mit. Wir definieren (Skalarprodukt = Winkel). 1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert

Mehr

Hauptsatz und Optimalitätskriterium der Simplexmethode

Hauptsatz und Optimalitätskriterium der Simplexmethode Kapitel 4 Hauptsatz und Optimalitätskriterium der Simplexmethode In diesem Abschnitt wird das wichtigste Verfahren zur Lösung linearer Optimierungsprobleme eingeführt die Simplexmethode Es existiere für

Mehr

Lineare Optimierung Dantzig 1947

Lineare Optimierung Dantzig 1947 Lineare Optimierung Dantzig 947 Lineare Optimierungs-Aufgaben lassen sich mit Maple direkt lösen: with(simplex): g:= 4*x + x2

Mehr

Bonusmaterial Lineare Optimierung ideale Ausnutzung von Kapazitäten

Bonusmaterial Lineare Optimierung ideale Ausnutzung von Kapazitäten Bonusmaterial Lineare Optimierung ideale Ausnutzung von Kapazitäten 23 231 Die Zweiphasenmethode Beim Simplexalgorithmus zur Lösung linearer Optimierungsprobleme in Standardform wählt man im zugehörigen

Mehr

Abbildung 1: Graphische Lösung der ersten Übungsaufgabe

Abbildung 1: Graphische Lösung der ersten Übungsaufgabe Lösungen zu den Übungsaufgaben im Kapitel 1 des Lehrbuches Operations Research Deterministische Modelle und Methoden von Stephan Dempe und Heiner Schreier 1. Lösen Sie die folgende lineare Optimierungsaufgabe

Mehr

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode 6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,

Mehr

Sensitivitätsanalyse in der Linearen Optimierung

Sensitivitätsanalyse in der Linearen Optimierung Sensitivitätsanalyse in der Linearen Optimierung Bei der Sensitivitätsanalyse werden i. allg. Größen des Ausgangsproblems variiert, und es wird untersucht, welche Wirkung eine derartige Modifikation auf

Mehr

Berufliches Gymnasium (WG, EG, AG, SG) Hauptprüfung 2008 Teil 2, Lineare Optimierung, Aufgabe 2 Baden-Württemberg

Berufliches Gymnasium (WG, EG, AG, SG) Hauptprüfung 2008 Teil 2, Lineare Optimierung, Aufgabe 2 Baden-Württemberg Berufliches Gymnasium (WG, EG, AG, SG) Hauptprüfung 8 Teil, Lineare Optimierung, Aufgabe Baden-Württemberg.. Ein Fertigungsbetrieb für Frottierartikel stellt unter anderem Handtücher und Badetücher her.

Mehr

1. Hausaufgabenblatt (16.04./ )

1. Hausaufgabenblatt (16.04./ ) Lehrstuhl Ingenieurmathematik Modul: (Wirtschaftsingenieurwesen/Betriebswirtschaftslehre/Informatik) Sommersemester 2014 1. Hausaufgabenblatt (16.04./23.04.2015) Aufgabe H 1.1 Lösen Sie die linearen Gleichungssysteme

Mehr

1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1

1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1 1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme Duales Problem Lemma 1.4. Das zum Transportproblem duale Problem lautet: max unter den Nebenbedingungen m a i u i + i=1

Mehr

Über- und unterbestimmte

Über- und unterbestimmte Über- und unterbestimmte Systeme (verallgemeinerte Lösungen) Über- und unterbestimmte Systeme Ax = b ist genau dann für alle b R m eindeutig lösbar, wenn m = n und rk A = n. Falls m n oder rk A < min{m,

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 = Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls

Mehr

3.1. Existenzsatz und Struktur der Lösungsmenge

3.1. Existenzsatz und Struktur der Lösungsmenge 3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall

Mehr

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max

Mehr

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare

Mehr

Fachakademie für Wirtschaft der FHM A2: Lineare Optimierung und das Simplexverfahren

Fachakademie für Wirtschaft der FHM A2: Lineare Optimierung und das Simplexverfahren A2.1 Lineare Optimierung mit dem Simplexverfahren Wenn ein Unternehmen ermitteln möchte, wie viele Mengeneinheiten von verschiedenen Produkten zu produzieren sind, damit bei gegebenen Verkaufspreisen der

Mehr

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik 1142KWL09 Aufgabe 1. Zeigen Sie, dass für alle n 2 gilt: n paarweise verschiedene Geraden im R 2 schneiden sich untereinander

Mehr

(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung)

(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung) Lineare Optimierung Unterbestimmte LGS und Optimierung Bei lösbaren unterbestimmten linearen Gleichungssystemen haben wir die Qual der Wahl in Abhängigkeit von den freien Parametern (Anzahl = Anzahl Unbekannte

Mehr

3. Schnittebenenverfahren

3. Schnittebenenverfahren 3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 2016 Prof. Dr. Stefan Etschberger HSA Mögliche Fälle für Z Etschberger - WS2016 1 Z =, d.h., es existiert keine zulässige (x 1, x 2 )-Kombination. 2

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus

Mehr

z = c T x : Ax = b, x 0 }, - die Darstellung der Nichtbasisvektoren durch die Basis ist

z = c T x : Ax = b, x 0 }, - die Darstellung der Nichtbasisvektoren durch die Basis ist Kapitel 5 Die Simplexmethode Es werden folgende Bezeichnungen verwendet: - das untersuchte Problem ist min x R n { z = c T x : Ax = b, x 0 }, - die erste zulässige Basislösung sei x = x 1, x 2,, x m, 0,,

Mehr

4. Dualität Dualität 4.1 Dualität von LPs und der Dualitätssatz. Die duale Form eines LP in allgemeiner Form. Herleitung der dualen Form

4. Dualität Dualität 4.1 Dualität von LPs und der Dualitätssatz. Die duale Form eines LP in allgemeiner Form. Herleitung der dualen Form 2... 22 4.2 Die Bedingungen vom komplementären Schlupf... 23 4.3 Das Kürzeste-Wege-Problem und zugehörige duale Problem... 24 4.4 Das Farkas Lemma... 25 4.5 Duale Information im Tableau... 26 4.6 Der duale

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Kapitel 2: Lineare Optimierung

Kapitel 2: Lineare Optimierung Kapitel 2: Lineare Optimierung Wir beginnen mit Definitionen und beschäftigen uns anschließend mit der graphischen Lösung von linearen Optimierungsproblemen mit zwei Variablen. Neben verschiedenen Schreibweisen

Mehr

Lineare Optimierungsmodelle

Lineare Optimierungsmodelle Lineare Optimierungsmodelle Simplex-Methode Vortragender: Michael Schneider Agenda Motivation Operations Research Aufbau linearer Optimierungsmodelle Simplex-Methode Ausblick 2 Problemstellung Futtermischung

Mehr

Teil II. Nichtlineare Optimierung mit Nebenbedingungen

Teil II. Nichtlineare Optimierung mit Nebenbedingungen Teil II Nichtlineare Optimierung mit Nebenbedingungen 60 Kapitel 8 Theoretische Grundlagen Wir betrachten unser allgemeines Problem (P f(x = min!, x Ω, wobei der Zulässigkeitsbereich Ω R n nun auf die

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg Sätze PLUS Es gilt für A, B R n n : det(ab) = det A det B (Determinantenmultiplikationssatz)

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung

Mehr

Prof. Dr. Roland Griesse. Höhere Mathematik für Bachelorstudiengänge I.2

Prof. Dr. Roland Griesse. Höhere Mathematik für Bachelorstudiengänge I.2 Höhere Mathematik für Bachelorstudiengänge I.2 Wir nehmen an, dass die LOA bereits in Normalform vorliegt: Maximiere c x, wobei A x = b sowie x 0 mit A R m n, b R m und c R n. Neben b 0 nehmen wir noch

Mehr

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,

Mehr

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen Sandro Grunert WS 08/09 Seminar Optimierung Technische Universität Chemnitz 1 Inhaltsverzeichnis 0 Grundlegende Situation

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf )

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf ) Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 65 (das agraökonomische Schaf ) Sascha Kurz Jörg Rambau 25 November 2009 2 66 Die Karush-Kuhn-Tucker-Methode Die Erkenntnisse

Mehr