Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung

Größe: px
Ab Seite anzeigen:

Download "Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung"

Transkript

1 Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen Kapitel IV: Grundlagen der Linearen Optimierung Inhaltsverzeichnis Abschnitt Der Simplexalgorithmus Grundlagen Das Simplextableau Simplexiteration Lösung des LOP Sonderfälle des Simplexalgorithmus Die 2-Phasen-Methode Transformation in Standard Form Die zwei Phasen Sensitivitätsanalyse Abhängigkeiten

2 3 Der Simplexalgorithmus 3.1 Grundlagen (a) Der zulässige Bereich Der zulässige Bereich ist eine Teilmenge des R n, wobei n die Anzahl der Strukturvariablen ist. Der zulässige Bereich wird gebildet durch die Restriktionen n a ij x j b i, i = 1,..., m und j=1 die Nichtnegativitätsbedingungen x j 0, j = 1,..., n Die Lösungsmenge jeder dieser Ungleichungen ist ein Halbraum die zugehörige Hyperebene ((n-1)-dimensionaler affiner Raum) löst die zur entsprechenden Ungleichung gehörige Gleichung. Der zulässige Bereich ist (sofern er nicht entartet ist) eine abgeschlossene Menge, d.h. die Randpunkte der Menge gehören zur Menge dazu. (Beispiele) Der zulässige Bereich ist (sofern er nicht entartet ist) eine konvexe Menge, d.h. mit je zwei Punkten, die zu der Menge gehören, gehören auch alle Punkte auf der Verbindungsstrecke dieser beiden Punkte dazu. Die Eckpunkte des zulässigen (nicht entarteten) Bereiches sind gerade die Schnittpunkte von jeweils n Hyperebenen, d.h. genau n der oben genannten m + n Ungleichungen sind als Gleichungen erfüllt. Beispiel: Waschpulver (b) Die Zielfunktion Die Zielfunktion ist eine lineare Funktion, die abhängig ist von den n Strukturvariablen x 1,..., x n. (c) Satz: Eine lineare Funktion über einer konvexen, abgeschlossenen Menge nimmt ihr Maximum und ihr Minimum auf dem Rand dieser Menge an. Das heißt insbesondere, daß wir für die Bestimmung des Maximum bzw. Minimum nur die Eckpunkte der zulässigen Menge untersuchen müssen. 58

3 Beispiel: Z = c 1 x c n x n Min! x j 1, j = 1,..., n x j 0, j = 1,..., n Der zulässige Bereich hat 2 n Eckpunkte: (0,..., 0),..., (1,..., 1) Bemerkung: Es gibt Hyperebenen (bestimmt durch die gegebenen Ungleichungen), die sich nicht schneiden, z.b. x j 0, x j 1. (d) Problem: Wie untersucht man systematisch die Eckpunkte eines zulässigen nicht entarteten Bereiches? Da jeder Eckpunkt Schnittpunkt von n Hyperebenen ist, kann er als Löungsmenge des entsprechenden Gleichungssystems mit n Gleichungen bestimmt werden. Insgesamt erhalten wir aus den m + n Ungleichungen ( ) m+n n mögliche Gleichungssysteme. Wenn m groß ist (z.b. m n) erhalten wir eine exponentielle (in n) Anzahl von Gleichungssystemen. (e) Idee Nicht jedes dieser Gleichungssysteme ist lösbar, s.beispiel. Nicht jede Lösung gibt einen Eckpunkt des zulässigen Bereiches, s. Beispiel Waschpulver. Wir müssen zusätzlich für jede Lösung die Erfüllung der restlichen Ungleichungen überprüfen. Man startet in einem Eckpunkt des zulässigen Bereiches, üblicherweise x 1 = x 2 = = x n = 0 und betrachtet seine n Nachbarecken. Wenn keine der Nachbarecken einen größeren (bzw. kleineren) Zielfunktionswert hat, ist das Verfahren beendet, man hat die Lösung gefunden. Ansonsten wählt man eine Nachbarecke mit einem größeren (bzw. kleineren) Zielfunktionswert und sucht von dort aus weiter. 3.2 Das Simplextableau (a) Die Schlupfvariablen Das Grundproblem Z(x 1,..., x n ) = n c j x j j=1 max 59

4 n a ij x j b i, i = 1,..., m j=1 x 1,..., x n 0 wird in ein äquivalentes Gleichungssytem überführt: n c j x j + Z = 0 j=1 n a ij x j + y i = b i, j=1 x 1,..., x n, y 1,..., y m 0 = 1,..., m Die Variablen y i werdenschlupfvariablen, Leerlaufvariablen (slack variables) genannt. Bemerkung: Die Restriktionen bilden jetzt ein lineares Gleichungssystem in kanonischer Form. Eine Basislösung des LGS ist (b) Das Starttableau Tab. 0 x 1 x 2... x n y 1 a 11 a a 1n b 1 : : : : : y m a m1 a 1m2... a mn b m Z c 1 c 2... c n 0 x 1 = = x n = 0, y i = b i i = 1,..., m. Das Startableau beschreibt die Situation im Startpunkt x 1 = x 2 = x n = 0. In der ersten Zeile stehen die (Namen der) Variablen, die in der aktuellen Basislösung den Wert 0 haben. Die Variablen der ersten Zeile heißen Nichtbasisvariable - NBV. Die erste Spalte enthält aktuell die Bezeichnungen der Schlupfvariablen. Die Variablen der ersten Spalte heißen Basisvariable - BV. Im Innern des Tableaus stehen die technischen Koeffizienten. In der letzten Zeile stehen neben dem Z die Koeffizienten der umgestellten Zielfunktion, sowie in der letzten Spalte der aktuelle Wert der Zielfunktion. 60

5 In der letzten Spalte steht der Wert der entsprechenden Basisvariablen in der Basislösung, hier aktuell die Restriktionswerte b i. technische Bezeichnungen: Die Werte der letzten Zeile (aktuell: c 1,..., c n, 0) werden auch mit a m+1,j, j = 1,..., n + 1 bezeichnet. Die Werte der letzten Spalte (aktuell: b 1,..., b m, 0) werden auch mit a i,n+1, i = 1,..., m + 1 bezeichnet. Beispiel: Waschpulver 3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige Ungleichung is als Gleichung erfüllt) zu einer Basisvariablen (die zugehörige Ungleichung ist i.a. nicht als Gleichung erfüllt) und umgekehrt. Der Übergang von einer Ecke zu einer benachbarten Ecke erfolgt in 6 Schritten. 1. Wahl der Pivotspalte Pivot: Dreh- und Angelpunkt Wähle die Spalte mit (kleinstem) negativem Wert in der letzten Zeile. Der Spaltenindex sei s, d.h. a m+1,s = min{a m+1,j j = 1,..., n} Falls mehrere Spalten als Pivotspalten in Frage kommen, spricht man von dualer Entartung. Man wählt beliebig einen der Kandidaten aus. Hintergrund: Wenn ich mich von der Startecke in Richtung der entsprechenden wachsenden Nichtbasisvariable bewege, wächst die Zielfunktion am stärksten (verglichen mit den anderen n-1 Möglichkeiten). Die etsprechnede Nichtbasisvariable soll jetzt Basisvariable werden. Eine Basisvariable muß dafür zur Nichtbasisvariable werden 2. Wahl der Pivotzeile Wähle diejenige Zeile, die den kleinsten nichtnegativen Quotienten aus dem Wert der letzten Spalte und dem technischen Koeffizienten der Pivotspalte aufweist. 61

6 Der entsprechende Zeilenindex sei z, d.h. a z,n+1 a zs = min{ a i,n+1 a is i = 1,..., m} a z,n+1 a zs 0 Hintergrund: Man versucht so weit wie möglich in der ausgewählten Richtung zu gehen, aber dabei nicht den zulässigen Bereich zu verlassen. Beispiel Waschpulver Mögliche Entartungen werden später behandelt. 3. Umrechnung des Pivotelements a zs := 1 a zs 4. Umrechnung der restlichen Pivotspalte a is := a is a zs, i = 1,..., m + 1 i z 5. Umrechnung der restlichen Pivotzeile a zj := a zj a zs, j = 1,..., n + 1 j s 6. Umrechnung des restlichen Tableaus a ij := a ij a is a zj a zs i = 1,..., m + 1 i z, j = 1,..., n + 1 j s. oder Umrechnung mit Hilfe der Kellerzeile (s. ATV) Bemerkung: Tritt in der letzten Spalte ein negativer Wert auf, so liegt ein Fehler bei der Wahl des Pivotelementes (zul. Bereich verlassen) oder in der Rechnung vor. 62

7 3.4 Lösung des LOP (a) Abbruchkriterium, Optimalitätskriterium Die Elemente a m+1,..., a m+1,n der letzten Zeile heißen Optimalitätsindikatoren Der Algorithmus endet, wenn alle Optimalitätsindikatoren positiv sind. Die eindeutige Optimallösung wurde gefunden. (b) Beispiel Waschpulver: Zielfunktion: Z = 4x 1 + 3x 2 max! Restriktionen: Maschine A: x 2 6 Maschine B: x 1 + x 2 7 Maschine C: 3x 1 + 2x 2 18 Nichtnegativitätsbedingungen: x 1, x 2 0 Lösung: x 1 = 4, x 2 = 3 (graphisch) nochmal zulässigen Bereich skiziieren Lösung mit Simplex T1 y 3 x 2 y y 2-1/3 1/3 1 x 1 1/3 2/3 6 Z 4/3-1/3 24 T2 y 3 y 2 y x x Z Tableau 1: aktueller Zielfunktionswert: 24 aktuelle Werte: y 3 = x 2 = 0 (NBV), y 1 = 6, y 2 = 1, x 1 = 6 (BV) Restriktion 3 ist als Gleichung erfüllt (y 3 = 0) Tableau 2: Optimalitätsbedingung erfüllt, optimaler Zielfunktionswert: Z max = 25 aktuelle Werte: y 3 = y 2 = 0 (NBV), y 1 = 3, x 2 = 3, x 1 = 4 (BV) Restriktionen 2 und 3 sind als Gleichung erfüllt (c) Basislösungen Eine Basislösung ist eine zulässige Lösung des kanonischen Gleichungssystems (s. 3.1.(a)) mit höchstens m Nicht-Null-Einträgen. Jede Basislösung entspricht einer Ecke des zulässigen Bereiches. 63

8 Eine Basislösung heißt nicht degeneriert wenn sie genau m Nicht-Null-Einträge enthält, sonst heißt sie degeneriert. Ist eine Basislösung degeneriert, so schneiden sich in der zugehörigen Ecke des zulässigen Bereiches mehr als n (Hyper)ebenen. (d) Schattenpreise: Den Schattenpreis einer NBV liest man in der letzten Zeile der zugehörigen Spalte ab. Der Schattenpreis einer Basisvariablen ist 0. (Interpretation später) Variable: x 1 x 2 y 1 y 2 y 3 Schattenpreis: (e) Angabe der Lösung (am Beispiel): Z max = 25 optimale Basislösung: x = (x 1, x 2 y 1, y 2, y 3 ) T = (4, 3 3, 0, 0) T zugehöriger Vektor der Schattenpreise: = (0, 0 0, 1, 1) T 3.5 Sonderfälle des Simplexalgorithmus (a) Duale Entartung Problem: Bei der Wahl der Pivotspalte kommen mehrere Spalten in Frage, die in der zweiten Zeile alle dieselbe kleinste negative Zahl haben. Lösung: Wähle eine beliebige davon aus. Wirkung: Die Wahl hat zwar möglicherweise Einfluß auf die Anzahl der Iterationsschritte, aber nicht auf die Lösbarkeit und den endgültigen Wert der Zielfunktion. (b) Primale Entartung 1. Art Problem: Bei der Wahl der Pivotzeile kommen mehrere Zeilen mit dem gleichen Wert in Frage. Es schneiden sich mehrere Restriktionen in einer Ecke. Die zugehörige Basislösung ist entartet. Durch entsprechende Austauschschritte ergeben sich eventuell mehrere Vektoren für die Schattenpreise: (1),..., (k) der optimalen Basislösung (s. Sensitivitätsanalyse): Beispiel: Z = 2x 1 + 3x 2 max! 4x 1 + 5x 2 20 x 2 4 i = min{ (j) i, j = 1,..., k} 64

9 x 1, x 2 0 Es kann passieren, daß man bei ungünstiger Wahl der Zeile nach mehreren Schritten zum gleichen Tableau zurückkommt - und das kann sich endlos wiederholen. Das Problem nennt man Kreiseln. Lösung: Es gibt kein einfaches Rezept dagegen. Üblicherweise (insbesondere in der rechentechnischen Umsetzung) wählt man die Zeile zufällig. Damit steigt die Wahrscheinlichkeit, daß man nicht endlos kreiselt. (c) Primale Entartung 2. Art Problem: Es kommt keine Pivotzeile in Frage: Alle entsprechenden Elemente sind negativ oder null. Beispiel: Z = 3x 1 + 2x 2 max! x 2 4 x 1, x 2 0 Das Problem hat keine endliche Lösung: Z max (d) Mehrere Lösungen, Lösungsmenge Problem: Alle Optimalitätsindikatoren sind nichtnegativ, aber es gibt Indikatoren gleich Null: a m+1,j 0 j = 1,..., n und s : a m+1,s = 0 Vorgehensweise: Das Simplexverfahren wird solange mit einer Pivotspalte mit a m+1,s = 0 wiederholt, solange sich neue Basislösungen ergeben. Seien x 1,..., x k die so ermittelten optimalen Lösungen. Lösungsmenge: Die Menge aller Optimallösungen ist dann die Menge der konvexen Linearkombinationen der x l : { } k k L = x R x = λ l x l, λ l = 1 l=1 Spezialfall: a m+1,s = 0 und a is 0 i = 1,..., m d.h. es kommt keine Pivotzeile in Frage (s. Serie 12, 1 (e)). Der zulässige Bereich ist unbeschränkt und Z verläuft parallel zu einer der Restriktionsgleichungen. Sei x 1 die zum Tableau gehörige Basislösung. Die Menge aller Basislösungen ergibt sich dann aus l=1 L = { x x = x 1 λ(a 1s,..., a ns ) T, λ 0} 65

10 4 Die 2-Phasen-Methode Problem: Das LOP liegt häufig nicht in Standard Form vor. Um trotzdem den Simplexalgorithmus anwenden zu können ist eine Transformation des Problems in ein Ersatzproblem in Standard Form nötig. 4.1 Transformation in Standard Form (a) Transformation der Zielfunktion: Falls ein Minimierungsproblem Z = c T x min vorliegt, so erhält man daraus das äquivalente Maximierungsproblem Z = ( c) T x max, indem alle Zielfunktionskoeffizienten mit ( 1) multipliziert werden. (b) Transformation der Restriktionen: Zuerst wird jede Restriktion, deren rechte Seite negativ ist, mit ( 1) multipliziert z.b.: 3x 1 4x 2 5 3x 1 + 4x 2 5; Danach werden in den so entstandenen Restriktionen Schlupfvariable y i 0 und/oder Hilfsschlupfvariable h i 0 eingeführt, um ein Gleichungssystem in kanonischer Form zu erhalten. Problem: Bei Restriktionen mit = oder ist die übliche Startlösung x 1 = = x n = 0 möglicherweise nicht zulässig. Es muß zunächst eine erste zulässige Lösung berechnet und dafür passende Basisvariable gefunden werden. 1. a T i x b i = a T i x + y i = b i (BV : y i ) 2. a T i x = b i = a T i x + h i = b i (BV : h i ) 3. a T i x b i = a T i x y i + h i = b i (BV : h i ) mit a i T = (a i1,..., a in ) (c) Transformation der Variablen: In Abhängigkeit von den vorgegebenen Vorzeichenbeschränkungen werden die Variablen x j gegebenenfalls durch neue, nichtnegative Variable x j, x j substituiert: 1. x j 0 = keine Substitution 2. x j 0 = (x j = x j) = x j 0 3. x j bel. = (x j = x j x j ) = x j, x j 0 Beispiel: (a) 4.2 Die zwei Phasen (a) Phase 1: 66

11 Bestimmung einer zulässigen Basislösung durch Eliminierung der Hilfsschlupfvariablen: Phase-1-Zielfunktion Z1: Bemerkung: Das originale LOP ist lösbar h i = 0 i Zielstellung: i h i min. Daraus ergibt sich als Hilfszielfunktion: Z1 = i h i max Optimalitätsindikatoren für Z1: Stelle sämtliche Restriktionen, die eine Hilfsschlupfvariable h i enthalten nach h i um und setze diese in Z1 ein. Wir erhalten Z1 in Abhängigkeit von den Nichtbasisvariablen. Die entsprechenden Koeffizienten dienen als Optimalitätsindikatoren. Z1 im Tableau: Im Tableau wird eine zusätzliche (letzte) Z1-Zeile mitgeführt. über diese Zeile wird in Phase 1 die Wahl der Pivotspalte gesteuert. Bemerkung: Die Z1-Zeile berechnet sich einfach als die negative Summe aller Zeilen, die Hilfsschlupfvariable enthalten. Iteration in Phase 1: Die Iteration erfolgt wie gewohnt mit dem einzigen Unterschied, daß die Wahl der Pivotspalte auschließlich über die Z1-Zeile gesteuert wird. Spalten die zu einer Hilsschlupfvariable der Nichtbasis gehören werden gestrichen. Ende von Phase 1: Phase 1 endet erfolgreich, wenn keine Hilfsschlupfvariablen mehr in der Basis ist, d.h. h i = 0 i. Die Z1 Zeile enthält dann nur noch Nullen und kann gestrichen werden. Eine zulässige Startlösung für das Originalproblem wurde gefunden. (b) Phase 2: Bestimmung einer optimalen Basislösung Ausgehend vom Endtableau von Phase 1 wird die übliche Simplexiteration durchgeführt. (c) Mögliche Probleme in Phase 1: 67

12 Wird in Phase 1 eine optimale Lösung des Ersatzproblems (Phase-1-Zielfunktion) erreicht, bei der noch mindetsens eine Hilfsschlupfvariable positiv ist, so ist das LOP nicht lösbar - der zulässige Bereich ist leer Wird in Phase 1 eine entartete optimale Lösung des Ersatzproblems gefunden, bei der noch Hilfsschlupfvariablen in der Basis sind, aber Z1 = 0 gilt, so sind noch weitere Austauschschritte auszuführen. Wahl des Pivotelementes: wähle aus einer zu einer Hilfsschlupfvariablen gehörenden Zeile ein Element 0. 68

13 5 Sensitivitätsanalyse 5.1 Abhängigkeiten (a) Bemerkung: Der optimale Zielfunktionswert Z max und die optimale Lösung x eines LOP hängen wesentlich ab von den Koeffizienten c j der Zielfunktion und von den rechten Seiten b i der Restriktionen Aus dem optimalen Tableau der Simplex-Methode kann abgelesen werden, wie stark eine Veränderung jedes einzelnen Koeffizienten b i oder c j den optimalen Zielfunktionswert beeinflusst, und innerhalb welcher Intervalle für die Veränderung dieser Koeffizienten (einzeln!) diese Aussagen gelten. Bezeichnungen: x B : enthält die Werte der Basisvariablen (Spalte n + 1) N : enthält die Schattenpreise der Nichtbasisvariablen (Zeile m + 1) (b) Gültigkeitsbereich des Schattenpreises Wird die Abhängigkeit des optimalen Zielfunktionswertes und der optimalen Lösung bezüglich der Änderung der rechten Seite b i der i-ten Restriktionen untersucht, so heißt dieses Intervall Gültigkeitsbereich des Schattenpreises dieser Restriktion, d.h. der Schattenpreis gilt b i [b (u) i, b (o) i ]. Für LOP in Standard-Maximum-Form gilt für Veränderung der rechten Seite einer Restriktion b i := b i + t Falls die zugehörige Schlupfvariable y i Basisvariable ist (Restriktion ist inaktiv), gilt t [ y i, ): Z max und x B ändern sich nicht. Falls die zugehörige Schlupfvariable y i Nichtbasisvariable ist (Restriktion ist aktiv), gilt t [t 1, t 2 ]: Z max := Z max + t a m+1,i, 69

14 x B = x B + t (a 1i,..., a mi ) T Die Parameter t 1, t 2 bestimmen sich aus der Forderung x B = x B + t (a 1i,..., a mi ) T 0, wobei (a 1i,..., a mi, a m+1,i ) T ist. die zu y i gehörige Spalte des Simplextableaus (c) Stabilitätsbereiche Wird die Abhängigkeit des optimalen Zielfunktionswertes bezüglich der Änderung eines Koeffizienten c j der Zielfunktion untersucht, so heißt dieses Intervall Stabilitätsbereich des Zielfunktionskoeffizienten, d.h. die optimale Lösung gilt c j [c (u) j, c (o) j ]. Für LOP in Standard-Maximum-Form gilt für Veränderung eines Zielfunktionskoeffizienten c j := c j + t Falls x j Nichtbasisvariable ist, gilt t (, a m+1,j ] = (, j ]: Z max und x B ändern sich nicht. j ist der Schattenpreis von x j. Falls x j Basisvariable ist, gilt t [t 1, t 2 ]: x B ändert sich nicht, Z max := Z max + t x j. Die Parameter t 1, t 2 bestimmen sich aus der Forderung N = N + t (a j1,..., a jn ) T 0 wobei (a j1,..., a jn ) ist die zu x j gehörende Zeile des Simplextableaus ist. Für LOP, die nicht in Standard-Maximum-Form gegeben sind, gelten analoge Formeln, wobei speziell die Vorzeichen für die Änderungen neu zu überlegen sind. Bei einer Verschärfung der Restriktionen kann sich der optimale Zielfunktionswert nur verschlechtern, bei einer Abschwächung von Restriktionen kann er sich nur verbessern. 70

4.3.3 Simplexiteration

4.3.3 Simplexiteration 7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige

Mehr

Inhaltsverzeichnis Grundlagen der Linearen Optimierung

Inhaltsverzeichnis Grundlagen der Linearen Optimierung Inhaltsverzeichnis 4 Grundlagen der Linearen Optimierung 1 4.1 Grundbegriffe............................. 1 4.1.1 Lineare Optimierung..................... 1 4.1.2 Das Grundmodell eines linearen Optimierungsproblems

Mehr

Eigenschaften von LPs

Eigenschaften von LPs 2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört

Mehr

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)

Mehr

Der Simplex-Algorithmus

Der Simplex-Algorithmus 5 Lineare Programmierung Simplex-Algorithmus Der Simplex-Algorithmus Standardverfahren zur Lösung von LPs, von G B Dantzig entwickelt Grundidee: Versuche ausgehend von einer Startecke mit einer Ausgangsbasis

Mehr

Übung 3, Simplex-Algorithmus

Übung 3, Simplex-Algorithmus Übung 3, 21.6.2011 Simplex-Algorithmus Aufgabe 3.1 Lösen Sie das folgende Optimierungsproblem (von Aufgabe 2.3) graphisch. Substituieren Sie dazu z = 5 y um ein 2-dimensionales Problem zu erhalten. Rechnung

Mehr

Lineare Optimierung: Simplexverfahren Phase Ⅰ

Lineare Optimierung: Simplexverfahren Phase Ⅰ Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren

Mehr

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m) Minimumproblem Definition 4.7 Ein LP der Form nx Minimiere Z = c j x j j=1 unter den Nebenbedingungen nx d ij x j b i (i =1,...,m) j=1 und den Vorzeichenbedingungen x j 0(j =1,...,n) heißt Minimumproblem.

Mehr

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind

Mehr

Lineare Optimierung Teil 2

Lineare Optimierung Teil 2 Lineare Optimierung Teil 2 Primale Degeneration Duale Degeneration = Mehrdeutigkeit Normalform kanonische Form Duale Simplexmethode HTW-Berlin FB3 Prof. Dr.F. Hartl 1 Primale Degeneration/1 Besitzt eine

Mehr

Zugeordneter bipartiter Graph

Zugeordneter bipartiter Graph Zugeordneter bipartiter Graph Für ein Transportproblem sei A = {A 1,...,A m } die Menge der Fabriken und B = {B 1,...,B n } sei die Menge der Warenhäuser. Wir ordnen nun einem Transportproblem einen bipartiten

Mehr

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter

Mehr

Prof. Dr. Roland Griesse. Höhere Mathematik für Bachelorstudiengänge I.2

Prof. Dr. Roland Griesse. Höhere Mathematik für Bachelorstudiengänge I.2 Höhere Mathematik für Bachelorstudiengänge I.2 Wir nehmen an, dass die LOA bereits in Normalform vorliegt: Maximiere c x, wobei A x = b sowie x 0 mit A R m n, b R m und c R n. Neben b 0 nehmen wir noch

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

Lösung allgemeiner linearer Programme

Lösung allgemeiner linearer Programme Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt

Mehr

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten

Mehr

Lineares Optimieren. W. Kippels 12. April Inhaltsverzeichnis. 1 Einleitung 2. 2 Die Beispielaufgabe 2. 3 Einführung von Schlupfvariablen 2

Lineares Optimieren. W. Kippels 12. April Inhaltsverzeichnis. 1 Einleitung 2. 2 Die Beispielaufgabe 2. 3 Einführung von Schlupfvariablen 2 Lineares Optimieren W. Kippels 1. April 015 Inhaltsverzeichnis 1 Einleitung Die Beispielaufgabe Einführung von Schlupfvariablen 4 Die Simplex-Methode 5 Das Basis-Austauschverfahren 4 6 Fortsetzung der

Mehr

CARL HANSER VERLAG. Peter Stingl. Operations Research Linearoptimierung

CARL HANSER VERLAG. Peter Stingl. Operations Research Linearoptimierung ARL HANSER VERLAG Peter Stingl Operations Research Linearoptimierung -446-228-6 wwwhanserde 2 Lineare Optimierungsprobleme x 2 6 P P sentartete Ecke ( 4) x +x 2 5 PPPPPPPPPPPPPPP X x + x 2 7 2x +x 2 8

Mehr

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen 10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie

Mehr

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,

Mehr

6 Korrektheit des Simplexalgorithmus

6 Korrektheit des Simplexalgorithmus 6 Korrektheit des Simplexalgorithmus Folgerung: Es sei L: Ax = b, c T x max LP und A B nicht-degenerierte PZB von L und es gebe c r := c r c B A B A r > 0 a) Falls a r := A B a r 0, dann L unbeschränkt

Mehr

Lineare Optimierungsmodelle

Lineare Optimierungsmodelle Lineare Optimierungsmodelle Simplex-Methode Vortragender: Michael Schneider Agenda Motivation Operations Research Aufbau linearer Optimierungsmodelle Simplex-Methode Ausblick 2 Problemstellung Futtermischung

Mehr

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung

Mehr

Über- und unterbestimmte

Über- und unterbestimmte Über- und unterbestimmte Systeme (verallgemeinerte Lösungen) Über- und unterbestimmte Systeme Ax = b ist genau dann für alle b R m eindeutig lösbar, wenn m = n und rk A = n. Falls m n oder rk A < min{m,

Mehr

Hauptsatz und Optimalitätskriterium der Simplexmethode

Hauptsatz und Optimalitätskriterium der Simplexmethode Kapitel 4 Hauptsatz und Optimalitätskriterium der Simplexmethode In diesem Abschnitt wird das wichtigste Verfahren zur Lösung linearer Optimierungsprobleme eingeführt die Simplexmethode Es existiere für

Mehr

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende) . Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)

Mehr

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung Operations Research Rainer Schrader Die Simplexmethode Zentrum für Angewandte Informatik Köln 18 Juni 00 1 / 1 / 1 Gliederung LP-Dualität ein lineares Produktionsmodell der Simplexalgorithmus Phase I Endlichkeit

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

Operations Research. Linearoptimierung. Bearbeitet von Peter Stingl

Operations Research. Linearoptimierung. Bearbeitet von Peter Stingl Operations Research Linearoptimierung earbeitet von Peter Stingl Auflage 22 uch 76 S Hardcover ISN 978 446 228 8 Format ( x L): 4,5 x 2 cm Gewicht: 26 g Wirtschaft > etriebswirtschaft: Theorie & Allgemeines

Mehr

Die duale Simplexmethode

Die duale Simplexmethode Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen

Mehr

Abbildung 1: Graphische Lösung der ersten Übungsaufgabe

Abbildung 1: Graphische Lösung der ersten Übungsaufgabe Lösungen zu den Übungsaufgaben im Kapitel 1 des Lehrbuches Operations Research Deterministische Modelle und Methoden von Stephan Dempe und Heiner Schreier 1. Lösen Sie die folgende lineare Optimierungsaufgabe

Mehr

Aufgaben zu Kapitel 23

Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Verständnisfragen Aufgabe 23 Bestimmen Sie grafisch die optimale Lösung x der Zielfunktion z = c T x unter den Nebenbedingungen mit dem Zielfunktionsvektor

Mehr

Simplex-Verfahren. Kapitel 3. Simplex-Verfahren. Peter Becker (H-BRS) Lineare und kombinatorische Optimierung Wintersemester 2017/ / 372

Simplex-Verfahren. Kapitel 3. Simplex-Verfahren. Peter Becker (H-BRS) Lineare und kombinatorische Optimierung Wintersemester 2017/ / 372 Kapitel 3 Simplex-Verfahren Peter Becker (H-BRS) Lineare und kombinatorische Optimierung Wintersemester 2017/18 104 / 372 Inhalt Inhalt 3 Simplex-Verfahren Primaler Simplexalgorithmus Unbeschränktheit

Mehr

Lineare Optimierung und Simplex-Algorithmus

Lineare Optimierung und Simplex-Algorithmus Lineare Optimierung und Simplex-Algorithmus Problemstellung Beispiel : Unser Unternehmen verfügt über drei Maschinen A, B, C, mit denen zwei verschiedene Produkte P, P2 hergestellt werden. Die Maschinen

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach

Mehr

3.2.5 Dualität der linearen Optimierung I

3.2.5 Dualität der linearen Optimierung I 3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem

Mehr

mit. Wir definieren (Skalarprodukt = Winkel).

mit. Wir definieren (Skalarprodukt = Winkel). 1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert

Mehr

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005 Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung

Mehr

8. Lineare Optimierung

8. Lineare Optimierung 8. Lineare Optimierung 1 Einführung (1) Praktische Probleme sind oft Probleme mit Nebenbedingungen, z.b.: Ein Produktionsprozess hängt von Lieferterminen ab Die Menge der verstaubaren Güter ist durch die

Mehr

Lineare Optimierung Dantzig 1947

Lineare Optimierung Dantzig 1947 Lineare Optimierung Dantzig 947 Lineare Optimierungs-Aufgaben lassen sich mit Maple direkt lösen: with(simplex): g:= 4*x + x2

Mehr

1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1

1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1 1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme Duales Problem Lemma 1.4. Das zum Transportproblem duale Problem lautet: max unter den Nebenbedingungen m a i u i + i=1

Mehr

1 Lineare Optimierung, Simplex-Verfahren

1 Lineare Optimierung, Simplex-Verfahren 1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und

Mehr

Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel 3 - Lineare Optimierung

Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel 3 - Lineare Optimierung Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel - Lineare Optimierung Sascha Kurz Jörg Rambau 8. August Lösung Aufgabe.. Da es sich um ein homogenes

Mehr

(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung)

(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung) Lineare Optimierung Unterbestimmte LGS und Optimierung Bei lösbaren unterbestimmten linearen Gleichungssystemen haben wir die Qual der Wahl in Abhängigkeit von den freien Parametern (Anzahl = Anzahl Unbekannte

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

Lineare Gleichungssysteme - Grundlagen

Lineare Gleichungssysteme - Grundlagen Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente

Mehr

05. Lineare Gleichungssysteme

05. Lineare Gleichungssysteme 05 Lineare Gleichungssysteme Wir betrachten ein System von m Gleichungen in n Unbestimmten (Unbekannten) x 1,, x n von der Form a 11 x 1 + a 12 x 2 + a 13 x 3 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + a

Mehr

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme 2 Lineare Gleichungssysteme Betrachte ein beliebiges System von m linearen Gleichungen in den n Unbekannten x,,x n : a x + a 2 x 2 + + a n x n = b a 2 x + a 22 x 2 + + a 2n x n = b 2 () a m x + a m2 x

Mehr

Optimale Steuerung 1 Prozessoptimierung 1

Optimale Steuerung 1 Prozessoptimierung 1 Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung

Mehr

Kapitel 15 Lineare Gleichungssysteme

Kapitel 15 Lineare Gleichungssysteme Kapitel 15 Lineare Gleichungssysteme Kapitel 15 Lineare Gleichungssysteme Mathematischer Vorkurs TU Dortmund Seite 1 / 27 Kapitel 15 Lineare Gleichungssysteme Definition 15.1 (Lineares Gleichungssystem

Mehr

Kap. 4: Lineare Programmierung

Kap. 4: Lineare Programmierung Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare

Mehr

Aufgabe 5.3 Duale Simplexverfahren

Aufgabe 5.3 Duale Simplexverfahren Aufgabe 5.3 Knut Krause Thomas Siwczyk Stefan Tittel Technische Universität Dortmund Fakultät für Informatik Algorithmen und Datenstrukturen 15. Januar 2009 Gliederung 1 Aufgabenstellung und Motivation

Mehr

3 Systeme linearer Gleichungen

3 Systeme linearer Gleichungen 3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +

Mehr

Dr. Anita Kripfganz SS 2014

Dr. Anita Kripfganz SS 2014 Dr. Anita Kripfganz SS 2014 4. Lösungsverfahren 4.1. Schnittebenenmethode Im Jahre 1958 hat R. Gomory ein allgemeines Schnittebenenverfahren zur Lösung ganzzahliger linearer Optimierungsprobleme vorgeschlagen.

Mehr

Zeilenstufenform eines Gleichungssystems

Zeilenstufenform eines Gleichungssystems Zeilenstufenform eines Gleichungssystems Ein lineares Gleichungssystem mit einer m n-koeffizientenmatrix lässt sich mit Gauß-Transformationen auf Zeilenstufenform (Echelon-Form) transformieren: Ax = b...

Mehr

3. Schnittebenenverfahren

3. Schnittebenenverfahren 3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research

Mehr

Berufliches Gymnasium (WG, EG, AG, SG) Hauptprüfung 2008 Teil 2, Lineare Optimierung, Aufgabe 2 Baden-Württemberg

Berufliches Gymnasium (WG, EG, AG, SG) Hauptprüfung 2008 Teil 2, Lineare Optimierung, Aufgabe 2 Baden-Württemberg Berufliches Gymnasium (WG, EG, AG, SG) Hauptprüfung 8 Teil, Lineare Optimierung, Aufgabe Baden-Württemberg.. Ein Fertigungsbetrieb für Frottierartikel stellt unter anderem Handtücher und Badetücher her.

Mehr

Klausurrepetitorium ABWL

Klausurrepetitorium ABWL Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches

Mehr

z = c T x : Ax = b, x 0 }, - die Darstellung der Nichtbasisvektoren durch die Basis ist

z = c T x : Ax = b, x 0 }, - die Darstellung der Nichtbasisvektoren durch die Basis ist Kapitel 5 Die Simplexmethode Es werden folgende Bezeichnungen verwendet: - das untersuchte Problem ist min x R n { z = c T x : Ax = b, x 0 }, - die erste zulässige Basislösung sei x = x 1, x 2,, x m, 0,,

Mehr

Kapitel 2: Lineare Optimierung

Kapitel 2: Lineare Optimierung Kapitel 2: Lineare Optimierung Wir beginnen mit Definitionen und beschäftigen uns anschließend mit der graphischen Lösung von linearen Optimierungsproblemen mit zwei Variablen. Neben verschiedenen Schreibweisen

Mehr

10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G

10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G 48 0 Operations Research In der Standardform eines Maximierungsproblem: Max ( w) mit ( w) + u. d. N. z + x l + n ( a gj + j= g G e E n d j x j = z 0 j= n a l j x j = b l für alle l L j= x g n + a gj x

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 13 10. Juni 2010 Kapitel 10. Lineare Gleichungssysteme In diesem Abschnitt untersuchen wir, welche Struktur die Gesamtheit aller Lösungen eines linearen

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung

Mehr

Ausgewählte Lösungen zu den Übungsblättern 4-5

Ausgewählte Lösungen zu den Übungsblättern 4-5 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit

Mehr

Angewandte Mathematik für die Informatik

Angewandte Mathematik für die Informatik Angewandte Mathematik für die Informatik PD Dr. Louchka Popova-Zeugmann PD Dr. Wolfgang Kössler 17. Mai 2017 1 Lineare Optimierung Allgemeine LOA Ganzzahlige Optimierung Differentialgleichungen Differentialgleichungen

Mehr

4.1. Basislösung und kanonische Form

4.1. Basislösung und kanonische Form 4.1. asislösung und kanonische Form ekannt: Jedes LOP kann äquivalent in ein Programm vom Typ III umgeformt werden. Jedes nichtleere Polyeder vom Typ III ist spitz. Für ein LOP vom Typ III gehört im Falle

Mehr

Bonusmaterial Lineare Optimierung ideale Ausnutzung von Kapazitäten

Bonusmaterial Lineare Optimierung ideale Ausnutzung von Kapazitäten Bonusmaterial Lineare Optimierung ideale Ausnutzung von Kapazitäten 23 231 Die Zweiphasenmethode Beim Simplexalgorithmus zur Lösung linearer Optimierungsprobleme in Standardform wählt man im zugehörigen

Mehr

5 Lineare Gleichungssysteme und Determinanten

5 Lineare Gleichungssysteme und Determinanten 5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von

Mehr

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008 Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester

Mehr

Kap. 4.2: Simplex- Algorithmus

Kap. 4.2: Simplex- Algorithmus Kap. 4.: Simplex- Algorithmus Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS Fakultät für Informatik, TU Dortmund Literatur für diese VO V. Chvatal: Linear Programming D. ertsimas:

Mehr

λ i x i λ i 0, x i X, nur endlich viele λ i 0}.

λ i x i λ i 0, x i X, nur endlich viele λ i 0}. jobname LinOpt Sommer Aufgabe a) Sei X R n. Dann ist b) Cone X = { x i X λ i x i λ i, x i X, nur endlich viele λ i }. x Cone S = Lin S x Lin S = Cone S. Also gibt es nicht-negative Koeffizienten µ i von

Mehr

Lineare Algebra I (WS 12/13)

Lineare Algebra I (WS 12/13) Lineare Algebra I (WS 12/13) Bernhard Hanke Universität Augsburg 17.10.2012 Bernhard Hanke 1 / 9 Wir beschreiben den folgenden Algorithmus zur Lösung linearer Gleichungssysteme, das sogenannte Gaußsche

Mehr

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max

Mehr

Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber

Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Sitzplatznr.: Wiederholungsklausur zur Vorlesung Operations Research im Wintersemester

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus

Mehr

Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen

Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen be/ji/3(2) 2-1 2 im Kontext der OR-Optimierungsmodelle Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen Standardform: - Planungsziel min bzw. min Z(x) = c 1 x 1 + c 2 x 2 + + c n x n Z(x)

Mehr

Fachakademie für Wirtschaft der FHM A2: Lineare Optimierung und das Simplexverfahren

Fachakademie für Wirtschaft der FHM A2: Lineare Optimierung und das Simplexverfahren A2.1 Lineare Optimierung mit dem Simplexverfahren Wenn ein Unternehmen ermitteln möchte, wie viele Mengeneinheiten von verschiedenen Produkten zu produzieren sind, damit bei gegebenen Verkaufspreisen der

Mehr

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare

Mehr

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $ Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit

Mehr

4 Lineare Optimierung

4 Lineare Optimierung 4 Lineare Optimierung In diesem Kapitel werden wir uns mit effizienten Verfahren im Bereich der linearen Optimierung beschäftigen. 4.1 Einführung Als Einführung betrachten wir das Beispiel einer Erdölraffinerie.

Mehr

Länge eines Vektors und Abstand von zwei Punkten 2. 4 = 6. Skalarprodukt und Winkel zwischen Vektoren

Länge eines Vektors und Abstand von zwei Punkten 2. 4 = 6. Skalarprodukt und Winkel zwischen Vektoren Länge eines Vektors und Abstand von zwei Punkten Aufgabe Bestimme die Länge des Vektors x. Die Länge beträgt: x ( ) =. Skalarprodukt und Winkel zwischen Vektoren Aufgabe Es sind die Eckpunkte A(; ), B(

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

Kapitel 14 Lineare Gleichungssysteme

Kapitel 14 Lineare Gleichungssysteme Kapitel 4 Lineare Gleichungssysteme Kapitel 4 Lineare Gleichungssysteme Mathematischer Vorkurs TU Dortmund Seite 83 / 246 Kapitel 4 Lineare Gleichungssysteme Definition 4. (Lineares Gleichungssystem LGS)

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

10. Lineare Optimierung

10. Lineare Optimierung 10. Lineare Optimierung Im Kontext der Optimierungsmodelle: Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen Lösungsraum Unterraum des n Problem der linearen Optimierung Minimiere unter

Mehr

Lineare Algebra I (WS 12/13)

Lineare Algebra I (WS 12/13) Lineare Algebra I (WS 12/13) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 18.10.2012 Alexander Lytchak 1 / 12 Lineare Gleichungssysteme Wir untersuchen nun allgemeiner Gleichungssysteme der

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG R Käppeli L Herrmann W Wu Herbstsemester 26 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 2 Aufgabe 2 Welche der folgenden Aussagen sind korrekt? (i) Jedes

Mehr

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Kapitel 11 Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Wir betrachten folgendes Optimierungsproblem z = c T x min! Ax = b (11.1) (11.2) x j ganz für j = 1,..., n 1 n, (11.3)

Mehr

7.1 Matrizen und Vektore

7.1 Matrizen und Vektore 7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit

Mehr

III. Transportaufgaben 1. Problemstellung 2. Analyse 3. Bestimmung der Startecke 4. Eckenaustausch 5. Umladeprobleme 6. Zuordnungsprobleme

III. Transportaufgaben 1. Problemstellung 2. Analyse 3. Bestimmung der Startecke 4. Eckenaustausch 5. Umladeprobleme 6. Zuordnungsprobleme III. Transportaufgaben 1. Problemstellung 2. Analyse 3. Bestimmung der Startecke 4. Eckenaustausch 5. Umladeprobleme 6. Zuordnungsprobleme H. Weber, FHW, OR SS07, Teil 6, Seite 1 1. Problemstellung Wir

Mehr

Optimierung. Nürnberg, Oktober 2015

Optimierung. Nürnberg, Oktober 2015 1 Optimierung Nürnberg, Oktober 2015 Prof. Dr. Yvonne Stry Technische Hochschule Nürnberg Fakultät Angewandte Mathematik, Physik und Allgemeinwissenschaften Keßlerplatz 12 90461 Nürnberg Germany 1 Beispiel

Mehr

Lineare Gleichungssystem

Lineare Gleichungssystem Lineare Gleichungssystem 8. Juli 07 Inhaltsverzeichnis Einleitung Der Gauß-Algorithmus 4 3 Lösbarkeit von Gleichungssystemen 6 Einleitung Wir haben uns bisher hauptsächlich mit dem Finden von Nullstellen

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 7 11. Mai 2010 Kapitel 8. Vektoren Definition 76. Betrachten wir eine beliebige endliche Anzahl von Vektoren v 1, v 2,..., v m des R n, so können

Mehr

Klausurenkurs zum Staatsexamen (WS 2014/15): Lineare Algebra und analytische Geometrie 1

Klausurenkurs zum Staatsexamen (WS 2014/15): Lineare Algebra und analytische Geometrie 1 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 204/5): Lineare Algebra und analytische Geometrie. (Herbst 2005, Thema, Aufgabe ) Bestimmen Sie alle reellen Lösungen des folgenden linearen Gleichungssystems:.2

Mehr

Kuhn-Tucker Bedingung

Kuhn-Tucker Bedingung Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,

Mehr