Sensitivitätsanalyse in der Linearen Optimierung

Größe: px
Ab Seite anzeigen:

Download "Sensitivitätsanalyse in der Linearen Optimierung"

Transkript

1 Sensitivitätsanalyse in der Linearen Optimierung Bei der Sensitivitätsanalyse werden i. allg. Größen des Ausgangsproblems variiert, und es wird untersucht, welche Wirkung eine derartige Modifikation auf die Lösung eines Problems besitzt. Man kann diese Frage auch etwas anders stellen: In welchem Maße kann man eine Größe ändern, ohne daß sich die Änderung auf die wesentlichen Eigenschaften der Lösung auswirkt? Da man in einem Problem i.d.r. nicht alle Daten gleichzeitig modifizieren kann, wird nur eine Größe unter Konstanthaltung aller anderen ( ceteris paribus ) geändert und die Frage gestellt: In welchem Bereich kann die betreffende Größe variiert werden, ohne daß damit die Lösung ihre Gültigkeit verliert? Unter gültig werden hier die qualitativen Merkmale einer Lösung verstanden und nicht die quantitativen. Das heißt, eine Lösung unterscheidet sich qualitativ (strukturell) erst dann von einer anderen, wenn mindestens eine Pivotoperation nötig ist, um Zulässigkeit und/oder Optimalität wieder herzustellen, wenn sie durch die Änderung verloren ging. Diese in LP-Software-Systemen i.allg. als RANGE bezeichnete Prozedur wird stets unter Konstanthaltung aller übrigen Daten bezüglich eines Koeffizienten durchgeführt. Besondere Bedeutung kommt hierbei den sog. Randkoeffizienten eines LP-Modells zu, d.h. den Koeffizienten der Rechten Seite und der Zielfunktion. Da in der rein algorithmischen Behandlung jedoch alle Zeilen und Spalten gleich behandelbar sind, läßt sich die Analyse im Prinzip auf jeden anderen Koeffizienten ausweiten. Allerdings unterscheiden sich die Ränder von den übrigen Zeilen und Spalten dadurch, daß sie nie Pivotzeile bzw. Pivotspalte werden, so daß sie nicht bewegt werden. Die Sensitivitätsanalyse ist dann für die Zeilen und Spalten komplizierter, die während des Lösungsprozesses von der Basis in die Nichtbasis wechseln. Wir diskutieren in der Hauptsache die Sensitivitätsanalyse der Rechten Seite (RS) (Abschnitt 1) und der Zielfunktion (ZF) (Abschnitt 2). Beides wird i.d.r. auch zusammen mit LP-Software angeboten. Um den Schwankungsbereich eines Koeffizienten bestimmen zu können, werden stets sowohl der Ausgangszustand als auch die Optimallösung des betreffenden Problems benötigt. Wir gehen im folgenden von den in Tab. 1a und b dargestellten Bezeichnungen aus. Max x j x s RS Max x j x r RS z d j d s z 0 z d j d r z 0 x r a rj a rs b r x s a sj a sr b s x i a ij a is b i x i a ij a ir b i Tab. 1a: Ausgangszustand Tab. 1b: Optimalzustand Die vier in den Tableaus benutzten Variablen x i, x r, x j und x s stehen stellvertretend für ganze Mengen von Variablen mit folgenden Eigenschaften: x i ist eine logische Basisvariable, d.h. eine ursprüngliche Schlupfvariable, die auch in der Optimallösung noch Basisvariable (BV) ist.

2 2 Sensitivitätsanalyse in LP x r ist eine logische Basisvariable, d.h. entweder eine Schlupfvariable oder eine künstliche Variable, die im Optimalzustand Nichtbasisvariable (NBV) ist. x j ist eine Entscheidungsvariable, d.h. eine ursprüngliche Strukturvariable, Aktivitätenvariable etc., die im Optimalzustand noch NBV ist. x s ist eine Entscheidungsvariable, die im Optimalzustand als BV erscheint. Für die Randkoeffizienten (b i, b r, d j, d s ) werden die Schwankungsbereiche dadurch bestimmt, daß man zu der betreffenden Größe einen zunächst variablen Wert δ addiert (bzw. subtrahiert) und die Änderung auf die Optimallösung berechnet. Sodann wird gefragt, wie groß die Wirkung maximal sein darf, ohne daß sie eine Iteration notwendig macht. Auf diese Weise wird für jede der betrachteten vier Größen ein Intervall berechnet, dessen Grenzen diejenigen Werte darstellen, deren Unter- bzw. Überschreitung einen Basiswechsel erfordern. Wir werden diese Grenzwerte als Iterationsgrenzen bezeichnen. Zusammen mit diesen Werten wird i.allg. festgelegt, welche Aktivität bzw. welche Variable von der nächsten notwendigen Iteration betroffen ist, d.h. welche Variable ggfs. die Basis verläßt oder in sie aufgenommen wird. Die untere bzw. obere Iterationsgrenze wird nachfolgend durch die Hochindizes ( u ) bzw. ( o ) gekennzeichnet, während die variierte Größe unterstrichen ist. 1 Sensitivitätsanalyse der Rechten Seite Im Hinblick auf die Koeffizienten der Rechten Seite wird gefragt, in welchen Bereichen b i bzw. b r schwanken können, bevor eine Iteration ausgelöst wird. Dabei ist zu unterscheiden, ob die ursprüngliche Basisvariable in der Optimallösung noch immer Basisvariable (x i ) ist oder nicht (x r ). Fall 1.1: Sensitivitätsanalyse der Koeffizienten b i Eine ursprüngliche Basisvariable x i ist noch in der Basis und hat den Wert x i = b i. Die Variable x i kann als Schlupfvariable angesehen werden und der Wert b i als Restkapazität. Der Faktor i ist also nicht knapp, sondern kann im Gegenteil um b i konsequenzlos im Angebot verringert werden: δ u = b i Verringert man b i noch mehr, wird x i die Basis verlassen. Bei einer Vergrößerung von b i wird die Restkapazität b i entsprechend größer. Das heißt, die Obergrenze ist unendlich. Der gesamte Schwankungsbereich beträgt also: δ u = b i : x i verläßt die Basis b i δ u b i < (keine Änderung)

3 3 Sensitivitätsanalyse in LP Fall 1.2: Sensitivitätsanalyse der Koeffizienten b r Als NBV ist x r gleich null, d.h. der entsprechende Faktor r ist knapp. Würde man x r = δ erzwingen, so würde sich dies laut Tab. 1b auf die Rechte Seite wie folgt auswirken: x r = δ d a a r sr ir RS(δ) z0 δ dr bs δ asr b i δ air Mit δ > 0 würde Restkapazität geschaffen, d.h. das ursprüngliche Angebot verringert ( Untergrenze u ). Für δ < 0 würde (fiktive) Restkapazität beseitigt, d.h. das Angebot im Ausgangszustand vergrößert ( Obergrenze o ). Somit stellt sich die Frage, wann in beiden Fällen der erste Koeffizient der Rechten Seite gleich null wird: b i bp min air > 0 = > 0 (u) δ > 0: δ u i air apr,falls air 0 i Es wird angenommen, daß sich das Minimum in der Spalte mit x p als BV ergäbe. b i bq max air < 0 = < 0 (o) δ < 0: δ o i air aqr,falls air 0 i Es wird angenommen, daß sich das Maximum in der Spalte mit x q als BV ergäbe. Zusammengefaßt ergibt sich das Intervall: x p verläßt die Basis b r δ u b r b r δo x q verläßt die Basis Die Rechenregeln sind nachstehend algorithmisch zusammengefaßt:

4 4 Sensitivitätsanalyse in LP Sensitivitätsanalyse der Rechten Seite b Input: Output: Simplex-Tableau eines Maximierungsproblems der optimalen Lösung zur Basis B Schwankungsbereiche für alle Koeffizienten des Vektors b Markierung: Größen des Optimaltableaus sind mit Stern (), die variierten Größen durch Unterstrich gekennzeichnet. Methode: Schritt 1: Die Sensitivitätsanalyse untersucht Wertänderungen der logischen Variablen, d.h. der ursprünglichen Basisvariablen (Schlupfvariablen und künstliche Variablen). Logische Variablen in der Basis: x i mit i B x i b i - δ u b i < Schritt 2: Logische Variablen als NBV: x r mit r N 2.1 Berechne δ u b b i p min air > 0 = i air a pr, falls air 0 i Der minimale (positive) Quotient ergebe sich in der Zeile p. δ o b b i q max air < 0 = i air aqr, falls air 0 i Der maximale (negative) Quotient ergebe sich in der Zeile q. 2.2 Als Schwankungsbereich ergibt sich: x p b r δ u b r b r δo x q Algorithmus 1: Sensitivitätsanalyse der Rechten Seite

5 5 Sensitivitätsanalyse in LP Beispiel: Im folgenden sind für ein Problem das Ausgangs- und das Optimaltableau gegeben: Max x 1 x 2 x 3 RS z x R x T x M Tab. 2: Ausgangstableau Max x M x 2 x T RS Var r x M x T z x R (o) x bi (u) a x (u) 500 (o) Tab. 3a: Optimaltableau Tab. 3b: Quotiententableau Das Ergebnis der Sensitivitätsanalyse ist für alle Koeffizienten der RS in der nachstehenden Tab. 4 zusammengefaßt: x p b i δ u Var. i RS b i b i δ o x q Fall x R x R (1,1) x x T x 1 (1,2) x x M x R (1,2) ir Tab. 4: Zusammenfassung der Ergebnisse der Sensitivitätsanalyse der Rechten Seite Die Sensitivitätsanalyse der Koeffizienten b i läßt sich geometrisch eindrucksvoll erklären. Variiert man den absoluten Wert (= Rechte Seite b i ) einer Nebenbedingung, so verschiebt man diese parallel. Qualitativ ändert sich nichts an der Lösung, so lange von der Verschiebung kein Eckpunkt betroffen ist, der nicht auf der Nebenbedingung liegt. Das bedeutet z.b. in Abb. 1, daß die Nebenbedingung (i) in dem Korridor zwischen der Lage (u unterer Iterationswert) und (o oberer Iterationswert) bewegt werden kann, ohne die Eckpunkte 1 und 2 zu tangieren. Da die Eckpunkte 3, 4 und 5 auf der Nebenbedingung (i) liegen, verschieben sich diese mit.

6 6 Sensitivitätsanalyse in LP x P 4 (o) x1 (u) (i) Abb. 1: Sensitivitätsanalyse von Rechter Seite b i {or1ab401.pre} An der unteren Iterationsgrenze wird der Eckpunkt 2 erreicht. Unterschreitet man ihn, so muß die zur Ordinate gehörende Schlupfvariable aus der Basis eliminiert werden. An der oberen Iterationsgrenze wird der Eckpunkt 1 erreicht. Bei einer darüber hinausgehenden Vergrößerung von b i stellt die Nebenbedingung (i) keine Beschränkung mehr dar. Ihre Schlupfvariable x i wird daher größer null werden und damit Basisvariable.

7 7 Sensitivitätsanalyse in LP 2 Sensitivitätsanalyse der Zielfunktion Wie zuvor sollen nun die Bewertungsgrößen der Zielfunktion bezüglich ihrer Wirkung auf die Optimallösung analysiert werden. Dabei kommt es - wie im übrigen fast immer, wenn mit der Zielfunktion argumentiert wird - zu einem Sprachproblem, das mit dem (umgekehrten) Vorzeichen der Zielfunktionskoeffizienten im Tableau zusammenhängt. Dadurch wird ein positiver Bewertungskoeffizient im Tableau negativ und eine obere Schranke desselben ergäbe sich im Tableau als untere Schranke. In diesem Sinne ist genau die Sensitivitätsanalyse betroffen, bei der ja derartige Schranken gesucht sind. Wir unterscheiden daher im weiteren zwischen dem Zielzeilenkoeffizient (ZZK) d j, der im Tableau erscheint, und dem Zielfunktionskoeffizient (ZFK) c j, der im Sinne des Zielkriteriums interpretiert wird. Bei der Sensitivitätsanalyse der Zielzeilenkoeffizienten fragen wir: In welchem Bereich darf δ in dem Ausdruck d j = d j + δ schwanken, ohne die Lösung strukturell zu beeinflussen? Gesucht sind also die oberen und unteren Schranken für den Änderungsbetrag δ, bei deren Über- bzw. Unterschreitung eine Iteration ausgelöst wird. Auch in diesem Abschnitt muß man zwei Fälle unterscheiden, je nachdem, ob die betreffende Strukturvariable x j im Optimalzustand Nichtbasisvariable (NBV und damit x j = 0) ist oder Basisvariable (BV und damit i.allg. x j > 0) ist. Zusätzlich kann man die Sensitivitätsanalyse auf ursprüngliche Schlupfvariablen ausdehnen, die im Optimalzustand größer null sind. Dies läßt eine interessante Interpretation zu. Fall 2.1: Sensitivitätsanalyse der Zielfunktionskoeffizienten d j Die Aktivität j wird im Optimalzustand nicht genutzt, weil der ZZK d j um den Betrag d j > 0, d.h. den reduzierten Kosten, zu groß ist. Verringert man den ZZK um d j, d.h. auf d j d j, so wird im Optimalzustand in der Spalte j der ZZK gleich null werden, d.h. eine mehrdeutige Lösung anzeigen. Eine Änderung darüber hinaus ergibt einen negativen Zielzeilenkoeffizient, der eine Iteration auslöst. Bei jeder Vergrößerung von d j würde der Zielzeilenkoeffizient d j nur umso größer werden, so daß hieraus kein Einfluß auf die Lösungsstruktur resultiert. Zusammengefasst: δ u = d j : x j geht in die Basis d j δ u = d j d j d j < (keine Änderung!) Fall 2.2: Sensitivitätsanalyse der Zielfunktionskoeffizienten d s Das Auftreten der Strukturvariablen x s in der Basis bedeutet, daß die Aktivität s auf entsprechendem Niveau x s = b s > 0 genutzt wird. Eine Änderung des Zielzeilenkoeffizienten d s um δ auf d s = d s + δ bedeutet für δ > 0 eine Vergrößerung des ZZK (= eine Verkleinerung des ZFK!) und für δ < 0 eine Verkleinerung des ZZK (= eine Vergrößerung des ZFK!).

8 8 Sensitivitätsanalyse in LP Max x j x r RS z d j + δ a sj d r + δ a sr z 0 + δ b r x s a sj a sr b r Tab. 5: Änderung der Zielfunktion Welchen Wert kann δ annehmen, bis der erste modifizierte ZZK in Tab. 5 gleich Null sein wird? Für δ < 0 wird der ZZK kleiner, d.h. man berechnet die Untergrenze δ u der Änderung; dann kann nur für positive Koeffizienten a sj > 0 einer der ZZK gleich Null werden: d j dj + δ asj = 0 δ= >0 für asj > 0 a sj Der kleinste derartige Quotient zeigt an, um welchen Betrag der zugehörige ZZK maximal verkleinert werden kann, bevor eine Iteration notwendig wird. (u) δ > 0: d u d j cv min asj > 0 = > 0 j asj asv, falls a 0 j Es wird angenommen, daß sich das Minimum in der Spalte mit x v als NBV ergibt. sj Für δ > 0 wird der ZZK größer, d.h. man berechnet die Obergrenze δ o der Änderung; dann kann nur für negative Koeffizienten a sj < 0 einer der ZZK gleich Null werden: (o) δ < 0: d o d j dw max asj < 0 = < 0 j asj asw, falls a 0 j Es wird angenommen, daß sich das Maximum in der Spalte mit x w als NBV ergibt. Für die Zielzeilenkoeffizienten d s ergibt sich damit folgender Schwankungsbereich: sj x v geht in die Basis d s + δ u d s d s + δ o x w geht in die Basis Im Fall 2.2 kann man noch eine sehr informative Sonderbetrachtung anschließen. Eine logische Basisvariable ist entweder eine künstliche Variable oder eine Schlupfvariable. Als künstliche Variable darf sie im Optimalzustand nicht BV sein. Eine Schlupfvariable kann jedoch sowohl NBV (eines knappen Faktors Fall 1.2) als auch BV sein. Letzteres bedeutet, daß von dem betreffenden Faktor ein Restschlupf existiert.

9 9 Sensitivitätsanalyse in LP Eine Schlupfvariable x i unterscheidet sich von einer Strukturvariable hauptsächlich dadurch, daß der Zielfunktionskoeffizient anfangs gleich Null ist. In den folgenden beiden Fällen könnte man sich vorstellen, daß der Schlupf in einem Maximierungsproblem anders als mit null bewertet ist: Einen positiven ZFK (c i > 0) könnte man als Erlös interpretieren mit der Idee, den Rest in jedem Fall zu dem Preis c i > 0 absetzen zu können. Einen negativen ZFK (c i < 0) könnte man als Kosten ansehen, die proportional zur Restmenge entstehen, wie z.b. Lagerkosten. Für eine Schlupfvariable in der optimalen Basis kann man nun durch die Sensitivitätsanalyse ermitteln, in welchem Bereich (zwischen minimalen Kosten und maximalem Erlös) die Bewertung des Restfaktors schwanken kann, ohne die Lösungsstruktur zu ändern. Dazu wendet man auf Zeilen i mit x i > 0 die Abweichungsanalyse wie für Strukturvariablen in der Basis an. Die untere (δ u ) bzw. obere Iterationsgrenze ( δ o ) bestimmen dann den Schwankungsbereich: x v geht in die Basis δ u d i δ o x w geht in die Basis Die Rechenregeln sind nachstehend algorithmisch zusammengefaßt:

10 10 Sensitivitätsanalyse in LP Sensitivitätsanalyse der Zielfunktion d T Input: Output: Simplex-Tableau eines Maximierungsproblems der optimalen Lösung zur Basis B Schwankungsbereiche für alle Koeffizienten des Vektors d T Markierung: Größen des Optimaltableaus sind mit Stern (), die variierten Größen durch Unterstrich gekennzeichnet. Methode: Schritt 1: Die Sensitivitätsanalyse untersucht Wertänderungen der Strukturvariablen, d.h. der ursprünglichen Nichtbasisvariablen (Entscheidungsvariablen) und der Schlupfvariablen, die in der Basis bleiben. Strukturvariable als NBV: x j mit j N δ u = d j : x j geht in die Basis d j δ u = d j d j d j < Schritt 2: Strukturvariable in der Basis: x s mit s B 2.1 Berechne d u d j cv min asj > 0 = > 0 j asj asv, falls a 0 j sj Der minimale positive Quotient ergebe sich in der Spalte v. d o d j dw max asj < 0 = < 0 j asj asw, falls a 0 j sj Der minimale negative Quotient ergebe sich in der Spalte w. 2.2 Als Schwankungsbereich ergibt sich: x v Schritt 3: Logische Variable in der Basis: x i mit i B 3.1 Berechne nach den Regeln 2.1 δ u und δ o für Zeile i: 3.2 Als Schwankungsbereich für die Bewertung des Schlupfs ergibt sich: x v Algorithmus 2: Sensitivitätsanalyse der Zielfunktion

11 11 Sensitivitätsanalyse in LP Beispiel: Das Beispiel des vorausgegangenen Abschnitts soll auch hier zur Illustration dienen. Max x M x 2 x T RS z x R x x Tab. 6: Optimaltableau Var j x R 2,5 (o) 2 (u) x (u) x (u) (o) c a j ij Tab. 7: Quotiententableau Die Sensitivitätsanalyse der Zielfunktionskoeffizienten (ZFK) ergibt also: x v d j + δ u Var j d j d j + δ o x w x x x T x x 2 x x x 2 2 x R 0 2,5 x M Tab. 8: Zusammenfassung der Ergebnisse der Sensitivitätsanalyse der Zielfunktion Auch zur Zielfunktionsanalyse gibt es eine sehr anschauliche geometrische Deutung. Modifikation eines Zielfunktionskoeffizienten c j heißt in jedem Fall, die Neigung der Zielhyperebene in entsprechender Koordinatenrichtung zu ändern; man also dreht die Zielebene um den optimalen Punkt. An der zweidimensionalen Abb. 2 kann man die Wirkung einer Drehung besonders deutlich erkennen. Die Zielfunktion kann um den optimalen Punkt 4 gedreht werden, bis sie parallel zu einer den Optimalpunkt bestimmenden Nebenbedingungen verläuft. Dann hat man den Fall mehrdeutiger Lösungen erreicht. Kippt man die Zielfunktion weiter, d.h. über die Punkte 2 bzw. 3 hinaus, so ändert sich der Optimalpunkt in einen dieser Eckpunkte, was eine Iteration auslösen würde.

12 12 Sensitivitätsanalyse in LP x P x1 Abb. 2: Sensitivitätsanalyse der Zielfunktion {or1ab402.pre}

Aufgabe 3.1: LP-Informationen im Optimum

Aufgabe 3.1: LP-Informationen im Optimum Johann Wolfgang Goethe-Universität Frankfurt am Main Lehrst.f.BWL, insb. Quant. Methoden Prof. Dr. Dietrich Ohse LPUE:SQM6 LP und Erweiterungen lpueb03_ 2003s.doc Aufgabe 3.1: LP-Informationen im Optimum

Mehr

würde eine Reduktion der Kapazität um = 100 h ebenfalls eine Änderung des

würde eine Reduktion der Kapazität um = 100 h ebenfalls eine Änderung des Aufgabe 4.: Sensitivitätsanalyse (a) 60 c 30 Deckungsbeitrag: (30 db 60) (b) 20 3 c C 0 3 Das heißt, die Restkapazität kann bis zu 20 3 Erträge bringen, bzw. bis zu 0 3 Kosten verursachen, ohne die Lösung

Mehr

10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G

10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G 48 0 Operations Research In der Standardform eines Maximierungsproblem: Max ( w) mit ( w) + u. d. N. z + x l + n ( a gj + j= g G e E n d j x j = z 0 j= n a l j x j = b l für alle l L j= x g n + a gj x

Mehr

Eigenschaften von LPs

Eigenschaften von LPs 2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört

Mehr

4.3.3 Simplexiteration

4.3.3 Simplexiteration 7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige

Mehr

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen Kapitel IV: Grundlagen der Linearen Optimierung Inhaltsverzeichnis Abschnitt 3-5 3 Der Simplexalgorithmus 58 3.1 Grundlagen..............................

Mehr

Klausurkolloquium. Musterlösung Produktionscontrolling: Lineare Programmierung

Klausurkolloquium. Musterlösung Produktionscontrolling: Lineare Programmierung Klausurkolloquium Musterlösung Produktionscontrolling: Lineare Programmierung Fallstudie Die GOGO GmbH ist ein mittelständisches gewinnorientiertes Unternehmen. Das taktische Produktionsprogramm einer

Mehr

Aufgabe 3.1: LP-Problem mit allen Bedingungstypen

Aufgabe 3.1: LP-Problem mit allen Bedingungstypen Johann Wolfgang Goethe-Universität Frankfurt am Main Lehrst.f.BWL, insb. Quant. Methoden Prof. Dr. Dietrich Ohse Interpretation, zulässige Lösung, Dualität 18. Mai 2004 Aufgabe 3.1: LP-Problem mit allen

Mehr

Lineare Optimierung Teil 2

Lineare Optimierung Teil 2 Lineare Optimierung Teil 2 Primale Degeneration Duale Degeneration = Mehrdeutigkeit Normalform kanonische Form Duale Simplexmethode HTW-Berlin FB3 Prof. Dr.F. Hartl 1 Primale Degeneration/1 Besitzt eine

Mehr

Inhaltsverzeichnis Grundlagen der Linearen Optimierung

Inhaltsverzeichnis Grundlagen der Linearen Optimierung Inhaltsverzeichnis 4 Grundlagen der Linearen Optimierung 1 4.1 Grundbegriffe............................. 1 4.1.1 Lineare Optimierung..................... 1 4.1.2 Das Grundmodell eines linearen Optimierungsproblems

Mehr

Lineares Optimieren. W. Kippels 12. April Inhaltsverzeichnis. 1 Einleitung 2. 2 Die Beispielaufgabe 2. 3 Einführung von Schlupfvariablen 2

Lineares Optimieren. W. Kippels 12. April Inhaltsverzeichnis. 1 Einleitung 2. 2 Die Beispielaufgabe 2. 3 Einführung von Schlupfvariablen 2 Lineares Optimieren W. Kippels 1. April 015 Inhaltsverzeichnis 1 Einleitung Die Beispielaufgabe Einführung von Schlupfvariablen 4 Die Simplex-Methode 5 Das Basis-Austauschverfahren 4 6 Fortsetzung der

Mehr

3.2.5 Dualität der linearen Optimierung I

3.2.5 Dualität der linearen Optimierung I 3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem

Mehr

Lineare Optimierung: Simplexverfahren Phase Ⅰ

Lineare Optimierung: Simplexverfahren Phase Ⅰ Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren

Mehr

Der Simplex-Algorithmus

Der Simplex-Algorithmus 5 Lineare Programmierung Simplex-Algorithmus Der Simplex-Algorithmus Standardverfahren zur Lösung von LPs, von G B Dantzig entwickelt Grundidee: Versuche ausgehend von einer Startecke mit einer Ausgangsbasis

Mehr

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen 10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie

Mehr

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005 Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung

Mehr

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind

Mehr

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m) Minimumproblem Definition 4.7 Ein LP der Form nx Minimiere Z = c j x j j=1 unter den Nebenbedingungen nx d ij x j b i (i =1,...,m) j=1 und den Vorzeichenbedingungen x j 0(j =1,...,n) heißt Minimumproblem.

Mehr

Lösung allgemeiner linearer Programme

Lösung allgemeiner linearer Programme Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt

Mehr

Kurseinheit 2»Dualität und weiterführende Methoden«

Kurseinheit 2»Dualität und weiterführende Methoden« Inhaltsübersicht 1 Gliederung Kurseinheit 1»Simpleverfahren«1. Einleitung 1.1. Einordnung und Übersicht des Stoffes 1.2. Einführendes Beispiel und Grundlagen 2. Lineare Gleichungssysteme 2.1. Die allgemeine

Mehr

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)

Mehr

Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel 3 - Lineare Optimierung

Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel 3 - Lineare Optimierung Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel - Lineare Optimierung Sascha Kurz Jörg Rambau 8. August Lösung Aufgabe.. Da es sich um ein homogenes

Mehr

Übung 3, Simplex-Algorithmus

Übung 3, Simplex-Algorithmus Übung 3, 21.6.2011 Simplex-Algorithmus Aufgabe 3.1 Lösen Sie das folgende Optimierungsproblem (von Aufgabe 2.3) graphisch. Substituieren Sie dazu z = 5 y um ein 2-dimensionales Problem zu erhalten. Rechnung

Mehr

Optimierung. Vorlesung 02

Optimierung. Vorlesung 02 Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j

Mehr

CARL HANSER VERLAG. Peter Stingl. Operations Research Linearoptimierung

CARL HANSER VERLAG. Peter Stingl. Operations Research Linearoptimierung ARL HANSER VERLAG Peter Stingl Operations Research Linearoptimierung -446-228-6 wwwhanserde 2 Lineare Optimierungsprobleme x 2 6 P P sentartete Ecke ( 4) x +x 2 5 PPPPPPPPPPPPPPP X x + x 2 7 2x +x 2 8

Mehr

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2005/2006

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2005/2006 Universität Hannover Wirtschaftswissenschaftliche Fakultät Lehrstuhl für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 005/006

Mehr

Fachbereich Wirtschaftswissenschaften Professur f. Quantitativen Methoden Prof. Dr. Dietrich Ohse

Fachbereich Wirtschaftswissenschaften Professur f. Quantitativen Methoden Prof. Dr. Dietrich Ohse Fachbereich Wirtschaftswissenschaften Professur f. Quantitativen Methoden Prof. Dr. Dietrich Ohse Diplomprüfung / Sommersemester 24 Quantitative Methoden der BWL Musterlösung der Prüfungsklausur vom. Juli

Mehr

Optimale Steuerung 1 Prozessoptimierung 1

Optimale Steuerung 1 Prozessoptimierung 1 Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung

Mehr

Probeklausur Optimierung

Probeklausur Optimierung Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften Dr. Nico Düvelmeyer Hamburg, 4. Juli 2011 Probeklausur Optimierung Bitte selber ausfüllen: Name: (darf anonymisiert werden)

Mehr

Prof. Dr. Roland Griesse. Höhere Mathematik für Bachelorstudiengänge I.2

Prof. Dr. Roland Griesse. Höhere Mathematik für Bachelorstudiengänge I.2 Höhere Mathematik für Bachelorstudiengänge I.2 Wir nehmen an, dass die LOA bereits in Normalform vorliegt: Maximiere c x, wobei A x = b sowie x 0 mit A R m n, b R m und c R n. Neben b 0 nehmen wir noch

Mehr

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter

Mehr

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten

Mehr

Lineare Optimierungsmodelle

Lineare Optimierungsmodelle Lineare Optimierungsmodelle Simplex-Methode Vortragender: Michael Schneider Agenda Motivation Operations Research Aufbau linearer Optimierungsmodelle Simplex-Methode Ausblick 2 Problemstellung Futtermischung

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

Operations Research. Linearoptimierung. Bearbeitet von Peter Stingl

Operations Research. Linearoptimierung. Bearbeitet von Peter Stingl Operations Research Linearoptimierung earbeitet von Peter Stingl Auflage 22 uch 76 S Hardcover ISN 978 446 228 8 Format ( x L): 4,5 x 2 cm Gewicht: 26 g Wirtschaft > etriebswirtschaft: Theorie & Allgemeines

Mehr

Berufliches Gymnasium (WG, EG, AG, SG) Hauptprüfung 2008 Teil 2, Lineare Optimierung, Aufgabe 2 Baden-Württemberg

Berufliches Gymnasium (WG, EG, AG, SG) Hauptprüfung 2008 Teil 2, Lineare Optimierung, Aufgabe 2 Baden-Württemberg Berufliches Gymnasium (WG, EG, AG, SG) Hauptprüfung 8 Teil, Lineare Optimierung, Aufgabe Baden-Württemberg.. Ein Fertigungsbetrieb für Frottierartikel stellt unter anderem Handtücher und Badetücher her.

Mehr

Hauptsatz und Optimalitätskriterium der Simplexmethode

Hauptsatz und Optimalitätskriterium der Simplexmethode Kapitel 4 Hauptsatz und Optimalitätskriterium der Simplexmethode In diesem Abschnitt wird das wichtigste Verfahren zur Lösung linearer Optimierungsprobleme eingeführt die Simplexmethode Es existiere für

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Fachakademie für Wirtschaft der FHM A2: Lineare Optimierung und das Simplexverfahren

Fachakademie für Wirtschaft der FHM A2: Lineare Optimierung und das Simplexverfahren A2.1 Lineare Optimierung mit dem Simplexverfahren Wenn ein Unternehmen ermitteln möchte, wie viele Mengeneinheiten von verschiedenen Produkten zu produzieren sind, damit bei gegebenen Verkaufspreisen der

Mehr

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung

Mehr

III. Transportaufgaben 1. Problemstellung 2. Analyse 3. Bestimmung der Startecke 4. Eckenaustausch 5. Umladeprobleme 6. Zuordnungsprobleme

III. Transportaufgaben 1. Problemstellung 2. Analyse 3. Bestimmung der Startecke 4. Eckenaustausch 5. Umladeprobleme 6. Zuordnungsprobleme III. Transportaufgaben 1. Problemstellung 2. Analyse 3. Bestimmung der Startecke 4. Eckenaustausch 5. Umladeprobleme 6. Zuordnungsprobleme H. Weber, FHW, OR SS07, Teil 6, Seite 1 1. Problemstellung Wir

Mehr

Lösung Übung 1a) - Medikamentenmischung

Lösung Übung 1a) - Medikamentenmischung Lösung Übung 1a) - Medikamentenmischung x j Anteil der Komponente j an der Mischung, j=1,...,4 Min 39x + 21x + 82x + 55x 1 2 3 4 u.d.n 54 2x + 50x + 6x + 74x 60 1 2 3 4 39 x + 75x + 13x + 96x 80 1 2 3

Mehr

Kapitel 2: Lineare Optimierung

Kapitel 2: Lineare Optimierung Kapitel 2: Lineare Optimierung Wir beginnen mit Definitionen und beschäftigen uns anschließend mit der graphischen Lösung von linearen Optimierungsproblemen mit zwei Variablen. Neben verschiedenen Schreibweisen

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber

Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Sitzplatznr.: Wiederholungsklausur zur Vorlesung Operations Research im Wintersemester

Mehr

8. Lineare Optimierung

8. Lineare Optimierung 8. Lineare Optimierung 1 Einführung (1) Praktische Probleme sind oft Probleme mit Nebenbedingungen, z.b.: Ein Produktionsprozess hängt von Lieferterminen ab Die Menge der verstaubaren Güter ist durch die

Mehr

Über- und unterbestimmte

Über- und unterbestimmte Über- und unterbestimmte Systeme (verallgemeinerte Lösungen) Über- und unterbestimmte Systeme Ax = b ist genau dann für alle b R m eindeutig lösbar, wenn m = n und rk A = n. Falls m n oder rk A < min{m,

Mehr

Zugeordneter bipartiter Graph

Zugeordneter bipartiter Graph Zugeordneter bipartiter Graph Für ein Transportproblem sei A = {A 1,...,A m } die Menge der Fabriken und B = {B 1,...,B n } sei die Menge der Warenhäuser. Wir ordnen nun einem Transportproblem einen bipartiten

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform

Mehr

1 Zahlentheorie. 1.1 Kongruenzen

1 Zahlentheorie. 1.1 Kongruenzen 3 Zahlentheorie. Kongruenzen Der letzte Abschnitt zeigte, daß es sinnvoll ist, mit großen Zahlen möglichst einfach rechnen zu können. Oft kommt es nicht darauf, an eine Zahl im Detail zu kennen, sondern

Mehr

RUHR - UNIVERSITÄT BOCHUM KLAUSUR. Name. Vorname. Teilnehmer-Nr. Zur Beachtung. Bitte nicht ausfüllen

RUHR - UNIVERSITÄT BOCHUM KLAUSUR. Name. Vorname. Teilnehmer-Nr. Zur Beachtung. Bitte nicht ausfüllen RUHR - UNIVERSITÄT BOCHUM Fakultät für Wirtschaftswissenschaft KLAUSUR Mathematik für Ökonomen L i n e a r e A l g e b r a 5.2.998 (WS 998) Name Vorname Teilnehmer-Nr. Zur Beachtung Die Klausur umfaßt

Mehr

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

Dr. Anita Kripfganz SS 2014

Dr. Anita Kripfganz SS 2014 Dr. Anita Kripfganz SS 2014 4. Lösungsverfahren 4.1. Schnittebenenmethode Im Jahre 1958 hat R. Gomory ein allgemeines Schnittebenenverfahren zur Lösung ganzzahliger linearer Optimierungsprobleme vorgeschlagen.

Mehr

Transportoptimierung

Transportoptimierung Transportoptimierung Mathematisches Modell Konstruktionsverfahren für einen zulässigen Transportplan Duale Aufgabe des TOP Verbesserungsverfahren: MODI-Verfahren 1 Transport ein zentrales Element jedes

Mehr

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008 Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester

Mehr

Lineare Optimierung Dantzig 1947

Lineare Optimierung Dantzig 1947 Lineare Optimierung Dantzig 947 Lineare Optimierungs-Aufgaben lassen sich mit Maple direkt lösen: with(simplex): g:= 4*x + x2

Mehr

Optimierung. Nürnberg, Oktober 2015

Optimierung. Nürnberg, Oktober 2015 1 Optimierung Nürnberg, Oktober 2015 Prof. Dr. Yvonne Stry Technische Hochschule Nürnberg Fakultät Angewandte Mathematik, Physik und Allgemeinwissenschaften Keßlerplatz 12 90461 Nürnberg Germany 1 Beispiel

Mehr

1. Über stückweise lineare Zielfunktionen bei der Transportmethode

1. Über stückweise lineare Zielfunktionen bei der Transportmethode - 2-1. Über stückweise lineare Zielfunktionen bei der Transportmethode Die Transportkosten entlang eines Transportweges sind stückweise linear, konkret, sie setzen sich aus drei linearen Teilstücken zusammen:

Mehr

Die duale Simplexmethode

Die duale Simplexmethode Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen

Mehr

1 Lineare Gleichungssysteme und Matrizen

1 Lineare Gleichungssysteme und Matrizen 1 Lineare Gleichungssysteme und Matrizen Das Studium linearer Gleichungssysteme und ihrer Lösungen ist eines der wichtigsten Themen der linearen Algebra. Wir werden zunächst einige grundlegende Begriffe

Mehr

Simplex-Umformung für Dummies

Simplex-Umformung für Dummies Simplex-Umformung für Dummies Enthält die Zielfunktion einen negativen Koeffizienten? NEIN Optimale Lösung bereits gefunden JA Finde die Optimale Lösung mit dem Simplex-Verfahren! Wähle die Spalte mit

Mehr

Kap. 4.2: Simplex- Algorithmus

Kap. 4.2: Simplex- Algorithmus Kap. 4.2: Simplex- Algorithmus Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 14.-17. VO A&D WS 08/09 2.12.-16.12.2008 Petra Mutzel Alg. & Dat.

Mehr

4 Lineare Optimierung

4 Lineare Optimierung 4 Lineare Optimierung In diesem Kapitel werden wir uns mit effizienten Verfahren im Bereich der linearen Optimierung beschäftigen. 4.1 Einführung Als Einführung betrachten wir das Beispiel einer Erdölraffinerie.

Mehr

Übung: Algorithmen und Datenstrukturen Einführung: Aufgabe 1. Malte Heins Helga Karafiat

Übung: Algorithmen und Datenstrukturen Einführung: Aufgabe 1. Malte Heins Helga Karafiat Übung: Algorithmen und Datenstrukturen Einführung: Aufgabe 1 Malte Heins Helga Karafiat AuD-Anforderungen Quellcode-Dokumentation Ist natürlich Pflicht und führt bei Mängeln zu Nachbesserungen Besteht

Mehr

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung Operations Research Rainer Schrader Die Simplexmethode Zentrum für Angewandte Informatik Köln 18 Juni 00 1 / 1 / 1 Gliederung LP-Dualität ein lineares Produktionsmodell der Simplexalgorithmus Phase I Endlichkeit

Mehr

Simplex-Verfahren. Kapitel 3. Simplex-Verfahren. Peter Becker (H-BRS) Lineare und kombinatorische Optimierung Wintersemester 2017/ / 372

Simplex-Verfahren. Kapitel 3. Simplex-Verfahren. Peter Becker (H-BRS) Lineare und kombinatorische Optimierung Wintersemester 2017/ / 372 Kapitel 3 Simplex-Verfahren Peter Becker (H-BRS) Lineare und kombinatorische Optimierung Wintersemester 2017/18 104 / 372 Inhalt Inhalt 3 Simplex-Verfahren Primaler Simplexalgorithmus Unbeschränktheit

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

Ganzzahlige Optimierung (IP)

Ganzzahlige Optimierung (IP) Thema Ganzzahlige Optimierung (IP) Systematik * Problematik * Pragmatik IP und Branch and Bound 1 Agenda 1. Relevanz der Ganzzahligkeit? 2. Formulierung ganzzahliger Modelle 3. Zur Lösung ganzzahliger

Mehr

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,

Mehr

Mitschrift der Vorlesung: Kombinatorische Optimierung

Mitschrift der Vorlesung: Kombinatorische Optimierung Mitschrift der Vorlesung: Kombinatorische Optimierung bei Prof. Socher-Ambrosius Niels-Peter de Witt 26. April 2002 Inhaltsverzeichnis 1 Einführung 2 1.1 Beispiel: Profil zersägen.......................

Mehr

Klausurrepetitorium ABWL

Klausurrepetitorium ABWL Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach

Mehr

A2.3 Lineare Gleichungssysteme

A2.3 Lineare Gleichungssysteme A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)

Mehr

z = c T x : Ax = b, x 0 }, - die Darstellung der Nichtbasisvektoren durch die Basis ist

z = c T x : Ax = b, x 0 }, - die Darstellung der Nichtbasisvektoren durch die Basis ist Kapitel 5 Die Simplexmethode Es werden folgende Bezeichnungen verwendet: - das untersuchte Problem ist min x R n { z = c T x : Ax = b, x 0 }, - die erste zulässige Basislösung sei x = x 1, x 2,, x m, 0,,

Mehr

RUHR - UNIVERSITÄT BOCHUM KLAUSUR. Name. Vorname. Teilnehmer-Nr. Zur Beachtung. Bitte nicht ausfüllen

RUHR - UNIVERSITÄT BOCHUM KLAUSUR. Name. Vorname. Teilnehmer-Nr. Zur Beachtung. Bitte nicht ausfüllen RUHR - UNIVERSITÄT BOCHUM Fakultät für Wirtschaftswissenschaft KLAUSUR Mathematik für Ökonomen L i n e a r e A l g e b r a 6.2.997 (WS 97/98) Name Vorname Teilnehmer-Nr. Zur Beachtung Die Klausur umfaßt

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n = b a 2 x + a 22 x 2 +...

Mehr

Mehrfachintegrale 1-E1. Ma 2 Lubov Vassilevskaya

Mehrfachintegrale 1-E1. Ma 2 Lubov Vassilevskaya Mehrfachintegrale 1-E1 1-E2 Mehrfachintegrale c Die Erweiterung des Integralbegriffs führt zu den Mehrfachintegralen, die in den naturwissenschaftlich-technischen Anwendungen u.a. bei der Berechnung der

Mehr

4. Lösung linearer Gleichungssysteme

4. Lösung linearer Gleichungssysteme 4. Lösung linearer Gleichungssysteme a x + : : : + a m x m = b a 2 x + : : : + a 2m x m = b 2 : : : a n x + : : : + a nm x m = b n in Matrix-Form: A~x = ~ b (*) mit A 2 R n;m als Koe zientenmatrix, ~x

Mehr

Berufliches Gymnasium (WG, EG, AG, SG) Hauptprüfung 2006 Teil 2, Lineare Optimierung, Aufgabe 2 Baden-Württemberg

Berufliches Gymnasium (WG, EG, AG, SG) Hauptprüfung 2006 Teil 2, Lineare Optimierung, Aufgabe 2 Baden-Württemberg Berufliches Gymnasium (WG, EG, AG, SG) Hauptprüfung 2006 Teil 2, Lineare Optimierung, Aufgabe 2 Baden-Württemberg 2.1 Weinbauer Müller kann maximal 30 Hektar Rebfläche bewirtschaften. Er möchte Gutedel-

Mehr

Hochschule RheinMain SS 2018 Prof. Dr. D. Lehmann. Lösungen 11. Übungsblatt Lineare Optimierung

Hochschule RheinMain SS 2018 Prof. Dr. D. Lehmann. Lösungen 11. Übungsblatt Lineare Optimierung Hochschule RheinMain SS 2018 Prof. Dr. D. Lehmann Lösungen 11. Übungsblatt Lineare Optimierung 1.Aufgabe: a) Phase-I-Methode: Wir betrachten das Hilfs-LOP unter den Nebenbedingungen HF (v 1, v 2 ) = HF

Mehr

Aufgaben zu Kapitel 23

Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Verständnisfragen Aufgabe 23 Bestimmen Sie grafisch die optimale Lösung x der Zielfunktion z = c T x unter den Nebenbedingungen mit dem Zielfunktionsvektor

Mehr

Schranken für zulässige Lösungen

Schranken für zulässige Lösungen Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung

Mehr

RUHR - UNIVERSITÄT BOCHUM KLAUSUR. Name. Vorname. Teilnehmer-Nr. Zur Beachtung. Bitte nicht ausfüllen

RUHR - UNIVERSITÄT BOCHUM KLAUSUR. Name. Vorname. Teilnehmer-Nr. Zur Beachtung. Bitte nicht ausfüllen RUHR - UNIVERSITÄT BOCHUM Fakultät für Wirtschaftswissenschaft KLAUSUR Mathematik für Ökonomen L i n e a r e A l g e b r a 15.5.1998 (SS 1998) Name Vorname Teilnehmer-Nr. Zur Beachtung Die Klausur umfaßt

Mehr

Anwendungen der Wirtschaftsmathematik und deren Einsatz im Schulunterricht

Anwendungen der Wirtschaftsmathematik und deren Einsatz im Schulunterricht A t t Τ = α Y t Anwendungen der Wirtschaftsmathematik und deren Einsatz im Schulunterricht Matrizen als Modellierungswerkzeug Speyer, Juni 24 - Beispiele mathematischer Medellierung Seite Matrizen als

Mehr

4.1. Basislösung und kanonische Form

4.1. Basislösung und kanonische Form 4.1. asislösung und kanonische Form ekannt: Jedes LOP kann äquivalent in ein Programm vom Typ III umgeformt werden. Jedes nichtleere Polyeder vom Typ III ist spitz. Für ein LOP vom Typ III gehört im Falle

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

- gibt es (sehr mühsam konstruierte) worst case Beispiele. - ist der Simplex-Algorithmus recht gut (kolportierte Erfahrungen: "linear in n und m")

- gibt es (sehr mühsam konstruierte) worst case Beispiele. - ist der Simplex-Algorithmus recht gut (kolportierte Erfahrungen: linear in n und m) be/ji/3 2-45 Praktisch gesehen - gibt es (sehr mühsam konstruierte) worst case Beispiele - ist der Simplex-Algorithmus recht gut (kolportierte Erfahrungen: "linear in n und m") - ist der Simplex-Algorithmus

Mehr

(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung)

(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung) Lineare Optimierung Unterbestimmte LGS und Optimierung Bei lösbaren unterbestimmten linearen Gleichungssystemen haben wir die Qual der Wahl in Abhängigkeit von den freien Parametern (Anzahl = Anzahl Unbekannte

Mehr

Geschwindigkeiten, Steigungen und Tangenten

Geschwindigkeiten, Steigungen und Tangenten Geschwindigkeiten, Steigungen und Tangenten 1-E Die Geschwindigkeit cc Wir beginnen mit dem Problem der Geschwindigkeit: Wie können wir die Geschwindigkeit eines bewegten Objektes in einem bestimmten Augenblick

Mehr

2. Eigenschaften von Zahlenfolgen

2. Eigenschaften von Zahlenfolgen . Eigenschaften von Zahlenfolgen.. Monotone Folgen ) Definition Eine Folge heisst streng monoton wachsend, wenn für alle n gilt: an+ > an. (D.h. jedes Folgenglied ist grösser als sein Vorgänger. Man sagt

Mehr

Optimierung 1 Zwischenklausur

Optimierung 1 Zwischenklausur Optimierung Zwischenlausur Tobias Breiten und Laurent Pfeiffer, Universität Graz 8. Mai 8 Lösung der Aufgabe. Wir führen Schlupfvariablen ein (positiv und negativ), um das Problem auf Standardform zu bringen

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...

Mehr

Folgen und Reihen. Inhaltsverzeichnis. Fragen und Antworten. (bitte nur für den Eigengebrauch verwenden)

Folgen und Reihen. Inhaltsverzeichnis. Fragen und Antworten. (bitte nur für den Eigengebrauch verwenden) Fragen und Antworten Folgen und Reihen (bitte nur für den Eigengebrauch verwenden) Inhaltsverzeichnis 1 Folgen und Reihen 2 1.1 Fragen............................................... 2 1.1.1 Folgen...........................................

Mehr

MODULPRÜFUNG Numerische Methoden (Elektrotechnik, Meteorologie, Geodäsie und Geoinformatik)

MODULPRÜFUNG Numerische Methoden (Elektrotechnik, Meteorologie, Geodäsie und Geoinformatik) Karlsruher Institut für Technologie KIT) Institut für Analysis Dr. S. Wugalter Herbst 7.9.7 MODULPRÜFUNG Numerische Methoden Elektrotechnik, Meteorologie, Geodäsie und Geoinformatik) Aufgabe 4 Punkte)

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 11 1. Juni 2010 Rechenregeln für Determinanten Satz 62. (Determinanten von Dreiecksmatrizen) Es sei A eine obere oder untere n n-dreiecksmatrix.

Mehr