Methoden der linearen Optimierung

Größe: px
Ab Seite anzeigen:

Download "Methoden der linearen Optimierung"

Transkript

1 Methoden der linearen Optimierung Mike Hüftle 31. Juli 2006 Inhaltsverzeichnis 1 Einleitung Lineare Optimierung Lineares Modell Basisdarstellung Graphische Lösung Konvexität des Lösungsraumes Simplexverfahren Methodenbeschreibung Nebenpfad: Simplex-Verfahren Graphische Interpretation Ein Beispiel Varianten des Simplex-Verfahrens Varianten des Simplex-Verfahrens Duales Simplex-Verfahren Anwendung Methoden postoptimaler Analysen Sensitivitätsanalyse Sensitivitätsanalyse Parametrisches Programmieren Literatur, Software und Methodenverzeichnis Literatur zum Simplexverfahren Literatur zu Sensitivitätsanalysen Software Methodenverzeichnis

2 1 Einleitung 1.1 Einführung Die lineare Optimierung gehört zu den ältesten und am besten entwickelten Gebieten der mathematischen Optimierung, da sich verschiedenste Planungs-, Steuerungs- und Optimierungsprobleme als lineare Programme formulieren lassen, und dann relativ einfach gelöst werden können. Für lineare Optimierungsprobleme existiert eine Reihe von Methoden, welche auch große Probleme effizient lösen können. Deshalb wird in der Praxis häufig versucht, Optimierungsmodelle als lineare Modelle zu formulieren. Methoden zur Lösung linearer Optimierungsmodelle Zur Lösung linearer Optimierungsmodelle werden hauptsächlich zwei Lösungsansätze verwendet. Zum einen das Simplexverfahren und seine Erweiterungen und zum anderen Innere Punkte-Methoden. Im Folgenden wird lediglich das in der Praxis häufiger verwendete Simplexverfahren beschrieben. 2

3 2 Lineare Optimierung 2.1 Lineares Modell Lineares Optimierungsproblem Ein lineares Optimierungsproblem ist gegeben, wenn eine lineare Zielfunktion unter Beachtung endlich vieler linearer Nebenbedingungen optimiert werden soll. Lineares Optimierungsmodell Das Standardmodell der linearen Optimierung kann folgendermaßen formuliert werden: max z = c T x u. d. NB Ax b, x 0 c, x R n, b R m, b 0 wobei c T x als Zielfunktion bezeichnet wird, c als Vektor der Zielfunktionskoeffizienten, A als die Koeffizientenmatrix mit m Zeilen und n Spalten und b als Kapazitätenvektor. Die Restriktionen x 0 werden als Nichtnegativitätsbedingungen bezeichnet. 3

4 2.2 Basisdarstellung Schlupfvariablen Durch die Einführung nichtnegativer Variablen s (so genannter Schlupfvariablen) können die Ungleichungsnebenbedingungen in einfacher zu handhabende Gleichungsnebenbedingungen überführt werden, ohne das Modell selbst zu verändern: Lineares Modell mit Schlupfvariablen max z = c T x + 0 T s u. d. NB A m,n x + I m s = b x,s 0, A m,n eine (m n) Matrix c,x R n, b, s R m, I m m dim. Einheitsmatrix Basisdarstellung des linearen Optimierungsmodells Jede nichtsinguläre Teilmatrix B der Matrix D=(A,I sub m /sub ) wird Basis des linearen Modells genannt. Die Matrix B enthält somit nur die so genannten Basisspalten (Basisvariablen) der Matrix D. Mit N wird der aus den Nichtbasisspalten (Nichtbasisvariablen) bestehende Rest der Matrix D bezeichnet. Das lineare Modell kann somit auch geschrieben werden als: Lineares Modell in Basisdarstellung max z = (c T B, ct N ) ( xb xn ) u. d. NB s. d. (B, N) ( xb x N ) = b x b, x N 0 Der Vektor x = (x B, 0), für den alle Nichtbasisvariablen Null sind, wird Basislösung genannt. Eine Basislösung ist zulässig, wenn für x B = B 1 b 0 gilt, d.h. keine Nebenbedingung durch eine Basisvariable verletzt wird. 4

5 2.3 Graphische Lösung Graphische Lösung des linearen Optimierungsproblems Die Abbildung zeigt die graphische Lösung eines linearen Optimierungsproblems mit zwei Variablen und drei Nebenbedingungen. Der schraffierte Bereich markiert den zulässigen Lösungsraum, d.h. die Menge der möglichen Lösungen, die keine Nebenbedingung verletzen. Um die optimale Lösung zu bestimmen, wird die gestrichelte Zielfunktionsgerade z (die Gerade, auf der die Zielfunktinswerte für verschiedene Variablenausprägungen liegen) parallel nach rechts verschoben, bis sie eine Ecke des zulässigen Lösungsraumes berührt (durchgezogene Zielfunktionsgerade). Je weiter die Gerade nach rechts wandert, desto höhere Werte nimmt die Zielfunktion an. Kann die Zielfunktionsgerade nicht mehr weiter verschoben werden, ohne den zulässigen Raum zu verlassen, so ist eine optimale Lösung x* gefunden. 5

6 2.4 Konvexität des Lösungsraumes Konvexität des Lösungsraumes Grundlegend für die Betrachtung der Methoden zur Lösung linearer Optimierungsprobleme ist die Tatsache, dass der Lösungsraum, den die Nebenbedingungen beschränken, stets abgeschlossen und konvex ist. Dies wird auch ein Polyeder genannt. Ist er zusätzlich noch beschränkt, so ist der Lösungsraum ein konvexes Polytop und es existiert eine zulässige optimale Basislösung x*, die in einer Ecke des Polyeders liegt. Ist der Polyeder nicht beschränkt, so kann es sein, dass keine optimale Lösung existiert. Der Begriff des n-simplex bezeichnet ein Polytop bzw. dessen konvexe Hülle im n-dimensionalen Raum. Die Abbildung zeigt einen Simplex im dreidimensionalen Raum. 6

7 3 Simplexverfahren 3.1 Methodenbeschreibung Einführung Das Simplex-Verfahren (auch: Simplex-Algorithmus) wurde 1947 von George Dantzig entwickelt. Es findet für ein lineares Optimierungsproblem nach endlich vielen Schritten eine exakte Lösung oder stellt die Unlösbarkeit des Problems fest. In seltenen Fällen können Zyklen auftreten, so dass das Simplexverfahren die optimale Lösung nicht berechnen kann. Methodenbeschreibung Das Simplex-Verfahren geht von einer zulässigen Basislösung des linearen Optimierungsmodells aus. Als erste Basislösung kann die Einheitsmatrix I m eingesetzt werden, welche durch die Spalten der Schlupfvariablen gebildet wird. Basistausch Durch den schrittweisen Übergang von einer zulässigen Basislösung zur nächsten, dem so genannten Basistausch, wird eine endliche Folge von Basislösungen erzeugt, deren Zielfunktionswert sich nicht verschlechtert. Mit jedem Basistausch wird eine Variable aus der Basis durch eine Nichtbasisvariable ersetzt. Durch eine Eliminationsregel wird bestimmt, welche Variable aus der Basis eliminiert wird. Diese Regel stellt sicher, dass auch die nächste Basislösung zulässig ist, d.h. x B = B 1 b 0 gilt. Die neu in die Basislösung aufzunehmende Variable wird mittels einer Auswahlregel bestimmt, welche garantiert, dass sich der Zielfunktionswert nicht verschlechtert. Nähere Erläuterungen zur Auswahl- und zur Eliminationsregel finden Sie hier. Sind die neu in die Basis aufzunehmende und die zu eliminierende Spalte bestimmt, so wird das lineare Modell mittels elementarer Matrixoperationen so umgeformt, dass die aufzunehmende Variable zum Einheitsvektor wird. Anschließend beginnt der nächste Iterationsschritt wieder mit der Auswahl einer neu in die Basis aufzunehmenden Variablen. Stopp-Regel Es werden so lange Basistausche vorgenommen, bis der Zielfunktionswert nicht mehr weiter verbessert werden kann. Dann terminiert das Simplex-Verfahren. 7

8 3.1.1 Nebenpfad: Simplex-Verfahren Auswahlregel Die neu in die Basislösung aufzunehmende Variable wird mittels einer Auswahlregel bestimmt, welche garantiert, dass sich der Zielfunktionswert nicht verschlechtert. Die Auswahl erfolgt z.b. nach dem Kriterium der maximalen marginalen Verbesserung des Zielfunktionswertes z j für alle Nichtbasis-Indizes j: z j = c j c B B 1 A j < 0 Existieren mehrere solche z j < 0, so wird das kleinste ausgewählt. Dieses verspricht die größte Verbesserung des Zielfunktionswertes. Gibt es kein z j < 0, so ist die aktuelle Basislösung optimal und das Simplex-Verfahren terminiert. EliminationsregelZur Auswahl der zu eliminierenden Basisvariablen wird der Vektor a l der neu in die Basis aufzunehmenden Variablen x l betrachtet. Gibt es keine positive Komponente des Vektors x l, so terminiert das Simplexverfahren. Ist eine Komponente i von a l positiv, so wird Θ bestimmt zu: Θ = min bi a il i = 1,..., m; a i l > 0 Gibt es ein i, so dass Θ eindeutig bestimmbar ist, dann ist dies der Index der Basisvariablen, bei deren Elimination die Zulässigkeit der nächsten Basislösung gesichert ist. Existiert kein eindeutiger Indexi, so wird dies eine entartete Basislösung genannt und die Wahl der zu eliminierenden Variablen ist nicht mehr eindeutig. Dies kann dazu führen, dass das Simplexverfahren kreist, d.h. immer wieder die gleichen Basislösungen generiert. Dies führt in der Praxis jedoch kaum zu Problemen. 8

9 3.2 Graphische Interpretation Graphische Interpretation des Simplex- Verfahrens Eine anschaulichere graphische Interpretation des Simplex-Verfahrens ist die Vorstellung von einem konvexen Polyeder, dessen Seitenflächen durch die Nebenbedingungen des linearen Modells gegeben sind. Somit ist die Menge der Punkte, welche den Polyeder bilden, die zulässige Menge des Optimierungsproblems. Gibt es einen optimale Lösung x*, so liegt diese auf einer Ecke des Polyeders. Das Simplexverfahren durchläuft eine Folge von Ecken des Polyeders, wobei sich der Zielfunktionswert nicht verschlechtern darf. Jeder Wechsel von einer Ecke zu einer benachbarten Ecke entspricht einem Basistausch, d.h. eine Nichtbasisvariable wird zur Basisvariablen und umgekehrt. Da ein konvexes Polyeder nur endlich viele Ecken besitzt und das Simplexverfahren jede Ecke nur einmal durchläuft (Ausnahme: entartete Basislösung) terminiert der Algorithmus in endlich vielen Schritten oder stellt fest, dass es keine Lösung des linearen Optimierungsproblems gibt LaufzeitverhaltenDas worst case-laufzeitverhalten des Simplexverfahrens ist exponentiell, d.h. des Simplex- die Rechenzeit wächst exponentiell mit der Anzahl der Variablen. Es ist ein Algorithmus noch nicht gelöstes Problem, ob es Auswahlregeln gibt, für die das worst case- Verhalten polynomial ist. In der Praxis hat sich jedoch gezeigt, dass im Mittel sehr gute Laufzeiten erreicht werden und das Verfahren somit eine gute Wahl zur Lösung linearer Optimierungsprobleme ist. 9

10 3.3 Ein Beispiel Basisdarstellung des Modells Zur Veranschaulichung (nicht zur Implementierung) des Simplexverfahrens wird oft die Tableauform benutzt. Deshalb wird im Folgenden das Verfahren mit einem Beispiel anhand der Tableauform erläutert. Betrachtet wird das folgende lineare Optimierungsproblem: max z = x 1 + x 2 x 3 u. d. NB 3x 1 2x 2 3 2x 1 +x 3 4 x 1 +3x 2 2x 3 6 x 1, x 2, x 3 0 Nach der Einführung von Schlupfvariablen erhält man das folgende Modell: max z = x 1 + x 2 x 3 u. d. NB 3x 1 2x 2 +x 4 = 3 2x 1 +x 3 +x 5 = 4 x 1 +3x 2 2x 3 +x 6 = 6 x 1, x 2, x 3 0 Die folgende Dia-Show zeigt den Ablauf des Simplex-Verfahrens zur Lösung des obigen Modells. Die einzelnen Schritte werden weiter unten ausführlicher erläutert. Ausgangstableau mit den Schlupfvariablen x 4, x 5, x 6 als erster Basislösung Bestimmen von Pivotzeile, Pivotspalte und Pivotelement Aktualisieren bzw. Umformen des Simplextableaus 10

11 Bestimmen von Pivotzeile, Pivotspalte und Pivotelement Umformen zum optimalen Simplextableau Erste Basislösung Mit den Schlupfvariablen x 4,x 5, x 6 als erster Basislösung wird folgendes Tableau T 0 aufgestellt: Basistausch Die Spalte der x B(i) des Tableaus enthält die Variablen, die in der aktuellen Basislösung vorkommen. Um die Variable auszuwählen, welche neu in die Basis aufgenommen werden soll, werden in der untersten Zeile die marginalen Verbesserungen der Zielfunktionswerte z j als Auswahlkriterium berechnet und das kleinste der z j < 0 ausgewählt. Existieren mehrere z j < 0, welche den gleichen kleinsten Wert besitzen, so wird eines mit dem Index l ausgewählt. Die l-te Spalte des Tableaus ist die Pivotspalte. Um die Pivotzeile mit der aus der Basislösung zu eliminierenden Variablen zu bestimmen wird für alle iθ i = b i /a il berechnet, mit a il als demi-ten Element der Pivotspalte. Wurde so dass Pivotelement bestimmt, so kann das Tableau umgeformt (pivotisiert) werden. Beim Pivotisieren wird die Spalte a l zum Einheitsvektor transformiert. Hierzu werden z.b. die Kreisregel, Zeilentransformationen oder Matrixoperationen eingesetzt (vgl. [5] S. 80 f.). Der Zielfunktionswert der aktuellen Lösung wird berechnet zu: z = i B c ib i = 0 Zwei weitere Iterationen Der Algorithmus endet im Tableau T 2, da alle z j < 0 sind. Die Optimallösung lautet: x 1 = 21/11, x 2 = 15/11, x 3 = 0mit dem optimalen Zielfunktionswert z = 36/11. 11

12 3.4 Varianten des Simplex-Verfahrens Varianten des Simplex- Verfahrens Es wurden zahlreiche Varianten des Simplex-Verfahrens entwickelt, welche die Anzahl der notwendigen Iterationen zur Lösung eines linearen Optimierungsproblems verringern oder welche die Rechenzeit zur Durchführung einer Iteration reduzieren. Dies führt vor allem bei Problemen mit vielen Nebenbedingungen oder einer großen Anzahl an Variablen zu geringeren Laufzeiten. Revidiertes Simplexverfahren Der revidierte Simplex-Algorithmus wird nahezu von allen numerischen Implementierung des Simplexverfahrens verwendet (vgl. z.b. [1] pp ). Er arbeitet bei der Optimierung großer und dünn besetzter linearer Optimierungsmodelle effizienter als der Standard-Simplexalgorithmus. Anstatt die komplette Matrix A nach jeder Iteration neu zu bestimmen, führt der revidierte Simplex-Algorithmus den größten Teil der Berechnungen am Anfang jeder Iteration durch, indem jeweils die inverse Matrix B sup -1 /sup mit der Pivotmatrix P aktualisiert wird. Da große Matrizen B an vielen Stellen keine Einträge enthalten, ist dies sehr recheneffizient. Im Folgenden wird das Vorgehen des revidierten Simplexalgorithmus am obigen Beispiel erläutert. Beispiel für den revidierten Simplex Im initialen Simplextableau T 0 wird die Pivotmatrix P 1 berechnet, indem die k-te Spalte der Einheitsmatrix (k ist der Index der Pivotzeile) durch die Spalte L = ( a 1l /a kl, a 2l /a kl,..., 1/a kl,..., a m l/a kl ) T (1) ersetzt wird: P 1 = 2/ / /3 0 0 Für die revidierte Simplexmethode genügt es nun, die neue Matrix B 1 1 zu berechnen: B 1 1 = P 1 B 1 0 = 2/ / / = 2/ / /

13 Auf diese Weise kann jede Matrix B 1 k berechnet werden, indem die initiale Matrix B0 1 mit k Pivotmatrizen multipliziert wird: B 1 k = P k P k 1... P 2 P 1 B 1 13

14 3.5 Varianten des Simplex-Verfahrens Methode von Bartels-Golub Eine Variante des revidierten Simplexalgorithmus ist die Methode von Bartels- Golub. Sie verbesserte die Laufzeit, den Speicherplatzbedarf und insbesondere die numerische Genauigkeit des revidierten Simplex. Die Methode von Bartels- Golub vermeidet die aufwändige Berechnung der inversen Matrix. Anstatt dessen wird die Basis in obere und untere Dreiecksfaktoren zerlegt, die effizienter als die Inverse berechnet werden können. Weitere Auswahlregeln Es existieren zahlreiche Varianten zur Durchführung der einzelnen Schritte des Simplex-Algorithmus (vgl.[4], S. 143 ff.). Regeln zur Auswahl der Pivotspalte l aus den N Nichtbasisspalten mit z j < 0 sind z.b.: Kleinster-Index-Regel: Wähle l so, dass z l = min {j N z j < 0} Regel der maximalen Verbesserung des Zielfunktionswertes: Wähle l so, dass z l = min { z j z j < 0} Weitere Eliminationsregeln Regeln zur Auswahl der zu eliminierenden Variablen bzw. zur Auswahl der Pivotzeile sind z.b.: Kleinster-Zeilenindex-Regel: Wähle k so, dass Θ k = min {Θ i Θ i > 0} Kleinster Index-Regel: Wähle das erste i mit Θ i < 0 Lexikographische Zeilenauswahlregel 14

15 3.6 Duales Simplex-Verfahren Duales Modell der linearen Optimierung Das duale Simplexverfahren basiert auf dem dualen Modell der linearen Optimierung: min Z = b T y u. d. NB A T y c, y 0 b, y R m, c R n Duales Simplexverfahren In diesem Zusammenhang wird das (Standard-) Modell der linearen Optimierung auch als primales Modell bezeichnet und das (Standard-) Simplex- Verfahren als primales Verfahren. Zur Theorie der Dualität in der linearen Optimierung wird auf die angegebene Literatur verwiesen (z.b. [5], S. 92 ff.). Hier werden lediglich einige -zum Verständnis dualer Modelle wesentliche- Aussagen der Dualitätstheorie angeführt: Jedes duale Modell lässt sich in ein primales umformen und umgekehrt. Wenn eines der beiden Modelle eine optimale Lösung hat, so besitzt auch das andere eine optimale Lösung und die Zielfunktionswerte stimmen überein. Die duale Zulässigkeit eines Modells ist gegeben, wenn für alle j=1,..., m gilt: z j 0. Mittles des dualen Simplexverfahrens können also äquivalent zum primalen Simplex lineare Optimierungsprogramme gelöst werden. Anwendung des dualen Simplexverfahrens Das duale Simplex-Verfahren ist für bestimmte Problemstellungen gegenüber dem primalen Simplex-Verfahren von Vorteil. In vielen Fällen ist das duale Modell einfacher strukturiert und erfordert somit einen geringeren Lösungsaufwand als das primal formulierte Problem. Auch ist es in der Praxis häufig der Fall, dass nach Berechnung der optimalen Lösung kleine Modifikationen am ursprünglichen Problem vorgenommen werden. Wenn hierdurch das Problem primal unzulässig wird, so kann das duale Simplex-Verfahren effizient wieder eine zulässige optimale Lösung finden. 15

16 Ökonomische Interpretation des dualen Simplextableaus Dualitätsbetrachtungen erlauben zusätzliche Erkenntnisse über das Optimierungsproblem und dessen optimales Tableau. Es gibt eine ökonomische Interpretation der optimalen dualen Lösung, die in dieser Weise bei der primalen Lösung nicht möglich ist. Insbesondere können aus der dualen Lösung so genannte Schattenpreise interpretiert werden, welche die Knappheit einer Ressource angeben. Je knapper eine Ressource, desto mehr könnte der Zielfunktionswert durch eine Lockerung der entsprechenden Restriktion verbessert werden (vgl. [5], S. 99 f.). 16

17 3.7 Anwendung Anwendung der Simplexverfahren Neben der Simplex-Methode werden Innere Punkte-Verfahren zur Lösung von linearen Optimierungsproblemen eingesetzt. Welche Methode bei einem bestimmten Problem effizienter arbeitet hängt von der konkreten Problemstruktur ab. Im Allgemeinen arbeiteninnere Punkte-Verfahren bei der Lösung von Problemen mit dünn besetzten Matrizen besser, wohingegen Simplex-Verfahren ganzzahlige Probleme effizienter lösen. Da es für beide Methoden jedoch eine große Anzahl an Varianten, Erweiterungen und Kombinationen mit anderen Methoden gibt, ist es meist sinnvoll bei einem konkreten Problem den möglichen Einsatz verschiedener Verfahren zu überprüfen. Vorteile von Simplexverfahren Das Simplexverfahren und seine Varianten sind für die meisten Problemstellungen der linearen Optimierung die effizienteste Lösungsmethode. Es ist das in der Praxis wohl am häufigsten eingesetzte Optimierungsverfahren. Deshalb existieren zahlreiche Softwaretools, welche das Simplexverfahren einsetzen. Das duale Simplexverfahren hat sich insbesondere bei der ganzzahligen Optimierung als effizient erwiesen. Das Verfahren kann mit Warmstarts begonnen werden, d.h. man beginnt mit einer Basislösung in der Nähe der Optimallösung. Dies verbessert die Laufzeit. Nachteile von Simplexverfahren Das Simplexverfahren zeigt im worst case ein exponentielles Laufzeitverhalten im Gegensatz zu Innere Punkte-Methoden (polynomiale Laufzeit) Das Aufteten einer entarteten Basis kann in seltenen Fällen zu Problemen bei der Lösung führen (z.b. bei postoptimale Analysen) 17

18 4 Methoden postoptimaler Analysen 4.1 Sensitivitätsanalyse Weitergehende Fragestellungen Oftmals ergeben sich nach der Berechnung des Optimums eines linearen Problems weitergehende Fragestellungen. Beispielsweise wird gefragt, in welchem Umfang die Modellparameter schwanken dürfen, damit sich die optimale Lösung nicht verschlechtert. Der Simplexalgorithmus bietet Möglichkeiten, solche Fragen zu beantworten. Stabilität der optimlaen Lösung Durch Sensitivitätsanalysen kann die Stabilität der Lösung eines linearen Optimierungsproblems getestet werden (vgl. [1]). Es wird analysiert, wie sich Veränderungen an einem bereits gelösten linearen Optimierungsmodell in der optimalen Lösung auswirken. Einfügen zusätzlicher Variablen Diese Veränderungen können das Einfügen zusätzlicher Variablen oder Nebenbedingungensein, das Entfernen von Variablen oder Nebenbedingungen sowie Variationen in den verschiedenen Koeffizienten und den Ressourcenbeschränkungen. Der Bereich in dem die verschiedenen Größen schwanken können ohne die optimale Lösung zu verändern, ist auch der Bereich, für den die Schattenpreise des dualen Modells ihre Gültigkeit behalten. Verletzung der Zulässigkeit Wird eine der oben genannten Größen verändert, so kann die primale oder duale Zulässigkeit einer Basislösung verletzt werden. Duale Zulässigkeit besteht, wenn für alle Spaltenindizes j gilt: z j 0. Eine Lösung ist primal zulässig, wenn x B = B 1 b 0 gilt. 18

19 4.2 Sensitivitätsanalyse Sensitivitätsanalyse - Verletzung der dualen Zulässigkeit Gegeben sei das optimale Tableau T 2 des Beispiels: Es soll nun untersucht werden, wie weit der Zielfunktionskoeffizient c 1 varriert werden kann, ohne die duale Zulässigkeit der optimalen Lösung zu verletzen. Hierzu wird c 1 durch c 1 = c 1 + λ ersetzt. Damit ergibt sich z 1 zu z 1 = ( 1 + λ) + ( 1 + λ)( 4/11) + ( 6/11) = 1/11 15λ/11 D.h. die duale Zulässigkeit bleibt für alleλ 1/15erhalten. Für λ > 1/15ist die Zulässigkeit verletzt. Sensitivitätsanalyse - Verletzung der primalen Zulässigkeit Die primale Zulässigkeit kann z.b. verletzt werden, wenn durch Variation der Restriktionen b i eine Komponente des Vektors x B(i) negativ wird. Um dies zu untersuchen wird b i = b i + λ gesetzt. Wird z.b. die Restriktion 2x 1 + x 3 + x 5 = 4variiert, so wird b 2 = b 2 + λ = 4 + λ gesetzt. Somit ergibt sich die rechte Seite des Simplextableaus zu: x B = B 1 b = 9/33 0 2/11 18/33 1 4/11 1/11 0 3/ λ 6 = 21/11 2/11 + λ 15/11 D.h. für λ 2/11 ist die primale Zulässigkeit verletzt. Entsprechende Analysen können auch für alle anderen Komponenten des b- Vektors oder für die Koeffizientenmatrix der Nebenbedingungen durchgeführt werden. Sind die primale bzw. duale Zulässigkeit verletzt, so kann mit einem dualen bzw. primalen Simplexschritt die Zulässigkeit wieder hergestellt und eine neue optimale Lösung erzeugt werden. 19

20 4.3 Parametrisches Programmieren Parametrisches Programmieren Beim parametrischen Programmieren werden Modelle mit parametrisierter Zielfunktion max z = (c + λd) T x u. d. NB s. d. Ax b, x 0 x, c, d R n ; b R m bzw. Modelle mit parametrisierten Nebenbedingungen betrachtet (vgl. [3], S. 106). Für Modelle mit parametrisierter Zielfunktion ist der optimale parametrisierte Zielfunktionswert g(λ) gegeben durch: g(λ) = min (c + λd) T x i i = 1,..., N in Abhängigkeit von λ mit den Eckpunkten der zulässigen Mengex 1,..., x N. g(λ) ist stückweise linear und konvex, wie aus der Abbildung deutlich wird. Diese zeigt das Verhalten des optimalen Zielfunktionswertes in Abhängigkeit vom Parameter λ. Solche Modelle können mit dem Simplex-Verfahren gelöst werden. Sie bestimmen für jede optimale Basislösung x i zulässige Intervalle für den Parameter λ. Nichtlineares parametrisches Programmieren Auch für die nichtlineare Optimierung existiert ein Vielzahl von Ansätzen zur parametrischen Programmierung. Diese werden hier jedoch nicht dargestellt. Für einen Überblick über die nichtlineare parametrische Programmierung wird der interessierte Leser auf die Arbeit von Jongen und Weber [1] verwiesen. 20

21 5 Literatur, Software und Methodenverzeichnis 5.1 Literatur zum Simplexverfahren Literaturverzeichnis Einführende Literatur Calvert, J.E./Voxman, W.:Linear Programming. Orlando Chvatal, V.: Linear Programming, Freeman, New York Dantzig, G.B./Thapa, M. N.: Linear Programming - Theory and Extensions, Springer, New York Berlin Heidelberg Grötschel, M.: Lineare Optimierung. Skriptum zur Vorlesung, Institut für Mathematik, TU Berlin 2004, auf URL: ( ) Zimmermann, H.-J.: Operations Research - Methoden und Modelle.Vieweg, Wiesbaden Literaturverzeichnis Weiterführende Literatur Bartels, R. H./Golub, G.A.: The Simplex Method of Linear Programming Using LU Decomposition, in: Communications of the ACM 5, 1969, pp Gill, P. E./Murray, M./Wright, M.E.: Numerical Linear Algebra and Optimization Volume 1, Addison-Wesley, Redwood City Goldfarb, D./Reid, J.K.: A Practicable Steepest Edge Simplex Algorithm, in: Mathematical Programming, Vol. 12, 1977, pp Klee, V./Minty, G.J.: How Good is the Simplex Algorithm?, in: Shisha, O. (ed.): Inequalities - III, Academic Press, New York 1972, pp N.N: Linear Programming Software. Links des Zuse-Instituts Berlin zu LP-Software, auf URL: ( ). 5.1 Literatur zu Sensitivitätsanalysen Literaturverzeichnis Einführende Literatur Calvert, J.E./Voxman, W.:Linear Programming. Orlando 1989, pp Chvatal, V.: Linear Programming, Freeman, New York Zimmermann, H.-J.: Operations Research - Methoden und Modelle.Vieweg, Wiesbaden

22 Literaturverzeichnis Weiterführende Literatur Jongen, H.T./Weber, G.W.: On parametric nonlinear programming, in: Ann. Operations Research, Vol. 27, 1990, pp Software Die meisten Softwarepakete bieten standardmäßig eine Auswahl zwischen der primalen und der dualen Simplexmethode sowie einer Innere Punkte-Methode zur Lösung linearer Programme. Die Leistungsfähigkeit guter LP-Solver wird in der Regel nur durch den verfügbaren Speicherplatz auf dem Rechner, die Prozessor-Architektur oder interne Restriktionen begrenzt. So können Programme wie AMPL auf entsprechend leistungsfähigen Rechnern Modelle mit bis zu 1 Mio. Nebenbedingungen lösen. Auch die oft frei erhältlichen Studentenversionen lösen Probleme mit mehreren tausend Variablen und Nebenbedingungen. Aus der Vielzahl der am Markt angebotenen Softwaretools zur Lösung linearer Programme sei hier nur eine Auswahl aufgeführt. Einen ausführlicheren Überblick finden Sie unter [4] [5] [2] [3] [1] AMPL Studio von OptiRisk Systems: umfangreiches Solverpaket zur linearen, nichtlinearen und ganzzahligen Optimierung ILOG OPL Development Studio von ILOG LINDO von LINGO Systems: löst lineare, nichtlineare und ganzzahlige Modelle SAS/OR von SAS Institute: Erweiterungs-Modul des Statistikpaketes SAS um OR-Methoden Premium Solver von Frontline Systems: Solver für Excel, Visual Basic 22

23 5.2 Methodenverzeichnis Verzeichnis der erläuterten Methoden Methode von Bartels-Golub Duales Simplexverfahren Parametrische Programmierung Revidiertes Simplexverfahren Simplexverfahren Sensivitätsanalyse 23

1 Lineare Optimierung, Simplex-Verfahren

1 Lineare Optimierung, Simplex-Verfahren 1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und

Mehr

Lineares Optimieren. W. Kippels 12. April Inhaltsverzeichnis. 1 Einleitung 2. 2 Die Beispielaufgabe 2. 3 Einführung von Schlupfvariablen 2

Lineares Optimieren. W. Kippels 12. April Inhaltsverzeichnis. 1 Einleitung 2. 2 Die Beispielaufgabe 2. 3 Einführung von Schlupfvariablen 2 Lineares Optimieren W. Kippels 1. April 015 Inhaltsverzeichnis 1 Einleitung Die Beispielaufgabe Einführung von Schlupfvariablen 4 Die Simplex-Methode 5 Das Basis-Austauschverfahren 4 6 Fortsetzung der

Mehr

Lineare Optimierungsmodelle

Lineare Optimierungsmodelle Lineare Optimierungsmodelle Simplex-Methode Vortragender: Michael Schneider Agenda Motivation Operations Research Aufbau linearer Optimierungsmodelle Simplex-Methode Ausblick 2 Problemstellung Futtermischung

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Lineare Programmierung Teil I

Lineare Programmierung Teil I Seminar über Algorithmen Prof. Dr. Helmut Alt Lineare Programmierung Teil I Lena Schlipf, Benjamin Jankovic Lena Schlipf, Benjamin Jankovic Seminar über Algorithmen SS05 1 Struktur des Vortrags 1. Was

Mehr

3. Schnittebenenverfahren

3. Schnittebenenverfahren 3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research

Mehr

Schranken für zulässige Lösungen

Schranken für zulässige Lösungen Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung

Mehr

10. Lineare Optimierung

10. Lineare Optimierung 10. Lineare Optimierung Im Kontext der Optimierungsmodelle: Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen Lösungsraum Unterraum des n Problem der linearen Optimierung Minimiere unter

Mehr

Kapitel 2: Lineare Optimierung

Kapitel 2: Lineare Optimierung Kapitel 2: Lineare Optimierung Aufgabe 2.1: Lösen Sie zeichnerisch die folgenden LP-Modelle: a) Max. F(x,y) = 4x + 3y b) Max. F(x,y) = x + y c) Max. F(x,y) = x y x + 3y 9 5x + y 1 2x y x + 2y 2 x + 2y

Mehr

Übungen zur Linearen Optimierung Sommersemester 2011. Übungsblatt 1

Übungen zur Linearen Optimierung Sommersemester 2011. Übungsblatt 1 Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Graduiertenschule HGS MathComp Dr. Stefan Körkel Magdalena Gottfried Übungen zur Linearen Optimierung Sommersemester 2011

Mehr

Lineare Programmierung

Lineare Programmierung Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in

Mehr

Lösung von Optimierungsproblemen anhand von Simplex- Verfahren

Lösung von Optimierungsproblemen anhand von Simplex- Verfahren Lineare Optimierung Lösung von Optimierungsproblemen anhand von Simplex- Verfahren Informatik-Seminar Studiengang: Informatik Autor: Zemp Michael Betreuer: Schwab Peter Auftraggeber: Schwab Peter Experten:

Mehr

Mathematische Optimierung

Mathematische Optimierung Mathematische Optimierung Geschrieben von Jan Pöschko auf Grundlage der Vorlesung von Bettina Klinz TU Graz Sommersemester 2007 Stand: 27. Oktober 2009 Inhaltsverzeichnis I Lineare Optimierung 7 1 Grundlegende

Mehr

Vorlesungsmitschrift Operations Research I und II

Vorlesungsmitschrift Operations Research I und II Vorlesungsmitschrift Operations Research I und II Bemerkung: Dies ist eine Überarbeitung der beiden Skripte [1] und [2] zu den oben genannten Vorlesungen von Prof. Sebastian, ergänzt um Anmerkungen, die

Mehr

2. Optimierungsprobleme 6

2. Optimierungsprobleme 6 6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen

Mehr

Mathematikreferat. von. Matthias Faß FG 99

Mathematikreferat. von. Matthias Faß FG 99 Mathematikreferat von Matthias Faß FG 99 im Mai 2002 Inhaltsverzeichnis: Seite 1. Einleitung: Was ist eigentlich lineare Optimierung? 1 2. Geschichte der linearen Optimierung 1 3. Graphisches Verfahren

Mehr

(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung)

(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung) Lineare Optimierung Unterbestimmte LGS und Optimierung Bei lösbaren unterbestimmten linearen Gleichungssystemen haben wir die Qual der Wahl in Abhängigkeit von den freien Parametern (Anzahl = Anzahl Unbekannte

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) 1 Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Einleitung Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 11. Oktober 2013) 2 Kommunikationsnetzwerke...

Mehr

Simplex-Umformung für Dummies

Simplex-Umformung für Dummies Simplex-Umformung für Dummies Enthält die Zielfunktion einen negativen Koeffizienten? NEIN Optimale Lösung bereits gefunden JA Finde die Optimale Lösung mit dem Simplex-Verfahren! Wähle die Spalte mit

Mehr

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de

Mehr

Maximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge)

Maximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge) Beispiel: Produktionsplanung Maximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge) Produktionskapazität Ressourcenmenge bei als fest angenommenem

Mehr

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Kapitel 1 Unimodularität Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Inhalt 1 Unimodularität Total unimodulare Matrizen Inzidenzmatrix Optimierungsprobleme auf Graphen Peter

Mehr

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.

Mehr

Corinne Schenka Vorkurs Mathematik WiSe 2012/13

Corinne Schenka Vorkurs Mathematik WiSe 2012/13 4. Lineare Gleichungssysteme Ein lineares Gleichungssystem ist ein System aus Gleichungen mit Unbekannten, die nur linear vorkommen. Dieses kann abkürzend auch in Matrizenschreibweise 1 notiert werden:

Mehr

Ausgewählte Methoden der ganzzahligen Linearen Optimierung

Ausgewählte Methoden der ganzzahligen Linearen Optimierung Ausgewählte Methoden der ganzzahligen Linearen Optimierung Diplomarbeit zur Erlangung des akademischen Grades Magistra rerum naturalium eingereicht von Arntraud Bacher bei AUnivProf Dr Kurt Girstmair an

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

Optimierung. Nürnberg, Oktober 2015

Optimierung. Nürnberg, Oktober 2015 1 Optimierung Nürnberg, Oktober 2015 Prof. Dr. Yvonne Stry Technische Hochschule Nürnberg Fakultät Angewandte Mathematik, Physik und Allgemeinwissenschaften Keßlerplatz 12 90461 Nürnberg Germany 1 Beispiel

Mehr

Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen

Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen be/ji/3(2) 2-1 2 im Kontext der OR-Optimierungsmodelle Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen Standardform: - Planungsziel min bzw. min Z(x) = c 1 x 1 + c 2 x 2 + + c n x n Z(x)

Mehr

Optimierungsalgorithmen

Optimierungsalgorithmen Optimierungsalgorithmen Jakob Puchinger Algorithmen und Datenstrukturen 2 Arbeitsbereich für Algorithmen und Datenstrukturen Institut für Computergraphik und Algorithmen Technische Universität Wien Übersicht

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare

Mehr

A2.3 Lineare Gleichungssysteme

A2.3 Lineare Gleichungssysteme A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen

Mehr

( ) Lineare Gleichungssysteme

( ) Lineare Gleichungssysteme 102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv

Mehr

Sensitivitätsanalyse in der Linearen Optimierung

Sensitivitätsanalyse in der Linearen Optimierung Sensitivitätsanalyse in der Linearen Optimierung Bei der Sensitivitätsanalyse werden i. allg. Größen des Ausgangsproblems variiert, und es wird untersucht, welche Wirkung eine derartige Modifikation auf

Mehr

Lineare Programmierung. Beispiel: Wahlkampf. Beispiel: Wahlkampf. Mathematische Schreibweise. Lineares Programm. Datenstrukturen & Algorithmen

Lineare Programmierung. Beispiel: Wahlkampf. Beispiel: Wahlkampf. Mathematische Schreibweise. Lineares Programm. Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Einführung Standard- und Schlupfformen Simplex Algorithmus Matthias Zwicker Universität Bern Frühling 2009 2 Beispiel: Wahlkampf Ziel: mit möglichst wenig Werbung eine gewisse

Mehr

KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen)

KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen) Mathematisches Institut WS 2012/13 der Heinrich-Heine-Universität 7.02.2013 Düsseldorf Prof. Dr. Achim Schädle KLAUSUR zu Einführung in die Optimierung Bitte folgende Angaben ergänzen und DEUTLICH LESBAR

Mehr

AUFGABENTEIL. Klausur: Modul Optimierungsmethoden des Operations Research. Termin:

AUFGABENTEIL. Klausur: Modul Optimierungsmethoden des Operations Research. Termin: Lehrstuhl für Betriebswirtschaftslehre, insb. Quantitative Methoden und Wirtschaftsmathematik Univ.-Prof. Dr. Andreas Kleine AUFGABENTEIL Klausur: Modul 32621 Termin: 19.09.2016 Prüfer: Prof. Dr. Andreas

Mehr

3. Grundlagen der Linearen Programmierung

3. Grundlagen der Linearen Programmierung 3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations

Mehr

Lineares Programmieren

Lineares Programmieren Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 03.05.2011 Nachtrag Art Gallery Problem Lässt sich der Triangulierungs-Algorithmus

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2016 Lineare Gleichungssysteme Schwerpunkte: Interpretation und Verständnis der Gleichungen Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik unter

Mehr

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57 Vorwort... 13 Vorwort zur 3. deutschen Auflage... 17 Kapitel 1 Einführung, I: Algebra... 19 1.1 Die reellen Zahlen... 20 1.2 Ganzzahlige Potenzen... 23 1.3 Regeln der Algebra... 29 1.4 Brüche... 34 1.5

Mehr

Lineare Gleichungssysteme - Grundlagen

Lineare Gleichungssysteme - Grundlagen Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

Fachakademie für Wirtschaft der FHM A2: Lineare Optimierung und das Simplexverfahren

Fachakademie für Wirtschaft der FHM A2: Lineare Optimierung und das Simplexverfahren A2.1 Lineare Optimierung mit dem Simplexverfahren Wenn ein Unternehmen ermitteln möchte, wie viele Mengeneinheiten von verschiedenen Produkten zu produzieren sind, damit bei gegebenen Verkaufspreisen der

Mehr

Optimierung und Simulation ökonomischer Problemlagen privater Haushalte 2. Vorlesung

Optimierung und Simulation ökonomischer Problemlagen privater Haushalte 2. Vorlesung Optimierung und Simulation ökonomischer Problemlagen privater Haushalte 2. Vorlesung Rainer Hufnagel / Laura Wahrig 2006 Diese Woche LO - Rechnerische Lösung - Simplex- Algorithmus LO - Auswertung des

Mehr

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester

Mehr

Optimierung und Simulation ökonomischer Problemlagen privater Haushalte 3. Vorlesung

Optimierung und Simulation ökonomischer Problemlagen privater Haushalte 3. Vorlesung Optimierung und Simulation ökonomischer Problemlagen privater Haushalte 3. Vorlesung Rainer Hufnagel / Laura Wahrig 2006 Diese Woche LO - Sensitivitätsanalyse Simulation Beispiel Differenzengleichungen

Mehr

3.4 Der Gaußsche Algorithmus

3.4 Der Gaußsche Algorithmus 94 34 Der Gaußsche Algorithmus Wir kommen jetzt zur expliziten numerischen Lösung des eingangs als eine Motivierung für die Lineare Algebra angegebenen linearen Gleichungssystems 341 n 1 a ik x k = b i,

Mehr

Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler

Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Wintersemester 2007/08 27.2.2008 Dr. Sascha Kurz Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Bitte lesbar ausfüllen, Zutreffendes ankreuzen Herr Frau Name, Vorname: Anschrift:

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Themenheft mit viel Trainingsmaterial (Siehe Vorwort!) Unabhänge Vektoren und Erzeugung von Vektoren Gauß-Algorithmus Rang einer Matrix.

Themenheft mit viel Trainingsmaterial (Siehe Vorwort!) Unabhänge Vektoren und Erzeugung von Vektoren Gauß-Algorithmus Rang einer Matrix. LINEARE ALGEBRA Lösbarkeit von linearen Gleichungssystemen Themenheft mit viel Trainingsmaterial (Siehe Vorwort!) Unabhänge Vektoren und Erzeugung von Vektoren Gauß-Algorithmus Rang einer Matrix Gleichungssysteme

Mehr

ARBEITSUNTERLAGEN ZUR VORLESUNG UND ÜBUNG AN DER UNIVERSITÄT DES SAARLANDES LINEARE OPTIMIERUNG

ARBEITSUNTERLAGEN ZUR VORLESUNG UND ÜBUNG AN DER UNIVERSITÄT DES SAARLANDES LINEARE OPTIMIERUNG ¾ REITSUNTERLGEN ZUR VORLESUNG UND ÜUNG N DER UNIVERSITÄT DES SRLNDES LINERE OPTIMIERUNG IM SS Lineare Optimierung (SS ). ufgabe (Graphische Lineare Optimierung) Nach einem anstrengenden Semester steht

Mehr

Lineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010

Lineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010 Lineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010 FAKULTÄT FÜR I NFORMATIK, I NSTITUT FÜR T HEORETISCHE I NFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

1 Zahlentheorie. 1.1 Kongruenzen

1 Zahlentheorie. 1.1 Kongruenzen 3 Zahlentheorie. Kongruenzen Der letzte Abschnitt zeigte, daß es sinnvoll ist, mit großen Zahlen möglichst einfach rechnen zu können. Oft kommt es nicht darauf, an eine Zahl im Detail zu kennen, sondern

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Formalisierung - min (z) -20x 1-10x 2 - udn (a) x 1 +x m = 3 (b) x x 1 +6x 2 = 720. (d) x 1 0, x 2 0 n = 2

Formalisierung - min (z) -20x 1-10x 2 - udn (a) x 1 +x m = 3 (b) x x 1 +6x 2 = 720. (d) x 1 0, x 2 0 n = 2 2-1 2-2 2 2.1 Beispiele und prinzipielle Lösungsidee im Kontext der OR-Optimierungsmodelle Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen Standardform: - Planungsziel min bzw. min -

Mehr

Operations Research für Wirtschaftsinformatiker. Vorlesungsskript von Richard Mohr

Operations Research für Wirtschaftsinformatiker. Vorlesungsskript von Richard Mohr Operations Research für Wirtschaftsinformatiker Vorlesungsskript von Richard Mohr Fachhochschule Esslingen, SS 2005 INHALTSVERZEICHNIS i Inhaltsverzeichnis Lineare Optimierung. Graphische Lösung des linearen

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Optimierung. Prof. Dr. H. Maurer WWU Münster, Wintersemester 2009/2010 Vorlesungsmitschrift von Christian Schulte zu Berge. 22.

Optimierung. Prof. Dr. H. Maurer WWU Münster, Wintersemester 2009/2010 Vorlesungsmitschrift von Christian Schulte zu Berge. 22. Optimierung Prof. Dr. H. Maurer WWU Münster, Wintersemester 009/00 Vorlesungsmitschrift von Christian Schulte zu Berge. Januar 00 Inhaltsverzeichnis 0 Einführung 0. Typen von Optimierungsproblemen................................

Mehr

Operations Research I

Operations Research I Operations Research I Lineare Programmierung Prof. Dr. Peter Becker Fachbereich Informatik Hochschule Bonn-Rhein-Sieg Sommersemester 2015 Peter Becker (H-BRS) Operations Research I Sommersemester 2015

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Definition 91 Duales lineares Programm Sei z = c T x min! Ax = b (91) x 0 mit c,x R n, b R m, A R m n ein lineares Programm Das lineare Programm z = b

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Optimierung I. Dr. Ulf Lorenz F2.413

Optimierung I. Dr. Ulf Lorenz F2.413 Optimierung I Dr. Ulf Lorenz F2.413 flulo@upb.de Organisation Dozent: Dr. Ulf Lorenz F2.413 Fürstenallee 11 email: flulo@upb.de WWW: http://www.upb.de/cs/flulo (hier auch aktuelle Infos + Ü-Zettel) Vorlesungen:

Mehr

Lineare Gleichungssysteme Kapitel 5 aus meinem Lehrgang ALGEBRA

Lineare Gleichungssysteme Kapitel 5 aus meinem Lehrgang ALGEBRA Lineare Gleichungssysteme Kapitel 5 aus meinem Lehrgang ALGEBRA Ronald Balestra CH - 7028 St. Peter www.ronaldbalestra.ch e-mail: theorie@ronaldbalestra.ch 19. Oktober 2009 Überblick über die bisherigen

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den

Mehr

Grundlagen, Vorgehensweisen, Aufgaben, Beispiele

Grundlagen, Vorgehensweisen, Aufgaben, Beispiele Hans Benker - Wirtschaftsmathematik Problemlösungen mit EXCEL Grundlagen, Vorgehensweisen, Aufgaben, Beispiele Mit 138 Abbildungen vieweg TEIL I: EXCEL 1 EXCEL: Einführung 1 1.1 Grundlagen 1 1.1.1 Tabellenkalkulation

Mehr

Skript Operations Research, SS Dr. Reinhard Schaitzel, Hochschule Augsburg, Fakultät für Informatik

Skript Operations Research, SS Dr. Reinhard Schaitzel, Hochschule Augsburg, Fakultät für Informatik Skript Operations Research, SS 2014 Dr. Reinhard Schaitzel, Hochschule Augsburg, Fakultät für Informatik 5. März 2014 Inhaltsverzeichnis 1 Einführung 7 1.1 Begrisklärung............................ 7 1.1.1

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Fall 3: Mehrere Kapazitätsengpässe

Fall 3: Mehrere Kapazitätsengpässe Fall 3: Mehrere Kapazitätsengpässe ei Vorliegen mehrerer Engpässe ist zunächst zu prüfen, ob ein Engpass die anderen Engpässe dominiert. Ist dies der Fall, reduziert sich das Optimierungsproblem auf den

Mehr

Lineare Optimierung. Vorlesung von Prof. Christiane Tammer Author : Georg Kuschk (Quelle : www.rikuti.de)

Lineare Optimierung. Vorlesung von Prof. Christiane Tammer Author : Georg Kuschk (Quelle : www.rikuti.de) Lineare Optimierung Vorlesung von Prof Christiane Tammer Author : Georg Kuschk (Quelle : wwwrikutide) 11 August 2006 Inhaltsverzeichnis 1 Einleitung, Beispiele 2 2 Das allgemeine lineare Optimierungsproblem

Mehr

Der Simplexalgorithmus und Innere-Punkt-Methoden zur Lösung linearer Optimierungsprobleme

Der Simplexalgorithmus und Innere-Punkt-Methoden zur Lösung linearer Optimierungsprobleme Der Simplexalgorithmus und Innere-Punkt-Methoden zur Lösung linearer Optimierungsprobleme Birgül Tunç Diplomarbeit Bochum, im Dezember 28 Fakultät für Mathematik Ruhr-Universität Bochum Inhaltsverzeichnis

Mehr

Sattelpunkt-Interpretation

Sattelpunkt-Interpretation Sattelpunkt-Interpretation Vinzenz Lang 14. Mai 2010 Die Sattelpunkt-Interpretation befasst sich mit der Interpretation der Lagrange- Dualität. Sie wird im weiteren Verlauf des Seminars nicht noch einmal

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

Allgemeines Gleichungssystem mit zwei Gleichungen und zwei Variablen. Der erste Index bezeichnet die Nummer der Zeile, der zweite die der Spalte.

Allgemeines Gleichungssystem mit zwei Gleichungen und zwei Variablen. Der erste Index bezeichnet die Nummer der Zeile, der zweite die der Spalte. Lineare Gleichungssysteme. Einleitung Lineare Gleichungssysteme sind in der Theorie und in den Anwendungen ein wichtiges Thema. Theoretisch werden sie in der Linearen Algebra untersucht. Die Numerische

Mehr

Lineare Optimierungsmodelle

Lineare Optimierungsmodelle 2 Lineare Optimierungsmodelle Lernziele: Kenntnisse über den Aufbau von linearen Optimierungsmodellen Verständnis darüber, warum lineare Modelle günstig sind Lösungsmethoden für lineare Modelle, insbesondere

Mehr

Mathematik für Wirtschaftswissenschaftler

Mathematik für Wirtschaftswissenschaftler Knut Sydsaeter Peter HammondJ Mathematik für Wirtschaftswissenschaftler Basiswissen mit Praxisbezug 2., aktualisierte Auflage Inhaltsverzeichnis Vorwort 13 Vorwort zur zweiten Auflage 19 Kapitel 1 Einführung,

Mehr

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010 Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Aufgabe 1: Bestimmen Sie Zahlen a b. ,, für die. = b. und gleichzeitig a + b + 1 = 0 gilt. Lösung zu Aufgabe 1:

Aufgabe 1: Bestimmen Sie Zahlen a b. ,, für die. = b. und gleichzeitig a + b + 1 = 0 gilt. Lösung zu Aufgabe 1: WS 99/99 Aufgabe : Bestimmen Sie Zahlen a b,, für die 6 b a und gleichzeitig a + b + gilt. Lösung zu Aufgabe : WS 99/99 Aufgabe : Ein Unernehmen stellt aus ohstoffen (,,, ) Zwischenprodukte ( Z, Z, Z )

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Prüfungsklausur Wirtschaftsmathematik I Studiengang Wirtschaftsinformatik, (180 Minuten)

Prüfungsklausur Wirtschaftsmathematik I Studiengang Wirtschaftsinformatik, (180 Minuten) HTW Dresden 9. Februar 2012 FB Informatik/Mathematik Prof. Dr. J. Resch Prüfungsklausur Wirtschaftsmathematik I Studiengang Wirtschaftsinformatik, (180 Minuten) Name, Vorname: Matr.-nr.: Anzahl der abge-

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Einstieg in die Informatik mit Java

Einstieg in die Informatik mit Java 1 / 20 Einstieg in die Informatik mit Java Rekursion Gerd Bohlender Institut für Angewandte und Numerische Mathematik Gliederung 2 / 20 1 Überblick 2 Rekursion 3 Rekursive Sortieralgorithmen 4 Backtracking

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung In der linearen

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden: Inverse Matritzen Spezialfall: Die Gleichung ax b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a a 1 gelöst werden: ax b x b a a 1 b. Verallgemeinerung auf Ax b mit einer n nmatrix A: Wenn es

Mehr

Kap 5: Rang, Koordinatentransformationen

Kap 5: Rang, Koordinatentransformationen Kap 5: Rang, Koordinatentransformationen Sei F : V W eine lineare Abbildung. Dann ist der Rang von F erklärt durch: rang F =dim ImF. Stets gilt rang F dimv, und ist dimv

Mehr

Übungen und Fallbeispiele zum Operations Research

Übungen und Fallbeispiele zum Operations Research Springer-Lehrbuch Übungen und Fallbeispiele zum Operations Research Bearbeitet von Wolfgang Domschke, Andreas Drexl, Robert Klein, Armin Scholl, Stefan Voß 8., aktualisierte Auflage 5. Buch. XII, S. Kartoniert

Mehr

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor) Matrizenrechnung. Matrizen Matrizen sind bereits im Kapitel Lineare Gleichungssysteme aufgetreten. Unter einer (m n) -Matrix A verstehen wir ein rechteckiges Zahlenschema mit m Zeilen und n Spalten. Der.

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen 3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...

Mehr