Methoden der linearen Optimierung
|
|
- Sven Schuster
- vor 7 Jahren
- Abrufe
Transkript
1 Methoden der linearen Optimierung Mike Hüftle 31. Juli 2006 Inhaltsverzeichnis 1 Einleitung Lineare Optimierung Lineares Modell Basisdarstellung Graphische Lösung Konvexität des Lösungsraumes Simplexverfahren Methodenbeschreibung Nebenpfad: Simplex-Verfahren Graphische Interpretation Ein Beispiel Varianten des Simplex-Verfahrens Varianten des Simplex-Verfahrens Duales Simplex-Verfahren Anwendung Methoden postoptimaler Analysen Sensitivitätsanalyse Sensitivitätsanalyse Parametrisches Programmieren Literatur, Software und Methodenverzeichnis Literatur zum Simplexverfahren Literatur zu Sensitivitätsanalysen Software Methodenverzeichnis
2 1 Einleitung 1.1 Einführung Die lineare Optimierung gehört zu den ältesten und am besten entwickelten Gebieten der mathematischen Optimierung, da sich verschiedenste Planungs-, Steuerungs- und Optimierungsprobleme als lineare Programme formulieren lassen, und dann relativ einfach gelöst werden können. Für lineare Optimierungsprobleme existiert eine Reihe von Methoden, welche auch große Probleme effizient lösen können. Deshalb wird in der Praxis häufig versucht, Optimierungsmodelle als lineare Modelle zu formulieren. Methoden zur Lösung linearer Optimierungsmodelle Zur Lösung linearer Optimierungsmodelle werden hauptsächlich zwei Lösungsansätze verwendet. Zum einen das Simplexverfahren und seine Erweiterungen und zum anderen Innere Punkte-Methoden. Im Folgenden wird lediglich das in der Praxis häufiger verwendete Simplexverfahren beschrieben. 2
3 2 Lineare Optimierung 2.1 Lineares Modell Lineares Optimierungsproblem Ein lineares Optimierungsproblem ist gegeben, wenn eine lineare Zielfunktion unter Beachtung endlich vieler linearer Nebenbedingungen optimiert werden soll. Lineares Optimierungsmodell Das Standardmodell der linearen Optimierung kann folgendermaßen formuliert werden: max z = c T x u. d. NB Ax b, x 0 c, x R n, b R m, b 0 wobei c T x als Zielfunktion bezeichnet wird, c als Vektor der Zielfunktionskoeffizienten, A als die Koeffizientenmatrix mit m Zeilen und n Spalten und b als Kapazitätenvektor. Die Restriktionen x 0 werden als Nichtnegativitätsbedingungen bezeichnet. 3
4 2.2 Basisdarstellung Schlupfvariablen Durch die Einführung nichtnegativer Variablen s (so genannter Schlupfvariablen) können die Ungleichungsnebenbedingungen in einfacher zu handhabende Gleichungsnebenbedingungen überführt werden, ohne das Modell selbst zu verändern: Lineares Modell mit Schlupfvariablen max z = c T x + 0 T s u. d. NB A m,n x + I m s = b x,s 0, A m,n eine (m n) Matrix c,x R n, b, s R m, I m m dim. Einheitsmatrix Basisdarstellung des linearen Optimierungsmodells Jede nichtsinguläre Teilmatrix B der Matrix D=(A,I sub m /sub ) wird Basis des linearen Modells genannt. Die Matrix B enthält somit nur die so genannten Basisspalten (Basisvariablen) der Matrix D. Mit N wird der aus den Nichtbasisspalten (Nichtbasisvariablen) bestehende Rest der Matrix D bezeichnet. Das lineare Modell kann somit auch geschrieben werden als: Lineares Modell in Basisdarstellung max z = (c T B, ct N ) ( xb xn ) u. d. NB s. d. (B, N) ( xb x N ) = b x b, x N 0 Der Vektor x = (x B, 0), für den alle Nichtbasisvariablen Null sind, wird Basislösung genannt. Eine Basislösung ist zulässig, wenn für x B = B 1 b 0 gilt, d.h. keine Nebenbedingung durch eine Basisvariable verletzt wird. 4
5 2.3 Graphische Lösung Graphische Lösung des linearen Optimierungsproblems Die Abbildung zeigt die graphische Lösung eines linearen Optimierungsproblems mit zwei Variablen und drei Nebenbedingungen. Der schraffierte Bereich markiert den zulässigen Lösungsraum, d.h. die Menge der möglichen Lösungen, die keine Nebenbedingung verletzen. Um die optimale Lösung zu bestimmen, wird die gestrichelte Zielfunktionsgerade z (die Gerade, auf der die Zielfunktinswerte für verschiedene Variablenausprägungen liegen) parallel nach rechts verschoben, bis sie eine Ecke des zulässigen Lösungsraumes berührt (durchgezogene Zielfunktionsgerade). Je weiter die Gerade nach rechts wandert, desto höhere Werte nimmt die Zielfunktion an. Kann die Zielfunktionsgerade nicht mehr weiter verschoben werden, ohne den zulässigen Raum zu verlassen, so ist eine optimale Lösung x* gefunden. 5
6 2.4 Konvexität des Lösungsraumes Konvexität des Lösungsraumes Grundlegend für die Betrachtung der Methoden zur Lösung linearer Optimierungsprobleme ist die Tatsache, dass der Lösungsraum, den die Nebenbedingungen beschränken, stets abgeschlossen und konvex ist. Dies wird auch ein Polyeder genannt. Ist er zusätzlich noch beschränkt, so ist der Lösungsraum ein konvexes Polytop und es existiert eine zulässige optimale Basislösung x*, die in einer Ecke des Polyeders liegt. Ist der Polyeder nicht beschränkt, so kann es sein, dass keine optimale Lösung existiert. Der Begriff des n-simplex bezeichnet ein Polytop bzw. dessen konvexe Hülle im n-dimensionalen Raum. Die Abbildung zeigt einen Simplex im dreidimensionalen Raum. 6
7 3 Simplexverfahren 3.1 Methodenbeschreibung Einführung Das Simplex-Verfahren (auch: Simplex-Algorithmus) wurde 1947 von George Dantzig entwickelt. Es findet für ein lineares Optimierungsproblem nach endlich vielen Schritten eine exakte Lösung oder stellt die Unlösbarkeit des Problems fest. In seltenen Fällen können Zyklen auftreten, so dass das Simplexverfahren die optimale Lösung nicht berechnen kann. Methodenbeschreibung Das Simplex-Verfahren geht von einer zulässigen Basislösung des linearen Optimierungsmodells aus. Als erste Basislösung kann die Einheitsmatrix I m eingesetzt werden, welche durch die Spalten der Schlupfvariablen gebildet wird. Basistausch Durch den schrittweisen Übergang von einer zulässigen Basislösung zur nächsten, dem so genannten Basistausch, wird eine endliche Folge von Basislösungen erzeugt, deren Zielfunktionswert sich nicht verschlechtert. Mit jedem Basistausch wird eine Variable aus der Basis durch eine Nichtbasisvariable ersetzt. Durch eine Eliminationsregel wird bestimmt, welche Variable aus der Basis eliminiert wird. Diese Regel stellt sicher, dass auch die nächste Basislösung zulässig ist, d.h. x B = B 1 b 0 gilt. Die neu in die Basislösung aufzunehmende Variable wird mittels einer Auswahlregel bestimmt, welche garantiert, dass sich der Zielfunktionswert nicht verschlechtert. Nähere Erläuterungen zur Auswahl- und zur Eliminationsregel finden Sie hier. Sind die neu in die Basis aufzunehmende und die zu eliminierende Spalte bestimmt, so wird das lineare Modell mittels elementarer Matrixoperationen so umgeformt, dass die aufzunehmende Variable zum Einheitsvektor wird. Anschließend beginnt der nächste Iterationsschritt wieder mit der Auswahl einer neu in die Basis aufzunehmenden Variablen. Stopp-Regel Es werden so lange Basistausche vorgenommen, bis der Zielfunktionswert nicht mehr weiter verbessert werden kann. Dann terminiert das Simplex-Verfahren. 7
8 3.1.1 Nebenpfad: Simplex-Verfahren Auswahlregel Die neu in die Basislösung aufzunehmende Variable wird mittels einer Auswahlregel bestimmt, welche garantiert, dass sich der Zielfunktionswert nicht verschlechtert. Die Auswahl erfolgt z.b. nach dem Kriterium der maximalen marginalen Verbesserung des Zielfunktionswertes z j für alle Nichtbasis-Indizes j: z j = c j c B B 1 A j < 0 Existieren mehrere solche z j < 0, so wird das kleinste ausgewählt. Dieses verspricht die größte Verbesserung des Zielfunktionswertes. Gibt es kein z j < 0, so ist die aktuelle Basislösung optimal und das Simplex-Verfahren terminiert. EliminationsregelZur Auswahl der zu eliminierenden Basisvariablen wird der Vektor a l der neu in die Basis aufzunehmenden Variablen x l betrachtet. Gibt es keine positive Komponente des Vektors x l, so terminiert das Simplexverfahren. Ist eine Komponente i von a l positiv, so wird Θ bestimmt zu: Θ = min bi a il i = 1,..., m; a i l > 0 Gibt es ein i, so dass Θ eindeutig bestimmbar ist, dann ist dies der Index der Basisvariablen, bei deren Elimination die Zulässigkeit der nächsten Basislösung gesichert ist. Existiert kein eindeutiger Indexi, so wird dies eine entartete Basislösung genannt und die Wahl der zu eliminierenden Variablen ist nicht mehr eindeutig. Dies kann dazu führen, dass das Simplexverfahren kreist, d.h. immer wieder die gleichen Basislösungen generiert. Dies führt in der Praxis jedoch kaum zu Problemen. 8
9 3.2 Graphische Interpretation Graphische Interpretation des Simplex- Verfahrens Eine anschaulichere graphische Interpretation des Simplex-Verfahrens ist die Vorstellung von einem konvexen Polyeder, dessen Seitenflächen durch die Nebenbedingungen des linearen Modells gegeben sind. Somit ist die Menge der Punkte, welche den Polyeder bilden, die zulässige Menge des Optimierungsproblems. Gibt es einen optimale Lösung x*, so liegt diese auf einer Ecke des Polyeders. Das Simplexverfahren durchläuft eine Folge von Ecken des Polyeders, wobei sich der Zielfunktionswert nicht verschlechtern darf. Jeder Wechsel von einer Ecke zu einer benachbarten Ecke entspricht einem Basistausch, d.h. eine Nichtbasisvariable wird zur Basisvariablen und umgekehrt. Da ein konvexes Polyeder nur endlich viele Ecken besitzt und das Simplexverfahren jede Ecke nur einmal durchläuft (Ausnahme: entartete Basislösung) terminiert der Algorithmus in endlich vielen Schritten oder stellt fest, dass es keine Lösung des linearen Optimierungsproblems gibt LaufzeitverhaltenDas worst case-laufzeitverhalten des Simplexverfahrens ist exponentiell, d.h. des Simplex- die Rechenzeit wächst exponentiell mit der Anzahl der Variablen. Es ist ein Algorithmus noch nicht gelöstes Problem, ob es Auswahlregeln gibt, für die das worst case- Verhalten polynomial ist. In der Praxis hat sich jedoch gezeigt, dass im Mittel sehr gute Laufzeiten erreicht werden und das Verfahren somit eine gute Wahl zur Lösung linearer Optimierungsprobleme ist. 9
10 3.3 Ein Beispiel Basisdarstellung des Modells Zur Veranschaulichung (nicht zur Implementierung) des Simplexverfahrens wird oft die Tableauform benutzt. Deshalb wird im Folgenden das Verfahren mit einem Beispiel anhand der Tableauform erläutert. Betrachtet wird das folgende lineare Optimierungsproblem: max z = x 1 + x 2 x 3 u. d. NB 3x 1 2x 2 3 2x 1 +x 3 4 x 1 +3x 2 2x 3 6 x 1, x 2, x 3 0 Nach der Einführung von Schlupfvariablen erhält man das folgende Modell: max z = x 1 + x 2 x 3 u. d. NB 3x 1 2x 2 +x 4 = 3 2x 1 +x 3 +x 5 = 4 x 1 +3x 2 2x 3 +x 6 = 6 x 1, x 2, x 3 0 Die folgende Dia-Show zeigt den Ablauf des Simplex-Verfahrens zur Lösung des obigen Modells. Die einzelnen Schritte werden weiter unten ausführlicher erläutert. Ausgangstableau mit den Schlupfvariablen x 4, x 5, x 6 als erster Basislösung Bestimmen von Pivotzeile, Pivotspalte und Pivotelement Aktualisieren bzw. Umformen des Simplextableaus 10
11 Bestimmen von Pivotzeile, Pivotspalte und Pivotelement Umformen zum optimalen Simplextableau Erste Basislösung Mit den Schlupfvariablen x 4,x 5, x 6 als erster Basislösung wird folgendes Tableau T 0 aufgestellt: Basistausch Die Spalte der x B(i) des Tableaus enthält die Variablen, die in der aktuellen Basislösung vorkommen. Um die Variable auszuwählen, welche neu in die Basis aufgenommen werden soll, werden in der untersten Zeile die marginalen Verbesserungen der Zielfunktionswerte z j als Auswahlkriterium berechnet und das kleinste der z j < 0 ausgewählt. Existieren mehrere z j < 0, welche den gleichen kleinsten Wert besitzen, so wird eines mit dem Index l ausgewählt. Die l-te Spalte des Tableaus ist die Pivotspalte. Um die Pivotzeile mit der aus der Basislösung zu eliminierenden Variablen zu bestimmen wird für alle iθ i = b i /a il berechnet, mit a il als demi-ten Element der Pivotspalte. Wurde so dass Pivotelement bestimmt, so kann das Tableau umgeformt (pivotisiert) werden. Beim Pivotisieren wird die Spalte a l zum Einheitsvektor transformiert. Hierzu werden z.b. die Kreisregel, Zeilentransformationen oder Matrixoperationen eingesetzt (vgl. [5] S. 80 f.). Der Zielfunktionswert der aktuellen Lösung wird berechnet zu: z = i B c ib i = 0 Zwei weitere Iterationen Der Algorithmus endet im Tableau T 2, da alle z j < 0 sind. Die Optimallösung lautet: x 1 = 21/11, x 2 = 15/11, x 3 = 0mit dem optimalen Zielfunktionswert z = 36/11. 11
12 3.4 Varianten des Simplex-Verfahrens Varianten des Simplex- Verfahrens Es wurden zahlreiche Varianten des Simplex-Verfahrens entwickelt, welche die Anzahl der notwendigen Iterationen zur Lösung eines linearen Optimierungsproblems verringern oder welche die Rechenzeit zur Durchführung einer Iteration reduzieren. Dies führt vor allem bei Problemen mit vielen Nebenbedingungen oder einer großen Anzahl an Variablen zu geringeren Laufzeiten. Revidiertes Simplexverfahren Der revidierte Simplex-Algorithmus wird nahezu von allen numerischen Implementierung des Simplexverfahrens verwendet (vgl. z.b. [1] pp ). Er arbeitet bei der Optimierung großer und dünn besetzter linearer Optimierungsmodelle effizienter als der Standard-Simplexalgorithmus. Anstatt die komplette Matrix A nach jeder Iteration neu zu bestimmen, führt der revidierte Simplex-Algorithmus den größten Teil der Berechnungen am Anfang jeder Iteration durch, indem jeweils die inverse Matrix B sup -1 /sup mit der Pivotmatrix P aktualisiert wird. Da große Matrizen B an vielen Stellen keine Einträge enthalten, ist dies sehr recheneffizient. Im Folgenden wird das Vorgehen des revidierten Simplexalgorithmus am obigen Beispiel erläutert. Beispiel für den revidierten Simplex Im initialen Simplextableau T 0 wird die Pivotmatrix P 1 berechnet, indem die k-te Spalte der Einheitsmatrix (k ist der Index der Pivotzeile) durch die Spalte L = ( a 1l /a kl, a 2l /a kl,..., 1/a kl,..., a m l/a kl ) T (1) ersetzt wird: P 1 = 2/ / /3 0 0 Für die revidierte Simplexmethode genügt es nun, die neue Matrix B 1 1 zu berechnen: B 1 1 = P 1 B 1 0 = 2/ / / = 2/ / /
13 Auf diese Weise kann jede Matrix B 1 k berechnet werden, indem die initiale Matrix B0 1 mit k Pivotmatrizen multipliziert wird: B 1 k = P k P k 1... P 2 P 1 B 1 13
14 3.5 Varianten des Simplex-Verfahrens Methode von Bartels-Golub Eine Variante des revidierten Simplexalgorithmus ist die Methode von Bartels- Golub. Sie verbesserte die Laufzeit, den Speicherplatzbedarf und insbesondere die numerische Genauigkeit des revidierten Simplex. Die Methode von Bartels- Golub vermeidet die aufwändige Berechnung der inversen Matrix. Anstatt dessen wird die Basis in obere und untere Dreiecksfaktoren zerlegt, die effizienter als die Inverse berechnet werden können. Weitere Auswahlregeln Es existieren zahlreiche Varianten zur Durchführung der einzelnen Schritte des Simplex-Algorithmus (vgl.[4], S. 143 ff.). Regeln zur Auswahl der Pivotspalte l aus den N Nichtbasisspalten mit z j < 0 sind z.b.: Kleinster-Index-Regel: Wähle l so, dass z l = min {j N z j < 0} Regel der maximalen Verbesserung des Zielfunktionswertes: Wähle l so, dass z l = min { z j z j < 0} Weitere Eliminationsregeln Regeln zur Auswahl der zu eliminierenden Variablen bzw. zur Auswahl der Pivotzeile sind z.b.: Kleinster-Zeilenindex-Regel: Wähle k so, dass Θ k = min {Θ i Θ i > 0} Kleinster Index-Regel: Wähle das erste i mit Θ i < 0 Lexikographische Zeilenauswahlregel 14
15 3.6 Duales Simplex-Verfahren Duales Modell der linearen Optimierung Das duale Simplexverfahren basiert auf dem dualen Modell der linearen Optimierung: min Z = b T y u. d. NB A T y c, y 0 b, y R m, c R n Duales Simplexverfahren In diesem Zusammenhang wird das (Standard-) Modell der linearen Optimierung auch als primales Modell bezeichnet und das (Standard-) Simplex- Verfahren als primales Verfahren. Zur Theorie der Dualität in der linearen Optimierung wird auf die angegebene Literatur verwiesen (z.b. [5], S. 92 ff.). Hier werden lediglich einige -zum Verständnis dualer Modelle wesentliche- Aussagen der Dualitätstheorie angeführt: Jedes duale Modell lässt sich in ein primales umformen und umgekehrt. Wenn eines der beiden Modelle eine optimale Lösung hat, so besitzt auch das andere eine optimale Lösung und die Zielfunktionswerte stimmen überein. Die duale Zulässigkeit eines Modells ist gegeben, wenn für alle j=1,..., m gilt: z j 0. Mittles des dualen Simplexverfahrens können also äquivalent zum primalen Simplex lineare Optimierungsprogramme gelöst werden. Anwendung des dualen Simplexverfahrens Das duale Simplex-Verfahren ist für bestimmte Problemstellungen gegenüber dem primalen Simplex-Verfahren von Vorteil. In vielen Fällen ist das duale Modell einfacher strukturiert und erfordert somit einen geringeren Lösungsaufwand als das primal formulierte Problem. Auch ist es in der Praxis häufig der Fall, dass nach Berechnung der optimalen Lösung kleine Modifikationen am ursprünglichen Problem vorgenommen werden. Wenn hierdurch das Problem primal unzulässig wird, so kann das duale Simplex-Verfahren effizient wieder eine zulässige optimale Lösung finden. 15
16 Ökonomische Interpretation des dualen Simplextableaus Dualitätsbetrachtungen erlauben zusätzliche Erkenntnisse über das Optimierungsproblem und dessen optimales Tableau. Es gibt eine ökonomische Interpretation der optimalen dualen Lösung, die in dieser Weise bei der primalen Lösung nicht möglich ist. Insbesondere können aus der dualen Lösung so genannte Schattenpreise interpretiert werden, welche die Knappheit einer Ressource angeben. Je knapper eine Ressource, desto mehr könnte der Zielfunktionswert durch eine Lockerung der entsprechenden Restriktion verbessert werden (vgl. [5], S. 99 f.). 16
17 3.7 Anwendung Anwendung der Simplexverfahren Neben der Simplex-Methode werden Innere Punkte-Verfahren zur Lösung von linearen Optimierungsproblemen eingesetzt. Welche Methode bei einem bestimmten Problem effizienter arbeitet hängt von der konkreten Problemstruktur ab. Im Allgemeinen arbeiteninnere Punkte-Verfahren bei der Lösung von Problemen mit dünn besetzten Matrizen besser, wohingegen Simplex-Verfahren ganzzahlige Probleme effizienter lösen. Da es für beide Methoden jedoch eine große Anzahl an Varianten, Erweiterungen und Kombinationen mit anderen Methoden gibt, ist es meist sinnvoll bei einem konkreten Problem den möglichen Einsatz verschiedener Verfahren zu überprüfen. Vorteile von Simplexverfahren Das Simplexverfahren und seine Varianten sind für die meisten Problemstellungen der linearen Optimierung die effizienteste Lösungsmethode. Es ist das in der Praxis wohl am häufigsten eingesetzte Optimierungsverfahren. Deshalb existieren zahlreiche Softwaretools, welche das Simplexverfahren einsetzen. Das duale Simplexverfahren hat sich insbesondere bei der ganzzahligen Optimierung als effizient erwiesen. Das Verfahren kann mit Warmstarts begonnen werden, d.h. man beginnt mit einer Basislösung in der Nähe der Optimallösung. Dies verbessert die Laufzeit. Nachteile von Simplexverfahren Das Simplexverfahren zeigt im worst case ein exponentielles Laufzeitverhalten im Gegensatz zu Innere Punkte-Methoden (polynomiale Laufzeit) Das Aufteten einer entarteten Basis kann in seltenen Fällen zu Problemen bei der Lösung führen (z.b. bei postoptimale Analysen) 17
18 4 Methoden postoptimaler Analysen 4.1 Sensitivitätsanalyse Weitergehende Fragestellungen Oftmals ergeben sich nach der Berechnung des Optimums eines linearen Problems weitergehende Fragestellungen. Beispielsweise wird gefragt, in welchem Umfang die Modellparameter schwanken dürfen, damit sich die optimale Lösung nicht verschlechtert. Der Simplexalgorithmus bietet Möglichkeiten, solche Fragen zu beantworten. Stabilität der optimlaen Lösung Durch Sensitivitätsanalysen kann die Stabilität der Lösung eines linearen Optimierungsproblems getestet werden (vgl. [1]). Es wird analysiert, wie sich Veränderungen an einem bereits gelösten linearen Optimierungsmodell in der optimalen Lösung auswirken. Einfügen zusätzlicher Variablen Diese Veränderungen können das Einfügen zusätzlicher Variablen oder Nebenbedingungensein, das Entfernen von Variablen oder Nebenbedingungen sowie Variationen in den verschiedenen Koeffizienten und den Ressourcenbeschränkungen. Der Bereich in dem die verschiedenen Größen schwanken können ohne die optimale Lösung zu verändern, ist auch der Bereich, für den die Schattenpreise des dualen Modells ihre Gültigkeit behalten. Verletzung der Zulässigkeit Wird eine der oben genannten Größen verändert, so kann die primale oder duale Zulässigkeit einer Basislösung verletzt werden. Duale Zulässigkeit besteht, wenn für alle Spaltenindizes j gilt: z j 0. Eine Lösung ist primal zulässig, wenn x B = B 1 b 0 gilt. 18
19 4.2 Sensitivitätsanalyse Sensitivitätsanalyse - Verletzung der dualen Zulässigkeit Gegeben sei das optimale Tableau T 2 des Beispiels: Es soll nun untersucht werden, wie weit der Zielfunktionskoeffizient c 1 varriert werden kann, ohne die duale Zulässigkeit der optimalen Lösung zu verletzen. Hierzu wird c 1 durch c 1 = c 1 + λ ersetzt. Damit ergibt sich z 1 zu z 1 = ( 1 + λ) + ( 1 + λ)( 4/11) + ( 6/11) = 1/11 15λ/11 D.h. die duale Zulässigkeit bleibt für alleλ 1/15erhalten. Für λ > 1/15ist die Zulässigkeit verletzt. Sensitivitätsanalyse - Verletzung der primalen Zulässigkeit Die primale Zulässigkeit kann z.b. verletzt werden, wenn durch Variation der Restriktionen b i eine Komponente des Vektors x B(i) negativ wird. Um dies zu untersuchen wird b i = b i + λ gesetzt. Wird z.b. die Restriktion 2x 1 + x 3 + x 5 = 4variiert, so wird b 2 = b 2 + λ = 4 + λ gesetzt. Somit ergibt sich die rechte Seite des Simplextableaus zu: x B = B 1 b = 9/33 0 2/11 18/33 1 4/11 1/11 0 3/ λ 6 = 21/11 2/11 + λ 15/11 D.h. für λ 2/11 ist die primale Zulässigkeit verletzt. Entsprechende Analysen können auch für alle anderen Komponenten des b- Vektors oder für die Koeffizientenmatrix der Nebenbedingungen durchgeführt werden. Sind die primale bzw. duale Zulässigkeit verletzt, so kann mit einem dualen bzw. primalen Simplexschritt die Zulässigkeit wieder hergestellt und eine neue optimale Lösung erzeugt werden. 19
20 4.3 Parametrisches Programmieren Parametrisches Programmieren Beim parametrischen Programmieren werden Modelle mit parametrisierter Zielfunktion max z = (c + λd) T x u. d. NB s. d. Ax b, x 0 x, c, d R n ; b R m bzw. Modelle mit parametrisierten Nebenbedingungen betrachtet (vgl. [3], S. 106). Für Modelle mit parametrisierter Zielfunktion ist der optimale parametrisierte Zielfunktionswert g(λ) gegeben durch: g(λ) = min (c + λd) T x i i = 1,..., N in Abhängigkeit von λ mit den Eckpunkten der zulässigen Mengex 1,..., x N. g(λ) ist stückweise linear und konvex, wie aus der Abbildung deutlich wird. Diese zeigt das Verhalten des optimalen Zielfunktionswertes in Abhängigkeit vom Parameter λ. Solche Modelle können mit dem Simplex-Verfahren gelöst werden. Sie bestimmen für jede optimale Basislösung x i zulässige Intervalle für den Parameter λ. Nichtlineares parametrisches Programmieren Auch für die nichtlineare Optimierung existiert ein Vielzahl von Ansätzen zur parametrischen Programmierung. Diese werden hier jedoch nicht dargestellt. Für einen Überblick über die nichtlineare parametrische Programmierung wird der interessierte Leser auf die Arbeit von Jongen und Weber [1] verwiesen. 20
21 5 Literatur, Software und Methodenverzeichnis 5.1 Literatur zum Simplexverfahren Literaturverzeichnis Einführende Literatur Calvert, J.E./Voxman, W.:Linear Programming. Orlando Chvatal, V.: Linear Programming, Freeman, New York Dantzig, G.B./Thapa, M. N.: Linear Programming - Theory and Extensions, Springer, New York Berlin Heidelberg Grötschel, M.: Lineare Optimierung. Skriptum zur Vorlesung, Institut für Mathematik, TU Berlin 2004, auf URL: ( ) Zimmermann, H.-J.: Operations Research - Methoden und Modelle.Vieweg, Wiesbaden Literaturverzeichnis Weiterführende Literatur Bartels, R. H./Golub, G.A.: The Simplex Method of Linear Programming Using LU Decomposition, in: Communications of the ACM 5, 1969, pp Gill, P. E./Murray, M./Wright, M.E.: Numerical Linear Algebra and Optimization Volume 1, Addison-Wesley, Redwood City Goldfarb, D./Reid, J.K.: A Practicable Steepest Edge Simplex Algorithm, in: Mathematical Programming, Vol. 12, 1977, pp Klee, V./Minty, G.J.: How Good is the Simplex Algorithm?, in: Shisha, O. (ed.): Inequalities - III, Academic Press, New York 1972, pp N.N: Linear Programming Software. Links des Zuse-Instituts Berlin zu LP-Software, auf URL: ( ). 5.1 Literatur zu Sensitivitätsanalysen Literaturverzeichnis Einführende Literatur Calvert, J.E./Voxman, W.:Linear Programming. Orlando 1989, pp Chvatal, V.: Linear Programming, Freeman, New York Zimmermann, H.-J.: Operations Research - Methoden und Modelle.Vieweg, Wiesbaden
22 Literaturverzeichnis Weiterführende Literatur Jongen, H.T./Weber, G.W.: On parametric nonlinear programming, in: Ann. Operations Research, Vol. 27, 1990, pp Software Die meisten Softwarepakete bieten standardmäßig eine Auswahl zwischen der primalen und der dualen Simplexmethode sowie einer Innere Punkte-Methode zur Lösung linearer Programme. Die Leistungsfähigkeit guter LP-Solver wird in der Regel nur durch den verfügbaren Speicherplatz auf dem Rechner, die Prozessor-Architektur oder interne Restriktionen begrenzt. So können Programme wie AMPL auf entsprechend leistungsfähigen Rechnern Modelle mit bis zu 1 Mio. Nebenbedingungen lösen. Auch die oft frei erhältlichen Studentenversionen lösen Probleme mit mehreren tausend Variablen und Nebenbedingungen. Aus der Vielzahl der am Markt angebotenen Softwaretools zur Lösung linearer Programme sei hier nur eine Auswahl aufgeführt. Einen ausführlicheren Überblick finden Sie unter [4] [5] [2] [3] [1] AMPL Studio von OptiRisk Systems: umfangreiches Solverpaket zur linearen, nichtlinearen und ganzzahligen Optimierung ILOG OPL Development Studio von ILOG LINDO von LINGO Systems: löst lineare, nichtlineare und ganzzahlige Modelle SAS/OR von SAS Institute: Erweiterungs-Modul des Statistikpaketes SAS um OR-Methoden Premium Solver von Frontline Systems: Solver für Excel, Visual Basic 22
23 5.2 Methodenverzeichnis Verzeichnis der erläuterten Methoden Methode von Bartels-Golub Duales Simplexverfahren Parametrische Programmierung Revidiertes Simplexverfahren Simplexverfahren Sensivitätsanalyse 23
1 Lineare Optimierung, Simplex-Verfahren
1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und
MehrLineares Optimieren. W. Kippels 12. April Inhaltsverzeichnis. 1 Einleitung 2. 2 Die Beispielaufgabe 2. 3 Einführung von Schlupfvariablen 2
Lineares Optimieren W. Kippels 1. April 015 Inhaltsverzeichnis 1 Einleitung Die Beispielaufgabe Einführung von Schlupfvariablen 4 Die Simplex-Methode 5 Das Basis-Austauschverfahren 4 6 Fortsetzung der
MehrLineare Optimierungsmodelle
Lineare Optimierungsmodelle Simplex-Methode Vortragender: Michael Schneider Agenda Motivation Operations Research Aufbau linearer Optimierungsmodelle Simplex-Methode Ausblick 2 Problemstellung Futtermischung
MehrOPERATIONS-RESEARCH (OR)
OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:
MehrStudientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform
MehrBestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
Mehr3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)
3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände
MehrDas Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering
Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
MehrLineare Programmierung Teil I
Seminar über Algorithmen Prof. Dr. Helmut Alt Lineare Programmierung Teil I Lena Schlipf, Benjamin Jankovic Lena Schlipf, Benjamin Jankovic Seminar über Algorithmen SS05 1 Struktur des Vortrags 1. Was
Mehr3. Schnittebenenverfahren
3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research
MehrSchranken für zulässige Lösungen
Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung
Mehr10. Lineare Optimierung
10. Lineare Optimierung Im Kontext der Optimierungsmodelle: Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen Lösungsraum Unterraum des n Problem der linearen Optimierung Minimiere unter
MehrKapitel 2: Lineare Optimierung
Kapitel 2: Lineare Optimierung Aufgabe 2.1: Lösen Sie zeichnerisch die folgenden LP-Modelle: a) Max. F(x,y) = 4x + 3y b) Max. F(x,y) = x + y c) Max. F(x,y) = x y x + 3y 9 5x + y 1 2x y x + 2y 2 x + 2y
MehrÜbungen zur Linearen Optimierung Sommersemester 2011. Übungsblatt 1
Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Graduiertenschule HGS MathComp Dr. Stefan Körkel Magdalena Gottfried Übungen zur Linearen Optimierung Sommersemester 2011
MehrLineare Programmierung
Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in
MehrLösung von Optimierungsproblemen anhand von Simplex- Verfahren
Lineare Optimierung Lösung von Optimierungsproblemen anhand von Simplex- Verfahren Informatik-Seminar Studiengang: Informatik Autor: Zemp Michael Betreuer: Schwab Peter Auftraggeber: Schwab Peter Experten:
MehrMathematische Optimierung
Mathematische Optimierung Geschrieben von Jan Pöschko auf Grundlage der Vorlesung von Bettina Klinz TU Graz Sommersemester 2007 Stand: 27. Oktober 2009 Inhaltsverzeichnis I Lineare Optimierung 7 1 Grundlegende
MehrVorlesungsmitschrift Operations Research I und II
Vorlesungsmitschrift Operations Research I und II Bemerkung: Dies ist eine Überarbeitung der beiden Skripte [1] und [2] zu den oben genannten Vorlesungen von Prof. Sebastian, ergänzt um Anmerkungen, die
Mehr2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
MehrMathematikreferat. von. Matthias Faß FG 99
Mathematikreferat von Matthias Faß FG 99 im Mai 2002 Inhaltsverzeichnis: Seite 1. Einleitung: Was ist eigentlich lineare Optimierung? 1 2. Geschichte der linearen Optimierung 1 3. Graphisches Verfahren
Mehr(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung)
Lineare Optimierung Unterbestimmte LGS und Optimierung Bei lösbaren unterbestimmten linearen Gleichungssystemen haben wir die Qual der Wahl in Abhängigkeit von den freien Parametern (Anzahl = Anzahl Unbekannte
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
1 Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Einleitung Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 11. Oktober 2013) 2 Kommunikationsnetzwerke...
MehrSimplex-Umformung für Dummies
Simplex-Umformung für Dummies Enthält die Zielfunktion einen negativen Koeffizienten? NEIN Optimale Lösung bereits gefunden JA Finde die Optimale Lösung mit dem Simplex-Verfahren! Wähle die Spalte mit
MehrKurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok
Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de
MehrMaximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge)
Beispiel: Produktionsplanung Maximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge) Produktionskapazität Ressourcenmenge bei als fest angenommenem
MehrUnimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206
Kapitel 1 Unimodularität Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Inhalt 1 Unimodularität Total unimodulare Matrizen Inzidenzmatrix Optimierungsprobleme auf Graphen Peter
MehrBeginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)
M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.
MehrCorinne Schenka Vorkurs Mathematik WiSe 2012/13
4. Lineare Gleichungssysteme Ein lineares Gleichungssystem ist ein System aus Gleichungen mit Unbekannten, die nur linear vorkommen. Dieses kann abkürzend auch in Matrizenschreibweise 1 notiert werden:
MehrAusgewählte Methoden der ganzzahligen Linearen Optimierung
Ausgewählte Methoden der ganzzahligen Linearen Optimierung Diplomarbeit zur Erlangung des akademischen Grades Magistra rerum naturalium eingereicht von Arntraud Bacher bei AUnivProf Dr Kurt Girstmair an
MehrOptimalitätskriterien
Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen
MehrOptimierung. Nürnberg, Oktober 2015
1 Optimierung Nürnberg, Oktober 2015 Prof. Dr. Yvonne Stry Technische Hochschule Nürnberg Fakultät Angewandte Mathematik, Physik und Allgemeinwissenschaften Keßlerplatz 12 90461 Nürnberg Germany 1 Beispiel
MehrZielfunktion lineare Funktion Nebenbedingungen lineare Funktionen
be/ji/3(2) 2-1 2 im Kontext der OR-Optimierungsmodelle Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen Standardform: - Planungsziel min bzw. min Z(x) = c 1 x 1 + c 2 x 2 + + c n x n Z(x)
MehrOptimierungsalgorithmen
Optimierungsalgorithmen Jakob Puchinger Algorithmen und Datenstrukturen 2 Arbeitsbereich für Algorithmen und Datenstrukturen Institut für Computergraphik und Algorithmen Technische Universität Wien Übersicht
MehrLineare Gleichungssysteme
Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare
MehrA2.3 Lineare Gleichungssysteme
A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen
Mehr( ) Lineare Gleichungssysteme
102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv
MehrSensitivitätsanalyse in der Linearen Optimierung
Sensitivitätsanalyse in der Linearen Optimierung Bei der Sensitivitätsanalyse werden i. allg. Größen des Ausgangsproblems variiert, und es wird untersucht, welche Wirkung eine derartige Modifikation auf
MehrLineare Programmierung. Beispiel: Wahlkampf. Beispiel: Wahlkampf. Mathematische Schreibweise. Lineares Programm. Datenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Einführung Standard- und Schlupfformen Simplex Algorithmus Matthias Zwicker Universität Bern Frühling 2009 2 Beispiel: Wahlkampf Ziel: mit möglichst wenig Werbung eine gewisse
MehrKLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen)
Mathematisches Institut WS 2012/13 der Heinrich-Heine-Universität 7.02.2013 Düsseldorf Prof. Dr. Achim Schädle KLAUSUR zu Einführung in die Optimierung Bitte folgende Angaben ergänzen und DEUTLICH LESBAR
MehrAUFGABENTEIL. Klausur: Modul Optimierungsmethoden des Operations Research. Termin:
Lehrstuhl für Betriebswirtschaftslehre, insb. Quantitative Methoden und Wirtschaftsmathematik Univ.-Prof. Dr. Andreas Kleine AUFGABENTEIL Klausur: Modul 32621 Termin: 19.09.2016 Prüfer: Prof. Dr. Andreas
Mehr3. Grundlagen der Linearen Programmierung
3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations
MehrLineares Programmieren
Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 03.05.2011 Nachtrag Art Gallery Problem Lässt sich der Triangulierungs-Algorithmus
MehrLineare Gleichungssysteme
Brückenkurs Mathematik TU Dresden 2016 Lineare Gleichungssysteme Schwerpunkte: Interpretation und Verständnis der Gleichungen Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik unter
MehrInhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57
Vorwort... 13 Vorwort zur 3. deutschen Auflage... 17 Kapitel 1 Einführung, I: Algebra... 19 1.1 Die reellen Zahlen... 20 1.2 Ganzzahlige Potenzen... 23 1.3 Regeln der Algebra... 29 1.4 Brüche... 34 1.5
MehrLineare Gleichungssysteme - Grundlagen
Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
Mehr(Allgemeine) Vektorräume (Teschl/Teschl 9)
(Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:
MehrFachakademie für Wirtschaft der FHM A2: Lineare Optimierung und das Simplexverfahren
A2.1 Lineare Optimierung mit dem Simplexverfahren Wenn ein Unternehmen ermitteln möchte, wie viele Mengeneinheiten von verschiedenen Produkten zu produzieren sind, damit bei gegebenen Verkaufspreisen der
MehrOptimierung und Simulation ökonomischer Problemlagen privater Haushalte 2. Vorlesung
Optimierung und Simulation ökonomischer Problemlagen privater Haushalte 2. Vorlesung Rainer Hufnagel / Laura Wahrig 2006 Diese Woche LO - Rechnerische Lösung - Simplex- Algorithmus LO - Auswertung des
MehrKapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester
MehrOptimierung und Simulation ökonomischer Problemlagen privater Haushalte 3. Vorlesung
Optimierung und Simulation ökonomischer Problemlagen privater Haushalte 3. Vorlesung Rainer Hufnagel / Laura Wahrig 2006 Diese Woche LO - Sensitivitätsanalyse Simulation Beispiel Differenzengleichungen
Mehr3.4 Der Gaußsche Algorithmus
94 34 Der Gaußsche Algorithmus Wir kommen jetzt zur expliziten numerischen Lösung des eingangs als eine Motivierung für die Lineare Algebra angegebenen linearen Gleichungssystems 341 n 1 a ik x k = b i,
MehrKlausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler
Wintersemester 2007/08 27.2.2008 Dr. Sascha Kurz Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Bitte lesbar ausfüllen, Zutreffendes ankreuzen Herr Frau Name, Vorname: Anschrift:
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrThemenheft mit viel Trainingsmaterial (Siehe Vorwort!) Unabhänge Vektoren und Erzeugung von Vektoren Gauß-Algorithmus Rang einer Matrix.
LINEARE ALGEBRA Lösbarkeit von linearen Gleichungssystemen Themenheft mit viel Trainingsmaterial (Siehe Vorwort!) Unabhänge Vektoren und Erzeugung von Vektoren Gauß-Algorithmus Rang einer Matrix Gleichungssysteme
MehrARBEITSUNTERLAGEN ZUR VORLESUNG UND ÜBUNG AN DER UNIVERSITÄT DES SAARLANDES LINEARE OPTIMIERUNG
¾ REITSUNTERLGEN ZUR VORLESUNG UND ÜUNG N DER UNIVERSITÄT DES SRLNDES LINERE OPTIMIERUNG IM SS Lineare Optimierung (SS ). ufgabe (Graphische Lineare Optimierung) Nach einem anstrengenden Semester steht
MehrLineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010
Lineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010 FAKULTÄT FÜR I NFORMATIK, I NSTITUT FÜR T HEORETISCHE I NFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
Mehr1 Zahlentheorie. 1.1 Kongruenzen
3 Zahlentheorie. Kongruenzen Der letzte Abschnitt zeigte, daß es sinnvoll ist, mit großen Zahlen möglichst einfach rechnen zu können. Oft kommt es nicht darauf, an eine Zahl im Detail zu kennen, sondern
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
Mehr9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrFormalisierung - min (z) -20x 1-10x 2 - udn (a) x 1 +x m = 3 (b) x x 1 +6x 2 = 720. (d) x 1 0, x 2 0 n = 2
2-1 2-2 2 2.1 Beispiele und prinzipielle Lösungsidee im Kontext der OR-Optimierungsmodelle Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen Standardform: - Planungsziel min bzw. min -
MehrOperations Research für Wirtschaftsinformatiker. Vorlesungsskript von Richard Mohr
Operations Research für Wirtschaftsinformatiker Vorlesungsskript von Richard Mohr Fachhochschule Esslingen, SS 2005 INHALTSVERZEICHNIS i Inhaltsverzeichnis Lineare Optimierung. Graphische Lösung des linearen
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Mehr3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
MehrOptimierung. Prof. Dr. H. Maurer WWU Münster, Wintersemester 2009/2010 Vorlesungsmitschrift von Christian Schulte zu Berge. 22.
Optimierung Prof. Dr. H. Maurer WWU Münster, Wintersemester 009/00 Vorlesungsmitschrift von Christian Schulte zu Berge. Januar 00 Inhaltsverzeichnis 0 Einführung 0. Typen von Optimierungsproblemen................................
MehrOperations Research I
Operations Research I Lineare Programmierung Prof. Dr. Peter Becker Fachbereich Informatik Hochschule Bonn-Rhein-Sieg Sommersemester 2015 Peter Becker (H-BRS) Operations Research I Sommersemester 2015
MehrDualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Definition 91 Duales lineares Programm Sei z = c T x min! Ax = b (91) x 0 mit c,x R n, b R m, A R m n ein lineares Programm Das lineare Programm z = b
Mehr5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21
5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11
MehrOptimierung I. Dr. Ulf Lorenz F2.413
Optimierung I Dr. Ulf Lorenz F2.413 flulo@upb.de Organisation Dozent: Dr. Ulf Lorenz F2.413 Fürstenallee 11 email: flulo@upb.de WWW: http://www.upb.de/cs/flulo (hier auch aktuelle Infos + Ü-Zettel) Vorlesungen:
MehrLineare Gleichungssysteme Kapitel 5 aus meinem Lehrgang ALGEBRA
Lineare Gleichungssysteme Kapitel 5 aus meinem Lehrgang ALGEBRA Ronald Balestra CH - 7028 St. Peter www.ronaldbalestra.ch e-mail: theorie@ronaldbalestra.ch 19. Oktober 2009 Überblick über die bisherigen
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den
MehrGrundlagen, Vorgehensweisen, Aufgaben, Beispiele
Hans Benker - Wirtschaftsmathematik Problemlösungen mit EXCEL Grundlagen, Vorgehensweisen, Aufgaben, Beispiele Mit 138 Abbildungen vieweg TEIL I: EXCEL 1 EXCEL: Einführung 1 1.1 Grundlagen 1 1.1.1 Tabellenkalkulation
MehrSkript Operations Research, SS Dr. Reinhard Schaitzel, Hochschule Augsburg, Fakultät für Informatik
Skript Operations Research, SS 2014 Dr. Reinhard Schaitzel, Hochschule Augsburg, Fakultät für Informatik 5. März 2014 Inhaltsverzeichnis 1 Einführung 7 1.1 Begrisklärung............................ 7 1.1.1
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
MehrFall 3: Mehrere Kapazitätsengpässe
Fall 3: Mehrere Kapazitätsengpässe ei Vorliegen mehrerer Engpässe ist zunächst zu prüfen, ob ein Engpass die anderen Engpässe dominiert. Ist dies der Fall, reduziert sich das Optimierungsproblem auf den
MehrLineare Optimierung. Vorlesung von Prof. Christiane Tammer Author : Georg Kuschk (Quelle : www.rikuti.de)
Lineare Optimierung Vorlesung von Prof Christiane Tammer Author : Georg Kuschk (Quelle : wwwrikutide) 11 August 2006 Inhaltsverzeichnis 1 Einleitung, Beispiele 2 2 Das allgemeine lineare Optimierungsproblem
MehrDer Simplexalgorithmus und Innere-Punkt-Methoden zur Lösung linearer Optimierungsprobleme
Der Simplexalgorithmus und Innere-Punkt-Methoden zur Lösung linearer Optimierungsprobleme Birgül Tunç Diplomarbeit Bochum, im Dezember 28 Fakultät für Mathematik Ruhr-Universität Bochum Inhaltsverzeichnis
MehrSattelpunkt-Interpretation
Sattelpunkt-Interpretation Vinzenz Lang 14. Mai 2010 Die Sattelpunkt-Interpretation befasst sich mit der Interpretation der Lagrange- Dualität. Sie wird im weiteren Verlauf des Seminars nicht noch einmal
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html
MehrAllgemeines Gleichungssystem mit zwei Gleichungen und zwei Variablen. Der erste Index bezeichnet die Nummer der Zeile, der zweite die der Spalte.
Lineare Gleichungssysteme. Einleitung Lineare Gleichungssysteme sind in der Theorie und in den Anwendungen ein wichtiges Thema. Theoretisch werden sie in der Linearen Algebra untersucht. Die Numerische
MehrLineare Optimierungsmodelle
2 Lineare Optimierungsmodelle Lernziele: Kenntnisse über den Aufbau von linearen Optimierungsmodellen Verständnis darüber, warum lineare Modelle günstig sind Lösungsmethoden für lineare Modelle, insbesondere
MehrMathematik für Wirtschaftswissenschaftler
Knut Sydsaeter Peter HammondJ Mathematik für Wirtschaftswissenschaftler Basiswissen mit Praxisbezug 2., aktualisierte Auflage Inhaltsverzeichnis Vorwort 13 Vorwort zur zweiten Auflage 19 Kapitel 1 Einführung,
MehrAufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010
Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
MehrAufgabe 1: Bestimmen Sie Zahlen a b. ,, für die. = b. und gleichzeitig a + b + 1 = 0 gilt. Lösung zu Aufgabe 1:
WS 99/99 Aufgabe : Bestimmen Sie Zahlen a b,, für die 6 b a und gleichzeitig a + b + gilt. Lösung zu Aufgabe : WS 99/99 Aufgabe : Ein Unernehmen stellt aus ohstoffen (,,, ) Zwischenprodukte ( Z, Z, Z )
Mehr4 Lineare Algebra (Teil 2): Quadratische Matrizen
4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,
MehrPrüfungsklausur Wirtschaftsmathematik I Studiengang Wirtschaftsinformatik, (180 Minuten)
HTW Dresden 9. Februar 2012 FB Informatik/Mathematik Prof. Dr. J. Resch Prüfungsklausur Wirtschaftsmathematik I Studiengang Wirtschaftsinformatik, (180 Minuten) Name, Vorname: Matr.-nr.: Anzahl der abge-
MehrLineare Gleichungssysteme
Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der
MehrEinstieg in die Informatik mit Java
1 / 20 Einstieg in die Informatik mit Java Rekursion Gerd Bohlender Institut für Angewandte und Numerische Mathematik Gliederung 2 / 20 1 Überblick 2 Rekursion 3 Rekursive Sortieralgorithmen 4 Backtracking
MehrLineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung In der linearen
MehrIterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
MehrSpezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:
Inverse Matritzen Spezialfall: Die Gleichung ax b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a a 1 gelöst werden: ax b x b a a 1 b. Verallgemeinerung auf Ax b mit einer n nmatrix A: Wenn es
MehrKap 5: Rang, Koordinatentransformationen
Kap 5: Rang, Koordinatentransformationen Sei F : V W eine lineare Abbildung. Dann ist der Rang von F erklärt durch: rang F =dim ImF. Stets gilt rang F dimv, und ist dimv
MehrÜbungen und Fallbeispiele zum Operations Research
Springer-Lehrbuch Übungen und Fallbeispiele zum Operations Research Bearbeitet von Wolfgang Domschke, Andreas Drexl, Robert Klein, Armin Scholl, Stefan Voß 8., aktualisierte Auflage 5. Buch. XII, S. Kartoniert
MehrBesteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)
Matrizenrechnung. Matrizen Matrizen sind bereits im Kapitel Lineare Gleichungssysteme aufgetreten. Unter einer (m n) -Matrix A verstehen wir ein rechteckiges Zahlenschema mit m Zeilen und n Spalten. Der.
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
MehrMatrizen, Determinanten, lineare Gleichungssysteme
Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n
Mehr3 Elementare Umformung von linearen Gleichungssystemen und Matrizen
3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange
MehrLineare Gleichungssysteme (Teschl/Teschl 11.1)
Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...
Mehr