Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung
|
|
- Katharina Weiß
- vor 6 Jahren
- Abrufe
Transkript
1 Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen Kapitel IV: Grundlagen der Linearen Optimierung Inhaltsverzeichnis Abschnitt Der Simplexalgorithmus Grundlagen Das Simplextableau Simplexiteration Lösung des LOP Sonderfälle des Simplexalgorithmus Die 2-Phasen-Methode Transformation in Standard Form Die zwei Phasen Sensitivitätsanalyse Abhängigkeiten
2 3 Der Simplexalgorithmus 3.1 Grundlagen (a) Der zulässige Bereich Der zulässige Bereich ist eine Teilmenge des R n, wobei n die Anzahl der Strukturvariablen ist. Der zulässige Bereich wird gebildet durch die Restriktionen n a ij x j b i, i = 1,..., m und j=1 die Nichtnegativitätsbedingungen x j 0, j = 1,..., n Die Lösungsmenge jeder dieser Ungleichungen ist ein Halbraum die zugehörige Hyperebene ((n-1)-dimensionaler affiner Raum) löst die zur entsprechenden Ungleichung gehörige Gleichung. Der zulässige Bereich ist (sofern er nicht entartet ist) eine abgeschlossene Menge, d.h. die Randpunkte der Menge gehören zur Menge dazu. (Beispiele) Der zulässige Bereich ist (sofern er nicht entartet ist) eine konvexe Menge, d.h. mit je zwei Punkten, die zu der Menge gehören, gehören auch alle Punkte auf der Verbindungsstrecke dieser beiden Punkte dazu. Die Eckpunkte des zulässigen (nicht entarteten) Bereiches sind gerade die Schnittpunkte von jeweils n Hyperebenen, d.h. genau n der oben genannten m + n Ungleichungen sind als Gleichungen erfüllt. Beispiel: Waschpulver (b) Die Zielfunktion Die Zielfunktion ist eine lineare Funktion, die abhängig ist von den n Strukturvariablen x 1,..., x n. (c) Satz: Eine lineare Funktion über einer konvexen, abgeschlossenen Menge nimmt ihr Maximum und ihr Minimum auf dem Rand dieser Menge an. Das heißt insbesondere, daß wir für die Bestimmung des Maximum bzw. Minimum nur die Eckpunkte der zulässigen Menge untersuchen müssen. 58
3 Beispiel: Z = c 1 x c n x n Min! x j 1, j = 1,..., n x j 0, j = 1,..., n Der zulässige Bereich hat 2 n Eckpunkte: (0,..., 0),..., (1,..., 1) Bemerkung: Es gibt Hyperebenen (bestimmt durch die gegebenen Ungleichungen), die sich nicht schneiden, z.b. x j 0, x j 1. (d) Problem: Wie untersucht man systematisch die Eckpunkte eines zulässigen nicht entarteten Bereiches? Da jeder Eckpunkt Schnittpunkt von n Hyperebenen ist, kann er als Löungsmenge des entsprechenden Gleichungssystems mit n Gleichungen bestimmt werden. Insgesamt erhalten wir aus den m + n Ungleichungen ( ) m+n n mögliche Gleichungssysteme. Wenn m groß ist (z.b. m n) erhalten wir eine exponentielle (in n) Anzahl von Gleichungssystemen. (e) Idee Nicht jedes dieser Gleichungssysteme ist lösbar, s.beispiel. Nicht jede Lösung gibt einen Eckpunkt des zulässigen Bereiches, s. Beispiel Waschpulver. Wir müssen zusätzlich für jede Lösung die Erfüllung der restlichen Ungleichungen überprüfen. Man startet in einem Eckpunkt des zulässigen Bereiches, üblicherweise x 1 = x 2 = = x n = 0 und betrachtet seine n Nachbarecken. Wenn keine der Nachbarecken einen größeren (bzw. kleineren) Zielfunktionswert hat, ist das Verfahren beendet, man hat die Lösung gefunden. Ansonsten wählt man eine Nachbarecke mit einem größeren (bzw. kleineren) Zielfunktionswert und sucht von dort aus weiter. 3.2 Das Simplextableau (a) Die Schlupfvariablen Das Grundproblem Z(x 1,..., x n ) = n c j x j j=1 max 59
4 n a ij x j b i, i = 1,..., m j=1 x 1,..., x n 0 wird in ein äquivalentes Gleichungssytem überführt: n c j x j + Z = 0 j=1 n a ij x j + y i = b i, j=1 x 1,..., x n, y 1,..., y m 0 = 1,..., m Die Variablen y i werdenschlupfvariablen, Leerlaufvariablen (slack variables) genannt. Bemerkung: Die Restriktionen bilden jetzt ein lineares Gleichungssystem in kanonischer Form. Eine Basislösung des LGS ist (b) Das Starttableau Tab. 0 x 1 x 2... x n y 1 a 11 a a 1n b 1 : : : : : y m a m1 a 1m2... a mn b m Z c 1 c 2... c n 0 x 1 = = x n = 0, y i = b i i = 1,..., m. Das Startableau beschreibt die Situation im Startpunkt x 1 = x 2 = x n = 0. In der ersten Zeile stehen die (Namen der) Variablen, die in der aktuellen Basislösung den Wert 0 haben. Die Variablen der ersten Zeile heißen Nichtbasisvariable - NBV. Die erste Spalte enthält aktuell die Bezeichnungen der Schlupfvariablen. Die Variablen der ersten Spalte heißen Basisvariable - BV. Im Innern des Tableaus stehen die technischen Koeffizienten. In der letzten Zeile stehen neben dem Z die Koeffizienten der umgestellten Zielfunktion, sowie in der letzten Spalte der aktuelle Wert der Zielfunktion. 60
5 In der letzten Spalte steht der Wert der entsprechenden Basisvariablen in der Basislösung, hier aktuell die Restriktionswerte b i. technische Bezeichnungen: Die Werte der letzten Zeile (aktuell: c 1,..., c n, 0) werden auch mit a m+1,j, j = 1,..., n + 1 bezeichnet. Die Werte der letzten Spalte (aktuell: b 1,..., b m, 0) werden auch mit a i,n+1, i = 1,..., m + 1 bezeichnet. Beispiel: Waschpulver 3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige Ungleichung is als Gleichung erfüllt) zu einer Basisvariablen (die zugehörige Ungleichung ist i.a. nicht als Gleichung erfüllt) und umgekehrt. Der Übergang von einer Ecke zu einer benachbarten Ecke erfolgt in 6 Schritten. 1. Wahl der Pivotspalte Pivot: Dreh- und Angelpunkt Wähle die Spalte mit (kleinstem) negativem Wert in der letzten Zeile. Der Spaltenindex sei s, d.h. a m+1,s = min{a m+1,j j = 1,..., n} Falls mehrere Spalten als Pivotspalten in Frage kommen, spricht man von dualer Entartung. Man wählt beliebig einen der Kandidaten aus. Hintergrund: Wenn ich mich von der Startecke in Richtung der entsprechenden wachsenden Nichtbasisvariable bewege, wächst die Zielfunktion am stärksten (verglichen mit den anderen n-1 Möglichkeiten). Die etsprechnede Nichtbasisvariable soll jetzt Basisvariable werden. Eine Basisvariable muß dafür zur Nichtbasisvariable werden 2. Wahl der Pivotzeile Wähle diejenige Zeile, die den kleinsten nichtnegativen Quotienten aus dem Wert der letzten Spalte und dem technischen Koeffizienten der Pivotspalte aufweist. 61
6 Der entsprechende Zeilenindex sei z, d.h. a z,n+1 a zs = min{ a i,n+1 a is i = 1,..., m} a z,n+1 a zs 0 Hintergrund: Man versucht so weit wie möglich in der ausgewählten Richtung zu gehen, aber dabei nicht den zulässigen Bereich zu verlassen. Beispiel Waschpulver Mögliche Entartungen werden später behandelt. 3. Umrechnung des Pivotelements a zs := 1 a zs 4. Umrechnung der restlichen Pivotspalte a is := a is a zs, i = 1,..., m + 1 i z 5. Umrechnung der restlichen Pivotzeile a zj := a zj a zs, j = 1,..., n + 1 j s 6. Umrechnung des restlichen Tableaus a ij := a ij a is a zj a zs i = 1,..., m + 1 i z, j = 1,..., n + 1 j s. oder Umrechnung mit Hilfe der Kellerzeile (s. ATV) Bemerkung: Tritt in der letzten Spalte ein negativer Wert auf, so liegt ein Fehler bei der Wahl des Pivotelementes (zul. Bereich verlassen) oder in der Rechnung vor. 62
7 3.4 Lösung des LOP (a) Abbruchkriterium, Optimalitätskriterium Die Elemente a m+1,..., a m+1,n der letzten Zeile heißen Optimalitätsindikatoren Der Algorithmus endet, wenn alle Optimalitätsindikatoren positiv sind. Die eindeutige Optimallösung wurde gefunden. (b) Beispiel Waschpulver: Zielfunktion: Z = 4x 1 + 3x 2 max! Restriktionen: Maschine A: x 2 6 Maschine B: x 1 + x 2 7 Maschine C: 3x 1 + 2x 2 18 Nichtnegativitätsbedingungen: x 1, x 2 0 Lösung: x 1 = 4, x 2 = 3 (graphisch) nochmal zulässigen Bereich skiziieren Lösung mit Simplex T1 y 3 x 2 y y 2-1/3 1/3 1 x 1 1/3 2/3 6 Z 4/3-1/3 24 T2 y 3 y 2 y x x Z Tableau 1: aktueller Zielfunktionswert: 24 aktuelle Werte: y 3 = x 2 = 0 (NBV), y 1 = 6, y 2 = 1, x 1 = 6 (BV) Restriktion 3 ist als Gleichung erfüllt (y 3 = 0) Tableau 2: Optimalitätsbedingung erfüllt, optimaler Zielfunktionswert: Z max = 25 aktuelle Werte: y 3 = y 2 = 0 (NBV), y 1 = 3, x 2 = 3, x 1 = 4 (BV) Restriktionen 2 und 3 sind als Gleichung erfüllt (c) Basislösungen Eine Basislösung ist eine zulässige Lösung des kanonischen Gleichungssystems (s. 3.1.(a)) mit höchstens m Nicht-Null-Einträgen. Jede Basislösung entspricht einer Ecke des zulässigen Bereiches. 63
8 Eine Basislösung heißt nicht degeneriert wenn sie genau m Nicht-Null-Einträge enthält, sonst heißt sie degeneriert. Ist eine Basislösung degeneriert, so schneiden sich in der zugehörigen Ecke des zulässigen Bereiches mehr als n (Hyper)ebenen. (d) Schattenpreise: Den Schattenpreis einer NBV liest man in der letzten Zeile der zugehörigen Spalte ab. Der Schattenpreis einer Basisvariablen ist 0. (Interpretation später) Variable: x 1 x 2 y 1 y 2 y 3 Schattenpreis: (e) Angabe der Lösung (am Beispiel): Z max = 25 optimale Basislösung: x = (x 1, x 2 y 1, y 2, y 3 ) T = (4, 3 3, 0, 0) T zugehöriger Vektor der Schattenpreise: = (0, 0 0, 1, 1) T 3.5 Sonderfälle des Simplexalgorithmus (a) Duale Entartung Problem: Bei der Wahl der Pivotspalte kommen mehrere Spalten in Frage, die in der zweiten Zeile alle dieselbe kleinste negative Zahl haben. Lösung: Wähle eine beliebige davon aus. Wirkung: Die Wahl hat zwar möglicherweise Einfluß auf die Anzahl der Iterationsschritte, aber nicht auf die Lösbarkeit und den endgültigen Wert der Zielfunktion. (b) Primale Entartung 1. Art Problem: Bei der Wahl der Pivotzeile kommen mehrere Zeilen mit dem gleichen Wert in Frage. Es schneiden sich mehrere Restriktionen in einer Ecke. Die zugehörige Basislösung ist entartet. Durch entsprechende Austauschschritte ergeben sich eventuell mehrere Vektoren für die Schattenpreise: (1),..., (k) der optimalen Basislösung (s. Sensitivitätsanalyse): Beispiel: Z = 2x 1 + 3x 2 max! 4x 1 + 5x 2 20 x 2 4 i = min{ (j) i, j = 1,..., k} 64
9 x 1, x 2 0 Es kann passieren, daß man bei ungünstiger Wahl der Zeile nach mehreren Schritten zum gleichen Tableau zurückkommt - und das kann sich endlos wiederholen. Das Problem nennt man Kreiseln. Lösung: Es gibt kein einfaches Rezept dagegen. Üblicherweise (insbesondere in der rechentechnischen Umsetzung) wählt man die Zeile zufällig. Damit steigt die Wahrscheinlichkeit, daß man nicht endlos kreiselt. (c) Primale Entartung 2. Art Problem: Es kommt keine Pivotzeile in Frage: Alle entsprechenden Elemente sind negativ oder null. Beispiel: Z = 3x 1 + 2x 2 max! x 2 4 x 1, x 2 0 Das Problem hat keine endliche Lösung: Z max (d) Mehrere Lösungen, Lösungsmenge Problem: Alle Optimalitätsindikatoren sind nichtnegativ, aber es gibt Indikatoren gleich Null: a m+1,j 0 j = 1,..., n und s : a m+1,s = 0 Vorgehensweise: Das Simplexverfahren wird solange mit einer Pivotspalte mit a m+1,s = 0 wiederholt, solange sich neue Basislösungen ergeben. Seien x 1,..., x k die so ermittelten optimalen Lösungen. Lösungsmenge: Die Menge aller Optimallösungen ist dann die Menge der konvexen Linearkombinationen der x l : { } k k L = x R x = λ l x l, λ l = 1 l=1 Spezialfall: a m+1,s = 0 und a is 0 i = 1,..., m d.h. es kommt keine Pivotzeile in Frage (s. Serie 12, 1 (e)). Der zulässige Bereich ist unbeschränkt und Z verläuft parallel zu einer der Restriktionsgleichungen. Sei x 1 die zum Tableau gehörige Basislösung. Die Menge aller Basislösungen ergibt sich dann aus l=1 L = { x x = x 1 λ(a 1s,..., a ns ) T, λ 0} 65
10 4 Die 2-Phasen-Methode Problem: Das LOP liegt häufig nicht in Standard Form vor. Um trotzdem den Simplexalgorithmus anwenden zu können ist eine Transformation des Problems in ein Ersatzproblem in Standard Form nötig. 4.1 Transformation in Standard Form (a) Transformation der Zielfunktion: Falls ein Minimierungsproblem Z = c T x min vorliegt, so erhält man daraus das äquivalente Maximierungsproblem Z = ( c) T x max, indem alle Zielfunktionskoeffizienten mit ( 1) multipliziert werden. (b) Transformation der Restriktionen: Zuerst wird jede Restriktion, deren rechte Seite negativ ist, mit ( 1) multipliziert z.b.: 3x 1 4x 2 5 3x 1 + 4x 2 5; Danach werden in den so entstandenen Restriktionen Schlupfvariable y i 0 und/oder Hilfsschlupfvariable h i 0 eingeführt, um ein Gleichungssystem in kanonischer Form zu erhalten. Problem: Bei Restriktionen mit = oder ist die übliche Startlösung x 1 = = x n = 0 möglicherweise nicht zulässig. Es muß zunächst eine erste zulässige Lösung berechnet und dafür passende Basisvariable gefunden werden. 1. a T i x b i = a T i x + y i = b i (BV : y i ) 2. a T i x = b i = a T i x + h i = b i (BV : h i ) 3. a T i x b i = a T i x y i + h i = b i (BV : h i ) mit a i T = (a i1,..., a in ) (c) Transformation der Variablen: In Abhängigkeit von den vorgegebenen Vorzeichenbeschränkungen werden die Variablen x j gegebenenfalls durch neue, nichtnegative Variable x j, x j substituiert: 1. x j 0 = keine Substitution 2. x j 0 = (x j = x j) = x j 0 3. x j bel. = (x j = x j x j ) = x j, x j 0 Beispiel: (a) 4.2 Die zwei Phasen (a) Phase 1: 66
11 Bestimmung einer zulässigen Basislösung durch Eliminierung der Hilfsschlupfvariablen: Phase-1-Zielfunktion Z1: Bemerkung: Das originale LOP ist lösbar h i = 0 i Zielstellung: i h i min. Daraus ergibt sich als Hilfszielfunktion: Z1 = i h i max Optimalitätsindikatoren für Z1: Stelle sämtliche Restriktionen, die eine Hilfsschlupfvariable h i enthalten nach h i um und setze diese in Z1 ein. Wir erhalten Z1 in Abhängigkeit von den Nichtbasisvariablen. Die entsprechenden Koeffizienten dienen als Optimalitätsindikatoren. Z1 im Tableau: Im Tableau wird eine zusätzliche (letzte) Z1-Zeile mitgeführt. über diese Zeile wird in Phase 1 die Wahl der Pivotspalte gesteuert. Bemerkung: Die Z1-Zeile berechnet sich einfach als die negative Summe aller Zeilen, die Hilfsschlupfvariable enthalten. Iteration in Phase 1: Die Iteration erfolgt wie gewohnt mit dem einzigen Unterschied, daß die Wahl der Pivotspalte auschließlich über die Z1-Zeile gesteuert wird. Spalten die zu einer Hilsschlupfvariable der Nichtbasis gehören werden gestrichen. Ende von Phase 1: Phase 1 endet erfolgreich, wenn keine Hilfsschlupfvariablen mehr in der Basis ist, d.h. h i = 0 i. Die Z1 Zeile enthält dann nur noch Nullen und kann gestrichen werden. Eine zulässige Startlösung für das Originalproblem wurde gefunden. (b) Phase 2: Bestimmung einer optimalen Basislösung Ausgehend vom Endtableau von Phase 1 wird die übliche Simplexiteration durchgeführt. (c) Mögliche Probleme in Phase 1: 67
12 Wird in Phase 1 eine optimale Lösung des Ersatzproblems (Phase-1-Zielfunktion) erreicht, bei der noch mindetsens eine Hilfsschlupfvariable positiv ist, so ist das LOP nicht lösbar - der zulässige Bereich ist leer Wird in Phase 1 eine entartete optimale Lösung des Ersatzproblems gefunden, bei der noch Hilfsschlupfvariablen in der Basis sind, aber Z1 = 0 gilt, so sind noch weitere Austauschschritte auszuführen. Wahl des Pivotelementes: wähle aus einer zu einer Hilfsschlupfvariablen gehörenden Zeile ein Element 0. 68
13 5 Sensitivitätsanalyse 5.1 Abhängigkeiten (a) Bemerkung: Der optimale Zielfunktionswert Z max und die optimale Lösung x eines LOP hängen wesentlich ab von den Koeffizienten c j der Zielfunktion und von den rechten Seiten b i der Restriktionen Aus dem optimalen Tableau der Simplex-Methode kann abgelesen werden, wie stark eine Veränderung jedes einzelnen Koeffizienten b i oder c j den optimalen Zielfunktionswert beeinflusst, und innerhalb welcher Intervalle für die Veränderung dieser Koeffizienten (einzeln!) diese Aussagen gelten. Bezeichnungen: x B : enthält die Werte der Basisvariablen (Spalte n + 1) N : enthält die Schattenpreise der Nichtbasisvariablen (Zeile m + 1) (b) Gültigkeitsbereich des Schattenpreises Wird die Abhängigkeit des optimalen Zielfunktionswertes und der optimalen Lösung bezüglich der Änderung der rechten Seite b i der i-ten Restriktionen untersucht, so heißt dieses Intervall Gültigkeitsbereich des Schattenpreises dieser Restriktion, d.h. der Schattenpreis gilt b i [b (u) i, b (o) i ]. Für LOP in Standard-Maximum-Form gilt für Veränderung der rechten Seite einer Restriktion b i := b i + t Falls die zugehörige Schlupfvariable y i Basisvariable ist (Restriktion ist inaktiv), gilt t [ y i, ): Z max und x B ändern sich nicht. Falls die zugehörige Schlupfvariable y i Nichtbasisvariable ist (Restriktion ist aktiv), gilt t [t 1, t 2 ]: Z max := Z max + t a m+1,i, 69
14 x B = x B + t (a 1i,..., a mi ) T Die Parameter t 1, t 2 bestimmen sich aus der Forderung x B = x B + t (a 1i,..., a mi ) T 0, wobei (a 1i,..., a mi, a m+1,i ) T ist. die zu y i gehörige Spalte des Simplextableaus (c) Stabilitätsbereiche Wird die Abhängigkeit des optimalen Zielfunktionswertes bezüglich der Änderung eines Koeffizienten c j der Zielfunktion untersucht, so heißt dieses Intervall Stabilitätsbereich des Zielfunktionskoeffizienten, d.h. die optimale Lösung gilt c j [c (u) j, c (o) j ]. Für LOP in Standard-Maximum-Form gilt für Veränderung eines Zielfunktionskoeffizienten c j := c j + t Falls x j Nichtbasisvariable ist, gilt t (, a m+1,j ] = (, j ]: Z max und x B ändern sich nicht. j ist der Schattenpreis von x j. Falls x j Basisvariable ist, gilt t [t 1, t 2 ]: x B ändert sich nicht, Z max := Z max + t x j. Die Parameter t 1, t 2 bestimmen sich aus der Forderung N = N + t (a j1,..., a jn ) T 0 wobei (a j1,..., a jn ) ist die zu x j gehörende Zeile des Simplextableaus ist. Für LOP, die nicht in Standard-Maximum-Form gegeben sind, gelten analoge Formeln, wobei speziell die Vorzeichen für die Änderungen neu zu überlegen sind. Bei einer Verschärfung der Restriktionen kann sich der optimale Zielfunktionswert nur verschlechtern, bei einer Abschwächung von Restriktionen kann er sich nur verbessern. 70
4.3.3 Simplexiteration
7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige
MehrInhaltsverzeichnis Grundlagen der Linearen Optimierung
Inhaltsverzeichnis 4 Grundlagen der Linearen Optimierung 1 4.1 Grundbegriffe............................. 1 4.1.1 Lineare Optimierung..................... 1 4.1.2 Das Grundmodell eines linearen Optimierungsproblems
MehrEigenschaften von LPs
2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört
MehrSimplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)
MehrDer Simplex-Algorithmus
5 Lineare Programmierung Simplex-Algorithmus Der Simplex-Algorithmus Standardverfahren zur Lösung von LPs, von G B Dantzig entwickelt Grundidee: Versuche ausgehend von einer Startecke mit einer Ausgangsbasis
MehrÜbung 3, Simplex-Algorithmus
Übung 3, 21.6.2011 Simplex-Algorithmus Aufgabe 3.1 Lösen Sie das folgende Optimierungsproblem (von Aufgabe 2.3) graphisch. Substituieren Sie dazu z = 5 y um ein 2-dimensionales Problem zu erhalten. Rechnung
MehrLineare Optimierung: Simplexverfahren Phase Ⅰ
Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren
MehrMinimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)
Minimumproblem Definition 4.7 Ein LP der Form nx Minimiere Z = c j x j j=1 unter den Nebenbedingungen nx d ij x j b i (i =1,...,m) j=1 und den Vorzeichenbedingungen x j 0(j =1,...,n) heißt Minimumproblem.
MehrVORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind
MehrLineare Optimierung Teil 2
Lineare Optimierung Teil 2 Primale Degeneration Duale Degeneration = Mehrdeutigkeit Normalform kanonische Form Duale Simplexmethode HTW-Berlin FB3 Prof. Dr.F. Hartl 1 Primale Degeneration/1 Besitzt eine
MehrZugeordneter bipartiter Graph
Zugeordneter bipartiter Graph Für ein Transportproblem sei A = {A 1,...,A m } die Menge der Fabriken und B = {B 1,...,B n } sei die Menge der Warenhäuser. Wir ordnen nun einem Transportproblem einen bipartiten
MehrComputer Science Department - High Performance and Web Computing Group. Optimierungsprobleme
Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter
MehrProf. Dr. Roland Griesse. Höhere Mathematik für Bachelorstudiengänge I.2
Höhere Mathematik für Bachelorstudiengänge I.2 Wir nehmen an, dass die LOA bereits in Normalform vorliegt: Maximiere c x, wobei A x = b sowie x 0 mit A R m n, b R m und c R n. Neben b 0 nehmen wir noch
MehrDualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
MehrLösung allgemeiner linearer Programme
Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt
MehrKapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:
Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten
MehrLineares Optimieren. W. Kippels 12. April Inhaltsverzeichnis. 1 Einleitung 2. 2 Die Beispielaufgabe 2. 3 Einführung von Schlupfvariablen 2
Lineares Optimieren W. Kippels 1. April 015 Inhaltsverzeichnis 1 Einleitung Die Beispielaufgabe Einführung von Schlupfvariablen 4 Die Simplex-Methode 5 Das Basis-Austauschverfahren 4 6 Fortsetzung der
MehrCARL HANSER VERLAG. Peter Stingl. Operations Research Linearoptimierung
ARL HANSER VERLAG Peter Stingl Operations Research Linearoptimierung -446-228-6 wwwhanserde 2 Lineare Optimierungsprobleme x 2 6 P P sentartete Ecke ( 4) x +x 2 5 PPPPPPPPPPPPPPP X x + x 2 7 2x +x 2 8
Mehr10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen
10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie
MehrOptimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn
Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,
Mehr6 Korrektheit des Simplexalgorithmus
6 Korrektheit des Simplexalgorithmus Folgerung: Es sei L: Ax = b, c T x max LP und A B nicht-degenerierte PZB von L und es gebe c r := c r c B A B A r > 0 a) Falls a r := A B a r 0, dann L unbeschränkt
MehrLineare Optimierungsmodelle
Lineare Optimierungsmodelle Simplex-Methode Vortragender: Michael Schneider Agenda Motivation Operations Research Aufbau linearer Optimierungsmodelle Simplex-Methode Ausblick 2 Problemstellung Futtermischung
MehrVORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung
MehrÜber- und unterbestimmte
Über- und unterbestimmte Systeme (verallgemeinerte Lösungen) Über- und unterbestimmte Systeme Ax = b ist genau dann für alle b R m eindeutig lösbar, wenn m = n und rk A = n. Falls m n oder rk A < min{m,
MehrHauptsatz und Optimalitätskriterium der Simplexmethode
Kapitel 4 Hauptsatz und Optimalitätskriterium der Simplexmethode In diesem Abschnitt wird das wichtigste Verfahren zur Lösung linearer Optimierungsprobleme eingeführt die Simplexmethode Es existiere für
Mehr1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)
. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)
MehrOperations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung
Operations Research Rainer Schrader Die Simplexmethode Zentrum für Angewandte Informatik Köln 18 Juni 00 1 / 1 / 1 Gliederung LP-Dualität ein lineares Produktionsmodell der Simplexalgorithmus Phase I Endlichkeit
Mehr1 Der Simplex Algorithmus I
1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier
MehrOperations Research. Linearoptimierung. Bearbeitet von Peter Stingl
Operations Research Linearoptimierung earbeitet von Peter Stingl Auflage 22 uch 76 S Hardcover ISN 978 446 228 8 Format ( x L): 4,5 x 2 cm Gewicht: 26 g Wirtschaft > etriebswirtschaft: Theorie & Allgemeines
MehrDie duale Simplexmethode
Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen
MehrAbbildung 1: Graphische Lösung der ersten Übungsaufgabe
Lösungen zu den Übungsaufgaben im Kapitel 1 des Lehrbuches Operations Research Deterministische Modelle und Methoden von Stephan Dempe und Heiner Schreier 1. Lösen Sie die folgende lineare Optimierungsaufgabe
MehrAufgaben zu Kapitel 23
Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Verständnisfragen Aufgabe 23 Bestimmen Sie grafisch die optimale Lösung x der Zielfunktion z = c T x unter den Nebenbedingungen mit dem Zielfunktionsvektor
MehrSimplex-Verfahren. Kapitel 3. Simplex-Verfahren. Peter Becker (H-BRS) Lineare und kombinatorische Optimierung Wintersemester 2017/ / 372
Kapitel 3 Simplex-Verfahren Peter Becker (H-BRS) Lineare und kombinatorische Optimierung Wintersemester 2017/18 104 / 372 Inhalt Inhalt 3 Simplex-Verfahren Primaler Simplexalgorithmus Unbeschränktheit
MehrLineare Optimierung und Simplex-Algorithmus
Lineare Optimierung und Simplex-Algorithmus Problemstellung Beispiel : Unser Unternehmen verfügt über drei Maschinen A, B, C, mit denen zwei verschiedene Produkte P, P2 hergestellt werden. Die Maschinen
MehrKombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
MehrTeil I. Lineare Optimierung
Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,
MehrAlgorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck
Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach
Mehr3.2.5 Dualität der linearen Optimierung I
3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem
Mehrmit. Wir definieren (Skalarprodukt = Winkel).
1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert
MehrSchnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005
Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung
Mehr8. Lineare Optimierung
8. Lineare Optimierung 1 Einführung (1) Praktische Probleme sind oft Probleme mit Nebenbedingungen, z.b.: Ein Produktionsprozess hängt von Lieferterminen ab Die Menge der verstaubaren Güter ist durch die
MehrLineare Optimierung Dantzig 1947
Lineare Optimierung Dantzig 947 Lineare Optimierungs-Aufgaben lassen sich mit Maple direkt lösen: with(simplex): g:= 4*x + x2
Mehr1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1
1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme Duales Problem Lemma 1.4. Das zum Transportproblem duale Problem lautet: max unter den Nebenbedingungen m a i u i + i=1
Mehr1 Lineare Optimierung, Simplex-Verfahren
1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und
MehrMathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel 3 - Lineare Optimierung
Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel - Lineare Optimierung Sascha Kurz Jörg Rambau 8. August Lösung Aufgabe.. Da es sich um ein homogenes
Mehr(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung)
Lineare Optimierung Unterbestimmte LGS und Optimierung Bei lösbaren unterbestimmten linearen Gleichungssystemen haben wir die Qual der Wahl in Abhängigkeit von den freien Parametern (Anzahl = Anzahl Unbekannte
Mehr6 Lineare Gleichungssysteme
6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α
MehrLineare Gleichungssysteme - Grundlagen
Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente
Mehr05. Lineare Gleichungssysteme
05 Lineare Gleichungssysteme Wir betrachten ein System von m Gleichungen in n Unbestimmten (Unbekannten) x 1,, x n von der Form a 11 x 1 + a 12 x 2 + a 13 x 3 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + a
MehrWiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b
Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung
Mehr2 Lineare Gleichungssysteme
2 Lineare Gleichungssysteme Betrachte ein beliebiges System von m linearen Gleichungen in den n Unbekannten x,,x n : a x + a 2 x 2 + + a n x n = b a 2 x + a 22 x 2 + + a 2n x n = b 2 () a m x + a m2 x
MehrOptimale Steuerung 1 Prozessoptimierung 1
Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung
MehrKapitel 15 Lineare Gleichungssysteme
Kapitel 15 Lineare Gleichungssysteme Kapitel 15 Lineare Gleichungssysteme Mathematischer Vorkurs TU Dortmund Seite 1 / 27 Kapitel 15 Lineare Gleichungssysteme Definition 15.1 (Lineares Gleichungssystem
MehrKap. 4: Lineare Programmierung
Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.
MehrLineare Gleichungssysteme
Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare
MehrAufgabe 5.3 Duale Simplexverfahren
Aufgabe 5.3 Knut Krause Thomas Siwczyk Stefan Tittel Technische Universität Dortmund Fakultät für Informatik Algorithmen und Datenstrukturen 15. Januar 2009 Gliederung 1 Aufgabenstellung und Motivation
Mehr3 Systeme linearer Gleichungen
3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +
MehrDr. Anita Kripfganz SS 2014
Dr. Anita Kripfganz SS 2014 4. Lösungsverfahren 4.1. Schnittebenenmethode Im Jahre 1958 hat R. Gomory ein allgemeines Schnittebenenverfahren zur Lösung ganzzahliger linearer Optimierungsprobleme vorgeschlagen.
MehrZeilenstufenform eines Gleichungssystems
Zeilenstufenform eines Gleichungssystems Ein lineares Gleichungssystem mit einer m n-koeffizientenmatrix lässt sich mit Gauß-Transformationen auf Zeilenstufenform (Echelon-Form) transformieren: Ax = b...
Mehr3. Schnittebenenverfahren
3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research
MehrBerufliches Gymnasium (WG, EG, AG, SG) Hauptprüfung 2008 Teil 2, Lineare Optimierung, Aufgabe 2 Baden-Württemberg
Berufliches Gymnasium (WG, EG, AG, SG) Hauptprüfung 8 Teil, Lineare Optimierung, Aufgabe Baden-Württemberg.. Ein Fertigungsbetrieb für Frottierartikel stellt unter anderem Handtücher und Badetücher her.
MehrKlausurrepetitorium ABWL
Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches
Mehrz = c T x : Ax = b, x 0 }, - die Darstellung der Nichtbasisvektoren durch die Basis ist
Kapitel 5 Die Simplexmethode Es werden folgende Bezeichnungen verwendet: - das untersuchte Problem ist min x R n { z = c T x : Ax = b, x 0 }, - die erste zulässige Basislösung sei x = x 1, x 2,, x m, 0,,
MehrKapitel 2: Lineare Optimierung
Kapitel 2: Lineare Optimierung Wir beginnen mit Definitionen und beschäftigen uns anschließend mit der graphischen Lösung von linearen Optimierungsproblemen mit zwei Variablen. Neben verschiedenen Schreibweisen
Mehr10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G
48 0 Operations Research In der Standardform eines Maximierungsproblem: Max ( w) mit ( w) + u. d. N. z + x l + n ( a gj + j= g G e E n d j x j = z 0 j= n a l j x j = b l für alle l L j= x g n + a gj x
MehrMathematik für Naturwissenschaftler II SS 2010
Mathematik für Naturwissenschaftler II SS 2010 Lektion 13 10. Juni 2010 Kapitel 10. Lineare Gleichungssysteme In diesem Abschnitt untersuchen wir, welche Struktur die Gesamtheit aller Lösungen eines linearen
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung
MehrAusgewählte Lösungen zu den Übungsblättern 4-5
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit
MehrAngewandte Mathematik für die Informatik
Angewandte Mathematik für die Informatik PD Dr. Louchka Popova-Zeugmann PD Dr. Wolfgang Kössler 17. Mai 2017 1 Lineare Optimierung Allgemeine LOA Ganzzahlige Optimierung Differentialgleichungen Differentialgleichungen
Mehr4.1. Basislösung und kanonische Form
4.1. asislösung und kanonische Form ekannt: Jedes LOP kann äquivalent in ein Programm vom Typ III umgeformt werden. Jedes nichtleere Polyeder vom Typ III ist spitz. Für ein LOP vom Typ III gehört im Falle
MehrBonusmaterial Lineare Optimierung ideale Ausnutzung von Kapazitäten
Bonusmaterial Lineare Optimierung ideale Ausnutzung von Kapazitäten 23 231 Die Zweiphasenmethode Beim Simplexalgorithmus zur Lösung linearer Optimierungsprobleme in Standardform wählt man im zugehörigen
Mehr5 Lineare Gleichungssysteme und Determinanten
5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von
MehrKlausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008
Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester
MehrKap. 4.2: Simplex- Algorithmus
Kap. 4.: Simplex- Algorithmus Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS Fakultät für Informatik, TU Dortmund Literatur für diese VO V. Chvatal: Linear Programming D. ertsimas:
Mehrλ i x i λ i 0, x i X, nur endlich viele λ i 0}.
jobname LinOpt Sommer Aufgabe a) Sei X R n. Dann ist b) Cone X = { x i X λ i x i λ i, x i X, nur endlich viele λ i }. x Cone S = Lin S x Lin S = Cone S. Also gibt es nicht-negative Koeffizienten µ i von
MehrLineare Algebra I (WS 12/13)
Lineare Algebra I (WS 12/13) Bernhard Hanke Universität Augsburg 17.10.2012 Bernhard Hanke 1 / 9 Wir beschreiben den folgenden Algorithmus zur Lösung linearer Gleichungssysteme, das sogenannte Gaußsche
MehrVORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max
MehrLeibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber
Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Sitzplatznr.: Wiederholungsklausur zur Vorlesung Operations Research im Wintersemester
MehrLineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus
MehrZielfunktion lineare Funktion Nebenbedingungen lineare Funktionen
be/ji/3(2) 2-1 2 im Kontext der OR-Optimierungsmodelle Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen Standardform: - Planungsziel min bzw. min Z(x) = c 1 x 1 + c 2 x 2 + + c n x n Z(x)
MehrFachakademie für Wirtschaft der FHM A2: Lineare Optimierung und das Simplexverfahren
A2.1 Lineare Optimierung mit dem Simplexverfahren Wenn ein Unternehmen ermitteln möchte, wie viele Mengeneinheiten von verschiedenen Produkten zu produzieren sind, damit bei gegebenen Verkaufspreisen der
MehrProseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner
Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare
Mehr$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $
Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit
Mehr4 Lineare Optimierung
4 Lineare Optimierung In diesem Kapitel werden wir uns mit effizienten Verfahren im Bereich der linearen Optimierung beschäftigen. 4.1 Einführung Als Einführung betrachten wir das Beispiel einer Erdölraffinerie.
MehrLänge eines Vektors und Abstand von zwei Punkten 2. 4 = 6. Skalarprodukt und Winkel zwischen Vektoren
Länge eines Vektors und Abstand von zwei Punkten Aufgabe Bestimme die Länge des Vektors x. Die Länge beträgt: x ( ) =. Skalarprodukt und Winkel zwischen Vektoren Aufgabe Es sind die Eckpunkte A(; ), B(
MehrOptimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze
MehrKapitel 14 Lineare Gleichungssysteme
Kapitel 4 Lineare Gleichungssysteme Kapitel 4 Lineare Gleichungssysteme Mathematischer Vorkurs TU Dortmund Seite 83 / 246 Kapitel 4 Lineare Gleichungssysteme Definition 4. (Lineares Gleichungssystem LGS)
MehrOPERATIONS-RESEARCH (OR)
OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:
Mehr10. Lineare Optimierung
10. Lineare Optimierung Im Kontext der Optimierungsmodelle: Zielfunktion lineare Funktion Nebenbedingungen lineare Funktionen Lösungsraum Unterraum des n Problem der linearen Optimierung Minimiere unter
MehrLineare Algebra I (WS 12/13)
Lineare Algebra I (WS 12/13) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 18.10.2012 Alexander Lytchak 1 / 12 Lineare Gleichungssysteme Wir untersuchen nun allgemeiner Gleichungssysteme der
MehrLineare Algebra und Numerische Mathematik für D-BAUG
R Käppeli L Herrmann W Wu Herbstsemester 26 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 2 Aufgabe 2 Welche der folgenden Aussagen sind korrekt? (i) Jedes
MehrDie duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme
Kapitel 11 Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Wir betrachten folgendes Optimierungsproblem z = c T x min! Ax = b (11.1) (11.2) x j ganz für j = 1,..., n 1 n, (11.3)
Mehr7.1 Matrizen und Vektore
7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit
MehrIII. Transportaufgaben 1. Problemstellung 2. Analyse 3. Bestimmung der Startecke 4. Eckenaustausch 5. Umladeprobleme 6. Zuordnungsprobleme
III. Transportaufgaben 1. Problemstellung 2. Analyse 3. Bestimmung der Startecke 4. Eckenaustausch 5. Umladeprobleme 6. Zuordnungsprobleme H. Weber, FHW, OR SS07, Teil 6, Seite 1 1. Problemstellung Wir
MehrOptimierung. Nürnberg, Oktober 2015
1 Optimierung Nürnberg, Oktober 2015 Prof. Dr. Yvonne Stry Technische Hochschule Nürnberg Fakultät Angewandte Mathematik, Physik und Allgemeinwissenschaften Keßlerplatz 12 90461 Nürnberg Germany 1 Beispiel
MehrLineare Gleichungssystem
Lineare Gleichungssystem 8. Juli 07 Inhaltsverzeichnis Einleitung Der Gauß-Algorithmus 4 3 Lösbarkeit von Gleichungssystemen 6 Einleitung Wir haben uns bisher hauptsächlich mit dem Finden von Nullstellen
MehrMathematik für Naturwissenschaftler II SS 2010
Mathematik für Naturwissenschaftler II SS 2010 Lektion 7 11. Mai 2010 Kapitel 8. Vektoren Definition 76. Betrachten wir eine beliebige endliche Anzahl von Vektoren v 1, v 2,..., v m des R n, so können
MehrKlausurenkurs zum Staatsexamen (WS 2014/15): Lineare Algebra und analytische Geometrie 1
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 204/5): Lineare Algebra und analytische Geometrie. (Herbst 2005, Thema, Aufgabe ) Bestimmen Sie alle reellen Lösungen des folgenden linearen Gleichungssystems:.2
MehrKuhn-Tucker Bedingung
Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,
Mehr