1 Der Simplex Algorithmus I

Größe: px
Ab Seite anzeigen:

Download "1 Der Simplex Algorithmus I"

Transkript

1 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier beläuft sich auf 1 SFr. und für grobes Papier auf 7.5 SFr. Der Altpapierverbrauch beträgt.6 Tonnen pro Tonne grobes Papier und eine Tonne pro Tonne feines Papier. Maximal können 15 Tonnen Altpapier verarbeitet werden. Die Herstellung von einer Tonne feinem Papier erfordert 5 Kilogramm Vorstoffe und für eine Tonne grobes Papier werden 1 Kilogramm Vorstoffe benötigt. Es stehen höchstens 5 Kilogramm Vorstoffe zur Verfügung. Welches Produktionsprogramm bringt den grössten Erlös, wenn maximal 2 Tonnen grobes Papier abgesetzt werden können? Wir bezeichnen nun mit x 1 die Anzahl produzierter Tonnen feines Papier und mit x 2 die Anzahl Tonnen grobes Papier. Dann ist der Erlös Dies ist die sogenannte Zielfunktion. 1x x 2 Die Zielfunktion soll maximiert werden unter den folgenden Nebenbedingungen x 1 +.6x 2 15 (Altpapier 5x 1 + 1x 2 5 (Vorstoffe x 2 2 (Grobpapier Ausserdem müssen wir sicherstellen, dass die Variablen x 1 und x 2 nicht negativ sind. Wir fordern also zusätzlich x 1, x 2 Da sowohl Zielfunktion wie auch Nebenbedingungen linear in x 1 und x 2 sind, sprechen wir bei diesem Problem von einem linearen Programm oder kurz (LP. Wir möchten also folgendes (LP lösen: max 1x x 2 unter x 1 +.6x x 1 + 1x 2 5 x 2 2 x 1, x 2

2 2 Nicoletta Andri Graphische Interpretation Damit ein Punkt zulässig ist, muss er gleichzeitig alle Nebenbedingungen erfüllen, einschliesslich Nichtnegativität. Deshalb nennt man diese Punkte zulässige Lösungen und die Menge aller zulässigen Lösungen heisst zulässiges Gebiet. Offensichtlich stellt jede Nebenbedingung ein Halbraum dar, in unserem 2D- Beispiel die eine Seite der entsprechenden Gerade. Das zulässige Gebiet ist demnach der Durchschnitt dieser Halbräume, also ein konvexes Polyeder. Abbildung 1: Graphische Lösung des (LP Besitzt eine Grenze einer Nebenbedingung keinen gemeinsamen Punkt mit dem zulässigen Gebiet, so heisst diese Nebenbedingung redundant. Redundante Nebenbedingungen können ohne Einschränkung aus den Betrachtungen gestrichen werden. Die Zielfunktion ist eine Kurvenschar. Sie beschreibt den Term, der maximiert werden soll. In unserem Beispiel ist dies der Erlös ZF: z = 1x x 2 Im 2D-Fall sind die Niveaulinien für beliebige z-werte Geraden. Ändert sich der Wert von z, so verschiebt sich die Niveaulinie parallel dazu. Eine optimale Lösung findet man, indem man die Niveaulinie der Zielfunktion parallel in Richtung zunehmender Zielfunktionswerte verschiebt, bis sie das zulässige Gebiet gerade noch berührt. Für die Papiermühle ist die optimale Lösung folglich der Punkt C mit (x 1, x 2 = (3, 2. Der Erlös beträgt somit 18 SFr. Die Optimallösung wird in einem Eckpunkt oder sogenanntem Extremalpunkt angenommen.

3 3 Nicoletta Andri Mathematische Formulierung Kanonische Struktur eines linearen Programms: max z = c j x j unter Einhaltung der Nebenbedingungen a ij x j b i, i = 1,..., m x j, j = 1,..., n. Hierbei bezeichnet n die Anzahl Variablen und m die Anzahl Nebenbedingungen. In Matrixschreibweise: unter max z = c T x Ax b x Wobei wir mit v 1 v 2 meinen, dass komponentenweise gelten soll. Durch die Einführung von sogenannten Schlupfvariablen y i, i = 1,..., m lässt sich die kanonische Form auf die sogenannte Standardform bringen, nämlich max z = c j x j unter Einhaltung der Nebenbedingungen a ij x j + y i = b i, i = 1,..., m x j, j = 1,..., n y i, i = 1,..., m In Matrixschreibweise: unter max z = c T x Ax + y = b x Die Einführung von Schlupfvariablen würde bei unserem Beispiel folgendermassen aussehen: x 1 +.6x 2 + y 1 = 15 (Altpapier 5x 1 + 1x 2 + y 2 = 5 (Vorstoffe x 2 + y 3 = 2 (Grobpapier

4 4 Nicoletta Andri 1.2 Wiederholung: Lineare Algebra Wir müssen oft Gleichungssysteme der folgenden Form lösen: Ax = b, Hierzu bietet sich das Gaussverfahren an. A R m n, b R m Um die Anzahl Lösungen von Ax = b zu bestimmen, muss man eine Fallunterscheidung machen. 1. r(a b > r(a Ax = b hat keine Lösung, weil sich b nicht als Linearkombination der Spaltenvektoren von A darstellen lässt. 2. r(a b = r(a = min(m, n, n m Ax = b hat genau eine Lösung. 3. r(a b = r(a = min(m, n, m < n Ax = b hat unendlich viele Lösungen. 4. r(a b = r(a < min(m, n Ax = b enthält k = min(m, n r(a redundante Gleichungen, die gestrichen werden können. Nach dem Streichen dieser Gleichungen befinden wir uns entweder im zweiten oder im dritten Fall. Uns interessiert offensichtlich nur der dritte Fall. Wir gehen also im Folgenden von r(a = m aus. Dann können wir A folgendermassen umordnen. A = [B N], Entsprechend müssen wir auch x umordnen. ( xb x = B R m m regulär, N R m (n m Die Komponenten von x B heissen Basisvariablen, x N sind die Nichtbasisvariablen. x N Dann gilt ( xb Ax = [B N] x N = Bx B + Nx N = b Der (n m-dimensionale Lösungsraum lässt sich folglich beschreiben als L = { (x B, x N T x B = B 1 b B 1 Nx N, x N R n m beliebig } Eine sogenannte Basislösung von Ax = b erhält man, indem man die Nichtbasisvariablen gleich Null setzt: ( B x = 1 b Da die Wahl von B nicht eindeutig ist, gibt es natürlich mehrere Basislösungen.

5 5 Nicoletta Andri 1.3 Polyedrische Mengen Definition: (Polyeder Eine Menge P R n heisst polyedrische Menge oder einfach Polyeder, falls P ein endlicher Durchschnitt von Halbräumen ist, das heisst von der Form P = {x R n Ax b} { ( y = x R n [I A] x } = b, y Wenn man noch zusätzlich Nichtnegativität fordert, dann gilt { ( } y P = x R n [I A] = b, x, y x {( ( } y y = R m+n [I A] = b, x, y x x Ein Polyeder ist offensichtlich konvex. Definition: (Extremalpunkt Ein Punkt x einer konvexen Menge X heisst Extremalpunkt, falls aus x = λx 1 + (1 λx 2, x 1, x 2 X, λ (, 1 folgt, dass x 1 = x 2 = x. Satz: (Zusammenhang Basislösung-Extremalpunkt Betrachte P = {x Ax = b, x }, A R m n, b R m, r(a = m( n. x P ist Extremalpunkt ( ( Es gibt eine Zerlegung A = [B N] mit B xb B regulär, x = = 1 b mit B 1 b. x N Beweis: = : ( xb Sei A = [B N], B regulär, x = Zu zeigen: x ist extremal x N = ( B 1 b, B 1 b Sei x = λx 1 ( + (1 λx 2, x 1 (, x 2 P, λ (, 1. x1b x2b Setze x 1 =, x 2 =. Dann gelten x 1N x 2N B 1 b = λx 1B + (1 λx 2B = λx 1N + (1 λx 2N Weil x 1, x 2 P gilt, sind alle Komponenten nichtnegativ. Deshalb folgt aus der zweiten Gleichung x 1N = x 2N =

6 6 Nicoletta Andri Weil B regulär ist, folgt aus der ersten Gleichung Damit ist die eine Richtung gezeigt. x 1B = x 2B = B 1 b = : Sei x P extremal. Zu zeigen: Es gibt eine entsprechende Zerlegung A = [B N] und x = mit B 1 b. ( B 1 b Ordne A so, dass x = (x 1,..., x k,,..., T Behauptung: Die ersten k Kolonnen von A sind linear unabhängig. Annahme: Die ersten k Kolonnen von A sind linear abhängig. Dann gibt es ein λ R k, λ mit ( k λ i=1 λ ia i = bzw. A =. ( ( λ λ Setze x = x + α, x = x α mit α > klein genug, so dass x, x immer noch zulässig sind. Dies kann folgendermassen konstruiert werden: Definiere { α 1 := min x } i 1 i k λ i λ i < { } xi α 2 := min 1 i k λ i > λ i Wähle α (, min {α 1, α 2 } { } Weil λ ist, können die beiden Mengen x i λ i λ i < nicht beide leer sein. α ist entsprechend wohldefiniert. Weil λ und α > sind, ist x x. x, x sind in P, weil Ax = ( λ Ax + α A = Ax = b }{{} Ax = = ( λ Ax α A = Ax = b }{{} = und { } x i λ i λ i > Nun gilt aber x = 1 2 x x. Dies ist ein Widerspruch zur Extremalität von x. Die ersten k Kolonnen von A müssen also tatsächtlich linear unabhängig sein.

7 7 Nicoletta Andri Weil r(a = m ist, kann man (a 1,..., a k durch weitere (m k Vektoren a k+1,..., a m A\ {a 1,..., a k } zu einer Basis ergänzen. Definiere B = (a 1,..., a k, a k+1,..., a m und zerlege A entsprechend: A = [B N] Weil x P ist, gilt Wegen der Regularität von B gilt ( xb Ax = [B N] x N = b B 1 b = x = (x 1,..., x k,..., T Damit ist auch die zweite Richtung gezeigt. q.e.d. Jede zulässige Basislösung entspricht also einem Extremalpunkt des Polyeders, und umgekehrt lässt sich jedem Extremalpunkt des Polyeders eine Basislösung zuordnen. Diese Zuordnung ist eindeutig, falls die Basislösung nichtdegeneriert ist. Definition: (Degeneriertheit Eine (zulässige Basis B heisst degeneriert, falls es ein i gibt mit (B 1 b i =, und nichtdegeneriert, falls B 1 b >. Abbildung 2: Degenerierte Basislösung Definition: (Extremalrichtung Sei X R n eine nichtleere, konvexe und abgeschlossene Menge. Dann heisst d R n Richtung in X, falls x + λd X, für alle λ und x X. Eine Richtung d heisst Extremalrichtung, falls für Richtungen d 1, d 2 dass aus d = λ 1 d 1 + λ 2 d 2, λ 1, λ 2 > folgt, dass d 1 = αd 2, für ein α >. gilt,

8 8 Nicoletta Andri Satz: (Darstellungssatz von Polyeder Jedes Polyeder P kann eindeutig geschrieben werden als P = Q + C, Q := conv {x 1, x 2,..., x k }, C := cone {d 1, d 2,..., d l } 1.4 Dualität Primale Aufgabe (LP: Duale Aufgabe (LD: max c T x unter Ax b x min b T y unter A T y c y In unserem Einführungsbeispiel ist die duale Aufgabe min 15y 1 + 5y y 3 unter y 1 + 5y 2 1.6y 1 + 1y 2 + y y 1, y 2, y 3 Lemma: (Schwache Dualität Sei x eine zulässige Lösung von (LP, y eine zulässige Lösung von (LD. Dann gilt c T x b T y Beweis: c T x (y T Ax = y T Ax y T b = b T y q.e.d. Korollar: (Zertifikat Seien x, y zulässig für (LP resp. (LD und es gelte b T y = c T x. Dann sind x, y optimal für (LP resp. (LD. Satz: (Dualitätssatz der linearen Programmierung Seien A R m n, b R m, c R n. Dann gilt max { c T x Ax b, x } = min { b T y A T y c, y } sofern beide Aufgaben zulässige Lösungen besitzen. Beweis: Für den Beweis dieses Satzes verwenden wir das Lemma von Farkas, das wir hier ohne Beweis aufführen.

9 9 Nicoletta Andri Lemma: (Farkas Gegeben seien eine Matrix A R m n und ein Vektor b R m. Dann hat genau eines der beiden folgenden Systeme eine Lösung: 1. x mit Ax b 2. y mit y T A und y T b < Um den Satz zu beweisen, reicht es zu zeigen, dass es ein x und ein y gibt mit Ax b, A T y c, c T x b T y. (Mit der schwachen Dualität folgt nämlich c T x = b T y. ( x Das heisst, wir müssen zeigen, dass es ein z := gibt mit y A ( b Âz := c T b T x =: A T y ˆb. c Gemäss Farkas-Lemma hat genau eines der folgenden zwei Systeme eine Lösung: 1. z mit Âz ˆb 2. s mit s T Â und s Tˆb <. Zu zeigen: Das zweite System hat keine Lösung. Das heisst, wir zeigen, dass für alle (u, v, w, u R m, v R, w R n mit u T A vc T vb T w T A T gilt u T b w T c. Hierzu machen wir eine Fallunterscheidung. 1. Fall: v > u T b = 1 v vut b = 1 v ut vb }{{} Aw 1 v ut }{{} A w vc T = 1 v vct w = c T w = w T c.

10 1 Nicoletta Andri 2. Fall: v = In diesem Fall gilt u T A w T A T Weil (LP und (LD zulässig sind, gibt es ein x und ein y mit Ax b und A T y c. Folglich gilt u T b u}{{} T A x (w T A T y = w T A T y }{{} c = w T c. q.e.d. Korollar: Besitzt (LP eine endliche Optimallösung x, so besitzt auch (LD eine endliche Optimallösung y und es gilt c T x = b T y. Beweis: Es genügt zu zeigen, dass (LD eine zulässige Lösung besitzt. Annahme: Es gibt kein y mit A T y c. Das heisst, ( es gibt kein y ( und kein s mit A T y s = c bzw. es gibt y y kein v := mit [A s T I] = c. s Nach dem Farkas-Lemma muss es folglich ein z geben mit z T [A T I] und z T c >. Also gilt z Az c T z > Dies bedeutet aber, dass z eine Richtung mit wachsendem Zielfunktionswert für (LP ist. Denn für alle λ ist x + λz zulässig: A(x + λz = }{{} Ax + λ b }{{} }{{} Az b

11 11 Nicoletta Andri Für den Zielfunktionswert gilt c T (x + λz = c T x + λ }{{} c T z c T x. > Man kann also λ immer grösser machen, bleibt immer im zulässigen Bereich und der Zielfunktionswert wächst immer mehr an. Dies ist ein Widerspruch zur Endlichkeit der Optimallösung x von (LP. q.e.d. Satz: (Komplementaritätssatz Sei x eine zulässige Lösung von (LP und y eine zulässige Lösung von (LD. (x, y sind genau dann Optimallösungen der entsprechenden Probleme, falls m a ij yi = c j oder x j =, j = 1,..., n i=1 a ij x j = c i oder yi =, i = 1,..., m. Beweis: Seien x, y primal bzw. dual zulässig. Dann gelten 1. ( m c j x j a ij yi x j, i=1 j = 1..., n 2. ( a ij x j yi b i yi, i = 1..., m. Summieren wir die erste Ungleichung über j = 1,..., n und die zweite Ungleichung über i = 1,..., m, so erhalten wir 1. c j x j ( m a ij yi i=1 x j 2. ( m a ij x j yi i=1 m b i yi. i=1 Folglich gilt c j x j m b i yi. i=1 Damit Gleichheit gilt, müssen beide Ungleichungen mit Gleichheit erfüllt sein. Dies ist nur der Fall, wenn für alle i und für alle j gilt

12 12 Nicoletta Andri x j = und/oder c j = y i = und/oder b i = m a ij yi, i=1 a ij x j. q.e.d. Zulässigkeit und Komplementarität lassen sich auch folgendermassen zusammenfassen. Satz: (Kuhn-Tucker (x, y sind genau dann ein Paar von Optimallösungen zu (LP und (LD, wenn sie die nachfolgenden Gleichungen erfüllen. 1. Ax b, x 2. A T y c, y 3. (x T (A T y c = (y T ( Ax + b =

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

Eigenschaften von LPs

Eigenschaften von LPs 2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört

Mehr

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Effiziente Algorithmen Lineares Programmieren 216. Schwache Dualität

Effiziente Algorithmen Lineares Programmieren 216. Schwache Dualität Effiziente Algorithmen Lineares Programmieren 216 Schwache Dualität Sei wieder z = max{ c T x Ax b, x 0 } (P ) und w = min{ b T u A T u c, u 0 }. (D) x ist primal zulässig, wenn x { x Ax b, x 0 }. u ist

Mehr

3.2.5 Dualität der linearen Optimierung I

3.2.5 Dualität der linearen Optimierung I 3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem

Mehr

3.1. Existenzsatz und Struktur der Lösungsmenge

3.1. Existenzsatz und Struktur der Lösungsmenge 3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall

Mehr

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max

Mehr

Optimale Steuerung 1 Prozessoptimierung 1

Optimale Steuerung 1 Prozessoptimierung 1 Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung

Mehr

Kap. 4: Lineare Programmierung

Kap. 4: Lineare Programmierung Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)

Mehr

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind

Mehr

mit. Wir definieren (Skalarprodukt = Winkel).

mit. Wir definieren (Skalarprodukt = Winkel). 1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung

Mehr

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung Operations Research Rainer Schrader Die Simplexmethode Zentrum für Angewandte Informatik Köln 18 Juni 00 1 / 1 / 1 Gliederung LP-Dualität ein lineares Produktionsmodell der Simplexalgorithmus Phase I Endlichkeit

Mehr

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,

Mehr

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur

Mehr

4.3.3 Simplexiteration

4.3.3 Simplexiteration 7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform

Mehr

3. Grundlagen der Linearen Programmierung

3. Grundlagen der Linearen Programmierung 3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations

Mehr

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Kapitel 11 Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Wir betrachten folgendes Optimierungsproblem z = c T x min! Ax = b (11.1) (11.2) x j ganz für j = 1,..., n 1 n, (11.3)

Mehr

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)

Mehr

6 Korrektheit des Simplexalgorithmus

6 Korrektheit des Simplexalgorithmus 6 Korrektheit des Simplexalgorithmus Folgerung: Es sei L: Ax = b, c T x max LP und A B nicht-degenerierte PZB von L und es gebe c r := c r c B A B A r > 0 a) Falls a r := A B a r 0, dann L unbeschränkt

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m) Minimumproblem Definition 4.7 Ein LP der Form nx Minimiere Z = c j x j j=1 unter den Nebenbedingungen nx d ij x j b i (i =1,...,m) j=1 und den Vorzeichenbedingungen x j 0(j =1,...,n) heißt Minimumproblem.

Mehr

Lineare Programmierung Teil I

Lineare Programmierung Teil I Seminar über Algorithmen Prof. Dr. Helmut Alt Lineare Programmierung Teil I Lena Schlipf, Benjamin Jankovic Lena Schlipf, Benjamin Jankovic Seminar über Algorithmen SS05 1 Struktur des Vortrags 1. Was

Mehr

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

Diskrete Optimierung

Diskrete Optimierung Alexander Martin, Sven O. Krumke Diskrete Optimierung SPIN Springer s internal project number, if known 14. April 2009 Springer Berlin Heidelberg NewYork Hong Kong London Milan Paris Tokyo Wir widmen

Mehr

Lösung allgemeiner linearer Programme

Lösung allgemeiner linearer Programme Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt

Mehr

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 7 Lineare Programmierung II 1 Lineare Programme Lineares Programm: Lineare Zielfunktion Lineare Nebenbedingungen (Gleichungen oder Ungleichungen) Spezialfall der konvexen Optimierung

Mehr

1 Lineare Optimierung, Simplex-Verfahren

1 Lineare Optimierung, Simplex-Verfahren 1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und

Mehr

Geometrische Interpretation

Geometrische Interpretation Geometrische Interpretation Stefanie Riedel 10. Mai 2010 1 Starke und schwache Dualität über Wertemengen Wir betrachten eine einfache geometrische Interpretation dualer Funktionen aus der Menge G: G =

Mehr

Grundlagen der Optimierung. Übung 6

Grundlagen der Optimierung. Übung 6 Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren

Mehr

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen Kapitel IV: Grundlagen der Linearen Optimierung Inhaltsverzeichnis Abschnitt 3-5 3 Der Simplexalgorithmus 58 3.1 Grundlagen..............................

Mehr

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x

Mehr

Aufgaben zu Kapitel 23

Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Verständnisfragen Aufgabe 23 Bestimmen Sie grafisch die optimale Lösung x der Zielfunktion z = c T x unter den Nebenbedingungen mit dem Zielfunktionsvektor

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach

Mehr

3 Systeme linearer Gleichungen

3 Systeme linearer Gleichungen 3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +

Mehr

Zugeordneter bipartiter Graph

Zugeordneter bipartiter Graph Zugeordneter bipartiter Graph Für ein Transportproblem sei A = {A 1,...,A m } die Menge der Fabriken und B = {B 1,...,B n } sei die Menge der Warenhäuser. Wir ordnen nun einem Transportproblem einen bipartiten

Mehr

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter

Mehr

Ausgewählte Lösungen zu den Übungsblättern 4-5

Ausgewählte Lösungen zu den Übungsblättern 4-5 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit

Mehr

Lineare Optimierung Teil 2

Lineare Optimierung Teil 2 Lineare Optimierung Teil 2 Primale Degeneration Duale Degeneration = Mehrdeutigkeit Normalform kanonische Form Duale Simplexmethode HTW-Berlin FB3 Prof. Dr.F. Hartl 1 Primale Degeneration/1 Besitzt eine

Mehr

Analyis I -Metrische Räume - eine Einführung in die Topologie

Analyis I -Metrische Räume - eine Einführung in die Topologie Analyis I -Metrische Räume - eine Einführung in die Topologie E = E isolierter Punkte x 1 x 2 x 3 E ist abgeschlossen U ɛ (x) x innerer Punkt Ω Häufungspunkte Ω Metrik Metrische Räume Definition Sei X

Mehr

Das Lagrange-duale Problem

Das Lagrange-duale Problem Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

6 Lineare Optimierung

6 Lineare Optimierung 6 Lineare Optimierung Um die Aufgabenstellung deutlich zu machen, beginnen wir mit einem (natürlich sehr vereinfachten) Beispiel: Produtionsplan einer (zugegebenermaßen sehr leinen) Schuhfabri. Hergestellt

Mehr

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2010)

Vorlesung Lineare Optimierung (Sommersemester 2010) 1 Vorlesung Lineare Optimierung (Sommersemester 2010) Kapitel 6: Die Geometrie der Linearen Optimierung Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 15. Juni 2010) Gliederung 2 Das

Mehr

Standard-/kanonische Form Simplex Dualität Kompl./Sensitivität Spaltengen. Schnittebenen Welchen? Inhalt

Standard-/kanonische Form Simplex Dualität Kompl./Sensitivität Spaltengen. Schnittebenen Welchen? Inhalt Inhalt Lineare Optimierung Standardform und kanonische Form Der Simplex-Algorithmus Dualität Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? 54:

Mehr

Einführung in die Lineare Programmierung

Einführung in die Lineare Programmierung Einführung in die Lineare Programmierung Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 RWTH Aachen 28. Mai 2008 Elementares Beispiel Die kanonische Form Die algebraische Gleichungsform Gegeben seien

Mehr

4.4 Quadratische Optimierungsprobleme

4.4 Quadratische Optimierungsprobleme 4.4 Quadratische Optimierungsprobleme 1. Quadratische Programme (QP) 1 2 xt P x + q T x + r s.t. Gx h (4.34) wobei P S n +, G R (m n) und A R (p n) Zielfunktion (ZF) ist (konvex) quadratisch Nebenbedingungen

Mehr

Übungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung.

Übungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung. Übungsaufgaben Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler Teil : Lineare Algebra und Optimierung Wintersemester Matrizenrechnung Aufgabe ( 3 0 Gegeben sind die Matrizen A = 2 5 2 4 D =

Mehr

05. Lineare Gleichungssysteme

05. Lineare Gleichungssysteme 05 Lineare Gleichungssysteme Wir betrachten ein System von m Gleichungen in n Unbestimmten (Unbekannten) x 1,, x n von der Form a 11 x 1 + a 12 x 2 + a 13 x 3 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + a

Mehr

Insbesondere sind nach dieser Definition also auch die leere Menge und einpunktige Teilmengen konvex.

Insbesondere sind nach dieser Definition also auch die leere Menge und einpunktige Teilmengen konvex. Konvexe Mengen 2 Wie am Ende des vorigen Kapitels bereits erwähnt, ist die notwendige Gradientenbedingung aus Satz 1.4.6 für konvexe Zielfunktionen auch hinreichend. Diese Tatsache mag als erste Motivation

Mehr

Übungen zur Linearen Algebra 1

Übungen zur Linearen Algebra 1 Übungen zur Linearen Algebra 1 Wintersemester 014/015 Universität Heidelberg - IWR Prof. Dr. Guido Kanschat Dr. Dörte Beigel Philipp Siehr Blatt 7 Abgabetermin: Freitag, 05.1.014, 11 Uhr Aufgabe 7.1 (Vektorräume

Mehr

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit 3 Lineare Algebra (Teil : Lineare Unabhängigkeit 3. Der Vektorraum R n Die Menge R n aller n-dimensionalen Spalten a reeller Zahlen a,..., a n R bildet bezüglich der Addition a b a + b a + b. +. :=. (53

Mehr

Lineare Algebra I (WS 12/13)

Lineare Algebra I (WS 12/13) Lineare Algebra I (WS 12/13) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 18.10.2012 Alexander Lytchak 1 / 12 Lineare Gleichungssysteme Wir untersuchen nun allgemeiner Gleichungssysteme der

Mehr

Übung 3, Simplex-Algorithmus

Übung 3, Simplex-Algorithmus Übung 3, 21.6.2011 Simplex-Algorithmus Aufgabe 3.1 Lösen Sie das folgende Optimierungsproblem (von Aufgabe 2.3) graphisch. Substituieren Sie dazu z = 5 y um ein 2-dimensionales Problem zu erhalten. Rechnung

Mehr

Abbildung 1: Graphische Lösung der ersten Übungsaufgabe

Abbildung 1: Graphische Lösung der ersten Übungsaufgabe Lösungen zu den Übungsaufgaben im Kapitel 1 des Lehrbuches Operations Research Deterministische Modelle und Methoden von Stephan Dempe und Heiner Schreier 1. Lösen Sie die folgende lineare Optimierungsaufgabe

Mehr

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9 Chr.Nelius: Zahlentheorie (SS 2007) 9 4. ggt und kgv (4.1) DEF: Eine ganze Zahl g heißt größter gemeinsamer Teiler (ggt) zweier ganzer Zahlen a und b, wenn gilt: GGT 0 ) g 0 GGT 1 ) g a und g b GGT 2 )

Mehr

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Anna Raaz 21.12.2007 Einführung Die Relaxierung von Lagrange wird in der stochastischen Optimierung meistens

Mehr

5.7 Lineare Abhängigkeit, Basis und Dimension

5.7 Lineare Abhängigkeit, Basis und Dimension 8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n

Mehr

7.1 Matrizen und Vektore

7.1 Matrizen und Vektore 7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit

Mehr

8. Lineare Optimierung

8. Lineare Optimierung 8. Lineare Optimierung 1 Einführung (1) Praktische Probleme sind oft Probleme mit Nebenbedingungen, z.b.: Ein Produktionsprozess hängt von Lieferterminen ab Die Menge der verstaubaren Güter ist durch die

Mehr

λ i x i λ i 0, x i X, nur endlich viele λ i 0}.

λ i x i λ i 0, x i X, nur endlich viele λ i 0}. jobname LinOpt Sommer Aufgabe a) Sei X R n. Dann ist b) Cone X = { x i X λ i x i λ i, x i X, nur endlich viele λ i }. x Cone S = Lin S x Lin S = Cone S. Also gibt es nicht-negative Koeffizienten µ i von

Mehr

4 Lineare Optimierung

4 Lineare Optimierung 4 Lineare Optimierung In diesem Kapitel werden wir uns mit effizienten Verfahren im Bereich der linearen Optimierung beschäftigen. 4.1 Einführung Als Einführung betrachten wir das Beispiel einer Erdölraffinerie.

Mehr

Vektorräume. Kapitel Definition und Beispiele

Vektorräume. Kapitel Definition und Beispiele Kapitel 3 Vektorräume 3.1 Definition und Beispiele Sei (V,,0) eine abelsche Gruppe, und sei (K, +,, 0, 1) ein Körper. Beachten Sie, dass V und K zunächst nichts miteinander zu tun haben, deshalb sollte

Mehr

z = c T x : Ax = b, x 0 }, - die Darstellung der Nichtbasisvektoren durch die Basis ist

z = c T x : Ax = b, x 0 }, - die Darstellung der Nichtbasisvektoren durch die Basis ist Kapitel 5 Die Simplexmethode Es werden folgende Bezeichnungen verwendet: - das untersuchte Problem ist min x R n { z = c T x : Ax = b, x 0 }, - die erste zulässige Basislösung sei x = x 1, x 2,, x m, 0,,

Mehr

Operations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung.

Operations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung. Operations Research Rainer Schrader Flüsse in Netzwerken Zentrum für Angewandte Informatik Köln 2. Juli 2007 1 / 53 2 / 53 Flüsse in Netzwerken Unimodularität Gliederung Netzwerke und Flüsse bipartite

Mehr

1. EINFÜHRUNG INS STATE-PRICING 1

1. EINFÜHRUNG INS STATE-PRICING 1 1. EINFÜHRUNG INS STATE-PRICING 1 1. Einführung ins State-Pricing In diesem Kapitel betrachten wir eine Periode. Das heisst, wir können nur zu den Zeitpunkten 0 und 1 handeln. Im weiteren arbeiten wir

Mehr

Lineare Optimierung und Simplex-Algorithmus

Lineare Optimierung und Simplex-Algorithmus Lineare Optimierung und Simplex-Algorithmus Problemstellung Beispiel : Unser Unternehmen verfügt über drei Maschinen A, B, C, mit denen zwei verschiedene Produkte P, P2 hergestellt werden. Die Maschinen

Mehr

GEOMETRIE DER POLYEDER

GEOMETRIE DER POLYEDER GEOMETRIE DER POLYEDER Das Polyeder P sei gegeben durch P = x R n Ax b. Definition. (i) Die Hyperebene H = x R n c T x = d,c, heißt Stützhyperebene von P, falls die Ungleichungc T x d redundant ist bzgl.

Mehr

Lineare Optimierung Dantzig 1947

Lineare Optimierung Dantzig 1947 Lineare Optimierung Dantzig 947 Lineare Optimierungs-Aufgaben lassen sich mit Maple direkt lösen: with(simplex): g:= 4*x + x2

Mehr

Skalarprodukt, Norm & Metrik

Skalarprodukt, Norm & Metrik Skalarprodukt, Norm & Metrik Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz 11. Mai 2016 Stefan Ruzika 5: Skalarprodukt, Norm & Metrik 11. Mai 2016 1 / 13 Gliederung 1

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2009)

Vorlesung Lineare Optimierung (Sommersemester 2009) 1 Vorlesung Lineare Optimierung (Sommersemester 2009) Kapitel 7: Der Simplex-Algorithmus Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 18. Juni 2009) Gliederung 2 Ecken, Kanten, Extremalstrahlen

Mehr

Teil 5: Lineare Programmierung. (Blum, Kapitel 8)

Teil 5: Lineare Programmierung. (Blum, Kapitel 8) Teil 5: Lineare Programmierung (Blum, Kapitel 8) Was sind Optimierungsprobleme? Eingabe: Menge F von zulässigen Lösungen. Zielfunktion z:f R. Aufgabe: Finde x F, so dass x F : z(x) z(x ). (für Minimierungsprobleme)

Mehr

technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller

technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 4.3 und 4.4

Mehr

Lineare Algebra I (WS 13/14)

Lineare Algebra I (WS 13/14) Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 05.11.2013 Alexander Lytchak 1 / 14 Linearkombinationen Definition Es sei V ein reeller Vektorraum. Es sei (v i ) i

Mehr

Vortrag 20: Kurze Vektoren in Gittern

Vortrag 20: Kurze Vektoren in Gittern Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Martin Gubisch Lineare Algebra I WS 27/28 Definition (a ij ) 1 j n 1 i n heiÿt eine m n-matrix mit Komponenten a ij K Dabei bezeichnet i den Zeilenindex und j den Spaltenindex

Mehr

Einführung in die Wirtschaftsinformatik VO WS 2008 / 2009

Einführung in die Wirtschaftsinformatik VO WS 2008 / 2009 Einführung in die Wirtschaftsinformatik VO WS 2008 / 2009 Daten Modelle Steuerung Wilfried Grossmann Teil 3: Steuerung Mathematische Modelle werden häufig dazu verwendet um ein optimales Verhalten zu bestimmen

Mehr

Der Kern einer Matrix

Der Kern einer Matrix Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis

Mehr

KAPITEL 13. Polynome. 1. Primfaktorzerlegung in den ganzen Zahlen. ,, p r

KAPITEL 13. Polynome. 1. Primfaktorzerlegung in den ganzen Zahlen. ,, p r KAPITEL 13 Polynome 1. Primfaktorzerlegung in den ganzen Zahlen DEFINITION 13.1 (Primzahl). Eine Zahl p ist genau dann eine Primzahl, wenn folgende beiden Bedingungen gelten: (1) Es gilt p > 1. (2) Für

Mehr

Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler

Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Wintersemester 2007/08 27.2.2008 Dr. Sascha Kurz Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Bitte lesbar ausfüllen, Zutreffendes ankreuzen Herr Frau Name, Vorname: Anschrift:

Mehr

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg Nikos Canterakis Lehrstuhl für Mustererkennung, Universität Freiburg Gliederung 3 Der Axiator Eigenschaften des Axiators Bestimmung des Kegelschnitts Geometrische Betrachtungen Dualer Kegelschnitt Pol-Polare

Mehr

Lineare Programmierung (2)

Lineare Programmierung (2) Inhalt Rückblick Motivation - linearen Programmierung Flussprobleme Multiple Warenflüsse Fortsetzung Simplex Algorithmus Initialisierung Fundamentalsatz der linearen Programmierung schwache Dualität Dualität

Mehr

Mathematische Methoden der Algorithmik

Mathematische Methoden der Algorithmik Mathematische Methoden der Algorithmik Dozent: Prof. Dr. Sándor P. Fekete Assistent: Nils Schweer Digitalisierung: Winfried Hellmann Wintersemester 2008/2009 Inhaltsverzeichnis 2 1 Einführung Problem 1.1

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

Mathematik I. Vorlesung 12. Lineare Abbildungen

Mathematik I. Vorlesung 12. Lineare Abbildungen Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 12 Lineare Abbildungen Definition 12.1. Es sei K ein Körper und es seien V und W K-Vektorräume. Eine Abbildung heißt lineare Abbildung,

Mehr

Kapitel V. Affine Geometrie

Kapitel V. Affine Geometrie Kapitel V Affine Geometrie 1 Affine Räume Betrachte ein lineares Gleichungssystem Γ : a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + + a 2n x n = b 2 a m1 x 1 + a m2 x 2 + + a mn x n = b

Mehr