1 Laufzeit der Simplex-Methode

Größe: px
Ab Seite anzeigen:

Download "1 Laufzeit der Simplex-Methode"

Transkript

1 1 Laufzeit der Simplex-Methode Es soll zum Abschluss des Seminars ein kurzer Blick auf die Laufzeit bzw. den Rechenaufwand der Lösung eines LPs mit dem Simplex-Algorithmus geworfen werden. Rechenaufwand meint hier die Anzahl der benötigten elementaren Rechenoperationen wie Addition, Multiplikation, Vergleiche, Mengenoperationen, etc.). Klee-Minty-Würfel Victor Klee und George J. Minty haben 1973 eine Klasse von Problemen mit einer m 2m Matrix A angegeben und damit einen Würfel konstruiert, bei dem mit der Pivotregel von Dantzig alle Ecken abgeschritten und damit 2 m 1 Austauschschritte benötigt werden. Das bedeutet: Im schlechtesten Falle benötigt die Simplxmethode also (als obere Schranke) eine exponentionelle Laufzeit und ist damit NP-schwer. Der n-dimensionale Klee-Minty-Würfel X n ist gegeben durch den zulässigen Bereich des Problems max x n unter 0 x 1 1 ɛx i x i+1 1 ɛx i für alle i = 1,..., n 1 mitɛ (0, 1 2 ) Damit ergibt sich im 2-dimensionalen ein Trapez und im 3-dimensionalen ein verzerrter Würfel bzw. Quader. Satz 1.1 Der Polyeder X n besitzt genau 2 n Ecken. Beweisidee: Ecken des Polyeders durch geschickte Konstruktion mit den Ecken des n dim. Einheitswürfel identizieren. Dieser kann durch 2n lineare Gleichungen beschrieben werden, hat aber 2 n Ecken. Mit den Restriktionsvektoren entsteht eine Matrix mit Determinantenbetrag 1, dh. die Matrix ist regulär und die einzelnen Spalten damit linear unabhängig. Folgerung: Die Zahl der Ecken eines Polyeders (Zahl der Basislösungen des zulässigen Bereichs) kann exponentiell zur Anzahl der Variablen (und damit der Ungleichungen) sein. Der Polyeder X 3 besitzt genau 2 3 = 8 Ecken. Satz 1.2 Es gibt einen Simplexpfad, der alle Ecken des Polyeders X n durchläuft. Beweisidee: Konstruktion einer kombinatorischen Folge mit monoton wachsenden x n -Werten. 1

2 Abbildung 1: Maximaler Simplexpfad mit n = 3, ɛ = 1/3 Der Polyeder X 3 besitzt genau 2 3 = 8 Ecken und das Simplexverfahren kann von 0 ausgehend in Richtung x 3 genau 7 = Schritte ausführen. Pivotregeln Der Klee-Minty-Würfel bezieht sich explizit auf die Pivotregel des Ernders des Simplex- Algorithmuses, die Dantzig-Regel, mit der wir uns auch in diesem Seminar beschäftigten. Ähnliche Beispiele wurden mittlerweile allerdings mit allen bekannten Pivotregeln gefunden, jedoch sind die konstruierten Gegenbeispiele wesentlich komplexer. Als Beispiel hier zwei explizite Pivotregeln. Dantzig-Regel: Pivotisiert wird stets zu der Spalte der Nichtbasisvariablen, bei der der Wert für qs T, s J minimal ist. Die Pivotzeile ergibt sich aus dem minimalen Wert des charakteristischen Koezienten. Bland-Regel: Pivotisiert wird stets die Spalte der lexikograsch kleinsten Nichtbasisvariablen mit der Zeile der lexikograsch kleinsten Basisvariablen. Die Frage, ob es eine Pivotregel mit polynomieller Laufzeit des Simplex-Algorithmus gibt, ist bis heute ungeklärt. 2

3 Theorie und Praxis Im Gegensatz aber zu diesen theoretischen Überlegungen der worst-case-laufzeit sieht die Praxis oft anders aus: Viele auftretenden LPs lassen sich tatsächlich ezient mit dieser Methode lösen. Da das Simplexverfahren und seine Varianten der dualen oder revidierten Simplexmethode zu den am besten erprobten Verfahren zählt, lässt sich eine empirische Faustformel für reale Probleme angeben. Die Zahl der benötigten Austauschschritte steigt etwa linear mit der Zahl der Zeilen m und Spalten n der m n-matrix A der Restriktionen an. Der Rechenaufwand pro Austauschschritt wiederum wächst quadratisch mit m und linear mit n an, sodass insgesamt ein polynomialer Aufwand zu konstatieren ist (vgl. Neumann/Morlock 2004, 160). Dieser doch erhebliche Unterschied zwischen empirischer Beobachtung und theoretischer Feststellung geht man seither nach. Zu nennen seien an dieser Stelle Borgward (1977) und Spielman/Teng (2011) die jeweils in ihren mathematischen Arbeiten (leider extrem strenge und eingrenzende) Bedingungen an die Nebenbedingungsmatrix A herausfanden, mit der der Simplex- Algorithmus allgemeingültig eine polynomiale Laufzeit annimmt. 2 Ganzzahlige Lineare Optimierung z = c T x min bei Ax b, x 0, x ganzzahlig (1) Die ganzzahlige lineare Optimierung ist ein Spezialfall der linearen Optimierung. Es geht um die Optimierung einer linearen Zielfunktion mit Einschränkungen durch lineare (Un-)Gleichungen. Anders jedoch ist die Beschränkung des Wertebereichs einiger oder aller Variablen auf Ganzzahligkeit. Das führt dazu, dass unter der Ganzzahligkeitsbeschränkung meist das zugrundeliegende, konvexe Polyeder nicht genau bekannt und die Komplexität somit um ein Vielfaches erhöht ist. Rechenaufwand Während LPs prinzipiell polynomial lösbar sind bpsw. mit dem Innere-Punkt-Verfahren oder mit gewissen Voraussetzungen an die Nebenbedingungsmatrix auch durch den Simplex-Algorithmus, stellt das Finden einer Optimallösung für ganzzahlige Optimierungsaufgaben ein NP-schweres Problem dar. Begriichkeit Gebräuchlich sind auch die Begrie der diskreten Optimierung oder der ganzzahligen (linearen) Programmierung [integer (linear) programming, IP], wobei 'Programm' im Sinne von 'Planung' zu verstehen ist. Lösbarkeit Eine Besonderheit von IPs ist, dass sie im Gegensatz zu LPs nicht nur unlösbar, unbeschränkt oder ansonsten eine Optimallösung aufweisen können. IPs können zusätzlich generell lösbar und beschränkt sein, jedoch keine Optimallösung besitzen, oder aber eine andere endliche Anzahl an Optimallösungen ( 1) haben als genau eine. 3

4 Dies wollen wir an einem Beispiel veranschaulichen. Dazu denieren wir uns im Vorfeld die Menge P, die durch Weglassen der Ganzzahligkeitsforderung entsteht Denition 2.1 P := {x R Ax b, x 0} (2) P bildet ein konvexes Polyeder, dessen beschränkende Ebenen die Ungleichungsnebenbedingungen widerspiegeln. Dieses Polyeder enthält unter anderem alle zulässigen Punkte unserer ganzzahligen Optimierungsaufgabe, aber anders als bei LP sind nicht alle Punkte im Polyeder zulässig (durch die Weglassung der Ganzzahligkeitsbeschränkung)! Denition 2.2 Das LP bzw. die lineare Optimierungsaufgabe zu (1) f = c T x min bei Ax b, x 0 (3) heiÿt Relaxation bzw. LP-Relaxierung des ganzzahligen Problems (1) und spielt eine bedeutende Rolle bei dessen Lösung, wie wir gleich sehen werden. Vorher aber das versprochene Beispiel zur Anschauung der zulässigen Menge eines IP und dem Fall mehrerer optimaler Lösungen ungleich unendlich viele. Beispiel 2.3 Wir betrachten eine Aufgabe zur Maximierung (!) des Funktionswertes max y x, y Z 0 x + y 1 3x 2y 12 2x + 3y 12 Die zulässigen ganzzahlligen Punkte sind in der Grak rot eingezeichnet. Sie werden ummantelt von ihrer konvexen Hülle, also dem kleinsten Polyeder, das alle dieser Punkte beinhaltet (gestrichelte rote Linie). von Sdo - Self-made using xg and g2dev (see CC BY-SA 2.5, 4

5 Die blauen Geraden begrenzen das Polyeder P der LP-Relaxierung unseres Beispiels (also ohne Ganzzahligskeitsbedingung). Da der y-wert hier maximiert werden soll, muss die schwarzgestrichelte Linie bis zum ersten Berührungspunkt mit den Polyedern parallel verschoben werden. Es werden nun mehrere allgemeine Erkenntnisse anschaulich sichtbar. Die Lösung des IPs ist immer (bei Maximierungsproblemen) bzw. (bei Minimierungsproblemen) als die Lösung des zugehörigen LP-Relaxation (also immer weniger 'optimal')). Die zulässigen Punkte liegen auf einem Gitter. Die Menge der zulässigen Punkte eines IPs ist nicht mehr konvex. Es kann mehr als eine Optimallösung geben, in diesem Fall die Punkte (1, 2) und (2, 2) mit dem Zielfunktionswert Anwendung ganzzahliger Optimierung Durch die Beschränkung auf ganzzahlige Lösungswerte wird der Anwendungsbereich der Modellierung wesentlich vergröÿert und die Optimierung zu einem Werkzeug für viele praktischer Probleme. Grund dafür sind zwei wesentliche Anwendungseigenschaften: 1. Variablen können aus praktischen Gründen nur ganzzahlige Werte annehmen z. Bsp. können nicht 1,6 Autos produziert werden 2. Entscheidungsmuster mit JA und NEIN können (mittels Binärvariablen) modelliert und optimiert werden z. Bsp. eine Route links oder rechts fortsetzen Einige Anwendungsbereiche möchte ich im Folgenden aufzeigen und kurz anreiÿen, ohne eine vollständige Aufzählung oder eine tiefgründigere Beschreibung zu geben. Produktionsplanung Wie bereits erwähnt können in vielen Fällen nur ganzzahlige Produkte hergestellt oder ganzzahlige Ressourcen verwendet werden. So kann ein Unternehmen nur entweder 70 oder 71 Regenschirme herstellen, 15 oder 16 Mschinen einsetzen, oder Kartons lagern oder 3 oder 4 Mitarbeiter beschäftigen. Um diese Beschränkung der Variablen aus praktischen Gründen modellieren und optimieren zu können, wird die ganzzahlige Optimierung benötigt. (personenungebundene) Dienstplanung Um den Dienstplan eines Supermarktes oder des öentlichen Nahverkehrsunternehmens zu planen und den Önungszeiten bzw. den Fahrplan einzuhalten, müssen Entscheidungen getroen werden (fährt der Bus A/Busfahrer B oder fährt er nicht). Um also die Aufteilung von zei Mengen aufeinander zu optimieren (Menge der Busfahrer auf die Menge der Busse; Menge der Verkäuferinnen auf die Menge der Arbeitszeiten oder der Kassen), wird eine ganzzahlige Optimierung (meist auch mittels Binärvariablen) benötigt. 5

6 Routenplanung Ähnliche Anwendung ndet sie in der Tourenplanung. Bei diesem klassischen Einsatzgebiet geht es um das Finden einer kürzesten Route, bspw. für Postboten oder Handwerker, die einen kurzen Weg und wenig Zeit benötigen wollen, aber auch in Verkehrs-Apps wie der DVB- oder DB-App. Auch hier ndet sich die Beschränkung auf ganzzahlige Variablen wider. Binärprogrammierung Als bereits erwähnter Spezialfall tritt die Binärprogrammeíerung auf. Hier ist die Beschränkung nicht nur auf ganzzahlige Werte, sondern auf Werte aus {0,1} gegeben. Hierbei besteht geometrisch eine direkte Verbindung zur Lösungssuche von Boolschen Funktionen aus dem Boolschen Semiring und damit äquivalent zum Finden von 0/1 P unkten in Schnitt und Vereinigung von hochdimensionalen Polytopen. Diese Methode wird disjunkte Programmierung genannt und gehört aufgrund der kombinatorisch-schwierigen Problematik zu den NP-vollständigen Problemen. 2.2 Branch-and-Bound-Verfahren Im Unterschied zu LPs, die durch die Innere-Punkt-Methode in polynomialer Zeit lösbar sind, ist das Finden von Optimallösungen für IPs NP-schwer. Deshalb unterscheidet man bei den Lösungsverfahren exakte und heuristische Verfahren. Zu den erste Verfahren gehört das sogenannte Branch-and-Bound bzw. Branch-and-Cut-Verfahren. 1. Lösen der LP-Relaxierung f(x) min für das IP z(x) min mittel Simplex-Algorithmus 2. Unterscheidung der erhaltenen Lösung (a) Lösung ist ganzzahlig fertig. (b) Lösung ist nicht ganzzahlig i. branch: schrittweise Zerlegung von G in disjunkte Teilmengen G, G mit G = G G und = G G und damit verbundene Teilprobleme, sodass jede zulässige Lösung in einem dieser Teilprobleme enthalten ist. ii. bound: Gewinnung von unteren Schranken auf allen erzeugten Teilmengen G, G durch 'einfache' Hilfsaufgaben wie LP ohne Ganzzahligkeitsforderung: Schranke d(g ) f(x), x G iii. Entscheidung: Abbruch und keine weitere Verzweigung bei... A. G = B. d(g ) f(x) 6

7 C. d(g ) = f(x), x G... sonst Beginn erneut bei Schritt 2. Auf diese Weise entsteht ein Verzweigungsbaum mit der LP-Relaxierung als Ausgangspunkt, der solange fortgeführt wird, bis eine ganzzahlige Lösung gefunden wird. 2.3 Anwendung des Branch-and-Bound in der ganzzahlligen linearen Optimierung Im Folgenden wenden wir den das Branch-and-Bound-Verfahren nach Land/Doig/Dakin mit dem Simplex-Algorithmus als Lösungsverfahren für die Hilfsprobleme der LP-Relaxierungen an. Die Aufgabenstellung soll also lauten: z = c T x min, bei (1) (2) = Ax = b, x 0, (4) x ganzzahlig x T N (= 0) 1 ( x B = P p mit p 0, q 0 xb ) ( x N = p 0) ist optimale Lösung z = q T q 0 Zum besseren Verständnis des branch-and-bound-verfahrens wollen wir uns folgendes einfaches im Sinne von wenig Variablen und Zeilen Beispiel anschauen. Aufgabe 2.4: z = 3x 1 x 2 min, bei 4x 1 + 3x 2 6, x i 0, ganzz. Wir können durch Einfügen einer Schlupfvariable die Restriktion als Gleichung ausdrücken 4x 1 3x 2 +x 3 = 6 und sofort eine triviale Startlösung dieser Gleichung mit x = (0, 0, 6) T ablesen. Da diese Startlösung bereits ganzzahlig ist, erhalten wir eine erste Referenzlösung für unseren Algorithmus: x = ( ) 0 (= (0, 0, 6) T ), f = 0 (5) 0 Zunächst lösen wir das stetige Relaxationsproblem und stellen das Simplex-Tableau auf: x 1 x 2 1 x 3 = z = Da q T 0, ist das Schema oensichtlich noch nicht optimal. Wir führen einen Austauschschritt mit dem revidierten Simplextableau durch. Die Pivotspalte ist x 1 mit dem kleinsten q T -Wert 3 die Pivotzeile ist klar. 7

8 Erinnerung Austauschschritt x l x k nach den bekannten Regeln: = 1 P lj = P ik = P ij = q 0 = P lj P ik P ij P lj P ik q 0 p l q k mit j J N (x) \ {k}, i J B \ {l} pl = p l pi = p i p l P ik qj = q j P lj q k qk = q k Es folgt: x 1 x 3 x 3 x 2 1 x 1 = -1/4-3/4 3/2 d(g) = 9 2 < f = 0 z = 3/4 5/4-9/2 Dieses Schema ist oensichtlich optimal und liefert uns eine erste untere Schranke (lower bound) mit d(g) = 9 2 welche zulässigerweise kleiner als der Funktionswert unserer ersten Referenzlösung ist. Da die Basisvariable x 1 / Z, verzweigen wir nun die Menge der zulässigen Lösungen in: G 1 = {x G : x } = {x G : x 1 1} und G 2 = {x G : x } = {x G : x 1 2} Aus methodischen Gründen schauen wir uns zunächstdie Lösung des relaxierten Problems für G 2 an: Die neu einzufügende Restriktion lautet mithilfe der neuen Schlupfvariablen x 5 : x 1 2 x 1 = 2 + x 5 Wie letzte Woche im Dualen Simplexalgorithmus kennen gelernt schreiben wir x 1 nun als Kombination der Nichtbasisvariablen, um die neue Restriktion als neue Zeile in das Tableau übernehmen zu können. Es gilt also: x 1 2 = x 5 3/4x 2 1/4x 3 + 3/2 2 = x 5 und das neue Tableau ist: G 2 1 x 3 x 2 1 x 1 = -1/4-3/4 3/2 kein weiterer Basiswechsel mgl. x 5 = -1/4-3/4-1/2 G 2 =, d(g 2 ) = > f = 0 z = 3/4 5/4-9/2 Das Simplextableau des relaxierten Problems für G 2 bleibt zwar formal optimal, allerdings nicht zulässig, da p 0. Dies lässt sich aber auch durch weitere Duale Schritte nicht ändern, da die komplette Zeile x 5 im Schema 0 ist. G 2 wird damit nicht weiter verzweigt und verworfen. 8

9 Zu betrachten bleibt nun noch G 1. Das relaxierte Problem für G 1 ergibt sich mit selben Vorgehen G 1 1 x 3 x 2 1 (x 4 = x x ): x 1 = -1/4-3/4 3/2 x 4 = 1/4 3/4-1/2 z = 3/4 5/4-9/2 Die nun erhaltene Lösung ist zwar formal optimal, jedoch noch nicht zulässig Wir führen also die Duale Simplexmethode durch, um p 0 zu erreichen. Die Pivotzeile ist also x 4 ) und wir wählen die Spalte mit dem kleinsten charakteristischen Quotienten (hier also 5/3, siehe nächstes Tableau). Es folgen die üblichen Austauschschritte im Dualen Simplex-Algortihmus. G 1 1 x 3 x 2 1 x 1 = -1/4-3/4 3/2 x 4 = 1/4 3/4-1/2 z = 3/4 5/4-9/2 q j P l j 3 5/3 x 4 x 2 G 1 2 x 3 x 4 1 x 1 = x 2 = -1/3 4/3 2/3 z = 1/3 5/3-11/3 d(g 1 ) = 11/3 < f = 0 Das Ergebnis liefert uns ein zulässiges und optimales Ergebnis des relaxierten Problems für G 1. Auÿerdem haben wir x 1 Z, jedoch x 2 / Z. Es ist demzufolge notwendig, die Menge der zulässigen Lösungen nochmals zu verzweigen in 2 G 11 = {x G : x 2 } = {x G : x 2 0} 3 und G 12 = {x G : x } = {x G : x 2 1} In der ersten Verzweigung stellen wir die neue Restriktion zunächst mithilfe einer neuen Schlupfvariable x 6 um in: x 2 0 x 6 = x 2 x 6 = ( 1 3 x x ) und fügen sie in das vorherige Tableau an. Da wir mit dieser Zeile unsere Zulässigkeit verlieren, führen wir erneut einen Schritt im Dualen Simplex-algorithmus durch. Unsere Pivotzeile ist x 6 und die Pivotspalte ergibt sich aus dem einzigen nicht-negativen Eintrag der Pivotzeile in der x 3 -Spalte. G 11 1 x 3 x 4 1 x 1 = x 2 = -1/3 4/3 2/3 x 6 = 1/3-4/3-2/3 z = 1/3 5/3-11/3 x 6 x 3 G 11 2 x 6 x 4 1 x 1 = x 2 = x 3 = z = d(g 11 ) = 3 =: f Wir erhalten jetzt für das relaxierte Problem in G 11 eine zulässige und optimale Lösung, bei der alle x-werte sogar in Z liegen. Unsere Lösung ist ganzzahlig mit einem Zielfunktionswert von 3 9

10 und wir können unsere erste Referenzlösung nun verbessern und neubelegen mit x = (1, 0) T und f = 3. Wir haben nun zwar eine ganzzahlige Lösung unserer Optimierungsaufgabe gefunden, wissen jedoch noch nicht, ob im Parallelzweig die Lösung nicht noch besser ist und damit die Relaxion in G 11 gar nicht optimal wäre. G G 1 G 2 = G 11 : f = 3 G 12 =? Aus diesem Grund schauen wir uns die Relaxion für G 12 an und fügen die umgeschriebene, neue Restriktion in das Tableau an. x 2 1 x 2 = 1 + x 7 x 7 = x 2 1 x 7 = 1/3x 3 + 4/3x 4 1/3 G 12 1 x 3 x 4 1 x 1 = G 12 2 x 3 x 7 1 x 1 = -1/4-3/4 3/4 x 2 = -1/3 4/3 2/3 x 7 = -1/3 4/3-1/3 x 7 x 4 x 2 = x 4 = 1/4 3/4 1/4 d(g 12 ) = 13 4 < f = 0 z = 1/3 5/3-11/3 z = 3/4 5/4-13/4 Das erhaltene Simplex-Tableau erfüllt die Zulässigkeits- und Optimalitätsbedingung, doch die Lösung ist nicht ganzzahlig. Wir müssen also erneut verzweigen und wählen dafür die Zeile mit dem gröÿten nicht-ganzzahligen x-wert. G 121 = {x G : x } = {x G : x 1 0} und G 122 = {x G : x } = {x G : x 1 1} Die Lösung des relaxierten Problems für G 121 mit den bekannten Vorgehen liefert: G x 3 x 7 1 x 1 = -1/4-3/4 3/4 G x 3 x 8 1 x 1 = x 2 = x 4 = 1/4 3/4 1/4 x 8 x 7 x 2 = -1/3 4/3 2 x 4 = d(g 121 ) = 2 > f = 3 x 8 = 1/4 3/4-3/4 x 7 = -1/3 4/3 1 z = 3/4 5/4-13/4 z = 1/3 5/3-2 10

11 Wir bekommen eine zulässige, ganzzahlige und scheinbar auch optimale Lösung des relaxierten Problems. Jedoch ist der Zielfunktionswert dieser Relaxion gröÿer als der der bisherigen Referenzlösung für G 11. Da der Zielfunktionswert auch gleichzeitig die untere Schranke für weitere Verzweigungen auf diesem Pfad ist, sind oensichtlich keine Verbesserungen zu erwarten. Die Relaxion für G 121 wird zugunsten des bisherigen Ergebnisses für G 11 verworfen. Es bleibt die zweite Verzweigung G 122 zu überprüfen: x 1 = 1 + x 9 x 9 = x 1 1 x 9 = 1/4x 3 3/4x 7 1/4 G x 3 x 7 1 x 1 = -1/4-3/4 3/4 x 2 = x 4 = 1/4 3/4 1/4 x 9 = -1/4-3/4-1/4 z = 3/4 5/4-13/4 kein weiterer Basiswechsel mgl. G 122 =, d(g 122 ) = > f = 3 Damit verwerfen wir auch diese Verzweigung und haben ein ganzzahliges Optimum für G 11 gefunden mit x = ( 1 0) und f = 3. Es ergibt sich somit zudem der folgende, vollständige branch-and-bound- Pfadbaum für unser Beispiel: G G 1 G 2 = G 11 : f = 3 G 12 G 121 : d(g 121 ) = 2 > f = 3 G 122 = 11

Lineare Optimierung: Simplexverfahren Phase Ⅰ

Lineare Optimierung: Simplexverfahren Phase Ⅰ Lineare Optimierung: Simplexverfahren Phase Ⅰ Zur Erinnerung: Die Lineare Optimierungsaufgabe in Standardform lautet z = c T x + c 0 min (.) bei Ax = b, x 0. Revidiertes Simplexverfahren Mit dem Simplexverfahren

Mehr

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter

Mehr

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m) Minimumproblem Definition 4.7 Ein LP der Form nx Minimiere Z = c j x j j=1 unter den Nebenbedingungen nx d ij x j b i (i =1,...,m) j=1 und den Vorzeichenbedingungen x j 0(j =1,...,n) heißt Minimumproblem.

Mehr

Eigenschaften von LPs

Eigenschaften von LPs 2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört

Mehr

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Simplex-Verfahren. Kapitel 4. Simplex-Verfahren. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 4 Simplex-Verfahren Peter Becker (H-BRS) Operations Research I Sommersemester 24 86 / 298 Inhalt Inhalt 4 Simplex-Verfahren Dualer Simplexalgorithmus Vermeidung von Zyklen Peter Becker (H-BRS)

Mehr

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005 Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung

Mehr

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung

Mehr

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen 10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie

Mehr

Optimierung. Vorlesung 04

Optimierung. Vorlesung 04 Optimierung Vorlesung 04 Übungsbetrieb Mangels Teilnehmer keine Dienstagsübung mehr. Prüfung laut Paul: Di, 10. Feb. 2015 00:01-23:59 2 Was bisher geschah LP: Maximiere c T x unter Ax = b, x 0. Basis:

Mehr

Der Simplex-Algorithmus

Der Simplex-Algorithmus 5 Lineare Programmierung Simplex-Algorithmus Der Simplex-Algorithmus Standardverfahren zur Lösung von LPs, von G B Dantzig entwickelt Grundidee: Versuche ausgehend von einer Startecke mit einer Ausgangsbasis

Mehr

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25. Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme

Mehr

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind

Mehr

Übung 3, Simplex-Algorithmus

Übung 3, Simplex-Algorithmus Übung 3, 21.6.2011 Simplex-Algorithmus Aufgabe 3.1 Lösen Sie das folgende Optimierungsproblem (von Aufgabe 2.3) graphisch. Substituieren Sie dazu z = 5 y um ein 2-dimensionales Problem zu erhalten. Rechnung

Mehr

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,

Mehr

Klausurrepetitorium ABWL

Klausurrepetitorium ABWL Klausurrepetitorium ABWL Planungs- und Südwestfälische Industrie- und Handelskammer 9. August 5 Dr. Friedhelm Kulmann, Sandra Rudolph 9.8.5 Gliederung. Nichtlineare Optimierungsprobleme.. Quadratisches

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Aufgaben zu Kapitel 23

Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Aufgaben zu Kapitel 23 Verständnisfragen Aufgabe 23 Bestimmen Sie grafisch die optimale Lösung x der Zielfunktion z = c T x unter den Nebenbedingungen mit dem Zielfunktionsvektor

Mehr

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende) . Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)

Mehr

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur

Mehr

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme

Mehr

4.3.3 Simplexiteration

4.3.3 Simplexiteration 7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige

Mehr

Dr. Anita Kripfganz SS 2014

Dr. Anita Kripfganz SS 2014 Dr. Anita Kripfganz SS 2014 4. Lösungsverfahren 4.1. Schnittebenenmethode Im Jahre 1958 hat R. Gomory ein allgemeines Schnittebenenverfahren zur Lösung ganzzahliger linearer Optimierungsprobleme vorgeschlagen.

Mehr

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung

Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen. Kapitel IV: Grundlagen der Linearen Optimierung Vorlesung Wirtschaftsmathematik I WS 2007/2008, Wirtschaftingenieurwesen Kapitel IV: Grundlagen der Linearen Optimierung Inhaltsverzeichnis Abschnitt 3-5 3 Der Simplexalgorithmus 58 3.1 Grundlagen..............................

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

Die duale Simplexmethode

Die duale Simplexmethode Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Ganzzahlige lineare Programme

Ganzzahlige lineare Programme KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.

Mehr

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen

Mehr

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Anna Raaz 21.12.2007 Einführung Die Relaxierung von Lagrange wird in der stochastischen Optimierung meistens

Mehr

Aufgabe 5.3 Duale Simplexverfahren

Aufgabe 5.3 Duale Simplexverfahren Aufgabe 5.3 Knut Krause Thomas Siwczyk Stefan Tittel Technische Universität Dortmund Fakultät für Informatik Algorithmen und Datenstrukturen 15. Januar 2009 Gliederung 1 Aufgabenstellung und Motivation

Mehr

Lösung allgemeiner linearer Programme

Lösung allgemeiner linearer Programme Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt

Mehr

Probeklausur Optimierung

Probeklausur Optimierung Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften Dr. Nico Düvelmeyer Hamburg, 4. Juli 2011 Probeklausur Optimierung Bitte selber ausfüllen: Name: (darf anonymisiert werden)

Mehr

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung

Operations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung Operations Research Rainer Schrader Die Simplexmethode Zentrum für Angewandte Informatik Köln 18 Juni 00 1 / 1 / 1 Gliederung LP-Dualität ein lineares Produktionsmodell der Simplexalgorithmus Phase I Endlichkeit

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach

Mehr

Lineare Optimierung Teil 2

Lineare Optimierung Teil 2 Lineare Optimierung Teil 2 Primale Degeneration Duale Degeneration = Mehrdeutigkeit Normalform kanonische Form Duale Simplexmethode HTW-Berlin FB3 Prof. Dr.F. Hartl 1 Primale Degeneration/1 Besitzt eine

Mehr

Kap. 4: Lineare Programmierung

Kap. 4: Lineare Programmierung Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.

Mehr

Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel 3 - Lineare Optimierung

Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel 3 - Lineare Optimierung Mathematische Grundlagen für Wirtschaftswissenschaftler Lösungshinweise zu den Übungsaufgaben aus Kapitel - Lineare Optimierung Sascha Kurz Jörg Rambau 8. August Lösung Aufgabe.. Da es sich um ein homogenes

Mehr

Optimale Steuerung 1 Prozessoptimierung 1

Optimale Steuerung 1 Prozessoptimierung 1 Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

Inhaltsverzeichnis Grundlagen der Linearen Optimierung

Inhaltsverzeichnis Grundlagen der Linearen Optimierung Inhaltsverzeichnis 4 Grundlagen der Linearen Optimierung 1 4.1 Grundbegriffe............................. 1 4.1.1 Lineare Optimierung..................... 1 4.1.2 Das Grundmodell eines linearen Optimierungsproblems

Mehr

Einführung in die Lineare Programmierung

Einführung in die Lineare Programmierung Einführung in die Lineare Programmierung Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 RWTH Aachen 28. Mai 2008 Elementares Beispiel Die kanonische Form Die algebraische Gleichungsform Gegeben seien

Mehr

CARL HANSER VERLAG. Peter Stingl. Operations Research Linearoptimierung

CARL HANSER VERLAG. Peter Stingl. Operations Research Linearoptimierung ARL HANSER VERLAG Peter Stingl Operations Research Linearoptimierung -446-228-6 wwwhanserde 2 Lineare Optimierungsprobleme x 2 6 P P sentartete Ecke ( 4) x +x 2 5 PPPPPPPPPPPPPPP X x + x 2 7 2x +x 2 8

Mehr

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel: Eine Firma produziert die Produkte P 1, P 2,..., P q aus den Rohstoffen R 1, R 2,..., R m. Dabei stehen b j Einheiten

Mehr

8. Lineare Optimierung

8. Lineare Optimierung 8. Lineare Optimierung 1 Einführung (1) Praktische Probleme sind oft Probleme mit Nebenbedingungen, z.b.: Ein Produktionsprozess hängt von Lieferterminen ab Die Menge der verstaubaren Güter ist durch die

Mehr

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max

Mehr

Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber

Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Sitzplatznr.: Wiederholungsklausur zur Vorlesung Operations Research im Wintersemester

Mehr

Sandro Pirkwieser, (Bin Hu, Jakob Puchinger) SS 2010

Sandro Pirkwieser, (Bin Hu, Jakob Puchinger) SS 2010 Lösungsverfahren für Ganzzahlige Optimierung Sandro Pirkwieser, (Bin Hu, Jakob Puchinger) Fortgeschrittene Algorithmen und Datenstrukturen Arbeitsbereich für Algorithmen und Datenstrukturen Institut für

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung In der linearen

Mehr

Angewandte Mathematik für die Informatik

Angewandte Mathematik für die Informatik Angewandte Mathematik für die Informatik PD Dr. Louchka Popova-Zeugmann PD Dr. Wolfgang Kössler 17. Mai 2017 1 Lineare Optimierung Allgemeine LOA Ganzzahlige Optimierung Differentialgleichungen Differentialgleichungen

Mehr

Branch-and-Bound und Varianten. Kapitel 3. Branch-and-Bound und Varianten. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 98 / 159

Branch-and-Bound und Varianten. Kapitel 3. Branch-and-Bound und Varianten. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 98 / 159 Kapitel 3 und Varianten Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 98 / 159 Inhalt Inhalt 3 und Varianten Anwendungsbeispiele Branch-and-Cut Peter Becker (H-BRS) Operations Research

Mehr

Teil 5: Lineare Programmierung. (Blum, Kapitel 8)

Teil 5: Lineare Programmierung. (Blum, Kapitel 8) Teil 5: Lineare Programmierung (Blum, Kapitel 8) Was sind Optimierungsprobleme? Eingabe: Menge F von zulässigen Lösungen. Zielfunktion z:f R. Aufgabe: Finde x F, so dass x F : z(x) z(x ). (für Minimierungsprobleme)

Mehr

Berufliches Gymnasium (WG, EG, AG, SG) Hauptprüfung 2008 Teil 2, Lineare Optimierung, Aufgabe 2 Baden-Württemberg

Berufliches Gymnasium (WG, EG, AG, SG) Hauptprüfung 2008 Teil 2, Lineare Optimierung, Aufgabe 2 Baden-Württemberg Berufliches Gymnasium (WG, EG, AG, SG) Hauptprüfung 8 Teil, Lineare Optimierung, Aufgabe Baden-Württemberg.. Ein Fertigungsbetrieb für Frottierartikel stellt unter anderem Handtücher und Badetücher her.

Mehr

H. Meyerhenke: Kombinatorische Optimierung. Paralleles Rechnen, Institut für Theoretische Informatik, Fakultät für Informatik

H. Meyerhenke: Kombinatorische Optimierung. Paralleles Rechnen, Institut für Theoretische Informatik, Fakultät für Informatik VORLESUNG 13 Smoothed Analysis des Simplex-Algorithmus Nach Heiko Röglin, Universität Bonn, Vorlesungsskript Introduction to Smoothed Analysis vom 9. Januar 2012 78 Wiederholung Simplex-Algorithmus! Korrektheit:!

Mehr

10. Komplexität der Linearen Optimierung und Innere Punkte Methoden

10. Komplexität der Linearen Optimierung und Innere Punkte Methoden 56 10.1 LP ist in NP! conp... 57 10.2 Zur Laufzeit des Simplexalgorithmus... 58 10.3 Die Ellipsoidmethode... 59... 60 10.1 LP ist in NP! conp 57-1 Wichtigste Aussagen dieses Kapitels (alle ohne vollständigen

Mehr

Optimierungsverfahren in der Transportlogistik

Optimierungsverfahren in der Transportlogistik Optimierungsverfahren in der Transportlogistik Jakob Puchinger 1 1 Dynamic Transportation Systems, arsenal research Jakob Puchinger (arsenal research) Optimierungsverfahren in der Transportlogistik 1 /

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2009)

Vorlesung Lineare Optimierung (Sommersemester 2009) 1 Vorlesung Lineare Optimierung (Sommersemester 2009) Kapitel 7: Der Simplex-Algorithmus Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 18. Juni 2009) Gliederung 2 Ecken, Kanten, Extremalstrahlen

Mehr

mit. Wir definieren (Skalarprodukt = Winkel).

mit. Wir definieren (Skalarprodukt = Winkel). 1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert

Mehr

Inhaltsverzeichnis. 4 Praxisbeispiel 7

Inhaltsverzeichnis. 4 Praxisbeispiel 7 Inhaltsverzeichnis Geschichte und Entwicklung. Grundidee................................2 George B. Dantzig...........................3 Diäten-Problem von G.J. Stigler.................. 2.4 John von Neumann

Mehr

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung 8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen

Mehr

Grundlagen der Optimierung. Übung 6

Grundlagen der Optimierung. Übung 6 Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren

Mehr

3. Schnittebenenverfahren

3. Schnittebenenverfahren 3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform

Mehr

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008 Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung

Mehr

Operations Research. Linearoptimierung. Bearbeitet von Peter Stingl

Operations Research. Linearoptimierung. Bearbeitet von Peter Stingl Operations Research Linearoptimierung earbeitet von Peter Stingl Auflage 22 uch 76 S Hardcover ISN 978 446 228 8 Format ( x L): 4,5 x 2 cm Gewicht: 26 g Wirtschaft > etriebswirtschaft: Theorie & Allgemeines

Mehr

3.4 Exakte Verfahren für (Gemischt-) Ganzzahlige Optimierung

3.4 Exakte Verfahren für (Gemischt-) Ganzzahlige Optimierung 32KAPITEL 3. NP-SCHWIERIGE KOMBINATORISCHE OPTIMIERUNGSPROBLEME n Anzahl der Ungleichungen 3 8 4 20 5 40 6 910 7 87.472 8 >488.602.996 Tabelle 3.1: Anzahl der Ungleichungen des LOP-Polytops für n 8 3.4

Mehr

Lineare Programmierung

Lineare Programmierung Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in

Mehr

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Kapitel 11 Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Wir betrachten folgendes Optimierungsproblem z = c T x min! Ax = b (11.1) (11.2) x j ganz für j = 1,..., n 1 n, (11.3)

Mehr

Ganzzahlige Optimierung (IP)

Ganzzahlige Optimierung (IP) Thema Ganzzahlige Optimierung (IP) Systematik * Problematik * Pragmatik IP und Branch and Bound 1 Agenda 1. Relevanz der Ganzzahligkeit? 2. Formulierung ganzzahliger Modelle 3. Zur Lösung ganzzahliger

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 7

Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 7 Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt

Mehr

Lineare Optimierung und Simplex-Algorithmus

Lineare Optimierung und Simplex-Algorithmus Lineare Optimierung und Simplex-Algorithmus Problemstellung Beispiel : Unser Unternehmen verfügt über drei Maschinen A, B, C, mit denen zwei verschiedene Produkte P, P2 hergestellt werden. Die Maschinen

Mehr

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare

Mehr

6 Korrektheit des Simplexalgorithmus

6 Korrektheit des Simplexalgorithmus 6 Korrektheit des Simplexalgorithmus Folgerung: Es sei L: Ax = b, c T x max LP und A B nicht-degenerierte PZB von L und es gebe c r := c r c B A B A r > 0 a) Falls a r := A B a r 0, dann L unbeschränkt

Mehr

10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G

10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G 48 0 Operations Research In der Standardform eines Maximierungsproblem: Max ( w) mit ( w) + u. d. N. z + x l + n ( a gj + j= g G e E n d j x j = z 0 j= n a l j x j = b l für alle l L j= x g n + a gj x

Mehr

9 Lineare Gleichungssysteme

9 Lineare Gleichungssysteme 9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der

Mehr

Kap. 4.2: Simplex- Algorithmus

Kap. 4.2: Simplex- Algorithmus Kap. 4.: Simplex- Algorithmus Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS Fakultät für Informatik, TU Dortmund Literatur für diese VO V. Chvatal: Linear Programming D. ertsimas:

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2010)

Vorlesung Lineare Optimierung (Sommersemester 2010) 1 Vorlesung Lineare Optimierung (Sommersemester 2010) Kapitel 6: Die Geometrie der Linearen Optimierung Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 15. Juni 2010) Gliederung 2 Das

Mehr

Simplex-Verfahren. Kapitel 3. Simplex-Verfahren. Peter Becker (H-BRS) Lineare und kombinatorische Optimierung Wintersemester 2017/ / 372

Simplex-Verfahren. Kapitel 3. Simplex-Verfahren. Peter Becker (H-BRS) Lineare und kombinatorische Optimierung Wintersemester 2017/ / 372 Kapitel 3 Simplex-Verfahren Peter Becker (H-BRS) Lineare und kombinatorische Optimierung Wintersemester 2017/18 104 / 372 Inhalt Inhalt 3 Simplex-Verfahren Primaler Simplexalgorithmus Unbeschränktheit

Mehr

4 Lineare Optimierung

4 Lineare Optimierung 4 Lineare Optimierung In diesem Kapitel werden wir uns mit effizienten Verfahren im Bereich der linearen Optimierung beschäftigen. 4.1 Einführung Als Einführung betrachten wir das Beispiel einer Erdölraffinerie.

Mehr

Hauptsatz und Optimalitätskriterium der Simplexmethode

Hauptsatz und Optimalitätskriterium der Simplexmethode Kapitel 4 Hauptsatz und Optimalitätskriterium der Simplexmethode In diesem Abschnitt wird das wichtigste Verfahren zur Lösung linearer Optimierungsprobleme eingeführt die Simplexmethode Es existiere für

Mehr

Optimierungsalgorithmen

Optimierungsalgorithmen Optimierungsalgorithmen Jakob Puchinger Algorithmen und Datenstrukturen 2 Arbeitsbereich für Algorithmen und Datenstrukturen Institut für Computergraphik und Algorithmen Technische Universität Wien Übersicht

Mehr

Vorkurs Mathematik. Übungen Teil IV

Vorkurs Mathematik. Übungen Teil IV Vorkurs Mathematik Herbst 009 M. Carl E. Bönecke Skript und Übungen Teil IV. Folgen und die Konstruktion von R Im vorherigen Kapitel haben wir Z und Q über (formale) Lösungsmengen von Gleichungen der Form

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

Effiziente Algorithmen II

Effiziente Algorithmen II 10. Präsenzaufgabenblatt, WiSe 2014/15 Übungstunde am 19.01.2015 Aufgabe Q Betrachten Sie das Knapsackpolytop P = conv(v ) mit V = {x n i=1 a ix i α} {0, 1} n für gegebenes α und a i 0 (insbesondere ist

Mehr

3.6 Branch-and-Bound-Verfahren

3.6 Branch-and-Bound-Verfahren 36 Branch-and-Bound-Verfahren Die Branch-and-Bound -Methode beruht darauf, auf eine intelligente Weise alle zulässigen Lösungen eines kombinatorischen Optimierungsproblems aufzulisten und mit Hilfe von

Mehr

Mathematik für Studierende der Biologie und des Lehramtes Chemie

Mathematik für Studierende der Biologie und des Lehramtes Chemie Einführung I Mathematik für Studierende der Biologie und des Lehramtes Chemie Dominik Schillo Universität des Saarlandes 007 (Stand: 007, 4:9 Uhr) Wie viel Kilogramm Salzsäure der Konzentration % muss

Mehr

7.1 Matrizen und Vektore

7.1 Matrizen und Vektore 7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit

Mehr

Wann darf man Runden? Niveaumengenansatz für die nichtlineare ganzzahlige Programmierung

Wann darf man Runden? Niveaumengenansatz für die nichtlineare ganzzahlige Programmierung Wann darf man Runden? Niveaumengenansatz für die nichtlineare ganzzahlige Programmierung Diplomarbeit vorgelegt von Ruth Hübner aus München angefertigt im Institut für Numerische und Angewandte Mathematik

Mehr

Betriebliche Optimierung

Betriebliche Optimierung Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 22 1 Das Travelling Salesperson Problem

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Lineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010

Lineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010 Lineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010 FAKULTÄT FÜR I NFORMATIK, I NSTITUT FÜR T HEORETISCHE I NFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

z = c T x : Ax = b, x 0 }, - die Darstellung der Nichtbasisvektoren durch die Basis ist

z = c T x : Ax = b, x 0 }, - die Darstellung der Nichtbasisvektoren durch die Basis ist Kapitel 5 Die Simplexmethode Es werden folgende Bezeichnungen verwendet: - das untersuchte Problem ist min x R n { z = c T x : Ax = b, x 0 }, - die erste zulässige Basislösung sei x = x 1, x 2,, x m, 0,,

Mehr

Übungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung.

Übungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung. Übungsaufgaben Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler Teil : Lineare Algebra und Optimierung Wintersemester Matrizenrechnung Aufgabe ( 3 0 Gegeben sind die Matrizen A = 2 5 2 4 D =

Mehr

1 Lineare Optimierung, Simplex-Verfahren

1 Lineare Optimierung, Simplex-Verfahren 1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und

Mehr

Chinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151

Chinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151 Inhaltsverzeichnis 1 Kernkonzepte der linearen Optimierung... 1 1.1 Einführung... 1 1.2 Grundlegende Definitionen... 8 1.3 Grafische Lösung... 10 1.4 Standardform und grundlegende analytische Konzepte...

Mehr

Lineares Optimieren. W. Kippels 12. April Inhaltsverzeichnis. 1 Einleitung 2. 2 Die Beispielaufgabe 2. 3 Einführung von Schlupfvariablen 2

Lineares Optimieren. W. Kippels 12. April Inhaltsverzeichnis. 1 Einleitung 2. 2 Die Beispielaufgabe 2. 3 Einführung von Schlupfvariablen 2 Lineares Optimieren W. Kippels 1. April 015 Inhaltsverzeichnis 1 Einleitung Die Beispielaufgabe Einführung von Schlupfvariablen 4 Die Simplex-Methode 5 Das Basis-Austauschverfahren 4 6 Fortsetzung der

Mehr

Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme

Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien

Mehr