Optimierung. Zusammenfassung

Größe: px
Ab Seite anzeigen:

Download "Optimierung. Zusammenfassung"

Transkript

1 Optimierung Zusammenfassung

2 Inhalte 1. Lineare Programmierung 2. Simplexalgorithmus 3. Ellipsoidmethode 4. Dualität 5. Ganzzahligkeit 6. Facility Location 7. Randomisiertes Runden 8. Branch and Bound & Heuristiken 9. Selfish Flows, Spieltheorie&Optimierung 2

3 1. Lineare Programmierung Kanonische Form: Maximiere c T x unter Ax b, x 0. Probleme als LP modellieren Transformation beliebiger LPs in die kanonische Form Geometrische Anschauung: Nebenbedingungen definieren Halbräume Gleichungen entsprechen Hyperebenen Lösungspolyhedron P Lösungsraum konvex Lokales Optimum auch global optimal 3

4 2. Simplexalgorithmus Optimum ist ein Knoten ( Eckpunkt ) Idee des SIMPLEX Algorithmus: Lokale Suche über die Knoten 1. Bestimme einen beliebigen Knoten v von P. 2. Falls es keine verbessernde Kante inzident zu v gibt, dann ist v optimal, stopp. 3. Folge einer beliebigen verbessernden Kante e von v. Falls e unbeschränkt ist so ist das LP unbeschränkt, stopp. 4. Sei u der andere Endpunkt von e. Setze v = u. Gehe zu Schritt 2. 4

5 Simplex im Rechner Umwandlung des LP in Gleichungsform. Eine Auswahl von genau m Spalten B ist eine Basis falls die Vektoren in B linear unabhängig sind. Basis: A B x B + A N x N = b Gleichungssytem von links mit A B 1 multiplizieren und erhalte Âx = b bzw. x B +  N x N = b x B = b  N x N, Basisvariablen als Funktion der NBV. für x N = 0 ist dann x B = b und wir erhalten die Basislösung x B, x N = (b, 0). Basislösungen entsprechen Schnittpunkten von d Nebenbedingungen des entprechenden kanonischen LPs. 5

6 Reduzierte Kosten und Pivotschritt Reduzierte Kosten c j m c B k â kj k=1 Satz 2.1 Falls der Vektor der reduzierten Kosten zu einer Basis B keinen positiven Eintrag enthält, so ist B optimal. Pivotschritt: Eingangspivotspalte j: Spalte mit positiven reduzierten Kosten. Ausgangspivotspalte i: Fall 1: Alle â ij 0. x j kann beliebig erhöht werden. LP unbeschränkt. Fall 2: Es gibt mindestens ein i {1,, m} mit â ij > 0. Wähle i = argmin 1 k m Und setzte x j = b i â ij. b k â kj â kj > 0 6

7 Initiale Basislösung, Komplexität und Laufzeit Initiale Basislösung durch ein HilfsLP Zahlen wachsen von α auf höchstens αm m+1 im Laufe des Algorithmus, Cramersche Regel Pivotschritt deshalb in polynomieller Zeit durchführbar. Anzahl der Pivotschritte im Worst-Case aber exponentiell. (Klee-Minty-Cube) Simplex ist kein Polynomzeitalgorithmus! 7

8 Degenerierte LPs Bei degenerierten LP kann es vorkommen, dass in einem Pivotschritt eine oder mehrere Basisvariablen den Wert 0 haben. Wenn man die falschen Spalten austauscht so terminiert der Simplexalgorithmus nicht. Lösungen: 1. Blands Pivotregel: Wähle die Eingangsspalte A j und die Ausgangsspalte A B(i), mit möglichst kleinem Index. 2. Pertubierung 8

9 Pertubierung Satz 2.4 Es gibt ein δ > 0, so dass für jedes ε (0, δ) gilt: a) LP(ε) ist nicht-degeneriert. b) Jede zulässige Basis für LP(ε) ist auch zulässig für LP. c) Jede optimale Basis für LP(ε) ist auch optimal für LP. Bemerkung 2.5 Sei α der Absolutwert des größten Nenners bzw. Zählers der Eingabezahlen von LP. Die Aussagen in Satz 2.4 gelten für ε = 1 αm 2m. Die Eingabelänge von LP(ε) ist damit 2 polynomiell in der Eingabelänge von LP beschränkt 9

10 3.Ellipsoidmethode Ellipsoidmethode Zulässigkeitstest Transformationsschritte Innere und Äußere Kugel Methode: Durch Mittelpunklt verletzte Nebenbedingung Halbraum H E-halbe Ellipse E Gesamtlaufzeit: Volumenargument 10

11 Zulässigkeit vs. Optimieren Satz 3.1 Existiert ein polynomieller Algorithmus A, der entscheidet, ob ein System von linearen Ungleichungen eine Lösung besitzt, so existiert auch ein polynomieller Algorithmus zur Lösung von LPs. Beweisidee: Zielfunktionsschranke als Nebenbedingung. - Binäre Suche. - Größe der Eingabe (-zahlen) beachten. 11

12 Der Zuässigkeitstest A Vorbereitung: Lemma 3.3 Ein lineares Ungleichungssystem LI der Eingabelänge L kann in polynomieller Zeit in ein lineares Ungleichungssystem LI* mit den folgenden Eigenschaften transformiert werden. a) LI* hat genau dann eine Lösung, wenn LI eine Lösung hat. b) Der Lösungsraum von LI* ist in einer Kugel um den Ursprung mit Radius höchstens 2 O(L2 ) enthalten. c) Wenn der Lösungsraum von LI* nicht leer ist, so enthält er O L4 eine Kugel mit Radius mindestens 2 d) Die Eingabelänge von LI* ist beschränkt durch O(L 2 ). 15

13 Die Schritte 1. Initiale Ellipsoid E: Kugel um den Ursprung mit Radius u. Nach Annahmen ist nach diesem Schritt S in E enthalten. 2. Falls das Volumen von E kleiner als das Volumen der Kugel mit Radius l ist, terminiere mit der Ausgabe S =. 3. Sei z der Mittelpunkt von E. Wir testen, ob z S, d.h. ob z alle Nebenbedingungen erfüllt. Falls ja, terminiere mit der Ausgabe S. 4. Identifizieren einen Halbraum H der S enthält: Wähle Ungleichung die von z verletzt wird. Verschiebe die dazugehörige Hyperebene parallel so, dass sie durch z verläuft. Bezeichne die Seite auf der S liegt mit H sowie den Schnitt von H und E mit E-halbe. Berechne nun die kleinste Ellipse E die E-halbe enthält. 5. Setzt E = E und gehe zu Schritt 2. 16

14 Laufzeit Volumenargument Lemma 3.4 Für den in Schritt 4 berechneten Ellipsoid E gilt vol E vol E n+1 Beweis nur für Dimension n = 2 und n = 3. Annahme E ist Kreis mit Radius 1 und Mittelpunkt (0,0) und H ist der Halbraum links der y-achse. 17

15 4. Dualität Definition 4.1 Wir betrachten das folgende LP in der kanonischen Form Maximiere c T x unter Ax b, x R d 0. Die Anzahl der Nebenbedingungen (ohne die Nichtnegativitätsbedingungen) sei m. Dieses LP bezeichnen wir als primales LP. Das zugehörige duale LP ist definiert als Minimiere y T b unter y T A c T m, y R 0 oder äquivalent Minimiere b T y unter A T y c T, y R m 0. 18

16 Schwache Dualität Satz 4.2 Das duale LP des dualen LPs ist das primale LP. Satz 4.3 (Schwaches Dualitätsprinzip) Sei x eine zulässige Lösung für das primale LP und y eine zulässige Lösung für das duale LP. Es gilt y T b c T x. 19

17 Das starke Dualitätsprinzip Satz 4.4 Sei x eine optimale Lösung für das primale LP und y eine optimale Lösung für das duale LP. Es gilt y T b = c T x. Beweisidee: 1. Gleichungsform, x* optimale Lösung 2. Kosten von x* hängen nur von den (nicht-schlupf-) Basisvariablen ab. 3. Vektor der reduzierten Kosten gibt uns 2 Ungleichungen 4. Konstruiere y*, Gleicher Wert, nutze die Ungleichungen aus 3. um Zulässigkeit zu zeigen 20

18 Anmerkungen Nicht nur gleicher Zielfunktionswert: Wir können aus optimaler primalen Basislösung eine optimale duale Basislösung konstruieren. Laufzeit O(min m 3, d 3 ), für die Berechnung von A Komplementärer Schlupf (complementary slackness) x und y sind optimal, genau dann wenn y i a i T x b i = 0 für alle i = 1,, m und (1) c j A j T y x j = 0 für alle j = 1,, n. (2) 21

19 5. Ganzzahligkeit Integer Linear Programs LP Optimum ILP Optimum Lösungsraum Ax = b, x 0 Zielfunktion Im Allgemeinen NP-schwer 22

20 Totale Unimodularität (Gleichungsform) Definition 5.1 Eine ganzzahlige quadratische Matrix wird als unimodular bezeichnet, wenn ihre Determinante den Wert 1 oder 1 hat. Eine ganzzahlige Matrix A wird als total unimodular bezeichnet, wenn jede quadratische, reguläre Teilmatrix von A unimodular ist. Satz 5.2 Betrachte ein LP in Gleichungsform Ax = b. Ist A total unimodular, so sind alle Basislösungen dieses LPs ganzzahlig. 23

21 Beweis Satz 5.2 Sei B eine Basis von A. Die Basislösung zu B wird durch die Gleichung A B x B = b beschrieben. Die Matrix A B ist dabei eine quadratische Teilmatrix von A, die durch die Spalten in B gebildet wird. Das Umsortieren der Spalten ändert nur das Vorzeichen der Determinante. Somit ist A B unimodular. Nach der Cramerschen Regel gilt x B(i) = det (A B(1),, A B(i 1), b, A B(i+1),, A (m) ) det (A B ) Die Determinante im Zähler ist ganzzahlig, und die Determinante im Nenner hat den Wert 1 oder -1, da A B unimodular ist. 24

22 Totale Unimodularität (kanonische Form) Satz 5.3 Betrachte ein LP in kanonischer Form Ax b. Ist A total unimodular, so sind alle Basislösungen dieses LPs ganzzahlig. Beweis Transformation in Gleichungsform Zeige, dass beliebige, quadratische Teilmatrix von (A E m ) unimodular. 25

23 Matrizen, die total unimodular sind. Satz 5.4 Eine ganzzahlige Matrix A mit Einträgen aus { 1,0,1} ist total unimodular, wenn nicht mehr als zwei nicht-nullwertige Einträge pro Spalte vorliegen, und wenn die Zeilen in zwei Mengen I 1 und I 2 eingeteilt werden können, die die folgenden Bedingungen erfüllen: a) Falls eine Spalte zwei Einträge mit demselben Vorzeichen enthält, so sind die entsprechenden Zeilen unterschiedlichen Mengen zugeordnet. b) Falls eine Spalte zwei Einträge mit unterschiedlichem Vorzeichen enthält, so sind die entsprechenden Zeilen derselben Menge zugeordnet. 26

24 Inzidenzmatrizen Korollar 5.5 Ein LP in Standardform oder in kanonischer Form hat nur ganzzahlige Basislösungen, wenn die Nebenbedingungsmatrix (oder ihre Transponierte) der Inzidenzmatrix eines gerichteten Graphen oder der Inzidenzmatrix eines bipartiten ungerichteten Graphen entspricht. 27

25 6. Facility Location Menge von Facilities F (z.b. Standorte für Krankenhäuser) Betriebskosten c j Menge von Clients C (z.b. Patienten) Verbindungskosten zu Facility j: a ij (z.b. Entfernungskosten zum Krankenhaus) Wähle eine Teilmenge der Facilities und weise jedem Client einer dieser Facilities zu, so dass die Summe aus Betriebskosten und Verbindungskosten minimiert wird. 28

26 Interpretation des Dualen LPs Jede Facility i bekommt von Client j ein Zahlung von β ij Insgesamt höchsten so viel wie die Kosten für die Facility Jeder Client j hat Kosten von α j die gedeckelt sind durch die Zahlung(en) an die Facilities β ij und Entfernungskosten c ij α j ist der Teil der Gesamtkosten die Client j übernimmt. 29

27 Algorithmus Phase 1: Wir erzeugen eine duale Lösung (α, β). Schrittweise a j erhöhen, und ggf. β ij Facility öffnen sobald β ij > f i Phase 2: Primale Lösung erzeugen (x, y) Nur einen Teil der Facilities aus Phase 1 öffnen. Maximale unabhängige Menge Analyse: Benutze die relaxierten Schlupfbedingungen mit (α, β) und (x, y). Dreiecksungleichung für indirekt verbundene Clients 30

28 7. Randomisiertes Runden und Set Cover Set Cover H n -Approximation mit Greedy Set Cover (k) Mengen mit Cadinalität höchstens k H k -Approximation mit Greedy f-set Cover Jedes Elements kommt in max. f Mengen vor f-approximation durch LP Relaxation und deterministisches Runden Set Cover 4 ln(4n)-approximation durch LP Relaxation und randomisiertes Runden 32

29 Set Cover: 4 ln(4n)-approximation Wir berechnen mehrere gerundete Lösungen und nehmen alle gewählten Mengen gleichzeitig: Algorithmus 3 1. Sei x die optimale Lösung des relaxierten LP 2. FOR i = 1 TO ln(4n) a) FOR j = 1 TO m: Wähle S j mit W keit x j b) Sei C i die Menge aller in dieser Iteration gewählten Teilmengen. 3. Ausgabe: C = C 1 C ln (4n) 33

30 Analyse Lemma 1 Die Wahrscheinlichkeit, dass C kein gültiges Set Cover ist, ist höchstens 1 4. Beweisidee Betrachte eine Cover C j : Element u in t Mengen in relaxierter Lösung. Im schlimmsten Fall: W keit, dass alle abgerundet werden t t e Das es bei allen Covern passiert: 1 e ln(4n) 1 4n 34

31 Analyse Lemma 2 Das erwartete Gewicht E[w C ] des Covers C ist höchstens ln(4n) OPT frac. Beweis Jedes einzelne Cover C i kostet OPT frac in Erwartung. Also kostet die Vereinigung von ln(4n) vielen höchstens ln(4n) OPT frac Lemma 3 Pr[w C 4 ln 4n OPT frac ] 1/4 Beweis t = 4 ln 4n OPT frac Markov Ungleichung Sei X eine Zufallsvariable die keine negativen Werte animmt. Dann gilt für jedes positive t Pr X t E[X]/t 35

32 Theorem Ergebnis Mit Wahrscheinlichkeit 1/2 berechnet Algorithmus 3 ein Set Cover das eine 4 ln(4n)-approximation ist. Beweis: a) Mit W keit ¾ ein gültiges Set Cover (Lemma 1) b) Mit W keit ¾ Kosten 4 ln(4n) OPT (Lemma 3) Wahrscheinlichkeit für a) und b) gleichzeitig mindestens ½. 36

33 8. Branch & Bound und Heuristiken 1. Branch & Bound Exaktes Verfahren, Optimalität der Lösung ist garantiert. Schlechte Laufzeit im ungünstigen Fällen 2. Heuristiken und Suchverfahren Können zu beliebigen Zeitpunkten gestoppt werden. Lösungen sind möglicherweise nicht optimal a) Lokale Suche b) Simulated Annealing c) Metropolis d) Evolutionäre Algorithmen 37

34 Branch and Bound Module Branching Modul: Zerlegt Problem in zwei oder mehr Teilprobleme Lösungsmenge eines Teilproblem Teilmenge Selben Zielfunktionswert wie im Ursprungsproblem. Die Teilprobleme decken das Gesamtproblem ab. Die beste Lösung aller Lösungen aller Teilprobleme ist optimale Lösung des Gesamtproblems. Upper Bound Modul, Lower Bound Modul Berechnen obere bzw. untere Schranken für den Zielfunktionswert eines Teilproblems. Z.B. mit Relaxierung (obere) bzw. Greedy (untere Schranke) Search Modul Entscheidet welches Teilproblem als nächstes zerlegt werden soll 38

35 Heuristiken Lokale Suche, Nachbarschaft Metropolis: Schlechtere neue Nachbarschaftslösung x wird akzeptiert mit W keit: x f x f e T Simulated Annealing: T wird im Verlauf kleiner Evolutionäre Algorithmen Inspiriert durch biologische Evolution mit Selektion (natürliche Auslese, survival of the fittest ), Rekombination (Kreuzung) und Mutation (kleine, zufällige Änderungen) 39

36 9. Selfish Flows, Spieltheorie&Optimierung Das Verkehrsmodell von Wardrop Graph G = (V, E) Für jede Kante e E eine Latenzfunktion l e : R R. Demand: q i, s i, d i V V R + Fluss der Menge d i von q i nach s i Jeder Flusspartikel wählt selbst seine Route. Fluss auf einer Kante e: f e = P:e P f p Latenz, Verzögerung einer Kante: l e (f e ) Auf einem Pfad entsprechend: l P f = l e (f e ) e P 40

37 Wardrop Gleichgewicht Definition Ein Fluss f ist im Gleichgewicht, wenn für jedes Paar P 1, P 2 P i mit f P1 > 0 gilt, dass l P1 f l P2 (f). Existenzbeweis durch Existenz einer Lösung für: Minimiere Φ f = l e t dt e E Unter den Nebenbedingungen, dass f ein gültiger Fluss ist, der alle Demands erfüllt. f e 0 41

38 Preis der Anarchie Definition Price of Anarchy (PoA) Der Preis der Anarchie ρ = max C(f) C(f ) wobei f ein Gleichgewichtsfluss und f der optimale Fluss ist. Worst-Case-Ratio zwischen einem Gleichgewichts- und einem optimalen Fluss. Theorem Der Price der Anarchie von Instanzen mit linearen Latenzfunktionen ist

39 Braess Paradoxon Ohne zusätzliche Kante: Gleichgewicht ist optimal: = 1,5 Mit zusätzlicher Kante: Neues Gleichgewicht hat Kosten: = 2 44

40 Congestion Games [Rosenthal 73] Die diskrete oder auch atomare Version des Wardrop Modells. Menge von Spielern N = {1,, n} Fahrzeuge Graph G = V, E Straßennetz Mit Latenzfunktionen l e : N N Und einem Quelle/Senke Paar q i, s i für jeden Spieler i N Latenzfunktion bildet die Anzahl der Spieler auf die Latenz der Kante ab. 45

41 Existenz von Gleichgewichten und Konvergenz der lokalen Suche exakte Potentialfunktion: f e Φ f = l e (i) e E i=1 Jedes (lokale) Minimum von Φ f ist ein Gleichgewicht. Lokale Nachbarschaft einer Lösung f: Die Menge der Lösungen die sich von f nur durch die Wahl eines Spielers unterscheiden. Verbessert sich ein Spieler um Δ, dann sinkt Φ um Δ. Im (lokalen) Minimum kann es also einen solchen Spieler nicht geben. 46

42 Klausur Datum: Uhrzeit: 11:00-13:00 Raum: O1 Schriftliche Klausur Erlaubte Hilfsmittel: Stift. Ein einseitig, handschriftlich beschriebenes DIN A4 Blatt. Selbst geschrieben, nicht ausgedruckt oder kopiert. Studierendenausweis nicht vergessen. 47

Optimierung. Vorlesung 08

Optimierung. Vorlesung 08 Optimierung Vorlesung 08 Heute Dualität Ganzzahligkeit Optimierung der Vorlesung durch Evaluierung 2 Das duale LP Das primale LP Maximiere c T x unter Ax b, x R d 0. wird zu dem dualen LP Minimiere b T

Mehr

Optimierung. Vorlesung 12

Optimierung. Vorlesung 12 Optimierung Vorlesung 12 Letze Woche Approximieren von ILP durch randomisiertes Runden. Beispiel Set Cove Relaxiertes LP lösen und runden. Probleme: 1. Zielfunktionswert 2. Zulässigkeit 1. Linearität des

Mehr

Optimierung. Vorlesung 02

Optimierung. Vorlesung 02 Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j

Mehr

Optimierung. Vorlesung 04

Optimierung. Vorlesung 04 Optimierung Vorlesung 04 Übungsbetrieb Mangels Teilnehmer keine Dienstagsübung mehr. Prüfung laut Paul: Di, 10. Feb. 2015 00:01-23:59 2 Was bisher geschah LP: Maximiere c T x unter Ax = b, x 0. Basis:

Mehr

Optimierung. Vorlesung 9

Optimierung. Vorlesung 9 Optimierung Vorlesung 9 Heute Facility location problem 1. Komplemetärer Schlupf 2. Das Facility Location Problem 3. Problemstellung LP, Duales, Schlupf Eine Approximationsalgorithmus Analyse und Beweis

Mehr

Optimierung. Vorlesung 13

Optimierung. Vorlesung 13 Optimierung Vorlesung 13 Letze Woche Branch&Bound Suchbaum Nach Möglichkeit nicht komplett durchsuchen Abschätzungen nach oben und unten Suchheuristiken Randomisierte Lokale Suche Simulated Annealing Metropolis

Mehr

Einführung in die Lineare Programmierung

Einführung in die Lineare Programmierung Einführung in die Lineare Programmierung Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 RWTH Aachen 28. Mai 2008 Elementares Beispiel Die kanonische Form Die algebraische Gleichungsform Gegeben seien

Mehr

KAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN

KAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN KPITEL 6 GNZZHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULRE MTRIZEN F. VLLENTIN,. GUNDERT. Ganzzahlige lineare Programme Viele Optimierungsprobleme des Operations Research lassen sich als ganzzahlige lineare

Mehr

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2005/2006

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2005/2006 Universität Hannover Wirtschaftswissenschaftliche Fakultät Lehrstuhl für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 005/006

Mehr

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung

Mehr

Braess-Paradoxon und der Preis der Anarchie

Braess-Paradoxon und der Preis der Anarchie Algorithmische Spieltheorie Sommer 208 Wardropspiele Existenz und Eindeutigkeit von Wardrop-Gleichgewichten Verkehrsmodell von Wardrop Ein Wardropspiel ist gegeben durch einen gerichteten Graphen G = (V,

Mehr

Braess-Paradoxon und der Preis der Anarchie

Braess-Paradoxon und der Preis der Anarchie Algorithmische Spieltheorie Sommer 207 Wardropspiele Existenz und Eindeutigkeit von Wardrop-Gleichgewichten Verkehrsmodell von Wardrop Ein Wardropspiel ist gegeben durch einen gerichteten Graphen G = (V,

Mehr

Optimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn

Optimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn Optimierung Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung 1 Assignment Problem (Zuordnungsproblem) Gewichtetes Perfektes Bipartites Matching agents Costs tasks Weise jedem Agenten genau

Mehr

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,

Mehr

6 Korrektheit des Simplexalgorithmus

6 Korrektheit des Simplexalgorithmus 6 Korrektheit des Simplexalgorithmus Folgerung: Es sei L: Ax = b, c T x max LP und A B nicht-degenerierte PZB von L und es gebe c r := c r c B A B A r > 0 a) Falls a r := A B a r 0, dann L unbeschränkt

Mehr

Ecken des Zuordnungsproblems

Ecken des Zuordnungsproblems Total unimodulare Matrizen Ecken des Zuordnungsproblems Definition.6 Ein Zuordnungsproblem mit den Vorzeichenbedingungen 0 apple x ij apple für i, j =,...,n statt x ij 2{0, } heißt relaxiertes Zuordnungproblem.

Mehr

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur

Mehr

Gemischt-ganzzahlige und Kombinatorische Optimierung

Gemischt-ganzzahlige und Kombinatorische Optimierung 5. Präsenzaufgabenblatt, Sommersemester 2015 Übungstunde am 15.06.2015 Aufgabe J Betrachten Sie die LP-Relaxierung max c T x a T x b 0 x i 1 des 0/1-Knapsack-Problems mit n Gegenständen, c 0 und a > 0.

Mehr

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Ganzzahlige lineare Programme

Ganzzahlige lineare Programme KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.

Mehr

Die lineare Programmierung. Die Standardform 1 / 56

Die lineare Programmierung. Die Standardform 1 / 56 Die lineare Programmierung Die Standardform 1 / 56 Die Standardform der linearen Programmierung - Für n reellwertige, nichtnegative Variablen x 1 0,..., x n 0 erfülle die m linearen Gleichungen n a ij

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

H. Meyerhenke: Kombinatorische Optimierung. Paralleles Rechnen, Institut für Theoretische Informatik, Fakultät für Informatik

H. Meyerhenke: Kombinatorische Optimierung. Paralleles Rechnen, Institut für Theoretische Informatik, Fakultät für Informatik VORLESUNG 13 Smoothed Analysis des Simplex-Algorithmus Nach Heiko Röglin, Universität Bonn, Vorlesungsskript Introduction to Smoothed Analysis vom 9. Januar 2012 78 Wiederholung Simplex-Algorithmus! Korrektheit:!

Mehr

Vortrag 20: Kurze Vektoren in Gittern

Vortrag 20: Kurze Vektoren in Gittern Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die

Mehr

Algorithmen II Vorlesung am

Algorithmen II Vorlesung am Algorithmen II Vorlesung am 17.01.013 Parametrisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales

Mehr

Einführung in die Mathematik des Operations Research

Einführung in die Mathematik des Operations Research Universität zu Köln Mathematisches Institut Prof. Dr. F. Vallentin Einführung in die Mathematik des Operations Research Sommersemester 3 en zur Klausur (7. Oktober 3) Aufgabe ( + 3 + 5 = Punkte). Es sei

Mehr

Effiziente Algorithmen II

Effiziente Algorithmen II 10. Präsenzaufgabenblatt, WiSe 2014/15 Übungstunde am 19.01.2015 Aufgabe Q Betrachten Sie das Knapsackpolytop P = conv(v ) mit V = {x n i=1 a ix i α} {0, 1} n für gegebenes α und a i 0 (insbesondere ist

Mehr

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind

Mehr

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max

Mehr

Kap. 4: Lineare Programmierung

Kap. 4: Lineare Programmierung Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung

Mehr

Diskrete Optimierungsverfahren zur Lösung von Sudokus

Diskrete Optimierungsverfahren zur Lösung von Sudokus Diskrete Optimierungsverfahren zur Lösung von Sudokus Seminarvortrag von Daniel Scholz am 6. Dezember 2006 Am Beispiel der Lösung von Sudokurätseln mit Hilfe der linearen Optimierung werden verschiedenen

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2007)

Vorlesung Lineare Optimierung (Sommersemester 2007) 1 Vorlesung Lineare Optimierung (Sommersemester 007) Kapitel 9: Ganzzahlige Polyeder und Kombinatorische Dualität Volker Kaibel Otto-von-Guericke Universität Magdeburg Montag, 9. Juli 007 Gliederung Ganzzahlige

Mehr

Der Branching-Operator B

Der Branching-Operator B Branching 1 / 17 Der Branching-Operator B Unser Ziel: Löse das allgemeine Minimierungsproblem minimiere f (x), so dass Lösung(x). B zerlegt eine Menge von Lösungen in disjunkte Teilmengen. Die wiederholte

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach

Mehr

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008 Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG KLAUSUR ZUR LINEAREN ALGEBRA I Wiederholungsprüfung MUSTERLÖSUNG. April 2008 Name: Studiengang: Aufgabe 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter

Mehr

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25. Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme

Mehr

Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 7

Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 7 Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt

Mehr

Lineare Programmierung (2)

Lineare Programmierung (2) Inhalt Rückblick Motivation - linearen Programmierung Flussprobleme Multiple Warenflüsse Fortsetzung Simplex Algorithmus Initialisierung Fundamentalsatz der linearen Programmierung schwache Dualität Dualität

Mehr

Flüsse in Netzwerken

Flüsse in Netzwerken Skript zum Seminar Flüsse in Netzwerken WS 2008/09 David Meier Inhaltsverzeichnis 1 Einführende Definitionen und Beispiele 3 2 Schnitte in Flussnetzwerken 12 2.1 Maximaler s t Fluss..........................

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

Optimierung Optimization. Vorlesung 01

Optimierung Optimization. Vorlesung 01 Optimierung Optimization Vorlesung 01 Organisatorisches skopalik@mail.upb.de Büro: F1.209 (Sprechstunde nach Vereinbarung) Vorlesung: Freitags, 11:15 12:45, F0 053 Übungen: Dienstags, 13:15 14:00, F0 053

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform

Mehr

1 Einführung in Lineare Programme und Dualität

1 Einführung in Lineare Programme und Dualität Gliederung Inhaltsverzeichnis 1 Einführung in Lineare Programme und Dualität 1 1.1 Lineare Programme......................... 1 1.2 Dualität............................... 2 2 Grundlegende Sätze und Definitionen

Mehr

Klausur zur Vorlesung Operations Research im Sommersemester 2009

Klausur zur Vorlesung Operations Research im Sommersemester 2009 Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Operations Research im Sommersemester 2009 Hinweise:

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 16 Programm: Einführung

Mehr

Die duale Simplexmethode

Die duale Simplexmethode Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b

Wiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung

Mehr

Stefan Schmid TU Berlin & T-Labs, Berlin, Germany. Reduktionen in der Berechenbarkeitstheorie

Stefan Schmid TU Berlin & T-Labs, Berlin, Germany. Reduktionen in der Berechenbarkeitstheorie Stefan Schmid TU Berlin & T-Labs, Berlin, Germany Reduktionen in der Berechenbarkeitstheorie Problem: Wie komme ich von hier zum Hamburger Hbf? 2 Beispiel P1 Wie komme ich von hier zum Hamburger Hbf? kann

Mehr

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen

Mehr

Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber

Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Sitzplatznr.: Wiederholungsklausur zur Vorlesung Operations Research im Wintersemester

Mehr

Nash-Gleichgewichte in 2-Spieler Systemen. Katharina Klost Freie Universität Berlin

Nash-Gleichgewichte in 2-Spieler Systemen. Katharina Klost Freie Universität Berlin Nash-Gleichgewichte in 2-Spieler Systemen Katharina Klost Freie Universität Berlin Seminar über Algorithmen, 29.10.2013 Grundlegende Definitionen A Gewinnmatrix für Spieler 1, B Gewinnmatrix für Spieler

Mehr

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)

Minimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m) Minimumproblem Definition 4.7 Ein LP der Form nx Minimiere Z = c j x j j=1 unter den Nebenbedingungen nx d ij x j b i (i =1,...,m) j=1 und den Vorzeichenbedingungen x j 0(j =1,...,n) heißt Minimumproblem.

Mehr

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung 8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen

Mehr

Betriebliche Optimierung

Betriebliche Optimierung Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 22 1 Das Travelling Salesperson Problem

Mehr

Der LLL - Algorithmus. Seminar ganzzahlige Optimierung Wintersemester 2006/2007

Der LLL - Algorithmus. Seminar ganzzahlige Optimierung Wintersemester 2006/2007 Der LLL - Algorithmus Seminar ganzzahlige Optimierung Wintersemester 2006/2007 Autor: Konrad Schade Betreuer: Prof. Dr. J. Rambau 1 Einführung 1.1 Motivation In dieser Arbeit soll die Verwendung des LLL-Algotithmuses

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

Lösung allgemeiner linearer Programme

Lösung allgemeiner linearer Programme Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt

Mehr

Lineare Programmierung Teil I

Lineare Programmierung Teil I Seminar über Algorithmen Prof. Dr. Helmut Alt Lineare Programmierung Teil I Lena Schlipf, Benjamin Jankovic Lena Schlipf, Benjamin Jankovic Seminar über Algorithmen SS05 1 Struktur des Vortrags 1. Was

Mehr

Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2008/09 in Trier. Henning Fernau Universität Trier

Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2008/09 in Trier. Henning Fernau Universität Trier Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2008/09 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Näherungsalgorithmen Gesamtübersicht Organisatorisches Einführung / Motivation

Mehr

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005 Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung

Mehr

Effiziente Algorithmen Lineares Programmieren 216. Schwache Dualität

Effiziente Algorithmen Lineares Programmieren 216. Schwache Dualität Effiziente Algorithmen Lineares Programmieren 216 Schwache Dualität Sei wieder z = max{ c T x Ax b, x 0 } (P ) und w = min{ b T u A T u c, u 0 }. (D) x ist primal zulässig, wenn x { x Ax b, x 0 }. u ist

Mehr

Kap. 3: Exakte Lösungsverfahren für NPschwierige. Optimierungsprobleme VO Algorithm Engineering

Kap. 3: Exakte Lösungsverfahren für NPschwierige. Optimierungsprobleme VO Algorithm Engineering Kap. 3: Exakte Lösungsverfahren für NPschwierige kombinatorische Optimierungsprobleme VO Algorithm Engineering 3.1 Einführung Professor Dr. Petra Mutzel 3.2 Komb. vs. Ganzzahlige Opt. Lehrstuhl für Algorithm

Mehr

Lösungen von Übungsblatt 12

Lösungen von Übungsblatt 12 Lösungen von Übungsblatt 12 Algorithmen (WS 2018, Ulrike von Luxburg) Lösungen zu Aufgabe 1 Eine (kanonische) Möglichkeit, die Branch-Schritte auszuführen ergibt sich wie folgt: Das ursprüngliche Problem

Mehr

3.4 Exakte Verfahren für (Gemischt-) Ganzzahlige Optimierung

3.4 Exakte Verfahren für (Gemischt-) Ganzzahlige Optimierung 32KAPITEL 3. NP-SCHWIERIGE KOMBINATORISCHE OPTIMIERUNGSPROBLEME n Anzahl der Ungleichungen 3 8 4 20 5 40 6 910 7 87.472 8 >488.602.996 Tabelle 3.1: Anzahl der Ungleichungen des LOP-Polytops für n 8 3.4

Mehr

Schnittebenenverfahren für das symmetrische

Schnittebenenverfahren für das symmetrische Schnittebenenverfahren für das symmetrische TSP Sebastian Peetz Mathematisches Institut Universität Bayreuth 19. Januar 2007 / Blockseminar Ganzzahlige Optimierung, Bayreuth Gliederung 1 Das symmetrische

Mehr

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen 10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie

Mehr

Betriebswirtschaftliche Optimierung

Betriebswirtschaftliche Optimierung Institut für Statistik und OR Uni Graz 1 Das Travelling Salesperson Problem 2 Das Travelling Salesperson Problem Zentrales Problem der Routenplanung Unzählige wissenschaftliche Artikel theoretischer sowie

Mehr

Übungsblatt 6 Lösungsvorschläge

Übungsblatt 6 Lösungsvorschläge Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Lösungsvorschläge Vorlesung Algorithmentechnik im WS 09/10 Problem 1: Größter Kreis in konvexem Polygon [vgl. Kapitel 6

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Übung am 16.12.2010 INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft

Mehr

Maximale s t-flüsse in Planaren Graphen

Maximale s t-flüsse in Planaren Graphen Maximale s t-flüsse in Planaren Graphen Vorlesung Algorithmen für planare Graphen June 1, 2015 Ignaz Rutter INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg

Mehr

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester

Mehr

Wie schreibe ich einen Kürzester Kruzester

Wie schreibe ich einen Kürzester Kruzester Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 5 Vorlesung Algorithmentechnik im WS 8/9 Ausgabe 16. Dezember 8 Abgabe 13. Januar 9, 15:3 Uhr (im Kasten vor Zimmer 319, Informatik-Hauptgebäude,

Mehr

Algorithmen zur Visualisierung von Graphen Lagenlayouts Teil 2

Algorithmen zur Visualisierung von Graphen Lagenlayouts Teil 2 Algorithmen zur Visualisierung von Graphen Teil 2 INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Tamara Mchedlidze Martin Nöllenburg Ignaz Rutter 18.12.2012 Geg.: gerichteter Graph D = (V,

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme 10 Matching-Probleme 10.1 Definition von Matching-Probleme Definition 21 [2-dimensionales Matching] Sei G = (V, E) ein ungerichteter Graph und E E. E ist ein Matching, wenn für alle Kantenpaare e 1, e

Mehr

Graphische Spiele. M i (p) M i (p[i : p i]) M i (p) + ε M i (p[i : p i])

Graphische Spiele. M i (p) M i (p[i : p i]) M i (p) + ε M i (p[i : p i]) Seminar über Algorithmen 19. November 2013 Michael Brückner Graphische Spiele Wolfgang Mulzer, Yannik Stein 1 Einführung Da in Mehrspielerspielen mit einer hohen Anzahl n N an Spielern die Auszahlungsdarstellungen

Mehr

Diskrete Optimierung (Einführung zur Vorlesung)

Diskrete Optimierung (Einführung zur Vorlesung) Diskrete Optimierung (Einführung zur Vorlesung) Christoph Helmberg : [,] Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 02.07.2015 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 10.06.2016 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP

Mehr

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 10

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 10 D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler Lösungen Serie 10 1. Für a 1 : 1 1 0, a 2 : 1 1, a 3 : 1 1 1, b : 2 2 2 1 und A : (a 1, a 2, a 3 ) gelten welche der folgenden Aussagen? (a) det(a)

Mehr

Euklidische Distanzmatrizen. Andrei Grecu

Euklidische Distanzmatrizen. Andrei Grecu Euklidische Distanzmatrizen Andrei Grecu Übersicht Motivation Definition und Problemstellung Algo 1: Semidefinite Programmierung Algo 2: Multidimensional Scaling Algo 3: Spring Embedder Algo 4: Genetischer

Mehr

lineare Programmierung

lineare Programmierung lineare Programmierung Viele Probleme sind durch lineare Gleichungssysteme charakterisiert lineare Programmiermethoden Der Lösungsraum ist häufig auf ganze Zahlen oder gar natürliche Zahlen eingeschränkt!

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Probabilistische Analyse von Algorithmen

Probabilistische Analyse von Algorithmen Lehrstuhl Informatik I Algorithmen & Komplexität RWTH Aachen 27. Mai 2005 Übersicht Einführung 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s Motivation

Mehr

Überblick. Kap. 1.4: Minimum Weight Perfect Matching. 1.3 Blüten-Schrumpf Algorithmus für Maximum Matching

Überblick. Kap. 1.4: Minimum Weight Perfect Matching. 1.3 Blüten-Schrumpf Algorithmus für Maximum Matching Kap. 1.4: Minimum Weight Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 4. VO 6. November 2006 Überblick kurze Wiederholung: 1.2 Blüten-Schrumpf-Algorithmus für Perfektes Matching

Mehr

Analysis III. Vorlesung 87. Mannigfaltigkeiten mit Rand

Analysis III. Vorlesung 87. Mannigfaltigkeiten mit Rand Prof. Dr. H. Brenner Osnabrück WS 2015/2016 Analysis III Vorlesung 87 Mannigfaltigkeiten mit Rand Eine zweidimensionale Mannigfaltigkeit mit Rand. Der Rand besteht aus den vier geschlossenen Bögen. Definition

Mehr

Einführung in das Seminar Algorithmentechnik

Einführung in das Seminar Algorithmentechnik Einführung in das Seminar Algorithmentechnik 10. Mai 2012 Henning Meyerhenke, Roland Glantz 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Roland undglantz: nationales Einführung Forschungszentrum

Mehr

SCHNITTERHALTUNG (SPEKTRALE APPROXIMATION)

SCHNITTERHALTUNG (SPEKTRALE APPROXIMATION) Vorlesung 12 AUSDÜNNUNG VON GRAPHEN SCHNITTERHALTUNG (SPEKTRALE APPROXIMATION) 387 Wiederholung: Approximative Schnitterhaltung Ziel: Approximationsalgorithmus: A(S(G)) Ziele bei Eingabe eines dichten

Mehr

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme

Mehr

Überblick Kap. 5: Graph Coloring

Überblick Kap. 5: Graph Coloring Überblick Kap. 5: Graph Coloring Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 10./11. VO 18.12.0 / 8.1.07 5.1 Einführung Definition und Motivation Sudoku 5.2 ILP-Formulierungen

Mehr

Kapitel 9: Lineare Programmierung Gliederung

Kapitel 9: Lineare Programmierung Gliederung Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen

Mehr

Kap. 5: Graph Coloring

Kap. 5: Graph Coloring Kap. 5: Graph Coloring Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 10./11. VO 18.12.06 / 8.1.07 Überblick 5.1 Einführung Definition und Motivation Sudoku 5.2 ILP-Formulierungen

Mehr

10. Komplexität der Linearen Optimierung und Innere Punkte Methoden

10. Komplexität der Linearen Optimierung und Innere Punkte Methoden 56 10.1 LP ist in NP! conp... 57 10.2 Zur Laufzeit des Simplexalgorithmus... 58 10.3 Die Ellipsoidmethode... 59... 60 10.1 LP ist in NP! conp 57-1 Wichtigste Aussagen dieses Kapitels (alle ohne vollständigen

Mehr

Chinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151

Chinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151 Inhaltsverzeichnis 1 Kernkonzepte der linearen Optimierung... 1 1.1 Einführung... 1 1.2 Grundlegende Definitionen... 8 1.3 Grafische Lösung... 10 1.4 Standardform und grundlegende analytische Konzepte...

Mehr