1 Einführung in Lineare Programme und Dualität
|
|
- Bertold Scholz
- vor 6 Jahren
- Abrufe
Transkript
1 Gliederung Inhaltsverzeichnis 1 Einführung in Lineare Programme und Dualität Lineare Programme Dualität Grundlegende Sätze und Definitionen Starke und schwache Dualität Komplementärer Schlupf LP und Approximationsalgorithmen am Bsp. des SetCover Relaxierung eines ganzzahligen linearen Programms Anwendung der Dualität auf den Entwurf von SetCover-Alg Anwendung der Dualität auf die Analyse von SetCover-Alg Einführung in Lineare Programme und Dualität Einführung Als Lineare Programme bezeichnet man Optimierungsprobleme (hier immer Minimum gesucht) mit lin. Zielfunktion. Der Bereich über dem optimiert wird, ist dabei durch eine Menge von linearen Ungleichungsbeschränkungen (Konvexes Polyeder) gegeben. Lineare Programme sind dabei in polynomialer Zeit lösbar. Wichtig ist auch das sogenannte Duale Programm: Ein leicht aus Ausgangsprogramm (Primalprogramm) gewinnbares Programm mit einigen nützlichen Eigenschaften. 1.1 Lineare Programme Definition: Lineares Programm Definition 1 (Lineares Programm). Ein Lineares Programm is folgendes Optmierungsproblem: c T x min! subject to Ax b x 0, (Zielfunktion) (Zul. Bereich bzw.nebenbedingungen) x, c R n, b R m, A R m,n, m, n N n Natürlich sind leicht abgewandelte Formen möglich, (z.b. Gleichungsbeschränkungen, Max. statt Min.) Aber alle Formen sind äquivalent ineinander umformbar Ein Vektor x, der die Nebenbedingungen erfüllt heißt zulässig
2 1.2 Dualität Einführendes Beispiel Beispiel 2 (Primalproblem, [Vaz01]). 7x 1 + x 2 + 5x 3 min! s.t. x 1 x 2 + 3x x 1 + 2x 2 x 3 6 x 1, x 2, x 3 0 Wir multiplizieren die beiden Nebenbedingungen mit positiven y 1, y 2 und addieren Dabei wählen wir y 1 und y 2, so dass: Beispiel 3. 7x 1 + x 2 + 5x 3 (x 1 x 2 + 3x 3 )y 1 + (5x 1 + 2x 2 x 3 )y 2 10y 1 + 6y 2 Einführendes Beispiel Die Idee y 1 und y 2 maximal zu wählen führt auf: Beispiel 4. Es gilt nun insbesondere: Fakt 5. 10y 1 + 6y 2 max! s.t. y 1 5y 2 7 5y 1 + 2y 2 1 3y 1 y 2 5 y 1, y 2 0 max(10y 1 + 6y 2 ) min(7x 1 + x 2 + 5x 3 ) 2 Grundlegende Sätze und Definitionen 2.1 Starke und schwache Dualität Allg. Zusammenhang zwischen Primal- und Dualprogramm 2
3 Das zu einem Primalprogramm gehörige Dualprogramm ergibt sich allgemein wie folgt: (Man beachte, dass man das Dualprogramm mit dieser Vorgehensweise völlig mechanisch aus dem Ausgangsprgramm gewinnen kann.) Primalprogramm z(x) = c T x min! s.t. Ax b x 0 Dualprogramm ϑ(y) = b T y max! s.t. A T y c y 0 Dualitätssätze Die oben angesprochenen nützlichen Eigenschaften sind die folgenden Dualitätssätze. Fakt 6. für zulässige x und y gilt: b T y c T x (schwache Dualität) und im Optimum max b T y min c T x (starke Dualität) 2.2 Komplementärer Schlupf Der komplementäre Schlupf beschreibt, welche Bedingungen erfüllt sein müssen, damit die starke Dualität erfüllt ist. Die Gleichheit im Optimum bei Dual und Primal ergibt nämlich sich aus: Fakt 7. ϑ(y) = b T y (Ax) T y = x T A T y x T c = z(x) (a) (b) In Indexschreibweise bedeutet Gleichheit bei (a) und (b): Definition 8. Komplemtärer Schlupf y j > 0 row j Ax = b j x i > 0 row i A T y = c i (a) (b) 3
4 Definition 9 (SetCover). Wir werden alle weiteren Überlegungen auf das SetCover- Problem anwenden: Eine Probleminstanz von SetCover ist eine Menge V = {u 1,..., u n } von Objekten und eine Familie S = {S 1,..., S m } verschiedener endlicher Mengen aus diesen Objekten. Eine Teilfamilie S cov = {S i1,..., S in } dieser Familie heißt Überdeckung, falls V (S cov ) := S i1... S in = V Ziel: finde minimale Überdeckung. Definition 10 (Kennzahlen). Dabei bezeichne: deg(u) (Grad) die Anzahl der Mengen S j in denen u vorkommt G S die Mächtigkeit der größten Gruppe. δ S den maximalen Grad. 3 LP und Approximationsalgorithmen am Bsp. des Set- Cover Ein LP für SetCover X: SetCover LP (ganzzahlig) s.t. x i min! i=1 i:u S i x i 1 u V x i {0, 1} i {1,..., m} Dabei beueutet x i = 1, dass die Menge S i in der Überdeckung vorkommt. Die Nebenbedingungen stellen also sicher, dass es für jedes u mindestens eine Menge in der Überdeckung gibt, die u enthält. 3.1 Relaxierung eines ganzzahligen linearen Programms Relaxierung Wir wollen jetzt die Lineare Programmierung nutzen. Gegeben sei eine Probleminstanz I. Die Idee ist nun einfach die Ganzzahligkeitsbeschränkung zu entfernen. Damit erhalten wir ein relaxiertes Problem X rel. Wir bestimmen nun eine Lösung dieses Problems und gewinnen daraus ein Lösung A(I) von X durch geschicktes Runden. Wir zeigen, dann, dass A(I) ρop T (X rel ) also gilt dann auch: A(I) ρop T (X). 4
5 Das relaxierte LP für SetCover X rel : SetCover LP (reell) s.t. x i min! i=1 i:u S i x i 1 u V x i [0, 1] i {1,..., m} Ganzahligkeitslücke Definition 11 (Ganzzahligkeitslücke). Bezeichen D die Menge aller Instanzen eines gannzahlige Opmierungsproblems X. Sei X rel das relaxierte Problem. Dann heißt { } OP T (X) γ = max OP T (X rel ) I D Ganzahligkeitslücke. Fakt 12. Bei einem durch Relaxierung gewonnenen Algorithmus gilt: ρ γ Also beschränkt die Ganzzahligkeitslücke die beweisbare relative Güte beim Einsatz der Relaxierung. Ist die Ganzzahligkeitslücke sehr groß, können wir also mit diesem Ansatz keinen guten Approximationsalgorithmus erreichen. Ganzahligkeitslücke bei SetCover Satz 13 (Ganzzahligkeitslücke bei SetCover). Für das SetCover-Problem gilt: γ 1 2 log n Beweis. [Skizze, = Exklusiv-Oder] } Betrachte V = {ū ū {0, 1} k, u 0 k für alle b 0 k als Überdeckungsfamilie: S b = {ū u i b i } über GF[2] Wir geben nun einen einfachen deterministischen Algorithmus an, der SetCover appromiert und auf der Relaxation basiert. 5
6 Deterministischer Rundungsalgorithmus DetRoundSC Löse LP X rel S cov := FOR i := 1 TO m DO IF x i δ 1 S THEN S cov := S cov {S i } Satz 14. Der Algorithmus berechnet tatsächlich eine Überdeckung S und es gilt: DetRoundSC(S cov ) δ S OPT(S cov ) Ein weiterer möglicher Ansatz ist das zufällige Runden. Zufälliges Runden RanRoundSC[r] Löse LP X rel X := FOR i := 1 TO m DO Mit Wahrscheinlichkeit 1 e rx i : X := X {S i } Satz 15. Es gilt: Pr[X ist Überdeckung] 1 ne r E[ZF-Wert] ropt(s) und Wiederhole nun obigen Algorithmus so lange bis X tatsächlich eine Überdeckung ist. Es gibt dabei eine (erwartete) obere Schranke für die Anzahl der Wiederholungen. 3.2 Anwendung der Dualität auf den Entwurf von SetCover-Alg. Dual fitting Wir wollen nun die Dualität nutzen. Dabei spielt der komplementäre Schlupf ein besondere Rolle. Wir konstruieren im folgenden einen Algorithmus, der Teil (b) (x i > 0 row i A T y = c i ) zwangsweise erfüllt. Dabei bestimmen wir zunächst eine zulässige Lsg. y des Duals, die einige Nebenbedingungen scharf macht. Diese muss nicht notwendig optimal sein. Dann setzen wir die zugehörigen x i auf 1.Daraus folgt dann: row i A T y = c i x i. Diese Beziehung kann dann zum Bestimmen des Zielfunktionswertes benutzt werden. Betrachten wir noch einmal die beiden nötigen Programme: 6
7 Erinnerung X: SetCover LP (ganzzahlig) x i min! s.t. i=1 i:u j S i x i 1 u j V x i {0, 1} i {1,..., m} Y rel : relaxiertes Dual für SetCover LP n y i max! s.t. j=1 j:u j S i y j 1 S i S y i [0, 1] i {1,..., n} Dual fitting Algorithmus DualPurSC Löse LP Y rel Die Lösung sei y S cov := FOR i := 1 TO m DO IF i-te Nebenbedingung des Duals scharf THEN x i := 1 ELSE x i := 0 Güte des Algorithmus Satz 16. Der Algorithmus bestimmt eine Überdeckung S und es gilt: DualPurSC(S) δ S OPT(S) Beweis. [Skizze] Für alle x i = 1 gilt j:u j S i y j = 1 = x i Also gilt: DualPurSC(S) = x i = x i = y j i=1 i:x i =1 i:x i =1 j:u j S i n y j = δ S OPT(Y rel ) δ S OPT(S) δ S j=1 7
8 3.3 Anwendung der Dualität auf die Analyse von SetCover-Alg. Analyse von Algorithmen mit Hilfe der Dualität Wir berechnen zunächst eine Lsg. des ganzahligen LPs und konstruieren daraus Lösung y von Y rel. Dann leiten wir eine Beziehung c T x = z(x) = f(y) her. (x sei eine vom Alg. ermittelte Lsg.) Weiter Suchen wir nach einer Beziehung f(y) gϑ(y) = b T y Dann gilt schließlich: z(x) gopt(i) (I ist eine Instanz des ganzahligen Optmierungsproblems) Analysealgorithmus Sei H(n) := n i=1 1 i DualPurSC FOR i := 1 TO m DO x i := 0 C := 0 (schon gespeicherte Objekte) WHILE C V DO Bestimme einen Index i mit S i \ C maximal x i = 1 FOR alle u j S i \ C DO 1 preis(u j ):= S i \C y j := 1 H(G S ) preis(u j) C := C S i Satz 17. Es gilt: PrimalDualSC(S) H(G S )OPT(S) Man beachte, dass die innere FOR-Schleife, die das y konstruiert für den eigentlichen Algorithmus unnötig ist, und nur der Analyse dient. Beweis mit Hilfe der Dualität Beweis. [Skizze] Es gilt zunächst, dass die Lsg. y des Alg. tatsächlich eine Lsg. des Duals ist. (nicht offensichtlich) Also: PrimalDualSC(S) = = x i = x i = i=1 i:x i =1 n preis(u j ) = H(G S ) j=1 i:x i =1 u j S i \C preis(u j ) = n y j H(G S )OPT(S) j=1 8
9 Literatur [Vaz01] V. Vazirani. Approximation Algorithms. Springer, Rolf Wanka. Approximationsalgorithmen - Eine Einführung. Teubner,
Approximationsalgorithmen
Approximationsalgorithmen 1. Vorlesung Joachim Spoerhase Alexander Wolff Lehrstuhl für Informatik I Wintersemester 2017/18 Bücher zur Vorlesung Vijay V. Vazirani Approximation Algorithms Springer-Verlag
MehrDualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
MehrVORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max
MehrOptimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze
Mehr3.2.5 Dualität der linearen Optimierung I
3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrKapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester
MehrTheoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
MehrAlgorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck
Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach
MehrDie duale Simplexmethode
Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen
MehrOperations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung.
Operations Research Rainer Schrader Flüsse in Netzwerken Zentrum für Angewandte Informatik Köln 2. Juli 2007 1 / 53 2 / 53 Flüsse in Netzwerken Unimodularität Gliederung Netzwerke und Flüsse bipartite
MehrÜberblick. Kap. 1.4: Minimum Weight Perfect Matching. 1.3 Blüten-Schrumpf Algorithmus für Maximum Matching
Kap. 1.4: Minimum Weight Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 4. VO 6. November 2006 Überblick kurze Wiederholung: 1.2 Blüten-Schrumpf-Algorithmus für Perfektes Matching
MehrOptimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 7 Lineare Programmierung II 1 Lineare Programme Lineares Programm: Lineare Zielfunktion Lineare Nebenbedingungen (Gleichungen oder Ungleichungen) Spezialfall der konvexen Optimierung
MehrPolynomialzeit- Approximationsschema
Polynomialzeit- Approximationsschema 27.01.2012 Elisabeth Sommerauer, Nicholas Höllermeier Inhalt 1.NP-Vollständigkeit Was ist NP-Vollständigkeit? Die Klassen P und NP Entscheidungsproblem vs. Optimierungsproblem
MehrOptimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn
Optimierung Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung 1 Assignment Problem (Zuordnungsproblem) Gewichtetes Perfektes Bipartites Matching agents Costs tasks Weise jedem Agenten genau
MehrDas Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering
Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme
MehrKap. 4: Lineare Programmierung
Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.
MehrInhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung
8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen
Mehr1 Der Simplex Algorithmus I
1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier
MehrWiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b
Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung
MehrOptimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn
Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,
MehrKapitel 9: Lineare Programmierung Gliederung
Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen
MehrAlgorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke
Algorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke Steve Göring 13.07.2012 1/18 Gliederung Einleitung Grundlagen Vertex-Cover-Problem Set-Cover-Problem Lösungsalgorithmen
MehrAlgorithmische Methoden zur Netzwerkanalyse Vorlesung 13, Henning Meyerhenke
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, 01.02.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum
Mehr1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme. Duales Problem. a i u i + i=1. j=1
1. Transport- und Zuordnungsprobleme Optimierungsalgorithmus für Transportprobleme Duales Problem Lemma 1.4. Das zum Transportproblem duale Problem lautet: max unter den Nebenbedingungen m a i u i + i=1
MehrGraphentheorie. Kürzeste Wege. Kürzeste Wege. Kürzeste Wege. Rainer Schrader. 25. Oktober 2007
Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 25. Oktober 2007 1 / 20 2 / 20 Wir werden Optimierungsprobleme vom folgenden Typ betrachten: gegeben eine Menge X und eine Funktion
MehrVORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind
Mehr6 Korrektheit des Simplexalgorithmus
6 Korrektheit des Simplexalgorithmus Folgerung: Es sei L: Ax = b, c T x max LP und A B nicht-degenerierte PZB von L und es gebe c r := c r c B A B A r > 0 a) Falls a r := A B a r 0, dann L unbeschränkt
MehrVORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung
MehrOptimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Dualität Anwendung: Spieltheorie Komplementarität und Sensitivitätsanalyse Spaltengenerierung Schnittebenenverfahren Welchen Simplex wann? Inhaltsübersicht für heute: Dualität
MehrTeil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006
Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden
MehrKap. 4.3: Das Dualitätstheorem der linearen Optimierung
Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur
MehrScheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.
Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Tardos Janick Martinez Esturo jmartine@techfak.uni-bielefeld.de xx.08.2007 Sommerakademie Görlitz Arbeitsgruppe 5 Gliederung
MehrEinführung in Operations Research
Wolfgang Domschke Andreas Drexl Einführung in Operations Research Achte Auflage fyj Springer Inhaltsverzeichnis Vorwort Symbolverzeichnis V XIII Kapitel 1: Einführung 1 1.1 Begriff des Operations Research
MehrDas Lagrange-duale Problem
Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h
MehrLösung allgemeiner linearer Programme
Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt
MehrApproximationsalgorithmen. 19. Dezember / 28
Approximationsalgorithmen 19. Dezember 2017 1 / 28 Optimierungsprobleme Das Ziel: Bearbeite schwierige Optimierungsprobleme der Form opt y f (x, y) so dass L(x, y). Die Zielfunktion f (x, y) ist zu minimieren
MehrOperations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.
Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme
MehrApproximationsklassen für Optimierungsprobleme
Approximationsklassen für Optimierungsprobleme Matthias Erbar 19. September 2007 Inhaltsverzeichnis 1 Einleitung 1 2 Approximationsalgorithmen mit garantierter Güte 2 2.1 Terminologie......................................
Mehr2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
MehrSchranken für zulässige Lösungen
Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung
MehrGrundlagen der Optimierung. Übung 6
Technische Universität Chemnitz Chemnitz, 2. November 24 Prof. Dr. R. Herzog, J. Blechschmidt, A. Schäfer Abgabe am 28. November 24 Grundlagen der Optimierung Übung 6 Aufgabe 2: Verschiedene Verfahren
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 7. Dezember 2017 INSTITUT FÜR THEORETISCHE 0 07.12.2017 Dorothea Wagner - Theoretische Grundlagen der Informatik INSTITUT FÜR THEORETISCHE KIT Die Forschungsuniversität
MehrKombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 18 Was tun mit NP-harten Problemen? Viele praxisrelevante
MehrAlgorithmen und Datenstrukturen
Algorithmen und Datenstrukturen Wintersemester 2012/13 26. Vorlesung Greedy- und Approximationsalgorithmen Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I Operations Research Optimierung für Wirtschaftsabläufe:
MehrEinführung in Approximative Algorithmen und Parametrisierte Komplexität
Einführung in Approximative Algorithmen und Parametrisierte Komplexität Tobias Lieber 10. Dezember 2010 1 / 16 Grundlegendes Approximationsalgorithmen Parametrisierte Komplexität 2 / 16 Grundlegendes Definition
MehrDie Lagrange-duale Funktion
Die Lagrange-duale Funktion Gregor Leimcke 21. April 2010 1 Die Lagrangefunktion Wir betrachten das allgemeine Optimierungsproblem wobei minimiere f 0 über D sodass f i 0, i = 1,..., m 1.1 D = h i = 0,
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 4. Januar 2011 Berthold Vöcking, Informatik 1 () Vorlesung
MehrInnere-Punkt-Methoden
Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction
MehrEigenschaften von LPs
2 Lineare Programmierung Eigenschaften von LPs Eigenschaften von LPs Definition 24 Eine Menge K IR n heißt konvex gdw für je zwei Punkte Punkte x (1) K und x (2) K auch jeder Punkt mit 0 λ 1 zu K gehört
MehrApproximationsalgorithmen. Durchmesser-, Breite-, kleinster Zylinderund. dünnster Kreisring- Probleme
Approximationsalgorithmen für Durchmesser-, Breite-, kleinster Zylinderund dünnster Kreisring- Probleme Georgy Sklyarenko Vortrag im Seminar über Algorithmen am 2. December 2005 Kapitel 1. Einführung 1.1.
MehrOperations Research. Die Simplexmethode. LP-Dualität. Die Simplexmethode. Rainer Schrader. 18. Juni Zur Erinnerung: Gliederung
Operations Research Rainer Schrader Die Simplexmethode Zentrum für Angewandte Informatik Köln 18 Juni 00 1 / 1 / 1 Gliederung LP-Dualität ein lineares Produktionsmodell der Simplexalgorithmus Phase I Endlichkeit
MehrEffiziente Algorithmen Lineares Programmieren 216. Schwache Dualität
Effiziente Algorithmen Lineares Programmieren 216 Schwache Dualität Sei wieder z = max{ c T x Ax b, x 0 } (P ) und w = min{ b T u A T u c, u 0 }. (D) x ist primal zulässig, wenn x { x Ax b, x 0 }. u ist
MehrKAPITEL 3. Konvexe Funktionen
KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn
MehrSchnittebenenverfahren für das symmetrische
Schnittebenenverfahren für das symmetrische TSP Sebastian Peetz Mathematisches Institut Universität Bayreuth 19. Januar 2007 / Blockseminar Ganzzahlige Optimierung, Bayreuth Gliederung 1 Das symmetrische
MehrH. Meyerhenke: Kombinatorische Optimierung. Paralleles Rechnen, Institut für Theoretische Informatik, Fakultät für Informatik
VORLESUNG 13 Smoothed Analysis des Simplex-Algorithmus Nach Heiko Röglin, Universität Bonn, Vorlesungsskript Introduction to Smoothed Analysis vom 9. Januar 2012 78 Wiederholung Simplex-Algorithmus! Korrektheit:!
MehrKapitel 4. Optimierungsalgorithmen. Technische Universität Wien. Gunnar Klau Technische Universität Wien. Institut für Computergraphik und Algorithmen
Kapitel 4 Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen 1 Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren
MehrDie duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme
Kapitel 11 Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Wir betrachten folgendes Optimierungsproblem z = c T x min! Ax = b (11.1) (11.2) x j ganz für j = 1,..., n 1 n, (11.3)
MehrTechnische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis. Station 1: Facetten des Knapsack-Polytops
Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis Barbara Wilhelm Michael Ritter Station 1: Facetten des Knapsack-Polytops Diskutieren Sie folgende Fragen
MehrStudientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform
MehrOperations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung
Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden
MehrAufgabensammlung uncf Klausurentrainer zur Optimierung
Karl Heinz Borgwardt unter Mitarbeit von Matthias Tinkl und Thomas Wörle Aufgabensammlung uncf Klausurentrainer zur Optimierung Für die Bachelorausbildung in mathematischen Studiengängen STUDIUM 11 VIEWEG+
MehrBestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls
MehrOptimierung. Vorlesung 04
Optimierung Vorlesung 04 Übungsbetrieb Mangels Teilnehmer keine Dienstagsübung mehr. Prüfung laut Paul: Di, 10. Feb. 2015 00:01-23:59 2 Was bisher geschah LP: Maximiere c T x unter Ax = b, x 0. Basis:
MehrÜbungsblatt 6 Lösungsvorschläge
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Lösungsvorschläge Vorlesung Algorithmentechnik im WS 09/10 Problem 1: Größter Kreis in konvexem Polygon [vgl. Kapitel 6
MehrTypischerweise sind randomisierte Algorithmen einfacher zu beschreiben und zu implementieren als deterministische Algorithmen.
Kapitel Randomisierte Algorithmen Einleitung Definition: Ein Algorithmus, der im Laufe seiner Ausführung gewisse Entscheidungen zufällig trifft, heisst randomisierter Algorithmus. Beispiel: Bei der randomisierten
MehrComputer Science Department - High Performance and Web Computing Group. Optimierungsprobleme
Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter
MehrDer Dreyfus-Wagner Algorithmus für das Steiner Baum Problem
Der Dreyfus-Wagner Algorithmus für das Steiner Baum Problem Andreas Moser Dietmar Ebner Christian Schauer Markus Bauer 9. Dezember 2003 1 Einführung Der in der Vorlesung gezeigte Algorithmus für das Steiner
MehrKonvexe Optimierungsprobleme
von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel
MehrEinführung in die Wirtschaftsinformatik VO WS 2008 / 2009
Einführung in die Wirtschaftsinformatik VO WS 2008 / 2009 Daten Modelle Steuerung Wilfried Grossmann Teil 3: Steuerung Mathematische Modelle werden häufig dazu verwendet um ein optimales Verhalten zu bestimmen
MehrDie Lagrange - duale Optimierungsaufgabe und ihre geometrische Interpretation
und ihre geometrische Interpretation Vortrag von Elisabeth Zschorlich 09.12.2008 Inhaltsverzeichnis 1 Die Lagrange - duale Optimierungsaufgabe 2 1.1 Einführung...................................... 2 1.2
MehrLiteratur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)
Dominating Set 59 Literatur Dominating Set Grundlagen 60 Dominating Set (DS) M. V. Marathe, H. Breu, H.B. Hunt III, S. S. Ravi, and D. J. Rosenkrantz: Simple Heuristics for Unit Disk Graphs. Networks 25,
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 7 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 200 Prof. Dr. Klaus Höllig (IMNG)
MehrDie lineare Programmierung. Die Standardform 1 / 56
Die lineare Programmierung Die Standardform 1 / 56 Die Standardform der linearen Programmierung - Für n reellwertige, nichtnegative Variablen x 1 0,..., x n 0 erfülle die m linearen Gleichungen n a ij
MehrOptimierungsprobleme. B. Langfeld, M. Ritter, B. Wilhelm Diskrete Optimierung: Fallstudien aus der Praxis
Optimierungsprobleme Instanz eines Optimierungsproblems zulässiger Bereich (meist implizit definiert) Zielfunktion Optimierungsrichtung opt {max, min} Optimierungsproblem Menge von Instanzen meist implizit
Mehr3.1. Existenzsatz und Struktur der Lösungsmenge
3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall
MehrApproximation mit relativer Gütegarantie Überblick und einführende Beispiele
Approximation mit relativer Gütegarantie Überblick und einführende Beispiele Marvin Schiller 4. Oktober 2007. Einführung In diesem Essay geben wir einen Überblick über eine Auswahl von algorithmischen
Mehr3.6 Branch-and-Bound-Verfahren
36 Branch-and-Bound-Verfahren Die Branch-and-Bound -Methode beruht darauf, auf eine intelligente Weise alle zulässigen Lösungen eines kombinatorischen Optimierungsproblems aufzulisten und mit Hilfe von
MehrNäherungsalgorithmen (Approximationsalgorithmen) WiSe 2012/13 in Trier
Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2012/13 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 29. Januar 2013 Näherungsalgorithmen, Fernau, Universität Trier, WiSe 2012/13
Mehr4.4.1 Statisches perfektes Hashing. des Bildbereichs {0, 1,..., n 1} der Hashfunktionen und S U, S = m n, eine Menge von Schlüsseln.
4.4 Perfektes Hashing Das Ziel des perfekten Hashings ist es, für eine Schlüsselmenge eine Hashfunktion zu finden, so dass keine Kollisionen auftreten. Die Größe der Hashtabelle soll dabei natürlich möglichst
Mehr10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G
48 0 Operations Research In der Standardform eines Maximierungsproblem: Max ( w) mit ( w) + u. d. N. z + x l + n ( a gj + j= g G e E n d j x j = z 0 j= n a l j x j = b l für alle l L j= x g n + a gj x
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 20. November 2014 INSTITUT FÜR THEORETISCHE 0 KIT 20.11.2014 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der
Mehr3. Grundlagen der Linearen Programmierung
3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations
MehrÜbersicht über Informatik und Softwaresystemtechnik WS 99/00, Prof. Dr. Andreas Schwill
Konvexe Hülle Hierbei handelt es sich um ein klassisches Problem aus der Algorithmischen Geometrie, dem Teilgebiet der Informatik, in dem man für geometrische Probleme effiziente Algorithmen bestimmt.
MehrMaximale s t-flüsse in Planaren Graphen
Maximale s t-flüsse in Planaren Graphen Vorlesung Algorithmen für planare Graphen 6. Juni 2017 Guido Brückner INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg
MehrVisualisierung von Graphen
1 Visualisierung von Graphen Hierarchische Zeichnungen 6. Vorlesung Sommersemester 2015 (basierend auf Folien von Marcus Krug, KIT) 2 Beispiel E-Mail-Graph zwischen Einrichtungen der Fak. für Informatik,
MehrKLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen)
Mathematisches Institut WS 2012/13 der Heinrich-Heine-Universität 7.02.2013 Düsseldorf Prof. Dr. Achim Schädle KLAUSUR zu Einführung in die Optimierung Bitte folgende Angaben ergänzen und DEUTLICH LESBAR
MehrLineare Programmierung (2)
Inhalt Rückblick Motivation - linearen Programmierung Flussprobleme Multiple Warenflüsse Fortsetzung Simplex Algorithmus Initialisierung Fundamentalsatz der linearen Programmierung schwache Dualität Dualität
MehrDie Klasse NP und die polynomielle Reduktion
Die Klasse NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen Dezember 2011 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
MehrAlgorithmische Bioinformatik 1
Algorithmische Bioinformatik 1 Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 2009 Übersicht Algorithmen
MehrGeometrische Interpretation
Geometrische Interpretation Stefanie Riedel 10. Mai 2010 1 Starke und schwache Dualität über Wertemengen Wir betrachten eine einfache geometrische Interpretation dualer Funktionen aus der Menge G: G =
MehrOptimierung. Vorlesung 12
Optimierung Vorlesung 12 Letze Woche Approximieren von ILP durch randomisiertes Runden. Beispiel Set Cove Relaxiertes LP lösen und runden. Probleme: 1. Zielfunktionswert 2. Zulässigkeit 1. Linearität des
MehrEinwegfunktionen. Problemseminar. Komplexitätstheorie und Kryptographie. Martin Huschenbett. 30. Oktober 2008
Problemseminar Komplexitätstheorie und Kryptographie Martin Huschenbett Student am Institut für Informatik an der Universität Leipzig 30. Oktober 2008 1 / 33 Gliederung 1 Randomisierte Algorithmen und
MehrDaniel Borchmann. Sommerakademie Görlitz September 2007
Einführung in Semidenite Programmierung Daniel Borchmann Sommerakademie Görlitz 2007 12. September 2007 1 Einleitung Lineare Optimierung Semidenite Optimierung 2 MAX-CUT MAX-BISECTION MAX-2SAT Einleitung
MehrLösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { }
Zur Einleitung: Lineare Gleichungssysteme Wir untersuchen zunächst mit Methoden, die Sie vermutlich aus der Schule kennen, explizit einige kleine lineare Gleichungssysteme. Das Gleichungssystem I wird
MehrProbleme aus NP und die polynomielle Reduktion
Probleme aus NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 15. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
MehrPerlen der Informatik I Wintersemester 2012 Aufgabenblatt 7
Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt
Mehr