Optimierung. Zusammenfassung
|
|
- Friederike Falk
- vor 7 Jahren
- Abrufe
Transkript
1 Optimierung Zusammenfassung
2 Inhalte 1. Lineare Programmierung 2. Simplexalgorithmus 3. Ellipsoidmethode 4. Dualität 5. Ganzzahligkeit 6. Facility Location 7. Randomisiertes Runden 8. Branch and Bound & Heuristiken 9. Selfish Flows, Spieltheorie&Optimierung 2
3 1. Lineare Programmierung Kanonische Form: Maximiere c T x unter Ax b, x 0. Probleme als LP modellieren Transformation beliebiger LPs in die kanonische Form Geometrische Anschauung: Nebenbedingungen definieren Halbräume Gleichungen entsprechen Hyperebenen Lösungspolyhedron P Lösungsraum konvex Lokales Optimum auch global optimal 3
4 2. Simplexalgorithmus Optimum ist ein Knoten ( Eckpunkt ) Idee des SIMPLEX Algorithmus: Lokale Suche über die Knoten 1. Bestimme einen beliebigen Knoten v von P. 2. Falls es keine verbessernde Kante inzident zu v gibt, dann ist v optimal, stopp. 3. Folge einer beliebigen verbessernden Kante e von v. Falls e unbeschränkt ist so ist das LP unbeschränkt, stopp. 4. Sei u der andere Endpunkt von e. Setze v = u. Gehe zu Schritt 2. 4
5 Simplex im Rechner Umwandlung des LP in Gleichungsform. Eine Auswahl von genau m Spalten B ist eine Basis falls die Vektoren in B linear unabhängig sind. Basis: A B x B + A N x N = b Gleichungssytem von links mit A B 1 multiplizieren und erhalte Âx = b bzw. x B +  N x N = b x B = b  N x N, Basisvariablen als Funktion der NBV. für x N = 0 ist dann x B = b und wir erhalten die Basislösung x B, x N = (b, 0). Basislösungen entsprechen Schnittpunkten von d Nebenbedingungen des entprechenden kanonischen LPs. 5
6 Reduzierte Kosten und Pivotschritt Reduzierte Kosten c j m c B k â kj k=1 Satz 2.1 Falls der Vektor der reduzierten Kosten zu einer Basis B keinen positiven Eintrag enthält, so ist B optimal. Pivotschritt: Eingangspivotspalte j: Spalte mit positiven reduzierten Kosten. Ausgangspivotspalte i: Fall 1: Alle â ij 0. x j kann beliebig erhöht werden. LP unbeschränkt. Fall 2: Es gibt mindestens ein i {1,, m} mit â ij > 0. Wähle i = argmin 1 k m Und setzte x j = b i â ij. b k â kj â kj > 0 6
7 Initiale Basislösung, Komplexität und Laufzeit Initiale Basislösung durch ein HilfsLP Zahlen wachsen von α auf höchstens αm m+1 im Laufe des Algorithmus, Cramersche Regel Pivotschritt deshalb in polynomieller Zeit durchführbar. Anzahl der Pivotschritte im Worst-Case aber exponentiell. (Klee-Minty-Cube) Simplex ist kein Polynomzeitalgorithmus! 7
8 Degenerierte LPs Bei degenerierten LP kann es vorkommen, dass in einem Pivotschritt eine oder mehrere Basisvariablen den Wert 0 haben. Wenn man die falschen Spalten austauscht so terminiert der Simplexalgorithmus nicht. Lösungen: 1. Blands Pivotregel: Wähle die Eingangsspalte A j und die Ausgangsspalte A B(i), mit möglichst kleinem Index. 2. Pertubierung 8
9 Pertubierung Satz 2.4 Es gibt ein δ > 0, so dass für jedes ε (0, δ) gilt: a) LP(ε) ist nicht-degeneriert. b) Jede zulässige Basis für LP(ε) ist auch zulässig für LP. c) Jede optimale Basis für LP(ε) ist auch optimal für LP. Bemerkung 2.5 Sei α der Absolutwert des größten Nenners bzw. Zählers der Eingabezahlen von LP. Die Aussagen in Satz 2.4 gelten für ε = 1 αm 2m. Die Eingabelänge von LP(ε) ist damit 2 polynomiell in der Eingabelänge von LP beschränkt 9
10 3.Ellipsoidmethode Ellipsoidmethode Zulässigkeitstest Transformationsschritte Innere und Äußere Kugel Methode: Durch Mittelpunklt verletzte Nebenbedingung Halbraum H E-halbe Ellipse E Gesamtlaufzeit: Volumenargument 10
11 Zulässigkeit vs. Optimieren Satz 3.1 Existiert ein polynomieller Algorithmus A, der entscheidet, ob ein System von linearen Ungleichungen eine Lösung besitzt, so existiert auch ein polynomieller Algorithmus zur Lösung von LPs. Beweisidee: Zielfunktionsschranke als Nebenbedingung. - Binäre Suche. - Größe der Eingabe (-zahlen) beachten. 11
12 Der Zuässigkeitstest A Vorbereitung: Lemma 3.3 Ein lineares Ungleichungssystem LI der Eingabelänge L kann in polynomieller Zeit in ein lineares Ungleichungssystem LI* mit den folgenden Eigenschaften transformiert werden. a) LI* hat genau dann eine Lösung, wenn LI eine Lösung hat. b) Der Lösungsraum von LI* ist in einer Kugel um den Ursprung mit Radius höchstens 2 O(L2 ) enthalten. c) Wenn der Lösungsraum von LI* nicht leer ist, so enthält er O L4 eine Kugel mit Radius mindestens 2 d) Die Eingabelänge von LI* ist beschränkt durch O(L 2 ). 15
13 Die Schritte 1. Initiale Ellipsoid E: Kugel um den Ursprung mit Radius u. Nach Annahmen ist nach diesem Schritt S in E enthalten. 2. Falls das Volumen von E kleiner als das Volumen der Kugel mit Radius l ist, terminiere mit der Ausgabe S =. 3. Sei z der Mittelpunkt von E. Wir testen, ob z S, d.h. ob z alle Nebenbedingungen erfüllt. Falls ja, terminiere mit der Ausgabe S. 4. Identifizieren einen Halbraum H der S enthält: Wähle Ungleichung die von z verletzt wird. Verschiebe die dazugehörige Hyperebene parallel so, dass sie durch z verläuft. Bezeichne die Seite auf der S liegt mit H sowie den Schnitt von H und E mit E-halbe. Berechne nun die kleinste Ellipse E die E-halbe enthält. 5. Setzt E = E und gehe zu Schritt 2. 16
14 Laufzeit Volumenargument Lemma 3.4 Für den in Schritt 4 berechneten Ellipsoid E gilt vol E vol E n+1 Beweis nur für Dimension n = 2 und n = 3. Annahme E ist Kreis mit Radius 1 und Mittelpunkt (0,0) und H ist der Halbraum links der y-achse. 17
15 4. Dualität Definition 4.1 Wir betrachten das folgende LP in der kanonischen Form Maximiere c T x unter Ax b, x R d 0. Die Anzahl der Nebenbedingungen (ohne die Nichtnegativitätsbedingungen) sei m. Dieses LP bezeichnen wir als primales LP. Das zugehörige duale LP ist definiert als Minimiere y T b unter y T A c T m, y R 0 oder äquivalent Minimiere b T y unter A T y c T, y R m 0. 18
16 Schwache Dualität Satz 4.2 Das duale LP des dualen LPs ist das primale LP. Satz 4.3 (Schwaches Dualitätsprinzip) Sei x eine zulässige Lösung für das primale LP und y eine zulässige Lösung für das duale LP. Es gilt y T b c T x. 19
17 Das starke Dualitätsprinzip Satz 4.4 Sei x eine optimale Lösung für das primale LP und y eine optimale Lösung für das duale LP. Es gilt y T b = c T x. Beweisidee: 1. Gleichungsform, x* optimale Lösung 2. Kosten von x* hängen nur von den (nicht-schlupf-) Basisvariablen ab. 3. Vektor der reduzierten Kosten gibt uns 2 Ungleichungen 4. Konstruiere y*, Gleicher Wert, nutze die Ungleichungen aus 3. um Zulässigkeit zu zeigen 20
18 Anmerkungen Nicht nur gleicher Zielfunktionswert: Wir können aus optimaler primalen Basislösung eine optimale duale Basislösung konstruieren. Laufzeit O(min m 3, d 3 ), für die Berechnung von A Komplementärer Schlupf (complementary slackness) x und y sind optimal, genau dann wenn y i a i T x b i = 0 für alle i = 1,, m und (1) c j A j T y x j = 0 für alle j = 1,, n. (2) 21
19 5. Ganzzahligkeit Integer Linear Programs LP Optimum ILP Optimum Lösungsraum Ax = b, x 0 Zielfunktion Im Allgemeinen NP-schwer 22
20 Totale Unimodularität (Gleichungsform) Definition 5.1 Eine ganzzahlige quadratische Matrix wird als unimodular bezeichnet, wenn ihre Determinante den Wert 1 oder 1 hat. Eine ganzzahlige Matrix A wird als total unimodular bezeichnet, wenn jede quadratische, reguläre Teilmatrix von A unimodular ist. Satz 5.2 Betrachte ein LP in Gleichungsform Ax = b. Ist A total unimodular, so sind alle Basislösungen dieses LPs ganzzahlig. 23
21 Beweis Satz 5.2 Sei B eine Basis von A. Die Basislösung zu B wird durch die Gleichung A B x B = b beschrieben. Die Matrix A B ist dabei eine quadratische Teilmatrix von A, die durch die Spalten in B gebildet wird. Das Umsortieren der Spalten ändert nur das Vorzeichen der Determinante. Somit ist A B unimodular. Nach der Cramerschen Regel gilt x B(i) = det (A B(1),, A B(i 1), b, A B(i+1),, A (m) ) det (A B ) Die Determinante im Zähler ist ganzzahlig, und die Determinante im Nenner hat den Wert 1 oder -1, da A B unimodular ist. 24
22 Totale Unimodularität (kanonische Form) Satz 5.3 Betrachte ein LP in kanonischer Form Ax b. Ist A total unimodular, so sind alle Basislösungen dieses LPs ganzzahlig. Beweis Transformation in Gleichungsform Zeige, dass beliebige, quadratische Teilmatrix von (A E m ) unimodular. 25
23 Matrizen, die total unimodular sind. Satz 5.4 Eine ganzzahlige Matrix A mit Einträgen aus { 1,0,1} ist total unimodular, wenn nicht mehr als zwei nicht-nullwertige Einträge pro Spalte vorliegen, und wenn die Zeilen in zwei Mengen I 1 und I 2 eingeteilt werden können, die die folgenden Bedingungen erfüllen: a) Falls eine Spalte zwei Einträge mit demselben Vorzeichen enthält, so sind die entsprechenden Zeilen unterschiedlichen Mengen zugeordnet. b) Falls eine Spalte zwei Einträge mit unterschiedlichem Vorzeichen enthält, so sind die entsprechenden Zeilen derselben Menge zugeordnet. 26
24 Inzidenzmatrizen Korollar 5.5 Ein LP in Standardform oder in kanonischer Form hat nur ganzzahlige Basislösungen, wenn die Nebenbedingungsmatrix (oder ihre Transponierte) der Inzidenzmatrix eines gerichteten Graphen oder der Inzidenzmatrix eines bipartiten ungerichteten Graphen entspricht. 27
25 6. Facility Location Menge von Facilities F (z.b. Standorte für Krankenhäuser) Betriebskosten c j Menge von Clients C (z.b. Patienten) Verbindungskosten zu Facility j: a ij (z.b. Entfernungskosten zum Krankenhaus) Wähle eine Teilmenge der Facilities und weise jedem Client einer dieser Facilities zu, so dass die Summe aus Betriebskosten und Verbindungskosten minimiert wird. 28
26 Interpretation des Dualen LPs Jede Facility i bekommt von Client j ein Zahlung von β ij Insgesamt höchsten so viel wie die Kosten für die Facility Jeder Client j hat Kosten von α j die gedeckelt sind durch die Zahlung(en) an die Facilities β ij und Entfernungskosten c ij α j ist der Teil der Gesamtkosten die Client j übernimmt. 29
27 Algorithmus Phase 1: Wir erzeugen eine duale Lösung (α, β). Schrittweise a j erhöhen, und ggf. β ij Facility öffnen sobald β ij > f i Phase 2: Primale Lösung erzeugen (x, y) Nur einen Teil der Facilities aus Phase 1 öffnen. Maximale unabhängige Menge Analyse: Benutze die relaxierten Schlupfbedingungen mit (α, β) und (x, y). Dreiecksungleichung für indirekt verbundene Clients 30
28 7. Randomisiertes Runden und Set Cover Set Cover H n -Approximation mit Greedy Set Cover (k) Mengen mit Cadinalität höchstens k H k -Approximation mit Greedy f-set Cover Jedes Elements kommt in max. f Mengen vor f-approximation durch LP Relaxation und deterministisches Runden Set Cover 4 ln(4n)-approximation durch LP Relaxation und randomisiertes Runden 32
29 Set Cover: 4 ln(4n)-approximation Wir berechnen mehrere gerundete Lösungen und nehmen alle gewählten Mengen gleichzeitig: Algorithmus 3 1. Sei x die optimale Lösung des relaxierten LP 2. FOR i = 1 TO ln(4n) a) FOR j = 1 TO m: Wähle S j mit W keit x j b) Sei C i die Menge aller in dieser Iteration gewählten Teilmengen. 3. Ausgabe: C = C 1 C ln (4n) 33
30 Analyse Lemma 1 Die Wahrscheinlichkeit, dass C kein gültiges Set Cover ist, ist höchstens 1 4. Beweisidee Betrachte eine Cover C j : Element u in t Mengen in relaxierter Lösung. Im schlimmsten Fall: W keit, dass alle abgerundet werden t t e Das es bei allen Covern passiert: 1 e ln(4n) 1 4n 34
31 Analyse Lemma 2 Das erwartete Gewicht E[w C ] des Covers C ist höchstens ln(4n) OPT frac. Beweis Jedes einzelne Cover C i kostet OPT frac in Erwartung. Also kostet die Vereinigung von ln(4n) vielen höchstens ln(4n) OPT frac Lemma 3 Pr[w C 4 ln 4n OPT frac ] 1/4 Beweis t = 4 ln 4n OPT frac Markov Ungleichung Sei X eine Zufallsvariable die keine negativen Werte animmt. Dann gilt für jedes positive t Pr X t E[X]/t 35
32 Theorem Ergebnis Mit Wahrscheinlichkeit 1/2 berechnet Algorithmus 3 ein Set Cover das eine 4 ln(4n)-approximation ist. Beweis: a) Mit W keit ¾ ein gültiges Set Cover (Lemma 1) b) Mit W keit ¾ Kosten 4 ln(4n) OPT (Lemma 3) Wahrscheinlichkeit für a) und b) gleichzeitig mindestens ½. 36
33 8. Branch & Bound und Heuristiken 1. Branch & Bound Exaktes Verfahren, Optimalität der Lösung ist garantiert. Schlechte Laufzeit im ungünstigen Fällen 2. Heuristiken und Suchverfahren Können zu beliebigen Zeitpunkten gestoppt werden. Lösungen sind möglicherweise nicht optimal a) Lokale Suche b) Simulated Annealing c) Metropolis d) Evolutionäre Algorithmen 37
34 Branch and Bound Module Branching Modul: Zerlegt Problem in zwei oder mehr Teilprobleme Lösungsmenge eines Teilproblem Teilmenge Selben Zielfunktionswert wie im Ursprungsproblem. Die Teilprobleme decken das Gesamtproblem ab. Die beste Lösung aller Lösungen aller Teilprobleme ist optimale Lösung des Gesamtproblems. Upper Bound Modul, Lower Bound Modul Berechnen obere bzw. untere Schranken für den Zielfunktionswert eines Teilproblems. Z.B. mit Relaxierung (obere) bzw. Greedy (untere Schranke) Search Modul Entscheidet welches Teilproblem als nächstes zerlegt werden soll 38
35 Heuristiken Lokale Suche, Nachbarschaft Metropolis: Schlechtere neue Nachbarschaftslösung x wird akzeptiert mit W keit: x f x f e T Simulated Annealing: T wird im Verlauf kleiner Evolutionäre Algorithmen Inspiriert durch biologische Evolution mit Selektion (natürliche Auslese, survival of the fittest ), Rekombination (Kreuzung) und Mutation (kleine, zufällige Änderungen) 39
36 9. Selfish Flows, Spieltheorie&Optimierung Das Verkehrsmodell von Wardrop Graph G = (V, E) Für jede Kante e E eine Latenzfunktion l e : R R. Demand: q i, s i, d i V V R + Fluss der Menge d i von q i nach s i Jeder Flusspartikel wählt selbst seine Route. Fluss auf einer Kante e: f e = P:e P f p Latenz, Verzögerung einer Kante: l e (f e ) Auf einem Pfad entsprechend: l P f = l e (f e ) e P 40
37 Wardrop Gleichgewicht Definition Ein Fluss f ist im Gleichgewicht, wenn für jedes Paar P 1, P 2 P i mit f P1 > 0 gilt, dass l P1 f l P2 (f). Existenzbeweis durch Existenz einer Lösung für: Minimiere Φ f = l e t dt e E Unter den Nebenbedingungen, dass f ein gültiger Fluss ist, der alle Demands erfüllt. f e 0 41
38 Preis der Anarchie Definition Price of Anarchy (PoA) Der Preis der Anarchie ρ = max C(f) C(f ) wobei f ein Gleichgewichtsfluss und f der optimale Fluss ist. Worst-Case-Ratio zwischen einem Gleichgewichts- und einem optimalen Fluss. Theorem Der Price der Anarchie von Instanzen mit linearen Latenzfunktionen ist
39 Braess Paradoxon Ohne zusätzliche Kante: Gleichgewicht ist optimal: = 1,5 Mit zusätzlicher Kante: Neues Gleichgewicht hat Kosten: = 2 44
40 Congestion Games [Rosenthal 73] Die diskrete oder auch atomare Version des Wardrop Modells. Menge von Spielern N = {1,, n} Fahrzeuge Graph G = V, E Straßennetz Mit Latenzfunktionen l e : N N Und einem Quelle/Senke Paar q i, s i für jeden Spieler i N Latenzfunktion bildet die Anzahl der Spieler auf die Latenz der Kante ab. 45
41 Existenz von Gleichgewichten und Konvergenz der lokalen Suche exakte Potentialfunktion: f e Φ f = l e (i) e E i=1 Jedes (lokale) Minimum von Φ f ist ein Gleichgewicht. Lokale Nachbarschaft einer Lösung f: Die Menge der Lösungen die sich von f nur durch die Wahl eines Spielers unterscheiden. Verbessert sich ein Spieler um Δ, dann sinkt Φ um Δ. Im (lokalen) Minimum kann es also einen solchen Spieler nicht geben. 46
42 Klausur Datum: Uhrzeit: 11:00-13:00 Raum: O1 Schriftliche Klausur Erlaubte Hilfsmittel: Stift. Ein einseitig, handschriftlich beschriebenes DIN A4 Blatt. Selbst geschrieben, nicht ausgedruckt oder kopiert. Studierendenausweis nicht vergessen. 47
Optimierung. Vorlesung 08
Optimierung Vorlesung 08 Heute Dualität Ganzzahligkeit Optimierung der Vorlesung durch Evaluierung 2 Das duale LP Das primale LP Maximiere c T x unter Ax b, x R d 0. wird zu dem dualen LP Minimiere b T
MehrOptimierung. Vorlesung 12
Optimierung Vorlesung 12 Letze Woche Approximieren von ILP durch randomisiertes Runden. Beispiel Set Cove Relaxiertes LP lösen und runden. Probleme: 1. Zielfunktionswert 2. Zulässigkeit 1. Linearität des
MehrOptimierung. Vorlesung 02
Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j
MehrOptimierung. Vorlesung 04
Optimierung Vorlesung 04 Übungsbetrieb Mangels Teilnehmer keine Dienstagsübung mehr. Prüfung laut Paul: Di, 10. Feb. 2015 00:01-23:59 2 Was bisher geschah LP: Maximiere c T x unter Ax = b, x 0. Basis:
MehrOptimierung. Vorlesung 9
Optimierung Vorlesung 9 Heute Facility location problem 1. Komplemetärer Schlupf 2. Das Facility Location Problem 3. Problemstellung LP, Duales, Schlupf Eine Approximationsalgorithmus Analyse und Beweis
MehrOptimierung. Vorlesung 13
Optimierung Vorlesung 13 Letze Woche Branch&Bound Suchbaum Nach Möglichkeit nicht komplett durchsuchen Abschätzungen nach oben und unten Suchheuristiken Randomisierte Lokale Suche Simulated Annealing Metropolis
MehrEinführung in die Lineare Programmierung
Einführung in die Lineare Programmierung Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 RWTH Aachen 28. Mai 2008 Elementares Beispiel Die kanonische Form Die algebraische Gleichungsform Gegeben seien
MehrKAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN
KPITEL 6 GNZZHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULRE MTRIZEN F. VLLENTIN,. GUNDERT. Ganzzahlige lineare Programme Viele Optimierungsprobleme des Operations Research lassen sich als ganzzahlige lineare
MehrKlausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2005/2006
Universität Hannover Wirtschaftswissenschaftliche Fakultät Lehrstuhl für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 005/006
MehrVORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung
MehrBraess-Paradoxon und der Preis der Anarchie
Algorithmische Spieltheorie Sommer 208 Wardropspiele Existenz und Eindeutigkeit von Wardrop-Gleichgewichten Verkehrsmodell von Wardrop Ein Wardropspiel ist gegeben durch einen gerichteten Graphen G = (V,
MehrBraess-Paradoxon und der Preis der Anarchie
Algorithmische Spieltheorie Sommer 207 Wardropspiele Existenz und Eindeutigkeit von Wardrop-Gleichgewichten Verkehrsmodell von Wardrop Ein Wardropspiel ist gegeben durch einen gerichteten Graphen G = (V,
MehrOptimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn
Optimierung Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung 1 Assignment Problem (Zuordnungsproblem) Gewichtetes Perfektes Bipartites Matching agents Costs tasks Weise jedem Agenten genau
MehrOptimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn
Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,
Mehr6 Korrektheit des Simplexalgorithmus
6 Korrektheit des Simplexalgorithmus Folgerung: Es sei L: Ax = b, c T x max LP und A B nicht-degenerierte PZB von L und es gebe c r := c r c B A B A r > 0 a) Falls a r := A B a r 0, dann L unbeschränkt
MehrEcken des Zuordnungsproblems
Total unimodulare Matrizen Ecken des Zuordnungsproblems Definition.6 Ein Zuordnungsproblem mit den Vorzeichenbedingungen 0 apple x ij apple für i, j =,...,n statt x ij 2{0, } heißt relaxiertes Zuordnungproblem.
MehrKap. 4.3: Das Dualitätstheorem der linearen Optimierung
Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur
MehrGemischt-ganzzahlige und Kombinatorische Optimierung
5. Präsenzaufgabenblatt, Sommersemester 2015 Übungstunde am 15.06.2015 Aufgabe J Betrachten Sie die LP-Relaxierung max c T x a T x b 0 x i 1 des 0/1-Knapsack-Problems mit n Gegenständen, c 0 und a > 0.
MehrComputer Science Department - High Performance and Web Computing Group. Optimierungsprobleme
Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter
MehrKombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
MehrGanzzahlige lineare Programme
KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.
MehrDie lineare Programmierung. Die Standardform 1 / 56
Die lineare Programmierung Die Standardform 1 / 56 Die Standardform der linearen Programmierung - Für n reellwertige, nichtnegative Variablen x 1 0,..., x n 0 erfülle die m linearen Gleichungen n a ij
MehrOptimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung
Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze
MehrH. Meyerhenke: Kombinatorische Optimierung. Paralleles Rechnen, Institut für Theoretische Informatik, Fakultät für Informatik
VORLESUNG 13 Smoothed Analysis des Simplex-Algorithmus Nach Heiko Röglin, Universität Bonn, Vorlesungsskript Introduction to Smoothed Analysis vom 9. Januar 2012 78 Wiederholung Simplex-Algorithmus! Korrektheit:!
MehrVortrag 20: Kurze Vektoren in Gittern
Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am 17.01.013 Parametrisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales
MehrEinführung in die Mathematik des Operations Research
Universität zu Köln Mathematisches Institut Prof. Dr. F. Vallentin Einführung in die Mathematik des Operations Research Sommersemester 3 en zur Klausur (7. Oktober 3) Aufgabe ( + 3 + 5 = Punkte). Es sei
MehrEffiziente Algorithmen II
10. Präsenzaufgabenblatt, WiSe 2014/15 Übungstunde am 19.01.2015 Aufgabe Q Betrachten Sie das Knapsackpolytop P = conv(v ) mit V = {x n i=1 a ix i α} {0, 1} n für gegebenes α und a i 0 (insbesondere ist
MehrVORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind
MehrVORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max
MehrKap. 4: Lineare Programmierung
Kap. 4: Lineare Programmierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 13./14. VO A&D WS 08/09 27.11./2.12.2008 Petra Mutzel Alg. & Dat.
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung
MehrDiskrete Optimierungsverfahren zur Lösung von Sudokus
Diskrete Optimierungsverfahren zur Lösung von Sudokus Seminarvortrag von Daniel Scholz am 6. Dezember 2006 Am Beispiel der Lösung von Sudokurätseln mit Hilfe der linearen Optimierung werden verschiedenen
MehrVorlesung Lineare Optimierung (Sommersemester 2007)
1 Vorlesung Lineare Optimierung (Sommersemester 007) Kapitel 9: Ganzzahlige Polyeder und Kombinatorische Dualität Volker Kaibel Otto-von-Guericke Universität Magdeburg Montag, 9. Juli 007 Gliederung Ganzzahlige
MehrDer Branching-Operator B
Branching 1 / 17 Der Branching-Operator B Unser Ziel: Löse das allgemeine Minimierungsproblem minimiere f (x), so dass Lösung(x). B zerlegt eine Menge von Lösungen in disjunkte Teilmengen. Die wiederholte
MehrAlgorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck
Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach
MehrKlausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008
Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester
MehrKLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG
KLAUSUR ZUR LINEAREN ALGEBRA I Wiederholungsprüfung MUSTERLÖSUNG. April 2008 Name: Studiengang: Aufgabe 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter
MehrOperations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.
Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme
MehrPerlen der Informatik I Wintersemester 2012 Aufgabenblatt 7
Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt
MehrLineare Programmierung (2)
Inhalt Rückblick Motivation - linearen Programmierung Flussprobleme Multiple Warenflüsse Fortsetzung Simplex Algorithmus Initialisierung Fundamentalsatz der linearen Programmierung schwache Dualität Dualität
MehrFlüsse in Netzwerken
Skript zum Seminar Flüsse in Netzwerken WS 2008/09 David Meier Inhaltsverzeichnis 1 Einführende Definitionen und Beispiele 3 2 Schnitte in Flussnetzwerken 12 2.1 Maximaler s t Fluss..........................
MehrDualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
MehrOptimierung Optimization. Vorlesung 01
Optimierung Optimization Vorlesung 01 Organisatorisches skopalik@mail.upb.de Büro: F1.209 (Sprechstunde nach Vereinbarung) Vorlesung: Freitags, 11:15 12:45, F0 053 Übungen: Dienstags, 13:15 14:00, F0 053
MehrStudientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform
Mehr1 Einführung in Lineare Programme und Dualität
Gliederung Inhaltsverzeichnis 1 Einführung in Lineare Programme und Dualität 1 1.1 Lineare Programme......................... 1 1.2 Dualität............................... 2 2 Grundlegende Sätze und Definitionen
MehrKlausur zur Vorlesung Operations Research im Sommersemester 2009
Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Operations Research im Sommersemester 2009 Hinweise:
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 16 Programm: Einführung
MehrDie duale Simplexmethode
Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick
MehrOptimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
MehrWiederholung. Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b
Wiederholung Wir gehen von LP s in Standardform aus, wobei A R m n vollen Zeilenrang hat: minc T x A x = b x 0. x R n heißt Basislösung, wenn Ax = b und rang(a J ) = J, wobei J = {j x (j) 0}; Basislösung
MehrStefan Schmid TU Berlin & T-Labs, Berlin, Germany. Reduktionen in der Berechenbarkeitstheorie
Stefan Schmid TU Berlin & T-Labs, Berlin, Germany Reduktionen in der Berechenbarkeitstheorie Problem: Wie komme ich von hier zum Hamburger Hbf? 2 Beispiel P1 Wie komme ich von hier zum Hamburger Hbf? kann
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen Relaxation Inhaltsübersicht für heute: Branch-and-Bound Konvexe Mengen, konvexe Hülle, konvexe Funktionen
MehrLeibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber
Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Sitzplatznr.: Wiederholungsklausur zur Vorlesung Operations Research im Wintersemester
MehrNash-Gleichgewichte in 2-Spieler Systemen. Katharina Klost Freie Universität Berlin
Nash-Gleichgewichte in 2-Spieler Systemen Katharina Klost Freie Universität Berlin Seminar über Algorithmen, 29.10.2013 Grundlegende Definitionen A Gewinnmatrix für Spieler 1, B Gewinnmatrix für Spieler
MehrMinimumproblem. Definition 4.7. Ein LP der Form. unter den Nebenbedingungen. d ij x j b i (i =1,...,m)
Minimumproblem Definition 4.7 Ein LP der Form nx Minimiere Z = c j x j j=1 unter den Nebenbedingungen nx d ij x j b i (i =1,...,m) j=1 und den Vorzeichenbedingungen x j 0(j =1,...,n) heißt Minimumproblem.
MehrInhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung
8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen
MehrBetriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 22 1 Das Travelling Salesperson Problem
MehrDer LLL - Algorithmus. Seminar ganzzahlige Optimierung Wintersemester 2006/2007
Der LLL - Algorithmus Seminar ganzzahlige Optimierung Wintersemester 2006/2007 Autor: Konrad Schade Betreuer: Prof. Dr. J. Rambau 1 Einführung 1.1 Motivation In dieser Arbeit soll die Verwendung des LLL-Algotithmuses
MehrIn diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)
34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)
MehrLösung allgemeiner linearer Programme
Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt
MehrLineare Programmierung Teil I
Seminar über Algorithmen Prof. Dr. Helmut Alt Lineare Programmierung Teil I Lena Schlipf, Benjamin Jankovic Lena Schlipf, Benjamin Jankovic Seminar über Algorithmen SS05 1 Struktur des Vortrags 1. Was
MehrNäherungsalgorithmen (Approximationsalgorithmen) WiSe 2008/09 in Trier. Henning Fernau Universität Trier
Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2008/09 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Näherungsalgorithmen Gesamtübersicht Organisatorisches Einführung / Motivation
MehrSchnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005
Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung
MehrEffiziente Algorithmen Lineares Programmieren 216. Schwache Dualität
Effiziente Algorithmen Lineares Programmieren 216 Schwache Dualität Sei wieder z = max{ c T x Ax b, x 0 } (P ) und w = min{ b T u A T u c, u 0 }. (D) x ist primal zulässig, wenn x { x Ax b, x 0 }. u ist
MehrKap. 3: Exakte Lösungsverfahren für NPschwierige. Optimierungsprobleme VO Algorithm Engineering
Kap. 3: Exakte Lösungsverfahren für NPschwierige kombinatorische Optimierungsprobleme VO Algorithm Engineering 3.1 Einführung Professor Dr. Petra Mutzel 3.2 Komb. vs. Ganzzahlige Opt. Lehrstuhl für Algorithm
MehrLösungen von Übungsblatt 12
Lösungen von Übungsblatt 12 Algorithmen (WS 2018, Ulrike von Luxburg) Lösungen zu Aufgabe 1 Eine (kanonische) Möglichkeit, die Branch-Schritte auszuführen ergibt sich wie folgt: Das ursprüngliche Problem
Mehr3.4 Exakte Verfahren für (Gemischt-) Ganzzahlige Optimierung
32KAPITEL 3. NP-SCHWIERIGE KOMBINATORISCHE OPTIMIERUNGSPROBLEME n Anzahl der Ungleichungen 3 8 4 20 5 40 6 910 7 87.472 8 >488.602.996 Tabelle 3.1: Anzahl der Ungleichungen des LOP-Polytops für n 8 3.4
MehrSchnittebenenverfahren für das symmetrische
Schnittebenenverfahren für das symmetrische TSP Sebastian Peetz Mathematisches Institut Universität Bayreuth 19. Januar 2007 / Blockseminar Ganzzahlige Optimierung, Bayreuth Gliederung 1 Das symmetrische
Mehr10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen
10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie
MehrBetriebswirtschaftliche Optimierung
Institut für Statistik und OR Uni Graz 1 Das Travelling Salesperson Problem 2 Das Travelling Salesperson Problem Zentrales Problem der Routenplanung Unzählige wissenschaftliche Artikel theoretischer sowie
MehrÜbungsblatt 6 Lösungsvorschläge
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Lösungsvorschläge Vorlesung Algorithmentechnik im WS 09/10 Problem 1: Größter Kreis in konvexem Polygon [vgl. Kapitel 6
Mehr1 Der Simplex Algorithmus I
1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Übung am 16.12.2010 INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
MehrMaximale s t-flüsse in Planaren Graphen
Maximale s t-flüsse in Planaren Graphen Vorlesung Algorithmen für planare Graphen June 1, 2015 Ignaz Rutter INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg
MehrKapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester
MehrWie schreibe ich einen Kürzester Kruzester
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 5 Vorlesung Algorithmentechnik im WS 8/9 Ausgabe 16. Dezember 8 Abgabe 13. Januar 9, 15:3 Uhr (im Kasten vor Zimmer 319, Informatik-Hauptgebäude,
MehrAlgorithmen zur Visualisierung von Graphen Lagenlayouts Teil 2
Algorithmen zur Visualisierung von Graphen Teil 2 INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Tamara Mchedlidze Martin Nöllenburg Ignaz Rutter 18.12.2012 Geg.: gerichteter Graph D = (V,
MehrAlgorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme
10 Matching-Probleme 10.1 Definition von Matching-Probleme Definition 21 [2-dimensionales Matching] Sei G = (V, E) ein ungerichteter Graph und E E. E ist ein Matching, wenn für alle Kantenpaare e 1, e
MehrGraphische Spiele. M i (p) M i (p[i : p i]) M i (p) + ε M i (p[i : p i])
Seminar über Algorithmen 19. November 2013 Michael Brückner Graphische Spiele Wolfgang Mulzer, Yannik Stein 1 Einführung Da in Mehrspielerspielen mit einer hohen Anzahl n N an Spielern die Auszahlungsdarstellungen
MehrDiskrete Optimierung (Einführung zur Vorlesung)
Diskrete Optimierung (Einführung zur Vorlesung) Christoph Helmberg : [,] Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete
MehrTheoretische Informatik 1
Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 02.07.2015 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP
MehrTheoretische Informatik 1
Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 10.06.2016 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP
MehrD-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 10
D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler Lösungen Serie 10 1. Für a 1 : 1 1 0, a 2 : 1 1, a 3 : 1 1 1, b : 2 2 2 1 und A : (a 1, a 2, a 3 ) gelten welche der folgenden Aussagen? (a) det(a)
MehrEuklidische Distanzmatrizen. Andrei Grecu
Euklidische Distanzmatrizen Andrei Grecu Übersicht Motivation Definition und Problemstellung Algo 1: Semidefinite Programmierung Algo 2: Multidimensional Scaling Algo 3: Spring Embedder Algo 4: Genetischer
Mehrlineare Programmierung
lineare Programmierung Viele Probleme sind durch lineare Gleichungssysteme charakterisiert lineare Programmiermethoden Der Lösungsraum ist häufig auf ganze Zahlen oder gar natürliche Zahlen eingeschränkt!
MehrTeil I. Lineare Optimierung
Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,
MehrProbabilistische Analyse von Algorithmen
Lehrstuhl Informatik I Algorithmen & Komplexität RWTH Aachen 27. Mai 2005 Übersicht Einführung 1 Einführung 2 Exkurs: Wahrscheinlichkeitstheorie Borgwardts 3 Idee 4 Formale Beschreibung des s Motivation
MehrÜberblick. Kap. 1.4: Minimum Weight Perfect Matching. 1.3 Blüten-Schrumpf Algorithmus für Maximum Matching
Kap. 1.4: Minimum Weight Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 4. VO 6. November 2006 Überblick kurze Wiederholung: 1.2 Blüten-Schrumpf-Algorithmus für Perfektes Matching
MehrAnalysis III. Vorlesung 87. Mannigfaltigkeiten mit Rand
Prof. Dr. H. Brenner Osnabrück WS 2015/2016 Analysis III Vorlesung 87 Mannigfaltigkeiten mit Rand Eine zweidimensionale Mannigfaltigkeit mit Rand. Der Rand besteht aus den vier geschlossenen Bögen. Definition
MehrEinführung in das Seminar Algorithmentechnik
Einführung in das Seminar Algorithmentechnik 10. Mai 2012 Henning Meyerhenke, Roland Glantz 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Roland undglantz: nationales Einführung Forschungszentrum
MehrSCHNITTERHALTUNG (SPEKTRALE APPROXIMATION)
Vorlesung 12 AUSDÜNNUNG VON GRAPHEN SCHNITTERHALTUNG (SPEKTRALE APPROXIMATION) 387 Wiederholung: Approximative Schnitterhaltung Ziel: Approximationsalgorithmus: A(S(G)) Ziele bei Eingabe eines dichten
MehrDas Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering
Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme
MehrÜberblick Kap. 5: Graph Coloring
Überblick Kap. 5: Graph Coloring Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 10./11. VO 18.12.0 / 8.1.07 5.1 Einführung Definition und Motivation Sudoku 5.2 ILP-Formulierungen
MehrKapitel 9: Lineare Programmierung Gliederung
Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen
MehrKap. 5: Graph Coloring
Kap. 5: Graph Coloring Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 10./11. VO 18.12.06 / 8.1.07 Überblick 5.1 Einführung Definition und Motivation Sudoku 5.2 ILP-Formulierungen
Mehr10. Komplexität der Linearen Optimierung und Innere Punkte Methoden
56 10.1 LP ist in NP! conp... 57 10.2 Zur Laufzeit des Simplexalgorithmus... 58 10.3 Die Ellipsoidmethode... 59... 60 10.1 LP ist in NP! conp 57-1 Wichtigste Aussagen dieses Kapitels (alle ohne vollständigen
MehrChinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151
Inhaltsverzeichnis 1 Kernkonzepte der linearen Optimierung... 1 1.1 Einführung... 1 1.2 Grundlegende Definitionen... 8 1.3 Grafische Lösung... 10 1.4 Standardform und grundlegende analytische Konzepte...
Mehr