Algorithmische Methoden für schwere Optimierungsprobleme
|
|
- Susanne Schmidt
- vor 6 Jahren
- Abrufe
Transkript
1 Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische Informatik nationales Algorithmische Forschungszentrum Methoden in der Helmholtz-Gemeinschaft für schwere Optimierungsprobleme
2 Vorlesung 4 Programm des Tages: Übung: Bin-Packing, Christofides Lokale Suche Zusätzliche Literatur: Ausiello et al.: Complexity and Approximation. Combinatorial Optimization Problems and Their Approximability Properties. Springer, Chapter Henning Meyerhenke, Institut für Theoretische Informatik
3 Inhalt Metaheuristik Lokale Suche Komponenten Konvergenz Weitere Anwendungen 3 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche
4 Lokale Suchheuristiken......starten bei einer initialen zulässigen Lösung...bewegen sich von der aktuellen Lösung zu einem (meist verbessernden) Nachbarn im Lösungsraum...terminieren (meist) in einem lokalen Optimum Frühere Terminierung manchmal sinnvoll 4 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche
5 Lokale Suchheuristiken......starten bei einer initialen zulässigen Lösung...bewegen sich von der aktuellen Lösung zu einem (meist verbessernden) Nachbarn im Lösungsraum...terminieren (meist) in einem lokalen Optimum Frühere Terminierung manchmal sinnvoll Traversierung des Lösungsraums kann als gerichteter Graph modelliert werden Spezialfall: Bergsteiger-Algorithmus 4 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche
6 Tauschheuristik k-opt (hier k = 2) Lokale Suche mit fester Tiefe Praxis: Lokale Suchverfahren (Metaheuristiken!) sehr erfolgreich Algorithmus 2-Opt 1. Start mit beliebiger Tour 2. Wiederhole, bis keine Verbesserung möglich: 2.1 Verbesserungsschritt: Wähle zwei Kanten {u 1, u 2 } und {v 1, v 2 } aus der Tour: u 1, u 2, v 1, v 2 paarweise verschieden u 1, u 2, v 1, v 2 erscheinen in dieser Reihenfolge in der Tour 2.2 Ersetze durch {u 1, v 1 } und {u 2, v 2 }, falls die Tour dadurch kürzer wird 5 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche
7 Tauschheuristik k-opt (hier k = 2) Lokale Suche mit fester Tiefe Praxis: Lokale Suchverfahren (Metaheuristiken!) sehr erfolgreich Algorithmus 2-Opt 1. Start mit beliebiger Tour 2. Wiederhole, bis keine Verbesserung möglich: 2.1 Verbesserungsschritt: Wähle zwei Kanten {u 1, u 2 } und {v 1, v 2 } aus der Tour: u 1, u 2, v 1, v 2 paarweise verschieden u 1, u 2, v 1, v 2 erscheinen in dieser Reihenfolge in der Tour 2.2 Ersetze durch {u 1, v 1 } und {u 2, v 2 }, falls die Tour dadurch kürzer wird Terminiert in lokalem Optimum Auf realen Instanzen häufig erstaunlich gute Qualität bei meist subquadratischer Iterationszahl 5 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche
8 Tauschheuristik k-opt (hier k = 2) Lokale Suche mit fester Tiefe Praxis: Lokale Suchverfahren (Metaheuristiken!) sehr erfolgreich Algorithmus 2-Opt 1. Start mit beliebiger Tour 2. Wiederhole, bis keine Verbesserung möglich: 2.1 Verbesserungsschritt: Wähle zwei Kanten {u 1, u 2 } und {v 1, v 2 } aus der Tour: u 1, u 2, v 1, v 2 paarweise verschieden u 1, u 2, v 1, v 2 erscheinen in dieser Reihenfolge in der Tour 2.2 Ersetze durch {u 1, v 1 } und {u 2, v 2 }, falls die Tour dadurch kürzer wird Terminiert in lokalem Optimum Auf realen Instanzen häufig erstaunlich gute Qualität bei meist subquadratischer Iterationszahl Beispiel: Siehe Leinwand! 5 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche
9 Lin-Kernighan-Heuristik Lokale Suche mit variabler Tiefe Idee Sei eine Tour τ gegeben. Finde Folgen C und C mit k Paaren von Städten mit: C = ((c p1, c q1 ),..., (c pk, c qk )) C = ((c s1, c t1 ),..., (c sk, c tk )) c pi und c qi sind benachbart in τ für 1 i k c si und c ti sind nicht benachbart in τ für 1 i k c qi = c si für 1 i k c ti = c pi+1 für 1 i k 1 c tk = c p1 Tausch der Paare in C mit allen Paaren in C in τ ergibt kürzere Tour τ Beispiel: Siehe Tafel! 6 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche
10 Lin-Kernighan-Heuristik Eine einfachere Variante Algor. Lin-Kernighan (Eingabe: Städte c 1,... c n, Ausgabe: Tour) 1. Setze L = 0 und k = 1. Wähle zwei beliebige in τ benachbarte Städte c p1 und c q1. Setze C = {c p1, c q1 }, c s1 = c q1 und i = 1. 7 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche
11 Lin-Kernighan-Heuristik Eine einfachere Variante Algor. Lin-Kernighan (Eingabe: Städte c 1,... c n, Ausgabe: Tour) 1. Setze L = 0 und k = 1. Wähle zwei beliebige in τ benachbarte Städte c p1 und c q1. Setze C = {c p1, c q1 }, c s1 = c q1 und i = Finde zwei Städte x und y, so dass gilt: 2.1 x und y sind benachbart in τ und gehören nicht zu C 2.2 Ersetzen der i + 1 Kanten (c p1, c q1 ),..., (c pi, c qi ), (x, y) in τ durch die Kanten (c s1, c t1 ),..., (c si, x), (y, c p1 ) ergibt eine Tour 2.3 = L i + (dist(p i, q i ) + dist(x, y)) (dist(s i, x) + dist(y, p 1 )) > 0 mit L i = i 1 j=1 dist(p j, q j ) dist(s j, t j ) 7 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche
12 Lin-Kernighan-Heuristik Eine einfachere Variante Algor. Lin-Kernighan (Eingabe: Städte c 1,... c n, Ausgabe: Tour) 1. Setze L = 0 und k = 1. Wähle zwei beliebige in τ benachbarte Städte c p1 und c q1. Setze C = {c p1, c q1 }, c s1 = c q1 und i = Finde zwei Städte x und y, so dass gilt: 2.1 x und y sind benachbart in τ und gehören nicht zu C 2.2 Ersetzen der i + 1 Kanten (c p1, c q1 ),..., (c pi, c qi ), (x, y) in τ durch die Kanten (c s1, c t1 ),..., (c si, x), (y, c p1 ) ergibt eine Tour 2.3 = L i + (dist(p i, q i ) + dist(x, y)) (dist(s i, x) + dist(y, p 1 )) > 0 mit L i = i 1 j=1 dist(p j, q j ) dist(s j, t j ) Falls x und y nicht existieren, dann gehe zum nächsten Schritt. Andernfalls: Setze c ti = c pi+1 = x und c qi+1 = c si+1 = y und C = C {x, y}. Falls > L, setze L = und k = i + 1. Setze i = i + 1. Wiederhole Schritt 2. 7 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche
13 Lin-Kernighan-Heuristik Eine einfachere Variante Algor. Lin-Kernighan (Eingabe: Städte c 1,... c n, Ausgabe: Tour) 1. Setze L = 0 und k = 1. Wähle zwei beliebige in τ benachbarte Städte c p1 und c q1. Setze C = {c p1, c q1 }, c s1 = c q1 und i = Finde zwei Städte x und y, so dass gilt: 2.1 x und y sind benachbart in τ und gehören nicht zu C 2.2 Ersetzen der i + 1 Kanten (c p1, c q1 ),..., (c pi, c qi ), (x, y) in τ durch die Kanten (c s1, c t1 ),..., (c si, x), (y, c p1 ) ergibt eine Tour 2.3 = L i + (dist(p i, q i ) + dist(x, y)) (dist(s i, x) + dist(y, p 1 )) > 0 mit L i = i 1 j=1 dist(p j, q j ) dist(s j, t j ) Falls x und y nicht existieren, dann gehe zum nächsten Schritt. Andernfalls: Setze c ti = c pi+1 = x und c qi+1 = c si+1 = y und C = C {x, y}. Falls > L, setze L = und k = i + 1. Setze i = i + 1. Wiederhole Schritt Falls k > 1, dann ersetze in τ die k Kanten (c p1, c q1 ),..., (c pk, c qk ) durch (c s1, c t1 ),..., (c sk, c p1 ) und gib die neue Tour zurück. Sonst gib τ zurück. 7 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche
14 Inhalt Metaheuristik Lokale Suche Komponenten Konvergenz Weitere Anwendungen 8 Henning Meyerhenke, Institut für Theoretische Informatik
15 Einführung Glühen, engl. annealing Stahl bildet Kristallstrukturen Art der Struktur hängt vom Energieniveau ab Physikalische Systeme streben niedrigen Energiezustand an [http: // php?id=metals_crystal_structure] (Lizenz CC BY-NC-SA 3.0) Die SimAn-Folien sind mit freundlicher Unterstützung von Lukas Barth entstanden. 9 Henning Meyerhenke, Institut für Theoretische Informatik
16 Einführung Glühen, engl. annealing Stahl bildet Kristallstrukturen Art der Struktur hängt vom Energieniveau ab Physikalische Systeme streben niedrigen Energiezustand an Stahl erhitzen, um Atome beweglich zu machen Atome bewegen sich in günstigere Positionen Langsam abkühlen, um Atome dort festzuhalten [http: // php?id=metals_crystal_structure] (Lizenz CC BY-NC-SA 3.0) Die SimAn-Folien sind mit freundlicher Unterstützung von Lukas Barth entstanden. 9 Henning Meyerhenke, Institut für Theoretische Informatik
17 Analogien zwischen Stahlproduktion und Optimierung Stahl Systemzustand Positionen der Moleküle Energie Metastabiler Zustand Temperatur Bewegung der Atome Algorithmus Lösung Entscheidungsvariablen Zielfunktion Lokales Optimum Kontrollparameter Änderung der Lösung 10 Henning Meyerhenke, Institut für Theoretische Informatik
18 Analogien zwischen Stahlproduktion und Optimierung Stahl Systemzustand Positionen der Moleküle Energie Metastabiler Zustand Temperatur Bewegung der Atome Algorithmus Lösung Entscheidungsvariablen Zielfunktion Lokales Optimum Kontrollparameter Änderung der Lösung Weitere Eigenschaften von Simulated Annealing: Erinnerungslos Randomisiert Iterativ 10 Henning Meyerhenke, Institut für Theoretische Informatik
19 Algorithmus Pseudocode Algorithm 1 Simulated Annealing 1: function SIMULATEDANNEALING(I) 2: solution = generate_random_solution() 3: t = initial_temperature() 4: repeat 5: repeat 6: new_solution = find_neighbour(solution) 7: if accept(t, f(new_solution), f(solution)) then 8: solution = new_solution 9: end if 10: until Equilibrium 11: t = cool_down(t) 12: until Stop criterion 13: return beste bisher gefundene Lösung 14: end function 11 Henning Meyerhenke, Institut für Theoretische Informatik
20 Algorithmus-Bausteine Starttemperatur Nachbarschafts-Operator Akzeptierungs-Funktion Gleichgewichtskriterium Abkühlungs-Funktion Abbruchkriterium 12 Henning Meyerhenke, Institut für Theoretische Informatik
21 Starttemperatur Am Anfang sollen verschlechternde Züge einfach möglich sein Zufällige Instanz I wählen, dann einige zufällige Modifikationen machen und I messen (durchschnittliche Änderung der Zielfunktion) Wähle dann initiale Temperatur T signifikant höher als I 13 Henning Meyerhenke, Institut für Theoretische Informatik
22 Nachbarschafts-Operator Beispielsweise: 2-Opt-Austausch Invertierung einer Teilfolge Tausch zweier Städte 14 Henning Meyerhenke, Institut für Theoretische Informatik
23 Akzeptierungs-Funktion Die Akzeptierungs-Funktion: Boltzmann-Verteilung P t (j akzeptieren) = { 1 falls f (j) f (i) f (j) f (i) e t falls f (j) < f (i) 15 Henning Meyerhenke, Institut für Theoretische Informatik
24 Akzeptierungs-Funktion Die Akzeptierungs-Funktion: Boltzmann-Verteilung P t (j akzeptieren) = { 1 falls f (j) f (i) f (j) f (i) e t falls f (j) < f (i) Beschleunigung: Lookup-Table für Intervalle von Differenzwerten 15 Henning Meyerhenke, Institut für Theoretische Informatik
25 Gleichgewichtskriterium Beispielsweise: Keine Verbesserung für eine bestimmte Zeit Feste Anzahl von Runden, z. B. in Abhängigkeit von n 16 Henning Meyerhenke, Institut für Theoretische Informatik
26 Abkühlungs-Funktion Beispielsweise: Multiplikation mit festem Faktor, z. B. 0.9 oder 0.95 Bestimmt wesentlich Laufzeit und Qualität 17 Henning Meyerhenke, Institut für Theoretische Informatik
27 Abbruchprozess Beispielsweise: Abbrechen bei 5 aufeinanderfolgenden Temperaturen ohne verbesserte Lösung und ohne Akzeptanz-Wkt. über 2% Zum Schluss 2-Opt ausführen 18 Henning Meyerhenke, Institut für Theoretische Informatik
28 Simulated Annealing für 1: function SIMULATEDANNEALING-(I) 2: solution = generate_initial_solution() 3: repeat 4: repeat 5: Wähle ein Segment (v i,..., v j ) aus (v 1,..., v n ) 6: Konstruiere Nachbarn new_solution durch Invertierung oder Austausch im gewählten Segment 7: if accept(t, f(new_solution), f(solution)) then 8: solution = new_solution 9: end if 10: until 100n Schritte oder 10n Modifikationen erfolgt 11: T 0.9T 12: until 100n Schritte ohne akzeptierte Änderungen erfolgt 13: return beste gefundene Lösung 14: end function 19 Henning Meyerhenke, Institut für Theoretische Informatik
29 Zwischenfazit Einfache lokale Suchheuristik 2-Opt: Feste Nachbarschaftstiefe k-opt mit größeren k möglich Lin-Kernighan: Variable Nachbarschaftstiefe Simulated Annealing: Randomisiert aus lokalen Optima entkommen 20 Henning Meyerhenke, Institut für Theoretische Informatik
30 Markov-Ketten Crashkurs Markov-Ketten Endliche Automaten Zufallsabhängige Zustandsübergänge... nur abhängig vom aktuellen Zustand und Zeitpunkt! 21 Henning Meyerhenke, Institut für Theoretische Informatik
31 Markov-Ketten Crashkurs Markov-Ketten Endliche Automaten Zufallsabhängige Zustandsübergänge... nur abhängig vom aktuellen Zustand und Zeitpunkt! Übergangsmatrix p 11 (k)... p 1n (k) (p ij (k)) = P =..... p n1 (k)... p nn (k) 21 Henning Meyerhenke, Institut für Theoretische Informatik
32 Übergangsmatrix G Erzeugungsmatrix A(t) Akzeptanz-Matrix 22 Henning Meyerhenke, Institut für Theoretische Informatik
33 Übergangsmatrix G Erzeugungsmatrix A(t) Akzeptanz-Matrix { G i, j S : P ij (t k ) = ij A ij (t k ) falls i = j 1 l S,l =i P il (t k ) falls i = j 22 Henning Meyerhenke, Institut für Theoretische Informatik
34 Übergangsmatrix G Erzeugungsmatrix A(t) Akzeptanz-Matrix { G i, j S : P ij (t k ) = ij A ij (t k ) falls i = j 1 l S,l =i P il (t k ) falls i = j G ij = { 1 S i falls j S i 0 sonst 22 Henning Meyerhenke, Institut für Theoretische Informatik
35 Übergangsmatrix G Erzeugungsmatrix A(t) Akzeptanz-Matrix { G i, j S : P ij (t k ) = ij A ij (t k ) falls i = j 1 l S,l =i P il (t k ) falls i = j G ij = { 1 S i falls j S i 0 sonst P ij abhängig von t k Markov-Kette inhomogen 22 Henning Meyerhenke, Institut für Theoretische Informatik
36 Modellierung Wir modellieren... Simulated Annealing mittels einer inhomogenen Markov-Kette 23 Henning Meyerhenke, Institut für Theoretische Informatik
37 Modellierung Wir modellieren... Simulated Annealing mittels einer inhomogenen Markov-Kette Simulated Annealing bei einer Temperatur: homogene Markov-Kette 23 Henning Meyerhenke, Institut für Theoretische Informatik
38 Modellierung Wir modellieren... Simulated Annealing mittels einer inhomogenen Markov-Kette Simulated Annealing mittels einer Folge von homogenen Markov-Ketten Simulated Annealing bei einer Temperatur: homogene Markov-Kette 23 Henning Meyerhenke, Institut für Theoretische Informatik
39 Stationäre Verteilungen Stationäre Verteilung Wahrscheinlichkeitsverteilung für den Zustand der Markov-Kette nach sehr vielen Übergängen. 24 Henning Meyerhenke, Institut für Theoretische Informatik
40 Stationäre Verteilungen Stationäre Verteilung Wahrscheinlichkeitsverteilung für den Zustand der Markov-Kette nach sehr vielen Übergängen. q = lim a T (0) k k l=1 P(l) a(0): Wahrscheinlichkeitsverteilung über die Zustände zum Zeitpunkt Henning Meyerhenke, Institut für Theoretische Informatik
41 Stationäre Verteilungen Wir zeigen... diese Markov-Kette hat eine stationäre Verteilung für t 0 konvergiert diese Verteilung q gegen q mit q i = 1 S opt χ S opt (i) 25 Henning Meyerhenke, Institut für Theoretische Informatik
42 Asymptotik von Simulated Annealing Beweis in 4 Schritten 1. Finden eines notwendigen Kriteriums für eine stationäre Verteilung 2. Beweisen: Der Vektor, der (1) erfüllt, ist eindeutig 3. Angeben einer Verteilung, die (1) erfüllt 4. Zeigen, dass die Verteilung aus (3) gegen q konvergiert 26 Henning Meyerhenke, Institut für Theoretische Informatik
43 Ein notwendiges Kriterium Eine stationäre Verteilung ist ein linker Eigenvektor zum Eigenwert 1 der Übergangsmatrix: q T = lim a T (0) k k l=1 P(l) homogen = lim k a T (0)P k = lim a T (0)P k 1 P k = lim a T (0)P l P l = q T P 27 Henning Meyerhenke, Institut für Theoretische Informatik
44 Asymptotik von Simulated Annealing Beweis in 4 Schritten Finden eines notwendigen Kriteriums für eine stationäre Verteilung 2. Beweisen: Der Vektor, der (1) erfüllt, ist eindeutig 3. Angeben einer Verteilung, die (1) erfüllt 4. Zeigen, dass die Verteilung aus (3) gegen q konvergiert 28 Henning Meyerhenke, Institut für Theoretische Informatik
45 Eindeutigkeit des Eigenvektors Satz von Perron-Frobenius: Größter Eigenwert hat algebraische Vielfachheit 1 Noch zu zeigen: P kann keinen Eigenwert größer 1 haben. 29 Henning Meyerhenke, Institut für Theoretische Informatik
46 Eindeutigkeit des Eigenvektors Satz von Perron-Frobenius: Größter Eigenwert hat algebraische Vielfachheit 1 Noch zu zeigen: P kann keinen Eigenwert größer 1 haben. Größter Eigenwert 1 P ist zeilenstochastisch Der größte Eigenwert von P ist gleich dem größten Eigenwert von P T. Die Spalten von P T sind stochastische Vektoren. Nachrechnen: v P T = λv mit λ > 1 kann damit nicht mehr funktionieren. 29 Henning Meyerhenke, Institut für Theoretische Informatik
47 Eindeutigkeit des Eigenvektors Annahme: λ > 1 : v : vp = λv. w : wp T = λw 30 Henning Meyerhenke, Institut für Theoretische Informatik
48 Eindeutigkeit des Eigenvektors Annahme: λ > 1 : v : vp = λv. w : wp T = λw Annahme: i > 1 : w 1 > w i. Es muss gelten: λw 1 = w 1 (P T ) 11 + w 2 (P T ) Henning Meyerhenke, Institut für Theoretische Informatik
49 Eindeutigkeit des Eigenvektors Annahme: λ > 1 : v : vp = λv. w : wp T = λw Annahme: i > 1 : w 1 > w i. Es muss gelten: λw 1 = w 1 (P T ) 11 + w 2 (P T ) n i=1 (P T ) i1 > 1 n P 1i > 1 i=1 30 Henning Meyerhenke, Institut für Theoretische Informatik
50 Eindeutigkeit des Eigenvektors Annahme: λ > 1 : v : vp = λv. w : wp T = λw Annahme: i > 1 : w 1 > w i. Es muss gelten: λw 1 = w 1 (P T ) 11 + w 2 (P T ) n i=1 (P T ) i1 > 1 n P 1i > 1 i=1 P ist eine zeilenstochastische Matrix! Widerspruch! 30 Henning Meyerhenke, Institut für Theoretische Informatik
51 Asymptotik von Simulated Annealing Beweis in 4 Schritten Finden eines notwendigen Kriteriums für eine stationäre Verteilung Beweisen: Der Vektor, der (1) erfüllt, ist eindeutig 3. Angeben einer Verteilung, die (1) erfüllt 4. Zeigen, dass die Verteilung aus (3) gegen q konvergiert 31 Henning Meyerhenke, Institut für Theoretische Informatik
52 Die stationäre Verteilung Die Verteilung q i (t) = 1 f (i) N 0 (t) e t Dabei ist N 0 (t) ein Normierungsfaktor: N 0 (t) = e f (j) t j S 32 Henning Meyerhenke, Institut für Theoretische Informatik
53 Die stationäre Verteilung Die Verteilung q i (t) = 1 f (i) N 0 (t) e t Dabei ist N 0 (t) ein Normierungsfaktor: N 0 (t) = e f (j) t j S Beweis des Eigenvektors: Nachrechnen. 32 Henning Meyerhenke, Institut für Theoretische Informatik
54 Die stationäre Verteilung Irreduzibilität Von jedem Zustand aus ist jeder andere Zustand erreichbar. i, j : n 1 : (P n ) ij > 0 33 Henning Meyerhenke, Institut für Theoretische Informatik
55 Die stationäre Verteilung Irreduzibilität Von jedem Zustand aus ist jeder andere Zustand erreichbar. i, j : n 1 : (P n ) ij > 0 Der Graph zu G muss stark zusammenhängend sein Alle Einträge in A sind positiv! 33 Henning Meyerhenke, Institut für Theoretische Informatik
56 Die stationäre Verteilung Irreduzibilität Von jedem Zustand aus ist jeder andere Zustand erreichbar. i, j : n 1 : (P n ) ij > 0 Der Graph zu G muss stark zusammenhängend sein Alle Einträge in A sind positiv! Egal wie klein t wird, jeder Zustand kann erreicht werden! 33 Henning Meyerhenke, Institut für Theoretische Informatik
57 Asymptotik von Simulated Annealing Beweis in 4 Schritten Finden eines notwendigen Kriteriums für eine stationäre Verteilung Beweisen: Der Vektor, der (1) erfüllt, ist eindeutig Angeben einer Verteilung, die (1) erfüllt 4. Zeigen, dass die Verteilung aus (3) gegen q konvergiert 34 Henning Meyerhenke, Institut für Theoretische Informatik
58 Konvergenz zeigen Details führen wir hier nicht aus. Ausgangssituation q i (t) = 1 f (i) N 0 (t) e t Dabei ist N 0 (t) ein Normierungsfaktor: N 0 (t) = e f (j) t j S 35 Henning Meyerhenke, Institut für Theoretische Informatik
59 Konvergenz zeigen Details führen wir hier nicht aus. Ausgangssituation q i (t) = 1 f (i) N 0 (t) e t Dabei ist N 0 (t) ein Normierungsfaktor: N 0 (t) = e f (j) t j S lim e x a = 1 für a = 0 x 0 lim e x a = 0 für a < 0 x 0 35 Henning Meyerhenke, Institut für Theoretische Informatik
60 Konvergenz zeigen lim q i(t) = t 0 e lim f (i) t t 0 j S e f (j) t 36 Henning Meyerhenke, Institut für Theoretische Informatik
61 Konvergenz zeigen lim q i(t) = t 0 e lim f (i) t t 0 j S e f (j) t = lim t 0 e f opt f (i) t f (j) t j S e f opt 36 Henning Meyerhenke, Institut für Theoretische Informatik
62 Konvergenz zeigen lim q i(t) = t 0 e lim f (i) t t 0 j S e f (j) t = lim t 0 1 j S e f opt f (j) t = lim t 0 χ Sopt (i) e f opt f (i) t f (j) t j S e f opt 36 Henning Meyerhenke, Institut für Theoretische Informatik
63 Konvergenz zeigen lim q i(t) = t 0 e lim f (i) t t 0 j S e f (j) t = lim t 0 1 j S e f opt f (j) t = lim t 0 e f opt f (i) t f (j) t j S e f opt χ Sopt (i) = 1 S opt χ S opt (i) 36 Henning Meyerhenke, Institut für Theoretische Informatik
64 Konvergenz zeigen lim q i(t) = t 0 e lim f (i) t t 0 j S e f (j) t = lim t 0 1 j S e f opt f (j) t = lim t 0 = q i e f opt f (i) t f (j) t j S e f opt χ Sopt (i) = 1 S opt χ S opt (i) 36 Henning Meyerhenke, Institut für Theoretische Informatik
65 Asymptotik von Simulated Annealing Beweis in 4 Schritten Finden eines notwendigen Kriteriums für eine stationäre Verteilung Beweisen: Der Vektor, der (1) erfüllt, ist eindeutig Angeben einer Verteilung, die (1) erfüllt Zeigen, dass die Verteilung aus (3) gegen q konvergiert Simulated Annealing findet asymptotisch eine Optimallösung! 37 Henning Meyerhenke, Institut für Theoretische Informatik
66 Bohrlöcher in Platinen Abbildung: [ 38 Henning Meyerhenke, Institut für Theoretische Informatik
67 Schulbus Abbildung: [ 39 Henning Meyerhenke, Institut für Theoretische Informatik
68 Schulbus Abbildung: [ 39 Henning Meyerhenke, Institut für Theoretische Informatik
69 Warenhaus Abbildung: [ 40 Henning Meyerhenke, Institut für Theoretische Informatik
70 Zusammenfassung Einfache lokale Suchheuristik 2-Opt: Feste Nachbarschaftstiefe k-opt mit größeren k möglich Lin-Kernighan: Variable Nachbarschaftstiefe Simulated Annealing: Randomisiert aus lokalen Optima entkommen 41 Henning Meyerhenke, Institut für Theoretische Informatik
71 Zusammenfassung Einfache lokale Suchheuristik 2-Opt: Feste Nachbarschaftstiefe k-opt mit größeren k möglich Lin-Kernighan: Variable Nachbarschaftstiefe Simulated Annealing: Randomisiert aus lokalen Optima entkommen Simulated Annealing konvergiert unter bestimmten Annahmen gegen das Optimum Aber: Konvergenz kann exponentiell lange dauern! 41 Henning Meyerhenke, Institut für Theoretische Informatik
72 Zusammenfassung Einfache lokale Suchheuristik 2-Opt: Feste Nachbarschaftstiefe k-opt mit größeren k möglich Lin-Kernighan: Variable Nachbarschaftstiefe Simulated Annealing: Randomisiert aus lokalen Optima entkommen Simulated Annealing konvergiert unter bestimmten Annahmen gegen das Optimum Aber: Konvergenz kann exponentiell lange dauern! hat vielfältige Anwendungen, auch in Verbindung mit anderen schwierigen Problemen 41 Henning Meyerhenke, Institut für Theoretische Informatik
Algorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrVerbesserungsheuristiken
Verbesserungsheuristiken Bestandteile der Lokalen Suche Für schwierige Optimierungsaufgaben haben Verbesserungsheuristiken eine große praktische Bedeutung. Sie starten mit Ausgangslösungen, die von z.b.
Mehr11. Übung zu Algorithmen I 6. Juli 2016
11. Übung zu Algorithmen I 6. Juli 2016 Lisa Kohl lisa.kohl@kit.edu mit Folien von Lukas Barth Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP ein Algorithmus
MehrSimulated Annealing. Lukas Barth. 27. August 2012
Simulated Annealing Lukas Barth 27. August 2012 Seminararbeit im Seminar Algorithmentechnik bei Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik Karlsruher Institut für Technologie
MehrKombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrAlgorithmische Methoden zur Netzwerkanalyse Vorlesung 11, Henning Meyerhenke
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 11, 18.01.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Die Forschungsuniversität Meyerhenke, in der Institut für Theoretische Informatik
MehrHeuristische Verfahren
Heuristische Verfahren Bei heuristischen Verfahren geht es darum in polynomieller Zeit eine Näherungslösung zu bekommen. Diese kann sehr gut oder sogar optimal sein, jedoch gibt es keine Garantie dafür.
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Henning Meyerhenke mit Roland Glantz 15. März 2017 3 Inhaltsverzeichnis 1 Einleitung 9 1.1 Literaturhinweise................................. 10
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Henning Meyerhenke 2. März 2017 3 Inhaltsverzeichnis 1 Einleitung 9 1.1 Literaturhinweise................................. 10 2 Behälterproblem
MehrDas Prinzip der Suchmaschine Google TM
/9 Das Prinzip der Suchmaschine Google TM Numerische Mathematik WS 20/2 Basieren auf dem Paper The $25,000,000,000 Eigenvector: The Linear Algebra behind Google von Kurt Bryan und Tanya Leise (SIAM Review,
MehrAlgorithmische Methoden zur Netzwerkanalyse Vorlesung 12, Henning Meyerhenke
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 12, 25.01.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum
MehrEndliche Markov-Ketten - eine Übersicht
Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und
MehrSeminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP
Seminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP Tobias Boelter 28. Mai 2013 bei Prof. Dr. Rainer Schrader, Universität zu Köln Inhaltsverzeichnis 1 Einleitung 2 2 Lokale Suche
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrGliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen
Kapitel Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 3 Programm des
MehrAlgorithmische Methoden zur Netzwerkanalyse Vorlesung 13, Henning Meyerhenke
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, 01.02.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum
Mehrv R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i
MOP: Pareto-Gradientenabstiegsverfahren Annahme: Zielfunktion differenzierbar Wintersemester 2007/08 Praktische Optimierung (Vorlesung) d = 1: (monokriteriell) v R n ist Abstiegsrichtung in x R n wenn
MehrDer Ergodensatz. Hendrik Hülsbusch
Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen
MehrPr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.
2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet
MehrArbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute
3.4 PageRank Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute Wichtigkeit von Webseiten; nicht Relevanz bezüglich Benutzeranfrage. Anfrageunabhängiges Ranking. Ausgangspunkt: Eingangsgrad.
MehrTheoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
Mehr1. Übung Algorithmen I
Timo Bingmann, Christian Schulz INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. SANDERS 1 KIT Timo Universität Bingmann, des LandesChristian Baden-Württemberg Schulz und nationales Forschungszentrum in der
MehrEinführung in Markoff-Ketten
Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die
Mehr2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
MehrVORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind
MehrAlgorithmen und Datenstrukturen
Algorithmen und Datenstrukturen Wintersemester 2012/13 25. Vorlesung Dynamisches Programmieren Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I Klausurvorbereitung Tipp: Schreiben Sie sich alle Fragen
MehrDWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr
2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,
MehrEin Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr
Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,
Mehr16. November 2011 Zentralitätsmaße. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87
16. November 2011 Zentralitätsmaße H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87 Darstellung in spektraler Form Zentralität genügt Ax = κ 1 x (Herleitung s. Tafel), daher ist x der Eigenvektor
MehrInhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung
8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen
MehrDynamisches Routing in der Logistik
Informatik, Angewandte Informatik, Technische Informationssysteme Dynamisches Routing in der Logistik Tobias Dimmel Dresden, 24.05.2012 Agenda 1. Begriffe 2. Traveling Salesman Problem 3. Ameisenalgorithmus
Mehr5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus
5. Lokale Suchverfahren Lokale Suche 5. Lokale Suchverfahren Beispiel TSP: k-change Nachbarschaft Optimale Lösungen können oft nicht effizient ermittelt werden. Heuristiken liefern zwar zulässige Lösungen,
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 20. November 2014 INSTITUT FÜR THEORETISCHE 0 KIT 20.11.2014 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der
MehrDer Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrTheoretische Informatik 1
Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 10.06.2016 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel
MehrMarkov Ketten und Bonus Malus Systeme
Grund Stoch Markov Ketten Bonus Malus Probleme L 1 / 46 Markov Ketten und Bonus Malus Systeme Klaus D. Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden TU Wien 19. Mai 2010
MehrFormale Grundlagen der Informatik F3: Berechenbarkeit un
Formale Grundlagen der Informatik F3: Berechenbarkeit und Komplexität Fachbereich Informatik AB Theoretische Grundlagen der Informatik (TGI) Universität Hamburg farwer@informatik.uni-hamburg.de 14. Dezember
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 01. Dezember 2011 INSTITUT FÜR THEORETISCHE 0 KIT 01.12.2011 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der
MehrAnt Colony Optimization (ACO)
Ant Colony Optimization (ACO) Daniel Blum 24.4.2003 Projektgruppe 431 Metaheuristiken Lehrstuhl 11, Fachbereich Informatik, Universität Dortmund 1 Übersicht Vorbild Natur Übertragung der Ideen Beispiele
MehrÜbungsaufgaben Lösungen
Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij
MehrMusterlösung Donnerstag - Determinanten und Eigenwerte
Musterlösung Donnerstag - Determinanten und Eigenwerte 6. März Aufgabe : Zum Aufwärmen () Zeige, dass eine nilpotente Endomorphismus nur die Null als Eigenwert hat. Hinweis: Ein Endomorphismus heißt nilpotent,
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 4 Programm des
MehrBisher: Suche durch Lösungsveränderung Neuer Begriff: Nachbarschaft einer Lösung
Lokale Suche und Nachbarschaften Bisher: Suche durch Lösungsveränderung Neuer Begriff: Nachbarschaft einer Lösung Nachbarschaft ist Menge der Lösungen, die von einer gegebenen Lösung durch eine einfache
MehrZeitstetige Markov-Prozesse: Einführung und Beispiele
Zeitstetige Markov-Prozesse: Einführung und Beispiele Simone Wielart 08.12.10 Inhalt Q-Matrizen und ihre Exponentiale Inhalt Q-Matrizen und ihre Exponentiale Zeitstetige stochastische Prozesse Inhalt Q-Matrizen
MehrSynthese Eingebetteter Systeme. Übung 6
12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe
Mehr5 Diagonalisierbarkeit
5 Diagonalisierbarkeit Sei V ein K Vektorraum mit einer Basis B = (v 1,..., v n ) Wiederholung aus 2: Sei f : V V K linear. Stelle f(v j ) für j = 1,..., n dar in der Form a 1j Das n Tupel a j =. a nj
Mehr11. Übung Algorithmen I
Timo Bingmann, Christian Schulz INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. SANDERS KIT Timo Universität Bingmann, des LandesChristian Baden-Württemberg Schulz und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrVortrag 20: Kurze Vektoren in Gittern
Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 7. Dezember 2017 INSTITUT FÜR THEORETISCHE 0 07.12.2017 Dorothea Wagner - Theoretische Grundlagen der Informatik INSTITUT FÜR THEORETISCHE KIT Die Forschungsuniversität
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrDas Problem des Handlungsreisenden
Seite 1 Das Problem des Handlungsreisenden Abbildung 1: Alle möglichen Rundreisen für 4 Städte Das TSP-Problem tritt in der Praxis in vielen Anwendungen als Teilproblem auf. Hierzu gehören z.b. Optimierungsprobleme
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Die Forschungsuniversität Meyerhenke, in der Institut für Theoretische Informatik
Mehr4 Eigenwerte und Eigenvektoren
4 Eigenwerte und Eigenvektoren Sei V {0} ein K Vektorraum und f : V V K linear. Definition: Ein Eigenwert von f ist ein Element λ K, für die es einen Vektor v 0 in V gibt, so dass f(v) = λ v. Sei nun λ
Mehr8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick
Grundlagen der Künstlichen Intelligenz 5. April 0 8. Suchalgorithmen: Lokale Suche Grundlagen der Künstlichen Intelligenz 8. Suchalgorithmen: Lokale Suche 8.1 Einleitung Malte Helmert Universität Basel
Mehr2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p
Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesungen 5 und 6 Programm
MehrLineare Algebra und analytische Geometrie II
Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 53 Norm von Endomorphismen und Matrizen Definition 53.1. Es seien V und W endlichdimensionale normierte K-
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 18 Was tun mit NP-harten Problemen? Viele praxisrelevante
MehrKap. 7.6 Verbesserungsheuristiken (letzte VO)
Kap. 7.6 Verbesserungsheuristiken (letzte VO) Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 25. VO DAP2 SS 2009 23. Juli 2009 1 Überblick Verbesserungsheuristiken
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 4. Januar 2011 Berthold Vöcking, Informatik 1 () Vorlesung
MehrApproximationsalgorithmen
Approximationsalgorithmen 1. Vorlesung Joachim Spoerhase Alexander Wolff Lehrstuhl für Informatik I Wintersemester 2017/18 Bücher zur Vorlesung Vijay V. Vazirani Approximation Algorithms Springer-Verlag
MehrOptimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn
Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,
MehrEuklidische Distanzmatrizen. Andrei Grecu
Euklidische Distanzmatrizen Andrei Grecu Übersicht Motivation Definition und Problemstellung Algo 1: Semidefinite Programmierung Algo 2: Multidimensional Scaling Algo 3: Spring Embedder Algo 4: Genetischer
MehrTheoretische Informatik 1
Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 12
Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=
MehrÜberblick. Motivation. Kap. 7.6 Verbesserungsheuristiken. Nachbarschaft einer Lösung Einfache lokale Suche
Kap. 7.6 Verbesserungsheuristiken (letzte VO) Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 7. VO DAP SS 008 17. Juli 008 Überblick Verbesserungsheuristiken
Mehr51 Numerische Berechnung von Eigenwerten und Eigenvektoren
5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,
MehrVorlesung 2 KÜRZESTE WEGE
Vorlesung 2 KÜRZESTE WEGE 34 Kürzeste Wege im Graphen Motivation! Heute:! Kürzeste Wege von einem Knoten (SSSP)! Kürzeste Wege zwischen allen Knotenpaaren (APSP)! Viele Anwendungen:! Navigationssysteme!
MehrUNABHÄNGIGER LASTEN. Vorlesung 9 BALANCIERUNG DYNAMISCHER. Graphenalgorithmen und lineare Algebra Hand in Hand
Vorlesung 9 BALANCIERUNG DYNAMISCHER UNABHÄNGIGER LASTEN 266 Lastbalancierung Motivation! Ein paralleles System besteht aus! verschiedenen Recheneinheiten,! die miteinander kommunizieren können! Warum
MehrKombinatorische Optimierung Vorlesung für den Bereich Diplom/Master Informatik
Kombinatorische Optimierung Vorlesung für den Bereich Diplom/Master Informatik Dozent: Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK
MehrLineares Programmieren
Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 03.05.2011 Nachtrag Art Gallery Problem Lässt sich der Triangulierungs-Algorithmus
MehrInnere-Punkt-Methoden
Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction
MehrÜberblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP
Kap..1 Heuristiken Kap.. Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 3. VO DAP SS 008 14. Juli 009 Überblick
MehrKap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien
Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 23. VO DAP2 SS 2008 14. Juli 2009
MehrExponentialabbildung für Matrizen und Systeme von Differentialgleichungen
Proseminar Lineare Algebra SS10 Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen Simon Strahlegger Heinrich-Heine-Universität Betreuung: Prof. Dr. Oleg Bogopolski Inhaltsverzeichnis:
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte
MehrW-Rechnung und Statistik für Ingenieure Übung 11
W-Rechnung und Statistik für Ingenieure Übung 11 Aufgabe 1 Ein Fahrzeugpark enthält 6 Fahrzeuge. Jedes Fahrzeug hat die Wahrscheinlichkeit p = 0.1 (bzw. p = 0.3), dass es kaputt geht. Pro Tag kann nur
MehrVORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung
MehrWS 2009/10. Diskrete Strukturen
WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrHeuristiken und exakte Algorithmen für das verallgemeinerte Traveling Salesman Problem. Gerold Jäger
Heuristiken und exakte Algorithmen für das verallgemeinerte Traveling Salesman Problem Gerold Jäger Martin-Luther-Universität Halle-Wittenberg (in Zusammenarbeit mit Paul Molitor) DFG-Projekt: Toleranzbasierte
MehrKonstruktions-Verbesserungsheuristiken. Iterierte lokale Suche (ILS)
Konstruktions-Verbesserungsheuristiken Iterierte lokale Suche (ILS) Idee: 2-Phasen-Suche 1. Phase: Randomisierte Konstruktionsheuristik 2. Phase: Lokale Suche Beispiele: Multi-Start lokale Suche GRASP:
MehrDie Abbildung zeigt die Kette aus dem "
½ Ô ½ 0 1 2 Õ Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem " gamblers ruin problem\ fur m = 2. Man sieht sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0;
MehrOptimierung. Vorlesung 13
Optimierung Vorlesung 13 Letze Woche Branch&Bound Suchbaum Nach Möglichkeit nicht komplett durchsuchen Abschätzungen nach oben und unten Suchheuristiken Randomisierte Lokale Suche Simulated Annealing Metropolis
MehrKlausur Algorithmen und Datenstrukturen II 29. Juli 2013
Technische Universität Braunschweig Sommersemester 2013 Institut für Betriebssysteme und Rechnerverbund Abteilung Algorithmik Prof. Dr. Sándor P. Fekete Stephan Friedrichs Klausur Algorithmen und Datenstrukturen
MehrKomplexitatstheoretische Zwischenbetrachtungen: Klassen & eine Hierarchic
Kapitel 5 Komplexitatstheoretische Zwischenbetrachtungen: Klassen & eine Hierarchic In den vorhergehenden Kapiteln sind wir einmal quer durch das Gebiet der Approximationsalgorithmen gelaufen. Wir haben
MehrEinführung in Heuristische Suche
Einführung in Heuristische Suche Beispiele 2 Überblick Intelligente Suche Rundenbasierte Spiele 3 Grundlagen Es muss ein Rätsel / Puzzle / Problem gelöst werden Wie kann ein Computer diese Aufgabe lösen?
MehrAlgorithmen II Vorlesung am 15.11.2012
Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
Mehr