Algorithmische Methoden für schwere Optimierungsprobleme

Größe: px
Ab Seite anzeigen:

Download "Algorithmische Methoden für schwere Optimierungsprobleme"

Transkript

1 Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische Informatik nationales Algorithmische Forschungszentrum Methoden in der Helmholtz-Gemeinschaft für schwere Optimierungsprobleme

2 Vorlesung 4 Programm des Tages: Übung: Bin-Packing, Christofides Lokale Suche Zusätzliche Literatur: Ausiello et al.: Complexity and Approximation. Combinatorial Optimization Problems and Their Approximability Properties. Springer, Chapter Henning Meyerhenke, Institut für Theoretische Informatik

3 Inhalt Metaheuristik Lokale Suche Komponenten Konvergenz Weitere Anwendungen 3 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche

4 Lokale Suchheuristiken......starten bei einer initialen zulässigen Lösung...bewegen sich von der aktuellen Lösung zu einem (meist verbessernden) Nachbarn im Lösungsraum...terminieren (meist) in einem lokalen Optimum Frühere Terminierung manchmal sinnvoll 4 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche

5 Lokale Suchheuristiken......starten bei einer initialen zulässigen Lösung...bewegen sich von der aktuellen Lösung zu einem (meist verbessernden) Nachbarn im Lösungsraum...terminieren (meist) in einem lokalen Optimum Frühere Terminierung manchmal sinnvoll Traversierung des Lösungsraums kann als gerichteter Graph modelliert werden Spezialfall: Bergsteiger-Algorithmus 4 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche

6 Tauschheuristik k-opt (hier k = 2) Lokale Suche mit fester Tiefe Praxis: Lokale Suchverfahren (Metaheuristiken!) sehr erfolgreich Algorithmus 2-Opt 1. Start mit beliebiger Tour 2. Wiederhole, bis keine Verbesserung möglich: 2.1 Verbesserungsschritt: Wähle zwei Kanten {u 1, u 2 } und {v 1, v 2 } aus der Tour: u 1, u 2, v 1, v 2 paarweise verschieden u 1, u 2, v 1, v 2 erscheinen in dieser Reihenfolge in der Tour 2.2 Ersetze durch {u 1, v 1 } und {u 2, v 2 }, falls die Tour dadurch kürzer wird 5 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche

7 Tauschheuristik k-opt (hier k = 2) Lokale Suche mit fester Tiefe Praxis: Lokale Suchverfahren (Metaheuristiken!) sehr erfolgreich Algorithmus 2-Opt 1. Start mit beliebiger Tour 2. Wiederhole, bis keine Verbesserung möglich: 2.1 Verbesserungsschritt: Wähle zwei Kanten {u 1, u 2 } und {v 1, v 2 } aus der Tour: u 1, u 2, v 1, v 2 paarweise verschieden u 1, u 2, v 1, v 2 erscheinen in dieser Reihenfolge in der Tour 2.2 Ersetze durch {u 1, v 1 } und {u 2, v 2 }, falls die Tour dadurch kürzer wird Terminiert in lokalem Optimum Auf realen Instanzen häufig erstaunlich gute Qualität bei meist subquadratischer Iterationszahl 5 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche

8 Tauschheuristik k-opt (hier k = 2) Lokale Suche mit fester Tiefe Praxis: Lokale Suchverfahren (Metaheuristiken!) sehr erfolgreich Algorithmus 2-Opt 1. Start mit beliebiger Tour 2. Wiederhole, bis keine Verbesserung möglich: 2.1 Verbesserungsschritt: Wähle zwei Kanten {u 1, u 2 } und {v 1, v 2 } aus der Tour: u 1, u 2, v 1, v 2 paarweise verschieden u 1, u 2, v 1, v 2 erscheinen in dieser Reihenfolge in der Tour 2.2 Ersetze durch {u 1, v 1 } und {u 2, v 2 }, falls die Tour dadurch kürzer wird Terminiert in lokalem Optimum Auf realen Instanzen häufig erstaunlich gute Qualität bei meist subquadratischer Iterationszahl Beispiel: Siehe Leinwand! 5 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche

9 Lin-Kernighan-Heuristik Lokale Suche mit variabler Tiefe Idee Sei eine Tour τ gegeben. Finde Folgen C und C mit k Paaren von Städten mit: C = ((c p1, c q1 ),..., (c pk, c qk )) C = ((c s1, c t1 ),..., (c sk, c tk )) c pi und c qi sind benachbart in τ für 1 i k c si und c ti sind nicht benachbart in τ für 1 i k c qi = c si für 1 i k c ti = c pi+1 für 1 i k 1 c tk = c p1 Tausch der Paare in C mit allen Paaren in C in τ ergibt kürzere Tour τ Beispiel: Siehe Tafel! 6 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche

10 Lin-Kernighan-Heuristik Eine einfachere Variante Algor. Lin-Kernighan (Eingabe: Städte c 1,... c n, Ausgabe: Tour) 1. Setze L = 0 und k = 1. Wähle zwei beliebige in τ benachbarte Städte c p1 und c q1. Setze C = {c p1, c q1 }, c s1 = c q1 und i = 1. 7 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche

11 Lin-Kernighan-Heuristik Eine einfachere Variante Algor. Lin-Kernighan (Eingabe: Städte c 1,... c n, Ausgabe: Tour) 1. Setze L = 0 und k = 1. Wähle zwei beliebige in τ benachbarte Städte c p1 und c q1. Setze C = {c p1, c q1 }, c s1 = c q1 und i = Finde zwei Städte x und y, so dass gilt: 2.1 x und y sind benachbart in τ und gehören nicht zu C 2.2 Ersetzen der i + 1 Kanten (c p1, c q1 ),..., (c pi, c qi ), (x, y) in τ durch die Kanten (c s1, c t1 ),..., (c si, x), (y, c p1 ) ergibt eine Tour 2.3 = L i + (dist(p i, q i ) + dist(x, y)) (dist(s i, x) + dist(y, p 1 )) > 0 mit L i = i 1 j=1 dist(p j, q j ) dist(s j, t j ) 7 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche

12 Lin-Kernighan-Heuristik Eine einfachere Variante Algor. Lin-Kernighan (Eingabe: Städte c 1,... c n, Ausgabe: Tour) 1. Setze L = 0 und k = 1. Wähle zwei beliebige in τ benachbarte Städte c p1 und c q1. Setze C = {c p1, c q1 }, c s1 = c q1 und i = Finde zwei Städte x und y, so dass gilt: 2.1 x und y sind benachbart in τ und gehören nicht zu C 2.2 Ersetzen der i + 1 Kanten (c p1, c q1 ),..., (c pi, c qi ), (x, y) in τ durch die Kanten (c s1, c t1 ),..., (c si, x), (y, c p1 ) ergibt eine Tour 2.3 = L i + (dist(p i, q i ) + dist(x, y)) (dist(s i, x) + dist(y, p 1 )) > 0 mit L i = i 1 j=1 dist(p j, q j ) dist(s j, t j ) Falls x und y nicht existieren, dann gehe zum nächsten Schritt. Andernfalls: Setze c ti = c pi+1 = x und c qi+1 = c si+1 = y und C = C {x, y}. Falls > L, setze L = und k = i + 1. Setze i = i + 1. Wiederhole Schritt 2. 7 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche

13 Lin-Kernighan-Heuristik Eine einfachere Variante Algor. Lin-Kernighan (Eingabe: Städte c 1,... c n, Ausgabe: Tour) 1. Setze L = 0 und k = 1. Wähle zwei beliebige in τ benachbarte Städte c p1 und c q1. Setze C = {c p1, c q1 }, c s1 = c q1 und i = Finde zwei Städte x und y, so dass gilt: 2.1 x und y sind benachbart in τ und gehören nicht zu C 2.2 Ersetzen der i + 1 Kanten (c p1, c q1 ),..., (c pi, c qi ), (x, y) in τ durch die Kanten (c s1, c t1 ),..., (c si, x), (y, c p1 ) ergibt eine Tour 2.3 = L i + (dist(p i, q i ) + dist(x, y)) (dist(s i, x) + dist(y, p 1 )) > 0 mit L i = i 1 j=1 dist(p j, q j ) dist(s j, t j ) Falls x und y nicht existieren, dann gehe zum nächsten Schritt. Andernfalls: Setze c ti = c pi+1 = x und c qi+1 = c si+1 = y und C = C {x, y}. Falls > L, setze L = und k = i + 1. Setze i = i + 1. Wiederhole Schritt Falls k > 1, dann ersetze in τ die k Kanten (c p1, c q1 ),..., (c pk, c qk ) durch (c s1, c t1 ),..., (c sk, c p1 ) und gib die neue Tour zurück. Sonst gib τ zurück. 7 Henning Meyerhenke, Institut für Theoretische Informatik Metaheuristik Lokale Suche

14 Inhalt Metaheuristik Lokale Suche Komponenten Konvergenz Weitere Anwendungen 8 Henning Meyerhenke, Institut für Theoretische Informatik

15 Einführung Glühen, engl. annealing Stahl bildet Kristallstrukturen Art der Struktur hängt vom Energieniveau ab Physikalische Systeme streben niedrigen Energiezustand an [http: // php?id=metals_crystal_structure] (Lizenz CC BY-NC-SA 3.0) Die SimAn-Folien sind mit freundlicher Unterstützung von Lukas Barth entstanden. 9 Henning Meyerhenke, Institut für Theoretische Informatik

16 Einführung Glühen, engl. annealing Stahl bildet Kristallstrukturen Art der Struktur hängt vom Energieniveau ab Physikalische Systeme streben niedrigen Energiezustand an Stahl erhitzen, um Atome beweglich zu machen Atome bewegen sich in günstigere Positionen Langsam abkühlen, um Atome dort festzuhalten [http: // php?id=metals_crystal_structure] (Lizenz CC BY-NC-SA 3.0) Die SimAn-Folien sind mit freundlicher Unterstützung von Lukas Barth entstanden. 9 Henning Meyerhenke, Institut für Theoretische Informatik

17 Analogien zwischen Stahlproduktion und Optimierung Stahl Systemzustand Positionen der Moleküle Energie Metastabiler Zustand Temperatur Bewegung der Atome Algorithmus Lösung Entscheidungsvariablen Zielfunktion Lokales Optimum Kontrollparameter Änderung der Lösung 10 Henning Meyerhenke, Institut für Theoretische Informatik

18 Analogien zwischen Stahlproduktion und Optimierung Stahl Systemzustand Positionen der Moleküle Energie Metastabiler Zustand Temperatur Bewegung der Atome Algorithmus Lösung Entscheidungsvariablen Zielfunktion Lokales Optimum Kontrollparameter Änderung der Lösung Weitere Eigenschaften von Simulated Annealing: Erinnerungslos Randomisiert Iterativ 10 Henning Meyerhenke, Institut für Theoretische Informatik

19 Algorithmus Pseudocode Algorithm 1 Simulated Annealing 1: function SIMULATEDANNEALING(I) 2: solution = generate_random_solution() 3: t = initial_temperature() 4: repeat 5: repeat 6: new_solution = find_neighbour(solution) 7: if accept(t, f(new_solution), f(solution)) then 8: solution = new_solution 9: end if 10: until Equilibrium 11: t = cool_down(t) 12: until Stop criterion 13: return beste bisher gefundene Lösung 14: end function 11 Henning Meyerhenke, Institut für Theoretische Informatik

20 Algorithmus-Bausteine Starttemperatur Nachbarschafts-Operator Akzeptierungs-Funktion Gleichgewichtskriterium Abkühlungs-Funktion Abbruchkriterium 12 Henning Meyerhenke, Institut für Theoretische Informatik

21 Starttemperatur Am Anfang sollen verschlechternde Züge einfach möglich sein Zufällige Instanz I wählen, dann einige zufällige Modifikationen machen und I messen (durchschnittliche Änderung der Zielfunktion) Wähle dann initiale Temperatur T signifikant höher als I 13 Henning Meyerhenke, Institut für Theoretische Informatik

22 Nachbarschafts-Operator Beispielsweise: 2-Opt-Austausch Invertierung einer Teilfolge Tausch zweier Städte 14 Henning Meyerhenke, Institut für Theoretische Informatik

23 Akzeptierungs-Funktion Die Akzeptierungs-Funktion: Boltzmann-Verteilung P t (j akzeptieren) = { 1 falls f (j) f (i) f (j) f (i) e t falls f (j) < f (i) 15 Henning Meyerhenke, Institut für Theoretische Informatik

24 Akzeptierungs-Funktion Die Akzeptierungs-Funktion: Boltzmann-Verteilung P t (j akzeptieren) = { 1 falls f (j) f (i) f (j) f (i) e t falls f (j) < f (i) Beschleunigung: Lookup-Table für Intervalle von Differenzwerten 15 Henning Meyerhenke, Institut für Theoretische Informatik

25 Gleichgewichtskriterium Beispielsweise: Keine Verbesserung für eine bestimmte Zeit Feste Anzahl von Runden, z. B. in Abhängigkeit von n 16 Henning Meyerhenke, Institut für Theoretische Informatik

26 Abkühlungs-Funktion Beispielsweise: Multiplikation mit festem Faktor, z. B. 0.9 oder 0.95 Bestimmt wesentlich Laufzeit und Qualität 17 Henning Meyerhenke, Institut für Theoretische Informatik

27 Abbruchprozess Beispielsweise: Abbrechen bei 5 aufeinanderfolgenden Temperaturen ohne verbesserte Lösung und ohne Akzeptanz-Wkt. über 2% Zum Schluss 2-Opt ausführen 18 Henning Meyerhenke, Institut für Theoretische Informatik

28 Simulated Annealing für 1: function SIMULATEDANNEALING-(I) 2: solution = generate_initial_solution() 3: repeat 4: repeat 5: Wähle ein Segment (v i,..., v j ) aus (v 1,..., v n ) 6: Konstruiere Nachbarn new_solution durch Invertierung oder Austausch im gewählten Segment 7: if accept(t, f(new_solution), f(solution)) then 8: solution = new_solution 9: end if 10: until 100n Schritte oder 10n Modifikationen erfolgt 11: T 0.9T 12: until 100n Schritte ohne akzeptierte Änderungen erfolgt 13: return beste gefundene Lösung 14: end function 19 Henning Meyerhenke, Institut für Theoretische Informatik

29 Zwischenfazit Einfache lokale Suchheuristik 2-Opt: Feste Nachbarschaftstiefe k-opt mit größeren k möglich Lin-Kernighan: Variable Nachbarschaftstiefe Simulated Annealing: Randomisiert aus lokalen Optima entkommen 20 Henning Meyerhenke, Institut für Theoretische Informatik

30 Markov-Ketten Crashkurs Markov-Ketten Endliche Automaten Zufallsabhängige Zustandsübergänge... nur abhängig vom aktuellen Zustand und Zeitpunkt! 21 Henning Meyerhenke, Institut für Theoretische Informatik

31 Markov-Ketten Crashkurs Markov-Ketten Endliche Automaten Zufallsabhängige Zustandsübergänge... nur abhängig vom aktuellen Zustand und Zeitpunkt! Übergangsmatrix p 11 (k)... p 1n (k) (p ij (k)) = P =..... p n1 (k)... p nn (k) 21 Henning Meyerhenke, Institut für Theoretische Informatik

32 Übergangsmatrix G Erzeugungsmatrix A(t) Akzeptanz-Matrix 22 Henning Meyerhenke, Institut für Theoretische Informatik

33 Übergangsmatrix G Erzeugungsmatrix A(t) Akzeptanz-Matrix { G i, j S : P ij (t k ) = ij A ij (t k ) falls i = j 1 l S,l =i P il (t k ) falls i = j 22 Henning Meyerhenke, Institut für Theoretische Informatik

34 Übergangsmatrix G Erzeugungsmatrix A(t) Akzeptanz-Matrix { G i, j S : P ij (t k ) = ij A ij (t k ) falls i = j 1 l S,l =i P il (t k ) falls i = j G ij = { 1 S i falls j S i 0 sonst 22 Henning Meyerhenke, Institut für Theoretische Informatik

35 Übergangsmatrix G Erzeugungsmatrix A(t) Akzeptanz-Matrix { G i, j S : P ij (t k ) = ij A ij (t k ) falls i = j 1 l S,l =i P il (t k ) falls i = j G ij = { 1 S i falls j S i 0 sonst P ij abhängig von t k Markov-Kette inhomogen 22 Henning Meyerhenke, Institut für Theoretische Informatik

36 Modellierung Wir modellieren... Simulated Annealing mittels einer inhomogenen Markov-Kette 23 Henning Meyerhenke, Institut für Theoretische Informatik

37 Modellierung Wir modellieren... Simulated Annealing mittels einer inhomogenen Markov-Kette Simulated Annealing bei einer Temperatur: homogene Markov-Kette 23 Henning Meyerhenke, Institut für Theoretische Informatik

38 Modellierung Wir modellieren... Simulated Annealing mittels einer inhomogenen Markov-Kette Simulated Annealing mittels einer Folge von homogenen Markov-Ketten Simulated Annealing bei einer Temperatur: homogene Markov-Kette 23 Henning Meyerhenke, Institut für Theoretische Informatik

39 Stationäre Verteilungen Stationäre Verteilung Wahrscheinlichkeitsverteilung für den Zustand der Markov-Kette nach sehr vielen Übergängen. 24 Henning Meyerhenke, Institut für Theoretische Informatik

40 Stationäre Verteilungen Stationäre Verteilung Wahrscheinlichkeitsverteilung für den Zustand der Markov-Kette nach sehr vielen Übergängen. q = lim a T (0) k k l=1 P(l) a(0): Wahrscheinlichkeitsverteilung über die Zustände zum Zeitpunkt Henning Meyerhenke, Institut für Theoretische Informatik

41 Stationäre Verteilungen Wir zeigen... diese Markov-Kette hat eine stationäre Verteilung für t 0 konvergiert diese Verteilung q gegen q mit q i = 1 S opt χ S opt (i) 25 Henning Meyerhenke, Institut für Theoretische Informatik

42 Asymptotik von Simulated Annealing Beweis in 4 Schritten 1. Finden eines notwendigen Kriteriums für eine stationäre Verteilung 2. Beweisen: Der Vektor, der (1) erfüllt, ist eindeutig 3. Angeben einer Verteilung, die (1) erfüllt 4. Zeigen, dass die Verteilung aus (3) gegen q konvergiert 26 Henning Meyerhenke, Institut für Theoretische Informatik

43 Ein notwendiges Kriterium Eine stationäre Verteilung ist ein linker Eigenvektor zum Eigenwert 1 der Übergangsmatrix: q T = lim a T (0) k k l=1 P(l) homogen = lim k a T (0)P k = lim a T (0)P k 1 P k = lim a T (0)P l P l = q T P 27 Henning Meyerhenke, Institut für Theoretische Informatik

44 Asymptotik von Simulated Annealing Beweis in 4 Schritten Finden eines notwendigen Kriteriums für eine stationäre Verteilung 2. Beweisen: Der Vektor, der (1) erfüllt, ist eindeutig 3. Angeben einer Verteilung, die (1) erfüllt 4. Zeigen, dass die Verteilung aus (3) gegen q konvergiert 28 Henning Meyerhenke, Institut für Theoretische Informatik

45 Eindeutigkeit des Eigenvektors Satz von Perron-Frobenius: Größter Eigenwert hat algebraische Vielfachheit 1 Noch zu zeigen: P kann keinen Eigenwert größer 1 haben. 29 Henning Meyerhenke, Institut für Theoretische Informatik

46 Eindeutigkeit des Eigenvektors Satz von Perron-Frobenius: Größter Eigenwert hat algebraische Vielfachheit 1 Noch zu zeigen: P kann keinen Eigenwert größer 1 haben. Größter Eigenwert 1 P ist zeilenstochastisch Der größte Eigenwert von P ist gleich dem größten Eigenwert von P T. Die Spalten von P T sind stochastische Vektoren. Nachrechnen: v P T = λv mit λ > 1 kann damit nicht mehr funktionieren. 29 Henning Meyerhenke, Institut für Theoretische Informatik

47 Eindeutigkeit des Eigenvektors Annahme: λ > 1 : v : vp = λv. w : wp T = λw 30 Henning Meyerhenke, Institut für Theoretische Informatik

48 Eindeutigkeit des Eigenvektors Annahme: λ > 1 : v : vp = λv. w : wp T = λw Annahme: i > 1 : w 1 > w i. Es muss gelten: λw 1 = w 1 (P T ) 11 + w 2 (P T ) Henning Meyerhenke, Institut für Theoretische Informatik

49 Eindeutigkeit des Eigenvektors Annahme: λ > 1 : v : vp = λv. w : wp T = λw Annahme: i > 1 : w 1 > w i. Es muss gelten: λw 1 = w 1 (P T ) 11 + w 2 (P T ) n i=1 (P T ) i1 > 1 n P 1i > 1 i=1 30 Henning Meyerhenke, Institut für Theoretische Informatik

50 Eindeutigkeit des Eigenvektors Annahme: λ > 1 : v : vp = λv. w : wp T = λw Annahme: i > 1 : w 1 > w i. Es muss gelten: λw 1 = w 1 (P T ) 11 + w 2 (P T ) n i=1 (P T ) i1 > 1 n P 1i > 1 i=1 P ist eine zeilenstochastische Matrix! Widerspruch! 30 Henning Meyerhenke, Institut für Theoretische Informatik

51 Asymptotik von Simulated Annealing Beweis in 4 Schritten Finden eines notwendigen Kriteriums für eine stationäre Verteilung Beweisen: Der Vektor, der (1) erfüllt, ist eindeutig 3. Angeben einer Verteilung, die (1) erfüllt 4. Zeigen, dass die Verteilung aus (3) gegen q konvergiert 31 Henning Meyerhenke, Institut für Theoretische Informatik

52 Die stationäre Verteilung Die Verteilung q i (t) = 1 f (i) N 0 (t) e t Dabei ist N 0 (t) ein Normierungsfaktor: N 0 (t) = e f (j) t j S 32 Henning Meyerhenke, Institut für Theoretische Informatik

53 Die stationäre Verteilung Die Verteilung q i (t) = 1 f (i) N 0 (t) e t Dabei ist N 0 (t) ein Normierungsfaktor: N 0 (t) = e f (j) t j S Beweis des Eigenvektors: Nachrechnen. 32 Henning Meyerhenke, Institut für Theoretische Informatik

54 Die stationäre Verteilung Irreduzibilität Von jedem Zustand aus ist jeder andere Zustand erreichbar. i, j : n 1 : (P n ) ij > 0 33 Henning Meyerhenke, Institut für Theoretische Informatik

55 Die stationäre Verteilung Irreduzibilität Von jedem Zustand aus ist jeder andere Zustand erreichbar. i, j : n 1 : (P n ) ij > 0 Der Graph zu G muss stark zusammenhängend sein Alle Einträge in A sind positiv! 33 Henning Meyerhenke, Institut für Theoretische Informatik

56 Die stationäre Verteilung Irreduzibilität Von jedem Zustand aus ist jeder andere Zustand erreichbar. i, j : n 1 : (P n ) ij > 0 Der Graph zu G muss stark zusammenhängend sein Alle Einträge in A sind positiv! Egal wie klein t wird, jeder Zustand kann erreicht werden! 33 Henning Meyerhenke, Institut für Theoretische Informatik

57 Asymptotik von Simulated Annealing Beweis in 4 Schritten Finden eines notwendigen Kriteriums für eine stationäre Verteilung Beweisen: Der Vektor, der (1) erfüllt, ist eindeutig Angeben einer Verteilung, die (1) erfüllt 4. Zeigen, dass die Verteilung aus (3) gegen q konvergiert 34 Henning Meyerhenke, Institut für Theoretische Informatik

58 Konvergenz zeigen Details führen wir hier nicht aus. Ausgangssituation q i (t) = 1 f (i) N 0 (t) e t Dabei ist N 0 (t) ein Normierungsfaktor: N 0 (t) = e f (j) t j S 35 Henning Meyerhenke, Institut für Theoretische Informatik

59 Konvergenz zeigen Details führen wir hier nicht aus. Ausgangssituation q i (t) = 1 f (i) N 0 (t) e t Dabei ist N 0 (t) ein Normierungsfaktor: N 0 (t) = e f (j) t j S lim e x a = 1 für a = 0 x 0 lim e x a = 0 für a < 0 x 0 35 Henning Meyerhenke, Institut für Theoretische Informatik

60 Konvergenz zeigen lim q i(t) = t 0 e lim f (i) t t 0 j S e f (j) t 36 Henning Meyerhenke, Institut für Theoretische Informatik

61 Konvergenz zeigen lim q i(t) = t 0 e lim f (i) t t 0 j S e f (j) t = lim t 0 e f opt f (i) t f (j) t j S e f opt 36 Henning Meyerhenke, Institut für Theoretische Informatik

62 Konvergenz zeigen lim q i(t) = t 0 e lim f (i) t t 0 j S e f (j) t = lim t 0 1 j S e f opt f (j) t = lim t 0 χ Sopt (i) e f opt f (i) t f (j) t j S e f opt 36 Henning Meyerhenke, Institut für Theoretische Informatik

63 Konvergenz zeigen lim q i(t) = t 0 e lim f (i) t t 0 j S e f (j) t = lim t 0 1 j S e f opt f (j) t = lim t 0 e f opt f (i) t f (j) t j S e f opt χ Sopt (i) = 1 S opt χ S opt (i) 36 Henning Meyerhenke, Institut für Theoretische Informatik

64 Konvergenz zeigen lim q i(t) = t 0 e lim f (i) t t 0 j S e f (j) t = lim t 0 1 j S e f opt f (j) t = lim t 0 = q i e f opt f (i) t f (j) t j S e f opt χ Sopt (i) = 1 S opt χ S opt (i) 36 Henning Meyerhenke, Institut für Theoretische Informatik

65 Asymptotik von Simulated Annealing Beweis in 4 Schritten Finden eines notwendigen Kriteriums für eine stationäre Verteilung Beweisen: Der Vektor, der (1) erfüllt, ist eindeutig Angeben einer Verteilung, die (1) erfüllt Zeigen, dass die Verteilung aus (3) gegen q konvergiert Simulated Annealing findet asymptotisch eine Optimallösung! 37 Henning Meyerhenke, Institut für Theoretische Informatik

66 Bohrlöcher in Platinen Abbildung: [ 38 Henning Meyerhenke, Institut für Theoretische Informatik

67 Schulbus Abbildung: [ 39 Henning Meyerhenke, Institut für Theoretische Informatik

68 Schulbus Abbildung: [ 39 Henning Meyerhenke, Institut für Theoretische Informatik

69 Warenhaus Abbildung: [ 40 Henning Meyerhenke, Institut für Theoretische Informatik

70 Zusammenfassung Einfache lokale Suchheuristik 2-Opt: Feste Nachbarschaftstiefe k-opt mit größeren k möglich Lin-Kernighan: Variable Nachbarschaftstiefe Simulated Annealing: Randomisiert aus lokalen Optima entkommen 41 Henning Meyerhenke, Institut für Theoretische Informatik

71 Zusammenfassung Einfache lokale Suchheuristik 2-Opt: Feste Nachbarschaftstiefe k-opt mit größeren k möglich Lin-Kernighan: Variable Nachbarschaftstiefe Simulated Annealing: Randomisiert aus lokalen Optima entkommen Simulated Annealing konvergiert unter bestimmten Annahmen gegen das Optimum Aber: Konvergenz kann exponentiell lange dauern! 41 Henning Meyerhenke, Institut für Theoretische Informatik

72 Zusammenfassung Einfache lokale Suchheuristik 2-Opt: Feste Nachbarschaftstiefe k-opt mit größeren k möglich Lin-Kernighan: Variable Nachbarschaftstiefe Simulated Annealing: Randomisiert aus lokalen Optima entkommen Simulated Annealing konvergiert unter bestimmten Annahmen gegen das Optimum Aber: Konvergenz kann exponentiell lange dauern! hat vielfältige Anwendungen, auch in Verbindung mit anderen schwierigen Problemen 41 Henning Meyerhenke, Institut für Theoretische Informatik

Algorithmische Methoden für schwere Optimierungsprobleme

Algorithmische Methoden für schwere Optimierungsprobleme Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund

Mehr

Algorithmische Methoden für schwere Optimierungsprobleme

Algorithmische Methoden für schwere Optimierungsprobleme Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund

Mehr

Verbesserungsheuristiken

Verbesserungsheuristiken Verbesserungsheuristiken Bestandteile der Lokalen Suche Für schwierige Optimierungsaufgaben haben Verbesserungsheuristiken eine große praktische Bedeutung. Sie starten mit Ausgangslösungen, die von z.b.

Mehr

11. Übung zu Algorithmen I 6. Juli 2016

11. Übung zu Algorithmen I 6. Juli 2016 11. Übung zu Algorithmen I 6. Juli 2016 Lisa Kohl lisa.kohl@kit.edu mit Folien von Lukas Barth Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP ein Algorithmus

Mehr

Simulated Annealing. Lukas Barth. 27. August 2012

Simulated Annealing. Lukas Barth. 27. August 2012 Simulated Annealing Lukas Barth 27. August 2012 Seminararbeit im Seminar Algorithmentechnik bei Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik Karlsruher Institut für Technologie

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

Algorithmische Methoden für schwere Optimierungsprobleme

Algorithmische Methoden für schwere Optimierungsprobleme Algorithmische Methoden für schwere Optimierungsprobleme Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund

Mehr

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 11, Henning Meyerhenke

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 11, Henning Meyerhenke Algorithmische Methoden zur Netzwerkanalyse Vorlesung 11, 18.01.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Die Forschungsuniversität Meyerhenke, in der Institut für Theoretische Informatik

Mehr

Heuristische Verfahren

Heuristische Verfahren Heuristische Verfahren Bei heuristischen Verfahren geht es darum in polynomieller Zeit eine Näherungslösung zu bekommen. Diese kann sehr gut oder sogar optimal sein, jedoch gibt es keine Garantie dafür.

Mehr

Algorithmische Methoden für schwere Optimierungsprobleme

Algorithmische Methoden für schwere Optimierungsprobleme Algorithmische Methoden für schwere Optimierungsprobleme Henning Meyerhenke mit Roland Glantz 15. März 2017 3 Inhaltsverzeichnis 1 Einleitung 9 1.1 Literaturhinweise................................. 10

Mehr

Algorithmische Methoden für schwere Optimierungsprobleme

Algorithmische Methoden für schwere Optimierungsprobleme Algorithmische Methoden für schwere Optimierungsprobleme Henning Meyerhenke 2. März 2017 3 Inhaltsverzeichnis 1 Einleitung 9 1.1 Literaturhinweise................................. 10 2 Behälterproblem

Mehr

Das Prinzip der Suchmaschine Google TM

Das Prinzip der Suchmaschine Google TM /9 Das Prinzip der Suchmaschine Google TM Numerische Mathematik WS 20/2 Basieren auf dem Paper The $25,000,000,000 Eigenvector: The Linear Algebra behind Google von Kurt Bryan und Tanya Leise (SIAM Review,

Mehr

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 12, Henning Meyerhenke

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 12, Henning Meyerhenke Algorithmische Methoden zur Netzwerkanalyse Vorlesung 12, 25.01.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

Seminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP

Seminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP Seminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP Tobias Boelter 28. Mai 2013 bei Prof. Dr. Rainer Schrader, Universität zu Köln Inhaltsverzeichnis 1 Einleitung 2 2 Lokale Suche

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

Gliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen

Gliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen Kapitel Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 3 Programm des

Mehr

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, Henning Meyerhenke

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, Henning Meyerhenke Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, 01.02.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum

Mehr

v R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i

v R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i MOP: Pareto-Gradientenabstiegsverfahren Annahme: Zielfunktion differenzierbar Wintersemester 2007/08 Praktische Optimierung (Vorlesung) d = 1: (monokriteriell) v R n ist Abstiegsrichtung in x R n wenn

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute

Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute 3.4 PageRank Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute Wichtigkeit von Webseiten; nicht Relevanz bezüglich Benutzeranfrage. Anfrageunabhängiges Ranking. Ausgangspunkt: Eingangsgrad.

Mehr

Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme

Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

1. Übung Algorithmen I

1. Übung Algorithmen I Timo Bingmann, Christian Schulz INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. SANDERS 1 KIT Timo Universität Bingmann, des LandesChristian Baden-Württemberg Schulz und nationales Forschungszentrum in der

Mehr

Einführung in Markoff-Ketten

Einführung in Markoff-Ketten Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die

Mehr

2. Optimierungsprobleme 6

2. Optimierungsprobleme 6 6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen

Mehr

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen Algorithmen und Datenstrukturen Wintersemester 2012/13 25. Vorlesung Dynamisches Programmieren Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I Klausurvorbereitung Tipp: Schreiben Sie sich alle Fragen

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,

Mehr

16. November 2011 Zentralitätsmaße. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87

16. November 2011 Zentralitätsmaße. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87 16. November 2011 Zentralitätsmaße H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87 Darstellung in spektraler Form Zentralität genügt Ax = κ 1 x (Herleitung s. Tafel), daher ist x der Eigenvektor

Mehr

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung 8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen

Mehr

Dynamisches Routing in der Logistik

Dynamisches Routing in der Logistik Informatik, Angewandte Informatik, Technische Informationssysteme Dynamisches Routing in der Logistik Tobias Dimmel Dresden, 24.05.2012 Agenda 1. Begriffe 2. Traveling Salesman Problem 3. Ameisenalgorithmus

Mehr

5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus

5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus 5. Lokale Suchverfahren Lokale Suche 5. Lokale Suchverfahren Beispiel TSP: k-change Nachbarschaft Optimale Lösungen können oft nicht effizient ermittelt werden. Heuristiken liefern zwar zulässige Lösungen,

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 20. November 2014 INSTITUT FÜR THEORETISCHE 0 KIT 20.11.2014 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 10.06.2016 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Markov Ketten und Bonus Malus Systeme

Markov Ketten und Bonus Malus Systeme Grund Stoch Markov Ketten Bonus Malus Probleme L 1 / 46 Markov Ketten und Bonus Malus Systeme Klaus D. Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden TU Wien 19. Mai 2010

Mehr

Formale Grundlagen der Informatik F3: Berechenbarkeit un

Formale Grundlagen der Informatik F3: Berechenbarkeit un Formale Grundlagen der Informatik F3: Berechenbarkeit und Komplexität Fachbereich Informatik AB Theoretische Grundlagen der Informatik (TGI) Universität Hamburg farwer@informatik.uni-hamburg.de 14. Dezember

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 01. Dezember 2011 INSTITUT FÜR THEORETISCHE 0 KIT 01.12.2011 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der

Mehr

Ant Colony Optimization (ACO)

Ant Colony Optimization (ACO) Ant Colony Optimization (ACO) Daniel Blum 24.4.2003 Projektgruppe 431 Metaheuristiken Lehrstuhl 11, Fachbereich Informatik, Universität Dortmund 1 Übersicht Vorbild Natur Übertragung der Ideen Beispiele

Mehr

Übungsaufgaben Lösungen

Übungsaufgaben Lösungen Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij

Mehr

Musterlösung Donnerstag - Determinanten und Eigenwerte

Musterlösung Donnerstag - Determinanten und Eigenwerte Musterlösung Donnerstag - Determinanten und Eigenwerte 6. März Aufgabe : Zum Aufwärmen () Zeige, dass eine nilpotente Endomorphismus nur die Null als Eigenwert hat. Hinweis: Ein Endomorphismus heißt nilpotent,

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 4 Programm des

Mehr

Bisher: Suche durch Lösungsveränderung Neuer Begriff: Nachbarschaft einer Lösung

Bisher: Suche durch Lösungsveränderung Neuer Begriff: Nachbarschaft einer Lösung Lokale Suche und Nachbarschaften Bisher: Suche durch Lösungsveränderung Neuer Begriff: Nachbarschaft einer Lösung Nachbarschaft ist Menge der Lösungen, die von einer gegebenen Lösung durch eine einfache

Mehr

Zeitstetige Markov-Prozesse: Einführung und Beispiele

Zeitstetige Markov-Prozesse: Einführung und Beispiele Zeitstetige Markov-Prozesse: Einführung und Beispiele Simone Wielart 08.12.10 Inhalt Q-Matrizen und ihre Exponentiale Inhalt Q-Matrizen und ihre Exponentiale Zeitstetige stochastische Prozesse Inhalt Q-Matrizen

Mehr

Synthese Eingebetteter Systeme. Übung 6

Synthese Eingebetteter Systeme. Übung 6 12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe

Mehr

5 Diagonalisierbarkeit

5 Diagonalisierbarkeit 5 Diagonalisierbarkeit Sei V ein K Vektorraum mit einer Basis B = (v 1,..., v n ) Wiederholung aus 2: Sei f : V V K linear. Stelle f(v j ) für j = 1,..., n dar in der Form a 1j Das n Tupel a j =. a nj

Mehr

11. Übung Algorithmen I

11. Übung Algorithmen I Timo Bingmann, Christian Schulz INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. SANDERS KIT Timo Universität Bingmann, des LandesChristian Baden-Württemberg Schulz und nationales Forschungszentrum in der Helmholtz-Gemeinschaft

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Vortrag 20: Kurze Vektoren in Gittern

Vortrag 20: Kurze Vektoren in Gittern Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 7. Dezember 2017 INSTITUT FÜR THEORETISCHE 0 07.12.2017 Dorothea Wagner - Theoretische Grundlagen der Informatik INSTITUT FÜR THEORETISCHE KIT Die Forschungsuniversität

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Das Problem des Handlungsreisenden

Das Problem des Handlungsreisenden Seite 1 Das Problem des Handlungsreisenden Abbildung 1: Alle möglichen Rundreisen für 4 Städte Das TSP-Problem tritt in der Praxis in vielen Anwendungen als Teilproblem auf. Hierzu gehören z.b. Optimierungsprobleme

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Die Forschungsuniversität Meyerhenke, in der Institut für Theoretische Informatik

Mehr

4 Eigenwerte und Eigenvektoren

4 Eigenwerte und Eigenvektoren 4 Eigenwerte und Eigenvektoren Sei V {0} ein K Vektorraum und f : V V K linear. Definition: Ein Eigenwert von f ist ein Element λ K, für die es einen Vektor v 0 in V gibt, so dass f(v) = λ v. Sei nun λ

Mehr

8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick

8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick Grundlagen der Künstlichen Intelligenz 5. April 0 8. Suchalgorithmen: Lokale Suche Grundlagen der Künstlichen Intelligenz 8. Suchalgorithmen: Lokale Suche 8.1 Einleitung Malte Helmert Universität Basel

Mehr

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesungen 5 und 6 Programm

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 53 Norm von Endomorphismen und Matrizen Definition 53.1. Es seien V und W endlichdimensionale normierte K-

Mehr

Approximationsalgorithmen für NP-harte Optimierungsprobleme

Approximationsalgorithmen für NP-harte Optimierungsprobleme Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 18 Was tun mit NP-harten Problemen? Viele praxisrelevante

Mehr

Kap. 7.6 Verbesserungsheuristiken (letzte VO)

Kap. 7.6 Verbesserungsheuristiken (letzte VO) Kap. 7.6 Verbesserungsheuristiken (letzte VO) Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 25. VO DAP2 SS 2009 23. Juli 2009 1 Überblick Verbesserungsheuristiken

Mehr

Approximationsalgorithmen für NP-harte Optimierungsprobleme

Approximationsalgorithmen für NP-harte Optimierungsprobleme Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 4. Januar 2011 Berthold Vöcking, Informatik 1 () Vorlesung

Mehr

Approximationsalgorithmen

Approximationsalgorithmen Approximationsalgorithmen 1. Vorlesung Joachim Spoerhase Alexander Wolff Lehrstuhl für Informatik I Wintersemester 2017/18 Bücher zur Vorlesung Vijay V. Vazirani Approximation Algorithms Springer-Verlag

Mehr

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,

Mehr

Euklidische Distanzmatrizen. Andrei Grecu

Euklidische Distanzmatrizen. Andrei Grecu Euklidische Distanzmatrizen Andrei Grecu Übersicht Motivation Definition und Problemstellung Algo 1: Semidefinite Programmierung Algo 2: Multidimensional Scaling Algo 3: Spring Embedder Algo 4: Genetischer

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=

Mehr

Überblick. Motivation. Kap. 7.6 Verbesserungsheuristiken. Nachbarschaft einer Lösung Einfache lokale Suche

Überblick. Motivation. Kap. 7.6 Verbesserungsheuristiken. Nachbarschaft einer Lösung Einfache lokale Suche Kap. 7.6 Verbesserungsheuristiken (letzte VO) Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 7. VO DAP SS 008 17. Juli 008 Überblick Verbesserungsheuristiken

Mehr

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

51 Numerische Berechnung von Eigenwerten und Eigenvektoren 5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,

Mehr

Vorlesung 2 KÜRZESTE WEGE

Vorlesung 2 KÜRZESTE WEGE Vorlesung 2 KÜRZESTE WEGE 34 Kürzeste Wege im Graphen Motivation! Heute:! Kürzeste Wege von einem Knoten (SSSP)! Kürzeste Wege zwischen allen Knotenpaaren (APSP)! Viele Anwendungen:! Navigationssysteme!

Mehr

UNABHÄNGIGER LASTEN. Vorlesung 9 BALANCIERUNG DYNAMISCHER. Graphenalgorithmen und lineare Algebra Hand in Hand

UNABHÄNGIGER LASTEN. Vorlesung 9 BALANCIERUNG DYNAMISCHER. Graphenalgorithmen und lineare Algebra Hand in Hand Vorlesung 9 BALANCIERUNG DYNAMISCHER UNABHÄNGIGER LASTEN 266 Lastbalancierung Motivation! Ein paralleles System besteht aus! verschiedenen Recheneinheiten,! die miteinander kommunizieren können! Warum

Mehr

Kombinatorische Optimierung Vorlesung für den Bereich Diplom/Master Informatik

Kombinatorische Optimierung Vorlesung für den Bereich Diplom/Master Informatik Kombinatorische Optimierung Vorlesung für den Bereich Diplom/Master Informatik Dozent: Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK

Mehr

Lineares Programmieren

Lineares Programmieren Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 03.05.2011 Nachtrag Art Gallery Problem Lässt sich der Triangulierungs-Algorithmus

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

Überblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP

Überblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP Kap..1 Heuristiken Kap.. Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 3. VO DAP SS 008 14. Juli 009 Überblick

Mehr

Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien

Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 23. VO DAP2 SS 2008 14. Juli 2009

Mehr

Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen

Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen Proseminar Lineare Algebra SS10 Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen Simon Strahlegger Heinrich-Heine-Universität Betreuung: Prof. Dr. Oleg Bogopolski Inhaltsverzeichnis:

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte

Mehr

W-Rechnung und Statistik für Ingenieure Übung 11

W-Rechnung und Statistik für Ingenieure Übung 11 W-Rechnung und Statistik für Ingenieure Übung 11 Aufgabe 1 Ein Fahrzeugpark enthält 6 Fahrzeuge. Jedes Fahrzeug hat die Wahrscheinlichkeit p = 0.1 (bzw. p = 0.3), dass es kaputt geht. Pro Tag kann nur

Mehr

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung

Mehr

WS 2009/10. Diskrete Strukturen

WS 2009/10. Diskrete Strukturen WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Heuristiken und exakte Algorithmen für das verallgemeinerte Traveling Salesman Problem. Gerold Jäger

Heuristiken und exakte Algorithmen für das verallgemeinerte Traveling Salesman Problem. Gerold Jäger Heuristiken und exakte Algorithmen für das verallgemeinerte Traveling Salesman Problem Gerold Jäger Martin-Luther-Universität Halle-Wittenberg (in Zusammenarbeit mit Paul Molitor) DFG-Projekt: Toleranzbasierte

Mehr

Konstruktions-Verbesserungsheuristiken. Iterierte lokale Suche (ILS)

Konstruktions-Verbesserungsheuristiken. Iterierte lokale Suche (ILS) Konstruktions-Verbesserungsheuristiken Iterierte lokale Suche (ILS) Idee: 2-Phasen-Suche 1. Phase: Randomisierte Konstruktionsheuristik 2. Phase: Lokale Suche Beispiele: Multi-Start lokale Suche GRASP:

Mehr

Die Abbildung zeigt die Kette aus dem "

Die Abbildung zeigt die Kette aus dem ½ Ô ½ 0 1 2 Õ Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem " gamblers ruin problem\ fur m = 2. Man sieht sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0;

Mehr

Optimierung. Vorlesung 13

Optimierung. Vorlesung 13 Optimierung Vorlesung 13 Letze Woche Branch&Bound Suchbaum Nach Möglichkeit nicht komplett durchsuchen Abschätzungen nach oben und unten Suchheuristiken Randomisierte Lokale Suche Simulated Annealing Metropolis

Mehr

Klausur Algorithmen und Datenstrukturen II 29. Juli 2013

Klausur Algorithmen und Datenstrukturen II 29. Juli 2013 Technische Universität Braunschweig Sommersemester 2013 Institut für Betriebssysteme und Rechnerverbund Abteilung Algorithmik Prof. Dr. Sándor P. Fekete Stephan Friedrichs Klausur Algorithmen und Datenstrukturen

Mehr

Komplexitatstheoretische Zwischenbetrachtungen: Klassen & eine Hierarchic

Komplexitatstheoretische Zwischenbetrachtungen: Klassen & eine Hierarchic Kapitel 5 Komplexitatstheoretische Zwischenbetrachtungen: Klassen & eine Hierarchic In den vorhergehenden Kapiteln sind wir einmal quer durch das Gebiet der Approximationsalgorithmen gelaufen. Wir haben

Mehr

Einführung in Heuristische Suche

Einführung in Heuristische Suche Einführung in Heuristische Suche Beispiele 2 Überblick Intelligente Suche Rundenbasierte Spiele 3 Grundlagen Es muss ein Rätsel / Puzzle / Problem gelöst werden Wie kann ein Computer diese Aufgabe lösen?

Mehr

Algorithmen II Vorlesung am 15.11.2012

Algorithmen II Vorlesung am 15.11.2012 Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr