Algorithmische Methoden für schwere Optimierungsprobleme

Größe: px
Ab Seite anzeigen:

Download "Algorithmische Methoden für schwere Optimierungsprobleme"

Transkript

1 Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische Informatik nationales Algorithmische Forschungszentrum Methoden in der Helmholtz-Gemeinschaft für schwere Optimierungsprobleme

2 Vorlesung 8 Programm: Max-SAT randomisiert Tabusuche ILS 2 Henning Meyerhenke, Institut für Theoretische Informatik

3 Inhalt Gierige lokale Suche für (Max-)SAT Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS) 3 Henning Meyerhenke, Institut für Theoretische Informatik Gierige lokale Suche für (Max-)SAT

4 Lokale Suche für (Max-)SAT Diskussion: Wie könnte eine gierige lokale Suche für (Max-)SAT aussehen? 4 Henning Meyerhenke, Institut für Theoretische Informatik Gierige lokale Suche für (Max-)SAT

5 Lokale Suche für (Max-)SAT Diskussion: Wie könnte eine gierige lokale Suche für (Max-)SAT aussehen? GSAT, siehe Selman et al., AAAI 1992: Startlösung: Zufällig generiert Wiederhole bis Abbruch: Belegung der Variable wechseln (engl.: flip), die die höchste Verbesserung bzgl. wahr ergibt Frage: Was sind vernünftige Abbruchkriterien? 4 Henning Meyerhenke, Institut für Theoretische Informatik Gierige lokale Suche für (Max-)SAT

6 Lokale Suche für (Max-)SAT Diskussion: Wie könnte eine gierige lokale Suche für (Max-)SAT aussehen? GSAT, siehe Selman et al., AAAI 1992: Startlösung: Zufällig generiert Wiederhole bis Abbruch: Belegung der Variable wechseln (engl.: flip), die die höchste Verbesserung bzgl. wahr ergibt Frage: Was sind vernünftige Abbruchkriterien? Erfüllende Belegung oder maximale Anzahl Iterationen erreicht Danach: Wiederholung mit neuer zufälliger Startlösung bis zum Zeitlimit 4 Henning Meyerhenke, Institut für Theoretische Informatik Gierige lokale Suche für (Max-)SAT

7 Lokale Suche für (Max-)SAT Diskussion: Wie könnte eine gierige lokale Suche für (Max-)SAT aussehen? GSAT, siehe Selman et al., AAAI 1992: Startlösung: Zufällig generiert Wiederhole bis Abbruch: Belegung der Variable wechseln (engl.: flip), die die höchste Verbesserung bzgl. wahr ergibt Frage: Was sind vernünftige Abbruchkriterien? Erfüllende Belegung oder maximale Anzahl Iterationen erreicht Danach: Wiederholung mit neuer zufälliger Startlösung bis zum Zeitlimit Bewertung: Bessere Varianten existieren, soll nur als Einstieg dienen 4 Henning Meyerhenke, Institut für Theoretische Informatik Gierige lokale Suche für (Max-)SAT

8 Random-Walk-Strategie für GSAT RWS-GSAT: Verbesserung von GSAT durch weiteren zufälligen Einfluss: Variable, die geflippt wird, wird anders gewählt: Mit Wkt. p: Wähle zu flippende Variable aus einer nicht erfüllten Klausel Mit Wkt. 1 p: Standard GSAT, also bestmöglichen lokalen Schritt Wahl von p wichtig (Schwäche!) 5 Henning Meyerhenke, Institut für Theoretische Informatik Gierige lokale Suche für (Max-)SAT

9 Schwierige Instanzen Phasenverschiebung bei SAT % of satisfiable problems SAT 3-SAT 4-SAT % of satisfiable problems n=25 n=50 n=100 n= c/n c/n Abbildung: c: Anzahl Klauseln, n: Anzahl der Variablen Fazit 1: Je mehr Klauseln pro Variable, desto schwieriger Fazit 2: Schmaler Grat zwischen erfüllbar und nicht erfüllbar 6 Henning Meyerhenke, Institut für Theoretische Informatik Gierige lokale Suche für (Max-)SAT

10 Inhalt Gierige lokale Suche für (Max-)SAT Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS) 7 Henning Meyerhenke, Institut für Theoretische Informatik

11 Einführung Kontrollierte Randomisierung in Simulated Annealing war Meilenstein wegen der Flucht aus lokalen Optima Randomisierung aber nicht immer erwünscht Neuer Ansatz: Tabusuche (TS) 8 Henning Meyerhenke, Institut für Theoretische Informatik

12 Einführung Kontrollierte Randomisierung in Simulated Annealing war Meilenstein wegen der Flucht aus lokalen Optima Randomisierung aber nicht immer erwünscht Neuer Ansatz: Tabusuche (TS) TS verhält sich wie lokale Suche mit steilstem Anstieg (Wahl des besten Nachbarn) Aber: TS akzeptiert auch nicht-verbessernde Nachbarlösungen, wenn es keine verbessernden Nachbarn gibt Vermeidung von Zyklen im Suchraum durch Tabuliste 8 Henning Meyerhenke, Institut für Theoretische Informatik

13 Konzept von Tabusuche SA wählt normalerweise einen zufälligen Nachbarn Viele TS-Algorithmen betrachten vollständige Nachbarschaft Wie bei lokaler Suche: Besserer Nachbar ersetzt aktuelle Lösung 9 Henning Meyerhenke, Institut für Theoretische Informatik

14 Konzept von Tabusuche SA wählt normalerweise einen zufälligen Nachbarn Viele TS-Algorithmen betrachten vollständige Nachbarschaft Wie bei lokaler Suche: Besserer Nachbar ersetzt aktuelle Lösung Im lokalen Optimum: Suche wird fortgesetzt mit bestem Nachbarn Kann zu Zyklen im Suchraum führen! Zyklusvermeidung: Tabuliste speichert (Informationen über) bereits besuchte Lösungen (der letzten Zeit) Beispiel: Siehe Tafel! 9 Henning Meyerhenke, Institut für Theoretische Informatik

15 Vermeidung von Zyklen: Tabuliste Kurzzeitgedächtnis Tabuliste speichert Aspekte der Suche Aspekte: Lösung, Veränderung zwischen Lösungen, Zielfunktionswerte, Henning Meyerhenke, Institut für Theoretische Informatik

16 Vermeidung von Zyklen: Tabuliste Kurzzeitgedächtnis Tabuliste speichert Aspekte der Suche Aspekte: Lösung, Veränderung zwischen Lösungen, Zielfunktionswerte,... Aktualisierung nach jedem Schritt (die neueste Info wird eingefügt, die älteste fliegt raus) Generierte Nachbarlösung ist nur akzeptabel, wenn sie nicht in der Tabuliste ist Übergeordnetes Kriterium: Schritt, der eigtl. tabu ist, wird doch akzeptiert (z. B. weil er eine beste bisher gefundene Lösung produziert) 10 Henning Meyerhenke, Institut für Theoretische Informatik

17 Vermeidung von Zyklen: Tabuliste Kurzzeitgedächtnis Tabuliste speichert Aspekte der Suche Aspekte: Lösung, Veränderung zwischen Lösungen, Zielfunktionswerte,... Aktualisierung nach jedem Schritt (die neueste Info wird eingefügt, die älteste fliegt raus) Generierte Nachbarlösung ist nur akzeptabel, wenn sie nicht in der Tabuliste ist Übergeordnetes Kriterium: Schritt, der eigtl. tabu ist, wird doch akzeptiert (z. B. weil er eine beste bisher gefundene Lösung produziert) Frage: Warum speichert man nicht alle bisherigen Lösungen? 10 Henning Meyerhenke, Institut für Theoretische Informatik

18 Vermeidung von Zyklen: Tabuliste Kurzzeitgedächtnis Tabuliste speichert Aspekte der Suche Aspekte: Lösung, Veränderung zwischen Lösungen, Zielfunktionswerte,... Aktualisierung nach jedem Schritt (die neueste Info wird eingefügt, die älteste fliegt raus) Generierte Nachbarlösung ist nur akzeptabel, wenn sie nicht in der Tabuliste ist Übergeordnetes Kriterium: Schritt, der eigtl. tabu ist, wird doch akzeptiert (z. B. weil er eine beste bisher gefundene Lösung produziert) Frage: Warum speichert man nicht alle bisherigen Lösungen? Wichtig: Funktioniert nur in diskreten Suchräumen! Warum? 10 Henning Meyerhenke, Institut für Theoretische Informatik

19 Beispiel Fortsetzung Siehe Tafel! 11 Henning Meyerhenke, Institut für Theoretische Informatik

20 Intensivierung durch Gedächtnis mittlerer Länge Intensivierung: Die Suche im Suchraum einengen auf den Bereich guter Lösungen Frage: Bei welcher Struktur des Suchraums ist das gut? 12 Henning Meyerhenke, Institut für Theoretische Informatik

21 Intensivierung durch Gedächtnis mittlerer Länge Intensivierung: Die Suche im Suchraum einengen auf den Bereich guter Lösungen Frage: Bei welcher Struktur des Suchraums ist das gut? Methode bei Tabusuche: Gedächtnis mittlerer Länge speichert Menge der besten bisher gefundenen Lösungen Bei der Betrachtung können unterschiedliche Eigenschaften eine Rolle spielen, auch durch Wahrscheinlichkeiten gewichtet 12 Henning Meyerhenke, Institut für Theoretische Informatik

22 Diversifizierung durch Langzeitgedächtnis Diversifizierung: Die Suche im Suchraum breit streuen Frage: Bei welcher Struktur des Suchraums ist das gut? 13 Henning Meyerhenke, Institut für Theoretische Informatik

23 Diversifizierung durch Langzeitgedächtnis Diversifizierung: Die Suche im Suchraum breit streuen Frage: Bei welcher Struktur des Suchraums ist das gut? Methode bei Tabusuche: Langzeitgedächtnis speichert Informationen über die besuchten Lösungen Unbesuchte Bereiche des Lösungsraums werden dann bevorzugt besucht 13 Henning Meyerhenke, Institut für Theoretische Informatik

24 Tabusuche Generischer Algorithmus 1: function TABUSEARCH(I) 2: s = generate_initial_solution() 3: Initialisiere Tabuliste, und Gedächtnisse mittlerer und großer Länge 4: repeat 5: Finde besten zulässigen Nachbarn s 6: s = s 7: Aktualisiere Tabuliste und die beiden anderen Gedächtnisse 8: if Intensivierung erforderlich then 9: Führe Intensivierung durch 10: end if 11: if Diversifizierung erforderlich then 12: Führe Diversifizierung durch 13: end if 14: until Terminierungskriterium erfüllt 15: return beste bisher gefundene Lösung 16: end function 14 Henning Meyerhenke, Institut für Theoretische Informatik

25 Komponenten (1): Übersicht Suchspeicher Zweck Beliebte Repräsentation Tabuliste Zyklusvermeidung Besuchte Lösungen, Schrittattribute, Lösungsattribute Gedächtnis m. Länge Intensivierung Zahl aufeinanderfolgender Iterationen einer Eigenschaft in besuchten Lösungen Langzeitgedächtnis Diversifizierung Häufigkeitsspeicher 15 Henning Meyerhenke, Institut für Theoretische Informatik

26 Komponenten (2) Kurzzeitgedächtnis Tabuliste Zweck: Zyklen verhindern Aus Zeit- und Platzgründen wird nicht die ganze Historie gespeichert Daher: Länge k statisch (k konstant) dynamisch (k veränderlich, ohne dass Informationen über die Suche eingehen) adaptiv (k veränderlich, dafür Einbezug von Informationen über die Suche) Gespeicherte Information: Attribute der Lösung, Attribute des Schritts zwischen Lösungen, ggf. weitere Infos 16 Henning Meyerhenke, Institut für Theoretische Informatik

27 Komponenten (2) Kurzzeitgedächtnis Tabuliste Zweck: Zyklen verhindern Aus Zeit- und Platzgründen wird nicht die ganze Historie gespeichert Daher: Länge k statisch (k konstant) dynamisch (k veränderlich, ohne dass Informationen über die Suche eingehen) adaptiv (k veränderlich, dafür Einbezug von Informationen über die Suche) Gespeicherte Information: Attribute der Lösung, Attribute des Schritts zwischen Lösungen, ggf. weitere Infos Diskussion: Datenstruktur für die Tabuliste (nicht so sehr die Einträge an sich)? 16 Henning Meyerhenke, Institut für Theoretische Informatik

28 Komponenten (3) Gedächtnisse mittlerer und großer Länge Mittlere Länge: Speichert Zahl der aufeinanderfolgenden Iterationen, in denen eine Eigenschaft in den besuchten Lösungen aufgetreten ist Beispiel: Belegung einer Variablen(gruppe) 17 Henning Meyerhenke, Institut für Theoretische Informatik

29 Komponenten (3) Gedächtnisse mittlerer und großer Länge Mittlere Länge: Speichert Zahl der aufeinanderfolgenden Iterationen, in denen eine Eigenschaft in den besuchten Lösungen aufgetreten ist Beispiel: Belegung einer Variablen(gruppe) Große Länge: Speichert, wie häufig insgesamt in den bisher besuchten Lösungen eine Eigenschaft aufgetreten ist Beispiel: Bei TSP bestimmte Kanten 17 Henning Meyerhenke, Institut für Theoretische Informatik

30 Tabusuche für (Max-)SAT Mazure et al.: Tabu Search for SAT Vergleich zur lokalen Suche: Wollen wiederkehrende Flips vermeiden Kein übergeordnetes Tabukriterium (Nachbarn in Tabuliste sind immer tabu) Tabuliste fester Länge von geflippten Variablen (nicht Belegungen) als zeitlich geordnete FIFO-Liste Variablen in der Liste werden nicht geflippt 18 Henning Meyerhenke, Institut für Theoretische Informatik

31 Tabusuche für (Max-)SAT Mazure et al.: Tabu Search for SAT Vergleich zur lokalen Suche: Wollen wiederkehrende Flips vermeiden Kein übergeordnetes Tabukriterium (Nachbarn in Tabuliste sind immer tabu) Tabuliste fester Länge von geflippten Variablen (nicht Belegungen) als zeitlich geordnete FIFO-Liste Variablen in der Liste werden nicht geflippt Merke: Effizienz und Effektivität von (Meta)Heuristiken hängt von Parameterwahl ab Experimentell ermittelt: Optimale Länge der Tabuliste für die Testinstanzen = n (mit Vorsicht zu genießen) 18 Henning Meyerhenke, Institut für Theoretische Informatik

32 SAT-Ergebnisse TSAT vs. RWS-GSAT nach Mazure et al. Abbildung: Exp. Ergebnisse für 3-SAT-Instanzen nahe der Phasengrenze RWS-GSAT TSAT ratio RWS-GSAT: Runden mit verschiedenen Startlösungen60000 Maximal n2 Flips pro Runde p = Ratio (zu minimieren): (Durchschnittliche Zahl Flips bei gelösten Instanzen) / 0 (Prozentsatz gelöster Instanzen) Henning Meyerhenke, Institut für Theoretische Informatik number of variables

33 Diskussion von Tabusuche In Bezug auf TSAT, das vorgestellte Verfahren für (Max-)SAT: Tabusuche besser als randomisierte gierige lokale Suche, besonders bei großen Problemen Länge der Tabuliste linear in n (experimentell!) 20 Henning Meyerhenke, Institut für Theoretische Informatik

34 Diskussion von Tabusuche In Bezug auf TSAT, das vorgestellte Verfahren für (Max-)SAT: Tabusuche besser als randomisierte gierige lokale Suche, besonders bei großen Problemen Länge der Tabuliste linear in n (experimentell!) Allgemein: Deterministisches Verfahren für diskrete Suchräume! Flucht aus lokalen Optima durch Akzeptierung schwächerer Zustände Zyklenvermeidung durch Tabuliste Verbesserung der Suche durch Intensivierung und/oder Diversifizierung 20 Henning Meyerhenke, Institut für Theoretische Informatik

35 Diskussion von Tabusuche In Bezug auf TSAT, das vorgestellte Verfahren für (Max-)SAT: Tabusuche besser als randomisierte gierige lokale Suche, besonders bei großen Problemen Länge der Tabuliste linear in n (experimentell!) Allgemein: Deterministisches Verfahren für diskrete Suchräume! Flucht aus lokalen Optima durch Akzeptierung schwächerer Zustände Zyklenvermeidung durch Tabuliste Verbesserung der Suche durch Intensivierung und/oder Diversifizierung Vorteile? Nachteile? 20 Henning Meyerhenke, Institut für Theoretische Informatik

36 Wiederholung Tabusuche Allgemein: Deterministisches Verfahren zur diskreten Optimierung Flucht aus lokalen Optima durch Akzeptierung schwächerer Zustände Zyklenvermeidung durch Tabuliste Verbesserung der Suche durch Intensivierung und/oder Diversifizierung 21 Henning Meyerhenke, Institut für Theoretische Informatik

37 Wiederholung Tabusuche Allgemein: Deterministisches Verfahren zur diskreten Optimierung Flucht aus lokalen Optima durch Akzeptierung schwächerer Zustände Zyklenvermeidung durch Tabuliste Verbesserung der Suche durch Intensivierung und/oder Diversifizierung Vorteile: Deterministisch, Flucht aus lokalen Optima Nachteile: Parameterabhängigkeit, mglw. lange Laufzeit 21 Henning Meyerhenke, Institut für Theoretische Informatik

38 Wiederholung Tabusuche Allgemein: Deterministisches Verfahren zur diskreten Optimierung Flucht aus lokalen Optima durch Akzeptierung schwächerer Zustände Zyklenvermeidung durch Tabuliste Verbesserung der Suche durch Intensivierung und/oder Diversifizierung Vorteile: Deterministisch, Flucht aus lokalen Optima Nachteile: Parameterabhängigkeit, mglw. lange Laufzeit In Bezug auf TSAT, das vorgestellte Verfahren für (Max-)SAT: Tabusuche besser als randomisierte gierige lokale Suche, besonders bei großen Problemen Länge der Tabuliste linear in n (experimentell!) 21 Henning Meyerhenke, Institut für Theoretische Informatik

39 Inhalt Gierige lokale Suche für (Max-)SAT Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS) 22 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

40 Einführung Lösungsqualität (des lokalen Optimums) hängt bei lokaler Suche stark von Startlösung ab Frage: Wie verbessern, ohne die Laufzeit explodieren zu lassen (konstanter Faktor erlaubt)? 23 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

41 Einführung Lösungsqualität (des lokalen Optimums) hängt bei lokaler Suche stark von Startlösung ab Frage: Wie verbessern, ohne die Laufzeit explodieren zu lassen (konstanter Faktor erlaubt)? Lokale Suche mit Mehrfachstart: Initiale Lösung wird mehrfach zufällig generiert, dann jedes Mal lokale Suche gestartet Hoffnung: Diversifiziert ausreichend, um das globale Optimum zu erwischen Erkenntnis: Bei sehr großen Instanzen ungeeignet Grund: Lokale Optima sind sich oft recht ähnlich in der Qualität 23 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

42 Einführung Lösungsqualität (des lokalen Optimums) hängt bei lokaler Suche stark von Startlösung ab Frage: Wie verbessern, ohne die Laufzeit explodieren zu lassen (konstanter Faktor erlaubt)? Lokale Suche mit Mehrfachstart: Initiale Lösung wird mehrfach zufällig generiert, dann jedes Mal lokale Suche gestartet Hoffnung: Diversifiziert ausreichend, um das globale Optimum zu erwischen Erkenntnis: Bei sehr großen Instanzen ungeeignet Grund: Lokale Optima sind sich oft recht ähnlich in der Qualität Iterierte Lokale Suche (ILS): Neustart verwirft bisherige Lösung nicht komplett 23 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

43 Konzept von ILS Idee: Wiederhole lokale Suche mit perturbierten Lösungen Vorgehen (abstrakter Pseudocode) Generiere initiale Lösung Lokale Suche Wiederholen, bis Abbruchkriterium erreicht: Perturbieren der bisherigen Lösung Lokale Suche Bewertung/Akzeptierung der aktuellen Lösung (bei Akzeptierung Fortsetzung der Suche bei aktueller Lösung, sonst bei voriger) Ausgabe: Beste gefundene Lösung Skizze des Lösungsraums: Siehe Tafel! 24 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

44 Komponenten Lokale Suche Prinzipiell jede (Meta-)Heuristik möglich, die Eigenschaften lokaler Suche aufweist Beispiele? Populationsbasierte (später in der Vorlesung) Methoden unüblich 25 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

45 Komponenten Lokale Suche Prinzipiell jede (Meta-)Heuristik möglich, die Eigenschaften lokaler Suche aufweist Beispiele? Populationsbasierte (später in der Vorlesung) Methoden unüblich Lokale Suche wird als Black Box verwendet 25 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

46 Komponenten Perturbation (1) Perturbation muss effektiver sein als zufälliger Mehrfachstart Für typische reale Probleme ist eine beeinflusste Perturbation notwendig Beeinflusst von den bisherigen Lösungen 26 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

47 Komponenten Perturbation (1) Perturbation muss effektiver sein als zufälliger Mehrfachstart Für typische reale Probleme ist eine beeinflusste Perturbation notwendig Beeinflusst von den bisherigen Lösungen Bei flachen und zerklüfteten Fitness-Landschaften (siehe Tafel) ist zufälliger Mehrfachstart aber meist besser! (Erste) Evaluation: Vergleich der beiden Methoden zufälliger Mehrfachstart und ILS mit der beeinflussten Perturbation 26 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

48 Komponenten Perturbation (2) Gute Balance bei Perturbation ( = lokale Nachbarschaft) wichtig: Zu viel: Zu ähnlich zu zufälligem Mehrfachstart Zu wenig: Mittelbare Nachbarschaft des lokalen Optimums wird nicht verlassen Daumenregel: Je effektiver die lokale Suche, desto größer die Perturbation Frage: Warum? 27 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

49 Komponenten Perturbation (2) Gute Balance bei Perturbation ( = lokale Nachbarschaft) wichtig: Zu viel: Zu ähnlich zu zufälligem Mehrfachstart Zu wenig: Mittelbare Nachbarschaft des lokalen Optimums wird nicht verlassen Daumenregel: Je effektiver die lokale Suche, desto größer die Perturbation Frage: Warum? Optimale Länge hängt vom Problem und von der Instanz ab! Varianten ähnlich wie bei TS bzgl. Länge der Tabuliste: Statisch Dynamisch Adaptiv Zusätzlicher Aspekt: Zufällig oder (halb)deterministisch 27 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

50 Komponenten Akzeptierungsfunktion Rolle in Verbindung mit Perturbation: Steuern des Kompromisses zwischen Intensivierung und Diversifizierung Extreme Intensivierung: Nur verbessernde Lösungen akzeptieren (starke Auswahl) Extreme Diversifizierung: Jede Lösung akzeptieren (schwache Auswahl) 28 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

51 Komponenten Akzeptierungsfunktion Rolle in Verbindung mit Perturbation: Steuern des Kompromisses zwischen Intensivierung und Diversifizierung Extreme Intensivierung: Nur verbessernde Lösungen akzeptieren (starke Auswahl) Extreme Diversifizierung: Jede Lösung akzeptieren (schwache Auswahl) Viele Kriterien in der Literatur balancieren dazwischen: Probabilistisch: Zum Bsp. Boltzmann-Verteilung von SA (dann Abkühlungszeitplan erforderlich) Deterministisch: Zahlreiche Varianten, zum Bsp. basierend auf Qualitätsschranken 28 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

52 Vorlesung 9 Programm: Wdh. Tabusuche ILS Clusteranalyse von Graphen 29 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

53 ILS für TSP Startlösung: Gierige Heuristik Lokale Suche: Zum Bsp. 2-Opt, 3-Opt, LK Perturbation: Doppelbrückenschritt (4-Opt) Akzeptierung: Nur bei nicht verschlechternder Lösung 30 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

54 ILS für Max-SAT Ideensammlung an der Tafel Startlösung: Lokale Suche: Perturbation: Akzeptierung: 31 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

55 ILS für Max-SAT [Smyth et al., Iterated Robust Tabu Search for MAX-SAT, Adv. in AI, 2003] Startlösung: Zufällige Belegung, gleichverteilt Lokale Suche: Robuste Tabusuche RoTS Perturbation: RoTS mit kleinerem maxiter und längerer Tabuliste als bei Suche Akzeptierung: Neue Lösung besser: Immer akzeptieren Gleiche Qualität: Gleiche Wkt. Sonst: Neue Lsg. mit Wkt. 0.1 akzeptieren 32 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

56 Max-SAT-Ergebnisse von ILS mit RoTS (IRoTS) Empirische Ergebnisse auf verschiedenen Max-SAT-Instanzen: Gewichtet (Klauseln unterschiedlicher Priorität) und ungewichtet Zufällig generiert und strukturiert IRoTS meist besser als GLS (guided local search) und als ein einfacherer ILS-Algorithmus Bei anderen Optimierungsproblemen IRoTS aber nicht so gut wie GLS Merke: Metaheuristiken zwar allgemein anwendbar, aber Anpassung (von Parametern und Komponenten) an konkretes Problem immer wichtig 33 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

57 Zusammenfassung ILS Generiere initiale Lösung Lokale Suche Wiederholen, bis Abbruchkriterium erreicht: Perturbieren der bisherigen Lösung Lokale Suche Bewertung/Akzeptierung der aktuellen Lösung (bei Akzeptierung Fortsetzung der Suche bei aktueller Lösung, sonst bei voriger) Ausgabe: Beste gefundene Lösung Iterierte lokale Suche mit Perturbation Kann lokalen Optima entkommen Bei passender Perturbation gute Mischung aus Intensivierung und Diversifizierung 34 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)

Betriebliche Optimierung

Betriebliche Optimierung Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 19 1 Joachim Schauer ( Institut für

Mehr

Einführung in das Seminar Algorithmentechnik

Einführung in das Seminar Algorithmentechnik Einführung in das Seminar Algorithmentechnik 10. Mai 2012 Henning Meyerhenke, Roland Glantz 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Roland undglantz: nationales Einführung Forschungszentrum

Mehr

Algorithmische Methoden für schwere Optimierungsprobleme

Algorithmische Methoden für schwere Optimierungsprobleme Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

Algorithmische Methoden für schwere Optimierungsprobleme

Algorithmische Methoden für schwere Optimierungsprobleme Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund

Mehr

Algorithmische Methoden für schwere Optimierungsprobleme

Algorithmische Methoden für schwere Optimierungsprobleme Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund

Mehr

5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus

5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus 5. Lokale Suchverfahren Lokale Suche 5. Lokale Suchverfahren Beispiel TSP: k-change Nachbarschaft Optimale Lösungen können oft nicht effizient ermittelt werden. Heuristiken liefern zwar zulässige Lösungen,

Mehr

Konstruktions-Verbesserungsheuristiken. Iterierte lokale Suche (ILS)

Konstruktions-Verbesserungsheuristiken. Iterierte lokale Suche (ILS) Konstruktions-Verbesserungsheuristiken Iterierte lokale Suche (ILS) Idee: 2-Phasen-Suche 1. Phase: Randomisierte Konstruktionsheuristik 2. Phase: Lokale Suche Beispiele: Multi-Start lokale Suche GRASP:

Mehr

11. Übung zu Algorithmen I 6. Juli 2016

11. Übung zu Algorithmen I 6. Juli 2016 11. Übung zu Algorithmen I 6. Juli 2016 Lisa Kohl lisa.kohl@kit.edu mit Folien von Lukas Barth Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP ein Algorithmus

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

Algorithmische Methoden für schwere Optimierungsprobleme

Algorithmische Methoden für schwere Optimierungsprobleme Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund

Mehr

09. Übung zu Algorithmen I 12. Juli 2017

09. Übung zu Algorithmen I 12. Juli 2017 09. Übung zu Algorithmen I 12. Juli 2017 Björn Kaidel bjoern.kaidel@kit.edu mit Folien von Lukas Barth 1 / 67 Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 16 Programm: Einführung

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 11, Henning Meyerhenke

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 11, Henning Meyerhenke Algorithmische Methoden zur Netzwerkanalyse Vorlesung 11, 18.01.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum

Mehr

Gliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen

Gliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen Kapitel Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren

Mehr

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 12, Henning Meyerhenke

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 12, Henning Meyerhenke Algorithmische Methoden zur Netzwerkanalyse Vorlesung 12, 25.01.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 8, Henning Meyerhenke

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 8, Henning Meyerhenke Algorithmische Methoden zur Netzwerkanalyse Vorlesung 8, 07.12.2011 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum

Mehr

Verbesserungsheuristiken

Verbesserungsheuristiken Verbesserungsheuristiken Bestandteile der Lokalen Suche Für schwierige Optimierungsaufgaben haben Verbesserungsheuristiken eine große praktische Bedeutung. Sie starten mit Ausgangslösungen, die von z.b.

Mehr

Heuristische Verfahren

Heuristische Verfahren Heuristische Verfahren Bei heuristischen Verfahren geht es darum in polynomieller Zeit eine Näherungslösung zu bekommen. Diese kann sehr gut oder sogar optimal sein, jedoch gibt es keine Garantie dafür.

Mehr

Bisher: Suche durch Lösungsveränderung Neuer Begriff: Nachbarschaft einer Lösung

Bisher: Suche durch Lösungsveränderung Neuer Begriff: Nachbarschaft einer Lösung Lokale Suche und Nachbarschaften Bisher: Suche durch Lösungsveränderung Neuer Begriff: Nachbarschaft einer Lösung Nachbarschaft ist Menge der Lösungen, die von einer gegebenen Lösung durch eine einfache

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

Algorithmische Methoden für schwere Optimierungsprobleme

Algorithmische Methoden für schwere Optimierungsprobleme Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Die Forschungsuniversität Meyerhenke, in der Institut für Theoretische Informatik

Mehr

Algorithmische Methoden für schwere Optimierungsprobleme

Algorithmische Methoden für schwere Optimierungsprobleme Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund

Mehr

Optimierung. Vorlesung 12

Optimierung. Vorlesung 12 Optimierung Vorlesung 12 Letze Woche Approximieren von ILP durch randomisiertes Runden. Beispiel Set Cove Relaxiertes LP lösen und runden. Probleme: 1. Zielfunktionswert 2. Zulässigkeit 1. Linearität des

Mehr

Ant Colony Optimization (ACO)

Ant Colony Optimization (ACO) Ant Colony Optimization (ACO) Daniel Blum 24.4.2003 Projektgruppe 431 Metaheuristiken Lehrstuhl 11, Fachbereich Informatik, Universität Dortmund 1 Übersicht Vorbild Natur Übertragung der Ideen Beispiele

Mehr

Algorithmen II Vorlesung am

Algorithmen II Vorlesung am Algorithmen II Vorlesung am..03 Randomisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum

Mehr

v R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i

v R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i MOP: Pareto-Gradientenabstiegsverfahren Annahme: Zielfunktion differenzierbar Wintersemester 2007/08 Praktische Optimierung (Vorlesung) d = 1: (monokriteriell) v R n ist Abstiegsrichtung in x R n wenn

Mehr

Synthese Eingebetteter Systeme. Übung 6

Synthese Eingebetteter Systeme. Übung 6 12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Wiederholung TSP: Kurz:

Mehr

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, Henning Meyerhenke

Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, Henning Meyerhenke Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, 01.02.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum

Mehr

x x x x Repräsentation von Lösungen (2) Repräsentation von Lösungen (1)

x x x x Repräsentation von Lösungen (2) Repräsentation von Lösungen (1) Repräsentation von Lösungen () Repräsentation von Lösungen () Kontinuierliche Optimierung: x x x x n Binäre Optimierung: n = (,,, ) R x = ( x, x,, x ) {0,} n n Lokale Suche: x i = x i + ε Lokale Suche:

Mehr

Heuristiken im Kontext von Scheduling

Heuristiken im Kontext von Scheduling Heuristiken im Kontext von Scheduling Expertenvortrag CoMa SS 09 CoMa SS 09 1/35 Übersicht Motivation Makespan Scheduling Lokale Suche Weitere Metaheuristiken Zusammenfassung Literatur CoMa SS 09 2/35

Mehr

Repräsentation von Lösungen (1)

Repräsentation von Lösungen (1) Repräsentation von Lösungen (1) Kontinuierliche Optimierung: Binäre Optimierung: x x1 x2 x n n = (,,, ) R x = ( x1, x2,, x ) {0,1} n n Lokale Suche: x i = x i + ε Lokale Suche: x i = 1-x i 0.5 0.9 0.2

Mehr

Algorithmen I - Tutorium 28 Nr. 3

Algorithmen I - Tutorium 28 Nr. 3 Algorithmen I - Tutorium 28 Nr. 3 18.05.2016: Spaß mit Listen, Arrays und amortisierter Analyse Marc Leinweber marc.leinweber@student.kit.edu INSTITUT FÜR THEORETISCHE INFORMATIK (ITI), PROF. DR. JÖRN

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

H. Meyerhenke: Kombinatorische Optimierung. Paralleles Rechnen, Institut für Theoretische Informatik, Fakultät für Informatik

H. Meyerhenke: Kombinatorische Optimierung. Paralleles Rechnen, Institut für Theoretische Informatik, Fakultät für Informatik VORLESUNG 13 Smoothed Analysis des Simplex-Algorithmus Nach Heiko Röglin, Universität Bonn, Vorlesungsskript Introduction to Smoothed Analysis vom 9. Januar 2012 78 Wiederholung Simplex-Algorithmus! Korrektheit:!

Mehr

Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme

Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 4 Programm des

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung

Softwareprojektpraktikum Maschinelle Übersetzung Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Die Forschungsuniversität Meyerhenke, in der Institut für Theoretische Informatik

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 3 Programm des

Mehr

Deterministisch vs. Zufallsgesteuert

Deterministisch vs. Zufallsgesteuert Klassifikation von Heuristiken Problembezogen: Problemspezifische Heuristiken Problemunabhängige Heuristiken Nach Komplexität: Einfache Heuristiken Hybride Heuristiken Nach Methodik: Konstruktionsheuristiken

Mehr

Tabu Suche. Allgemein. Simple Tabu-Suche. Praktisches Beispiel. Erweiterungsmöglichkeiten. Aspirationskriterien. Verbesserungen.

Tabu Suche. Allgemein. Simple Tabu-Suche. Praktisches Beispiel. Erweiterungsmöglichkeiten. Aspirationskriterien. Verbesserungen. Tabu Suche Allgemein Simple Tabu-Suche Praktisches Beispiel Erweiterungsmöglichkeiten Aspirationskriterien Verbesserungen Zusammenfassung TabuSuche, Peter Jahrmann, 0425523 1 Allgemein Metaheuristisches

Mehr

Einführung in Heuristische Suche

Einführung in Heuristische Suche Einführung in Heuristische Suche Beispiele 2 Überblick Intelligente Suche Rundenbasierte Spiele 3 Grundlagen Es muss ein Rätsel / Puzzle / Problem gelöst werden Wie kann ein Computer diese Aufgabe lösen?

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

Klassifikation von Heuristiken. Meta-Heuristiken. Problembezogen: Problemspezifische Heuristiken Problemunabhängige Heuristiken

Klassifikation von Heuristiken. Meta-Heuristiken. Problembezogen: Problemspezifische Heuristiken Problemunabhängige Heuristiken Klassifikation von Heuristiken Meta-Heuristiken Problembezogen: Problemspezifische Heuristiken Problemunabhängige Heuristiken Nach Komplexität: Einfache Heuristiken Hybride Heuristiken Nach Methodik: Konstruktionsheuristiken

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 01. Dezember 2011 INSTITUT FÜR THEORETISCHE 0 KIT 01.12.2011 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der

Mehr

Systematische Suche. Alle (sinnvollen) Möglichkeiten ausprobieren. Anwendungen: Idee:

Systematische Suche. Alle (sinnvollen) Möglichkeiten ausprobieren. Anwendungen: Idee: Systematische Suche Idee: Alle (sinnvollen) Möglichkeiten ausprobieren. Anwendungen: I Ganzzahlige lineare Programmierung (Integer Linear Programming) (ILP) I Constraint Satisfaction I SAT (Aussagenlogik)

Mehr

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006 Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden

Mehr

Formale Grundlagen der Informatik F3: Berechenbarkeit un

Formale Grundlagen der Informatik F3: Berechenbarkeit un Formale Grundlagen der Informatik F3: Berechenbarkeit und Komplexität Fachbereich Informatik AB Theoretische Grundlagen der Informatik (TGI) Universität Hamburg farwer@informatik.uni-hamburg.de 14. Dezember

Mehr

Wissensbasierte Systeme. Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche. Heuristiken und ihre Eigenschaften

Wissensbasierte Systeme. Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche. Heuristiken und ihre Eigenschaften 1 Michael Beetz Technische Universität München Wintersemester 2004/05 Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche 2 3 der Eigenschaften der 4 : 8-Puzzle 5 Heuristiken und ihre Eigenschaften

Mehr

Überblick. Motivation. Kap. 7.6 Verbesserungsheuristiken. Nachbarschaft einer Lösung Einfache lokale Suche

Überblick. Motivation. Kap. 7.6 Verbesserungsheuristiken. Nachbarschaft einer Lösung Einfache lokale Suche Kap. 7.6 Verbesserungsheuristiken (letzte VO) Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 7. VO DAP SS 008 17. Juli 008 Überblick Verbesserungsheuristiken

Mehr

Lokale Suche. 31. Januar / 28

Lokale Suche. 31. Januar / 28 Lokale Suche 31. Januar 2018 1 / 28 Lokale Suche Wir betrachten das allgemeine Minimierungsproblem min y f (x, y) so dass L(x, y). Wir nehmen an, dass zu jeder Lösung y auch eine Nachbarschaft N (y) benachbarter

Mehr

Local Search Algorithmen 1

Local Search Algorithmen 1 Local Search Algorithmen 1 Seminar über Algorithmen Manuel Gellfart 18.05.2012 Fachbereich Mathematik und Informatik 18.05.2012 2 Gliederung 1. Einleitung 2. Theorie 3. Beispiel: Vertex Cover 4. Beispiel:

Mehr

Kap. 7.6 Verbesserungsheuristiken (letzte VO)

Kap. 7.6 Verbesserungsheuristiken (letzte VO) Kap. 7.6 Verbesserungsheuristiken (letzte VO) Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 25. VO DAP2 SS 2009 23. Juli 2009 1 Überblick Verbesserungsheuristiken

Mehr

Algorithmen I - Tutorium 28 Nr. 6

Algorithmen I - Tutorium 28 Nr. 6 Algorithmen I - Tutorium 28 Nr. 6 08.06.2017: Spaß mit Sortieren, Aufgaben und Wiederholung Marc Leinweber marc.leinweber@student.kit.edu INSTITUT FÜR THEORETISCHE INFORMATIK (ITI), PROF. DR. JÖRN MÜLLER-QUADE

Mehr

Evolution und Algorithmen

Evolution und Algorithmen Kapitel 6 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics

Mehr

lineare Programmierung

lineare Programmierung lineare Programmierung Viele Probleme sind durch lineare Gleichungssysteme charakterisiert lineare Programmiermethoden Der Lösungsraum ist häufig auf ganze Zahlen oder gar natürliche Zahlen eingeschränkt!

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 20. November 2014 INSTITUT FÜR THEORETISCHE 0 KIT 20.11.2014 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der

Mehr

9. November ZHK in dynamischen Graphen Zentralitäten. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 67

9. November ZHK in dynamischen Graphen Zentralitäten. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 67 9. November 2011 ZHK in dynamischen Graphen Zentralitäten H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 67 ZHK in dynamischen Graphen Ungerichteter schlichter dynamischer Graph Dynamisch:

Mehr

Algorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS Oktober 2016

Algorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS Oktober 2016 Technische Universität Wien Institut für Computergraphik und Algorithmen Algorithms and Complexity Group 186.815 Algorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS 2016 5. Oktober 2016 Machen Sie

Mehr

verschiedenen Recheneinheiten, die miteinander kommunizieren können

verschiedenen Recheneinheiten, die miteinander kommunizieren können Vorlesung 9 BALANCIERUNG DYNAMISCHER UNABHÄNGIGER LASTEN 293 Lastbalancierung Motivation Ein paralleles System besteht aus verschiedenen Recheneinheiten, die miteinander kommunizieren können Warum parallel

Mehr

16. November 2011 Zentralitätsmaße. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87

16. November 2011 Zentralitätsmaße. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87 16. November 2011 Zentralitätsmaße H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87 Darstellung in spektraler Form Zentralität genügt Ax = κ 1 x (Herleitung s. Tafel), daher ist x der Eigenvektor

Mehr

Algorithmen I. Prof. Jörn Müller-Quade Institut für Theoretische Informatik Web: https://crypto.iti.kit.edu/index.php?

Algorithmen I. Prof. Jörn Müller-Quade Institut für Theoretische Informatik Web: https://crypto.iti.kit.edu/index.php? Algorithmen I Prof. Jörn Müller-Quade 10.07.2017 Institut für Theoretische Informatik Web: https://crypto.iti.kit.edu/index.php?id=799 (Folien von Peter Sanders) KIT Institut für Theoretische Informatik

Mehr

Datenstrukturen und Algorithmen. 7. Suchen in linearen Feldern

Datenstrukturen und Algorithmen. 7. Suchen in linearen Feldern Datenstrukturen und Algorithmen 7. Suchen in linearen Feldern VO 708.031 Suchen in linearen Feldern robert.legenstein@igi.tugraz.at 1 Inhalt der Vorlesung 1. Motivation, Einführung, Grundlagen 2. Algorithmische

Mehr

Approximationsalgorithmen für NP-harte Optimierungsprobleme

Approximationsalgorithmen für NP-harte Optimierungsprobleme Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 18 Was tun mit NP-harten Problemen? Viele praxisrelevante

Mehr

Approximationsalgorithmen für NP-harte Optimierungsprobleme

Approximationsalgorithmen für NP-harte Optimierungsprobleme Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 4. Januar 2011 Berthold Vöcking, Informatik 1 () Vorlesung

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 16.11.2010 INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 25. November 2014 INSTITUT FÜR THEORETISCHE 0 KIT 25.11.2014 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der

Mehr

Konvexe Hülle. Abbildung: [Wikipedia]: Nicht-konvexe Menge (links), konvexe Menge (rechts) KIT Institut für Theoretische Informatik 510

Konvexe Hülle. Abbildung: [Wikipedia]: Nicht-konvexe Menge (links), konvexe Menge (rechts) KIT Institut für Theoretische Informatik 510 Konvexe Hülle Definition konvexe Menge: Für je zwei beliebige Punkte, die zur Menge gehören, liegt auch stets deren Verbindungsstrecke ganz in der Menge. Abbildung: [Wikipedia]: Nicht-konvexe Menge (links),

Mehr

SIMULATED ANNEALING IM RAHMEN DES PS VIRTUAL LAB MARTIN PFEIFFER. Simulated Annealing Virtual Lab 1 /42

SIMULATED ANNEALING IM RAHMEN DES PS VIRTUAL LAB MARTIN PFEIFFER. Simulated Annealing Virtual Lab 1 /42 SIMULATED ANNEALING IM RAHMEN DES PS VIRTUAL LAB MARTIN PFEIFFER Simulated Annealing Virtual Lab 1 /42 - Simulated Annealing = Simuliertes Abkühlen - Verfahren zum Lösen kombinatorischer Probleme - inspiriert

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

Algorithmische Methoden für schwere Optimierungsprobleme

Algorithmische Methoden für schwere Optimierungsprobleme Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund

Mehr

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung

Mehr

Exkurs Modelle und Algorithmen

Exkurs Modelle und Algorithmen Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen

Mehr

Seminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP

Seminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP Seminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP Tobias Boelter 28. Mai 2013 bei Prof. Dr. Rainer Schrader, Universität zu Köln Inhaltsverzeichnis 1 Einleitung 2 2 Lokale Suche

Mehr

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung 8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen

Mehr

Dynamisches Routing in der Logistik

Dynamisches Routing in der Logistik Informatik, Angewandte Informatik, Technische Informationssysteme Dynamisches Routing in der Logistik Tobias Dimmel Dresden, 24.05.2012 Agenda 1. Begriffe 2. Traveling Salesman Problem 3. Ameisenalgorithmus

Mehr

Heuristiken Greedy-Algorithmen Lokale Suche Tabu Suche

Heuristiken Greedy-Algorithmen Lokale Suche Tabu Suche Seminar Ausgewählte Themen des Operations Research bei Prof. R. Schrader Heuristiken Greedy-Algorithmen Lokale Suche Tabu Suche Wintersemester 2007/2008 Eingereicht von: Florian Schuster Datum: 12.12.2007

Mehr

Proportional Symbol Maps

Proportional Symbol Maps Proportional Symbol Maps Florian Simon 8. Dezember, 2009 Proportional Symbol Maps Gegeben: Punkte p 1,..., p n R 2 mit zugeordneten Werten w 1,..., w n R Proportional Symbol Maps Gegeben: Punkte p 1,...,

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

Implementation und Evaluierung innovativer Heuristiken für die Anordnung von Entwurfsentscheidungen

Implementation und Evaluierung innovativer Heuristiken für die Anordnung von Entwurfsentscheidungen Implementation und Evaluierung innovativer Heuristiken für die Anordnung von Entwurfsentscheidungen Diplomarbeit Thomas Scharler Universität Hamburg, FB Informatik, AB Tech Implementation und Evaluierung

Mehr

Algorithmen und Datenstrukturen 2. Stefan Florian Palkovits, BSc Juni 2016

Algorithmen und Datenstrukturen 2. Stefan Florian Palkovits, BSc Juni 2016 Algorithmen und Datenstrukturen 2 Übung 1 Stefan Florian Palkovits, BSc 0926364 e0926364@student.tuwien.ac.at 12. Juni 2016 Aufgabe 1: Es existiert eine Reduktion von Problem A auf Problem B in O(n 3 +

Mehr

Optimale Produktliniengestaltung mit Genetischen Algorithmen

Optimale Produktliniengestaltung mit Genetischen Algorithmen Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 23. November 2017 INSTITUT FÜR THEORETISCHE 0 23.11.2017 Dorothea Wagner - Theoretische Grundlagen der Informatik INSTITUT FÜR THEORETISCHE KIT Die Forschungsuniversität

Mehr

Datenstrukturen sind neben Algorithmen weitere wichtige Bausteine in der Informatik

Datenstrukturen sind neben Algorithmen weitere wichtige Bausteine in der Informatik 5. Datenstrukturen Motivation Datenstrukturen sind neben Algorithmen weitere wichtige Bausteine in der Informatik Eine Datenstruktur speichert gegebene Daten und stellt auf diesen bestimmte Operationen

Mehr

Probleme aus NP und die polynomielle Reduktion

Probleme aus NP und die polynomielle Reduktion Probleme aus NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 15. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit

Mehr

10. Vorlesung Stochastische Optimierung

10. Vorlesung Stochastische Optimierung Soft Control (AT 3, RMA) 10. Vorlesung Stochastische Optimierung Genetische Algorithmen 10. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"

Mehr

Suchen und Sortieren

Suchen und Sortieren Ideen und Konzepte der Informatik Suchen und Sortieren Ordnung ist das halbe Leben Antonios Antoniadis (Basierend auf Folien von Kurt Mehlhorn und Konstantinos Panagiotou) 6. November 2017 6. November

Mehr

Sandro Pirkwieser, (Bin Hu, Jakob Puchinger) SS 2010

Sandro Pirkwieser, (Bin Hu, Jakob Puchinger) SS 2010 Lösungsverfahren für Ganzzahlige Optimierung Sandro Pirkwieser, (Bin Hu, Jakob Puchinger) Fortgeschrittene Algorithmen und Datenstrukturen Arbeitsbereich für Algorithmen und Datenstrukturen Institut für

Mehr

Algorithmen II Vorlesung am

Algorithmen II Vorlesung am Algorithmen II Vorlesung am 17.01.013 Parametrisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales

Mehr