Algorithmische Methoden für schwere Optimierungsprobleme
|
|
- Kai Flater
- vor 5 Jahren
- Abrufe
Transkript
1 Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische Informatik nationales Algorithmische Forschungszentrum Methoden in der Helmholtz-Gemeinschaft für schwere Optimierungsprobleme
2 Vorlesung 8 Programm: Max-SAT randomisiert Tabusuche ILS 2 Henning Meyerhenke, Institut für Theoretische Informatik
3 Inhalt Gierige lokale Suche für (Max-)SAT Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS) 3 Henning Meyerhenke, Institut für Theoretische Informatik Gierige lokale Suche für (Max-)SAT
4 Lokale Suche für (Max-)SAT Diskussion: Wie könnte eine gierige lokale Suche für (Max-)SAT aussehen? 4 Henning Meyerhenke, Institut für Theoretische Informatik Gierige lokale Suche für (Max-)SAT
5 Lokale Suche für (Max-)SAT Diskussion: Wie könnte eine gierige lokale Suche für (Max-)SAT aussehen? GSAT, siehe Selman et al., AAAI 1992: Startlösung: Zufällig generiert Wiederhole bis Abbruch: Belegung der Variable wechseln (engl.: flip), die die höchste Verbesserung bzgl. wahr ergibt Frage: Was sind vernünftige Abbruchkriterien? 4 Henning Meyerhenke, Institut für Theoretische Informatik Gierige lokale Suche für (Max-)SAT
6 Lokale Suche für (Max-)SAT Diskussion: Wie könnte eine gierige lokale Suche für (Max-)SAT aussehen? GSAT, siehe Selman et al., AAAI 1992: Startlösung: Zufällig generiert Wiederhole bis Abbruch: Belegung der Variable wechseln (engl.: flip), die die höchste Verbesserung bzgl. wahr ergibt Frage: Was sind vernünftige Abbruchkriterien? Erfüllende Belegung oder maximale Anzahl Iterationen erreicht Danach: Wiederholung mit neuer zufälliger Startlösung bis zum Zeitlimit 4 Henning Meyerhenke, Institut für Theoretische Informatik Gierige lokale Suche für (Max-)SAT
7 Lokale Suche für (Max-)SAT Diskussion: Wie könnte eine gierige lokale Suche für (Max-)SAT aussehen? GSAT, siehe Selman et al., AAAI 1992: Startlösung: Zufällig generiert Wiederhole bis Abbruch: Belegung der Variable wechseln (engl.: flip), die die höchste Verbesserung bzgl. wahr ergibt Frage: Was sind vernünftige Abbruchkriterien? Erfüllende Belegung oder maximale Anzahl Iterationen erreicht Danach: Wiederholung mit neuer zufälliger Startlösung bis zum Zeitlimit Bewertung: Bessere Varianten existieren, soll nur als Einstieg dienen 4 Henning Meyerhenke, Institut für Theoretische Informatik Gierige lokale Suche für (Max-)SAT
8 Random-Walk-Strategie für GSAT RWS-GSAT: Verbesserung von GSAT durch weiteren zufälligen Einfluss: Variable, die geflippt wird, wird anders gewählt: Mit Wkt. p: Wähle zu flippende Variable aus einer nicht erfüllten Klausel Mit Wkt. 1 p: Standard GSAT, also bestmöglichen lokalen Schritt Wahl von p wichtig (Schwäche!) 5 Henning Meyerhenke, Institut für Theoretische Informatik Gierige lokale Suche für (Max-)SAT
9 Schwierige Instanzen Phasenverschiebung bei SAT % of satisfiable problems SAT 3-SAT 4-SAT % of satisfiable problems n=25 n=50 n=100 n= c/n c/n Abbildung: c: Anzahl Klauseln, n: Anzahl der Variablen Fazit 1: Je mehr Klauseln pro Variable, desto schwieriger Fazit 2: Schmaler Grat zwischen erfüllbar und nicht erfüllbar 6 Henning Meyerhenke, Institut für Theoretische Informatik Gierige lokale Suche für (Max-)SAT
10 Inhalt Gierige lokale Suche für (Max-)SAT Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS) 7 Henning Meyerhenke, Institut für Theoretische Informatik
11 Einführung Kontrollierte Randomisierung in Simulated Annealing war Meilenstein wegen der Flucht aus lokalen Optima Randomisierung aber nicht immer erwünscht Neuer Ansatz: Tabusuche (TS) 8 Henning Meyerhenke, Institut für Theoretische Informatik
12 Einführung Kontrollierte Randomisierung in Simulated Annealing war Meilenstein wegen der Flucht aus lokalen Optima Randomisierung aber nicht immer erwünscht Neuer Ansatz: Tabusuche (TS) TS verhält sich wie lokale Suche mit steilstem Anstieg (Wahl des besten Nachbarn) Aber: TS akzeptiert auch nicht-verbessernde Nachbarlösungen, wenn es keine verbessernden Nachbarn gibt Vermeidung von Zyklen im Suchraum durch Tabuliste 8 Henning Meyerhenke, Institut für Theoretische Informatik
13 Konzept von Tabusuche SA wählt normalerweise einen zufälligen Nachbarn Viele TS-Algorithmen betrachten vollständige Nachbarschaft Wie bei lokaler Suche: Besserer Nachbar ersetzt aktuelle Lösung 9 Henning Meyerhenke, Institut für Theoretische Informatik
14 Konzept von Tabusuche SA wählt normalerweise einen zufälligen Nachbarn Viele TS-Algorithmen betrachten vollständige Nachbarschaft Wie bei lokaler Suche: Besserer Nachbar ersetzt aktuelle Lösung Im lokalen Optimum: Suche wird fortgesetzt mit bestem Nachbarn Kann zu Zyklen im Suchraum führen! Zyklusvermeidung: Tabuliste speichert (Informationen über) bereits besuchte Lösungen (der letzten Zeit) Beispiel: Siehe Tafel! 9 Henning Meyerhenke, Institut für Theoretische Informatik
15 Vermeidung von Zyklen: Tabuliste Kurzzeitgedächtnis Tabuliste speichert Aspekte der Suche Aspekte: Lösung, Veränderung zwischen Lösungen, Zielfunktionswerte, Henning Meyerhenke, Institut für Theoretische Informatik
16 Vermeidung von Zyklen: Tabuliste Kurzzeitgedächtnis Tabuliste speichert Aspekte der Suche Aspekte: Lösung, Veränderung zwischen Lösungen, Zielfunktionswerte,... Aktualisierung nach jedem Schritt (die neueste Info wird eingefügt, die älteste fliegt raus) Generierte Nachbarlösung ist nur akzeptabel, wenn sie nicht in der Tabuliste ist Übergeordnetes Kriterium: Schritt, der eigtl. tabu ist, wird doch akzeptiert (z. B. weil er eine beste bisher gefundene Lösung produziert) 10 Henning Meyerhenke, Institut für Theoretische Informatik
17 Vermeidung von Zyklen: Tabuliste Kurzzeitgedächtnis Tabuliste speichert Aspekte der Suche Aspekte: Lösung, Veränderung zwischen Lösungen, Zielfunktionswerte,... Aktualisierung nach jedem Schritt (die neueste Info wird eingefügt, die älteste fliegt raus) Generierte Nachbarlösung ist nur akzeptabel, wenn sie nicht in der Tabuliste ist Übergeordnetes Kriterium: Schritt, der eigtl. tabu ist, wird doch akzeptiert (z. B. weil er eine beste bisher gefundene Lösung produziert) Frage: Warum speichert man nicht alle bisherigen Lösungen? 10 Henning Meyerhenke, Institut für Theoretische Informatik
18 Vermeidung von Zyklen: Tabuliste Kurzzeitgedächtnis Tabuliste speichert Aspekte der Suche Aspekte: Lösung, Veränderung zwischen Lösungen, Zielfunktionswerte,... Aktualisierung nach jedem Schritt (die neueste Info wird eingefügt, die älteste fliegt raus) Generierte Nachbarlösung ist nur akzeptabel, wenn sie nicht in der Tabuliste ist Übergeordnetes Kriterium: Schritt, der eigtl. tabu ist, wird doch akzeptiert (z. B. weil er eine beste bisher gefundene Lösung produziert) Frage: Warum speichert man nicht alle bisherigen Lösungen? Wichtig: Funktioniert nur in diskreten Suchräumen! Warum? 10 Henning Meyerhenke, Institut für Theoretische Informatik
19 Beispiel Fortsetzung Siehe Tafel! 11 Henning Meyerhenke, Institut für Theoretische Informatik
20 Intensivierung durch Gedächtnis mittlerer Länge Intensivierung: Die Suche im Suchraum einengen auf den Bereich guter Lösungen Frage: Bei welcher Struktur des Suchraums ist das gut? 12 Henning Meyerhenke, Institut für Theoretische Informatik
21 Intensivierung durch Gedächtnis mittlerer Länge Intensivierung: Die Suche im Suchraum einengen auf den Bereich guter Lösungen Frage: Bei welcher Struktur des Suchraums ist das gut? Methode bei Tabusuche: Gedächtnis mittlerer Länge speichert Menge der besten bisher gefundenen Lösungen Bei der Betrachtung können unterschiedliche Eigenschaften eine Rolle spielen, auch durch Wahrscheinlichkeiten gewichtet 12 Henning Meyerhenke, Institut für Theoretische Informatik
22 Diversifizierung durch Langzeitgedächtnis Diversifizierung: Die Suche im Suchraum breit streuen Frage: Bei welcher Struktur des Suchraums ist das gut? 13 Henning Meyerhenke, Institut für Theoretische Informatik
23 Diversifizierung durch Langzeitgedächtnis Diversifizierung: Die Suche im Suchraum breit streuen Frage: Bei welcher Struktur des Suchraums ist das gut? Methode bei Tabusuche: Langzeitgedächtnis speichert Informationen über die besuchten Lösungen Unbesuchte Bereiche des Lösungsraums werden dann bevorzugt besucht 13 Henning Meyerhenke, Institut für Theoretische Informatik
24 Tabusuche Generischer Algorithmus 1: function TABUSEARCH(I) 2: s = generate_initial_solution() 3: Initialisiere Tabuliste, und Gedächtnisse mittlerer und großer Länge 4: repeat 5: Finde besten zulässigen Nachbarn s 6: s = s 7: Aktualisiere Tabuliste und die beiden anderen Gedächtnisse 8: if Intensivierung erforderlich then 9: Führe Intensivierung durch 10: end if 11: if Diversifizierung erforderlich then 12: Führe Diversifizierung durch 13: end if 14: until Terminierungskriterium erfüllt 15: return beste bisher gefundene Lösung 16: end function 14 Henning Meyerhenke, Institut für Theoretische Informatik
25 Komponenten (1): Übersicht Suchspeicher Zweck Beliebte Repräsentation Tabuliste Zyklusvermeidung Besuchte Lösungen, Schrittattribute, Lösungsattribute Gedächtnis m. Länge Intensivierung Zahl aufeinanderfolgender Iterationen einer Eigenschaft in besuchten Lösungen Langzeitgedächtnis Diversifizierung Häufigkeitsspeicher 15 Henning Meyerhenke, Institut für Theoretische Informatik
26 Komponenten (2) Kurzzeitgedächtnis Tabuliste Zweck: Zyklen verhindern Aus Zeit- und Platzgründen wird nicht die ganze Historie gespeichert Daher: Länge k statisch (k konstant) dynamisch (k veränderlich, ohne dass Informationen über die Suche eingehen) adaptiv (k veränderlich, dafür Einbezug von Informationen über die Suche) Gespeicherte Information: Attribute der Lösung, Attribute des Schritts zwischen Lösungen, ggf. weitere Infos 16 Henning Meyerhenke, Institut für Theoretische Informatik
27 Komponenten (2) Kurzzeitgedächtnis Tabuliste Zweck: Zyklen verhindern Aus Zeit- und Platzgründen wird nicht die ganze Historie gespeichert Daher: Länge k statisch (k konstant) dynamisch (k veränderlich, ohne dass Informationen über die Suche eingehen) adaptiv (k veränderlich, dafür Einbezug von Informationen über die Suche) Gespeicherte Information: Attribute der Lösung, Attribute des Schritts zwischen Lösungen, ggf. weitere Infos Diskussion: Datenstruktur für die Tabuliste (nicht so sehr die Einträge an sich)? 16 Henning Meyerhenke, Institut für Theoretische Informatik
28 Komponenten (3) Gedächtnisse mittlerer und großer Länge Mittlere Länge: Speichert Zahl der aufeinanderfolgenden Iterationen, in denen eine Eigenschaft in den besuchten Lösungen aufgetreten ist Beispiel: Belegung einer Variablen(gruppe) 17 Henning Meyerhenke, Institut für Theoretische Informatik
29 Komponenten (3) Gedächtnisse mittlerer und großer Länge Mittlere Länge: Speichert Zahl der aufeinanderfolgenden Iterationen, in denen eine Eigenschaft in den besuchten Lösungen aufgetreten ist Beispiel: Belegung einer Variablen(gruppe) Große Länge: Speichert, wie häufig insgesamt in den bisher besuchten Lösungen eine Eigenschaft aufgetreten ist Beispiel: Bei TSP bestimmte Kanten 17 Henning Meyerhenke, Institut für Theoretische Informatik
30 Tabusuche für (Max-)SAT Mazure et al.: Tabu Search for SAT Vergleich zur lokalen Suche: Wollen wiederkehrende Flips vermeiden Kein übergeordnetes Tabukriterium (Nachbarn in Tabuliste sind immer tabu) Tabuliste fester Länge von geflippten Variablen (nicht Belegungen) als zeitlich geordnete FIFO-Liste Variablen in der Liste werden nicht geflippt 18 Henning Meyerhenke, Institut für Theoretische Informatik
31 Tabusuche für (Max-)SAT Mazure et al.: Tabu Search for SAT Vergleich zur lokalen Suche: Wollen wiederkehrende Flips vermeiden Kein übergeordnetes Tabukriterium (Nachbarn in Tabuliste sind immer tabu) Tabuliste fester Länge von geflippten Variablen (nicht Belegungen) als zeitlich geordnete FIFO-Liste Variablen in der Liste werden nicht geflippt Merke: Effizienz und Effektivität von (Meta)Heuristiken hängt von Parameterwahl ab Experimentell ermittelt: Optimale Länge der Tabuliste für die Testinstanzen = n (mit Vorsicht zu genießen) 18 Henning Meyerhenke, Institut für Theoretische Informatik
32 SAT-Ergebnisse TSAT vs. RWS-GSAT nach Mazure et al. Abbildung: Exp. Ergebnisse für 3-SAT-Instanzen nahe der Phasengrenze RWS-GSAT TSAT ratio RWS-GSAT: Runden mit verschiedenen Startlösungen60000 Maximal n2 Flips pro Runde p = Ratio (zu minimieren): (Durchschnittliche Zahl Flips bei gelösten Instanzen) / 0 (Prozentsatz gelöster Instanzen) Henning Meyerhenke, Institut für Theoretische Informatik number of variables
33 Diskussion von Tabusuche In Bezug auf TSAT, das vorgestellte Verfahren für (Max-)SAT: Tabusuche besser als randomisierte gierige lokale Suche, besonders bei großen Problemen Länge der Tabuliste linear in n (experimentell!) 20 Henning Meyerhenke, Institut für Theoretische Informatik
34 Diskussion von Tabusuche In Bezug auf TSAT, das vorgestellte Verfahren für (Max-)SAT: Tabusuche besser als randomisierte gierige lokale Suche, besonders bei großen Problemen Länge der Tabuliste linear in n (experimentell!) Allgemein: Deterministisches Verfahren für diskrete Suchräume! Flucht aus lokalen Optima durch Akzeptierung schwächerer Zustände Zyklenvermeidung durch Tabuliste Verbesserung der Suche durch Intensivierung und/oder Diversifizierung 20 Henning Meyerhenke, Institut für Theoretische Informatik
35 Diskussion von Tabusuche In Bezug auf TSAT, das vorgestellte Verfahren für (Max-)SAT: Tabusuche besser als randomisierte gierige lokale Suche, besonders bei großen Problemen Länge der Tabuliste linear in n (experimentell!) Allgemein: Deterministisches Verfahren für diskrete Suchräume! Flucht aus lokalen Optima durch Akzeptierung schwächerer Zustände Zyklenvermeidung durch Tabuliste Verbesserung der Suche durch Intensivierung und/oder Diversifizierung Vorteile? Nachteile? 20 Henning Meyerhenke, Institut für Theoretische Informatik
36 Wiederholung Tabusuche Allgemein: Deterministisches Verfahren zur diskreten Optimierung Flucht aus lokalen Optima durch Akzeptierung schwächerer Zustände Zyklenvermeidung durch Tabuliste Verbesserung der Suche durch Intensivierung und/oder Diversifizierung 21 Henning Meyerhenke, Institut für Theoretische Informatik
37 Wiederholung Tabusuche Allgemein: Deterministisches Verfahren zur diskreten Optimierung Flucht aus lokalen Optima durch Akzeptierung schwächerer Zustände Zyklenvermeidung durch Tabuliste Verbesserung der Suche durch Intensivierung und/oder Diversifizierung Vorteile: Deterministisch, Flucht aus lokalen Optima Nachteile: Parameterabhängigkeit, mglw. lange Laufzeit 21 Henning Meyerhenke, Institut für Theoretische Informatik
38 Wiederholung Tabusuche Allgemein: Deterministisches Verfahren zur diskreten Optimierung Flucht aus lokalen Optima durch Akzeptierung schwächerer Zustände Zyklenvermeidung durch Tabuliste Verbesserung der Suche durch Intensivierung und/oder Diversifizierung Vorteile: Deterministisch, Flucht aus lokalen Optima Nachteile: Parameterabhängigkeit, mglw. lange Laufzeit In Bezug auf TSAT, das vorgestellte Verfahren für (Max-)SAT: Tabusuche besser als randomisierte gierige lokale Suche, besonders bei großen Problemen Länge der Tabuliste linear in n (experimentell!) 21 Henning Meyerhenke, Institut für Theoretische Informatik
39 Inhalt Gierige lokale Suche für (Max-)SAT Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS) 22 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
40 Einführung Lösungsqualität (des lokalen Optimums) hängt bei lokaler Suche stark von Startlösung ab Frage: Wie verbessern, ohne die Laufzeit explodieren zu lassen (konstanter Faktor erlaubt)? 23 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
41 Einführung Lösungsqualität (des lokalen Optimums) hängt bei lokaler Suche stark von Startlösung ab Frage: Wie verbessern, ohne die Laufzeit explodieren zu lassen (konstanter Faktor erlaubt)? Lokale Suche mit Mehrfachstart: Initiale Lösung wird mehrfach zufällig generiert, dann jedes Mal lokale Suche gestartet Hoffnung: Diversifiziert ausreichend, um das globale Optimum zu erwischen Erkenntnis: Bei sehr großen Instanzen ungeeignet Grund: Lokale Optima sind sich oft recht ähnlich in der Qualität 23 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
42 Einführung Lösungsqualität (des lokalen Optimums) hängt bei lokaler Suche stark von Startlösung ab Frage: Wie verbessern, ohne die Laufzeit explodieren zu lassen (konstanter Faktor erlaubt)? Lokale Suche mit Mehrfachstart: Initiale Lösung wird mehrfach zufällig generiert, dann jedes Mal lokale Suche gestartet Hoffnung: Diversifiziert ausreichend, um das globale Optimum zu erwischen Erkenntnis: Bei sehr großen Instanzen ungeeignet Grund: Lokale Optima sind sich oft recht ähnlich in der Qualität Iterierte Lokale Suche (ILS): Neustart verwirft bisherige Lösung nicht komplett 23 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
43 Konzept von ILS Idee: Wiederhole lokale Suche mit perturbierten Lösungen Vorgehen (abstrakter Pseudocode) Generiere initiale Lösung Lokale Suche Wiederholen, bis Abbruchkriterium erreicht: Perturbieren der bisherigen Lösung Lokale Suche Bewertung/Akzeptierung der aktuellen Lösung (bei Akzeptierung Fortsetzung der Suche bei aktueller Lösung, sonst bei voriger) Ausgabe: Beste gefundene Lösung Skizze des Lösungsraums: Siehe Tafel! 24 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
44 Komponenten Lokale Suche Prinzipiell jede (Meta-)Heuristik möglich, die Eigenschaften lokaler Suche aufweist Beispiele? Populationsbasierte (später in der Vorlesung) Methoden unüblich 25 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
45 Komponenten Lokale Suche Prinzipiell jede (Meta-)Heuristik möglich, die Eigenschaften lokaler Suche aufweist Beispiele? Populationsbasierte (später in der Vorlesung) Methoden unüblich Lokale Suche wird als Black Box verwendet 25 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
46 Komponenten Perturbation (1) Perturbation muss effektiver sein als zufälliger Mehrfachstart Für typische reale Probleme ist eine beeinflusste Perturbation notwendig Beeinflusst von den bisherigen Lösungen 26 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
47 Komponenten Perturbation (1) Perturbation muss effektiver sein als zufälliger Mehrfachstart Für typische reale Probleme ist eine beeinflusste Perturbation notwendig Beeinflusst von den bisherigen Lösungen Bei flachen und zerklüfteten Fitness-Landschaften (siehe Tafel) ist zufälliger Mehrfachstart aber meist besser! (Erste) Evaluation: Vergleich der beiden Methoden zufälliger Mehrfachstart und ILS mit der beeinflussten Perturbation 26 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
48 Komponenten Perturbation (2) Gute Balance bei Perturbation ( = lokale Nachbarschaft) wichtig: Zu viel: Zu ähnlich zu zufälligem Mehrfachstart Zu wenig: Mittelbare Nachbarschaft des lokalen Optimums wird nicht verlassen Daumenregel: Je effektiver die lokale Suche, desto größer die Perturbation Frage: Warum? 27 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
49 Komponenten Perturbation (2) Gute Balance bei Perturbation ( = lokale Nachbarschaft) wichtig: Zu viel: Zu ähnlich zu zufälligem Mehrfachstart Zu wenig: Mittelbare Nachbarschaft des lokalen Optimums wird nicht verlassen Daumenregel: Je effektiver die lokale Suche, desto größer die Perturbation Frage: Warum? Optimale Länge hängt vom Problem und von der Instanz ab! Varianten ähnlich wie bei TS bzgl. Länge der Tabuliste: Statisch Dynamisch Adaptiv Zusätzlicher Aspekt: Zufällig oder (halb)deterministisch 27 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
50 Komponenten Akzeptierungsfunktion Rolle in Verbindung mit Perturbation: Steuern des Kompromisses zwischen Intensivierung und Diversifizierung Extreme Intensivierung: Nur verbessernde Lösungen akzeptieren (starke Auswahl) Extreme Diversifizierung: Jede Lösung akzeptieren (schwache Auswahl) 28 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
51 Komponenten Akzeptierungsfunktion Rolle in Verbindung mit Perturbation: Steuern des Kompromisses zwischen Intensivierung und Diversifizierung Extreme Intensivierung: Nur verbessernde Lösungen akzeptieren (starke Auswahl) Extreme Diversifizierung: Jede Lösung akzeptieren (schwache Auswahl) Viele Kriterien in der Literatur balancieren dazwischen: Probabilistisch: Zum Bsp. Boltzmann-Verteilung von SA (dann Abkühlungszeitplan erforderlich) Deterministisch: Zahlreiche Varianten, zum Bsp. basierend auf Qualitätsschranken 28 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
52 Vorlesung 9 Programm: Wdh. Tabusuche ILS Clusteranalyse von Graphen 29 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
53 ILS für TSP Startlösung: Gierige Heuristik Lokale Suche: Zum Bsp. 2-Opt, 3-Opt, LK Perturbation: Doppelbrückenschritt (4-Opt) Akzeptierung: Nur bei nicht verschlechternder Lösung 30 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
54 ILS für Max-SAT Ideensammlung an der Tafel Startlösung: Lokale Suche: Perturbation: Akzeptierung: 31 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
55 ILS für Max-SAT [Smyth et al., Iterated Robust Tabu Search for MAX-SAT, Adv. in AI, 2003] Startlösung: Zufällige Belegung, gleichverteilt Lokale Suche: Robuste Tabusuche RoTS Perturbation: RoTS mit kleinerem maxiter und längerer Tabuliste als bei Suche Akzeptierung: Neue Lösung besser: Immer akzeptieren Gleiche Qualität: Gleiche Wkt. Sonst: Neue Lsg. mit Wkt. 0.1 akzeptieren 32 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
56 Max-SAT-Ergebnisse von ILS mit RoTS (IRoTS) Empirische Ergebnisse auf verschiedenen Max-SAT-Instanzen: Gewichtet (Klauseln unterschiedlicher Priorität) und ungewichtet Zufällig generiert und strukturiert IRoTS meist besser als GLS (guided local search) und als ein einfacherer ILS-Algorithmus Bei anderen Optimierungsproblemen IRoTS aber nicht so gut wie GLS Merke: Metaheuristiken zwar allgemein anwendbar, aber Anpassung (von Parametern und Komponenten) an konkretes Problem immer wichtig 33 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
57 Zusammenfassung ILS Generiere initiale Lösung Lokale Suche Wiederholen, bis Abbruchkriterium erreicht: Perturbieren der bisherigen Lösung Lokale Suche Bewertung/Akzeptierung der aktuellen Lösung (bei Akzeptierung Fortsetzung der Suche bei aktueller Lösung, sonst bei voriger) Ausgabe: Beste gefundene Lösung Iterierte lokale Suche mit Perturbation Kann lokalen Optima entkommen Bei passender Perturbation gute Mischung aus Intensivierung und Diversifizierung 34 Henning Meyerhenke, Institut für Theoretische Informatik Das Erfüllbarkeitsproblem SAT Metaheuristik Iterierte Lokale Suche (ILS)
Betriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 19 1 Joachim Schauer ( Institut für
MehrEinführung in das Seminar Algorithmentechnik
Einführung in das Seminar Algorithmentechnik 10. Mai 2012 Henning Meyerhenke, Roland Glantz 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Roland undglantz: nationales Einführung Forschungszentrum
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
Mehr5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus
5. Lokale Suchverfahren Lokale Suche 5. Lokale Suchverfahren Beispiel TSP: k-change Nachbarschaft Optimale Lösungen können oft nicht effizient ermittelt werden. Heuristiken liefern zwar zulässige Lösungen,
MehrKonstruktions-Verbesserungsheuristiken. Iterierte lokale Suche (ILS)
Konstruktions-Verbesserungsheuristiken Iterierte lokale Suche (ILS) Idee: 2-Phasen-Suche 1. Phase: Randomisierte Konstruktionsheuristik 2. Phase: Lokale Suche Beispiele: Multi-Start lokale Suche GRASP:
Mehr11. Übung zu Algorithmen I 6. Juli 2016
11. Übung zu Algorithmen I 6. Juli 2016 Lisa Kohl lisa.kohl@kit.edu mit Folien von Lukas Barth Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP ein Algorithmus
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
Mehr09. Übung zu Algorithmen I 12. Juli 2017
09. Übung zu Algorithmen I 12. Juli 2017 Björn Kaidel bjoern.kaidel@kit.edu mit Folien von Lukas Barth 1 / 67 Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 16 Programm: Einführung
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrAlgorithmische Methoden zur Netzwerkanalyse Vorlesung 11, Henning Meyerhenke
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 11, 18.01.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum
MehrGliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen
Kapitel Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren
MehrAlgorithmische Methoden zur Netzwerkanalyse Vorlesung 12, Henning Meyerhenke
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 12, 25.01.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrAlgorithmische Methoden zur Netzwerkanalyse Vorlesung 8, Henning Meyerhenke
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 8, 07.12.2011 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum
MehrVerbesserungsheuristiken
Verbesserungsheuristiken Bestandteile der Lokalen Suche Für schwierige Optimierungsaufgaben haben Verbesserungsheuristiken eine große praktische Bedeutung. Sie starten mit Ausgangslösungen, die von z.b.
MehrHeuristische Verfahren
Heuristische Verfahren Bei heuristischen Verfahren geht es darum in polynomieller Zeit eine Näherungslösung zu bekommen. Diese kann sehr gut oder sogar optimal sein, jedoch gibt es keine Garantie dafür.
MehrBisher: Suche durch Lösungsveränderung Neuer Begriff: Nachbarschaft einer Lösung
Lokale Suche und Nachbarschaften Bisher: Suche durch Lösungsveränderung Neuer Begriff: Nachbarschaft einer Lösung Nachbarschaft ist Menge der Lösungen, die von einer gegebenen Lösung durch eine einfache
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Die Forschungsuniversität Meyerhenke, in der Institut für Theoretische Informatik
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrOptimierung. Vorlesung 12
Optimierung Vorlesung 12 Letze Woche Approximieren von ILP durch randomisiertes Runden. Beispiel Set Cove Relaxiertes LP lösen und runden. Probleme: 1. Zielfunktionswert 2. Zulässigkeit 1. Linearität des
MehrAnt Colony Optimization (ACO)
Ant Colony Optimization (ACO) Daniel Blum 24.4.2003 Projektgruppe 431 Metaheuristiken Lehrstuhl 11, Fachbereich Informatik, Universität Dortmund 1 Übersicht Vorbild Natur Übertragung der Ideen Beispiele
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am..03 Randomisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
Mehrv R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i
MOP: Pareto-Gradientenabstiegsverfahren Annahme: Zielfunktion differenzierbar Wintersemester 2007/08 Praktische Optimierung (Vorlesung) d = 1: (monokriteriell) v R n ist Abstiegsrichtung in x R n wenn
MehrSynthese Eingebetteter Systeme. Übung 6
12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Wiederholung TSP: Kurz:
MehrAlgorithmische Methoden zur Netzwerkanalyse Vorlesung 13, Henning Meyerhenke
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 13, 01.02.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum
Mehrx x x x Repräsentation von Lösungen (2) Repräsentation von Lösungen (1)
Repräsentation von Lösungen () Repräsentation von Lösungen () Kontinuierliche Optimierung: x x x x n Binäre Optimierung: n = (,,, ) R x = ( x, x,, x ) {0,} n n Lokale Suche: x i = x i + ε Lokale Suche:
MehrHeuristiken im Kontext von Scheduling
Heuristiken im Kontext von Scheduling Expertenvortrag CoMa SS 09 CoMa SS 09 1/35 Übersicht Motivation Makespan Scheduling Lokale Suche Weitere Metaheuristiken Zusammenfassung Literatur CoMa SS 09 2/35
MehrRepräsentation von Lösungen (1)
Repräsentation von Lösungen (1) Kontinuierliche Optimierung: Binäre Optimierung: x x1 x2 x n n = (,,, ) R x = ( x1, x2,, x ) {0,1} n n Lokale Suche: x i = x i + ε Lokale Suche: x i = 1-x i 0.5 0.9 0.2
MehrAlgorithmen I - Tutorium 28 Nr. 3
Algorithmen I - Tutorium 28 Nr. 3 18.05.2016: Spaß mit Listen, Arrays und amortisierter Analyse Marc Leinweber marc.leinweber@student.kit.edu INSTITUT FÜR THEORETISCHE INFORMATIK (ITI), PROF. DR. JÖRN
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrH. Meyerhenke: Kombinatorische Optimierung. Paralleles Rechnen, Institut für Theoretische Informatik, Fakultät für Informatik
VORLESUNG 13 Smoothed Analysis des Simplex-Algorithmus Nach Heiko Röglin, Universität Bonn, Vorlesungsskript Introduction to Smoothed Analysis vom 9. Januar 2012 78 Wiederholung Simplex-Algorithmus! Korrektheit:!
MehrTheoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
MehrKombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 4 Programm des
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrSoftwareprojektpraktikum Maschinelle Übersetzung
Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Die Forschungsuniversität Meyerhenke, in der Institut für Theoretische Informatik
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 3 Programm des
MehrDeterministisch vs. Zufallsgesteuert
Klassifikation von Heuristiken Problembezogen: Problemspezifische Heuristiken Problemunabhängige Heuristiken Nach Komplexität: Einfache Heuristiken Hybride Heuristiken Nach Methodik: Konstruktionsheuristiken
MehrTabu Suche. Allgemein. Simple Tabu-Suche. Praktisches Beispiel. Erweiterungsmöglichkeiten. Aspirationskriterien. Verbesserungen.
Tabu Suche Allgemein Simple Tabu-Suche Praktisches Beispiel Erweiterungsmöglichkeiten Aspirationskriterien Verbesserungen Zusammenfassung TabuSuche, Peter Jahrmann, 0425523 1 Allgemein Metaheuristisches
MehrEinführung in Heuristische Suche
Einführung in Heuristische Suche Beispiele 2 Überblick Intelligente Suche Rundenbasierte Spiele 3 Grundlagen Es muss ein Rätsel / Puzzle / Problem gelöst werden Wie kann ein Computer diese Aufgabe lösen?
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrKlassifikation von Heuristiken. Meta-Heuristiken. Problembezogen: Problemspezifische Heuristiken Problemunabhängige Heuristiken
Klassifikation von Heuristiken Meta-Heuristiken Problembezogen: Problemspezifische Heuristiken Problemunabhängige Heuristiken Nach Komplexität: Einfache Heuristiken Hybride Heuristiken Nach Methodik: Konstruktionsheuristiken
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 01. Dezember 2011 INSTITUT FÜR THEORETISCHE 0 KIT 01.12.2011 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der
MehrSystematische Suche. Alle (sinnvollen) Möglichkeiten ausprobieren. Anwendungen: Idee:
Systematische Suche Idee: Alle (sinnvollen) Möglichkeiten ausprobieren. Anwendungen: I Ganzzahlige lineare Programmierung (Integer Linear Programming) (ILP) I Constraint Satisfaction I SAT (Aussagenlogik)
MehrTeil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006
Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden
MehrFormale Grundlagen der Informatik F3: Berechenbarkeit un
Formale Grundlagen der Informatik F3: Berechenbarkeit und Komplexität Fachbereich Informatik AB Theoretische Grundlagen der Informatik (TGI) Universität Hamburg farwer@informatik.uni-hamburg.de 14. Dezember
MehrWissensbasierte Systeme. Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche. Heuristiken und ihre Eigenschaften
1 Michael Beetz Technische Universität München Wintersemester 2004/05 Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche 2 3 der Eigenschaften der 4 : 8-Puzzle 5 Heuristiken und ihre Eigenschaften
MehrÜberblick. Motivation. Kap. 7.6 Verbesserungsheuristiken. Nachbarschaft einer Lösung Einfache lokale Suche
Kap. 7.6 Verbesserungsheuristiken (letzte VO) Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 7. VO DAP SS 008 17. Juli 008 Überblick Verbesserungsheuristiken
MehrLokale Suche. 31. Januar / 28
Lokale Suche 31. Januar 2018 1 / 28 Lokale Suche Wir betrachten das allgemeine Minimierungsproblem min y f (x, y) so dass L(x, y). Wir nehmen an, dass zu jeder Lösung y auch eine Nachbarschaft N (y) benachbarter
MehrLocal Search Algorithmen 1
Local Search Algorithmen 1 Seminar über Algorithmen Manuel Gellfart 18.05.2012 Fachbereich Mathematik und Informatik 18.05.2012 2 Gliederung 1. Einleitung 2. Theorie 3. Beispiel: Vertex Cover 4. Beispiel:
MehrKap. 7.6 Verbesserungsheuristiken (letzte VO)
Kap. 7.6 Verbesserungsheuristiken (letzte VO) Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 25. VO DAP2 SS 2009 23. Juli 2009 1 Überblick Verbesserungsheuristiken
MehrAlgorithmen I - Tutorium 28 Nr. 6
Algorithmen I - Tutorium 28 Nr. 6 08.06.2017: Spaß mit Sortieren, Aufgaben und Wiederholung Marc Leinweber marc.leinweber@student.kit.edu INSTITUT FÜR THEORETISCHE INFORMATIK (ITI), PROF. DR. JÖRN MÜLLER-QUADE
MehrEvolution und Algorithmen
Kapitel 6 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics
Mehrlineare Programmierung
lineare Programmierung Viele Probleme sind durch lineare Gleichungssysteme charakterisiert lineare Programmiermethoden Der Lösungsraum ist häufig auf ganze Zahlen oder gar natürliche Zahlen eingeschränkt!
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 20. November 2014 INSTITUT FÜR THEORETISCHE 0 KIT 20.11.2014 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der
Mehr9. November ZHK in dynamischen Graphen Zentralitäten. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 67
9. November 2011 ZHK in dynamischen Graphen Zentralitäten H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 67 ZHK in dynamischen Graphen Ungerichteter schlichter dynamischer Graph Dynamisch:
MehrAlgorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS Oktober 2016
Technische Universität Wien Institut für Computergraphik und Algorithmen Algorithms and Complexity Group 186.815 Algorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS 2016 5. Oktober 2016 Machen Sie
Mehrverschiedenen Recheneinheiten, die miteinander kommunizieren können
Vorlesung 9 BALANCIERUNG DYNAMISCHER UNABHÄNGIGER LASTEN 293 Lastbalancierung Motivation Ein paralleles System besteht aus verschiedenen Recheneinheiten, die miteinander kommunizieren können Warum parallel
Mehr16. November 2011 Zentralitätsmaße. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87
16. November 2011 Zentralitätsmaße H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87 Darstellung in spektraler Form Zentralität genügt Ax = κ 1 x (Herleitung s. Tafel), daher ist x der Eigenvektor
MehrAlgorithmen I. Prof. Jörn Müller-Quade Institut für Theoretische Informatik Web: https://crypto.iti.kit.edu/index.php?
Algorithmen I Prof. Jörn Müller-Quade 10.07.2017 Institut für Theoretische Informatik Web: https://crypto.iti.kit.edu/index.php?id=799 (Folien von Peter Sanders) KIT Institut für Theoretische Informatik
MehrDatenstrukturen und Algorithmen. 7. Suchen in linearen Feldern
Datenstrukturen und Algorithmen 7. Suchen in linearen Feldern VO 708.031 Suchen in linearen Feldern robert.legenstein@igi.tugraz.at 1 Inhalt der Vorlesung 1. Motivation, Einführung, Grundlagen 2. Algorithmische
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 18 Was tun mit NP-harten Problemen? Viele praxisrelevante
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 4. Januar 2011 Berthold Vöcking, Informatik 1 () Vorlesung
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 16.11.2010 INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 25. November 2014 INSTITUT FÜR THEORETISCHE 0 KIT 25.11.2014 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der
MehrKonvexe Hülle. Abbildung: [Wikipedia]: Nicht-konvexe Menge (links), konvexe Menge (rechts) KIT Institut für Theoretische Informatik 510
Konvexe Hülle Definition konvexe Menge: Für je zwei beliebige Punkte, die zur Menge gehören, liegt auch stets deren Verbindungsstrecke ganz in der Menge. Abbildung: [Wikipedia]: Nicht-konvexe Menge (links),
MehrSIMULATED ANNEALING IM RAHMEN DES PS VIRTUAL LAB MARTIN PFEIFFER. Simulated Annealing Virtual Lab 1 /42
SIMULATED ANNEALING IM RAHMEN DES PS VIRTUAL LAB MARTIN PFEIFFER Simulated Annealing Virtual Lab 1 /42 - Simulated Annealing = Simuliertes Abkühlen - Verfahren zum Lösen kombinatorischer Probleme - inspiriert
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrVORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung
MehrExkurs Modelle und Algorithmen
Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen
MehrSeminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP
Seminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP Tobias Boelter 28. Mai 2013 bei Prof. Dr. Rainer Schrader, Universität zu Köln Inhaltsverzeichnis 1 Einleitung 2 2 Lokale Suche
MehrInhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung
8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen
MehrDynamisches Routing in der Logistik
Informatik, Angewandte Informatik, Technische Informationssysteme Dynamisches Routing in der Logistik Tobias Dimmel Dresden, 24.05.2012 Agenda 1. Begriffe 2. Traveling Salesman Problem 3. Ameisenalgorithmus
MehrHeuristiken Greedy-Algorithmen Lokale Suche Tabu Suche
Seminar Ausgewählte Themen des Operations Research bei Prof. R. Schrader Heuristiken Greedy-Algorithmen Lokale Suche Tabu Suche Wintersemester 2007/2008 Eingereicht von: Florian Schuster Datum: 12.12.2007
MehrProportional Symbol Maps
Proportional Symbol Maps Florian Simon 8. Dezember, 2009 Proportional Symbol Maps Gegeben: Punkte p 1,..., p n R 2 mit zugeordneten Werten w 1,..., w n R Proportional Symbol Maps Gegeben: Punkte p 1,...,
MehrTheoretische Informatik 1
Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrImplementation und Evaluierung innovativer Heuristiken für die Anordnung von Entwurfsentscheidungen
Implementation und Evaluierung innovativer Heuristiken für die Anordnung von Entwurfsentscheidungen Diplomarbeit Thomas Scharler Universität Hamburg, FB Informatik, AB Tech Implementation und Evaluierung
MehrAlgorithmen und Datenstrukturen 2. Stefan Florian Palkovits, BSc Juni 2016
Algorithmen und Datenstrukturen 2 Übung 1 Stefan Florian Palkovits, BSc 0926364 e0926364@student.tuwien.ac.at 12. Juni 2016 Aufgabe 1: Es existiert eine Reduktion von Problem A auf Problem B in O(n 3 +
MehrOptimale Produktliniengestaltung mit Genetischen Algorithmen
Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 23. November 2017 INSTITUT FÜR THEORETISCHE 0 23.11.2017 Dorothea Wagner - Theoretische Grundlagen der Informatik INSTITUT FÜR THEORETISCHE KIT Die Forschungsuniversität
MehrDatenstrukturen sind neben Algorithmen weitere wichtige Bausteine in der Informatik
5. Datenstrukturen Motivation Datenstrukturen sind neben Algorithmen weitere wichtige Bausteine in der Informatik Eine Datenstruktur speichert gegebene Daten und stellt auf diesen bestimmte Operationen
MehrProbleme aus NP und die polynomielle Reduktion
Probleme aus NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 15. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
Mehr10. Vorlesung Stochastische Optimierung
Soft Control (AT 3, RMA) 10. Vorlesung Stochastische Optimierung Genetische Algorithmen 10. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"
MehrSuchen und Sortieren
Ideen und Konzepte der Informatik Suchen und Sortieren Ordnung ist das halbe Leben Antonios Antoniadis (Basierend auf Folien von Kurt Mehlhorn und Konstantinos Panagiotou) 6. November 2017 6. November
MehrSandro Pirkwieser, (Bin Hu, Jakob Puchinger) SS 2010
Lösungsverfahren für Ganzzahlige Optimierung Sandro Pirkwieser, (Bin Hu, Jakob Puchinger) Fortgeschrittene Algorithmen und Datenstrukturen Arbeitsbereich für Algorithmen und Datenstrukturen Institut für
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am 17.01.013 Parametrisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales
Mehr