Bisher: Suche durch Lösungsveränderung Neuer Begriff: Nachbarschaft einer Lösung
|
|
- Joachim Weiner
- vor 6 Jahren
- Abrufe
Transkript
1 Lokale Suche und Nachbarschaften Bisher: Suche durch Lösungsveränderung Neuer Begriff: Nachbarschaft einer Lösung Nachbarschaft ist Menge der Lösungen, die von einer gegebenen Lösung durch eine einfache (lokale) Veränderungsoperation (Zug/move) erreicht werden können TSP: N 2-opt (s) ist die Menge der Lösungen die durch einen Zweikantentausch von s erreicht werden können GBP: N 2-opt (s) ist die Menge der Lösungen die durch den Tausch von zwei Knoten erreicht werden können Folie 68
2 Lokale Suche - Pseudo Code Neue Definition (Minimierung): g(s*,s) = f(s) - f(s*) function localsearch(s : S) : S begin repeat Wähle s* N(s); if g(s*, s) > 0 then s = s*; until " s* N(s) : g(s*, s) 0; return s; end; Folie 69
3 Strategien zur Nachbarschaftssuche Strategien für die Wahl aus N(s): Auswahl in zufälliger Reihenfolge Auswahl in systematischer Reihenfolge First Improvement: Wähle erstes s das Gewinn erhöht Best Improvement: Wähle s mit maximalem Gewinn Unbekannte Größe: Anzahl der Iterationen bis lokales Optimum erreicht ist Begrenzung der Iterationen manchmal sinnvoll Folie 70
4 Effizienz der Nachbarschaftssuche Effizienzgrund: Geringfügige Änderung im Lösungsvektor kann meist sehr schnell evaluiert werden Berechnung des Gewinns um Größenordnungen schneller als die komplette Berechnung der Zielfunktion einer Lösung Beispiel TSP: - 2-opt Kantentausch-Berechnung in O(1) - Tourlängenberechnung in O(n) Durch Berechnung der Differenz des Gewinnes kann in manchen Fällen Effizienz noch gesteigert werden Folie 71
5 BQP: Effiziente Gewinnberechnung (1) Zielfunktion BQP: x ' k = 1 x k n n fx ( ) = qxx, x {0,1} i= 1 j= 1 Gewinn g k bei flippen von Bit k: n n ' ' k(, ') = ( ') ( ) = ij( i j i j) i= 1 j= 1 g xx fx fx q xx xx ij i j i n n ' ' ' kk( k k) ik( i k i k) kj( k j k j) i= 1, i k j= 1, j k = q x x + q xx xx + q xx xx n ' ' ( ) 2 ( ) kk k k ik i k k i= 1, i k = q x x + q x x x Folie 72
6 BQP: Effiziente Gewinnberechnung (2) Trick: Betrachtung der Änderung von Gewinn g: Update-Regel für Gewinn g i bei flippen von Bit k: g k = q x x x x i k ' ' i( ) 2 ik( i i)( k k) Update für Bit k: g k = -g k Update nur für g i mit q ik ¹0 nötig: g i =g i + g i Effizienzsteigerung: Berechnung von f(x) O(n 2 ) Berechnung von g k O(n) Berechnung von g k O(1) Folie 73
7 Nachteil der Nachbarschaftssuche Problematik: Bessere Lösungen außerhalb der Nachbarschaft werden nicht gefunden Lösungen sind lokal optimal Lösungsansätze: Starten der lokalen Suche mit verschiedenen Startkonfigurationen Meta-Heuristiken Working Definition: Eine Meta-Heuristik ist ein allgemein anwendbares Verfahren um zugrundeliegene, problemspezifische Heuristiken (wie lokale Suche) in erfolgversprechende Regionen des Suchraums zu leiten. Folie 74
8 Simulated Annealing (1) Idee: Lokale Suche, aber Gelegentliches akzeptieren schlechterer Lösungen Analogie zum physikalischen Verfahren zum Abkühlen von Kristallen Naturinspiriert Schlechtere Lösungen werden mit bestimmter Wahrscheinlichkeit angenommen Umsetzung: Kirkpatrick et al. 1883, Cerny 1985 Erstes Verfahren zur Vermeidung lokaler Optima Folie 75
9 Simulated Annealing (2) Physikalische Analogie: Thermischer Prozess zur Erlangung eines Zustandes sehr niedriger Energie in einem Festkörper (z.b. Kristall) 1. Der Festkörper wird in einem Hitzebad zum Schmelzen gebracht 2. Die Atome sind zufällig verteilt 3. Die Temperatur des Hitzebads wird langsam gesenkt und somit der Festkörper langsam abgekühlt 4. Bei jeder Temperatur stellt sich thermisches Gleichgewicht ein 5. Die Atome können sich in der energetisch günstigsten Struktur (Kristallgitter) anordnen Simulation: Monte Carlo-Algorithmus Folie 76
10 Simulated Annealing (3) Metropolis-Algorithmus: Monte-Carlo Simulation des Annealingprozesses Simuliert Entwicklung eines Festkörpers im Hitzebad Generiert Folge von Zuständen: 1. Vom aktuellen Zustand i mit Energie E i wird Nachfolgezustand j durch kleine Pertubation generiert 2. Falls E j E i 0, wird Zustand j akzeptiert 3. Falls E j E i > 0, wird j akzeptiert mit Wahrscheinlichkeit p k B exp ( E E ) kt = j B i : Bolzmannkonstante, T: Temperatur Folie 77
11 Simulated Annealing (4) Analogie zur Optimierung: Zustand zulässige Lösung Energie Zielfunktion Grundzustand optimale Lösung Nachfolgezustand Lösung aus Nachbarschaft Simulated Annealing: Oftmals wird benachbarte Lösung zufällig gewählt Annealing: Temperatur T wird langsam erniedrigt Metropolis-Akzeptanzkriterium für schlechtere Lösungen (Minimierung): exp ( fs ( *) fs ( ) ) T Folie 78
12 Simulated Annealing - Pseudo Code function simulatedannealing(s : S) : S begin t = T(0), n = 0; s best =s; repeat Wähle s* N(s); if g(s*, s) > 0 then s = s*; else if exp(g(s*,s)/t) > rand[0,1) then s= s*; if g(s, s best ) > 0 then s best = s; t = T(n); n = n + 1; until n > nmax; return s best ; end; Folie 79
13 Anwendung von SA Anwendung: Festlegung des Abkühlungsplans (Wahl von T) - Anfangstemperatur T(0) - Rekursive Definition: T(n+1)=c T(n) (Geometrisches Abkühlen) - IdR. wird T für mehrere Iterationen konstant gehalten Problemspezifische Entscheidungen - Definition der Zielfunktion - Definition der Nachbarschaft - Ausgangslösung Folie 80
14 Theorie von SA Theoretische Konvergenz gegen das Optimum Bewertung: Unendliche Anzahl von Zustandsübergängen nötig Suchraum ist nur endlich groß!!! Konvergenzbeweise vor allem mathematisch interessant Aussagen über Konvergenzgeschwindigkeit nur sehr schwer zu treffen Praktische Bedeutung eher gering Folie 81
15 TSP: Simulated Annealing Beispiel: Zufällige Ausgangslösungen 2-opt Nachbarschaft Einfacher Abkühlungsplan: - T(0) so dass 3% der Züge abgelehnt werden - Geometrisches Abkühlen (c = 0.95) - Temperatur wird für n(n-1) Schritte konstant gehalten Nachbarschaftsgröße - Abbruch bei: 5 Temperaturen ohne Verbesserung und unter 2% Akzeptanzrate Ergebnisse: Besser als 2-opt, schlechter als 3-opt, bei n= mal langsamer Folie 82
16 Tabu Search (1) Idee: Meta-Heuristik, die auf der Ausnutzung eines Gedächtnisses des bisherigen Suchprozesses basiert Erste Ansätze von Glover, 1986, und Hansen, 1986 Ziel der effizienten Vermeidung lokaler Optima Ausnutzung eines Gedächtnisses Speichern des Lösungsverlaufes Deterministische Leitung der Suche Folie 83
17 Tabu Search (2) Gedächtnis: Vermeidung lokaler Minima und strategische Leitung Kurzzeitgedächtnis (short term memory): - Wesentlicher Teil, Vermeidung von Schleifen Mittelfristiges Gedächtnis (intermediate term memory): - Intensivierung der Suche Langzeitgedächtnis (long term memory): - Diversifizierung der Suche Folie 84
18 Tabu Search (3) Such-Strategie: TS verwendet aggressive Suche in der aktuellen Nachbarschaft (best improvement LS) In jedem Schritt wird die beste benachbarte Lösung angenommen, auch wenn diese schlechter ist Suchstrategie führt zu Zyklen Vermeidung von Zyklen durch Verbieten des wiederholten Besuchens von Lösungen Ausnutzung des Gedächtnis des Suchprozesses Daher der Name Tabu Search Folie 85
19 Einfacher Tabu Search Algorithmus Eigenschaften: Es wird nur Kurzzeitgedächtnis M st verwendet Zulässige Nachbarschaft wird durch Verbot früher besuchter Lösungen eingeschränkt Zulässige Nachbarschaft hängt vom Kurzzeitgedächtnis ab N(s, M st ) Verbot früher besuchter Lösungen Tabu-Liste Tabu-Liste: Explizites Speichern der zuletzt besuchten Lösungen - Sehr speicherintensiv - Überprüfung zeitaufwendig Folie 86
20 Tabu-Listen-Verwaltung (1) Tabu-Attribute: Alternative: Speichern von Lösungsattributen früher besuchter Lösungen Anhand der Lösungsattribute wird entschieden, ob Lösungen tabu sind Tabu-Attribute werden in einer Tabu-Liste gespeichert Wichtige Größe: Tabu-Listenlänge t l Lösungen sind verboten, falls sie Tabu-Attribute enthalten Als Tabuattribute werden oft Attribute von Zügen (lokalen Lösungsveränderungen) benutzt und die Umkehrung der Züge für t l Iterationen verboten Folie 87
21 Tabu-Listen-Verwaltung (2) Tabu-Liste: Oftmals werden verschiedene Tabuattribute verwendet mehrere Tabu-Listen Tabu-Liste wird meist nicht als Liste realisiert Effizientes Überprüfen des Tabu-Status: Speichern der Iterationszahl bis zu der ein Attribut tabu ist Aspirationskriterien: Überschreiben des Tabu-Status interessanter Lösungen Häufigstes Kriterium: Verbotene Lösung ist besser als beste, bisher gefundene Lösung Verschiedene andere Kriterien wurden entwickelt Folie 88
22 TS - Abbruchkriterien Abruch der Suche, wenn eine feste Anzahl Iterationen überschritten ist seit einer festen Anzahl von Lösungen keine neue beste Lösung mehr gefunden wurde die zulässige Nachbarschaft leer ist eine Lösung ausreichender Güte gefunden wurde Folie 89
23 Tabu Search Pseudo Code function simpletabusearch(s : S) : S begin T = {}; n = 0; s best =s; repeat Finde bestes s* N(s) mit s* ˇT oder g(s, s best ) > 0 ; s = s*; T = T {s}; if g(s, s best ) > 0 then s best = s; n = n + 1; until n > nmax; return s best ; end; Folie 90
24 Tabu Search - Kurzzeitgedächtnis Tabu-Listenlänge: Wesentlicher Parameter von TS Zu kurze Tabu-Listen Zyklen Zu lange Tabu-Listen Zu starke Beschränkung der Suche Geeignete Parameterwahl erfolgt experimentell Geeignete Parameter sind problemspezifisch oder gar Instanzabhängig Verschiedene Strategien: Robust Tabu Search, Taillard `91 Reactive Tabu Search, Battiti et al. ` Folie 91
25 Tabu Search - Langzeitgedächtnis Mittel- und Langzeitgedächtnis: Basiert oft auf der Häufigkeit von bestimmten Zügen bzw. der Häufigkeit von Attributen in guten Lösungen Intensivierungsstrategien: Intensivieren die Suche in bestimmten Regionen des Suchraums - Neustart von Elitelösungen z.b. mit leerer Tabu-Liste - Häufig auftretende Lösungsattribute werden fixiert Diversifikationsstrategien: Lenken die Suche in zuvor ungenügend erkundete Suchraumregionen - Führen Lösungsattribute ein, die nicht häufig benutzt wurden Folie 92
26 Robust Tabu Search RoTS (Taillard 91): Entwickelt fürs QAP Tabu-Listenlänge t l wird zufällig aus dem Intervall [t l,min,t l,max ] gewählt In bestimmten Abständen (alle 2 t l,max Iterationen) wird t l neu bestimmt Dadurch Problem der Wahl der optimalen Tabu-Listenlänge umgegangen Zusätzliches Aspirationskriterium: - Lösung wird akzeptiert, wenn Lösungsattribut seit mehr als m Iterationen nicht geändert wurde - m idr. sehr groß Diversifikation Folie 93
27 Reactive Tabu Search ReTS (Battiti u. Tecchiolli 94): Entwickelt für QAP und Knapsack-Problem Tabu-Listenlänge wird dynamisch angepasst: - Erhöhung um konstanten Faktor bei Erkennen eines Zyklus - Sei m die durchschnittliche Zyklenlänge - Erniedrigung um konstanten Faktor, wenn letzte Erhöhung mehr als m Iterationen zurückliegt Diversifikationsmechanismus: - Wird ausgeführt, wenn die Anzahl der Lösungen, die öfter als ein vordefinierter Schwellwert wiederholt besucht wurden, ein Limit überschreitet - Eine Anzahl proportional zu m von zufälligen Schritten wird ausgeführt Folie 94
28 QAP: Vergleich SA und TS QAP Nachbarschaft: Tausch zweier Zuweisungen Ergebnisse aus Merz et al. 2000: Instanz SA RoTS ReTS Zeit Tai80a Tai80b Tai100a Sko100a Tai100b Tai150b Tai256c 3.29% 1.02% 0.48% 180s 5.10% 2.92% 1.60% 180s 1.85% 0.91% 0.39% 300s 2.94% 0.19% 0.40% 300s 6.70% 2.37% 1.47% 300s 3.79% 2.85% 1.78% 600s 0.37% 0.33% 0.27% 1200s Folie 95
Konstruktions-Verbesserungsheuristiken. Iterierte lokale Suche (ILS)
Konstruktions-Verbesserungsheuristiken Iterierte lokale Suche (ILS) Idee: 2-Phasen-Suche 1. Phase: Randomisierte Konstruktionsheuristik 2. Phase: Lokale Suche Beispiele: Multi-Start lokale Suche GRASP:
MehrVerbesserungsheuristiken
Verbesserungsheuristiken Bestandteile der Lokalen Suche Für schwierige Optimierungsaufgaben haben Verbesserungsheuristiken eine große praktische Bedeutung. Sie starten mit Ausgangslösungen, die von z.b.
Mehr5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus
5. Lokale Suchverfahren Lokale Suche 5. Lokale Suchverfahren Beispiel TSP: k-change Nachbarschaft Optimale Lösungen können oft nicht effizient ermittelt werden. Heuristiken liefern zwar zulässige Lösungen,
MehrLokale Suche - Pseudo Code. Lokale Suche und Nachbarschaften
Lokale Suche ud Nachbarschafte Bisher: Suche durch Lösugsveräderug Neuer Begriff: Nachbarschaft eier Lösug Nachbarschaft ist Mege der Lösuge, die vo eier gegebee Lösug durch eie eifache (lokale) Veräderugsoperatio
MehrDeterministisch vs. Zufallsgesteuert
Klassifikation von Heuristiken Problembezogen: Problemspezifische Heuristiken Problemunabhängige Heuristiken Nach Komplexität: Einfache Heuristiken Hybride Heuristiken Nach Methodik: Konstruktionsheuristiken
Mehr11. Übung zu Algorithmen I 6. Juli 2016
11. Übung zu Algorithmen I 6. Juli 2016 Lisa Kohl lisa.kohl@kit.edu mit Folien von Lukas Barth Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP ein Algorithmus
MehrHeuristische Verfahren
Heuristische Verfahren Bei heuristischen Verfahren geht es darum in polynomieller Zeit eine Näherungslösung zu bekommen. Diese kann sehr gut oder sogar optimal sein, jedoch gibt es keine Garantie dafür.
MehrGliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen
Kapitel Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren
MehrAmeisenkolonien (2) Ameisenkolonien (1)
Ameisenolonien () Idee: Von M. Dorigo, 992 Verhalten von Ameisen bei der Futtersuche Ameisen hinterlassen Pheromon-Spur (Chem. Substanz) Pfade mit hoher Pheromon-Konzentration werden bevorzugt Indirete
MehrModerne Heuristische Optimierungsverfahren: Meta-Heuristiken
Moderne Heuristische Optimierungsverfahren: Meta-Heuristiken pmerz@informatik.uni-tuebingen.de Wilhelm-Schickard-Institut für Informatik - WSI-RA Sand 1, Raum A 316 Lerninhalte Einführung in Optimierungsprobleme
MehrSIMULATED ANNEALING IM RAHMEN DES PS VIRTUAL LAB MARTIN PFEIFFER. Simulated Annealing Virtual Lab 1 /42
SIMULATED ANNEALING IM RAHMEN DES PS VIRTUAL LAB MARTIN PFEIFFER Simulated Annealing Virtual Lab 1 /42 - Simulated Annealing = Simuliertes Abkühlen - Verfahren zum Lösen kombinatorischer Probleme - inspiriert
MehrSoftwareprojektpraktikum Maschinelle Übersetzung
Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology
MehrÜberblick. Motivation. Kap. 7.6 Verbesserungsheuristiken. Nachbarschaft einer Lösung Einfache lokale Suche
Kap. 7.6 Verbesserungsheuristiken (letzte VO) Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 7. VO DAP SS 008 17. Juli 008 Überblick Verbesserungsheuristiken
MehrKap. 7.6 Verbesserungsheuristiken (letzte VO)
Kap. 7.6 Verbesserungsheuristiken (letzte VO) Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 25. VO DAP2 SS 2009 23. Juli 2009 1 Überblick Verbesserungsheuristiken
MehrWissensbasierte Systeme. Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche. Heuristiken und ihre Eigenschaften
1 Michael Beetz Technische Universität München Wintersemester 2004/05 Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche 2 3 der Eigenschaften der 4 : 8-Puzzle 5 Heuristiken und ihre Eigenschaften
MehrAnt Colony Optimization (ACO)
Ant Colony Optimization (ACO) Daniel Blum 24.4.2003 Projektgruppe 431 Metaheuristiken Lehrstuhl 11, Fachbereich Informatik, Universität Dortmund 1 Übersicht Vorbild Natur Übertragung der Ideen Beispiele
MehrTabu Suche. Allgemein. Simple Tabu-Suche. Praktisches Beispiel. Erweiterungsmöglichkeiten. Aspirationskriterien. Verbesserungen.
Tabu Suche Allgemein Simple Tabu-Suche Praktisches Beispiel Erweiterungsmöglichkeiten Aspirationskriterien Verbesserungen Zusammenfassung TabuSuche, Peter Jahrmann, 0425523 1 Allgemein Metaheuristisches
MehrSynthese Eingebetteter Systeme. Übung 6
12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe
Mehrv R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i
MOP: Pareto-Gradientenabstiegsverfahren Annahme: Zielfunktion differenzierbar Wintersemester 2007/08 Praktische Optimierung (Vorlesung) d = 1: (monokriteriell) v R n ist Abstiegsrichtung in x R n wenn
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 11.12.2008 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 18 Einführung Einführung Verfahren für
MehrEinführung in Heuristische Suche
Einführung in Heuristische Suche Beispiele 2 Überblick Intelligente Suche Rundenbasierte Spiele 3 Grundlagen Es muss ein Rätsel / Puzzle / Problem gelöst werden Wie kann ein Computer diese Aufgabe lösen?
MehrHeuristiken Greedy-Algorithmen Lokale Suche Tabu Suche
Seminar Ausgewählte Themen des Operations Research bei Prof. R. Schrader Heuristiken Greedy-Algorithmen Lokale Suche Tabu Suche Wintersemester 2007/2008 Eingereicht von: Florian Schuster Datum: 12.12.2007
MehrTeil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006
Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrTheoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
MehrEinführung in das Seminar Algorithmentechnik
Einführung in das Seminar Algorithmentechnik 10. Mai 2012 Henning Meyerhenke, Roland Glantz 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Roland undglantz: nationales Einführung Forschungszentrum
MehrSandro Pirkwieser, (Bin Hu, Jakob Puchinger) SS 2010
Lösungsverfahren für Ganzzahlige Optimierung Sandro Pirkwieser, (Bin Hu, Jakob Puchinger) Fortgeschrittene Algorithmen und Datenstrukturen Arbeitsbereich für Algorithmen und Datenstrukturen Institut für
MehrHeuristiken im Kontext von Scheduling
Heuristiken im Kontext von Scheduling Expertenvortrag CoMa SS 09 CoMa SS 09 1/35 Übersicht Motivation Makespan Scheduling Lokale Suche Weitere Metaheuristiken Zusammenfassung Literatur CoMa SS 09 2/35
Mehr12. Hashing. Hashing einfache Methode um Wörtebücher zu implementieren, d.h. Hashing unterstützt die Operationen Search, Insert, Delete.
Hashing einfache Methode um Wörtebücher zu implementieren, d.h. Hashing unterstützt die Operationen Search, Insert, Delete. Worst-case Zeit für Search: Θ(n). In der Praxis jedoch sehr gut. Unter gewissen
Mehr15 Grundlagen der Simulation
15 Grundlagen der Simulation 15.1 Einführung Komplexe Problemstellungen, die einer analytischen Behandlung nur sehr schwer oder gar nicht zugänglich sind Lösung von diskreten (oder analytischen) Optimierungsaufgaben,
Mehr8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick
Grundlagen der Künstlichen Intelligenz 5. April 0 8. Suchalgorithmen: Lokale Suche Grundlagen der Künstlichen Intelligenz 8. Suchalgorithmen: Lokale Suche 8.1 Einleitung Malte Helmert Universität Basel
MehrSeminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP
Seminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP Tobias Boelter 28. Mai 2013 bei Prof. Dr. Rainer Schrader, Universität zu Köln Inhaltsverzeichnis 1 Einleitung 2 2 Lokale Suche
MehrLokale Suche. 31. Januar / 28
Lokale Suche 31. Januar 2018 1 / 28 Lokale Suche Wir betrachten das allgemeine Minimierungsproblem min y f (x, y) so dass L(x, y). Wir nehmen an, dass zu jeder Lösung y auch eine Nachbarschaft N (y) benachbarter
MehrOptimierung. Vorlesung 12
Optimierung Vorlesung 12 Letze Woche Approximieren von ILP durch randomisiertes Runden. Beispiel Set Cove Relaxiertes LP lösen und runden. Probleme: 1. Zielfunktionswert 2. Zulässigkeit 1. Linearität des
MehrDie Theorie der Toleranzen und deren Anwendung auf das Traveling Salesman Problem
Die Theorie der Toleranzen und deren Anwendung auf das Traveling Salesman Problem Gerold Jäger 4. Februar 2010 Gerold Jäger Theorie der Toleranzen 4. Februar 2010 1 / 35 Überblick 1 Theorie der Toleranzen
MehrAlgorithmen und Datenstrukturen
Algorithmen und Datenstrukturen Wintersemester 2012/13 26. Vorlesung Greedy- und Approximationsalgorithmen Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I Operations Research Optimierung für Wirtschaftsabläufe:
MehrRandomisierte Datenstrukturen
Seminar über Algorithmen DozentInnen: Helmut Alt, Claudia Klost Randomisierte Datenstrukturen Ralph Schäfermeier 13. 2. 2007 Das Verwalten von Mengen, so dass ein schneller Zugriff auf deren Elemente gewährleistet
Mehr13. Hashing. AVL-Bäume: Frage: Suche, Minimum, Maximum, Nachfolger in O(log n) Einfügen, Löschen in O(log n)
AVL-Bäume: Ausgabe aller Elemente in O(n) Suche, Minimum, Maximum, Nachfolger in O(log n) Einfügen, Löschen in O(log n) Frage: Kann man Einfügen, Löschen und Suchen in O(1) Zeit? 1 Hashing einfache Methode
MehrDer folgende Vortrag basiert auf dem Text A Polynomial Time Algorithm for the N-Queens Problem von Rok Sosic und Jun Gu aus dem Jahre 1990.
Ein polynomieller Algorithmus für das N-Damen Problem 1 Einführung Der folgende Vortrag basiert auf dem Text A Polynomial Time Algorithm for the N-Queens Problem von Rok Sosic und Jun Gu aus dem Jahre
MehrDatenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale
MehrLineare Kongruenzgeneratoren und Quicksort
Seminar Perlen der theoretischen Informatik Dozenten: Prof. Johannes Köbler und Olaf Beyersdorff Lineare Kongruenzgeneratoren und Quicksort Ausarbeitung zum Vortrag Mia Viktoria Meyer 12. November 2002
MehrFreispeicherverwaltung
Freispeicherverwaltung Allgemeine Techniken und Anwendung unter Linux Martin Wahl, 17.11.03 Freispeicherverwaltung 1 Überblick Allgemeines Suchstrategien Verwaltungsstrategien externer / interner Verschnitt
MehrReinforcement Learning
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning Uwe Dick Inhalt Problemstellungen Beispiele Markov Decision Processes Planen vollständige MDPs Lernen unbekannte
MehrDynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
MehrBayesianische Netzwerke - Lernen und Inferenz
Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel
MehrKünstliche Intelligenz
Künstliche Intelligenz Vorlesung 4: Suchverfahren Informierte Suche 1/132 INFORMIERTE SUCHSTRATEGIEN (ISS) Benutzt neben der Definition des Problems auch problemspezifisches Wissen. Findet Lösungen effizienter
MehrSimulation von Zufallszahlen. Grundlage: zufällige Quelle von Zufallszahlen, durch einfachen rekursiven Algorithmus am Computer erzeugt
Simulation von Zufallszahlen Grundlage: zufällige Quelle von Zufallszahlen, durch einfachen rekursiven Algorithmus am Computer erzeugt Definition: Eine Folge von Pseudo-Zufallszahlen U i ist eine deterministische
MehrUninformierte Suche in Java Informierte Suchverfahren
Uninformierte Suche in Java Informierte Suchverfahren Stephan Schwiebert WS 2008/2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln 8-Damen-Problem Gegeben: Schachbrett
MehrSuchen und Sortieren Sortieren. Heaps
Suchen und Heaps (Folie 156, Seite 56 im Skript) Definition Ein Heap ist ein Binärbaum, der die Heapeigenschaft hat (Kinder sind größer als der Vater), bis auf die letzte Ebene vollständig besetzt ist,
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrPartikelschwarmoptimierung für diskrete Probleme
Partikelschwarmoptimierung für diskrete Probleme Yushan Liu Fakultät für Mathematik TU München 26. Oktober 2014 Ferienakademie im Sarntal - Kurs 1 Moderne Suchmethoden der Informatik: Trends und Potenzial
MehrMonte Carlo Methoden
Monte Carlo Methoden Lernverfahren zur Berechnung von Wertefunktionen und Policies werden vorgestellt. Vollständige Kenntnis der Dynamik wird nicht vorausgesetzt (im Gegensatz zu den Verfahren der DP).
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrExkurs Modelle und Algorithmen
Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen
MehrSystematische Suche. Alle (sinnvollen) Möglichkeiten ausprobieren. Anwendungen: Idee:
Systematische Suche Idee: Alle (sinnvollen) Möglichkeiten ausprobieren. Anwendungen: I Ganzzahlige lineare Programmierung (Integer Linear Programming) (ILP) I Constraint Satisfaction I SAT (Aussagenlogik)
MehrAlgorithmen I. Prof. Jörn Müller-Quade Institut für Theoretische Informatik Web: https://crypto.iti.kit.edu/index.php?
Algorithmen I Prof. Jörn Müller-Quade 10.07.2017 Institut für Theoretische Informatik Web: https://crypto.iti.kit.edu/index.php?id=799 (Folien von Peter Sanders) KIT Institut für Theoretische Informatik
MehrKapitel L:II. II. Aussagenlogik
Kapitel L:II II. Aussagenlogik Syntax der Aussagenlogik Semantik der Aussagenlogik Eigenschaften des Folgerungsbegriffs Äquivalenz Formeltransformation Normalformen Bedeutung der Folgerung Erfüllbarkeitsalgorithmen
MehrTop-down Bottom-up Divide & Conquer Dynamisches Programmieren Caching (Memoization) Branch-and-Bound Greedy
2.2 Entwurfsparadigmen Top-down Bottom-up Divide & Conquer Dynamisches Programmieren Caching (Memoization) Branch-and-Bound Greedy 1 Top-Down Zerlege das gegebene Problem in Teilschritte Zerlege Teilschritte
MehrSchnelle Multiplikation
Informationsblatt für die Lehrkraft Schnelle Multiplikation $&*&*& 999 3 x 3 =? 10001110 π/3 7 X 6 14 666 x 987 Informationsblatt für die Lehrkraft Thema: Schultyp: Vorkenntnisse: Bearbeitungsdauer: Schnelle
MehrVorlesung Datenstrukturen
Vorlesung Datenstrukturen Graphen (1) Darstellung Traversierung Dr. Frank Seifert Vorlesung Datenstrukturen - Sommersemester 2016 Folie 441 Generalisierung von Bäumen Verallgemeinerung (von Listen zu Graphen)
MehrHeuristische Optimierungsverfahren
Univ.-Prof. Dr. Günther Raidl Heuristische Optimierungsverfahren Folien zur gleichnamigen Lehrveranstaltung 186.112 VU2 WS 2005/2006 Günther Raidl 25. Oktober 2005 Institut für Computer Grafik und Algorithmen
Mehr1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3
Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................
MehrDas Trust-Region-Verfahren
Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Die Forschungsuniversität Meyerhenke, in der Institut für Theoretische Informatik
MehrProgrammieren 1 C Überblick
Programmieren 1 C Überblick 1. Einleitung 2. Graphische Darstellung von Algorithmen 3. Syntax und Semantik 4. Einstieg in C: Einfache Sprachkonstrukte und allgemeiner Programmaufbau 5. Skalare Standarddatentypen
MehrStochastik Praktikum Markov Chain Monte Carlo Methoden
Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrCognitive Interaction Technology Center of Excellence
Kanonische Abdeckung Motivation: eine Instanz einer Datenbank muss nun alle funktionalen Abhängigkeiten in F + erfüllen. Das muss natürlich immer überprüft werden (z.b. bei jedem update). Es reicht natürlich
Mehr2.1 Importance sampling: Metropolis-Algorithmus
Kapitel 2 Simulationstechniken 2.1 Importance sampling: Metropolis-Algorithmus Eine zentrale Fragestellung in der statistischen Physik ist die Bestimmung von Erwartungswerten einer Observablen O in einem
MehrProgramm heute. Algorithmen und Datenstrukturen (für ET/IT) Übersicht: Graphen. Definition: Ungerichteter Graph. Definition: Ungerichteter Graph
Programm heute Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 07 Dr. Stefanie Demirci Computer Aided Medical Procedures Technische Universität München 7 Fortgeschrittene Datenstrukturen Graphen
MehrDynamisches Routing in der Logistik
Informatik, Angewandte Informatik, Technische Informationssysteme Dynamisches Routing in der Logistik Tobias Dimmel Dresden, 24.05.2012 Agenda 1. Begriffe 2. Traveling Salesman Problem 3. Ameisenalgorithmus
MehrDer Dreyfus-Wagner Algorithmus für das Steiner Baum Problem
Der Dreyfus-Wagner Algorithmus für das Steiner Baum Problem Andreas Moser Dietmar Ebner Christian Schauer Markus Bauer 9. Dezember 2003 1 Einführung Der in der Vorlesung gezeigte Algorithmus für das Steiner
MehrDas Suchproblem 4. Suchen Das Auswahlproblem Suche in Array
Das Suchproblem Gegeben. Suchen Lineare Suche, Binäre Suche, Interpolationssuche, Untere Schranken [Ottman/Widmayer, Kap. 3.2, Cormen et al, Kap. 2: Problems 2.-3,2.2-3,2.3-] Menge von Datensätzen. Beispiele
MehrEinführung in Suchverfahren
Einführung in Suchverfahren Alfred Kranstedt 0.0.0 Seminar Intelligente Algorithmen Was ist heute Thema?. Was ist ein Suchproblem? Definitionen, Darstellungen etc.. Suchstrategien Blinde Suche Heuristische
MehrOptimierung und Simulation
2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Optimierung und Simulation Von Dr. Jörg Biethahn O. Professor für
MehrMonte-Carlo-Methode. mit Pseudo- und Quasizufallszahlen
Gott würfelt nicht Monte-Carlo-Methode mit Pseudo- und Quasizufallszahlen Inhaltsverzeichnis Pseudo- und Quasizufallszahlen Monte-Carlo- Monte-Carlo- Monte-Carlo-Methode Bekannt nach Stadt Monte Carlo
Mehr10. Vorlesung Stochastische Optimierung
Soft Control (AT 3, RMA) 10. Vorlesung Stochastische Optimierung Genetische Algorithmen 10. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"
MehrTuringautomaten Jörg Roth Turingautomaten
Turingautomaten Jörg Roth 331 5 Turingautomaten Wir führen nochmals ein neues Automatenmodell ein und erweitern die Fähigkeit, Sprachen zu erkennen: Problem vom Kellerautomaten: wir können zwar beliebig
MehrEffiziente Algorithmen
Effiziente Algorithmen Aufgabe 5 Gruppe E Martin Schliefnig, 0160919 Christoph Holper, 9927191 Ulrike Ritzinger, 0125779 1. Problemstellung Gegeben ist eine Datei, die eine Million reelle Zahlen enthält.
Mehr1 Stückweise konstante Funktionen (ca =10 Punkte)
Einführung in die wissenschaftliche Programmierung Klausur Seite 1/5 Name, Vorname, Unterschrift: Matrikelnummer: 1 Stückweise konstante Funktionen (ca. 4+2+4=10 Punkte) In dieser Aufgabe soll eine Klasse
Mehr3. Suchen. Das Suchproblem. Suche in Array. Lineare Suche. 1 n. i = n Gegeben Menge von Datensätzen.
Das Suchproblem Gegeben Menge von Datensätzen. 3. Suchen Beispiele Telefonverzeichnis, Wörterbuch, Symboltabelle Jeder Datensatz hat einen Schlüssel k. Schlüssel sind vergleichbar: eindeutige Antwort auf
MehrGrundlagen der Algorithmen und Datenstrukturen Kapitel 12
Grundlagen der Algorithmen und Datenstrukturen Kapitel 12 Christian Scheideler + Helmut Seidl SS 2009 28.06.09 Kapitel 12 1 Generische Optimierungsverfahren Techniken: Systematische Suche lass nichts aus
MehrHeuristiken und exakte Algorithmen für das verallgemeinerte Traveling Salesman Problem. Gerold Jäger
Heuristiken und exakte Algorithmen für das verallgemeinerte Traveling Salesman Problem Gerold Jäger Martin-Luther-Universität Halle-Wittenberg (in Zusammenarbeit mit Paul Molitor) DFG-Projekt: Toleranzbasierte
MehrAlgorithmen mit konstantem Platzbedarf: Die Klasse REG
Algorithmen mit konstantem Platzbedarf: Die Klasse REG Sommerakademie Rot an der Rot AG 1 Wieviel Platz brauchen Algorithmen wirklich? Daniel Alm Institut für Numerische Simulation Universität Bonn August
MehrDatenstrukturen und Algorithmen. 7. Suchen in linearen Feldern
Datenstrukturen und Algorithmen 7. Suchen in linearen Feldern VO 708.031 Suchen in linearen Feldern robert.legenstein@igi.tugraz.at 1 Inhalt der Vorlesung 1. Motivation, Einführung, Grundlagen 2. Algorithmische
MehrDas Suchproblem. Gegeben Menge von Datensätzen. Beispiele Telefonverzeichnis, Wörterbuch, Symboltabelle
122 4. Suchen Lineare Suche, Binäre Suche, Interpolationssuche, Untere Schranken [Ottman/Widmayer, Kap. 3.2, Cormen et al, Kap. 2: Problems 2.1-3,2.2-3,2.3-5] 123 Das Suchproblem Gegeben Menge von Datensätzen.
Mehr10. Innere Koordinaten/Kraftfelder
Computeranwendung in der Chemie Informatik für Chemiker(innen) 10. Innere Koordinaten/Kraftfelder Jens Döbler 2004 "Computer in der Chemie", WS 2003-04, Humboldt-Universität VL10 Folie 1 Dr. Jens Döbler
MehrAlgorithmen und Datenstrukturen
Universität Innsbruck Institut für Informatik Zweite Prüfung 16. Oktober 2008 Algorithmen und Datenstrukturen Name: Matrikelnr: Die Prüfung besteht aus 8 Aufgaben. Die verfügbaren Punkte für jede Aufgabe
Mehr2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Die Forschungsuniversität Meyerhenke, in der Institut für Theoretische Informatik
MehrReranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart
Institut für maschinelle Sprachverarbeitung Universität Stuttgart schmid@ims.uni-stuttgart.de Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle
MehrWissensbasierte Suche
Wissensbasierte Suche Jürgen Dorn Inhalt uninformierte Suche wissensbasierte Suche A* und IDA* Algorithmus Suche in Und/Oder-Graphen Jürgen Dorn 2003 Wissensbasierte Suche 1 Suche Suche in (expliziten
MehrPräfix-Summe. Das Schweizer Offiziersmesser der Parallelen Algorithmen. Parallele Rechenmodelle Präfix-Summe Brents Lemma Anwendungen
Präfix-Summe Das Schweizer Offiziersmesser der Parallelen Algorithmen Parallele Rechenmodelle Präfix-Summe Brents Lemma Anwendungen Parallele Rechenmodelle Beispiel: Summieren von Zahlen Verlauf des Rechenprozesses:
MehrSimulation von Brownscher Dynamik und Assoziationsraten von PP-Komplexen. Alexander Baldauf Montag
Simulation von Brownscher Dynamik und Assoziationsraten von PP-Komplexen Alexander Baldauf Montag 25.04.2005 Motivation Typen von Interaktionen Verschiedene Methoden zur Vorhersage Wie kommen die beiden
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
Mehr8. Reinforcement Learning
8. Reinforcement Learning Einführung 8. Reinforcement Learning Wie können Agenten ohne Trainingsbeispiele lernen? Auch kennt der Agent zu Beginn nicht die Auswirkungen seiner Handlungen. Stattdessen erhält
MehrStand der Vorlesung Komplexität von Algorithmen (Kapitel 3)
Stand der Vorlesung Komplexität von Algorithmen (Kapitel 3) Technische Universität München Motivation: IT gestützte Steuerung, Überwachung, Fertigung, Produktion,. : erfordert effiziente Berechnungsvorschriften
MehrAnsätze zur Erfassung von Faktoren durch Prüfungsaufgaben. (Diskussionen in Dagstuhl sowie mit Prof. Nickolaus, Technikpädagogik, U Stuttgart)
Taxonomie + Schwierigkeit Ansätze zur Erfassung von Faktoren durch Prüfungsaufgaben. (Diskussionen in Dagstuhl sowie mit Prof. Nickolaus, Technikpädagogik, U Stuttgart) Beurteilen Synthese Konstruktion
MehrBioinformatik für Biochemiker
Bioinformatik für Biochemiker Oliver Kohlbacher WS 2009/2010 13. Ab-initio-Vorhersage Abt. Simulation biologischer Systeme WSI/ZBIT, Eberhard Karls Universität Tübingen Gliederung Ab-Initio-Vorhersage
Mehr6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme
6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear
MehrProzedurales Programmieren und Problemlösungsstrategien
Prozedurales Programmieren und Problemlösungsstrategien Bachelorstudiengänge Umwelttechnik und Maschinenbau Prof. Dr. Thomas Hoch Problemlösungsstrategien Prozedurales Programmieren und Problemlösungsstrategien
Mehr