Verbesserungsheuristiken
|
|
- Calvin Fischer
- vor 7 Jahren
- Abrufe
Transkript
1 Verbesserungsheuristiken Bestandteile der Lokalen Suche Für schwierige Optimierungsaufgaben haben Verbesserungsheuristiken eine große praktische Bedeutung. Sie starten mit Ausgangslösungen, die von z.b. Konstruktionsheuristiken stammen und verbessern diese iterativ. Meist keine Gütegarantien, aber häufig ausgezeichnete Lösungen für die Praxis bei akzeptablen Laufzeiten. Lösungsrepräsentation und Zielfunktion f(x) Initialisierung der Anfangslösung Nachbarschaftsstruktur, d.h. welche Lösungen sind benachbart? Schrittfunktion, d.h. in welcher Reihenfolge wird die Nachbarschaft durchsucht bzw. welche Nachbarlösung wird gewählt? Abbruchbedingung 1 3 Lokale Suche Algorithmus: Lokale Suche Eingabe: eine Optimierungsaufgabe Ausgabe: heuristische Lösung x Variable(n): Nachbarlösung x zu aktueller Lösung x 1: x = Ausgangslösung; 2: wiederhole 3: Wähle x N(x); // leite eine Nachbarlösung ab 4: falls x besser als x dann { 5: x = x ; 6: } 7: bis Abbruchkriterium erfüllt Nachbarschaftsstruktur Eine Nachbarschaftsstruktur ist eine Funktion N : S 2 S, die jeder gültigen Lösung x S eine Menge von Nachbarn N(x) S zuweist. N(x) wird auch Nachbarschaft (von x) genannt. Die Nachbarschaft ist üblicherweise implizit durch mögliche Veränderungen (Züge, Moves) definiert Darstellung als Nachbarschaftsgraph möglich Größe der Nachbarschaft vs. Suchaufwand 2 4
2 2-Opt Lokale Suche für das Symmetrische TSP Zweieraustausch für das symmetrische TSP (2-Opt) (1) Wähle eine beliebige Anfangstour T = {(i 1,i 2 ),(i 2,i 3 ),...,(i n,i 1 )}; sei i n+1 = i 1 (2) Setze Z = {{(i p,i p+1 ),(i q,i q+1 )} T 1 p,q n p+1 < q (q +1) mod n p} (3) Für alle Kantenpaare {(i p,i p+1 ),(i q,i q+1 )} aus Z: Falls c ipi p+1 +c iqi q+1 > c ipi q +c ip+1,i q+1 : setze T = (T\{(i p,i p+1 ),(i q,i q+1 )}) {(i p,i q ),(i p+1,i q+1 )} gehe zu (2) (4) T ist das Ergebnis. 5 7 Schrittfunktion (Auswahl von x ) r-austausch für das Symmetrische TSP (r-opt) (1) Wähle eine beliebige Anfangstour T = {(i 1,i 2 ),(i 2,i 3 ),...,(i n,i 1 )} Random Neighbor: Generiere immer eine zufällige Nachbarlösung aus N(x). (2) Sei Z die Menge aller r-elementigen Teilmengen von T Next Improvement: Durchsuche N(x) in einer definierten Reihenfolge; nimm erste Lösung, die mindestens so gut wie x ist. Best Improvement: Durschuche N(x) vollständig und nimm eine beste Nachbarlösung. (3) Für alle R Z: Setze S = T \R und konstruiere alle Touren, die S enthalten. Gibt es eine unter diesen, die besser als T ist, wird diese das aktuelle T und gehe zu (2). (4) T ist das Ergebnis. 6 8
3 TSP-Lösung der Nearest-Neighbor Heuristik Optimale TSP-Lösung 9 11 TSP-Lösung nach 2-Opt Lokaler Suche TSP-Lösung der Nearest-Neighbor Heuristik 10 12
4 TSP-Lösung nach 2-Opt Lokaler Suche Problem der lokalen Suche (contd.) Ein lokales Minimum in Bezug auf eine Nachbarschaftsstruktur N ist eine Lösung x für die gilt: f(x) f(x ) x N(x). Es kann aber ein x S geben, für das f(x ) < f(x ). Nachbarschaftsstruktur bestimmt welche Lösungen lokale Minima sind globale Minima sind spezielle lokale Minima Problem der lokalen Suche Bemerkungen zum Symmetrischen TSP Die lokale Suche findet im Allgemeinen nur lokal optimale Lösungen: k-optimale Lösung kann nicht mehr durch Austausch von k Kanten verbessert werden 3-Opt Lokale Suche kommt meist bis auf 3-4% an die optimale Lösung heran 3-Opt aber für N 200 bereits zu aufwendig Verbesserung durch andere Nachbarschaftsstrukturen möglich Lin Kernighan Heuristik (1973) kommt meist bis auf 1-2% an das Optimum heran 14 16
5 Simulated Annealing Metropolis Kriterium (Kirkpatrick et al., 1983) Idee: Erweitere die Lokale Suche, indem manchmal auch Verschlechterungen akzeptiert werden Die Akzeptanzbedingung für schlechtere Lösungen Z < e f(x ) f(x) /T wird Metropolis Kriterium genannt. Z: (Pseudo-)Zufallszahl [0, 1) Entkommen aus lokalen Optima wird ermöglicht. Simulated Annealing ist eine von Vorgängen in der Natur inspirierte Metaheuristik Algorithmus: Simulated Annealing Variable(n): Zeit t; aktuelle Temperatur T; Ausgangstemperatur T init ; Nachbarlösung x 1: t = 0; 2: T = T init ; 3: x = Ausgangslösung; 4: wiederhole 5: Wähle x N(x) zufällig; // leite eine Nachbarlösung ab 6: falls x besser als x dann { 7: x = x ; 8: } sonst { 9: falls Z < e f(x ) f(x) /T dann { 10: x = x ; 11: } 12: } 13: T = g(t,t); 14: t = t+1; 15: bis Abbruchkriterium erfüllt 18 Abkühlungsplan Geometrisches Cooling: T init : z.b. f max f min Sind f max bzw. f min nicht bekannt, so werden Schranken bzw. Schätzungen hierfür verwendet. g(t,t) = T α, α < 1 (z.b. 0,999) Adaptives Cooling: Es wird der Anteil der Verbesserungen an den letzten erzeugten Lösungen gemessen und auf Grund dessen T stärker oder schwächer reduziert. 20
6 Bsp.: Quadratic Assignment Problem (QAP) Geg.: n Abteilungen, n Standorte d i,j 0, i,j = 1,...n: Distanzen zwischen Standorten f i,j 0, i,j = 1,...n: Verkehr zwischen Abteilungen Ges.: Zuordnung der Abteilungen zu Standorten, d.h. eine Permutation p : {1,...,n} {1,...,n}, mit minimaler Gesamtwegstrecke n n f(x) = f i,j d p(i),p(j) i=1j=1 Move: Austausch zweier Abteilungen 21
Heuristische Verfahren
Heuristische Verfahren Bei heuristischen Verfahren geht es darum in polynomieller Zeit eine Näherungslösung zu bekommen. Diese kann sehr gut oder sogar optimal sein, jedoch gibt es keine Garantie dafür.
MehrÜberblick. Motivation. Kap. 7.6 Verbesserungsheuristiken. Nachbarschaft einer Lösung Einfache lokale Suche
Kap. 7.6 Verbesserungsheuristiken (letzte VO) Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 7. VO DAP SS 008 17. Juli 008 Überblick Verbesserungsheuristiken
MehrKap. 7.6 Verbesserungsheuristiken (letzte VO)
Kap. 7.6 Verbesserungsheuristiken (letzte VO) Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 25. VO DAP2 SS 2009 23. Juli 2009 1 Überblick Verbesserungsheuristiken
MehrBetriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 19 1 Joachim Schauer ( Institut für
MehrGliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen
Kapitel Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren
MehrBetriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Joachim Schauer Betriebliche Optimierung 1 / 31 1 Metaheuristische Verfahren 2 Joachim Schauer Betriebliche Optimierung 2 / 31 Einleitendes Metaheuristische Verfahren
MehrAlgorithmen und Datenstrukturen 2 VU 3.0 Übungstest SS Juni 2013
Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.815 Algorithmen und Datenstrukturen 2 VU 3.0 Übungstest SS 2013 27. Juni
MehrKonstruktions-Verbesserungsheuristiken. Iterierte lokale Suche (ILS)
Konstruktions-Verbesserungsheuristiken Iterierte lokale Suche (ILS) Idee: 2-Phasen-Suche 1. Phase: Randomisierte Konstruktionsheuristik 2. Phase: Lokale Suche Beispiele: Multi-Start lokale Suche GRASP:
Mehr11. Übung zu Algorithmen I 6. Juli 2016
11. Übung zu Algorithmen I 6. Juli 2016 Lisa Kohl lisa.kohl@kit.edu mit Folien von Lukas Barth Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP ein Algorithmus
MehrSeminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP
Seminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP Tobias Boelter 28. Mai 2013 bei Prof. Dr. Rainer Schrader, Universität zu Köln Inhaltsverzeichnis 1 Einleitung 2 2 Lokale Suche
Mehr09. Übung zu Algorithmen I 12. Juli 2017
09. Übung zu Algorithmen I 12. Juli 2017 Björn Kaidel bjoern.kaidel@kit.edu mit Folien von Lukas Barth 1 / 67 Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP
MehrOptimierung. Vorlesung 12
Optimierung Vorlesung 12 Letze Woche Approximieren von ILP durch randomisiertes Runden. Beispiel Set Cove Relaxiertes LP lösen und runden. Probleme: 1. Zielfunktionswert 2. Zulässigkeit 1. Linearität des
MehrDeterministisch vs. Zufallsgesteuert
Klassifikation von Heuristiken Problembezogen: Problemspezifische Heuristiken Problemunabhängige Heuristiken Nach Komplexität: Einfache Heuristiken Hybride Heuristiken Nach Methodik: Konstruktionsheuristiken
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrDas Traveling Salesman Problem und das Assignment Problem zweiter Ordnung. Gerold Jäger
Das Traveling Salesman Problem und das Assignment Problem zweiter Ordnung Gerold Jäger Martin-Luther-Universität Halle-Wittenberg Zusammenarbeit mit Frank Fischer, Anja Lau, Paul Molitor DFG-Projekt: Toleranzbasierte
MehrKlassifikation von Heuristiken. Meta-Heuristiken. Problembezogen: Problemspezifische Heuristiken Problemunabhängige Heuristiken
Klassifikation von Heuristiken Meta-Heuristiken Problembezogen: Problemspezifische Heuristiken Problemunabhängige Heuristiken Nach Komplexität: Einfache Heuristiken Hybride Heuristiken Nach Methodik: Konstruktionsheuristiken
MehrLokale Suche. 31. Januar / 28
Lokale Suche 31. Januar 2018 1 / 28 Lokale Suche Wir betrachten das allgemeine Minimierungsproblem min y f (x, y) so dass L(x, y). Wir nehmen an, dass zu jeder Lösung y auch eine Nachbarschaft N (y) benachbarter
MehrGrundlagen Theoretischer Informatik 3 SoSe 2012 in Trier. Henning Fernau Universität Trier
Grundlagen Theoretischer Informatik 3 SoSe 2012 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Zum Umgang mit NP-harten Problemen In manchen Anwendungen ist das garantierte Auffinden exakter
Mehrx x x x Repräsentation von Lösungen (2) Repräsentation von Lösungen (1)
Repräsentation von Lösungen () Repräsentation von Lösungen () Kontinuierliche Optimierung: x x x x n Binäre Optimierung: n = (,,, ) R x = ( x, x,, x ) {0,} n n Lokale Suche: x i = x i + ε Lokale Suche:
Mehr5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus
5. Lokale Suchverfahren Lokale Suche 5. Lokale Suchverfahren Beispiel TSP: k-change Nachbarschaft Optimale Lösungen können oft nicht effizient ermittelt werden. Heuristiken liefern zwar zulässige Lösungen,
MehrDie Theorie der Toleranzen und deren Anwendung auf das Traveling Salesman Problem
Die Theorie der Toleranzen und deren Anwendung auf das Traveling Salesman Problem Gerold Jäger 4. Februar 2010 Gerold Jäger Theorie der Toleranzen 4. Februar 2010 1 / 35 Überblick 1 Theorie der Toleranzen
MehrRepräsentation von Lösungen (1)
Repräsentation von Lösungen (1) Kontinuierliche Optimierung: Binäre Optimierung: x x1 x2 x n n = (,,, ) R x = ( x1, x2,, x ) {0,1} n n Lokale Suche: x i = x i + ε Lokale Suche: x i = 1-x i 0.5 0.9 0.2
MehrHeuristiken und exakte Algorithmen für das verallgemeinerte Traveling Salesman Problem. Gerold Jäger
Heuristiken und exakte Algorithmen für das verallgemeinerte Traveling Salesman Problem Gerold Jäger Martin-Luther-Universität Halle-Wittenberg (in Zusammenarbeit mit Paul Molitor) DFG-Projekt: Toleranzbasierte
MehrAlgodat 2 Theoriefragen
Algodat 2 Theoriefragen Suchen in Texten Laufzeiten: Naive Suche immer Theta von N*M wenn N = Textlänge und M = Musterlänge Boyer-Moore = Theta von N+M (wenn beide Signaturverfahren angewendet werden)
Mehr1 Heuristiken für das Traveling Salesman Problem
Praktikum Diskrete Optimierung (Teil 5) 15.06.2011 1 1 Heuristiken für das Traveling Salesman Problem Wir betrachten das folgende Problem. Wir wollen einen gegebenen Graphen möglichst schnell so durchlaufen,
MehrÜberblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP
Kap..1 Heuristiken Kap.. Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 3. VO DAP SS 008 14. Juli 009 Überblick
MehrKap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien
Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 23. VO DAP2 SS 2008 14. Juli 2009
MehrBisher: Suche durch Lösungsveränderung Neuer Begriff: Nachbarschaft einer Lösung
Lokale Suche und Nachbarschaften Bisher: Suche durch Lösungsveränderung Neuer Begriff: Nachbarschaft einer Lösung Nachbarschaft ist Menge der Lösungen, die von einer gegebenen Lösung durch eine einfache
MehrAlgorithmen zur Visualisierung von Graphen Lagenlayouts
Algorithmen zur Visualisierung von Graphen Lagenlayouts Marcus Krug Institut für Theoretische Informatik 25.06.2009 1/ 41 E-Mail-Graph der Fakultät für Informatik 2/ 41 E-Mail-Graph der Fakultät für Informatik
MehrExkurs Modelle und Algorithmen
Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen
MehrKonstruktive Heuristiken
Konstruktive Heuristiken Konstruktive Heuristik: Ein Plan oder ein Schedule wird durch das schrittweise Ein- oder Anfügen einer Operation oder einer Menge von Operationen erzeugt: - Reihungsregeln (Dispatching
MehrLocal Search Algorithmen 1
Local Search Algorithmen 1 Seminar über Algorithmen Manuel Gellfart 18.05.2012 Fachbereich Mathematik und Informatik 18.05.2012 2 Gliederung 1. Einleitung 2. Theorie 3. Beispiel: Vertex Cover 4. Beispiel:
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrDer Branching-Operator B
Branching 1 / 17 Der Branching-Operator B Unser Ziel: Löse das allgemeine Minimierungsproblem minimiere f (x), so dass Lösung(x). B zerlegt eine Menge von Lösungen in disjunkte Teilmengen. Die wiederholte
MehrDynamisches Routing in der Logistik
Informatik, Angewandte Informatik, Technische Informationssysteme Dynamisches Routing in der Logistik Tobias Dimmel Dresden, 24.05.2012 Agenda 1. Begriffe 2. Traveling Salesman Problem 3. Ameisenalgorithmus
MehrTheoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
MehrAmeisenkolonien (1) Idee: Reale Ameisen:
Ameisenkolonien (1) Idee: Von M. Dorigo, 1992 Verhalten von Ameisen bei der Futtersuche Ameisen hinterlassen Pheromon-Spur (Chem. Substanz) Pfade mit hoher Pheromon-Konzentration werden bevorzugt Indirekte
MehrWelche der folgende Einfärbungen sind zulässig, wenn K i (i= 1, 2, 3, 4) jeweils eine andere Klassenfarbe bezeichnet? Datum:
Aufgabe B040 Durch das Einrichten von Standleitungen soll die Kommunikation zwischen verschiedenen wissenschaftlichen Instituten erleichtert werden. Im Einzelnen sind folgende Verbindungen herzustellen:
MehrAlgorithmen und Datenstrukturen 2. Stefan Florian Palkovits, BSc Juni 2016
Algorithmen und Datenstrukturen Übung Stefan Florian Palkovits, BSc 09 e09@student.tuwien.ac.at 9. Juni 0 Aufgabe 9: Anwenden der Spanning Tree Heuristik auf symmetrisches TSP 9 8 7 8 8 7 Bilden eines
MehrTheoretische Informatik 1
Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 02.07.2015 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP
MehrGrundlagen Theoretischer Informatik 3 SoSe 2010 in Trier. Henning Fernau Universität Trier
Grundlagen Theoretischer Informatik 3 SoSe 2010 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Grundlagen Theoretischer Informatik 3 Gesamtübersicht Organisatorisches; Einführung Algorithmenanalyse:
MehrAlgorithmen und Datenstrukturen 2 VU 3.0 Übungstest SS Juni 2014
Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.815 Algorithmen und Datenstrukturen 2 VU 3.0 Übungstest SS 2014 26. Juni
MehrGrundlagen der Künstlichen Intelligenz
Grundlagen der Künstlichen Intelligenz 21. Kombinatorische Optimierung und lokale Suche Malte Helmert Universität Basel 10. April 2015 Kombinatorische Optimierung Kombinatorische Optimierung: Einführung
MehrHeuristiken im Kontext von Scheduling
Heuristiken im Kontext von Scheduling Expertenvortrag CoMa SS 09 CoMa SS 09 1/35 Übersicht Motivation Makespan Scheduling Lokale Suche Weitere Metaheuristiken Zusammenfassung Literatur CoMa SS 09 2/35
MehrSIMULATED ANNEALING IM RAHMEN DES PS VIRTUAL LAB MARTIN PFEIFFER. Simulated Annealing Virtual Lab 1 /42
SIMULATED ANNEALING IM RAHMEN DES PS VIRTUAL LAB MARTIN PFEIFFER Simulated Annealing Virtual Lab 1 /42 - Simulated Annealing = Simuliertes Abkühlen - Verfahren zum Lösen kombinatorischer Probleme - inspiriert
MehrHeuristische Optimierungsverfahren
Univ.-Prof. Dr. Günther Raidl Heuristische Optimierungsverfahren Folien zur gleichnamigen Lehrveranstaltung 186.112 VU2 WS 2005/2006 Günther Raidl 25. Oktober 2005 Institut für Computer Grafik und Algorithmen
MehrInhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung
8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen
MehrTheoretische Informatik 1
Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 10.06.2016 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 25 Überblick Überblick Metropolis-Algorithmus
MehrEinführung in Heuristische Suche
Einführung in Heuristische Suche Beispiele 2 Überblick Intelligente Suche Rundenbasierte Spiele 3 Grundlagen Es muss ein Rätsel / Puzzle / Problem gelöst werden Wie kann ein Computer diese Aufgabe lösen?
Mehrv R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i
MOP: Pareto-Gradientenabstiegsverfahren Annahme: Zielfunktion differenzierbar Wintersemester 2007/08 Praktische Optimierung (Vorlesung) d = 1: (monokriteriell) v R n ist Abstiegsrichtung in x R n wenn
MehrTabu Suche. Allgemein. Simple Tabu-Suche. Praktisches Beispiel. Erweiterungsmöglichkeiten. Aspirationskriterien. Verbesserungen.
Tabu Suche Allgemein Simple Tabu-Suche Praktisches Beispiel Erweiterungsmöglichkeiten Aspirationskriterien Verbesserungen Zusammenfassung TabuSuche, Peter Jahrmann, 0425523 1 Allgemein Metaheuristisches
Mehrlineare Programmierung
lineare Programmierung Viele Probleme sind durch lineare Gleichungssysteme charakterisiert lineare Programmiermethoden Der Lösungsraum ist häufig auf ganze Zahlen oder gar natürliche Zahlen eingeschränkt!
MehrBetriebswirtschaftliche Optimierung
Institut für Statistik und OR Uni Graz 1 Approximationsalgorithmen auf metrischen Instanzen Minimum Spanning Tree Definition (Spannbaum) Ein Spannbaum in einem Graphen G = (V,E) ist ein kreisfreier Teilgraph
MehrSynthese Eingebetteter Systeme. Übung 6
12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe
MehrTeil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006
Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden
MehrBetriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 21 1 Approximationsalgorithmen auf
MehrDas Problem des Handlungsreisenden
Seite 1 Das Problem des Handlungsreisenden Abbildung 1: Alle möglichen Rundreisen für 4 Städte Das TSP-Problem tritt in der Praxis in vielen Anwendungen als Teilproblem auf. Hierzu gehören z.b. Optimierungsprobleme
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
MehrKap. 7 Optimierung. Überblick. Optimierung: Einführung. Motivation. Beispiele für Optimierungsprobleme. Rundreiseprobleme (TSP)
Kap. 7 Optimierung Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 22. VO 2. TEIL DAP2 SS 2009 9. Juli 2009 Überblick Einführung Einige klassische Optimierungsprobleme,
MehrEffektive Heuristiken für große Instanzen des Handelsreisendenproblems. Gerold Jäger
Effektive Heuristiken für große Instanzen des Handelsreisendenproblems Gerold Jäger Christian-Albrechts-Universität zu Kiel DFG-Projekt: Auf Toleranzen basierende Methoden zur Lösung des Handelsreisendenproblems
MehrAnhang: Ungarische Methode
Ungarische Methode 107 Anhang: Ungarische Methode Zum Schluss des Kurses soll noch der Algorithmus der Ungarischen Methode beschrieben werden. Wir lehnen uns hierbei eng an der Darstellung von DOMSCHKE
MehrFormale Grundlagen der Informatik F3: Berechenbarkeit un
Formale Grundlagen der Informatik F3: Berechenbarkeit und Komplexität Fachbereich Informatik AB Theoretische Grundlagen der Informatik (TGI) Universität Hamburg farwer@informatik.uni-hamburg.de 14. Dezember
MehrSchnittebenenverfahren für das symmetrische
Schnittebenenverfahren für das symmetrische TSP Sebastian Peetz Mathematisches Institut Universität Bayreuth 19. Januar 2007 / Blockseminar Ganzzahlige Optimierung, Bayreuth Gliederung 1 Das symmetrische
MehrEinführung in das Seminar Algorithmentechnik
Einführung in das Seminar Algorithmentechnik 10. Mai 2012 Henning Meyerhenke, Roland Glantz 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Roland undglantz: nationales Einführung Forschungszentrum
MehrAlgorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS Oktober 2016
Technische Universität Wien Institut für Computergraphik und Algorithmen Algorithms and Complexity Group 186.815 Algorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS 2016 5. Oktober 2016 Machen Sie
MehrSystempartitionierung. Hw-Sw-Co-Design
Systempartitionierung Hw-Sw-Co-Design Wo sind wir? System Verhalten Modul Architektur Block SW HW Logik Struktur Überblick Modelle für die Systemsynthese Partitionierung Allgemeine Partitionierungsalgorithmen
MehrHybrid Optimization Methods for Warehouse Logistics and the Reconstruction of Destroyed Paper Documents
Hybrid Optimization Methods for Warehouse Logistics and the Reconstruction of Destroyed Paper Documents Betreut von: ao.univ.-prof. Dr. Günther R. Raidl ao.univ.-prof. Dr. Ulrich Pferschy 25. Jänner 2010
MehrTheoretische Informatik III (Winter 2018/19) Prof. Dr. Ulrich Hertrampf. Noch einmal TSP
Noch einmal TSP Wir hatten das TSP-Problem (Problem der Handlungsreisenden) schon als Beispiel für die Branch-and-Bound Methode kennengelernt. Nun wollen wir noch einen zweiten Algorithmus angeben, der
MehrImplementation und Evaluierung innovativer Heuristiken für die Anordnung von Entwurfsentscheidungen
Implementation und Evaluierung innovativer Heuristiken für die Anordnung von Entwurfsentscheidungen Diplomarbeit Thomas Scharler Universität Hamburg, FB Informatik, AB Tech Implementation und Evaluierung
MehrHamiltonsche Graphen
Hamiltonsche Graphen Definition 3.2. Es sei G = (V, E) ein Graph. Ein Weg, der jeden Knoten von G genau einmal enthält, heißt hamiltonscher Weg. Ein Kreis, der jeden Knoten von G genau einmal enthält,
Mehr2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
MehrAnt Colony Optimization (ACO)
Ant Colony Optimization (ACO) Daniel Blum 24.4.2003 Projektgruppe 431 Metaheuristiken Lehrstuhl 11, Fachbereich Informatik, Universität Dortmund 1 Übersicht Vorbild Natur Übertragung der Ideen Beispiele
Mehr11. Vorlesung Stochastische Optimierung
Soft Control (AT 3, RMA) 11. Vorlesung Stochastische Optimierung Simmulated Annealing 11. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"
Mehr8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick
Grundlagen der Künstlichen Intelligenz 5. April 0 8. Suchalgorithmen: Lokale Suche Grundlagen der Künstlichen Intelligenz 8. Suchalgorithmen: Lokale Suche 8.1 Einleitung Malte Helmert Universität Basel
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
MehrTeil I. Heuristische Optimierungsverfahren 186.112, VU2. Arten von Optimierungsaufgaben. Einleitung
Heuristische Optimierungsverfahren 186.112, VU2 Zeit: jeweils Dienstag, 13:15 14:45 Uhr Ort: Seminarraum 186 Univ.-Prof. Dr. Günther Raidl (raidl@ads.tuwien.ac.at) Univ.-Ass. DI Andreas Chwatal (chwatal@ads.tuwien.ac.at)
MehrStrikte lokale Suche. Strikte lokale Suche 1 / 82
Strikte lokale Suche Strikte lokale Suche 1 / 82 Lokale Suche Wir betrachten das allgemeine Minimierungsproblem min y f (x, y) so dass L(x, y). Wir nehmen an, dass zu jeder Lösung y auch eine Nachbarschaft
MehrVisualisierung von Graphen
1 Visualisierung von Graphen Hierarchische Zeichnungen 6. Vorlesung Sommersemester 2015 (basierend auf Folien von Marcus Krug, KIT) 2 Beispiel E-Mail-Graph zwischen Einrichtungen der Fak. für Informatik,
MehrKapitel ML: X (Fortsetzung)
Kapitel ML: X (Fortsetzung) X. Clusteranalyse Einordnung Data Mining Einführung in die Clusteranalyse Hierarchische Verfahren Iterative Verfahren Dichtebasierte Verfahren Cluster-Evaluierung ML: X-31 Cluster
MehrErzeugendensystem und Basis
Erzeugendensystem und Basis Definition Erzeugendensystem und Basis eines Unterraums Sei S F n 2 ein Unterraum. Eine Menge G = {g 1,..., g k } S heißt Erzeugendensystem von S, falls jedes x S als Linearkombination
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
MehrGenetische und Evolutionäre Algorithmen (Vol. 2)
Vortrag über Genetische und Evolutionäre Algorithmen (Vol. 2) von Adam El Sayed Auf und Kai Lienemann Gliederung: 4) Rückblick 5) Allgemeine Einführung 6) Genauere Beschreibung von Evolutionären Strategien
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil XIII Peter F. Stadler & Konstantin Klemm Bioinformatics Group, Dept. of Computer Science & Interdisciplinary Center for Bioinformatics, University of Leipzig
MehrAmeisenkolonien (2) Ameisenkolonien (1)
Ameisenolonien () Idee: Von M. Dorigo, 992 Verhalten von Ameisen bei der Futtersuche Ameisen hinterlassen Pheromon-Spur (Chem. Substanz) Pfade mit hoher Pheromon-Konzentration werden bevorzugt Indirete
MehrBetriebswirtschaftliche Optimierung
Institut für Statistik und OR Uni Graz 1 Das Travelling Salesperson Problem 2 Das Travelling Salesperson Problem Zentrales Problem der Routenplanung Unzählige wissenschaftliche Artikel theoretischer sowie
Mehr3.3 Optimale binäre Suchbäume
3.3 Optimale binäre Suchbäume Problem 3.3.1. Sei S eine Menge von Schlüsseln aus einem endlichen, linear geordneten Universum U, S = {a 1,,...,a n } U und S = n N. Wir wollen S in einem binären Suchbaum
MehrBetriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 22 1 Das Travelling Salesperson Problem
MehrPartikelschwarmoptimierung für diskrete Probleme
Partikelschwarmoptimierung für diskrete Probleme Yushan Liu Fakultät für Mathematik TU München 26. Oktober 2014 Ferienakademie im Sarntal - Kurs 1 Moderne Suchmethoden der Informatik: Trends und Potenzial
MehrEDM, Algorithmen und Graphenspeicherung
EDM, Algorithmen und Graphenspeicherung 1 Graphenspeicherung Gespeichert werden soll ein Graph G = (V, E) bzw. Digraph D = (V, A). Man beachte: E ( ) V 2 bzw. E V 2 1.1 Adjazenzmatrix Graph G: A = (a vw
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 19 Miscellanea Entsprechend dem Titel folgen ein paar lose Resultate aus diversen Gebieten. Die ersten drei Sektionen haben übrigens Anwendungen in der modernen
Mehr2. Klausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2017/2018
2. Klausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2017/2018 Hier Aufkleber mit Name und Matrikelnummer anbringen Vorname: Nachname: Matrikelnummer: Beachten Sie: Bringen Sie
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am 07..0 Minimale Schnitte in Graphen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
MehrMinimalpolynome und Implikanten
Kapitel 3 Minimalpolynome und Implikanten Wir haben bisher gezeigt, daß jede Boolesche Funktion durch einfache Grundfunktionen dargestellt werden kann. Dabei können jedoch sehr lange Ausdrücke enstehen,
MehrGliederung. Inhaltsübersicht 1
Inhaltsübersicht 1 Gliederung 1. Komplexität 1.1 Allgemeine Komplexitätsbetrachtungen 1.2 Die Komplexität spezieller Algorithmen 2. Exakte Methoden 2.1. Das Branch & Bound-Verfahren 2.2. Das A*-Verfahren
Mehr15. Elementare Graphalgorithmen
Graphen sind eine der wichtigste Modellierungskonzepte der Informatik Graphalgorithmen bilden die Grundlage vieler Algorithmen in der Praxis Zunächst kurze Wiederholung von Graphen. Dann Darstellungen
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Die Forschungsuniversität Meyerhenke, in der Institut für Theoretische
MehrComputational Intelligence 1 / 37. Berechne die Positionen potentieller Optima, d.h. die Stellen an denen der Gradient verschwindet
1 / 37 Gliederung 1 Analytische Lösung 2 Optimierungsalgorithmen Kalkülbasierte Verfahren Indirekte kalkülbasierte Verfahren Direkte kalkülbasierte Verfahren Zufallsgesteuerte Verfahren Rein zufallsgesteuerte
MehrAlgorithmische Geometrie: Delaunay Triangulierung (Teil 2)
Algorithmische Geometrie: Delaunay Triangulierung (Teil 2) Nico Düvelmeyer WS 2009/2010, 2.2.2010 Überblick 1 Delaunay Triangulierungen 2 Berechnung der Delaunay Triangulierung Randomisiert inkrementeller
Mehr