Betriebliche Optimierung
|
|
- Bernhard Vogt
- vor 5 Jahren
- Abrufe
Transkript
1 Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 19
2 1 Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 2 / 19
3 Einleitendes Metaheuristik Metaheuristisches Verfahren sind problemunspezifische Verfahren zur Lösung von Optimierungsproblemen: eine problemunspezifische Folge von Handlungsschritten kann auf unterschiedliche Probleme angewandt werden Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 3 / 19
4 Einleitendes Metaheuristik Metaheuristisches Verfahren sind problemunspezifische Verfahren zur Lösung von Optimierungsproblemen: eine problemunspezifische Folge von Handlungsschritten kann auf unterschiedliche Probleme angewandt werden bei einem konkreten Problem muss aber jeder unspezifische Schritt adaptiert werden Genetische Algorithmen, Tabu Search, Simulated Annealing, Ant Colony... Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 3 / 19
5 Einleitendes Metaheuristik Metaheuristisches Verfahren sind problemunspezifische Verfahren zur Lösung von Optimierungsproblemen: eine problemunspezifische Folge von Handlungsschritten kann auf unterschiedliche Probleme angewandt werden bei einem konkreten Problem muss aber jeder unspezifische Schritt adaptiert werden Genetische Algorithmen, Tabu Search, Simulated Annealing, Ant Colony... Vorteil: Meist leicht zu implementieren und gute Resultate in kurzer Zeit. Nachteil: Keine theoretischen Gütegarantien herleitbar. Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 3 / 19
6 Genetischer Algorithmus Problemunspezifisches 1) Wähle eine Menge von zulässigen Lösungen (Individuen) als Initialisierung (1-te Generation). 2) Evaluierung: Jede zulässige Lösung wird hinsichtlich ihrer Güte bewertet (meist über den Zielfunktionswert). 3) Durchlaufe folgende Schritte: Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 4 / 19
7 Genetischer Algorithmus Problemunspezifisches 1) Wähle eine Menge von zulässigen Lösungen (Individuen) als Initialisierung (1-te Generation). 2) Evaluierung: Jede zulässige Lösung wird hinsichtlich ihrer Güte bewertet (meist über den Zielfunktionswert). 3) Durchlaufe folgende Schritte: Wähle eine Menge von Individuen der k-ten Generation zur Rekombination. Erzeuge neue Individuen durch Rekombination. Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 4 / 19
8 Genetischer Algorithmus Problemunspezifisches 1) Wähle eine Menge von zulässigen Lösungen (Individuen) als Initialisierung (1-te Generation). 2) Evaluierung: Jede zulässige Lösung wird hinsichtlich ihrer Güte bewertet (meist über den Zielfunktionswert). 3) Durchlaufe folgende Schritte: Wähle eine Menge von Individuen der k-ten Generation zur Rekombination. Erzeuge neue Individuen durch Rekombination. Wende zufällige Mutationen auf die neuen Individuen an. Evaluiere die neuen Individuen ((k + 1)-te Generation) und starte mit einem neuen Durchlauf. Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 4 / 19
9 GA fürs TSP Initialisierung Generiere eine Menge von zufällig erzeugten Touren T = {T 1,...,T m }: Jede Tour entspricht einer Permutation der Orte 1,2,...,n. Wähle also m der insgesamt n Permutationen zufällig aus. Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 5 / 19
10 GA fürs TSP Initialisierung Generiere eine Menge von zufällig erzeugten Touren T = {T 1,...,T m }: Jede Tour entspricht einer Permutation der Orte 1,2,...,n. Wähle also m der insgesamt n Permutationen zufällig aus. Evaluierung Bestimme für jede Tour T i T ihre Länge l(t i ) und sortiere die Touren absteigen nach 1 l(t i ) Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 5 / 19
11 GA fürs TSP T 1 = ( ) T 2 = ( ) T 3 = ( ) Joachim Schauer ( Institut für Statistik und OR Uni Graz ) Betriebliche Optimierung 6 / 19
12 GA fürs TSP Selektion Wähle j Paare von Touren zufällig aus T, wobei die Wahrscheinlichkeit eine Tour mit kurzer Länge zu erwischen, erhöht sein soll. Wählen der Paare Sei l(t 1 ) = 15, l(t 2 ) = 12, l(t 3 ) = 9: Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 7 / 19
13 GA fürs TSP Selektion Wähle j Paare von Touren zufällig aus T, wobei die Wahrscheinlichkeit eine Tour mit kurzer Länge zu erwischen, erhöht sein soll. Wählen der Paare Sei l(t 1 ) = 15, l(t 2 ) = 12, l(t 3 ) = 9: Sortierte Liste {T 3,T 2,T 1 } mit: ( 1 9, 1 12, 1 ) und 15 T T 1 l(t) = Anteil von T 3 an sind 42.6 Prozent, von T Prozent und von T Prozent. Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 7 / 19
14 GA fürs TSP Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 8 / 19
15 GA fürs TSP Rekombination - Vorschlag Seien T i und T j zwei Touren, konstruiere wie folgt 2 neue Touren: Wähle eine Zufallszahl l aus [1,n]. Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 9 / 19
16 GA fürs TSP Rekombination - Vorschlag Seien T i und T j zwei Touren, konstruiere wie folgt 2 neue Touren: Wähle eine Zufallszahl l aus [1,n]. Erzeuge eine neue Tour T i indem die ersten l Einträge aus T i übernommen werden. Dann gehe durch die Tour T j : falls ein Ort noch nicht in T i ist, füge ihn an T i an. Bilde T j analog. Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 9 / 19
17 GA fürs TSP Rekombination - Vorschlag Seien T i und T j zwei Touren, konstruiere wie folgt 2 neue Touren: Beispiel Wähle eine Zufallszahl l aus [1,n]. Erzeuge eine neue Tour T i indem die ersten l Einträge aus T i übernommen werden. Dann gehe durch die Tour T j : falls ein Ort noch nicht in T i ist, füge ihn an T i an. Bilde T j analog. T i = ( ) und T j = ( ) und die Zufallszahl l = 4: T i = ( ) und T j = ( ) Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 9 / 19
18 GA fürs TSP Erzeugen der nächsten Generation Ziel: Anzahl der Individuen der nächsten Generation soll wieder m betragen. Vorschlag: aus den 2 j neuen Touren wähle die m kürzesten Touren aus. Mutation der nächsten Generation Ziel: Vermeidung lokaler Minima! Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 10 / 19
19 GA fürs TSP Erzeugen der nächsten Generation Ziel: Anzahl der Individuen der nächsten Generation soll wieder m betragen. Vorschlag: aus den 2 j neuen Touren wähle die m kürzesten Touren aus. Mutation der nächsten Generation Ziel: Vermeidung lokaler Minima! Entscheide für jede neue Tour Ti mit positiver Wahrscheinlichkeit, ob sie mutiert wird oder nicht. Falls T i zur Mutation ausgewählt wurde, ziehe 2 Zufallszahlen k 1 und k 2 und ersetze T i durch jene Tour in der Position k 1 mit k 2 vertauscht wurde. Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 10 / 19
20 GA fürs TSP Beispiel zur Mutation Sei T i = ( ) und ziehe k 1 = 3 und k 4 = 7: ( ) Erzeugen der nächsten Generation Die nächste Generation besteht aus den insgesamt m mutierten und nicht mutierten Touren. Wiederhole alle Schritte startend bei der Evaluierung. Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 11 / 19
21 GA fürs TSP Abbruchkriterien: Anzahl an Generationen Vom Rechner benötigte Zeit. Keine Verbesserung des Zielfunktionswertes nach l Generationen. Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 12 / 19
22 Tabu Search Lokale Suchverfahren Algorithmen, die eine zulässige Lösung an kleinen Stellen verändern um eine neue Lösung zu generieren: k-opt Verfahren bei TSP OR-OPT Gefahr bei lokalen Suchen: Lokales Optimum wird gefunden! Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 13 / 19
23 Lokale Optima Quelle: Wikipedia Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 14 / 19
24 Tabu Search Idee Tabu Search versucht: lokale Suchverfahren so zu steuern, dass lokale Optima wieder verlassen werden Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 15 / 19
25 Tabu Search Idee Tabu Search versucht: lokale Suchverfahren so zu steuern, dass lokale Optima wieder verlassen werden das globale Optimum gefunden wird Benötigt wird eine Tabu Liste L die gewisse Züge für eine Dauer von k Iterationen verbietet. Zu Beginn ist L = Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 15 / 19
26 Tabu Search Idee 1 Starte mit einer Zulässigen Lösung x (z.b. durch eine Heuristik gefunden) 2 Erzeuge eine Menge von zulässigen Lösungen die in der Nachbarschaft N(x) von x liegen. Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 16 / 19
27 Tabu Search Idee 1 Starte mit einer Zulässigen Lösung x (z.b. durch eine Heuristik gefunden) 2 Erzeuge eine Menge von zulässigen Lösungen die in der Nachbarschaft N(x) von x liegen. 3 Wähle die beste Lösung x aus N(x) als neue Lösung, welche nicht aufgrund der Tabu Liste verboten ist. 4 Vorschlag: Füge den inversen Zug der zu x führte zur Tabu Liste hinzu. x darf schlechter als x sein! Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 16 / 19
28 Tabu Search Einfache Variante fürs TSP Die Nachbarschaft N(T) einer Tour T sind alle Touren: die durch Vertauschen von zwei Städten entstehen N(T) = ( n) 2 Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 17 / 19
29 Beispiel Joachim Schauer ( Institut für Statistik und OR Uni Graz ) Betriebliche Optimierung 18 / 19
30 Tabu Search Einfache Variante fürs TSP Starte mit einer zulässigen Tour T 1 und einer leeren Tabu Liste. Bestimme die Nachbarschaft N(T i ) von T i. Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 19 / 19
31 Tabu Search Einfache Variante fürs TSP Starte mit einer zulässigen Tour T 1 und einer leeren Tabu Liste. Bestimme die Nachbarschaft N(T i ) von T i. Wähle die beste Lösung T i+1 aus N(T i ), die nicht durch die Tabu Liste verboten wurde (seien l und j jene Orte, welche dabei vertauscht wurden). Füge den Tausch der Orte l und j für die nächsten k Iterationen zur Tabuliste hinzu. Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 19 / 19
32 Tabu Search Einfache Variante fürs TSP Starte mit einer zulässigen Tour T 1 und einer leeren Tabu Liste. Bestimme die Nachbarschaft N(T i ) von T i. Wähle die beste Lösung T i+1 aus N(T i ), die nicht durch die Tabu Liste verboten wurde (seien l und j jene Orte, welche dabei vertauscht wurden). Füge den Tausch der Orte l und j für die nächsten k Iterationen zur Tabuliste hinzu. Damit wird versucht zu verhindern, dass immer die selbe Folge von Touren generiert wird (lokales Optimum). Abbruchkriterien gleich wie beim GA Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 19 / 19
Betriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Joachim Schauer Betriebliche Optimierung 1 / 31 1 Metaheuristische Verfahren 2 Joachim Schauer Betriebliche Optimierung 2 / 31 Einleitendes Metaheuristische Verfahren
MehrVerbesserungsheuristiken
Verbesserungsheuristiken Bestandteile der Lokalen Suche Für schwierige Optimierungsaufgaben haben Verbesserungsheuristiken eine große praktische Bedeutung. Sie starten mit Ausgangslösungen, die von z.b.
MehrHeuristische Verfahren
Heuristische Verfahren Bei heuristischen Verfahren geht es darum in polynomieller Zeit eine Näherungslösung zu bekommen. Diese kann sehr gut oder sogar optimal sein, jedoch gibt es keine Garantie dafür.
MehrSynthese Eingebetteter Systeme. Übung 6
12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe
MehrBetriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 21 1 Approximationsalgorithmen auf
MehrGliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen
Kapitel Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren
Mehr5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus
5. Lokale Suchverfahren Lokale Suche 5. Lokale Suchverfahren Beispiel TSP: k-change Nachbarschaft Optimale Lösungen können oft nicht effizient ermittelt werden. Heuristiken liefern zwar zulässige Lösungen,
MehrOptimierung. Vorlesung 12
Optimierung Vorlesung 12 Letze Woche Approximieren von ILP durch randomisiertes Runden. Beispiel Set Cove Relaxiertes LP lösen und runden. Probleme: 1. Zielfunktionswert 2. Zulässigkeit 1. Linearität des
MehrImplementation und Evaluierung innovativer Heuristiken für die Anordnung von Entwurfsentscheidungen
Implementation und Evaluierung innovativer Heuristiken für die Anordnung von Entwurfsentscheidungen Diplomarbeit Thomas Scharler Universität Hamburg, FB Informatik, AB Tech Implementation und Evaluierung
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrBetriebswirtschaftliche Optimierung
Institut für Statistik und OR Uni Graz 1 Approximationsalgorithmen auf metrischen Instanzen Minimum Spanning Tree Definition (Spannbaum) Ein Spannbaum in einem Graphen G = (V,E) ist ein kreisfreier Teilgraph
Mehr11. Übung zu Algorithmen I 6. Juli 2016
11. Übung zu Algorithmen I 6. Juli 2016 Lisa Kohl lisa.kohl@kit.edu mit Folien von Lukas Barth Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP ein Algorithmus
Mehr8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick
Grundlagen der Künstlichen Intelligenz 5. April 0 8. Suchalgorithmen: Lokale Suche Grundlagen der Künstlichen Intelligenz 8. Suchalgorithmen: Lokale Suche 8.1 Einleitung Malte Helmert Universität Basel
MehrSurvival of the Fittest Optimierung mittels Genetischer Algorithmen
Übung zu Organic Computing Survival of the Fittest Optimierung mittels Genetischer Algorithmen Sabine Helwig Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Universität Erlangen-Nürnberg sabine.helwig@informatik.uni-erlangen.de
MehrGrundlagen der Künstlichen Intelligenz
Grundlagen der Künstlichen Intelligenz 21. Kombinatorische Optimierung und lokale Suche Malte Helmert Universität Basel 10. April 2015 Kombinatorische Optimierung Kombinatorische Optimierung: Einführung
MehrAdaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Evolutionäre Algorithmen: Überlebenskampf und Evolutionäre Strategien Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überblick Einleitung Adaptive Filter Künstliche
MehrÜberblick. Motivation. Kap. 7.6 Verbesserungsheuristiken. Nachbarschaft einer Lösung Einfache lokale Suche
Kap. 7.6 Verbesserungsheuristiken (letzte VO) Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 7. VO DAP SS 008 17. Juli 008 Überblick Verbesserungsheuristiken
MehrKap. 7.6 Verbesserungsheuristiken (letzte VO)
Kap. 7.6 Verbesserungsheuristiken (letzte VO) Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 25. VO DAP2 SS 2009 23. Juli 2009 1 Überblick Verbesserungsheuristiken
MehrBetriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 22 1 Das Travelling Salesperson Problem
MehrDer Branching-Operator B
Branching 1 / 17 Der Branching-Operator B Unser Ziel: Löse das allgemeine Minimierungsproblem minimiere f (x), so dass Lösung(x). B zerlegt eine Menge von Lösungen in disjunkte Teilmengen. Die wiederholte
MehrOptimale Produktliniengestaltung mit Genetischen Algorithmen
Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen
Mehr09. Übung zu Algorithmen I 12. Juli 2017
09. Übung zu Algorithmen I 12. Juli 2017 Björn Kaidel bjoern.kaidel@kit.edu mit Folien von Lukas Barth 1 / 67 Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP
MehrSeminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen
Fachhochschule Wedel - SS 2006 Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen Marco Lehmann (wi5909) m@rco-l.de 3. Juli 2006 Gliederung 1.
Mehr10. Vorlesung Stochastische Optimierung
Soft Control (AT 3, RMA) 10. Vorlesung Stochastische Optimierung Genetische Algorithmen 10. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Anwendungsbeispiel: Rundreiseprobleme (TSP) Finden guter Lösungen, Heuristiken Gemischt-ganzzahlige Optimierung Inhaltsübersicht für heute: Anwendungsbeispiel: Rundreiseprobleme
MehrAdaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Evolutionäre Algorithmen Teil II Evolutionsfenster durch Mutation und sexuelle Rekombination Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Evolutionäre Algorithmen
Mehrv R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i
MOP: Pareto-Gradientenabstiegsverfahren Annahme: Zielfunktion differenzierbar Wintersemester 2007/08 Praktische Optimierung (Vorlesung) d = 1: (monokriteriell) v R n ist Abstiegsrichtung in x R n wenn
MehrKünstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen
Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Optimierungsprobleme
MehrExkurs Modelle und Algorithmen
Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen
Mehr1 Heuristiken für das Traveling Salesman Problem
Praktikum Diskrete Optimierung (Teil 5) 15.06.2011 1 1 Heuristiken für das Traveling Salesman Problem Wir betrachten das folgende Problem. Wir wollen einen gegebenen Graphen möglichst schnell so durchlaufen,
MehrAnt Colony Optimization (ACO)
Ant Colony Optimization (ACO) Daniel Blum 24.4.2003 Projektgruppe 431 Metaheuristiken Lehrstuhl 11, Fachbereich Informatik, Universität Dortmund 1 Übersicht Vorbild Natur Übertragung der Ideen Beispiele
MehrSoftwareprojektpraktikum Maschinelle Übersetzung
Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology
MehrGenetische und Evolutionäre Algorithmen (Vol. 2)
Vortrag über Genetische und Evolutionäre Algorithmen (Vol. 2) von Adam El Sayed Auf und Kai Lienemann Gliederung: 4) Rückblick 5) Allgemeine Einführung 6) Genauere Beschreibung von Evolutionären Strategien
Mehr12. Vorlesung Stochastische Optimierung
Soft Control (AT 3, RMA) 12. Vorlesung Stochastische Optimierung Differential Evolution 12. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"
MehrKonstruktions-Verbesserungsheuristiken. Iterierte lokale Suche (ILS)
Konstruktions-Verbesserungsheuristiken Iterierte lokale Suche (ILS) Idee: 2-Phasen-Suche 1. Phase: Randomisierte Konstruktionsheuristik 2. Phase: Lokale Suche Beispiele: Multi-Start lokale Suche GRASP:
MehrKodierung Genetische Algorithmen und Simulated Annealing
Kodierung Genetische Algorithmen und Simulated Annealing Referenten Dipl.-Ing. (FH) Dipl.-Ing. (FH) 1 Agenda Erklärung des Genetischen Algorithmus f(x)=x² (2-dimensional) Verschiedene Codierungen Binärcode,
MehrGenetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008
Genetische Algorithmen Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 8. Juli 2008 Inhalt Einführung Algorithmus Erweiterungen alternative Evolutions- und Lernmodelle Inhalt 1 Einführung
MehrTabu Suche. Allgemein. Simple Tabu-Suche. Praktisches Beispiel. Erweiterungsmöglichkeiten. Aspirationskriterien. Verbesserungen.
Tabu Suche Allgemein Simple Tabu-Suche Praktisches Beispiel Erweiterungsmöglichkeiten Aspirationskriterien Verbesserungen Zusammenfassung TabuSuche, Peter Jahrmann, 0425523 1 Allgemein Metaheuristisches
MehrOptimierung und Simulation
2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Optimierung und Simulation Von Dr. Jörg Biethahn O. Professor für
MehrEinführung in Heuristische Suche
Einführung in Heuristische Suche Beispiele 2 Überblick Intelligente Suche Rundenbasierte Spiele 3 Grundlagen Es muss ein Rätsel / Puzzle / Problem gelöst werden Wie kann ein Computer diese Aufgabe lösen?
MehrEvolutionäre Algorithmen
Karsten Weicker Evolutionäre Algorithmen 2., überarbeitete und erweiterte Auflage m Teubner Inhaltsverzeichnis 1 Natürliche Evolution 1 1.1 Entwicklung der evolutionären Mechanismen 2 1.2 Evolutionsfaktoren
MehrInhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung
8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen
MehrBetriebswirtschaftliche Optimierung
Institut für Statistik und OR Uni Graz 1 Das Travelling Salesperson Problem 2 Das Travelling Salesperson Problem Zentrales Problem der Routenplanung Unzählige wissenschaftliche Artikel theoretischer sowie
MehrGenetische Algorithmen
Genetische Algorithmen Prof. Dr. Ottmar Beucher Dezember 2001 Genetische Algorithmen 1 Optimierungsaufgaben Ein einfaches Beispiel Prinzipielle Formulierung Lösungsansätze Genetische Algorithmen Anwendungen
MehrDynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
MehrKonstruktive Heuristiken
Konstruktive Heuristiken Konstruktive Heuristik: Ein Plan oder ein Schedule wird durch das schrittweise Ein- oder Anfügen einer Operation oder einer Menge von Operationen erzeugt: - Reihungsregeln (Dispatching
MehrDynamisches Routing in der Logistik
Informatik, Angewandte Informatik, Technische Informationssysteme Dynamisches Routing in der Logistik Tobias Dimmel Dresden, 24.05.2012 Agenda 1. Begriffe 2. Traveling Salesman Problem 3. Ameisenalgorithmus
MehrLokale Suche. 31. Januar / 28
Lokale Suche 31. Januar 2018 1 / 28 Lokale Suche Wir betrachten das allgemeine Minimierungsproblem min y f (x, y) so dass L(x, y). Wir nehmen an, dass zu jeder Lösung y auch eine Nachbarschaft N (y) benachbarter
MehrEvolutionäre Algorithmen - Kapitel 15
Evolutionäre Algorithmen - Kapitel 15 Metaheuristiken Prof. Dr. Rudolf Kruse ÖÙ Û º ºÙÒ ¹Ñ ÙÖ º Fakultät für Informatik Otto-von-Guericke-Universität Magdeburg 9. Juni 2008 R. Kruse (Uni Magdeburg) Metaheuristiken
MehrGenetische und Evolutionäre Algorithmen (Vol. 1)
Vortrag über Genetische und Evolutionäre Algorithmen (Vol. ) von Adam El Sayed Auf und Kai Lienemann Gliederung: ) Einführung 2) Grundkonzept 3) Genaue Beschreibung des Genetischen Algorithmus Lösungsrepräsentation
Mehr1. Inhaltsverzeichnis
1. Inhaltsverzeichnis Inhaltsverzeichnis 1. Einleitung 1.1. Darwins Evolutionstheorie 1.2. Darwins Evolutionstheorie als Inspiration für Evolutionäre Algorithmen 1.3. Die Unterschiede der verschiedenen
MehrF A C H H O C H S C H U L E W E D E L
F A C H H O C H S C H U L E W E D E L Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen Eingereicht von: Erarbeitet im: Marco Lehmann Hoheluftchaussee
Mehr15 Grundlagen der Simulation
15 Grundlagen der Simulation 15.1 Einführung Komplexe Problemstellungen, die einer analytischen Behandlung nur sehr schwer oder gar nicht zugänglich sind Lösung von diskreten (oder analytischen) Optimierungsaufgaben,
MehrHeuristiken im Kontext von Scheduling
Heuristiken im Kontext von Scheduling Expertenvortrag CoMa SS 09 CoMa SS 09 1/35 Übersicht Motivation Makespan Scheduling Lokale Suche Weitere Metaheuristiken Zusammenfassung Literatur CoMa SS 09 2/35
Mehrlineare Programmierung
lineare Programmierung Viele Probleme sind durch lineare Gleichungssysteme charakterisiert lineare Programmiermethoden Der Lösungsraum ist häufig auf ganze Zahlen oder gar natürliche Zahlen eingeschränkt!
MehrPopulationsbasierte Suche. Evolutionäre Algorithmen (1)
Populationsbasierte Suche Bisherige Meta-Heuristiken: Simulated Annealing Tabu Search Ausgehend von einer Lösung wird gesucht Populationsbasierte Heuristiken Suche erfolgt ausgehend von mehreren Lösungen
MehrGenetische Algorithmen
Genetische Algorithmen Von Valentina Hoppe und Jan Rörden Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Gliederung Biologische Evolution Genetischer Algorithmus Definition theoretischer
MehrFormale Grundlagen der Informatik F3: Berechenbarkeit un
Formale Grundlagen der Informatik F3: Berechenbarkeit und Komplexität Fachbereich Informatik AB Theoretische Grundlagen der Informatik (TGI) Universität Hamburg farwer@informatik.uni-hamburg.de 14. Dezember
MehrGrundlagen Theoretischer Informatik 3 SoSe 2012 in Trier. Henning Fernau Universität Trier
Grundlagen Theoretischer Informatik 3 SoSe 2012 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Zum Umgang mit NP-harten Problemen In manchen Anwendungen ist das garantierte Auffinden exakter
MehrErfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen
Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen Krischan Keitsch 3. Juni 214 Zusammenfassung Um ein Optimierungsproblem mit einer Evolutionsstrategie
MehrEinführung in Suchverfahren
Einführung in Suchverfahren Alfred Kranstedt 0.0.0 Seminar Intelligente Algorithmen Was ist heute Thema?. Was ist ein Suchproblem? Definitionen, Darstellungen etc.. Suchstrategien Blinde Suche Heuristische
Mehr7. Optimierung von Simulationsmodellen
7. Optimierung von Ziel vieler Simulationsmodelle ist das finden einer guten/optimalen Lösung Allgemein formuliert: Min f(x) unter den Nebenbedingungen x W oft sind die Nebenbedingungen durch Gleichungen/Ungleichungen
MehrÜberblick. TSP Vergleich der Lösungen. Das Travelling Salesman Problem. Nearest-Neighbor Heuristik für TSP
Kap..1 Heuristiken Kap.. Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 3. VO DAP SS 008 14. Juli 009 Überblick
MehrKap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien
Kap. 7.1 Heuristiken Kap. 7.2 Approximative Algorithmen und Gütegarantien Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 23. VO DAP2 SS 2008 14. Juli 2009
MehrEvolution und Algorithmen
Kapitel 6 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics
MehrAmeisenkolonien (1) Idee: Reale Ameisen:
Ameisenkolonien (1) Idee: Von M. Dorigo, 1992 Verhalten von Ameisen bei der Futtersuche Ameisen hinterlassen Pheromon-Spur (Chem. Substanz) Pfade mit hoher Pheromon-Konzentration werden bevorzugt Indirekte
MehrSIMULATED ANNEALING IM RAHMEN DES PS VIRTUAL LAB MARTIN PFEIFFER. Simulated Annealing Virtual Lab 1 /42
SIMULATED ANNEALING IM RAHMEN DES PS VIRTUAL LAB MARTIN PFEIFFER Simulated Annealing Virtual Lab 1 /42 - Simulated Annealing = Simuliertes Abkühlen - Verfahren zum Lösen kombinatorischer Probleme - inspiriert
MehrBisher: Suche durch Lösungsveränderung Neuer Begriff: Nachbarschaft einer Lösung
Lokale Suche und Nachbarschaften Bisher: Suche durch Lösungsveränderung Neuer Begriff: Nachbarschaft einer Lösung Nachbarschaft ist Menge der Lösungen, die von einer gegebenen Lösung durch eine einfache
MehrSeminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP
Seminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP Tobias Boelter 28. Mai 2013 bei Prof. Dr. Rainer Schrader, Universität zu Köln Inhaltsverzeichnis 1 Einleitung 2 2 Lokale Suche
MehrHauptseminar Repräsentationen für Optimierungsalgorithmen
Stefan Bens Hauptseminar Dresden, 03.07.2008 Inhalt 1. Motivation 2. Einleitung 3. Repräsentationsarten und Eigenschaften 4. Beispiel 5. Zusammenfassung Folie 2 Als Repräsentation bezeichnet man die Kodierung
MehrTheoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
MehrTeil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006
Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden
Mehr2. Evolution als Optimierungsprinzip
2. Evolution als Optimierungsprinzip Biologen betrachten Evolution als Mechanismus, der in der Natur Lösungen für spezielle Probleme erzeugt Prinzipien der biologischen Evolution werden zur Lösung von
MehrTheoretische Informatik 1
Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 10.06.2016 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP
MehrSandro Pirkwieser, (Bin Hu, Jakob Puchinger) SS 2010
Lösungsverfahren für Ganzzahlige Optimierung Sandro Pirkwieser, (Bin Hu, Jakob Puchinger) Fortgeschrittene Algorithmen und Datenstrukturen Arbeitsbereich für Algorithmen und Datenstrukturen Institut für
MehrGenetische Algorithmen von der Evolution lernen
Genetische Algorithmen von der Evolution lernen (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Nils J. Nilsson Artificial Intelligence Morgan Kaufmann, 1998 Ansatz Bisher: Problemlösung
MehrFundamente der Computational Intelligence
Fundamente der Computational Intelligence Dozent: Günter Rudolph Vertretung: Nicola Beume Wintersemester 2006/07 Universität Dortmund Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS11) Fachgebiet
MehrDas Problem des Handlungsreisenden
Seite 1 Das Problem des Handlungsreisenden Abbildung 1: Alle möglichen Rundreisen für 4 Städte Das TSP-Problem tritt in der Praxis in vielen Anwendungen als Teilproblem auf. Hierzu gehören z.b. Optimierungsprobleme
MehrDie Theorie der Toleranzen und deren Anwendung auf das Traveling Salesman Problem
Die Theorie der Toleranzen und deren Anwendung auf das Traveling Salesman Problem Gerold Jäger 4. Februar 2010 Gerold Jäger Theorie der Toleranzen 4. Februar 2010 1 / 35 Überblick 1 Theorie der Toleranzen
MehrSchnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005
Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung
MehrLocal Search Algorithmen 1
Local Search Algorithmen 1 Seminar über Algorithmen Manuel Gellfart 18.05.2012 Fachbereich Mathematik und Informatik 18.05.2012 2 Gliederung 1. Einleitung 2. Theorie 3. Beispiel: Vertex Cover 4. Beispiel:
MehrKap. 7 Optimierung. Überblick. Optimierung: Einführung. Motivation. Beispiele für Optimierungsprobleme. Rundreiseprobleme (TSP)
Kap. 7 Optimierung Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 22. VO 2. TEIL DAP2 SS 2009 9. Juli 2009 Überblick Einführung Einige klassische Optimierungsprobleme,
MehrTechnische Universität Chemnitz. Ein Genetischer Algorithmus zur simultanen Dimensionierung und Strukturierung von Fertigungssystemen
Ein Genetischer Algorithmus zur simultanen Dimensionierung Strukturierung von Fertigungssystemen JENS ARNOLD Fakultät für Informatik D-09107 Chemnitz E-Mail: Jens.Arnold@informatik.tu-chemnitz.de THOMAS
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrEntwicklung integrierter HW/SW-Systeme Integrierte Hard- und Softwaresysteme 2 Seminar
Entwicklung integrierter HW/SW-Systeme Integrierte Hard- und Softwaresysteme 2 Seminar Jorge Meza jorge.meza@tu-ilmenau.de Zusebau R2082, Tel: -4128 Prof. Dr.-Ing. habil. Andreas Mitschele-Thiel Integrated
MehrGeneral Video Game AI Competition 2016
General Video Game AI Competition 2016 BFS, MCTS und GA - Einführung Miriam Moneke, Nils Schröder, Tobias Joppen Christan Wirth, Prof. J. Fürnkranz 27.04.2016 Fachbereich Informatik Knowledge Engineering
Mehr2.5 Evolutionäre (Genetische) Algorithmen
KI 1, SS 2011, Kapitel 2, GA 1 2.5 Evolutionäre (Genetische) Algorithmen Das Ziel bzw. die Aufgabe von evolutionären Algorithmen ist eine Optimierung von Objekten mit komplexer Beschreibung, wobei es variable
MehrWissensbasierte Systeme. Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche. Heuristiken und ihre Eigenschaften
1 Michael Beetz Technische Universität München Wintersemester 2004/05 Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche 2 3 der Eigenschaften der 4 : 8-Puzzle 5 Heuristiken und ihre Eigenschaften
MehrPG 431 Metaheuristiken
PG 431 Metaheuristiken Seminar Optimierung Wie und warum? Dirk Hoppe Überblick Einführung Optimierungsverfahren Anwendungen Der Begriff Optimierung Littger, Optimierung (1992): Unter Optimierung versteht
MehrAlgodat 2 Theoriefragen
Algodat 2 Theoriefragen Suchen in Texten Laufzeiten: Naive Suche immer Theta von N*M wenn N = Textlänge und M = Musterlänge Boyer-Moore = Theta von N+M (wenn beide Signaturverfahren angewendet werden)
MehrAlgorithmen und Datenstrukturen 2. Stefan Florian Palkovits, BSc Juni 2016
Algorithmen und Datenstrukturen Übung Stefan Florian Palkovits, BSc 09 e09@student.tuwien.ac.at 9. Juni 0 Aufgabe 9: Anwenden der Spanning Tree Heuristik auf symmetrisches TSP 9 8 7 8 8 7 Bilden eines
MehrVon der Mikro- zur Makroevolution... (2)
Von der Mikro- zur Makroevolution... (2) Biologische Strukturbildung im Ausleseprozeß Aus der Erkenntnis heraus, daß man durch kleine, zufällige Änderungen am Erbgut über viele Generationen hinweg durch
MehrTraveling Salesman Problem (TSP)
Traveling Salesman Problem (TSP) Das Traveling Salesman Problem (TSP) ist ein bekanntes Optimierungsproblem. Ein Handlungsreisender soll in einer Rundreise (auch Tour genannt) n vorgegebene Städte besuchen.
MehrTheoretische Informatik 1
Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 02.07.2015 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP
MehrEvolutionäre (Genetische) Algorithmen
Evolutionäre (Genetische) Algorithmen Ziel, Aufgabe von evolutionären Algorithmen: Optimierung von Objekten mit komplexer Beschreibung, wobei es Parameter gibt. Die Objekte kodiert man so als Bitstrings,
MehrHeuristiken und exakte Algorithmen für das verallgemeinerte Traveling Salesman Problem. Gerold Jäger
Heuristiken und exakte Algorithmen für das verallgemeinerte Traveling Salesman Problem Gerold Jäger Martin-Luther-Universität Halle-Wittenberg (in Zusammenarbeit mit Paul Molitor) DFG-Projekt: Toleranzbasierte
MehrInformatiCup 2009 EvolutionConsole
InformatiCup 2009 EvolutionConsole Wilhelm Büchner Hochschule 19. März 2010 1 1. Das Team Teammitglieder Ralf Defrancesco KION Information Services GmbH Systemadministrator Daniel Herken Scooter Attack
Mehr