Ameisenkolonien (2) Ameisenkolonien (1)
|
|
- Ursula Schulz
- vor 6 Jahren
- Abrufe
Transkript
1 Ameisenolonien () Idee: Von M. Dorigo, 992 Verhalten von Ameisen bei der Futtersuche Ameisen hinterlassen Pheromon-Spur (Chem. Substanz) Pfade mit hoher Pheromon-Konzentration werden bevorzugt Indirete Kommuniation durch Pheromone Ameisen lösen olletiv das Problem des ürzesten Pfades Reale Ameisen: Idee basierend auf Experimenten von Goss et al. 989 mit argentinischen Ameisen Ameisenolonien (2) Kürzeste Pfade: Kolletives Finden des ürzesten Pfades vom Futter zum bei vorhanden sein eines Hindernisses 2 Hindernis 3 4 Hindernis Hindernis Folie 98 Folie 99 Ameisenolonien (3) Historische Entwiclung: Ant System AS (M. Dorigo, 992) Ant Colony System ACS (M. Dorigo und L. M. Gambardella, 997) Ant Colony Optimization Meta-Heuristic ACO (Dorigo und DiCaro, 999) AS und ACS: Ursprünglich entwicelt fürs TSP Übertragen auf viele weitere COP Ant System fürs TSP Ant Sytem fürs TSP: Ameisen onstruieren Touren Kanten mit höherer Pheromon-Konzentration t werden mit höherer Wahrscheinlicheit gewählt? s t(s,r) t(s,v) Jede Ameise hinterlegt Pheromonspur nachdem Tour omplett ist Hinterlegte Pheromonmenge ist umgeehrt proportional zur Länge der Tour der Ameise Duftspur verflüchtigt sich mit der Zeit v t(s,u) r t(s,t) u t Folie 2 Folie 2
2 Ant Sytem - Übergangsregel Ant System fürs TSP: Ameisen sind Tour-Konstrutoren: Jede Ameise erzeugt eine Tour Wahrscheinlicheit für Ameise von Stadt r nach s zu gehen: β τ(r,s) η(r,s), wenn s J () r β prs (, ) = τ(r,u) η(r,u) u J () r, sonst τ :Pheromon-Konzentration η(,) rs = / drs (, ): Heuristische Information J(): r Menge der noch nicht besuchten Städte Ant System Update-Regel Globale Lernregel: Pheromon-Update: τ(,) rs ( α) τ( rs, ) + τ (,) rs =, wenn( rs,) T τ ( rs, ) = L, sonst T :Tour von Ameise L :Länge der Tour von Ameise α :Verflüchtigung der Pheromone m Folie 22 Folie 23 Ant Colony System Übergangsregel State Transition Rule: Pseudo-zufälliger Zustandsübergang: argmax u J r{ ( ru, ) ( ru, ) }, wenn q q s = S, sonst β ( ) τ η q :Zufallsvariable gleichverteilt in [,] q :Explorationsparameter S: Zufallsvariable nach p( rs,) aus AS Ant Colony System Update-Regeln () Globale Lernregel: ACS Global Update Rule: τ(,) rs ( α) τ(,) rs + α τ(,) rs, wenn(, rs ) T τ ( rs, ) = Lbest, sonst T L best best :Tour der besten Ameise :Länge der besten Tour best α :Verflüchtigung der Pheromone Folie 24 Folie 25 2
3 Ant Colony System Update-Regeln (2) ACS - Pseudocode Loale Lernregel: ACS Local Update Rule: τ(,) rs ( ρ) τ(,) rs + ρ τ( rs, ) τ(,) rs = γ max τ( sz, ) (Variante ) z J ( s) τ(,) rs= τ (Variante 2) τ(,) rs= (Variante 3) ρ :Parameter (,] γ :Q-Learning Parameter [,) τ :Initialer Pheromonlevel Procedure ACS-TSP; Initialisierung; Jede Ameise wird in einem Startnoten positioniert foreach Ameise do Ameise wendet Zustandsübergangsregel an Ameise wendet loale Update-Regel an endforeach ; until Lösungen omplett; Globale Update-Regel wird angewendet until Ende-riterium ; Folie 26 Folie 27 ACS - Parameterwahl Parameter: Einfluss der heuristischen Information β=2 Exploration q =.9 Pheromon-Evaporation α=ρ=. Initialer Pheromonwert τ = /(n L nn ) L nn : Länge der Lösung der Nearest-Neighbor-Heuristi Anzahl Ameisen: m= ACS - Varianten Ergebnisse eines Vergleichs: ACS mit loalem Update besser als ohne Loales Update: Variante und 2 besser als Variante 3 Heuristische Information wichtig β> Igonorieren der Pheromonwerte schlechte Performance ACS im Vergleich zu anderen Meta-Heuristien relativ schlecht Verwendung loaler Suche ACS + 3-opt (TSP): 3-opt loale Suche vor globalem Update Ergebnisse deutlich besser, aber schlechter als MA (st International Contest on Evolutionary Optimization) Folie 28 Folie 29 3
4 Min-Max Ant System Idee: Von Stützle und Hoos, 997 Verbesserung des AS Unterschiede zu AS: Nur beste Ameise (global Beste oder Iterationsbeste) darf Pheromonspur atualisieren Pheromonwerte werden auf ein Intervall [τ min,τ max ] festgelegt Pheromonwerte werden mit τ max initialisiert Verwendung von loaler Suche Fast Ant System FANT: (QAP) Von Taillard und Gambardella, 997 Nur eine Ameise Loale Suche nach Konstrution einer Lösung Pheromone verflüchtigen sich nicht Pheromonwerte werden mit initialisiert Pheromon-Update: gb τ τ + r τ + r τ ij ij ij ij τ :, wenn (, ij) Element der atuellen Lösung ist ij gb τij :, wenn (, ij) Element der besten Lösung ist rr, : Parameter Folie 2 Folie 2 Ant Colony Optimization ACO Meta-Heuristi: Von Dorigo und DiCaro, 999 Verallgemeinerung des ACS Framewor erlaubt Integration von loaler Suche Anwendung: Disrete Optimierungsprobleme (ombinatorische Optimierungsprobleme) mit bestimmten Eigenschaften Problemdarstellung als Graph, Wahl einer Lösungsomponente wird durch Kante im Graph dargestellt ACO Optimierungsprobleme () Voraussetzungen: Endliche Menge C von Komponenten C={c,c 2,...,c n } Endliche Menge L von möglichen Verbindungen/Übergängen zwischen den Elementen von C, L={l ij (i,j) C x C}, L n 2 Für jedes l ij L Verbindungosten J ij (l ij,t), möglicherweise zeitabhängig Eine endliche Menge von Nebenbedingungen Ω(L,C,t) Folie 22 Folie 23 4
5 ACO Optimierungsprobleme (2) ACO Problembespiele () Weitere Voraussetzungen: Die Zustände des Problems ausgedrüct als Sequenzen s=<c i,c j,...,c > über den Elementen von C, S sei die Menge aller möglichen Sequenzen und S* die Menge der gültigen Sequenzen bezüglich Ω(L,C,t) Eine Nachbarschaftsstrutur, d.h. s und s 2 sind Nachbarn, wenn s =<...,c > und s 2 =<s,c 2 > S, c, c 2 C und l c,c2 L Eine Lösung x S* mit einer Kostenfuntion f(x,l,t) abhängig von den Kosten l ij der Lösung Aufgabe: Pfad im Graphen G=(C,L) Beispiel TSP: C : Menge der Städte / Knoten L : Menge der Verbindungen / Kanten Verbindungosten J ij (l ij,t) = d ij Ω(L,C,t) : Jede Stadt darf nur einmal besucht werden Die Zustände des Problems: Städtefolge s=<c i,c j,...,c > Eine Nachbarschaftsstrutur: alle Städte sind benachbart Lösung x S*: gültige Tour Kostenfuntion f(x,l,t): Tourlänge Folie 24 Folie 25 ACO Problembespiele (2) ACO - Datenstruturen Beispiel binäres Problem: Schrittweises Festlegen der Bits von lins nach rechts Graph: S Lösung: E Gedächtnis M: Jede Ameise hat ein Gedächtnis Wichtig für Erzeugung gültiger Lösungen Verwendet zur Evaluation einer Lösung Benötigt zum Rücverfolgen des Pfades Routing-Tabelle A: Gewichtet Kanten im Graph durch Kombination der Pheromononzentration und der heuristischen Information Benötigt zur Berechnung der Zustandsübergangswahrscheinlicheiten Folie 26 Folie 27 5
6 ACO - Pseudocode QAP: ACO und andere Meta-Heuristien procedure ACO; schedule antsgenerationandactivity(); pheromoneevaporation(); daemonactions(); end schedule; until Ende-riterium; procedure antsgenerationandactivity; schedulecreationnewant(); newactiveant(); until noresources(); procedure newactiveant; initializeant(); M = updateantmemory(); A = readlocalantroutingtable(); P = computetransitionprobabilities(a,m,ω); nextstate = applyantdecisionpolicy(p, Ω); movetonextstate(nextstate); if (onlinestepbysteppheromoneupdate()) depositpheromoneonvisitedarc (); updateantroutingtable(); end if; M = updateinternalstate(); until currentstate == targetstate; if (onlinedelayedpheromoneupdate()) foreach arc in x do depositpheromoneonvisitedarc (); updateantroutingtable(); end foreach; endif; QAP: Vergleich Meta-Heuristien Zahlen: Abweichung von besten Lösung in % Instanz MA- MA-2 Ro-TS Re-TS FANT MMAS SA t/sec tai6a tai8a taia soa tai6b tai8b taib tai5b tho tai256c Ro-TS, Re-TS: Robust/Reactive Tabu Search FANT, MMAS: Ant Colony Optimization: Fast Ant System, Min-Max Ant System SA: Simulated Annealing Folie 28 Folie 29 6
Ameisenkolonien (1) Idee: Reale Ameisen:
Ameisenkolonien (1) Idee: Von M. Dorigo, 1992 Verhalten von Ameisen bei der Futtersuche Ameisen hinterlassen Pheromon-Spur (Chem. Substanz) Pfade mit hoher Pheromon-Konzentration werden bevorzugt Indirekte
MehrGabriella Kókai: Computational Intelligence Lehrstuhl für Informatik 2
Ameiseolonien Ant Systeme für TSP AS Variationen Min-Max Ant System Ant Colony System (ACS) ACS Variationen Fast Ant System Ant Colony Optimization Meta Heuristic- ACO Anwendung in der Bioinformati Dorigo
MehrAMEISENSYSTEME. Arno Klein
1 AMEISENSYSTEME Arno Klein Vortrag im Seminar Moderne Heuristien, betreut durch ao. Univ.-Prof. Mag. Dr. Manfred Gronalt, Lehrstuhl für Wirtschaftsinformati der Technischen Universität Clausthal, vorgetragen
MehrDynamisches Routing in der Logistik
Informatik, Angewandte Informatik, Technische Informationssysteme Dynamisches Routing in der Logistik Tobias Dimmel Dresden, 24.05.2012 Agenda 1. Begriffe 2. Traveling Salesman Problem 3. Ameisenalgorithmus
MehrBetriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Joachim Schauer Betriebliche Optimierung 1 / 31 1 Metaheuristische Verfahren 2 Joachim Schauer Betriebliche Optimierung 2 / 31 Einleitendes Metaheuristische Verfahren
MehrAnt Colony Optimization (ACO)
Ant Colony Optimization (ACO) Daniel Blum 24.4.2003 Projektgruppe 431 Metaheuristiken Lehrstuhl 11, Fachbereich Informatik, Universität Dortmund 1 Übersicht Vorbild Natur Übertragung der Ideen Beispiele
MehrDaniel Radeloff Matr.# Ameisenalgorithmen. -Seminararbeit- Proseminar Adaptive Systeme PD Dr. R. Brause
Daniel Radeloff Matr.# 1627725 radeloff@gmx.de Ameisenalgorithmen -Seminararbeit- Proseminar Adaptive Systeme PD Dr. R. Brause 1 INHALT Übersicht 1. Soziale Inseten als Prototypen von Optimierungsalgorithmen
MehrAmeisenalgorithmen Dynamische Fahrzeugnavigation
Ameisenalgorithmen Dynamische Fahrzeugnavigation Seminar SS 2005 Künstliche Intelligenz Thomas Walther Agenda 1. Einleitung 2. Reale Ameisen und künstliche Ameisen 3. Ant Colonisation Optimisation 4. Ant
MehrVerbesserungsheuristiken
Verbesserungsheuristiken Bestandteile der Lokalen Suche Für schwierige Optimierungsaufgaben haben Verbesserungsheuristiken eine große praktische Bedeutung. Sie starten mit Ausgangslösungen, die von z.b.
Mehr11. Übung zu Algorithmen I 6. Juli 2016
11. Übung zu Algorithmen I 6. Juli 2016 Lisa Kohl lisa.kohl@kit.edu mit Folien von Lukas Barth Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP ein Algorithmus
MehrAmeisenalgorithmen auf rekonfigurierbaren Rechensystemen Tübingen, 29. April Ameisenalgorithmen auf rekonfigurierbaren Rechensystemen
Ameisenalgorithmen auf rekonfigurierbaren Rechensystemen Bernd Scheuermann Hartmut Schmeck Institut für Angewandte Informatik und Formale Beschreibungsverfahren () Universität Karlsruhe (TH) Gliederung
MehrSchwarmintelligenz. Lydia Pintscher Seminar Organic Computing Universität Karlsruhe
Schwarmintelligenz Lydia Pintscher Seminar Organic Computing Universität Karlsruhe Gliederung 1. Grundlagen 2. Schwarmintelligenz in der Natur 3. Schwarmintelligenz beim Menschen 4. Schwarmintelligenz
MehrKonstruktions-Verbesserungsheuristiken. Iterierte lokale Suche (ILS)
Konstruktions-Verbesserungsheuristiken Iterierte lokale Suche (ILS) Idee: 2-Phasen-Suche 1. Phase: Randomisierte Konstruktionsheuristik 2. Phase: Lokale Suche Beispiele: Multi-Start lokale Suche GRASP:
Mehr09. Übung zu Algorithmen I 12. Juli 2017
09. Übung zu Algorithmen I 12. Juli 2017 Björn Kaidel bjoern.kaidel@kit.edu mit Folien von Lukas Barth 1 / 67 Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP
MehrAmeisenalgorithmen in der Verkehrssimulation
Ameisenalgorithmen in der Verkehrssimulation Johannes Renfordt johannes.renfordt@[alumni.]uni-ulm.de Institut für Stochastik, Universität Ulm Johannes Renfordt, 26. Juni 2007: Präsentation Diplomarbeit,
MehrBisher: Suche durch Lösungsveränderung Neuer Begriff: Nachbarschaft einer Lösung
Lokale Suche und Nachbarschaften Bisher: Suche durch Lösungsveränderung Neuer Begriff: Nachbarschaft einer Lösung Nachbarschaft ist Menge der Lösungen, die von einer gegebenen Lösung durch eine einfache
MehrIntelligente Systeme
Intelligente Systeme Schwarmintelligenz Prof. Dr. R. Kruse C. Braune {kruse,cbraune}@iws.cs.uni-magdeburg.de Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität
Mehr8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick
Grundlagen der Künstlichen Intelligenz 5. April 0 8. Suchalgorithmen: Lokale Suche Grundlagen der Künstlichen Intelligenz 8. Suchalgorithmen: Lokale Suche 8.1 Einleitung Malte Helmert Universität Basel
MehrHeuristische Verfahren
Heuristische Verfahren Bei heuristischen Verfahren geht es darum in polynomieller Zeit eine Näherungslösung zu bekommen. Diese kann sehr gut oder sogar optimal sein, jedoch gibt es keine Garantie dafür.
MehrDeterministisch vs. Zufallsgesteuert
Klassifikation von Heuristiken Problembezogen: Problemspezifische Heuristiken Problemunabhängige Heuristiken Nach Komplexität: Einfache Heuristiken Hybride Heuristiken Nach Methodik: Konstruktionsheuristiken
Mehrx x x x Repräsentation von Lösungen (2) Repräsentation von Lösungen (1)
Repräsentation von Lösungen () Repräsentation von Lösungen () Kontinuierliche Optimierung: x x x x n Binäre Optimierung: n = (,,, ) R x = ( x, x,, x ) {0,} n n Lokale Suche: x i = x i + ε Lokale Suche:
MehrBetriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 19 1 Joachim Schauer ( Institut für
MehrRepräsentation von Lösungen (1)
Repräsentation von Lösungen (1) Kontinuierliche Optimierung: Binäre Optimierung: x x1 x2 x n n = (,,, ) R x = ( x1, x2,, x ) {0,1} n n Lokale Suche: x i = x i + ε Lokale Suche: x i = 1-x i 0.5 0.9 0.2
MehrInvestitionsentscheidungen bei mehrfachen Zielsetzungen und künstliche Ameisen
Investitionsentscheidungen bei mehrfachen Zielsetzungen und künstliche Ameisen Karl Doerner 1, Walter J. Gutjahr 2, Richard F. Hartl 1, Christine Strauss 1 und Christian Stummer 1 1 Institut für Betriebswirtschaftslehre,
MehrKlassifikation von Heuristiken. Meta-Heuristiken. Problembezogen: Problemspezifische Heuristiken Problemunabhängige Heuristiken
Klassifikation von Heuristiken Meta-Heuristiken Problembezogen: Problemspezifische Heuristiken Problemunabhängige Heuristiken Nach Komplexität: Einfache Heuristiken Hybride Heuristiken Nach Methodik: Konstruktionsheuristiken
MehrÜberblick. Motivation. Kap. 7.6 Verbesserungsheuristiken. Nachbarschaft einer Lösung Einfache lokale Suche
Kap. 7.6 Verbesserungsheuristiken (letzte VO) Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 7. VO DAP SS 008 17. Juli 008 Überblick Verbesserungsheuristiken
Mehrt r r P t 3 r q t t t st r2 t s t t
s st t t ür r t r s 3 s s r 1 s rs tät ü r r t r Pr r s r t r r P t 3 r q t t t st r2 t s t t ss rt t 3 r r s t r r s r r r r r 3 s tät r 1 s rs tät ü r t r r 1 r üt3 s r ts s t r 3 s tät r 1 s rs tät
MehrKap. 7.6 Verbesserungsheuristiken (letzte VO)
Kap. 7.6 Verbesserungsheuristiken (letzte VO) Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 25. VO DAP2 SS 2009 23. Juli 2009 1 Überblick Verbesserungsheuristiken
MehrKapitel ML: X (Fortsetzung)
Kapitel ML: X (Fortsetzung) X. Clusteranalyse Einordnung Data Mining Einführung in die Clusteranalyse Hierarchische Verfahren Iterative Verfahren Dichtebasierte Verfahren Cluster-Evaluierung ML: X-31 Cluster
MehrStudienarbeit. Ameisen und kombinatorische Optimierung
Fakultät für Informatik Professur Modellierung und Simulation Studienarbeit Ameisen und kombinatorische Optimierung Erstellt von: Peter Krusche peter.krusche@s2000.tu-chemnitz.de Diplomstudiengang Informatik
MehrWissensbasierte Systeme. Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche. Heuristiken und ihre Eigenschaften
1 Michael Beetz Technische Universität München Wintersemester 2004/05 Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche 2 3 der Eigenschaften der 4 : 8-Puzzle 5 Heuristiken und ihre Eigenschaften
Mehr5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus
5. Lokale Suchverfahren Lokale Suche 5. Lokale Suchverfahren Beispiel TSP: k-change Nachbarschaft Optimale Lösungen können oft nicht effizient ermittelt werden. Heuristiken liefern zwar zulässige Lösungen,
MehrAnwendung von Schwarmintelligenz auf ein Mehrkriterienoptimierungsproblem mit Nebenbedingungen
Anwendung von Schwarmintelligenz auf ein Mehrkriterienoptimierungsproblem mit Nebenbedingungen Diplomarbeit im Fach Informatik vorgelegt von Bettina Bickel geb. 12.02.1981 in Weissenburg i. Bay. angefertigt
MehrHeuristiken und exakte Algorithmen für das verallgemeinerte Traveling Salesman Problem. Gerold Jäger
Heuristiken und exakte Algorithmen für das verallgemeinerte Traveling Salesman Problem Gerold Jäger Martin-Luther-Universität Halle-Wittenberg (in Zusammenarbeit mit Paul Molitor) DFG-Projekt: Toleranzbasierte
MehrVisualisierung von Graphen
1 Visualisierung von Graphen Teile-und-Herrsche-Algorithmen: Bäume und serienparallele Graphen 3. Vorlesung Sommersemester 2013 (basierend auf Folien von Martin Nöllenburg und Robert Görke, KIT) 2 Ankündigung
MehrSwarm Intelligence in der dynamischen Tourenplanung
MKWI 2010 Planung/Steuerung und Konfigurieren/Entwerfen 2333 Swarm Intelligence in der dynamischen Tourenplanung Osterhörn 14, 26736 Krummhörn menno.heeren@gepards.de Mit diesem Beitrag soll gezeigt werden,
MehrMap Matching. Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf.
Map Matching Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Ergebnis mit minimaler Fréchet-Distanz Annahme: Fahrer wählen bevorzugt kürzeste Wege im Straßennetz.
MehrEvolutionäre Algorithmen Metaheuristiken und verwandte Optimierungsverfahren II/II
Evolutionäre Algorithmen Metaheuristiken und verwandte Optimierungsverfahren II/II Prof. Dr. Rudolf Kruse Pascal Held {kruse,pheld}@iws.cs.uni-magdeburg.de Otto-von-Guericke-Universität Magdeburg Fakultät
MehrSeminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP
Seminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP Tobias Boelter 28. Mai 2013 bei Prof. Dr. Rainer Schrader, Universität zu Köln Inhaltsverzeichnis 1 Einleitung 2 2 Lokale Suche
MehrLocal Search Algorithmen 1
Local Search Algorithmen 1 Seminar über Algorithmen Manuel Gellfart 18.05.2012 Fachbereich Mathematik und Informatik 18.05.2012 2 Gliederung 1. Einleitung 2. Theorie 3. Beispiel: Vertex Cover 4. Beispiel:
MehrHidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
MehrIntelligente Systeme
Intelligente Systeme Schwarmbasierte Optimierungsverfahren Prof. Dr. R. Kruse C. Moewes G. Ruß {kruse,cmoewes,russ}@iws.cs.uni-magdeburg.de Arbeitsgruppe Computational Intelligence Institut für Wissens-
MehrDas Traveling Salesman Problem und das Assignment Problem zweiter Ordnung. Gerold Jäger
Das Traveling Salesman Problem und das Assignment Problem zweiter Ordnung Gerold Jäger Martin-Luther-Universität Halle-Wittenberg Zusammenarbeit mit Frank Fischer, Anja Lau, Paul Molitor DFG-Projekt: Toleranzbasierte
MehrDie Theorie der Toleranzen und deren Anwendung auf das Traveling Salesman Problem
Die Theorie der Toleranzen und deren Anwendung auf das Traveling Salesman Problem Gerold Jäger 4. Februar 2010 Gerold Jäger Theorie der Toleranzen 4. Februar 2010 1 / 35 Überblick 1 Theorie der Toleranzen
MehrBetriebswirtschaftliche Optimierung
Institut für Statistik und OR Uni Graz 1 Das Travelling Salesperson Problem 2 Das Travelling Salesperson Problem Zentrales Problem der Routenplanung Unzählige wissenschaftliche Artikel theoretischer sowie
MehrGrundlagen der Künstlichen Intelligenz
Grundlagen der Künstlichen Intelligenz 21. Kombinatorische Optimierung und lokale Suche Malte Helmert Universität Basel 10. April 2015 Kombinatorische Optimierung Kombinatorische Optimierung: Einführung
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrAnt Colony Optimization (ACO)
Ant Colony Optimization (ACO) Daniel Blum PG Meta-Heuristiken Universität Dortmund 6. Mai 2003 Inhaltsverzeichnis 1 Biologischer Hintergrund 2 2 Von der Natur zum Algorithmus 2 3 Allgemeines Konzept für
Mehr14. Schwarmbasierte Optimierungsverfahren FEURO UZZY
14. Schwarmbasierte Optimierungsverfahren S Überblick Optimierungsverfahren Allgemeine Problemstellung und Voraussetzungen Einige einfache/klassische Optimierungsverfahren Das Problem lokaler Optima Beispiele:
Mehrlineare Programmierung
lineare Programmierung Viele Probleme sind durch lineare Gleichungssysteme charakterisiert lineare Programmiermethoden Der Lösungsraum ist häufig auf ganze Zahlen oder gar natürliche Zahlen eingeschränkt!
Mehr1 Heuristiken für das Traveling Salesman Problem
Praktikum Diskrete Optimierung (Teil 5) 15.06.2011 1 1 Heuristiken für das Traveling Salesman Problem Wir betrachten das folgende Problem. Wir wollen einen gegebenen Graphen möglichst schnell so durchlaufen,
Mehr14. Schwarmbasierte Optimierungsverfahren
14. Schwarmbasierte Optimierungsverfahren basierend auf Folien von C. Borgelt S F UZZY Überblick Optimierungsverfahren Allgemeine Problemstellung und Voraussetzungen Einige einfache/klassische Optimierungsverfahren
MehrExkurs Modelle und Algorithmen
Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen
Mehr1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3
Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................
MehrF A C H H O C H S C H U L E
F A C H H O C H S C H U L E W E D E L S E M I N A R A R B E I T Künstliche Intelligenz SS05 A m e i s e n a l g o r i t h m e n Dynamische Fahrzeugnavigation Eingereicht von: Eingereicht im: Thomas Walther
MehrBetriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 22 1 Das Travelling Salesperson Problem
MehrIntelligente Systeme. Einführung. Christian Moewes
Intelligente Systeme Einführung Prof. Dr. Rudolf Kruse Christian Moewes Georg Ruß {kruse,russ,cmoewes}@iws.cs.uni-magdeburg.de Arbeitsgruppe Computational Intelligence Institut für Wissens- und Sprachverarbeitung
MehrHochschule Darmstadt
Hochschule Darmstadt - Fachbereich Informatik - Ameisenalgorithmen zur Routenerzeugung in der embedded Fahrzeugnavigation Abschlussarbeit zur Erlangung des akademischen Grades Master of Science (M.Sc.)
MehrIntelligente Systeme
Intelligente Systeme Computational Intelligence Prof. Dr. R. Kruse C. Braune C. Doell {kruse,cbraune,doell}@iws.cs.uni-magdeburg.de Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik
MehrSequenzierung mit Ant-Colony-Systemen am Beispiel Querverteil-Wagen
Sequenzierung mit Ant-Colony-Systemen am Beispiel Querverteil-Wagen CLARA MARIA NOVOA, M.E. INDUSTRIAL AND SYSTEMS ENGINEERING DEPARTMENT (ISE), LEHIGH UNIVERSITY DIPL.-ING. HUBERT BÜCHTER FRAUNHOFER INSTITUT
MehrGrundlagen Theoretischer Informatik 3 SoSe 2012 in Trier. Henning Fernau Universität Trier
Grundlagen Theoretischer Informatik 3 SoSe 2012 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Zum Umgang mit NP-harten Problemen In manchen Anwendungen ist das garantierte Auffinden exakter
MehrAlgo&Komp. - Wichtige Begriffe Mattia Bergomi Woche 6 7
1 Kürzeste Pfade Woche 6 7 Hier arbeiten wir mit gewichteten Graphen, d.h. Graphen, deren Kanten mit einer Zahl gewichtet werden. Wir bezeichnen die Gewichtsfunktion mit l : E R. Wir wollen einen kürzesten
MehrGenetische Algorithmen von der Evolution lernen
Genetische Algorithmen von der Evolution lernen (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Nils J. Nilsson Artificial Intelligence Morgan Kaufmann, 1998 Ansatz Bisher: Problemlösung
MehrFormale Grundlagen der Informatik F3: Berechenbarkeit un
Formale Grundlagen der Informatik F3: Berechenbarkeit und Komplexität Fachbereich Informatik AB Theoretische Grundlagen der Informatik (TGI) Universität Hamburg farwer@informatik.uni-hamburg.de 14. Dezember
Mehr3 Überlagerungen und Quotienten
$Id: quotient.tex,v 1.12 2017/01/25 18:36:36 h Exp $ 3 Überlagerungen und Quotienten 3.3 Der Riemannsche Existenzsatz Wie in der letzten Sitzung angeündigt wollen wir nun den Riemannschen Existenzsatz
MehrIntelligente Systeme
Intelligente Systeme Computational Intelligence Prof. Dr. R. Kruse C. Braune C. Moewes {kruse,cbraune,cmoewes}@iws.cs.uni-magdeburg.de Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik
Mehr1 Monomiale Ideale und monomiale Moduln
1 Monomiale Ideale und monomiale Moduln 1.1 Definition Sei (Γ, ) ein Monoid. a) Eine nichtleere Teilmenge Γ heißt Monoideal in Γ, wenn Γ gilt. b) Eine Teilmenge B eines Monoideals in Γ heißt Erzeugendensystem
MehrDas Problem des Handlungsreisenden
Seite 1 Das Problem des Handlungsreisenden Abbildung 1: Alle möglichen Rundreisen für 4 Städte Das TSP-Problem tritt in der Praxis in vielen Anwendungen als Teilproblem auf. Hierzu gehören z.b. Optimierungsprobleme
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrRandomisierte Datenstrukturen
Seminar über Algorithmen DozentInnen: Helmut Alt, Claudia Klost Randomisierte Datenstrukturen Ralph Schäfermeier 13. 2. 2007 Das Verwalten von Mengen, so dass ein schneller Zugriff auf deren Elemente gewährleistet
MehrVoronoi-Diagramme. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK
Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 29.05.2011 Das Postamt-Problem b(p, q) = {x R 2 : xp = xq } p q h(p, q) h(q, p) = {x :
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Belief Propagation, Strukturlernen Nico Piatkowski und Uwe Ligges 29.06.2017 1 von 13 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung
MehrRechenzeit für A. Sei t B die Rechenzeit eines Algo für B. Seien p,q,r monotone Polynome ( +).
Rechenzeit für A Sei t B die Rechenzeit eines Algo für B. Seien p,q,r monotone Polynome ( +). Rechenzeit des resultierenden Algo für A: t A (n) p(n) + q(n) t B (r(n)). Ist polynomiell, falls t B Polynom.
MehrAblaufplanung bei Werkstattfertigung
Markus Danninger Ablaufplanung bei Werkstattfertigung Ameisenalgorithmen zur Minimierung der mittleren Durchlaufzeit V INHALTSVERZEICHNIS Abkürzungsverzeichnis Symbolverzeichnis Abbildungsverzeichnis Tabellenverzeichnis
MehrAlgorithmen und Datenstrukturen Tutorium Übungsaufgaben
Algorithmen und Datenstrukturen Tutorium Übungsaufgaben AlgoDat - Übungsaufgaben 1 1 Landau-Notation Aufgabe Lösung 2 Rekurrenzen Aufgabe 3 Algorithmenentwurf und -analyse Aufgabe AlgoDat - Übungsaufgaben
MehrIntelligente Systeme
Intelligente Systeme Computational Intelligence Prof. Dr. R. Kruse C. Moewes G. Ruß {kruse,cmoewes,russ}@iws.cs.uni-magdeburg.de Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke
MehrAdaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Evolutionäre Algorithmen: Überlebenskampf und Evolutionäre Strategien Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überblick Einleitung Adaptive Filter Künstliche
MehrHidden Markov Models
Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung
MehrHawkes Prozesse Grundlagen
Hawkes Prozesse Grundlagen Im Folgenden sei (Ω, F, F, P) eine stochastische Basis. Das heißt F = (F t ) t ist eine rechtsstetige Filtration mit F t F für alle t und P ein Wahrscheinlichkeitsmaß auf dem
MehrSynthese Eingebetteter Systeme. Übung 6
12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe
MehrTheoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
MehrPG 431 Metaheuristiken
PG 431 Metaheuristiken Seminar Optimierung Wie und warum? Dirk Hoppe Überblick Einführung Optimierungsverfahren Anwendungen Der Begriff Optimierung Littger, Optimierung (1992): Unter Optimierung versteht
MehrVerteilte Systeme. Graphenalgorithmen. Secure Identity Research Group
Verteilte Systeme Graphenalgorithmen Allgemeine Netzwerke Reale Computernetze sind meist keine Ringe Beliebige Netze lassen sich als Graph modellieren:g=(v,e) Knoten V (Prozessen, Stationen) Kanten E (Kanälen,
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 25 Überblick Überblick Metropolis-Algorithmus
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 20. November 2014 INSTITUT FÜR THEORETISCHE 0 KIT 20.11.2014 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrAlgorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS Oktober 2016
Technische Universität Wien Institut für Computergraphik und Algorithmen Algorithms and Complexity Group 186.815 Algorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS 2016 5. Oktober 2016 Machen Sie
MehrSeminar: Data Mining. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen. Ein Vortrag von Mathias Rohde. 11.
Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen 11. Juni 2009 Gliederung 1 Problemstellung 2 Vektorprodukt Approximationen Samplesammlung 3 Schritte Lokalität und Nachrichtenkomplexität
MehrLernmodul 7 Algorithmus von Dijkstra
Folie 1 von 30 Lernmodul 7 Algorithmus von Dijkstra Quelle: http://www.map24.de Folie 2 von 30 Algorithmus von Dijkstra Übersicht Kürzester Weg von A nach B in einem Graphen Problemstellung: Suche einer
MehrSimulation einer selbstorganisierenden Fertigungssteuerung auf Basis der Ant-Colony-Optimierung
Integrationsaspekte der Simulation: Technik, Organisation und Personal Gert Zülch & Patricia Stock (Hrsg.) Karlsruhe, KIT Scientific Publishing 2010 Simulation einer selbstorganisierenden Fertigungssteuerung
MehrIntelligente Systeme
Intelligente Systeme Computational Intelligence Prof. Dr. R. Kruse C. Braune {kruse,cbraune}@iws.cs.uni-magdeburg.de Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke
MehrBasen. Inhaltsverzeichnis
Vortrag zum Seminar zur Funtionentheorie, 15.07.2009 Benjamin Laumen Diese Ausarbeitung beruht auf Kapitel III, Paragraph 4 Unterpunt 1 3 aus dem Buch: Elliptische Funtionen und Modulformen von M. Koecher
MehrAnwendungen des Fréchet-Abstandes Das Constrained Free Space Diagram zur Analyse von Körperbewegungen
Anwendungen des Fréchet-Abstandes Das Constrained Free Space Diagram zur Analyse von Körperbewegungen David Knötel Freie Universität Berlin, Institut für Informatik Seminar über Algorithmen Leitfaden Wiederholung
MehrEinführung in Heuristische Suche
Einführung in Heuristische Suche Beispiele 2 Überblick Intelligente Suche Rundenbasierte Spiele 3 Grundlagen Es muss ein Rätsel / Puzzle / Problem gelöst werden Wie kann ein Computer diese Aufgabe lösen?
MehrKap. 7 Optimierung. Überblick. Optimierung: Einführung. Motivation. Beispiele für Optimierungsprobleme. Rundreiseprobleme (TSP)
Kap. 7 Optimierung Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 22. VO 2. TEIL DAP2 SS 2009 9. Juli 2009 Überblick Einführung Einige klassische Optimierungsprobleme,
MehrApproximationsalgorithmen
Approximationsalgorithmen 1. Vorlesung Joachim Spoerhase Alexander Wolff Lehrstuhl für Informatik I Wintersemester 2017/18 Bücher zur Vorlesung Vijay V. Vazirani Approximation Algorithms Springer-Verlag
MehrBeschleunigung von kräftebasierten Graphzeichenalgorithmen mittels wohlseparierten Paardekompositionen
Bachelorkolloquium Beschleunigung von kräftebasierten Graphzeichenalgorithmen mittels wohlseparierten Paardekompositionen von Johannes Zink Übersicht 1. Grundlagen 1.1 Kräftebasierte Graphzeichenalgorithmen
Mehr2. Entsprechende Listen P i von Vorgängern von i 3. for i := 1 to n do. (ii) S i = Knoten 2 + 1}
1. Berechne für jeden Knoten i in BFS-Art eine Liste S i von von i aus erreichbaren Knoten, so dass (i) oder (ii) gilt: (i) S i < n 2 + 1 und Si enthält alle von i aus erreichbaren Knoten (ii) S i = n
Mehr