Ant Colony Optimization (ACO)
|
|
|
- Ella Braun
- vor 9 Jahren
- Abrufe
Transkript
1 Ant Colony Optimization (ACO) Daniel Blum PG Meta-Heuristiken Universität Dortmund 6. Mai 2003 Inhaltsverzeichnis 1 Biologischer Hintergrund 2 2 Von der Natur zum Algorithmus 2 3 Allgemeines Konzept für ACO Algorithmen Allgemeine Idee Struktur eines ACO Algorithmus für die Optimierung High-Level Beschreibung eines ACO Algorithmus Parameter Vor- und Nachteile Vorteile Nachteile Anwendungsbeispiele ANT-TSP Ant-Cycle Variante von Ant-System Algorithmus Laufzeit Verbesserungen AntNet Weitere Anwendungsbeispiele Varianten Anti-Pheromone Multi-Colony
2 1 Biologischer Hintergrund ACO Algorithmen wurden inspiriert durch ein Vorbild aus der Natur, und zwar durch Ameisenkolonien. Obwohl die einzelnen Ameisen der Kolonie relativ simplen Verhaltensweisen folgen, schafft es die Kolonie als ganzes, komplexe Probleme zu bewältigen, wie z.b. das Finden von kurzen Pfaden vom Nest zu Futterquellen und zurück. Eine entscheidende Rolle spielen hierbei Pheromone, die die Ameisen als Orientierung benutzten und bei der Fortbewegung auch selber verteilen. Eine einzelne Ameise bewegt sich fast zufällig. Trifft sie allerdings auf Pheromonspuren, dann folgt sie ihnen mit einer Wahrscheinlichkeit, die mit der Stärke der Spur wächst. Da sie weiterhin selbst Pheromone verteilt, wird die Spur nun verstärkt. Je mehr Ameisen einer Spur folgen, um so attraktiver wird sie. Des weiteren zieht eine attraktivere Spur mehr Ameisen an, ihr zu folgen. Es handelt sich also um einen autokatalytischen Prozess, bzw. um positives Feedback. Begrenzt wird die Zunahme von Ameisen, die einen Pfad benutzen durch verschieden Faktoren, wie z.b. die Anzahl der Ameisen der Kolonie, konkurierende Pfade oder Zufall gesteuertes Verlassen des Pfades. [1] 2 Von der Natur zum Algorithmus ACO Algorithmen orientieren sich an den Vorbildern der Natur, doch da nicht die Modellierung von Ameisenkolonien im Vordergrund steht, sondern das Übertragen von Ideen, um Probleme zu lösen, ist die biologische Plausibilität nicht immer gegeben. Die Ameisen im Algorithmus werden mit zusätzlichen Verhaltensweisen versehen, erhalten unter Umständen ein Gedächtnis und leben in diskreten Zeitintervallen. In der Natur gibt es keine kontrollierende Instanz, die einen Überblick über das komplette Geschehen hat, die komplette Struktur ist selbstorganisiert. Eine Ameise z.b. kann nicht entscheiden, ob ihr Weg sinnvoll im Vergleich zu anderen ist. Bei Algorithmen hingegen können auch globale Informationen über den Systemzustand ermittelt und verarbeitet werden. Diese können dann in das weitere Vorgehen einfließen. 3 Allgemeines Konzept für ACO Algorithmen 3.1 Allgemeine Idee Bei ACO Algorithmen wird das Problem in einen Graphen überführt. Jede mögliche Lösung muß durch einen Weg im Graphen repräsentiert sein. Die Kosten einer jeweiligen Lösung ergeben sich durch die Kosten der Kanten des Weges im Graphen. Das Ziel ist es nun, einen Weg minimaler Kosten durch den Graph zu finden. Die Strategie ist hier dem Vorbild aus der Natur ähnlich. Analog zu den Pheromonen in der Natur werden künstliche Pheromon-Verteilungen auf den Kanten des Graphen verwaltet. Die künstlichen Ameisen bewegen sich ähnlich ihren natürlichen Verwandten zufällig, aber durch die Pheromonkonzentration 2
3 beeinflußt, durch den Graph. Der Ablauf des Algorithmus verläuft oft zyklisch. Jede der Ameisen läuft pro Zyklus auf einem Pfad durch den Graph. Danach werden die Pheromonkonzentrationen entsprechend der Pfade verändert, die von Ameisen gewählt wurden. Hierbei gibt es verschiedene Ansätze, bei denen alle gewählten Pfade, eine Teilmenge oder nur der erfolgreichste Pfad der gesamten Ameisen in die Pheromonverteilung einfließen [Ant System] [9]. Positives Feedback spielt demnach eine entscheidende Rolle. Denn Kanten gewählter Pfade werden durch erhöhte Pheromonkonzentration noch attraktiver. Somit können die Konzentrationen auf vielversprechenden Pfaden im Graphen erhöht werden, und die weitere Suche der Ameisen wird sich mit höherer Wahrscheinlichkeit im Bereich dieser Lösungen konzentrieren. Die Technik des positiven Feedbacks allein birgt jedoch das Risiko, das der Algorithmus frühzeitig konvergiert, und bei einer nicht optimalen Lösung stagniert. Um diesem Effekt entgegenzuwirken, ist auch negatives Feedback Teil der ACO Algorithmen. Die Verflüchtigung von Pheromon (Evaporation), bei dem nach jedem Zyklus die Pheromonkonzentration der Kanten reduziert wird, soll verhindern, dass gute, aber nicht sehr gute Lösungen durch Reinforcement eine weitere Suche behindern. Weiterhin begrenzt sie das sonst nach oben offene Ansteigen der Konzentration. Die Stärke der Evaporation darf weder zu stark noch zu schwach sein. Ist sie zu stark, wird der Effekt der kollektiven Suche zerstört. Informationen über bereits gefundene gute Teillösungen, die in der Pheromonverteilung vorhanden sind, werden zerstört. Ist sie nicht stark genug, erfüllt sie ihren Zweck der Verhinderung von nicht ausreichend guten Lösungen nicht mehr. 3.2 Struktur eines ACO Algorithmus für die Optimierung Für ACO Algorithmen läßt sich eine Struktur beschreiben, der auf passende kombinatorische Optimierungprobleme angewandt werden kann. [1][Seite 67] Als Voraussetzung zur Anwendung eines ACO Algorithmus müssen folgende Elemente definierbar sein: Eine Problemrepräsentation, die es den Ameisen ermöglicht, Lösungen zu konstruieren bzw. zu modifizieren. Hierbei werden zwei Informationen genutzt. Zum einen die Pheromonverteilung durch eine probabilistische Übergangsfunktion, also Informationen über die bereits durchgeführten Suchen, und desweiteren eine lokale Heuristik, die statisch über die Attrakivität der Kanten Auskunft gibt. Eine Heuristik, mit der eine Attraktivität η der Kanten im Graph ermittelt werden kann. Z.B. durch die Entfernung zwischen Städten im Beispiel Ant System [Ant System], siehe weiter unten. Eventuell eine Methode, die sicher stellt, dass keine Randbedingungen verletzt werden, so dass nur passende Lösungen konstruiert werden. Eine Pheromon-Update-Regel, die beschreibt, wie die Pheromonverteilung τ auf den Kanten des Graphen verändert wird. 3
4 In der Initialisierungsphase des Algorithmus wird zunächst die Pheromonverteilung τ initialisiert. Weiterhin werden die Ameisen plaziert. Nun durchläuft der Algorithmus t max Iterationen. Jede Iteration besteht aus zwei Hauptprozeduren. Zum einen der Konstruktion von Lösungen durch die Ameisen. Hierbei wird für jede einzelne Ameise eine Lösung ermittelt unter Anwendung einer probabilistischen Übergangsfunktion p. Diese ermittelt in Abhängigkeit von der Position der Ameise, der Pheromonverteilung, der lokalen Heuristik und unter Umständen von Randbedingungen den nächsten Knoten, zu dem sich die Ameise bewegt. Üblicherweise wirkt sich eine höhere Pheromonverteilung auf einer Kante durch eine höhere Wahrscheinlichkeit der Ameise aus, diese zu wählen. Eine Ameise bewegt sich von einem Startknoten so lange durch den Graph, bis sie eine Lösung konstruiert hat. Durch Beachten von Randbedingungen in der Übergangsfunktion p ist es möglich, nur gültige Lösungen zu erstellen. Dies ist jedoch nicht zwingend erforderlich. Sind die Lösungen ermittelt, erfolgt der zweite Teil. Die Güte der Lösungen wird bestimmt, und die Pheromonverteilung entsprechend angepaßt. Die jeweils beste Lösung wird gespeichert. Nach t max Iterationen wird die beste Lösung ausgegeben. Die Pheromonverteilung des Graphen stellt das Gedächtnis über bisherige Ergebnisse dar. Sie wird ständig angepaßt und gibt Aufschluß darüber, in welchen Regionen des Lösungsraumes sich gute Lösungen befinden. Die beste gefundene Lösung läßt sich häufig nicht oder nicht direkt aus der Pheromonverteilung ablesen. 3.3 High-Level Beschreibung eines ACO Algorithmus Initialisiere Pheromonverteilung τ Platzierung der Ameisen FOR t = 1 TO t max DO END FOR Lasse Ameisen Lösungen konstruieren Dabei bewegen sie sich entsprechend der Übergangsfunktion p Berechne Kosten der Lösungen IF verbesserte Lösung gefunden THEN Update beste Lösung Aktualisieren der Pheromonverteilung durch Anwendung der Regel Gib die beste Lösung aus 4
5 3.4 Parameter Einige wichtige Parameter, die das Verhalten von ACO-Algorithmen beeinflussen, sind unter anderem die Anzahl der Ameisen, Parameter zur Pheromonverteilungsänderung, Gewichtungen zwischen lokaler Heuristik und Beachtung der Pheromonverteilung in der Übergangsfunktion der Ameisen. Diese Parameter sind oft Problem-abhängig und müssen durch Probieren ermittelt werden. 4 Vor- und Nachteile 4.1 Vorteile Effektive Suche, da Teilergebnisse genutzt werden, aber trotzdem ein großer Suchraum abgedeckt wird. Die Algorithmen sind nicht rein Zufallsgesteuert. Sie sind in der Lage, zusätzliche allgemeine Informationen in Form lokaler Heuristiken aufzunehmen. Eine gewisse Anpassungsfähigkeit auch bei dynamischen Problemen ist gegeben. Allerdings können bereits existierende Pheromonverteilungen zu starkt sein, so daß Veränderungen nicht attraktiv genug sind, um sich durchzusetzen. 4.2 Nachteile ACO-Algorithmen sind auf spezielle Problemgruppen beschränkt. Die Probleme müssen als Graphen darstellbar sein, auf denen Lösungen konstruierbar sind. Viele Ergebnisse sind empirisch, ohne gesicherte theoretische Grundlage, zum Beispiel bezüglich Konvergenz gegen gute Lösungen. Es gibt allerdings Bestrebungen in diese Richtung, z.b. [4] 5 Anwendungsbeispiele 5.1 ANT-TSP Der historisch erste ACO Algorithmus wurde 1991 von Marco Dorigo, Vittorio Maniezzo und Alberto Colorni vorgestellt [Ant System]. Er suchte Lösungen für das Traveling Salesman Problem. Der vorgestellte Algorithmus wird in der Literatur oft als Ant-System bezeichnet, bzw. in Kombination mit dem TSP als AS-TSP. Dieser Algorithmus wurde später noch verbessert, aber als erstes Anwendungsbeispiel scheint er gut geeignet, da das TSP-Problem gut bekannt ist, und die Problemstellung und Lösungsansatz nicht zu weit von der Analogie zur Natur entfernt sind. 5
6 Das TSP-Problem kann wie folgt beschrieben werden: Gegeben sind n Städte, und gesucht ist eine Tour minimaler Länge, die alle Städte genau einmal besucht. Sei nun d ij die Distanz zwischen den Städten i und j. Eine Instanz des TSP-Problems kann als gewichteter Graph G(V, E) beschrieben werden, wobei die Knoten V die Städte darstellen, und die Kanten E zwischen den Städten entsprechend der Distanz gewichtet sind. Dieser Graph bildet die Grundlage, auf der sich die Ameisen bewegen werden. Die Ameisen im Algorithmus sind nun simple Agenten, die sich durch den Graph bewegen, und dabei bestimmten Verhaltensmustern folgen: Sie bewegen sich zufällig, beginnend in ihrer Startstadt, von einer Stadt i in die nächste Stadt j, bis alle Städte besucht sind. Welche Stadt sie jeweils wählen, ist durch die Übergangswahrscheinlichkeit p ij (t) gegeben, die für die jeweilige Stadt ermittelt wird. Sie besuchen keine Stadt doppelt. Hierzu wird eine Tabuliste geführt. Der von ihnen gewählte Pfad wird mit entsprechenden Mengen Pheromon markiert. Sichtbarkeit: Die Sichtbarkeit (visibility) η ij ist definiert als 1 d ij und somit ein Maß für die Nähe der Städte. Sie ermöglicht das Einfließen von allgemeinen lokalen Information, unabhängig von der Pheromonverteilung. In diesem Algorithmus stellt die Sichtbarkeit eine einfache Greedy-Heuristik dar. Tabuliste: In der Tabuliste tabu k werden alle Städte aufgeführt, die von der Ameise k einschließlich ihrer Startstadt bereits besucht wurden. Durch die Tabuliste wird ausgeschlossen, dass die Ameise auf Grund der zufallsbeeinflußten Bewegung Städte doppelt besucht, und somit ungültige Wege produziert. Nach der Bewegung zu einer neuen Stadt wird die Liste aktualisiert. Die für eine Ameise noch möglichen Wahlmöglichkeiten allowed ergeben sich aus allen Städten abzüglich tabu k. Pheromonverteilung: Die Pheromonverteilung τ ij (t) gibt die Konzentration von Pheromon zum Zeitpunkt t auf dem Weg zwischen den Städten i und j an. Die Pheromonverteilung wird beeinflußt von der bisherigen Wegewahl der Ameisen, und sie beeinflußt die zukünftige Wahl der Wege. Beim Starten des Algorithmus wird sie mit niedrigen gleichen Werten initialisiert. Es gibt verschiedene Regeln, nach denen die Pheromonverteilung geändert werden kann. Sie unterliegt ferner einem zeitlichen Verfall, der Evaporation. Evaporation: Die Evaporation beschreibt die Verflüchtigung von Pheromon. Sie verhindert ein unbegrenztes Wachstum auf Kanten im Pfad und unterstützt die Exploration von anderen Lösungen. Übergangswahrscheinlichkeit: Die Übergangswahrscheinlichkeit p ij (t) beschreibt die Wahrscheinlichkeit, mit der sich eine Ameise zum Zeitpunkt t, die sich in der Stadt i befindet, zur Stadt j bewegt. Dies hängt von der Pheromomverteilung τ, der Sichtbarkeit η und ihren Wahlmöglichkeiten allowed ab. 6
7 p ij (t) = { [τ ij(t)] α [η ij] β j allowed [τij(t)]α [η ij] β wenn j allowed 0 sonst Die Parameter α und β erlauben nun eine Gewichtung zwischen den durch die Pheromonverteilung bekannten Informationen über vorherige Zyklen und den lokalen Informationen, hier der Sichtbarkeit, wie sie eine Greedy Heuristik benutzen würde. Mit α = 0 und β = 1 erhält man einen reinen Greedy- Algorithmus, mit α = 1 und β = 0 einen rein zufällig gesteuerten. Pheromon trail update rule τ ij (t) beschreibt die Pheromonintensität zum Zeitpunkt t auf der Kante (i, j). Nach jeder Iteration des Algorithmus wird die Pheromonintensität wie folgt verändert: τ ij (t + 1) = ρ (τ ij (t)) + τ ij (t, t + 1) ρ ist hierbei ein Koeffizient, der die Stärke der Evaporation beschreibt. ρ sollte < 1 sein, um unbegrenzte Anhäufung von Pheromon zu verhindern. τ ij (t, t + 1) beschreibt das in dieser Iteration hinzugekommene Pheromon, welches auf den von den Ameisen gewählten Pfaden verteilt wird. Hierbei sind verschiedene Techniken möglich: Es können jeweils konstante Mengen Pheromon auf von den Ameise benutzten Kanten verteilt werden. Die Menge wird jeweils durch die Länge der Kanten geteilt. Die Menge wird durch die Länge der gesamten Tour geteilt. In dem Paper [Ant System] werden drei verschieden Algorithmenvariationen genannt. Während bei den ersten beiden Varianten die Pheromonintesität nach der Tour jeder Ameise aktualisiert wird, erfolgt dies bei der dritten Variante (Ant-cycle) erst nach dem alle Ameisen ihre Tour durchgeführt haben. Diese dritte Variante lieferte in den Tests von Dorigo die besten Ergebnisse Ant-Cycle Variante von Ant-System In der Ant-Cycle Variante von Ant-System beginnt jeder Zyklus mit dem Konstruieren einer Tour für jede Ameise k. Aus den jeweiligen Touren berechnen sich die Beiträge zur Pheromonverteilungsveränderung wie folgt: { Q τij(t, k t+1) = L k wenn Ameise k Kante (i, j) bei ihrer Tour benutzt hat 0 sonst Q ist hierbei eine Konstante und L k die Länge der Tour der k-ten Ameise. Somit erzielen kürzere Touren höhere Pheromonbeiträge. Hier fließt die globale Information der Tourlänge mit ein. Die Beiträge der einzelnen Ameisen werden summiert und es ergibt sich 7
8 m τ ij (t, t + 1) = τij(t, k t + 1) k=1 als gesamtes Pheromon, welches auf Kante (i, j) hinzugefügt wird Algorithmus Initialisierung der Pheromonverteilung τ Platzierung der Ameisen in Städten FOR t = 1 TO t max DO FOR k = 1 TO m DO END FOR Konstruktion einer Tour für Ameise k Berechnung der Tourkosten IF verbesserte Lösung gefunden THEN Update beste Lösung Ermittlung von τ k (t, t + 1) Aktualisierung der Pheromonverteilung τ END FOR Ausgeben der besten Lösung Laufzeit Die Laufzeit läßt sich für n Städte, m Ameisen und z Zyklen als O(z n 2 m) bestimmen. Dorigo, Maniezzo und Colorni stellten für die Ant-Cycle Variante von Ant-System einen linearen Zusammenhang zwischen der Anzahl der Städte und der optimalen Anzahl von Ameisen fest. Somit ergibt sich O(z n 3 ) Verbesserungen Mit dem ACS, Ant Colony System, wurde dieser Ansatz verbessert. Zum Tragen kommen hierbei eine andere Übergangsregel, eine andere Pheromon trail update rule, ein lokales Update von Pheromon um die Exploration zu fördern, sowie eine Kandidatenliste mit nahegelegenen Städten, die bevorzugt werden. 8
9 5.2 AntNet ACO Agorithmen sind nicht nur auf statische Probleme beschränkt, sondern durchaus in der Lage, passende dynamische Probleme zu optimieren. Für Routing in Netzwerken existiert unter anderem ein Ansatz von Di Caro und Dorigo [10]. Hier gilt es, in einem Netzwerk von N Knoten, die untereinander nicht alle direkt verbunden sind, Pakete jeweils von ihren Quellknoten q zu ihren Zielknoten z zu beförden. Für jeden Knoten wird eine Tabelle geführt, in der festgehalten wird, mit welcher Wahrscheinlichkeit Knoten zu bestimmten Nachbarknoten weitergeleitet werden, je nach dem, welchen Zielknoten sie besitzten. Ein Paket wird also an einem Knoten nicht immer zum selben Nachbarknoten geleitet, auch wenn es dasselbe Ziel hat. Die Wahrscheinlichkeiten der Weiterleitung zu den Nachbarknoten können nun optimiert werden, um gute Ergebnisse zu erzielen. Entscheidend ist, dass die Wahrscheinlichkeiten an temporäre oder lokale Veränderungen des Verkehrs im Netzwerk angepaßt werden können. AntNet setzt dazu Ameisen ein, die sich neben den Paketen im Netzwerk von Quell- zu Zielknoten bewegen. Sie werden zufällig erzeugt und an Startknoten ins Netz gesetzt. Nun bewegen sie sich wie Pakete, bis sie ihr Ziel erreicht haben. Dies sind die forward -Ameisen. Sie protokollieren ihren Weg und die Zeit, die sie gebraucht haben. Sollten sie einen Kreis gelaufen haben, da sie durch die zufallsbeeinflußte Bewegung einen Knoten doppelt besuchen, wird die Information der Kreistour entfernt. Am Zielknoten erzeugen sie eine backward -Ameise, die den selben Weg zurück durchläuft, und werden aus dem Netzwerk entfernt. Die backward -Ameise paßt auf ihrem Weg die Wahrscheinlichkeiten in den Tabellen der Knoten an, die von der forward -Ameise durchlaufen wurden. Durch den kontinuierlichen Einsatz von Ameisen werden auch Veränderungen im Netzwerk implizit erkannt, und entsprechende Anpassungen werden vorgenommen. 5.3 Weitere Anwendungsbeispiele ACO Algorithmen existieren für einige weitere Probleme. Es gibt unter anderem Ansätze für: Quadratic Assignment [7] Sequential Ordering [6] Vehicle Routing [8] Färben von Graphen [5] 2D HP Protein Folding [3] 9
10 6 Varianten 6.1 Anti-Pheromone Weitere Ideen im Bereich ACO umfassen unter anderem einen neuen Pheromon- Typ, Anti-Pheromon, wie ihn James Montgomery und Marcus Randall [2] beschreiben. Die Idee hierbei ist, dass die Ameisen durch die Anhäufung von Pheromon gute Teillöstungen verstärken, aber die Informationen über schlechte Lösungen ebenso verwendet werden könnten. So sollen Explorationen in Bereichen schlechterer Teillösungen vermindert werden, so dass sich die Suche noch mehr auf bessere Regionen konzentriert, und geringere Anteile der Ameisen die Suche in schlechteren Regionen vorantreibt. Sie schlagen drei Varianten vor: Substractive Anti-pheromone: Hier wird Pheromon auf den Pfaden der schlechtesten Tour einer Ameise abgezogen, um sie in folgenden Zyklen weniger attraktiv zu machen. Preferential Anti-pheromone: Hier werden zwei Pheromon-Typen verwaltet, einer für gute Lösungen und einer für schlechte Lösungen. Die Idee ist, dass ein Teil der Ameisen sich mehr am ersten Pheromon orientiert, und so im Bereich der zur Zeit besten Lösung sucht, und ein anderer Teil durch den zweiten Typ in schlechteren Bereichen exploriert. Explorer Ants: Explorer Ants sind eine kleine Teilmenge der Ameisen, die von Kanten mit wenig Pheromon angezogen werden, sich also konträr zu den normalen Ameisen verhalten. Sie sollen eine Suche fern den Hauptpfaden sicherstellen. Montgomery und Randall testeten mit verschiedenen Problemen im Vergleich mit ACS. Es wurden keine signifikanten Verbesserungen nachgeweisen. 6.2 Multi-Colony Ein weiterer Ansatz sind Multi-Colony Techniken. Hierbei werden verschiedene Kolonien seperat berechnet, die unter Umständen auch von unterschiedlichen Faktoren beeinflußt werden. In gewissen Abständen werden Pheromonkonzentrationen der einzelnen Kolonien ausgetauscht. Literatur [Ant System] Marco Dorigo, Vittorio Maniezzo und Alberto Colorni. Positive Feedback as a Search Strategy. [1] Eric Bonabeau, Marco Dorigo und Guy Theraulaz. From Natural to Artificial Swarm Intelligence. New York, 1999, Oxford University Press. [2] James Montgomery und Marcus Randall. Anti-pheromone as a Tool for Better Exploration of Search Space. Ant Algorithms, KNCS 2463, Seiten Berlin, 2002, Springer Verlag. 10
11 [3] Alena Shmygelska, Rosalia Aguirre-Hernandez und Holger Hoos. An Ant Colony Optimization Algorithm for the 2D HP Protein Folding Problem. Ant Algorithms, KNCS 2463, Seiten Berlin, 2002, Springer Verlag. [4] Mauro Birattari, Gianni Di Caro und Marco Dorigo. Toward the Formal Foundation of Ant Programming. Ant Algorithms, KNCS 2463, Seiten Berlin, 2002, Springer Verlag. [5] Costa D. and A. Hertz (1997). Ants Can Colour Graphs. Journal of the Operational Research Society, 48, [6] Gambardella L. M. and M. Dorigo (1997). HAS-SOP: An Hybrid Ant System for the Sequential Ordering Problem. Tech. Rep. No. IDSIA 97-11, IDSIA, Lugano, Switzerland. [7] Maniezzo V., A. Colorni and M. Dorigo (1994). The Ant System Applied to the Quadratic Assignment Problem. Tech. Rep. IRIDIA/94-28, Universit Libre de Bruxelles, Belgium. [8] Bullnheimer B. (1999). Ant Colony Optimization in Vehicle Routing. Doctoral thesis, University of Vienna, January [9] Dorigo M. und L.M. Gambardella (1997). Ant Colonies for the Traveling Salesman Problem. BioSystems, 43: Also Tecnical Report TR/IRIDIA/1996-3, IRIDIA, Universit Libre de Bruxelles [10] Di Caro G. und M. Dorigo (1997). AntNet: A Mobile Agents Approach to Adaptive Routing. Tech. Rep. IRIDIA/97-12, Universit Libre de Bruxelles, Belgium. [11] Homepage für ACO: mdorigo/aco/aco.html Glossar ACO - Ant Colony Optimization, Oberbegriff für Ameisen inspirierte Herangehensweisen, Optimierungsprobleme zu behandeln. ACS - Ant Colony System, verbesserte Version von AS, Algorithmus für das TSP Problem. AS - Ant System, erster ACO Algorithmus, Algorithmus für das TSP Problem. Evaporation - Verdunstung oder zeitlicher Verfall von (Pheromon-) Konzentrationen. Pheromon - Duftsubstanz, die von Ameisen verwendet wird, um Pfade zu markieren. Findet als Analogon in ACO Anwendung. Manchmal auch als trail oder trail-substance bezeichnet. 11
Ant Colony Optimization (ACO)
Ant Colony Optimization (ACO) Daniel Blum 24.4.2003 Projektgruppe 431 Metaheuristiken Lehrstuhl 11, Fachbereich Informatik, Universität Dortmund 1 Übersicht Vorbild Natur Übertragung der Ideen Beispiele
Betriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Joachim Schauer Betriebliche Optimierung 1 / 31 1 Metaheuristische Verfahren 2 Joachim Schauer Betriebliche Optimierung 2 / 31 Einleitendes Metaheuristische Verfahren
Dynamisches Routing in der Logistik
Informatik, Angewandte Informatik, Technische Informationssysteme Dynamisches Routing in der Logistik Tobias Dimmel Dresden, 24.05.2012 Agenda 1. Begriffe 2. Traveling Salesman Problem 3. Ameisenalgorithmus
Ameisenkolonien (1) Idee: Reale Ameisen:
Ameisenkolonien (1) Idee: Von M. Dorigo, 1992 Verhalten von Ameisen bei der Futtersuche Ameisen hinterlassen Pheromon-Spur (Chem. Substanz) Pfade mit hoher Pheromon-Konzentration werden bevorzugt Indirekte
11. Übung zu Algorithmen I 6. Juli 2016
11. Übung zu Algorithmen I 6. Juli 2016 Lisa Kohl [email protected] mit Folien von Lukas Barth Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP ein Algorithmus
Ameisenalgorithmen Dynamische Fahrzeugnavigation
Ameisenalgorithmen Dynamische Fahrzeugnavigation Seminar SS 2005 Künstliche Intelligenz Thomas Walther Agenda 1. Einleitung 2. Reale Ameisen und künstliche Ameisen 3. Ant Colonisation Optimisation 4. Ant
Schwarmintelligenz. Lydia Pintscher Seminar Organic Computing Universität Karlsruhe
Schwarmintelligenz Lydia Pintscher Seminar Organic Computing Universität Karlsruhe Gliederung 1. Grundlagen 2. Schwarmintelligenz in der Natur 3. Schwarmintelligenz beim Menschen 4. Schwarmintelligenz
Kapitel 4: Netzplantechnik Gliederung der Vorlesung
Gliederung der Vorlesung 1. Grundbegriffe 2. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege 4. Netzplantechnik 5. Minimal spannende Bäume 6. Traveling Salesman Problem 7. Flüsse in Netzwerken
Flüsse, Schnitte, bipartite Graphen
Flüsse, Schnitte, bipartite Graphen Vlad Popa 08.06.2010 Inhaltsverzeihnis 1. Flussnetzwerke und Flüsse 1.1 Ford- Fulkerson 1.2 Edmond Karp 1.3 Dinic 2. Schnitte 3. Maximaler Fluss bei minimalen Kosten
Algorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS Oktober 2016
Technische Universität Wien Institut für Computergraphik und Algorithmen Algorithms and Complexity Group 186.815 Algorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS 2016 5. Oktober 2016 Machen Sie
Routing A lgorithmen Algorithmen Begriffe, Definitionen Wegewahl Verkehrslenkung
Begriffe, Definitionen Routing (aus der Informatik) Wegewahl oder Verkehrslenkung bezeichnet in der Telekommunikation das Festlegen von Wegen für Nachrichtenströme bei der Nachrichtenübermittlung über
Ameisenkolonien (2) Ameisenkolonien (1)
Ameisenolonien () Idee: Von M. Dorigo, 992 Verhalten von Ameisen bei der Futtersuche Ameisen hinterlassen Pheromon-Spur (Chem. Substanz) Pfade mit hoher Pheromon-Konzentration werden bevorzugt Indirete
Aufgaben zur Klausurvorbereitung
Vorlesung Graphen und Optimierung Sommersemester 2013/14 Prof. S. Lange Aufgaben zur Klausurvorbereitung Hier finden Sie eine Reihe von Übungsaufgaben, die wir an den beiden Vorlesungsterminen am 29.01.2014
Algorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
Das Traveling Salesman Problem und das Assignment Problem zweiter Ordnung. Gerold Jäger
Das Traveling Salesman Problem und das Assignment Problem zweiter Ordnung Gerold Jäger Martin-Luther-Universität Halle-Wittenberg Zusammenarbeit mit Frank Fischer, Anja Lau, Paul Molitor DFG-Projekt: Toleranzbasierte
Proseminar Online Algorithmen, Prof. Dr. Rolf Klein
Proseminar Online Algorithmen, Prof. Dr. Rolf Klein Vortrag von Michael Daumen am 13.12.2000 Thema : Minimum Spanning Tree und 2-Approximation der TSP-Tour Inhalt des Vortrags : 1. genaue Vorstellung des
1 Heuristiken für das Traveling Salesman Problem
Praktikum Diskrete Optimierung (Teil 5) 15.06.2011 1 1 Heuristiken für das Traveling Salesman Problem Wir betrachten das folgende Problem. Wir wollen einen gegebenen Graphen möglichst schnell so durchlaufen,
Theoretische Informatik 1
Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 02.07.2015 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP
2. Das single-source-shortest-path-problem
. Das single-source-shortest-path-problem Zunächst nehmen wir an, dass d 0 ist. Alle kürzesten Pfade von a nach b sind o.b.d.a. einfache Pfade.. Dijkstra s Algorithmus Gegeben: G = (V, A), (A = V V ),
Theoretische Informatik 1
Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 10.06.2016 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP
KAPITEL 6. Nichtlineare Ausgleichsrechnung
KAPITEL 6 Nichtlineare Ausgleichsrechnung Beispiel 61 Gedämpfte Schwingung: u + b m u + D m u = 0, Lösungen haben die Form: u(t) = u 0 e δt sin(ω d t + ϕ 0 ) Modell einer gedämpften Schwingung y(t; x 1,
Graphentheorie. Kürzeste Wege. Kürzeste Wege. Kürzeste Wege. Rainer Schrader. 25. Oktober 2007
Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 25. Oktober 2007 1 / 20 2 / 20 Wir werden Optimierungsprobleme vom folgenden Typ betrachten: gegeben eine Menge X und eine Funktion
T (n) = max. g(x)=n t(n) S(n) = max. g(x)=n s(n)
Beim Logarithmischen Kostenmaß wird, im Gegensatz zum EKM, die Stelligkeit der Werte berücksichtigt und mit in die Laufzeit eingerechnet. Beispiel: R1 := R2 (R3), wobei R2 den Wert 5, R3 den Wert 10 und
Hybrid Optimization Methods for Warehouse Logistics and the Reconstruction of Destroyed Paper Documents
Hybrid Optimization Methods for Warehouse Logistics and the Reconstruction of Destroyed Paper Documents Betreut von: ao.univ.-prof. Dr. Günther R. Raidl ao.univ.-prof. Dr. Ulrich Pferschy 25. Jänner 2010
Das Problem des Handlungsreisenden
Seite 1 Das Problem des Handlungsreisenden Abbildung 1: Alle möglichen Rundreisen für 4 Städte Das TSP-Problem tritt in der Praxis in vielen Anwendungen als Teilproblem auf. Hierzu gehören z.b. Optimierungsprobleme
Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
Routing Algorithmen. Begriffe, Definitionen
Begriffe, Definitionen Routing (aus der Informatik) Wegewahl oder Verkehrslenkung bezeichnet in der Telekommunikation das Festlegen von Wegen für Nachrichtenströme bei der Nachrichtenübermittlung über
Datenstrukturen und Algorithmen (SS 2013)
Datenstrukturen und Algorithmen (SS 2013) Übungsblatt 10 Abgabe: Montag, 08.07.2013, 14:00 Uhr Die Übungen sollen in Gruppen von zwei bis drei Personen bearbeitet werden. Schreiben Sie die Namen jedes
Heuristiken und exakte Algorithmen für das verallgemeinerte Traveling Salesman Problem. Gerold Jäger
Heuristiken und exakte Algorithmen für das verallgemeinerte Traveling Salesman Problem Gerold Jäger Martin-Luther-Universität Halle-Wittenberg (in Zusammenarbeit mit Paul Molitor) DFG-Projekt: Toleranzbasierte
Betriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 22 1 Das Travelling Salesperson Problem
Graphentheorie. Eulersche Graphen. Eulersche Graphen. Eulersche Graphen. Rainer Schrader. 14. November Gliederung.
Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 14. November 2007 1 / 22 2 / 22 Gliederung eulersche und semi-eulersche Graphen Charakterisierung eulerscher Graphen Berechnung eines
Algo&Komp. - Wichtige Begriffe Mattia Bergomi Woche 6 7
1 Kürzeste Pfade Woche 6 7 Hier arbeiten wir mit gewichteten Graphen, d.h. Graphen, deren Kanten mit einer Zahl gewichtet werden. Wir bezeichnen die Gewichtsfunktion mit l : E R. Wir wollen einen kürzesten
Einführung in Heuristische Suche
Einführung in Heuristische Suche Beispiele 2 Überblick Intelligente Suche Rundenbasierte Spiele 3 Grundlagen Es muss ein Rätsel / Puzzle / Problem gelöst werden Wie kann ein Computer diese Aufgabe lösen?
Betriebswirtschaftliche Optimierung
Institut für Statistik und OR Uni Graz 1 Das Travelling Salesperson Problem 2 Das Travelling Salesperson Problem Zentrales Problem der Routenplanung Unzählige wissenschaftliche Artikel theoretischer sowie
8.4 Digraphen mit negativen Kantengewichten Grundsätzliches Betrachte Startknoten s und einen Kreis C mit Gesamtlänge < 0.
8.4 Digraphen mit negativen Kantengewichten 8.4.1 Grundsätzliches Betrachte Startknoten s und einen Kreis C mit Gesamtlänge < 0. k 4 5 1 s 1 3 2 C k 0 k 3 1 1 1 k 1 k 2 v Sollte ein Pfad von s nach C und
Algorithmen & Komplexität
Algorithmen & Komplexität Angelika Steger Institut für Theoretische Informatik [email protected] Kürzeste Pfade Problem Gegeben Netzwerk: Graph G = (V, E), Gewichtsfunktion w: E N Zwei Knoten: s, t Kantenzug/Weg
Lernmodul 7 Algorithmus von Dijkstra
Folie 1 von 30 Lernmodul 7 Algorithmus von Dijkstra Quelle: http://www.map24.de Folie 2 von 30 Algorithmus von Dijkstra Übersicht Kürzester Weg von A nach B in einem Graphen Problemstellung: Suche einer
Die Theorie der Toleranzen und deren Anwendung auf das Traveling Salesman Problem
Die Theorie der Toleranzen und deren Anwendung auf das Traveling Salesman Problem Gerold Jäger 4. Februar 2010 Gerold Jäger Theorie der Toleranzen 4. Februar 2010 1 / 35 Überblick 1 Theorie der Toleranzen
Optimierung. Algorithmik III Algorithmen und Modelle für kontinuierliche Datenstrukturen. Vorgehen: Dynamische Programmierung
Optimierung Algorithmik III Algorithmen und Modelle für kontinuierliche Datenstrukturen Optimierung I Dynamisches Programmieren Günther Greiner Lehrstuhl für Graphische Datenverarbeitung Sommersemester
Seminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP
Seminararbeit: K-Opt und die Lin-Kernighan-Heuristik für das allgemeine TSP Tobias Boelter 28. Mai 2013 bei Prof. Dr. Rainer Schrader, Universität zu Köln Inhaltsverzeichnis 1 Einleitung 2 2 Lokale Suche
11 Dynamisches Programmieren
Algorithmen und Datenstrukturen 279 11 Dynamisches Programmieren Gegenstand dieses und des nächsten Kapitels sind noch einmal Algorithmen. Zunächst beschreiben wir das sog. dynamische Programmieren. kein
Algorithmen und Datenstrukturen 2
Algorithmen und Datenstrukturen Lerneinheit : Kürzeste Pfade in Graphen Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 016.6.01 Einleitung Diese Lerneinheit beschäftigt
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 7, 30.11.2011 Henning Meyerhenke
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 7, 30.11.2011 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum
Algorithmische Graphentheorie
Algorithmische Graphentheorie Vorlesung 7 und 8: Euler- und Hamilton-Graphen Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca [email protected] 17. April 2018 1/96 WIEDERHOLUNG Eulersche
Ameisenalgorithmen in der Verkehrssimulation
Ameisenalgorithmen in der Verkehrssimulation Johannes Renfordt johannes.renfordt@[alumni.]uni-ulm.de Institut für Stochastik, Universität Ulm Johannes Renfordt, 26. Juni 2007: Präsentation Diplomarbeit,
Dynamische Programmierung. Problemlösungsstrategie der Informatik
als Problemlösungsstrategie der Informatik und ihre Anwedung in der Diskreten Mathematik und Graphentheorie Fabian Cordt Enisa Metovic Wissenschaftliche Arbeiten und Präsentationen, WS 2010/2011 Gliederung
Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh ([email protected]) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
Paper Computer Science Experiment. Computation (NP-Vollständigkeit) Traveling Salesman
Paper Computer Science Experiment Great Principles of Computing Computation (NP-Vollständigkeit) Thema Traveling Salesman Unterrichtsform Lernen am Modell Voraussetzung Wahrscheinlich kennen viele Schüler/innen
Projekt Systementwicklung
Projekt Systementwicklung Effiziente Codierung: Laufzeitoptimierung Prof. Dr. Nikolaus Wulff Effiziente Codierung Der Wunsch effizienten Code zu schreiben entstammt mehreren Quellen: Zielplattformen mit
5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus
5. Lokale Suchverfahren Lokale Suche 5. Lokale Suchverfahren Beispiel TSP: k-change Nachbarschaft Optimale Lösungen können oft nicht effizient ermittelt werden. Heuristiken liefern zwar zulässige Lösungen,
Datenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Rot-schwarz Bäume Eigenschaften Rotationen Einfügen (Löschen) 2 Einführung Binäre Suchbäume Höhe h O(h) für Operationen
Euler und Hamiltonkreise
Euler und Hamiltonkreise 1. Königsberger Brücken 2. Eulerwege und Kreise Definition, Algorithmus mit Tiefensuche 3. Hamiltonwege und Kreise Definition 4. Problem des Handlungsreisenden Enumeration und
Flüsse in Netzwerken. Seminar über Algorithmen SoSe 2005. Mike Rohland & Julia Schenk
Flüsse in Netzwerken Seminar über Algorithmen SoSe 2005 Mike Rohland & Julia Schenk Inhalt Einführung Definition Maximale Flüsse Schnitte Restgraphen Zunehmende Wege Max-Fluss Min-Schnitt Theorem Ford-Fulkerson
Rundreiseproblem und Stabilität von Approximationsalg.
Das Rundreiseproblem und Stabilität von Approximationsalgorithmen Friedrich Alexander Universität Erlangen-Nürnberg Seminar Perlen der theoretischen Informatik, 2008-01-19 http://verplant.org/uni/perlen/
Algorithmen II Vorlesung am 15.11.2012
Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales
Randomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick
Teil 2: Graphenalgorithmen
Teil : Graphenalgorithmen Anwendungen Definitionen Datenstrukturen für Graphen Elementare Algorithmen Topologisches Sortieren Kürzeste Wege Problemstellung Ungewichtete Graphen Distanzgraphen Gewichtete
6.3 Exakte Differentialgleichungen
6.3. EXAKTE DIFFERENTIALGLEICHUNGEN 23 6.3 Exakte Differentialgleichungen Andere Bezeichnungen: Pfaffsche Dgl., Dgl. für Kurvenscharen, Nullinien Pfaffscher Formen. 1. Definitionen Pfaffsche Dgl, Dgl.
Kombinatorische Optimierung Vorlesung für den Bereich Diplom/Master Informatik
Kombinatorische Optimierung Vorlesung für den Bereich Diplom/Master Informatik Dozent: Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK
Kurzzusammenstellung der in der Vorlesung behandelten impliziten Gleichungen und deren Ableitungen
Kurzzusammenstellung der in der Vorlesung behandelten impliziten Gleichungen und deren Ableitungen Einleitung: Funktion mit einer Veränderlichen Als Einleitung haben wir folgende Funktion besprochen: y
Algorithmen und Datenstrukturen 2
Algorithmen und Datenstrukturen 2 Lerneinheit 3: Greedy Algorithmen Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2016 10.5.2016 Einleitung Einleitung Diese Lerneinheit
Algorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 05 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute Einführung Grundlagen von Algorithmen Grundlagen
Wir sollen erarbeiten, wie man mit Hilfe der Mondentfernung die Entfernung zur Sonne bestimmen kann.
Expertengruppenarbeit Sonnenentfernung Das ist unsere Aufgabe: Wir sollen erarbeiten, wie man mit Hilfe der Mondentfernung die Entfernung zur Sonne bestimmen kann. Konkret ist Folgendes zu tun: Lesen Sie
5 Kontinuierliches Wachstum
5 Kontinuierliches Wachstum Kontinuierlich meßbare Größe Wir betrachten nun eine Größe a, die man kontinuierlich messen kann. Den Wert von a zum Zeitpunkt t schreiben wir nun als a(t). Wir können jedem
Rechnernetze Übung 10. Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Juni 2011
Rechnernetze Übung 10 rank Weinhold Professur VSR akultät für Informatik TU hemnitz Juni 2011 Das Weiterleiten (Routing) erfüllt die wichtige ufgabe, einzelne Teilstrecken des Kommunikationsnetzes so zu
Gemischt-ganzzahlige und Kombinatorische Optimierung
5. Präsenzaufgabenblatt, Sommersemester 2015 Übungstunde am 15.06.2015 Aufgabe J Betrachten Sie die LP-Relaxierung max c T x a T x b 0 x i 1 des 0/1-Knapsack-Problems mit n Gegenständen, c 0 und a > 0.
Heuristische Verfahren
Heuristische Verfahren Bei heuristischen Verfahren geht es darum in polynomieller Zeit eine Näherungslösung zu bekommen. Diese kann sehr gut oder sogar optimal sein, jedoch gibt es keine Garantie dafür.
Wissensbasierte Systeme. Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche. Heuristiken und ihre Eigenschaften
1 Michael Beetz Technische Universität München Wintersemester 2004/05 Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche 2 3 der Eigenschaften der 4 : 8-Puzzle 5 Heuristiken und ihre Eigenschaften
2 Eulersche Polyederformel und reguläre Polyeder
6 2 Eulersche Polyederformel und reguläre Polyeder 2.1 Eulersche Polyederformel Formal besteht ein Graph aus einer Knotenmenge X und einer Kantenmenge U. Jede Kante u U ist eine zweielementige Teilmenge
Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 7
Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt
Datenstrukturen & Algorithmen Lösungen zu Blatt 11 FS 14
Eidgenössische Technische Hochschule Zürich Ecole polytechnique fédérale de Zurich Politecnico federale di Zurigo Federal Institute of Technology at Zurich Institut für Theoretische Informatik 14. Mai
Maximale s t-flüsse in Planaren Graphen
Maximale s t-flüsse in Planaren Graphen Vorlesung Algorithmen für planare Graphen June 1, 2015 Ignaz Rutter INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg
Anordnungstechniken für konvektionsdominante Probleme im Ê 3. Dimensionsunabhängige Verfahren. Algorithmen für planare Graphen. Numerische Beispiele
Anordnungstechniken für konvektionsdominante Probleme im Ê 3 Inhalt: Einführung Dimensionsunabhängige Verfahren Algorithmen für planare Graphen Anordnungen im Ê 3 Numerische Beispiele 2 Einführung betrachtet
Bayesianische Netzwerke - Lernen und Inferenz
Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel
Kap. 6.6: Kürzeste Wege
Kap. 6.6: Kürzeste Wege Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 1./. VO DAP SS 009./9. Juli 009 1 Nachtest für Ausnahmefälle Di 1. Juli 009, 16:00 Uhr,
1.8 Shift-And-Algorithmus
.8 Shift-And-Algorithmus nutzt durch Bitoperationen mögliche Parallelisierung Theoretischer Hintergrund: Nichtdeterministischer endlicher Automat Laufzeit: Θ(n), falls die Länge des Suchwortes nicht größer
Sokoban. Knowledge Engineering und Lernen in Spielen. Mark Sollweck Fachbereich 20 Seminar Knowledge Engineering Mark Sollweck 1
Sokoban Knowledge Engineering und Lernen in Spielen Mark Sollweck 29.04.2010 Fachbereich 20 Seminar Knowledge Engineering Mark Sollweck 1 Überblick Sokoban Spielregeln Eigenschaften Lösungsansatz IDA*
1 Einführung. 2 Grundlagen von Algorithmen. 3 Grundlagen von Datenstrukturen. 4 Grundlagen der Korrektheit von Algorithmen
Programm heute Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 0 Dr. Stefanie Demirci Computer Aided Medical Procedures Technische Universität München Einführung Grundlagen von Algorithmen Grundlagen
Fertilität und psychische Gesundheit im Alter
Fertilität und psychische Gesundheit im Alter Kai Eberhard Kruk MEA, Universität Mannheim MEA Jahreskonferenz, 30.11.2010 Mannheim Research Institute for the Economics of Aging www.mea.uni-mannheim.de
Kap. 6.6: Kürzeste Wege
0.0.00 Nachtest für Ausnahmefälle Kap..: Kürzeste Wege Professor Dr. Lehrstuhl für Algorithm Engineering, LS Fakultät für Informatik, TU Dortmund./. VO DAP SS 00./. Juli 00 Di. Juli 00, :00 Uhr, OH, R.
Traveling Salesman Problem (TSP)
Traveling Salesman Problem (TSP) Das Traveling Salesman Problem (TSP) ist ein bekanntes Optimierungsproblem. Ein Handlungsreisender soll in einer Rundreise (auch Tour genannt) n vorgegebene Städte besuchen.
3.4 Maximale Flüsse und der Algorithmus von Ford Fulkerson
3.4 Maximale Flüsse und der Algorithmus von Ford Fulkerson Definition 3.4.1 Die Aufgabe, zu jedem Netzwerk N = (s, t, V, E, c o ) mit n = V Knoten und m = E Kanten den Fluß f IR m mit maximalem Wert zu
Sicherer MAC für Nachrichten beliebiger Länge
Sicherer MAC für Nachrichten beliebiger Länge Korollar Sicherer MAC für Nachrichten beliebiger Länge Sei F eine Pseudozufallsfunktion. Dann ist Π MAC2 für Π = Π MAC sicher. Nachteile: Für m ({0, 1} n 4
Übungen zu Rechnerkommunikation
Übungen zu Rechnerkommunikation Wintersemester 00/0 Übung 6 Mykola Protsenko, Jürgen Eckert PD. Dr.-Ing. Falko Dressler Friedrich-Alexander d Universität Erlangen-Nürnberg Informatik 7 (Rechnernetze und
Kombinatorische Optimierung
Kombinatorische Optimierung Zuweisungsprobleme 2 1 3 5 4 Kombinatorische Optimierung Rucksackpackproblem 1 10 2 4 6 3 5 8 6 Aufspannende Bäume Travelling Salesman VLSI Design C. Kanzow, M. Gerdts Kombinatorische
Datenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale
Schwarmintelligenz. Julia Philipps, Marcel Boeing Künstliche Intelligenz II, C. Neuefeind Sprachliche Informationsverarbeitung, Uni Köln 2012
Schwarmintelligenz Julia Philipps, Marcel Boeing Künstliche Intelligenz II, C. Neuefeind Sprachliche Informationsverarbeitung, Uni Köln 2012 Was ist ein Schwarm? Aggregation von Individuen gleicher Art
