UNIVERSITÄT ZU KÖLN AUSGEWÄHLTE THEMEN DES OPERATIONS RESEARCH. Heuristiken. Genetischer Algorithmus Simulated annealing Ameisenkolonie Neurale Netze
|
|
- Sophie Giese
- vor 6 Jahren
- Abrufe
Transkript
1 UNIVERSITÄT ZU KÖLN AUSGEWÄHLTE THEMEN DES OPERATIONS RESEARCH Heuristiken Genetischer Algorithmus Simulated annealing Ameisenkolonie Neurale Netze Eingereicht von: Thomas Ilg
2 Genetischer Algorithmus (GA): Einführung: Der GA ist ein Verfahren, der zur Lösung von komplexen Such und Optimierungsaufgaben eingesetzt wird. Die Grundlage dieses Verfahrens beruht auf den Methoden und Erkenntnissen der biologischen Genetik, insbesondere der Evolutionstheorie von Charles Darwin (1859) und den Kreuzungs und Vererbungsgesetzen von Gregor Johann Mendel (1865). Darwins Hauptthesen besagen, dass alles Leben aus den gleichen, primitiven Arten erfolgt und durch wenige verschiedene Grundprinzipien vorangetrieben wird. Diese sind Selektion, Kreuzung bzw. Vererbung und Mutation. Dabei beschreibt die Selektion, auf die biologische Entwicklung bezogen, das Survival of the fitness, d.h. es überlebt nur derjenige, der sich an bestimmte Umweltbedingungen anpassen kann. Die Mendelschen Vererbungsgesetze besagen, dass gentische Merkmale der Eltern nicht beliebig vermischt werden können, sondern, dass jeweils bestimmte Merkmale der Eltern in ihren Kindern kombiniert werden. Die Mutation beschreibt die durch äußere Bedingungen zustande kommende Veränderung des Erbmaterials. Schöneburg stellt dar, dass die Evolution nichts anderes als ein spezielles Optimierungsverfahren (Schöneburg 1994, S.96) ist, welche man nun mittels des genetischen Algorithmus auf außerbiologische Probleme ausweitet. Geschichte: Die Fundamente des GA wurden in den 60er Jahren in den USA von John Holland gelegt und 1975 im heutigen Standardwerk Adaptation in Neural ans Artificial Systems veröffentlicht. Jedoch erst ca. 10 Jahre später setzte sich langsam diese neue Art der Problemlösung durch und mit David E. Goldbergs Buch Genetic Algorithms in Search, Optimization, and Machine Learning wurde dieses Thema einer breiten Öffentlichkeit zugänglich gemacht.. Grundbegriffe: Individuum: Gen: Allel: Im GA bezeichnet man einen möglichen Lösungskandidaten eines zu optimierenden Problems als Individuum. Dabei besteht das Individuum in der Regel aus einer Zeichenkette einer zuvor gewählten Repräsentation. Diese können je nach gewählter Codierung als binäre, ganzzahlige oder reelle Vektoren einer festgegebenen Länge n dargestellt werden. Die Individuen werden in Anlehnung an die Genetik auch als Chromosomen bezeichnet. Die einzelnen Stellen der Zeichenkette nennt man Gen. Sie enthalten die Erbinformationen eines Individuums. Bsp.: Individuum <1,1,1,1,0> in Binärdarstellung besteht aus 5 Genen Die konkrete Ausprägung eines Gens mit einem Wert bezeichnet man als Allel. In der binären Darstellungsweise können die Allele somit nur die Werte 0 und 1 annehmen. 1
3 Population: Generation: Genotyp: Phänotyp: Fitness: Die Population stellt die gesamte Menge aller potenziellen Lösungskandidaten für ein Problem dar. Dabei haben die Individuen einer Population in der Regel eine konstante, endliche Größe n. GA arbeiten stets mit Populationen und nie mit einzelnen Individuen. Mit genetischen Operatoren, wie Rekombination und Mutation wird versucht, bessere Lösungskandidaten aus dem vorhandenen Pool zu erzeugen. Die Generation beschreibt eine Population zu einem bestimmten Zeitpunkt. Dabei spiegelt jeder Iterationsschritt eine Generation wider, mit der versucht wird, die Qualität der Lösungen zu optimieren. In der Regel wird jede Generation durch eine bessere nachfolgende Generation ersetzt. Der Genotyp bezeichnet die kodierte Form eines Individuums. Der Phänotyp beschreibt die decodierte Form eines Individuums. Er stellt für die Optimierungsaufgabe den maßgeblichen Wert dar. Die Fitness gibt die Güte und Tauglichkeit eines Lösungskandidaten bzgl. des zu optimierenden Problems an. Auf diese Weise bewertet eine gewählte Fitnessfunktion die Individuen nach ihrer Tauglichkeit und ermittelt so die Elternpaare für die Vererbung. Arbeitsweise: Die Ergebnisfindung bei der Anwendung eines GA geschieht durch die Weiterentwicklung einer Anfangspopulation von Individuen über mehrere Generationen. Der Übergang einer Generation zur nächsten wird durch die genetischen Operatoren Selektion, Vererbung und Mutation durchgeführt. Dabei werden in die neue Population überwiegend die Individuen mit der besten Fitness übernommen. Auf diese Weise konvergiert der GA zu einer optimalen Lösung. Nach dem Erreichen eines Abbruchkriteriums stellt das beste Individuum der Endgeneration die Lösung des Problems dar Der Ablauf eines GAs kann durch das folgende Schema verdeutlicht werden: 2
4 1. Codierung/Repräsentationsform: Zu Beginn eines GAs muss eine geeignete genetische Repräsentationsform festgelegt werden. Im Wesentlichen umfasst diese die Definition des Genotyps und die entsprechende Zuordnung zu dem entsprechenden Phänotyp. Die Auswahl der richtigen Repräsentation stellt einen wichtigen Schritt bei der Konstruktion eines GAs dar. Dabei kann man leider kein Rezept formulieren, sondern wählt aufgrund vorhandener Erkenntnisse und Erfahrungen einen Codierungstyp aus, den ich nun nachfolgend erläutern möchte. a. Binär Codierung Die Binär Codierung ist die älteste, einfachste und auch häufigste Codierungsform. Dabei besteht der Genotyp aus einer binär wertigen Zeichenkette. Die Form weist folgende, nachteilige Charakteristiken auf: (i) Sehr große Hamming Distanz (d.h. die Anzahl der Bits, die invertiert werden müssen, um zum benachbarten Codewort zu gelangen Bsp. Repräsentation der natürlichen Zahlen 15 16: (01111) (10000) hat die Hamming Distanz 5) (ii) Unterschiedliche Wertigkeit der benachbarten Stellen Dieses meint, dass Mutationsoperatoren, die weiter vorne in einem Bitstring angewendet werden, eine größere Wertänderung des Phänotyps zur Folge haben, als welche die weiter hinten sind. Ähnliches gilt für die Vererbung. Dieses steht im Gegensatz zu dem von Rechenberg aufgestellten Prinzip der strengen Kausalität, welches besagt, dass eine kleine Ursache auch nur eine kleine Wirkung haben darf. Auf diese Weise wird die Konvergenz eines GAs unnötig erschwert und benötigt einen zusätzlichen algorithmischen Aufwand, um das Ungleichgewicht auszugleichen. So ist es unwahrscheinlich, durch die Veränderung weniger Stellen von 1023 auf 1024 zu kommen. Als Ausweg wendet man den sogenannten Gray Code an. Dieser zeichnet sich dadurch aus, dass zwischen zwei benachbarten Codeworten stets der Abstand 1 besteht. b. Ganzzahl Codierung Für Optimierungsprobleme, in denen für mehrere Variablen die optimalen Werte gesucht werden, die nur aus natürlichen Zahlen bestehen, verwendet man meist die Ganzzahl Codierung Bsp. Nord/Süd. c. Realzahlcodierung Wenn die repräsentierten Werte aus einer kontinuierlichen, statt aus einer diskreten Verteilung bestehen, verwendet man die Realzahl Codierung. Dabei bedient man sich den Flieskommazahlen. Dadurch entsteht eine vektorielle Darstellung für einen Genotyp G mit k reellen Werten: G=<x 1,, x k > 3
5 d. Permutations Codierung In den bereits geschilderten Codierungsformen können die unterschiedlichen Lösungskandidaten dieselben Werte annehmen und dadurch ungültige Permutationen erzeugen. Daher sind diese für Reihenfolgeprobleme, wie z.b. das Handlungsreisendenproblem TSP (traveling salesman problem) ungeeignet. Bei der Permutation Codierung wird so gewährleistet, dass jede mögliche Stelle innerhalb eines Genotyps einmalig vorkommt. 2. Bestimmung der Anfangspopulation Die Anfangspopulation ist zumeist eine zufällig bestimmte Anzahl von Individuen. Bei vielen Problemen muss allerdings darauf geachtet werden, dass es sich bei den gewählten Individuen auch um zulässige Lösungen für das Problem handelt. 3. Fitnessfunktion: Ihre Aufgabe besteht darin, die Tauglichkeit und Güte eines gegebenen Individuums bezüglich des zu optimierenden Problems zu messen und zu bewerten. Die Fitness ist dabei das Maß für die Fortpflanzungswahrscheinlichkeit. Die gängigste Form ist die proportionale bzw. lineare Fitness:, wobei B x Bewertung des Individuums x und B gesamt Bewertung aller Individuen darstellt. Auf diese Weise steht das Individuum x in direkter Proportion zur Bewertung aller Individuen. Für die Wahl der Fitnessfunktion lässt sich kein Rezept formulieren. 4. Selektion: Die Selektion bestimmt, welche Individuen als Elternpaar fungieren dürfen und Nachkommen erzeugen. Dafür wird ein Selektions und Auswahlverfahren verwendet, welches die erwartete Anzahl an Kopien und entsprechend die tatsächlich Anzahl darstellt. Der Unterschied wird dabei als spread bezeichnet. Die fitnessproportionale Selektion ist sehr verbreitet. Sie steht im direkten Verhältnis zur Fitness eines Individuums:, wobei F die Fitnessfunktion und I i das Individuum ist, für welches die Selektionswahrscheinlichkeit angegeben ist. Diese Art der Selektion weist allerdings einen niedrigen Selektionsdruck auf, d.h. das der GA relativ langsam konvergiert. Alternativ verwendet man die rangbasierende Selektion. Dabei werden die Individuen nach absteigendem Fitnesswert sortiert und durchnummeriert. Dann wird die Rangzahl der Individuen im direkten Verhältnis zur Selektionswahrscheinlichkeit gesetzt. Damit kann man den Selektionsdruck einstellen. Ein übliches Auswahlverfahren ist das roulette wheel selection. Das Prinzip imitiert ein Glücksrad, das in n Abschnitte unterteilt ist. Die Breite der Abschnitte ist von der Selektionswahrscheinlichkeit abhängig und repräsentiert die Auswahlmöglichkeiten der Individuen. Durch n maliges Drehen am Rad wird die Elterngeneration erzeugt. Dieses Verfahren ermöglicht auch schlechteren Individuen an der Vererbung teilzunehmen, hat aber einen relativ hohen spread, da die Wahrscheinlichkeit, dass gleiche Individuen gewählt werden sehr hoch ist. 4
6 5. Rekombination/Vererbung: Dieses bezeichnet den Vorgang der geschlechtlichen Fortpflanzung. Die Nachkommen werden dabei aus den Genen der gekreuzten Elternpaare systematisch zusammengesetzt. Die Vererbung selbst wird über eine Wahrscheinlichkeit p i gesteuert. In der Praxis hat sich die Wahrscheinlichkeit p i 0,6 als sinnvoll erwiesen. Auf diese Weise ist es wahrscheinlicher, dass eine Kreuzung stattfindet. (a) Binär Operatoren: Es gibt grundsätzlich 3 Varianten von Rekombinationsoperatoren. Dabei werden aus einem Kreuzungspaar 2 Nachkommen erzeugt. (i) 1 Punkt Kreuzung Dieser Operator wählt am Anfang eine zufällig Kreuzungsstelle im Bereich [0, l 1], wenn der Genotyp die Länge l beträgt. An dieser Stelle werden die Eltern aufgeteilt und die Gene bis zur Kreuzungsstelle vom 1. Elternteil und ab der Kreuzungsstelle vom 2. Elternteil dem 1. Kind vererbt. Analog wird das 2. Kind erzeugt. (ii) N Punkt Kreuzung Hierbei werden die Kreuzungspaare in mehr als 2 Segmente aufgeteilt. Die Nachkommen erhalten dann alternierend die einzelnen Segmente. (iii) Uniform Kreuzung Anstatt die Eltern in Segmente aufzuteilen, wird für jedes Gen überprüft, ob es mit dem Gen des Partners getauscht werden soll oder nicht. Dafür ist eine bitbezogene Wahrscheinlichkeit p i verantwortlich, die für alle Gene des Elternpaares aus dem Intervall [0,1) zufällig bestimmt wird. Falls p i 0,5, so wird das Gen des 1.Elternteils übernommen. 5
7 6. Mutation: Die Mutation simuliert eine zufällige Veränderung von einzelnen Genen bei der Vererbung. Die Änderung wird über die sogenannte Mutationsrate p m bestimmt. (p m nicht zu hoch wählen, da GA sonst in einer Zufallssuche mündet, d.h. zumeist [0,001, 0,01]). Im GA übernimmt die Mutation eher eine untergeordnete Rolle. Er dient dazu, eine gewisse Inhomogenität und Divergenz in die Population zu bringen. Auf der anderen Seite kann man mit Hilfe der Mutation potentielle Lösungen erhalten, die durch die Rekombination nicht gefunden werden können. (a) Binär Operatoren Der häufigste Mutationsoperator ist das bit flipping. Dabei wird am Anfang einer Mutation jedem Gen eine zufällige Zahl im Intervall [0,1) zugeordnet. Anschließend werden alle Gene invertiert, die kleiner als die Mutationsrate sind. (b) Permutations Operatoren: Bei den Permutations Operatoren kann man die Gene nicht mehr einzeln betrachten. Stattdessen müssen die Allele innerhalb eines Genotyps vertauscht werden. Die Mutationsrate entscheidet also hier, ob der gesamte Genotyp mutiert wird. Swap Mutation: Man bestimmt 2 Stellen im Genotyp zufällig und vertauscht anschließend diese Gene miteinander. Im folgenden Beispiel werden die Positionen 2 und 9 gewählt und anschließend vertauscht. Insert Mutation: Hierbei werden wiederum 2 Stellen zufällig gewählt. Danach wird das zweite Allel in die Nachbarschaft des ersten Allel verschoben und die restlichen Allele entsprechend entlang der eingefügten Position verschoben. Scramble Mutation: Die Scramble Mutation wählt zufällig eine Gensequenz aus und führt darauf in eine zufällige Verteilung durch. 6
8 7. Reproduktion: Als Reproduktion bezeichnet man den Vorgang, bei dem eine neue Generation (g++) aus den alten Elternindividuen und den neu erzeugten Nachkommen entsteht. Dafür gibt es 2 bekannte Verfahren: (a) General placement Dieses Schema übernimmt nur alle Nachkommen. Dieses birgt den Nachteil in sich, dass potentielle gute Lösungen der Elterngeneration verloren gehen können und sich so die Qualität der neuen Generation verschlechtern kann. Auf der anderen Seite verhindert dieses Verfahren eine frühzeitige Konvergenz und nutzt die ganze Breite des Suchraums. (b) Steady state Hierbei überlappen sich die Generationen und es werden nur wenige Individuen der alten Population ersetzt. So gehen gute Lösung nicht verloren und gewährleisten eine verbesserte Fitness der neuen Population. Die Wahl der zu ersetzenden Eltern kann über zwei Varianten erfolgen: (i) Ersetze das schlechteste Individuum durch ein besseres (ii) Ersetze ein zufällig gewähltes Individuum Dabei ist in der Praxis die erste Variante der zweiten vorzuziehen. 8. Abbruchkriterium Prinzipiell kann ein GA ewig weiterlaufen. Jedoch sollte man beim Erreichen einer bestimmten Obergrenze abbrechen. So unterscheidet man hauptsächlich folgende Abbruchkriterien: (i) Ein Individuum hat eine bestimmte Fitness erreicht (ii) Eine bestimmte Anzahl an Generationen wird erreicht (iii) In einer vorgegeben Anzahl von Generation wird keine Verbesserung erzielt Beispiele: Optimiere f(x) Rucksackproblem/TSP 7
9 Simuliertes langsames Abkühlen (Simulated Annealing(SA)): Einführung: Wie der GA ist das Simulierte langsame Abkühlen ein Verfahren, welches zur Lösung von komplexen Such und Optimierungsaufgaben eingesetzt wird. Auch hier wird ein Verhalten imitiert, dessen Vorbild in der Natur zu finden ist. Dabei ahmt der SA den chemischen Prozess des Erhitzens und Abkühlens von Metallen nach. Werden nämlich Metalle langsam oder schnell aus dem rotglühenden Zustand abgekühlt, nehmen sie unterschiedliche Eigenschaften an. Chemisch gesehen befinden sich die Moleküle des Metalls in festen Gitterverbindungen. Durch das Erhitzen lösen sich die Verbindungen auf. Folglich werden die Moleküle beweglich und die ursprüngliche Struktur zerstört. Beim langsamen Abkühlen suchen sich die Moleküle nun neue Bindungen mit minimalem Energiegehalt. Dieses bedeutet, dass die Moleküle optimal angeordnet sind. Ziel ist es also, den Energiegehalt zu minimieren. Am Verlauf des Energiegehalts hat man festgestellt, dass beim Abkühlen nicht nur Verbesserungen, also Verringerungen des Energiegehalts, sondern auch Verschlechterungen angenommen werden. Dieses besagt, dass ein Material noch von einem Zustand niedriger Energie in einen Zustand höherer Energie übergehen kann. Mathematisch ausgedrückt heißt das, dass man einem lokalen Minimum entweichen kann. Je niedriger die Temperatur ist, desto unwahrscheinlicher werden folglich auch Energiesprünge und damit das Ausweichen aus einem lokalen Minimum. Schließlich besetzt jedes Molekül eine feste Position und das Material ist zum Festkörper erstarrt. Um diesen Effekt besser nachvollziehen zu können, kann man sich ein Glas und Kugeln vorstellen. Die Kugel stellen dabei die Moleküle dar. Wenn man die Kugeln nun in das Glas gibt, dann liegen sie ungeordnet. Das Schütteln des Glases symbolisiert dabei das Erhitzen und ein immer langsameres Schütteln den Prozess des langsamen Abkühlens. Nun ordnen sich die Kugeln von selbst in der energetisch günstigsten Struktur regelmäßig an. Arbeitsweise : Für den Einsatz des SA müssen in der Regel folgende Voraussetzungen erfüllt sein: Zufällig gewählte, zulässige Anfangslösung Nachbarschaftsstruktur Bewertungsfunktion Kühlungsstrategie, die aus Anfangstemperatur T > 0 und Kühlungsrate besteht 8
10 1) Wähle Anfangstemperatur T > 0 und Abkühlungsrate 2) Wähle einen Startpunkt s 0 S 3) Wähle s 1 S in der Nachbarschaft von s 0 4) Falls f(s 1 ) f (s o ), wähle s 1 als neuen Startpunkt und fahre mit (2.) fort. Ist f(s 1 ) > f (s 0 ), wähle s 1 mit Wahrscheinlichkeit p e T mit als neuen Startpunkt Ansonsten behalte und fahre mit 2) fort Nachdem man eine Anfangstemperatur und Abkühlungsrate ausgewählt hat, startet man beim SA in einer zufällig gewählten, zulässigen Lösung und erzeugt eine zufällige, benachbarte Lösung. Hat diese einen besseren Zielfunktionswert, geht man zu ihr über und iteriert. Andernfalls akzeptiert man die Lösung mit der Wahrscheinlichkeit p. Dabei ist p sowohl von der Temperatur als auch von der Differenz des aktuell berechneten und vorherigen Funktionwertes abhänigig, wobei p umso kleiner wird je größer T und umso kleiner ist. Es ist also umso unwahrscheinlicher, dass ein schlechterer Wert s 1 akzeptiert wird je weiter dieser von dem vorherigen Wert s o entfernt ist oder je kleiner die Temperatur ist. So kann man mit der Wahl der Temperatur T festlegen, inwieweit schlechtere Lösungen anerkannt werden. Dabei erlaubt man anfangs mit einer relativ hohen Temperatur T eine möglichst weiträumige Suche, um diese dann im Laufe der Zeit durch eine Abkühlungsrate auf einen erfolgsversprechenden Bereich zu konzentrieren. Eine geschickte Wahl der Anfangstemperatur und Kühlungsrate kann die Konvergenz der Suche somit positiv beeinflusst werden. Bei der Abkühlungsrate unterscheidet man üblicherweise die folgenden Arten: Konstant: T(n) = k, wobei k beliebige Konstante und n Anzahl der Iterationen Arithmetisch: T(n) = T(n 1) k, wobei k bel Konstante und n Anzahl der Iterationen Beachte: T(0) so groß wählen, dass auch nach n Iterationen nicht negativ wird Geometrisch: T(n) = a(n) T(n 1), wobei a typischerweise in [0,8, 0,99] 9
11 Beispiel: Das Travelling Salesman Problem (TSP) oder Problem des Handlungsreisenden: Ein Handlungsreisender möchte eine Rundreise durch n Städte unternehmen. Dabei soll der Weg, den er zurücklegt, durch jede Stadt genau einmal führen und möglichst kurz sein. Am Ende der Reise möchte der Handlungsreisende wieder am Startpunkt auskommen. Die Entfernungen zwischen den einzelnen Städten sind bekannt. Gefragt ist also nach der Reihenfolge, in der die Städte besucht werden müssen. (NP vollständiges Problem TSP benötigt exponentielle Zeit) Angewandt auf das Simulierte langsame Abkühlen Dabei wählt man: eine Anfangstemperatur und Kühlungsrate Bewertungsfunktion,, also die Gesamtlänge des Pfades Nachbarschaftsstruktur, z.b. die 2 change Nachbarschaft. Dabei werden zufällig 2 Städte p und q gewählt, von denen einmal die Nachfolgekante von p und die Vorgängerkante von q herausgenommen werden. Dann wird p mit der Vorgängerstadt von q und q mit der Nachfolgestadt von p verbunden und die Richtung der abgetrennten Städte wird umgekehrt. Nun haben wir zwei Rundreisen, die zueinander ähnlich sind und somit in der Nachbarschaft vorkommen. ( ) Nun startet man mit einer beliebigen zulässigen Lösung, also einer Rundreise, die die Städte in einer völlig zufälligen Reihenfolge durchläuft. Ist die neue Rundreise kürzer als die alte Rundreise, so wird mit dieser verbesserten Lösung fortgefahren. Ist sie länger, so wird sie nur dann akzeptiert, wenn sie der Wahrscheinlichkeit p genügt. Ansonsten wird sie verworfen, und es wird mit der alten Lösung fortgefahren. Nach jeweils einer bestimmten Anzahl von Iterationsschritten wird die Temperatur verringert, indem man sie beispielsweise mi einer Zahl zwischen ß und 1 multipliziert. Sinkt die Temperatur unter 0,01, so bricht die Suche ab und wir haben eine Lösung gefunden. 10
12 Ameisenkolonieoptimierung: Einführung: Bei der sogenannten Ameisenkolonieoptimierung (Ant Colonization, ACO) wird ein virtuelles Ameisenvolk auf die Suche nach dem kürzesten Weg geschickt. Die Idee ist es, die Ameisen bei der Futtersuche zu simulieren. In der Natur hat man nämlich beobachtet, dass die Ameisen einen verblüffend guten Weg zu ihrer Nahrungsquelle und wieder zurück finden. Der Grund dafür ist, dass die Ameisen eine Pheromonspur hinterlassen, der die anderen Ameisen zu einer gewissen Wahrscheinlichkeit dann auch folgen. Je mehr Ameisen also einen Weg benutzt haben, desto intensiver ist die Pheromonspur und damit auch die Wahrscheinlichkeit, dass die anderen Ameisen dieser Spur folgen. Auf der anderen Seite verdunstet dieser Duftstoff mit der Zeit und die Intensität nimmt langsam ab. Nun ist die Ameise nicht besonders schlau und sucht sich aktiv den kürzesten Weg zu Futterstelle, sondern läuft einfach einer Pheromonspur nach. Stehen dabei mehrere Spuren zur Auswahl, so entscheidet sie sich für diejenige, die die höchste Pheromonintensität aufweist. Nun hinterlässt die Ameise, die zufällig den schnellsten Weg zur Futterstelle gefunden hat, aufgrund ihres kürzesten Weges im Vergleich zu den anderen Wegen eine intensivere Spur. So ist der kürzeste Weg zur Futterstelle gefunden. In der Abbildung ist auf der linken Seite eine solche Ameisenstraße ohne ein Hindernis dargestellt. Man sieht, dass alle Ameisen dieser Pheromonspur folgen. Stellt man nun, wie in der Mitte einen Gegenstand auf diesen Pfad, erkennen die Ameisen keine Pheromonspur und versuchen das Hindernis zu umgehen. Die eine Hälfte geht über den Weg A B H D E, während die andere Hälfte den Weg A B C D E benutzt. Dies geschieht solange, bis eine Hälfte (hier die Gruppe A B C D E) das Hindernis hinter sich gelassen hat. So sehen die folgenden Ameisen an der Kreuzung auf der rechten Seite eine deutlichere Pheromonspur und benutzen diesen Weg mit einer höheren Wahrscheinlichkeit. 11
13 Anwendung: TSP: Bei der Ameisenkolonieoptimierung wird auf jede Stadt eine Ameise gesetzt. Dabei symbolisieren die Kanten eine mögliche Pheromonspur. Zu Beginn herrscht überall eine geringe Pheromonintensität. Nun wird jede Ameise auf die Reise geschickt. Sie wählt sich zufällig von ihrem Startpunkt den Weg aus. Dabei wird sie allerdings von der Pheromonmenge und der Distanz zur nächsten Stadt in ihrer Entscheidung beeinflusst. Zudem muss sie darauf achten, dass sie jede Stadt nur einmal besuchen darf und zum Schluss wieder zu ihrem Ausgangspunkt zurückkehrt. Nachdem alle Ameisen die Rundreise beendet haben, verdunstet ein Teil der Pheromonmenge. Dieses könnte man simulieren, indem man eine zufällige Zahl aus dem Intervall [0,1] wählt und diese mit der Pheromonmenge multipliziert. So würde z.b. die Zahl 0,5 bedeuten, dass 50% der Pheromonstoffe verdunstet sind. Erst nach der Verdunstung wird die Länge der Reise bewertet und je nach Güte, mehr oder weniger Pheromone auf die zurückgelegt Strecke gelegt. Die bisher beste Strecke wird anschließend zwischengespeichert. Nun startet eine weitere Rundreise. Diesmal werden die Ameisen allerdings veränderte Duftstoffe vorfinden. Dieser Vorgang wird nun eine bestimmte Anzahl wiederholt, so dass man am Ende die beste Rundreise als Ergebnis ausgeben kann. 12
14 Künstliche, neuronale Netze Einführung: Künstliche neuronale Netze imitieren einen Teil eines Nervensystems. Man nutzt man sie für kognitive Anwendungen, wie z.b. für die Optimierung. Dabei lernt das neuronale Netz ähnlich wie ein Gehirn an Beispielen. Gibt man dem neuronalen Netz also genügend viele Beispiele zum Lernen, dann kann es die gewonnene Erkenntnis nutzen, um sie auf andere Fälle anzuwenden. Diesen Lernprozess nennt man auch Training eines neuronalen Netzes. Neuronale Netze können in sehr unterschiedlichen Bereichen zur Modellierung eingesetzt werden. Typische Anwendungsbereiche sind medizinische Diagnostik, Analyse von Wirtschaftsdaten, Kontrolle von Fertigungsprozessen, Vorhersage von Devisenkursen, Robotik, etc. In diesen Anwendungen besteht die Aufgabe des neuronalen Netzes darin, aus vorgegebenen Daten weitere Informationen zu gewinnen. Neuronale Netze werden vor allem in Fällen eingesetzt, wo es nicht möglich ist, diese Informationen auf eine einfachere Art und Weise zu erhalten. Neuronale Netze lassen sich besonders gut dann verwenden, wenn man die Funktion nicht kennt, aber viele Daten zur Verfügung hat. Künstliche, neuronale Netze ahmen einige Strukturen eines Nervensystems nach. Es besteht aus stark idealisierten Neuronen. Ähnlich dem biologischen Vorbild besitzen sie die folgenden 3 Komponenten: Zellkörper (Soma), Dendriten und Axonen. Die Dendriten bilden die Eingabe des Netzes, während die Axone die Ausgabe an die Dendriten der nachfolgenden Synapse weiterleiten. Die Stärke der Synapsen wird durch einen numerischen Wert, das Verbindungsgewicht dargestellt. So lässt sich jede Verbindung zwischen Neuronen als direkte, gewichtete Verbindung darstellen. Das folgende Schaubild soll dieses verdeutlichen. Die Hauptbestandteile eines künstlichen, neuronalen Netzes sind: Neuronendefinition Energiefunktion stellt das Ziel des Problems dar Synapsen, dessen Stärke durch Verbindungsgewichte dargestellt sind Lokale Aktualisierungsregel 13
Survival of the Fittest Optimierung mittels Genetischer Algorithmen
Übung zu Organic Computing Survival of the Fittest Optimierung mittels Genetischer Algorithmen Sabine Helwig Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Universität Erlangen-Nürnberg sabine.helwig@informatik.uni-erlangen.de
MehrOptimale Produktliniengestaltung mit Genetischen Algorithmen
Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen
MehrGenetische Algorithmen
Genetische Algorithmen Shawn Keen Zusammenfassung Eine weitere Herangehensweise an das maschinelle Lernen ist die Nachahmung evolutionärer Prozesse. Hier wollen wir uns mit den sogenannten Genetischen
MehrGenetische Algorithmen von der Evolution lernen
Genetische Algorithmen von der Evolution lernen (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Nils J. Nilsson Artificial Intelligence Morgan Kaufmann, 1998 Ansatz Bisher: Problemlösung
Mehr11. Übung zu Algorithmen I 6. Juli 2016
11. Übung zu Algorithmen I 6. Juli 2016 Lisa Kohl lisa.kohl@kit.edu mit Folien von Lukas Barth Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP ein Algorithmus
MehrExkurs Modelle und Algorithmen
Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen
MehrGenetische Algorithmen
Genetische Algorithmen Projektgruppe 431 Metaheuristiken Bianca Selzam Inhaltsverzeichnis 1 Einleitung......................................................... 1 2 Grundlagen aus der Biologie.......................................
MehrVerbesserungsheuristiken
Verbesserungsheuristiken Bestandteile der Lokalen Suche Für schwierige Optimierungsaufgaben haben Verbesserungsheuristiken eine große praktische Bedeutung. Sie starten mit Ausgangslösungen, die von z.b.
MehrGrundlagen und Basisalgorithmus
Grundlagen und Basisalgorithmus Proseminar -Genetische Programmierung- Dezember 2001 David König Quelle: Kinnebrock W.: Optimierung mit genetischen und selektiven Algorithmen. München, Wien: Oldenbourg
Mehr5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus
5. Lokale Suchverfahren Lokale Suche 5. Lokale Suchverfahren Beispiel TSP: k-change Nachbarschaft Optimale Lösungen können oft nicht effizient ermittelt werden. Heuristiken liefern zwar zulässige Lösungen,
MehrKünstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen
Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Optimierungsprobleme
MehrWarum konvergieren Genetische Algorithmen gegen ein Optimum?
1 / 21 Gliederung 1 Das Schematheorem Motivation Begriffe Herleitung Ergebnis Das Schematheorem Das Schematheorem Motivation 3 / 21 Warum konvergieren Genetische Algorithmen gegen ein Optimum? Theoretische
Mehr1. Inhaltsverzeichnis
1. Inhaltsverzeichnis Inhaltsverzeichnis 1. Einleitung 1.1. Darwins Evolutionstheorie 1.2. Darwins Evolutionstheorie als Inspiration für Evolutionäre Algorithmen 1.3. Die Unterschiede der verschiedenen
MehrGrundlagen der Vererbungslehre
Grundlagen der Vererbungslehre Zucht und Fortpflanzung Unter Zucht verstehen wir die planvolle Verpaarung von Elterntieren, die sich in ihren Rassemerkmalen und Nutzleistungen ergänzen zur Verbesserung
Mehr4. Eine Einführung in Konzept und Arbeitsweise genetischer Algorithmen
4. Eine Einführung in Konzept und Arbeitsweise genetischer Algorithmen 4.1 Evolution und Genetik Lernprozeß Evolution Die Natur hat es geschafft, aus Milliarden denkbarer Eiweißmoleküle gerade diejenigen
MehrMit Genetischen Algorithmen nach dem biologischen Vorbild auf evolutionäre Art komplexe Probleme lösen.
Seite 1 Auf Darwins Spuren Mit Genetischen Algorithmen nach dem biologischen Vorbild auf evolutionäre Art komplexe Probleme lösen. Klaus Meffert Bestimmte Klassen von Problemen sind durch unflexible Heuristiken
MehrGenetische Algorithmen
Projekt für Algorithmische Anwendungen Genetische Algorithmen Von Mike Müller 11037091 Dennis Freese 11038517 Gruppe: B-ROT 1 Inhaltsverzeichnis Allgemeines...3 Geschichtliche Entwicklung der genetischen
MehrProseminar Genetische und Evolutionäre Algorithmen
Proseminar Genetische und Evolutionäre Algorithmen Genetische Algorithmen Grundkonzept und genetische Operatoren Vortragender: Frank Förster Datum: 29.04.02 Inhaltsverzeichnis 1 Einleitung...1 2 Grundbegriffe...2
MehrTraveling Salesman Problem (TSP)
Traveling Salesman Problem (TSP) Das Traveling Salesman Problem (TSP) ist ein bekanntes Optimierungsproblem. Ein Handlungsreisender soll in einer Rundreise (auch Tour genannt) n vorgegebene Städte besuchen.
MehrGliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen
Kapitel Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren
Mehr-Generation sehen alle gleich aus (Uniformitätsregel). In der F 2. -Generation treten unterschiedliche Phänotypen auf (Spaltungsregel).
Mendelsche Regeln 1 + 2 (1) Merkmale wie die Blütenfarbe können dominant-rezessiv oder intermediär vererbt werden. Bei einem intermediären Erbgang wird die Merkmalsausprägung von beiden Allelen (z. B.
MehrComputational Intelligence
Vorlesung Computational Intelligence Stefan Berlik Raum H-C 80 Tel: 027/70-267 email: berlik@informatik.uni-siegen.de Inhalt Überblick Rückblick Optimierungsprobleme Optimierungsalgorithmen Vorlesung Computational
MehrHochschule Regensburg. Übung 12_3 Genetische Algorithmen 1. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer
Hochschule Regensburg Übung 12_ Genetische Algorithmen 1 Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: 1. Was sind GA? - Ein GA ist ein Algorithmus, der Strategien aus der Evolutionstheorie
MehrDynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
MehrEinführung in Heuristische Suche
Einführung in Heuristische Suche Beispiele 2 Überblick Intelligente Suche Rundenbasierte Spiele 3 Grundlagen Es muss ein Rätsel / Puzzle / Problem gelöst werden Wie kann ein Computer diese Aufgabe lösen?
Mehr3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)
3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände
MehrIsomorphie von Bäumen
Isomorphie von Bäumen Alexandra Weinberger 23. Dezember 2011 Inhaltsverzeichnis 1 Einige Grundlagen und Definitionen 2 1.1 Bäume................................. 3 1.2 Isomorphie..............................
MehrProseminarvortrag. Markov-Ketten in der Biologie (Anwendungen)
Proseminarvortrag Markov-Ketten in der Biologie (Anwendungen) von Peter Drössler 20.01.2010 2 Markov-Ketten in der Biologie (Peter Drössler, KIT 2010) Inhalt 1. Das Wright-Fisher Modell... 3 1.1. Notwendige
Mehr10.1 Geometrische Wegplanung im Konfigurationsraum
10 Pfadplanung 10.1 Geometrische Wegplanung im Konfigurationsraum Vorausetzungen Roboter bewegt sich in der Ebene, ohne sich zu drehen Hindernisse sind konvexe Polygone Beispiel Grundgedanke Problem wird
MehrSeminararbeit zum Thema Genetische Algorithmen
Seminararbeit zum Thema Genetische Algorithmen Seminar in Intelligent Management Models in Transportation und Logistics am Institut für Informatik-Systeme Lehrstuhl Verkehrsinformatik Univ.-Prof. Dr.-Ing.
MehrDynamik von Genen in Populationen
Dynamik von Genen in Populationen Thomas Spießer 01.08.2007 Zusammenfassung Evolution ist die Veränderung der vererbbaren Merkmale einer Population von Lebewesen von Generation zu Generation. 1 Das Studium
MehrAllgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)
Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich
MehrEinführung. Ablesen von einander zugeordneten Werten
Einführung Zusammenhänge zwischen Größen wie Temperatur, Geschwindigkeit, Lautstärke, Fahrstrecke, Preis, Einkommen, Steuer etc. werden mit beschrieben. Eine Zuordnung f, die jedem x A genau ein y B zuweist,
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrBipartite Graphen. Beispiele
Bipartite Graphen Ein Graph G = (V, E) heiÿt bipartit (oder paar), wenn die Knotenmenge in zwei disjunkte Teilmengen zerfällt (V = S T mit S T = ), sodass jede Kante einen Knoten aus S mit einem Knoten
MehrAusarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme
Universität Hamburg Fachbereich Mathematik Seminar: Proseminar Graphentheorie Dozentin: Haibo Ruan Sommersemester 2011 Ausarbeitung zum Modulabschluss Graphentheorie spannende Bäume, bewertete Graphen,
MehrÜbung zur Vorlesung Berechenbarkeit und Komplexität
RWTH Aachen Lehrgebiet Theoretische Informatik Reidl Ries Rossmanith Sanchez Tönnis WS 2012/13 Übungsblatt 9 10.12.2012 Übung zur Vorlesung Berechenbarkeit und Komplexität Aufgabe T20 Beweisen Sie die
Mehr3. Das Reinforcement Lernproblem
3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität
MehrTheoretische Informatik 1
Theoretische Informatik 1 Nichtdeterminismus David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2012 Übersicht Nichtdeterminismus NTM Nichtdeterministische Turingmaschine Die
MehrWissensbasierte Systeme
Analytisch lösbare Optimierungsaufgaben Das Chaos-Spiel gründet auf der folgenden Vorschrift: Man startet von einem beliebigen Punkt aus geht auf einer Verbindung mit einem von drei zufällig gewählten
MehrDie Erbinformation ist in Form von Chromosomen = Kopplungsgruppen organisiert
Die Erbinformation ist in Form von Chromosomen = Kopplungsgruppen organisiert Chromosom Chromatin Ausschnitt aus DNA-Doppelhelix Nukleosomen (Chromatin) Chromatinfaden höherer Ordnung Teil eines Chromosoms
MehrMathematik I. Vorlesung 7. Folgen in einem angeordneten Körper
Prof. Dr. H. Brenner Osnabrück WS 009/010 Mathematik I Vorlesung 7 Folgen in einem angeordneten Körper Wir beginnen mit einem motivierenden Beispiel. Beispiel 7.1. Wir wollen die Quadratwurzel einer natürlichen
MehrEvolutionsfaktoren. = Gesamtheit der Gene aller Individuen einer Population bleibt nach dem HARDY-WEINBERG-Gesetz unter folgenden Bedingungen
Evolutionsfaktoren 1 Genpool = Gesamtheit der Gene aller Individuen einer bleibt nach dem HARDY-WEINBERG-Gesetz unter folgenden Bedingungen gleich: keine Mutationen alle Individuen sind für Umweltfaktoren
MehrPartikelschwarmoptimierung für diskrete Probleme
Partikelschwarmoptimierung für diskrete Probleme Yushan Liu Fakultät für Mathematik TU München 26. Oktober 2014 Ferienakademie im Sarntal - Kurs 1 Moderne Suchmethoden der Informatik: Trends und Potenzial
Mehr9. Heuristische Suche
9. Heuristische Suche Prof. Dr. Rudolf Kruse University of Magdeburg Faculty of Computer Science Magdeburg, Germany rudolf.kruse@cs.uni-magdeburg.de S Heuristische Suche Idee: Wir nutzen eine (heuristische)
Mehr4 Genetische Algorithmen
WS1993/94 AuD II 113 4 Genetische Algorithmen Gegeben: Problem P Menge potentieller Lösungen S= {L 1,,L s } (auch Suchraum) Zielfunktion z : S [0,1] IR (manchmal auch z : S IR ) Gesucht: z(l) > z(l') L
MehrEinsatz Evolutionärer Algorithmen zur Optimierung der Tourenplanung eines Wachschutzunternehmens
Fachhochschule Brandenburg Fachbereich Informatik und Medien Kolloquium zur Diplomarbeit Einsatz Evolutionärer Algorithmen zur Optimierung der Tourenplanung eines Wachschutzunternehmens Übersicht Darstellung
MehrAlgorithmen und Datenstrukturen 2
Algorithmen und Datenstrukturen 2 Sommersemester 2007 11. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik studla@bioinf.uni-leipzig.de Das Rucksack-Problem Ein Dieb, der einen Safe
MehrGenetische Algorithmen und Evolutionäre Strategien
Genetische Algorithmen und Evolutionäre Strategien von Adam El Sayed Auf und Kai Lienemann Eine Ausarbeitung zum Seminar Intelligente Algorithmen im Wintersemester 2003/2004 an der Universität Bielefeld
MehrMendel Labor, Euregio Kolleg, Würselen 1/
Mendel Labor, Euregio Kolleg, Würselen 1/13 14.7.04 Projekt MendelLab Die klassische Genetik eignet sich als fachübergreifendes Thema für die Fächer Biologie, Mathematik (Stochastik) und Informatik. In
MehrGenetik, Evolution, Intelligenz und anthropologische Diversität: Was wissen wir daru ber?
Genetik, Evolution, Intelligenz und anthropologische Diversität: Was wissen wir daru ber? Diethard Tautz Genetik der evolutionären Anpassung und Selektion Populationsgenetik und Artenstehung Max-Planck
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrHamiltonsche Graphen (2. Teil)
Hamiltonsche Graphen (2. Teil) Themen des Vortrages Für Schachspieler Hamiltons Spiel Sitzordnungen Eine billige Rundreise Ein vielleicht unlösbares Problem Bäcker mit Kenntnissen in Graphentheorie Fazit
MehrStandardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend
Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend oder eindeutig, wenn keine alternativen Interpretationsmöglichkeiten
MehrProseminar Online Algorithmen, Prof. Dr. Rolf Klein
Proseminar Online Algorithmen, Prof. Dr. Rolf Klein Vortrag von Michael Daumen am 13.12.2000 Thema : Minimum Spanning Tree und 2-Approximation der TSP-Tour Inhalt des Vortrags : 1. genaue Vorstellung des
MehrCodierungstheorie Rudolf Scharlau, SoSe 2006 9
Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets
MehrPraktikum Algorithmen-Entwurf (Teil 7)
Praktikum Algorithmen-Entwurf (Teil 7) 28.11.2005 1 1 Vier gewinnt Die Spielregeln von Vier Gewinnt sind sehr einfach: Das Spielfeld besteht aus 7 Spalten und 6 Reihen. Jeder Spieler erhält zu Beginn des
MehrVollständigkeit; Überabzählbarkeit und dichte Mengen) Als typisches Beispiel für die reellen Zahlen dient die kontinuierlich ablaufende Zeit.
Kapitel 4 Reelle Zahlen 4.1 Die reellen Zahlen (Schranken von Mengen; Axiomatik; Anordnung; Vollständigkeit; Überabzählbarkeit und dichte Mengen) Als typisches Beispiel für die reellen Zahlen dient die
Mehr3 Nichtlineare Gleichungssysteme
3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )
MehrEvolutionsstrategien
Evolutionsstrategien zum Seminar Evolutionäre Algorithmen von Jana Schäfer INHALTVERZEICHNIS 1. Einführung... 3 2. Die Geschichte der Evolutionsstrategien...4 3. Grundlegendes... 6 3.1 Begriffe... 6 3.2
MehrVR-Seminar WS 2003/2004. Genetische Algorithmen
VR-Seminar WS 2003/2004 Genetische Algorithmen Seminararbeit im Studiengang Mediensysteme von Christian Nitschke Matr. Nr. 992258 6. Fachsemester Prof. Bernd Fröhlich Lehrstuhl Systeme der Virtuellen Realität
MehrGrundlagen der biologischen Evolution
Ausgewählte Grundlagen der biologischen Evolution Grundlagen der biologischen Evolution Chromosome und Gene Genotyp und Phänotyp Evolutionsfaktoren Epigenetik und was wir sonst noch nicht verstanden haben
MehrBiologie I/B: Klassische und molekulare Genetik, molekulare Grundlagen der Entwicklung Tutorium SS 2016
Biologie I/B: Klassische und molekulare Genetik, molekulare Grundlagen der Entwicklung Tutorium SS 2016 Fragen für die Tutoriumsstunde 5 (27.06. 01.07.) Mendel, Kreuzungen, Statistik 1. Sie bekommen aus
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrSIMULATED ANNEALING IM RAHMEN DES PS VIRTUAL LAB MARTIN PFEIFFER. Simulated Annealing Virtual Lab 1 /42
SIMULATED ANNEALING IM RAHMEN DES PS VIRTUAL LAB MARTIN PFEIFFER Simulated Annealing Virtual Lab 1 /42 - Simulated Annealing = Simuliertes Abkühlen - Verfahren zum Lösen kombinatorischer Probleme - inspiriert
MehrLineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung In der linearen
MehrMathematische Grundlagen der dynamischen Simulation
Mathematische Grundlagen der dynamischen Simulation Dynamische Systeme sind Systeme, die sich verändern. Es geht dabei um eine zeitliche Entwicklung und wie immer in der Informatik betrachten wir dabei
MehrKonkretes Durchführen einer Inferenzstatistik
Konkretes Durchführen einer Inferenzstatistik Die Frage ist, welche inferenzstatistischen Schlüsse bei einer kontinuierlichen Variablen - Beispiel: Reaktionszeit gemessen in ms - von der Stichprobe auf
MehrArithmetisches Codieren
Arithmetisches Codieren 1. Motivation: Als Alternative zum arithmetischen Codieren bot sich damals als effizientester Algorithmus das Huffmann-Coding an. Dieses jedoch hatte einen entscheidenden Nachteil:
MehrGenetische Programmierung
15. Juli 2007 Anfang der 90er von John R. Koza entwickelt. Verfahren zur automatisierten Erstellung von Programmen. Von der Evolution inspiriert. Anforderungen an die Möglichst korrekte Lösung ergeben
MehrHeuristiken. Mike Hüftle. 28. Juli Einleitung
Heuristiken Mike Hüftle 28. Juli 2006 Inhaltsverzeichnis 1 Einleitung 2 1.1.................................... 2 1.2.................................... 3 2 Greedy-Heuristiken 4 2.1 Methodenbeschreibung........................
Mehr1. Einleitung. 2. Zur Person
Moritz Schlick: Naturgesetze und Kausalität Seminar über philosophische Aspekte in der Physik WS 2007/08 Seminarleitung: Prof. Dr. G. Münster Dr. C. Suhm Vortragender: Johannes Greber 13. 11. 2007 1. Einleitung
Mehr12. Hashing. Hashing einfache Methode um Wörtebücher zu implementieren, d.h. Hashing unterstützt die Operationen Search, Insert, Delete.
Hashing einfache Methode um Wörtebücher zu implementieren, d.h. Hashing unterstützt die Operationen Search, Insert, Delete. Worst-case Zeit für Search: Θ(n). In der Praxis jedoch sehr gut. Unter gewissen
MehrPerzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)
MehrEulerweg, Eulerkreis. Das Königsberger Brückenproblem. Definition 3.1. Ein Weg, der jede Kante von G genau einmal
3. Kreis- und Wegeprobleme Kapitelübersicht 3. Kreis- und Wegeprobleme Eulerweg, Eulerkreis Charakterisierung von eulerschen Graphen Bestimmung von eulerschen Wegen und Kreisen Hamiltonsche Graphen Definition
MehrEine Analyse des Effektes von Lernen auf Populationsfitness und Diversität in einer NK-Fitnesslandschaft. Lars Melchior
Eine Analyse des Effektes von Lernen auf Populationsfitness und Diversität in einer NK-Fitnesslandschaft Lars Melchior Theoretische Grundlagen Theoretische Grundlagen Genetik Genetische Algorithmen NK
MehrAlgorithmen und Datenstrukturen ITS(B)-B 2016
Einführung Was ist (die) Informatik? Die Informatik und ihre Geschichte sowie ihre Abgrenzung von anderen Wissenschaften darzulegen gestaltet sich nicht ganz einfach (siehe dazu unter vielen Anderen ((GI)
Mehr2 - Konvergenz und Limes
Kapitel 2 - Folgen Reihen Seite 1 2 - Konvergenz Limes Definition 2.1 (Folgenkonvergenz) Eine Folge komplexer Zahlen heißt konvergent gegen, wenn es zu jeder positiven Zahl ein gibt, so dass gilt: Die
Mehr$Id: folgen.tex,v /05/31 12:40:06 hk Exp $ an 1 2 n 1 ist gerade, 3a n 1 + 1, a n 1 ist ungerade.
$Id: folgen.tex,v. 202/05/3 2:40:06 hk Exp $ 6 Folgen Am Ende der letzten Sitzung hatten wir Folgen in einer Menge X als Abbildungen a : N X definiert, die dann typischerweise in der Form (a n ) n N, also
MehrProbleme aus NP und die polynomielle Reduktion
Probleme aus NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 15. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
Mehr1. Mendelsche Vererbung, Stammbäume:
1. Mendelsche Vererbung, Stammbäume: typische Stammbäume atypische Stammbäume 2. Allelische und nicht-allelische Mutationen, Komplementationstests 3. Hardy-Weinberg Gleichgewicht 4. Mutation und Selektion,
MehrSS 2016 Torsten Schreiber
SS 01 Torsten Schreiber 15 Ein lineares Gleichungssystem besteht immer aus einer Anzahl an Variablen und Gleichungen. Die Zahlen vor den Variablen werden in der sogenannten zusammen gefasst und die Zahlen
MehrKontextfreie Grammatiken
Kontextfreie Grammatiken Bisher haben wir verschiedene Automatenmodelle kennengelernt. Diesen Automaten können Wörter vorgelegt werden, die von den Automaten gelesen und dann akzeptiert oder abgelehnt
Mehr4.3.3 Simplexiteration
7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige
MehrLage- und Streuungsparameter
Lage- und Streuungsparameter Beziehen sich auf die Verteilung der Ausprägungen von intervall- und ratio-skalierten Variablen Versuchen, diese Verteilung durch Zahlen zu beschreiben, statt sie graphisch
MehrNumerisches Programmieren, Übungen
Technische Universität München SS 2012 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Alexander Breuer Dipl.-Math. Dipl.-Inf. Jürgen Bräckle Dr.-Ing. Markus
MehrAlgorithmen & Programmierung. Steuerstrukturen im Detail Selektion und Iteration
Algorithmen & Programmierung Steuerstrukturen im Detail Selektion und Iteration Selektion Selektion Vollständige einfache Selektion Wir kennen schon eine Möglichkeit, Selektionen in C zu formulieren: if
MehrStatistik für Ingenieure Vorlesung 2
Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen
MehrGenetische Algorithmen und Evolutionsstrategien
Eberhard Schöneburg Frank Heinzmann Sven Feddersen Genetische Algorithmen und Evolutionsstrategien Eine Einführung in Theorie und Praxis der simulierten Evolution Tschnische UnsversSsät Darmstadt Fachbereich
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
Mehr6. Komprimierung. (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger
Komprimierung 6. Komprimierung (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger Platz brauchen Motivation: beschleunigt Plattenzugriffe oder Datenübertragungen Voraussetzung:
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
Mehr2.2 Allgemeine (vergleichsbasierte) Sortierverfahren
. Allgemeine (vergleichsbasierte) Sortierverfahren Vergleichsbaum: Der Aufbau des Verbleichsbaum ist für jeden Algorithmus und jede Eingabelänge n gleich. Jede Permutation der Eingabe, muss zu einem anderen
MehrElemente der Stochastik (SoSe 2016) 6. Übungsblatt
Dr. M. Weimar 19.05.2016 Elemente der Stochastik (SoSe 2016 6. Übungsblatt Aufgabe 1 ( Punkte Eine Klausur, die insgesamt von zwölf Kursteilnehmern geschrieben wurde, soll von drei Gutachtern bewertet
MehrPaper Computer Science Experiment. Computation (NP-Vollständigkeit) Traveling Salesman
Paper Computer Science Experiment Great Principles of Computing Computation (NP-Vollständigkeit) Thema Traveling Salesman Unterrichtsform Lernen am Modell Voraussetzung Wahrscheinlich kennen viele Schüler/innen
MehrSkript Bruchrechnung. Erstellt: 2014/15 Von:
Skript Bruchrechnung Erstellt: 2014/15 Von: www.mathe-in-smarties.de Inhaltsverzeichnis Vorwort... 2 1. Einführung... 3 2. Erweitern / Kürzen... 5 3. Gemischte Brüche... 8 4. Multiplikation von Brüchen...
MehrAufgabe 1: Berechnen Sie für den in Abbildung 1 gegebenen Graphen den. Abbildung 1: Graph für Flussproblem in Übungsaufgabe 1
Lösungen zu den Übungsaufgaben im Kapitel 4 des Lehrbuches Operations Research Deterministische Modelle und Methoden von Stephan Dempe und Heiner Schreier Aufgabe 1: Berechnen Sie für den in Abbildung
MehrStructurally Evolved Neural Networks for Forecasting
Structurally Evolved Neural Networks for Forecasting - Strukturierte neuronale Netze für Vorhersagen Institut für Informatik - Ausgewählte Kapitel aus dem Bereich Softcomputing Agenda Grundlagen Neuronale
Mehr2. Datenvorverarbeitung
Kurzreferat Das Ziel beim Clustering ist es möglichst gleich Datensätze zu finden und diese in Gruppen, sogenannte Cluster zu untergliedern. In dieser Dokumentation werden die Methoden k-means und Fuzzy
Mehr