Evolutionsstrategien
|
|
|
- Stephan Kuntz
- vor 9 Jahren
- Abrufe
Transkript
1 Evolutionsstrategien zum Seminar Evolutionäre Algorithmen von Jana Schäfer
2 INHALTVERZEICHNIS 1. Einführung Die Geschichte der Evolutionsstrategien Grundlegendes Begriffe Evolutionsalgorithmus Evolutionsfaktoren Rekombination Mutation Selektion Komma-Selektion Plus-Selektion Abbruchskriterien Formen der Evolutionsstrategien Die (1+1)-ES Die (μ/ρ +, λ)-es Die (μ, κ, λ, ρ)-es Zusammenfassung Literatur
3 1. Einführung Zur Bewältigung vieler komplexer Optimierungsprobleme wurden in den vergangenen Jahrzehnten Methoden entwickelt, die gewisse Vorlagen aus der Natur adaptiert haben. Es liegt nahe, die Methoden, mit denen die Natur verschiedenste Probleme gelöst hat, nachzuahmen, um zu neuen technischen oder wissenschaftlichen Lösungen zu gelangen. Viele dieser Methoden stammten ursprünglich aus den Forschungsbereichen Künstliche Intelligenz und Künstliches Leben. Zu den bekannteren und erfolgreicheren Beispielen zählen Neuronale Netze, Fuzzy Methoden und Evolutionäre Algorithmen. Evolutionäre Algorithmen sind meist auf Computern implementierten stochastische Such- und Optimierungsverfahren, welche von der klassischen Evolutionstheorie abgeleitet wurden. Die Grundidee ist, dass sich Populationen von Individuen an ihre Umwelt anpassen, um langfristig zu überleben. Dazu werden einige Prinzipien der darwinistischen Evolutionstheorie, deren einfachste Formulierung in der Regel survival of the fittest zu finden ist, in Computerprogrammen umgesetzt. Zu den evolutionären Algorithmen gehören genetische Algorithmen, Evolutionsstrategien, evolutionäres Programmieren und genetisches Programmieren. In dieser Ausarbeitung werden die Evolutionsstrategien beschrieben. Es wird zuerst auf die Geschichte der Evolutionsstrategien eingegangen (Kapitel 2). In dem nächsten Kapitel 3 werden wichtige Begriffe bezüglich der Evolutionsstrategien erklärt, um spätere Beschreibungen besser zu verstehen. Hier wird auch der Evolutionsalgorithmus gezeigt. Danach werden die Evolutionsfaktoren erklärt (Kapitel 4) und zum Schluss werden drei Formen der Evolutionsstrategien vorgestellt (Kapitel 5). 3
4 2. Die Geschichte der Evolutionsstrategien Die Evolutionsstrategien wurden von Ingo Rechenberg und Hans-Paul Schwefel an der Technischen Universität Berlin in der Mitte der 60er Jahre entwickelt. Sie bearbeiteten verschiedene Probleme experimentell, die sich nicht analytisch beschreiben ließen und auf die keine traditionellen Methoden angewendet werden konnten. Deshalb entwickelten sie einen einfachen Algorithmus, mit dem die experimentellen Bedingungen verändert wurden. Der Algorithmus basierte auf zufälligen Veränderungen, wobei kleinere Veränderungen wahrscheinlicher waren als große Veränderungen. Wenn die neuen experimentellen Bedingungen eine Verbesserung erbrachten, wurden sie als Ausgangspunkt für die Einstellung neuer Bedingungen genutzt. Ansonsten dienten die vorhergehenden Bedingungen als Ausgangspunkt für weitere Experimente. Mit diesem einfachen Verfahren wurden verschiedene Probleme gelöst. Mit der Verfügbarkeit eines ersten Rechners simulierte Hans-Paul Schwefel verschiedene Versionen der Evolutionsstrategie genannten Experimentiermethode auf einem Computer. Andere wendeten nachfolgend die Evolutionsstrategie zur Lösung numerischer Optimierungsprobleme an. Aufgrund der vielfältigen Erweiterungen der ursprünglichen Evolutionsstrategie von Rechenberg aus den 60er und 70er Jahren kam es im Laufe der letzten Jahrzehnten zur Entwicklung mehrerer in sich abgeschlossener und aufeinander aufbauender Evolutionsstrategien zunehmender Komplexität. Die ersten Modelle der Evolutionsstrategen waren sehr abstrakt und haben viele Details der biologischen Evolution vernachlässigt. Im Laufe der Jahre haben Rechenberg und Schwefel das Evolutionsmodell jedoch stärker an die tatsächlichen biologischen Gegebenheiten angelehnt. Die verschiedenen Evolutionsstrategien stellen deshalb auch unterschiedliche Stufen der Imitation der biologischen Evolution dar. Die ersten Arbeiten mit Evolutionsstrategien verwendeten ein Individuum, das einen Nachkommen produzierte, genannt (1+1)-ES. Ein Nachkomme entstand durch Mutation aus dem Elter. Das in den ersten Experimenten verwendete diskrete Mutationsschema wurde wenig später durch ein kontinuierliches Mutationsschema unter Verwendung normal verteilter Mutationen ersetzt. Das bessere Individuum von Elter und Nachkomme wurde als Elter des nächsten Nachkommen verwendet. Diese einfache Evolutionsstrategie mit zwei Individuen bildete die Grundlage für die weiteren Entwicklungen der Evolutionsstrategie. Eine Theorie der Evolutionsstrategien sowie ein Überblick über einige der frühen Anwendungen der Evolutionsstrategie wurden von Rechenberg im Jahre 1973 veröffentlicht. Die Verwendung einer vollständigen Population für Evolutionsstrategien wurde von Schwefel entwickelt. Neben der Verwendung einer Population von Individuen und Rekombination zur Produktion von Nachkommen bezogen diese Evolutionsstrategien außerdem die wichtigsten Parameter des Suchverfahrens (Standardabweichung und Korrelationskoeffizienten der Normalverteilten Mutation) in den Optimierungsprozess mit ein. Dadurch wurden nicht nur die Parameter des Problems optimiert, sondern auch die Parameter der Suchstrategie den aktuellen Gegebenheiten des Optimierungsproblems angepasst (Selbstadaption der Strategieparameter). Ab Ende der 80er Jahre kam es zu einem deutlichen Aufschwung des Interesses bezüglich der Evolutionsstrategien. Die Weiterentwicklung der Evolutionsstrategien wird auch heute 4
5 hauptsächlich in Deutschland vorangetrieben. Die Zentren der Aktivitäten liegen an der Technischen Universität Berlin (Ingo Rechenberg) und an der Technischen Universität Dortmund (Hans-Paul Schwefel). Die Evolutionsstrategien haben heute einen festen Platz unter den Evolutionären Algorithmen. Dazu haben nicht nur die langjährige Entwicklung und der erfolgreiche Einsatz beigetragen, sondern auch die Ergebnisse zur Theorie der Evolutionsstrategien, unter anderem Aussagen zur Fortschrittsgeschwindigkeit und der Konvergenz zum globalen Optimum. 5
6 3. Grundlegendes 3.1 Begriffe Individuum: Gemäß dem biologischen Vorbild werden bei vielen Heuristiken Punkte im Suchraum Individuen genannt. Die zu einem Zeitpunkt aktuellen Individuen bilden die Population, die sich von Generation zu Generation verändert. Das Individuum ist bei Evolutionsstrategie nicht codiert, sondern liegt meist als Vektor von n reellwertigen Variablen vor. Population: Als Population wird eine Menge strukturell gleichartiger Individuen bezeichnet. Fitnesswert: Der Fitnesswert ist ein Kennwert, der die Güte einer speziellen Lösung zu einem Optimierungsproblem beschreibt. Ziel der Optimierung ist es, eine Lösung mit einem möglichst guten Fitnesswert zu finden. Fitnessfunktion: Eine Fitnessfunktion berechnet den Fitnesswert eines Individuums. Dabei kann sie z. B. die Position des Individuums im Raum berücksichtigen. 3.2 Evolutionsalgorithmus Bei der Anwendung von Evolutionsstrategien geht es vielfach um eine Optimierung von Zielfunktionen. Die Evolutionsstrategien gehen nicht auf die Genstruktur oder eine detaillierte Chromosomcodierung der Individuen ein. Aus der Sicht der Evolutionsstrategien lässt sich die relevante (Erb-) Informationen eines Individuums in Vektoren von reellen Zahlen darstellen. Die Evolutionsstrategie optimiert gegebene(n) Ziel- oder Qualitätsfunktion(en) F, in Bezug auf eine Reihe von Entscheidungsvariablen y: = (y1, y2...) (oft Objektparameter genannt). F(y) -> Optimum und y ist ein Element aus Y Y kann jeder Satz von Datenstrukturen sein, aber nicht notwendigerweise festen Länge. Beispiele für Y sind der N-dimensionaler Suchraum R^N, der Suchraum der ganzen Zahl Z^N. Die Evolutionsstrategien arbeiten auf Populationen P von Individuen a. Ein Individuum ak mit dem Index k umfasst den spezifischen Satz der Objektparameter (oder Vektor) yk, sein Zielfunktionswert Fk: = F(yk), manchmal ein Verweis auf Fitness, und gewöhnlich auch ein Satz von endogenen Strategieparametern sk ak := (yk, sk, F(yk)) 6
7 Die endogenen Strategieparameter werden verwendet, um gewisse statistische Eigenschaften der genetischen Operatoren, besonders Mutationsoperatoren, zu kontrollieren. Die endogenen Strategieparameter können sich während des Evolutionsprozesses entwickeln und sind in Selbstanpassung (self-adaptive) Evolutionsstrategie erforderlich. Es existieren verschiedene Faktoren, die zu einer Evolution führen können. Diese sind: Rekombination Mutation Selektion Durch die Rekombination der Erbinformation der selektierten Individuen erben die Nachkommen die verschiedenen Eigenschaften ihrer Eltern. Die Mutation der Nachkommen sorgt für eine Veränderung der bestehenden Ausprägung, wobei sich hier eine Verbesserung, aber auch eine Verschlechterung der Nachkommen einstellen kann. Die Selektion auf Grund der Fitness von Individuen führt zu einer sich ständig verbessernden Population. Der Ablauf einer Evolutionsstrategie gliedert sich hauptsächlich in drei Teile. Zuerst werden die notwendigen Kenngrößen initialisiert und eine Startpopulation generiert. Für diese werden die Fitnesswerte jedes Individuums bestimmt. Im zweiten Abschnitt werden hieraus wiederholend neue Generationen erzeugt, indem je Nachkomme im Allgemeinen zwei Eltern ausgewählt werden. Deren Strategieparameter werden rekombiniert und die des so entstandenen Kindes zusätzlich mutiert. Aus diesem Pool neuer Individuen erzeugt der Algorithmus nun durch Wahl der Besten eine neue Elterngeneration. Dieser Prozess setzt sich solange fort, bis eine Abbruchbedingung gilt. Am Ende erfolgt im dritten Abschnitt die Ausgabe des Ergebnisses, die beste gefundene Lösung für das Ausgangsproblems. Der Evolutionsalgorithmus sieht folgendermaßen aus: 1. Erstellung einer Population 2. Erzeugung der Nachkommen aus der bestehenden Population (mittels Rekombination, Mutation) 3. Bewertung der Fitness von Individuen 4. Durchführung der Selektion 5. Wiederholung der Schritte 2. bis 4. bis a. die Abbruchkriterien erfüllt sind oder b. eine Lösung ermittelt wird Es existieren mehrere Formen der Evolutionsstrategie. Es werden folgende Formen erklärt: (1+1)-ES (μ/ρ +, λ)-es (μ, κ, λ, ρ)-es 7
8 4. Evolutionsfaktoren 4.1 Rekombination In diesem Teilschritt werden die Komponenten der beiden Eltern zu einem neuen Individuum, den Nachkommen, kombiniert. Hierbei werden üblicherweise für die Entscheidungsvariablen und die Strategieparameter unterschiedliche Formen der Rekombination verwendet. Das für die Entscheidungsvariablen verwendete Verfahren heißt diskrete Rekombination und entspricht prinzipiell dem Uniform Crossover bei Generischen Algorithmen. Die Entscheidungsvariablen des Nachkommen werden unabhängig voneinander und mit gleicher Wahrscheinlichkeit entweder vom einen oder vom anderen Elternteil unverändert übernommen. Beispiel: Diskrete Rekombination: Elter Elter Nachkomme Bei den Standardabweichungen kommt ein anderes Verfahren zum Einsatz, welches als intermediäre Rekombination bezeichnet wird. Hierbei wird der lineare Mittelwert der jeweiligen Standardabweichungen der Eltern gebildet und dem Nachkommen zugewiesen. Beispiel: Intermediäre Rekombination: Elter Elter Nachkomme Auch wenn die Rekombination bei ES nicht die wichtigste Variationsmethode ist, so ist sie dennoch bedeutend für die Anpassung der Strategieparameter und beschleunigt so den gesamten Optimierungsprozess. 4.2 Mutation Die Mutationen sind bei den Evolutionsstrategien der eigentliche Antriebsmechanismus zur Suche im genetischen Parameterraum. Dabei müssen zwei Punkte berücksichtigt werden: Die Randbedingungen dürfen durch Mutationen nicht verletzt werden. Kleine Veränderungen der Parameter müssen statistisch häufiger vorkommen als große. 8
9 Um eine möglichst breite Lösungsvielfalt zu erreichen, wird das neu entstandene Individuum nach der Kreuzung mutiert. Der Mutationsoperator verändert ein Individuum zufällig. Bei der Mutation wird zu jedem Objektparameter eines Individuums ein zufälliger Wert addiert. y k = yk + z Die Zufallszahlen werden gemäß einer Normalverteilung z ~ N(0, σ) mit der Dichte generiert. Die Standardabweichung σi wird als Mutationsschrittweite bezeichnet. Existiert nur eine globale Mutationsschrittweite σ werden alle Individuen damit mutiert. Durch eine geschickte Adaption der Schrittweite kann der Erfolgsfaktor einer Mutation verbessert werden. Dem Mutationsoperator kommt ein großer Stellenwert als Suchoperator bei Evolutionsstrategien zu. Er stellt die Hauptquelle für genetische Variation dar. Ein Mutationsoperator muss drei Anforderungen erfüllen: Erreichbarkeit: Ausgehend von einem gegebenen Zustand muss jeder anderer Zustand erreichbar sein. Driftlosigkeit: Die durch Mutation verursachte genetische Variation sollte keine Richtung aufweisen. Erst die Selektion drängt durch die Fitnesswerte der Nachkommen dem Suchprozess in eine bestimmte Richtung. Skalierbarkeit: Die Mutationsschrittweite muss einstellbar sein, um erfolgreiche Schritte der Evolutionsstrategie in der Fitnesslandschaft zu ermöglichen. 4.3 Selektion Bei der Selektion in Evolutionsstrategie bekommen nur jene μ Individuen eine Chance zur Übernahme in die Population der nächsten Generation, die sehr gute Eigenschaften, z.b. hohe Fitnesswerte (Zielfunktionswerte), besitzen. Es gibt jedoch verschiedene Varianten dieses Selektionsprozesses Komma-Selektion Plus-Selektion Komma-Selektion Bei der (μ, λ)-es (Komma-Selektion) werden aus μ Eltern λ Kinder (μ ist sehr viel kleiner als λ) erzeugt. Dabei werden die μ besten aus den λ Nachkommen selektiert; die Eltern der Vorgängergeneration werden vergessen. Bei dieser Form gibt es keine potentiell unsterblichen Individuen. Jedes Individuum lebt nur noch für die Dauer einer Generation. In der Abbildung 1 9
10 kann der Verlauf der Qualitätsfunktion bei Komma-Selektion beobachtet werden. Die Individuen verschiedener Generationen haben hohe und niedrigere Qualität. Qualität Beste Individuen Abbildung 1: Verlauf der Qualitätsfunktion bei Komma-Selektion In dem Fall, wo μ = λ ist, kann der Evolutionsalgorithmus nicht arbeiten, weil die ganzen Nachkommen als Eltern ausgewählt werden. Das Anwendungsgebiet der (μ, λ)-es ist für unbegrenzte Suchräume Y, besonders Y = R^N Plus-Selektion In der Form (μ + λ)-es (Plus-Selektion) treten μ Eltern und λ Nachkommen. Zum Beispiel eine (μ + λ)-es mit μ = 4 und λ = 8 ist eine (4 + 8)-ES. μ und λ repräsentieren beliebige ganze Zahlen und sind immer so zu wählen, dass λ μ 1 ist. Die Evolutionsschritte sind folgenden: aus den μ Eltern werden λ Eltern für die Erzeugung von λ Nachkommen (Duplikate) zufällig ausgewählt. Die Auswahl trifft mit gleicher Wahrscheinlichkeit jedes Individuum der Elternpopulation. In dem zweiten Schritt wird das Duplikat (Kind) mutiert. Als nächstes werden aus den Eltern und Kindern die μ besten Individuen als Eltern der nächsten Generation ausgewählt. Bei dieser Form werden die Eltern und die Nachkommen einer Generation gemeinsam bewertet, und die jeweils μ besten überleben. Es handelt sich hierbei um eine Form der Elite-Selektion, denn ein Individuum, der hinsichtlich der Qualitätsfunktion wesentlich besser ist als die meisten anderen Individuen, viele Generationen überleben kann. In der Abbildung 2 kann der Verlauf der Qualitätsfunktion beobachtet werden. Die Qualität der Individuen verschiedener Generationen fällt nie, sie steigt stetig. 10
11 Qualität Beste Individuen Abbildung 2: Verlauf der Qualitätsfunktion bei Plus-Selektion Das Anwendungsgebiet der (μ + λ)-es ist für diskrete Suchräume mit begrenzter Größe. Die (μ + λ)-es hat jedoch gegenüber der (μ, λ)-es einige Nachteile. Bei der Plus-Selektion besteht immer die Gefahr, dass lokale Optima nie mehr verlassen werden kann, da die relativ guten Lösungen dort nie aus der Population verschwinden. Darüber hinaus wird die Selbstanpassung der Strategieparameter aus demselben Grund erheblich erschwert. Dies ist beispielsweise dann der Fall, wenn mit sehr schlechten Strategieparametern zufällig ein lokales Optimum erreicht wird. Da die Nachkommen mit den für diesen Ort ungeeigneten Standardabweichungen mutiert werden, werden sie sehr wahrscheinlich schlechtere Fitnesswerte haben als das Elter, welches somit immer mitsamt seinen schlechten Strategieparametern in der Population verbleibt. Da bei der Komma-Selektion alle Individuen nur für eine Generation existieren, gelten diese Nachteile dort nicht. 4.4 Abbruchskriterien Schließlich muss noch festgelegt werden, wie lange die Evolution simuliert werden muss. Es müssen also Abbruchkriterien definiert werden. Im Großen und Ganzen gibt es drei verschiedene solcher Kriterien: Am einfachsten ist es, abzubrechen, wenn die Qualitätsfunktion eines Nachkommen hinreichend gut ist. Voraussetzung ist natürlich, dass man ein Optimum definieren kann. Zudem muss sichergestellt sein, dass man sich nicht in einem lokalen Optimum wieder findet, da dieses oft nutzlos ist. Wenn die Optimale Lösung nicht bekannt ist, verwendet man oft das Überschreiten einer gewissen Zeit als Abbruchkriterium. Ein anderes, doch ähnliches, Kriterium stellt der Abbruch nach einer gewissen Anzahl erzeugter Generationen dar. Man gibt also sozusagen die Anzahl der Iterationsschritte vor. Bei den beiden zuletzt genannten Kriterien besteht jedoch die Gefahr, dass man das Fingen der optimalen Lösung durch zu frühzeitigen Abbruch verhindert. 11
12 5. Formen der Evolutionsstrategien 5.1 Die (1+1)-ES Die einfachste Form der Evolutionsstrategie ist die so genannte zweigliedrige (1+1)-ES (Abbildung 3). Es wird von einem Ur-Individuum (einem Vektor reeller Zahlen), einem Elter, wird ein zweites Individuum (ein zweites Vektor), ein Kind erzeugt, indem der Ausgangsvektor zunächst einfach dupliziert wird. In dem zweiten Schritt wird das Duplikat (Kind) zufällig, aber nicht willkürlich, modifiziert. Das Duplikat wird mutiert, indem auf jeden einzelnen Parameter des Vektors ein zufälliger positiver oder negativer Wert addiert wird. Die Mutation kann durch Addition eines Normalverteilten Vektors erzielt werden. Im nächsten Schritt werden der Ausgangsvektor (Elter) und das mutierte Duplikat (Kind) bewertet. Hier wird die Regel survival of the fittest verwendet: der Vektor, dem die Qualitätsfunktion den besseren Wert zuordnet, überlebt und wird zum neuen Elter. Elter Qualitätswert 1 Duplikation 1 3 Mutation Neuer Elter Neues Individuum ist besser als Elter 3 Abbildung 3: (1+1)-ES Die drei Schritten: Duplikation, Mutation und Selektion werden so oft wiederholt, bis die Qualität eines Nachkommens hinreichend gut ist oder einer der Abbruchskriterien erreicht ist. Dieses Modell lässt die sexuelle Rekombination außer Acht. Trotz der Einfachheit findet man sinnvolle Anwendungen, Dank der Möglichkeiten der Schrittweitenregelung der Mutation. 12
13 5.2 Die (μ/ρ +, λ)-es Die bislang gezeigten Varianten der ES machen keinen Gebrauch von der sexuellen Rekombination. Bei 4der Form (μ/ρ +, λ)-es (μ ist viel kleiner als λ) werden zunächst aus der Elternpopulation nicht mehr einzelne Individuen zu Erzeugung der Nachkommen herangezogen, sondern Gruppen (Abbildung 4). Diese Gruppe bestehen aus jeweils ρ Elementen. Wenn zum Beispiel ρ = 2 ist, dann bedeutet dieses, dass es jeweils λ Zweiergruppen (Pärchen) gebildet werden. Die Auswahl von ρ Eltern erfolgt wie immer zufällig mit gleicher Wahrscheinlichkeit für jedes Elter. Die Nachkommen werden zunächst dupliziert und dann auch mutiert. In dem nächsten Schritt, der Selektion, werden die besten Individuen, bei Komma-Selektion nur die Kinder und bei Plus-Selektion die Kinder mit den Eltern, ausgewählt. 7 2 Auswahl der Eltern 4 Mutation Abbildung 4: (μ/ρ +, λ)-es 13
14 5.3 Die (μ, κ, λ, ρ)-es Eine Zwischenform der Komma- und Plus-Selektion stellt (μ, κ, λ, ρ)-es dar (μ ist viel kleiner als λ). Jedem Individuum wird hierbei ein Generationenzähler κ zugeordnet. Dieser zusätzliche Parameter bestimmt, über wie viele Generationen hinweg ein Individuum höchstens, auf Grund seines Fitnesswertes, für die nächste Elterpopulation ausgewählt werden darf. Also kurz: wie lange ein Individuum leben darf, falls es gut ist. κ erhöht sich bei jedem Individuum bei jeder überlebenden Generation. Wenn das Individuum ein bestimmtes Alter erreicht, etwa nach κ Generationen, wird es im Selektionsschritt nicht mehr berücksichtigt. 6. Zusammenfassung Evolutionäre Algorithmen bedienen sich der Idee der biologischen Evolution, um wie diese aus einer Population von Individuen immer besser angepasste Individuen zu erzeugen, wobei (zumindest bei Genetischen Algorithmen und Evolutionsstrategien) die Idee, aus guten Lösungen neue zu kombinieren, die bereits guten Eigenschaften übernehmen und möglichst neue, bessere Eigenschaften durch Mutation zu erwerben. In dieser Ausarbeitung wurden die Evolutionsstrategien beschrieben. Die Evolutionsstrategien arbeiten auf Populationen von Individuen und werden zur Optimierung der Zielfunktionen verwendet. Es existieren drei Faktoren (Rekombination, Mutation, Selektion), die zu einer Evolution führen können. Die Mutation ist dabei der wichtigste Faktor. Zu diesen Faktoren wurden auch verschiedene Formen der Evolutionsstrategien erklärt. 7. Literatur Hans-Georg Beyer, Hans-Paul Schwefel: Evolution strategies: A comprehensive introduction. Kluwer Academic Publishers, Eberhard Schöneburg, Frank Heizmann, Sven Feddersen: Genetische Algorithmen und Evolutionsstrategien. Addison-Wesley Verlag, Karsten Weicker: Evolutionäre Algorithmen. Teubner Verlag, Michael Stahl: Genetische und Evolutionäre Algorithmen, Evolutionsstrategien, Proseminar, Ingo Rechenberg: Evolutionsstrategie im Detail, Frank Förster: Genetische und Evolutionäre Algorithmen. Genetische Algorithmen Grundkonzept und genetische Operatoren, Proseminar, Markus Franz: Evolutionäre Algorithmen im Wirkstoffdesign, Proseminar, Felix Streichert: Evolutionäre Algorithmen: Implementation und Anwendungen im Asset-Management-Bereich, Diplomarbeit, Norbert Nopper: Natural Computation: Evolution Theory, Proseminar,
15 Andreas Lehmann: Genetische Algorithmen gegen Evolutionäre Strategien. HU Berlin, 2002 L. Obretin, P. Dulovits, A.Walter: Evolutionsstrategien, Proseminar, Hannes Planatscher: Rekonstruktion genregulatorischer Netzwerke mit Evolutionären Algorithmen, Studienarbeit, Oliver Kramer: Restriktionsbehandlung bei Evolutionsstrategien, Diplomarbeit,
Optimale Produktliniengestaltung mit Genetischen Algorithmen
Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen
Genetische und Evolutionäre Algorithmen (Vol. 1)
Vortrag über Genetische und Evolutionäre Algorithmen (Vol. ) von Adam El Sayed Auf und Kai Lienemann Gliederung: ) Einführung 2) Grundkonzept 3) Genaue Beschreibung des Genetischen Algorithmus Lösungsrepräsentation
InformatiCup 2009 EvolutionConsole
InformatiCup 2009 EvolutionConsole Wilhelm Büchner Hochschule 19. März 2010 1 1. Das Team Teammitglieder Ralf Defrancesco KION Information Services GmbH Systemadministrator Daniel Herken Scooter Attack
EVOLUTION STRATEGIES DANIELA SCHACHERER SEMINAR: IST KÜNSTLICHE INTELLIGENZ GEFÄHRLICH? SOMMERSEMESTER 2017
EVOLUTION STRATEGIES DANIELA SCHACHERER SEMINAR: IST KÜNSTLICHE INTELLIGENZ GEFÄHRLICH? SOMMERSEMESTER 2017 Inhalt Einleitung und Überblick Evolutionsstrategien Grundkonzept Evolutionsstrategien als Alternative
Populationsbasierte Suche. Evolutionäre Algorithmen (1)
Populationsbasierte Suche Bisherige Meta-Heuristiken: Simulated Annealing Tabu Search Ausgehend von einer Lösung wird gesucht Populationsbasierte Heuristiken Suche erfolgt ausgehend von mehreren Lösungen
Evolutionsstrategien
Evolutionsstrategien Seminar Evolutionary Algorithms SS 2010 Cornelius Diekmann Lehrstuhl Robotics and Embedded Systems Veranstalter: Dipl.-Inf. Frank Sehnke Fakultät für Informatik Technische Universität
Survival of the Fittest Optimierung mittels Genetischer Algorithmen
Übung zu Organic Computing Survival of the Fittest Optimierung mittels Genetischer Algorithmen Sabine Helwig Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Universität Erlangen-Nürnberg [email protected]
Genetische Algorithmen
Genetische Algorithmen Von Valentina Hoppe und Jan Rörden Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Gliederung Biologische Evolution Genetischer Algorithmus Definition theoretischer
Hauptseminar Repräsentationen für Optimierungsalgorithmen
Stefan Bens Hauptseminar Dresden, 03.07.2008 Inhalt 1. Motivation 2. Einleitung 3. Repräsentationsarten und Eigenschaften 4. Beispiel 5. Zusammenfassung Folie 2 Als Repräsentation bezeichnet man die Kodierung
Künstliche Intelligenz
Künstliche Intelligenz Vorlesung 9 und 10: Evolutionäre Standardalgorithmen 1/69 LERNZIELE Die gängigen Standardalgorithmen, aus der Anfangszeit bis heute, werden vorgestellt. Die bekannten Standardalgorithmen
Evolutionsstrategie - Grundkonzept und Basisoperatoren -
Evolutionsstrategie - Grundonzept und Basisoperatoren - Proseminar Evolutionsstrategien Technische Universität Chemnitz Sommersemester 00 Toni Reichelt Matr.-nr.: 37 Gliederungsübersicht. Vereinbarungen....
Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008
Genetische Algorithmen Uwe Reichel IPS, LMU München [email protected] 8. Juli 2008 Inhalt Einführung Algorithmus Erweiterungen alternative Evolutions- und Lernmodelle Inhalt 1 Einführung
Seminararbeit zum Thema Genetische Algorithmen
Seminararbeit zum Thema Genetische Algorithmen Seminar in Intelligent Management Models in Transportation und Logistics am Institut für Informatik-Systeme Lehrstuhl Verkehrsinformatik Univ.-Prof. Dr.-Ing.
Genetische Algorithmen
Genetische Algorithmen Shawn Keen Zusammenfassung Eine weitere Herangehensweise an das maschinelle Lernen ist die Nachahmung evolutionärer Prozesse. Hier wollen wir uns mit den sogenannten Genetischen
Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen
Einführung in die Methoden der Künstlichen Intelligenz Evolutionäre Algorithmen Dr. David Sabel WS 2012/13 Stand der Folien: 12. November 2012 Evolutionäre / Genetische Algorithmen Anwendungsbereich: Optimierung
Genetische Algorithmen
Genetische Algorithmen Projektgruppe 431 Metaheuristiken Bianca Selzam Inhaltsverzeichnis 1 Einleitung......................................................... 1 2 Grundlagen aus der Biologie.......................................
Der genetische Algorithmus
Joachim Breitner Seminarkurs am Schickhardt-Gymnasium Herrenberg 2002/2003 Halbjahr 12.2 Modellbildung und Simulation am Beispiel der Evolution und dem Programm EvoLab Thema 2: Der genetische Algorithmus
Linsenberechnung mit Evolutionsstrategien
Linsenberechnung mit Evolutionsstrategien Ralf Gruber und Rainer Müller Lehrstuhl für Didaktik der Physik, Universität München Schellingstr. 4, 80799 München E-mail: [email protected]
Grundlagen und Basisalgorithmus
Grundlagen und Basisalgorithmus Proseminar -Genetische Programmierung- Dezember 2001 David König Quelle: Kinnebrock W.: Optimierung mit genetischen und selektiven Algorithmen. München, Wien: Oldenbourg
GP-Music: An Interactive Genetic Programming System for Music Generation with Automated Fitness
GP-Music: An Interactive Genetic Programming System for Music Generation with Automated Fitness Raters Brad Johanson, Riccardo Poli Seminarvortrag von Thomas Arnold G ˇ ˇ ˇ ˇ WS 2012/13 TU Darmstadt Seminar
Systempartitionierung Evol. Algorithmen
Systempartitionierung Evol. Algorithmen Hw-Sw-Co-Design Übersicht Grundlagen Evolutionärer Algorithmen Strömungsrichtungen Hybride evolutionäre Algorithmen Systempartitionierung und -exploration 1 Einleitung
Exkurs Modelle und Algorithmen
Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen
Genetische Algorithmen von der Evolution lernen
Genetische Algorithmen von der Evolution lernen (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Nils J. Nilsson Artificial Intelligence Morgan Kaufmann, 1998 Ansatz Bisher: Problemlösung
Übersicht. Lamarck und Darwin Variation natürliche Selektion, sexuelle, künstliche Gendrift Artbildung adaptive Radiation
Evolution 1 Übersicht Lamarck und Darwin Variation natürliche Selektion, sexuelle, künstliche Gendrift Artbildung adaptive Radiation 2 Jean Baptiste de LAMARCK... der häufige Gebrauch eines Organs [stärkt]
Mechanismen der Evolution. Übersicht. Lamarck und Darwin Variation natürliche Selektion, sexuelle, künstliche Gendrift Artbildung adaptive Radiation
Mechanismen der Evolution 1 Übersicht Lamarck und Darwin Variation natürliche Selektion, sexuelle, künstliche Gendrift Artbildung adaptive Radiation 2 Jean Baptiste de LAMARCK... der häufige Gebrauch eines
Eine Analyse des Effektes von Lernen auf Populationsfitness und Diversität in einer NK-Fitnesslandschaft. Lars Melchior
Eine Analyse des Effektes von Lernen auf Populationsfitness und Diversität in einer NK-Fitnesslandschaft Lars Melchior Theoretische Grundlagen Theoretische Grundlagen Genetik Genetische Algorithmen NK
Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik
Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik Dozent: Prof. Dr. Henning Meyerhenke Paralleles Rechnen, Fakultät für Informatik 1 KIT Universität des Landes
Genetische Algorithmen
Genetische Algorithmen In dieser Ausarbeitung gemäss Aufgabenstellung auf der Kurshomepage des Moduls Knowledge- Based Systems wird die Funktionsweise und Nutzung von genetischen Algorithmen erläutert.
Computational Intelligence
Vorlesung Computational Intelligence Stefan Berlik Raum H-C 80 Tel: 027/70-267 email: [email protected] Inhalt Überblick Rückblick Optimierungsprobleme Optimierungsalgorithmen Vorlesung Computational
Evotool Eine Matlab-Toolbox für Evolutionsstrategien. Christian Voigt
Evotool Eine Matlab-Toolbox für Evolutionsstrategien Christian Voigt September 2007 Agenda 1 Einführung 2 Erstellung des Initialisierungsskripts 3 Erstellung einer passenden Fitnessfunktion 4 Graphische
OLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
Genetische Algorithmen und Evolutionäre Strategien
Genetische Algorithmen und Evolutionäre Strategien von Adam El Sayed Auf und Kai Lienemann Eine Ausarbeitung zum Seminar Intelligente Algorithmen im Wintersemester 2003/2004 an der Universität Bielefeld
Ausarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme
Universität Hamburg Fachbereich Mathematik Seminar: Proseminar Graphentheorie Dozentin: Haibo Ruan Sommersemester 2011 Ausarbeitung zum Modulabschluss Graphentheorie spannende Bäume, bewertete Graphen,
8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick
Grundlagen der Künstlichen Intelligenz 5. April 0 8. Suchalgorithmen: Lokale Suche Grundlagen der Künstlichen Intelligenz 8. Suchalgorithmen: Lokale Suche 8.1 Einleitung Malte Helmert Universität Basel
7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen
7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen 7.7.1 Die Laplace-Verteilung Sei X eine gleich verteilte Zufallsvariable mit den Werten in der Menge Ω X = {x i R : i = 1,...,n}, d.h. f (x i = 1
Konkretes Durchführen einer Inferenzstatistik
Konkretes Durchführen einer Inferenzstatistik Die Frage ist, welche inferenzstatistischen Schlüsse bei einer kontinuierlichen Variablen - Beispiel: Reaktionszeit gemessen in ms - von der Stichprobe auf
Primzahlen im Schulunterricht wozu?
Primzahlen im Schulunterricht wozu? Franz Pauer Institut für Fachdidaktik und Institut für Mathematik Universität Innsbruck Tag der Mathematik Graz 6. Februar 2014 Einleitung Eine (positive) Primzahl ist
Genetische Algorithmen und Evolutionsstrategien
Eberhard Schöneburg Frank Heinzmann Sven Feddersen Genetische Algorithmen und Evolutionsstrategien Eine Einführung in Theorie und Praxis der simulierten Evolution Tschnische UnsversSsät Darmstadt Fachbereich
Grundlagen der Künstlichen Intelligenz
Grundlagen der Künstlichen Intelligenz 9. Klassische Suche: Baumsuche und Graphensuche Malte Helmert Universität Basel 13. März 2015 Klassische Suche: Überblick Kapitelüberblick klassische Suche: 5. 7.
Evolutionäre Algorithmen - Kapitel 15
Evolutionäre Algorithmen - Kapitel 15 Metaheuristiken Prof. Dr. Rudolf Kruse ÖÙ Û º ºÙÒ ¹Ñ ÙÖ º Fakultät für Informatik Otto-von-Guericke-Universität Magdeburg 9. Juni 2008 R. Kruse (Uni Magdeburg) Metaheuristiken
Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung
M.Sc. Brice Hakwa [email protected] Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung - Zusammenfassung zum Thema: Berechnung von Value-at-Risk
Gliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen
Kapitel Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren
13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Heuristische Verfahren
Heuristische Verfahren Bei heuristischen Verfahren geht es darum in polynomieller Zeit eine Näherungslösung zu bekommen. Diese kann sehr gut oder sogar optimal sein, jedoch gibt es keine Garantie dafür.
Diplomarbeit. Bülent Ulas. Entwicklung einer Software für Online-Befragungen mit interaktiven evolutionären Algorithmen
Diplomarbeit Bülent Ulas Entwicklung einer Software für Online-Befragungen mit interaktiven evolutionären Algorithmen Fakultät Technik und Informatik Studiendepartment Informatik Hamburg, 12. März 2008
Warum konvergieren Genetische Algorithmen gegen ein Optimum?
1 / 21 Gliederung 1 Das Schematheorem Motivation Begriffe Herleitung Ergebnis Das Schematheorem Das Schematheorem Motivation 3 / 21 Warum konvergieren Genetische Algorithmen gegen ein Optimum? Theoretische
Genetische Programmierung
15. Juli 2007 Anfang der 90er von John R. Koza entwickelt. Verfahren zur automatisierten Erstellung von Programmen. Von der Evolution inspiriert. Anforderungen an die Möglichst korrekte Lösung ergeben
Proseminarvortrag. Markov-Ketten in der Biologie (Anwendungen)
Proseminarvortrag Markov-Ketten in der Biologie (Anwendungen) von Peter Drössler 20.01.2010 2 Markov-Ketten in der Biologie (Peter Drössler, KIT 2010) Inhalt 1. Das Wright-Fisher Modell... 3 1.1. Notwendige
Wahrscheinlichkeitsverteilungen
Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet
Evolutionäres Programmieren
Evolutionäres Programmieren Martin Bader 29. Mai 2002 1 2 2 GRUNDKONZEPTE 1 Einleitung Evolutionäre und genetische Algorithmen sind Optimierungsverfahren, die sich, wie der Name schon sagt, nach dem Vorbild
Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte
Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte
Wichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Von der Mikro- zur Makroevolution... (1) Einige Bemerkungen zur Evolution von Organen und der höheren Taxa
Von der Mikro- zur Makroevolution... (1) Einige Bemerkungen zur Evolution von Organen und der höheren Taxa Wie funktioniert Evolution im Kleinen? Evolution beinhaltet nicht nur Artbildung, sondern auch
Übungsblatt 9 (25. bis 29. Juni)
Statistik 2 Dr. Andrea Beccarini Dipl.-Vw. Dipl.-Kffr. Heike Bornewasser-Hermes Sommersemester 2012 Übungsblatt 9 (25. bis 29. Juni) Stetiges Verteilungsmodell und Gemeinsame Verteilung Stetiges Verteilungsmodell
Allgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken
FernUniversität in Hagen Lehrstuhl für Betriebswirtschaftslehre, insb. Operations Research Prof. Dr. Wilhelm Rödder Allgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken Sandra Rudolph,
Übungen mit dem Applet Zentraler Grenzwertsatz
Zentraler Grenzwertsatz 1 Übungen mit dem Applet Zentraler Grenzwertsatz 1 Statistischer Hintergrund... 1.1 Zentraler Grenzwertsatz... 1. Beispiel Würfeln... 1.3 Wahrscheinlichkeit und relative Häufigkeit...3
METHODEN DES DATENBANKDESIGNS
METHODEN DES DATENBANKDESIGNS Man unterscheidet vier Strategien zum Design eines Schemas: Top-Down Bottom-Up Inside-Out und Mixed. Jede Strategie ist durch einen bestimmten Satz von Primitiven charakterisiert
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
Anleitung: Standardabweichung
Anleitung: Standardabweichung So kann man mit dem V200 Erwartungswert und Varianz bzw. Standardabweichung bei Binomialverteilungen für bestimmte Werte von n, aber für allgemeines p nach der allgemeinen
Stochastik Praktikum Markov Chain Monte Carlo Methoden
Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
Modelle und Verfahren zur innerbetrieblichen Standortplanung
Andreas Bölte Modelle und Verfahren zur innerbetrieblichen Standortplanung Mit 73 Abbildungen Physica-Verlag Ein Unternehmen des Springer-Verlags Inhaltsverzeichnis 1. Einleitung 1 2. Layoutplanung für
Kapitel 13. Evolutionäre Spieltheorie. Einleitung. Evolutionäre Biologie. Übersicht 2. Alternative: Biologische Evolutionstheorie
Übersicht : Evolutionäre Spieltheorie Einleitung Evolutionäre Biologie Evolutionäre Spieltheorie: Idee Gefangenendilemma (Beispiel) Evolutionäre Stabilität Beispiele Wiederholtes Gefangenendilemma Chicken-Spiel
70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
Kapitel 13. Evolutionäre Spieltheorie. Einleitung. Evolutionäre Biologie. Übersicht 2. Alternative: Biologische Evolutionstheorie
Übersicht : Evolutionäre Spieltheorie Einleitung Evolutionäre Biologie Evolutionäre Spieltheorie: Idee Gefangenendilemma (Beispiel) Evolutionäre Stabilität Beispiele Wiederholtes Gefangenendilemma Chicken-Spiel
Bayesianische Netzwerke - Lernen und Inferenz
Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel
Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte
1 Grundprinzipien statistischer Schlußweisen
Grundprinzipien statistischer Schlußweisen - - Grundprinzipien statistischer Schlußweisen Für die Analyse zufallsbehafteter Eingabegrößen und Leistungsparameter in diskreten Systemen durch Computersimulation
Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen
Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,
Genetische Algorithmen
Projekt für Algorithmische Anwendungen Genetische Algorithmen Von Mike Müller 11037091 Dennis Freese 11038517 Gruppe: B-ROT 1 Inhaltsverzeichnis Allgemeines...3 Geschichtliche Entwicklung der genetischen
Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen
Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Optimierungsprobleme
5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
Biostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung
Optimierung und Simulation
2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Optimierung und Simulation Von Dr. Jörg Biethahn O. Professor für
Lösung von Optimierungsproblemen mit Monte Carlo Methoden
Lösung von Optimierungsproblemen mit Monte Carlo Methoden Am Beispiel des Problem des Handlungsreisenden Vortragende: Alexandra Vosseler Inhaltsverzeichnis I. Einleitung II. Optimierung mit MCM II.i Vom
Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg
Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale
2. Von der Evolution zur Optimierung
2. Von der Evolution zur Optimierung Die Prinzipien der biologischen Evolution werden auf die Optimierung übertragen. Am Beispiel wird ein erster evolutionärer Algorithmus zur Optimierung konstruiert und
Aufbau und Operatoren evolutionärer Verfahren
Aufbau und Operatoren evolutionärer Verfahren Darstellung der Gene im Chromosom (Codierung) Basisalgorithmus Partnerwahl Erzeugung von Nachkommen (Rekombination und Mutation) Bewertung Überlebensregeln
Das Trust-Region-Verfahren
Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein
Institut für Stochastik, SoSe K L A U S U R , 13:
Institut für Stochastik, SoSe 2014 Mathematische Statistik Paravicini/Heusel 1. K L A U S U R 12.7.2014, 13:00-16.00 Name: Geburtsdatum: Vorname: Matrikelnummer: Übungsgruppe bei: Studiengang & angestrebter
Dynamik von Genen in Populationen
Dynamik von Genen in Populationen Thomas Spießer 01.08.2007 Zusammenfassung Evolution ist die Veränderung der vererbbaren Merkmale einer Population von Lebewesen von Generation zu Generation. 1 Das Studium
Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme
Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder
Outline. 1 Vektoren im Raum. 2 Komponenten und Koordinaten. 3 Skalarprodukt. 4 Vektorprodukt. 5 Analytische Geometrie. 6 Lineare Räume, Gruppentheorie
Outline 1 Vektoren im Raum 2 Komponenten und Koordinaten 3 Skalarprodukt 4 Vektorprodukt 5 Analytische Geometrie 6 Lineare Räume, Gruppentheorie Roman Wienands (Universität zu Köln) Mathematik II für Studierende
Studientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Numerische Verfahren der nicht-linearen Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Line
Einfaktorielle Varianzanalyse
Kapitel 16 Einfaktorielle Varianzanalyse Im Zweistichprobenproblem vergleichen wir zwei Verfahren miteinander. Nun wollen wir mehr als zwei Verfahren betrachten, wobei wir unverbunden vorgehen. Beispiel
Grundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
