Evolutionsstrategien

Ähnliche Dokumente
Optimale Produktliniengestaltung mit Genetischen Algorithmen

Genetische und Evolutionäre Algorithmen (Vol. 1)

InformatiCup 2009 EvolutionConsole

EVOLUTION STRATEGIES DANIELA SCHACHERER SEMINAR: IST KÜNSTLICHE INTELLIGENZ GEFÄHRLICH? SOMMERSEMESTER 2017

Populationsbasierte Suche. Evolutionäre Algorithmen (1)

Evolutionsstrategien

Survival of the Fittest Optimierung mittels Genetischer Algorithmen

Genetische Algorithmen

Hauptseminar Repräsentationen für Optimierungsalgorithmen

Künstliche Intelligenz

Evolutionsstrategie - Grundkonzept und Basisoperatoren -

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008

Seminararbeit zum Thema Genetische Algorithmen

Genetische Algorithmen

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen

Genetische Algorithmen

Der genetische Algorithmus

Linsenberechnung mit Evolutionsstrategien

Grundlagen und Basisalgorithmus

GP-Music: An Interactive Genetic Programming System for Music Generation with Automated Fitness

Systempartitionierung Evol. Algorithmen

Exkurs Modelle und Algorithmen

Genetische Algorithmen von der Evolution lernen

Übersicht. Lamarck und Darwin Variation natürliche Selektion, sexuelle, künstliche Gendrift Artbildung adaptive Radiation

Mechanismen der Evolution. Übersicht. Lamarck und Darwin Variation natürliche Selektion, sexuelle, künstliche Gendrift Artbildung adaptive Radiation

Eine Analyse des Effektes von Lernen auf Populationsfitness und Diversität in einer NK-Fitnesslandschaft. Lars Melchior

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren Thomas Brox, Fabian Kuhn

Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik

Genetische Algorithmen

Computational Intelligence

Evotool Eine Matlab-Toolbox für Evolutionsstrategien. Christian Voigt

OLS-Schätzung: asymptotische Eigenschaften

Genetische Algorithmen und Evolutionäre Strategien

Ausarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme

8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick

7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen

Konkretes Durchführen einer Inferenzstatistik

Primzahlen im Schulunterricht wozu?

Genetische Algorithmen und Evolutionsstrategien

Grundlagen der Künstlichen Intelligenz

Evolutionäre Algorithmen - Kapitel 15

Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung

Gliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Heuristische Verfahren

Diplomarbeit. Bülent Ulas. Entwicklung einer Software für Online-Befragungen mit interaktiven evolutionären Algorithmen

Warum konvergieren Genetische Algorithmen gegen ein Optimum?

Genetische Programmierung

Proseminarvortrag. Markov-Ketten in der Biologie (Anwendungen)

Wahrscheinlichkeitsverteilungen

Evolutionäres Programmieren

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Wichtige Definitionen und Aussagen

Von der Mikro- zur Makroevolution... (1) Einige Bemerkungen zur Evolution von Organen und der höheren Taxa

Übungsblatt 9 (25. bis 29. Juni)

Allgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken

Übungen mit dem Applet Zentraler Grenzwertsatz

METHODEN DES DATENBANKDESIGNS

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

7.5 Erwartungswert, Varianz

Anleitung: Standardabweichung

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Modelle und Verfahren zur innerbetrieblichen Standortplanung

Kapitel 13. Evolutionäre Spieltheorie. Einleitung. Evolutionäre Biologie. Übersicht 2. Alternative: Biologische Evolutionstheorie

70 Wichtige kontinuierliche Verteilungen

Kapitel 13. Evolutionäre Spieltheorie. Einleitung. Evolutionäre Biologie. Übersicht 2. Alternative: Biologische Evolutionstheorie

Bayesianische Netzwerke - Lernen und Inferenz

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

1 Grundprinzipien statistischer Schlußweisen

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Genetische Algorithmen

Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen

5. Spezielle stetige Verteilungen

Biostatistik, Winter 2011/12

Optimierung und Simulation

Lösung von Optimierungsproblemen mit Monte Carlo Methoden

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

2. Von der Evolution zur Optimierung

Aufbau und Operatoren evolutionärer Verfahren

Das Trust-Region-Verfahren

Institut für Stochastik, SoSe K L A U S U R , 13:

Dynamik von Genen in Populationen

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Outline. 1 Vektoren im Raum. 2 Komponenten und Koordinaten. 3 Skalarprodukt. 4 Vektorprodukt. 5 Analytische Geometrie. 6 Lineare Räume, Gruppentheorie

Studientag zur Algorithmischen Mathematik

Einfaktorielle Varianzanalyse

Grundbegriffe der Wahrscheinlichkeitsrechnung

Transkript:

Evolutionsstrategien zum Seminar Evolutionäre Algorithmen von Jana Schäfer

INHALTVERZEICHNIS 1. Einführung... 3 2. Die Geschichte der Evolutionsstrategien...4 3. Grundlegendes... 6 3.1 Begriffe... 6 3.2 Evolutionsalgorithmus...7 4. Evolutionsfaktoren...8 4.1 Rekombination...8 4.2 Mutation...9 4.3 Selektion... 10 4.3.1 Komma-Selektion...10 4.3.2 Plus-Selektion...11 4.4 Abbruchskriterien... 12 5. Formen der Evolutionsstrategien...12 5.1 Die (1+1)-ES...12 5.2 Die (μ/ρ +, λ)-es... 13 5.3 Die (μ, κ, λ, ρ)-es...14 6. Zusammenfassung... 15 7. Literatur... 15 2

1. Einführung Zur Bewältigung vieler komplexer Optimierungsprobleme wurden in den vergangenen Jahrzehnten Methoden entwickelt, die gewisse Vorlagen aus der Natur adaptiert haben. Es liegt nahe, die Methoden, mit denen die Natur verschiedenste Probleme gelöst hat, nachzuahmen, um zu neuen technischen oder wissenschaftlichen Lösungen zu gelangen. Viele dieser Methoden stammten ursprünglich aus den Forschungsbereichen Künstliche Intelligenz und Künstliches Leben. Zu den bekannteren und erfolgreicheren Beispielen zählen Neuronale Netze, Fuzzy Methoden und Evolutionäre Algorithmen. Evolutionäre Algorithmen sind meist auf Computern implementierten stochastische Such- und Optimierungsverfahren, welche von der klassischen Evolutionstheorie abgeleitet wurden. Die Grundidee ist, dass sich Populationen von Individuen an ihre Umwelt anpassen, um langfristig zu überleben. Dazu werden einige Prinzipien der darwinistischen Evolutionstheorie, deren einfachste Formulierung in der Regel survival of the fittest zu finden ist, in Computerprogrammen umgesetzt. Zu den evolutionären Algorithmen gehören genetische Algorithmen, Evolutionsstrategien, evolutionäres Programmieren und genetisches Programmieren. In dieser Ausarbeitung werden die Evolutionsstrategien beschrieben. Es wird zuerst auf die Geschichte der Evolutionsstrategien eingegangen (Kapitel 2). In dem nächsten Kapitel 3 werden wichtige Begriffe bezüglich der Evolutionsstrategien erklärt, um spätere Beschreibungen besser zu verstehen. Hier wird auch der Evolutionsalgorithmus gezeigt. Danach werden die Evolutionsfaktoren erklärt (Kapitel 4) und zum Schluss werden drei Formen der Evolutionsstrategien vorgestellt (Kapitel 5). 3

2. Die Geschichte der Evolutionsstrategien Die Evolutionsstrategien wurden von Ingo Rechenberg und Hans-Paul Schwefel an der Technischen Universität Berlin in der Mitte der 60er Jahre entwickelt. Sie bearbeiteten verschiedene Probleme experimentell, die sich nicht analytisch beschreiben ließen und auf die keine traditionellen Methoden angewendet werden konnten. Deshalb entwickelten sie einen einfachen Algorithmus, mit dem die experimentellen Bedingungen verändert wurden. Der Algorithmus basierte auf zufälligen Veränderungen, wobei kleinere Veränderungen wahrscheinlicher waren als große Veränderungen. Wenn die neuen experimentellen Bedingungen eine Verbesserung erbrachten, wurden sie als Ausgangspunkt für die Einstellung neuer Bedingungen genutzt. Ansonsten dienten die vorhergehenden Bedingungen als Ausgangspunkt für weitere Experimente. Mit diesem einfachen Verfahren wurden verschiedene Probleme gelöst. Mit der Verfügbarkeit eines ersten Rechners simulierte Hans-Paul Schwefel verschiedene Versionen der Evolutionsstrategie genannten Experimentiermethode auf einem Computer. Andere wendeten nachfolgend die Evolutionsstrategie zur Lösung numerischer Optimierungsprobleme an. Aufgrund der vielfältigen Erweiterungen der ursprünglichen Evolutionsstrategie von Rechenberg aus den 60er und 70er Jahren kam es im Laufe der letzten Jahrzehnten zur Entwicklung mehrerer in sich abgeschlossener und aufeinander aufbauender Evolutionsstrategien zunehmender Komplexität. Die ersten Modelle der Evolutionsstrategen waren sehr abstrakt und haben viele Details der biologischen Evolution vernachlässigt. Im Laufe der Jahre haben Rechenberg und Schwefel das Evolutionsmodell jedoch stärker an die tatsächlichen biologischen Gegebenheiten angelehnt. Die verschiedenen Evolutionsstrategien stellen deshalb auch unterschiedliche Stufen der Imitation der biologischen Evolution dar. Die ersten Arbeiten mit Evolutionsstrategien verwendeten ein Individuum, das einen Nachkommen produzierte, genannt (1+1)-ES. Ein Nachkomme entstand durch Mutation aus dem Elter. Das in den ersten Experimenten verwendete diskrete Mutationsschema wurde wenig später durch ein kontinuierliches Mutationsschema unter Verwendung normal verteilter Mutationen ersetzt. Das bessere Individuum von Elter und Nachkomme wurde als Elter des nächsten Nachkommen verwendet. Diese einfache Evolutionsstrategie mit zwei Individuen bildete die Grundlage für die weiteren Entwicklungen der Evolutionsstrategie. Eine Theorie der Evolutionsstrategien sowie ein Überblick über einige der frühen Anwendungen der Evolutionsstrategie wurden von Rechenberg im Jahre 1973 veröffentlicht. Die Verwendung einer vollständigen Population für Evolutionsstrategien wurde von Schwefel entwickelt. Neben der Verwendung einer Population von Individuen und Rekombination zur Produktion von Nachkommen bezogen diese Evolutionsstrategien außerdem die wichtigsten Parameter des Suchverfahrens (Standardabweichung und Korrelationskoeffizienten der Normalverteilten Mutation) in den Optimierungsprozess mit ein. Dadurch wurden nicht nur die Parameter des Problems optimiert, sondern auch die Parameter der Suchstrategie den aktuellen Gegebenheiten des Optimierungsproblems angepasst (Selbstadaption der Strategieparameter). Ab Ende der 80er Jahre kam es zu einem deutlichen Aufschwung des Interesses bezüglich der Evolutionsstrategien. Die Weiterentwicklung der Evolutionsstrategien wird auch heute 4

hauptsächlich in Deutschland vorangetrieben. Die Zentren der Aktivitäten liegen an der Technischen Universität Berlin (Ingo Rechenberg) und an der Technischen Universität Dortmund (Hans-Paul Schwefel). Die Evolutionsstrategien haben heute einen festen Platz unter den Evolutionären Algorithmen. Dazu haben nicht nur die langjährige Entwicklung und der erfolgreiche Einsatz beigetragen, sondern auch die Ergebnisse zur Theorie der Evolutionsstrategien, unter anderem Aussagen zur Fortschrittsgeschwindigkeit und der Konvergenz zum globalen Optimum. 5

3. Grundlegendes 3.1 Begriffe Individuum: Gemäß dem biologischen Vorbild werden bei vielen Heuristiken Punkte im Suchraum Individuen genannt. Die zu einem Zeitpunkt aktuellen Individuen bilden die Population, die sich von Generation zu Generation verändert. Das Individuum ist bei Evolutionsstrategie nicht codiert, sondern liegt meist als Vektor von n reellwertigen Variablen vor. Population: Als Population wird eine Menge strukturell gleichartiger Individuen bezeichnet. Fitnesswert: Der Fitnesswert ist ein Kennwert, der die Güte einer speziellen Lösung zu einem Optimierungsproblem beschreibt. Ziel der Optimierung ist es, eine Lösung mit einem möglichst guten Fitnesswert zu finden. Fitnessfunktion: Eine Fitnessfunktion berechnet den Fitnesswert eines Individuums. Dabei kann sie z. B. die Position des Individuums im Raum berücksichtigen. 3.2 Evolutionsalgorithmus Bei der Anwendung von Evolutionsstrategien geht es vielfach um eine Optimierung von Zielfunktionen. Die Evolutionsstrategien gehen nicht auf die Genstruktur oder eine detaillierte Chromosomcodierung der Individuen ein. Aus der Sicht der Evolutionsstrategien lässt sich die relevante (Erb-) Informationen eines Individuums in Vektoren von reellen Zahlen darstellen. Die Evolutionsstrategie optimiert gegebene(n) Ziel- oder Qualitätsfunktion(en) F, in Bezug auf eine Reihe von Entscheidungsvariablen y: = (y1, y2...) (oft Objektparameter genannt). F(y) -> Optimum und y ist ein Element aus Y Y kann jeder Satz von Datenstrukturen sein, aber nicht notwendigerweise festen Länge. Beispiele für Y sind der N-dimensionaler Suchraum R^N, der Suchraum der ganzen Zahl Z^N. Die Evolutionsstrategien arbeiten auf Populationen P von Individuen a. Ein Individuum ak mit dem Index k umfasst den spezifischen Satz der Objektparameter (oder Vektor) yk, sein Zielfunktionswert Fk: = F(yk), manchmal ein Verweis auf Fitness, und gewöhnlich auch ein Satz von endogenen Strategieparametern sk ak := (yk, sk, F(yk)) 6

Die endogenen Strategieparameter werden verwendet, um gewisse statistische Eigenschaften der genetischen Operatoren, besonders Mutationsoperatoren, zu kontrollieren. Die endogenen Strategieparameter können sich während des Evolutionsprozesses entwickeln und sind in Selbstanpassung (self-adaptive) Evolutionsstrategie erforderlich. Es existieren verschiedene Faktoren, die zu einer Evolution führen können. Diese sind: Rekombination Mutation Selektion Durch die Rekombination der Erbinformation der selektierten Individuen erben die Nachkommen die verschiedenen Eigenschaften ihrer Eltern. Die Mutation der Nachkommen sorgt für eine Veränderung der bestehenden Ausprägung, wobei sich hier eine Verbesserung, aber auch eine Verschlechterung der Nachkommen einstellen kann. Die Selektion auf Grund der Fitness von Individuen führt zu einer sich ständig verbessernden Population. Der Ablauf einer Evolutionsstrategie gliedert sich hauptsächlich in drei Teile. Zuerst werden die notwendigen Kenngrößen initialisiert und eine Startpopulation generiert. Für diese werden die Fitnesswerte jedes Individuums bestimmt. Im zweiten Abschnitt werden hieraus wiederholend neue Generationen erzeugt, indem je Nachkomme im Allgemeinen zwei Eltern ausgewählt werden. Deren Strategieparameter werden rekombiniert und die des so entstandenen Kindes zusätzlich mutiert. Aus diesem Pool neuer Individuen erzeugt der Algorithmus nun durch Wahl der Besten eine neue Elterngeneration. Dieser Prozess setzt sich solange fort, bis eine Abbruchbedingung gilt. Am Ende erfolgt im dritten Abschnitt die Ausgabe des Ergebnisses, die beste gefundene Lösung für das Ausgangsproblems. Der Evolutionsalgorithmus sieht folgendermaßen aus: 1. Erstellung einer Population 2. Erzeugung der Nachkommen aus der bestehenden Population (mittels Rekombination, Mutation) 3. Bewertung der Fitness von Individuen 4. Durchführung der Selektion 5. Wiederholung der Schritte 2. bis 4. bis a. die Abbruchkriterien erfüllt sind oder b. eine Lösung ermittelt wird Es existieren mehrere Formen der Evolutionsstrategie. Es werden folgende Formen erklärt: (1+1)-ES (μ/ρ +, λ)-es (μ, κ, λ, ρ)-es 7

4. Evolutionsfaktoren 4.1 Rekombination In diesem Teilschritt werden die Komponenten der beiden Eltern zu einem neuen Individuum, den Nachkommen, kombiniert. Hierbei werden üblicherweise für die Entscheidungsvariablen und die Strategieparameter unterschiedliche Formen der Rekombination verwendet. Das für die Entscheidungsvariablen verwendete Verfahren heißt diskrete Rekombination und entspricht prinzipiell dem Uniform Crossover bei Generischen Algorithmen. Die Entscheidungsvariablen des Nachkommen werden unabhängig voneinander und mit gleicher Wahrscheinlichkeit entweder vom einen oder vom anderen Elternteil unverändert übernommen. Beispiel: Diskrete Rekombination: Elter 1 4.0 6.2 1.8 0.3 Elter 2 8.0 3.6 0.8 0.7 Nachkomme 4.0 3.6 0.8 0.3 Bei den Standardabweichungen kommt ein anderes Verfahren zum Einsatz, welches als intermediäre Rekombination bezeichnet wird. Hierbei wird der lineare Mittelwert der jeweiligen Standardabweichungen der Eltern gebildet und dem Nachkommen zugewiesen. Beispiel: Intermediäre Rekombination: Elter 1 4.0 6.2 1.8 0.3 Elter 2 8.0 3.6 0.8 0.7 Nachkomme 6.0 4.9 1.3 0.5 Auch wenn die Rekombination bei ES nicht die wichtigste Variationsmethode ist, so ist sie dennoch bedeutend für die Anpassung der Strategieparameter und beschleunigt so den gesamten Optimierungsprozess. 4.2 Mutation Die Mutationen sind bei den Evolutionsstrategien der eigentliche Antriebsmechanismus zur Suche im genetischen Parameterraum. Dabei müssen zwei Punkte berücksichtigt werden: Die Randbedingungen dürfen durch Mutationen nicht verletzt werden. Kleine Veränderungen der Parameter müssen statistisch häufiger vorkommen als große. 8

Um eine möglichst breite Lösungsvielfalt zu erreichen, wird das neu entstandene Individuum nach der Kreuzung mutiert. Der Mutationsoperator verändert ein Individuum zufällig. Bei der Mutation wird zu jedem Objektparameter eines Individuums ein zufälliger Wert addiert. y k = yk + z Die Zufallszahlen werden gemäß einer Normalverteilung z ~ N(0, σ) mit der Dichte generiert. Die Standardabweichung σi wird als Mutationsschrittweite bezeichnet. Existiert nur eine globale Mutationsschrittweite σ werden alle Individuen damit mutiert. Durch eine geschickte Adaption der Schrittweite kann der Erfolgsfaktor einer Mutation verbessert werden. Dem Mutationsoperator kommt ein großer Stellenwert als Suchoperator bei Evolutionsstrategien zu. Er stellt die Hauptquelle für genetische Variation dar. Ein Mutationsoperator muss drei Anforderungen erfüllen: Erreichbarkeit: Ausgehend von einem gegebenen Zustand muss jeder anderer Zustand erreichbar sein. Driftlosigkeit: Die durch Mutation verursachte genetische Variation sollte keine Richtung aufweisen. Erst die Selektion drängt durch die Fitnesswerte der Nachkommen dem Suchprozess in eine bestimmte Richtung. Skalierbarkeit: Die Mutationsschrittweite muss einstellbar sein, um erfolgreiche Schritte der Evolutionsstrategie in der Fitnesslandschaft zu ermöglichen. 4.3 Selektion Bei der Selektion in Evolutionsstrategie bekommen nur jene μ Individuen eine Chance zur Übernahme in die Population der nächsten Generation, die sehr gute Eigenschaften, z.b. hohe Fitnesswerte (Zielfunktionswerte), besitzen. Es gibt jedoch verschiedene Varianten dieses Selektionsprozesses Komma-Selektion Plus-Selektion 4.3.1 Komma-Selektion Bei der (μ, λ)-es (Komma-Selektion) werden aus μ Eltern λ Kinder (μ ist sehr viel kleiner als λ) erzeugt. Dabei werden die μ besten aus den λ Nachkommen selektiert; die Eltern der Vorgängergeneration werden vergessen. Bei dieser Form gibt es keine potentiell unsterblichen Individuen. Jedes Individuum lebt nur noch für die Dauer einer Generation. In der Abbildung 1 9

kann der Verlauf der Qualitätsfunktion bei Komma-Selektion beobachtet werden. Die Individuen verschiedener Generationen haben hohe und niedrigere Qualität. Qualität Beste Individuen Abbildung 1: Verlauf der Qualitätsfunktion bei Komma-Selektion In dem Fall, wo μ = λ ist, kann der Evolutionsalgorithmus nicht arbeiten, weil die ganzen Nachkommen als Eltern ausgewählt werden. Das Anwendungsgebiet der (μ, λ)-es ist für unbegrenzte Suchräume Y, besonders Y = R^N. 4.3.2 Plus-Selektion In der Form (μ + λ)-es (Plus-Selektion) treten μ Eltern und λ Nachkommen. Zum Beispiel eine (μ + λ)-es mit μ = 4 und λ = 8 ist eine (4 + 8)-ES. μ und λ repräsentieren beliebige ganze Zahlen und sind immer so zu wählen, dass λ μ 1 ist. Die Evolutionsschritte sind folgenden: aus den μ Eltern werden λ Eltern für die Erzeugung von λ Nachkommen (Duplikate) zufällig ausgewählt. Die Auswahl trifft mit gleicher Wahrscheinlichkeit jedes Individuum der Elternpopulation. In dem zweiten Schritt wird das Duplikat (Kind) mutiert. Als nächstes werden aus den Eltern und Kindern die μ besten Individuen als Eltern der nächsten Generation ausgewählt. Bei dieser Form werden die Eltern und die Nachkommen einer Generation gemeinsam bewertet, und die jeweils μ besten überleben. Es handelt sich hierbei um eine Form der Elite-Selektion, denn ein Individuum, der hinsichtlich der Qualitätsfunktion wesentlich besser ist als die meisten anderen Individuen, viele Generationen überleben kann. In der Abbildung 2 kann der Verlauf der Qualitätsfunktion beobachtet werden. Die Qualität der Individuen verschiedener Generationen fällt nie, sie steigt stetig. 10

Qualität Beste Individuen Abbildung 2: Verlauf der Qualitätsfunktion bei Plus-Selektion Das Anwendungsgebiet der (μ + λ)-es ist für diskrete Suchräume mit begrenzter Größe. Die (μ + λ)-es hat jedoch gegenüber der (μ, λ)-es einige Nachteile. Bei der Plus-Selektion besteht immer die Gefahr, dass lokale Optima nie mehr verlassen werden kann, da die relativ guten Lösungen dort nie aus der Population verschwinden. Darüber hinaus wird die Selbstanpassung der Strategieparameter aus demselben Grund erheblich erschwert. Dies ist beispielsweise dann der Fall, wenn mit sehr schlechten Strategieparametern zufällig ein lokales Optimum erreicht wird. Da die Nachkommen mit den für diesen Ort ungeeigneten Standardabweichungen mutiert werden, werden sie sehr wahrscheinlich schlechtere Fitnesswerte haben als das Elter, welches somit immer mitsamt seinen schlechten Strategieparametern in der Population verbleibt. Da bei der Komma-Selektion alle Individuen nur für eine Generation existieren, gelten diese Nachteile dort nicht. 4.4 Abbruchskriterien Schließlich muss noch festgelegt werden, wie lange die Evolution simuliert werden muss. Es müssen also Abbruchkriterien definiert werden. Im Großen und Ganzen gibt es drei verschiedene solcher Kriterien: Am einfachsten ist es, abzubrechen, wenn die Qualitätsfunktion eines Nachkommen hinreichend gut ist. Voraussetzung ist natürlich, dass man ein Optimum definieren kann. Zudem muss sichergestellt sein, dass man sich nicht in einem lokalen Optimum wieder findet, da dieses oft nutzlos ist. Wenn die Optimale Lösung nicht bekannt ist, verwendet man oft das Überschreiten einer gewissen Zeit als Abbruchkriterium. Ein anderes, doch ähnliches, Kriterium stellt der Abbruch nach einer gewissen Anzahl erzeugter Generationen dar. Man gibt also sozusagen die Anzahl der Iterationsschritte vor. Bei den beiden zuletzt genannten Kriterien besteht jedoch die Gefahr, dass man das Fingen der optimalen Lösung durch zu frühzeitigen Abbruch verhindert. 11

5. Formen der Evolutionsstrategien 5.1 Die (1+1)-ES Die einfachste Form der Evolutionsstrategie ist die so genannte zweigliedrige (1+1)-ES (Abbildung 3). Es wird von einem Ur-Individuum (einem Vektor reeller Zahlen), einem Elter, wird ein zweites Individuum (ein zweites Vektor), ein Kind erzeugt, indem der Ausgangsvektor zunächst einfach dupliziert wird. In dem zweiten Schritt wird das Duplikat (Kind) zufällig, aber nicht willkürlich, modifiziert. Das Duplikat wird mutiert, indem auf jeden einzelnen Parameter des Vektors ein zufälliger positiver oder negativer Wert addiert wird. Die Mutation kann durch Addition eines Normalverteilten Vektors erzielt werden. Im nächsten Schritt werden der Ausgangsvektor (Elter) und das mutierte Duplikat (Kind) bewertet. Hier wird die Regel survival of the fittest verwendet: der Vektor, dem die Qualitätsfunktion den besseren Wert zuordnet, überlebt und wird zum neuen Elter. Elter Qualitätswert 1 Duplikation 1 3 Mutation Neuer Elter Neues Individuum ist besser als Elter 3 Abbildung 3: (1+1)-ES Die drei Schritten: Duplikation, Mutation und Selektion werden so oft wiederholt, bis die Qualität eines Nachkommens hinreichend gut ist oder einer der Abbruchskriterien erreicht ist. Dieses Modell lässt die sexuelle Rekombination außer Acht. Trotz der Einfachheit findet man sinnvolle Anwendungen, Dank der Möglichkeiten der Schrittweitenregelung der Mutation. 12

5.2 Die (μ/ρ +, λ)-es Die bislang gezeigten Varianten der ES machen keinen Gebrauch von der sexuellen Rekombination. Bei 4der Form (μ/ρ +, λ)-es (μ ist viel kleiner als λ) werden zunächst aus der Elternpopulation nicht mehr einzelne Individuen zu Erzeugung der Nachkommen herangezogen, sondern Gruppen (Abbildung 4). Diese Gruppe bestehen aus jeweils ρ Elementen. Wenn zum Beispiel ρ = 2 ist, dann bedeutet dieses, dass es jeweils λ Zweiergruppen (Pärchen) gebildet werden. Die Auswahl von ρ Eltern erfolgt wie immer zufällig mit gleicher Wahrscheinlichkeit für jedes Elter. Die Nachkommen werden zunächst dupliziert und dann auch mutiert. In dem nächsten Schritt, der Selektion, werden die besten Individuen, bei Komma-Selektion nur die Kinder und bei Plus-Selektion die Kinder mit den Eltern, ausgewählt. 7 2 Auswahl der Eltern 4 Mutation Abbildung 4: (μ/ρ +, λ)-es 13

5.3 Die (μ, κ, λ, ρ)-es Eine Zwischenform der Komma- und Plus-Selektion stellt (μ, κ, λ, ρ)-es dar (μ ist viel kleiner als λ). Jedem Individuum wird hierbei ein Generationenzähler κ zugeordnet. Dieser zusätzliche Parameter bestimmt, über wie viele Generationen hinweg ein Individuum höchstens, auf Grund seines Fitnesswertes, für die nächste Elterpopulation ausgewählt werden darf. Also kurz: wie lange ein Individuum leben darf, falls es gut ist. κ erhöht sich bei jedem Individuum bei jeder überlebenden Generation. Wenn das Individuum ein bestimmtes Alter erreicht, etwa nach κ Generationen, wird es im Selektionsschritt nicht mehr berücksichtigt. 6. Zusammenfassung Evolutionäre Algorithmen bedienen sich der Idee der biologischen Evolution, um wie diese aus einer Population von Individuen immer besser angepasste Individuen zu erzeugen, wobei (zumindest bei Genetischen Algorithmen und Evolutionsstrategien) die Idee, aus guten Lösungen neue zu kombinieren, die bereits guten Eigenschaften übernehmen und möglichst neue, bessere Eigenschaften durch Mutation zu erwerben. In dieser Ausarbeitung wurden die Evolutionsstrategien beschrieben. Die Evolutionsstrategien arbeiten auf Populationen von Individuen und werden zur Optimierung der Zielfunktionen verwendet. Es existieren drei Faktoren (Rekombination, Mutation, Selektion), die zu einer Evolution führen können. Die Mutation ist dabei der wichtigste Faktor. Zu diesen Faktoren wurden auch verschiedene Formen der Evolutionsstrategien erklärt. 7. Literatur Hans-Georg Beyer, Hans-Paul Schwefel: Evolution strategies: A comprehensive introduction. Kluwer Academic Publishers, 2002. Eberhard Schöneburg, Frank Heizmann, Sven Feddersen: Genetische Algorithmen und Evolutionsstrategien. Addison-Wesley Verlag, 1994. Karsten Weicker: Evolutionäre Algorithmen. Teubner Verlag, 2002. Michael Stahl: Genetische und Evolutionäre Algorithmen, Evolutionsstrategien, Proseminar, 2002. Ingo Rechenberg: Evolutionsstrategie im Detail, 2002. Frank Förster: Genetische und Evolutionäre Algorithmen. Genetische Algorithmen Grundkonzept und genetische Operatoren, Proseminar, 2002. Markus Franz: Evolutionäre Algorithmen im Wirkstoffdesign, Proseminar, 2001. Felix Streichert: Evolutionäre Algorithmen: Implementation und Anwendungen im Asset-Management-Bereich, Diplomarbeit, 2001. Norbert Nopper: Natural Computation: Evolution Theory, Proseminar, 2002. 14

Andreas Lehmann: Genetische Algorithmen gegen Evolutionäre Strategien. HU Berlin, 2002 L. Obretin, P. Dulovits, A.Walter: Evolutionsstrategien, Proseminar, 2002. Hannes Planatscher: Rekonstruktion genregulatorischer Netzwerke mit Evolutionären Algorithmen, Studienarbeit, 2003. Oliver Kramer: Restriktionsbehandlung bei Evolutionsstrategien, Diplomarbeit, 2003. 15