Evolutionsstrategien

Größe: px
Ab Seite anzeigen:

Download "Evolutionsstrategien"

Transkript

1 Evolutionsstrategien zum Seminar Evolutionäre Algorithmen von Jana Schäfer

2 INHALTVERZEICHNIS 1. Einführung Die Geschichte der Evolutionsstrategien Grundlegendes Begriffe Evolutionsalgorithmus Evolutionsfaktoren Rekombination Mutation Selektion Komma-Selektion Plus-Selektion Abbruchskriterien Formen der Evolutionsstrategien Die (1+1)-ES Die (μ/ρ +, λ)-es Die (μ, κ, λ, ρ)-es Zusammenfassung Literatur

3 1. Einführung Zur Bewältigung vieler komplexer Optimierungsprobleme wurden in den vergangenen Jahrzehnten Methoden entwickelt, die gewisse Vorlagen aus der Natur adaptiert haben. Es liegt nahe, die Methoden, mit denen die Natur verschiedenste Probleme gelöst hat, nachzuahmen, um zu neuen technischen oder wissenschaftlichen Lösungen zu gelangen. Viele dieser Methoden stammten ursprünglich aus den Forschungsbereichen Künstliche Intelligenz und Künstliches Leben. Zu den bekannteren und erfolgreicheren Beispielen zählen Neuronale Netze, Fuzzy Methoden und Evolutionäre Algorithmen. Evolutionäre Algorithmen sind meist auf Computern implementierten stochastische Such- und Optimierungsverfahren, welche von der klassischen Evolutionstheorie abgeleitet wurden. Die Grundidee ist, dass sich Populationen von Individuen an ihre Umwelt anpassen, um langfristig zu überleben. Dazu werden einige Prinzipien der darwinistischen Evolutionstheorie, deren einfachste Formulierung in der Regel survival of the fittest zu finden ist, in Computerprogrammen umgesetzt. Zu den evolutionären Algorithmen gehören genetische Algorithmen, Evolutionsstrategien, evolutionäres Programmieren und genetisches Programmieren. In dieser Ausarbeitung werden die Evolutionsstrategien beschrieben. Es wird zuerst auf die Geschichte der Evolutionsstrategien eingegangen (Kapitel 2). In dem nächsten Kapitel 3 werden wichtige Begriffe bezüglich der Evolutionsstrategien erklärt, um spätere Beschreibungen besser zu verstehen. Hier wird auch der Evolutionsalgorithmus gezeigt. Danach werden die Evolutionsfaktoren erklärt (Kapitel 4) und zum Schluss werden drei Formen der Evolutionsstrategien vorgestellt (Kapitel 5). 3

4 2. Die Geschichte der Evolutionsstrategien Die Evolutionsstrategien wurden von Ingo Rechenberg und Hans-Paul Schwefel an der Technischen Universität Berlin in der Mitte der 60er Jahre entwickelt. Sie bearbeiteten verschiedene Probleme experimentell, die sich nicht analytisch beschreiben ließen und auf die keine traditionellen Methoden angewendet werden konnten. Deshalb entwickelten sie einen einfachen Algorithmus, mit dem die experimentellen Bedingungen verändert wurden. Der Algorithmus basierte auf zufälligen Veränderungen, wobei kleinere Veränderungen wahrscheinlicher waren als große Veränderungen. Wenn die neuen experimentellen Bedingungen eine Verbesserung erbrachten, wurden sie als Ausgangspunkt für die Einstellung neuer Bedingungen genutzt. Ansonsten dienten die vorhergehenden Bedingungen als Ausgangspunkt für weitere Experimente. Mit diesem einfachen Verfahren wurden verschiedene Probleme gelöst. Mit der Verfügbarkeit eines ersten Rechners simulierte Hans-Paul Schwefel verschiedene Versionen der Evolutionsstrategie genannten Experimentiermethode auf einem Computer. Andere wendeten nachfolgend die Evolutionsstrategie zur Lösung numerischer Optimierungsprobleme an. Aufgrund der vielfältigen Erweiterungen der ursprünglichen Evolutionsstrategie von Rechenberg aus den 60er und 70er Jahren kam es im Laufe der letzten Jahrzehnten zur Entwicklung mehrerer in sich abgeschlossener und aufeinander aufbauender Evolutionsstrategien zunehmender Komplexität. Die ersten Modelle der Evolutionsstrategen waren sehr abstrakt und haben viele Details der biologischen Evolution vernachlässigt. Im Laufe der Jahre haben Rechenberg und Schwefel das Evolutionsmodell jedoch stärker an die tatsächlichen biologischen Gegebenheiten angelehnt. Die verschiedenen Evolutionsstrategien stellen deshalb auch unterschiedliche Stufen der Imitation der biologischen Evolution dar. Die ersten Arbeiten mit Evolutionsstrategien verwendeten ein Individuum, das einen Nachkommen produzierte, genannt (1+1)-ES. Ein Nachkomme entstand durch Mutation aus dem Elter. Das in den ersten Experimenten verwendete diskrete Mutationsschema wurde wenig später durch ein kontinuierliches Mutationsschema unter Verwendung normal verteilter Mutationen ersetzt. Das bessere Individuum von Elter und Nachkomme wurde als Elter des nächsten Nachkommen verwendet. Diese einfache Evolutionsstrategie mit zwei Individuen bildete die Grundlage für die weiteren Entwicklungen der Evolutionsstrategie. Eine Theorie der Evolutionsstrategien sowie ein Überblick über einige der frühen Anwendungen der Evolutionsstrategie wurden von Rechenberg im Jahre 1973 veröffentlicht. Die Verwendung einer vollständigen Population für Evolutionsstrategien wurde von Schwefel entwickelt. Neben der Verwendung einer Population von Individuen und Rekombination zur Produktion von Nachkommen bezogen diese Evolutionsstrategien außerdem die wichtigsten Parameter des Suchverfahrens (Standardabweichung und Korrelationskoeffizienten der Normalverteilten Mutation) in den Optimierungsprozess mit ein. Dadurch wurden nicht nur die Parameter des Problems optimiert, sondern auch die Parameter der Suchstrategie den aktuellen Gegebenheiten des Optimierungsproblems angepasst (Selbstadaption der Strategieparameter). Ab Ende der 80er Jahre kam es zu einem deutlichen Aufschwung des Interesses bezüglich der Evolutionsstrategien. Die Weiterentwicklung der Evolutionsstrategien wird auch heute 4

5 hauptsächlich in Deutschland vorangetrieben. Die Zentren der Aktivitäten liegen an der Technischen Universität Berlin (Ingo Rechenberg) und an der Technischen Universität Dortmund (Hans-Paul Schwefel). Die Evolutionsstrategien haben heute einen festen Platz unter den Evolutionären Algorithmen. Dazu haben nicht nur die langjährige Entwicklung und der erfolgreiche Einsatz beigetragen, sondern auch die Ergebnisse zur Theorie der Evolutionsstrategien, unter anderem Aussagen zur Fortschrittsgeschwindigkeit und der Konvergenz zum globalen Optimum. 5

6 3. Grundlegendes 3.1 Begriffe Individuum: Gemäß dem biologischen Vorbild werden bei vielen Heuristiken Punkte im Suchraum Individuen genannt. Die zu einem Zeitpunkt aktuellen Individuen bilden die Population, die sich von Generation zu Generation verändert. Das Individuum ist bei Evolutionsstrategie nicht codiert, sondern liegt meist als Vektor von n reellwertigen Variablen vor. Population: Als Population wird eine Menge strukturell gleichartiger Individuen bezeichnet. Fitnesswert: Der Fitnesswert ist ein Kennwert, der die Güte einer speziellen Lösung zu einem Optimierungsproblem beschreibt. Ziel der Optimierung ist es, eine Lösung mit einem möglichst guten Fitnesswert zu finden. Fitnessfunktion: Eine Fitnessfunktion berechnet den Fitnesswert eines Individuums. Dabei kann sie z. B. die Position des Individuums im Raum berücksichtigen. 3.2 Evolutionsalgorithmus Bei der Anwendung von Evolutionsstrategien geht es vielfach um eine Optimierung von Zielfunktionen. Die Evolutionsstrategien gehen nicht auf die Genstruktur oder eine detaillierte Chromosomcodierung der Individuen ein. Aus der Sicht der Evolutionsstrategien lässt sich die relevante (Erb-) Informationen eines Individuums in Vektoren von reellen Zahlen darstellen. Die Evolutionsstrategie optimiert gegebene(n) Ziel- oder Qualitätsfunktion(en) F, in Bezug auf eine Reihe von Entscheidungsvariablen y: = (y1, y2...) (oft Objektparameter genannt). F(y) -> Optimum und y ist ein Element aus Y Y kann jeder Satz von Datenstrukturen sein, aber nicht notwendigerweise festen Länge. Beispiele für Y sind der N-dimensionaler Suchraum R^N, der Suchraum der ganzen Zahl Z^N. Die Evolutionsstrategien arbeiten auf Populationen P von Individuen a. Ein Individuum ak mit dem Index k umfasst den spezifischen Satz der Objektparameter (oder Vektor) yk, sein Zielfunktionswert Fk: = F(yk), manchmal ein Verweis auf Fitness, und gewöhnlich auch ein Satz von endogenen Strategieparametern sk ak := (yk, sk, F(yk)) 6

7 Die endogenen Strategieparameter werden verwendet, um gewisse statistische Eigenschaften der genetischen Operatoren, besonders Mutationsoperatoren, zu kontrollieren. Die endogenen Strategieparameter können sich während des Evolutionsprozesses entwickeln und sind in Selbstanpassung (self-adaptive) Evolutionsstrategie erforderlich. Es existieren verschiedene Faktoren, die zu einer Evolution führen können. Diese sind: Rekombination Mutation Selektion Durch die Rekombination der Erbinformation der selektierten Individuen erben die Nachkommen die verschiedenen Eigenschaften ihrer Eltern. Die Mutation der Nachkommen sorgt für eine Veränderung der bestehenden Ausprägung, wobei sich hier eine Verbesserung, aber auch eine Verschlechterung der Nachkommen einstellen kann. Die Selektion auf Grund der Fitness von Individuen führt zu einer sich ständig verbessernden Population. Der Ablauf einer Evolutionsstrategie gliedert sich hauptsächlich in drei Teile. Zuerst werden die notwendigen Kenngrößen initialisiert und eine Startpopulation generiert. Für diese werden die Fitnesswerte jedes Individuums bestimmt. Im zweiten Abschnitt werden hieraus wiederholend neue Generationen erzeugt, indem je Nachkomme im Allgemeinen zwei Eltern ausgewählt werden. Deren Strategieparameter werden rekombiniert und die des so entstandenen Kindes zusätzlich mutiert. Aus diesem Pool neuer Individuen erzeugt der Algorithmus nun durch Wahl der Besten eine neue Elterngeneration. Dieser Prozess setzt sich solange fort, bis eine Abbruchbedingung gilt. Am Ende erfolgt im dritten Abschnitt die Ausgabe des Ergebnisses, die beste gefundene Lösung für das Ausgangsproblems. Der Evolutionsalgorithmus sieht folgendermaßen aus: 1. Erstellung einer Population 2. Erzeugung der Nachkommen aus der bestehenden Population (mittels Rekombination, Mutation) 3. Bewertung der Fitness von Individuen 4. Durchführung der Selektion 5. Wiederholung der Schritte 2. bis 4. bis a. die Abbruchkriterien erfüllt sind oder b. eine Lösung ermittelt wird Es existieren mehrere Formen der Evolutionsstrategie. Es werden folgende Formen erklärt: (1+1)-ES (μ/ρ +, λ)-es (μ, κ, λ, ρ)-es 7

8 4. Evolutionsfaktoren 4.1 Rekombination In diesem Teilschritt werden die Komponenten der beiden Eltern zu einem neuen Individuum, den Nachkommen, kombiniert. Hierbei werden üblicherweise für die Entscheidungsvariablen und die Strategieparameter unterschiedliche Formen der Rekombination verwendet. Das für die Entscheidungsvariablen verwendete Verfahren heißt diskrete Rekombination und entspricht prinzipiell dem Uniform Crossover bei Generischen Algorithmen. Die Entscheidungsvariablen des Nachkommen werden unabhängig voneinander und mit gleicher Wahrscheinlichkeit entweder vom einen oder vom anderen Elternteil unverändert übernommen. Beispiel: Diskrete Rekombination: Elter Elter Nachkomme Bei den Standardabweichungen kommt ein anderes Verfahren zum Einsatz, welches als intermediäre Rekombination bezeichnet wird. Hierbei wird der lineare Mittelwert der jeweiligen Standardabweichungen der Eltern gebildet und dem Nachkommen zugewiesen. Beispiel: Intermediäre Rekombination: Elter Elter Nachkomme Auch wenn die Rekombination bei ES nicht die wichtigste Variationsmethode ist, so ist sie dennoch bedeutend für die Anpassung der Strategieparameter und beschleunigt so den gesamten Optimierungsprozess. 4.2 Mutation Die Mutationen sind bei den Evolutionsstrategien der eigentliche Antriebsmechanismus zur Suche im genetischen Parameterraum. Dabei müssen zwei Punkte berücksichtigt werden: Die Randbedingungen dürfen durch Mutationen nicht verletzt werden. Kleine Veränderungen der Parameter müssen statistisch häufiger vorkommen als große. 8

9 Um eine möglichst breite Lösungsvielfalt zu erreichen, wird das neu entstandene Individuum nach der Kreuzung mutiert. Der Mutationsoperator verändert ein Individuum zufällig. Bei der Mutation wird zu jedem Objektparameter eines Individuums ein zufälliger Wert addiert. y k = yk + z Die Zufallszahlen werden gemäß einer Normalverteilung z ~ N(0, σ) mit der Dichte generiert. Die Standardabweichung σi wird als Mutationsschrittweite bezeichnet. Existiert nur eine globale Mutationsschrittweite σ werden alle Individuen damit mutiert. Durch eine geschickte Adaption der Schrittweite kann der Erfolgsfaktor einer Mutation verbessert werden. Dem Mutationsoperator kommt ein großer Stellenwert als Suchoperator bei Evolutionsstrategien zu. Er stellt die Hauptquelle für genetische Variation dar. Ein Mutationsoperator muss drei Anforderungen erfüllen: Erreichbarkeit: Ausgehend von einem gegebenen Zustand muss jeder anderer Zustand erreichbar sein. Driftlosigkeit: Die durch Mutation verursachte genetische Variation sollte keine Richtung aufweisen. Erst die Selektion drängt durch die Fitnesswerte der Nachkommen dem Suchprozess in eine bestimmte Richtung. Skalierbarkeit: Die Mutationsschrittweite muss einstellbar sein, um erfolgreiche Schritte der Evolutionsstrategie in der Fitnesslandschaft zu ermöglichen. 4.3 Selektion Bei der Selektion in Evolutionsstrategie bekommen nur jene μ Individuen eine Chance zur Übernahme in die Population der nächsten Generation, die sehr gute Eigenschaften, z.b. hohe Fitnesswerte (Zielfunktionswerte), besitzen. Es gibt jedoch verschiedene Varianten dieses Selektionsprozesses Komma-Selektion Plus-Selektion Komma-Selektion Bei der (μ, λ)-es (Komma-Selektion) werden aus μ Eltern λ Kinder (μ ist sehr viel kleiner als λ) erzeugt. Dabei werden die μ besten aus den λ Nachkommen selektiert; die Eltern der Vorgängergeneration werden vergessen. Bei dieser Form gibt es keine potentiell unsterblichen Individuen. Jedes Individuum lebt nur noch für die Dauer einer Generation. In der Abbildung 1 9

10 kann der Verlauf der Qualitätsfunktion bei Komma-Selektion beobachtet werden. Die Individuen verschiedener Generationen haben hohe und niedrigere Qualität. Qualität Beste Individuen Abbildung 1: Verlauf der Qualitätsfunktion bei Komma-Selektion In dem Fall, wo μ = λ ist, kann der Evolutionsalgorithmus nicht arbeiten, weil die ganzen Nachkommen als Eltern ausgewählt werden. Das Anwendungsgebiet der (μ, λ)-es ist für unbegrenzte Suchräume Y, besonders Y = R^N Plus-Selektion In der Form (μ + λ)-es (Plus-Selektion) treten μ Eltern und λ Nachkommen. Zum Beispiel eine (μ + λ)-es mit μ = 4 und λ = 8 ist eine (4 + 8)-ES. μ und λ repräsentieren beliebige ganze Zahlen und sind immer so zu wählen, dass λ μ 1 ist. Die Evolutionsschritte sind folgenden: aus den μ Eltern werden λ Eltern für die Erzeugung von λ Nachkommen (Duplikate) zufällig ausgewählt. Die Auswahl trifft mit gleicher Wahrscheinlichkeit jedes Individuum der Elternpopulation. In dem zweiten Schritt wird das Duplikat (Kind) mutiert. Als nächstes werden aus den Eltern und Kindern die μ besten Individuen als Eltern der nächsten Generation ausgewählt. Bei dieser Form werden die Eltern und die Nachkommen einer Generation gemeinsam bewertet, und die jeweils μ besten überleben. Es handelt sich hierbei um eine Form der Elite-Selektion, denn ein Individuum, der hinsichtlich der Qualitätsfunktion wesentlich besser ist als die meisten anderen Individuen, viele Generationen überleben kann. In der Abbildung 2 kann der Verlauf der Qualitätsfunktion beobachtet werden. Die Qualität der Individuen verschiedener Generationen fällt nie, sie steigt stetig. 10

11 Qualität Beste Individuen Abbildung 2: Verlauf der Qualitätsfunktion bei Plus-Selektion Das Anwendungsgebiet der (μ + λ)-es ist für diskrete Suchräume mit begrenzter Größe. Die (μ + λ)-es hat jedoch gegenüber der (μ, λ)-es einige Nachteile. Bei der Plus-Selektion besteht immer die Gefahr, dass lokale Optima nie mehr verlassen werden kann, da die relativ guten Lösungen dort nie aus der Population verschwinden. Darüber hinaus wird die Selbstanpassung der Strategieparameter aus demselben Grund erheblich erschwert. Dies ist beispielsweise dann der Fall, wenn mit sehr schlechten Strategieparametern zufällig ein lokales Optimum erreicht wird. Da die Nachkommen mit den für diesen Ort ungeeigneten Standardabweichungen mutiert werden, werden sie sehr wahrscheinlich schlechtere Fitnesswerte haben als das Elter, welches somit immer mitsamt seinen schlechten Strategieparametern in der Population verbleibt. Da bei der Komma-Selektion alle Individuen nur für eine Generation existieren, gelten diese Nachteile dort nicht. 4.4 Abbruchskriterien Schließlich muss noch festgelegt werden, wie lange die Evolution simuliert werden muss. Es müssen also Abbruchkriterien definiert werden. Im Großen und Ganzen gibt es drei verschiedene solcher Kriterien: Am einfachsten ist es, abzubrechen, wenn die Qualitätsfunktion eines Nachkommen hinreichend gut ist. Voraussetzung ist natürlich, dass man ein Optimum definieren kann. Zudem muss sichergestellt sein, dass man sich nicht in einem lokalen Optimum wieder findet, da dieses oft nutzlos ist. Wenn die Optimale Lösung nicht bekannt ist, verwendet man oft das Überschreiten einer gewissen Zeit als Abbruchkriterium. Ein anderes, doch ähnliches, Kriterium stellt der Abbruch nach einer gewissen Anzahl erzeugter Generationen dar. Man gibt also sozusagen die Anzahl der Iterationsschritte vor. Bei den beiden zuletzt genannten Kriterien besteht jedoch die Gefahr, dass man das Fingen der optimalen Lösung durch zu frühzeitigen Abbruch verhindert. 11

12 5. Formen der Evolutionsstrategien 5.1 Die (1+1)-ES Die einfachste Form der Evolutionsstrategie ist die so genannte zweigliedrige (1+1)-ES (Abbildung 3). Es wird von einem Ur-Individuum (einem Vektor reeller Zahlen), einem Elter, wird ein zweites Individuum (ein zweites Vektor), ein Kind erzeugt, indem der Ausgangsvektor zunächst einfach dupliziert wird. In dem zweiten Schritt wird das Duplikat (Kind) zufällig, aber nicht willkürlich, modifiziert. Das Duplikat wird mutiert, indem auf jeden einzelnen Parameter des Vektors ein zufälliger positiver oder negativer Wert addiert wird. Die Mutation kann durch Addition eines Normalverteilten Vektors erzielt werden. Im nächsten Schritt werden der Ausgangsvektor (Elter) und das mutierte Duplikat (Kind) bewertet. Hier wird die Regel survival of the fittest verwendet: der Vektor, dem die Qualitätsfunktion den besseren Wert zuordnet, überlebt und wird zum neuen Elter. Elter Qualitätswert 1 Duplikation 1 3 Mutation Neuer Elter Neues Individuum ist besser als Elter 3 Abbildung 3: (1+1)-ES Die drei Schritten: Duplikation, Mutation und Selektion werden so oft wiederholt, bis die Qualität eines Nachkommens hinreichend gut ist oder einer der Abbruchskriterien erreicht ist. Dieses Modell lässt die sexuelle Rekombination außer Acht. Trotz der Einfachheit findet man sinnvolle Anwendungen, Dank der Möglichkeiten der Schrittweitenregelung der Mutation. 12

13 5.2 Die (μ/ρ +, λ)-es Die bislang gezeigten Varianten der ES machen keinen Gebrauch von der sexuellen Rekombination. Bei 4der Form (μ/ρ +, λ)-es (μ ist viel kleiner als λ) werden zunächst aus der Elternpopulation nicht mehr einzelne Individuen zu Erzeugung der Nachkommen herangezogen, sondern Gruppen (Abbildung 4). Diese Gruppe bestehen aus jeweils ρ Elementen. Wenn zum Beispiel ρ = 2 ist, dann bedeutet dieses, dass es jeweils λ Zweiergruppen (Pärchen) gebildet werden. Die Auswahl von ρ Eltern erfolgt wie immer zufällig mit gleicher Wahrscheinlichkeit für jedes Elter. Die Nachkommen werden zunächst dupliziert und dann auch mutiert. In dem nächsten Schritt, der Selektion, werden die besten Individuen, bei Komma-Selektion nur die Kinder und bei Plus-Selektion die Kinder mit den Eltern, ausgewählt. 7 2 Auswahl der Eltern 4 Mutation Abbildung 4: (μ/ρ +, λ)-es 13

14 5.3 Die (μ, κ, λ, ρ)-es Eine Zwischenform der Komma- und Plus-Selektion stellt (μ, κ, λ, ρ)-es dar (μ ist viel kleiner als λ). Jedem Individuum wird hierbei ein Generationenzähler κ zugeordnet. Dieser zusätzliche Parameter bestimmt, über wie viele Generationen hinweg ein Individuum höchstens, auf Grund seines Fitnesswertes, für die nächste Elterpopulation ausgewählt werden darf. Also kurz: wie lange ein Individuum leben darf, falls es gut ist. κ erhöht sich bei jedem Individuum bei jeder überlebenden Generation. Wenn das Individuum ein bestimmtes Alter erreicht, etwa nach κ Generationen, wird es im Selektionsschritt nicht mehr berücksichtigt. 6. Zusammenfassung Evolutionäre Algorithmen bedienen sich der Idee der biologischen Evolution, um wie diese aus einer Population von Individuen immer besser angepasste Individuen zu erzeugen, wobei (zumindest bei Genetischen Algorithmen und Evolutionsstrategien) die Idee, aus guten Lösungen neue zu kombinieren, die bereits guten Eigenschaften übernehmen und möglichst neue, bessere Eigenschaften durch Mutation zu erwerben. In dieser Ausarbeitung wurden die Evolutionsstrategien beschrieben. Die Evolutionsstrategien arbeiten auf Populationen von Individuen und werden zur Optimierung der Zielfunktionen verwendet. Es existieren drei Faktoren (Rekombination, Mutation, Selektion), die zu einer Evolution führen können. Die Mutation ist dabei der wichtigste Faktor. Zu diesen Faktoren wurden auch verschiedene Formen der Evolutionsstrategien erklärt. 7. Literatur Hans-Georg Beyer, Hans-Paul Schwefel: Evolution strategies: A comprehensive introduction. Kluwer Academic Publishers, Eberhard Schöneburg, Frank Heizmann, Sven Feddersen: Genetische Algorithmen und Evolutionsstrategien. Addison-Wesley Verlag, Karsten Weicker: Evolutionäre Algorithmen. Teubner Verlag, Michael Stahl: Genetische und Evolutionäre Algorithmen, Evolutionsstrategien, Proseminar, Ingo Rechenberg: Evolutionsstrategie im Detail, Frank Förster: Genetische und Evolutionäre Algorithmen. Genetische Algorithmen Grundkonzept und genetische Operatoren, Proseminar, Markus Franz: Evolutionäre Algorithmen im Wirkstoffdesign, Proseminar, Felix Streichert: Evolutionäre Algorithmen: Implementation und Anwendungen im Asset-Management-Bereich, Diplomarbeit, Norbert Nopper: Natural Computation: Evolution Theory, Proseminar,

15 Andreas Lehmann: Genetische Algorithmen gegen Evolutionäre Strategien. HU Berlin, 2002 L. Obretin, P. Dulovits, A.Walter: Evolutionsstrategien, Proseminar, Hannes Planatscher: Rekonstruktion genregulatorischer Netzwerke mit Evolutionären Algorithmen, Studienarbeit, Oliver Kramer: Restriktionsbehandlung bei Evolutionsstrategien, Diplomarbeit,

Optimale Produktliniengestaltung mit Genetischen Algorithmen

Optimale Produktliniengestaltung mit Genetischen Algorithmen Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen

Mehr

Genetische und Evolutionäre Algorithmen (Vol. 1)

Genetische und Evolutionäre Algorithmen (Vol. 1) Vortrag über Genetische und Evolutionäre Algorithmen (Vol. ) von Adam El Sayed Auf und Kai Lienemann Gliederung: ) Einführung 2) Grundkonzept 3) Genaue Beschreibung des Genetischen Algorithmus Lösungsrepräsentation

Mehr

InformatiCup 2009 EvolutionConsole

InformatiCup 2009 EvolutionConsole InformatiCup 2009 EvolutionConsole Wilhelm Büchner Hochschule 19. März 2010 1 1. Das Team Teammitglieder Ralf Defrancesco KION Information Services GmbH Systemadministrator Daniel Herken Scooter Attack

Mehr

EVOLUTION STRATEGIES DANIELA SCHACHERER SEMINAR: IST KÜNSTLICHE INTELLIGENZ GEFÄHRLICH? SOMMERSEMESTER 2017

EVOLUTION STRATEGIES DANIELA SCHACHERER SEMINAR: IST KÜNSTLICHE INTELLIGENZ GEFÄHRLICH? SOMMERSEMESTER 2017 EVOLUTION STRATEGIES DANIELA SCHACHERER SEMINAR: IST KÜNSTLICHE INTELLIGENZ GEFÄHRLICH? SOMMERSEMESTER 2017 Inhalt Einleitung und Überblick Evolutionsstrategien Grundkonzept Evolutionsstrategien als Alternative

Mehr

Populationsbasierte Suche. Evolutionäre Algorithmen (1)

Populationsbasierte Suche. Evolutionäre Algorithmen (1) Populationsbasierte Suche Bisherige Meta-Heuristiken: Simulated Annealing Tabu Search Ausgehend von einer Lösung wird gesucht Populationsbasierte Heuristiken Suche erfolgt ausgehend von mehreren Lösungen

Mehr

Evolutionsstrategien

Evolutionsstrategien Evolutionsstrategien Seminar Evolutionary Algorithms SS 2010 Cornelius Diekmann Lehrstuhl Robotics and Embedded Systems Veranstalter: Dipl.-Inf. Frank Sehnke Fakultät für Informatik Technische Universität

Mehr

Survival of the Fittest Optimierung mittels Genetischer Algorithmen

Survival of the Fittest Optimierung mittels Genetischer Algorithmen Übung zu Organic Computing Survival of the Fittest Optimierung mittels Genetischer Algorithmen Sabine Helwig Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Universität Erlangen-Nürnberg [email protected]

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Von Valentina Hoppe und Jan Rörden Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Gliederung Biologische Evolution Genetischer Algorithmus Definition theoretischer

Mehr

Hauptseminar Repräsentationen für Optimierungsalgorithmen

Hauptseminar Repräsentationen für Optimierungsalgorithmen Stefan Bens Hauptseminar Dresden, 03.07.2008 Inhalt 1. Motivation 2. Einleitung 3. Repräsentationsarten und Eigenschaften 4. Beispiel 5. Zusammenfassung Folie 2 Als Repräsentation bezeichnet man die Kodierung

Mehr

Künstliche Intelligenz

Künstliche Intelligenz Künstliche Intelligenz Vorlesung 9 und 10: Evolutionäre Standardalgorithmen 1/69 LERNZIELE Die gängigen Standardalgorithmen, aus der Anfangszeit bis heute, werden vorgestellt. Die bekannten Standardalgorithmen

Mehr

Evolutionsstrategie - Grundkonzept und Basisoperatoren -

Evolutionsstrategie - Grundkonzept und Basisoperatoren - Evolutionsstrategie - Grundonzept und Basisoperatoren - Proseminar Evolutionsstrategien Technische Universität Chemnitz Sommersemester 00 Toni Reichelt Matr.-nr.: 37 Gliederungsübersicht. Vereinbarungen....

Mehr

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008 Genetische Algorithmen Uwe Reichel IPS, LMU München [email protected] 8. Juli 2008 Inhalt Einführung Algorithmus Erweiterungen alternative Evolutions- und Lernmodelle Inhalt 1 Einführung

Mehr

Seminararbeit zum Thema Genetische Algorithmen

Seminararbeit zum Thema Genetische Algorithmen Seminararbeit zum Thema Genetische Algorithmen Seminar in Intelligent Management Models in Transportation und Logistics am Institut für Informatik-Systeme Lehrstuhl Verkehrsinformatik Univ.-Prof. Dr.-Ing.

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Shawn Keen Zusammenfassung Eine weitere Herangehensweise an das maschinelle Lernen ist die Nachahmung evolutionärer Prozesse. Hier wollen wir uns mit den sogenannten Genetischen

Mehr

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen Einführung in die Methoden der Künstlichen Intelligenz Evolutionäre Algorithmen Dr. David Sabel WS 2012/13 Stand der Folien: 12. November 2012 Evolutionäre / Genetische Algorithmen Anwendungsbereich: Optimierung

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Projektgruppe 431 Metaheuristiken Bianca Selzam Inhaltsverzeichnis 1 Einleitung......................................................... 1 2 Grundlagen aus der Biologie.......................................

Mehr

Der genetische Algorithmus

Der genetische Algorithmus Joachim Breitner Seminarkurs am Schickhardt-Gymnasium Herrenberg 2002/2003 Halbjahr 12.2 Modellbildung und Simulation am Beispiel der Evolution und dem Programm EvoLab Thema 2: Der genetische Algorithmus

Mehr

Linsenberechnung mit Evolutionsstrategien

Linsenberechnung mit Evolutionsstrategien Linsenberechnung mit Evolutionsstrategien Ralf Gruber und Rainer Müller Lehrstuhl für Didaktik der Physik, Universität München Schellingstr. 4, 80799 München E-mail: [email protected]

Mehr

Grundlagen und Basisalgorithmus

Grundlagen und Basisalgorithmus Grundlagen und Basisalgorithmus Proseminar -Genetische Programmierung- Dezember 2001 David König Quelle: Kinnebrock W.: Optimierung mit genetischen und selektiven Algorithmen. München, Wien: Oldenbourg

Mehr

GP-Music: An Interactive Genetic Programming System for Music Generation with Automated Fitness

GP-Music: An Interactive Genetic Programming System for Music Generation with Automated Fitness GP-Music: An Interactive Genetic Programming System for Music Generation with Automated Fitness Raters Brad Johanson, Riccardo Poli Seminarvortrag von Thomas Arnold G ˇ ˇ ˇ ˇ WS 2012/13 TU Darmstadt Seminar

Mehr

Systempartitionierung Evol. Algorithmen

Systempartitionierung Evol. Algorithmen Systempartitionierung Evol. Algorithmen Hw-Sw-Co-Design Übersicht Grundlagen Evolutionärer Algorithmen Strömungsrichtungen Hybride evolutionäre Algorithmen Systempartitionierung und -exploration 1 Einleitung

Mehr

Exkurs Modelle und Algorithmen

Exkurs Modelle und Algorithmen Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen

Mehr

Genetische Algorithmen von der Evolution lernen

Genetische Algorithmen von der Evolution lernen Genetische Algorithmen von der Evolution lernen (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Nils J. Nilsson Artificial Intelligence Morgan Kaufmann, 1998 Ansatz Bisher: Problemlösung

Mehr

Übersicht. Lamarck und Darwin Variation natürliche Selektion, sexuelle, künstliche Gendrift Artbildung adaptive Radiation

Übersicht. Lamarck und Darwin Variation natürliche Selektion, sexuelle, künstliche Gendrift Artbildung adaptive Radiation Evolution 1 Übersicht Lamarck und Darwin Variation natürliche Selektion, sexuelle, künstliche Gendrift Artbildung adaptive Radiation 2 Jean Baptiste de LAMARCK... der häufige Gebrauch eines Organs [stärkt]

Mehr

Mechanismen der Evolution. Übersicht. Lamarck und Darwin Variation natürliche Selektion, sexuelle, künstliche Gendrift Artbildung adaptive Radiation

Mechanismen der Evolution. Übersicht. Lamarck und Darwin Variation natürliche Selektion, sexuelle, künstliche Gendrift Artbildung adaptive Radiation Mechanismen der Evolution 1 Übersicht Lamarck und Darwin Variation natürliche Selektion, sexuelle, künstliche Gendrift Artbildung adaptive Radiation 2 Jean Baptiste de LAMARCK... der häufige Gebrauch eines

Mehr

Eine Analyse des Effektes von Lernen auf Populationsfitness und Diversität in einer NK-Fitnesslandschaft. Lars Melchior

Eine Analyse des Effektes von Lernen auf Populationsfitness und Diversität in einer NK-Fitnesslandschaft. Lars Melchior Eine Analyse des Effektes von Lernen auf Populationsfitness und Diversität in einer NK-Fitnesslandschaft Lars Melchior Theoretische Grundlagen Theoretische Grundlagen Genetik Genetische Algorithmen NK

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik

Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik Dozent: Prof. Dr. Henning Meyerhenke Paralleles Rechnen, Fakultät für Informatik 1 KIT Universität des Landes

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen In dieser Ausarbeitung gemäss Aufgabenstellung auf der Kurshomepage des Moduls Knowledge- Based Systems wird die Funktionsweise und Nutzung von genetischen Algorithmen erläutert.

Mehr

Computational Intelligence

Computational Intelligence Vorlesung Computational Intelligence Stefan Berlik Raum H-C 80 Tel: 027/70-267 email: [email protected] Inhalt Überblick Rückblick Optimierungsprobleme Optimierungsalgorithmen Vorlesung Computational

Mehr

Evotool Eine Matlab-Toolbox für Evolutionsstrategien. Christian Voigt

Evotool Eine Matlab-Toolbox für Evolutionsstrategien. Christian Voigt Evotool Eine Matlab-Toolbox für Evolutionsstrategien Christian Voigt September 2007 Agenda 1 Einführung 2 Erstellung des Initialisierungsskripts 3 Erstellung einer passenden Fitnessfunktion 4 Graphische

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

Genetische Algorithmen und Evolutionäre Strategien

Genetische Algorithmen und Evolutionäre Strategien Genetische Algorithmen und Evolutionäre Strategien von Adam El Sayed Auf und Kai Lienemann Eine Ausarbeitung zum Seminar Intelligente Algorithmen im Wintersemester 2003/2004 an der Universität Bielefeld

Mehr

Ausarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme

Ausarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme Universität Hamburg Fachbereich Mathematik Seminar: Proseminar Graphentheorie Dozentin: Haibo Ruan Sommersemester 2011 Ausarbeitung zum Modulabschluss Graphentheorie spannende Bäume, bewertete Graphen,

Mehr

8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick

8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick Grundlagen der Künstlichen Intelligenz 5. April 0 8. Suchalgorithmen: Lokale Suche Grundlagen der Künstlichen Intelligenz 8. Suchalgorithmen: Lokale Suche 8.1 Einleitung Malte Helmert Universität Basel

Mehr

7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen

7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen 7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen 7.7.1 Die Laplace-Verteilung Sei X eine gleich verteilte Zufallsvariable mit den Werten in der Menge Ω X = {x i R : i = 1,...,n}, d.h. f (x i = 1

Mehr

Konkretes Durchführen einer Inferenzstatistik

Konkretes Durchführen einer Inferenzstatistik Konkretes Durchführen einer Inferenzstatistik Die Frage ist, welche inferenzstatistischen Schlüsse bei einer kontinuierlichen Variablen - Beispiel: Reaktionszeit gemessen in ms - von der Stichprobe auf

Mehr

Primzahlen im Schulunterricht wozu?

Primzahlen im Schulunterricht wozu? Primzahlen im Schulunterricht wozu? Franz Pauer Institut für Fachdidaktik und Institut für Mathematik Universität Innsbruck Tag der Mathematik Graz 6. Februar 2014 Einleitung Eine (positive) Primzahl ist

Mehr

Genetische Algorithmen und Evolutionsstrategien

Genetische Algorithmen und Evolutionsstrategien Eberhard Schöneburg Frank Heinzmann Sven Feddersen Genetische Algorithmen und Evolutionsstrategien Eine Einführung in Theorie und Praxis der simulierten Evolution Tschnische UnsversSsät Darmstadt Fachbereich

Mehr

Grundlagen der Künstlichen Intelligenz

Grundlagen der Künstlichen Intelligenz Grundlagen der Künstlichen Intelligenz 9. Klassische Suche: Baumsuche und Graphensuche Malte Helmert Universität Basel 13. März 2015 Klassische Suche: Überblick Kapitelüberblick klassische Suche: 5. 7.

Mehr

Evolutionäre Algorithmen - Kapitel 15

Evolutionäre Algorithmen - Kapitel 15 Evolutionäre Algorithmen - Kapitel 15 Metaheuristiken Prof. Dr. Rudolf Kruse ÖÙ Û º ºÙÒ ¹Ñ ÙÖ º Fakultät für Informatik Otto-von-Guericke-Universität Magdeburg 9. Juni 2008 R. Kruse (Uni Magdeburg) Metaheuristiken

Mehr

Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung

Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung M.Sc. Brice Hakwa [email protected] Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung - Zusammenfassung zum Thema: Berechnung von Value-at-Risk

Mehr

Gliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen

Gliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen Kapitel Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Heuristische Verfahren

Heuristische Verfahren Heuristische Verfahren Bei heuristischen Verfahren geht es darum in polynomieller Zeit eine Näherungslösung zu bekommen. Diese kann sehr gut oder sogar optimal sein, jedoch gibt es keine Garantie dafür.

Mehr

Diplomarbeit. Bülent Ulas. Entwicklung einer Software für Online-Befragungen mit interaktiven evolutionären Algorithmen

Diplomarbeit. Bülent Ulas. Entwicklung einer Software für Online-Befragungen mit interaktiven evolutionären Algorithmen Diplomarbeit Bülent Ulas Entwicklung einer Software für Online-Befragungen mit interaktiven evolutionären Algorithmen Fakultät Technik und Informatik Studiendepartment Informatik Hamburg, 12. März 2008

Mehr

Warum konvergieren Genetische Algorithmen gegen ein Optimum?

Warum konvergieren Genetische Algorithmen gegen ein Optimum? 1 / 21 Gliederung 1 Das Schematheorem Motivation Begriffe Herleitung Ergebnis Das Schematheorem Das Schematheorem Motivation 3 / 21 Warum konvergieren Genetische Algorithmen gegen ein Optimum? Theoretische

Mehr

Genetische Programmierung

Genetische Programmierung 15. Juli 2007 Anfang der 90er von John R. Koza entwickelt. Verfahren zur automatisierten Erstellung von Programmen. Von der Evolution inspiriert. Anforderungen an die Möglichst korrekte Lösung ergeben

Mehr

Proseminarvortrag. Markov-Ketten in der Biologie (Anwendungen)

Proseminarvortrag. Markov-Ketten in der Biologie (Anwendungen) Proseminarvortrag Markov-Ketten in der Biologie (Anwendungen) von Peter Drössler 20.01.2010 2 Markov-Ketten in der Biologie (Peter Drössler, KIT 2010) Inhalt 1. Das Wright-Fisher Modell... 3 1.1. Notwendige

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

Evolutionäres Programmieren

Evolutionäres Programmieren Evolutionäres Programmieren Martin Bader 29. Mai 2002 1 2 2 GRUNDKONZEPTE 1 Einleitung Evolutionäre und genetische Algorithmen sind Optimierungsverfahren, die sich, wie der Name schon sagt, nach dem Vorbild

Mehr

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Von der Mikro- zur Makroevolution... (1) Einige Bemerkungen zur Evolution von Organen und der höheren Taxa

Von der Mikro- zur Makroevolution... (1) Einige Bemerkungen zur Evolution von Organen und der höheren Taxa Von der Mikro- zur Makroevolution... (1) Einige Bemerkungen zur Evolution von Organen und der höheren Taxa Wie funktioniert Evolution im Kleinen? Evolution beinhaltet nicht nur Artbildung, sondern auch

Mehr

Übungsblatt 9 (25. bis 29. Juni)

Übungsblatt 9 (25. bis 29. Juni) Statistik 2 Dr. Andrea Beccarini Dipl.-Vw. Dipl.-Kffr. Heike Bornewasser-Hermes Sommersemester 2012 Übungsblatt 9 (25. bis 29. Juni) Stetiges Verteilungsmodell und Gemeinsame Verteilung Stetiges Verteilungsmodell

Mehr

Allgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken

Allgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken FernUniversität in Hagen Lehrstuhl für Betriebswirtschaftslehre, insb. Operations Research Prof. Dr. Wilhelm Rödder Allgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken Sandra Rudolph,

Mehr

Übungen mit dem Applet Zentraler Grenzwertsatz

Übungen mit dem Applet Zentraler Grenzwertsatz Zentraler Grenzwertsatz 1 Übungen mit dem Applet Zentraler Grenzwertsatz 1 Statistischer Hintergrund... 1.1 Zentraler Grenzwertsatz... 1. Beispiel Würfeln... 1.3 Wahrscheinlichkeit und relative Häufigkeit...3

Mehr

METHODEN DES DATENBANKDESIGNS

METHODEN DES DATENBANKDESIGNS METHODEN DES DATENBANKDESIGNS Man unterscheidet vier Strategien zum Design eines Schemas: Top-Down Bottom-Up Inside-Out und Mixed. Jede Strategie ist durch einen bestimmten Satz von Primitiven charakterisiert

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Anleitung: Standardabweichung

Anleitung: Standardabweichung Anleitung: Standardabweichung So kann man mit dem V200 Erwartungswert und Varianz bzw. Standardabweichung bei Binomialverteilungen für bestimmte Werte von n, aber für allgemeines p nach der allgemeinen

Mehr

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Modelle und Verfahren zur innerbetrieblichen Standortplanung

Modelle und Verfahren zur innerbetrieblichen Standortplanung Andreas Bölte Modelle und Verfahren zur innerbetrieblichen Standortplanung Mit 73 Abbildungen Physica-Verlag Ein Unternehmen des Springer-Verlags Inhaltsverzeichnis 1. Einleitung 1 2. Layoutplanung für

Mehr

Kapitel 13. Evolutionäre Spieltheorie. Einleitung. Evolutionäre Biologie. Übersicht 2. Alternative: Biologische Evolutionstheorie

Kapitel 13. Evolutionäre Spieltheorie. Einleitung. Evolutionäre Biologie. Übersicht 2. Alternative: Biologische Evolutionstheorie Übersicht : Evolutionäre Spieltheorie Einleitung Evolutionäre Biologie Evolutionäre Spieltheorie: Idee Gefangenendilemma (Beispiel) Evolutionäre Stabilität Beispiele Wiederholtes Gefangenendilemma Chicken-Spiel

Mehr

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr

Kapitel 13. Evolutionäre Spieltheorie. Einleitung. Evolutionäre Biologie. Übersicht 2. Alternative: Biologische Evolutionstheorie

Kapitel 13. Evolutionäre Spieltheorie. Einleitung. Evolutionäre Biologie. Übersicht 2. Alternative: Biologische Evolutionstheorie Übersicht : Evolutionäre Spieltheorie Einleitung Evolutionäre Biologie Evolutionäre Spieltheorie: Idee Gefangenendilemma (Beispiel) Evolutionäre Stabilität Beispiele Wiederholtes Gefangenendilemma Chicken-Spiel

Mehr

Bayesianische Netzwerke - Lernen und Inferenz

Bayesianische Netzwerke - Lernen und Inferenz Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte

Mehr

1 Grundprinzipien statistischer Schlußweisen

1 Grundprinzipien statistischer Schlußweisen Grundprinzipien statistischer Schlußweisen - - Grundprinzipien statistischer Schlußweisen Für die Analyse zufallsbehafteter Eingabegrößen und Leistungsparameter in diskreten Systemen durch Computersimulation

Mehr

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,

Mehr

Genetische Algorithmen

Genetische Algorithmen Projekt für Algorithmische Anwendungen Genetische Algorithmen Von Mike Müller 11037091 Dennis Freese 11038517 Gruppe: B-ROT 1 Inhaltsverzeichnis Allgemeines...3 Geschichtliche Entwicklung der genetischen

Mehr

Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen

Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Optimierungsprobleme

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung

Mehr

Optimierung und Simulation

Optimierung und Simulation 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Optimierung und Simulation Von Dr. Jörg Biethahn O. Professor für

Mehr

Lösung von Optimierungsproblemen mit Monte Carlo Methoden

Lösung von Optimierungsproblemen mit Monte Carlo Methoden Lösung von Optimierungsproblemen mit Monte Carlo Methoden Am Beispiel des Problem des Handlungsreisenden Vortragende: Alexandra Vosseler Inhaltsverzeichnis I. Einleitung II. Optimierung mit MCM II.i Vom

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

2. Von der Evolution zur Optimierung

2. Von der Evolution zur Optimierung 2. Von der Evolution zur Optimierung Die Prinzipien der biologischen Evolution werden auf die Optimierung übertragen. Am Beispiel wird ein erster evolutionärer Algorithmus zur Optimierung konstruiert und

Mehr

Aufbau und Operatoren evolutionärer Verfahren

Aufbau und Operatoren evolutionärer Verfahren Aufbau und Operatoren evolutionärer Verfahren Darstellung der Gene im Chromosom (Codierung) Basisalgorithmus Partnerwahl Erzeugung von Nachkommen (Rekombination und Mutation) Bewertung Überlebensregeln

Mehr

Das Trust-Region-Verfahren

Das Trust-Region-Verfahren Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein

Mehr

Institut für Stochastik, SoSe K L A U S U R , 13:

Institut für Stochastik, SoSe K L A U S U R , 13: Institut für Stochastik, SoSe 2014 Mathematische Statistik Paravicini/Heusel 1. K L A U S U R 12.7.2014, 13:00-16.00 Name: Geburtsdatum: Vorname: Matrikelnummer: Übungsgruppe bei: Studiengang & angestrebter

Mehr

Dynamik von Genen in Populationen

Dynamik von Genen in Populationen Dynamik von Genen in Populationen Thomas Spießer 01.08.2007 Zusammenfassung Evolution ist die Veränderung der vererbbaren Merkmale einer Population von Lebewesen von Generation zu Generation. 1 Das Studium

Mehr

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder

Mehr

Outline. 1 Vektoren im Raum. 2 Komponenten und Koordinaten. 3 Skalarprodukt. 4 Vektorprodukt. 5 Analytische Geometrie. 6 Lineare Räume, Gruppentheorie

Outline. 1 Vektoren im Raum. 2 Komponenten und Koordinaten. 3 Skalarprodukt. 4 Vektorprodukt. 5 Analytische Geometrie. 6 Lineare Räume, Gruppentheorie Outline 1 Vektoren im Raum 2 Komponenten und Koordinaten 3 Skalarprodukt 4 Vektorprodukt 5 Analytische Geometrie 6 Lineare Räume, Gruppentheorie Roman Wienands (Universität zu Köln) Mathematik II für Studierende

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Numerische Verfahren der nicht-linearen Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Line

Mehr

Einfaktorielle Varianzanalyse

Einfaktorielle Varianzanalyse Kapitel 16 Einfaktorielle Varianzanalyse Im Zweistichprobenproblem vergleichen wir zwei Verfahren miteinander. Nun wollen wir mehr als zwei Verfahren betrachten, wobei wir unverbunden vorgehen. Beispiel

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr