Evolutionäres Programmieren

Größe: px
Ab Seite anzeigen:

Download "Evolutionäres Programmieren"

Transkript

1 Evolutionäres Programmieren Martin Bader 29. Mai

2 2 2 GRUNDKONZEPTE 1 Einleitung Evolutionäre und genetische Algorithmen sind Optimierungsverfahren, die sich, wie der Name schon sagt, nach dem Vorbild der Evolution richten. Das Grundprinzip besteht darin, aus einer zufällig generierten Menge von Problemlösungen die besten herauszupicken, kopieren und die Kopien leicht abzuändern. Daraus entsteht eine neue, bessere Menge von Problemlösungen, auf die man wieder das selber Verfahren anwendet. Durch die ständige Verbesserung der Lösungen erhofft man sich, wenn nicht das Optimum, so doch zumindest eine relativ gute Lösung zu finden. Es gibt verschiedenartige Ansätze in diese Richtung, wie zum Beispiel genetische Algorithmen oder den Sintflutalgorithmus. Einen dieser Ansätze, die evolutionäre Programmierung, soll hier näher betrachtet werden. Evolutionäre Programmierung (EP) geht zurück auf Arbeiten von L.J. Fogel, A.J.Owens und M.J. Walsh in den 60er Jahren. Ihr Ziel lag jedoch nicht in der Optimierung, sondern sie versuchten, künstlich-intelligente Automaten zu generieren, die in der Lage sein sollten, selbständig Probleme zu lösen. Ein weiterer Gedanke war, durch künstliche Intelligenz Rückschlüsse auf den menschlichen Verstand zu ziehen. Obwohl dieser Ansatz eher mit Artificial Life zu tun hat, gelang es D.B. Fogel, Sohn von L.J.Fogel, daraus ein Verfahren zur Optimierung insbesondere kontinuierlicher Entscheidungsgrössen zu entwickeln, welches die heutige Form von EP darstellt. 2 Grundkonzepte Im Gegensatz zu den genetischen Algorithmen, in denen Lösungen als Genstrings betrachtet werden, interpretiert man diese in EP als Populationen oder Arten. Desweiteren sieht man die biologischen Evolution in erster Linie als Anpassungsprozess auf der Verhaltensebene, die zugrundeliegenden Chromosomen sind nicht von Interesse. Dies nennt man einen phänotypischen (im Gegensatz zum genotypischen) Ansatz. Aufgrund dieser Betrachtungsweise verzichtet EP in der heutigen Form auf alle genetischen Operationen, wie zum Beispiel der Rekombination (die Vereinigung mehrerer Lösungen). Der einzige verwendete Suchoperator ist Mutation, wobei dieser, wie wir später sehen werden, nicht auf einzelnen Bits arbeitet, sondern eine leichte Veränderung der Gesamtlösung darstellt. Er widerspricht also offensichtlich nicht dem phänotypischen Ansatz. Um den Mutationsoperator möglichst effizient zu gestalten, arbeitet man mit einer selbstanpassenden Mutationsschrittweite. Individuen mit schlechten Fitnesswerten können sich so schnell mit grossen Mutationsschritten in die Umgebung guter Lösungen bewegen. Je besser der Fitnesswert, desto kleiner werden die Schrittweiten. Dadurch hindert man Individuen daran, über die Lösung hinauszuschiessen, und sucht den vielversprechenden Bereich mit einem feineren Raster ab.

3 3 3 Genereller Ablauf Der Ablauf des Standard-EPs zu Optimierungszwecken kann in die folgenden 5 Schritte unterteilt werden: Schritt 1: Initialisierung In der Initialisierungsphase wird eine Ausgangspopulation P(0) von µ Individuen stochastisch erzeugt. Dabei sind Populationsgrössen von µ 200 üblich. Für jedes Individuum wird die Ausprägung jedes Vektorelements aufgrund einer Gleichverteilung aus einem Intervall [u j, o j ] bestimmt. Diese Schranken sind nur für die Ausgangspopulation relevant, weitere Generationen dürfen diese überschreiten. Bei Minimierungsproblemen mit optimalen Zielfunktionswert von null verwendet Fogel als Schranken u j = 50 und o j = 50. Allerdings sind diese Konstanten stark problemspezifisch und müssen auf die Anforderungen der Anwendung ausgerichtet sein. Existiert zum Beispiel schon eine grobe Abschätzung des Ergebnisses, so können die Schranken daran ausgerichtet werden. Schritt 2: Bewerten der Ausgangslösungen Nun wird jedem Individuum x i ein Fitnesswert Φ( x i ) zugeteilt, welcher aussagt, wie gut das Individuum die Problemstellung löst. Häufig wird dazu der unmodifizierte Zielfunktionswert F ( x i ) verwendet. Gegebenfalls kann mit einer Funktion Ω : R ω Ω R + eine Transformation in den positiven Bereich und eine Skalierung durchgeführt werden, wobei bei der Selektion ein positiver Fitnesswert nicht zwingend ist. Ebenfalls üblich ist die Modifikation des Fitnesswertes durch eine individuumspezifische Zufallsvariable v i. Die allgemeine Form der Fitnessfunktion ist Φ( x i ) = Ω(F ( x i ), v i ) Diese µ Individuen bilden die Eltern für den nächsten Schritt. Schritt 3: Erzeugen von Nachkommen Für jedes Individuum x 1,..., x µ werden die 3 Teilschritte Replikation, Mutation und Bewertung durchgeführt. Teilschritt 3.1: Replikation Es wird eine Kopie des Individuums erzeugt. Teilschritt 3.2: Mutation Die gerade erzeugte Kopie wird durch die Addition eines Vektors mit Zufallszahlen modifiziert. Alle Zufallszahlen werden stochastisch aus einer Normalverteilung mit Erwartungswert 0 und einer vom Fitnesswert abhängigen Standardabweichung gewonnen. Dadurch erreicht man, dass man bei schlechten Fitnesswerten sich der Lösung schnell nähern kann, wogegen man bei einer

4 4 3 GENERELLER ABLAUF bereits guten Näherung das Suchraster verfeinert. Für die Vektorelemente x j des Nachkommen gilt: x j = x j + N(0, 1) k j Φ(x) + z j Dabei sind k j eine globale Skalierungskonstante, Φ(x) der elterliche Fitnesswert, z j eine globale Grundvarianz und N(0,1) eine normalverteilte Zufallsvariable mit Erwartungswert 0 und Standardabweichung 1. Durch k j und z j ergeben sich 2n vom Benutzer festzulegende Strategieparameter, die der Einfachheit halber häufig standardmässig mit k j = 1, z j = 0 j festgelegt werden. Daraus ergibt sich die vereinfachte Form x j = x j + N(0, 1) Φ(x) Teilschritt 3.3: Bewerten der Nachkommen und Ergänzen der Population Den Nachkommen wird auf gleicher Weise wie den Eltern ein Fitnesswert zugeordnet. Falls man mit stochastisch modifizierten Fitnesswerten arbeitet, so muss die Zufallsgrösse v neu bestimmt werden. Anschliessend wird das Individuum zur Population hinzugefügt, so dass diese schrittweise auf 2µ anwächst. Schritt 4: Stochastische Selektion Um die Populationsgrösse wieder auf µ zu senken, findet ein Wettkampf statt, in dem jedes der Individuen paarweise gegen h Gegner antreten muss. Übliche Werte für h sind 0.05µ < h < 0.1µ. Ein Individuum erringt einen Sieg, wenn sein Fitnesswert mindestens genau so gut wie der seines Gegners ist. Nach diesem Wettkampf werden die Individuen nach der Anzahl ihrer Siege sortiert und aufgrund dieser Reihenfolge werden die besten µ in die neue Population übernommen. Bei Punktegleichheit entscheidet der Fitnesswert. Obwohl der Fitnesswert nur zweitrangig ist und auch schlechtere Individuen bei Losglück eine Chance haben, handelt es sich um eine Eliteselektion und eine diskriminierende Selektion, denn das beste Individuum kann nicht verlieren und das schlechteste nicht gewinnen. Schritt 5: Weiter bei Schritt 3, bis ein Abbruchkriterium greift Aus dieser neu erzeugte Population werden wieder Nachkommen generiert, bewertet und aufgrund eines Wettkampfes die besten ausgesucht. Dies wiederholt sich, bis ein Abbruchkriterium erfüllt ist. Mögliche Abbruchkriterien können ressourcenabhängig sein, zum Beispiel das erreichen einer bestimmten Anzahl von Generationen. Eine andere Variante ist es, abzubrechen, sobald das Niveau der Lösungen gut genug ist, oder wenn der Optimierungsprozess stagniert, also keine nennenswerte Verbesserung von einer zur nächsten Generation eintritt. Als Lösung wird im Allgemeinen das beste während des gesamten Optimierungsprozesses gefundene Individuum genommen.

5 5 Beispiel: Hauptprogramm eines EP Das folgende Codefragment ist das Hauptprogramm eines in Java geschriebenen EP zur Minimierung kontinuierlicher Funktionen. public static void main(string[] args) // the Individuums Individuum[] ind = new Individuum[2 * POPULATION]; // the opponent in a competition int opponent; for (int i = 0; i < POPULATION; i++) // create random individuums ind[i] = new Individuum(MINVAL, MAXVAL); for (int i = 0; i < GENERATIONS; i++) System.out.println("Generation " + i); for (int j = 0; j < POPULATION; j++) // create the mutants ind[population + j] = ind[j].mutate(); for (int j = 0; j < 2 * POPULATION; j++) // do the competition ind[j].victories = 0; // reset victories for (int k = 0; k < COMPETITIONS; k++) // look for opponents do opponent = rand.nextint(2 * POPULATION); while (opponent == j); if (ind[j].fitness <= ind[opponent].fitness) // victory ind[j].victories++; quicksort(ind, 0, 2 * POPULATION - 1); System.out.println("Best Individum: "); ind[0].print();

6 6 4 META-EP Die hier nicht dargestellte Klasse Individuum enthält einen Vektor von kontinuierlichen Variablen zur Lösungsrepräsentation, seinen Fitnesswert, einen Zähler für die Siege im Wettkampf sowie Methoden zum Vergleichen von Fitnesswerten und zum Erzeugen einer mutierten Kopie. Desweiteren benötigt man eine Klasse Function, welche den zu einem Lösungsvektor gehörenden Fitnesswert berechnet. Hierbei wird eine Fitness von null als optimal angesehen, je höher der Wert, desto schlechteer die Fitness. 4 Meta-EP Bei der praktischen Anwendung des Standard-EP kommt es häufig Problemen beim Versuch, die Mutationsschrittweite durch die Quadratwurzel des Fitnesswertes zu bestimmen. So kann bei Funktionen mit optimalem Fitnesswert ungleich null das Ergebnis nicht systematisch und präzise erreicht werden, weil die Mutationsschrittweite hier nicht gegen null konvergiert. Bei sehr grossen Fitnesswerten ergibt sich dadurch schon beinahe ein random search. Oft ist dem Anwender der global optimale Zielfunktionswert unbekannt, so dass es nahezu unmöglich ist, geeignete Transformations- und Skalierungsfaktoren zu finden. Ein weiteres Problem besteht durch die hohe Anzahl der Strategieparameter k j und z j, die den Anwender vor ein weiteres Optimierungsproblem stellen, falls er die Standardeinstellungen für ungünstig hält. Diese Nachteile haben dazu geführt, dass inzwischen eine als Meta-EP bezeichnete Variante die gebräuchlichste Form von EP ist. In Meta-EP wird die Schrittweite nicht mehr über den Fitnesswert festgelegt, sondern auf gleicher Weise wie der Lösungsvektor von Generation zu Generation optimiert. Jedes Individuum erhält zusätzlich zu seinen n problembezogenen Variablen einen Vektor σ j von n Standardabweichungen, welchen man als die Mutationsschrittweise interpretieren kann. Es ergeben sich folgende Abweichungen im Ablauf: Schritt 1: Initialisierung Die Initialisierung erfolgt analog zu der des Standard-EP, mit dem Zusatz dass für jedes Individuum die Standardabweichungen initialisiert werden müssen. Jedes Vektorelement wird aus einer Gleichverteilung im Intervall [0, β] zufällig bestimmt, wobei β ein benutzerdefinierter Strategieparameter ist, den Fogel standardmässig auf 25 setzt. Schritt 2: Bewerten der Ausgangslösungen Wie bei Standard-EP Schritt 3: Erzeugen von Nachkommen Der erste Teilschritt, die Replikation, erfolgt noch wie beim Standard-EP. Der Unterschied zum Standard-EP wird jedoch bei der Mutation deutlich: Statt eine fitnessabhängige Mutationsschrittweise zu wählen, mutiert man zuerst den Vektor mit den Standardabweichungen und danach

7 7 aufgrund dessen Werte die eigenlichen Variablen. Dazu werden folgende Formeln verwendet: σ j = σ j + α σ j N j (0, 1) x j = x j + σ j N(0, 1) Zusätzlich benötigt man noch folgende Anpassungsregel: Falls σ j 0, dann setze σ j = ε (ε > 0) Der Faktor α ist ein benutzerdefinierter Strategieparameter und hat wesentlichen Einfluss auf das Verhalten des Meta-EP. Wird er zu gross gewählt, so mutieren Standardabweichungen leicht in den negativen Bereich und werden auf ε gesetzt. Dadurch wird die Geschwindigkeit der Lösungsoptimierung stark herabgesetzt. Ist α zu klein, so dauert die Selbstanpassung der Mutationsschrittweiten zu lange. Fogel schlägt für α einen Wert von ungefähr 1/6 vor. ε wird benötigt, um zu verhindern, dass der Optimierungsprozess durch eine Standardabweichung von null zum erliegen kommt. Verschiedentlich wird zur Anpassung der Standardabweichung auch eine andere Formel verwendet, die automatisch positive Werte liefert und einer anderen Variante der evolutionären Algorithmen, den Evolutionsstrategien, entspringt. Sie lautet: σ j = σ j e τ 1 N(0,1)+τ 2 N j (0,1) Hierbei bezeichnet N(0,1) eine für das Individuum einmalig bestimmte Zufallsvariable, welche eine Grundausprägung der Mutation bestimmt. N j (0, 1) wird für jedes Vektorelement separat bestimmt und ermöglicht eine individuelle Anpassung der Schrittweite in jede Dimension. τ 1 und τ 2 sind benutzerdefinierte Strategieparamter, wobei τ 1 = τ 2 = 0.15 empfohlen wird. Schritt 4: Stochastische Selektion Wie bei EP Schritt 5: Weiter bei Schritt 3, bis ein Abbruchkriterium greift Wie bei EP 5 Continuous-EP Eine weitere Abart von EP stellt das Continuous-EP dar. Statt einem general replacement wird hier pro Generation nur ein Individdum ersetzt. Dazu wird stochastisch ein Elter gewählt, repliziert und mutiert. Hierbei ist sowohl die Variante des Standard-EP als auch die des Meta-EP möglich. Anschliessend wird das Individuum mit dem schlechtesten Fitnesswert verworfen.

8 8 7 EP UND KI 6 Sonstige Erweiterungen Bisher wurden aus µ Eltern µ Nachkommen erzeugt. Man kann jedoch auch mehr Nachkommen erzeugen, zum Beispiel n statt nur einem Nachkomme pro Elternteil. Das erhöht die Selektionshärte, weil gute Individuen eine Schwemme von guten Nachkommen erzeugen, die die schlechten Individuen schnell verdrängen. Dies erhöht vor allem bei unimodalen Funktionen die Fortschrittsgeschwindigkeit. Bei vielen Optimierungsproblemen sind die vorgestellten Varianten ungeeignet, weil die Problemstellung kombinatorischer oder diskreter Natur ist. Der auf Zufallsgrössen basierende Mutationsoperator würde zum Beispiel ungültige Lösungen bringen. Dennoch lassen sich die Grundprinzipien des EP auch auf solche Probleme übertragen. Geht es zum Beispiel darum, eine möglichst günstige Permutation einer Menge zu finden (wie zum Beispiel beim Travelling Salesman Problem), kann man die Mutation zum Beispiel folgendermassen durchführen: Die Anzahl der Mutationsschritte wird aufgrund der Fitnessfunktion wie beim Standard-EP festgelegt und auf die nächste ganze Zahl aufgerundet. Ein Mutationsschritt besteht nun darin, ein Element zufällig aus der Permutation zu entnehmen und an einer anderen Position einzufügen. Aufgrund der Anzahl der Mutationsschritte werden schlechtere Lösungen wesentlich stärker verändert als gute, was wieder dem Grundprinzip der EP entspricht. Allerdings existiert keine standardisierte Vorgehensweise des EP für diskrete und kombinatorische Probleme. 7 EP und KI Der eigentliche Ursprung des EP ist weniger im Optimierungsbereich als in der künstlichen Intelligenz zu sehen. Fogel, Owens und Walsh benutzten EP in den 60er-Jahren, um die Evolution intelligenten Verhaltens zu simulieren. Zur Darstellung intelligenten Verhaltens benutzten sie sogenannte finite state machines (finite Automaten, abgekürzt FA), auch als Mealey- und Moore- Automaten bezeichnet. Obwohl im Normalfall Mealey-Automaten eingesetzt wurden, betrachten wir hier wegen des einfacheren Verständnisses nur Moore-Automaten. Das Verhalten eines FA ist vollständig bestimmt durch seine möglichen Zustände, den Ausgangszustand und die eingabeabhängigen Zustandsübergänge. Im folgenden Bild ist ein FA mit den drei Zuständen A, B und C dargestellt. Mögliche Eingaben sind 0 und 1, Ausgabesignale sind α und β.

9 9 Der angenommene Ausgangszustand sei A. Der Automat liefert nun das Ausgangssignal α und wartet dann auf ein Eingangssignal. Angenommen, dieses sei 1. Der Automat wechselt nun in den Zustand B, welcher ebenfalls das Ausgangssignal α liefert. Ist das nächste Eingabesignal nun 0, bleibt er in diesem Zustand, bei 1 wechselt er zurück nach A. Fogel, Owens und Walsh benutzten nun EP, um die Verhaltensweise des Automaten einem gegebenen Problem möglichst gut anzupassen. Beispiel: Gefangenen-Dilemma Der Einsatz von FA zur Repräsentation von intelligentem Verhalten und dessen Optimierung mittels EP kann an einem Beispiel aus der Spieletheorie, dem Gefangenen-Dilemma, veranschaulicht werden: Zwei Spieler, die sich nicht absprechen können, müssen für sich zwischen den Verhaltensweisen Kooperation (K) und Egoismus (E) entscheiden. Kooperation verbessertdie Gesamtsituation beider Spieler, wogegen Egoismus die eigene Situation auf Kosten des Gegenspielers verbessert. Konkret ergeben sich dadurch folgende Regeln: Wählen beide Spieler K, so erhalten beide je 3 Punkte. Wählt ein Spieler K und der andere E, so erhält der Spieler mit E 5 Punkte, wogegen der andere leer ausgeht. Wählen beide Spieler E, so erhalten beide nur je einen Punkt. Jedes Spiel geht über 151 Züge. Ziel des Spieles ist nicht, mehr Punkte als der Gegner zu haben, sondern möglichst viele Punkte zu haben. Gegen einen kooperativen Spieler erhält man also viele Punkte, indem man häufig E wählt. Allerdings besteht das Risiko, dass der Gegner seine Strategie ebenfalls auf Egoismus umstellt, wenn er feststellt, dass seine Kooperation ausgenutzt

10 10 7 EP UND KI wird. Ab diesem Moment bekommt man nur noch sehr wenige Punkte. Die Kunst besteht also darin, eine Strategie zu entwickeln, die sich dem Verhalten des Gegners anpasst. Spielstrategien können durch FAs repräsentiert werden. Das folgende Beispiel zeigt die recht effiziente Strategie wie du mir, so ich dir. Hierbei entscheidet man sich grundsätzlich für das, was der andere im Zug zuvor gemacht hat. Im Zustand A (welches auch der Startzustand ist, verhält sich die Strategie kooperativ, im Zustand B egoistisch. Der Zustand wechselt von A nach B, sobald er E als Eingabe erhält, und andersherum. Nun soll mittels eines EP eine erfolgversprechende Strategie gesucht werden. Die 5 Schritte können zum Beispiel wie folgt aussehen: Schritt 1: Initialisierung Eine Ausgangspopulation von µ = 50 wird stochastisch erzeugt. Dazu wird zunächst für jedes Individuum zufällig eine Anzahl von 1 bis 6 Zuständen ermittelt. Im späteren Verlauf wird die Obergrenze entweder nach oben gesetzt oder ganz aufgehoben. Jedem Zustand werden ein Ausgabesignal und zwei Zustandsübergänge zugeordnet, wobei die Zustandsübergänge gleichverteilt aus allen möglichen Folgezuständen gezogen werden. Danach folgt noch die stochastische Bestimmung des Startzustandes. Schritt 2: Erzeugen von Nachkommen Jedes FA wird kopiert und die Kopie anschliessend mutiert. Mögliche Mutationen sind: die Änderung des Startzustandes das Ändern des Ausgabesignales eines Zustandes das Hinzufügen eines Zustandes das Löschen eines Zustandes das Ändern eines Zustandübergangs

11 11 Beim Löschen von Zuständen müssen alle Übergange, die auf diesen Zustand verweisen, geändert werden. Ebenso darf niemals der letzte Zustand gelöscht werden. Beim Hinzufügen eines Zustandes erzielte ich bessere Ergebnisse, wenn dieser Zustand anfangs unerreichbar war, als die Mutation mit der Änderung eines Zustandübergangs auf den neuen Zustand zu kombinieren. Welche der Mutationen gewählt wird, ist wiederum zufällig zu bestimmen, wobei die einzelnen Wahrscheinlichkeiten benutzerdefinierte Strategieparameter sind. Während Fogel mit nur einer Mutation pro Individuum arbeitet, erzielte ich die besten Resultate mit 4 Mutationen je Individuum. Ebenso ist es natürlich denkbar, die Anzahl der Mutationen abhängig von der Fitness zu machen. Schritt 3: Bewerten der FA Da der Erfolg einer Strategie von der Gegenstrategie abhängt, kann erst jetzt die Fitness ermittelt werden. Dazu muss jedes Individuum paarweise gegen jedes andere für ein Spiel über 151 Züge antreten. Als Fitness wählt man entweder die Gesamtpunktzahl über alle Spiele, oder teilt diesen Wert noch durch die Anzahl der Züge, um so die durchschnittliche Gewinnerwartung pro Zug zu erhalten. Schritt 4: Deterministische Selektion Die 50 FA mit den besten Fitnesswerten überleben. Schritt 5: Weiter bei Schritt 2, bis ein Abbruchkriterium greift Der evolutionäre Prozess wird nach 50 Generationen abgebrochen. Fogel benutzt zwar 200 Generationen, meine eigene Erfahrung ist jedoch, dass nach ca 40 Generationen keine wesentlichen Veränderungen mehr eintreten. Während anfangs zunächst egoistische Strategien vorherrschen und die besten Strategien nach wenigen Generationen eine Gewinnerwartung von ca 1.5 Punkten / Zug haben, treten nach ca 5-10 Generationen Strategien auf, die sich kooperativ verhalten, wenn sie auf einen kooperativen Gegner treffen. Am Ende dominieren kooperative Funktionen, die in dieser Population eine Gewinnerwartung von ca 2.7 Punkten / Zug haben. 8 Quellen Volker Nissen. Einführung in Evolutionäre Algorithmen Vieweg 1997 L.J.Fogel, A.J.Owens, M.J.Walsh. Artificial Intelligence through Simulated Evolution Wiley 1976

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Evolutionäre Algorithmen: Überlebenskampf und Evolutionäre Strategien Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überblick Einleitung Adaptive Filter Künstliche

Mehr

Betriebliche Optimierung

Betriebliche Optimierung Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 19 1 Joachim Schauer ( Institut für

Mehr

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Evolutionäre Algorithmen Teil II Evolutionsfenster durch Mutation und sexuelle Rekombination Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Evolutionäre Algorithmen

Mehr

Genetische und Evolutionäre Algorithmen (Vol. 1)

Genetische und Evolutionäre Algorithmen (Vol. 1) Vortrag über Genetische und Evolutionäre Algorithmen (Vol. ) von Adam El Sayed Auf und Kai Lienemann Gliederung: ) Einführung 2) Grundkonzept 3) Genaue Beschreibung des Genetischen Algorithmus Lösungsrepräsentation

Mehr

Computational Intelligence 1 / 28. Computational Intelligence Evolutionsstrategien 3 / 28

Computational Intelligence 1 / 28. Computational Intelligence Evolutionsstrategien 3 / 28 1 / 28 Gliederung 1 Evolutionsstrategien Selektion Rekombination Mutation Ablauf 2 Genetische Programmierung Repräsentation Genetische Operatoren Ablauf Überblick Evolutionsstrategien 3 / 28 Repräsentation

Mehr

10. Vorlesung Stochastische Optimierung

10. Vorlesung Stochastische Optimierung Soft Control (AT 3, RMA) 10. Vorlesung Stochastische Optimierung Genetische Algorithmen 10. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"

Mehr

Genetische und Evolutionäre Algorithmen (Vol. 2)

Genetische und Evolutionäre Algorithmen (Vol. 2) Vortrag über Genetische und Evolutionäre Algorithmen (Vol. 2) von Adam El Sayed Auf und Kai Lienemann Gliederung: 4) Rückblick 5) Allgemeine Einführung 6) Genauere Beschreibung von Evolutionären Strategien

Mehr

Betriebliche Optimierung

Betriebliche Optimierung Betriebliche Optimierung Joachim Schauer Joachim Schauer Betriebliche Optimierung 1 / 31 1 Metaheuristische Verfahren 2 Joachim Schauer Betriebliche Optimierung 2 / 31 Einleitendes Metaheuristische Verfahren

Mehr

Evolutionsstrategien

Evolutionsstrategien Evolutionsstrategien zum Seminar Evolutionäre Algorithmen von Jana Schäfer INHALTVERZEICHNIS 1. Einführung... 3 2. Die Geschichte der Evolutionsstrategien...4 3. Grundlegendes... 6 3.1 Begriffe... 6 3.2

Mehr

Ü b u n g s b l a t t 15

Ü b u n g s b l a t t 15 Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 2. 7. 2007 Ü b u n g s b l a t t 15 Hier ist zusätzliches Übungsmaterial zur Klausurvorbereitung quer durch die Inhalte der Vorlesung. Eine

Mehr

Proseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien

Proseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien Proseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien Michael Stahl 4. Juni 2002 Inhaltsverzeichnis 1 Überblick 2 2 Generischer ES-Algorithmus 2 2.1 Initialisierung....................................

Mehr

Populationsbasierte Suche. Evolutionäre Algorithmen (1)

Populationsbasierte Suche. Evolutionäre Algorithmen (1) Populationsbasierte Suche Bisherige Meta-Heuristiken: Simulated Annealing Tabu Search Ausgehend von einer Lösung wird gesucht Populationsbasierte Heuristiken Suche erfolgt ausgehend von mehreren Lösungen

Mehr

Optimale Produktliniengestaltung mit Genetischen Algorithmen

Optimale Produktliniengestaltung mit Genetischen Algorithmen Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen

Mehr

Hauptseminar Repräsentationen für Optimierungsalgorithmen

Hauptseminar Repräsentationen für Optimierungsalgorithmen Stefan Bens Hauptseminar Dresden, 03.07.2008 Inhalt 1. Motivation 2. Einleitung 3. Repräsentationsarten und Eigenschaften 4. Beispiel 5. Zusammenfassung Folie 2 Als Repräsentation bezeichnet man die Kodierung

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Binomialverteilung und Bernoulli- Experiment

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Binomialverteilung und Bernoulli- Experiment Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Binomialverteilung und Bernoulli- Experiment Das komplette Material finden Sie hier: Download bei School-Scout.de TOSSNET Der persönliche

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Von Valentina Hoppe und Jan Rörden Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Gliederung Biologische Evolution Genetischer Algorithmus Definition theoretischer

Mehr

1. Inhaltsverzeichnis

1. Inhaltsverzeichnis 1. Inhaltsverzeichnis Inhaltsverzeichnis 1. Einleitung 1.1. Darwins Evolutionstheorie 1.2. Darwins Evolutionstheorie als Inspiration für Evolutionäre Algorithmen 1.3. Die Unterschiede der verschiedenen

Mehr

PREISE UND PREISLISTEN UNTER ORGAMAX BEARBEITEN

PREISE UND PREISLISTEN UNTER ORGAMAX BEARBEITEN PREISE UND PREISLISTEN UNTER ORGAMAX BEARBEITEN Inhalt 1 Einführung... 1 2 Kundenspezifische Preise für bestimmte Artikel hinterlegen... 1 3 Anlegen einer Preisliste... 5 4 Bearbeitung von Preislisten:

Mehr

12. Vorlesung Stochastische Optimierung

12. Vorlesung Stochastische Optimierung Soft Control (AT 3, RMA) 12. Vorlesung Stochastische Optimierung Differential Evolution 12. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"

Mehr

Synthese Eingebetteter Systeme. Übung 6

Synthese Eingebetteter Systeme. Übung 6 12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe

Mehr

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch 6 Stetige Verteilungen 1 Kapitel 6: Stetige Verteilungen A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch dargestellt. 0.2 6

Mehr

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen 6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher: Diskrete Zufallsvariablen,

Mehr

T (n) = max. g(x)=n t(n) S(n) = max. g(x)=n s(n)

T (n) = max. g(x)=n t(n) S(n) = max. g(x)=n s(n) Beim Logarithmischen Kostenmaß wird, im Gegensatz zum EKM, die Stelligkeit der Werte berücksichtigt und mit in die Laufzeit eingerechnet. Beispiel: R1 := R2 (R3), wobei R2 den Wert 5, R3 den Wert 10 und

Mehr

LAF Mathematik. Näherungsweises Berechnen von Nullstellen von Funktionen

LAF Mathematik. Näherungsweises Berechnen von Nullstellen von Funktionen LAF Mathematik Näherungsweises Berechnen von Nullstellen von Funktionen von Holger Langlotz Jahrgangsstufe 12, 2002/2003 Halbjahr 12.1 Fachlehrer: Endres Inhalt 1. Vorkenntnisse 1.1 Nicht abbrechende Dezimalzahlen;

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 0.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen

Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Optimierungsprobleme

Mehr

Künstliche Intelligenz und Ameisen. Microsoft C# spielerisch erlernen

Künstliche Intelligenz und Ameisen. Microsoft C# spielerisch erlernen Künstliche Intelligenz und Ameisen Microsoft C# spielerisch erlernen Was ist künstliche Intelligenz? Automatisierung intelligenten Verhaltens. In Spielen hat sich die ereignisorientierte KI durchgesetzt.

Mehr

InformatiCup 2009 EvolutionConsole

InformatiCup 2009 EvolutionConsole InformatiCup 2009 EvolutionConsole Wilhelm Büchner Hochschule 19. März 2010 1 1. Das Team Teammitglieder Ralf Defrancesco KION Information Services GmbH Systemadministrator Daniel Herken Scooter Attack

Mehr

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten?

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten? Übungsblatt LV Künstliche Intelligenz, Evolutionäre Algorithmen (), 204 Exercise. Evolution a) Finden Sie zwei Evolutionsbeispiele auÿerhalb der Biologie. Identizieren Sie jeweils Genotyp, Phänotyp, genetische

Mehr

Evolutionäre Strategien

Evolutionäre Strategien Evolutionäre Strategien Xun Zhao Inhaltsverzeichnis 1 Einleitung 2 1.1 Entwicklung 2 1.2 Eigenschaft 2 1.3 Anwendungen 2 2 ES-Theorie 3 2.1 ES-Zyklus 3 2.2 Mutation 4 2.3 Selektion 6 2.4 Rekombination

Mehr

Matura2016-Lösung. Problemstellung 1

Matura2016-Lösung. Problemstellung 1 Matura-Lösung Problemstellung. Die Funktion f( = + 9k + müsste bei = den Wert annehmen, also gilt + 9k + = k =. Wir betrachten den Bereich mit positiven Werten. Dann gilt: f ( = 8 + 8 = = ; = Bei liegt

Mehr

Technische Universität Chemnitz. Ein Genetischer Algorithmus zur simultanen Dimensionierung und Strukturierung von Fertigungssystemen

Technische Universität Chemnitz. Ein Genetischer Algorithmus zur simultanen Dimensionierung und Strukturierung von Fertigungssystemen Ein Genetischer Algorithmus zur simultanen Dimensionierung Strukturierung von Fertigungssystemen JENS ARNOLD Fakultät für Informatik D-09107 Chemnitz E-Mail: Jens.Arnold@informatik.tu-chemnitz.de THOMAS

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Rot-schwarz Bäume Eigenschaften Rotationen Einfügen (Löschen) 2 Einführung Binäre Suchbäume Höhe h O(h) für Operationen

Mehr

Diskrete Optimierungsverfahren zur Lösung von Sudokus

Diskrete Optimierungsverfahren zur Lösung von Sudokus Diskrete Optimierungsverfahren zur Lösung von Sudokus Seminarvortrag von Daniel Scholz am 6. Dezember 2006 Am Beispiel der Lösung von Sudokurätseln mit Hilfe der linearen Optimierung werden verschiedenen

Mehr

Probeklausur zur Vorlesung Statistik II für Studierende der Soziologie und Nebenfachstudierende

Probeklausur zur Vorlesung Statistik II für Studierende der Soziologie und Nebenfachstudierende Probeklausur zur Vorlesung Statistik II für Studierende der Soziologie und Nebenfachstudierende im Sommersemester 2012 Prof. Dr. H. Küchenhoff, J. Brandt, G. Schollmeyer, G. Walter Aufgabe 1 Betrachten

Mehr

Das Simplexverfahren

Das Simplexverfahren Byron Das Simplexverfahren. Worum es geht: Es ist eine lineare Gleichung f gegeben, sowie ein System von Ungleichungen, die nähere Aussagen über die Unbekannten von f geben. Durch das Simplexverfahren

Mehr

1 Varianten von Turingmaschinen

1 Varianten von Turingmaschinen 1 Varianten von Turingmaschinen Es gibt weitere Definitionen für Turingmaschinen. Diese haben sich aber alle als äquivalent herausgestellt. Ein wiederkehrendes Element der Vorlesung: Äquivalenz von Formalismen

Mehr

825 e 290 e 542 e 945 e 528 e 486 e 675 e 618 e 170 e 500 e 443 e 608 e. Zeichnen Sie das Box-Plot. Sind in dieser Stichprobe Ausreißer vorhanden?

825 e 290 e 542 e 945 e 528 e 486 e 675 e 618 e 170 e 500 e 443 e 608 e. Zeichnen Sie das Box-Plot. Sind in dieser Stichprobe Ausreißer vorhanden? 1. Aufgabe: Eine Bank will die jährliche Sparleistung eines bestimmten Kundenkreises untersuchen. Eine Stichprobe von 12 Kunden ergab folgende Werte: 825 e 290 e 542 e 945 e 528 e 486 e 675 e 618 e 170

Mehr

Stetige Wahrscheinlichkeitsverteilung

Stetige Wahrscheinlichkeitsverteilung Stetige Wahrscheinlichkeitsverteilung Stetige Wahrscheinlichkeitsverteilung Gaußsche Normalverteilung [7] S.77 [6] S.7 ORIGIN µ : Mittelwert σ : Streuung :, 9.. Zufallsvariable, Zufallsgröße oder stochastische

Mehr

Effizienz von Algorithmen

Effizienz von Algorithmen Effizienz von Algorithmen Letzte Bearbeitung: Jan 211 Ein wichtiger Aspekt bei Algorithmen sind seine "Kosten". Wir wollen uns hier ausschließlich mit der Laufzeit des gewählten Algorithmus beschäftigen.

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Konfidenzintervall für den Anteilswert θ. Konfidenzintervalle. Jost Reinecke. Universität Bielefeld. 13. Juni 2005

Konfidenzintervall für den Anteilswert θ. Konfidenzintervalle. Jost Reinecke. Universität Bielefeld. 13. Juni 2005 Universität Bielefeld 13. Juni 2005 Einführung Einführung Wie kann die Kenntnis der Wahrscheinlichkeitsverteilung der Parameter einer Stichprobe dazu verhelfen auf die wahren Werte der Grundgesamtheit

Mehr

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten?

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten? Übungsblatt LV Künstliche Intelligenz, Evolutionäre Algorithmen (1), 2015 Aufgabe 1. Evolution a) Finden Sie zwei Evolutionsbeispiele auÿerhalb der Biologie. Identizieren Sie jeweils Genotyp, Phänotyp,

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

NTM2-Praktikum 7 Random Access Beispiel

NTM2-Praktikum 7 Random Access Beispiel ZHAW NTM2, Rumc, 1 1. Einleitung NTM2-Praktikum 7 Random Access Beispiel Der UHF-RFID-Standard EP Gen2 (ISO 18000-6) sieht ein ALOHA-basiertes Antikollisionsverfahren vor, das auch Q-Algorithmus genannt

Mehr

Mathematische Funktionen

Mathematische Funktionen Mathematische Funktionen Viele Schüler können sich unter diesem Phänomen überhaupt nichts vorstellen, und da zusätzlich mit Buchstaben gerechnet wird, erzeugt es eher sogar Horror. Das ist jedoch gar nicht

Mehr

Kenngrößen von Zufallsvariablen

Kenngrößen von Zufallsvariablen Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert

Mehr

8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick

8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick Grundlagen der Künstlichen Intelligenz 5. April 0 8. Suchalgorithmen: Lokale Suche Grundlagen der Künstlichen Intelligenz 8. Suchalgorithmen: Lokale Suche 8.1 Einleitung Malte Helmert Universität Basel

Mehr

Evolutionäre / Genetische Algorithmen. Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre / Genetische Algorithmen (2) Beispiel

Evolutionäre / Genetische Algorithmen. Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre / Genetische Algorithmen (2) Beispiel Evolutionäre / Genetische Algorithmen Einführung in die Methoden der Künstlichen Intelligenz PD Dr. David Sabel SoSe 0 Anwendungsbereich: Optimierung von Objekten mit komplexer Beschreibung Objekte: Üblicherweise

Mehr

2. Rechnen mit Wahrscheinlichkeiten

2. Rechnen mit Wahrscheinlichkeiten 2. Rechnen mit Wahrscheinlichkeiten 2.1 Axiome der Wahrscheinlichkeitsrechnung Die Wahrscheinlichkeitsrechnung ist ein Teilgebiet der Mathematik. Es ist üblich, an den Anfang einer mathematischen Theorie

Mehr

Klausur zur Spieltheorie Musterlösung

Klausur zur Spieltheorie Musterlösung Prof. Dr. Ulrich Schwalbe/Dr. Tone Arnold Sommersemester 2002 Klausur zur Spieltheorie Musterlösung Vorfragen Aufgabe 1 Berechnen Sie alle Nash Gleichgewichte des folgenden Spiels (in reinen und gemischten

Mehr

5 Kontinuierliches Wachstum

5 Kontinuierliches Wachstum 5 Kontinuierliches Wachstum Kontinuierlich meßbare Größe Wir betrachten nun eine Größe a, die man kontinuierlich messen kann. Den Wert von a zum Zeitpunkt t schreiben wir nun als a(t). Wir können jedem

Mehr

Sigma-Umgebung. Vergleichen wir die beiden Binomialverteilungen: n = 30 p = 0,5. n = 20 p = 0,75

Sigma-Umgebung. Vergleichen wir die beiden Binomialverteilungen: n = 30 p = 0,5. n = 20 p = 0,75 Sigma-Umgebung Vergleichen wir die beiden Binomialverteilungen: n = 30 p = 0,5 0,2 (z.b. 30-maliges Werfen einer Münze, X Anzahl von Zahl ) 5 10 15 20 n = 20 p = 0,75 0,2 5 10 15 20 Der Erwartungswert

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen In dieser Ausarbeitung gemäss Aufgabenstellung auf der Kurshomepage des Moduls Knowledge- Based Systems wird die Funktionsweise und Nutzung von genetischen Algorithmen erläutert.

Mehr

Inferenzstatistik (=schließende Statistik)

Inferenzstatistik (=schließende Statistik) Inferenzstatistik (=schließende Statistik) Grundproblem der Inferenzstatistik: Wie kann man von einer Stichprobe einen gültigen Schluß auf di Grundgesamtheit ziehen Bzw.: Wie groß sind die Fehler, die

Mehr

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen Einführung in die Methoden der Künstlichen Intelligenz Evolutionäre Algorithmen Dr. David Sabel WS 2012/13 Stand der Folien: 12. November 2012 Evolutionäre / Genetische Algorithmen Anwendungsbereich: Optimierung

Mehr

3 Reihen. 3.1 Konvergenz und Divergenz. Die Eindeutigkeit nach Satz 13 ergibt schließlich (5). (6) folgt aus (2) und (1) wegen. 1 a +log ba.

3 Reihen. 3.1 Konvergenz und Divergenz. Die Eindeutigkeit nach Satz 13 ergibt schließlich (5). (6) folgt aus (2) und (1) wegen. 1 a +log ba. Die Eindeutigkeit nach Satz 3 ergibt schließlich (5). (6) folgt aus (2) und () wegen Aussage (7) ergibt sich aus () und (6). 0 = log b = log b ( a a) = log b a +log ba. 3 Reihen 3. Konvergenz und Divergenz

Mehr

Bewertung von Optimierungs- und Zuverlässigkeitsalgorithmen für die virtuelle Produktauslegung

Bewertung von Optimierungs- und Zuverlässigkeitsalgorithmen für die virtuelle Produktauslegung Weimarer Optimierungs- und Stochastiktage 4.0 Bewertung von Optimierungs- und Zuverlässigkeitsalgorithmen für die virtuelle Produktauslegung Dr.-Ing. Andreas Plotzitza, PT/EST4 29. November 2007 1 Inhalt

Mehr

2 Rationale und reelle Zahlen

2 Rationale und reelle Zahlen 2 reelle Es gibt Mathematik mit Grenzwert (Analysis) und Mathematik ohne Grenzwert (z.b Algebra). Grenzwerte existieren sicher nur dann, wenn der Zahlbereich vollständig ist, also keine Lücken aufweist

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Wahrscheinlichkeitsverteilungen 1. Binomialverteilung 1.1 Abzählverfahren 1.2 Urnenmodell Ziehen mit Zurücklegen, Formel von Bernoulli 1.3 Berechnung von Werten 1.4 Erwartungswert und Standardabweichung

Mehr

Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen

Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen Krischan Keitsch 3. Juni 214 Zusammenfassung Um ein Optimierungsproblem mit einer Evolutionsstrategie

Mehr

Abitur 2009 Mathematik GK Stochastik Aufgabe C1

Abitur 2009 Mathematik GK Stochastik Aufgabe C1 Seite 1 Abiturloesung.de - Abituraufgaben Abitur 009 Mathematik GK Stochastik Aufgabe C1 Auf einem Spielbrett rollt eine Kugel vom Start bis in eines der Fächer F 1 bis F 5. An jeder Verzweigung rollt

Mehr

3. Selbstbehalt und Selbstbeteiligung

3. Selbstbehalt und Selbstbeteiligung 3. Selbstbehalt und Selbstbeteiligung Georg Nöldeke Wirtschaftswissenschaftliche Fakultät, Universität Basel Versicherungsökonomie (FS 11) Selbstbehalt und Selbstbeteiligung 1 / 16 1. Modellrahmen 1.1

Mehr

12 Die Normalverteilung

12 Die Normalverteilung 12 Die Normalverteilung Die Normalverteilung ist eine der wichtigsten Wahrscheinlichkeitsverteilungen in der Praxis, weil aufgrund des sogenannten zentralen Grenzwertsatzes in vielen Situationen angenommen

Mehr

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen Einführung in die Methoden der Künstlichen Intelligenz Prof. Dr. Manfred Schmidt-Schauß SoSe 2018 Stand der Folien: 9. Mai 2018 Evolutionäre / Genetische Algorithmen Anwendungsbereich: Optimierung von

Mehr

Fundamente der Computational Intelligence

Fundamente der Computational Intelligence Fundamente der Computational Intelligence Dozent: Günter Rudolph Vertretung: Nicola Beume Wintersemester 2006/07 Universität Dortmund Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS11) Fachgebiet

Mehr

Venndiagramm, Grundmenge und leere Menge

Venndiagramm, Grundmenge und leere Menge Venndiagramm, Grundmenge und leere Menge In späteren Kapitel wird manchmal auf die Mengenlehre Bezug genommen. Deshalb sollen hier die wichtigsten Grundlagen und Definitionen dieser Disziplin kurz zusammengefasst

Mehr

Zufallsvariablen: Die allgemeine Definition

Zufallsvariablen: Die allgemeine Definition KAPITEL 8 Zufallsvariablen: Die allgemeine Definition 8.1. Zufallsvariablen Bis zu diesem Zeitpunkt haben wir ausschließlich Zufallsvariablen mit endlich oder abzählbar vielen Werten (also diskrete Zufallsvariablen)

Mehr

EVOLUTION STRATEGIES DANIELA SCHACHERER SEMINAR: IST KÜNSTLICHE INTELLIGENZ GEFÄHRLICH? SOMMERSEMESTER 2017

EVOLUTION STRATEGIES DANIELA SCHACHERER SEMINAR: IST KÜNSTLICHE INTELLIGENZ GEFÄHRLICH? SOMMERSEMESTER 2017 EVOLUTION STRATEGIES DANIELA SCHACHERER SEMINAR: IST KÜNSTLICHE INTELLIGENZ GEFÄHRLICH? SOMMERSEMESTER 2017 Inhalt Einleitung und Überblick Evolutionsstrategien Grundkonzept Evolutionsstrategien als Alternative

Mehr

Computational Intelligence

Computational Intelligence Vorlesung Computational Intelligence Stefan Berlik Raum H-C 80 Tel: 027/70-267 email: berlik@informatik.uni-siegen.de Inhalt Überblick Rückblick Optimierungsprobleme Optimierungsalgorithmen Vorlesung Computational

Mehr

Elemente der Stochastik (SoSe 2016) 9. Übungsblatt

Elemente der Stochastik (SoSe 2016) 9. Übungsblatt Dr. M. Weimar 06.06.2016 Elemente der Stochastik (SoSe 2016) 9. Übungsblatt Aufgabe 1 (2+2+2+2+1=9 Punkte) In einer Urne befinden sich sieben Lose, darunter genau ein Gewinnlos. Diese Lose werden nacheinander

Mehr

Statistik für SozialwissenschaftlerInnen II p.85

Statistik für SozialwissenschaftlerInnen II p.85 Schätzverfahren Statistik für SozialwissenschaftlerInnen II p.85 Schätzverfahren Ziel von Schätzverfahren: Ausgehend von Stichproben Aussagen über Populationskennwerte machen Kenntnis der Abweichung des

Mehr

Evolution und Algorithmen

Evolution und Algorithmen Kapitel 6 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics

Mehr

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006 Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden

Mehr

Survival of the Fittest Optimierung mittels Genetischer Algorithmen

Survival of the Fittest Optimierung mittels Genetischer Algorithmen Übung zu Organic Computing Survival of the Fittest Optimierung mittels Genetischer Algorithmen Sabine Helwig Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Universität Erlangen-Nürnberg sabine.helwig@informatik.uni-erlangen.de

Mehr

Kombinatorische Optimierung Vorlesung für den Bereich Diplom/Master Informatik

Kombinatorische Optimierung Vorlesung für den Bereich Diplom/Master Informatik Kombinatorische Optimierung Vorlesung für den Bereich Diplom/Master Informatik Dozent: Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK

Mehr

Einführung in Heuristische Suche

Einführung in Heuristische Suche Einführung in Heuristische Suche Beispiele 2 Überblick Intelligente Suche Rundenbasierte Spiele 3 Grundlagen Es muss ein Rätsel / Puzzle / Problem gelöst werden Wie kann ein Computer diese Aufgabe lösen?

Mehr

Exponentialgleichungen und Logarithmen

Exponentialgleichungen und Logarithmen Exponentialgleichungen und Logarithmen 1. Löse die Gleichungen: a) 2 x = 16 b) 3 4x = 9 Tipp: Exponentialgleichungen (die Variable x steht im Exponenten) lassen sich durch Zurückführen auf die gleiche

Mehr

1. Evolutionsstrategien. 2. Genetische Algorithmen. Evolutionsstrategie / Genetischer Algorithmus. Dr. Markus Olhofer markus.olhofer(at)honda-ri.

1. Evolutionsstrategien. 2. Genetische Algorithmen. Evolutionsstrategie / Genetischer Algorithmus. Dr. Markus Olhofer markus.olhofer(at)honda-ri. Evolutionsstrategie / Genetischer Algorithmus 1. Evolutionsstrategien 200 150 100 (kontinuierliche Parameter) 50 0 10 2. Genetische Algorithmen 5 0-5 -10-10 -5 0 5 10 (diskrete Parameter in kombinatorischen

Mehr

Anwendung genetischer Algorithmen zur Lösung des n Dame Problems und zur Optimierung von Autoprofilen

Anwendung genetischer Algorithmen zur Lösung des n Dame Problems und zur Optimierung von Autoprofilen Anwendung genetischer Algorithmen zur Lösung des n Dame Problems und zur Optimierung von Autoprofilen Jana Müller Seminar Das Virtuelle Labor Otto von Guericke Universität Magdeburg Gliederung 1. Motivation

Mehr

Lineare Algebra II 5. Übungsblatt

Lineare Algebra II 5. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross / Mai Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Algebraisch abgeschlossener Körper) Ein Körper heißt algebraisch abgeschlossen,

Mehr

Entwurfsmuster Zustand

Entwurfsmuster Zustand Universität Hamburg 27. April 2010 basierend auf einem Teachlet von: Janina Nemec, Einführung Das letzte Programmierteam hat das Handtuch geworfen... Enterprise Sessel Solutions braucht euch! Das Ausgangssystem...

Mehr

Implementation und Evaluierung innovativer Heuristiken für die Anordnung von Entwurfsentscheidungen

Implementation und Evaluierung innovativer Heuristiken für die Anordnung von Entwurfsentscheidungen Implementation und Evaluierung innovativer Heuristiken für die Anordnung von Entwurfsentscheidungen Diplomarbeit Thomas Scharler Universität Hamburg, FB Informatik, AB Tech Implementation und Evaluierung

Mehr

Messung von Rendite und Risiko. Finanzwirtschaft I 5. Semester

Messung von Rendite und Risiko. Finanzwirtschaft I 5. Semester Messung von Rendite und Risiko Finanzwirtschaft I 5. Semester 1 Messung von Renditen Ergebnis der Anwendung der Internen Zinsfuß- Methode ist die Rentabilität des Projekts. Beispiel: A0-100.000 ZÜ1 54.000

Mehr

Analytische Statistik II

Analytische Statistik II Analytische Statistik II Institut für Geographie 1 Schätz- und Teststatistik 2 Grundproblem Generell sind wir nur selten in der Geographie in der Lage, Daten über die Grundgesamtheit zur Verfügung zu haben.

Mehr

Von der Normalverteilung zu z-werten und Konfidenzintervallen

Von der Normalverteilung zu z-werten und Konfidenzintervallen Von der Normalverteilung zu z-werten und Konfidenzintervallen Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH

Mehr

Konfidenzintervalle. Einführung von Ac

Konfidenzintervalle. Einführung von Ac Konfidenzintervalle Einführung von Ac Problem: ( Schluss von der Stichprobe auf die Gesamtheit - Schätzen ) Von einer binomialverteilten Zufallsgröße X sei n (der Stichprobenumfang) gegeben, aber p (Erfolgswahrscheinlichkeit)

Mehr

Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen

Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen Fachhochschule Wedel - SS 2006 Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen Marco Lehmann (wi5909) m@rco-l.de 3. Juli 2006 Gliederung 1.

Mehr

Teil 2: Dynamische Spiele mit vollständigen Informationen

Teil 2: Dynamische Spiele mit vollständigen Informationen Teil : Dynamische Spiele mit vollständigen Informationen Kapitel 5: Grundsätzliches Literatur: Tadelis Chapter 7 Problem Manche Spiele entwickeln sich über die Zeit Dynamik kann aber nicht in Spielen in

Mehr

VERWEIS-FUNKTIONEN...

VERWEIS-FUNKTIONEN... Verweisfunktionen Excel 2010 - Fortgeschritten ZID/Dagmar Serb V.02/Jän. 2016 VERWEIS-FUNKTIONEN... 2 SVERWEIS... 2 Die 4 ARGUMENTE von SVERWEIS... 2 1. SUCHKRITERIUM (Nachschlagewert)...2 2. MATRIX (Nachschlagetabelle)...3

Mehr

KAPITEL 6. Nichtlineare Ausgleichsrechnung

KAPITEL 6. Nichtlineare Ausgleichsrechnung KAPITEL 6 Nichtlineare Ausgleichsrechnung Beispiel 61 Gedämpfte Schwingung: u + b m u + D m u = 0, Lösungen haben die Form: u(t) = u 0 e δt sin(ω d t + ϕ 0 ) Modell einer gedämpften Schwingung y(t; x 1,

Mehr

Einführung genetischer Algorithmen mit Anwendungsbeispiel

Einführung genetischer Algorithmen mit Anwendungsbeispiel Einführung genetischer Algorithmen mit Anwendungsbeispiel Steffen Harbich 26. Dezember 2007 Zusammenfassung Im Rahmen des Seminars Das virtuelle Labor enstand die vorliegende Ausarbeitung zum Thema genetische

Mehr

Einführung in die Angewandte Informatik Modellierung und Simulation

Einführung in die Angewandte Informatik Modellierung und Simulation Fakultät Informatik, Institut für Angewandte Informatik, Professur Modellierung und Simulation Einführung in die Angewandte Informatik Modellierung und Simulation Dr. Christoph Laroque Wintersemester 11/12

Mehr

Genetische Algorithmen von der Evolution lernen

Genetische Algorithmen von der Evolution lernen Genetische Algorithmen von der Evolution lernen (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Nils J. Nilsson Artificial Intelligence Morgan Kaufmann, 1998 Ansatz Bisher: Problemlösung

Mehr

Zusammenfassung Performancegesetze

Zusammenfassung Performancegesetze Zusammenfassung Performancegesetze Utilization Law Forced Flow Law Service Demand Law Little s Law Response Time Law 0 i i X V X Z X M/ A 0 i i i S X U 0 i i i i X / U S V D X A N Leistungsmodelle System-

Mehr

Multivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167

Multivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167 Multivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.167 Multivariate Regression Verfahren zur Prüfung des gemeinsamen linearen Einflusses mehrerer unabhängiger Variablen auf eine

Mehr

Arbeitsblatt 27: Normalverteilung Kerzen

Arbeitsblatt 27: Normalverteilung Kerzen Erläuterungen und Aufgaben Zeichenerklärung: [ ] - Drücke die entsprechende Taste des Graphikrechners! [ ] S - Drücke erst die Taste [SHIFT] und dann die entsprechende Taste! [ ] A - Drücke erst die Taste

Mehr