Proseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien

Größe: px
Ab Seite anzeigen:

Download "Proseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien"

Transkript

1 Proseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien Michael Stahl 4. Juni 2002 Inhaltsverzeichnis 1 Überblick 2 2 Generischer ES-Algorithmus Initialisierung Bewertung der Ausgangslösungen Erzeugen von Nachkommen Stochastische Partnerwahl Rekombination Mutation Bewertung und Hinzufügen zur Zwischenpopulation Deterministische Selektion Wiederholung bis Abbruchkriterium Erweiterungen Korrelierte Mutation Alternative Rekombinationsoperatoren (µ + λ)-selektion und Wettkampfselektion Mehrzieloptimierung Nebenbedingungen

2 2 2 GENERISCHER ES-ALGORITHMUS 1 Überblick Die EA-Hauptform Evolutionsstrategien (ES) wurde begründet von Ingo Rechenberg und Hans- Paul Schwefel an der TU Berlin Mitte der 60er Jahre. Im Gegensatz zu Genetischen Algorithmen (GA), welche ein relativ breites Anwendungsfeld ermöglichen, wurde ES von Anfang an als Optimierungsmethode konzipiert. Der Hauptunterschied von ES zu GA ist, dass bei ES evolutionäre Konzepte auf der phänotypischen Ebene simuliert werden, und nicht auf einer genotypischen Ebene von künstlichen Chromosomen. Als Folge dieses grundsätzlich anderen Ansatzes ergeben sich natürlich auch Unterschiede bei der Repräsentation der Lösungen, bei den Operatoren Rekombination und Mutation sowie bei der Selektion. Ein weiterer Grund für alternative Vorgehensweisen ist die schon erwähnte Einschränkung der ES auf Optimierungsprobleme, welche zumeist durch kontinuierliche Entscheidungsvariablen dargestellt werden. Im folgenden Abschnitt soll die heute weit verbreitete Grundform der ES vorgestellt werden. Danach wird auf einige interessante Erweiterungen dieser Grundform eingegangen. 2 Generischer ES-Algorithmus Eine Funktion F mit n kontinuierlichen Entscheidungsvariablen soll mit Hilfe eines ES-Algorithmus optimiert werden: F : R n R. In diesem Abschnitt wird davon ausgegangen, dass es sich um ein Minimierungsproblem handelt. Die Population in der Generation t wird P (t) genannt und hat µ Individuen. Jedes Individuum a i der ES-Population entspricht einem Vektor aus n Entscheidungsvariablen und n σ Standardabweichungen (Notation: a i = ( x i, σ i )). Die Entscheidungsvariablen sind reelle Zahlen und werden mit x k bezeichnet. Die Standardabweichungen sind positive reelle Zahlen und werden σ k genannt. Sie beeinflussen die Fitness eines Individuums nicht direkt, sondern dienen als Strategieparameter für die Mutation ( Mutationsschrittweiten ) und werden vom Verfahren selbstadaptiv angepasst. ES wird auch als Zwei-Ebenen-Optimierungsprozess bezeichnet, da günstige Werte sowohl für die Entscheidungsvariablen als auch für die Strategieparameter vom Algorithmus selbst gefunden werden. Die selbstadaptive Einstellung der Strategieparameter führt zu hoher Flexibilität in den verschiedensten Zielfunktionslandschaften, besonders dann, wenn für jede Problemdimension eine eigene Standardabweichung gewählt wird. Für die Anzahl der Standardabweichungen gilt grundsätzlich 1 n σ n. Üblicherweise wird jedoch entweder nur eine Standardabweichung für alle Variablen verwendet, oder die Anzahl entspricht der Anzahl der Entscheidungsvariablen. Für diesen Abschnitt soll der letzte Fall gelten, i.e. n σ = n. Der Ablauf einer ES wird in folgende Schritte unterteilt: 2.1 Initialisierung Zuerst muss natürlich eine Ausgangspopulation P (0) generiert werden. Sofern kein Vorwissen über das Aussehen des Lösungsraumes vorhanden ist, etwa die ungefähre Lage eines globalen Optimums, sollten die µ Individuen der Ausgangspopulation gleichmäßig über den Lösungsraum

3 2.2 Bewertung der Ausgangslösungen 3 verteilt werden. Alternativ kann man die Entscheidungsvariablen der Ausgangspopulation auch stochastisch mit einer Gleichverteilung innerhalb von für jede Variable einzeln vorgegebenen Ober- und Untergrenzen initialisieren. In der Literatur wird empfohlen, die Standardabweichungen einheitlich mit σ k = 3.0 zu initialisieren. 2.2 Bewertung der Ausgangslösungen Jedem Individuum a i der Population wird ein Fitnesswert Φ( a i ) zugeordnet, welcher üblicherweise dem Zielfunktionswert entspricht. Also: Φ( a i ) = F ( x i ) i {1, 2,..., µ} 2.3 Erzeugen von Nachkommen In diesem Schritt werden aus den µ Individuen der Population λ Nachkommen generiert. Bei ES ist im Unterschied zu GA die Populationsgröße gleich der Anzahl der zur Reproduktion ausgewählten Eltern und i.a. nicht gleich zur Anzahl der Nachkommen, i.e. µ λ. In der Literatur wird von Schwefel ein Verhältnis von µ/λ = 1/7 empfohlen, mit Standardwerten µ = 15 und λ = 100. Die Reproduktion wird in die drei Teilschritte Partnerwahl, Rekombination und Mutation unterteilt, welche für jeden zu erzeugenden Nachkommen durchlaufen werden Stochastische Partnerwahl In der Grundform des ES-Algorithmus wird aus zwei Eltern ein Nachkomme erzeugt, wobei alle Individuen der Elternpopulation mit der gleichen Wahrscheinlichkeit 1/µ ausgewählt werden können Rekombination In diesem Teilschritt werden die Komponenten der beiden Eltern zu einem neuen Individuum, dem Nachkommen, kombiniert. Hierbei werden üblicherweise für die Entscheidungsvariablen und die Strategieparameter unterschiedliche Formen der Rekombination verwendet. Das für die Entscheidungsvariablen verwendete Verfahren heißt diskrete Rekombination und entspricht prinzipiell dem Uniform Crossover bei GA. Die Entscheidungsvariablen des Nachkommen werden unabhängig voneinander und mit gleicher Wahrscheinlichkeit entweder vom einen oder vom anderen Elternteil unverändert übernommen. Bei den Standardabweichungen kommt ein anderes Verfahren zum Einsatz, welches als intermediäre Rekombination bezeichnet wird. Hierbei wird der lineare Mittelwert der jeweiligen Standardabweichungen der Eltern gebildet und dem Nachkommen zugewiesen, also σ N,k = 0.5 (σ E1,k + σ E2,k ) k {1,..., n σ }. Das folgende Beispiel veranschaulicht die beiden Rekombinationsformen:

4 4 2 GENERISCHER ES-ALGORITHMUS Elter Elter Nachkomme Abbildung 1: Diskrete Rekombination Elter Elter Nachkomme Abbildung 2: Intermediäre Rekombination Mutation In diesem Teilschritt wird der Nachkomme mutiert. Im Gegensatz zu GA geschieht dies bei ES mit jedem Nachkommen. Die Standardabweichungen werden hierzu mit einer logarithmisch normalverteilten Zufallszahl multipliziert. Diese setzt sich zusammen aus einem globalen Faktor, der für alle Standardabweichungen gilt (exp(τ 1 N(0, 1))), und einem speziellen Faktor, der für jede Standardabweichung σ k neu ermittelt wird (exp(τ 2 N k (0, 1))). Bei τ 1 und τ 2 handelt es sich um exogene Gewichtungskonstanten, d.h. sie werden vor Beginn festgelegt und durch den ES-Algorithmus nicht verändert. In der Literatur werden für die τ i Werte zwischen 0.1 und 0.2 empfohlen. N(0, 1) bezeichnet eine standard-normalverteilte Zufallsgröße, d.h. eine Zufallszahl mit Erwartungswert 0 und Standardabweichung 1. 1 Die Notation N i (0, 1) soll bedeuten, dass die Zufallsgröße für jedes x i bzw. σ i neu berechnet wird, während N(0, 1) (ohne Index) bedeutet, dass die Zufallsgröße einmal bestimmt wird und dieser Wert für alle x i bzw. σ i eines Individuums verwendet wird. Somit ergibt sich für die Standardabweichungen folgende Formel: σ k = σ k e τ 1 N(0,1) e τ 2 N k (0,1) Die Verwendung einer logarithmischen Normalverteilung hat einige Vorteile für die Mutation von Standardabweichungen: Die Standardabweichungen können nie negativ werden. Kleine Änderungen sind häufiger als große. 1 Zwei standard-normalverteilte Zufallszahlen N 1 und N 2 kann man aus zwei im Intervall [0, 1[ gleichverteilten unabhängigen Zufallszahlen U 1 und U 2 wie folgt generieren: N 1 = 2 lnu 1 sin (2π U 2 ) N 2 = 2 lnu 1 cos (2π U 2 )

5 2.4 Deterministische Selektion 5 Jede Multiplikation mit einem bestimmten Wert tritt statistisch genauso häufig auf wie die Multiplikation mit seinem Kehrwert, d.h. der Median der Änderungen ist 1. Dies bedeutet, dass die Population nicht allein durch die Mutation in irgendeine bestimmte Richtung driftet. Es muss jedoch trotzdem darauf geachtet werden, dass die Standardabweichungen nicht zu klein werden, da sonst die Suche auf einen Unterraum des Problems beschränkt werden könnte, weil sich eine der Entscheidungsvariablen kaum verändert. Dies wird realisiert, indem die Standardabweichungen auf einen Minimalwert ɛ > 0 gesetzt werden, falls sie diesen nach der Mutation unterschritten haben. Weiterhin muss die Populationsgröße µ groß genug gewählt werden, damit für die selbstadaptive Einstellung der Standardabweichungen ein genügend großer Pool von verschieden Werten zur Verfügung steht. Anschließend werden die Entscheidungsvariablen mutiert, indem zu ihrem alten Wert eine normalverteilte Zufallszahl mit Erwartungswert 0 und Standardabweichung σ k addiert wird. 2 Die Verwendung einer Normalverteilung bei der Mutation liegt darin begründet, dass kleine Veränderungen des Phänotyps in der Natur weitaus häufiger vorkommen als große, was z.b. bei Verwendung einer Gleichverteilung nicht gewährleistet wäre. Dies ergibt folgende Formel: x j = x j + σ j N j (0, 1) Bewertung und Hinzufügen zur Zwischenpopulation Nun erfolgt die Bewertung des neu entstandenen Nachkommen: Φ( a ) = F ( x ) Anschließend wird der Nachkomme zu einer Zwischenpopulation P zwi hinzugefügt, welche anfangs leer ist und schließlich λ Individuen enthält. 2.4 Deterministische Selektion Nun findet die Selektion statt, indem die µ Individuen mit den besten Fitnesswerten aus der Zwischenpopulation ausgewählt und in die Population der nächsten Generation übernommen werden. Da nur Individuen aus der Zwischenpopulation, nicht jedoch die aus der Ausgangspopulation übernommen werden, ist die Lebensdauer eines Individuums immer auf nur eine Generation beschränkt. Diese Form der Selektion wird als (µ, λ)-selektion oder Komma-Selektion bezeichnet. Weiterhin hat sich die Bezeichnung (µ, λ)-es für eine ES mit (µ, λ)-selektion eingebürgert. Die (µ, λ)-selektion ist eine Form der diskriminierenden Selektion, weil einige Individuen (hier diejenigen mit schlechteren Fitnesswerten) überhaupt keine Chance haben, sich fortzupflanzen. 2 Eine Zufallszahl N(E, σ) mit Erwartungswert E und Standardabweichung σ kann man aus einer Zufallszahl N(0, 1) mit Erwartungswert 0 und Standardabweichung 1 mit folgender Formel erhalten: N(E, σ) = E+σ N(0, 1)

6 6 3 ERWEITERUNGEN Weil bei dieser Form der Selektion nicht garantiert wird, dass die beste gefundene Lösung a best auch in der Schlusspopulation enthalten ist, sollte man diese separat speichern. Man vergleicht dann in jeder Generation, ob eine bessere Lösung als a best gefunden wurde, und ersetzt in diesem Fall a best durch diese. Die Härte der Selektion kann über das Verhältnis µ/λ eingestellt werden. Je kleiner dieses Verhältnis, desto härter ist die Selektion. Empfehlenswert ist, bei multimodalen Zielfunktionen eine weichere Selektion zu verwenden als bei unimodalen Funktionen, um das Risiko zu minimieren, dass man frühzeitig ein lokales Optimum findet und von diesem nicht mehr weg kommt. 2.5 Wiederholung bis Abbruchkriterium Die Schritte 3 und 4 werden so lange wiederholt, bis eine Abbruchbedingung eintritt. Ein einfaches Abbruchkriterium ist eine vor Beginn festgelegte maximale Anzahl von Generationen t max. Alternativ könnte man den Abbruch aber auch an mangelnden Fortschritt bei den Lösungen knüpfen, d.h. der Algorithmus wird abgebrochen, wenn über eine bestimmte Anzahl von Generationen keine neue beste Lösung gefunden wurde. Eine weitere von Schwefel vorgeschlagene Möglichkeit besteht darin, das jeweils beste und das schlechteste Individuum der Population zu vergleichen. Der Abbruch erfolgt, wenn die Fitnesswerte dieser beiden Individuen entweder absolut oder relativ gesehen nahe beieinander liegen. Formal (die Fitnessfunktion ist zu minimieren): Φ best = min a i P (t) {Φ( a i)} Φ worst = max a i P (t) {Φ( a i)} Absolute Formulierung der Abbruchbedingung: Φ worst Φ best c 1 Relative Formulierung der Abbruchbedingung mit linearem Mittelwert: Φ worst Φ best c 2 1 µ Hierbei sind c 1 und c 2 positive exogene Konstanten. µ Φ( a i ) i=1 3 Erweiterungen In diesem Abschnitt werden einige Erweiterungen des Basis-ES-Algorithmus beschrieben. 3.1 Korrelierte Mutation Die im generischen ES verwendete Mutation hat die Eigenschaft, dass Veränderungen in einer Variablen immer zur Bewegung entlang einer Koordinatenachse führen. Außerdem sind Änderungen an den einzelnen Entscheidungsvariablen voneinander unabhängig. Für eine möglichst schnelle Bewegung auf ein Optimum ist dies nur dann optimal, wenn die Höhenlinien der Funktion zufällig senkrecht auf den Koordinatenachsen stehen, d.h. die Gradienten der Funktion an

7 3.1 Korrelierte Mutation 7 der Stelle in der Zielfunktionslandschaft, an der sich ein Individuum befindet, entlang der Koordinatenachsen verlaufen. Im Allgemeinen ist dies jedoch nicht der Fall, sodass die Population nicht dazu in der Lage ist, der besten Suchrichtung unmittelbar zu folgen, etwa entlang eines schmalen Tals in der Funktionslandschaft. Eine Möglichkeit, das gewünschte Verhalten einer beschleunigten Bewegung auf das Optimum zu erhalten, ist die korrelierte Mutation. Die beiden Schaubilder zeigen ein Beispiel für eine Funktion und die Auswirkungen der normalen sowie der korrelierten Mutation. Abbildung 3: Unkorrelierte Mutation Abbildung 4: Korrelierte Mutation

8 8 3 ERWEITERUNGEN Abgebildet ist die Funktionslandschaft einer zweidimensionalen Zielfunktion. Die eingezeichneten Linien entsprechen den Höhenlinien der Funktion, d.h. alle Punkte auf einer Höhenlinie haben den selben Zielfunktionswert. Die Ellipsen entsprechen den Punkten, die zwei Individuen, welche sich im Mittelpunkt der Ellipsen befinden, mit der selben Wahrscheinlichkeit bei der Mutation erreichen können. 3 Anzumerken ist, dass es im Allgemeinen wirklich Ellipsen und keine Kreise sind, da die Individuen i.a. unterschiedliche Standardabweichungen für die verschiedenen Entscheidungsvariablen haben. Die Individuen befinden sich in beiden Bildern jeweils an der selben Stelle. Bei der unkorrelierten Mutation, die im ersten Fall dargestellt ist, gilt, dass die Achsen der Ellipsen immer parallel zu den Koordinatenachsen sind. Im zweiten Bild ist der Idealfall bei korrelierter Mutation dargestellt: Die Hauptachsen der Ellipsen sind in Richtung des steilsten Abfalls gedreht. Dies ist der Vorteil dieses Verfahrens: Die Mutationsellipsoide können sich der Oberfläche der Funktionslandschaft besser anpassen, was zu einer größeren Geschwindigkeit bei der Optimierung führt. Realisiert wird linear korrelierte Mutation mit Hilfe von zusätzlichen Strategieparametern, den Rotationswinkeln. Jedes ES-Individuum erhält zusätzlich zu den n σ Standardabweichungen noch n α Rotationswinkel, welche Werte aus dem Intervall [ π, π] annehmen können. Für die Anzahl der Rotationswinkel ergibt sich für Individuen mit n Entscheidungsvariablen und n σ = n Standardabweichungen die Formel n α = n (n 1). 2 Schwefel empfiehlt, die Rotationswinkel als Vektor α mit Komponenten α m darzustellen, und eine Indextransformation anzuwenden, um den Winkel auf der von x p und x q aufgespannten Ebene zu erhalten: m = (2n p) (p + 1) 1 2n + q. 2 Ebenso wie die Standardabweichungen werden auch die Rotationswinkel vom ES selbstadaptiv angepasst. Gegenüber statischen Strategieparametern wird dadurch eine größere Flexibilität in unterschiedlichen Zielfunktionslandschaften erreicht, da die Strategieparameter sich an die nähere Umgebung der Individuen anpassen können. Da bei Verwendung von Rotationswinkeln insgesamt n σ + n α = (n + 1) n/2 Strategieparameter für jeden Nachkommen zu rekombinieren und zu mutieren sind, ist die korrelierte Mutation jedoch auch mit erheblich höherem Rechenaufwand verbunden. Die Implementierung ist jedoch nicht allzu aufwändig, wie im Folgenden gezeigt wird. Im Vergleich zum Basis-ES-Algorithmus müssen bei Verwendung von korrelierter Mutation folgende Änderungen vorgenommen werden: 1 Initialisierung In der Literatur gibt es keine Empfehlungen für die Anfangswerte der Rotationswinkel. Eine nahe liegende Variante ist, die Rotationswinkel mit Werten zu initialisieren, die im Intervall [ π, π] gleichverteilt sind. 3-2 Rekombination Üblicherweise werden die Rotationswinkel ebenso wie die Standardabweichungen intermediär rekombiniert. 3 Verallgemeinert auf den n-dimensionalen Fall gilt: Die Punkte auf dem Hyperellipsoid sind diejenigen Punkte im n-dimensionalen Raum, die bei der Mutation mit gleicher Wahrscheinlichkeit erreicht werden.

9 3.1 Korrelierte Mutation Mutation Wie in der Grundform werden hier zunächst die Strategieparameter und danach die Entscheidungsvariablen mutiert. Die Mutation der Standardabweichungen geschieht wie gehabt. Die Rotationswinkel werden additiv mit einer normalverteilten Zufallsgröße mutiert: α m = α m + β N m (0, 1) m {1,..., n α }. Schwefel empfiehlt, den Parameter β auf den Wert zu setzen, was etwa 5 entspricht. Es kann hierbei natürlich passieren, dass die α m den zulässigen Wertebereich von π bis π verlassen. In diesem Fall wird α m auf den Wert α m + 2π gesetzt, falls α m < π, bzw. auf den Wert α m 2π, falls α m > π. Für die Mutation des Vektors der Entscheidungsvariablen gilt nun formal: x = x + N( 0, σ, α ). Hierbei ist N( 0, σ, α ) ein Zufallsvektor, der verteilt ist entsprechend der verallgemeinerten n-dimensionalen Normalverteilung mit Erwartungsvektor 0 und einer durch die mutierten Standardabweichungen und Rotationswinkel beschriebenen Kovarianzmatrix C. Um diesen Zufallsvektor zu erzeugen, benötigt man zunächst einen gewöhnlichen unkorrelierten Zufallsvektor unkor = N( 0, σ ) mit normalverteilten Komponenten. Dieser Vektor entspricht dem Zufallsvektor bei unkorrelierter Mutation. Dieser wird nun ebenenweise durch linksseitige Multiplikation mit n α Rotationsmatrizen R p,q (α m ) rotiert. Die Rotationsmatrizen haben folgendes Aussehen: cos α m sin α m sin α m cos α m Die Matrix entspricht der n-dimensionalen Einheitsmatrix mit folgenden Änderungen: Auf der Hauptdiagonalen befindet sich an den Positionen (p, p) und (q, q) der Eintrag cos α m ; in Zeile p und Spalte q steht sin α m und in Zeile q und Spalte p steht sin α m. Jede Multiplikation mit einer solchen Matrix entspricht einer Drehung in der p, q Ebene um den Winkel α m. Hierdurch ergibt sich schließlich ein Zufallsvektor mit korrelierten Komponenten: N( 0, σ, α ) = n 1 kor = n p=1 q=p+1 R p,q (α m ) unkor Für den simplen Fall mit nur zwei Dimensionen gibt es nur eine Rotationsmatrix. Es gilt: x = x+ kor = x+r 1,2 (α 1 ) unkor = ( x1 x 2 ) + ( cos α1 sin α 1 sin α 1 cos α 1 ) ( ) σ 1 N 1 (0, 1) σ 2 N 2 (0, 1)

10 10 3 ERWEITERUNGEN 3.2 Alternative Rekombinationsoperatoren In der Literatur werden diverse alternative Rekombinationsoperatoren beschrieben. Diese lassen sich grob nach den Hauptmerkmalen diskrete bzw. intermediäre Rekombination und Anzahl der Eltern kategorisieren. Bei Strategieparametern und Entscheidungsvariablen kommen oft unterschiedliche Rekombinationsformen zur Anwendung. Einige verbreitete Möglichkeiten, die einzelnen Komponenten x j des Nachkommen K aus den Komponenten der Eltern E i zu bestimmen, sind: keine Rekombination: x K,j = x E,j Alle Komponenten werden unverändert von nur einem Elter übernommen. diskrete Rekombination: entweder x K,j = x E1,j oder x K,j = x E2,j Jede Komponente wird unabhängig voneinander mit gleicher Wahrscheinlichkeit entweder vom ersten oder vom zweiten Elter übernommen. diskrete Multirekombination: x K,j = x Ei,j für ein i {1,..., ρ} Jede Komponente wird unabhängig voneinander mit gleicher Wahrscheinlichkeit unverändert von einem aus ρ Eltern übernommen. intermediäre Rekombination: x K,j = U j x E1,j + (1 U j ) x E2,j Hierbei ist U j eine im Intervall [0, 1] gleichverteilte Zufallsgröße, die für jede Komponente neu bestimmt wird. Für U j = 0.5 ergibt sich der lineare Mittelwert der Komponenten der beiden Eltern. intermediäre Multirekombination: x K,j = 1 ρ ρ E=1 x E,j Der Wert entspricht dem linearen Mittelwert der Komponenten von ρ zur Erzeugung des Nachkommen ausgewählten Eltern. Bei den Multirekombinationsvarianten bezeichnet ρ die Anzahl der Eltern, die an der Erzeugung jeweils eines Nachkommens beteiligt sind. Die ρ Eltern werden für jeden zu erzeugenden Nachkommen aus den µ Individuen der Population mit gleicher Wahrscheinlichkeit ausgewählt. Für multirekombinante ES hat sich die Bezeichnung (µ/ρ, λ)-es eingebürgert. Bei der intermediären Multirekombination liegt im Spezialfall ρ = µ jeder Nachkomme vor der Mutation im Schwerpunkt der Elternpopulation. In der Literatur finden sich unterschiedliche Empfehlungen, welche Rekombinationsformen die besten Ergebnisse bringen: Frank Kursawe empfiehlt für unimodale Zielfunktionen sowohl für die Strategieparameter als auch für die Entscheidungsvariablen intermediäre Multirekombination, bei multimodalen Funktionen diskrete Multirekombination für die Entscheidungsvariablen und intermediäre Multirekombination für die Strategieparameter. Schwefel empfiehlt ebenfalls intermediäre Rekombination oder intermediäre Multirekombination für Strategieparameter, rät aber zu diskreter Rekombination für die Entscheidungsvariablen.

11 3.3 (µ + λ)-selektion und Wettkampfselektion (µ + λ)-selektion und Wettkampfselektion In der (µ + λ)-selektion werden nicht die µ besten Individuen aus der Zwischenpopulation, sondern die (bezogen auf ihre Fitness) µ besten Individuen aus der Vereinigung der Elternpopulation und der Zwischenpopulation in die nächste Generation übernommen. Diese Form der Selektion wird auch Plus-Selektion genannt. Es handelt sich hierbei um eine Form der Elite-Selektion, denn ein Individuum mit sehr guter Fitness kann prinzipiell beliebig lange überleben. Die (µ + λ)-selektion hat jedoch gegenüber der (µ, λ)-selektion einige Nachteile, vor allem bei multimodalen Zielfunktionen. Bei der Plus-Selektion besteht immer die Gefahr, dass lokale Optima nie mehr verlassen werden, da die relativ guten Lösungen dort nie aus der Population verschwinden. Darüber hinaus wird die Selbstanpassung der Strategieparameter aus dem selben Grund erheblich erschwert. Dies ist beispielsweise dann der Fall, wenn mit sehr schlechten Strategieparametern zufällig ein lokales Optimum erreicht wird. Da die Nachkommen mit den für diesen Ort ungeeigneten Standardabweichungen mutiert werden, werden sie sehr wahrscheinlich schlechtere Fitnesswerte haben als das Elter, welches somit immer mitsamt seinen schlechten Strategieparametern in der Population verbleibt. Da bei der Komma-Selektion alle Individuen nur für eine Generation existieren, gelten diese Nachteile dort nicht. Man kann sich auch eine Mischform aus Komma- und Plus-Selektion vorstellen. Jedem Individuum wird hierbei ein Generationenzähler zugeordnet. Wenn das Individuum eine bestimmtes Alter erreicht, etwa nach κ Generationen, wird es im Selektionsschritt nicht mehr berücksichtigt. Eine weitere Selektionsvariante ist die Wettkampfselektion. Hierbei werden aus der Vereinigung von Population und Zwischenpopulation für jeden der µ Plätze in der Nachfolgegeneration ξ Individuen gezogen, wobei jedes Individuum die gleiche Wahrscheinlichkeit hat, gezogen zu werden. Hierbei gilt: 2 ξ µ + λ. Das beste der gezogenen Individuen wird dann der neuen Population hinzugefügt. Die Ziehung erfolgt mit Zurücklegen, also können Individuen mit guter Fitness auch mehrmals in die nächste Generation übernommen werden. Diese Variante eignet sich besonders gut zur Implementierung auf Parallelrechnern. 3.4 Mehrzieloptimierung Für die Optimierung mit mehreren verschiedenen Zielfunktionen wurden einige Verfahren entwickelt, die alle darauf abzielen, eine Menge pareto-optimaler Lösungen zu finden. Eine Lösung x a aus einem Lösungsraum L wird pareto-optimal genannt, wenn es in L keine Lösung x b gibt, die x a dominiert, d.h. es existiert kein x b, das in keinem Zielkriterium schlechter ist als x a, aber in mindestens einem Zielkriterium besser ist als x a. Aus dieser Menge effizienter Lösungen können dann Entscheidungsträger nach nicht quantifizierbaren Kriterien (etwa solche politischer Natur) eine geeignete auswählen. Eine naheliegende Möglichkeit bei Optimierung nach g Zielen besteht darin, dass die Selektion der neuen Population aus der Zwischenpopulation in g Teilschritte unterteilt wird. In jedem Teilschritt wird nur nach dem Wert einer Zielfunktion selektiert. Will man alle Kriterien gleich gewichten, so werden in jedem Teilschritt µ/g Individuen nach dem jeweiligen Zielkriterium ausgewählt, wobei üblicherweise Komma-Selektion zum Einsatz kommt. Alternativ kann man die Zielfunktionen auch unterschiedlich gewichten, indem man den Anteil der nach den

12 12 LITERATUR verschiedenen Kriterien ausgewählten Individuen verändert. Eine Verfeinerung dieser Methode wurde von Kursawe vorgeschlagen: In den g Teilschritten werden unterschiedlich viele Individuen nach jeweils einem Kriterium selektiert. In jeder Generation werden jedoch die Zielfunktionen den Teilschritten stochastisch neu zugeordnet, wobei eine unterschiedliche Gewichtung durch unterschiedliche Zuordnungswahrscheinlichkeiten ausgedrückt werden kann. Ein grundsätzlich anderer Ansatz ist die Pareto-Selektion. Hierbei werden alle Zielkriterien bei der Selektion gleichzeitig betrachtet. Aus den λ Nachkommen und den µ t 1 Eltern werden alle Individuen in die nächste Generation übernommen, die nicht von anderen Individuen dominiert sind. Offensichtlich ist damit die Populationsgröße nicht konstant, d.h. i.a. µ t 1 µ t Bei diesem Ansatz wird eine Plus-Selektion verwendet, sodass die aktuelle Population immer alle bis dato generierten pareto-optimalen Lösungen enthält. Bei großen Populationen ist die Pareto-Selektion wegen der vielen Vergleiche relativ aufwändig. Daher wird dann oft die Wettkampf-Pareto-Selektion verwendet. Hierbei werden aus der Vereinigungsmenge von Eltern und Nachkommen wiederholt ξ Individuen gezogen (mit Zurücklegen), von denen alle in dieser Teilmenge nicht dominierten in die nächste Generation übernommen werden. Dies wird so lange wiederholt, bis die Nachfolgepopulation µ Individuen enthält. 3.5 Nebenbedingungen Die Berücksichtigung von Nebenbedingungen wurde bis dato in der ES-Forschung weitgehend vernachlässigt. Die einfachste Möglichkeit zur Berücksichtigung von Ungleichungsbedingungen besteht darin, ungültige Lösungen sofort zu verwerfen und die Erzeugung eines Nachkommens solange zu wiederholen, bis eine Lösung entsteht, die alle Nebenbedingungen erfüllt. Falls die Nebenbedingungen den Lösungsraum sehr stark einschränken, ist diese Methode offensichtlich mit sehr großem zeitlichem Aufwand verbunden. In der Literatur wird daher vorgeschlagen, in solch einem Fall in der Initialisierungsphase die Zielfunktion bei einer ungültigen Lösung vorübergehend durch eine Ersatz-Zielfunktion zu ersetzen, die bewertet, wie stark die Nebenbedingungen verletzt werden. Somit kann zuerst die Verletzung der Nebenbedingungen minimiert werden, sodass gültige Ausgangslösungen für den anschließenden eigentlichen Optimierungsprozess gefunden werden, bei dem wieder die eigentliche Zielfunktion verwendet wird. Literatur [1] Volker Nissen: Einführung in Evolutionäre Algorithmen, Vieweg Verlag, Braunschweig/ Wiesbaden, 1997, ISBN [2] Einige Testfunktionen:

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Evolutionäre Algorithmen: Überlebenskampf und Evolutionäre Strategien Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überblick Einleitung Adaptive Filter Künstliche

Mehr

Computational Intelligence 1 / 28. Computational Intelligence Evolutionsstrategien 3 / 28

Computational Intelligence 1 / 28. Computational Intelligence Evolutionsstrategien 3 / 28 1 / 28 Gliederung 1 Evolutionsstrategien Selektion Rekombination Mutation Ablauf 2 Genetische Programmierung Repräsentation Genetische Operatoren Ablauf Überblick Evolutionsstrategien 3 / 28 Repräsentation

Mehr

Evolutionäre Strategien

Evolutionäre Strategien Evolutionäre Strategien Xun Zhao Inhaltsverzeichnis 1 Einleitung 2 1.1 Entwicklung 2 1.2 Eigenschaft 2 1.3 Anwendungen 2 2 ES-Theorie 3 2.1 ES-Zyklus 3 2.2 Mutation 4 2.3 Selektion 6 2.4 Rekombination

Mehr

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Evolutionäre Algorithmen Teil II Evolutionsfenster durch Mutation und sexuelle Rekombination Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Evolutionäre Algorithmen

Mehr

Evolutionsstrategie - Grundkonzept und Basisoperatoren -

Evolutionsstrategie - Grundkonzept und Basisoperatoren - Evolutionsstrategie - Grundonzept und Basisoperatoren - Proseminar Evolutionsstrategien Technische Universität Chemnitz Sommersemester 00 Toni Reichelt Matr.-nr.: 37 Gliederungsübersicht. Vereinbarungen....

Mehr

Genetische und Evolutionäre Algorithmen (Vol. 2)

Genetische und Evolutionäre Algorithmen (Vol. 2) Vortrag über Genetische und Evolutionäre Algorithmen (Vol. 2) von Adam El Sayed Auf und Kai Lienemann Gliederung: 4) Rückblick 5) Allgemeine Einführung 6) Genauere Beschreibung von Evolutionären Strategien

Mehr

Genetische und Evolutionäre Algorithmen (Vol. 1)

Genetische und Evolutionäre Algorithmen (Vol. 1) Vortrag über Genetische und Evolutionäre Algorithmen (Vol. ) von Adam El Sayed Auf und Kai Lienemann Gliederung: ) Einführung 2) Grundkonzept 3) Genaue Beschreibung des Genetischen Algorithmus Lösungsrepräsentation

Mehr

Evolutionsstrategien

Evolutionsstrategien Evolutionsstrategien zum Seminar Evolutionäre Algorithmen von Jana Schäfer INHALTVERZEICHNIS 1. Einführung... 3 2. Die Geschichte der Evolutionsstrategien...4 3. Grundlegendes... 6 3.1 Begriffe... 6 3.2

Mehr

Populationsbasierte Suche. Evolutionäre Algorithmen (1)

Populationsbasierte Suche. Evolutionäre Algorithmen (1) Populationsbasierte Suche Bisherige Meta-Heuristiken: Simulated Annealing Tabu Search Ausgehend von einer Lösung wird gesucht Populationsbasierte Heuristiken Suche erfolgt ausgehend von mehreren Lösungen

Mehr

Betriebliche Optimierung

Betriebliche Optimierung Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 19 1 Joachim Schauer ( Institut für

Mehr

Evolution und Algorithmen

Evolution und Algorithmen Kapitel 6 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics

Mehr

1. Inhaltsverzeichnis

1. Inhaltsverzeichnis 1. Inhaltsverzeichnis Inhaltsverzeichnis 1. Einleitung 1.1. Darwins Evolutionstheorie 1.2. Darwins Evolutionstheorie als Inspiration für Evolutionäre Algorithmen 1.3. Die Unterschiede der verschiedenen

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Prof. Dr. Ottmar Beucher Dezember 2001 Genetische Algorithmen 1 Optimierungsaufgaben Ein einfaches Beispiel Prinzipielle Formulierung Lösungsansätze Genetische Algorithmen Anwendungen

Mehr

Fundamente der Computational Intelligence

Fundamente der Computational Intelligence Fundamente der Computational Intelligence Dozent: Günter Rudolph Vertretung: Nicola Beume Wintersemester 2006/07 Universität Dortmund Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS11) Fachgebiet

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Optimale Produktliniengestaltung mit Genetischen Algorithmen

Optimale Produktliniengestaltung mit Genetischen Algorithmen Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen

Mehr

InformatiCup 2009 EvolutionConsole

InformatiCup 2009 EvolutionConsole InformatiCup 2009 EvolutionConsole Wilhelm Büchner Hochschule 19. März 2010 1 1. Das Team Teammitglieder Ralf Defrancesco KION Information Services GmbH Systemadministrator Daniel Herken Scooter Attack

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

10. Vorlesung Stochastische Optimierung

10. Vorlesung Stochastische Optimierung Soft Control (AT 3, RMA) 10. Vorlesung Stochastische Optimierung Genetische Algorithmen 10. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"

Mehr

Synthese Eingebetteter Systeme. Übung 6

Synthese Eingebetteter Systeme. Übung 6 12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe

Mehr

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen Einführung in die Methoden der Künstlichen Intelligenz Evolutionäre Algorithmen Dr. David Sabel WS 2012/13 Stand der Folien: 12. November 2012 Evolutionäre / Genetische Algorithmen Anwendungsbereich: Optimierung

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum

Mehr

Lokale Suche. 31. Januar / 28

Lokale Suche. 31. Januar / 28 Lokale Suche 31. Januar 2018 1 / 28 Lokale Suche Wir betrachten das allgemeine Minimierungsproblem min y f (x, y) so dass L(x, y). Wir nehmen an, dass zu jeder Lösung y auch eine Nachbarschaft N (y) benachbarter

Mehr

Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen

Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen Krischan Keitsch 3. Juni 214 Zusammenfassung Um ein Optimierungsproblem mit einer Evolutionsstrategie

Mehr

1. Evolutionsstrategien. 2. Genetische Algorithmen. Evolutionsstrategie / Genetischer Algorithmus. Dr. Markus Olhofer markus.olhofer(at)honda-ri.

1. Evolutionsstrategien. 2. Genetische Algorithmen. Evolutionsstrategie / Genetischer Algorithmus. Dr. Markus Olhofer markus.olhofer(at)honda-ri. Evolutionsstrategie / Genetischer Algorithmus 1. Evolutionsstrategien 200 150 100 (kontinuierliche Parameter) 50 0 10 2. Genetische Algorithmen 5 0-5 -10-10 -5 0 5 10 (diskrete Parameter in kombinatorischen

Mehr

Nr. 4: Pseudo-Zufallszahlengeneratoren

Nr. 4: Pseudo-Zufallszahlengeneratoren Proseminar: Finanzmathematische Modelle und Simulationen Martin Dieckmann WS 09/0 Nr. 4: Pseudo-Zufallszahlengeneratoren Begriff Pseudo-Zufallszahl Zufallszahlen im Rechner entstehen letztlich immer durch

Mehr

Aufgabe 1 (7 Punkte) Prüfung Optimierung dynamischer Systeme ( 6) = lim p. Techn. Mechanik & Fahrzeugdynamik

Aufgabe 1 (7 Punkte) Prüfung Optimierung dynamischer Systeme ( 6) = lim p. Techn. Mechanik & Fahrzeugdynamik Techn. Mechanik & Fahrzeugdynamik Optimierung Prof. Dr.-Ing. habil. Hon. Prof. (NUST) D. Bestle 8. September 7 Aufgabe (7 Punkte) Die Ableitung der Funktion f ( p) p 5sin p soll mithilfe des Vorwärtsdifferenzenverfahrens

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006 Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden

Mehr

2.3.4 Drehungen in drei Dimensionen

2.3.4 Drehungen in drei Dimensionen 2.3.4 Drehungen in drei Dimensionen Wir verallgemeinern die bisherigen Betrachtungen nun auf den dreidimensionalen Fall. Für Drehungen des Koordinatensystems um die Koordinatenachsen ergibt sich 1 x 1

Mehr

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten?

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten? Übungsblatt LV Künstliche Intelligenz, Evolutionäre Algorithmen (1), 2015 Aufgabe 1. Evolution a) Finden Sie zwei Evolutionsbeispiele auÿerhalb der Biologie. Identizieren Sie jeweils Genotyp, Phänotyp,

Mehr

Modellbildung und Simulation

Modellbildung und Simulation Modellbildung und Simulation 6. Vorlesung Wintersemester 2007/2008 Klaus Kasper Value at Risk (VaR) Gaußdichte Gaußdichte der Normalverteilung: f ( x) = 1 2π σ x e 2 2 x ( x µ ) / 2σ x Gaußdichte der Standardnormalverteilung:

Mehr

Betriebliche Optimierung

Betriebliche Optimierung Betriebliche Optimierung Joachim Schauer Joachim Schauer Betriebliche Optimierung 1 / 31 1 Metaheuristische Verfahren 2 Joachim Schauer Betriebliche Optimierung 2 / 31 Einleitendes Metaheuristische Verfahren

Mehr

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten?

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten? Übungsblatt LV Künstliche Intelligenz, Evolutionäre Algorithmen (), 204 Exercise. Evolution a) Finden Sie zwei Evolutionsbeispiele auÿerhalb der Biologie. Identizieren Sie jeweils Genotyp, Phänotyp, genetische

Mehr

Praktische Optimierung Wintersemester 2008/09

Praktische Optimierung Wintersemester 2008/09 Praktische Optimierung Wintersemester 2008/09 Prof. Dr. Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund (1+1)-EA: Wähle X (0) R n, s 0 > ε > 0, k = 0 while (s k >

Mehr

Evolutionäre / Genetische Algorithmen. Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre / Genetische Algorithmen (2) Beispiel

Evolutionäre / Genetische Algorithmen. Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre / Genetische Algorithmen (2) Beispiel Evolutionäre / Genetische Algorithmen Einführung in die Methoden der Künstlichen Intelligenz PD Dr. David Sabel SoSe 0 Anwendungsbereich: Optimierung von Objekten mit komplexer Beschreibung Objekte: Üblicherweise

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Parallele Algorithmen in der Bildverarbeitung

Parallele Algorithmen in der Bildverarbeitung Seminar über Algorithmen - SoSe 2009 Parallele Algorithmen in der Bildverarbeitung von Christopher Keiner 1 Allgemeines 1.1 Einleitung Parallele Algorithmen gewinnen immer stärker an Bedeutung. Es existieren

Mehr

Genetische Algorithmen

Genetische Algorithmen Michael Gerhäuser Universität Bayreuth 28.06.2008 1 Motivierende Beispiele 2 Grundbegriffe der biologischen Evolution 3 Formalisierung der Grundbegriffe 4 Modellierung mit Markov-Ketten 5 Konvergenzanalyse

Mehr

Bewertung von Optimierungs- und Zuverlässigkeitsalgorithmen für die virtuelle Produktauslegung

Bewertung von Optimierungs- und Zuverlässigkeitsalgorithmen für die virtuelle Produktauslegung Weimarer Optimierungs- und Stochastiktage 4.0 Bewertung von Optimierungs- und Zuverlässigkeitsalgorithmen für die virtuelle Produktauslegung Dr.-Ing. Andreas Plotzitza, PT/EST4 29. November 2007 1 Inhalt

Mehr

Evolutionäre Algorithmen (EA) (1+1)-EA: Praktische Optimierung. Evolutionäre Algorithmen. Evolutionäre Algorithmen. > ε > 0, k = 0

Evolutionäre Algorithmen (EA) (1+1)-EA: Praktische Optimierung. Evolutionäre Algorithmen. Evolutionäre Algorithmen. > ε > 0, k = 0 (EA) Wintersemester 2007/08 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering (1+1)-EA: Wähle X (0) R n, s 0 > ε > 0, k = 0 while (s

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen Einführung in die Methoden der Künstlichen Intelligenz Prof. Dr. Manfred Schmidt-Schauß SoSe 2018 Stand der Folien: 9. Mai 2018 Evolutionäre / Genetische Algorithmen Anwendungsbereich: Optimierung von

Mehr

EVOLUTION STRATEGIES DANIELA SCHACHERER SEMINAR: IST KÜNSTLICHE INTELLIGENZ GEFÄHRLICH? SOMMERSEMESTER 2017

EVOLUTION STRATEGIES DANIELA SCHACHERER SEMINAR: IST KÜNSTLICHE INTELLIGENZ GEFÄHRLICH? SOMMERSEMESTER 2017 EVOLUTION STRATEGIES DANIELA SCHACHERER SEMINAR: IST KÜNSTLICHE INTELLIGENZ GEFÄHRLICH? SOMMERSEMESTER 2017 Inhalt Einleitung und Überblick Evolutionsstrategien Grundkonzept Evolutionsstrategien als Alternative

Mehr

Evolutionsstrategien

Evolutionsstrategien Ruprecht-Karls-Universität Heidelberg Fakultät für Mathematik und Informatik Seminar: Ist künstliche Intelligenz gefährlich? Evolutionsstrategien als Alternative zu Bestärkendem Lernen Author: Daniela

Mehr

7 Zufallszahlen, Simulation

7 Zufallszahlen, Simulation 7 Zufallszahlen, Simulation Es ist nützlich, Folgen von i.i.d. R[0, 1]-verteilten Zufallszahlen auf einem Rechner erzeugen zu können vgl. Simulation, Monte-Carlo-Verfahren). Letztere sind i.a. keine echten

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Lösungen zu den Hausaufgaben zur Analysis II

Lösungen zu den Hausaufgaben zur Analysis II Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Von Valentina Hoppe und Jan Rörden Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Gliederung Biologische Evolution Genetischer Algorithmus Definition theoretischer

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

Systempartitionierung Evol. Algorithmen

Systempartitionierung Evol. Algorithmen Systempartitionierung Evol. Algorithmen Hw-Sw-Co-Design Übersicht Grundlagen Evolutionärer Algorithmen Strömungsrichtungen Hybride evolutionäre Algorithmen Systempartitionierung und -exploration 1 Einleitung

Mehr

Implementation und Evaluierung innovativer Heuristiken für die Anordnung von Entwurfsentscheidungen

Implementation und Evaluierung innovativer Heuristiken für die Anordnung von Entwurfsentscheidungen Implementation und Evaluierung innovativer Heuristiken für die Anordnung von Entwurfsentscheidungen Diplomarbeit Thomas Scharler Universität Hamburg, FB Informatik, AB Tech Implementation und Evaluierung

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

1.5 Mehrdimensionale Verteilungen

1.5 Mehrdimensionale Verteilungen Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Künstliche Intelligenz

Künstliche Intelligenz Künstliche Intelligenz Vorlesung 9 und 10: Evolutionäre Standardalgorithmen 1/69 LERNZIELE Die gängigen Standardalgorithmen, aus der Anfangszeit bis heute, werden vorgestellt. Die bekannten Standardalgorithmen

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Vortrag 20: Kurze Vektoren in Gittern

Vortrag 20: Kurze Vektoren in Gittern Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die

Mehr

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler 6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik angesehen werden. Sie wird nach ihrem Entdecker auch Gaußsche Glockenkurve genannt. Die herausragende Stellung

Mehr

Evolutionäre (Genetische) Algorithmen

Evolutionäre (Genetische) Algorithmen Evolutionäre (Genetische) Algorithmen Ziel, Aufgabe von evolutionären Algorithmen: Optimierung von Objekten mit komplexer Beschreibung, wobei es Parameter gibt. Die Objekte kodiert man so als Bitstrings,

Mehr

15 Grundlagen der Simulation

15 Grundlagen der Simulation 15 Grundlagen der Simulation 15.1 Einführung Komplexe Problemstellungen, die einer analytischen Behandlung nur sehr schwer oder gar nicht zugänglich sind Lösung von diskreten (oder analytischen) Optimierungsaufgaben,

Mehr

Jurij-Andrei Reichenecker 21. Juni Tessellationen

Jurij-Andrei Reichenecker 21. Juni Tessellationen Jurij-Andrei Reichenecker 21. Juni 2010 Tessellationen Seite 2 Tessellationen 21. Juni 2010 Jurij-Andrei Reichenecker Inhalt Einführung Voronoi Tessellation Algorithmus zur Erstellung von Voronoi Tessellationen

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

Survival of the Fittest Optimierung mittels Genetischer Algorithmen

Survival of the Fittest Optimierung mittels Genetischer Algorithmen Übung zu Organic Computing Survival of the Fittest Optimierung mittels Genetischer Algorithmen Sabine Helwig Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Universität Erlangen-Nürnberg sabine.helwig@informatik.uni-erlangen.de

Mehr

6. Kontinuierliche Zufallsgrößen. Beispiel 1: Die Exponentialverteilungen Sei λ > 0. Setzen

6. Kontinuierliche Zufallsgrößen. Beispiel 1: Die Exponentialverteilungen Sei λ > 0. Setzen 6. Kontinuierliche Zufallsgrößen Definition: Eine Z. G. ξ ist absolut stetig mit (Wahrscheinlichkeits-) Dichte f : R R, wenn gilt: P ( a ξ < b ) = b a f(x) dx (a < b) allgem. Eigenschaften einer Dichte

Mehr

Evolutionsstrategien

Evolutionsstrategien Evolutionsstrategien Seminar Evolutionary Algorithms SS 2010 Cornelius Diekmann Lehrstuhl Robotics and Embedded Systems Veranstalter: Dipl.-Inf. Frank Sehnke Fakultät für Informatik Technische Universität

Mehr

Anwendung genetischer Algorithmen zur Lösung des n Dame Problems und zur Optimierung von Autoprofilen

Anwendung genetischer Algorithmen zur Lösung des n Dame Problems und zur Optimierung von Autoprofilen Anwendung genetischer Algorithmen zur Lösung des n Dame Problems und zur Optimierung von Autoprofilen Jana Müller Seminar Das Virtuelle Labor Otto von Guericke Universität Magdeburg Gliederung 1. Motivation

Mehr

Proseminar Genetische und Evolutionäre Algorithmen

Proseminar Genetische und Evolutionäre Algorithmen Proseminar Genetische und Evolutionäre Algorithmen Genetische Algorithmen Erweiterungen und Analyse Seite 1/11 Inhaltsverzeichnis 1. Erweiterungen zu den Genetischen Algorithmen 1.1. Der steady-state-ga

Mehr

Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 2011/2012

Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 2011/2012 Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 011/01 Sandra Uhlenbrock 03.11.011 Die folgende Ausarbeitung wird, basierend auf Branching Processes

Mehr

4 MEHRDIMENSIONALE VERTEILUNGEN

4 MEHRDIMENSIONALE VERTEILUNGEN 4 MEHRDIMENSIONALE VERTEILUNGEN 4.14 Stochastische Vektoren 1. Der Merkmalraum des stochastischen Vektors (X, Y ) sei M = R 2. Betrachten Sie die folgenden Ereignisse und ihre Wahrscheinlichkeiten: A 1

Mehr

Optimierung und Entwurf mit Evolutionären Algorithmen

Optimierung und Entwurf mit Evolutionären Algorithmen Fakultät Informatik, Institut für Angewandte Informatik, Lehrstuhl für Technische Informationssysteme Optimierung und Entwurf mit Evolutionären Algorithmen Dresden, 01.02.2007 Gliederung natürliche Evolution

Mehr

Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen

Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen Fachhochschule Wedel - SS 2006 Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen Marco Lehmann (wi5909) m@rco-l.de 3. Juli 2006 Gliederung 1.

Mehr

NICHTRESTRINGIERTE OPTIMIERUNG

NICHTRESTRINGIERTE OPTIMIERUNG 3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften

Mehr

Multivariate Verteilungen

Multivariate Verteilungen Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig

Mehr

15.5 Stetige Zufallsvariablen

15.5 Stetige Zufallsvariablen 5.5 Stetige Zufallsvariablen Es gibt auch Zufallsvariable, bei denen jedes Elementarereignis die Wahrscheinlich keit hat. Beispiel: Lebensdauer eines radioaktiven Atoms Die Lebensdauer eines radioaktiven

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

( ) ( ) < b k, 1 k n} (2) < x k

( ) ( ) < b k, 1 k n} (2) < x k Technische Universität Dortmund Fakultät für Mathematik Proseminar Analysis Prof. Dr. Röger Benjamin Czyszczon Satz von Heine Borel Gliederung 1. Zellen und offene Überdeckungen 2. Satz von Heine Borel

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 13: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 13: Woche vom Übungsaufgaben 11. Übung SS 13: Woche vom 24. 6. 13-28. 6. 2013 Stochastik V: ZG Momente von ZG; Grenzverteilungssätze Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/

Mehr

4.1. Vektorräume und lineare Abbildungen

4.1. Vektorräume und lineare Abbildungen 4.1. Vektorräume und lineare Abbildungen Mengen von Abbildungen Für beliebige Mengen X und Y bezeichnet Y X die Menge aller Abbildungen von X nach Y (Reihenfolge beachten!) Die Bezeichnungsweise erklärt

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

Modellierung- und Simulation Mathis Plewa ( )

Modellierung- und Simulation Mathis Plewa ( ) Inhaltsverzeichnis Abbildungsverzeichnis... 1 Übungsaufgabe: Zufallsgeneratoren und Histogramme... 2 Standard Gleichverteilung... 2 Gaußverteilung... 3 Exponentialverteilung... 4 Übungsaufgabe: Geometrische

Mehr

Dynamische Optimierung

Dynamische Optimierung Dynamische Optimierung Mike Hüftle 28. Juli 2006 Inhaltsverzeichnis 1 Einleitung 2 1.1.................................... 2 2 Dynamisches Optimierungmodell 3 2.1 Grundmodell der dynamischen Optimierung............

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Kapitel VI. Euklidische Geometrie

Kapitel VI. Euklidische Geometrie Kapitel VI. Euklidische Geometrie 1 Abstände und Lote Wiederholung aus Kapitel IV. Wir versehen R n mit dem Standard Skalarprodukt x 1 y 1.,. := x 1 y 1 +... + x n y n x n y n Es gilt für u, v, w R n und

Mehr

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

Lineare Transformationen und Determinanten. 10-E Ma 1 Lubov Vassilevskaya

Lineare Transformationen und Determinanten. 10-E Ma 1 Lubov Vassilevskaya Lineare Transformationen und Determinanten 10-E Ma 1 Lubov Vassilevskaya Lineare Transformation cc Definition: V und W sind zwei Vektorräume. Eine Funktion T nennt man eine lineare Transformation von V

Mehr

Statistik für Ingenieure Vorlesung 5

Statistik für Ingenieure Vorlesung 5 Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom Übungsaufgaben 11. Übung SS 18: Woche vom 25. 6. 29. 6. 2016 Stochastik V: ZG; Momente von ZG; Zufallsvektoren Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung

Softwareprojektpraktikum Maschinelle Übersetzung Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology

Mehr

Allgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken

Allgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken FernUniversität in Hagen Lehrstuhl für Betriebswirtschaftslehre, insb. Operations Research Prof. Dr. Wilhelm Rödder Allgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken Sandra Rudolph,

Mehr