Computational Intelligence

Größe: px
Ab Seite anzeigen:

Download "Computational Intelligence"

Transkript

1 1 / 44 Computational Intelligence Wintersemester 2013/ Evolutionäre Algorithmen III Stefan Berlik Fachgruppe Praktische Informatik Fakultät IV, Department Elektrotechnik und Informatik Universität Siegen 6. November 2013 Gliederung 2 / 44 1 Selektion Selektionsverfahren Weitere Konzepte Skalierungsmethoden 2 Genetische Operatoren Ein-Elter-Operatoren Zwei-Eltern-Operatoren Mehr-Eltern-Operatoren Effekte von Crossover Operatoren

2 Selektion Überblick Selektion 3 / 44 Prinzip Bessere Individuen (gemäß Fitness) sollen mit höherer Wahrscheinlichkeit Nachkommen haben ( differentielle Reproduktion ) Reduziert den potentiellen Überschuss an Lösungskandidaten Verringert die Diversität (Varianz) in der Population Induziert den Richtungscharakter in die Optimierung Intensität des Konkurrenzkampfs wird als Selektionsdruck bezeichnet Selektionsdruck Selektion 4 / 44 Wahl des Selektionsdrucks wird durch zwei gegensätzliche Ziele bestimmt Erkundung des Suchraums ( exploration ) - Der Suchraum soll möglichst weiträumig durchsucht werden, damit die Chancen das globale Optimum zu finden steigen - Die Individuen sollen deshalb möglichst breit über den Suchraum verteilt sein geringer Selektionsdruck Ausbeutung guter Individuen ( exploitation ) - Der Suchraum soll möglichst zielstrebig durchschritten werden, ggf. auch nur in Richtung eines lokalen Optimums - Die Individuen sollen deshalb möglichst gut dem Gradienten folgen hoherer Selektionsdruck

3 Selektion 5 / 44 Bestimmung des Selektionsdrucks Grenzfälle des Selektionsdrucks sollten vermieden werden Zu niedriger Selektionsdruck Gute Individuen vermehren sich kaum, schlechte bleiben erhalten Verfahren degeneriert im Extremfall zur Zufallssuche Verfahren konvergiert nicht oder nur sehr langsam Zu hoher Selektionsdruck Superindividuen dominieren Suchraum wird nur eingeschränkt durchsucht Variablitität in der Population nimmt zu rasch ab Häufig vorzeitige Konvergenz auf ein lokales Optimum Selektion 6 / 44 Bestimmung des Selektionsdrucks Erfolgversprechendste Strategie auf Basis der konfliktären Ziele Zeitabhängiger Selektionsdruck - Geringer Selektionsdruck im frühen Stadium - Höherer Selektionsdruck im späten Stadium Zunächst großräumige Erforschung des Suchraums, später gezielte Ausbeutung einer erfolgversprechenden Region Selektionsdruck wird durch Skalierung der Fitneßfunktion oder über Parameter des Selektionsverfahrens gesteuert Wichtige Selektionsverfahren - Glücksradauswahl - Rangauswahl - Turnierauswahl Wichtige Skalierungsmethoden - Anpassung der Fitnessvariation - Linear dynamische Skalierung - σ-skalierung

4 Glücksradauswahl Selektion Selektionsverfahren 7 / 44 Bekanntestes Selektionsverfahren (auch: roulette wheel selection ) Bildlich entspricht die Selektion einem Glücksrad, dessen Sektorgrößen den relativen Fitnesswerten der Individuen entsprechen Ablauf - Auswahl einzelner Individuen Drehe das Glücksrad Wähle das Individuum, dessen Sektor unter der Makierung liegt - Auswahl der Zwischenpopulation Wiederhole die Selektion so oft, wie es Individuen in der Population gibt i 5 Markierung i 6 i 4 i 1 i 3 i 2 Selektion Selektionsverfahren 8 / 44 Glücksradauswahl Anmerkungen Auswahlwahrscheinlichkeit eines Individuums entspricht seiner relativen Fitness (fitnessproportional) f rel (i) = f abs (i) i pop(t) f abs(i ) Glücksradauswahl wird deshalb auch fitnessproportionale Selektion genannt Berechnungsvorschrift erfordert, dass die absolute Fitness f abs (i) stets positiv ist. Ggf. sind Transformationen nötig (positive Konstante addieren) oder negative Werte werden zu Null gesetzt

5 Selektion Selektionsverfahren 9 / 44 Glücksradauswahl Einschränkungen Optimierungsziel Ziel muss sein, die Fitness zu maximieren da sonst schlechte Individuen bevorzugt gewählt würden Nachteil - Die Berechnung der relativen Fitness erfordert die Summierung sämtlicher Fitnesswerte (Normierungsfaktor) Die Ausgangspopulation muss während der gesamten Selektion konstant bleiben Implementierung ist schwer zu parallelisieren Selektion Selektionsverfahren 10 / 44 Glücksradauswahl Dominanzproblem Ein Individuum mit sehr hoher Fitness kann die Auswahl dominieren Diese Dominanz wird im Folgenden eher noch verstärkt, da Kopien und ähnliche Individuen entstehen Population besteht dann nur noch aus gleichen bzw. sehr ähnlichen Individuen. Dieses Phänomen wird als Crowding bezeichnet Crowding i 1 Markierung Verantwortlich für das schnelle Auffinden (lokaler) Optima Nachteil: Diversität der Population geht verloren - Ausbeutung nur eines oder weniger Individuen - Keine Erkundung des Suchraums, lediglich lokale Optimierung i 2 bis i 6

6 Selektion Selektionsverfahren 11 / 44 Glücksradauswahl Varianzproblem Problem Auswahl der Individuen ist zwar fitnesproportional, aber dennoch zufällig Es ist nicht garantiert, dass auch nur ein einziges gutes Individuum in die nächste Generation kommt nicht einmal das beste Allgemein: Zahl der Nachkommen eines Individuums kann stark vom Erwertungswert abweichen Einfache Lösung Diskretisierung des Fitnesswertebereichs Berechne den Mittelwert µ f (t) und die Standardabweichung σ f (t) der Population. Dann: - 0 Nachkommen falls f (i) < µ f (t) σ f (t) - 1 Nachkomme falls µ f (t) σ f (t) f (i) µ f (t) + σ f (t) - 2 Nachkommen falls f (i) > µ f (t) + σ f (t) Erwartungswertmodell Selektion Selektionsverfahren 12 / 44 Erwartungswertmodell ist eine Lösungsmöglichkeit für das Varianzproblem der Glücksradauswahl Vorgehen - Erzeuge direkt für jeden Lösungskandidaten f rel (i) popsize Individuen - Fülle die Zwischenpopulation durch Glücksradauswahl auf

7 Selektion Selektionsverfahren 13 / 44 Erwartungswertmodell Varianten Variante 1 Erzeuge restliche Individuen mit Methoden aus dem Bereich der Wahlauswertung (Mandats- / Sitzverteilung) Variante 2 Modifizierte Glücksradauswahl - Pro erzeugtem Nachkommen wird die Fitness des Individuums um den Betrag f verringert - Wird die Fitness eines Individuums negativ, kann es keine weiteren Nachkommen erzeugen - Wahl von f : Das beste Individuum kann höchstens eine festgelegte Anzahl k von Nachkommen erzeugen: f = 1 max{f (i) i pop(t)} k Selektion Selektionsverfahren 14 / 44 Stochastic Universal Sampling Alternative zum Erwartungswertmodell Mehrere gleichverteilte Markierungen Drehe das Glücksrad einmal i 6 i 1 Wähle die jeweils markierten Individuen Hier: Je 1x i 1, i 3, i 4, i 6 ; 2x i 5 i 5 i 2 Überdurchschnittlich gute Individuen kommen so sicher in die Zwischenpopulation i 4 i 3

8 Rangauswahl Selektion Selektionsverfahren 15 / 44 Idee Sortiere Individuen absteigend bzgl. ihrer Fitness, so dass jedes Individuum einen Rang erhält (vgl. order statistics) Rangliste definiert eine Wahrscheinlichkeitsverteilung: Die Auswahlwahrscheinlichkeit eines Individuums sinkt mit steigendem Rang Mit dieser Verteilung wird dann eine Glücksradauswahl durchgeführt Führe mit dieser Verteilung dann Glücksradauswahl durch Rangauswahl Selektion Selektionsverfahren 16 / 44 Vorteile Dominanzproblem wird i.w. gelöst, da die absoluten Werte der Fitnessfunktion nicht in die Auswahlwahrscheinlichkeit eingehen Durch spezielle, auf der Rangliste basierende Wahrscheinlichkeitsverteilungen ist der Selektionsdruck in weiten Bereichen steuerbar Nachteil Zusätzlicher Aufwand zur Glücksradauswahl, da die Individuen sortiert werden müssen (popsize log popsize)

9 Turnierauswahl Idee Selektion Selektionsverfahren 17 / 44 Wähle n Individuen (mit 2 n popsize) als Teilnehmer eines Turniers zufällig aus der Population aus (wg. einfacher Implementierung häufig mit Zurücklegen) Teilnehmer treten zum Turnier an : Das beste Individuum gewinnt und erzeugt einen Nachkommen n wird häufig Turniergröße genannt Vorteile Dominanzproblem wird i.w. gelöst, da die absoluten Werte der Fitnessfunktion nicht in die Auswahlwahrscheinlichkeit eingehen Selektionsdruck ist durch die Wahl der Turniergröße eingeschränkt steuerbar Variation Auswahl des Turniergewinners per Glücksradauswahl Elitismus Problem Selektion Weitere Konzepte 18 / 44 Bei den meisten Selektionsverfahren (Ausnahme: Erwartungswertmodell und seine Varianten) gelangt das beste Individuum nicht mit Sicherheit in die Zwischenpopulation Alle Individuen, damit auch das beste, werden durch die genetischen Operatoren modifiziert Fitness des besten Individuums (und damit auch die der gesamten Population) kann sich von einer Generation zur nächsten verschlechtern Lösung: Elitismus Bestimme die Elite der Population, d.h. das beste Individuum oder auch die n besten Individuen (1 n < popsize) Übernehme diese Elite unverändert in die nächste Generation Fülle die unbesetzten Positionen mittels eines beliebigen Selektionsverfahrens (berücksichtige hierbei auch die Elite)

10 Selektion Weitere Konzepte 19 / 44 Variante: Lokaler Elitismus Idee Nur lokal zwischen Nachkommen und den sie erzeugenden Eltern angewandter Elitismus Mutation: Nur ein mutiertes Individuum mit mindestens so guter Fitness wie die seines Elters wird in die nächste Generation übernommen Crossover: Nur die beiden besten der vier am crossover beteiligten Individuen (d.h. der je 2 Eltern und Nachkommen) werden in die nächste Generation übernommen Vorteil Hohe Konvergenzgeschwindigkeit, da das nächste (lokale) Optimum konsequent angestrebt wird Nachteil Hohe Wahrscheinlichkeit vorzeitiger Konvergenz gegen ein lokales Optimum, da keine (temporären) Verschlechterungen zugelassen werden Nischentechniken Selektion Weitere Konzepte 20 / 44 Ziel Vermeide das Phänomen des Crowding Lösungsvorschlag 1: Wende Crowding Methoden an Idee: Erhalte Diversität der Population indem neu erzeugte Individuen die ihnen nächsten Individuen ersetzen Voraussetzung: Ein Ähnlichkeits- bzw. Abstandsmaß für Individuen wird benötigt (bei binärer Kodierung bspw. die Hammingdistanz) Lösungsvorschlag 2: Wende Sharing Methoden an Idee: Reduziere die Fitness eines Individuums, falls sich weitere Individuen in seiner Nachbarschaft befinden Voraussetzung: Auch hier wird ein Ähnlichkeits- bzw. Abstandsmaß für Individuen benötigt

11 Selektion Weitere Konzepte 21 / 44 Nischentechniken Deterministisches Crowding Idee Erzeuge pro Elternpaar ein Nachkommenspaar mittels Crossover und Mutation Bilde dann Paare aus je einem Elter und dem ihm ähnlichstem Nachkommen Das jeweils fittere Individuum eines Paares wird in die nächste Generation übernommen Eigenschaften Umfasst Selektion (innerhalb des Elter-Nachkommenspaars), Crossover und Mutation Diversität nimmt nur langsam ab Langsamere Konvergenz zum Optimum Selektion Weitere Konzepte 22 / 44 Nischentechniken Sharing Idee Fitness f (i) eines Individuums sinkt, falls sich weitere in seiner Nachbarschaft befinden Bildlich: Die Fitness einer Nische verteilt sich auf die zugehörigen Individuen Ansatz: f sharing (i) = f (i) i pop(t) w(d(i, i )) d: Abstand der Individuen w: Gewichtungsfunktion, definiert die Form und Größe der Nische Beispiel: power law sharing { 1 ( ) x α w(x) = σ wenn x < σ 0 sonst (mit σ, α > 0), σ: Nischenradius, α: Einflussstärke innerhalb der Nische

12 Selektion Weitere Konzepte 23 / 44 Nischentechniken Eigenschaften des Sharing Fitness wird nur innerhalb des Radius σ beeinflusst Beachte: Nenner ist stets größer als 1, da d(i, i) = 0 und w(d(i, i)) = 1 Üblicherweise wird die Einflussstärke α = 1 gewählt σ sollte klein genug gewählt werden, um Individuen in der Nähe anderer Optima nicht zu beeinflussen Populationsgröße sollte die Anzahl der erwarteten Optima um ein Vielfaches übersteigen Abstandsmaß d(i, i ) kann sowohl auf der Ebene der Geneotyen als auch auf der Ebene der Phenotypen angewandt werden Selektion Skalierungsmethoden 24 / 44 Skalierungsmethoden Von der Ziel- zur Fitnessfunktion Genetische Algorithmen unterscheiden zwischen der aus den Zielkriterien zusammengesetzten Zielfunktion (auch Bewertungsfunktion, raw fitness ) und der Fitnessfunktion Die Zielfunktion f (x) : X R gibt an, wie gut ein Chromosom die definierten Ziele erfüllt Die Fitnessfunktion Φ(x) : X R + gibt die Chance des Individuums an, sich in der nächsten Generation zu reproduzieren Oft sind beide Funktionen identisch oder es besteht ein einfacher funktionaler Zusammenhang Φ(x) = g(f (x)) Insbesondere bei Minimierungen ist eine Transformation zwingend nötig, häufig genutzt wird { c maxest f (x) falls c maxest f (x) > 0 Φ(x) = 0 sonst

13 Selektion Skalierungsmethoden 25 / 44 Einfluss der Fitnessfunktion Das Dominanzproblem resultiert aus bestimmten Eigenschaften der Fitnessfunktion Ergo Fitnessfunktion hat starken Einfluss auf die Wirkung der fitnessproportionalen Selektion Problem Variiert die Fitnessfunktion sehr stark, kann es zu vorzeitiger Konvergenz kommen Selektion Skalierungsmethoden 26 / 44 Einfluss der Fitnessfunktion Beispiel (Vorzeitige Konvergenz) Deckt zu Beginn kein Chromosom den Bereich C ab, wird die Population aufgrund der Selektion in den Bereichen A und B verbleiben Individuen, die sich dem Übergangsbereich von B zu C nähern haben nur mit geringer Wahrscheinlichkeit Nachkommen x A B C x

14 Selektion Skalierungsmethoden 27 / 44 Verschwindender Selektionsdruck Verallgemeinert gilt, dass das Verhältnis der absoluten Höhe der Fitnesswerte im Vergleich zu ihrer Variation (Spannweite) zu Problemen führen kann Verschwindender Selektionsdruck Maximierung der Funktion Φ : X R ist äquivalent zur Maximierung von Φ : X R, da gilt Φ (x) = Φ(x) + c, c R Im Falle c sup x X Φ(x) gilt für die relative Fitness x X : Φ rel (x) 1 popsize, d.h. der Selektionsdruck ist (zu) gering x, ' x c ' Obwohl die Maxima an gleichen Stellen liegen, sind sie für einen Genetischen Algorithmus dennoch unterschiedlich schwer zu finden, da die relativen Unterschiede der Fitness der Funktion Φ (zu) gering sind. x Selektion Skalierungsmethoden 28 / 44 Verschwindender Selektionsdruck Der Optimiervorgang selbst ist ggf. für den verschwindenden Selektionsdruck verantwortlich, indem die durchschnittliche Fitness der Individuen tendenziell steigt Beobachtung Zu Beginn ist der Selektionsdruck hoch, da die Fitnesswerte zufällig verteilt sind, im spätem Stadium ist der Selektionsdruck geringer Das Gegenteil wäre wünschenswert x x Beginn der Optimierung x Spätes Stadium der Optimierung x

15 Selektion Skalierungsmethoden 29 / 44 Skalierung der Fitnessfunktion Die beschriebenen Probleme können durch eine Skalierung der Fitnessfunktion behoben werden. Ansätze hierzu: Linear dynamische Skalierung σ-skalierung Linear dynamische Skalierung Es wird statt des Minimums der aktuellen Population das Minimum der letzten b Generationen benutzt: t Φ lds (x) = αf (x) min{f (x ) x pop(i)}, i=t b α > 0, b < t Üblicherweise ist α > 1 Selektion Skalierungsmethoden 30 / 44 Skalierung der Fitnessfunktion σ-skalierung Idee Egalisiere den Mittelwert und skaliere die Standardabweichung Mittelwert der Fitness Φ σ (x) = f (x) (µ f (x) β σ f (x)), β > 0 µ f (t) = 1 popsize x pop(t) f (x) Standardabweichung 1 σ f (t) = popsize 1 x pop(t) (f (x) µ f (t)) 2 Problem: Wie ist der Parameter β zu wählen?

16 Selektion Skalierungsmethoden 31 / 44 Skalierung der Fitnessfunktion σ-skalierung Vorgehen Analysiere den Variationskoeffizienten der Fitnessfunktion ( ) 2 v = σ 1 f X 1 x X f (x ) 1 X x X f (x) = µ f 1 X x X f (x) Es zeigt sich, dass mit einem Variationskoeffizienten von v 0.1 ein gutes Verhältnis von Erkundung des Suchraums und Ausbeutung guter Individuen liefert Falls v von diesem Wert abweicht, wird die Fitnessfunktion entsprechend angepasst (skaliert) um ihn wieder zu erreichen Zur eigentlichen Berechnung wird der Suchraum X durch die aktuelle Population pop(t) geschätzt D.h. in jeder Generation wird der Wert von v(t) berechnet und die Fitnesswerte entsprechend angepasst: σ-skalierung mit β = 1 v, wobei v = 0.1 Selektion Skalierungsmethoden 32 / 44 Skalierung der Fitnessfunktion σ-skalierung Beispiel x x Variationskoeffizient v 0.2 x Variationskoeffizient v 0.05 x x Variationskoeffizient v 0.1 x Ein zu hoher Variationskoeffizient führt zu vorzeitiger Konvergenz, ein zu niedriger zu verschwindendem Selektionsdruck. Ein guter Wert ist erfahrungsgemäß v 0.1.

17 Selektion Skalierungsmethoden 33 / 44 Zeitabhängige Fitnessfunktion Boltzmann-Selektion Berechne die relative) Fitness nicht aus der Zielfunktion f (x) sondern aus g(x) = exp ( f (x) kt Selektionsdruck wird über den Temperaturparameter T gesteuert (k ist eine Normierungskonstante) Temperatur nimmt im Lauf der Optimierung ab, z.b. linear Idee dieses Selektionsverfahrens ähnelt der des Simulated Annealing - Zu Beginn ist der Temperaturparameter hoch, die relativen Unterschiede zwischen den Fitnesswerten sind somit gering - Im Verlauf der Optimierung sinkt der Temperaturparameter, die relativen Unterschiede zwischen den Fitnesswerten werden größer - Im Lauf der Optimierung steigt der Selektionsdruck Überblick Genetische Operatoren 34 / 44 Genetische Operatoren werden auf einem Teil der durch die Selektion ausgewählten Individuen (d.h. der Zwischenpopulation) angewendet, um Rekombinationen und Variationen der bestehenden Lösungskandidaten zu erzeugen. Genetische Operatoren können nach der Zahl der involvierten Eltern eingeteilt werden in - Ein-Elter-Operatoren (Mutation) - Zwei-Eltern-Operatoren (Crossover) - Mehr-Eltern-Operatoren Entsprechend der genutzten Kodierung müssen genetische Operatoren ggf. bestimmte Eigenschaften aufweisen - Kodieren die Lösungskandidaten bspw. Permutationen, sollten die genetischen Operatoren permutationserhaltend sein - Allgemein sollten ferner als sinnlos erkennbare Allelkonstellationen gar nicht erst erzeugt werden

18 Ein-Elter-Operatoren Genetische Operatoren Ein-Elter-Operatoren 35 / 44 Üblicherweise werden Ein-Elter-Operatoren als Mutation bezeichnet. Standardmutation - Variiere die Ausprägung eines Gens des Chromosoms Ggf. wird die Operation wiederholt, d.h. es werden mehrere Gene mutiert - Parameter: Mutationswahrscheinlichkeit p m, 0 < p m 1 - Für Bitstrings ist p m = 1/length(x) annähernd optimal Zweiertausch - Tausche die Ausprägungen zweier Gene des Chromosoms Verallgemeiert können 3,..., n Gene zyklisch getauscht werden - Bedingung: Die Allelmengen der getauschten Gene sind gleich Genetische Operatoren Ein-Elter-Operatoren 36 / 44 Permutation / Mischung eines Teilstücks - Mische die Gene des Teilstücks des Chromosoms Bedingung: Die Allelmengen der getauschten Gene sind gleich Inversion eines Teilstücks - Drehe die Reihenfolge der Gene des Teilstücks des Chromosoms um Bedingung: Die Allelmengen der betroffenen Bereiche sind gleich - Parameter: Ggf. Wahrscheinlichkeitsverteilungen über Längen des Teilstücks / Distanzen beim Verschieben Verschiebung eines Teilstücks - Verschiebe ein Teilstück des Chromosoms Bedingung: Die Allelmengen der getauschten Gene sind gleich

19 Genetische Operatoren Zwei-Eltern-Operatoren 37 / 44 Zwei-Eltern-Operatoren Üblicherweise werden Zwei-Eltern-Operatoren als Crossover bezeichnet. Ein-Punkt-Crossover - Wähle einen zufälligen Schnittpunkt - Tausche die Gene der Chromosomen ab dem Schnittpunkt Zwei-Punkt-Crossover - Wähle zwei zufällige Schnittpunkte - Tausche die Gene der Chromosomen zwischen den Schnittpunkten Genetische Operatoren Zwei-Eltern-Operatoren 38 / 44 n-punkt-crossover - Verallgemeinert das Ein- und Zwei-Punkt-Crossover - Wähle n zufällige Schnittpunkte - Tausche die Gene der Chromosomen nach jedem zweiten Schnittpunkt Uniformes Crossover - Bestimme für jedes einzelne Gen, ob es ausgetauscht werden soll oder nicht Parameter: Austauschwahrscheinlichkeit p c - Beachte: Das uniforme Crossover ist nicht äquivalent zum (length(x) 1)-Punkt-Crossover

20 Genetische Operatoren Zwei-Eltern-Operatoren 39 / 44 Shuffle Crossover - Ein-Punkt-Crossover wird auf einem gemischten Chromosom angewandt, das anschließend wieder entmischt wird Mischen Crossover Entmischen - Beachte: Shuffle Crossover ist nicht äquivalent zum uniformen Crossover. Beim Shuffle Crossover ist jede Anzahl von Gen-Vertauschungen zwischen den Chromosomen gleichwahrscheinlich beim uniformen Crossover ist Wahrscheinlichkeit der Vertauschungsanzahl binomialverteilt mit dem Parameter p c - Shuffle Crossover ist einer der empfehlenswertesten Crossover Operatoren Genetische Operatoren Zwei-Eltern-Operatoren 40 / 44 Uniformes ordnungsbasiertes Crossover - Entscheide wie beim uniformen Crossover für jedes einzelne Gen, ob es übernommen werden soll oder nicht - Fülle die Lücken mit den fehlenden Allelen in der durch das andere Chromosom gegebenen Reihenfolge Verfahren ist permutationserhaltend erhält zusätzlich Reihenfolgeinformation - Alternativ können im zweiten Chromosom wie beim uniformen Crossover die durch markierten Gene übernommen werden

21 Genetische Operatoren Mehr-Eltern-Operatoren 41 / 44 Mehr-Eltern-Operatoren Diagonales Crossover - Verallgemeinert das Ein-, Zwei- und n-punkt-crossover auf mehr Eltern - Wähle bei drei Eltern zwei Crossover-Positionen, allgemein bei n Eltern n 1 Crossover-Positionen - Verschiebe die Gensequenzen zyklisch diagonal über die Chromosomen Verfahren sorgt, wenn genügend Eltern vorhanden sind, für eine gute Erkundung des Suchraums Genetische Operatoren Effekte von Crossover Operatoren 42 / 44 Ortsabhängige Verzerrung Ist die Wahrscheinlichkeit zwei benachbarte Gene zusammen zu vererben (d.h. beide verbleiben im Chomosom resp. wechseln das Chromosom zusammen) abhängig von deren relativer Lage im Chromosom, spricht man von ortsabhängiger Verzerrung Unerwünschter Effekt, da der Erfolg des Genetischen Algorithmus dann von der Anordnung der Gene abhängig ist Beispiel (Ein-Punkt-Crossover) Zwei Gene werden getrennt, wenn die Schittposition zwischen ihnen liegt Offensichtlich werden weiter entfernt liegende Gene häufiger getrennt als enger benachbarte, da zwischen letzteren weniger potentielle Schnittpositionen liegen

22 Verteilungsverzerrung Genetische Operatoren Effekte von Crossover Operatoren 43 / 44 Ist die Wahrscheinlichkeit Gene auszutauschen nicht für alle Anzahlen zu tauschender Gene gleich, spricht man von Verteilungsverzerrung Meist unerwünschter Effekt, da dann unterschiedlich lange Teillösungen mit unterschiedlichen Wahrscheinlichkeiten in die nächste Generation gelangen Ortsabhängige Verzerrung ist allerdings der kritischere Effekt Beispiel (Uniformes Crossover) Die Wahrscheinlichkeit, dass insgesamt n Gene getauscht werden ist binomialverteilt mit dem Parameter p c, da jedes einzelne Gen unabhängig mit der Wahrscheinlichkeit p c getauscht wird Offensichtlich werden somit sehr große bzw. sehr kleine Anzahlen n seltener vorkommen 44 / 44 Zusammenfassung Selektion - Bessere Individuen sollen mit höherer Wahrscheinlichkeit Nachkommen haben - Verringert die Diversität (Varianz) in der Population - Induziert den Richtungscharakter in die Optimierung - Selektionsdruck entspricht Intensität des Konkurrenzkampfs - Rang- und Turnierauswahl lösen Dominanzproblem i.w. - Elitismus bewahrt vorteilhafte Eigenschaften - Nischentechniken (Crowding- / Sharing-Methoden) zur Vermeidung des Crowding Effekts - Selektionsdruck kann durch Skalierung der Fitnessfunktion geregelt werden (Linear dynamische Skalierung / σ-skalierung) Variationsoperatoren - Mutation ist Ein-Elter-Operator - Crossover ist (i.d.r.) Zwei-Eltern-Operator - Ortsabhängige- und Verteilungsverzerrung beachten

Computational Intelligence

Computational Intelligence / 4 Computational Intelligence Wintersemester 007/008 4. Genetische Algorithmen Stefan Berlik Fachgruppe Praktische Informatik FB, Elektrotechnik und Informatik Universität Siegen 5. November 007 Gliederung

Mehr

Evolutionäre Algorithmen Kodierung, Fitness, Selektion

Evolutionäre Algorithmen Kodierung, Fitness, Selektion Evolutionäre Algorithmen Kodierung, Fitness, Selektion Prof. Dr. Rudolf Kruse Pascal Held {kruse,pheld}@iws.cs.uni-magdeburg.de Otto-von-Guericke-Universität Magdeburg Fakultät für Informatik Institut

Mehr

Evolu&onäre Algorithmen Kapitel 3: Kodierung, Fitness und Selek&on

Evolu&onäre Algorithmen Kapitel 3: Kodierung, Fitness und Selek&on Evolu&onäre Algorithmen Kapitel 3: Kodierung, Fitness und Selek&on Sanaz Mostaghim Lehrstuhl für Intelligente Systeme SS 2016 Outline Kodierung Hamming-Klippen Problem der Epistasie Verlassen des Suchraums

Mehr

Evolu&onäre Algorithmen Kapitel 4: Operatoren

Evolu&onäre Algorithmen Kapitel 4: Operatoren Evolu&onäre Algorithmen Kapitel 4: Operatoren Sanaz Mostaghim Lehrstuhl für Intelligente Systeme SS 2016 Outline Motivation Ein-Elter-Operatoren Zwei- oder Mehr-Elter-Operatoren Interpolierende und extrapolierende

Mehr

Warum konvergieren Genetische Algorithmen gegen ein Optimum?

Warum konvergieren Genetische Algorithmen gegen ein Optimum? 1 / 21 Gliederung 1 Das Schematheorem Motivation Begriffe Herleitung Ergebnis Das Schematheorem Das Schematheorem Motivation 3 / 21 Warum konvergieren Genetische Algorithmen gegen ein Optimum? Theoretische

Mehr

Evolutionäre Algorithmen Variation und genetische Operatoren

Evolutionäre Algorithmen Variation und genetische Operatoren Evolutionäre Algorithmen Variation und genetische Operatoren Prof. Dr. Rudolf Kruse Pascal Held {kruse,pheld}@iws.cs.uni-magdeburg.de Otto-von-Guericke-Universität Magdeburg Fakultät für Informatik Institut

Mehr

Evolutionäre Algorithmen

Evolutionäre Algorithmen Evolutionäre Algorithmen Variation und genetische Operatoren Prof. Dr. Rudolf Kruse Christian Moewes {kruse,cmoewes}@iws.cs.uni-magdeburg.de Otto-von-Guericke-Universität Magdeburg Fakultät für Informatik

Mehr

Optimale Produktliniengestaltung mit Genetischen Algorithmen

Optimale Produktliniengestaltung mit Genetischen Algorithmen Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen

Mehr

10. Vorlesung Stochastische Optimierung

10. Vorlesung Stochastische Optimierung Soft Control (AT 3, RMA) 10. Vorlesung Stochastische Optimierung Genetische Algorithmen 10. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"

Mehr

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen Einführung in die Methoden der Künstlichen Intelligenz Evolutionäre Algorithmen Dr. David Sabel WS 2012/13 Stand der Folien: 12. November 2012 Evolutionäre / Genetische Algorithmen Anwendungsbereich: Optimierung

Mehr

Synthese Eingebetteter Systeme. Übung 6

Synthese Eingebetteter Systeme. Übung 6 12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe

Mehr

Genetische und Evolutionäre Algorithmen (Vol. 1)

Genetische und Evolutionäre Algorithmen (Vol. 1) Vortrag über Genetische und Evolutionäre Algorithmen (Vol. ) von Adam El Sayed Auf und Kai Lienemann Gliederung: ) Einführung 2) Grundkonzept 3) Genaue Beschreibung des Genetischen Algorithmus Lösungsrepräsentation

Mehr

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen Einführung in die Methoden der Künstlichen Intelligenz Prof. Dr. Manfred Schmidt-Schauß SoSe 2018 Stand der Folien: 9. Mai 2018 Evolutionäre / Genetische Algorithmen Anwendungsbereich: Optimierung von

Mehr

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Evolutionäre Algorithmen Teil II Evolutionsfenster durch Mutation und sexuelle Rekombination Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Evolutionäre Algorithmen

Mehr

Survival of the Fittest Optimierung mittels Genetischer Algorithmen

Survival of the Fittest Optimierung mittels Genetischer Algorithmen Übung zu Organic Computing Survival of the Fittest Optimierung mittels Genetischer Algorithmen Sabine Helwig Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Universität Erlangen-Nürnberg sabine.helwig@informatik.uni-erlangen.de

Mehr

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Evolutionäre Algorithmen: Überlebenskampf und Evolutionäre Strategien Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überblick Einleitung Adaptive Filter Künstliche

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Prof. Dr. Ottmar Beucher Dezember 2001 Genetische Algorithmen 1 Optimierungsaufgaben Ein einfaches Beispiel Prinzipielle Formulierung Lösungsansätze Genetische Algorithmen Anwendungen

Mehr

Evolutionäre / Genetische Algorithmen. Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre / Genetische Algorithmen (2) Beispiel

Evolutionäre / Genetische Algorithmen. Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre / Genetische Algorithmen (2) Beispiel Evolutionäre / Genetische Algorithmen Einführung in die Methoden der Künstlichen Intelligenz PD Dr. David Sabel SoSe 0 Anwendungsbereich: Optimierung von Objekten mit komplexer Beschreibung Objekte: Üblicherweise

Mehr

Genetische und Evolutionäre Algorithmen (Vol. 2)

Genetische und Evolutionäre Algorithmen (Vol. 2) Vortrag über Genetische und Evolutionäre Algorithmen (Vol. 2) von Adam El Sayed Auf und Kai Lienemann Gliederung: 4) Rückblick 5) Allgemeine Einführung 6) Genauere Beschreibung von Evolutionären Strategien

Mehr

Betriebliche Optimierung

Betriebliche Optimierung Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 19 1 Joachim Schauer ( Institut für

Mehr

Computational Intelligence 1 / 28. Computational Intelligence Evolutionsstrategien 3 / 28

Computational Intelligence 1 / 28. Computational Intelligence Evolutionsstrategien 3 / 28 1 / 28 Gliederung 1 Evolutionsstrategien Selektion Rekombination Mutation Ablauf 2 Genetische Programmierung Repräsentation Genetische Operatoren Ablauf Überblick Evolutionsstrategien 3 / 28 Repräsentation

Mehr

Populationsbasierte Suche. Evolutionäre Algorithmen (1)

Populationsbasierte Suche. Evolutionäre Algorithmen (1) Populationsbasierte Suche Bisherige Meta-Heuristiken: Simulated Annealing Tabu Search Ausgehend von einer Lösung wird gesucht Populationsbasierte Heuristiken Suche erfolgt ausgehend von mehreren Lösungen

Mehr

Evolution und Algorithmen

Evolution und Algorithmen Kapitel 6 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics

Mehr

Kodierung Genetische Algorithmen und Simulated Annealing

Kodierung Genetische Algorithmen und Simulated Annealing Kodierung Genetische Algorithmen und Simulated Annealing Referenten Dipl.-Ing. (FH) Dipl.-Ing. (FH) 1 Agenda Erklärung des Genetischen Algorithmus f(x)=x² (2-dimensional) Verschiedene Codierungen Binärcode,

Mehr

Implementation und Evaluierung innovativer Heuristiken für die Anordnung von Entwurfsentscheidungen

Implementation und Evaluierung innovativer Heuristiken für die Anordnung von Entwurfsentscheidungen Implementation und Evaluierung innovativer Heuristiken für die Anordnung von Entwurfsentscheidungen Diplomarbeit Thomas Scharler Universität Hamburg, FB Informatik, AB Tech Implementation und Evaluierung

Mehr

Evolutionäre (Genetische) Algorithmen

Evolutionäre (Genetische) Algorithmen Evolutionäre (Genetische) Algorithmen Ziel, Aufgabe von evolutionären Algorithmen: Optimierung von Objekten mit komplexer Beschreibung, wobei es Parameter gibt. Die Objekte kodiert man so als Bitstrings,

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Von Valentina Hoppe und Jan Rörden Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Gliederung Biologische Evolution Genetischer Algorithmus Definition theoretischer

Mehr

2.5 Evolutionäre (Genetische) Algorithmen

2.5 Evolutionäre (Genetische) Algorithmen KI 1, SS 2011, Kapitel 2, GA 1 2.5 Evolutionäre (Genetische) Algorithmen Das Ziel bzw. die Aufgabe von evolutionären Algorithmen ist eine Optimierung von Objekten mit komplexer Beschreibung, wobei es variable

Mehr

InformatiCup 2009 EvolutionConsole

InformatiCup 2009 EvolutionConsole InformatiCup 2009 EvolutionConsole Wilhelm Büchner Hochschule 19. März 2010 1 1. Das Team Teammitglieder Ralf Defrancesco KION Information Services GmbH Systemadministrator Daniel Herken Scooter Attack

Mehr

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten?

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten? Übungsblatt LV Künstliche Intelligenz, Evolutionäre Algorithmen (), 204 Exercise. Evolution a) Finden Sie zwei Evolutionsbeispiele auÿerhalb der Biologie. Identizieren Sie jeweils Genotyp, Phänotyp, genetische

Mehr

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008 Genetische Algorithmen Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 8. Juli 2008 Inhalt Einführung Algorithmus Erweiterungen alternative Evolutions- und Lernmodelle Inhalt 1 Einführung

Mehr

Seminar "Optimierung mit evolutionären Algorithmen"

Seminar Optimierung mit evolutionären Algorithmen Universität Stuttgart Institut für Informatik Abteilung Seminar "Optimierung mit evolutionären Algorithmen" Seminararbeit zu genetischen Algorithmen Betreuer: Dipl. Math. Nicole Weicker Autor: Michael

Mehr

Lokale Suche. 31. Januar / 28

Lokale Suche. 31. Januar / 28 Lokale Suche 31. Januar 2018 1 / 28 Lokale Suche Wir betrachten das allgemeine Minimierungsproblem min y f (x, y) so dass L(x, y). Wir nehmen an, dass zu jeder Lösung y auch eine Nachbarschaft N (y) benachbarter

Mehr

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten?

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten? Übungsblatt LV Künstliche Intelligenz, Evolutionäre Algorithmen (1), 2015 Aufgabe 1. Evolution a) Finden Sie zwei Evolutionsbeispiele auÿerhalb der Biologie. Identizieren Sie jeweils Genotyp, Phänotyp,

Mehr

Betriebliche Optimierung

Betriebliche Optimierung Betriebliche Optimierung Joachim Schauer Joachim Schauer Betriebliche Optimierung 1 / 31 1 Metaheuristische Verfahren 2 Joachim Schauer Betriebliche Optimierung 2 / 31 Einleitendes Metaheuristische Verfahren

Mehr

Genetische Algorithmen von der Evolution lernen

Genetische Algorithmen von der Evolution lernen Genetische Algorithmen von der Evolution lernen (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Nils J. Nilsson Artificial Intelligence Morgan Kaufmann, 1998 Ansatz Bisher: Problemlösung

Mehr

x x x x Repräsentation von Lösungen (2) Repräsentation von Lösungen (1)

x x x x Repräsentation von Lösungen (2) Repräsentation von Lösungen (1) Repräsentation von Lösungen () Repräsentation von Lösungen () Kontinuierliche Optimierung: x x x x n Binäre Optimierung: n = (,,, ) R x = ( x, x,, x ) {0,} n n Lokale Suche: x i = x i + ε Lokale Suche:

Mehr

Optimierung und Entwurf mit Evolutionären Algorithmen

Optimierung und Entwurf mit Evolutionären Algorithmen Fakultät Informatik, Institut für Angewandte Informatik, Lehrstuhl für Technische Informationssysteme Optimierung und Entwurf mit Evolutionären Algorithmen Dresden, 01.02.2007 Gliederung natürliche Evolution

Mehr

v R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i

v R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i MOP: Pareto-Gradientenabstiegsverfahren Annahme: Zielfunktion differenzierbar Wintersemester 2007/08 Praktische Optimierung (Vorlesung) d = 1: (monokriteriell) v R n ist Abstiegsrichtung in x R n wenn

Mehr

Hauptseminar Repräsentationen für Optimierungsalgorithmen

Hauptseminar Repräsentationen für Optimierungsalgorithmen Stefan Bens Hauptseminar Dresden, 03.07.2008 Inhalt 1. Motivation 2. Einleitung 3. Repräsentationsarten und Eigenschaften 4. Beispiel 5. Zusammenfassung Folie 2 Als Repräsentation bezeichnet man die Kodierung

Mehr

Fundamente der Computational Intelligence

Fundamente der Computational Intelligence Fundamente der Computational Intelligence Dozent: Günter Rudolph Vertretung: Nicola Beume Wintersemester 2006/07 Universität Dortmund Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS11) Fachgebiet

Mehr

Repräsentation von Lösungen (1)

Repräsentation von Lösungen (1) Repräsentation von Lösungen (1) Kontinuierliche Optimierung: Binäre Optimierung: x x1 x2 x n n = (,,, ) R x = ( x1, x2,, x ) {0,1} n n Lokale Suche: x i = x i + ε Lokale Suche: x i = 1-x i 0.5 0.9 0.2

Mehr

12. Vorlesung Stochastische Optimierung

12. Vorlesung Stochastische Optimierung Soft Control (AT 3, RMA) 12. Vorlesung Stochastische Optimierung Differential Evolution 12. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"

Mehr

Bewertung von Optimierungs- und Zuverlässigkeitsalgorithmen für die virtuelle Produktauslegung

Bewertung von Optimierungs- und Zuverlässigkeitsalgorithmen für die virtuelle Produktauslegung Weimarer Optimierungs- und Stochastiktage 4.0 Bewertung von Optimierungs- und Zuverlässigkeitsalgorithmen für die virtuelle Produktauslegung Dr.-Ing. Andreas Plotzitza, PT/EST4 29. November 2007 1 Inhalt

Mehr

Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 2011/2012

Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 2011/2012 Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 011/01 Sandra Uhlenbrock 03.11.011 Die folgende Ausarbeitung wird, basierend auf Branching Processes

Mehr

Genetische Algorithmen

Genetische Algorithmen Michael Gerhäuser Universität Bayreuth 28.06.2008 1 Motivierende Beispiele 2 Grundbegriffe der biologischen Evolution 3 Formalisierung der Grundbegriffe 4 Modellierung mit Markov-Ketten 5 Konvergenzanalyse

Mehr

Computational Intelligence

Computational Intelligence / 44 Computational Intelligence Wintersemester 0/04. Evolutionäre Algorithmen II Stefan Berlik Fachgruppe Praktische Informatik Fakultät IV, Department Elektrotechnik und Informatik Universität Siegen

Mehr

Diskrete dynamische Systeme in der Populationsgenetik Hofbauer J., und Sigmund K.: Evolutionary Games and Population Dynamics, Cambridge

Diskrete dynamische Systeme in der Populationsgenetik Hofbauer J., und Sigmund K.: Evolutionary Games and Population Dynamics, Cambridge Diskrete dynamische Systeme in der Populationsgenetik Hofbauer J., und Sigmund K.: Evolutionary Games and Population Dynamics, Cambridge Dominik Urig Saarbrücken, den 10.01.2012 Inhaltsangabe 1 Biologische

Mehr

Anwendung genetischer Algorithmen zur Lösung des n Dame Problems und zur Optimierung von Autoprofilen

Anwendung genetischer Algorithmen zur Lösung des n Dame Problems und zur Optimierung von Autoprofilen Anwendung genetischer Algorithmen zur Lösung des n Dame Problems und zur Optimierung von Autoprofilen Jana Müller Seminar Das Virtuelle Labor Otto von Guericke Universität Magdeburg Gliederung 1. Motivation

Mehr

Evolutionäre Algorithmen

Evolutionäre Algorithmen Evolutionäre Algorithmen No-Free-Lunch-Theorem, Parallelisierung, Zufallszahlen Prof. Dr. Rudolf Kruse Christian Moewes {kruse,cmoewes}@iws.cs.uni-magdeburg.de Otto-von-Guericke-Universität Magdeburg Fakultät

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen

Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen Krischan Keitsch 3. Juni 214 Zusammenfassung Um ein Optimierungsproblem mit einer Evolutionsstrategie

Mehr

Ein sortiertes Feld kann in O(log n) durchsucht werden, z.b. mit Binärsuche. Der Algorithmus 1 gibt den Pseudocode der binären Suche an.

Ein sortiertes Feld kann in O(log n) durchsucht werden, z.b. mit Binärsuche. Der Algorithmus 1 gibt den Pseudocode der binären Suche an. 2.5 Suchen Eine Menge S will nach einem Element durchsucht werden. Die Menge S ist statisch und S = n. S ist Teilmenge eines Universums auf dem eine lineare Ordnung definiert ist und soll so gespeichert

Mehr

Computational Intelligence

Computational Intelligence Vorlesung Computational Intelligence Stefan Berlik Raum H-C 80 Tel: 027/70-267 email: berlik@informatik.uni-siegen.de Inhalt Überblick Rückblick Optimierungsprobleme Optimierungsalgorithmen Vorlesung Computational

Mehr

Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen

Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen Fachhochschule Wedel - SS 2006 Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen Marco Lehmann (wi5909) m@rco-l.de 3. Juli 2006 Gliederung 1.

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Belief Propagation, Strukturlernen Nico Piatkowski und Uwe Ligges 29.06.2017 1 von 13 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung

Mehr

Technische Universität Chemnitz. Ein Genetischer Algorithmus zur simultanen Dimensionierung und Strukturierung von Fertigungssystemen

Technische Universität Chemnitz. Ein Genetischer Algorithmus zur simultanen Dimensionierung und Strukturierung von Fertigungssystemen Ein Genetischer Algorithmus zur simultanen Dimensionierung Strukturierung von Fertigungssystemen JENS ARNOLD Fakultät für Informatik D-09107 Chemnitz E-Mail: Jens.Arnold@informatik.tu-chemnitz.de THOMAS

Mehr

1. Inhaltsverzeichnis

1. Inhaltsverzeichnis 1. Inhaltsverzeichnis Inhaltsverzeichnis 1. Einleitung 1.1. Darwins Evolutionstheorie 1.2. Darwins Evolutionstheorie als Inspiration für Evolutionäre Algorithmen 1.3. Die Unterschiede der verschiedenen

Mehr

Optimierung. Vorlesung 12

Optimierung. Vorlesung 12 Optimierung Vorlesung 12 Letze Woche Approximieren von ILP durch randomisiertes Runden. Beispiel Set Cove Relaxiertes LP lösen und runden. Probleme: 1. Zielfunktionswert 2. Zulässigkeit 1. Linearität des

Mehr

Hochschule Regensburg. Übung 12_3 Genetische Algorithmen 1. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer

Hochschule Regensburg. Übung 12_3 Genetische Algorithmen 1. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Hochschule Regensburg Übung 12_ Genetische Algorithmen 1 Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: 1. Was sind GA? - Ein GA ist ein Algorithmus, der Strategien aus der Evolutionstheorie

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Shawn Keen Zusammenfassung Eine weitere Herangehensweise an das maschinelle Lernen ist die Nachahmung evolutionärer Prozesse. Hier wollen wir uns mit den sogenannten Genetischen

Mehr

Proseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien

Proseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien Proseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien Michael Stahl 4. Juni 2002 Inhaltsverzeichnis 1 Überblick 2 2 Generischer ES-Algorithmus 2 2.1 Initialisierung....................................

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

Abitur 2012 Mathematik Stochastik IV

Abitur 2012 Mathematik Stochastik IV Seite 1 http://www.abiturloesung.de/ Seite 2 Abitur 2012 Mathematik Stochastik IV Nachdem die Verfilmung eines bekannten Romans erfolgreich in den Kinos gezeigt wurde, veröffentlicht eine Tageszeitung

Mehr

Genetische Programmierung

Genetische Programmierung 15. Juli 2007 Anfang der 90er von John R. Koza entwickelt. Verfahren zur automatisierten Erstellung von Programmen. Von der Evolution inspiriert. Anforderungen an die Möglichst korrekte Lösung ergeben

Mehr

Computational Intelligence 1 / 37. Berechne die Positionen potentieller Optima, d.h. die Stellen an denen der Gradient verschwindet

Computational Intelligence 1 / 37. Berechne die Positionen potentieller Optima, d.h. die Stellen an denen der Gradient verschwindet 1 / 37 Gliederung 1 Analytische Lösung 2 Optimierungsalgorithmen Kalkülbasierte Verfahren Indirekte kalkülbasierte Verfahren Direkte kalkülbasierte Verfahren Zufallsgesteuerte Verfahren Rein zufallsgesteuerte

Mehr

Focusing Search in Multiobjective Evolutionary Optimization through Preference Learning from User Feedback

Focusing Search in Multiobjective Evolutionary Optimization through Preference Learning from User Feedback Focusing Search in Multiobjective Evolutionary Optimization through Preference Learning from User Feedback Thomas Fober Weiwei Cheng Eyke Hüllermeier AG Knowledge Engineering & Bioinformatics Fachbereich

Mehr

Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik

Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik Dozent: Prof. Dr. Henning Meyerhenke Paralleles Rechnen, Fakultät für Informatik 1 KIT Universität des Landes

Mehr

Heuristische Verfahren

Heuristische Verfahren Heuristische Verfahren Bei heuristischen Verfahren geht es darum in polynomieller Zeit eine Näherungslösung zu bekommen. Diese kann sehr gut oder sogar optimal sein, jedoch gibt es keine Garantie dafür.

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung

Softwareprojektpraktikum Maschinelle Übersetzung Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology

Mehr

Klausur vom

Klausur vom UNIVERSITÄT KOBLENZ LANDAU INSTITUT FÜR MATHEMATIK Dr. Dominik Faas Stochastik Wintersemester 00/0 Klausur vom 09.06.0 Aufgabe (++4=9 Punkte) Bei einer Umfrage wurden n Personen befragt, an wievielen Tagen

Mehr

1. Evolutionsstrategien. 2. Genetische Algorithmen. Evolutionsstrategie / Genetischer Algorithmus. Dr. Markus Olhofer markus.olhofer(at)honda-ri.

1. Evolutionsstrategien. 2. Genetische Algorithmen. Evolutionsstrategie / Genetischer Algorithmus. Dr. Markus Olhofer markus.olhofer(at)honda-ri. Evolutionsstrategie / Genetischer Algorithmus 1. Evolutionsstrategien 200 150 100 (kontinuierliche Parameter) 50 0 10 2. Genetische Algorithmen 5 0-5 -10-10 -5 0 5 10 (diskrete Parameter in kombinatorischen

Mehr

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016 Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 4 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 24. April 2019 [Letzte Aktualisierung: 24/04/2019,

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Anwendung: Das Travelling Salesman Problem

Anwendung: Das Travelling Salesman Problem Proseminar Genetische und Evolutionäre Algorithmen SS2002 Anwendung: Das Travelling Salesman Problem Matthias Raab 1. Einführung 2. Kodierungen und zugehörige Operatoren 2.1 Adjacency Representation 2.1.1

Mehr

Evolution im Computer

Evolution im Computer Evolution im Computer Stephan Pirnbaum @spirnbaum Junior-Consultant @buschmais Steffen Gemkow @SteffenGemkow Geschäftsführer @ObjectFab Infinite-Monkey Theorem Man nehme: Unendliche Anzahl Affen Je Affe

Mehr

Einführung in Heuristische Suche

Einführung in Heuristische Suche Einführung in Heuristische Suche Beispiele 2 Überblick Intelligente Suche Rundenbasierte Spiele 3 Grundlagen Es muss ein Rätsel / Puzzle / Problem gelöst werden Wie kann ein Computer diese Aufgabe lösen?

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt. Stock, Taubertsberg R. 0-0 (Persike) R. 0-1 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet0.sowi.uni-mainz.de/

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung

Mehr

2. Evolution als Optimierungsprinzip

2. Evolution als Optimierungsprinzip 2. Evolution als Optimierungsprinzip Biologen betrachten Evolution als Mechanismus, der in der Natur Lösungen für spezielle Probleme erzeugt Prinzipien der biologischen Evolution werden zur Lösung von

Mehr

Exkurs Modelle und Algorithmen

Exkurs Modelle und Algorithmen Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen

Mehr

Nachklausur Mathematik für Biologen WS 08/09

Nachklausur Mathematik für Biologen WS 08/09 Aufgabe 1: (5 Punkte) In einer diploiden Population beobachten wir die Ausprägung eines bestimmten Gens, das zwei Allele V und W annimmt. Somit besitzt jedes Individuum V V, V W oder W W als Genotyp. Die

Mehr

Evolutionäre Robotik

Evolutionäre Robotik Evolutionäre Robotik Evolutionäre Robotik Evolutionäre Robotik Lernen / Adaption erfolgt auf (mindestens 3 Ebenen) Evolutionäre Robotik Lernen / Adaption erfolgt auf (mindestens 3 Ebenen) 1. Adaption Evolutionäre

Mehr

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler 6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik angesehen werden. Sie wird nach ihrem Entdecker auch Gaußsche Glockenkurve genannt. Die herausragende Stellung

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung 8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen

Mehr

Künstliche Intelligenz

Künstliche Intelligenz Künstliche Intelligenz Vorlesung 9 und 10: Evolutionäre Standardalgorithmen 1/69 LERNZIELE Die gängigen Standardalgorithmen, aus der Anfangszeit bis heute, werden vorgestellt. Die bekannten Standardalgorithmen

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 12. Januar 2011 1 Vergleich zweier Erwartungswerte Was heißt verbunden bzw. unverbunden? t-test für verbundene Stichproben

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 6 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 16. Mai 2018 [Letzte Aktualisierung: 18/05/2018,

Mehr

Konstruktive Heuristiken

Konstruktive Heuristiken Konstruktive Heuristiken Konstruktive Heuristik: Ein Plan oder ein Schedule wird durch das schrittweise Ein- oder Anfügen einer Operation oder einer Menge von Operationen erzeugt: - Reihungsregeln (Dispatching

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen In dieser Ausarbeitung gemäss Aufgabenstellung auf der Kurshomepage des Moduls Knowledge- Based Systems wird die Funktionsweise und Nutzung von genetischen Algorithmen erläutert.

Mehr