Genetische Algorithmen
|
|
- Claus Bader
- vor 5 Jahren
- Abrufe
Transkript
1 Genetische Algorithmen Prof. Dr. Ottmar Beucher Dezember 2001
2 Genetische Algorithmen 1 Optimierungsaufgaben Ein einfaches Beispiel Prinzipielle Formulierung Lösungsansätze Genetische Algorithmen Anwendungen Zusammenfassung Inhalt
3 Genetische Algorithmen 1 Optimierungsaufgaben Lösungsansätze Hill-Climbing Verfahren Monte-Carlo-Verfahren Evolutionsstrategie Genetische Algorithmen Anwendungen Zusammenfassung Inhalt
4 Genetische Algorithmen 1 Optimierungsaufgaben Lösungsansätze Genetische Algorithmen Inhalt Mechanismen der natürlichen Evolution Der Genetische Code Mathematische Formalisierung Der Fundamentalsatz für Genetische Algorithmen Anwendungen Zusammenfassung
5 Genetische Algorithmen 1 Optimierungsaufgaben Lösungsansätze Genetische Algorithmen Anwendungen Inhalt Standortoptimierung bei Funksendern Statistische Modellierung von Last/Drehzahl-Daten Zusammenfassung
6 Genetische Algorithmen 1 Inhalt Optimierungsaufgaben Lösungsansätze Genetische Algorithmen Anwendungen Zusammenfassung
7 Genetische Algorithmen 2 Optimierungsaufgaben - Ein einfaches Beispiel Regressionsgerade: Finde die Gerade, die am besten zu den gemessenen Daten passt!
8 Genetische Algorithmen 2 Optimierungsaufgaben - Ein einfaches Beispiel Regressionsgerade: Finde die Gerade, die am besten zu den gemessenen Daten passt!
9 Genetische Algorithmen 2 Optimierungsaufgaben - Ein einfaches Beispiel Am besten heißt: Abstände der Messwerte sind optimal(=minimal) zur Geraden.
10 Genetische Algorithmen 2 Optimierungsaufgaben - Ein einfaches Beispiel Finde Parameter a, b, so dass der Abstand a x + b Messwerte optimal wird.
11 Genetische Algorithmen 3 Optimierungsaufgaben - Ein einfaches Beispiel Gegeben N Paare von Messwerten: (x 1, y 1 ), (x 2, y 2 ), (x 3, y 3 ),, (x N, y N ) Bekannt: linearer Zusammenhang f a,b (x) = a x + b Fehlermaß: (â, ˆb) = N (y k f a,b (x k )) 2 k=1 Gesucht Parameter â, ˆb mit: (â, ˆb) = min (a, b) a,b R
12 Genetische Algorithmen 4 Optimierungsaufgaben - Prinzipielle Formulierung F : U R n R Zielfunktion Gesucht x 0 U mit F ( x 0 ) = max x U F ( x) Maximum (Optimum) gegebenenfalls mit den Nebenbedingungen G( x 0 ) = 0 (G( x 0 ) 0)
13 Genetische Algorithmen 5 Prinzip: Lösungsansatz - Hill-Climbing Iteration in Richtung stärkster Steigung Nutze Information über grad F (analytisch, numerisch) Vorteile: Nutzt Informationen über Zielfunktion F Schneller Algorithmus Konvergenzanalyse (Iterationsdauer, Fehlerabschätzung) oft möglich Nachteile: Konvergenz zu lokalen Optima Nicht universell verwendbar
14 Genetische Algorithmen 6 Prinzip: Lösungsansatz - Monte-Carlo Sucht Zielfunktion unsystematisch ab Suchpunkte mit Zufallsgenerator erzeugt Vorteile: Universell verwendbar Benötigt keinerlei Zusatzinformationen über Zielfunktion F Suboptimale Lösungen können verlassen werden Nachteile: Sehr rechenaufwändig Keine Konvergenztheorie, keine Konvergenzsicherheit Keine Fehlerabschätzungen, keine à-priori-abschätzungen
15 Genetische Algorithmen 7 Prinzip: Lösungsansatz - Evolutionsstrategie Optimierung den Mechanismen der Evolution nachgebildet Suchpunkte mit stochastischen (genetischen) Operatoren erzeugt Vorteile: Nutzt Informationen über Zielfunktion F und stochastische Suche Universell verwendbar Mittlerer Rechenaufwand (vgl. mit Monte-Carlo-Methoden) Anwendung auf zeitvariate Zielfunktionen möglich Nachteile: Wenig Konvergenztheorie, keine absolute Konvergenzsicherheit wenig à-priori-abschätzungen, unklare Parameterwahl
16 Genetische Algorithmen 8 Mechanismen der natürlichen Evolution Eine Population von Individuen mit unterschiedlichen Merkmalen...
17 Genetische Algorithmen 8 Mechanismen der natürlichen Evolution... wird durch Umwelteinflüsse einem Selektionsdruck ausgesetzt.
18 Genetische Algorithmen 8 Mechanismen der natürlichen Evolution Fitte Individuen verbreiten (mehrfach) ihre Erbanlagen durch Kreuzung.
19 Genetische Algorithmen 8 Mechanismen der natürlichen Evolution Einige wenige Individuen erhalten mutationsbedingt neue Eigenschaften.
20 Genetische Algorithmen 8 Mechanismen der natürlichen Evolution Die neue Population wird dem Selektionsdruck ausgesetzt.
21 Genetische Algorithmen 8 Mechanismen der natürlichen Evolution Die (i.a. besser angepasste) neue Population:
22 Genetische Algorithmen 9 Mechanismen der natürlichen Evolution Der evolutionäre Optimierungsprozess ist durch drei zufallsbehaftete Basismechanismen gekennzeichnet: Selektion Kreuzung Mutation Diese Basismechanismen werden in der mathematischen Formalisierung des Evolutionsprozesses zu Genetischen Algorithmen zu stochastischen Operatoren.
23 Genetische Algorithmen 10 Der Genetische Code Gene Triplets 4-Basen-Alphabet
24 Genetische Algorithmen 11 Mathematische Formalisierung - Codierung Chromosom Gene U C A G Vereinfachung Vereinfachung Triplets Vereinfachung Binäre Strings Gene:{0, 1} Binäres Alphabet
25 Genetische Algorithmen 12 Mathematische Formalisierung - Optimierungsaufgabe Zielfunktion muss auf Binärstrings formuliert werden (Codierung), und wird interpretiert als Fitness der Binärstrings ( Individuen ) F : U {0, 1} n R Fitnessfunktion Gesucht x 0 U mit F ( x 0 ) = max x U F ( x) (maximale Fitness ) gegebenenfalls mit den Nebenbedingungen.
26 Genetische Algorithmen 13 Mathematische Formalisierung - Selektion Stochastischer Operator (z.b. Roulette-Rad) Population Mating-Pool Fitnessproportionale Selektion
27 Genetische Algorithmen 14 Mathematische Formalisierung - Kreuzung (Crossover) Mating-Pool Stochastischer Operator Kreuzung (mit Wahrscheinlichkeit p c ) Population nach Kreuzung
28 Genetische Algorithmen 15 Mathematische Formalisierung - Mutation Stochastischer Operator Mutation (mit i.a. kleiner Wahrscheinlichkeit)
29 Genetische Algorithmen 16 Fundamentalsatz - Der Begriff des Schemas Schema als Hyperfläche (-würfel) in [0, 1] n : Beispiel: Schemata:
30 Genetische Algorithmen 17 Fundamentalsatz - Schema-Transfer bei Selektion p j = f j N i=1 f i = f j N f p(h) = j H = 1 f 1 N p j = j H j H f j f j N f M M H = N p(h) = 1 f j H f j
31 Genetische Algorithmen 18 Schema-Transfer bei Selektion M M H = M H 1 f 1 M H j H f j = M H fh f Übergang in den Mating-Pool für die n-te Generation: M M H (n + 1) = M H(n) fh f ( [fh ] ) k Fazit: (anfangs) exponentieller Selektionsdruck überdurchschnittliche Schemata. f für
32 Genetische Algorithmen 19 Fundamentalsatz - Schema-Transfer bei Kreuzung Beispiel: oder auch: Schemata können zerstört werden, Kurze Schemata (δ(h) klein) haben bessere Überlebenschance, Schema-Individuen können neu entstehen.
33 Genetische Algorithmen 20 Fundamentalsatz - Schema-Transfer bei Mutation Beispiel Schemata können (mit Mutationswahrscheinlichkeit) zerstört werden, Schemata mit wenig Bit (o(h) klein) haben bessere Überlebenschance, Schema-Individuen können neu entstehen.
34 Genetische Algorithmen 21 Fundamentalsatz - Das Schema-Theorem Satz: Ist H ein Schema mit der definierenden Länge δ(h) und mit der Ordnung o(h) in einem binär codierten (klassischen) Genetischen Algorithmus mit Kreuzungs-Wahrscheinlichkeit p c und Mutations- Wahrscheinlichkeit p m. Sei weiter P H (n) der relative Anteil der zum Schema H gehörenden Individuen in einer Population zum Iterationszeitpunkt n. Dann gilt: P H (n + 1) P H (n) f H(n) f(n) ( 1 p c δ(h) ) N 1 o(h)p m
35 Genetische Algorithmen 22 Fundamentalsatz - Beispiel
36 Genetische Algorithmen 22 Fundamentalsatz - Beispiel
37 Genetische Algorithmen 23 Anwendungen - Standortoptimierung Problem: Sehr sehr viele lokale Optima Riesige Datenmenge (1-10 Mio Gitterpunkte) Sehr aufwendige Zielfunktionsberechnung Geringe Antwortzeiten gefordert Fazit: Ausleuchtung eines Geländes Kein gradientenbasiertes Verfahren (lokale Optima) Kein Monte-Carlo-Verfahren (Aufwand) Lösung: Genetischer Algorithmus ( Tsd Gitterpunkte) Hybridverfahren (GA plus Hill-Climbing)
38 Genetische Algorithmen 23 Anwendungen - Standortoptimierung Problem: Sehr sehr viele lokale Optima Riesige Datenmenge (1-10 Mio Gitterpunkte) Sehr aufwendige Zielfunktionsberechnung Geringe Antwortzeiten gefordert Fazit: Optimale Ausleuchtung eines Geländes Kein gradientenbasiertes Verfahren (lokale Optima) Kein Monte-Carlo-Verfahren (Aufwand) Lösung: Genetischer Algorithmus ( Tsd Gitterpunkte) Hybridverfahren (GA plus Hill-Climbing)
39 Genetische Algorithmen 23 Anwendungen - Standortoptimierung Problem: Sehr sehr viele lokale Optima Riesige Datenmenge (1-10 Mio Gitterpunkte) Sehr aufwendige Zielfunktionsberechnung Geringe Antwortzeiten gefordert Fazit: Ausleuchtungsfunktion (Zielfunktion) Kein gradientenbasiertes Verfahren (lokale Optima) Kein Monte-Carlo-Verfahren (Aufwand) Lösung: Genetischer Algorithmus ( Tsd Gitterpunkte) Hybridverfahren (GA plus Hill-Climbing)
40 Genetische Algorithmen 24 Anwendungen - Statistische Modellierung Drehzahl/Last-Messdaten (Landstraße) Aufgabe: Entwurf einer 2-dimensionalen parametrischen Verteilung Problem: Optimierung (Anpassung) von 12 Modellparametern Abschnittsweise Definition Lösung: Genetischer Algorithmus f(x, y) = f y (x) f(y x), f y (x) = e (Φ a(x)+φm(x)+φe(x)) x [0, 100]% Φ a (x) = χ [0,x a) (x) (α 1 µ 1 x), Φ e (x) = χ [x e,100] (x) (α 2 + µ 2 (x 100)) Φ m (x) = χ [x a,xe] (x) (δ + u(x m x)λ 1 (x x m ) + u(x x m )λ 2 (x m x))
41 Genetische Algorithmen 25 Zusammenfassung Genetische Algorithmen - neues Prinzip der Optimierung nach dem Vorbild der Natur Vorteile Universelle Einsetzbarkeit Einsetzbarkeit für große Probleme Einsetzbarkeit für zeitvariate Umgebungen Nachteile wenige theoretische Grundlagen keine gesicherte Konvergenz zum globalen Optimum Unklare Parameterwahl
Genetische Algorithmen
Genetische Algorithmen Ottmar Beucher, Fachhochschule Karlsruhe 7. Dezember 2001 1 Guten Tag, meine Damen und Herren! Ich begrüße Sie recht herzlich zu meinem Vortrag über Genetische Algorithmen. Hierbei
MehrWillkürlich legen wir fest: Akzeptanz schlechterer Werte am Anfang der Iteration: , Akzeptanz schlechterer Werte am Ende der Iteration: 0:05.
126 Kapitel 4: Non-Standard-Optimierung Willkürlich legen wir fest: Akzeptanz schlechterer Werte am Anfang der Iteration: 1 10 3, Akzeptanz schlechterer Werte am Ende der Iteration: 0:05. Daraus errechnet
Mehr10. Vorlesung Stochastische Optimierung
Soft Control (AT 3, RMA) 10. Vorlesung Stochastische Optimierung Genetische Algorithmen 10. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"
MehrGenetische und Evolutionäre Algorithmen (Vol. 1)
Vortrag über Genetische und Evolutionäre Algorithmen (Vol. ) von Adam El Sayed Auf und Kai Lienemann Gliederung: ) Einführung 2) Grundkonzept 3) Genaue Beschreibung des Genetischen Algorithmus Lösungsrepräsentation
MehrInformatiCup 2009 EvolutionConsole
InformatiCup 2009 EvolutionConsole Wilhelm Büchner Hochschule 19. März 2010 1 1. Das Team Teammitglieder Ralf Defrancesco KION Information Services GmbH Systemadministrator Daniel Herken Scooter Attack
MehrWarum konvergieren Genetische Algorithmen gegen ein Optimum?
1 / 21 Gliederung 1 Das Schematheorem Motivation Begriffe Herleitung Ergebnis Das Schematheorem Das Schematheorem Motivation 3 / 21 Warum konvergieren Genetische Algorithmen gegen ein Optimum? Theoretische
MehrGenetische Algorithmen
Genetische Algorithmen Shawn Keen Zusammenfassung Eine weitere Herangehensweise an das maschinelle Lernen ist die Nachahmung evolutionärer Prozesse. Hier wollen wir uns mit den sogenannten Genetischen
MehrAdaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Evolutionäre Algorithmen: Überlebenskampf und Evolutionäre Strategien Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überblick Einleitung Adaptive Filter Künstliche
MehrOptimale Produktliniengestaltung mit Genetischen Algorithmen
Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen
MehrGenetische Algorithmen
Michael Gerhäuser Universität Bayreuth 28.06.2008 1 Motivierende Beispiele 2 Grundbegriffe der biologischen Evolution 3 Formalisierung der Grundbegriffe 4 Modellierung mit Markov-Ketten 5 Konvergenzanalyse
MehrPopulationsbasierte Suche. Evolutionäre Algorithmen (1)
Populationsbasierte Suche Bisherige Meta-Heuristiken: Simulated Annealing Tabu Search Ausgehend von einer Lösung wird gesucht Populationsbasierte Heuristiken Suche erfolgt ausgehend von mehreren Lösungen
MehrEinführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen
Einführung in die Methoden der Künstlichen Intelligenz Evolutionäre Algorithmen Dr. David Sabel WS 2012/13 Stand der Folien: 12. November 2012 Evolutionäre / Genetische Algorithmen Anwendungsbereich: Optimierung
MehrProseminar Genetische und Evolutionäre Algorithmen
Proseminar Genetische und Evolutionäre Algorithmen Genetische Algorithmen Erweiterungen und Analyse Seite 1/11 Inhaltsverzeichnis 1. Erweiterungen zu den Genetischen Algorithmen 1.1. Der steady-state-ga
MehrEvolution und Algorithmen
Kapitel 6 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics
MehrAnwendung genetischer Algorithmen zur Lösung des n Dame Problems und zur Optimierung von Autoprofilen
Anwendung genetischer Algorithmen zur Lösung des n Dame Problems und zur Optimierung von Autoprofilen Jana Müller Seminar Das Virtuelle Labor Otto von Guericke Universität Magdeburg Gliederung 1. Motivation
MehrKünstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen
Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Optimierungsprobleme
MehrGenetische Algorithmen
Genetische Algorithmen Von Valentina Hoppe und Jan Rörden Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Gliederung Biologische Evolution Genetischer Algorithmus Definition theoretischer
MehrAdaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Evolutionäre Algorithmen Teil II Evolutionsfenster durch Mutation und sexuelle Rekombination Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Evolutionäre Algorithmen
MehrEvolutionäre Algorithmen
Karsten Weicker Evolutionäre Algorithmen 2., überarbeitete und erweiterte Auflage m Teubner Inhaltsverzeichnis 1 Natürliche Evolution 1 1.1 Entwicklung der evolutionären Mechanismen 2 1.2 Evolutionsfaktoren
MehrHauptseminar Repräsentationen für Optimierungsalgorithmen
Stefan Bens Hauptseminar Dresden, 03.07.2008 Inhalt 1. Motivation 2. Einleitung 3. Repräsentationsarten und Eigenschaften 4. Beispiel 5. Zusammenfassung Folie 2 Als Repräsentation bezeichnet man die Kodierung
MehrSynthese durch Rechner-Optimierung
4.2.4. Synthese durch Rechner-Optimierung Möglichkeiten zum Finden passender Reglerparameter: 1. Theoretische Synthese (Herleitung der optimalen Werte) 2. Einstellregeln Messungen an der Strecke (z. B.
MehrGenetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008
Genetische Algorithmen Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 8. Juli 2008 Inhalt Einführung Algorithmus Erweiterungen alternative Evolutions- und Lernmodelle Inhalt 1 Einführung
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
MehrComputational Intelligence
/ 4 Computational Intelligence Wintersemester 007/008 4. Genetische Algorithmen Stefan Berlik Fachgruppe Praktische Informatik FB, Elektrotechnik und Informatik Universität Siegen 5. November 007 Gliederung
MehrTeil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006
Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden
MehrGenetische Algorithmen
Projekt für Algorithmische Anwendungen Genetische Algorithmen Von Mike Müller 11037091 Dennis Freese 11038517 Gruppe: B-ROT 1 Inhaltsverzeichnis Allgemeines...3 Geschichtliche Entwicklung der genetischen
Mehr4 Genetische Algorithmen
WS1993/94 AuD II 113 4 Genetische Algorithmen Gegeben: Problem P Menge potentieller Lösungen S= {L 1,,L s } (auch Suchraum) Zielfunktion z : S [0,1] IR (manchmal auch z : S IR ) Gesucht: z(l) > z(l') L
Mehrb) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten?
Übungsblatt LV Künstliche Intelligenz, Evolutionäre Algorithmen (1), 2015 Aufgabe 1. Evolution a) Finden Sie zwei Evolutionsbeispiele auÿerhalb der Biologie. Identizieren Sie jeweils Genotyp, Phänotyp,
MehrSynthese Eingebetteter Systeme. Übung 6
12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe
MehrSeminararbeit zum Thema Genetische Algorithmen
Seminararbeit zum Thema Genetische Algorithmen Seminar in Intelligent Management Models in Transportation und Logistics am Institut für Informatik-Systeme Lehrstuhl Verkehrsinformatik Univ.-Prof. Dr.-Ing.
Mehr7 Zufallszahlen, Simulation
7 Zufallszahlen, Simulation Es ist nützlich, Folgen von i.i.d. R[0, 1]-verteilten Zufallszahlen auf einem Rechner erzeugen zu können vgl. Simulation, Monte-Carlo-Verfahren). Letztere sind i.a. keine echten
MehrGenetische Algorithmen von der Evolution lernen
Genetische Algorithmen von der Evolution lernen (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Nils J. Nilsson Artificial Intelligence Morgan Kaufmann, 1998 Ansatz Bisher: Problemlösung
Mehr1. Inhaltsverzeichnis
1. Inhaltsverzeichnis Inhaltsverzeichnis 1. Einleitung 1.1. Darwins Evolutionstheorie 1.2. Darwins Evolutionstheorie als Inspiration für Evolutionäre Algorithmen 1.3. Die Unterschiede der verschiedenen
MehrInnere-Punkt-Methoden
Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction
MehrProzedurales Programmieren und Problemlösungsstrategien
Prozedurales Programmieren und Problemlösungsstrategien Bachelorstudiengänge Umwelttechnik und Maschinenbau Prof. Dr. Thomas Hoch Problemlösungsstrategien Prozedurales Programmieren und Problemlösungsstrategien
MehrOptimierung und Entwurf mit Evolutionären Algorithmen
Fakultät Informatik, Institut für Angewandte Informatik, Lehrstuhl für Technische Informationssysteme Optimierung und Entwurf mit Evolutionären Algorithmen Dresden, 01.02.2007 Gliederung natürliche Evolution
MehrGenetische Programmierung
Bernd Ebersberger Genetische Programmierung Ein Instrument zur empirischen Fundierung ökonomischer Modelle A 234920 Deutscher Universitäts-Verlag Inhaltsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis
Mehr15 Grundlagen der Simulation
15 Grundlagen der Simulation 15.1 Einführung Komplexe Problemstellungen, die einer analytischen Behandlung nur sehr schwer oder gar nicht zugänglich sind Lösung von diskreten (oder analytischen) Optimierungsaufgaben,
MehrEvolutionsstrategien
Evolutionsstrategien zum Seminar Evolutionäre Algorithmen von Jana Schäfer INHALTVERZEICHNIS 1. Einführung... 3 2. Die Geschichte der Evolutionsstrategien...4 3. Grundlegendes... 6 3.1 Begriffe... 6 3.2
MehrSeminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen
Fachhochschule Wedel - SS 2006 Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen Marco Lehmann (wi5909) m@rco-l.de 3. Juli 2006 Gliederung 1.
MehrAlgorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik
Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik Dozent: Prof. Dr. Henning Meyerhenke Paralleles Rechnen, Fakultät für Informatik 1 KIT Universität des Landes
MehrFinanzmarktprognose mit neuronalen Netzen
Reihe: Quantitative Ökonomie Band 131 Herausgegeben von Prof. Dr. Eckart Bomsdorf, Köln, Prof. Dr. Wim Kösters, Bochum, und Prof. Dr. Winfried Matthes, Wuppertal Dr. Christoph A. Hövel Finanzmarktprognose
MehrComputational Intelligence 1 / 28. Computational Intelligence Evolutionsstrategien 3 / 28
1 / 28 Gliederung 1 Evolutionsstrategien Selektion Rekombination Mutation Ablauf 2 Genetische Programmierung Repräsentation Genetische Operatoren Ablauf Überblick Evolutionsstrategien 3 / 28 Repräsentation
MehrProseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien
Proseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien Michael Stahl 4. Juni 2002 Inhaltsverzeichnis 1 Überblick 2 2 Generischer ES-Algorithmus 2 2.1 Initialisierung....................................
MehrAnwendungen der Differentialrechnung
KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle
MehrRechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse
Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse Karlsruher Institut für Technologie Ulrich Husemann Institut für Experimentelle Kernphysik, Karlsruher Institut für Technologie
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrExkurs Modelle und Algorithmen
Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen
MehrGenetische Algorithmen
Genetische Algorithmen In dieser Ausarbeitung gemäss Aufgabenstellung auf der Kurshomepage des Moduls Knowledge- Based Systems wird die Funktionsweise und Nutzung von genetischen Algorithmen erläutert.
MehrDie Maximum-Likelihood-Methode
Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft
MehrGenetische Algorithmen
Genetische Algorithmen Projektgruppe 431 Metaheuristiken Bianca Selzam Inhaltsverzeichnis 1 Einleitung......................................................... 1 2 Grundlagen aus der Biologie.......................................
MehrInformatik-Sommercamp 2012. Mastermind mit dem Android SDK
Mastermind mit dem Android SDK Übersicht Einführungen Mastermind und Strategien (Stefan) Eclipse und das ADT Plugin (Jan) GUI-Programmierung (Dominik) Mastermind und Strategien - Übersicht Mastermind Spielregeln
MehrEvolutionäre Robotik
Evolutionäre Robotik Evolutionäre Robotik Evolutionäre Robotik Lernen / Adaption erfolgt auf (mindestens 3 Ebenen) Evolutionäre Robotik Lernen / Adaption erfolgt auf (mindestens 3 Ebenen) 1. Adaption Evolutionäre
MehrAllgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken
FernUniversität in Hagen Lehrstuhl für Betriebswirtschaftslehre, insb. Operations Research Prof. Dr. Wilhelm Rödder Allgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken Sandra Rudolph,
Mehr8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick
Grundlagen der Künstlichen Intelligenz 5. April 0 8. Suchalgorithmen: Lokale Suche Grundlagen der Künstlichen Intelligenz 8. Suchalgorithmen: Lokale Suche 8.1 Einleitung Malte Helmert Universität Basel
MehrSurvival of the Fittest Optimierung mittels Genetischer Algorithmen
Übung zu Organic Computing Survival of the Fittest Optimierung mittels Genetischer Algorithmen Sabine Helwig Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Universität Erlangen-Nürnberg sabine.helwig@informatik.uni-erlangen.de
Mehr1. Evolutionsstrategien. 2. Genetische Algorithmen. Evolutionsstrategie / Genetischer Algorithmus. Dr. Markus Olhofer markus.olhofer(at)honda-ri.
Evolutionsstrategie / Genetischer Algorithmus 1. Evolutionsstrategien 200 150 100 (kontinuierliche Parameter) 50 0 10 2. Genetische Algorithmen 5 0-5 -10-10 -5 0 5 10 (diskrete Parameter in kombinatorischen
MehrGenetische Programmierung
15. Juli 2007 Anfang der 90er von John R. Koza entwickelt. Verfahren zur automatisierten Erstellung von Programmen. Von der Evolution inspiriert. Anforderungen an die Möglichst korrekte Lösung ergeben
MehrBayesianische Netzwerke - Lernen und Inferenz
Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel
Mehr18.4 Das Newton-Verfahren
18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift
Mehr4. Eine Einführung in Konzept und Arbeitsweise genetischer Algorithmen
4. Eine Einführung in Konzept und Arbeitsweise genetischer Algorithmen 4.1 Evolution und Genetik Lernprozeß Evolution Die Natur hat es geschafft, aus Milliarden denkbarer Eiweißmoleküle gerade diejenigen
MehrDas Gradientenverfahren
Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1
MehrFehler- und Ausgleichsrechnung
Fehler- und Ausgleichsrechnung Daniel Gerth Daniel Gerth (JKU) Fehler- und Ausgleichsrechnung 1 / 12 Überblick Fehler- und Ausgleichsrechnung Dieses Kapitel erklärt: Wie man Ausgleichsrechnung betreibt
MehrStatistik - Fehlerrechnung - Auswertung von Messungen
Statistik - Fehlerrechnung - Auswertung von Messungen TEIL II Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Eindimensionaler Fall: Parameterbestimmung - Beispiele [Übung] Mehrdimensionaler
Mehr5 Interpolation und Approximation
5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)
MehrLokale Suche. 31. Januar / 28
Lokale Suche 31. Januar 2018 1 / 28 Lokale Suche Wir betrachten das allgemeine Minimierungsproblem min y f (x, y) so dass L(x, y). Wir nehmen an, dass zu jeder Lösung y auch eine Nachbarschaft N (y) benachbarter
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
Mehrf f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.
Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales
MehrTheoretische Analyse evolutionärer Algorithmen unter dem Aspekt der Optimierung in diskreten Suchräumen. Thomas Jansen
Theoretische Analyse evolutionärer Algorithmen unter dem Aspekt der Optimierung in diskreten Suchräumen Thomas Jansen Fachbereich Informatik, Lehrstuhl 2 Universität Dortmund http://ls2-www.cs.uni-dortmund.de/
MehrSFB. Entwurf von Parallelrobotern. Entwurf von Parallelrobotern. Gliederung. M. Krefft J. Hesselbach. Fertigungsmaschinen Übersicht
Gliederung Fertigungsmaschinen Übersicht Anforderungen Bestimmung von Kennwerten Kinematik Dynamik Parametrierung der Kinematiken Normierung der Jacobi-Matrix Optimierungsverfahren Normierung der Jacobi-Matrix
Mehrv R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i
MOP: Pareto-Gradientenabstiegsverfahren Annahme: Zielfunktion differenzierbar Wintersemester 2007/08 Praktische Optimierung (Vorlesung) d = 1: (monokriteriell) v R n ist Abstiegsrichtung in x R n wenn
MehrStochastik Praktikum Markov Chain Monte Carlo Methoden
Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrOptimierung. Vorlesung 12
Optimierung Vorlesung 12 Letze Woche Approximieren von ILP durch randomisiertes Runden. Beispiel Set Cove Relaxiertes LP lösen und runden. Probleme: 1. Zielfunktionswert 2. Zulässigkeit 1. Linearität des
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
MehrHeuristiken zur Optimierung. Lehrstuhl Informatik I Algorithmen & Komplexität RWTH Aachen
Heuristiken zur Optimierung Lehrstuhl Informatik I Algorithmen & Komplexität RWTH Aachen 11. Mai 2005 Kapitel 1 Branch-and-Bound Algorithmen Branch-and-Bound Algorithmen sind heuristische Optimierungsverfahren,
MehrAnalyse. Optimierung. Faktoren und irrelevante Inputs. Kontrollierbare und nicht kontrollierbare
Optimierung Zielsetzungen: Systematische Sichtweise Verschiedene Strategien Werkzeuge, aber keine Rezepte Analyse Im ersten Schritt der Analyse eines Problems müssen möglichst alle Inputs und Outputs gefunden
MehrMonte-Carlo-Methode. mit Pseudo- und Quasizufallszahlen
Gott würfelt nicht Monte-Carlo-Methode mit Pseudo- und Quasizufallszahlen Inhaltsverzeichnis Pseudo- und Quasizufallszahlen Monte-Carlo- Monte-Carlo- Monte-Carlo-Methode Bekannt nach Stadt Monte Carlo
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Freie Nichtlineare Optimierung Orakel, lineares/quadratisches Modell Optimalitätsbedingungen Das Newton-Verfahren Line-Search-Verfahren Inhaltsübersicht für heute: Freie Nichtlineare
MehrGliederung. Genetische Algorithmen (GA) Einfuehrung II. Einfuehrung I
Genetische (GA) Gliederung 2.1. Grundbegriffe. Anwendungsgebiete GA Jens Mueller 15.12.200 Folie 1 Jens Mueller 15.12.200 Folie 2 Einfuehrung I Einfuehrung II Einordnung: Soft Computing Soft Computing
MehrKapitel 4: Nichtlineare Nullstellenprobleme
Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 4: Nichtlineare Nullstellenprobleme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 2015 HM: Numerik (SS
MehrGenetische Algorithmen (GA) Jens Mueller Folie 1
Genetische Algorithmen (GA) Jens Mueller 15.12.2004 Folie 1 Gliederung 1. Einfuehrung 2. Grundlagen Genetischer Algorithmen 2.1. Grundbegriffe 2.2. Elemente eines GAs 3. Bsp.: Magisches Quadrat 4. Anwendungsgebiete
MehrGenetische Algorithmen
Technische Universität Dortmund Fakultät für Mathematik Lehrstuhl III: Angewandte Mathematik und Numerik Genetische Algorithmen Wirtschaftsmathematisches Projekt zur Numerik im WS 2013/14 Qendresa Mehmeti,
MehrDynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
MehrEinsatz Evolutionärer Algorithmen zur Optimierung der Tourenplanung eines Wachschutzunternehmens
Fachhochschule Brandenburg Fachbereich Informatik und Medien Kolloquium zur Diplomarbeit Einsatz Evolutionärer Algorithmen zur Optimierung der Tourenplanung eines Wachschutzunternehmens Übersicht Darstellung
MehrLinsenberechnung mit Evolutionsstrategien
Linsenberechnung mit Evolutionsstrategien Ralf Gruber und Rainer Müller Lehrstuhl für Didaktik der Physik, Universität München Schellingstr. 4, 80799 München E-mail: rainer.mueller@physik.uni-muenchen.de
Mehr1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3
Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................
MehrKünstliche Intelligenz
Künstliche Intelligenz Vorlesung 9 und 10: Evolutionäre Standardalgorithmen 1/69 LERNZIELE Die gängigen Standardalgorithmen, aus der Anfangszeit bis heute, werden vorgestellt. Die bekannten Standardalgorithmen
Mehr40 Lokale Extrema und Taylor-Formel
198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:
Mehr3 Numerische Behandlung der Tschebyscheff-Approximation
Approximationstheorie 81 3 Numerische Behandlung der Tschebyscheff-Approximation Die Bestapproximation bezüglich einer Funktion f C(K) aus einem Haarschen Unterraum V C(K) läßt sich i.a. nicht in geschlossener
MehrBildverarbeitung: Filterung. D. Schlesinger () Bildverarbeitung: Filterung 1 / 17
Bildverarbeitung: Filterung D. Schlesinger () Bildverarbeitung: Filterung 1 / 17 Allgemeines Klassische Anwendung: Entrauschung (Fast) jeder Filter basiert auf einem Modell (Annahme): Signal + Rauschen
MehrUniversität Bayreuth Rechts- und Wirtschaftswissenschaftliche. Prof. Dr. A. Heinzl
Universität Bayreuth Rechts- und Wirtschaftswissenschaftliche Fakultät Prof. Dr. A. Heinzl Seminararbeit zur Speziellen Betriebswirtschaftslehre Wirtschaftsinformatik Thema: Ansätze zur Entwicklung von
MehrKlasse WI06b MLAN2 zweite-klausur 13. Juni 2007
Klasse WI6b MLAN zweite-klausur 3. Juni 7 Name: Aufgabe Gegeben sind die beiden harmonischen Schwingungen ( y = f (t) = +3 sin ωt + π ) (), ( 4 y = f (t) = 8 cos ωt + π ) (). 4 a) Bestimmen Sie mit Hilfe
MehrStructurally Evolved Neural Networks for Forecasting
Structurally Evolved Neural Networks for Forecasting - Strukturierte neuronale Netze für Vorhersagen Institut für Informatik - Ausgewählte Kapitel aus dem Bereich Softcomputing Agenda Grundlagen Neuronale
Mehr1 Einleitung Optimierung in Technik-, Natur- und Wirtschaftswissenschaften Optimierung mit dem Computer
1 Einleitung...1 1.1 Optimierung in Technik-, Natur- und Wirtschaftswissenschaften... 4 1.2 Optimierung mit dem Computer... 5 1.2.1 Anwendung von Computeralgebrasystemen... 6 1.2.2 Anwendung von EXCEL...
MehrComputer Science Department - High Performance and Web Computing Group. Optimierungsprobleme
Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter
MehrMethoden der Statistik Markov Chain Monte Carlo Methoden
Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrKurvenanpassung mit dem SOLVER
1 Iterative Verfahren (SOLVER) Bei einem iterativen Verfahren wird eine Lösung durch schrittweise Annäherung gefunden. Der Vorteil liegt in der Verwendung einfacher Rechenoperationen und darin, dass der
MehrKombinatorische Optimierung
Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales
MehrDifferenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie
Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Def.: eine Funktion n f :D mit D,x (x,...x
Mehr