Genetische Algorithmen

Größe: px
Ab Seite anzeigen:

Download "Genetische Algorithmen"

Transkript

1 Genetische Algorithmen Prof. Dr. Ottmar Beucher Dezember 2001

2 Genetische Algorithmen 1 Optimierungsaufgaben Ein einfaches Beispiel Prinzipielle Formulierung Lösungsansätze Genetische Algorithmen Anwendungen Zusammenfassung Inhalt

3 Genetische Algorithmen 1 Optimierungsaufgaben Lösungsansätze Hill-Climbing Verfahren Monte-Carlo-Verfahren Evolutionsstrategie Genetische Algorithmen Anwendungen Zusammenfassung Inhalt

4 Genetische Algorithmen 1 Optimierungsaufgaben Lösungsansätze Genetische Algorithmen Inhalt Mechanismen der natürlichen Evolution Der Genetische Code Mathematische Formalisierung Der Fundamentalsatz für Genetische Algorithmen Anwendungen Zusammenfassung

5 Genetische Algorithmen 1 Optimierungsaufgaben Lösungsansätze Genetische Algorithmen Anwendungen Inhalt Standortoptimierung bei Funksendern Statistische Modellierung von Last/Drehzahl-Daten Zusammenfassung

6 Genetische Algorithmen 1 Inhalt Optimierungsaufgaben Lösungsansätze Genetische Algorithmen Anwendungen Zusammenfassung

7 Genetische Algorithmen 2 Optimierungsaufgaben - Ein einfaches Beispiel Regressionsgerade: Finde die Gerade, die am besten zu den gemessenen Daten passt!

8 Genetische Algorithmen 2 Optimierungsaufgaben - Ein einfaches Beispiel Regressionsgerade: Finde die Gerade, die am besten zu den gemessenen Daten passt!

9 Genetische Algorithmen 2 Optimierungsaufgaben - Ein einfaches Beispiel Am besten heißt: Abstände der Messwerte sind optimal(=minimal) zur Geraden.

10 Genetische Algorithmen 2 Optimierungsaufgaben - Ein einfaches Beispiel Finde Parameter a, b, so dass der Abstand a x + b Messwerte optimal wird.

11 Genetische Algorithmen 3 Optimierungsaufgaben - Ein einfaches Beispiel Gegeben N Paare von Messwerten: (x 1, y 1 ), (x 2, y 2 ), (x 3, y 3 ),, (x N, y N ) Bekannt: linearer Zusammenhang f a,b (x) = a x + b Fehlermaß: (â, ˆb) = N (y k f a,b (x k )) 2 k=1 Gesucht Parameter â, ˆb mit: (â, ˆb) = min (a, b) a,b R

12 Genetische Algorithmen 4 Optimierungsaufgaben - Prinzipielle Formulierung F : U R n R Zielfunktion Gesucht x 0 U mit F ( x 0 ) = max x U F ( x) Maximum (Optimum) gegebenenfalls mit den Nebenbedingungen G( x 0 ) = 0 (G( x 0 ) 0)

13 Genetische Algorithmen 5 Prinzip: Lösungsansatz - Hill-Climbing Iteration in Richtung stärkster Steigung Nutze Information über grad F (analytisch, numerisch) Vorteile: Nutzt Informationen über Zielfunktion F Schneller Algorithmus Konvergenzanalyse (Iterationsdauer, Fehlerabschätzung) oft möglich Nachteile: Konvergenz zu lokalen Optima Nicht universell verwendbar

14 Genetische Algorithmen 6 Prinzip: Lösungsansatz - Monte-Carlo Sucht Zielfunktion unsystematisch ab Suchpunkte mit Zufallsgenerator erzeugt Vorteile: Universell verwendbar Benötigt keinerlei Zusatzinformationen über Zielfunktion F Suboptimale Lösungen können verlassen werden Nachteile: Sehr rechenaufwändig Keine Konvergenztheorie, keine Konvergenzsicherheit Keine Fehlerabschätzungen, keine à-priori-abschätzungen

15 Genetische Algorithmen 7 Prinzip: Lösungsansatz - Evolutionsstrategie Optimierung den Mechanismen der Evolution nachgebildet Suchpunkte mit stochastischen (genetischen) Operatoren erzeugt Vorteile: Nutzt Informationen über Zielfunktion F und stochastische Suche Universell verwendbar Mittlerer Rechenaufwand (vgl. mit Monte-Carlo-Methoden) Anwendung auf zeitvariate Zielfunktionen möglich Nachteile: Wenig Konvergenztheorie, keine absolute Konvergenzsicherheit wenig à-priori-abschätzungen, unklare Parameterwahl

16 Genetische Algorithmen 8 Mechanismen der natürlichen Evolution Eine Population von Individuen mit unterschiedlichen Merkmalen...

17 Genetische Algorithmen 8 Mechanismen der natürlichen Evolution... wird durch Umwelteinflüsse einem Selektionsdruck ausgesetzt.

18 Genetische Algorithmen 8 Mechanismen der natürlichen Evolution Fitte Individuen verbreiten (mehrfach) ihre Erbanlagen durch Kreuzung.

19 Genetische Algorithmen 8 Mechanismen der natürlichen Evolution Einige wenige Individuen erhalten mutationsbedingt neue Eigenschaften.

20 Genetische Algorithmen 8 Mechanismen der natürlichen Evolution Die neue Population wird dem Selektionsdruck ausgesetzt.

21 Genetische Algorithmen 8 Mechanismen der natürlichen Evolution Die (i.a. besser angepasste) neue Population:

22 Genetische Algorithmen 9 Mechanismen der natürlichen Evolution Der evolutionäre Optimierungsprozess ist durch drei zufallsbehaftete Basismechanismen gekennzeichnet: Selektion Kreuzung Mutation Diese Basismechanismen werden in der mathematischen Formalisierung des Evolutionsprozesses zu Genetischen Algorithmen zu stochastischen Operatoren.

23 Genetische Algorithmen 10 Der Genetische Code Gene Triplets 4-Basen-Alphabet

24 Genetische Algorithmen 11 Mathematische Formalisierung - Codierung Chromosom Gene U C A G Vereinfachung Vereinfachung Triplets Vereinfachung Binäre Strings Gene:{0, 1} Binäres Alphabet

25 Genetische Algorithmen 12 Mathematische Formalisierung - Optimierungsaufgabe Zielfunktion muss auf Binärstrings formuliert werden (Codierung), und wird interpretiert als Fitness der Binärstrings ( Individuen ) F : U {0, 1} n R Fitnessfunktion Gesucht x 0 U mit F ( x 0 ) = max x U F ( x) (maximale Fitness ) gegebenenfalls mit den Nebenbedingungen.

26 Genetische Algorithmen 13 Mathematische Formalisierung - Selektion Stochastischer Operator (z.b. Roulette-Rad) Population Mating-Pool Fitnessproportionale Selektion

27 Genetische Algorithmen 14 Mathematische Formalisierung - Kreuzung (Crossover) Mating-Pool Stochastischer Operator Kreuzung (mit Wahrscheinlichkeit p c ) Population nach Kreuzung

28 Genetische Algorithmen 15 Mathematische Formalisierung - Mutation Stochastischer Operator Mutation (mit i.a. kleiner Wahrscheinlichkeit)

29 Genetische Algorithmen 16 Fundamentalsatz - Der Begriff des Schemas Schema als Hyperfläche (-würfel) in [0, 1] n : Beispiel: Schemata:

30 Genetische Algorithmen 17 Fundamentalsatz - Schema-Transfer bei Selektion p j = f j N i=1 f i = f j N f p(h) = j H = 1 f 1 N p j = j H j H f j f j N f M M H = N p(h) = 1 f j H f j

31 Genetische Algorithmen 18 Schema-Transfer bei Selektion M M H = M H 1 f 1 M H j H f j = M H fh f Übergang in den Mating-Pool für die n-te Generation: M M H (n + 1) = M H(n) fh f ( [fh ] ) k Fazit: (anfangs) exponentieller Selektionsdruck überdurchschnittliche Schemata. f für

32 Genetische Algorithmen 19 Fundamentalsatz - Schema-Transfer bei Kreuzung Beispiel: oder auch: Schemata können zerstört werden, Kurze Schemata (δ(h) klein) haben bessere Überlebenschance, Schema-Individuen können neu entstehen.

33 Genetische Algorithmen 20 Fundamentalsatz - Schema-Transfer bei Mutation Beispiel Schemata können (mit Mutationswahrscheinlichkeit) zerstört werden, Schemata mit wenig Bit (o(h) klein) haben bessere Überlebenschance, Schema-Individuen können neu entstehen.

34 Genetische Algorithmen 21 Fundamentalsatz - Das Schema-Theorem Satz: Ist H ein Schema mit der definierenden Länge δ(h) und mit der Ordnung o(h) in einem binär codierten (klassischen) Genetischen Algorithmus mit Kreuzungs-Wahrscheinlichkeit p c und Mutations- Wahrscheinlichkeit p m. Sei weiter P H (n) der relative Anteil der zum Schema H gehörenden Individuen in einer Population zum Iterationszeitpunkt n. Dann gilt: P H (n + 1) P H (n) f H(n) f(n) ( 1 p c δ(h) ) N 1 o(h)p m

35 Genetische Algorithmen 22 Fundamentalsatz - Beispiel

36 Genetische Algorithmen 22 Fundamentalsatz - Beispiel

37 Genetische Algorithmen 23 Anwendungen - Standortoptimierung Problem: Sehr sehr viele lokale Optima Riesige Datenmenge (1-10 Mio Gitterpunkte) Sehr aufwendige Zielfunktionsberechnung Geringe Antwortzeiten gefordert Fazit: Ausleuchtung eines Geländes Kein gradientenbasiertes Verfahren (lokale Optima) Kein Monte-Carlo-Verfahren (Aufwand) Lösung: Genetischer Algorithmus ( Tsd Gitterpunkte) Hybridverfahren (GA plus Hill-Climbing)

38 Genetische Algorithmen 23 Anwendungen - Standortoptimierung Problem: Sehr sehr viele lokale Optima Riesige Datenmenge (1-10 Mio Gitterpunkte) Sehr aufwendige Zielfunktionsberechnung Geringe Antwortzeiten gefordert Fazit: Optimale Ausleuchtung eines Geländes Kein gradientenbasiertes Verfahren (lokale Optima) Kein Monte-Carlo-Verfahren (Aufwand) Lösung: Genetischer Algorithmus ( Tsd Gitterpunkte) Hybridverfahren (GA plus Hill-Climbing)

39 Genetische Algorithmen 23 Anwendungen - Standortoptimierung Problem: Sehr sehr viele lokale Optima Riesige Datenmenge (1-10 Mio Gitterpunkte) Sehr aufwendige Zielfunktionsberechnung Geringe Antwortzeiten gefordert Fazit: Ausleuchtungsfunktion (Zielfunktion) Kein gradientenbasiertes Verfahren (lokale Optima) Kein Monte-Carlo-Verfahren (Aufwand) Lösung: Genetischer Algorithmus ( Tsd Gitterpunkte) Hybridverfahren (GA plus Hill-Climbing)

40 Genetische Algorithmen 24 Anwendungen - Statistische Modellierung Drehzahl/Last-Messdaten (Landstraße) Aufgabe: Entwurf einer 2-dimensionalen parametrischen Verteilung Problem: Optimierung (Anpassung) von 12 Modellparametern Abschnittsweise Definition Lösung: Genetischer Algorithmus f(x, y) = f y (x) f(y x), f y (x) = e (Φ a(x)+φm(x)+φe(x)) x [0, 100]% Φ a (x) = χ [0,x a) (x) (α 1 µ 1 x), Φ e (x) = χ [x e,100] (x) (α 2 + µ 2 (x 100)) Φ m (x) = χ [x a,xe] (x) (δ + u(x m x)λ 1 (x x m ) + u(x x m )λ 2 (x m x))

41 Genetische Algorithmen 25 Zusammenfassung Genetische Algorithmen - neues Prinzip der Optimierung nach dem Vorbild der Natur Vorteile Universelle Einsetzbarkeit Einsetzbarkeit für große Probleme Einsetzbarkeit für zeitvariate Umgebungen Nachteile wenige theoretische Grundlagen keine gesicherte Konvergenz zum globalen Optimum Unklare Parameterwahl

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Ottmar Beucher, Fachhochschule Karlsruhe 7. Dezember 2001 1 Guten Tag, meine Damen und Herren! Ich begrüße Sie recht herzlich zu meinem Vortrag über Genetische Algorithmen. Hierbei

Mehr

Willkürlich legen wir fest: Akzeptanz schlechterer Werte am Anfang der Iteration: , Akzeptanz schlechterer Werte am Ende der Iteration: 0:05.

Willkürlich legen wir fest: Akzeptanz schlechterer Werte am Anfang der Iteration: , Akzeptanz schlechterer Werte am Ende der Iteration: 0:05. 126 Kapitel 4: Non-Standard-Optimierung Willkürlich legen wir fest: Akzeptanz schlechterer Werte am Anfang der Iteration: 1 10 3, Akzeptanz schlechterer Werte am Ende der Iteration: 0:05. Daraus errechnet

Mehr

10. Vorlesung Stochastische Optimierung

10. Vorlesung Stochastische Optimierung Soft Control (AT 3, RMA) 10. Vorlesung Stochastische Optimierung Genetische Algorithmen 10. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"

Mehr

Genetische und Evolutionäre Algorithmen (Vol. 1)

Genetische und Evolutionäre Algorithmen (Vol. 1) Vortrag über Genetische und Evolutionäre Algorithmen (Vol. ) von Adam El Sayed Auf und Kai Lienemann Gliederung: ) Einführung 2) Grundkonzept 3) Genaue Beschreibung des Genetischen Algorithmus Lösungsrepräsentation

Mehr

InformatiCup 2009 EvolutionConsole

InformatiCup 2009 EvolutionConsole InformatiCup 2009 EvolutionConsole Wilhelm Büchner Hochschule 19. März 2010 1 1. Das Team Teammitglieder Ralf Defrancesco KION Information Services GmbH Systemadministrator Daniel Herken Scooter Attack

Mehr

Warum konvergieren Genetische Algorithmen gegen ein Optimum?

Warum konvergieren Genetische Algorithmen gegen ein Optimum? 1 / 21 Gliederung 1 Das Schematheorem Motivation Begriffe Herleitung Ergebnis Das Schematheorem Das Schematheorem Motivation 3 / 21 Warum konvergieren Genetische Algorithmen gegen ein Optimum? Theoretische

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Shawn Keen Zusammenfassung Eine weitere Herangehensweise an das maschinelle Lernen ist die Nachahmung evolutionärer Prozesse. Hier wollen wir uns mit den sogenannten Genetischen

Mehr

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Evolutionäre Algorithmen: Überlebenskampf und Evolutionäre Strategien Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überblick Einleitung Adaptive Filter Künstliche

Mehr

Optimale Produktliniengestaltung mit Genetischen Algorithmen

Optimale Produktliniengestaltung mit Genetischen Algorithmen Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen

Mehr

Genetische Algorithmen

Genetische Algorithmen Michael Gerhäuser Universität Bayreuth 28.06.2008 1 Motivierende Beispiele 2 Grundbegriffe der biologischen Evolution 3 Formalisierung der Grundbegriffe 4 Modellierung mit Markov-Ketten 5 Konvergenzanalyse

Mehr

Populationsbasierte Suche. Evolutionäre Algorithmen (1)

Populationsbasierte Suche. Evolutionäre Algorithmen (1) Populationsbasierte Suche Bisherige Meta-Heuristiken: Simulated Annealing Tabu Search Ausgehend von einer Lösung wird gesucht Populationsbasierte Heuristiken Suche erfolgt ausgehend von mehreren Lösungen

Mehr

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen Einführung in die Methoden der Künstlichen Intelligenz Evolutionäre Algorithmen Dr. David Sabel WS 2012/13 Stand der Folien: 12. November 2012 Evolutionäre / Genetische Algorithmen Anwendungsbereich: Optimierung

Mehr

Proseminar Genetische und Evolutionäre Algorithmen

Proseminar Genetische und Evolutionäre Algorithmen Proseminar Genetische und Evolutionäre Algorithmen Genetische Algorithmen Erweiterungen und Analyse Seite 1/11 Inhaltsverzeichnis 1. Erweiterungen zu den Genetischen Algorithmen 1.1. Der steady-state-ga

Mehr

Evolution und Algorithmen

Evolution und Algorithmen Kapitel 6 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics

Mehr

Anwendung genetischer Algorithmen zur Lösung des n Dame Problems und zur Optimierung von Autoprofilen

Anwendung genetischer Algorithmen zur Lösung des n Dame Problems und zur Optimierung von Autoprofilen Anwendung genetischer Algorithmen zur Lösung des n Dame Problems und zur Optimierung von Autoprofilen Jana Müller Seminar Das Virtuelle Labor Otto von Guericke Universität Magdeburg Gliederung 1. Motivation

Mehr

Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen

Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Optimierungsprobleme

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Von Valentina Hoppe und Jan Rörden Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Gliederung Biologische Evolution Genetischer Algorithmus Definition theoretischer

Mehr

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Evolutionäre Algorithmen Teil II Evolutionsfenster durch Mutation und sexuelle Rekombination Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Evolutionäre Algorithmen

Mehr

Evolutionäre Algorithmen

Evolutionäre Algorithmen Karsten Weicker Evolutionäre Algorithmen 2., überarbeitete und erweiterte Auflage m Teubner Inhaltsverzeichnis 1 Natürliche Evolution 1 1.1 Entwicklung der evolutionären Mechanismen 2 1.2 Evolutionsfaktoren

Mehr

Hauptseminar Repräsentationen für Optimierungsalgorithmen

Hauptseminar Repräsentationen für Optimierungsalgorithmen Stefan Bens Hauptseminar Dresden, 03.07.2008 Inhalt 1. Motivation 2. Einleitung 3. Repräsentationsarten und Eigenschaften 4. Beispiel 5. Zusammenfassung Folie 2 Als Repräsentation bezeichnet man die Kodierung

Mehr

Synthese durch Rechner-Optimierung

Synthese durch Rechner-Optimierung 4.2.4. Synthese durch Rechner-Optimierung Möglichkeiten zum Finden passender Reglerparameter: 1. Theoretische Synthese (Herleitung der optimalen Werte) 2. Einstellregeln Messungen an der Strecke (z. B.

Mehr

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008 Genetische Algorithmen Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 8. Juli 2008 Inhalt Einführung Algorithmus Erweiterungen alternative Evolutions- und Lernmodelle Inhalt 1 Einführung

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Computational Intelligence

Computational Intelligence / 4 Computational Intelligence Wintersemester 007/008 4. Genetische Algorithmen Stefan Berlik Fachgruppe Praktische Informatik FB, Elektrotechnik und Informatik Universität Siegen 5. November 007 Gliederung

Mehr

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006 Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden

Mehr

Genetische Algorithmen

Genetische Algorithmen Projekt für Algorithmische Anwendungen Genetische Algorithmen Von Mike Müller 11037091 Dennis Freese 11038517 Gruppe: B-ROT 1 Inhaltsverzeichnis Allgemeines...3 Geschichtliche Entwicklung der genetischen

Mehr

4 Genetische Algorithmen

4 Genetische Algorithmen WS1993/94 AuD II 113 4 Genetische Algorithmen Gegeben: Problem P Menge potentieller Lösungen S= {L 1,,L s } (auch Suchraum) Zielfunktion z : S [0,1] IR (manchmal auch z : S IR ) Gesucht: z(l) > z(l') L

Mehr

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten?

b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten? Übungsblatt LV Künstliche Intelligenz, Evolutionäre Algorithmen (1), 2015 Aufgabe 1. Evolution a) Finden Sie zwei Evolutionsbeispiele auÿerhalb der Biologie. Identizieren Sie jeweils Genotyp, Phänotyp,

Mehr

Synthese Eingebetteter Systeme. Übung 6

Synthese Eingebetteter Systeme. Übung 6 12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe

Mehr

Seminararbeit zum Thema Genetische Algorithmen

Seminararbeit zum Thema Genetische Algorithmen Seminararbeit zum Thema Genetische Algorithmen Seminar in Intelligent Management Models in Transportation und Logistics am Institut für Informatik-Systeme Lehrstuhl Verkehrsinformatik Univ.-Prof. Dr.-Ing.

Mehr

7 Zufallszahlen, Simulation

7 Zufallszahlen, Simulation 7 Zufallszahlen, Simulation Es ist nützlich, Folgen von i.i.d. R[0, 1]-verteilten Zufallszahlen auf einem Rechner erzeugen zu können vgl. Simulation, Monte-Carlo-Verfahren). Letztere sind i.a. keine echten

Mehr

Genetische Algorithmen von der Evolution lernen

Genetische Algorithmen von der Evolution lernen Genetische Algorithmen von der Evolution lernen (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Nils J. Nilsson Artificial Intelligence Morgan Kaufmann, 1998 Ansatz Bisher: Problemlösung

Mehr

1. Inhaltsverzeichnis

1. Inhaltsverzeichnis 1. Inhaltsverzeichnis Inhaltsverzeichnis 1. Einleitung 1.1. Darwins Evolutionstheorie 1.2. Darwins Evolutionstheorie als Inspiration für Evolutionäre Algorithmen 1.3. Die Unterschiede der verschiedenen

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

Prozedurales Programmieren und Problemlösungsstrategien

Prozedurales Programmieren und Problemlösungsstrategien Prozedurales Programmieren und Problemlösungsstrategien Bachelorstudiengänge Umwelttechnik und Maschinenbau Prof. Dr. Thomas Hoch Problemlösungsstrategien Prozedurales Programmieren und Problemlösungsstrategien

Mehr

Optimierung und Entwurf mit Evolutionären Algorithmen

Optimierung und Entwurf mit Evolutionären Algorithmen Fakultät Informatik, Institut für Angewandte Informatik, Lehrstuhl für Technische Informationssysteme Optimierung und Entwurf mit Evolutionären Algorithmen Dresden, 01.02.2007 Gliederung natürliche Evolution

Mehr

Genetische Programmierung

Genetische Programmierung Bernd Ebersberger Genetische Programmierung Ein Instrument zur empirischen Fundierung ökonomischer Modelle A 234920 Deutscher Universitäts-Verlag Inhaltsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis

Mehr

15 Grundlagen der Simulation

15 Grundlagen der Simulation 15 Grundlagen der Simulation 15.1 Einführung Komplexe Problemstellungen, die einer analytischen Behandlung nur sehr schwer oder gar nicht zugänglich sind Lösung von diskreten (oder analytischen) Optimierungsaufgaben,

Mehr

Evolutionsstrategien

Evolutionsstrategien Evolutionsstrategien zum Seminar Evolutionäre Algorithmen von Jana Schäfer INHALTVERZEICHNIS 1. Einführung... 3 2. Die Geschichte der Evolutionsstrategien...4 3. Grundlegendes... 6 3.1 Begriffe... 6 3.2

Mehr

Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen

Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen Fachhochschule Wedel - SS 2006 Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen Marco Lehmann (wi5909) m@rco-l.de 3. Juli 2006 Gliederung 1.

Mehr

Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik

Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik Dozent: Prof. Dr. Henning Meyerhenke Paralleles Rechnen, Fakultät für Informatik 1 KIT Universität des Landes

Mehr

Finanzmarktprognose mit neuronalen Netzen

Finanzmarktprognose mit neuronalen Netzen Reihe: Quantitative Ökonomie Band 131 Herausgegeben von Prof. Dr. Eckart Bomsdorf, Köln, Prof. Dr. Wim Kösters, Bochum, und Prof. Dr. Winfried Matthes, Wuppertal Dr. Christoph A. Hövel Finanzmarktprognose

Mehr

Computational Intelligence 1 / 28. Computational Intelligence Evolutionsstrategien 3 / 28

Computational Intelligence 1 / 28. Computational Intelligence Evolutionsstrategien 3 / 28 1 / 28 Gliederung 1 Evolutionsstrategien Selektion Rekombination Mutation Ablauf 2 Genetische Programmierung Repräsentation Genetische Operatoren Ablauf Überblick Evolutionsstrategien 3 / 28 Repräsentation

Mehr

Proseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien

Proseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien Proseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien Michael Stahl 4. Juni 2002 Inhaltsverzeichnis 1 Überblick 2 2 Generischer ES-Algorithmus 2 2.1 Initialisierung....................................

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle

Mehr

Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse

Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse Karlsruher Institut für Technologie Ulrich Husemann Institut für Experimentelle Kernphysik, Karlsruher Institut für Technologie

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Exkurs Modelle und Algorithmen

Exkurs Modelle und Algorithmen Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen In dieser Ausarbeitung gemäss Aufgabenstellung auf der Kurshomepage des Moduls Knowledge- Based Systems wird die Funktionsweise und Nutzung von genetischen Algorithmen erläutert.

Mehr

Die Maximum-Likelihood-Methode

Die Maximum-Likelihood-Methode Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Projektgruppe 431 Metaheuristiken Bianca Selzam Inhaltsverzeichnis 1 Einleitung......................................................... 1 2 Grundlagen aus der Biologie.......................................

Mehr

Informatik-Sommercamp 2012. Mastermind mit dem Android SDK

Informatik-Sommercamp 2012. Mastermind mit dem Android SDK Mastermind mit dem Android SDK Übersicht Einführungen Mastermind und Strategien (Stefan) Eclipse und das ADT Plugin (Jan) GUI-Programmierung (Dominik) Mastermind und Strategien - Übersicht Mastermind Spielregeln

Mehr

Evolutionäre Robotik

Evolutionäre Robotik Evolutionäre Robotik Evolutionäre Robotik Evolutionäre Robotik Lernen / Adaption erfolgt auf (mindestens 3 Ebenen) Evolutionäre Robotik Lernen / Adaption erfolgt auf (mindestens 3 Ebenen) 1. Adaption Evolutionäre

Mehr

Allgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken

Allgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken FernUniversität in Hagen Lehrstuhl für Betriebswirtschaftslehre, insb. Operations Research Prof. Dr. Wilhelm Rödder Allgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken Sandra Rudolph,

Mehr

8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick

8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick Grundlagen der Künstlichen Intelligenz 5. April 0 8. Suchalgorithmen: Lokale Suche Grundlagen der Künstlichen Intelligenz 8. Suchalgorithmen: Lokale Suche 8.1 Einleitung Malte Helmert Universität Basel

Mehr

Survival of the Fittest Optimierung mittels Genetischer Algorithmen

Survival of the Fittest Optimierung mittels Genetischer Algorithmen Übung zu Organic Computing Survival of the Fittest Optimierung mittels Genetischer Algorithmen Sabine Helwig Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Universität Erlangen-Nürnberg sabine.helwig@informatik.uni-erlangen.de

Mehr

1. Evolutionsstrategien. 2. Genetische Algorithmen. Evolutionsstrategie / Genetischer Algorithmus. Dr. Markus Olhofer markus.olhofer(at)honda-ri.

1. Evolutionsstrategien. 2. Genetische Algorithmen. Evolutionsstrategie / Genetischer Algorithmus. Dr. Markus Olhofer markus.olhofer(at)honda-ri. Evolutionsstrategie / Genetischer Algorithmus 1. Evolutionsstrategien 200 150 100 (kontinuierliche Parameter) 50 0 10 2. Genetische Algorithmen 5 0-5 -10-10 -5 0 5 10 (diskrete Parameter in kombinatorischen

Mehr

Genetische Programmierung

Genetische Programmierung 15. Juli 2007 Anfang der 90er von John R. Koza entwickelt. Verfahren zur automatisierten Erstellung von Programmen. Von der Evolution inspiriert. Anforderungen an die Möglichst korrekte Lösung ergeben

Mehr

Bayesianische Netzwerke - Lernen und Inferenz

Bayesianische Netzwerke - Lernen und Inferenz Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel

Mehr

18.4 Das Newton-Verfahren

18.4 Das Newton-Verfahren 18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift

Mehr

4. Eine Einführung in Konzept und Arbeitsweise genetischer Algorithmen

4. Eine Einführung in Konzept und Arbeitsweise genetischer Algorithmen 4. Eine Einführung in Konzept und Arbeitsweise genetischer Algorithmen 4.1 Evolution und Genetik Lernprozeß Evolution Die Natur hat es geschafft, aus Milliarden denkbarer Eiweißmoleküle gerade diejenigen

Mehr

Das Gradientenverfahren

Das Gradientenverfahren Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1

Mehr

Fehler- und Ausgleichsrechnung

Fehler- und Ausgleichsrechnung Fehler- und Ausgleichsrechnung Daniel Gerth Daniel Gerth (JKU) Fehler- und Ausgleichsrechnung 1 / 12 Überblick Fehler- und Ausgleichsrechnung Dieses Kapitel erklärt: Wie man Ausgleichsrechnung betreibt

Mehr

Statistik - Fehlerrechnung - Auswertung von Messungen

Statistik - Fehlerrechnung - Auswertung von Messungen Statistik - Fehlerrechnung - Auswertung von Messungen TEIL II Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Eindimensionaler Fall: Parameterbestimmung - Beispiele [Übung] Mehrdimensionaler

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

Lokale Suche. 31. Januar / 28

Lokale Suche. 31. Januar / 28 Lokale Suche 31. Januar 2018 1 / 28 Lokale Suche Wir betrachten das allgemeine Minimierungsproblem min y f (x, y) so dass L(x, y). Wir nehmen an, dass zu jeder Lösung y auch eine Nachbarschaft N (y) benachbarter

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0. Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales

Mehr

Theoretische Analyse evolutionärer Algorithmen unter dem Aspekt der Optimierung in diskreten Suchräumen. Thomas Jansen

Theoretische Analyse evolutionärer Algorithmen unter dem Aspekt der Optimierung in diskreten Suchräumen. Thomas Jansen Theoretische Analyse evolutionärer Algorithmen unter dem Aspekt der Optimierung in diskreten Suchräumen Thomas Jansen Fachbereich Informatik, Lehrstuhl 2 Universität Dortmund http://ls2-www.cs.uni-dortmund.de/

Mehr

SFB. Entwurf von Parallelrobotern. Entwurf von Parallelrobotern. Gliederung. M. Krefft J. Hesselbach. Fertigungsmaschinen Übersicht

SFB. Entwurf von Parallelrobotern. Entwurf von Parallelrobotern. Gliederung. M. Krefft J. Hesselbach. Fertigungsmaschinen Übersicht Gliederung Fertigungsmaschinen Übersicht Anforderungen Bestimmung von Kennwerten Kinematik Dynamik Parametrierung der Kinematiken Normierung der Jacobi-Matrix Optimierungsverfahren Normierung der Jacobi-Matrix

Mehr

v R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i

v R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i MOP: Pareto-Gradientenabstiegsverfahren Annahme: Zielfunktion differenzierbar Wintersemester 2007/08 Praktische Optimierung (Vorlesung) d = 1: (monokriteriell) v R n ist Abstiegsrichtung in x R n wenn

Mehr

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

Optimierung. Vorlesung 12

Optimierung. Vorlesung 12 Optimierung Vorlesung 12 Letze Woche Approximieren von ILP durch randomisiertes Runden. Beispiel Set Cove Relaxiertes LP lösen und runden. Probleme: 1. Zielfunktionswert 2. Zulässigkeit 1. Linearität des

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Heuristiken zur Optimierung. Lehrstuhl Informatik I Algorithmen & Komplexität RWTH Aachen

Heuristiken zur Optimierung. Lehrstuhl Informatik I Algorithmen & Komplexität RWTH Aachen Heuristiken zur Optimierung Lehrstuhl Informatik I Algorithmen & Komplexität RWTH Aachen 11. Mai 2005 Kapitel 1 Branch-and-Bound Algorithmen Branch-and-Bound Algorithmen sind heuristische Optimierungsverfahren,

Mehr

Analyse. Optimierung. Faktoren und irrelevante Inputs. Kontrollierbare und nicht kontrollierbare

Analyse. Optimierung. Faktoren und irrelevante Inputs. Kontrollierbare und nicht kontrollierbare Optimierung Zielsetzungen: Systematische Sichtweise Verschiedene Strategien Werkzeuge, aber keine Rezepte Analyse Im ersten Schritt der Analyse eines Problems müssen möglichst alle Inputs und Outputs gefunden

Mehr

Monte-Carlo-Methode. mit Pseudo- und Quasizufallszahlen

Monte-Carlo-Methode. mit Pseudo- und Quasizufallszahlen Gott würfelt nicht Monte-Carlo-Methode mit Pseudo- und Quasizufallszahlen Inhaltsverzeichnis Pseudo- und Quasizufallszahlen Monte-Carlo- Monte-Carlo- Monte-Carlo-Methode Bekannt nach Stadt Monte Carlo

Mehr

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Freie Nichtlineare Optimierung Orakel, lineares/quadratisches Modell Optimalitätsbedingungen Das Newton-Verfahren Line-Search-Verfahren Inhaltsübersicht für heute: Freie Nichtlineare

Mehr

Gliederung. Genetische Algorithmen (GA) Einfuehrung II. Einfuehrung I

Gliederung. Genetische Algorithmen (GA) Einfuehrung II. Einfuehrung I Genetische (GA) Gliederung 2.1. Grundbegriffe. Anwendungsgebiete GA Jens Mueller 15.12.200 Folie 1 Jens Mueller 15.12.200 Folie 2 Einfuehrung I Einfuehrung II Einordnung: Soft Computing Soft Computing

Mehr

Kapitel 4: Nichtlineare Nullstellenprobleme

Kapitel 4: Nichtlineare Nullstellenprobleme Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 4: Nichtlineare Nullstellenprobleme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 2015 HM: Numerik (SS

Mehr

Genetische Algorithmen (GA) Jens Mueller Folie 1

Genetische Algorithmen (GA) Jens Mueller Folie 1 Genetische Algorithmen (GA) Jens Mueller 15.12.2004 Folie 1 Gliederung 1. Einfuehrung 2. Grundlagen Genetischer Algorithmen 2.1. Grundbegriffe 2.2. Elemente eines GAs 3. Bsp.: Magisches Quadrat 4. Anwendungsgebiete

Mehr

Genetische Algorithmen

Genetische Algorithmen Technische Universität Dortmund Fakultät für Mathematik Lehrstuhl III: Angewandte Mathematik und Numerik Genetische Algorithmen Wirtschaftsmathematisches Projekt zur Numerik im WS 2013/14 Qendresa Mehmeti,

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Einsatz Evolutionärer Algorithmen zur Optimierung der Tourenplanung eines Wachschutzunternehmens

Einsatz Evolutionärer Algorithmen zur Optimierung der Tourenplanung eines Wachschutzunternehmens Fachhochschule Brandenburg Fachbereich Informatik und Medien Kolloquium zur Diplomarbeit Einsatz Evolutionärer Algorithmen zur Optimierung der Tourenplanung eines Wachschutzunternehmens Übersicht Darstellung

Mehr

Linsenberechnung mit Evolutionsstrategien

Linsenberechnung mit Evolutionsstrategien Linsenberechnung mit Evolutionsstrategien Ralf Gruber und Rainer Müller Lehrstuhl für Didaktik der Physik, Universität München Schellingstr. 4, 80799 München E-mail: rainer.mueller@physik.uni-muenchen.de

Mehr

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3 Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................

Mehr

Künstliche Intelligenz

Künstliche Intelligenz Künstliche Intelligenz Vorlesung 9 und 10: Evolutionäre Standardalgorithmen 1/69 LERNZIELE Die gängigen Standardalgorithmen, aus der Anfangszeit bis heute, werden vorgestellt. Die bekannten Standardalgorithmen

Mehr

40 Lokale Extrema und Taylor-Formel

40 Lokale Extrema und Taylor-Formel 198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:

Mehr

3 Numerische Behandlung der Tschebyscheff-Approximation

3 Numerische Behandlung der Tschebyscheff-Approximation Approximationstheorie 81 3 Numerische Behandlung der Tschebyscheff-Approximation Die Bestapproximation bezüglich einer Funktion f C(K) aus einem Haarschen Unterraum V C(K) läßt sich i.a. nicht in geschlossener

Mehr

Bildverarbeitung: Filterung. D. Schlesinger () Bildverarbeitung: Filterung 1 / 17

Bildverarbeitung: Filterung. D. Schlesinger () Bildverarbeitung: Filterung 1 / 17 Bildverarbeitung: Filterung D. Schlesinger () Bildverarbeitung: Filterung 1 / 17 Allgemeines Klassische Anwendung: Entrauschung (Fast) jeder Filter basiert auf einem Modell (Annahme): Signal + Rauschen

Mehr

Universität Bayreuth Rechts- und Wirtschaftswissenschaftliche. Prof. Dr. A. Heinzl

Universität Bayreuth Rechts- und Wirtschaftswissenschaftliche. Prof. Dr. A. Heinzl Universität Bayreuth Rechts- und Wirtschaftswissenschaftliche Fakultät Prof. Dr. A. Heinzl Seminararbeit zur Speziellen Betriebswirtschaftslehre Wirtschaftsinformatik Thema: Ansätze zur Entwicklung von

Mehr

Klasse WI06b MLAN2 zweite-klausur 13. Juni 2007

Klasse WI06b MLAN2 zweite-klausur 13. Juni 2007 Klasse WI6b MLAN zweite-klausur 3. Juni 7 Name: Aufgabe Gegeben sind die beiden harmonischen Schwingungen ( y = f (t) = +3 sin ωt + π ) (), ( 4 y = f (t) = 8 cos ωt + π ) (). 4 a) Bestimmen Sie mit Hilfe

Mehr

Structurally Evolved Neural Networks for Forecasting

Structurally Evolved Neural Networks for Forecasting Structurally Evolved Neural Networks for Forecasting - Strukturierte neuronale Netze für Vorhersagen Institut für Informatik - Ausgewählte Kapitel aus dem Bereich Softcomputing Agenda Grundlagen Neuronale

Mehr

1 Einleitung Optimierung in Technik-, Natur- und Wirtschaftswissenschaften Optimierung mit dem Computer

1 Einleitung Optimierung in Technik-, Natur- und Wirtschaftswissenschaften Optimierung mit dem Computer 1 Einleitung...1 1.1 Optimierung in Technik-, Natur- und Wirtschaftswissenschaften... 4 1.2 Optimierung mit dem Computer... 5 1.2.1 Anwendung von Computeralgebrasystemen... 6 1.2.2 Anwendung von EXCEL...

Mehr

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter

Mehr

Methoden der Statistik Markov Chain Monte Carlo Methoden

Methoden der Statistik Markov Chain Monte Carlo Methoden Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Kurvenanpassung mit dem SOLVER

Kurvenanpassung mit dem SOLVER 1 Iterative Verfahren (SOLVER) Bei einem iterativen Verfahren wird eine Lösung durch schrittweise Annäherung gefunden. Der Vorteil liegt in der Verwendung einfacher Rechenoperationen und darin, dass der

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Def.: eine Funktion n f :D mit D,x (x,...x

Mehr