Arbeitsgruppe Algorithmische Optimale Steuerung

Größe: px
Ab Seite anzeigen:

Download "Arbeitsgruppe Algorithmische Optimale Steuerung"

Transkript

1 Arbeitsgruppe Algorithmische Optimale Steuerung Prof. Dr. Thomas Slawig Computational Science Center DFG Cluster Future Ocean Christian-Albrechts-Universität Kiel

2 Algorithmische Optimale Steuerung Das sind: Optimierungsaufgaben, bei denen ein Modell aus (meist partiellen) Differentialgleichungen gegeben ist Analyse der Optimierungsaufgaben erfordert Analyse der Modellgleichungen Existenz und Eindeutigkeit von Minima Algorithmen zur Lösung der Optimierungsprobleme erfordern (schnelle) Algorithmen zur Lösung der Modellgleichungen Erweiterung: Unsicherheitsanalysen: Vorwärtsanalyse: unsicherer Input -> unsicherer Output Rückwärtsanalyse: Parameteroptimierung auf Basis unsicherer Daten -> unsichere Parameter + Modelloutput

3 Klima als Beispiel eines komplexen Systems Komplexes, gekoppeltes System, wesentliche Komponenten: Atmosphäre Ozean (See- und Land-) Eis Vegetation Landoberfläche menschlicher Einfluss

4 Wie wird das Klima beschrieben und modelliert? Klimamodelle sind Systeme zeitabhängiger räumlich dreidimensionaler nichtlinearer partieller Differentialgleichungen analytische Lösungen ( auf dem Papier ) sind nicht möglich Lösungen müssen durch numerische Simulation approximiert werden Simulationen sind sehr zeit- und rechenintensiv

5 Wie wird das Klima beschrieben und modelliert? zeitabhängige, nichtlineare partielle Differentialgleichungen: 3-D math. Formulierung im Funktionenraum: ( ) ut div(ν u) + v u + p x v t div(ν v) + v v + p y = Ω v p z = ρg w z = u x v y S t div(ν S) + v S = 0 T t div(ν T ) + v T = 0 ρ = ρ(t, S)

6 Wozu wird Optimierung benutzt? Modelle liefern Prognosen Modelle müssen validiert werden Modelle sollen verbessert werden Unsicherheiten sollen verringert werden IPCC AR5 The Physical Science Basis Fig. 12.5: Temperature projections for different RCP scenarios, RCP: Representative Concentration Pathway (greenhouse gas emissions scenario)

7 Optimierungsproblem in der Klimaforschung Wie kann man Modelle verbessern? Vergleich: Modellergebnisse - Messdaten particulate organic nitrogen(p+z+d) model output BATS data Modelloutput hängt von Parametern ab: Minimiere Abstand Modelloutput zu Daten durch Variation der Parameter Mathematisch: Parameteroptimierungsproblem min p ky y data k y = M(p) Years (Parameter nur empirisch bekannt, geschätzt)

8 Wie läuft eine Optimierung ab? Was wissen wir über unsere Zielfunktion? Beispiel: (2 Parameter) F (p) =k M(p) {z } =y y data k!min

9 Algorithmische Optimale Steuerung Optimierungsproblem im Funktionenraum Diskretisierung Optimierungsproblem im R n Optimierung Optimierung Optimierungsalgorithmus im Funktionenraum Diskretisierung Optimierungsalgorithmus im R n

10 Bedeutung effizienter numerischer Verfahren für die Simulation Standard-Verfahren: Fixpunktiteration zur Bestimmung des periodischen Zustandes y k+1 := G(y k ),k =1, 2,... Newton-Verfahren: 0 (y k ) y = (y k ) Spin-up, y l,j=1 y l 1,j=1 2 Spin-up, y l y l 100 2,V Newton-Krylov y k+1 := y k + y, k =1, 2,... = G Id Norm [m mol P/m 3 ] Model years

11 Ausnutzen paralleler Hardware Rechnungen auf örtlichen Teilgebieten können gleichzeitig durchgeführt werden (Gebietszerlegung) Ideal Best possible Intel Sandy Bridge EP 200 AMD Barcelona Speedup factor Number of processes

12 Modellkopplung: Software Engineering Definition von Modellschnittstellen gekoppeltes Modell als Software

13 Wie läuft eine Optimierung ab? Was wissen wir über unsere Zielfunktion? Modell war schon nichtlinear und nicht analytisch lösbar Auch die Zielfunktion ist daher nichtlinear. Auch das Optimierungsproblem ist nicht analytisch lösbar, sondern nur approximativ und mit iterativen Algorithmen. Das heißt: Wir erzeugen eine Folge p k! p F (p) =k M(p) {z } =y (p k ) k2n mit dem Ziel (ein/das Minimum). y data k!min

14 Optimierung: Zwei strategische Entscheidungen 1. Entscheidung: deterministische Suche (z. B. Verwendung von Ableitungsinformationen, deterministisch: in jedem Durchlauf mit demselbem Startwert ergibt sich dieselbe Iterationsfolge) oder stochastische Suche ( Würfeln ) 2. Entscheidung: lokale (jeweils in der Umgebung eines Punktes, s.o.) oder globale Suche (im gesamten Bereich) Jede Kombination ist möglich.

15 Optimierungsstrategien: Konsequenz? Globale Suche ohne Vorwissen über die Funktion ist viel zu aufwändig. Liefert ein Algorithmus ein Ergebnis, so ist nie klar, ob es sich um ein globales oder doch nur wieder ein lokales Minimum handelt. Ohne Wissen über die Funktion ist mit deterministischer oder stochastischer globaler Suche in realistischer Zeit kein globales Minimum zu finden. Stochastische Suche ohne Speichern aller Werte ist langsamer als deterministische Suche. Daher: Lokale Suchstrategien, deterministisch und stochastisch oder hybrid (gemischt).

16 Wie funktioniert eine stochastische lokale Suche? Nachbau der Evolution (Evolutionsstrategie nach Rechenberg, TU Berlin): Population von Individuen (= Parametersätzen) Mutation der Gene (= Parameterwerte), d. h. Erzeugen von neuen Individuen mit zufällig gewählten Werten innerhalb einer Umgebung Evtl. Cross-Over: Mischung der Gene von zwei guten Individuen Auswahl der Besten ( = mit geringstem Zielfunktionswert) und so weiter Wichtig: ebenfalls Vererbung und Mutation der Mutationseigenschaften

17 Wie funktioniert eine deterministische lokale Suche? Benutze Abstiegs- oder Ableitungsinformation zur Approximation der Funktion: 1. oder 2. Ordnung Wissen über die Funktion nötig (Differenzierbarkeit) F (p) F 0 (ˆp) Ableitungsberechnung kostet auch Rechenzeit ˆp

18 Problematik lokaler Minima: Griewank - Funktion mit vielen lokalen und einem globalen Minimum

19 Optimierungsstrategien am realen Beispiel: marines Ökosystemmodell: Datenqualität? Bei erreichbaren Daten findet ein lokales deterministisches Verfahren die richtigen Parameter 10 5 Cost function 0.75 u 1, DOP remineralization rate Model evaluations Model evaluations

20 Reale Daten Latitude Modelloutput marines Ökosystemmodell (Oberfläche) Longitude Anzahl und Verteilung der verfügbaren Messdaten

Mit Daten zum besseren Modell - Digitalisierung in der Meeresforschung

Mit Daten zum besseren Modell - Digitalisierung in der Meeresforschung Mit Daten zum besseren Modell - Digitalisierung in der Meeresforschung Prof. Dr. Thomas Slawig Institut für Informatik Christian-Albrechts-Universität Kiel DFG Cluster Future Ocean Mitarbeit: Joscha Reimer,

Mehr

Optimale Steuerung chemischer Batch-Reaktoren Praktikum Nichtlineare Modellierung in den Naturwissenschaften im WS 2012/13

Optimale Steuerung chemischer Batch-Reaktoren Praktikum Nichtlineare Modellierung in den Naturwissenschaften im WS 2012/13 MÜNSTER Optimale Steuerung chemischer Batch-Reaktoren Praktikum Nichtlineare Modellierung in den Naturwissenschaften im WS 2012/13 Karoline Pelka Christian Schmidt Christoph Große Kracht 5. Februar 2013

Mehr

NICHTRESTRINGIERTE OPTIMIERUNG

NICHTRESTRINGIERTE OPTIMIERUNG 3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Prof. Dr. Ottmar Beucher Dezember 2001 Genetische Algorithmen 1 Optimierungsaufgaben Ein einfaches Beispiel Prinzipielle Formulierung Lösungsansätze Genetische Algorithmen Anwendungen

Mehr

Synthese Eingebetteter Systeme. Übung 6

Synthese Eingebetteter Systeme. Übung 6 12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe

Mehr

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006 Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden

Mehr

Optimale Steuerung 1

Optimale Steuerung 1 Optimale Steuerung 1 Kapitel 6: Nichtlineare Optimierung unbeschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Parameteranpassung für Phasengleichgewicht

Mehr

Konvexe Optimierung I Sommersemester Kapitel 0

Konvexe Optimierung I Sommersemester Kapitel 0 Sommersemester 2013 Kapitel 0 Jun.-Prof. Dr. Thorsten Raasch Johannes Gutenberg-Universität Mainz Institut für Mathematik 15. April 2013 Konvexe Optimierung Was ist das? Was bedeutet Optimierung? Was bedeutet

Mehr

Bewertung von Optimierungs- und Zuverlässigkeitsalgorithmen für die virtuelle Produktauslegung

Bewertung von Optimierungs- und Zuverlässigkeitsalgorithmen für die virtuelle Produktauslegung Weimarer Optimierungs- und Stochastiktage 4.0 Bewertung von Optimierungs- und Zuverlässigkeitsalgorithmen für die virtuelle Produktauslegung Dr.-Ing. Andreas Plotzitza, PT/EST4 29. November 2007 1 Inhalt

Mehr

Erweiterung der Systembibliothek von T*SOL durch Kombianlagen

Erweiterung der Systembibliothek von T*SOL durch Kombianlagen Erweiterung der Systembibliothek von T*SOL durch Kombianlagen Dr.-Ing. Gerhard Valentin, Dipl.-Math. Bernhard Gatzka Dr. Valentin EnergieSoftware GmbH Stralauer Platz 33-34, D-10243 Berlin Tel:030 588

Mehr

Parareal. Ein paralleler Lösungsalgorithmus für gewöhnliche Differentialgleichungen. Johannes Reinhardt. Parareal 1 Johannes Reinhardt

Parareal. Ein paralleler Lösungsalgorithmus für gewöhnliche Differentialgleichungen. Johannes Reinhardt. Parareal 1 Johannes Reinhardt Ein paralleler Lösungsalgorithmus für gewöhnliche Differentialgleichungen Johannes Reinhardt 1 Johannes Reinhardt Übersicht Grundlagen Gewöhnliche Differentialgleichungen Numerische Methoden Der Algorithmus

Mehr

Nebenfach Mathematik im Informatik-Studium. Martin Gugat FAU: Friedrich-Alexander-Universität Erlangen-Nürnberg 25.

Nebenfach Mathematik im Informatik-Studium. Martin Gugat FAU: Friedrich-Alexander-Universität Erlangen-Nürnberg 25. Nebenfach Mathematik im Informatik-Studium Martin Gugat martin.gugat@fau.de FAU: Friedrich-Alexander-Universität Erlangen-Nürnberg 25. Oktober 2017 Motivation Die rigorose Analyse von Algorithmen erfordert

Mehr

Nebenfach Mathematik im Informatik-Studium. Martin Gugat FAU: Friedrich-Alexander-Universität Erlangen-Nürnberg 26.

Nebenfach Mathematik im Informatik-Studium. Martin Gugat FAU: Friedrich-Alexander-Universität Erlangen-Nürnberg 26. Nebenfach Mathematik im Informatik-Studium Martin Gugat martin.gugat@fau.de FAU: Friedrich-Alexander-Universität Erlangen-Nürnberg 26. Oktober 2016 Motivation Die rigorose Analyse von Algorithmen erfordert

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Lösung von Optimierungsproblemen mit Monte Carlo Methoden

Lösung von Optimierungsproblemen mit Monte Carlo Methoden Lösung von Optimierungsproblemen mit Monte Carlo Methoden Am Beispiel des Problem des Handlungsreisenden Vortragende: Alexandra Vosseler Inhaltsverzeichnis I. Einleitung II. Optimierung mit MCM II.i Vom

Mehr

PARADOM. Parallele Algorithmische Differentiation in OpenModelica für energietechnische Simulationen und Optimierungen.

PARADOM. Parallele Algorithmische Differentiation in OpenModelica für energietechnische Simulationen und Optimierungen. Zentrum für Informationsdienste und Hochleistungsrechnen TU Dresden PARADOM Parallele Algorithmische Differentiation in OpenModelica für energietechnische Simulationen und Optimierungen Martin Flehmig

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Übersicht über die mathematischen Module der Bachelor- und Masterstudiengänge Mathematik, Wirtschaftsmathematik und Technomathematik

Übersicht über die mathematischen Module der Bachelor- und Masterstudiengänge Mathematik, Wirtschaftsmathematik und Technomathematik Übersicht über die mathematischen Module der Bachelor- und Masterstudiengänge Mathematik, Wirtschaftsmathematik und Technomathematik Modul LP Prüfungsform 1 Pflichtmodule Bachelor Mathematik, Wirtschaftsmathematik

Mehr

Regression IV: Anpassung mit nichtlinearen Funktionen. Teil B: Nicht linearisierbare Modelle. -Fortsetzung-

Regression IV: Anpassung mit nichtlinearen Funktionen. Teil B: Nicht linearisierbare Modelle. -Fortsetzung- Regression IV: Anpassung mit nichtlinearen Funktionen Teil B: Nicht linearisierbare Modelle -Fortsetzung- T. Kießling: Auswertung von Messungen und Fehlerrechnung - Linienformanpassung 13.06.2018 Vorlesung

Mehr

Vorstellung der Arbeitsgruppen der Numerik

Vorstellung der Arbeitsgruppen der Numerik Vorstellung der Arbeitsgruppen der Numerik Oliver Ernst Martin Stoll Roland Herzog TU Chemnitz 11.07.2018 TUC 11.07.2018 Ernst, Stoll, Herzog 1 / 15 https://www.tu-chemnitz.de/mathematik/ Regelmäßige Lehrveranstaltungen

Mehr

Synthese durch Rechner-Optimierung

Synthese durch Rechner-Optimierung 4.2.4. Synthese durch Rechner-Optimierung Möglichkeiten zum Finden passender Reglerparameter: 1. Theoretische Synthese (Herleitung der optimalen Werte) 2. Einstellregeln Messungen an der Strecke (z. B.

Mehr

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Evolutionäre Algorithmen: Überlebenskampf und Evolutionäre Strategien Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überblick Einleitung Adaptive Filter Künstliche

Mehr

(d) das zu Grunde liegende Problem gut konditioniert ist.

(d) das zu Grunde liegende Problem gut konditioniert ist. Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt

Mehr

3.2.5 Dualität der linearen Optimierung I

3.2.5 Dualität der linearen Optimierung I 3..5 Dualität der linearen Optimierung I Jedem linearen Programm in Standardform kann ein sogenanntes duales Programm zugeordnet werden. Es entsteht dadurch, daß man von einem Minimierungsproblem zu einem

Mehr

Numerische Mathematik

Numerische Mathematik ».- Numerische Mathematik Von Dr. sc. math. Hans Rudolf Schwarz o. Professor an der Universität Zürich Mit einem Beitrag von Dr. sc. math. Jörg Waldvogel Titularprofessor an der Eidg. Technischen Hochschule

Mehr

x x x x Repräsentation von Lösungen (2) Repräsentation von Lösungen (1)

x x x x Repräsentation von Lösungen (2) Repräsentation von Lösungen (1) Repräsentation von Lösungen () Repräsentation von Lösungen () Kontinuierliche Optimierung: x x x x n Binäre Optimierung: n = (,,, ) R x = ( x, x,, x ) {0,} n n Lokale Suche: x i = x i + ε Lokale Suche:

Mehr

Algorithmische Mathematik und Programmieren

Algorithmische Mathematik und Programmieren Algorithmische Mathematik und Programmieren Martin Lanser Universität zu Köln WS 2016/2017 Organisatorisches M. Lanser (UzK) Alg. Math. und Programmieren WS 2016/2017 1 Ablauf der Vorlesung und der Übungen

Mehr

Repräsentation von Lösungen (1)

Repräsentation von Lösungen (1) Repräsentation von Lösungen (1) Kontinuierliche Optimierung: Binäre Optimierung: x x1 x2 x n n = (,,, ) R x = ( x1, x2,, x ) {0,1} n n Lokale Suche: x i = x i + ε Lokale Suche: x i = 1-x i 0.5 0.9 0.2

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Parallelisierung durch Gebietszerlegung

Parallelisierung durch Gebietszerlegung Parallelisierung durch Gebietszerlegung Jahn Müller jahn.mueller@uni-muenster.de Westfälische Wilhelms-Universität Münster 25.01.2008 1 Einleitung 2 Gebietszerlegung nicht überlappende Zerlegung überlappende

Mehr

5 Randwertprobleme. y = f(t, y, y ) für t J, (5.2a) y(t 0 ) = y 0, y(t) = y T (5.2b) zu gegebener Funktion f und Werten y 0, y T.

5 Randwertprobleme. y = f(t, y, y ) für t J, (5.2a) y(t 0 ) = y 0, y(t) = y T (5.2b) zu gegebener Funktion f und Werten y 0, y T. 5 Randwertprobleme Bei den bisher betrachteten Problemen handelte es sich um Anfangswertprobleme. In der Praxis treten, insbesondere bei Differentialgleichungen höherer Ordnung, auch Randwertprobleme auf.

Mehr

Zufallszahlen in AntBrain

Zufallszahlen in AntBrain Zufallszahlen SEP 291 Zufallszahlen in AntBrain Spezifikation, Teil II: Zum Beispiel könnte ein Objekt vom Typ Match die Spielfelder nach jeweils 1000 Spielrunden speichern; bei einer Anfrage nach den

Mehr

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Freie Nichtlineare Optimierung Orakel, lineares/quadratisches Modell Optimalitätsbedingungen Das Newton-Verfahren Line-Search-Verfahren Inhaltsübersicht für heute: Freie Nichtlineare

Mehr

HEP. - vor der Kollision: Teilchensorte, Energie etc. bekannt

HEP. - vor der Kollision: Teilchensorte, Energie etc. bekannt HEP - vor der Kollision: Teilchensorte, Energie etc. bekannt - Kollision bis zur Detektion in 3 Schritte unterteilt: - hard process - shower - hadronization - letzteres kann detektiert werden (ggf. Zerfallsprodukte)

Mehr

Multikriterielle Optimierung von PM-Motoren mit Femag

Multikriterielle Optimierung von PM-Motoren mit Femag FEMAG-Anwender-Treffen 2009 17. 18. November 2009 Multikriterielle Optimierung von PM-Motoren mit Femag Siegfried Silber Austrian Center of Competence in Mechatronics Simulationstool MagOpt Magnetische

Mehr

Geometrie und Mathematische Physik Differentialgeometrie I 10 m Diskrete Geometrie I 10 m Geometrie I 10 m Geometrische Grundlagen der linearen

Geometrie und Mathematische Physik Differentialgeometrie I 10 m Diskrete Geometrie I 10 m Geometrie I 10 m Geometrische Grundlagen der linearen Übersicht über die mathematischen Module der Bachelor- und Masterstudiengänge Mathematik, Wirtschaftsmathematik und Technomathematik Sommersemester 2017 Modul LP Prüfungsform 1 Pflichtmodule Bachelor Mathematik,

Mehr

Chinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151

Chinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151 Inhaltsverzeichnis 1 Kernkonzepte der linearen Optimierung... 1 1.1 Einführung... 1 1.2 Grundlegende Definitionen... 8 1.3 Grafische Lösung... 10 1.4 Standardform und grundlegende analytische Konzepte...

Mehr

Simulation der instationären Strömung in einem Diffusionsofen mit Wärmestrahlung

Simulation der instationären Strömung in einem Diffusionsofen mit Wärmestrahlung Simulation der instationären Strömung in einem Diffusionsofen mit Wärmestrahlung R. Kessler DLR-AS-CASE Simulation der instationären Strömung in einem Diffusionsofen mit Wärmestrahlung Slide 1 > HPC 2009

Mehr

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung 8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen

Mehr

Betriebliche Optimierung

Betriebliche Optimierung Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 22 1 Das Travelling Salesperson Problem

Mehr

Simulation von Brownscher Dynamik und Assoziationsraten von PP-Komplexen. Alexander Baldauf Montag

Simulation von Brownscher Dynamik und Assoziationsraten von PP-Komplexen. Alexander Baldauf Montag Simulation von Brownscher Dynamik und Assoziationsraten von PP-Komplexen Alexander Baldauf Montag 25.04.2005 Motivation Typen von Interaktionen Verschiedene Methoden zur Vorhersage Wie kommen die beiden

Mehr

Erweiterung eines Verfahrens zur automatisierten Parameteridentifikation eines Fahrzeugmodells

Erweiterung eines Verfahrens zur automatisierten Parameteridentifikation eines Fahrzeugmodells Erweiterung eines Verfahrens zur automatisierten Parameteridentifikation eines Fahrzeugmodells Sebastian Wildfeuer Parameteridentifikation > 23. September 2008 > Folie 1 Themenübersicht Ausgangssituation,

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

Seminarvortrag. Euler-Approximation. Marian Verkely TU Dortmund

Seminarvortrag. Euler-Approximation. Marian Verkely TU Dortmund Seminarvortrag Euler-Approximation Marian Verkely TU Dortmund 03.12.14 1 / 33 Inhaltsverzeichnis 1 Motivation 2 Simulierte Prozesse 3 Euler-Approximation 4 Vasicek-Prozess: Vergleich analytische Lösung

Mehr

Sensitivitätsanalyse quantitativer Modelle

Sensitivitätsanalyse quantitativer Modelle quantitativer Modelle Stefan Wagner Software & Systems Engineering Technische Universität München wagnerst@in.tum.de 18. Oktober 2006 Stefan Wagner, TU München Perlen der Informatik 18. Oktober 2006 1

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme Analytisch lösbare Optimierungsaufgaben Das Chaos-Spiel gründet auf der folgenden Vorschrift: Man startet von einem beliebigen Punkt aus geht auf einer Verbindung mit einem von drei zufällig gewählten

Mehr

Numerische Verfahren zur Lösung der Monge-Ampère-Gleichung, Teil II

Numerische Verfahren zur Lösung der Monge-Ampère-Gleichung, Teil II für zur Lösung der Monge-Ampère-Gleichung, Teil II Andreas Platen Institut für Geometrie und Praktische Mathematik RWTH Aachen Seminar zur Approximationstheorie im Wintersemester 2009/2010 1 / 27 Gliederung

Mehr

Newton-Verfahren für ein Skalarfunktion

Newton-Verfahren für ein Skalarfunktion Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren

Mehr

Einführung in die Numerik

Einführung in die Numerik Einführung in die Numerik Sommersemester 2017 Dr. Andreas Potschka Ruprecht Karls-Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Im Neuenheimer Feld 205, 69120 Heidelberg

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

1 Algorithmische Grundlagen

1 Algorithmische Grundlagen 1 Algorithmische Grundlagen Klocke/17.03.2003 1.1 1.1 Begriffsklärung Fragen Begriffsklärungen Abstraktionsebenen für Algorithmen und Datenstrukturen Algorithmus Qualität von Algorithmen Klocke/17.03.2003

Mehr

Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen

Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen Fachhochschule Wedel - SS 2006 Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen Marco Lehmann (wi5909) m@rco-l.de 3. Juli 2006 Gliederung 1.

Mehr

Beispiellösung Serie 7

Beispiellösung Serie 7 D-MAVT FS 2014 K. Nipp A. Hiltebrand NUMERISCHE MATHEMATIK Beispiellösung Serie 7 1. a) Exakt: 0.005 1 1 1 0.005 1 ( 1 0 200-199 L = 200 1 Rückwärts einsetzen Lz = b : z 1 = 0.5, z 2 = 1 100 = 99 Rx =

Mehr

Local Search Algorithmen 1

Local Search Algorithmen 1 Local Search Algorithmen 1 Seminar über Algorithmen Manuel Gellfart 18.05.2012 Fachbereich Mathematik und Informatik 18.05.2012 2 Gliederung 1. Einleitung 2. Theorie 3. Beispiel: Vertex Cover 4. Beispiel:

Mehr

Simulation komplexer Prozesse am Beispiel Verbundguss Cu-Al

Simulation komplexer Prozesse am Beispiel Verbundguss Cu-Al 04.11.2016 Optimierungsaufgabe Beispiel: Sheldons Platz Im Winter ist der Platz nah genug an der Heizung, damit mir warm ist und dennoch nicht zu dicht, um ins schwitzen zu kommen. Im Sommer liegt er in

Mehr

Serie 2. D-MATH Numerische Methoden FS 2016 Dr. Vasile Gradinaru Luc Grosheintz

Serie 2. D-MATH Numerische Methoden FS 2016 Dr. Vasile Gradinaru Luc Grosheintz D-MATH Numerische Methoden FS 206 Dr. Vasile Gradinaru Luc Grosheintz Serie 2 Abgabedatum: Di. 4.3 / Mi. 5.3 oder früher, in den Übungsgruppen Koordinatoren: Luc Grosheintz, HG J 46, luc.grosheintz@sam.math.ethz.ch

Mehr

Das Trust-Region-Verfahren

Das Trust-Region-Verfahren Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein

Mehr

Nichtlineare Ausgleichsrechnung

Nichtlineare Ausgleichsrechnung 10. Großübung Nichtlineare Ausgleichsrechnung Allgemeines Problem: Wir betrachten ein nichtlineares System F : R n R m mit (m > n, d.h. das System ist überbestimmt und F i (x g(t i ; x g i! 0 i 1,.., m.

Mehr

12. Vorlesung Stochastische Optimierung

12. Vorlesung Stochastische Optimierung Soft Control (AT 3, RMA) 12. Vorlesung Stochastische Optimierung Differential Evolution 12. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"

Mehr

Numerische Optimierung

Numerische Optimierung Numerische Optimierung 6 In den ersten fünf Kapiteln dieses Skriptes haben wir Grundaufgaben der biomedizinischen Bildgebung eingeführt, im Sinne von Variationsmethoden modelliert und ihre Analyse in geeigneten

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Fundamente der Computational Intelligence

Fundamente der Computational Intelligence Fundamente der Computational Intelligence Dozent: Günter Rudolph Vertretung: Nicola Beume Wintersemester 2006/07 Universität Dortmund Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS11) Fachgebiet

Mehr

Kapitel 3. Matrix Spiele. 3.1 Matrix-Spiele

Kapitel 3. Matrix Spiele. 3.1 Matrix-Spiele Kapitel 3 Matrix Spiele Seminar Spieltheorie, SS 006 3. Matrix-Spiele Vorgegeben sei ein Nullsummenspiel Γ = (S, T, φ, φ mit endlichen Strategiemengen S und T, etwa S = (s,..., s m und T = (t,..., t n.

Mehr

Rechnerpraktikum zur Nichtlinearen Optimierung

Rechnerpraktikum zur Nichtlinearen Optimierung Rechnerpraktikum zur Nichtlinearen Optimierung 9. März 2016 11. März 2016 Sebastian Garreis, B. Sc. Philipp Jarde, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl für Mathematische

Mehr

Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen

Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen Krischan Keitsch 3. Juni 214 Zusammenfassung Um ein Optimierungsproblem mit einer Evolutionsstrategie

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

Meta-Modellierung mit OptiY Gewinnung mathematischer Ersatzmodelle aus Messdaten oder komplexen FEA

Meta-Modellierung mit OptiY Gewinnung mathematischer Ersatzmodelle aus Messdaten oder komplexen FEA In1 Meta-Modellierung mit OptiY Gewinnung mathematischer Ersatzmodelle aus Messdaten oder kompleen FEA Dr. The-Quan Pham OptiY e.k. Aschaffenburg Dr. Alfred Kamusella Institut für Feinwerktechnik und Elektronik-Design

Mehr

Dynamische Optimierung

Dynamische Optimierung Dynamische Optimierung Mike Hüftle 28. Juli 2006 Inhaltsverzeichnis 1 Einleitung 2 1.1.................................... 2 2 Dynamisches Optimierungmodell 3 2.1 Grundmodell der dynamischen Optimierung............

Mehr

Klimawandel: Ist der Verkehr an allem schuld? insbesondere der Partikel

Klimawandel: Ist der Verkehr an allem schuld? insbesondere der Partikel Klimawandel: Ist der Verkehr an allem schuld? insbesondere der Partikel Markus Rapp, Robert Sausen, Johannes Hendricks, Mattia Righi, Hans Schlager, Bernadett Weinzierl u.v.a. DLR-Institut für Physik der

Mehr

Spezialisierte adaptive Algorithmen für die Modellprädiktive Regelung von PDEs

Spezialisierte adaptive Algorithmen für die Modellprädiktive Regelung von PDEs Spezialisierte adaptive Algorithmen für die Modellprädiktive Regelung von PDEs Lehrstuhl für Angewandte Mathematik Mathematisches Institut Universität Bayreuth 28.02.2018 12. Elgersburg Workshop (26.02.

Mehr

Einführung in Softwaretools zur Nichtlinearen Optimierung

Einführung in Softwaretools zur Nichtlinearen Optimierung Einführung in Softwaretools zur Nichtlinearen Optimierung 3. April 2017 5. April 2017 Sebastian Garreis, M. Sc. (hons) Johannes Haubner, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl

Mehr

1 Einleitung Optimierung in Technik-, Natur- und Wirtschaftswissenschaften Optimierung mit dem Computer

1 Einleitung Optimierung in Technik-, Natur- und Wirtschaftswissenschaften Optimierung mit dem Computer 1 Einleitung...1 1.1 Optimierung in Technik-, Natur- und Wirtschaftswissenschaften... 4 1.2 Optimierung mit dem Computer... 5 1.2.1 Anwendung von Computeralgebrasystemen... 6 1.2.2 Anwendung von EXCEL...

Mehr

Grundlagen der Numerischen Mathematik Sommersemester Kapitel 0. Jun.-Prof. Dr. Thorsten Raasch (JGU Mainz) 23. April 2014

Grundlagen der Numerischen Mathematik Sommersemester Kapitel 0. Jun.-Prof. Dr. Thorsten Raasch (JGU Mainz) 23. April 2014 Grundlagen der Numerischen Mathematik Sommersemester 2014 Kapitel 0 Jun.-Prof. Dr. Thorsten Raasch Johannes Gutenberg-Universität Mainz Institut für Mathematik 23. April 2014 Numerik Was ist das? Was ist

Mehr

Sichere Zukunftsvorhersagen durch Modellierung und Approximation

Sichere Zukunftsvorhersagen durch Modellierung und Approximation Sichere Zukunftsvorhersagen durch Modellierung und Approximation Jan Reineke @ saarland university computer science Forschungstage Informatik 24. Juni 2016 Der Kontext: Harte Echtzeitsysteme Sicherheitskritische

Mehr

Systemtheorie 1. Einführung Systemtheorie 1 Formale Systeme 1 # WS 2006/2007 Armin Biere JKU Linz Revision: 1.4

Systemtheorie 1. Einführung Systemtheorie 1 Formale Systeme 1 # WS 2006/2007 Armin Biere JKU Linz Revision: 1.4 Einführung intro 1 Grobklassifizierung r Methoden in der Informatik intro 2 Systemtheorie 1 Systeme 1 #342234 http://fmv.jku.at/fs1 WS 2006/2007 Johannes Kepler Universität Linz, Österreich Univ. Prof.

Mehr

Das Gradientenverfahren

Das Gradientenverfahren Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

1-, 2-, 3D-Modelle: Überblick, Vergleich und Anwendung

1-, 2-, 3D-Modelle: Überblick, Vergleich und Anwendung Fakultät Informatik > Angewandte Informatik > Technische Informationssysteme Studentischer Vortrag 1-, 2-, 3D-Modelle: Überblick, Vergleich und Anwendung Mai, Tuan Linh Dresden, 17.Jan.2011 Inhalt 1. Motivation

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten

Mehr

(45 Min) als auch schriftlich im Rahmen einer Ausarbeitung zu präsentieren. 1. Gusfield: Algorithms on strings, trees and sequences.

(45 Min) als auch schriftlich im Rahmen einer Ausarbeitung zu präsentieren. 1. Gusfield: Algorithms on strings, trees and sequences. 1. Thema: Dynamische Programmierung Das Prinzip des dynamischen Programmierens wird bei der Lösung kombinatorischer Optimierungsprobleme eingesetzt. Grundidee ist, das Problem auf kleinere Teilprobleme

Mehr

Systemtheorie 1. Formale Systeme 1 # WS 2006/2007 Johannes Kepler Universität Linz, Österreich

Systemtheorie 1. Formale Systeme 1 # WS 2006/2007 Johannes Kepler Universität Linz, Österreich Einführung 1 Systemtheorie 1 Formale Systeme 1 #342234 http://fmv.jku.at/fs1 WS 2006/2007 Johannes Kepler Universität Linz, Österreich Univ. Prof. Dr. Armin Biere Institut für Formale Modelle und Verifikation

Mehr

Optimal Control in Air Traffic Management

Optimal Control in Air Traffic Management Optimal Control in Air Traffic Management DGLR Workshop Bestimmung optimaler Trajektorien im Air Traffic Management 23.04.2013 Deutsche Flugsicherung GmbH, Langen 23.04.2013 1 Inhalt. Hintergrund und Motivation.

Mehr

Zweistufige Stochastische Optimierung der Ressourcenverteilung in chemischen Batch-Prozessen

Zweistufige Stochastische Optimierung der Ressourcenverteilung in chemischen Batch-Prozessen Zweistufige Stochastische Optimierung der Ressourcenverteilung in chemischen Batch-Prozessen Jochen Till, Guido Sand und Sebastian Engell Lehrstuhl für Anlagensteuerungst Fachbereich Bio- und Chemieingenieurwesen

Mehr

Optimale Produktliniengestaltung mit Genetischen Algorithmen

Optimale Produktliniengestaltung mit Genetischen Algorithmen Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen

Mehr

Modellreduktion für optimale Steuerungsprobleme in der Feld-Fluss-Fraktionierung

Modellreduktion für optimale Steuerungsprobleme in der Feld-Fluss-Fraktionierung Problem Modellreduktion Numerische Resultate Akt. Arbeit Modellreduktion für optimale Steuerungsprobleme in der Feld-Fluss-Fraktionierung Carina Willbold Universität Augsburg Zusammenarbeit mit Tatjana

Mehr

v R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i

v R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i MOP: Pareto-Gradientenabstiegsverfahren Annahme: Zielfunktion differenzierbar Wintersemester 2007/08 Praktische Optimierung (Vorlesung) d = 1: (monokriteriell) v R n ist Abstiegsrichtung in x R n wenn

Mehr

TU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik 1. Dr. M. Herrich SS 2017

TU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik 1. Dr. M. Herrich SS 2017 TU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik Prof. Dr. K. Eppler Institut für Numerische Mathematik Dr. M. Herrich SS 207 Aufgabe Gegeben sei die Funktion f : R 2 R mit Übungen

Mehr

Betriebswirtschaftliche Optimierung

Betriebswirtschaftliche Optimierung Institut für Statistik und OR Uni Graz 1 Das Travelling Salesperson Problem 2 Das Travelling Salesperson Problem Zentrales Problem der Routenplanung Unzählige wissenschaftliche Artikel theoretischer sowie

Mehr

Parallelisierung von Modellprädiktiver Regelung auf CUDA-Hardware

Parallelisierung von Modellprädiktiver Regelung auf CUDA-Hardware Parallelisierung von Modellprädiktiver Regelung auf CUDA-Hardware Thomas Jahn Universität Bayreuth 6 Februar 20 Zeitdiskretes Modell Modellfunktion Diskrete Dynamik eines Kontrollsystems ist durch Φ :

Mehr

Von der Mikro- zur Makroevolution... (2)

Von der Mikro- zur Makroevolution... (2) Von der Mikro- zur Makroevolution... (2) Biologische Strukturbildung im Ausleseprozeß Aus der Erkenntnis heraus, daß man durch kleine, zufällige Änderungen am Erbgut über viele Generationen hinweg durch

Mehr

Genetische Algorithmen von der Evolution lernen

Genetische Algorithmen von der Evolution lernen Genetische Algorithmen von der Evolution lernen (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Nils J. Nilsson Artificial Intelligence Morgan Kaufmann, 1998 Ansatz Bisher: Problemlösung

Mehr

Pollards Rho-Methode zur Faktorisierung

Pollards Rho-Methode zur Faktorisierung C A R L V O N O S S I E T Z K Y Pollards Rho-Methode zur Faktorisierung Abschlusspräsentation Bachelorarbeit Janosch Döcker Carl von Ossietzky Universität Oldenburg Department für Informatik Abteilung

Mehr

Rechnerpraktikum zur Nichtlinearen Optimierung

Rechnerpraktikum zur Nichtlinearen Optimierung Rechnerpraktikum zur Nichtlinearen Optimierung 9. März 2016 11. März 2016 Sebastian Garreis, B. Sc. Philipp Jarde, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl für Mathematische

Mehr

Klimawandel in Lateinamerika

Klimawandel in Lateinamerika Klimawandel in Lateinamerika - Stand der aktuellen Forschung - Dr. Andreas Hänsler Climate Service Center, Hamburg Helmholtz-Zentrum Geesthacht Veranstaltung: Wertschöpfung durch klimafreundliche Produktionsmethoden

Mehr

Aufgabe 1 (7 Punkte) Prüfung Optimierung dynamischer Systeme ( 6) = lim p. Techn. Mechanik & Fahrzeugdynamik

Aufgabe 1 (7 Punkte) Prüfung Optimierung dynamischer Systeme ( 6) = lim p. Techn. Mechanik & Fahrzeugdynamik Techn. Mechanik & Fahrzeugdynamik Optimierung Prof. Dr.-Ing. habil. Hon. Prof. (NUST) D. Bestle 8. September 7 Aufgabe (7 Punkte) Die Ableitung der Funktion f ( p) p 5sin p soll mithilfe des Vorwärtsdifferenzenverfahrens

Mehr

Evolutionäre (Genetische) Algorithmen

Evolutionäre (Genetische) Algorithmen Evolutionäre (Genetische) Algorithmen Ziel, Aufgabe von evolutionären Algorithmen: Optimierung von Objekten mit komplexer Beschreibung, wobei es Parameter gibt. Die Objekte kodiert man so als Bitstrings,

Mehr

D-MATH Numerische Methoden FS 2016 Dr. Vasile Gradinaru Alexander Dabrowski. Serie 1

D-MATH Numerische Methoden FS 2016 Dr. Vasile Gradinaru Alexander Dabrowski. Serie 1 D-MATH Numerische Methoden FS 2016 Dr. Vasile Gradinaru Alexander Dabrowski Serie 1 Best before: Di. 8.3 / Mi. 9.3, in den Übungsgruppen Koordinatoren: Alexander Dabrowski, HG G 52.1, alexander.dabrowski@sam.math.ethz.ch

Mehr