Optimale Steuerung 1

Ähnliche Dokumente
Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren Thomas Brox, Fabian Kuhn

Optimale Steuerung 1

Optimierung für Nichtmathematiker

Optimale Steuerung 1 Prozessoptimierung 1

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren

12. Potentialflächen und Optimierung

Optimale Steuerung 1

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

6.8 Newton Verfahren und Varianten

NICHTRESTRINGIERTE OPTIMIERUNG

Studientag zur Algorithmischen Mathematik

Das Trust-Region-Verfahren

Das Gradientenverfahren

3 Optimierung mehrdimensionaler Funktionen f : R n R

Optimierung für Nichtmathematiker

Newton-Verfahren für ein Skalarfunktion

(d) das zu Grunde liegende Problem gut konditioniert ist.

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

Numerische Ableitung

Nichtlineare Gleichungssysteme

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Ausgleichsproblem. Definition (1.0.3)

Inexakte Newton Verfahren

Bemerkung 2.1: Das Newtonverahren kann auch als sequential quad. minimization verstanden werden: 2.1 Ein globalisiertes Newtonverfahren

Optimierung für Nichtmathematiker

Optimieren unter Nebenbedingungen

Näherungsverfahren zur Bestimmung der Nullstelle α sind iterativ, d.h. sie liefern eine Folge {x (k) } k=0 mit α = lim x (k). (3.0.

Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung

Nullstellen von algebraischen Gleichungen

Optimierung für Nichtmathematiker

Fixpunkt-Iterationen

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016

5 Numerische Mathematik

Mathematik für. Wirtschaftswissenschaftler. Basiswissen mit Praxisbezug. 4., aktualisierte und erweiterte Auflage

Nichtlineare Gleichungen, mehrere Unbekannte

Inhalt Kapitel I: Nichtlineare Gleichungssysteme

Optimierung mit Matlab

18.4 Das Newton-Verfahren

Nichtlineare Gleichungssysteme

Mathematik für Wirtschaftswissenschaftler

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57

Nelder-Mead Kriging-Verfahren NEWUOA

Inhaltsverzeichnis. Kapitel 1: Rechnen mit Zahlen. Kapitel 2: Umformen von Ausdrücken. Kapitel 3: Gleichungen, Ungleichungen, Gleichungssysteme

Teil II. Nichtlineare Optimierung

Nichtlineare Optimierung ohne Nebenbedingungen

Modulprüfung Numerische Mathematik 1

Übung 5, Analytische Optimierung

Der CG-Algorithmus (Zusammenfassung)

Numerische Methoden I Schriftliche Prüfung Gruppe A 23. Jan :00-14:00 (120 min)

Aufgaben für die 6. Übung zur Vorlesung Mathematik 2 für Informatiker: Analysis Sommersemester 2010

Globale Newton Verfahren

Innere-Punkt-Methoden

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme

Kapitel 8: Suche nach Nullstellen und Extremwerten

Newton-Verfahren zur optimalen Steuerung nichtlinearer elliptischer Randwertaufgaben

Mathematik für Wirtschaftswissenschaftler II (Analysis) 2. Klausur Sommersemester

KAPITEL 3. Konvexe Funktionen

Studientag zur Algorithmischen Mathematik

Extremwerte von Funktionen mehrerer reeller Variabler

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Kombinatorische Optimierung

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Numerisches Lösen von Gleichungen

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie

KAPITEL 5. Nichtlineare Gleichungssysteme

Mathematik für Wirtschaftswissenschaftler

Mathematik anschaulich dargestellt

Rückblick auf die letzte Vorlesung. Bemerkung

Die MATLAB-Funktionen (Beschreibung : Siehe MATLAB-Hilfen)

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

Musterlösung zu Blatt 1

Klausurlösung Einführung in Numerische Methoden und FEM Universität Siegen, Department Maschinenbau,

Diplom VP Numerik 21. März 2005

Numerische Optimierung

mit Ungleichungen als Restriktionen Quadratische Programmierung Gliederung Geodätische Woche 2009 Lutz Roese-Koerner und Wolf-Dieter Schuh

38 Iterative Verfahren für lineare Gleichungssysteme

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

Konvexe Optimierungsprobleme

2 Extrema unter Nebenbedingungen

5 Interpolation und Approximation

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Kurvenanpassung mit dem SOLVER

Kapitel 2. Mathematik für Mikroökonomie

Numerik und Simulation in der Geoökologie

( ) Dann gilt f(x) g(x) in der Nähe von x 0, das heisst. Für den Fehler r(h) dieser Näherung erhält man unter Verwendung von ( )

1. Anfangswertprobleme 1. Ordnung

TU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik 1. Dr. M. Herrich SS 2017

Finite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015

Bildverarbeitung: Kontinuierliche Energieminimierung. D. Schlesinger BV: () Kontinuierliche Energieminimierung 1 / 9

Mathematische Probleme lösen mit Maple

Inhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen

Mathematik für Wirtschaftswissenschaftler

Transkript:

Optimale Steuerung 1 Kapitel 6: Nichtlineare Optimierung unbeschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP)

Beispiel: Parameteranpassung für Phasengleichgewicht binärer Systeme 2 Gleichgewichtsbeziehung: van-laar-modell: Die Antoine-Gleichung:

Der Systemdruck: 3 d. h. const. Durch ein Experiment mit einer konstanten Temperatur erhält man eine Reihe von Messdaten: weil dann Minimierung des gesamten quadratischen Fehlers: Dies ist ein typisches nichtlineares Optimierungsproblem ohne Nebenbedingungen.

Mehrdimensionale Optimierung nichtlinearer Probleme ohne Nebenbedingungen 4 Problemstellung: Die Lösung: Die erste (notwendige) Bedingung an einem lokalen Minimalpunkt : Nämlich Die zweite (hinreichende) Bedingung am Minimalpunkt ist eine positiv definite Hesse-Matrix: p T Η( x * ) p 0

Taylor-Entwicklung an 5 d. h. weil, dann bedeutet dies. Das Newton-Verfahren: Aus der notwendigen Bedingung definiert man: N Variablen N Gleichungen Es kann mit dem Newton-Verfahren gelöst werden. Die Jacobi-Matrix des Gleichungssystems ist. Die iterative Lösung: Es wird ein Schätzpunkt gebraucht.

Entwicklung von bei in Taylorreihe 2. Ordnung 6

7

Beispiel: das Newton-Verfahren 8

Das klassische Gradienten-Verfahren (Verfahren des steilsten Abstiegs) 9 Ein gegebener Punkt Der nächste Punkt Taylor-Entwicklung erster Ordnung an : d. h. Wenn die Suchrichtung: d. h.

Beispiel: Inneres Produkt 10 dann aus dem Bild dann

Das Gradienten Verfahren (Verfahren des steilsten Abstiegs) 11 1) vorgeben, 2) berechnen: wenn dann STOP. 3) das folgende Problem lösen: 4) neue Variablen berechnen: 5) die nächste Iteration: GOTO 2)

Beispiel: das Gradienten-Verfahren 12

Grafische Darstellung: 13

Das Gradienten-Verfahren: Lineare Approximation der Zielfunktion Suchrichtung: (einfach) Konvergenz: linear (langsam) 14 Das Newton-Verfahren: Quadratische Approximation der Zielfunktion Suchrichtung: (kompliziert) Konvergenz: quadratisch (schnell) Das Marquardt-Levenberg-Verfahren: Modifikation des Newton-Verfahrens zum Garantieren einer positiv definiten Hesse-Matrix mit Suchrichtung: wenn wenn

Das Quasi-Newton-Verfahren: Die Hesse-Matrix wird approximiert, um die direkte Berechnung der Matrix zu vermeiden. 15 man definiert BFGS-Formel (Broyden-Fletcher-Goldfarb-Shanno): Es wird garantiert, dass die approximierte Hesse-Matrix positiv definit ist. Für die Initialisierung,, d. h. der erste Schritt wird mit dem Gradienten-Verfahren berechnet.

Richtungssuche (Bestimmung der Schrittlänge): 16 (Line Search) Iterative Lösung: Beim Newton-Verfahren: Beim Gradienten-Verfahren: Beim Quasi-Newton-Verfahren: Das Optimierungsproblem: suchen, damit

Suchstrategie (Wolfe-Bedingung): 17 1) Der Wert der Zielfunktion soll verkleinert werden: ) 2) Die Gradienten sollen relativ groß, d. h. die Zielfunktion wird nicht mehr absteigen. Es gibt, und

Grafische Darstellung: 18

Praktische Implementierung der Richtungssuche 19 Quadratische Approximation: Zum Finden von bei Minimierung von, muss diese Funktion konvex sein, also muss. Weil dann liegt der Minimumpunkt bei Die Parameter a, b, c werden durch die Randbedingungen, also bei und ermittelt. Hierbei ist eine geschätzte Obergrenze (normalerweise benutzt man ). Es gilt: α 0 =1

Praktische Implementierung der Richtungssuche 20 Daraus ergibt sich und somit Grafische Darstellung:

Praktische Implementierung der Richtungssuche 21 Wenn, nimmt die Funktion signifikant ab. In diesem Fall soll ein Vollschritt genutzt werden, also. Wenn, wird der Parameter. Somit ist konvex und eine Schrittlänge wird berechnet. Der entsprechende Funktionswert wird dann ausgewertet. Wenn die Wolfe-Bedingung erfüllt ist, wird akzeptiert und damit erhält man den neuen Punkt. Wenn aber die Wolfe-Bedingung nicht erfüllt ist, wird neue rechte Grenze definiert. als

Praktische Implementierung der Richtungssuche 22 Im Intervall wird wieder eine quadratische Funktion für die Approximation von erstellt und mit dieser Berechnungsweise ein neuer Schrittfaktor gesucht. Das Intervall wird von Iteration zu Iteration kleiner. In Iteration l gibt es Da bei einem kleinen die Funktion abnimmt, kann man immer eine geeignete Schrittlänge finden, damit der Funktionswert verbessert wird.

Beispiel: Optimierung eines industriellen Festbett-Reaktors 23 Rohstoffe: Ethanol CH 3 CH 2 OH und Sauerstoff O 2 Produkt: Ethanal CH 3 CHO, 6000 t/a Katalysator: Silber-Netze, 200 kg Reaktion: Verbrauch des Rohstoffs für CH 3 CHO für 1 kg Produkt: CO CH 3 CH 2 OH + O 2 Ethanol (kg) CO 2 = CH 3 COOH Ethanal (kg) Theoretisch: = 1,0455 Praktisch: = 1,17 Verlust: = 0,1245 kg/kg (750 t/a) Ziel der Optimierung: Wichtige Einflussfaktoren: Reaktionstemperatur T: 500-600 C Durchfluss des Feedstroms F: 1,0-3,0 t/h Aktivität des Katalysators

Fließbild eines Prozesses zur Produktion von Ethanal 24

Prozessmodellierung 25 Es wird eine Funktion mit der Least-Squares-Methode erzeugt. Weil nicht messbar ist, wird es zunächst konstant angenommen: Normalisierung der Variablen: Mit einer Gruppe Messdaten (Experiment oder Betriebsprotokoll) bekommt man ein Modell: Das Optimierungsproblem: Die Lösung: C t/h