Optimale Steuerung 1 Kapitel 6: Nichtlineare Optimierung unbeschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP)
Beispiel: Parameteranpassung für Phasengleichgewicht binärer Systeme 2 Gleichgewichtsbeziehung: van-laar-modell: Die Antoine-Gleichung:
Der Systemdruck: 3 d. h. const. Durch ein Experiment mit einer konstanten Temperatur erhält man eine Reihe von Messdaten: weil dann Minimierung des gesamten quadratischen Fehlers: Dies ist ein typisches nichtlineares Optimierungsproblem ohne Nebenbedingungen.
Mehrdimensionale Optimierung nichtlinearer Probleme ohne Nebenbedingungen 4 Problemstellung: Die Lösung: Die erste (notwendige) Bedingung an einem lokalen Minimalpunkt : Nämlich Die zweite (hinreichende) Bedingung am Minimalpunkt ist eine positiv definite Hesse-Matrix: p T Η( x * ) p 0
Taylor-Entwicklung an 5 d. h. weil, dann bedeutet dies. Das Newton-Verfahren: Aus der notwendigen Bedingung definiert man: N Variablen N Gleichungen Es kann mit dem Newton-Verfahren gelöst werden. Die Jacobi-Matrix des Gleichungssystems ist. Die iterative Lösung: Es wird ein Schätzpunkt gebraucht.
Entwicklung von bei in Taylorreihe 2. Ordnung 6
7
Beispiel: das Newton-Verfahren 8
Das klassische Gradienten-Verfahren (Verfahren des steilsten Abstiegs) 9 Ein gegebener Punkt Der nächste Punkt Taylor-Entwicklung erster Ordnung an : d. h. Wenn die Suchrichtung: d. h.
Beispiel: Inneres Produkt 10 dann aus dem Bild dann
Das Gradienten Verfahren (Verfahren des steilsten Abstiegs) 11 1) vorgeben, 2) berechnen: wenn dann STOP. 3) das folgende Problem lösen: 4) neue Variablen berechnen: 5) die nächste Iteration: GOTO 2)
Beispiel: das Gradienten-Verfahren 12
Grafische Darstellung: 13
Das Gradienten-Verfahren: Lineare Approximation der Zielfunktion Suchrichtung: (einfach) Konvergenz: linear (langsam) 14 Das Newton-Verfahren: Quadratische Approximation der Zielfunktion Suchrichtung: (kompliziert) Konvergenz: quadratisch (schnell) Das Marquardt-Levenberg-Verfahren: Modifikation des Newton-Verfahrens zum Garantieren einer positiv definiten Hesse-Matrix mit Suchrichtung: wenn wenn
Das Quasi-Newton-Verfahren: Die Hesse-Matrix wird approximiert, um die direkte Berechnung der Matrix zu vermeiden. 15 man definiert BFGS-Formel (Broyden-Fletcher-Goldfarb-Shanno): Es wird garantiert, dass die approximierte Hesse-Matrix positiv definit ist. Für die Initialisierung,, d. h. der erste Schritt wird mit dem Gradienten-Verfahren berechnet.
Richtungssuche (Bestimmung der Schrittlänge): 16 (Line Search) Iterative Lösung: Beim Newton-Verfahren: Beim Gradienten-Verfahren: Beim Quasi-Newton-Verfahren: Das Optimierungsproblem: suchen, damit
Suchstrategie (Wolfe-Bedingung): 17 1) Der Wert der Zielfunktion soll verkleinert werden: ) 2) Die Gradienten sollen relativ groß, d. h. die Zielfunktion wird nicht mehr absteigen. Es gibt, und
Grafische Darstellung: 18
Praktische Implementierung der Richtungssuche 19 Quadratische Approximation: Zum Finden von bei Minimierung von, muss diese Funktion konvex sein, also muss. Weil dann liegt der Minimumpunkt bei Die Parameter a, b, c werden durch die Randbedingungen, also bei und ermittelt. Hierbei ist eine geschätzte Obergrenze (normalerweise benutzt man ). Es gilt: α 0 =1
Praktische Implementierung der Richtungssuche 20 Daraus ergibt sich und somit Grafische Darstellung:
Praktische Implementierung der Richtungssuche 21 Wenn, nimmt die Funktion signifikant ab. In diesem Fall soll ein Vollschritt genutzt werden, also. Wenn, wird der Parameter. Somit ist konvex und eine Schrittlänge wird berechnet. Der entsprechende Funktionswert wird dann ausgewertet. Wenn die Wolfe-Bedingung erfüllt ist, wird akzeptiert und damit erhält man den neuen Punkt. Wenn aber die Wolfe-Bedingung nicht erfüllt ist, wird neue rechte Grenze definiert. als
Praktische Implementierung der Richtungssuche 22 Im Intervall wird wieder eine quadratische Funktion für die Approximation von erstellt und mit dieser Berechnungsweise ein neuer Schrittfaktor gesucht. Das Intervall wird von Iteration zu Iteration kleiner. In Iteration l gibt es Da bei einem kleinen die Funktion abnimmt, kann man immer eine geeignete Schrittlänge finden, damit der Funktionswert verbessert wird.
Beispiel: Optimierung eines industriellen Festbett-Reaktors 23 Rohstoffe: Ethanol CH 3 CH 2 OH und Sauerstoff O 2 Produkt: Ethanal CH 3 CHO, 6000 t/a Katalysator: Silber-Netze, 200 kg Reaktion: Verbrauch des Rohstoffs für CH 3 CHO für 1 kg Produkt: CO CH 3 CH 2 OH + O 2 Ethanol (kg) CO 2 = CH 3 COOH Ethanal (kg) Theoretisch: = 1,0455 Praktisch: = 1,17 Verlust: = 0,1245 kg/kg (750 t/a) Ziel der Optimierung: Wichtige Einflussfaktoren: Reaktionstemperatur T: 500-600 C Durchfluss des Feedstroms F: 1,0-3,0 t/h Aktivität des Katalysators
Fließbild eines Prozesses zur Produktion von Ethanal 24
Prozessmodellierung 25 Es wird eine Funktion mit der Least-Squares-Methode erzeugt. Weil nicht messbar ist, wird es zunächst konstant angenommen: Normalisierung der Variablen: Mit einer Gruppe Messdaten (Experiment oder Betriebsprotokoll) bekommt man ein Modell: Das Optimierungsproblem: Die Lösung: C t/h