Nichtlineare Optimierung

Ähnliche Dokumente
3 Optimierung mehrdimensionaler Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

Extremwerte von Funktionen mehrerer reeller Variabler

Übungen zu Partielle Differentialgleichungen, WS 2016

3 Lineare Differentialgleichungen

Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen

Lösungen zu Mathematik I/II

Mathematik 2 für Wirtschaftsinformatik

Klausur zu Analysis II - Lösungen

Nichtlineare Optimierung

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Nichtlineare Gleichungssysteme

1.6 Implizite Funktionen

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1

Lösungen zu den Hausaufgaben zur Analysis II

Regularitätsresultate für parabolische Gleichungen mit nichtlokalem Operator

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren Thomas Brox, Fabian Kuhn

Optimalitätskriterien

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Kapitel 16 : Differentialrechnung

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme

Rückblick auf die letzte Vorlesung. Bemerkung

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen

Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015

Optimalitätsbedingungen

Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2

Funktionen mehrerer Variabler

Mathematik II für Inf und WInf

Übungen zu Einführung in die Numerische Mathematik (V2E2) Sommersemester 2016

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

Folgerungen aus dem Auflösungsatz

NUMERISCHE METHODEN DER OPTIMIERUNG

10 Untermannigfaltigkeiten

B Lösungen. Aufgabe 1 (Begriffe zur Differenziation) Sei (x, y) R 2 Berechnen Sie zur Abbildung. f(x, y) := x sin(xy) f : R 2 R,

Skript zur Vorlesung im SS 2013+SS Konvexe Optimierung. Thorsten Raasch. 14. August 2014

Analysis I - Stetige Funktionen

18 Höhere Ableitungen und Taylorformel

Flüsse, Fixpunkte, Stabilität

Universität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla

Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel

Differential- und Integralrechnung

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

16. FUNKTIONEN VON MEHREREN VARIABLEN

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz

Teil I. Lineare Optimierung

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen

Multivariate Analysis

Inhalt. Problemstellung und Überblick. Allgemeine Problemstellung und Terminologie. Überblick über spezielle Klassen von Optimierungsproblemen

4 Fehlerabschätzungen und Konvergenz der FEM

Mathematik für Anwender I. Beispielklausur I mit Lösungen

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang

Optimierung für Nichtmathematiker

Studientag zur Algorithmischen Mathematik

Dynamische Systeme eine Einführung

1 Formen und äußeres Differential

Iterative Verfahren, Splittingmethoden

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Brückenkurs Rechentechniken

Skript zur Vorlesung Optimale Steuerung partieller Differentialgleichungen

Elemente der Analysis II

Finite Elemente I 2. 1 Variationstheorie

Mathematik 1 für Wirtschaftsinformatik

Dualitätssätze der linearen Optimierung

Anwendungen der Differentialrechnung

Eigenwerte und Diagonalisierung

4.1 Motivation von Variationsmethoden Variationsmethoden im Sobolevraum Motivation von Variationsmethoden

Mathematik 3 für Informatik

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

Kapitel 3. Konvergenz von Folgen und Reihen

31 Die Potentialgleichung

ist reelles lineares Funktional. x(t) ϕ(t) dt ist reelles lineares Funktional für alle ϕ L 2 (0, 1).

Mathematik für Wirtschaftswissenschaftler Kapitel 4-6. Universität Trier Wintersemester 2013 / 2014

Lösung zu Serie 24. a ij b i b j. v = j=1. v = v j b j.

II. Nichtlineare Optimierung

Musterlösung zur Klausur zur Vorlesung Mathematik für Wirtschaftswissenschaftler II. am , Zeit: 120 Minuten

Aufgaben zu Kapitel 20

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

18.2 Implizit definierte Funktionen

2 Stetigkeit und Differenzierbarkeit

Von Skalarprodukten induzierte Normen

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen

Technische Universität München Zentrum Mathematik. Übungsblatt 12

1 Einführung, Terminologie und Einteilung

Lineare (Un-)Gleichungen und lineare Optimierung

Algebraische Kurven - Vorlesung 29. Projektion weg von einem Punkt

Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom

Outline. 1 Vektoren im Raum. 2 Komponenten und Koordinaten. 3 Skalarprodukt. 4 Vektorprodukt. 5 Analytische Geometrie. 6 Lineare Räume, Gruppentheorie

17. Penalty- und Barriere-Methoden

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z

Musterlösung. TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Klausur Mathematik für Physiker 3 (Analysis 2) I... II...

BWL-Crash-Kurs Mathematik

Vorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13)

55 Lokale Extrema unter Nebenbedingungen

Transkript:

Nichtlineare Optimierung Roland Griesse Numerische Mathematik Chemnitzer Skiseminar Gerlosberg, 07. 14. März 2009

Gliederung Konvexe Optimierung 1 Konvexe Optimierung Bedeutung Beispiele Charakterisierung konvexer Funktionen 2 bei konvexen Aufgaben 3

Konvexe Optimierungsaufgaben Bedeutung Beispiele Charakterisierung konvexer Funktionen Konvexe Optimierungsaufgabe min f (x) konvex sodass x C konvex Theorem (Eigenschaften konvexer Optimierungsaufgaben) 1 Jedes lokale Minimum ist bereits globales Minimum. 2 Die Menge globaler Minima ist konvex (evtl. leer). 3 Ist f strikt konvex, dann ist die Lösung (falls sie existiert) eindeutig. Beachte: Diese Eigenschaften gehen verloren bei nicht-konvexen Aufgaben.

Bedeutung Beispiele Charakterisierung konvexer Funktionen Beispiele konvexer Optimierungsaufgaben Lineare Programme (LP) Minimiere sodass c x A x b Minimiere c x sodass A x = b, x 0 Quadratische Programme (QP) Minimiere 1 2 x Q x + b x, Q = Q 0 sodass A 1 x b 1 und A 2 x = b 2

Bedeutung Beispiele Charakterisierung konvexer Funktionen Beispiele konvexer Optimierungsaufgaben Projektionsaufgabe Minimiere f (x) := x y (konvex) sodass x C konvex Allgemeine nichtlineare Optimierungsaufgaben (NLP) Minimiere f (x) konvex sodass g(x) 0 konvex und h(x) = 0 affin-linear Beachte: Hierbei kann man sich geschickt und ungeschickt anstellen.

Bedeutung Beispiele Charakterisierung konvexer Funktionen Konvexe und nichtkonvexe Beschreibungen Beispiel C = {x R 2 : x 1 0, x 1 + x 2 = 0} (konvex) Nichtkonvexe Beschreibung g(x) = x 1 1 + x2 2 0 h(x) = (x 1 + x 2 ) 2 = 0 Konvexe Beschreibung g(x) = x 1 0 h(x) = x 1 + x 2 = 0

Bedeutung Beispiele Charakterisierung konvexer Funktionen Charakterisierung konvexer Funktionen Theorem f (stetig diffbar) ist konvex auf C f (x) f (y) + f (y) (x y) für alle x, y C f (x) f (y), x y 0 für alle x, y C Das heißt: f verläuft oberhalb aller Tangenten der Gradient f ( ) ist ein monotoner Operator

Gliederung Konvexe Optimierung bei konvexen Aufgaben 1 Konvexe Optimierung Bedeutung Beispiele Charakterisierung konvexer Funktionen 2 bei konvexen Aufgaben 3

Nichtlineare Optimierung bei konvexen Aufgaben Nichtlineares Programm (NLP) Minimiere f (x) sodass g(x) 0 g : R n R m und h(x) = 0 h : R n R p (alles stetig diffbar, nicht notwendig konvex) Ziel: notwendige für lokale Minima

bei konvexen Aufgaben Lagrangefunktion L(x, µ, λ) = f (x) + µ g(x) + λ h(x) Nebenbedingungen angekoppelt L x (x, µ, λ) = f (x) + g (x) µ + h (x) λ = 0 h(x) = 0 µ 0, g(x) 0, µ g(x) = 0 (Komplementarität) Ein Tripel (x, µ, λ), das diese Bedingungen erfüllt, heißt KKT-Punkt.

Motivation für bei konvexen Aufgaben Einfacher Fall: h : R n R, keine Ungleichungen f (x) + h(x) λ = 0 Parallelität

Motivation für bei konvexen Aufgaben Einfacher Fall: h : R n R, keine Ungleichungen f (x) + h(x) λ = 0 Parallelität Theorem (Notwendige Bedingungen) Ist x ein lokales Minimum von (NLP) und sind gewisse Regularitätsbedingungen () erfüllt, dann existieren (nicht notwendig eindeutig bestimmte) Lagrange-Multiplikatoren µ, λ, sodass (x, µ, λ ) ein KKT-Punkt ist. Vorteil: System von Gleichungen und Ungleichungen

Brauchen wir CQs? bei konvexen Aufgaben Beispiel Minimiere x 1 sodass g 1 (x) = x 2 + x1 3 0 und g 2 (x) = x 2 0. x = (0, 0) ist eindeutiges (sogar globales) Minimum. g 1 (x) = (3 x 2 1, 1) g 2 (x) = (0, 1) f (x) = ( 1, 0) g 1 (x ) = (0, 1) g 1 (x ) = (0, 1) f (x ) = ( 1, 0)

Brauchen wir CQs? bei konvexen Aufgaben Folgerungen Offenbar lässt sich f (x ) nicht als µ 1 g 1 (x ) + µ 2 g 2 (x ) schreiben. Lagrange-Multiplikatoren existieren nicht. Über lässt sich diese Aufgabe nicht lösen.

Übersicht bei konvexen Aufgaben Zusammenhang allgemeine NLP konvexe NLP LICQ MFCQ Abadie-CQ Slater-Bedingung

Bedeutung der Abadie-CQ Tangentialkegel und Linearisierung bei konvexen Aufgaben T X (x ) := {d R n : {x k x } X, t k 0, k x t k d} { } { gi T lin (x ) := d R n (x ) d 0 für alle i A(x ) } : h j (x ) d = 0 für alle j = 1,... p d T lin (x ) ist tangential zu den Gleichungen, nicht nach außen zeigend bzgl. der aktiven Ungleichungen. In einem lokalen Minimum x gilt: f (x ) d 0 für alle d T X (x ) f (x ) T X (x ) Normalenkegel

Bedeutung der Abadie-CQ Tangentialkegel und Linearisierung bei konvexen Aufgaben T X (x ) := {d R n : {x k x } X, t k 0, k x t k d} { } { gi T lin (x ) := d R n (x ) d 0 für alle i A(x ) } : h j (x ) d = 0 für alle j = 1,... p d T lin (x ) ist tangential zu den Gleichungen, nicht nach außen zeigend bzgl. der aktiven Ungleichungen. In einem lokalen Minimum x gilt: f (x ) d 0 für alle d T X (x ) f (x ) T X (x ) Normalenkegel Problem: Den Normalenkegel T X (x ) kann man nur schwer charakterisieren.

Bedeutung der Abadie-CQ bei konvexen Aufgaben Abadie-CQ Im Punkt x gelte T X (x ) = T lin (x ). f (x ) T X (x ) = T lin (x )

Bedeutung der Abadie-CQ bei konvexen Aufgaben Abadie-CQ Im Punkt x gelte T X (x ) = T lin (x ). f (x ) T X (x ) = T lin (x ) Vorteil { m p T lin (x ) = µ i g i (x ) + λ j h j (x ) : µ i 0 für i A(x ), i=1 j=1 } µ i = 0 für i I(x ), λ j R. Beachte: f (x ) T lin (x ).

Bedeutung der Abadie-CQ bei konvexen Aufgaben Einschätzung Im Allgemeinen sind die Abadie-CQ schwer zu handhaben. Jedoch: Die Abadie-CQ gelten, falls g und h affin-linear sind.

bei konvexen Aufgaben Notorisches Gegenbeispiel für die Abadie-CQ MPCCs Minimiere f (x) sodass 0 g 1 (x), 0 g 2 (x), g 1 (x) g 2 (x) = 0. Die Abadie-CQ ist in bi-aktiven Punkten nicht erfüllt. Die MFCQ ist in keinem zulässigen Punkt erfüllt. Anwendungen Optimierungsaufgaben, in denen ein Optimalitätssystem einer anderen Aufgabe (lower-level) als Nebenbedingung vorkommt.

Weitere CQ bei konvexen Aufgaben MFCQ / Linearisierte Slaterbedingung Die Gradienten { h j (x )} p j=1 seien linear unabhängig. Es existiere ein Vektor d R n mit g i (x ) d < 0 für alle i A(x ) h j (x ) d = 0 für alle j = 1,..., p. LICQ Die Gradienten { h j (x )} p j=1 { g i(x )} i A(x ) sind linear unabhängig.

bei konvexen Aufgaben Slater-Bedingung für konvexe Aufgaben Sei also g( ) konvex und h(x) = A x b. Slater-Bedingung Es existiere ein x 0 (Slater-Punkt) mit g(x 0 ) < 0 und A x 0 = b.

bei konvexen Aufgaben Slater-Bedingung für konvexe Aufgaben Sei also g( ) konvex und h(x) = A x b. Slater-Bedingung Es existiere ein x 0 (Slater-Punkt) mit g(x 0 ) < 0 und A x 0 = b. Vorteil: Man muss x nicht kennen.

bei konvexen Aufgaben für konvexe Aufgaben Theorem (Hinreichende Bedingungen) Ist das (NLP) konvex, dann ist jeder KKT-Punkt (x, µ, λ ) ein lokales = globales Minimum.

bei konvexen Aufgaben für konvexe Aufgaben Theorem (Hinreichende Bedingungen) Ist das (NLP) konvex, dann ist jeder KKT-Punkt (x, µ, λ ) ein lokales = globales Minimum. Beachte: CQs kommen nicht vor.

bei konvexen Aufgaben für konvexe Aufgaben Theorem (Hinreichende Bedingungen) Ist das (NLP) konvex, dann ist jeder KKT-Punkt (x, µ, λ ) ein lokales = globales Minimum. Beachte: CQs kommen nicht vor. Beweis. f (x) f (x ) + f (x ) (x x ) = f (x ) (µ ) g (x )(x x ) (λ ) A (x x ) }{{} =b b=0 f (x ) (µ ) ( g i (x) g i (x ) ) f (x )

bei konvexen Aufgaben Hinreichende Bedingungen 2. Ordnung (SSC) Theorem Es sei (x, µ, λ ) ein KKT-Punkt. Wenn d L xx (x, µ, λ ) d > 0 für alle d T lin (x ) \ {0} gilt, dann ist x ein striktes lokales Minimum von (NLP).

bei konvexen Aufgaben Hinreichende Bedingungen 2. Ordnung (SSC) Theorem Es sei (x, µ, λ ) ein KKT-Punkt. Wenn d L xx (x, µ, λ ) d > 0 für alle d T lin (x ) \ {0} gilt, dann ist x ein striktes lokales Minimum von (NLP). Beachte: (NLP) verhält sich dann in der Nähe von x wie ein strikt konvexes Problem.

bei konvexen Aufgaben Hinreichende Bedingungen 2. Ordnung (SSC) Theorem Es sei (x, µ, λ ) ein KKT-Punkt. Wenn d L xx (x, µ, λ ) d > 0 für alle d T lin (x ) \ {0} gilt, dann ist x ein striktes lokales Minimum von (NLP). Beachte: (NLP) verhält sich dann in der Nähe von x wie ein strikt konvexes Problem. Verfeinerung Diese Aussage gilt auch mit den kleineren Kegel T 2, bei dem man stark aktive Ungleichungen wie Gleichungen behandelt.

Gliederung Konvexe Optimierung 1 Konvexe Optimierung Bedeutung Beispiele Charakterisierung konvexer Funktionen 2 bei konvexen Aufgaben 3

Aufgabenstellung Nichtlineares Programm (NLP) Minimiere f (x) X, Z g, Z h Banachräume sodass g(x) 0 g : X Z g und h(x) = 0 h : X Z h (PDE)

Aufgabenstellung Nichtlineares Programm (NLP) Minimiere f (x) und h(x) = 0 h : X Z h (PDE) X, Z g, Z h Banachräume Zunächst: nur Gleichungsbeschränkungen

Aufgabenstellung Nichtlineares Programm (NLP) Minimiere f (x) und h(x) = 0 h : X Z h (PDE) X, Z g, Z h Banachräume Zunächst: nur Gleichungsbeschränkungen Lagrangefunktion L(x, λ) = f (x) + λ, h(x) Nebenbedingungen angekoppelt mit λ Z h

Notwendige Bedingungen ohne Ungleichungsbeschränkungen L x (x, λ) δx = f (x) δx + λ, h (x) δx = 0 für alle δx X h(x) = 0

Notwendige Bedingungen ohne Ungleichungsbeschränkungen L x (x, λ) δx = f (x) δx + λ, h (x) δx = 0 f (x) + h (x) λ = 0 in X h(x) = 0 für alle δx X

Notwendige Bedingungen ohne Ungleichungsbeschränkungen L x (x, λ) δx = f (x) δx + λ, h (x) δx = 0 f (x) + h (x) λ = 0 in X h(x) = 0 für alle δx X Theorem (Notwendige Bedingungen) Ist x ein lokales Minimum von (NLP) und sind gewisse Regularitätsbedingungen () erfüllt, dann existieren (nicht notwendig eindeutig bestimmte) Lagrange-Multiplikatoren λ Z h, sodass (x, λ ) ein KKT-Punkt ist.

LICQ Die lineare Abbildung h (x ) ist surjektiv auf Z h. Bedeutung für PDEs Die lineariserte PDE h (x ) δx = f ist für jede rechte Seite f Z h lösbar in X.

Ungleichungsbeschränkungen Frage: Was soll g(x) 0 für x X bedeuten? Eigentlicher (proper) Kegel Ein konvexer Kegel K Z heißt eigentlich, wenn gilt: K ( K) = {0} K ist abgeschlossen K hat nichtleeres Inneres Bedeutung eigentlicher Kegel Ein eigentlicher Kegel induziert mittels x K y y x K x < K y y x int(k) eine [strikte] partielle Ordnung, die verträglich ist mit der Addition und mit Limiten in Z.

Lagrange-Multikplikatoren für Ungleichungen Ungleichungsbeschränkung g(x) K 0, g(x) K K Z g eigentlicher Kegel Lagrange-Multiplikatoren leben im Dualkegel: Dualkegel K = {µ Zg : µ, k 0 für alle k K} Wenn K eigentlicher Kegel ist, dann auch K ( Ordnung auf Zh ).

Lagrange-Funktion und KKT-Punkt Lagrangefunktion L(x, µ, λ) = f (x) + µ, g(x) + λ, h(x) L x (x, µ, λ) = f (x) + g (x) µ + h (x) λ = 0 h(x) = 0 µ K 0, g(x) K 0, µ, g(x) = 0 (Komplementarität) Beachte: Die Regularität der Multiplikatoren ist bei Optimalsteueraufgaben oft besser als erwartet (µ Z g, λ Z h ).

Slater-Bedingung für konvexe Aufgaben Sei also g( ) konvex und h(x) = A x b. Slater-Bedingung Es existiere ein x 0 (Slater-Punkt) mit g(x 0 ) < K 0 und A x 0 = b.

Slater-Bedingung für konvexe Aufgaben Sei also g( ) konvex und h(x) = A x b. Slater-Bedingung Es existiere ein x 0 (Slater-Punkt) mit Beachte: g(x 0 ) int(k) g(x 0 ) < K 0 und A x 0 = b.

Slater-Bedingung für konvexe Aufgaben Sei also g( ) konvex und h(x) = A x b. Slater-Bedingung Es existiere ein x 0 (Slater-Punkt) mit g(x 0 ) < K 0 und A x 0 = b. Beachte: g(x 0 ) int(k) Beispiele konvexer Aufgaben Optimalsteuerungsaufgaben mit quadratischem Zielfunktional linearer PDE (Gleichungsnebenbedingung) linearen punktweisen Ungleichungen (z.b. Box-Beschränkungen)

CQ für allgemeine Aufgaben Allgemeine Theorie: [Zowe, Kurcyusz (1979)] MFCQ / Linearisierte Slater-Bedingung h (x ) sei surjektiv Es existiere d X mit { g(x ) + g (x ) d < K 0 h(x ) +h (x ) d = 0 }{{} =0 Vergleiche MFCQ im Endlich-Dimensionalen Die Gradienten { h j (x )} p j=1 seien linear unabhängig. Es existiere ein Vektor d R n mit g i (x ) d < 0 für alle i A(x ) h j (x ) d = 0 für alle j = 1,..., p.

Erweiterungen Konvexe Grundmenge Die Theorie kann erweitert werden auf Minimiere f (x) über x C, C konvex sodass g(x) 0 und h(x) = 0 Die L x (x, µ, λ ) = 0 wird dann ersetzt durch L x (x, µ, λ )(x x ) 0 für alle x C. Man bekommt keine Lagrange-Multiplikatoren für x C.

Erweiterungen Gleichungen und Ungleichungen Die Gleichungen h(x) = 0 können als verallgemeinerte Ungleichungen g(x) K 0 geschrieben werden mit K = {0}. Dann ist µ K = Zg der ganze Raum (keine Vorzeichenbedingung).

Hinreichende Bedingungen 2. Ordnung (SSC) Wir betrachten zunächst die Aufgabe Minimiere f (x), x C X, C konvex. Notwendige Bedingung 1. Ordnung f (x )(x x ) 0 für alle x C. Theorem (Hinreichende Bedingung) x erfülle die notwendige Bedingung 1. Ordnung. Es existiere δ > 0 mit f (x )(x, x) δ x 2 für alle x X. Dann ist x ein strikt lokales Minimum, und es gilt f (x + h) f (x ) + δ 4 h 2 für h hinreichend klein.

(Gegen-)Beispiel (Tröltzsch, Kapitel 4.9) Aufgabenstellung Minimiere sodass f (u) := 1 0 cos(u(x)) dx u C = {u L 2 (0, 1) : 0 u(x) 2π f.ü.} Offenbar ist u 0 eine globale Lösung der Aufgabe. Die notwendige Bedingung 1. Ordnung f (u )(u u ) = 1 für alle u C ist erfüllt. 0 sin(u (x))(u(x) u (x)) dx = 1 0 sin(0) u(x) dx = 0

(Gegen-)Beispiel (Tröltzsch, Kapitel 4.9) f (u )(u, u) = 1 0 cos(0) u 2 (x) dx = 1 u 2 L 2 (0,1) für alle u L 2 (0, 1). Also ist die hinreichende Bedingung 2. Ordnung erfüllt, und u 0 ist ein strikt lokales Minimum. Aber: Auch die Funktion u ε (x) = { 2π, 0 x ε 0, ε < x 1 ist für jedes ε > 0 ein globales Minimum, und es gilt u u ε 2 L 2 (0,1) = 2π ε.

(Gegen-)Beispiel (Tröltzsch, Kapitel 4.9) Fehler Die Funktion f (u) := 1 0 cos(u(x)) dx ist im Raum L 2 (0, 1) nicht zweimal stetig diffbar, jedoch in L (0, 1).

(Gegen-)Beispiel (Tröltzsch, Kapitel 4.9) Fehler Die Funktion f (u) := 1 0 cos(u(x)) dx ist im Raum L 2 (0, 1) nicht zweimal stetig diffbar, jedoch in L (0, 1). Aber: In L (0, 1) bekommen wir nicht die benötigte Abschätzung f (u )(u, u) δ u 2 L (0,1) für alle u L (0, 1). Zwei-Norm-Diskrepanz

Ausweg Konvexe Optimierung Arbeiten mit zwei Normen Im Beispiel: f (u + h) f (u) = Taylorpolynom 2. Ordnung + r 2 (u, h) mit der Restgliedabschätzung Es folgt: r 2 (u, h) h 2 L 2 (0,1) 0 für h L (0,1) 0. f (u + h) f (u ) + δ h 2 L 2 (0,1), falls h L (0,1) ε.

Aufgabe Konvexe Optimierung Beispiel: (Tröltzsch, Satz 4.27) Minimiere ϕ(x, y) dx + ψ(x, u) dx Ω Ω { y + y + d(x, y) = u in Ω unter y n = 0 auf Γ und u a (x) u(x) u b (x) f.ü. in Ω Voraussetzungen: siehe Tröltzsch, Vor. 4.12 Notwendige Bedingung 1. Ordnung Ω p + p + d y (x, y ) p = ϕ y (x, y ) in Ω p n = 0 auf Γ [ p + ψ u (x, u ) ] (u u ) dx 0 für alle u U ad

Beispiel: (Tröltzsch, Satz 4.27) Theorem (Hinreichende Bedingung 2. Ordnung) Falls (y, u, p ) die notwendige Bedingung 1. Ordnung und L xx (y, u, p )[(y, u), (y, u)] δ u 2 L 2 (Ω) für alle u C(u ) mit zugehörigem linearisertem Zustand y y + y + d y (x, y ) y = u y n = 0 in Ω auf Γ erfüllt, dann gilt die quadratische Wachstumsbedingung J(y, u) J(y, u ) + δ u u 2 L 2 (Ω) für alle u U ad mit u u L (Ω) ε.

Beispiel: (Tröltzsch, Satz 4.27) Kegel zulässiger Richtungen C(u ) = { u L (Ω) : { } u(x) 0 wo u = u } a u(x) 0 wo u = u b Dieser kann noch verkleinert werden, indem man stark aktive Ungleichungen berücksichtigt, vgl. T lin (x ) und T 2 (x ).

Zusammenfassung Eigenschaften konvexer Optimierungsaufgaben lokale = globale Minima notwendige Bedingungen sind hinreichend allgemeines (NLP) und hinreichende Bedingungen 2. Ordnung unendlich-dimensionale Optimierung und hinreichende Bedingungen 2. Ordnung: Zwei-Norm-Diskrepanz

Referenzen Konvexe Optimierung S. Boyd and L. Vandenberghe. Convex Optimization. Cambridge University Press, Cambridge, 2004. J. Zowe and S. Kurcyusz. Regularity and stability for the mathematical programming problem in Banach spaces. Applied Mathematics and Optimization, 5(1):49 62, 1979. H. Maurer and J. Zowe. First and second order necessary and sufficient optimality conditions for infinite-dimensional programming problems. Mathematical Programming, 16:98 110, 1979. F. Tröltzsch. Optimale Steuerung partieller Differentialgleichungen. Vieweg, Wiesbaden, 2005.