Studientag zur Algorithmischen Mathematik

Ähnliche Dokumente
Studientag zur Algorithmischen Mathematik

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren Thomas Brox, Fabian Kuhn

Optimierung für Nichtmathematiker

3 Optimierung mehrdimensionaler Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

Inhaltsübersicht für heute:

12. Potentialflächen und Optimierung

Optimierung für Nichtmathematiker

6.8 Newton Verfahren und Varianten

Bemerkung 2.1: Das Newtonverahren kann auch als sequential quad. minimization verstanden werden: 2.1 Ein globalisiertes Newtonverfahren

Taylor-Entwicklung der Exponentialfunktion.

Das Trust-Region-Verfahren

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

GRUNDLAGEN MATHEMATIK

Modulprüfung Numerische Mathematik 1

Problem lokaler Minima

Einführung in die nichtlineare Optimierung

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems

Numerische Methoden und Algorithmen in der Physik

Einführung in die Optimierung

Konvexe Mengen und Funktionen

Optimierung und inverse Probleme

Extremwerte von Funktionen mehrerer reeller Variabler

TU Dresden Fachrichtung Mathematik Institut für Numerische Mathematik 1. Dr. M. Herrich SS 2017

Der CG-Algorithmus (Zusammenfassung)

Studientag zur Algorithmischen Mathematik

Musterlösung. TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Klausur Mathematik für Physiker 3 (Analysis 2) I... II...

18.4 Das Newton-Verfahren

ist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1

Optimierung für Nichtmathematiker

Mathematik für Wirtschaftswissenschaftler Kapitel 4-6. Universität Trier Wintersemester 2013 / 2014

Nichtlineare Optimierung

Optimierung. Florian Jarre Josef Stoer. Springer

II. Nichtlineare Optimierung

Skript zur Vorlesung. Optimierung. gelesen von. Prof. Dr. S. Volkwein

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Numerische Optimierung

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel

18 Höhere Ableitungen und Taylorformel

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Lagrange-Multiplikatoren

KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen)

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik

Wiederholung von Linearer Algebra und Differentialrechnung im R n

2 Statische Optimierung: Unbeschränkter Fall

BWL-Crash-Kurs Mathematik

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme

Kapitel 3. Konvergenz von Folgen und Reihen

Höhere Mathematik für Physiker II

Innere-Punkt-Methoden

Lineare und nichtlineare Optimierung

3 Nichtlineare Gleichungssysteme

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Misterlösung zur Klausur zur Vorlesung Analysis I, WS08/09, Samstag, (Version C)

5 Numerische Mathematik

Vorlesung: Analysis I für Ingenieure

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

Iterative Verfahren, Splittingmethoden

TECHNISCHE UNIVERSITÄT MÜNCHEN Zentrum Mathematik

Nullstellen von algebraischen Gleichungen

Rückblick auf die letzte Vorlesung

5.10. Mehrdimensionale Extrema und Sattelpunkte

(d) das zu Grunde liegende Problem gut konditioniert ist.

55 Lokale Extrema unter Nebenbedingungen

Finite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015

Rückblick auf die letzte Vorlesung. Bemerkung

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Mathematik für Naturwissenschaftler I WS 2009/2010

Studientag zur Algorithmischen Mathematik

Numerische Verfahren zur Lösung der Monge-Ampère-Gleichung

Inhaltsverzeichnis. 1 Einleitung 1 Struktur und Einsatz von Optimierungsmethoden 2 Einsatz der Optimierung in der Steuerungs- und Regelungstechnik 6

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Anwendungen der Differentialrechnung

Teil I. Unrestringierte Probleme

Nichtlineare Gleichungssysteme

Die Tangentialebene. {(x, y, z) z = f(x 0, y 0 )+ f x (x 0, y 0 )(x x 0 )+ f. y (x 0, y 0 )(y y 0 )}

TECHNISCHE UNIVERSITÄT MÜNCHEN

4.4 Lokale Extrema und die Hessesche Form

Mathematik I Prüfung Frühlingssemester 2014

5 Teilmengen von R und von R n

Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2

,...) ist eine Folge, deren Glieder der Null beliebig nahe kommen. (iii) Die Folge a n = ( 1) n + 1 n oder (a n) = (0, 3 2, 2 3, 5 4, 4 5

8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN

Analysis I. Guofang Wang Universität Freiburg

Musterlösung zu Blatt 1

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

Nebenfach Mathematik im Informatik-Studium. Martin Gugat FAU: Friedrich-Alexander-Universität Erlangen-Nürnberg 26.

Optimierung. Vorlesung 13

Nichtlineare Gleichungen in einer und mehreren Unbekannten

Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.4 Anwendungen (Teil 2): Extremwerte

Großes Lehrbuch der Mathematik für Ökonomen

Rechenoperationen mit Folgen. Rekursion und Iteration.

Optimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme

Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung

Humboldt-Universität zu Berlin Institut für Mathematik Prof. A. Griewank Ph.D.; Dr. A. Hoffkamp; Dipl.Math. T.Bosse; Dipl.Math. L. Jansen,T.

8 Iterationsverfahren zur Lösung von Gleichungssystemen

Das Newton Verfahren.

Transkript:

Studientag zur Algorithmischen Mathematik Numerische Verfahren der nicht-linearen Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012

Outline Line Search Ein generisches Verfahren Abstiegsrichtungen Zur Konvergenz und zur Praxis

Fragestellungen Existenz und Charakterisierung von Lösungen Existenz durch geeignete Voraussetzungen sicherstellen. Wir werden lokale Extremwerte charakterisieren. Notwendige und hinreichende Bedingungen. Algorithmen zur Bestimmung von Lösungen

Fragestellungen Existenz und Charakterisierung von Lösungen Existenz durch geeignete Voraussetzungen sicherstellen. Wir werden lokale Extremwerte charakterisieren. Notwendige und hinreichende Bedingungen. Algorithmen zur Bestimmung von Lösungen Suchrichtungen

Fragestellungen Existenz und Charakterisierung von Lösungen Existenz durch geeignete Voraussetzungen sicherstellen. Wir werden lokale Extremwerte charakterisieren. Notwendige und hinreichende Bedingungen. Algorithmen zur Bestimmung von Lösungen Suchrichtungen Schrittweiten

Fragestellungen Existenz und Charakterisierung von Lösungen Existenz durch geeignete Voraussetzungen sicherstellen. Wir werden lokale Extremwerte charakterisieren. Notwendige und hinreichende Bedingungen. Algorithmen zur Bestimmung von Lösungen Suchrichtungen Schrittweiten Konvergenzaussagen

Unimodale Funktionen Wenn wir eine Abstiegsrichtung bestimmt haben, müssen wir uns überlegen, wie weit wir in diese Richtung gehen wollen.

Unimodale Funktionen Wenn wir eine Abstiegsrichtung bestimmt haben, müssen wir uns überlegen, wie weit wir in diese Richtung gehen wollen. Die Aufgabenstellung, in eine Suchrichtung zu minimieren, ist nun ein eindimensionales Problem.

Unimodale Funktionen Wenn wir eine Abstiegsrichtung bestimmt haben, müssen wir uns überlegen, wie weit wir in diese Richtung gehen wollen. Die Aufgabenstellung, in eine Suchrichtung zu minimieren, ist nun ein eindimensionales Problem. Da wir auch hier im Allgemeinen nur lokale Minima finden können, idealisieren wir die Aufgabenstellung.

Unimodale Funktionen Wenn wir eine Abstiegsrichtung bestimmt haben, müssen wir uns überlegen, wie weit wir in diese Richtung gehen wollen. Die Aufgabenstellung, in eine Suchrichtung zu minimieren, ist nun ein eindimensionales Problem. Da wir auch hier im Allgemeinen nur lokale Minima finden können, idealisieren wir die Aufgabenstellung. Definition f : [a, b] R heißt strikt unimodal auf [a, b], wenn f genau ein lokales Minimum in [a, b] hat,

Unimodale Funktionen Wenn wir eine Abstiegsrichtung bestimmt haben, müssen wir uns überlegen, wie weit wir in diese Richtung gehen wollen. Die Aufgabenstellung, in eine Suchrichtung zu minimieren, ist nun ein eindimensionales Problem. Da wir auch hier im Allgemeinen nur lokale Minima finden können, idealisieren wir die Aufgabenstellung. Definition f : [a, b] R heißt strikt unimodal auf [a, b], wenn f genau ein lokales Minimum in [a, b] hat, strikt konvex, wenn x, y [a, b] λ ]0, 1[: f (λx + (1 λ)y) < λf (x) + (1 λ)f (y)

Unimodale Funktionen Wenn wir eine Abstiegsrichtung bestimmt haben, müssen wir uns überlegen, wie weit wir in diese Richtung gehen wollen. Die Aufgabenstellung, in eine Suchrichtung zu minimieren, ist nun ein eindimensionales Problem. Da wir auch hier im Allgemeinen nur lokale Minima finden können, idealisieren wir die Aufgabenstellung. Definition f : [a, b] R heißt strikt unimodal auf [a, b], wenn f genau ein lokales Minimum in [a, b] hat, strikt konvex, wenn x, y [a, b] λ ]0, 1[: f (λx + (1 λ)y) < λf (x) + (1 λ)f (y) Strikt konvex strikt unimodal.

Line search Proposition f strikt unimodal λ ]0, 1[ : f (λx + (1 λ)y) < max{f (x), f (y)}.

Line search Proposition f strikt unimodal λ ]0, 1[ : f (λx + (1 λ)y) < max{f (x), f (y)}. a x n+1 xn b

Line search Proposition f strikt unimodal λ ]0, 1[ : f (λx + (1 λ)y) < max{f (x), f (y)}. a x n+1 xn b Falls f (x n+1 ) < f (x n ): neues Suchintervall ist [a, x n ]. Falls f (x n+k ) > f (x n ): neues Suchintervall ist [x n+k, b].

Line search Proposition f strikt unimodal λ ]0, 1[ : f (λx + (1 λ)y) < max{f (x), f (y)}. a x n+1 xn b Falls f (x n+1 ) < f (x n ): neues Suchintervall ist [a, x n ]. Falls f (x n+k ) > f (x n ): neues Suchintervall ist [x n+k, b]. Platziere neue Punkte möglichst effizient.

Line search Platziere neue Punkte möglichst effizient.

Line search Platziere neue Punkte möglichst effizient. a x n+1 x n b } {{ } l 1 } {{ } l 2 } {{ } l 1

Line search Platziere neue Punkte möglichst effizient. a x n+1 x n b } {{ } l 1 } {{ } l 2 } {{ } l 1 1. Platziere x n und x n+1 symmetrisch.

Line search Platziere neue Punkte möglichst effizient. a x n+1 x n b } {{ } l 1 } {{ } l 2 } {{ } l 1 1. Platziere x n und x n+1 symmetrisch. 2. Je weiter innen x n und x n+1 platziert werden, desto größer der Fortschritt jetzt.

Line search Platziere neue Punkte möglichst effizient. a x n+1 x n b } {{ } l 1 } {{ } l 2 } {{ } l 1 1. Platziere x n und x n+1 symmetrisch. 2. Je weiter innen x n und x n+1 platziert werden, desto größer der Fortschritt jetzt. 3. Je weiter innen x n und x n+1 platziert werden, desto kleiner der Fortschritt im nächsten Schritt.

Line search Platziere neue Punkte möglichst effizient. a x n+1 x n b } {{ } l 1 } {{ } l 2 } {{ } l 1 1. Platziere x n und x n+1 symmetrisch. 2. Je weiter innen x n und x n+1 platziert werden, desto größer der Fortschritt jetzt. 3. Je weiter innen x n und x n+1 platziert werden, desto kleiner der Fortschritt im nächsten Schritt. Beiden Fällen am Besten gerecht: Platzierung im Goldenen Schnitt. l 1 = l 1 + l 2 = 1 + 5 l 2 l 1 2

Generisches Optimierungsverfahren Starte in x 0 S

Generisches Optimierungsverfahren Starte in x 0 S k := 1

Generisches Optimierungsverfahren Starte in x 0 S k := 1 Solange f (x k 1 ) > ε:

Generisches Optimierungsverfahren Starte in x 0 S k := 1 Solange f (x k 1 ) > ε: Wähle Abstiegsrichtung d k mit f (x k 1 )d k < 0

Generisches Optimierungsverfahren Starte in x 0 S k := 1 Solange f (x k 1 ) > ε: Wähle Abstiegsrichtung d k mit f (x k 1 )d k < 0 Wähle Schrittweite t k

Generisches Optimierungsverfahren Starte in x 0 S k := 1 Solange f (x k 1 ) > ε: Wähle Abstiegsrichtung d k mit f (x k 1 )d k < 0 Wähle Schrittweite t k x k := x k 1 + t k d k

Generisches Optimierungsverfahren Starte in x 0 S k := 1 Solange f (x k 1 ) > ε: Wähle Abstiegsrichtung d k mit f (x k 1 )d k < 0 Wähle Schrittweite t k x k := x k 1 + t k d k k := k + 1

Generisches Optimierungsverfahren Starte in x 0 S k := 1 Solange f (x k 1 ) > ε: Wähle Abstiegsrichtung d k mit f (x k 1 )d k < 0 Wähle Schrittweite t k x k := x k 1 + t k d k k := k + 1

Prominente Abstiegsrichtungen Koordinatensuche: Suche Richtung x i zyklisch für i = 1,..., n.

Prominente Abstiegsrichtungen Koordinatensuche: Suche Richtung x i zyklisch für i = 1,..., n. Leicht zu implementieren, in der Regel nicht sehr effizient.

Prominente Abstiegsrichtungen Koordinatensuche: Suche Richtung x i zyklisch für i = 1,..., n. Leicht zu implementieren, in der Regel nicht sehr effizient. Gradientenverfahren: Suche in Richtung des steilsten Abstiegs f (x k 1 ).

Prominente Abstiegsrichtungen Koordinatensuche: Suche Richtung x i zyklisch für i = 1,..., n. Leicht zu implementieren, in der Regel nicht sehr effizient. Gradientenverfahren: Suche in Richtung des steilsten Abstiegs f (x k 1 ). Man beobachtet Zickzackverhalten.

Prominente Abstiegsrichtungen Koordinatensuche: Suche Richtung x i zyklisch für i = 1,..., n. Leicht zu implementieren, in der Regel nicht sehr effizient. Gradientenverfahren: Suche in Richtung des steilsten Abstiegs f (x k 1 ). Man beobachtet Zickzackverhalten. Newtonrichtung: Nach Taylor ist f (x k 1 + v) f (x k 1 ) + f (x k 1 ) v + 1 2 v 2 f (x k 1 )v.

Prominente Abstiegsrichtungen Koordinatensuche: Suche Richtung x i zyklisch für i = 1,..., n. Leicht zu implementieren, in der Regel nicht sehr effizient. Gradientenverfahren: Suche in Richtung des steilsten Abstiegs f (x k 1 ). Man beobachtet Zickzackverhalten. Newtonrichtung: Nach Taylor ist f (x k 1 + v) f (x k 1 ) + f (x k 1 ) v + 1 2 v 2 f (x k 1 )v. Den stationären Punkt dieser quadratischen Funktion finden wir in x k 1 2 f (x k 1 ) 1 f (x k 1 ).

Prominente Abstiegsrichtungen Koordinatensuche: Suche Richtung x i zyklisch für i = 1,..., n. Leicht zu implementieren, in der Regel nicht sehr effizient. Gradientenverfahren: Suche in Richtung des steilsten Abstiegs f (x k 1 ). Man beobachtet Zickzackverhalten. Newtonrichtung: Nach Taylor ist f (x k 1 + v) f (x k 1 ) + f (x k 1 ) v + 1 2 v 2 f (x k 1 )v. Den stationären Punkt dieser quadratischen Funktion finden wir in x k 1 2 f (x k 1 ) 1 f (x k 1 ).Deswegen bezeichnen wir als Newtonrichtung. 2 f (x k 1 ) 1 f (x k 1 )

Zur Konvergenz und zur Praxis Wir haben gezeigt, dass bei Koordinatensuche und Gradientenverfahren jede konvergente Teilfolge gegen einen stationären Punkt konvergiert.

Zur Konvergenz und zur Praxis Wir haben gezeigt, dass bei Koordinatensuche und Gradientenverfahren jede konvergente Teilfolge gegen einen stationären Punkt konvergiert. In der Praxis wird man den line search nicht exakt durchführen, oder einen stationären Punkt suchen, sondern eine hinreichend gute Verbesserung anstreben.

Zur Konvergenz und zur Praxis Wir haben gezeigt, dass bei Koordinatensuche und Gradientenverfahren jede konvergente Teilfolge gegen einen stationären Punkt konvergiert. In der Praxis wird man den line search nicht exakt durchführen, oder einen stationären Punkt suchen, sondern eine hinreichend gute Verbesserung anstreben. Wir haben das Newtonverfahren als Suchverfahren in Newtonrichtung mit Schrittweite 1 definiert.

Zur Konvergenz und zur Praxis Wir haben gezeigt, dass bei Koordinatensuche und Gradientenverfahren jede konvergente Teilfolge gegen einen stationären Punkt konvergiert. In der Praxis wird man den line search nicht exakt durchführen, oder einen stationären Punkt suchen, sondern eine hinreichend gute Verbesserung anstreben. Wir haben das Newtonverfahren als Suchverfahren in Newtonrichtung mit Schrittweite 1 definiert. In der Praxis wird man hier auch eine Schrittweitensteuerung einbauen.

Konjugierte Gradienten In der Praxis sind konjugierte Gradientenverfahren sehr erfolgreich.

Konjugierte Gradienten In der Praxis sind konjugierte Gradientenverfahren sehr erfolgreich. Ich finde das nicht direkt ersichtlich.

Konjugierte Gradienten In der Praxis sind konjugierte Gradientenverfahren sehr erfolgreich. Ich finde das nicht direkt ersichtlich. Eine weitere wichtige Beobachtung im Hinblick auf große Probleme ist die folgende. Sind die s größten Eigenwerte von Q deutlich voneinander separiert und häufen sich die übrigen n s Eigenwerte an einer Stelle, z. B. bei 0, so erreicht das CG-Verfahren eine gute Näherung für den optimalen Zielfunktionswert des Problems nach s + 1 Iterationen...Diese Aussagen sind qualitativ auch auf lokale Lösungen einer nichtquadratischen Funktion f, in denen die Optimalitätsbedingungen zweiter Ordnung erfüllt sind, übertragbar, da f in einer Umgebung eines solchen Punktes durch eine gleichmäßig konvexe, quadratische Funktion angenähert werden kann. Zitat aus Reemtsen: Einführung in die nicht-lineare Optimierung.