Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn

Ähnliche Dokumente
Optimierung für Nichtmathematiker

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer

Bemerkung 2.1: Das Newtonverahren kann auch als sequential quad. minimization verstanden werden: 2.1 Ein globalisiertes Newtonverfahren

Optimale Steuerung 1

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren Thomas Brox, Fabian Kuhn

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren

12. Potentialflächen und Optimierung

Studientag zur Algorithmischen Mathematik

6.8 Newton Verfahren und Varianten

Seminarvortrag: Trust-Region-Verfahren

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn

Optimierung für Nichtmathematiker

Das Trust-Region-Verfahren

Das Gradientenverfahren

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Studientag zur Algorithmischen Mathematik

Das Subgradientenverfahren

5.3.5 Abstiegs & Gradientenverfahren

Praktische Optimierung

Praktische Optimierung

Inhaltsübersicht für heute:

(d) das zu Grunde liegende Problem gut konditioniert ist.

NICHTRESTRINGIERTE OPTIMIERUNG

Nichtlineare Gleichungssysteme

Mathematik für Wirtschaftswissenschaftler im WS 12/13 Lösungen zu den Übungsaufgaben Blatt 12

3 Optimierung mehrdimensionaler Funktionen f : R n R

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Iterative Verfahren: Allgemeines, Fixpunkt-Iteration, Nullstellen. Prof. U. Rüde - Algorithmik kontinuierlicher Systeme

Der CG-Algorithmus (Zusammenfassung)

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

Nullstellen von algebraischen Gleichungen

Kapitel 5 Nichtlineare Gleichungssysteme und Iterationen

Inhalt Kapitel I: Nichtlineare Gleichungssysteme

Optimierung für Nichtmathematiker

7. Nichtlineare Gleichngssysteme. Problem 7: Sei f : R n R n stetig. Löse f(x) = 0.

Nichtlineare Gleichungssysteme

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

Modulprüfung Numerische Mathematik 1

6. Iterationsverfahren. Fixpunktiteration. 6.Iterationsverfahren: Fixpunktiteration Numerisches Programmieren, Jürgen Bräckle page 1 of 16

Newton-Verfahren für ein Skalarfunktion

Kapitel 4: Nichtlineare Nullstellenprobleme

Globale Newton Verfahren

5.1 Iterative Lösung linearer Gleichungssysteme

3 Nichtlineare Gleichungssysteme

Näherungsverfahren zur Bestimmung der Nullstelle α sind iterativ, d.h. sie liefern eine Folge {x (k) } k=0 mit α = lim x (k). (3.0.

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme

Technische Universität München Zentrum Mathematik. Optimierung 3, SS 2009 Übungsblatt 12

Teil 6. Differentialrechnung mehrerer Veränderlicher

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems

Musterlösung Klausur zu Analysis II. Verständnisteil

Analysis I für Studierende der Ingenieurwissenschaften

Ausgleichsproblem. Definition (1.0.3)

D-ITET, D-MATL Numerische Methoden FS 2014 Dr. R. Käppeli M. Sprecher. Musterlösung 5

2 a 6. a 4 a Wir führen nun den Gauÿalgorithmus durch: 2 a a 2 4a 2 4a a a 2 2a 0 2 a

Mathematik. für das Ingenieurstudium. 10 Funktionen mit mehreren Variablen. Jürgen Koch Martin Stämpfle.

Einführung in die numerische Mathematik

KAPITEL 3. Konvexe Funktionen

Nichtlineare Ausgleichsrechnung

Rechnerpraktikum zur Nichtlinearen Optimierung

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)

Bestimmung der Wurzeln nichtlinearer Gleichungen. Mária Lukáčová (Uni-Mainz) Nichtlineare Gleichungen June 22, / 10

Numerische Lineare Algebra

Einführung in Softwaretools zur Nichtlinearen Optimierung

Iterative Methoden zur Lösung von linearen Gleichungssystemen

3. Approximation von Funktionen und Extremwertprobleme im R n

Kontinuierliche Optimierung

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung

Berechnung von Extrema

2 k k 1 k(k + 1) = 2n+1. n = 0 = k(k + 1) = 2n+1 n n. = 2 n+1 n + 2 (n + 1)(n + 2) + n. (n + 1)(n + 2)

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

18.4 Das Newton-Verfahren

4x 1 + 2x 2 + 3x 3 = 1, x 2 + ax 3 = 1, ax 2 + x 3 = a 1. 0 a 1 1 Wir führen nun den Gauÿalgorithmus durch:

Differentialrechnung im R n

Übungen zu Grundlagen der Mathematik 2 Lösungen Blatt 12 SS 14. Aufgabe 44. Bestimmen Sie die Taylor-Polynome der Funktion.

Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger auf Details.

Höhere Mathematik für Physiker II

4 Differenzierbarkeit einer konjugierten Funktion

Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 2016/17

Name: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: b a 2 3a 1

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016

Kapitel 3. Konvergenz von Folgen und Reihen

Inexakte Newton Verfahren

(c) Gegeben sei der zweidimensionale Raum L mit den Basisfunktionen. [ φ i, φ j ] 3 i,j=1 =

8 Iterationsverfahren zur Lösung von Gleichungen

8 Iterationsverfahren zur Lösung von Gleichungssystemen

Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2

Rechenoperationen mit Folgen. Rekursion und Iteration.

Numerische Ableitung

Regression IV: Anpassung mit nichtlinearen Funktionen. Teil B: Nicht linearisierbare Modelle. -Fortsetzung-

Mathematischer Vorkurs für Physiker WS 2012/13

z 2 + 2z + 10 = 0 = 2 ± 36 2 Aufgabe 2 (Lineares Gleichungssystem) Sei die reelle 3 4 Matrix

Übung 5, Analytische Optimierung

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Vorlesung: Analysis II für Ingenieure. Wintersemester 09/10. Michael Karow. Themen: Taylor-Entwicklung und lokale Extrema

Übungen zur Mathematik Blatt 1

AM3: Differenzial- und Integralrechnung im R n. 1 Begriffe. 2 Norm, Konvergenz und Stetigkeit. x 1. x 2. f : x n. aus Platzgründen schreibt man:

Transkript:

Optimierung Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 1

Newton Verfahren Taylor Approximation 1. Ordnung von Newton Verfahren! 0 Setze 0und berechne Löse lineares Gleichungssystem für : 2

Newton Verfahren (alternative Sicht) Taylor Approximation 2. Ordnung von 1 2 Newton Verfahren Neuer Wert : minimiere 2. Ordnung Taylor Approximation 3

Fortschritt beim Newton Verfahren Abstiegsrichtung Eine Richtung ist eine Abstiegsrichtung für einen Wert, falls 0 Beispiel: Neg. Gradient Taylor Approximation: Newton Richtung Falls positiv definit ist, ist eine Abstiegsrichtung 4

Fortschritt beim Newton Verfahren Konvexe Funktionen : Newton Richtung ist eine Abstiegsrichtung Newton Verfahren konvergiert zu lokalem Minimum Konvexe, quadratische Funktionen : Newton Schritt geht zu Minimum der quadratischen Approx. von Verfahren erreicht lokales Minimum in einem Schritt! Allgemein: Konvergiert sobald man nahe genug bei einem lokalen Minimum ist Kannmitline search (wie beim Gradientenverfahren) kombiniert werden: Newton Richtung: Bestimme, so dass minimal ist 5

Konvergenz Wie schnell kommt man zum lokalen Minimum? Konvergenz von Folgen,,, lim Lineare Konvergenz: lim sup Superlineare Konvergenz: lim sup 0 Quadratische Konvergenz: lim sup 6

Konvergenz der wichtigstenverfahren Gradientenverfahren (steilster Abstieg) lineare Konvergenz Newtonverfahren quadratische Konvergenz minimiert quadratische Funktionen in 1 Schritt Konjugierte Gradienten minimiert dimensionale quadratische Funktionen in Schritten quadratische Konvergenz alle Schritte (superlinear) Quasi Newtonverfahren superlineare Konvergenz einfacher als Newton Verfahren 7

Quadratische Konvergenz des Newton Verfahren Ziel: Die Sequenz,, konvergiert quadratisch gegen Matrix Norm einer Matrix max :,,:, Annahmen: Für, nahe genug bei gilt, sowie für Konstanten, 0 Lemma: 8

Quadratische Konvergenz des Newton Verfahren Lemma: Beweis: Definiere Ableitung 9

Quadratische Konvergenz des Newton Verfahren Ziel: Die Sequenz,, konvergiert quadratisch gegen Lemma: 10

Quadratische Konvergenz des Newton Verfahren Matrix Norm einer Matrix,,:, Annahmen: Für, nahe genug bei gilt, sowie für Konstanten, 0 11

Quadratische Konvergenz des Newton Verfahren Matrix Norm einer Matrix,,:, Annahmen: Für, nahe genug bei gilt, sowie für Konstanten, 0 12

Gradientenverfahren vs. Newton Verfahren Gradientenverfahren Lineare Konvergenz Benötigt i.a. deutlich mehr Schritte (vor allem, wenn die Hesse sche Matrix schlecht konditioniert ist) 1. Ableitung nötig 1 Iterationsschritt: Evaluation Gradient + line search Billige Schritte, schlechte Konv. Bessere Konvergenz: Konjugierte Gradientenverfahren Newton Verfahren Quadratische Konvergenz konvergiert in wenigen Schritten (bei quadr. Problem in 1 Schritt) 1. & 2. Ableitung nötig 1 Iterationsschritt: Evaluation Gradient + Hesse sche Matrix dim. lineares Gl. system Teure Schritte, gute Konvergenz Einfachere Iterationen: Quasi Newton Verfahren 13

Quasi Newton Verfahren Newton Verfahren + Line Search:, wobei Idee: Ersetze durch eine Matrix, welche einfacher berechnet werden kann Taylor Approximation: Idee: sollte dies auch erfüllen... Quasi Newton Bedingung:, wobei, 14

Quasi Newton Verfahren Quasi Newton Verfahren:, wird typischerweise durch line search ermittelt Quasi Newton Bedingung:, wobei, Berechnung von : Alte Matrix + Korrekturterm: Zum Beispiel ( 0,1ist ein Parameter), wobei, 15

Quasi Newton Verfahren Quasi Newton Verfahren:, Parameter 0(Davidson Fletcher Powell, erstes Quasi Newton Verf.) 0 Parameter 1(Broyden Fletcher Goldfarb Shanno) 1 1 Quasi Newton Verfahren konvergieren oft superlinear Für quadratische Funktionen in Schritten entspricht dann dem konjugierten Gradientenverfahren 16