Optimierung für Nichtmathematiker

Größe: px
Ab Seite anzeigen:

Download "Optimierung für Nichtmathematiker"

Transkript

1 Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ /

2 Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren in der freien Optimierung 7Line-Search-Verfahren 8Gradienten-Verfahren und Skalierung 9Quasi-Newton-Verfahren Vorlesung 4 II Freie Optimierung 2 / 47

3 Line-Search-Verfahren Schematischer Ablauf von Line-Search-Verfahren:. Rufe das Orakel für x (k) auf f k, f k, (vielleicht auch 2 f k ). 2. Ist f k klein genug, STOP. 3. Abstiegsrichtung: Wähle h (k) R n mit fk T h(k) <. 4. Line-Search: Finde eine Schrittweite α k mit f (x (k) + α k h (k) ) ausreichend kleiner als f k 5. Setze x (k+) := x (k) + α k h (k), k k +, gehe zu. Zwei Hauptaufgaben: Bestimmung einer Abstiegsrichtung Bestimmung einer Schrittweite (Line-Search) Vorlesung 4 II Freie Optimierung 3 / 47

4 Abstiegsrichtung (für x mit f ( x) ) Eine Richtung h R n heißt Abstiegsrichtung für f in x, falls f ( x) T h <. Vorlesung 4 II Freie Optimierung 4 / 47

5 Abstiegsrichtung (für x mit f ( x) ) Eine Richtung h R n heißt Abstiegsrichtung für f in x, falls f ( x) T h <. Die meisten Algorithmen benutzen ein B und bestimmen h als h := B f ( x), denn f ( x) T h = f ( x) T B f ( x) <. }{{} > Beispiele (s. später zu Vor- und Nachteilen): B = I : steilster Abstieg h = f ( x) (steepest descent). B = 2 f ( x): Newton-Richtung (ist Abstiegsrichtung, falls 2 f ( x) ) B = [ 2 f ( x) + λi ] : modifizierte Newton-Richtung B als Approximation von 2 f ( x): Quasi-Newton-Richtung Vorlesung 4 II Freie Optimierung 5 / 47

6 Abstiegsrichtung (für x mit f ( x) ) Eine Richtung h R n heißt Abstiegsrichtung für f in x, falls f ( x) T h <. Die meisten Algorithmen benutzen ein B und bestimmen h als h := B f ( x), denn f ( x) T h = f ( x) T B f ( x) <. }{{} > Beispiele (s. später zu Vor- und Nachteilen): B = I : steilster Abstieg h = f ( x) (steepest descent). B = 2 f ( x): Newton-Richtung (ist Abstiegsrichtung, falls 2 f ( x) ) B = [ 2 f ( x) + λi ] : modifizierte Newton-Richtung B als Approximation von 2 f ( x): Quasi-Newton-Richtung Für globale Konvergenz der Line-Search-Verfahren ist nur wichtig, dass die Richtungen nicht orthogonal zur steilsten Abstiegsrichtung werden: δ > : f T k h (k) f k = cos ( f h (k) k, h (k) ) δ > für k >. Das ist erfüllt, falls λmax(b k ) λ min (B k ) < κ für ein κ > bleibt, als z.b. für B k I für B k = 2 f k in der Nähe von x unter den Vor. des Newton-Satzes. Vorlesung 4 II Freie Optimierung 6 / 47

7 Line-Search für Abstiegsrichtung h Bestimme Schrittweite ᾱ als Näherung zu min α Φ(α) := f ( x + αh). Berechnung von ᾱ Argmin α Φ(α) (exakter Line-Search) wäre sinnlos aufwendig, da die Richtung h meist weit am Optimum vorbeiführt. Φ () f(x) =Φ() Φ= f(x+ αh) x α Vorlesung 4 II Freie Optimierung 7 / 47

8 Line-Search für Abstiegsrichtung h Bestimme Schrittweite ᾱ als Näherung zu min α Φ(α) := f ( x + αh). Berechnung von ᾱ Argmin α Φ(α) (exakter Line-Search) wäre sinnlos aufwendig, da die Richtung h meist weit am Optimum vorbeiführt. Anfangs sehr wenig Information: Φ() = f ( x), Ableitung Φ () = f ( x) T h Φ () f(x) =Φ() Φ= f(x+ αh) x α Vorlesung 4 II Freie Optimierung 8 / 47

9 Line-Search für Abstiegsrichtung h Bestimme Schrittweite ᾱ als Näherung zu min α Φ(α) := f ( x + αh). Berechnung von ᾱ Argmin α Φ(α) (exakter Line-Search) wäre sinnlos aufwendig, da die Richtung h meist weit am Optimum vorbeiführt. Anfangs sehr wenig Information: Φ() = f ( x), Ableitung Φ () = f ( x) T h Ein ᾱ mit ausreichendem Abstieg (sufficient decrease) erfüllt:. Mindestanteil < γ < an dem durch Φ () versprochenen Abstieg: Φ(ᾱ) Φ() + ᾱ γ Φ () (Armijo-Bedingung) [für kleine α erfüllt] Φ () f(x) =Φ() Φ= f(x+ αh) Armijo Φ()+αγ Φ () x α Vorlesung 4 II Freie Optimierung 9 / 47

10 Line-Search für Abstiegsrichtung h Bestimme Schrittweite ᾱ als Näherung zu min α Φ(α) := f ( x + αh). Berechnung von ᾱ Argmin α Φ(α) (exakter Line-Search) wäre sinnlos aufwendig, da die Richtung h meist weit am Optimum vorbeiführt. Anfangs sehr wenig Information: Φ() = f ( x), Ableitung Φ () = f ( x) T h Ein ᾱ mit ausreichendem Abstieg (sufficient decrease) erfüllt:. Mindestanteil < γ < an dem durch Φ () versprochenen Abstieg: Φ(ᾱ) Φ() + ᾱ γ Φ () (Armijo-Bedingung) [für kleine α erfüllt] Φ () f(x) =Φ() Φ= f(x+ αh) Armijo Φ()+αγ Φ () x ( ] [ ] α Vorlesung 4 II Freie Optimierung / 47

11 Line-Search für Abstiegsrichtung h Bestimme Schrittweite ᾱ als Näherung zu min α Φ(α) := f ( x + αh). Berechnung von ᾱ Argmin α Φ(α) (exakter Line-Search) wäre sinnlos aufwendig, da die Richtung h meist weit am Optimum vorbeiführt. Anfangs sehr wenig Information: Φ() = f ( x), Ableitung Φ () = f ( x) T h Ein ᾱ mit ausreichendem Abstieg (sufficient decrease) erfüllt:. Mindestanteil < γ < an dem durch Φ () versprochenen Abstieg: Φ(ᾱ) Φ() + ᾱ γ Φ () (Armijo-Bedingung) [für kleine α erfüllt] 2. An der Stelle ᾱ ist der Abstieg Φ schlecht ( < γ < γ 2 < ): Φ (ᾱ) γ 2 Φ () (Krümmungs-Bedingung) [ f T h stark geändert] Φ () f(x) =Φ() Φ= f(x+ αh) Krümmung γ 2Φ () Armijo Φ()+αγ Φ () x ( ] [ ] α [ ] [ ] [ Vorlesung 4 II Freie Optimierung / 47

12 Line-Search für Abstiegsrichtung h Bestimme Schrittweite ᾱ als Näherung zu min α Φ(α) := f ( x + αh). Berechnung von ᾱ Argmin α Φ(α) (exakter Line-Search) wäre sinnlos aufwendig, da die Richtung h meist weit am Optimum vorbeiführt. Anfangs sehr wenig Information: Φ() = f ( x), Ableitung Φ () = f ( x) T h Ein ᾱ mit ausreichendem Abstieg (sufficient decrease) erfüllt:. Mindestanteil < γ < an dem durch Φ () versprochenen Abstieg: Φ(ᾱ) Φ() + ᾱ γ Φ () (Armijo-Bedingung) [für kleine α erfüllt] 2. An der Stelle ᾱ ist der Abstieg Φ schlecht ( < γ < γ 2 < ): Φ (ᾱ) γ 2 Φ () (Krümmungs-Bedingung) [ f T h stark geändert] Φ () f(x) =Φ() Φ= f(x+ αh) Krümmung γ 2Φ () Armijo Φ()+αγ Φ () Wolfe x [ ] [ ] [ ] ( [ α [ ] [ ] [ Armijo- und Krümmungs- Bedingung gemeinsam heißen Wolfe-Bedingungen. Schrittweiten, die diese erfüllen, garantieren ausreichenden Abstieg. [γ = 4, γ 2 {.,.9}] Vorlesung 4 II Freie Optimierung 2 / 47

13 Wolfe-Bedingungen und globale Konvergenz Für <γ < γ 2 < erfüllt Schrittweite α k die Wolfe-Bedingungen, wenn f (x (k) + α k h (k) ) f k + α k γ fk T h(k) f (x (k) + α k h (k) ) T h (k) γ 2 fk T h(k) (Armijo) (Krümmung) Armijo sichert Abstieg, Krümmung eine Mindestschrittweite, falls f Lipschitz-stetig ist. Beides ist mit einem Orakel. Ordnung überprüfbar. Solche Schrittweiten gibt es immer, wenn f nach unten beschränkt ist. Vorlesung 4 II Freie Optimierung 3 / 47

14 Wolfe-Bedingungen und globale Konvergenz Für <γ < γ 2 < erfüllt Schrittweite α k die Wolfe-Bedingungen, wenn f (x (k) + α k h (k) ) f k + α k γ fk T h(k) f (x (k) + α k h (k) ) T h (k) γ 2 fk T h(k) (Armijo) (Krümmung) Armijo sichert Abstieg, Krümmung eine Mindestschrittweite, falls f Lipschitz-stetig ist. Beides ist mit einem Orakel. Ordnung überprüfbar. Solche Schrittweiten gibt es immer, wenn f nach unten beschränkt ist. Satz (Globale Konvergenz von Line-Search-Verfahren) Sei f nach unten beschränkt. Für den Startpunkt x () sei f auf der Niveaumenge {x R n : f (x) < f } Lipschitz-stetig. Garantiert ein Line-Search-Verfahren f T k h(k) f k h (k) δ für ein δ > sowie die Wolfe-Bedingungen für die Schrittweiten α k, dann gilt f k. Vorlesung 4 II Freie Optimierung 4 / 47

15 Wolfe-Bedingungen und globale Konvergenz Für <γ < γ 2 < erfüllt Schrittweite α k die Wolfe-Bedingungen, wenn f (x (k) + α k h (k) ) f k + α k γ fk T h(k) f (x (k) + α k h (k) ) T h (k) γ 2 fk T h(k) (Armijo) (Krümmung) Armijo sichert Abstieg, Krümmung eine Mindestschrittweite, falls f Lipschitz-stetig ist. Beides ist mit einem Orakel. Ordnung überprüfbar. Solche Schrittweiten gibt es immer, wenn f nach unten beschränkt ist. Satz (Globale Konvergenz von Line-Search-Verfahren) Sei f nach unten beschränkt. Für den Startpunkt x () sei f auf der Niveaumenge {x R n : f (x) < f } Lipschitz-stetig. Garantiert ein Line-Search-Verfahren f T k h(k) f k h (k) δ für ein δ > sowie die Wolfe-Bedingungen für die Schrittweiten α k, dann gilt f k. Vorsicht: Man hofft auf Konvergenz gegen ein Minimum, aber sowohl x (k) als auch Konvergenz gegen einen Sattelpunkt sind nicht ausgeschlossen! Vorlesung 4 II Freie Optimierung 5 / 47

16 Bestimmung der Schrittweite in der Praxis Ziel ist, mit möglichst wenig Funktionsauswertungen einen Wolfepunkt zu finden. Die vorhergehende Schrittweite dient meist als Startwert, beim allerersten Mal nutzt man gerne α = h. Der nächsten Kandidat wird z.b. über kubische Interpolation, die neue und alte Funktionswerte und Ableitungen nutzt, bestimmt. Jeder Fehl-Versuch erlaubt, das Suchintervall zu verkleinern. Eine solide und effiziente Implementation, die auch mit numerischen Schwierigkeiten umgehen kann, ist sehr schwer und aufwendig. Entscheidend für den Erfolg ist vor allem die Schrittrichtung! AUSNAHME: Für Newton-ähnliche Richtungen wird immer Schrittweite zuerst probiert und nur auf Armijo getestet. Solange Armijo nicht erfüllt ist, reduziert man die Schrittweite (durch Interpolation oder einfaches Backtracking, d.h., Multiplikation der Schrittweite mit einem Faktor < σ < ). Vorlesung 4 II Freie Optimierung 6 / 47

17 Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren in der freien Optimierung 7Line-Search-Verfahren 8Gradienten-Verfahren und Skalierung 9Quasi-Newton-Verfahren Vorlesung 4 II Freie Optimierung 7 / 47

18 Skalierung Bei Verfahren. Ordnung (nur Gradient) hat die Skalierung der Variablen (z.b. ob Daten in Metern oder Millimetern gegeben sind) großen Einfluss auf das Konvergenzverhalten und ist kaum vernünftig anpassbar. Das Newtonverfahren (nutzt Informationen 2. Ordnung von f ) ist jedoch skalierungsunabhängig! Beispiel: f (x) = 2 x T Q x + q T x + c, f (x) = Q x + q, 2 f (x) = Q exakter Line-Search für Abstiegsrichtung h = B f ( x) in x (B ): Φ(α) = 2 x T Q x + q T x + c + α f ( x) T h + α2 2 ht Q h Φ (α) = f ( x) T h + αh T Q h = ᾱ = f T h h T Q h Vorlesung 4 II Freie Optimierung 8 / 47

19 f Skalierung Bei Verfahren. Ordnung (nur Gradient) hat die Skalierung der Variablen (z.b. ob Daten in Metern oder Millimetern gegeben sind) großen Einfluss auf das Konvergenzverhalten und ist kaum vernünftig anpassbar. Das Newtonverfahren (nutzt Informationen 2. Ordnung von f ) ist jedoch skalierungsunabhängig! Beispiel: f (x) = 2 x T Q x + q T x + c, f (x) = Q x + q, 2 f (x) = Q exakter Line-Search für Abstiegsrichtung h = B f ( x) in x (B ): Φ(α) = 2 x T Q x + q T x + c + α f ( x) T h + α2 2 ht Q h Φ (α) = f ( x) T h + αh T Q h = ᾱ = f T h h T Q h Ideal[ skaliert ](Q = I ): Q =, q =, c = [ ] x () [ ] Startpunkt.9 x () =.9 2 Steilster Abstieg (B = I ): h = f, ᾱ = h 2 y Steilster Abstieg, Schritt h T Qh =.5.5 x Vorlesung 4 II Freie Optimierung 9 / y.5.5 x.5

20 f Skalierung Bei Verfahren. Ordnung (nur Gradient) hat die Skalierung der Variablen (z.b. ob Daten in Metern oder Millimetern gegeben sind) großen Einfluss auf das Konvergenzverhalten und ist kaum vernünftig anpassbar. Das Newtonverfahren (nutzt Informationen 2. Ordnung von f ) ist jedoch skalierungsunabhängig! Beispiel: f (x) = 2 x T Q x + q T x + c, f (x) = Q x + q, 2 f (x) = Q exakter Line-Search für Abstiegsrichtung h = B f ( x) in x (B ): Φ(α) = 2 x T Q x + q T x + c + α f ( x) T h + α2 2 ht Q h Φ (α) = f ( x) T h + αh T Q h = ᾱ = f T h h T Q h Ideal[ skaliert ](Q = I ): Q =, q =, c = [ ] x () [ ] Startpunkt.9 x () =.9 2 Newton (B = Q): h = Q f, ᾱ= f T Q f = f T Q f y Newton, Schritt.5.5 x Vorlesung 4 II Freie Optimierung 2 / y.5.5 x.5

21 f Skalierung Bei Verfahren. Ordnung (nur Gradient) hat die Skalierung der Variablen (z.b. ob Daten in Metern oder Millimetern gegeben sind) großen Einfluss auf das Konvergenzverhalten und ist kaum vernünftig anpassbar. Das Newtonverfahren (nutzt Informationen 2. Ordnung von f ) ist jedoch skalierungsunabhängig! Beispiel: f (x) = 2 x T Q x + q T x + c, f (x) = Q x + q, 2 f (x) = Q exakter Line-Search für Abstiegsrichtung h = B f ( x) in x (B ): Φ(α) = 2 x T Q x + q T x + c + α f ( x) T h + α2 2 ht Q h Φ (α) = f ( x) T h + αh T Q h = ᾱ = f T h h T Q h Noch gut skaliert! ] (x = 3 x ): 3 2 Q =[, q =, c = [ ] x () [ ] Startpunkt.3 x () =.9 2 Steilster Abstieg (B = I ): h = f, ᾱ = h 2 y Steilster Abstieg, Schritt.5.5 h T Qh e x Vorlesung 4 II Freie Optimierung 2 / y x

22 f Skalierung Bei Verfahren. Ordnung (nur Gradient) hat die Skalierung der Variablen (z.b. ob Daten in Metern oder Millimetern gegeben sind) großen Einfluss auf das Konvergenzverhalten und ist kaum vernünftig anpassbar. Das Newtonverfahren (nutzt Informationen 2. Ordnung von f ) ist jedoch skalierungsunabhängig! Beispiel: f (x) = 2 x T Q x + q T x + c, f (x) = Q x + q, 2 f (x) = Q exakter Line-Search für Abstiegsrichtung h = B f ( x) in x (B ): Φ(α) = 2 x T Q x + q T x + c + α f ( x) T h + α2 2 ht Q h Φ (α) = f ( x) T h + αh T Q h = ᾱ = f T h h T Q h Noch gut skaliert! ] (x = 3 x ): 3 2 Q =[, q =, c = [ ] x () [ ] Startpunkt.3 x () =.9 2 Steilster Abstieg (B = I ): h = f, ᾱ = h 2 y Steilster Abstieg, Schritt h T Qh e x Vorlesung 4 II Freie Optimierung 22 / y x

23 f Skalierung Bei Verfahren. Ordnung (nur Gradient) hat die Skalierung der Variablen (z.b. ob Daten in Metern oder Millimetern gegeben sind) großen Einfluss auf das Konvergenzverhalten und ist kaum vernünftig anpassbar. Das Newtonverfahren (nutzt Informationen 2. Ordnung von f ) ist jedoch skalierungsunabhängig! Beispiel: f (x) = 2 x T Q x + q T x + c, f (x) = Q x + q, 2 f (x) = Q exakter Line-Search für Abstiegsrichtung h = B f ( x) in x (B ): Φ(α) = 2 x T Q x + q T x + c + α f ( x) T h + α2 2 ht Q h Φ (α) = f ( x) T h + αh T Q h = ᾱ = f T h h T Q h Noch gut skaliert! ] (x = 3 x ): 3 2 Q =[, q =, c = [ ] x () [ ] Startpunkt.3 x () =.9 2 Steilster Abstieg (B = I ): h = f, ᾱ = h 2 y Steilster Abstieg, Schritt h T Qh e x Vorlesung 4 II Freie Optimierung 23 / y x

24 f Skalierung Bei Verfahren. Ordnung (nur Gradient) hat die Skalierung der Variablen (z.b. ob Daten in Metern oder Millimetern gegeben sind) großen Einfluss auf das Konvergenzverhalten und ist kaum vernünftig anpassbar. Das Newtonverfahren (nutzt Informationen 2. Ordnung von f ) ist jedoch skalierungsunabhängig! Beispiel: f (x) = 2 x T Q x + q T x + c, f (x) = Q x + q, 2 f (x) = Q exakter Line-Search für Abstiegsrichtung h = B f ( x) in x (B ): Φ(α) = 2 x T Q x + q T x + c + α f ( x) T h + α2 2 ht Q h Φ (α) = f ( x) T h + αh T Q h = ᾱ = f T h h T Q h Noch gut skaliert! ] (x = 3 x ): 3 2 Q =[, q =, c = [ ] x () [ ] Startpunkt.3 x () =.9 2 Steilster Abstieg (B = I ): h = f, ᾱ = h 2 y Steilster Abstieg, Schritt h T Qh e x Vorlesung 4 II Freie Optimierung 24 / y x

25 f Skalierung Bei Verfahren. Ordnung (nur Gradient) hat die Skalierung der Variablen (z.b. ob Daten in Metern oder Millimetern gegeben sind) großen Einfluss auf das Konvergenzverhalten und ist kaum vernünftig anpassbar. Das Newtonverfahren (nutzt Informationen 2. Ordnung von f ) ist jedoch skalierungsunabhängig! Beispiel: f (x) = 2 x T Q x + q T x + c, f (x) = Q x + q, 2 f (x) = Q exakter Line-Search für Abstiegsrichtung h = B f ( x) in x (B ): Φ(α) = 2 x T Q x + q T x + c + α f ( x) T h + α2 2 ht Q h Φ (α) = f ( x) T h + αh T Q h = ᾱ = f T h h T Q h Noch gut skaliert! ] (x = 3 x ): 3 2 Q =[, q =, c = [ ] x () [ ] Startpunkt.3 x () =.9 2 Steilster Abstieg (B = I ): h = f, ᾱ = h 2 y Steilster Abstieg, Schritt h T Qh e x Vorlesung 4 II Freie Optimierung 25 / y x

26 f Skalierung Bei Verfahren. Ordnung (nur Gradient) hat die Skalierung der Variablen (z.b. ob Daten in Metern oder Millimetern gegeben sind) großen Einfluss auf das Konvergenzverhalten und ist kaum vernünftig anpassbar. Das Newtonverfahren (nutzt Informationen 2. Ordnung von f ) ist jedoch skalierungsunabhängig! Beispiel: f (x) = 2 x T Q x + q T x + c, f (x) = Q x + q, 2 f (x) = Q exakter Line-Search für Abstiegsrichtung h = B f ( x) in x (B ): Φ(α) = 2 x T Q x + q T x + c + α f ( x) T h + α2 2 ht Q h Φ (α) = f ( x) T h + αh T Q h = ᾱ = f T h h T Q h Noch gut skaliert! ] (x = 3 x ): 3 2 Q =[, q =, c = [ ] x () [ ] Startpunkt.3 x () =.9 2 Steilster Abstieg (B = I ): h = f, ᾱ = h 2 y Steilster Abstieg, Schritt h T Qh e x Vorlesung 4 II Freie Optimierung 26 / y x

27 f Skalierung Bei Verfahren. Ordnung (nur Gradient) hat die Skalierung der Variablen (z.b. ob Daten in Metern oder Millimetern gegeben sind) großen Einfluss auf das Konvergenzverhalten und ist kaum vernünftig anpassbar. Das Newtonverfahren (nutzt Informationen 2. Ordnung von f ) ist jedoch skalierungsunabhängig! Beispiel: f (x) = 2 x T Q x + q T x + c, f (x) = Q x + q, 2 f (x) = Q exakter Line-Search für Abstiegsrichtung h = B f ( x) in x (B ): Φ(α) = 2 x T Q x + q T x + c + α f ( x) T h + α2 2 ht Q h Φ (α) = f ( x) T h + αh T Q h = ᾱ = f T h h T Q h Noch gut skaliert! ] (x = 3 x ): 3 2 Q =[, q =, c = [ ] x () [ ] Startpunkt.3 x () =.9 2 Steilster Abstieg (B = I ): h = f, ᾱ = h 2 y Steilster Abstieg, Schritt h T Qh e x Vorlesung 4 II Freie Optimierung 27 / y x

28 f Skalierung Bei Verfahren. Ordnung (nur Gradient) hat die Skalierung der Variablen (z.b. ob Daten in Metern oder Millimetern gegeben sind) großen Einfluss auf das Konvergenzverhalten und ist kaum vernünftig anpassbar. Das Newtonverfahren (nutzt Informationen 2. Ordnung von f ) ist jedoch skalierungsunabhängig! Beispiel: f (x) = 2 x T Q x + q T x + c, f (x) = Q x + q, 2 f (x) = Q exakter Line-Search für Abstiegsrichtung h = B f ( x) in x (B ): Φ(α) = 2 x T Q x + q T x + c + α f ( x) T h + α2 2 ht Q h Φ (α) = f ( x) T h + αh T Q h = ᾱ = f T h h T Q h Noch gut skaliert! ] (x = 3 x ): 3 2 Q =[, q =, c = [ ] x () [ ] Startpunkt.3 x () =.9 2 Steilster Abstieg (B = I ): h = f, ᾱ = h 2 y Steilster Abstieg, Schritt h T Qh e x Vorlesung 4 II Freie Optimierung 28 / y x

29 f Skalierung Bei Verfahren. Ordnung (nur Gradient) hat die Skalierung der Variablen (z.b. ob Daten in Metern oder Millimetern gegeben sind) großen Einfluss auf das Konvergenzverhalten und ist kaum vernünftig anpassbar. Das Newtonverfahren (nutzt Informationen 2. Ordnung von f ) ist jedoch skalierungsunabhängig! Beispiel: f (x) = 2 x T Q x + q T x + c, f (x) = Q x + q, 2 f (x) = Q exakter Line-Search für Abstiegsrichtung h = B f ( x) in x (B ): Φ(α) = 2 x T Q x + q T x + c + α f ( x) T h + α2 2 ht Q h Φ (α) = f ( x) T h + αh T Q h = ᾱ = f T h h T Q h Noch gut skaliert! ] (x = 3 x ): Q =[, q =, c =.6.4 [ ] x () [ ].2 Startpunkt.3 x () = Newton (B = Q):.6.8 h = Q f, ᾱ= f T Q e f = x y Newton, Schritt.5.5 f T Q e f Vorlesung 4 II Freie Optimierung 29 / y x

30 Steilster Abstieg konvergiert SEHR langsam Ein Verfahren konvergiert linear gegen x, wenn es eine Konstante < γ < gibt mit x k+ x γ x k x. Satz Für f (x) = 2 x T Qx + q T x + c mit Q und exaktem Line-Search konvergiert das Verfahren des steilsten Abstiegs im Allgemeinen linear mit Konstante γ = λmax(q) λ min(q) λ max(q)+λ min (Q). Für λ max λ min (die Niveaumengen sind ganz schmale Ellipsen) ist γ und man sieht kaum Fortschritte im Verfahren. Vorlesung 4 II Freie Optimierung 3 / 47

31 Steilster Abstieg konvergiert SEHR langsam Ein Verfahren konvergiert linear gegen x, wenn es eine Konstante < γ < gibt mit x k+ x γ x k x. Satz Für f (x) = 2 x T Qx + q T x + c mit Q und exaktem Line-Search konvergiert das Verfahren des steilsten Abstiegs im Allgemeinen linear mit Konstante γ = λmax(q) λ min(q) λ max(q)+λ min (Q). Für λ max λ min (die Niveaumengen sind ganz schmale Ellipsen) ist γ und man sieht kaum Fortschritte im Verfahren. In der Nähe eines Optimums mit hinreichenden Optimalitätsbedingungen 2. Ordnung ist die Funktion annähernd quadratisch streng konvex. Verf. des steilsten Abstiegs konvergiert am Ende fast immer schlecht Newton konvergiert am Ende fast immer hervorragend Vorlesung 4 II Freie Optimierung 3 / 47

32 Steilster Abstieg konvergiert SEHR langsam Ein Verfahren konvergiert linear gegen x, wenn es eine Konstante < γ < gibt mit x k+ x γ x k x. Satz Für f (x) = 2 x T Qx + q T x + c mit Q und exaktem Line-Search konvergiert das Verfahren des steilsten Abstiegs im Allgemeinen linear mit Konstante γ = λmax(q) λ min(q) λ max(q)+λ min (Q). Für λ max λ min (die Niveaumengen sind ganz schmale Ellipsen) ist γ und man sieht kaum Fortschritte im Verfahren. In der Nähe eines Optimums mit hinreichenden Optimalitätsbedingungen 2. Ordnung ist die Funktion annähernd quadratisch streng konvex. Verf. des steilsten Abstiegs konvergiert am Ende fast immer schlecht Newton konvergiert am Ende fast immer hervorragend Da für große n jede Iteration des Newton-Verfahrens wegen der Berechnung von 2 f und ( 2 f ) f sehr aufwendig ist, versucht man, 2 f oder ( 2 f ) sukzessive aus den Werten von f zu approximieren. Vorlesung 4 II Freie Optimierung 32 / 47

33 Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren in der freien Optimierung 7Line-Search-Verfahren 8Gradienten-Verfahren und Skalierung 9Quasi-Newton-Verfahren Vorlesung 4 II Freie Optimierung 33 / 47

34 Quasi-Newton-Verfahren Ein Verfahren konvergiert superlinear gegen x, falls lim k x (k+) x x (k) x =. (Der Quotient wird kleiner als jede Konstante der linearen Konvergenz.) Satz Konvergiert die durch x (k+) = x (k) + h (k) erzeugte Folge gegen ein x, das die hinreichenden Opt.-Bed. erfüllt, so ist die Konvergenz superlinear genau dann, wenn die Schrittrichtung h (k) sich schneller der Newton- Richtung h (k) N annähert, als sie klein wird: h(k) h (k) N = o( h(k) ). Vorlesung 4 II Freie Optimierung 34 / 47

35 Quasi-Newton-Verfahren Superlineare Konvergenz erfordert also wenigstens eine Approximation der Newton-Richtung h N = ( 2 f ) f. Zur Erinnerung: ein allgemeines Line-Search-Verfahren verwendet h = B f. Es sollte also B also die Hessematrix 2 f nachbauen. Diese erfüllt f (x + h) = f (x) + 2 f (x)h + o( h ). [Taylor] Vorlesung 4 II Freie Optimierung 35 / 47

36 Quasi-Newton-Verfahren Forderungen an B k+ : B k+, damit h (k+) = B k+ f k+ eine Abstiegsrichtung ist Vorlesung 4 II Freie Optimierung 36 / 47

37 Quasi-Newton-Verfahren Forderungen an B k+ : B k+, damit h (k+) = B k+ f k+ eine Abstiegsrichtung ist Das quadratische Modell im neuen Punkt x (k+) m k+ (h) := f k+ + f T k+h + 2 ht B k+ h sollte am alten Punkt x k den Gradienten f k gut approximieren: f k = h m k+ (x (k) x (k+) ) Vorlesung 4 II Freie Optimierung 37 / 47

38 Quasi-Newton-Verfahren Forderungen an B k+ : B k+, damit h (k+) = B k+ f k+ eine Abstiegsrichtung ist Das quadratische Modell im neuen Punkt x (k+) m k+ (h) := f k+ + f T k+h + 2 ht B k+ h sollte am alten Punkt x k den Gradienten f k gut approximieren: f k = h m k+ (x (k) x (k+) ) = f k+ + B k+ (x (k) x (k+) ) Vorlesung 4 II Freie Optimierung 38 / 47

39 Quasi-Newton-Verfahren Forderungen an B k+ : B k+, damit h (k+) = B k+ f k+ eine Abstiegsrichtung ist Das quadratische Modell im neuen Punkt x (k+) m k+ (h) := f k+ + f T k+h + 2 ht B k+ h sollte am alten Punkt x k den Gradienten f k gut approximieren: f k = h m k+ (x (k) x (k+) ) = f k+ + B k+ (x (k) x (k+) ) Dies führt auf die Sekanten-Gleichung als Bauanleitung für B k+. B k+ (x (k+) x (k) ) = f k+ f k Vorlesung 4 II Freie Optimierung 39 / 47

40 Quasi-Newton-Verfahren Forderungen an B k+ : B k+, damit h (k+) = B k+ f k+ eine Abstiegsrichtung ist Das quadratische Modell im neuen Punkt x (k+) m k+ (h) := f k+ + f T k+h + 2 ht B k+ h sollte am alten Punkt x k den Gradienten f k gut approximieren: f k = h m k+ (x (k) x (k+) ) = f k+ + B k+ (x (k) x (k+) ) Dies führt auf die Sekanten-Gleichung B k+ (x (k+) x (k) ) = f k+ f k als Bauanleitung für B k+. Vergleiche: Die optimale (aber aufwendige) Wahl B k+ = 2 f k+ erfüllt 2 f k+ (x (k+) x (k) ) = f k+ f k + o( x (k+) x (k) ). Vorlesung 4 II Freie Optimierung 4 / 47

41 Quasi-Newton mit BFGS-Update Wegen der Sekanten-Gleichung, der Forderung B k+ und x (k+) = x (k) + α k h (k) muss < α 2 k(h (k) ) T B k+ h (k) = α ( f k+ f k ) T h (k) gelten. Das garantiert die Krümmung in den Wolfe-Bedingungen: α k [ f T k+h (k) f T k h (k) ] > α k (γ 2 ) }{{} < f T k h (k) } {{ } < >. Vorlesung 4 II Freie Optimierung 4 / 47

42 Quasi-Newton mit BFGS-Update Wegen der Sekanten-Gleichung, der Forderung B k+ und x (k+) = x (k) + α k h (k) muss < α 2 k(h (k) ) T B k+ h (k) = α ( f k+ f k ) T h (k) gelten. Das garantiert die Krümmung in den Wolfe-Bedingungen: α k [ f T k+h (k) f T k h (k) ] > α k (γ 2 ) }{{} < f T k h (k) } {{ } < >. Da wir h (k+) = B k+ f k+ benötigen, ist es günstiger, gleich die Inverse H k+ := B k+ zu verwenden. Die Matrix H k+ mit H k+ ( f k+ f k ) = x (k+) x (k), die sich gegenüber H k in geeigneter Norm am wenigsten ändert, erhält man durch die Rang-2-Korrektur von Broyden, Fletcher, Goldfarb und Shanno: H k+ := (I sk T y s k yk T ) H k (I k sk T y y k sk T ) + k sk T y s k sk T k wobei s k := x (k+) x (k), y k := f k+ f k. Vorlesung 4 II Freie Optimierung 42 / 47

43 Quasi-Newton mit BFGS-Update Wegen der Sekanten-Gleichung, der Forderung B k+ und x (k+) = x (k) + α k h (k) muss < α 2 k(h (k) ) T B k+ h (k) = α ( f k+ f k ) T h (k) [=: y T k s k ] gelten. Das garantiert die Krümmung in den Wolfe-Bedingungen: α k [ f T k+h (k) f T k h (k) ] > α k (γ 2 ) }{{} < f T k h (k) } {{ } < >. Da wir h (k+) = B k+ f k+ benötigen, ist es günstiger, gleich die Inverse H k+ := B k+ zu verwenden. Die Matrix H k+ mit H k+ ( f k+ f k ) = x (k+) x (k), die sich gegenüber H k in geeigneter Norm am wenigsten ändert, erhält man durch die Rang-2-Korrektur von Broyden, Fletcher, Goldfarb und Shanno: H k+ := (I sk T y s k yk T ) H k (I k sk T y y k sk T ) + k sk T y s k sk T k wobei s k := x (k+) x (k), y k := f k+ f k. Vorlesung 4 II Freie Optimierung 43 / 47

44 Quasi-Newton mit BFGS-Update H k und die Wolfe-Bedingungen in der Liniensuche garantieren H k+. Man startet mit H = 2 f (falls ) oder H = f I. Für große n bildet man H k nicht explizit, sondern speichert nur die letzten k Paare (s k, y k ) für ein festes k N (limited memory BFGS). Vorlesung 4 II Freie Optimierung 44 / 47

45 Quasi-Newton mit BFGS-Update Man kann zeigen: Für eine streng konvexe quadratische Funktion bilden die BFGS-Matrizen H k eine zunehmend bessere Approximation von 2 f. Das Line-Search-Verfahren mit BFGS-Richtung und Wolfe-Bedingungen in der Liniensuche konvergiert superlinear. Vorlesung 4 II Freie Optimierung 45 / 47

46 Quasi-Newton mit BFGS-Update Man kann zeigen: Für eine streng konvexe quadratische Funktion bilden die BFGS-Matrizen H k eine zunehmend bessere Approximation von 2 f. Das Line-Search-Verfahren mit BFGS-Richtung und Wolfe-Bedingungen in der Liniensuche konvergiert superlinear. In der Nähe eines x, das die hinreichenden Optimalitätsbedingungen 2. Ordnung erfüllt, ist ein hinreichend glattes f annähernd streng konvex und quadratisch. Vorlesung 4 II Freie Optimierung 46 / 47

47 Quasi-Newton mit BFGS-Update Man kann zeigen: Für eine streng konvexe quadratische Funktion bilden die BFGS-Matrizen H k eine zunehmend bessere Approximation von 2 f. Das Line-Search-Verfahren mit BFGS-Richtung und Wolfe-Bedingungen in der Liniensuche konvergiert superlinear. In der Nähe eines x, das die hinreichenden Optimalitätsbedingungen 2. Ordnung erfüllt, ist ein hinreichend glattes f annähernd streng konvex und quadratisch. Fazit: Sowohl das BFGS-Verfahren als auch das Verfahren des steilsten Abstiegs benötigen lediglich ein Orakel. Ordnung (erste Ableitungen von f ). Trotz etwa gleichen Aufwandes pro Iteration konvergiert das BFGS-Verfahren wesentlich besser. Vorlesung 4 II Freie Optimierung 47 / 47

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Freie Nichtlineare Optimierung Orakel, lineares/quadratisches Modell Optimalitätsbedingungen Das Newton-Verfahren Line-Search-Verfahren Inhaltsübersicht für heute: Freie Nichtlineare

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 1 Newton Verfahren Taylor Approximation 1. Ordnung von Newton Verfahren! 0 Setze 0und berechne Löse lineares Gleichungssystem für : 2

Mehr

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren

Mehr

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Das Gradientenverfahren

Das Gradientenverfahren Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09 ................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Bemerkung 2.1: Das Newtonverahren kann auch als sequential quad. minimization verstanden werden: 2.1 Ein globalisiertes Newtonverfahren

Bemerkung 2.1: Das Newtonverahren kann auch als sequential quad. minimization verstanden werden: 2.1 Ein globalisiertes Newtonverfahren Kapitel 2 Newtonverfahren Ziel: Bestimmung von Nullstellen von f (=stationärer Punkt). Dies geschieht mit dem Newtonverfahren. x k+1 = x k ( 2 f (x k )) 1 f (x k ) (2.1) Bemerkung 2.1: Das Newtonverahren

Mehr

12. Potentialflächen und Optimierung

12. Potentialflächen und Optimierung Dr. Jens Döbler Computeranwendung in der Chemie Informatik für Chemiker(innen) 12. Potentialflächen und Optimierung Jens Döbler 2004 "Computer in der Chemie", WS 2003-04, Humboldt-Universität VL12 Folie

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Optimale Steuerung 1

Optimale Steuerung 1 Optimale Steuerung 1 Kapitel 6: Nichtlineare Optimierung unbeschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Parameteranpassung für Phasengleichgewicht

Mehr

Das Subgradientenverfahren

Das Subgradientenverfahren Das Subgradientenverfahren Seminar Optimierung WS 05/06 Betreuer: Prof. F. Jarre von Jalo Liljo Das Subgradientenverfahren Das Ziel dieses Vortrags ist die Berechnung einer Lösung des unrestringierten

Mehr

6.8 Newton Verfahren und Varianten

6.8 Newton Verfahren und Varianten 6. Numerische Optimierung 6.8 Newton Verfahren und Varianten In den vorherigen Kapiteln haben wir grundlegende Gradienten-basierte Verfahren kennen gelernt, die man zur numerischen Optimierung von (unbeschränkten)

Mehr

Seminarvortrag: Trust-Region-Verfahren

Seminarvortrag: Trust-Region-Verfahren Seminarvortrag: Trust-Region-Verfahren Helena Klump Universität Paderborn Dezember 2012 Helena Klump 1 / 22 Trust-Region-Verfahren Problemstellung Sei die Funktion f : R n R gegeben. Betrachtet wird das

Mehr

Rechnerpraktikum zur Optimierung III

Rechnerpraktikum zur Optimierung III TU München Lehrstuhl Mathematische Optimierung Prof. Dr. M. Ulbrich Dipl.-Math. Florian Lindemann Sommersemester 007 Teil II Rechnerpraktikum zur Optimierung III Für die Bearbeitung des Aufgabenzettels

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Numerische Verfahren der nicht-linearen Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Line

Mehr

Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung

Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung TU München Lehrstuhl Mathematische Optimierung Prof. Dr. Michael Ulbrich Dipl.-Math. Florian Lindemann Wintersemester 008/09 Blatt 1 Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung Für die

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Das Trust-Region-Verfahren

Das Trust-Region-Verfahren Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Näherungsverfahren zur Bestimmung der Nullstelle α sind iterativ, d.h. sie liefern eine Folge {x (k) } k=0 mit α = lim x (k). (3.0.

Näherungsverfahren zur Bestimmung der Nullstelle α sind iterativ, d.h. sie liefern eine Folge {x (k) } k=0 mit α = lim x (k). (3.0. 3 Nullstellenbestimmung von Funktionen Sei x f(x) eine reellwertige Funktion, definiert auf einem Intervall I = [a, b] R. suchen Nullstellen der Funktion f, d.h. Wir finde α R so, das f(α) = 0. (3.0.1)

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Aufgaben zur nicht-linearen Optimierung Teil II Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Aufgabe 5 Bestimmen

Mehr

Inhalt Kapitel I: Nichtlineare Gleichungssysteme

Inhalt Kapitel I: Nichtlineare Gleichungssysteme Inhalt Kapitel I: Nichtlineare Gleichungssysteme I Nichtlineare Gleichungssysteme I. Nullstellenbestimmung von Funktionen einer Veränderlichen I.2 I.3 Newton-Verfahren Kapitel I (UebersichtKapI) 3 Bisektionsverfahren

Mehr

Nullstellen von algebraischen Gleichungen

Nullstellen von algebraischen Gleichungen Kapitel 2 Nullstellen von algebraischen Gleichungen 2.1 Vorbemerkungen Suche Lösung der Gleichung f(x) = 0 (2.1) Dies ist die Standardform für eine Dimension. - typisch nichtlineare Gleichung, sonst elementar

Mehr

Teil 6. Differentialrechnung mehrerer Veränderlicher

Teil 6. Differentialrechnung mehrerer Veränderlicher Teil 6 Differentialrechnung mehrerer Veränderlicher 95 96 6.1 Topologie von Mengen Umgebung ε-umgebung eines Punktes x R n : B ε (x) = {y : y x < ε} Umgebung U von x: Menge, die eine ε-umgebung von x enthält

Mehr

Globale Newton Verfahren

Globale Newton Verfahren Betrachten: System von n nichtlinearen Gleichungen: F : D R n, F C 1 D Gesucht: x D, sodass F x =0. Vorher: Bedingungen für Startwert wie z.b. x x 0 2 / garantieren die Konvergenz des lokalen Newton-Verfahrens

Mehr

Kapitel 5 Nichtlineare Gleichungssysteme und Iterationen

Kapitel 5 Nichtlineare Gleichungssysteme und Iterationen Kapitel 5 Nichtlineare Gleichungssysteme und Iterationen Wir betrachten das System f() = 0 von n skalaren Gleichungen f i ( 1,..., n ) = 0, i = 1,..., n. Gesucht: Nullstelle von f() = 0. Es sei (0) eine

Mehr

18.4 Das Newton-Verfahren

18.4 Das Newton-Verfahren 18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei

Mehr

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn Optimierung Vorlesung 5 Optimierung mit Nebenbedingungen 1 Minimierung mit Gleichheitsrestriktionen Gegeben: Funktion,,,, : Ziel:,,, Unrestringierter Fall: Notwendige Bedingung für lokales Minimum keine

Mehr

Nelder-Mead Kriging-Verfahren NEWUOA

Nelder-Mead Kriging-Verfahren NEWUOA 9 Ableitungsfreie Optimierung/Direkte Suchverfahren umfasst Verfahren zu min x R n f (x), die nur ein Orakel 0. Ordnung (nur Funktionswerte) benötigen. Sie werden in der Praxis oft eingesetzt, weil Funktionen

Mehr

Modulprüfung Numerische Mathematik 1

Modulprüfung Numerische Mathematik 1 Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel

Mehr

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf. IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Technische Universität München Zentrum Mathematik. Optimierung 3, SS 2009 Übungsblatt 12

Technische Universität München Zentrum Mathematik. Optimierung 3, SS 2009 Übungsblatt 12 Technische Universität München Zentrum Mathematik Prof. Dr. P. Gritzmann, Dipl.-Inf. Dipl.-Math. S. Borgwardt Optimierung 3, SS 009 Übungsblatt Aufgabe. Sei ϕ : R n R stetig dierenzierbar und nach unten

Mehr

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b.

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b. NumaMB F14 Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Bewertung: Vier Fragen richtig beantwortet

Mehr

3 Nichtlineare Gleichungssysteme

3 Nichtlineare Gleichungssysteme 3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )

Mehr

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

Praktische Optimierung

Praktische Optimierung Grundlagen klassischer Optimiertechniken Praktische Optimierung Wintersemester 2008/09 Prof Dr Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund Themen der heutigen

Mehr

NICHTRESTRINGIERTE OPTIMIERUNG

NICHTRESTRINGIERTE OPTIMIERUNG 3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Problemstellung Klassifikation Inhaltsübersicht Problemstellung und Grundbegriffe Klassifikation von Optimierungsaufgaben Vorlesung I Einführung

Mehr

5.3.5 Abstiegs & Gradientenverfahren

5.3.5 Abstiegs & Gradientenverfahren 5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3.5 Abstiegs & Gradientenverfahren Die bisher kennengelernten Iterationsverfahren zur Approximation von linearen Gleichungssystemen haben

Mehr

Ausgleichsproblem. Definition (1.0.3)

Ausgleichsproblem. Definition (1.0.3) Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst

Mehr

Diplom VP Numerik 27. August 2007

Diplom VP Numerik 27. August 2007 Diplom VP Numerik 27. August 2007 Multiple-Choice-Test 30 Punkte Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine einzige Aussage angekreuzt, gilt diese

Mehr

Iterative Methoden zur Lösung von linearen Gleichungssystemen

Iterative Methoden zur Lösung von linearen Gleichungssystemen Iterative Methoden zur Lösung von linearen Gleichungssystemen (13.12.2011) Ziel Können wir wir die zeitabhängige Schrödinger-Gleichung lösen? φ(t) = e iht ψ(0) Typischerweise sind die Matrizen, die das

Mehr

Kapitel 4: Nichtlineare Nullstellenprobleme

Kapitel 4: Nichtlineare Nullstellenprobleme Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 4: Nichtlineare Nullstellenprobleme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 2015 HM: Numerik (SS

Mehr

eps für alle x D. 4. Die Zahl 256 ist in M(2, 4, 6, 6) exakt darstellbar.

eps für alle x D. 4. Die Zahl 256 ist in M(2, 4, 6, 6) exakt darstellbar. IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H13 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

Einführung in die numerische Mathematik

Einführung in die numerische Mathematik Prof. Dr. M. Günther K. Gausling, M.Sc. C. Hendricks, M.Sc. Sommersemester 4 Bergische Universität Wuppertal Fachbereich C Mathematik und Naturwissenschaften Angewandte Mathematik / Numerische Analysis

Mehr

Praktische Optimierung

Praktische Optimierung Praktische Optimierung Dozent: Günter Rudolph Vertretung: Nicola Beume Wintersemester 2007/08 Universität Dortmund Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS11) Fachgebiet Computational

Mehr

6. Iterationsverfahren. Fixpunktiteration. 6.Iterationsverfahren: Fixpunktiteration Numerisches Programmieren, Jürgen Bräckle page 1 of 16

6. Iterationsverfahren. Fixpunktiteration. 6.Iterationsverfahren: Fixpunktiteration Numerisches Programmieren, Jürgen Bräckle page 1 of 16 6. Iterationsverfahren Fixpunktiteration Numerisches Programmieren, Jürgen Bräckle page 1 of 16 Beispiel: Ausbreitung eines Grippevirus in einem Kindergarten Zeitpunkt t 0 t 1 t 2 t 3 t 4 t 5 Anteil kranker

Mehr

Einführung in Softwaretools zur Nichtlinearen Optimierung

Einführung in Softwaretools zur Nichtlinearen Optimierung Einführung in Softwaretools zur Nichtlinearen Optimierung 3. April 2017 5. April 2017 Sebastian Garreis, M. Sc. (hons) Johannes Haubner, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl

Mehr

7. Nichtlineare Gleichngssysteme. Problem 7: Sei f : R n R n stetig. Löse f(x) = 0.

7. Nichtlineare Gleichngssysteme. Problem 7: Sei f : R n R n stetig. Löse f(x) = 0. 7. Nichtlineare Gleichngssysteme Problem 7: Sei f : R n R n stetig. Löse f(x) = 0. Das Gleichungssystem f(x) = 0 lässt sich in die Fixpunktgleichung x = φ(x) umschreiben, wobei φ : D R n R n. Beispielsweise

Mehr

Iterative Verfahren: Allgemeines, Fixpunkt-Iteration, Nullstellen. Prof. U. Rüde - Algorithmik kontinuierlicher Systeme

Iterative Verfahren: Allgemeines, Fixpunkt-Iteration, Nullstellen. Prof. U. Rüde - Algorithmik kontinuierlicher Systeme Algorithmik kontinuierlicher Systeme Iterative Verfahren: Allgemeines, Fiunkt-Iteration, Nullstellen Motivation Viele numerische Probleme lassen sich nicht mit endlich vielen Schritten lösen Nullstellen

Mehr

3. Approximation von Funktionen und Extremwertprobleme im R n

3. Approximation von Funktionen und Extremwertprobleme im R n 3. Approximation von Funktionen und Extremwertprobleme im R n Wie in D ist es wichtig Funktionen mit mehreren Variablen durch Polynome lokal approximieren zu können. Polynome lassen sich im Gegensatz zu

Mehr

(d) das zu Grunde liegende Problem gut konditioniert ist.

(d) das zu Grunde liegende Problem gut konditioniert ist. Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt

Mehr

Numerische Ableitung

Numerische Ableitung Numerische Ableitung Die Ableitung kann angenähert werden durch den Differentenquotient: f (x) f(x + h) f(x) h oder f(x + h) f(x h) 2h für h > 0, aber h 0. Beim numerischen Rechnen ist folgendes zu beachten:

Mehr

Kontinuierliche Optimierung

Kontinuierliche Optimierung Kontinuierliche Optimierung Markus Herrich Wintersemester 2018/19 ii Inhaltsverzeichnis 2 Optimalitäts- und Regularitätsbedingungen 1 2.1 Einleitung und Wiederholung.................... 1 2.2 Optimalitätsbedingungen

Mehr

Banach scher Fixpunktsatz. 1) D ist abgeschlossen und konvex; 2) f ist selbstabbildend, d.h. f(d) D;

Banach scher Fixpunktsatz. 1) D ist abgeschlossen und konvex; 2) f ist selbstabbildend, d.h. f(d) D; Institut für Geometrie und Praktische Mathematik Höhere Mathematik IV (für Elektrotechniker und Technische Informatiker) - Numerik - SS 2007 Dr. S. Börm, Dr. M. Larin Banach scher Fixpunktsatz Gegeben

Mehr

Rechnerpraktikum zur Nichtlinearen Optimierung

Rechnerpraktikum zur Nichtlinearen Optimierung Rechnerpraktikum zur Nichtlinearen Optimierung 9. März 2016 11. März 2016 Sebastian Garreis, B. Sc. Philipp Jarde, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl für Mathematische

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

Numerische Optimierung

Numerische Optimierung Numerische Optimierung 6 In den ersten fünf Kapiteln dieses Skriptes haben wir Grundaufgaben der biomedizinischen Bildgebung eingeführt, im Sinne von Variationsmethoden modelliert und ihre Analyse in geeigneten

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den

Mehr

2 Statische Optimierung: Unbeschränkter Fall

2 Statische Optimierung: Unbeschränkter Fall 2 Statische Optimierung: Unbeschränkter Fall 2. Optimalitätsbedingungen Bevor in den Abschnitten 2.2 2.6 die numerischen Verfahren zur Lösung statischer Optimierungsprobleme ohne Beschränkungen behandelt

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Institut für Geometrie und Praktische Mathematik Multiple-Choice-Test NumaMB F08 (30 Punkte) Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine

Mehr

Kapitel 8: Suche nach Nullstellen und Extremwerten

Kapitel 8: Suche nach Nullstellen und Extremwerten Kapitel 8: Suche nach Nullstellen und Extremwerten Nullstellensuche (root finding) Einfachste Variante: Suche Nullstelle(n) einer 1D-Funktion: f(x) = 0 (1) Dies umfaßt bereits scheinbar andere Fälle, z.b.

Mehr

Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung

Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung 18.3.14-20.3.14 Dr. Florian Lindemann Moritz Keuthen, M.Sc. Technische Universität München Garching, 19.3.2014 Kursplan Dienstag, 18.3.2014

Mehr

Problem lokaler Minima

Problem lokaler Minima Optimierung Optimierung Häufige Aufgabe bei Parameterschätzung: Minimierung der negativen log-likelihood-funktion F(a) oder der Summe der quadratischen Abweichungen S(a) und Berechnung der Unsicherheit

Mehr

Skript zur Vorlesung. Optimierung. gelesen von. Prof. Dr. S. Volkwein

Skript zur Vorlesung. Optimierung. gelesen von. Prof. Dr. S. Volkwein Skript zur Vorlesung Optimierung gelesen von Prof. Dr. S. Volkwein Konstanz, Sommersemester 2009 Inhaltsverzeichnis 1 Einleitung 3 2 Optimalitätskriterien 4 2.1 Allgemeiner Fall.........................................

Mehr

Skript zur Vorlesung. Optimierung. gelesen von. Prof. Dr. S. Volkwein

Skript zur Vorlesung. Optimierung. gelesen von. Prof. Dr. S. Volkwein Skript zur Vorlesung Optimierung gelesen von Prof. Dr. S. Volkwein Konstanz, Sommersemester 2011 Inhaltsverzeichnis 1 Einleitung 3 2 Optimalitätskriterien 4 2.1 Allgemeiner Fall.........................................

Mehr

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE Differentialrechnung für Funktionen mehrerer

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben).

Mehr

Kapitel 16 : Differentialrechnung

Kapitel 16 : Differentialrechnung Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen IGPM RWTH Aachen Institut für Geometrie und Praktische Mathematik Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen

Mehr

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear

Mehr

Klausurlösung Einführung in Numerische Methoden und FEM Universität Siegen, Department Maschinenbau,

Klausurlösung Einführung in Numerische Methoden und FEM Universität Siegen, Department Maschinenbau, Universität Siegen, Department Maschinenbau, 7.7. Aufgabe y 3 l 3 3 F l l x Das dargestellte Fachwerk soll statisch mit Hilfe der FEM untersucht werden. Die Knoten und Elemente sind in der Abbildung nummeriert.

Mehr

Rechenoperationen mit Folgen. Rekursion und Iteration.

Rechenoperationen mit Folgen. Rekursion und Iteration. Rechenoperationen mit Folgen. Die Menge aller Folgen in V bildet einen Vektorraum, V N, für den die Addition und skalare Multiplikation wie folgt definiert sind. (a n ) n N + (b n ) n N := (a n + b n )

Mehr

Dierentialrechnung mit einer Veränderlichen

Dierentialrechnung mit einer Veränderlichen Dierentialrechnung mit einer Veränderlichen Beispiel: Sei s(t) die zum Zeitpunkt t zurückgelegte Wegstrecke. Dann ist die durchschnittliche Geschwindigkeit zwischen zwei Zeitpunkten t 1 und t 2 gegeben

Mehr

2 k k 1 k(k + 1) = 2n+1. n = 0 = k(k + 1) = 2n+1 n n. = 2 n+1 n + 2 (n + 1)(n + 2) + n. (n + 1)(n + 2)

2 k k 1 k(k + 1) = 2n+1. n = 0 = k(k + 1) = 2n+1 n n. = 2 n+1 n + 2 (n + 1)(n + 2) + n. (n + 1)(n + 2) Prof. Hesse Höhere Mathematik I und II Musterlösung 7. 0. 0, 80min Aufgabe (3 Punkte) Zeigen Sie mit vollständiger Induktion: Für alle n N gilt n k= k k k(k + ) = n+ n +. Induktionsanfang: k= Induktionsschluss

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

Lösen von nichtlinearen Gleichungssystemen durch Kurvenfortsetzung

Lösen von nichtlinearen Gleichungssystemen durch Kurvenfortsetzung Lösen von nichtlinearen Gleichungssystemen durch Kurvenfortsetzung 20. Februar 2003 Jan Sieber sieber@bris.ac.uk Department of Engineering Mathematics University of Bristol Übersicht Einleitung/Wiederholung

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik 4 Punkte Es gibt zu jeder der Aufgaben vier Teilaufgaben. Diese sind mit bzw. zu kennzeichnen hinschreiben. Es müssen

Mehr

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016 Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.

Mehr

Übungen zur Ingenieur-Mathematik III WS 2011/12 Blatt Aufgabe 25: Berechnen Sie den kritischen Punkt der Funktion

Übungen zur Ingenieur-Mathematik III WS 2011/12 Blatt Aufgabe 25: Berechnen Sie den kritischen Punkt der Funktion Übungen zur Ingenieur-Mathematik III WS 11/1 Blatt 8 3.11.11 Aufgabe 5: Berechnen Sie den kritischen Punkt der Funktion fx, y 3x 5xy y + 3 und entscheiden Sie, ob ein Maximum, Minimum oder Sattelpunkt

Mehr

H.J. Oberle Analysis III WS 2012/ Differentiation

H.J. Oberle Analysis III WS 2012/ Differentiation H.J. Oberle Analysis III WS 2012/13 13. Differentiation 13.1 Das Differential einer Abbildung Gegeben: f : R n D R m, also eine vektorwertige Funktion von n Variablen x = (x 1,..., x n ) T, wobei D wiederum

Mehr

Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger auf Details.

Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger auf Details. Kapitel 5 Lösungsverfahren Dieses Kapitel gibt einen Überblick über Lösungsverfahren für nichtlineare Optimierungsprobleme. Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger

Mehr

Numerische Verfahren zur Lösung der Monge-Ampère-Gleichung, Teil II

Numerische Verfahren zur Lösung der Monge-Ampère-Gleichung, Teil II für zur Lösung der Monge-Ampère-Gleichung, Teil II Andreas Platen Institut für Geometrie und Praktische Mathematik RWTH Aachen Seminar zur Approximationstheorie im Wintersemester 2009/2010 1 / 27 Gliederung

Mehr

Klausur zur Vordiplom-Prüfung

Klausur zur Vordiplom-Prüfung Technische Universität Hamburg-Harburg SS Arbeitsbereich Mathematik Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren. Juli Sie haben Minuten Zeit zum Bearbeiten der Klausur. Bitte

Mehr

Nichtlineare Gleichungen in einer und mehreren Unbekannten

Nichtlineare Gleichungen in einer und mehreren Unbekannten Gleichungen in einer und mehreren Unbekannten 2. Vorlesung 170004 Numerische Methoden I Clemens Brand 26. Februar 2009, Gliederung,, Gleichungen in einer Variablen Was ist... Wie geht... eine lineare (nichtlineare,

Mehr

Öffnen Sie den Klausurbogen erst nach Aufforderung! Mathematische Grundlagen II (CES) SS 2017 Klausur

Öffnen Sie den Klausurbogen erst nach Aufforderung! Mathematische Grundlagen II (CES) SS 2017 Klausur Prof. Dr. Manuel Torrilhon Prof. Dr. Sebastian Noelle Öffnen Sie den Klausurbogen erst nach Aufforderung! Zugelassene Hilfsmittel: Mathematische Grundlagen II (CES) SS 2017 Klausur 07.08.2017 Dokumentenechtes

Mehr

4.6 Berechnung von Eigenwerten

4.6 Berechnung von Eigenwerten 4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.

Mehr

Wiederholung: Iterative Verfahren

Wiederholung: Iterative Verfahren Wiederholung: Iterative Verfahren Vorlesung Inverse Probleme 22.12.2011 Inhalt Landweber-Iteration Nichtlineare Probleme Konjugierte Gradientenmethoden Landweber-Iteration T Tx = T y äquivalente Fixpunktgleichung

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr