Technische Universität München Zentrum Mathematik. Optimierung 3, SS 2009 Übungsblatt 12

Ähnliche Dokumente
TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09

Das Subgradientenverfahren

Analysis 3. Weihnachtsblatt Prof. Dr. H. Koch Dr. F. Gmeineder Besprechung: TBC, Januar Aufgabe 1: (Besonders prüfungsrelevant)

Technische Universität München Zentrum Mathematik. Optimierung 2, WS 2008/09 Übungsblatt 12

Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn

Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015

Nachklausur zur Analysis 2, SoSe 2017

A1: Diplomvorprüfung HM II/III WS 2007/

Das Gradientenverfahren

Optimierung für Nichtmathematiker

Das Trust-Region-Verfahren

Aufgabensammlung zur Analysis 1

Vorname Nachname Matrikelnummer Tutor Uhrzeit

Übungen zu Einführung in die Analysis

7. Übungsblatt zur Mathematik II für Inf, WInf

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

a n := 5n4 + 2n 2 2n n + 1. a n := n 5n 2 n 2 + 7n + 8 b n := ( 1) n c n := ( 1) n+1 6n2 + 13n 5n 3 + 7

Lösungen zu den Hausaufgaben zur Analysis II

TECHNISCHE UNIVERSITÄT MÜNCHEN

5.3.5 Abstiegs & Gradientenverfahren

3 Optimierung mehrdimensionaler Funktionen f : R n R

Klausur Mathematik I, 1 für Studierende der Studiengänge Elektrotechnik, Informationssystemtechnik und Mechatronik Gruppe A

1. Aufgabe 8 Punkte. f (x) = (x 2 + 1) e x2. Es gilt. f (x) = 2xe x2 + ( x ) e x2 ( 2x) = 2x 3 e x2.

Technische Universität Berlin Fakultät II Institut für Mathematik SS 13 G. Bärwolff, C. Mehl, G. Penn-Karras

Studientag zur Algorithmischen Mathematik

1 Die direkte Methode der Variationsrechnung

Gewöhnliche Dierentialgleichungen

Technische Universität Berlin

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9. Übung zur Maß- und Integrationstheorie, Lösungsskizze Aufgaben

Lösungen Klausur. k k (n + 1) n. für alle n N. Lösung: IA: Für n = 1 ist 1. k k + (n + 1) n+1. k k = k=1. k=1 kk = 1 1 = 1 2 = 2 1.

Musterlösung Klausur zu Analysis II. Verständnisteil

MIA Analysis einer reellen Veränderlichen WS 06/07. Kapitel VI. Differenzierbare Funktionen in einer Veränderlichen

b) Definieren Sie den Begriff Cauchy-Folge. c) Geben Sie zwei Beispiele für konvergente Folgen und deren jeweilige Grenzwerte an.

Klausur zu Analysis II - Lösungen

Serie 5. Figure 1: 1.a)

Analysis I & II Lösung zur Basisprüfung

Mathematik A Musterlösung Nachholprüfung Herbstsemester 2016

Mathematik 1 für Wirtschaftsinformatik

Brückenkurs Rechentechniken

Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung

Probeklausur. 1 Stetigkeit [7 Punkte] 2 Differenzierbarkeit [10 Punkte] Ferienkurs Analysis 2 für Physiker SS Karolina Stoiber Aileen Wolf

D-MAVT/D-MATL Analysis I HS 2017 Dr. Andreas Steiger. Lösung - Serie 6. (n+1)!. Daraus folgt, dass e 1/x < (n+

Nichtlineare Gleichungssysteme

Quiz Analysis 1. Lösungen zu den Aufgaben M1 bis M7 der Probeklausur. Mathematisches Institut, WWU Münster. Karin Halupczok.

Scheinklausur zur Vorlesung Stochastik II

UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl. Sommersemester 2009

Unterricht 13: Wiederholung.

2.10 Lokale Funktionsanalyse

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Wiederholungsklausur Mathematik 4 für Physiker (Analysis 3)

Kapitel 5 (Ebene autonome Systeme) Abschnitt 5.1 (Reduktion auf skalare Di.gleichungen)

Analysis I - Stetige Funktionen

Tutorium zur Vorlesung Differential und Integralrechnung II Bearbeitungsvorschlag

TECHNISCHE UNIVERSITÄT MÜNCHEN

Institut für Geometrie und Praktische Mathematik

Technische Universität Berlin Fakultät II Institut für Mathematik WS 10/11 Böse, von Renesse, Stephan, Weiser

Übungen Analysis I WS 03/04

Lösungsvorschläge zum 7. Übungsblatt.

Höhere Mathematik II. Variante C

12. Übungsblatt zur Analysis II

2.6 Der Satz von Fubini

KLAUSUR. Analysis (E-Technik/Mechatronik/W-Ing) Prof. Dr. Werner Seiler Dr. Matthias Fetzer, Dominik Wulf

Vorkurs Mathematik Intensiv. Vektoren, Skalarprodukte und Geraden in der Ebene Musterlösung

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.

Vorkurs Mathematik Intensiv. Geraden, Ebenen und lineare Gleichungssysteme - Musterlösung

Höhere Mathematik II. Variante A

Analysis II. Mehrdimensionale Differenzialund Integralrechnung

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Aufgaben. f : R 2 R, f(x, y) := y.

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Klausur Höhere Mathematik I für die Fachrichtung Physik

13. Übungsblatt zur Mathematik I für Maschinenbau

Klausurenkurs zum Staatsexamen (WS 2015/16): Differential und Integralrechnung 3

5 Die Picardschen Sätze

Analysis 4. Lösungsvorschlag zum 12. Übungsblatt

TECHNISCHE UNIVERSITÄT MÜNCHEN

Konversatorium zu Lineare Algebra und Analysis Analysis - Übungsbeispiele

f(x nk ) = lim y nk ) = lim Bemerkung 2.14 Der Satz stimmt nicht mehr, wenn D nicht abgeschlossen oder nicht beschränkt ist, wie man z.b.

Stroppel Musterlösung , 180min. Aufgabe 1 (4 Punkte) Bestimmen Sie die folgenden Grenzwerte und Funktionengrenzwerte.

Nachklausur zur Analysis 1, WiSe 2016/17

Technische Universität München Zentrum Mathematik. Übungsblatt 4

Konvexe Optimierungsprobleme

Technische Universität München Zentrum Mathematik. Übungsblatt 2

(b) Man nennt die Menge M beschränkt, wenn sie nach oben und unten beschränkt ist.

Differenzen/Differentialgleichungen Gegenüberstellung und Analogien sneaky, Mai 2007

Kommentierte Musterlösung zur Klausur HM II für Naturwissenschaftler

Technische Universität München Zentrum Mathematik. Übungsblatt 5

Übungen zum Ferienkurs Analysis II 2014

4 Holomorphie-Konvexität. Definition Satz. 42 Kapitel 2 Holomorphiegebiete

NICHTLINEARE OPTIMIERUNG

Lösungsvorschlag zur Nachklausur zur Analysis

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Teil I Auswahlfragen

Serie 3. z = f(x, y) = 9 (x 2) 2 (y 3) 2 z 2 = 9 (x 2) 2 (y 3) 2, z 0 9 = (x 2) 2 + (y 3) 2 + z 2, z 0.

Prüfungsklausur Mathematik II für Bauingenieure am

Stochastische Prozesse

Transkript:

Technische Universität München Zentrum Mathematik Prof. Dr. P. Gritzmann, Dipl.-Inf. Dipl.-Math. S. Borgwardt Optimierung 3, SS 009 Übungsblatt Aufgabe. Sei ϕ : R n R stetig dierenzierbar und nach unten beschränkt, x 0 R n, s eine Abstiegsrichtung sowie ρ (0, ) und κ (ρ, ). a) Konstruieren Sie einen möglichst schnellen Algorithmus zur Bestimmung einer Schrittweite, die die Wolfe-Powell Bedingungen für ρ und κ erfüllt. (Hinweis: Lemma 9..) b) Begründen Sie, dass Ihr Verfahren nach endlich vielen Schritten eine Schrittweite ndet, die den Wolfe-Powell Bedingungen genügt. c) Betrachten Sie die Funktion ϕ(x) := ξ +ξ ξ +5ξ. Berechnen Sie die ersten drei Schritte des Gradientenverfahren mit Startpunkt x 0 = (3, ) T für diese Funktion. Benutzen Sie hierbei Ihr Verfahren für die Schrittweitenbestimmung, mit Parametern ρ = /, κ = 3 /. Lösung zu Aufgabe. a) Wir konstruieren eine Schrittweite, die die Wolfe-Powell Bedingungen erfüllt durch Bisektion. Dazu bestimmen wir analog zu Lemma 9.. Folgen (µ i ) N und (ν i ) N nach folgendem Verfahren erzeugt: Wir konstruieren zunächst Startpunkte µ 0, ν 0 (beispielsweise) wie folgt: Wähle µ 0 { l : l N 0 } maximal, so dass µ 0 die Ungleichung ϕ(x 0 + µ 0 s) ϕ(x 0 ) + µ 0 ρϕ (x 0 ) T s erfüllt. Setze dann ν 0 := µ 0, somit erfüllt ν 0 die Ungleichung ϕ(x 0 + ν 0 s) > ϕ(x 0 ) + ν 0 ρϕ (x 0 ) T s. Das ist natürlich nur dann sichergestellt, wenn µ 0 ist. Ist das nicht der Fall, dann wählen wir das minimale ν 0 { l : l N}, so dass ν 0 die Ungleichung ϕ(x 0 + ν 0 s) > ϕ(x 0 ) + ν 0 ρϕ (x 0 ) T s erfüllt und setzen dann µ 0 := /ν 0. Für unsere Startpunkte µ 0 < ν 0 gilt nach dieser Konstruktion: ϕ(x 0 + µ 0 s) ϕ(x 0 ) + µ 0 ρϕ (x 0 ) T s ϕ(x 0 + ν 0 s) > ϕ(x 0 ) + ν 0 ρϕ (x 0 ) T s Sind die ersten k Folgenglieder bereits bekannt, so betrachten wir λ = µ k+ν k. Erfüllt λ die Wolfe-Powell Bedingungen, so brechen wir den Algorithmus ab. Sonst prüfen wir, ob λ die Ungleichung ϕ(x 0 + λs) ϕ(x 0 ) + λρϕ (x 0 ) T s erfüllt. Ist das der Fall, so setzen wir µ k+ := λ und ν k+ := ν k, sonst µ k+ := µ k und ν k+ := λ.

b) Mit dem oben ausgeführten Algorithmus erhalten wir (falls wir nicht abbrechen) monoton wachsende bzw. fallende Folgen (µ i ) bzw. (ν i ) mit lim i µ i = lim i ν i, für die alle Voraussetzungen von Lemma 9.. gelten (die Ungleichungen gelten nach Konstruktion). Damit gibt es ein i 0 N, so dass für alle i i 0 die µ i beide Wolfe-Powell Bedingungen erfüllen. Wir brechen den Algorithmus ab, sobald die erste solche Schrittweite gefunden wird. c) Wir berechnen zunächst ( ) ϕ ξ + ξ (x) = ξ + 0ξ und erhalten damit die Suchrichtung s () = ϕ (x (0) ) = (, ) T. Damit können wir µ 0 bestimmen; wir probieren einfach µ 0 = l, l = 0,,,..., bis die geforderte Ungleichung erfüllt ist (natürlich könnte man die Ungleichung auch nach µ 0 auösen das ist in der Praxis bei komplizierterem ϕ aber meist nicht mehr möglich). Hier gilt: µ 0 = : ϕ(x (0) + s () ) ϕ(x (0) ) + ϕ (x (0) ) T s () 0 8 3 µ 0 = : ϕ(x(0) + s() ) ϕ(x (0) ) + ϕ (x (0) ) T s () 8 8 3 µ 0 = : ϕ(x(0) + s() ) ϕ(x (0) ) + 8 ϕ (x (0) ) T s () 8 3 8 Also starten wir die Bisektion mit µ 0 = und ν 0 = µ 0 =. Wir prüfen zunächst, ob µ 0 bereits beide Wolfe-Powell Bedingungen erfüllt, und stellen fest, dass dies zutrit. Somit ist der nächste Iterationspunkt x () = x (0) + s() = (, 0) T. Die nächste Suchrichtung ist dann s () = ϕ (x () ) = (, ) T wieder µ 0 durch Einsetzen: und wir bestimmen µ 0 = : ϕ(x () + s () ) ϕ(x () ) + ϕ (x () ) T s () 00 3 µ 0 = : ϕ(x() + s() ) ϕ(x () ) + ϕ (x () ) T s () 0 3 µ 0 = : ϕ(x() + s() ) ϕ(x () ) + 8 ϕ (x () ) T s () 3 8 µ 0 = 8 : ϕ(x() + 8 s() ) ϕ(x () ) + 6 ϕ (x () ) T s () 3 6 Auch diesmal stellen wir fest, dass µ 0 = 8 die Wolfe-Powell-Bedingungen bereits erfüllt.

Der nächste Iterationspunkt ist also x () = x () + 8 s() = ( ) T 3,, und damit bekommen wir die Suchrichtung s (3) = ϕ (x () ) = (, ) T. µ 0 = : ϕ(x () + s (3) ) ϕ(x () ) + ϕ (x () ) T s (3) 0 8 µ 0 = : ϕ(x() + s(3) ) ϕ(x () ) + ϕ (x () ) T s (3) 8 µ 0 = : ϕ(x() + s(3) ) ϕ(x () ) + 8 ϕ (x () ) T s (3) 8 8 Die Wolfe-Powell Schrittweite ist diesmal µ 0 =, damit bekommen wir x (3) = x () + s(3) = (, 0) T. 3

Aufgabe. ( ) cos πt Sei γ(t) := ( + t ) und Γ := {γ(t) : t R} (vgl. Abbildung). Für x R sin πt mit x > sei λ(x) := max{λ : λx Γ} und µ(x) := min{µ > : µx Γ}. Wir betrachten die Funktion f(x) := 0 ( x ) 8 + d(x), wobei { x xλ(x) x xµ(x) d(x) :=, für x >. 0, sonst eine Abstandsfunktion bezüglich Γ ist. a) Skizzieren Sie qualitativ den Verlauf von f entlang des Strahls {(σ, 0) T : σ 0}. Beschreiben Sie mit Hilfe Ihrer Skizze informell das Aussehen von f auf ganz R. b) Wie sieht (qualitativ) der Verlauf des Gradientenverfahrens mit exakter line search für f aus, wenn man bei x 0 = (, 0) T startet? Wo liegen die Häufungspunkte, die das Verfahren erzeugt? c) Welche Rolle spielt das Verhalten von f im Inneren des Einheitskreises für den Verlauf des Gradientenverfahrens aus b)?,5 0,5 -,5 - -0,5 0 0 0,5,5-0,5 - -,5 Lösung zu Aufgabe.

a) Für unsere qualitative Skizze nehmen wir an, dass die durch Γ denierte Spirale die x-achse bei. und.3 trit. Die folgende Zeichnung zeigt den Verlauf von f im entsprechenden Bereich. Man erkennt die zwei zu. und.3 gehörigen Täler von f, die sich aus der Abstandsfunktion d und dem für gröÿer werdende x steigenden additiven Teil von f ergeben. Die Abstandsfunktion dominiert den Restteil von f zwischen den Spiralarmen deutlich. Qualitativ lässt sich die Zeichnung ähnlich fortsetzen, die Höhe der Abstandsfunktion nimmt dabei aber sehr stark zu, die des Restteils nur leicht. Anhand dieser Überlegung kann man sich gut klarmachen, wie die Funktion aussieht: Die Spirale wird mit einer leichten Neigung versehen (durch den Faktor + t zieht sie sich bei steigendem t näher an den Einheitskreis heran, und das führt zu einem kleiner werdenden Restteil 0 ( x ) 8 in f), zwischen je zwei Spiralarmen wird die Funktion zu einer Art Rinne mit sehr hohen Grenzwänden. Man bekommt also so etwas wie eine spiralförmige Rutsche, die sich asymptotisch dem Rand des Einheitskreises nähert. Zwar sind benachbarte Rutschenwindungen miteinander verbunden, die Höhe der Wand, welche die Rinne begrenzt, ist aber sehr hoch. b) Der Punkt (, 0) T liegt auf der Spirale, nach links und rechts erheben sich steile Wände. Im ersten Schritt laufen wir (in Richtung zum Nullpunkt) in den Talpunkt der Senke, in der wir uns benden, und danach (senkrecht dazu) in Richtung des steilsten Abstiegs, entlang der ablaufenden Spirale. Danach laufen wir erneut senkrecht (parallel zur ersten Suchrichtung!) zur aktuellen Talsenke, und danach wieder senkrecht dazu (parallel zur zweiten Suchrichtung!) weiter entlang der Spirale. Das Gradientenverfahren mit lokal exakter Schrittweitenbestimmung folgt damit der Spiralrichtung in kleinen orthogonalen Zick-Zack-Schritten. Die Häufungspunkte liegen dann natürlich auf dem Rand des Einheitskreises. c) Wenn man das Gradientenverfahren auÿerhalb des Einheitskreises startet, wird die Rutschrinne nie verlassen, das Verfahren gelangt also nie ins Innere des Einheitskreises. Das Verhalten von f in diesem Bereich spielt somit keine Rolle für den Verlauf des Gradientenverfahrens. Das bedeutet auch, dass man f so manipulieren könnte, dass lokale Minima nur im Inneren des Einheitskreises angenommen werden, so dass das Gradientenverfahren zwar gegen stationäre Punkte konvergiert (Terassenpunkte), nicht aber gegen ein Minimum (weder global noch lokal). 5