Praktische Optimierung

Ähnliche Dokumente
Praktische Optimierung

Übungen zu Grundlagen der Mathematik 2 Lösungen Blatt 12 SS 14. Aufgabe 44. Bestimmen Sie die Taylor-Polynome der Funktion.

Anwendungen der Differentialrechnung

Extremwertrechnung in mehreren Veränderlichen

AM3: Differenzial- und Integralrechnung im R n. 1 Begriffe. 2 Norm, Konvergenz und Stetigkeit. x 1. x 2. f : x n. aus Platzgründen schreibt man:

8 Extremwerte reellwertiger Funktionen

(a), für i = 1,..., n.

Eigenschaften stetiger Funktionen Buch Kap. 2.5

Vorlesung Mathematik für Ingenieure 2 (Sommersemester 2009)

Vorlesung: Analysis II für Ingenieure. Wintersemester 09/10. Michael Karow. Themen: Taylor-Entwicklung und lokale Extrema

Mathematik für Wirtschaftswissenschaftler im WS 12/13 Lösungen zu den Übungsaufgaben Blatt 12

Mathematik 3 für Informatik

Vorlesung Mathematik für Ingenieure II (Sommersemester 2008)

Multivariate Analysis

Differentialrechnung im R n

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Kapitel 7. Differentialrechnung. Josef Leydold Mathematik für VW WS 2017/18 7 Differentialrechnung 1 / 56

Rückblick auf die letzte Vorlesung. Bemerkung

Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn

Analysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

3. Approximation von Funktionen und Extremwertprobleme im R n

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie

Berechnung von Extrema

Analysis II 13. Übungsblatt

Die Tangentialebene. {(x, y, z) z = f(x 0, y 0 )+ f x (x 0, y 0 )(x x 0 )+ f. y (x 0, y 0 )(y y 0 )}

Vorlesung: Analysis II für Ingenieure. Wintersemester 07/08. Michael Karow. Themen: Niveaumengen und Gradient

Kapitel 6 Differential- und Integralrechnung in mehreren Variablen

Differential- und Integralrechnung

Optimieren unter Nebenbedingungen

Mehrdimensionale Differentialrechnung Übersicht

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester

Teil 6. Differentialrechnung mehrerer Veränderlicher

Analysis III. Teil I. Rückblick auf das letzte Semester. Themen aus dem SS Inhalt der letzten Vorlesung aus dem SS.

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) =

1 Partielle Differentiation

Wirtschaftsmathematik: Formelsammlung (V1.40)

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren Thomas Brox, Fabian Kuhn

Übungen zum Ferienkurs Analysis II

Mathematik 1 Bachelorstudiengang Maschinenbau

Übung 22: Gradient und Richtungsableitung; Extremwertaufgaben für Funktionen mehrerer Veränderlicher

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Das Gradientenverfahren

Extrema multivariater Funktionen

Elemente der Analysis II

Nachklausur Analysis 2

Übersicht. 1. Motivation. 2. Grundlagen

Technische Universität München Zentrum Mathematik. Übungsblatt 12

D-MATH, D-PHYS, D-CHAB Analysis II FS 2018 Prof. Manfred Einsiedler. Übungsblatt 6. f(x, y, z) = xyz + 3e x y

4 Differenzierbarkeit

3 Optimierung mehrdimensionaler Funktionen f : R n R

Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung

Prof. Dr. Rolf Linn

Extremwerte von Funktionen mehrerer reeller Variabler

Wirtschaftsmathematik Formelsammlung

Mathematik I Herbstsemester 2018 Kapitel 3: Differentialrechnung

3 Differenzierbarkeit und Ableitung (Differentialrechnung I)

Mathematik 1 für Wirtschaftsinformatik

Analysis I. 8. Übungsstunde. Steven Battilana. battilana.uk/teaching

Mathematik 3 für Informatik

Kapitel 16 : Differentialrechnung

Prof. Dr. H. Brenner Osnabrück SS Analysis II. Vorlesung 50. Hinreichende Kriterien für lokale Extrema

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1

18.2 Implizit definierte Funktionen

Lösungsvorschlag zur Nachklausur zur Analysis

Tutorium: Analysis und lineare Algebra

1 Übungsaufgaben zu Kapitel 1

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

Musterlösung zu Blatt 1

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

Mathematik für Wirtschaftswissenschaftler. Universität Trier Wintersemester 2013 / 2014

2 Funktionen in mehreren Variablen: Differentiation

Differenzierbarkeit im R n. Analysis III October 30, / 94

40 Lokale Extrema und Taylor-Formel

Mathematik 2 für Wirtschaftsinformatik

Thema 5 Differentiation

Probeklausur zur Analysis 2, SoSe 2017

Stetigkeit und Dierenzierbarkeit im R n

23. DIFFERENTIALRECHNUNG VON FUNKTIONEN VON MEHREREN VARIABLEN

Lösungen der Aufgaben zu Kapitel 9

1 Umkehrfunktionen und implizite Funktionen

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Musterlösung Klausur zu Analysis II. Verständnisteil

AM3: Differenzial- und Integralrechnung im R n. 1 Begriffe. 2 Norm, Konvergenz und Stetigkeit. x 1. x 2. f : x n. aus Platzgründen schreibt man:

Differenzialrechnung. Mathematik-Repetitorium

HM I Tutorium 9. Lucas Kunz. 19. Dezember 2018

Übungen zur Ingenieur-Mathematik III WS 2012/13 Blatt

5 Differenzialrechnung für Funktionen einer Variablen

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik. für das Ingenieurstudium. 10 Funktionen mit mehreren Variablen. Jürgen Koch Martin Stämpfle.

M U = {x U f 1 =... = f n k (x) = 0}, (1)

Analysis II WS 11/12 Serie 9 Musterlösung

Institut für Analysis WiSe 2018/2019 Prof. Dr. Dirk Hundertmark Dr. Markus Lange. Analysis 1. Aufgabenzettel 14

C. Eicher Analysis Study Center ETH Zürich HS Extremwerte

Mathematik für Physiker, Informatiker und Ingenieure

Mathematik zum Mitnehmen

UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl. Sommersemester 2009

z 2 + 2z + 10 = 0 = 2 ± 36 2 Aufgabe 2 (Lineares Gleichungssystem) Sei die reelle 3 4 Matrix

UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl. Sommersemester 2009

Transkript:

Praktische Optimierung Dozent: Günter Rudolph Vertretung: Nicola Beume Wintersemester 2007/08 Universität Dortmund Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS11) Fachgebiet Computational Intelligence 17.10.2007 Nicola Beume (LS11) PrOp 17.10.2007 1 / 20

Grundlagen von Optimierproblemen Am Montag gelernt: Formalitäten Überblick über dieses Semester Def.: Optimierproblem Optimum, Optimalstelle lokales, globales Optimum Minimierung wie Maximierung konvexe Funktionen Nicola Beume (LS11) Rückblick 17.10.2007 2 / 20

Grundlagen klassischer Optimiertechniken Themen der heutigen Vorlesung: Exkurs: Differentialrechnung Optimalitätsbedingungen für unrestringierte Optimierprobleme Analyse von quadratischen, konvexen Funktionen Gradientenverfahren Nicola Beume (LS11) Vorschau 17.10.2007 3 / 20

Exkurs: Differentialrechnung Grundlagen der Differentialrechnung f : R R differenzierbar in x existiert und ist endlich lim h 0 f (x+h) f (x) h Der Limes wird mit f (x) bezeichnet und heißt Ableitung von f an der Stelle x Einige grundlegende Ableitungsregeln Sei f : R R, g : R R, x, α, n R (α) = 0 Konstante (αf ) = αf Faktorregel (f + g) = f + g Summenregel (fg) = gf + fg Produktregel ( f g ) = gf fg g 2 Quotientenregel (f g) (x) = (f (g(x))) = g (x)f (g(x)) Kettenregel (x n ) = nx n 1 Potenzregel (ln x) = 1 x logarithmische Ableitung Nicola Beume (LS11) Differentialrechnung 17.10.2007 4 / 20

Partielle Funktion und Ableitung f : R n R Argument x = (x 1,..., x n ) ist ein n-dimensionaler Vektor ˆzeigt an, dass eine Variable (Veränderliche) als konstant angenommen wird Sei ˆx R n und f ( ˆx 1,..., x k 1 ˆ, x k, x k+1 ˆ,..., ˆx n ) eine partielle Funktion mit existierender Ableitung in x k. Partielle Ableitung nach x i : f (x 1,...,x n) x i = f x i (x 1,..., x n ) = f x i = f xi Handwerkliches: Alle Veränderliche außer x i als Konstanten auffassen und die nunmehr nur noch von x i abhängende Funktion wie gewohnt ableiten. Nicola Beume (LS11) Differentialrechnung 17.10.2007 5 / 20

Beispiel: Einfache partielle Ableitungen f (x, y, z) = x 2 + xy 2 + 2z 3 Partielle Ableitungen: f x (x, y, z) = 2x + y 2 f y (x, y, z) = 2xy f z (x, y, z) = 6z 2 f (x, y) = y log(2xy), x, y > 0 Partielle Ableitungen: 1 f x (x, y) = y 2y 2xy = y x 1 f y (x, y) = log(2xy) + y 2x 2xy = log(2xy) + 1 Regel: log(g(x)) = g (x) g(x) Nicola Beume (LS11) Differentialrechnung 17.10.2007 6 / 20

Partielle Ableitung zweiter Ordnung Ordnung: Anzahl abzuleitender Variablen 2 f x i x j (x 1,..., x n ) = f xi x j (höhere Ordnungen analog) Prinzip: x i ( x j ) Handwerkliches: erst nach x j ableiten, dann Resultat nach x i ableiten Reihenfolge egal, falls f C m (G) (f m-fach stetig differenzierbar) Satz von Schwarz: Für jedes f C m (G) mit G R n offen ist die Reihenfolge der partiellen Ableitungen bis zur m-ten Ordnung irrelevant. Nicola Beume (LS11) Differentialrechnung 17.10.2007 7 / 20

Beispiel: Partielle Ableitungen zweiter Ordnung f (x, y) = x 3 2x 2 y 2 + 4xy 3 + y 4 + 10 Partielle Ableitungen f x = 3x 2 4xy 2 + 4y 3 f y = 4x 2 y + 12xy 2 + 4y 3 1. Ordnung f xx = 6x 4y 2 f yx = 8xy + 12y 2 2. Ordnung f xy = 8xy + 12y 2 f yy = 4x 2 + 24xy + 12y 2 f xy = f yx Nicola Beume (LS11) Differentialrechnung 17.10.2007 8 / 20

Gradient f : R n R Gradient f (x): Vektor der partiellen Ableitungen von f (x). f (x) f (x) f (x) f (x) := ( x 1, x 2,..., x n ) ( heißt Nabla-Operator, steht für transponiert) Hessematrix 2 f (x): Matrix der partiellen zweiten Ableitungen von f (x). 2 f (x) 2 f (x) x 1 x 1 x 1 x 2 2 f (x) x 1 x n 2 f (x) :=... 2 f (x) x n x 1 2 f (x) x n x n Falls f C 2 Satz von Schwarz Hessematrix symmetrisch Nicola Beume (LS11) Differentialrechnung 17.10.2007 9 / 20

Taylor Gemäß Taylor-Formel nähert man eine Funktion durch eine Taylor-Reihe bestehend aus Taylor-Polynomen an f (x + h) = f (x) + ( f (x)) h + 1 2 h 2 f (x)h + h 2 ρ(h) mit lim h 0 ρ(h) = 0 Abweichung kann beliebig klein werden Andere Darstellung mit h = x x 0 f (x) f (x 0 ) + ( f (x 0 )) (x x 0 ) + 1 2 (x x 0) 2 f (x 0 )(x x 0 ) Approx. durch Gerade Approx. durch Paraboloid Ende Exkurs Differentialrechnung Nicola Beume (LS11) Differentialrechnung 17.10.2007 10 / 20

Optimalitätsbedingungen für unrestringierte Probleme f C 2, x R n mit f (x ) = 0 und 2 f (x ) positiv definit f hat in x ein lokales Minimum negativ definit lokales Maximum, indefinit kein lokales Optimum Definitheitskriterium für (n n)-matrix A: a 11 a 1k Sei k :=... k-te Abschnittsdeterminate a k1 a kk (von Hauptminor: quadr. Untermatrix beginnend links oben) A pos. def. k : k > 0 A neg. def. k : ( 1) k k > 0 ( ) a b Beispiel: b c a > 0 und ac b 2 > 0 pos. def. a < 0 und ac b 2 > 0 neg. def. a < 0 und ac b 2 < 0 indef. Nicola Beume (LS11) Optimalitätsbedingungen 17.10.2007 11 / 20

Beispiel: Methodik bestimmt lokales Optium globales Optimum? f (x, x) + für x + und f (x, x) für x f unbeschränkt lokales Opt. ist kein globales Opt. Nicola Beume (LS11) Optimalitätsbedingungen 17.10.2007 12 / 20 f (x, y) = x 3 + y 3 3xy f x = 3x 2 3y f y = 3y 2 3x partielle Ableitungen bestimmen Nullstellen der partiellen Ableitungen suchen Gleichungssystem mit zwei Lösungen: (0, 0) und (1, 1) ( ) 6x 3 2 f (x, y) = Hessematrix berechnen 3 6y Eigenschaften( der Hessematrix ) an Lösungsstellen 0 3 2 f (0, 0) = indefinit (0, 0) keine Optimalstelle 3 0 ( ) { 6 3 2 1 = 6 > 0 und f (1, 1) = 3 6 2 = 6 6 ( 3)( 3) = 27 > 0 pos.def. lokales Optimum: f (1, 1) = 1

Beispiel: Methodik hat erste Schwierigkeiten f (x, y) = x 2 + y 2 2xy + 1 f x = 2x 2y f y = 2y 2x Nullstellen der partiellen Ableitungen suchen alle (x, y) mit x = y partielle Ableitungen bestimmen Hessematrix berechnen ( ) { 2 2 2 1 > 0 f (x, y) = 2 2 2 = 0 so keine Entscheidung möglich Analyse durch Nachdenken und Abschätzung der Funktion: f (x, y) = x 2 + y 2 2xy + 1 = (x y) 2 +1 1 }{{} 0 Lösung raten: x : f (x, x) = 1 alle Elemente in {(x, y) R 2 : x = y} sind lokale und globale Minimalstellen Nicola Beume (LS11) Optimalitätsbedingungen 17.10.2007 13 / 20

Beispiel: Methodik versagt f (x, y) = x 2 + y 2 offensichtlich: globales Minimum in (0, 0) Analyse durch partielle Ableitung: f x = 2x 1 2 x 2 +y 2 f y = 2y 1 2 x 2 +y 2 suche Nullstelle der partiellen Ableitung: f x (0, y) = 0 für y 0 und f y (x, 0) = 0 für x 0, aber f x (0, 0) und f y (0, 0) undefiniert es existieren keine partiellen Ableitungen in (0, 0) Nicola Beume (LS11) Optimalitätsbedingungen 17.10.2007 14 / 20

Optimum einer quadratischen, konvexen Funktion (1) f (x) = 1 2 x Ax + b x + c f (x) = Ax + b =! 0 2 f (x) = A A pos. def., da f konvex lokales Opt. = globales Opt. Umformung des Gradienten Ax = b A 1 linksseitig A 1 Ax = A 1 b (Erinnerung: für transponiert) suche Optimalstellen x = A 1 b =: x Optimalstelle eines globalen Optimums Inverse Matrix A 1 existiert immer: A pos. def. det A > 0 det A 0 A 1 existiert Nicola Beume (LS11) Optimalitätsbedingungen 17.10.2007 15 / 20

Optimum einer quadratischen, konvexen Funktion (2) Umformung von f durch ausmultiplizieren f (x) = 1 2 x Ax + b x + c = 1 ( ) ( ) ( ) 2 (x a11 a 1, x 2 ) 12 x1 x1 + (b a 12 a 22 x 1, b 2 ) + c A symmetrisch 2 x 2 = 1 ( ) 2 (x x1 1a 11 + x 2 a 12, x 1 a 12 + x 2 a 22 ) + b 1 x 1 + b 2 x 2 + c = 1 2 (a 11x 2 1 + 2a 12 x 1 x 2 + x 2 a 22 ) + b 1 x 1 + b 2 x 2 + c x 2 Gradient ( ) fx1 f (x) = f x2 ( ) a11 x = 1 + a 12 x 2 + b 1 a 22 x 1 + a 12 x 1 + b 2 = Ax + b Nicola Beume (LS11) Optimalitätsbedingungen 17.10.2007 16 / 20

Optimum einer quadratischen, konvexen Funktion (3) Berechne globales Optimum an Optimalstelle x f (x ) = f ( A 1 b) = 1 2 ( A 1 b) AA 1 b b A 1 b + c = 1 2 b A 1 b b A 1 b + c = 1 2 b A 1 b + c Nicola Beume (LS11) Optimalitätsbedingungen 17.10.2007 17 / 20

Gradientenverfahren f (x) zeigt in Richtung des stärksten Anstiegs an der Stelle x f (x) stärkster Abstieg Idee: iterative Annäherung an lokales Optimum durch Verfolgen des neg. Gradienten Schrittweite s R +, Hochzahl bezeichnet Iterationsschritt x (k+1) = x (k) s (k) f (x (k) ) f (x (k) ) = x (k) s (k) d (k) Vektorlänge normiert optimale Schrittweite: wähle s (k) so, dass f (x (k) s (k) d (k) ) = min{f (x (k) s (k) d (k) : s R + } Wie macht man das? Fortsetzung am Montag... Nicola Beume (LS11) Gradientenverfahren 17.10.2007 18 / 20

Zusammenfassung Heute (mindestens) gelernt: Grundlagen der Differenzialrechnung... sind immer noch wie in der Schule Partielle Ableitungen... betrachten nicht abzuleitende Variablen als Konstanten existieren nicht immer sind oft nicht zum Auffinden einer Optimalstelle geeignet Konvexe, quadratische Funktion... sind harmlos haben als lokale Optima nur das globale Optimum lassen sich mit Hilfe partieller Ableitungen lösen Gradientenverfahren... sind Optimierverfahren arbeiten iterativ benötigen eine passend gewählte Schrittweite Nicola Beume (LS11) Zusammenfassung 17.10.2007 19 / 20

Literatur zu Analysis H. Heuser: Lehrbuch der Analysis (Teil 1) 3. Auflage, Teubner, Stuttgart, 1984 (Kapitel 6) H. Heuser: Lehrbuch der Analysis (Teil 2) 9. Auflage, Teubner, Stuttgart, 1995 (Kapitel 20) (ganz viele andere) Nicola Beume (LS11) Literatur 17.10.2007 20 / 20