Studientag zur Algorithmischen Mathematik



Ähnliche Dokumente
Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn

Studientag zur Algorithmischen Mathematik

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren Thomas Brox, Fabian Kuhn

Optimierung für Nichtmathematiker

Übung 5, Analytische Optimierung

Das Gradientenverfahren

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Optimieren unter Nebenbedingungen

Modulprüfung Numerische Mathematik 1

Aufgabensammlung zum UK Mathematische Optimierung

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) =

Extrema multivariater Funktionen

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1

Lagrange-Multiplikatoren

Mathematik für Wirtschaftswissenschaftler im WS 12/13 Lösungen zu den Übungsaufgaben Blatt 12

3 Optimierung mehrdimensionaler Funktionen f : R n R

Multivariate Analysis

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09

Mathematik 2 für Wirtschaftsinformatik

Höhere Mathematik II für BWIW, BNC, BAI, BGIP, GTB, Ma Hausaufgaben zum Übungsblatt 5 - Lösung

Optimale Steuerung 1

UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl. Sommersemester 2009

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

Musterlösung zu Blatt 1

LUDWIG-MAXIMILIANS-UNIVERSITÄT MÜNCHEN. 12. Übung/Lösung Mathematik für Studierende der Biologie

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema

LUDWIG-MAXIMILIANS-UNIVERSITÄT MÜNCHEN. 13. Übung/Lösung Mathematik für Studierende der Biologie

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester

Das Trust-Region-Verfahren

Nachklausur Analysis 2

Optimierung für Nichtmathematiker

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z

Überblick. Kapitel 7: Anwendungen der Differentialrechnung

Tutorium Mathematik II, M Lösungen

Mathematik 3 für Informatik

Extremwertrechnung in mehreren Veränderlichen

14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert

Lösungsskizzen zur Nachklausur

Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung

Optimierung für Nichtmathematiker

Übungen zur Ingenieur-Mathematik III WS 2011/12 Blatt Aufgabe 25: Berechnen Sie den kritischen Punkt der Funktion

Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 2016/17

Übungen zur Ingenieur-Mathematik III WS 2012/13 Blatt

6.8 Newton Verfahren und Varianten

1 Übungsaufgaben zu Kapitel 1

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. Aufgabe 1. Zeigen Sie, dass für alle k, n N gilt: 6 Punkte

KAPITEL 3. Konvexe Funktionen

Extrema mit Nebenbedingungen

Mathematik für Biologen

Mathematik 1 für Wirtschaftsinformatik

C. Eicher Analysis Study Center ETH Zürich HS Extremwerte

Nichtlineare Optimierungsprobleme mit Komplexität

Teil 6. Differentialrechnung mehrerer Veränderlicher

II. Nichtlineare Optimierung

Mehrdimensionale Differentialrechnung Übersicht

Serie 3. z = f(x, y) = 9 (x 2) 2 (y 3) 2 z 2 = 9 (x 2) 2 (y 3) 2, z 0 9 = (x 2) 2 + (y 3) 2 + z 2, z 0.

Mathematik für Betriebswirte II (Analysis) 2. Klausur Sommersemester

Übungsaufgaben zur Kurvendiskussion

R. Brinkmann Seite

3.2 Funktionsuntersuchungen mittels Differentialrechnung

z 2 + 2z + 10 = 0 = 2 ± 36 2 Aufgabe 2 (Lineares Gleichungssystem) Sei die reelle 3 4 Matrix

a n := ( 1) n 3n n 2. a n := 5n4 + 2n 2 2n n + 1. a n := n 5n 2 n 2 + 7n + 8 b n := ( 1) n

Nelder-Mead Kriging-Verfahren NEWUOA

Seminarvortrag: Trust-Region-Verfahren

Klausurlösung Einführung in Numerische Methoden und FEM Universität Siegen, Department Maschinenbau,

Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2

Partielle Ableitungen, Gradient, Lineare Näherung, Extrema, Fehlerfortpflanzung

Mathematik für Wirtschaftswissenschaftler II (Analysis) 2. Klausur Sommersemester

Kurvendiskussion für Funktionen mit einer Variablen

Lineare Klassifikationsmethoden

Aufgabe 1 (12 Punkte)

Mathematik für Betriebswirte II (Analysis) 2. Klausur Sommersemester

Wirtschaftsmathematik II

Regression IV: Anpassung mit nichtlinearen Funktionen. Teil B: Nicht linearisierbare Modelle. -Fortsetzung-

6. Numerische Lösung des. Nullstellenproblems

Bemerkung 2.1: Das Newtonverahren kann auch als sequential quad. minimization verstanden werden: 2.1 Ein globalisiertes Newtonverfahren

Die Funktion f sei (zumindest) in einem Intervall I = [a, b] definiert und dort hinreichend oft differenzierbar. f(x 0 ) f(x)

Transkript:

Studientag zur Algorithmischen Mathematik Aufgaben zur nicht-linearen Optimierung Teil II Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012

Aufgabe 5 Bestimmen Sie alle Extrema von f (x, y, z) = x + y z über der Menge K := {(x, y, z) R 3 x 2 + 2y 2 = 1 und 4x = 3z}.

Aufgabe 5

Aufgabe 6 Lösen Sie das folgende Maximierungsproblem: max x 3 + y 3 unter (x 1) 2 y + 1 0 y 3.

Aufgabe 6

Aufgabe 6

Aufgabe 7 Untersuchen Sie, welche der folgenden Funktionen konvex über dem angegebenen Definitionsbereich sind. In c) seien f 1 : R R und f 2 : R R konvexe Funktionen. 1. f : R 3 R mit f (x, y, z) := x 2 + 3y 2 + 9z 2 2xy + 6yz + 2xz. 2. f : R n R mit f (x) := x. 3. f : R 2 R mit f (x, y) = xf 1 (x) + yf 2 (y).

Aufgabe 8 Führen Sie drei Iterationen der Fibonaccisuche zur Bestimmung des Minimums der Funktion f : R R mit auf dem Intervall [0, 13] durch. f (x) := x 2 12x

Aufgabe 9 Führen Sie für das folgende Optimierungsproblem min ( ) x ( 1 2 ) ( x ( y 2 5 y) + 2 ( x 1) y). je zwei Schritte der folgenden Verfahren durch, jeweils startend bei (0, 0): 1. Verfahren des steilsten Abstiegs, 2. Koordinatensuche, 3. Newton-Verfahren.

Aufgabe 9 Führen Sie für das folgende Optimierungsproblem min ( ) x ( 1 2 ) ( x ( y 2 5 y) + 2 ( x 1) y). je zwei Schritte der folgenden Verfahren durch, jeweils startend bei (0, 0): 1. Verfahren des steilsten Abstiegs, 2. Koordinatensuche, 3. Newton-Verfahren. Der Gradient ist f (x, y) = (x, y) ( 2 4 4 10 ) + (2, 1). Wir starten jeweils im Punkt (x 0, y 0 ) = (0, 0).

Aufgabe 9 steilster Abstieg Die Abstiegsrichtung ist jeweils f (x i, y i ).

Aufgabe 9 steilster Abstieg Die Abstiegsrichtung ist jeweils f (x i, y i ). f (0, 0) = (2, 1). Ermittle Schrittweite durch Minimieren von f ((x, y) + s( 2, 1)) = s 2 (2, 1) ( 1 2 2 5 ) ( 2 1) s(2, 1) ( 2 1) = 17s 2 5s.

Aufgabe 9 steilster Abstieg Die Abstiegsrichtung ist jeweils f (x i, y i ). f (0, 0) = (2, 1). Ermittle Schrittweite durch Minimieren von f ((x, y) + s( 2, 1)) = s 2 (2, 1) ( ) ( 1 2 2 ( 2 5 1) s(2, 1) 2 1) = 17s 2 5s. Diese Funktion wird minimal für s = 5 34.

Aufgabe 9 steilster Abstieg Die Abstiegsrichtung ist jeweils f (x i, y i ). f (0, 0) = (2, 1). Ermittle Schrittweite durch Minimieren von f ((x, y) + s( 2, 1)) = s 2 (2, 1) ( ) ( 1 2 2 ( 2 5 1) s(2, 1) 2 1) = 17s 2 5s. Diese Funktion wird minimal für s = 5 34. (x 1, y 1 ) = (0, 0) + s( 2, 1) = ( 5 17, 5 34).

Aufgabe 9 steilster Abstieg Die Abstiegsrichtung ist jeweils f (x i, y i ). f (0, 0) = (2, 1). Ermittle Schrittweite durch Minimieren von f ((x, y) + s( 2, 1)) = s 2 (2, 1) ( ) ( 1 2 2 ( 2 5 1) s(2, 1) 2 1) = 17s 2 5s. Diese Funktion wird minimal für s = 5 34. (x 1, y 1 ) = (0, 0) + s( 2, 1) = ( 5 17, 5 34). f ( 5 17, 5 34 ) = ( 5 17, 5 34 ) ( ) 2 4 4 10 (2, 1) = ( 14 17, 28 17 ) = 14 17 ( 1, 2).

Aufgabe 9 steilster Abstieg Die Abstiegsrichtung ist jeweils f (x i, y i ). f (0, 0) = (2, 1). Ermittle Schrittweite durch Minimieren von f ((x, y) + s( 2, 1)) = s 2 (2, 1) ( ) ( 1 2 2 ( 2 5 1) s(2, 1) 2 1) = 17s 2 5s. Diese Funktion wird minimal für s = 5 34. (x 1, y 1 ) = (0, 0) + s( 2, 1) = ( 5 17, 5 34). f ( 5 17, 5 34 ) = ( 5 17, 5 34 ) ( ) 2 4 4 10 (2, 1) = ( 14 17, 28 17 ) = 14 17 ( 1, 2). Minimiere die Funktion f entlang des Strahls (x 1, y 1 + s( 1, 2): ( 5 17 s, 5 34 + 2s) ( ) ( 2 4 5 17 s ) ( 5 4 10 + (2, 1) 5 17 s ) 34 +2s = 5 34 +2s 13s 2 70 17 s 25 68.

Aufgabe 9 steilster Abstieg Die Abstiegsrichtung ist jeweils f (x i, y i ). f (0, 0) = (2, 1). Ermittle Schrittweite durch Minimieren von f ((x, y) + s( 2, 1)) = s 2 (2, 1) ( ) ( 1 2 2 ( 2 5 1) s(2, 1) 2 1) = 17s 2 5s. Diese Funktion wird minimal für s = 5 34. (x 1, y 1 ) = (0, 0) + s( 2, 1) = ( 5 17, 5 34). f ( 5 17, 5 34 ) = ( 5 17, 5 34 ) ( ) 2 4 4 10 (2, 1) = ( 14 17, 28 17 ) = 14 17 ( 1, 2). Minimiere die Funktion f entlang des Strahls (x 1, y 1 + s( 1, 2): ( 5 17 s, 5 34 + 2s) ( ) ( 2 4 5 17 s ) ( 5 4 10 + (2, 1) 5 17 s ) 34 +2s = 5 34 +2s 13s 2 70 17 s 25 68. Diese quadratische Funktion ist minimal für s = 35 221. Also ist der dritte (und in diesem Aufgabenteil letzte) Iterationspunkt ( 5 17 35 221, 5 34 + ) 70 221 = 1 442 (200, 75) (0.4525, 0.1697).

Aufgabe 9 Koordinatensuche Wir starten wieder in (0, 0) und nehmen als Abstiegsrichtung (1, 0), nämlich die x-achse.

Aufgabe 9 Koordinatensuche Wir starten wieder in (0, 0) und nehmen als Abstiegsrichtung (1, 0), nämlich die x-achse. Wir müssen also die Funktion f ((0, 0) + s(1, 0)) = s 2 + 2s minimieren. Durch Nullsetzen der Ableitung erhalten wir als optimale Schrittweite s = 1.

Aufgabe 9 Koordinatensuche Wir starten wieder in (0, 0) und nehmen als Abstiegsrichtung (1, 0), nämlich die x-achse. Wir müssen also die Funktion f ((0, 0) + s(1, 0)) = s 2 + 2s minimieren. Durch Nullsetzen der Ableitung erhalten wir als optimale Schrittweite s = 1. Der zweite Iterationspunkt ist also (x 1, y 1 ) = ( 1, 0).

Aufgabe 9 Koordinatensuche Wir starten wieder in (0, 0) und nehmen als Abstiegsrichtung (1, 0), nämlich die x-achse. Wir müssen also die Funktion f ((0, 0) + s(1, 0)) = s 2 + 2s minimieren. Durch Nullsetzen der Ableitung erhalten wir als optimale Schrittweite s = 1. Der zweite Iterationspunkt ist also (x 1, y 1 ) = ( 1, 0). Nun suchen wir in y-richtung, minimieren also die Funktion f (( 1, 0) + s(0, 1)) = 5s 2 3s 1.

Aufgabe 9 Koordinatensuche Wir starten wieder in (0, 0) und nehmen als Abstiegsrichtung (1, 0), nämlich die x-achse. Wir müssen also die Funktion f ((0, 0) + s(1, 0)) = s 2 + 2s minimieren. Durch Nullsetzen der Ableitung erhalten wir als optimale Schrittweite s = 1. Der zweite Iterationspunkt ist also (x 1, y 1 ) = ( 1, 0). Nun suchen wir in y-richtung, minimieren also die Funktion f (( 1, 0) + s(0, 1)) = 5s 2 3s 1. Das Minimum wird in s = 0.3 angenommen, also ist der letzte Iterationspunkt ( 1, 0.3).

Aufgabe 9 Newtonverfahren Die Hessematrix ist 2 f (x, y) = ( 2 4 4 10 ). Für den Newton-Schritt (x i+1, y i+1 ) = (x i, y i ) ( 2 f (x i, y i ) ) 1 f (xi, y i ) müssen wir diese invertieren. Die Inverse ist 1 4 Der erste Newton-Schritt lautet also (x 1, y 1 ) = (0, 0) 1 2 ( 5 2 2 1 ( 10 4 4 2 ) ( ) ( ) 2 4 = 3 1 2 ) ( = 1 5 2 ) 2 2 1. Da der Gradient an dieser Stelle verschwindet, haben wir den Minimalpunkt ( 4, 3 2 ) gefunden und brauchen keine weitere Iteration.

Aufgabe 9 Newtonverfahren Die Hessematrix ist 2 f (x, y) = ( 2 4 4 10 ). Für den Newton-Schritt (x i+1, y i+1 ) = (x i, y i ) ( 2 f (x i, y i ) ) 1 f (xi, y i ) müssen wir diese invertieren. Die Inverse ist 1 4 Der erste Newton-Schritt lautet also (x 1, y 1 ) = (0, 0) 1 2 ( 5 2 2 1 ( 10 4 4 2 ) ( ) ( ) 2 4 = 3 1 2 ) ( = 1 5 2 ) 2 2 1. Da der Gradient an dieser Stelle verschwindet, haben wir den Minimalpunkt ( 4, 3 2 ) gefunden und brauchen keine weitere Iteration. Der Newtonalgorithmus löst die quadratische Approximation exakt. Bei einer quadratischen Funktion findet er also stets in einem Schritt das Minimum.

Aufgabe