Seminarvortrag: Trust-Region-Verfahren
|
|
- Walter Koch
- vor 6 Jahren
- Abrufe
Transkript
1 Seminarvortrag: Trust-Region-Verfahren Helena Klump Universität Paderborn Dezember 2012 Helena Klump 1 / 22 Trust-Region-Verfahren
2 Problemstellung Sei die Funktion f : R n R gegeben. Betrachtet wird das folgende Problem: min x R n f (x). (P) Helena Klump 2 / 22 Trust-Region-Verfahren
3 Idee f (x, y) = 10x y sin(xy) 2x + x f(x,y) y x 4 0 Helena Klump 3 / 22 Trust-Region-Verfahren
4 Idee f (x, y) = 10x y sin(xy) 2x + x 4 Helena Klump 4 / 22 Trust-Region-Verfahren
5 Idee f (x, y) = 10x y sin(xy) 2x + x 4 Helena Klump 5 / 22 Trust-Region-Verfahren
6 Idee f (x, y) = 10x y sin(xy) 2x + x 4 Helena Klump 6 / 22 Trust-Region-Verfahren
7 Idee f (x, y) = 10x y sin(xy) 2x + x 4 Helena Klump 7 / 22 Trust-Region-Verfahren
8 Idee f (x, y) = 10x y sin(xy) 2x + x 4 Helena Klump 8 / 22 Trust-Region-Verfahren
9 Idee f (x, y) = 10x y sin(xy) 2x + x 4 Helena Klump 9 / 22 Trust-Region-Verfahren
10 Trust-Region Konzept 1. Gegeben seien die Konstanten 0 < δ 1 < δ 2 < δ, σ 1 (0, 1), σ 2 > 1 und ein Radius 0 < ρ 0 δ. Wähle Startpunkt x 0 R n und k := Berechne eine Lösung d k des Trust-Region-Teilproblems. 3. Falls f (x k ) = m k (d k ), STOP. 4. Berechne den Quotienten r k = f k f (x k + d k ). f k m k (d k ) 5. Falls r k δ 1 (erfolgreicher Iterationsschritt): Setze x k+1 = x k + d k. Wähle { [σ 1 ρ k, ρ k ], falls r k [δ 1, δ 2 ) ρ k+1 [ρ k, min{σ 2 ρ k, δ}], falls r k δ 2. Setze k := k + 1 und gehe zu Falls r k < δ 1 (nicht erfolgreicher Iterationsschritt): Wähle ρ k+1 (0, σ 1 ρ k ]. Setze x k+1 = x k, k := k + 1 und gehe zu 2. Helena Klump 10 / 22 Trust-Region-Verfahren
11 Schritte von Suchrichtungs- und Trust-Region-Verfahren Helena Klump 11 / 22 Trust-Region-Verfahren
12 Lösung des Trust-Region-Teilproblems Betrachtet wird das allgemeine Problem: min m(d) =c + q T d d T Qd, so dass (1) g(d) := 1 2 ( d 2 ρ 2 ) 0 mit ρ > 0, c R, q R n und Q R n n symmetrisch. Satz Ein Vektor d R n mit d ρ ist genau dann globale Lösung des Problems (1), wenn es ein λ 0 gibt mit (a) (Q + λi n) d = q, (b) λ( d ρ) = 0, (c) Q + λi n ist positiv semidefinit. Ist Q + λi n sogar positiv definit, dann ist d die eindeutig bestimmte Lösung des Problems (1). Helena Klump 12 / 22 Trust-Region-Verfahren
13 Lösung des Trust-Region-Teilproblems Lemma Gibt es ein d mit d ρ und ein λ 0, so dass d (strikter) globaler Minimalpunkt der Lagrangefunktion L λ (d) = m(d) + λg(d) mit λg( d) = 0 ist, dann ist d auch (strikte) globale Lösung von (1). Lemma Sei d R n mit d ρ globale Lösung des Problems (1). Dann gibt es ein eindeutig bestimmtes λ 0, so dass die notwendige Optimalitätsbedingung erster Ordnung L λ ( d) = m( d) + λ d = 0, die notwendige Optimalitätsbedingung zweiter Ordnung und die Bedingung erfüllt sind. d T L λ ( d)d = d T (Q + λi n)d 0 für alle d R n, λg( d) = 0 Helena Klump 13 / 22 Trust-Region-Verfahren
14 Lösung des Trust-Region-Teilproblems Satz Ein Vektor d R n mit d ρ ist genau dann globale Lösung des Problems (1), wenn es ein λ 0 gibt mit (a) (Q + λi n) d = q, (b) λ( d ρ) = 0, (c) Q + λi n ist positiv semidefinit. Ist Q + λi n sogar positiv definit, dann ist d die eindeutig bestimmte Lösung des Problems (1). Lemma Sei d R n globale Lösung des Teilproblems. Dann gilt: f (x k ) m k ( d) 1 { 2 q min ρ, q }. (2) Q Helena Klump 14 / 22 Trust-Region-Verfahren
15 Trust-Region-Newton-Verfahren 1. Gegeben seien die Konstanten 0 < δ 1 < δ 2 < δ, σ 1 (0, 1), σ 2 > 1 und ein Radius 0 < ρ 0 δ. Wähle Startpunkt x 0 R n, berechne q 0 = f (x 0 ), Q 0 = 2 f (x 0 ) und k := Berechne eine Richtung d k, die (2) erfüllt. 3. Falls f (x k ) = m k (d k ), STOP. 4. Berechne den Quotienten r k. 5. Falls r k δ 1 (erfolgreicher Iterationsschritt): Setze x k+1 = x k + d k und berechne q k+1 = f (x k+1 ), Q k+1 = 2 f (x k+1 ). Wähle { [σ 1 ρ k, ρ k ], falls r k [δ 1, δ 2 ) ρ k+1 [ρ k, min{σ 2 ρ k, δ}], falls r k δ 2. Setze k := k + 1 und gehe zu Falls r k < δ 1 (nicht erfolgreicher Iterationsschritt): Wähle ρ k+1 (0, σ 1 ρ k ]. Setze x k+1 = x k, q k+1 = q k, Q k+1 = Q k, k := k + 1 und gehe zu 2. Helena Klump 15 / 22 Trust-Region-Verfahren
16 Konvergenz Lemma Es sei f : R n R zweimal stetig differenzierbar und x 0 R n. Die Niveaumenge N 0 = { x R n f (x) f (x 0 ) } sei kompakt. Endet das Trust-Region-Newton-Verfahren nicht nach endlich vielen Schritten, dann gilt: lim inf f (x k ) = 0. k Satz Es sei f : R n R zweimal stetig differenzierbar und x 0 R n. Die Niveaumenge N 0 sei kompakt. Endet das Trust-Region-Newton-Verfahren nicht nach endlich vielen Schritten, dann gilt lim f (x k ) = 0. k Die Folge { x k } besitzt mindestens einen Häufungspunkt. Für jeden Häufungspunkt ˆx gilt f (ˆx) = 0. Helena Klump 16 / 22 Trust-Region-Verfahren
17 Konvergenz Satz Sei f : R n R zweimal stetig differenzierbar und x 0 R n. Das Trust-Region-Newton-Verfahren ende nicht nach endlich vielen Schritten und die Niveaumenge N 0 sei kompakt. Dann gelten: 1. Es gibt mindestens einen Häufungspunkt ˆx von { x k } mit f (ˆx) = 0, 2 f (ˆx) positiv semidefinit. 2. Ist ˆx ein Häufungspunkt von { x k } mit positiv definiter Hessematrix 2 f (ˆx), dann konvergiert { x k } gegen ˆx und das Trust-Region-Newton-Verfahren geht nach endlich vielen Schritten in das lokale Newtonverfahren über. Insbesondere vererben sich die Konvergenzeigenschaften (superlinear, quadratisch) des lokalen Newtonverfahrens. Helena Klump 17 / 22 Trust-Region-Verfahren
18 Vergleich: Gradientenverfahren und Trust-Region-Verfahren Gradientenverfahen für die Rosenbrock-Funktion: 1280 Iterationen 4539 Funktions- und Gradientenauswertungen Helena Klump 18 / 22 Trust-Region-Verfahren
19 Vergleich: Gradientenverfahren und Trust-Region-Verfahren Trust-Region-Verfahren für die Rosenbrock-Funktion: 33 Iterationen 67 Funktionsauswertungen 34 Gradientenauswertungen 33 Berechnungen der Hesse-Matrix Helena Klump 19 / 22 Trust-Region-Verfahren
20 Vielen Dank für Ihre Aufmerksamkeit! Helena Klump 20 / 22 Trust-Region-Verfahren
21 Aufgaben Aufgabe Gibt es ein d mit d ρ und ein λ 0, so dass d (strikter) globaler Minimalpunkt der Lagrangefunktion L λ (d) = m(d) + λg(d) mit λg( d) = 0 ist, dann ist d auch (strikte) globale Lösung von (1). Aufgabe Gegeben sei die Rosenbrock-Funktion in der Form f (x, y) = 10(y x 2 ) 2 + (1 x) 2. Zeichnen Sie die Höhenlinien der Zielfunktion sowie der quadratischen Approximation m k (d) (mit H = 2 f (x k )) im Punkt (x k, y k ) = (0, 1) mittels Matlab. Die Aufgaben können an helenaklump@gmail.com geschickt werden. Helena Klump 21 / 22 Trust-Region-Verfahren
22 Referenzen Walter Alt: Nichtlineare Optimierung: Eine Einführung in Theorie, Verfahren und Anwendungen,Vieweg+Teubner Verlag, 2002 Andrew R. Conn, Nicholas I. M. Gould, Philippe L. Toint: Trust Region Methods, Society for Industrial and Applied Mathematics, 1987 Jorge Nocedal, Stephen Wright: Numerical Optimization, Springer, 2000 Michael Ulbrich, Stefan Ulbrich: Nichtlineare Optimierung, Springer Basel AG, 2011 Florian Jarre, Josef Stoer: Optimierung, Springer, 2003 Matthias Gerdts, Optimierung, Skript, 2007 Helena Klump 22 / 22 Trust-Region-Verfahren
Das Gradientenverfahren
Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1
MehrDas Trust-Region-Verfahren
Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein
MehrDas Subgradientenverfahren
Das Subgradientenverfahren Seminar Optimierung WS 05/06 Betreuer: Prof. F. Jarre von Jalo Liljo Das Subgradientenverfahren Das Ziel dieses Vortrags ist die Berechnung einer Lösung des unrestringierten
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Freie Nichtlineare Optimierung Orakel, lineares/quadratisches Modell Optimalitätsbedingungen Das Newton-Verfahren Line-Search-Verfahren Inhaltsübersicht für heute: Freie Nichtlineare
MehrRechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung
Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung 18.3.14-20.3.14 Dr. Florian Lindemann Moritz Keuthen, M.Sc. Technische Universität München Garching, 19.3.2014 Kursplan Dienstag, 18.3.2014
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
MehrEin Filter-Trust-Region Verfahren zum Lösen nichtlinearer Zulässigkeitsprobleme mit teuren Funktionen
Ein Filter-Trust-Region Verfahren zum Lösen nichtlinearer Zulässigkeitsprobleme mit teuren Funktionen Markus Kaiser 1, Alexander Thekale 2 1 Arbeitsgruppe Optimierung & Approximation Bergische Universität
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrNumerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren
Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren
MehrEinführung in die nichtlineare Optimierung
Einführung in die nichtlineare Optimierung Prof. Dr. Walter Alt Semester: SS 2010 1 Vorwort Dieses Dokument wurde als Skript für die auf der Titelseite genannte Vorlesung erstellt und wird jetzt im Rahmen
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrWirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra
MehrKonvexe Mengen und Funktionen
Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf
MehrWir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems
Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest
MehrOptimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg
Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei
MehrOptimale Steuerung 1
Optimale Steuerung 1 Kapitel 6: Nichtlineare Optimierung unbeschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Parameteranpassung für Phasengleichgewicht
MehrDer Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.
Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x
MehrMathematik 2 für Wirtschaftsinformatik
für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar
MehrInexakte Newton Verfahren
Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n
MehrGlobale Newton Verfahren
Betrachten: System von n nichtlinearen Gleichungen: F : D R n, F C 1 D Gesucht: x D, sodass F x =0. Vorher: Bedingungen für Startwert wie z.b. x x 0 2 / garantieren die Konvergenz des lokalen Newton-Verfahrens
MehrNICHTLINEARE OPTIMIERUNG
NICHTLINEARE OPTIMIERUNG Vorlesungsskript, Wintersemester 2015/16 Christian Clason Stand vom 21. März 2016 Fakultät für Mathematik Universität Duisburg-Essen INHALTSVERZEICHNIS I GRUNDLAGEN 1 grundlagen
Mehr6.8 Newton Verfahren und Varianten
6. Numerische Optimierung 6.8 Newton Verfahren und Varianten In den vorherigen Kapiteln haben wir grundlegende Gradienten-basierte Verfahren kennen gelernt, die man zur numerischen Optimierung von (unbeschränkten)
MehrBemerkung 2.1: Das Newtonverahren kann auch als sequential quad. minimization verstanden werden: 2.1 Ein globalisiertes Newtonverfahren
Kapitel 2 Newtonverfahren Ziel: Bestimmung von Nullstellen von f (=stationärer Punkt). Dies geschieht mit dem Newtonverfahren. x k+1 = x k ( 2 f (x k )) 1 f (x k ) (2.1) Bemerkung 2.1: Das Newtonverahren
MehrMusterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2
Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II Wiederholungsblatt: Analysis Sommersemester 2011 W. Werner, F. Springer erstellt von: Max Brinkmann Aufgabe 1: Untersuchen Sie, ob die
MehrOptimierung. Florian Jarre Josef Stoer. Springer
2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Florian Jarre Josef Stoer Optimierung Springer Inhaltsverzeichnis
MehrKonvexe Optimierungsprobleme
von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel
MehrMathematik 1 für Wirtschaftsinformatik
Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration
Mehr6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme
6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear
MehrKonvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.
Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,
MehrLineare und nichtlineare Optimierung
Lineare und nichtlineare Optimierung AXEL DREVES Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Universität der Bundeswehr München Werner-Heisenberg-Weg 39 85577 Neubiberg/München
MehrOptimierung und inverse Probleme
Optimierung und inverse Probleme Prof. Dr. Bastian von Harrach Goethe-Universität Frankfurt am Main Institut für Mathematik Wintersemester 2016/17 http://numerical.solutions Vorläufige Version, wird während
MehrNICHTRESTRINGIERTE OPTIMIERUNG
3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
MehrNichtlineare Gleichungssysteme
Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische
MehrNichtlineare Gleichungssysteme
Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei
MehrEinführung in die Optimierung
Einführung in die Optimierung Prof. Dr. Bastian von Harrach Universität Stuttgart, Fachbereich Mathematik - IMNG Lehrstuhl für Optimierung und inverse Probleme Wintersemester 2014/15 http://www.mathematik.uni-stuttgart.de/oip
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
MehrKapitel 4: Nichtlineare Nullstellenprobleme
Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 4: Nichtlineare Nullstellenprobleme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 2015 HM: Numerik (SS
MehrOperations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung
Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden
MehrWiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung
MehrInhalt Kapitel I: Nichtlineare Gleichungssysteme
Inhalt Kapitel I: Nichtlineare Gleichungssysteme I Nichtlineare Gleichungssysteme I. Nullstellenbestimmung von Funktionen einer Veränderlichen I.2 I.3 Newton-Verfahren Kapitel I (UebersichtKapI) 3 Bisektionsverfahren
Mehr4 Differenzierbarkeit einer konjugierten Funktion
4 Differenzierbarkeit einer konjugierten Funktion (Eingereicht von Corinna Vits) 4.1 Differenzierbarkeit 1.Ordnung Theorem 4.1.1: Sei f ConvR n strikt konvex. Dann ist int dom und f ist stetig differenzierbar
Mehr40 Lokale Extrema und Taylor-Formel
198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:
MehrRückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
MehrSkript zur Vorlesung. Optimierung. gelesen von. Prof. Dr. S. Volkwein
Skript zur Vorlesung Optimierung gelesen von Prof. Dr. S. Volkwein Konstanz, Sommersemester 2009 Inhaltsverzeichnis 1 Einleitung 3 2 Optimalitätskriterien 4 2.1 Allgemeiner Fall.........................................
MehrSkript zur Vorlesung. Optimierung. gelesen von. Prof. Dr. S. Volkwein
Skript zur Vorlesung Optimierung gelesen von Prof. Dr. S. Volkwein Konstanz, Sommersemester 2011 Inhaltsverzeichnis 1 Einleitung 3 2 Optimalitätskriterien 4 2.1 Allgemeiner Fall.........................................
MehrStroppel Musterlösung , 180min. Aufgabe 1 (5 Punkte) Gegeben sei eine lineare Abbildung α: R 4 R 3 : x Ax mit. . Weiter sei b = A =
Stroppel Musterlösung 4. 9., 8min Aufgabe 5 Punkte Gegeben sei eine lineare Abbildung α: R 4 R 3 : x Ax mit 4 A =. Weiter sei b = 3 gegeben. Entscheiden Sie jeweils, ob die durch gekennzeichneten freien
MehrÜbungen zu Grundlagen der Mathematik 2 Lösungen Blatt 12 SS 14. Aufgabe 44. Bestimmen Sie die Taylor-Polynome der Funktion.
Übungen zu Grundlagen der Mathematik Lösungen Blatt 1 SS 14 Prof. Dr. W. Decker Dr. M. Pleger Aufgabe 44. Bestimmen Sie die Taylor-Polynome der Funktion f : U R, (x, y) x y x + y, im Punkt (1, 1) bis einschließlich.
MehrStudientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Aufgaben zur nicht-linearen Optimierung Teil II Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Aufgabe 5 Bestimmen
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls
MehrKAPITEL 3. Konvexe Funktionen
KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn
MehrKapitel 9. Quadratische Optimierung. 9.1 Gleichungsrestriktionen
Kapitel 9 Quadratische Optimierung Ein Grundprinzip bei der numerischen Lösung von nichtlinearen Problemen ist, das Ausgangsproblem durch eine Folge von leichter zu handhabenden Problemen zu ersetzen.
MehrMathematische Behandlung der Natur- und Wirtschaftswissenschaften I. f(x) := e x + x.
Technische Universität München WS 009/0 Fakultät für Mathematik Prof. Dr. J. Edenhofer Dipl.-Ing. W. Schultz Übung Lösungsvorschlag Mathematische Behandlung der Natur- und Wirtschaftswissenschaften I Aufgabe
MehrAnalysis III für Studierende der Ingenieurwissenschaften
Fachbereich Mathematik der Universität Hamburg WiSe 7/8 Dr K Rothe Analysis III für Studierende der Ingenieurwissenschaften Hörsaalübung mit Beispielaufgaben zu Blatt Funktionen in mehreren Variablen Definition:
Mehri j m f(y )h i h j h m
10 HÖHERE ABLEITUNGEN UND ANWENDUNGEN 56 Speziell für k = 2 ist also f(x 0 + H) = f(x 0 ) + f(x 0 ), H + 1 2 i j f(x 0 )h i h j + R(X 0 ; H) mit R(X 0 ; H) = 1 6 i,j,m=1 i j m f(y )h i h j h m und passendem
MehrOptimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen
Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes
MehrExtremwerte von Funktionen mehrerer reeller Variabler
Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein
MehrDie Tangentialebene. {(x, y, z) z = f(x 0, y 0 )+ f x (x 0, y 0 )(x x 0 )+ f. y (x 0, y 0 )(y y 0 )}
Die Tangentialebene Der Graph der linearen Approximation ist Tangentialebene an den Graph der Funktion. In Symbolen: Es sei D R 2. Es sei f : D R, (x, y) f(x, y) differenzierbar. Dann ist {(x, y, z) z
MehrVorlesung: Analysis II für Ingenieure. Wintersemester 09/10. Michael Karow. Themen: Taylor-Entwicklung und lokale Extrema
Vorlesung: Analysis II für Ingenieure Wintersemester 09/10 Michael Karow Themen: Taylor-Entwicklung und lokale Extrema Motivierendes Beispiel: die Funktion f(x, y) = x(x 1) 2 2 y 2. Dieselbe Funktion von
MehrMusterlösung zu Blatt 1
Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z
MehrII. Nichtlineare Optimierung
II. Nichtlineare Optimierung 1. Problemstellungen 2. Grundlagen 3. Probleme ohne Nebenbedingungen 4. Probleme mit Nebenbedingungen Theorie 5. Probleme mit Nebenbedingungen Verfahren H. Weber, FHW, OR SS06,
MehrFortgeschrittene Mathematik Raum und Funktionen
Fortgeschrittene Mathematik Raum und Funktionen Thomas Zehrt Universität Basel WWZ Thomas Zehrt (Universität Basel WWZ) R n und Funktionen 1 / 33 Outline 1 Der n-dimensionale Raum 2 R 2 und die komplexen
MehrStudientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Numerische Verfahren der nicht-linearen Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Line
MehrRechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung
TU München Lehrstuhl Mathematische Optimierung Prof. Dr. Michael Ulbrich Dipl.-Math. Florian Lindemann Wintersemester 008/09 Blatt 1 Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung Für die
MehrDifferentialrechnung im R n
Kapitel 9 Differentialrechnung im R n Bisher haben wir uns mit Funtionen beschäftigt, deren Verhalten durch eine einzelne Variable beschrieben wird. In der Praxis reichen solche Funtionen in der Regel
MehrExtremwertrechnung in mehreren Veränderlichen
KARLSRUHER INSTITUT FÜR TECHNOLOGIE INSTITUT FÜR ANALYSIS Dr. Christoph Schmoeger Heiko Hoffmann SS 2014 14.05.2014 Höhere Mathematik II für die Fachrichtung Informatik 3. Saalübung (14.05.2014) Extremwertrechnung
MehrAnleitung zu Blatt 5 Analysis III für Studierende der Ingenieurwissenschaften
Fachbereich Mathematik der Universität Hamburg WiSe / r. Hanna Peywand Kiani 4.. Anleitung zu Blatt 5 Analysis III für Studierende der Ingenieurwissenschaften Extrema unter Nebenbedingungen, Lagrange Multiplikatoren
MehrUnrestringierte Optimierungsaufgaben. Jochen Werner
Unrestringierte Optimierungsaufgaben Jochen Werner Vorlesung im Sommersemester 00 Inhaltsverzeichnis 1 Einführung durch Beispiele 1 Grundlagen 7.1 Optimalitätsbedingungen.......................... 7.1.1
MehrAufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen
Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden
MehrAnwendungen der Differentialrechnung
KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle
MehrWirtschaftsmathematik II
WMS: Wirtschaftsmathematik 2 :: WS 2009/10 Wirtschaftsmathematik II Reinhard Ullrich http://homepage.univie.ac.at/reinhard.ullrich Basierend auf Folien von Dr. Ivana Ljubic October 11, 2009 1 Funktionen
Mehr17. Penalty- und Barriere-Methoden
H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende
MehrFinite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015
Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 5 Aufgabe 8 (Speichertechniken) Finite Elemente Übung 5 a) Stellen Sie die Matrix
MehrEndliche Markov-Ketten - eine Übersicht
Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und
MehrRechnerpraktikum zur Optimierung III
TU München Lehrstuhl Mathematische Optimierung Prof. Dr. M. Ulbrich Dipl.-Math. Florian Lindemann Sommersemester 007 Teil II Rechnerpraktikum zur Optimierung III Für die Bearbeitung des Aufgabenzettels
MehrAnalysis II WS 11/12 Serie 9 Musterlösung
Analysis II WS / Serie 9 Musterlösung Aufgabe Bestimmen Sie die kritischen Punkte und die lokalen Extrema der folgenden Funktionen f : R R: a fx, y = x + y xy b fx, y = cos x cos y Entscheiden Sie bei
MehrKapitel 16 : Differentialrechnung
Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen
Mehr8 Extremwerte reellwertiger Funktionen
8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R
MehrInhaltsübersicht für heute:
Inhaltsübersicht für heute: Innere-Punkte-Verfahren Lineare Optimierung über Kegeln Second-Order-Cone Programme SOC Anwendung: Regularisierung SOC Anwendung: Klassifizierung, Support-Vektor SOC Anwendung:
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den
MehrDifferenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie
Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Def.: eine Funktion n f :D mit D,x (x,...x
Mehr4.5 Lokale Extrema und die Hessesche Form
80 Kapitel 4. Differentialrechnung in mehreren Variablen 4.5 Lokale Extrema und die Hessesche Form Sei ab jetzt U R n offen und f:u R eine Funktion. Unter einem lokalen Extremum der Funktion f verstehen
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel
MehrTechnische Universität Berlin Fakultät II Institut für Mathematik SS 13 G. Bärwolff, C. Mehl, G. Penn-Karras
Technische Universität Berlin Fakultät II Institut für Mathematik SS 3 G. Bärwolff, C. Mehl, G. Penn-Karras 9..3 Oktober Klausur Analysis II für Ingenieure Rechenteil. Aufgabe Punkte i) Wir berechnen zunächst
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 12
Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 1 Hausaufgaben Aufgabe 1.1 Sei f : R R gegeben durch f(x 1, x ) = x 3
MehrNewton-Verfahren für ein Skalarfunktion
Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren
Mehr2 Statische Optimierung: Unbeschränkter Fall
2 Statische Optimierung: Unbeschränkter Fall 2. Optimalitätsbedingungen Bevor in den Abschnitten 2.2 2.6 die numerischen Verfahren zur Lösung statischer Optimierungsprobleme ohne Beschränkungen behandelt
Mehr7. Übungsblatt zur Mathematik II für Inf, WInf
Fachbereich Mathematik Prof. Dr. Streicher Dr. Sergiy Nesenenko Pavol Safarik SS 2010 27.-31.05.10 7. Übungsblatt zur Mathematik II für Inf, WInf Gruppenübung Aufgabe G24 (Grundlegende Definitionen) Betrachten
Mehr4.4 Lokale Extrema und die Hessesche Form
74 Kapitel 4 Differentialrechnung in mehreren Variablen 44 Lokale Extrema und die Hessesche Form Sei jetzt wieder U R n offen und f:u R eine Funktion Unter einem lokalen Extremum der Funktion f verstehen
Mehr2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p
Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.
MehrPRÜFUNG AUS ANALYSIS F. INF.
Zuname: Vorname: Matrikelnummer: PRÜFUNG AUS ANALYSIS F. INF. (GITTENBERGER) Wien, am 2. Juli 2013 (Ab hier freilassen!) Arbeitszeit: 100 Minuten 1) 2) 3) 4) 5) 1)(8 P.) Sei f : R 2 R mit f(x, y) = e x
MehrNichtlineare Optimierung
Technische Universität Berlin Fakultät II Institut für Mathematik Nichtlineare Optimierung Vorlesung im Wintersemester 05/06 Dietmar Hömberg Im WS 01/0.2 gehalten von F. Tröltzsch. Grundlage der Vorlesung
MehrRückblick auf die letzte Vorlesung
Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige
MehrKapitel 5. Lösung nichtlinearer Gleichungen
Kapitel 5. Lösung nichtlinearer Gleichungen 5.1 Nullstellen reeller Funktionen, Newton-Verfahren 5.2 Das Konvergenzverhalten iterativer Verfahren 5.3 Methode der sukzessiven Approximation 5.4 Das Newton-Verfahren
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrOptimalitätskriterien
Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen
Mehr