Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn

Ähnliche Dokumente
KAPITEL 3. Konvexe Funktionen

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung

Konvexe Optimierungsprobleme

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

zul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) =

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren Thomas Brox, Fabian Kuhn

3 Optimierung mehrdimensionaler Funktionen f : R n R

Lagrange-Multiplikatoren

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

Rückblick auf die letzte Vorlesung

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer

1 Der Simplex Algorithmus I

VIII Inhaltsverzeichnis 4 Innere - Punkte - Methoden für Lineare Programme Exkurs: Newton -Verfahren,Konvergenzraten Anwendung:

Dualitätssätze der linearen Optimierung

Inhaltsverzeichnis. Teil I Lineare Programmierung

Teil 6. Differentialrechnung mehrerer Veränderlicher

Kontinuierliche Optimierung

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1

Kuhn-Tucker Bedingung

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

Optimierungstheorie Scheinklausur Sommersemester Juli 2007

Das Subgradientenverfahren

Aufgabe 1 (12 Punkte)

Mathematik 2 für Wirtschaftsinformatik

Wirtschaftsmathematik II

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf )

Dualität bei konvexer Optimierung

Optimierung für Nichtmathematiker

Globale Newton Verfahren

Teil II. Nichtlineare Optimierung mit Nebenbedingungen

Optimierung für Nichtmathematiker

Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger auf Details.

Extremalprobleme mit Nebenbedingungen

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Teil I. Lineare Optimierung

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09

mit. Wir definieren (Skalarprodukt = Winkel).

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik

Inhaltsübersicht für heute:

Vorlesung: Analysis II für Ingenieure. Wintersemester 07/08. Michael Karow. Themen: Niveaumengen und Gradient

Mathematik für Wirtschaftswissenschaftler Kapitel 4-6. Universität Trier Wintersemester 2013 / 2014

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57

12. Trennungssätze für konvexe Mengen 83

Übung 5, Analytische Optimierung

Das Gradientenverfahren

Das Trust-Region-Verfahren

Bemerkung 2.1: Das Newtonverahren kann auch als sequential quad. minimization verstanden werden: 2.1 Ein globalisiertes Newtonverfahren

16. FUNKTIONEN VON MEHREREN VARIABLEN

Grundlagen der Optimierung. Übung 6

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

Chinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151

Optimierung. Vorlesung 08

Optimieren unter Nebenbedingungen

1 Einleitung Optimierung in Technik-, Natur- und Wirtschaftswissenschaften Optimierung mit dem Computer

Nichtlineare Optimierung

2 Extrema unter Nebenbedingungen

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

NUMERISCHE METHODEN DER OPTIMIERUNG

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen

2.4 Verallgemeinerte Ungleichungen

Optimierung unter Nebenbedingungen

Ein Buch. Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler

Rückblick auf die letzte Vorlesung. Bemerkung

Optimierung für Nichtmathematiker

Begleitmaterial zur Vorlesung Numerik II

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

Aufgabensammlung uncf Klausurentrainer zur Optimierung

Optimierung. Vorlesung 02

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik

Optimalitätskriterien

Innere-Punkt-Methoden

GRUNDLAGEN DER OPTIMIERUNG

2. Optimierungsprobleme 6

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen

Mathematik für. Wirtschaftswissenschaftler. Basiswissen mit Praxisbezug. 4., aktualisierte und erweiterte Auflage

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

Konvexe Optimierung I Sommersemester Kapitel 0

Knut Sydsæter Peter Hammond Arne Strøm Andrés Carvajal. Übersetzt und fachlektoriert durch Prof. Dr. Fred Böker

Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit 2: Lineare Algebra II

NICHTRESTRINGIERTE OPTIMIERUNG

Nichtlineare Optimierung

Newton-Verfahren zur optimalen Steuerung nichtlinearer elliptischer Randwertaufgaben

Inhaltsverzeichnis. Vorlesung und Übung Optimierung (WS 2017/2018) Steinböck, Kugi,Institut für Automatisierungs- und Regelungstechnik, TU Wien

(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung)

Lineare (Un-)Gleichungen und lineare Optimierung

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen

Vorlesung Maschinelles Lernen

KAPITEL 10 DIE INNERE-PUNKTE-METHODE

3. Mai Zusammenfassung. g x. x i (x).

Transkript:

Optimierung Vorlesung 5 Optimierung mit Nebenbedingungen 1

Minimierung mit Gleichheitsrestriktionen Gegeben: Funktion,,,, : Ziel:,,, Unrestringierter Fall: Notwendige Bedingung für lokales Minimum keine Abstiegsrichtung bei : 0 Restringierter Fall: Notwendige Bedingung für lokales Minimum ist zulässig: : 0 keinezulässige Abstiegsrichtung bei 2

Notwendige Bedingung Restringierter Fall: Notwendige Bedingung für lokales Minimum ist zulässig: : 0 keinezulässige Abstiegsrichtung Zulässiger inkrementeller Schritt : 0 Taylor Entwicklung bei : Zulässige Richtungen sind orthogonal zu : 0 Zulässige Abstiegsrichtung : : 0, 0 3

Zulässige Abstiegsrichtung Zulässige Abstiegsrichtung : : 0, 0 Zulässige Abstiegsrichtung Niveaulinien von 4

Keine zulässige Abstiegsrichtung Keine zulässige Abstiegsrichtung : : Falls : 0, dann 0 Niveaulinien von 5

Keine zulässige Abstiegsrichtung Keine zulässige Abstiegsrichtung : Falls : 0, dann 0 Satz (Lagrange Multiplikatoren): Unter Annahme von Regularität, gibt es bei keine zulässige Abstiegsrichtung genau dann, wenn existieren, so dass Beweis: 0. 6

Lagrange Multiplikatoren Satz (Lagrange Multiplikatoren): Unter Annahme von Regularität, gibt es bei keine zulässige Abstiegsrichtung genau dann, wenn existieren, so dass 0. Regularität: Insbesondere müssen linear unabhängig sein Methode von Lagrange: Finde Vektoren und, für welche,,, Unbekannte, Gleichungen 7

Beispiel Lagrange: Beispiel: 0, 01,, min unter 0 8

Lagrange Methode Lagrange Funktion:, Gradient:,, Lagrange Methode: 0, 0 1,, 9

Lagrange Methode Lagrange Funktion:, Lagrange Methode: Notwendige Bedingung für lokales Minimum bei regulärem Punkt :, Reduziert das Problem auf das Finden eines stationären Punktes eines unrestringierten Problems! Methoden: (konj.) Gradientenmethode, Newton, Quasi Newton,... 10

Optimierung mit Ungleichheitsrestriktionen Gegeben: Funktion,,,, : Ziel:,,, Notwendige Bedingung für lokales Minimum : ist zulässig: : 0 keinezulässige Abstiegsrichtung bei Aktive Nebenbedingungen: Nur aktive Nebenbedingungen beschränken die gültigen Richtungen 11

Zulässige Richtung Aktive Nebenbedingung an Punkt : 0 Zulässige Richtung and Punkt : Für genug kleines 0gilt: 0 Taylor Approximation: Zulässige Richtung bei (notwendige Bedingung): Zulässige Abstiegsrichtung bei : und : 12

Lokales Minimum: Notwendige Bedingung Bei regulärem lokalem Minimum hat folgendes System keine Lösung: s 0, 0 A Hinreichende Bedingung, damit A keine Lösung hat:, mit 0 für B Lemma von Farkas: Bist auch eine notwendige Bedingung, damit A keine Lösung hat 13

Lemma von Farkas Satz (Lemma von Farkas): Für beliebige Vektoren,, und ist die Menge 0 und 0 for all 1,, genau dann leer, falls 0existieren, so dass. Äquivalent zum Dualitätssatz der linearen Programmierung Anwendung hier: System 0, 0, hat genau dann keine Lösung, wenn, mit 0 für 14

Lokales Minimum: Notwendige Bedingung Notwendige Bedingung für (reguläres) lokales Minimum bei :, mit 0 für Karush Kuhn Tucker Satz: Sei ein reguläres, lokales Minimum. Dann existieren Multiplikatoren, derart dass 0 0, 1,, 0, 1,, 15

Konvexität Zur Erinnerung: Funktion : heisst konvex, falls für alle, und 0,1: 1 1 EineMenge heisst, falls für alle, und 0,1: 1 16

Konvexe Mengen Der Schnitt zweier konvexer Mengen ist konvex:, konvex konvex Konvexe Nebenbedingung: Funktion konvex 0 ist konvex Konvexe Minimierung: min, wobei Fkt. und Menge konvex sind Konvexe Minimierung: lokales Minimum ist auch globales Minimum: Globales Minimum Konvexität von : Verbindungslinie in Konvexität von : Betrachte 1 auf Verbindungslinie: 1 1 17

Konvexe Optimierung: Hinreichende Bedingung Karush Kuhn Tucker Satz: Sei ein reguläres, lokales Minimum. Dann existieren Multiplikatoren, derart dass 0 0, 1,, 0, 1,, Hinreichende Karush Kuhn Tucker Bedingungen Satz: Falls,,, konvex sind, dann ist jeder Punkt, welcher die Karush Kuhn Tucker Bedingungen erfüllt, ein globales Minimum. 18

Konvexe Optimierung: Hinreichende Bedingung Satz: Falls,,, konvex sind, dann ist jeder Punkt, welcher die Karush Kuhn Tucker Bedingungen erfüllt, ein globales Minimum. Eigenschaft konvexer Funktionen:, : 19

Konvexe Optimierung: Hinreichende Bedingung Satz: Falls,,, konvex sind, dann ist jeder Punkt, welcher die Karush Kuhn Tucker Bedingungen erfüllt, ein globales Minimum. Betrachte Karush Kuhn Tucker Punkt und ein beliebiges : Konvexität: : 20

Konvexe Optimierung: Hinreichende Bedingung Satz: Falls,,, konvex sind, dann ist jeder Punkt, welcher die Karush Kuhn Tucker Bedingungen erfüllt, ein globales Minimum. Betrachte Karush Kuhn Tucker Punkt und ein beliebiges : Punkt erfüllt Karush Kuhn Tucker Bedingungen: 0 0 und 0, 1,, 21

Beispiel Ist Optimallösung des folgenden Minimierungsproblems? min 0 10 22

Minimierung mit allgemeinen Nebenbedingungen Gegeben: Funktion,,,, : Ziel:,,,,,, Notwendige Bedingung für (reguläres) lokales Minimum : Falls s 0für 1,, und 0für, dann gilt 0. Farkas Lemma: Es gibt Multiplikatoren (1,,) und 0( ), 0. 23