Inhalt der Vorlesung. 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen)

Ähnliche Dokumente
Konvexe Optimierungsprobleme

4 Differenzierbarkeit einer konjugierten Funktion

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

1.3 Differenzierbarkeit

Extremalprobleme mit Nebenbedingungen

1. Grundlagen der konvexen Analysis Version

Lagrange-Multiplikatoren

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

4.4 Quadratische Optimierungsprobleme

KAPITEL 3. Konvexe Funktionen

Vorbereitung für die Prüfung Mathematik II für Informatiker

Konvexe Mengen und Funktionen

zul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) =

12. Trennungssätze für konvexe Mengen 83

Mathematik II für Inf und WInf

Vorlesung Lineare Optimierung (Sommersemester 2010)

Die Lagrange-duale Funktion

3 Vektorräume abstrakt

Teil 6. Differentialrechnung mehrerer Veränderlicher

Holomorphe Funktionen

Differentialgleichungen und Hilberträume Sommersemester 2014 Übungsblatt 11

Konvexe Analysis. Inhaltsverzeichnis. Martin Brokate. 1 Affine Mengen 2. 2 Konvexe Mengen 6. 3 Algebraische Trennung 9

Technische Universität Berlin Fakultät II Institut für Mathematik WS 11/12 Böse, Penn-Karras, Schneider

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 6

Bildverarbeitung: Kontinuierliche Energieminimierung. D. Schlesinger BV: () Kontinuierliche Energieminimierung 1 / 9

8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule

5 Lagrangeformalismus

Mathematik II: Übungsblatt 03 : Lösungen

Probeklausur zur Analysis 2, SoSe 2017

Höhere Funktionalanalysis WS2016/17 Übungsblatt

Optimierung für Wirtschaftsinformatiker: Lineare Programme

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE

Konvexe Analysis. Inhaltsverzeichnis. Martin Brokate. 1 Affine Mengen 1. 2 Konvexe Mengen 5. 3 Algebraische Trennung 9

Insbesondere sind nach dieser Definition also auch die leere Menge und einpunktige Teilmengen konvex.

7. Übungsblatt zur Mathematik II für Inf, WInf

FUNKTIONALANALYSIS. Carsten Schütt WS 2006/7

Optimierungstheorie Scheinklausur Sommersemester Juli 2007

Übung 5, Analytische Optimierung

Konvexität und Dualität (Proseminar WS 2014/15)

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang

Operations Research. Polyeder und Polytope. Polyeder und Polytope. Polyeder. Rainer Schrader. 11. Mai Gliederung. sei P R n

2 Extrema unter Nebenbedingungen

5. Übungsblatt zur Analysis II

Elemente der Analysis II

3.1. Existenzsatz und Struktur der Lösungsmenge

= ( n x j x j ) 1 / 2

Lineare Algebra II (SS 13)

Konvexe Mengen. Def. Eine Teilmenge A R n heißt konvex, wenn sie mit je zwei Punkten x,y auch stets deren Verbindungsstrecke

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

T := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Extrema multivariater Funktionen

Der n-dimensionale Raum

Optimierung unter Nebenbedingungen

Wirtschaftsmathematik II

TECHNISCHE UNIVERSITÄT MÜNCHEN

Inhaltsübersicht für heute:

Nachklausur zur Analysis 2, SoSe 2017

Vorlesung Mathematik für Ingenieure 2 (Sommersemester 2009)

Optimaler Transport. Marzena Franek. Skiseminar Februar Institut für Numerische und Angewandte Mathematik

Folgerungen aus dem Auflösungsatz

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren Thomas Brox, Fabian Kuhn

Proseminar Lineare Algebra II, SS 11. Blatt

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

2 Funktionen in mehreren Variablen: Differentiation

Seminar Optimierung und optimale Steuerung

Vorlesung Lineare Optimierung (Sommersemester 2010)

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Dualität bei konvexer Optimierung

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)

Organisatorisches. Operations Research. Organisatorisches. Organisatorisches. Rainer Schrader. 20. April 2007

Lineare Algebra II 8. Übungsblatt

Kapitel II. Vektorräume

102 KAPITEL 14. FLÄCHEN

Quadratische Gleichungen. Üben. Lösung. Quadratische Gleichungen. Klasse. Schwierigkeit. Art. math. Thema. Nr. Löse mit der Lösungsformel:

Begleitmaterial zur Vorlesung Numerik II

3 Das n-dimensionale Integral

Innere-Punkt-Methoden

Kapitel 3. Matrix Spiele. 3.1 Matrix-Spiele

Nichtlineare Gleichungssysteme

1. Übungsblatt: Lineare Algebra II Abgabe: 24./ in den Übungsgruppen

3.4 Kombinatorische Äquivalenz und Dualität von Polytopen

Optimierung für Nichtmathematiker

Lösungen zu den Hausaufgaben zur Analysis II

Vorlesung Mathematik für Ingenieure II (Sommersemester 2008)

12 Gewöhnliche Differentialgleichungen

Stroppel Musterlösung , 180min. Aufgabe 1 (5 Punkte) Gegeben sei eine lineare Abbildung α: R 4 R 3 : x Ax mit. . Weiter sei b = A =

Kuhn-Tucker Bedingung

Analysis II. Aufgaben zum Stoff der Analysis I und II Lösungsvorschlag

Lösungsvorschlag zur Nachklausur zur Analysis

Übungsaufgaben zu den mathematischen Grundlagen von KM

3 Funktionen in mehreren Variablen

Prüfung zur Vorlesung Mathematik I/II

Universität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen

Transkript:

Inhalt der Vorlesung 1 Einführung 2 Konvexe Mengen 3 Konvexe Funktionen 4 Konvexe Optimierung 5 Lösungsverfahren (6 Anwendungen) 1 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

Beispiel 1.1 Mozartproblem (Lineare Optimierung) Eine Firma stellt Mozartkugeln und -taler her und braucht dafür die drei Zutaten Marzipan, Nougat und Bitterschokolade. Ihr Umsatz soll maximiert werden. Marzipan Nougat Bitterschokolade Preis Menge Kugeln (x 1 ) 1 2 1 9 Menge Taler (x 2 ) 1 1 2 8 Gesamtmenge 6 11 9 Die entsprechende Optimierungsaufgabe lautet (P 1 ) max {9x 1 + 8x 2 }. x 1 +x 2 6, 2x 1 +x 2 11, x 1 +2x 2 9, x 1,x 2 0 2 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

Beispiel 1.2 Maximaler Flächeninhalt Welche Maße hat ein Rechteck, dessen Flächeninhalt maximal bei konstantem Umfang ist? Sind x und y die Seitenlängen und u der konstante Umfang, so ist der Flächeninhalt A = xy und die Gleichung zwischen den Variablen u = 2x + 2y. Die entsprechende Optimierungsaufgabe lautet (P 1 ) max xy, x,y>0, 2x+2y=u äquivalent darstellbar auch als (P 1 ) max x>0 x ( u 2 x). 3 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

Beispiel 1.3 Kugel in Gleichgewicht (Cournot, 1827) Optimalitätsbedingung: Die Schwerkraft ist die positive Summe der Gradienten aktiver Restriktionen. 4 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

Beispiel 1.4 Bildverarbeitung (Bitterlich, 2017) 5 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

Beispiel 1.4 Bildverarbeitung (Bitterlich, 2017) Die entsprechende Optimierungsaufgabe lautet { 1 inf x R n 2 Ax b 2 + λtv (x)}, wobei A R n n (Unschärfe Operator), b R n (unscharfes und verrauschtes Bild), λ > 0 (Regularisierungsparameter) und TV : R n R (diskrete Totale-Variation-Funktion) 6 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

Beispiel 1.4 Bildverarbeitung (Bitterlich, 2017) 7 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

Beispiel 1.5 Maschinelles Lernen (Boţ & Hendrich, 2015) 8 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

Beispiel 1.5 Maschinelles Lernen (Boţ & Hendrich, 2015) 9 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

Beispiel 1.5 Maschinelles Lernen (Boţ & Hendrich, 2015) 10 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

Beispiel 1.5 Maschinelles Lernen (Boţ & Hendrich, 2015) Die entsprechende Optimierungsaufgabe lautet inf {f (Kx) + g(x)}, x Rn wobei f : R m R (Loss-Funktion), g : R n R (Glättungsfunktion), K : R n R m ist linear und stetig 11 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

U, V R n Indikatorfunktion von U: δ U : R n R = R {± }, { 0, x U δ U (x) = +, x / U ri U = int aff U U (relatives Innere von U) Projektion auf U: Pr U : R n U, Pr U (x) = arg min y x y U Trennung von U und V : s R n s.d. sup s u inf u U v V s v Normalkegel von U: N U (x) = {z R n : z (y x) 0 y U} falls x U und N U (x) = wenn x / U 12 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

f : R n R f ist unterhalbstetig: lim inf y x f (y) = sup δ>0 inf y B(x,δ) f (y) f (x) x R n f ist unterhalbstetig epi f ist abgeschloßen Konjugierte Funktion von f : f : R n R, f (z) = sup {z x f (x)} x R n Beispiel: ( x (ln x 1), x > 0 e ) (x ) = 0, x = 0 +, x < 0 Young-Fenchel Ungleichung: f (z) + f (x) z x x, z R n Subdifferential von f : f (x) = wenn f (x) / R, sonst f (x) = {z R n : f (y) f (x) z (y x) y R n } f - eigentlich, konvex und differenzierbar f (x) = { f (x)} Beispiele: δ{ U = N U U R n {z R (x) = n : z 1}, x = 0 {z R n : z = 1, x = z x}, x 0 13 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

für F : R n R betrachte das Optimierungsproblem (P) inf F (x) x R n Störungsfunktion: Φ : R n R m R s.d. Φ(, 0) = F ( ) (P) inf Φ(x, 0) x Rn (konjugierte) Dualaufgabe zu (P): (D) sup Φ (0, z) z R m schwache Dualität: v(d) v(p) 14 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

starke Dualität: v(d) = v(p) und (D) hat eine Optimallösung Optimalitätsbedingung: x R n Optimallösung von (P) und starke Dualität Φ( x, 0) + Φ (0, z) = 0, d.h. (0, z) Φ( x, 0) Sattelpunkt von Φ: ( x, ȳ) R n R m s.d. Alternativsätze sup Φ( x, y) Φ( x, ȳ) inf Φ(x, ȳ) y R m x Rn 15 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

für f : R n R, g : R m R, A : R n R m linear, betrachte (UP) inf x Rn{f (x) + g(ax)} mit Φ(x, y) = f (x) + g(ax + y) ist (UP) Spezialfall von (P) (D) wird zu (UD) sup y Y { f (A y ) g ( y )} (Fenchel Dualaufgabe von (UP)) für f : R n R, g : R n R m, C R m konvexer Kegel, S R n, betrachte (RP) inf f (x) x S g(x) C mit ΦL (x, z) = f (x) + δ S (x) + δ z C (g(x)) ist (RP) Spezialfall von (P) (Lagrange Störung) 16 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

Subgradientenverfahren Proximalpunktverfahren Splitting-Verfahren 17 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

Finanzmathematik Spieltheorie Standortoptimierung 18 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

Bezeichnungen 2.1 Seien U R n, A R m n, x, y R n, t R +, r R, m, n N. Euklidische Norm von x = (x 1,..., x n ) : x Innere von U: int U Abschluß von U: cl U Rand von U: bd U affine Hülle von U: aff U konvexe Hülle von U: co U konische Hülle von U: cone U Dimension von U: dim U Projektion auf die konvexe und abgeschloßene Menge U: Pr U : R n U, Pr U (x) = arg min y U y x Projektion auf R p, wobei p n: P R p : R n R p, P R p(u) = {x R p : y R n p : (x, y) U} offene Kugel um x mit Radius t: B(x, t) abgeschloßene Kugel um x mit Radius t: B(x, t) Strecke von x nach y: [x, y] = {rx + (1 r)y : 0 r 1}; auch ]x, y], [x, y[, ]x, y[ 19 S-M. Grad - Optimierung II / Universität Leipzig, SS2018

Rang der Matrix A = (a ij ) j=1,...,n i=1,...,m : Rg A Spur der quadratischen Matrix A R n n : Tr A = n i=1 a ii Einheitsvektoren: e i = (0,..., 0, 1, 0,..., 0), i=1,...,n, n-simplex: n = {x R n : x = n i=1 t i e i, t i 0, i = 1,..., n, n i=1 t i = 1} Hyperebene: H y,r = {x R n : y x = r} abgeschlosener Halbraum: H / y,r = {x R n : y x / r} offener Halbraum: H </> y,r = {x R n : y x < / > r} Dualkegel zum Kegel K R n : K = {y R n : y x 0 x K} Orthogonales Komplement des linearen Unterraums U: U 20 S-M. Grad - Optimierung II / Universität Leipzig, SS2018