Optimierungstheorie Scheinklausur Sommersemester Juli 2007

Ähnliche Dokumente
zul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) =

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) =

Kuhn-Tucker Bedingung

Konvexe Optimierungsprobleme

3.1. Existenzsatz und Struktur der Lösungsmenge

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1

Effiziente Algorithmen Lineares Programmieren 216. Schwache Dualität

KAPITEL 3. Konvexe Funktionen

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester

Geometrische Interpretation

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Universität Karlsruhe (TH) Mathematisches Institut II. Prof. Dr. A. Kirsch. Optimierungstheorie. Skript zur Vorlesung im Sommersemester 2002

D-MATH, D-PHYS, D-CHAB Analysis II FS 2018 Prof. Manfred Einsiedler. Übungsblatt 6. f(x, y, z) = xyz + 3e x y

Konvexe Mengen und Funktionen

Optimalitätskriterien

UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl. Sommersemester 2009

Wir gewichten die Kanten von G wie folgt: Kante e 1 e 2 e 3 e 4 e 5 e 6 e 7 e 8 d(e i )

Mathematik 2 für Wirtschaftsinformatik

1 Der Simplex Algorithmus I

Dualitätssätze der linearen Optimierung

Lösungen zu Mathematik I/II

Das Lagrange-duale Problem

Musterlösung der 1. Klausur zur Vorlesung

Analysis II 14. Übungsblatt

Teil I. Lineare Optimierung

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik

Dualität bei konvexer Optimierung

10 Extremwerte mit Nebenbedingungen

Nichtlineare Optimierung

Sattelpunkte und Optimalitätsbedingungen bei restringierten Optimierungsproblemen

KAPITEL 10 DIE INNERE-PUNKTE-METHODE

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

Innere-Punkt-Methoden

Seminar Optimierung und optimale Steuerung

Lagrange-Multiplikatoren

TECHNISCHE UNIVERSITÄT MÜNCHEN

2 Funktionen in mehreren Variablen: Differentiation

Optimierungstheorie. Skript zur Vorlesung im Sommersemester 2005

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Musterlösung Klausur zu Analysis II. Verständnisteil

Lineare Optimierung: Simplexverfahren Phase Ⅰ

5 Konvexe Mengen, Trennungssätze

BERGISCHE UNIVERSITÄT WUPPERTAL Fachbereich C Mathematik und Naturwissenschaften

Studientag zur Algorithmischen Mathematik

Topologie und Differentialrechnung mehrerer Veränderlicher, SS 2009 Modulprüfung/Abschlussklausur. Aufgabe Punkte

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:

Vorlesung Maschinelles Lernen

Regularitätsbedingungen

Grundlagen der Optimierung. Übung 6

3 Optimierung mehrdimensionaler Funktionen f : R n R

12. Trennungssätze für konvexe Mengen 83

Kontinuierliche Optimierung

Numerische Lineare Algebra

2 Extrema unter Nebenbedingungen

Mikroökonomik Prof. Dr. Stefan Klonner SoSe Übungsblatt 1

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

Inhaltsübersicht für heute:

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme

Skript zur Vorlesung im SS 2013+SS Konvexe Optimierung. Thorsten Raasch. 14. August 2014

8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

Übungen zu Einführung in die Analysis

1. Grundlagen der konvexen Analysis Version

55 Lokale Extrema unter Nebenbedingungen

8 Extremwerte reellwertiger Funktionen

Klausur Mathematik 1 für Wirtschaftswissenschaftler

Mathematische Behandlung der Natur- und Wirtschaftswissenschaften I. f(x) := e x + x.

Kuhn-Tucker-Bedingung

Übungen zur Ingenieur-Mathematik III WS 2011/12 Blatt Aufgabe 25: Berechnen Sie den kritischen Punkt der Funktion

Klausurrepetitorium ABWL

Kombinatorische Optimierung

Vorlesung Maschinelles Lernen

Die duale Simplexmethode

Rückblick auf die letzte Vorlesung. Bemerkung

Kuhn-Tucker-Bedingung

Prüfung zur Vorlesung Mathematik I/II

Extremwerte von Funktionen mehrerer reeller Variabler

Optimierung II. Sommersemester Literatur: C. Geiger, C. Kanzow: Theorie und Numerik restringierter Optimierungsaufgaben, Springer, 2002

Mathematik 1 für Wirtschaftsinformatik

Folgerungen aus dem Auflösungsatz

Die Lösungsmenge besteht aus allen n-tupeln reeller Zahlen x 1

Nichtlineare Optimierung

Das Subgradientenverfahren

Technische Universität München Zentrum Mathematik. Übungsblatt 12

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG 15. Dezember 2007

18.2 Implizit definierte Funktionen

Optimalitätsbedingungen

Klausur HM I H 2005 HM I : 1

Analysis II - 2. Klausur

Lösungen zu Mathematik I/II

Lineare Algebra II 8. Übungsblatt

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Transkript:

Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur Sommersemester 2007 25. Juli 2007 Aufgabe 1 Kreuzen Sie an, welche der folgenden 5 Aussagen wahr und welche nicht wahr sind. (1+1+1+1+1 Punkte) Beantworten Sie nur die Fragen, bei denen Sie sich sicher sind. Für jede falsche Antwort wird eine richtige Antwort nicht gewertet! (a) Sei M R n ein nichtleeres Polyeder. M besitzt genau dann Ecken, wenn M geradenfrei ist. wahr nicht wahr (b) Für jedes Matrix-Nullsummenspiel gibt es optimale Lösungen, die aus reinen Strategien bestehen. (c) Lineare Probleme der Form (A R m n, c R n und b R m ) Minimiere c T x unter Ax b können durch Einführung von Schlupfvariablen immer sofort auf ein Starttableau für Phase II des Simplex-Verfahrens gebracht werden. (d) Für das konvexe Optimierungsproblem (f, g i : R n R konvex, i = 1,..., p) (P ) Minimiere f(x) auf M := {x R n : g i (x) 0, i = 1,..., p} gilt: Ist (x, u ) Sattelpunkt der Lagrange-Funktion L(x, u) = f(x) + p i=1 u ig i (x), dann gilt u i g i(x ) > 0 für i = 1,..., p. (e) Seien f, g i : R n R konvex und differenzierbar (i = 1,..., p), A R m n, b R m und das Problem (P ) sei gegeben durch (P ) Minimiere f(x) auf M := {x R n : g(x) 0, Ax = b}. Dann gilt: Falls es x R n, u R p mit u 0 und v R m gibt, so dass (x, u, v ) ein KKT-Punkt von (P ) ist und x die constraint qualification (CQ1) erfüllt, so ist x globale Lösung von (P ). wahr nicht wahr

Aufgabe 2 (2+3 Punkte) (a) Wie viele Seiten hat ein Würfel? (b) Beweisen Sie das Lemma von Farkas: Seien A R m n und b R m gegeben. Dann gilt genau eine der beiden folgenden Aussagen: (i) Ax = b, x 0, ist lösbar durch ein x R n (ii) A T y 0, b T y > 0, ist lösbar durch ein y R m. Hinweis: Je nach Vorgehen können Sie den strikten Trennungssatz benutzen: Sei K R n konvex, nicht leer, abgeschlossen, sowie x K. Dann existiert eine Hyperebene H = {y R n : a T y = γ} (mit a R n, a 0, γ R), die x und K trennt, d.h. a T z γ < a T x für alle z K. Ist K zusätzlich ein Kegel, so kann γ = 0 gewählt werden. (a) Ein Würfel hat: 8 Ecken, 12 Kanten, 6 Flächen, also insgesamt 26 Seiten. (b) Zwei Möglichkeiten: Einmal mit dem Trennungssatz, einmal mit dem starken Dualitätssatz: Trennungssatz: Beides kann nicht gelten, da sonst gelten würde: 0 < y T b = y T Ax = (A T y) T x 0 Widerspruch Wir nehmen an, (i) gelte nicht. Dann gilt b K := {Ax : x R n, x 0}. Nach Satz von Weyl ist K konvexer polyedraler Kegel und damit abgeschlossen. Daher kann man b und K trennen, d.h. es gibt ein y R m, y 0, mit y T Ax 0 < y T b. Setzt man für x nacheinander die Einheitsvektoren e i = (0,..., 0, 1, 0,..., 0) ein so erhält man A T y 0, und damit die Behauptung. Starker Dualitätssatz: Setze M := {x R n : Ax = b, x 0}. Das Lemma von Farkas kann dann äquivalent geschrieben werden als M y R m mit A T y 0 n gilt b T y 0. : Sei M. Dann besitzt das primale Problem (P ) Minimiere c T x mit x M für c = 0 n ein Lösung x M, da < 0 = min(p ). Nach dem starken Dualitätssatz folgt dann, dass das duale Problem (D) Maximiere b T y mit y N := {y R m : A T y c = 0 n } ein Lösung y N hat (N da 0 m N). Weiter gilt min(p ) = max(d) nach dem starken Dualitätssatz und da y optimal für (D), folgt dann für alle y R m mit A T y 0 n : b T y b T y = max(d) = min(p ) = 0 T n x = 0. : Betrachte wieder das duale Problem (D). Da 0 m N, ist (D) zulässig und für alle y N gilt dann b T y 0. Daraus folgt dann sup(d) = 0 < +. Wir nehmen jetzt an, dass M =. Nach dem starken Dualitätssatz folgt dann aber sup(d) = +, also ein Widerspruch und damit kann M nicht leer sein.

Aufgabe 3 Betrachten Sie das folgende Optimierungsproblem: (4+1 Punkte) (P ) Minimiere 18x 1 + 12x 2 + 2x 3 + 6x 4 unter x 0, 3x 1 + x 2 2x 3 + x 4 = 2, x 1 + 3x 2 x 4 = 2. (a) Wenden Sie für (P ) Phase I des Simplex-Verfahrens an, um eine zulässige Basislösung zu finden, und bestimmen Sie gegebenenfalls mit Phase II die Lösung des Problems. (b) Gegen Sie das zu (P ) duale Problem an. (a) n = 6 m = 2-4 -4 2-0 0 0-4 3 1-2 1 1 0 2 1 3 0-1 0 1 2 18 12 2 6 0 0 0 Reihe = 1 Spalte = 1 0.00000-2.66667-0.66667 1.33333 1.33333 0.00000-1.33333 1.00000 0.33333-0.66667 0.33333 0.33333 0.00000 0.66667 0.00000 2.66667 0.66667-1.33333-0.33333 1.00000 1.33333 0.00000 6.00000 14.00000 0.00000-6.00000 0.00000-12.00000 Reihe = 2 Spalte = 2 0.00000 0.00000 0.00000-0.00000 1.00000 1.00000 0.00000 1.00000 0.00000-0.75000 0.50000 0.37500-0.12500 0.50000 0.00000 1.00000 0.25000-0.50000-0.12500 0.37500 0.50000 0.00000 0.00000 12.50000 3.00000-5.25000-2.25000-15.00000 ----------- Phase I fertig -- Start Phase II ----------------------- n = 4 m = 2 0.00000 0.00000 12.50000 3.00000-15.00000 1.00000 0.00000-0.75000 0.50000 0.50000 0.00000 1.00000 0.25000-0.50000 0.50000 (b) Maximiere 2y 1 + 2y 2 unter den Nebenbedingungen 3y 1 + y 2 18, y 1 + 3y 2 12, 2y 1 2, y 1 y 2 6

Aufgabe 4 Sei M R n konvex und nicht leer, sowie f : M R konvex. Betrachten Sie (2+1+2 Punkte) (P ) Minimiere f(x) auf M. (a) Sei x ein lokales Minimum von f auf M, d.h. es gibt ein ε > 0 mit f(x ) f(x) für alle x M mit x x 2 ε. Zeigen Sie: x ist sogar globales Minimum, d.h. es gilt f(x ) f(x) für alle x M. (b) f sei nun zusätzlich strikt konvex und (P ) sei lösbar, d.h. es gibt ein x M mit f(x ) f(x) für alle x M. Zeigen Sie: Die Lösung ist eindeutig, d.h. f(x ) < f(x) für alle x M. (c) Sei nun M = [0, 1] 2 R 2 und f : M R gegeben durch f(x 1, x 2 ) = 2x 2 1 + x 3 2 x 2 + 6. Zeigen Sie: f ist konvex auf M, aber nicht strikt konvex. (a) Sei x M beliebig, und wähle λ (0, 1) so klein, dass λ x x ε. Dann ist f(x ) f(x +λ(x x )) f konvex f(x ) + λ(f(x) f(x )), und daraus folgt f(x) f(x ). Da x M beliebig war folgt die Behauptung. (b) Gäbe es zwei optimale Lösungen x 1, x 2 M und x 1 x 2, so wäre f(x 1) = f(x 2) = inf(p ). Daraus folgt inf(p ) = 1 2 f(x 1) + 1 2 f(x 2) f strikt konvex > f( 1 2 x 1 + 1 2 x 2), und x := 1 2 x 1 + 1 2 x 2 M. Dies ist ein Widerspruch zur Optimalität von x 1 und x 2. (c) f ist zweimal stetig differenzierbar und [ ] [ ] 2x1 f(x 1, x 2 ) = 3x 2, und 2 2 0 f(x 2 1 1, x 2 ) =. 0 6x 2 Auf M = [0, 1] 2 ist hat 2 f(x 1, x 2 ) die Eigenwerte λ 1 (x) = 2 und λ 2 (x) = 6x 2. Diese sind größer gleich 0 und f ist damit konvex. Es gilt aber λ 2 (x 1, 0) = 0, und somit ist f nicht strikt konvex auf M.

Aufgabe 5 Seien f : R n R und g : R n R 2 gegeben durch f(x 1, x 2 ) = x 2 1 + x 2 2 6x 1 4x 2, und g(x 1, x 2 ) = ( ) x2 2. x 1 + x 2 3 (5 Punkte) Lösen Sie das Optimierungsproblem (P ) Minimiere f(x 1, x 2 ) auf M := {x K : g(x 1, x 2 ) 0} mit der Lagrangeschen Multiplikatorenregel. (P ) ist konvexes Optimierungsproblem und die Slater-Bedingung ist erfüllt, z.b. durch ˆx = (0, 0). Lagrange Funktion L(x, u) = x 2 1 + x 2 2 6x 1 4x 2 + u 1 (x 2 2) + u 2 (x 1 + x 2 3) Optimalitätsbed. (KKT) x L(x, u ) =! 0 und (u ) T g(x ) = 0, u 0, g(x ) 0 Also [ ] 2x x L(x, u) = 1 6 + u 2! = 0 2x 2 4 + u 1 + u 2 Daraus folgt x 1 = 3 1 2 u 2 und x 2 = 2 1 2 u 1 1 2 u 2 Einsetzen in zweiten Teil der Optimalitätsbedingungen (Komplementaritätsbed.) liefert u 1 ( 1 2 u 1 1 2 u 2) = 0 und u 2 (2 1 2 u 1 u 2 ) = 0. Fallunterscheidungen: u 1 = 0. Daraus folgt u 2 = 0 oder u 2 = 2. u 2 = u 1. Daraus folgt u 1 = u 2 = 0 oder u 1 = 4, u 2 = 4. u 2 = 0. Daraus folgt u 1 = 0. u 1 + 2u 2 = 4. Daraus folgt u 1 = 0, u 2 = 2 oder u 1 = 4, u 2 = 4. Es sind also 3 verschiedene Fälle möglich für Paare (u 1, u 2 ). (u 1, u 2 ) = (0, 0). Daraus folgt (x 1, x 2 ) = (3, 2). Widerspruch da nicht in der Menge. (u 1, u 2 ) = (0, 2). Daraus folgt (x 1, x 2 ) = (2, 1) mit f(2, 1) = 11. (u 1, u 2 ) = ( 4, 4). Daraus folgt (x 1, x 2 ) = (1, 3). Widerspruch da nicht in der Menge. Also haben wir das (x, u ) = (x 1, x 2, u 1, u 2) = (2, 1, 0, 2) die Optimalitätsbedingungen (KKT) erfüllt, und somit ist (x, u ) ein Sattelpunkt der Lagrange-Funktion. Damit erreicht f(x) bei x = (2, 1) sein Minimum über der Menge M.