KAPITEL 10 DIE INNERE-PUNKTE-METHODE

Größe: px
Ab Seite anzeigen:

Download "KAPITEL 10 DIE INNERE-PUNKTE-METHODE"

Transkript

1 KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach zu implementieren LP-Dualität (LP). Der zentrale Pfad min c T x = max b T y Ax = b A T y c x Damit die Nebenbedingungen der rechten Seite die gleiche Form haben, wie auf der linken Seite, führen wir sogenannte Schlupfvariablen s,..., s n R, s,..., s n ein, bzw. den Vektor s = (s,..., s n ) T R n, sodass A T y + s = c. Dann haben die beiden linearen Programme von oben die Form min c T x = max b T y Ax = b A T y + s = c x s Wir interessieren uns für optimale Lösungen der beiden Programme und erinnern uns an Kapitel 5: Optimalitätskriterium (x, y, s ) ist optimal A T y + s = c Idee: Betrachte die (nichtlineare) Abbildung Ax = b x i s i =, x s F : R 2n+m R 2n+m F (x, y, s) = AT y + s c Ax b, XSe i =,..., n wobei X = diag(x,..., x n ), S = diag(s,..., s n ), e = (,..., ) T, und finde (x, y, s ) mit F (x, y, s ) =, z.b. mit Hilfe des Newton-Verfahrens. Date: 2. Juli 24.

2 2 F. Vallentin, A. Gundert Problem: Es gibt viele (x, y, s ) mit F (x, y, s ) =, die nicht zur Menge der zulässigen Lösungen gehören. Sei F = {(x, y, s) : A T y + s = c, Ax = b, x, s } F = {(x, y, s) : A T y + s = c, Ax = b, x >, s > } die Menge der strikt zulässigen Lösungen, das heißt x und s liegen im Inneren des nicht-negativen Orthanten R n = {z R n : z }. Sei >. Suche (x, y, s ), x >, s >, mit F (x, y, z ) =, d.h. (x ) i (s ) i = i =,..., n. e Wir zeigen gleich, dass (x, y, s ) F existieren und eindeutig bestimmt sind. Definition.. Die Menge heißt der zentrale Pfad von (LP). C = {(x, y, s ) : > } C (x, y, s ) groß F (x, y, s ) klein (x, y, s ) Lemma.2. Es gilt lim ct x b T y =. c T x b T y = (A T y + s ) T x b T y = y T Ax + s T x b T y = y T b + n b T y = n für. Theorem.3. Der zentrale Pfad existiert und ist eindeutig. Mit anderen Worten: Falls F und >, dann!(x, y, s ) : F (x, y, s ) = Der Beweis benötigt noch etwas Vorarbeit., x >, s >. e

3 Die Innere-Punkte-Methode 3 Definition.4. Definiere und die Barrierefunktion H = {(x, s) : y : (x, y, s) F }, f : H R f (x, s) = xt s ln(x i s i ). [Falls (x, s) gegen den Rand von H läuft, dann f (x, s) + ]. Ziel: An (x, s ) nimmt f sein Minimum an. Lemma.5. f ist strikt konvex. i) Der Term x T s ist linear in H : Sei x mit A x = b gegeben. Dann gilt für (x, s) H : x T s = x T (c A T y) = x T c b T y = x T c (A x) T y = x T c x T A T y = x T c x T (c s). ii) Die Funktion t ln t ist strikt konvex, weil die zweite Ableitung t t 2 > ist. Aus i) und ii) folgt die Behauptung. Lemma.6. f ist nach unten beschränkt, d.h. C : f (x, s) C (x, s) H. Aufgabe 3.3. Lemma.7. Für K ist die Menge {(x, s) H : x T s K} beschränkt. Folgt unmittelbar aus Aufgabe 3.2. Lemma.8. Sei κ R. Dann ist die Menge in einer kompakten Menge enthalten. Für g(t) = t ln t ist Dann {(x, s) H : f (x, s) κ} f (x, s) = f (x, s) κ g( x is i ) + n n ln. g( x is i ) κ = κ n + n ln.

4 4 F. Vallentin, A. Gundert Für Index i =,..., n gilt g( x is i ) κ n j= j i g( x js j ) κ, weil g(t) für t. Weil g(t) für t oder t, existiert ein M, sodass Also M x is i M, i =,..., n. x T s = Nach Lemma.8 existiert ein M u mit x i s i nm. x i M u, s i M u. Also M x is i M u s i s i, genauso x i. MM u MM u Also sind die x i und s i nach oben und unten beschränkt und somit ist die Menge {(x, s) H : f (x, s) κ} in einer kompakten Menge enthalten. Nun können wir beweisen, dass der zentrale Pfad existiert und eindeutig ist. (Theorem.3) Weil f strikt konvex und die Menge {(x, s) H : f (x, s) κ} in einer kompakten Menge enthalten ist, besitzt f ein eindeutiges Minimum (x, s ). Behauptung: x = x, s = s. Beweis: (x, s ) löst das Minimierungsproblem min f (x, s) Ax = b A T y + s = c x >, s > (in den Variablen x, y, s). Insbesondere ist (x, s ) ein lokales Minimum für min f (x, s) Ax = b A T y + s = c. Nun wenden wir ein Theorem aus der Analysis an: Theorem.9. (Extrema mit Nebenbedingungen/Lagrange-Multiplikatoren) Sei U R n offen, seien f : U R, g,..., g N : U R stetig differenzierbar. Falls x R n ein lokales Extremum von f unter den Nebenbedingungen g (x ) =... = g N (x ) = ist, dann gibt es λ,..., λ N R (Multiplikatoren) mit N f(x ) = λ i g i (x ).

5 Die Innere-Punkte-Methode 5 Hier haben wir die Situation: s f (x, s) = X e x f (x, s) = x y f (x, s), S e s f (x, s) g (x, y, s) = [Ax b],..., g m (x, y, s) = [Ax b] m, g m+ (x, y, s) = [A T y + s c],..., g m+n (x, y, s) = [A T y + s c] n. Also λ R m, µ R n : (a) (b) (c) Aus (b) und (c) folgt A( x S e) =. (a) multipliziert mit ( x S e) T liefert: s X e = A T λ = Aµ x S e = µ. ( x ) T ( S e A T x T ( s ) λ = e) S X e. = ( e) Xe S T ( e) Se X Definiere X 2 = diag ( x,..., x n ) und S 2 = diag ( s,..., s n ). Dann = ( Xe S e ) T =I = (XS) 2 e (XS) 2 e 2. {}}{ ( ) (X 2 S 2 )(X 2 S 2 ) Se X e XSe = e. Definition.. Sei (x, y, s) F. Das Dualitätsmaß µ von (x, y, s) ist µ = xt s n = ct x b T y. Definition.. Sei θ [, ). Die Nachbarschaft des zentralen Pfads ist Lemma.2. N(θ) = {(x, y, s) F : XSe µe θµ}. a) (x, y, s) C (x, y, s) N(). b) Falls XSe µe < µ, d.h. θ <, dann ist x >, s >. a) klar. b) Falls x i = oder s i =, dann XSe µe x i s i µ = µ, aber θ <.

6 6 F. Vallentin, A. Gundert Betrachte 2. Der Algorithmus und seine Analyse F (x, y, s) = AT y + s c Ax b =. XSe e Sei (x, y, s) F. Linearisiere F an (x, y, s): wobei mit F (x, y, s) + F ( x, y, s), F ( x, y, s) = AT I x A y S X s ( x, y, s) R 2n+m und F (x, y, s) = XSe Definition 2.. Für den Zentrierungsparameter σ [, ] definiere den modifizierten Newton-Schritt ( x, y, s) R 2n+m durch das lineare Gleichungssystem AT I x A y =. S X s XSe + σµe Nun können wir den Algorithmus angeben: Innere-Punkte-Methode: Input : θ =.4, σ =.4 n, Startpunkt (x, y, s ) N(θ), N = Anzahl Iterationen for k = to N do Bestimme ( x k, y k, s k ) durch Löse des LGS AT I A S k X k x k y k = s k (x k+, y k+, s k+ ) = (x k, y k, s k ) + ( x k, y k, s k ). end Algorithmus : Innere-Punkte-Methode X k S k e + σµ k e Bild dazu: x 2 s 2 3 N(θ) 2 C (x, y, s ) optimaler Wert x s

7 Die Innere-Punkte-Methode 7 Lemma 2.2. Falls (x k, y k, s k ) F, dann gilt a) ( x k ) T ( s k ) =. b) µ k = (.4 ) µ k. n σ a) Aufgabe 3.4. b) x T k+s k+ = (x k + x k ) T (s k + s k ) = x T k s k + x T k s k + x T k s k + x T k s k = = σx T k s k, denn aus der dritten Zeile des LGS im Algorithmus ergibt sich () S k x k + X k s k = X k S k e + σµ k e, und durch Aufsummieren der Einträge in () erhält man also s T k x k + x T k s k = x T k s k + nσµ k, x T k s k + s T k x k + x T k s k = nσµ k = nσ xt k s k n = σxt k s k. Beispiel 2.3. µ = 6, n =, N = 5. Dann µ N = (.4 ) N µ = (.996) N µ.2 Jetzt fehlt nur noch zu zeigen, dass (x k, y k, s k ) F. Wir zeigen, dass (x k, y k, s k ) sogar in N(θ) liegt. Lemma 2.4. Seien u, v R n, u T v. Dann gilt UV e u + v 2. Es ist wobei also ( ) u T v = u i v i + u i v i u iv i> u iv i< = u i v i u i v i, i P i M P = {i : u i v i > }, M = {i : u i v i < }, u i v i u i v i. i M i P

8 8 F. Vallentin, A. Gundert Somit UV e = ( (u i v i ) i P 2 + (u i v i ) i M 2) 2 () ( (u i v i ) i P 2 + (u i v i ) i M 2 ) 2 ( ) ( 2 (u i v i ) i P 2 ) 2 = 2 (u i v i ) i P (2) 2 ( 4 (u i + v i ) 2 ) i P = (u i + v i ) 2 i P u + v 2. Dabei gilt (), weil 2, und (2) gilt, da für α, β R stets αβ 4 (α + β)2 erfüllt ist. Lemma 2.5. Sei (x k, y k, z k ) N(.4). Dann gilt X k+ S k+ e µ k+ e.2µ k. D.h. insbesondere (x k+, y k+, s k+ ) N(.4)..Behauptung: X k+ S k+ e µ k+ e = X k S k e. Beweis: Betrachte den i-ten Eintrag der Vektoren: (x k+ ) i (s k+ ) i µ k+ = ((x k ) i + ( x k ) i )((s k ) i + ( s k ) i ) σµ k Lemma 2.2.b) = (x k ) i (s k ) i + (x k ) i ( s k ) i + ( x k ) i (s k ) i + ( x k ) i ( s k ) i σµ k = (x k ) i (s k ) i (x k ) i (s k ) i + σµ k + ( x k ) i ( s k ) i σµ k = ( x k ) i ( s k ) i 2.Behauptung: X k S k e.2µ k. Beweis: Definiere D k = X 2 k S 2 k. Dann gilt X k S k e = D k X kd k S k e nach Lemma 2.4. Nun ist weil D k x k + D k s k 2. D k x k + D k s k = (X k S k ) 2 ( Xk S k e + σµ k e), S k x k + X k s k = X k S k e + σµ k e

9 Die Innere-Punkte-Methode 9 gilt, und dies multipliziert mit (X k S k ) 2 liefert die obige Gleichung. Also X k S k e 2 3 ( (x k ) i (s k ) i + σµ k ) 2 2 (x k ) i (s k ) i X k S k e σµ k e 2 min,...,n (x k ) i (s k ) i. Da (x k, y k, s k ) N(θ), gilt min,...,n (x k ) i (s k ) i ( θ)µ k, denn X k S k e µ k e θµ k (x k ) i (s k ) i µ i θµ k (x k ) i (s k ) i µ k θµ k. Desweiteren Also X k S k e σµ k e 2 e T (X k S k e µ k e) = x T k s k nµ k =. = (X k S k e µ k e) + ( σ)µ k e 2 = X k S k e µ k e 2 + 2( σ)µ k e T (X k S k e µ k e) + ( σ) 2 µ 2 ke T e θ 2 µ 2 k + ( σ) 2 µ 2 kn. Zusammen X k S k e 2 3 θ 2 µ 2 2 k + ( σ)2 µ 2 k n ( θ)µ k.2µ k. Literatur [] S.J. Wright, Primal-dual interior-point-methods, SIAM, 997. Prof. Dr. F. Vallentin, Dr. A. Gundert, Mathematisches Institut, Universität zu Köln, Weyertal 86 9, 593 Köln, Deutschland address: frank.vallentin@uni-koeln.de, anna.gundert@uni-koeln.de

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis Innere-Punkte-Verfahren 3 1 Theoretische Grundlagen 3 1.1 Die KKT-Bedingungen........................... 3 1.2 Der zentrale Pfad.............................. 4

Mehr

KAPITEL 4 FLÜSSE IN NETZWERKEN

KAPITEL 4 FLÜSSE IN NETZWERKEN KAPITEL 4 FLÜSSE IN NETZWERKEN F. VALLENTIN, A. GUNDERT 1. Das Max-Flow-Min-Cut Theorem Es sei D = (V, A) ein gerichteter Graph, s, t V zwei Knoten. Wir nennen s Quelle und t Senke. Definition 1.1. Eine

Mehr

55 Lokale Extrema unter Nebenbedingungen

55 Lokale Extrema unter Nebenbedingungen 55 Lokale Extrema unter Nebenbedingungen Sei f : O R mit O R n differenzierbar. Notwendige Bescheinigung für ein lokales Extremum in p 0 ist dann die Bedingung f = 0 (siehe 52.4 und 49.14). Ist nun F :

Mehr

Konvexe Optimierungsprobleme

Konvexe Optimierungsprobleme von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

9 Höhere partielle Ableitungen und die Taylorformel

9 Höhere partielle Ableitungen und die Taylorformel Vorlesung SS 29 Analsis 2 Prof Dr Siegfried Echterhoff 9 Höhere partielle Ableitungen und die Talorformel Definition 91 Sei U R n offen, f : U R m eine Funktion Dann heißt f 2-mal partiell differenzierbar,

Mehr

Kontinuierliche Optimierung

Kontinuierliche Optimierung Kontinuierliche Optimierung Markus Herrich Wintersemester 2018/19 ii Inhaltsverzeichnis 2 Optimalitäts- und Regularitätsbedingungen 1 2.1 Einleitung und Wiederholung.................... 1 2.2 Optimalitätsbedingungen

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende) . Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)

Mehr

Teil 6. Differentialrechnung mehrerer Veränderlicher

Teil 6. Differentialrechnung mehrerer Veränderlicher Teil 6 Differentialrechnung mehrerer Veränderlicher 95 96 6.1 Topologie von Mengen Umgebung ε-umgebung eines Punktes x R n : B ε (x) = {y : y x < ε} Umgebung U von x: Menge, die eine ε-umgebung von x enthält

Mehr

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016 Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

Höhere Mathematik III für die Fachrichtung Physik Wintersemester 2016/17. Lösungsvorschlag zu Übungsblatt 5

Höhere Mathematik III für die Fachrichtung Physik Wintersemester 2016/17. Lösungsvorschlag zu Übungsblatt 5 Institut für Analysis Dr. Christoph Schmoeger M.Sc. Jonathan Wunderlich Höhere Mathematik III für die Fachrichtung Physik Wintersemester 6/7..7 Lösungsvorschlag zu Übungsblatt 5 Aufgabe 6: Zeigen Sie mit

Mehr

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x

Mehr

Effiziente Algorithmen Lineares Programmieren 216. Schwache Dualität

Effiziente Algorithmen Lineares Programmieren 216. Schwache Dualität Effiziente Algorithmen Lineares Programmieren 216 Schwache Dualität Sei wieder z = max{ c T x Ax b, x 0 } (P ) und w = min{ b T u A T u c, u 0 }. (D) x ist primal zulässig, wenn x { x Ax b, x 0 }. u ist

Mehr

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) =

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) = Karlsruher Institut für Technologie (KIT Institut für Analysis Priv-Doz Dr P C Kunstmann Dipl-Math D Roth SS 0 7060 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8 Übungsblatt

Mehr

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 = Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls

Mehr

cos(x)cos(2x)cos(4x) cos(2 n x) = sin(2n+1 x) 2 n+1 sin(x) = sin(2n+2 x) 2 n+2 sin(x).

cos(x)cos(2x)cos(4x) cos(2 n x) = sin(2n+1 x) 2 n+1 sin(x) = sin(2n+2 x) 2 n+2 sin(x). Stroppel/Sändig Musterlösung 8. 3., min Aufgabe 5 Punkte Beweisen Sie für alle x R {zπ z Z} die Formel für n N mit Hilfe der vollständigen Induktion. cosxcosxcosx cos n x = sinn+ x n+ sinx Dabei dürfen

Mehr

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 } A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

Konvexe Mengen und Funktionen

Konvexe Mengen und Funktionen Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf

Mehr

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für

Mehr

Probeklausur zur Analysis 2, SoSe 2017

Probeklausur zur Analysis 2, SoSe 2017 BERGISCHE UNIVERSITÄT WUPPERTAL 21717 Fakultät 4 - Mathematik und Naturwissenschaften Prof N V Shcherbina Dr T P Pawlaschyk wwwkanauni-wuppertalde Probeklausur zur Analysis 2, SoSe 217 Hinweis Die Lösungen

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09 ................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT

Mehr

Nachklausur Analysis 2

Nachklausur Analysis 2 Nachklausur Analysis 2. a) Wie ist der Grenzwert einer Folge in einem metrischen Raum definiert? Antwort: Se (a n ) n N eine Folge in dem metrischen Raum (M, d). Diese Folge besitzt den Grenzwert g M,

Mehr

Optimierungstheorie Scheinklausur Sommersemester Juli 2007

Optimierungstheorie Scheinklausur Sommersemester Juli 2007 Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur

Mehr

Geometrische Interpretation

Geometrische Interpretation Geometrische Interpretation Stefanie Riedel 10. Mai 2010 1 Starke und schwache Dualität über Wertemengen Wir betrachten eine einfache geometrische Interpretation dualer Funktionen aus der Menge G: G =

Mehr

19.2 Mittelwertsatz der Differentialrechnung

19.2 Mittelwertsatz der Differentialrechnung 19 Mittelwertsätze der Differentialrechnung mit Anwendungen 19.1 Satz von Rolle 19.2 Mittelwertsatz der Differentialrechnung 19.4 Globaler Wachstumssatz 19.6 Verallgemeinerter Mittelwertsatz der Differentialrechnung

Mehr

Optimierung. Vorlesung 02

Optimierung. Vorlesung 02 Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j

Mehr

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS Aufgabe 1. a) Gegeben sei die Gleichung 2x 2 4xy +y 2 3x+4y = 0. Verifizieren Sie, dass diese Gleichung

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

Klausur zu Analysis II - Lösungen

Klausur zu Analysis II - Lösungen Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Dr. Axel Grünrock WS 1/11 11..11 Klausur zu Analysis II - Lösungen 1. Entscheiden Sie, ob die folgenden Aussagen richtig oder falsch sind.

Mehr

Übungen zur Analysis II Blatt 27 - Lösungen

Übungen zur Analysis II Blatt 27 - Lösungen Prof. Dr. Torsten Wedhorn SoSe 22 Daniel Wortmann Übungen zur Analysis II Blatt 27 - Lösungen Aufgabe 5: 6+6+6* Punkte Bestimme alle lokalen Extrema der folgenden Funktionen: a b c* f : R 3 R g : R 2 R

Mehr

3. Approximation von Funktionen und Extremwertprobleme im R n

3. Approximation von Funktionen und Extremwertprobleme im R n 3. Approximation von Funktionen und Extremwertprobleme im R n Wie in D ist es wichtig Funktionen mit mehreren Variablen durch Polynome lokal approximieren zu können. Polynome lassen sich im Gegensatz zu

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN

TECHNISCHE UNIVERSITÄT MÜNCHEN Prof Dr M Keyl M Kech TECHNISCHE UNIVERSITÄT MÜNCHEN Zentrum Mathematik Mathematik für Physiker 3 (Analysis 2) MA923 http://wwwm5matumde/allgemeines/ma923_26s Sommersem 26 Probeklausur (4726) Krümmung

Mehr

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum. Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit

Mehr

Extremwerte von Funktionen mehrerer reeller Variabler

Extremwerte von Funktionen mehrerer reeller Variabler Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein

Mehr

Mehrdimensionale Differentialrechnung Übersicht

Mehrdimensionale Differentialrechnung Übersicht Mehrdimensionale Differentialrechnung Übersicht Partielle und Totale Differenzierbarkeit Man kann sich mehrdimensionale Funktionen am Besten für den Fall f : R 2 M R vorstellen Dann lässt sich der Graph

Mehr

KAPITEL 3 MATCHINGS IN BIPARTITEN GRAPHEN

KAPITEL 3 MATCHINGS IN BIPARTITEN GRAPHEN KAPITEL 3 MATCHINGS IN BIPARTITEN GRAPHEN F. VALLENTIN, A. GUNDERT 1. Definitionen Notation 1.1. Ähnlich wie im vorangegangenen Kapitel zunächst etwas Notation. Wir beschäftigen uns jetzt mit ungerichteten

Mehr

Das Gradientenverfahren

Das Gradientenverfahren Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1

Mehr

Kapitel 16 : Differentialrechnung

Kapitel 16 : Differentialrechnung Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen

Mehr

Analysis II 14. Übungsblatt

Analysis II 14. Übungsblatt Jun.-Prof. PD Dr. D. Mugnolo Wintersemester 01/13 F. Stoffers 04. Februar 013 Analysis II 14. Übungsblatt 1. Aufgabe (8 Punkte Man beweise: Die Gleichung z 3 + z + xy = 1 besitzt für jedes (x, y R genau

Mehr

9 Differentialrechnung für Funktionen in n Variablen

9 Differentialrechnung für Funktionen in n Variablen $Id: diff.tex,v.7 29/7/2 3:4:3 hk Exp $ $Id: ntaylor.tex,v.2 29/7/2 3:26:42 hk Exp $ 9 Differentialrechnung für Funktionen in n Variablen 9.6 Lagrange Multiplikatoren Die Berechnung von Maxima und Minima

Mehr

Die duale Simplexmethode

Die duale Simplexmethode Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen

Mehr

BERGISCHE UNIVERSITÄT WUPPERTAL Fachbereich C Mathematik und Naturwissenschaften

BERGISCHE UNIVERSITÄT WUPPERTAL Fachbereich C Mathematik und Naturwissenschaften Musterl osung BERGISCHE UNIVERSITÄT WUPPERTAL Fachbereich C Mathematik und Naturwissenschaften Analysis II Klausur WS 211/212 Prof. Dr. Hartmut Pecher 3.2.212, 9:15 Uhr Name Matr.Nr. Studienfach Fachsemester

Mehr

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J} 9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen

Mehr

Seminar Gewöhnliche Differentialgleichungen

Seminar Gewöhnliche Differentialgleichungen Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden

Mehr

f(x) f(a) f (a) := lim x a Es existiert ein Polynom ersten Grades l(x) = f(a) + c (x a) derart, dass gilt lim x a x a lim

f(x) f(a) f (a) := lim x a Es existiert ein Polynom ersten Grades l(x) = f(a) + c (x a) derart, dass gilt lim x a x a lim A Analysis, Woche 8 Partielle Ableitungen A 8. Partielle Ableitungen Wir haben vorhin Existenzkriterien für Extrema betrachtet, aber wo liegen sie genau? Anders gesagt, wie berechnet man sie? In einer

Mehr

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle

Mehr

Hauptsatz und Optimalitätskriterium der Simplexmethode

Hauptsatz und Optimalitätskriterium der Simplexmethode Kapitel 4 Hauptsatz und Optimalitätskriterium der Simplexmethode In diesem Abschnitt wird das wichtigste Verfahren zur Lösung linearer Optimierungsprobleme eingeführt die Simplexmethode Es existiere für

Mehr

Vorlesung Mathematik für Ingenieure 2 (Sommersemester 2009)

Vorlesung Mathematik für Ingenieure 2 (Sommersemester 2009) 1 Vorlesung Mathematik für Ingenieure 2 (Sommersemester 2009) Kapitel 10: Differenzialrechnung R n R m Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 27. März 2009) Differenzialrechnung

Mehr

Kuhn-Tucker-Bedingung

Kuhn-Tucker-Bedingung Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann

Mehr

Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 2016/17

Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 2016/17 Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 6/7 837 Aufgabe Punkte): Gegeben sei das lineare Gleichungssystem Ax = b mit A = 6 3 und

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG R Käppeli L Herrmann W Wu Herbstsemester 26 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 2 Aufgabe 2 Welche der folgenden Aussagen sind korrekt? (i) Jedes

Mehr

Das Subgradientenverfahren

Das Subgradientenverfahren Das Subgradientenverfahren Seminar Optimierung WS 05/06 Betreuer: Prof. F. Jarre von Jalo Liljo Das Subgradientenverfahren Das Ziel dieses Vortrags ist die Berechnung einer Lösung des unrestringierten

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

4x 1 + 2x 2 + 3x 3 = 1, x 2 + ax 3 = 1, ax 2 + x 3 = a 1. 0 a 1 1 Wir führen nun den Gauÿalgorithmus durch:

4x 1 + 2x 2 + 3x 3 = 1, x 2 + ax 3 = 1, ax 2 + x 3 = a 1. 0 a 1 1 Wir führen nun den Gauÿalgorithmus durch: Aufgabe 8 Punkte Bestimmen Sie die Lösungsmenge in R in Abhängigkeit von a R des folgenden linearen Gleichungssystems: 4x + x + 3x 3 =, x + ax 3 =, ax + x 3 =. Lösung. Wir schreiben das lineare Gleichungssystem

Mehr

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist: Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,

Mehr

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,

Mehr

Übungen zu Grundlagen der Mathematik 2 Lösungen Blatt 12 SS 14. Aufgabe 44. Bestimmen Sie die Taylor-Polynome der Funktion.

Übungen zu Grundlagen der Mathematik 2 Lösungen Blatt 12 SS 14. Aufgabe 44. Bestimmen Sie die Taylor-Polynome der Funktion. Übungen zu Grundlagen der Mathematik Lösungen Blatt 1 SS 14 Prof. Dr. W. Decker Dr. M. Pleger Aufgabe 44. Bestimmen Sie die Taylor-Polynome der Funktion f : U R, (x, y) x y x + y, im Punkt (1, 1) bis einschließlich.

Mehr

Übungen zum Ferienkurs Analysis II

Übungen zum Ferienkurs Analysis II Übungen zum Ferienkurs Analysis II Implizite Funktionen und Differentialgleichungen 4.1 Umkehrbarkeit Man betrachte die durch g(s, t) = (e s cos(t), e s sin(t)) gegebene Funktion g : R 2 R 2. Zeigen Sie,

Mehr

Einführung in die Mathematik des Operations Research

Einführung in die Mathematik des Operations Research Universität zu Köln Mathematisches Institut Prof. Dr. F. Vallentin Einführung in die Mathematik des Operations Research Sommersemester 3 en zur Klausur (7. Oktober 3) Aufgabe ( + 3 + 5 = Punkte). Es sei

Mehr

Innere Punkt Verfahren

Innere Punkt Verfahren Kapitel 1 Innere Punkt Verfahren Innere Punkt Verfahren verfolgen die Idee, bei der Lösung von linearen Programmen durch das Innere des konvexen Polyeders zum Optimum zu gelangen. Damit unterscheiden sie

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrangetex,v 18 01/11/09 14:07:08 hk Exp $ $Id: untermfgtex,v 14 01/11/1 10:00:34 hk Exp hk $ Extrema unter Nebenbedingungen Lagrange-Multiplikatoren In der letzten Sitzung hatten wir begonnen die

Mehr

Musterlösung Klausur zu Analysis II. Verständnisteil

Musterlösung Klausur zu Analysis II. Verständnisteil Technische Universität Berlin SS 2009 Institut für Mathematik 20.07.2009 Prof. Dr. R. Schneider Fritz Krüger Sebastian Holtz Musterlösung Klausur zu Analysis II Verständnisteil 1. (a) Sei D R n konvex

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

Die Lagrange-duale Funktion

Die Lagrange-duale Funktion Die Lagrange-duale Funktion Gregor Leimcke 21. April 2010 1 Die Lagrangefunktion Wir betrachten das allgemeine Optimierungsproblem wobei minimiere f 0 über D sodass f i 0, i = 1,..., m 1.1 D = h i = 0,

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen

Mehr

Musterlösung zu Blatt 1

Musterlösung zu Blatt 1 Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung

Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Klausur zu Grundlagen der Computermathematik

Klausur zu Grundlagen der Computermathematik Prof. Dr. Klaus Höllig 14. Oktober 2010 Klausur zu Grundlagen der Computermathematik en Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. a Die Folge A

Mehr

3.1. Existenzsatz und Struktur der Lösungsmenge

3.1. Existenzsatz und Struktur der Lösungsmenge 3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall

Mehr

12. Trennungssätze für konvexe Mengen 83

12. Trennungssätze für konvexe Mengen 83 12. Trennungssätze für konvexe Mengen 83 C_1 C_2 a Abbildung 12.4. Trennung konvexer Mengen durch eine Hyperebene mit Normalenvektor a Dann ist int(c) nicht leer (warum?) und [als Minkowski-Summe von C

Mehr

2 Direkte Lösungsverfahren für lineare Gleichungen

2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei x = (x n ) n=1,...,n R N, A = (a m,n ) m=1,...,m, n=1,...,n R M,N. a) Sei 1 m n N. Dann ist x[m : n] = (x k ) k=m,...,n R 1+n m Teilvektor von x. b) Seien 1 m 1 m 2 M, 1 n 1 n 2 N. Dann ist A[m

Mehr

Scheinklausur Analysis 2 Ss Juli 2008

Scheinklausur Analysis 2 Ss Juli 2008 Scheinklausur Analysis 2 Ss 2008 11. Juli 2008 Es gibt 10 Aufgaben. Die jeweilige Punktzahl steht am linken Rand. Die Gesamtpunktzahl ist 40 Punkte. Zum Bestehen der Klausur sind 16 Punkte erforderlich.

Mehr

Übungen zur Vorlesung. Einführung in Dynamische Systeme. Musterlösungen zu Aufgabenblatt 2

Übungen zur Vorlesung. Einführung in Dynamische Systeme. Musterlösungen zu Aufgabenblatt 2 Prof. Roland Gunesch Sommersemester 00 Übungen zur Vorlesung Einführung in Dynamische Systeme Musterlösungen zu Aufgabenblatt Aufgabe : a Zeigen Sie: Für alle Anfangsdaten u 0, t 0 R R hat das Anfangswertproblem

Mehr

Symmetrische Ableitungen von Massen

Symmetrische Ableitungen von Massen Symmetrische Ableitungen von Massen Hyuksung Kwon 5. Juni 203 Inhaltsverzeichnis Einführung 2 Hardy-Littlewood Maximaloperator 2 3 Symmetrische Ableitung vom positiven Maß 7 Einführung Definition. (Borelmaß

Mehr

6. Einführung 43. gilt. Dann soll also A B x B = b eindeutig lösbar sein, also A B vollen Rang haben, d. h. invertierbar (regulär) sein.

6. Einführung 43. gilt. Dann soll also A B x B = b eindeutig lösbar sein, also A B vollen Rang haben, d. h. invertierbar (regulär) sein. 6. Einführung 43 und aus der linearen Unabhängigkeit der (a i ) i I(x) folgt y i = z i auch für i I(x). Insgesamt gilt also y = z, d. h., nach Definition 6.9 ist x eine Ecke von P. Beachte: Der Koordinatenvektor

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr

Projektionen auf abgeschlossene konvexe Mengen

Projektionen auf abgeschlossene konvexe Mengen Projektionen auf abgeschlossene konvexe Mengen Seminarvortrag von Veronika Pick Seminar Optimierung bei Herrn Prof. Dr. F. Jarre Heinrich-Heine-Universität Düsseldorf SS 2006 1 Vorbemerkung Das Seminarthema

Mehr

Integraldarstellung des Restgliedes; Lagrangesche Restgliedformel;

Integraldarstellung des Restgliedes; Lagrangesche Restgliedformel; Kapitel Der Satz von Taylor. Taylor-Formel und Taylor-Reihe (Taylor-Polynom; Restglied; Integraldarstellung des Restgliedes; Lagrangesche Restgliedformel; die Klasse C ; reell analytische Funktionen) In

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Lösungen zu Mathematik I/II

Lösungen zu Mathematik I/II Dr. A. Caspar ETH Zürich, Januar D BIOL, D CHAB Lösungen zu Mathematik I/II. ( Punkte) a) Wir benutzen L Hôpital lim x ln(x) L Hôpital x 3 = lim 3x + x L Hôpital = lim x ln(x) x 3x 3 = lim ln(x) x 3 x

Mehr

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005 Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung

Mehr

Das Trust-Region-Verfahren

Das Trust-Region-Verfahren Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein

Mehr

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme

Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Kapitel 11 Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Wir betrachten folgendes Optimierungsproblem z = c T x min! Ax = b (11.1) (11.2) x j ganz für j = 1,..., n 1 n, (11.3)

Mehr

Wirtschaftsmathematik II

Wirtschaftsmathematik II WMS: Wirtschaftsmathematik 2 :: WS 2009/10 Wirtschaftsmathematik II Reinhard Ullrich http://homepage.univie.ac.at/reinhard.ullrich Basierend auf Folien von Dr. Ivana Ljubic October 11, 2009 1 Funktionen

Mehr

Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger auf Details.

Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger auf Details. Kapitel 5 Lösungsverfahren Dieses Kapitel gibt einen Überblick über Lösungsverfahren für nichtlineare Optimierungsprobleme. Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger

Mehr

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max

Mehr

Kapitel 9: Lineare Gleichungssysteme

Kapitel 9: Lineare Gleichungssysteme Kapitel 9: Lineare Gleichungssysteme Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz Stefan Ruzika (KO) Kapitel 9: Lineare Gleichungssysteme 1 / 15 Gliederung 1 Grundbegriffe

Mehr

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen 11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen Ziel: Wir wollen lokale Extrema von Funktionen f : M R untersuchen, wobei M R n eine k-dimensionale Untermannigfaltigkeit des

Mehr

Nachklausur zur Analysis 2, SoSe 2017

Nachklausur zur Analysis 2, SoSe 2017 BERGISCHE UNIVERSITÄT WUPPERTAL 18.9.17 Fakultät 4 - Mathematik und Naturwissenschaften Prof. N. V. Shcherbina Dr. T. P. Pawlaschyk www.kana.uni-wuppertal.de Nachklausur zur Analysis 2, SoSe 217 Aufgabe

Mehr