KAPITEL 10 DIE INNERE-PUNKTE-METHODE
|
|
- Christel Beltz
- vor 5 Jahren
- Abrufe
Transkript
1 KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach zu implementieren LP-Dualität (LP). Der zentrale Pfad min c T x = max b T y Ax = b A T y c x Damit die Nebenbedingungen der rechten Seite die gleiche Form haben, wie auf der linken Seite, führen wir sogenannte Schlupfvariablen s,..., s n R, s,..., s n ein, bzw. den Vektor s = (s,..., s n ) T R n, sodass A T y + s = c. Dann haben die beiden linearen Programme von oben die Form min c T x = max b T y Ax = b A T y + s = c x s Wir interessieren uns für optimale Lösungen der beiden Programme und erinnern uns an Kapitel 5: Optimalitätskriterium (x, y, s ) ist optimal A T y + s = c Idee: Betrachte die (nichtlineare) Abbildung Ax = b x i s i =, x s F : R 2n+m R 2n+m F (x, y, s) = AT y + s c Ax b, XSe i =,..., n wobei X = diag(x,..., x n ), S = diag(s,..., s n ), e = (,..., ) T, und finde (x, y, s ) mit F (x, y, s ) =, z.b. mit Hilfe des Newton-Verfahrens. Date: 2. Juli 24.
2 2 F. Vallentin, A. Gundert Problem: Es gibt viele (x, y, s ) mit F (x, y, s ) =, die nicht zur Menge der zulässigen Lösungen gehören. Sei F = {(x, y, s) : A T y + s = c, Ax = b, x, s } F = {(x, y, s) : A T y + s = c, Ax = b, x >, s > } die Menge der strikt zulässigen Lösungen, das heißt x und s liegen im Inneren des nicht-negativen Orthanten R n = {z R n : z }. Sei >. Suche (x, y, s ), x >, s >, mit F (x, y, z ) =, d.h. (x ) i (s ) i = i =,..., n. e Wir zeigen gleich, dass (x, y, s ) F existieren und eindeutig bestimmt sind. Definition.. Die Menge heißt der zentrale Pfad von (LP). C = {(x, y, s ) : > } C (x, y, s ) groß F (x, y, s ) klein (x, y, s ) Lemma.2. Es gilt lim ct x b T y =. c T x b T y = (A T y + s ) T x b T y = y T Ax + s T x b T y = y T b + n b T y = n für. Theorem.3. Der zentrale Pfad existiert und ist eindeutig. Mit anderen Worten: Falls F und >, dann!(x, y, s ) : F (x, y, s ) = Der Beweis benötigt noch etwas Vorarbeit., x >, s >. e
3 Die Innere-Punkte-Methode 3 Definition.4. Definiere und die Barrierefunktion H = {(x, s) : y : (x, y, s) F }, f : H R f (x, s) = xt s ln(x i s i ). [Falls (x, s) gegen den Rand von H läuft, dann f (x, s) + ]. Ziel: An (x, s ) nimmt f sein Minimum an. Lemma.5. f ist strikt konvex. i) Der Term x T s ist linear in H : Sei x mit A x = b gegeben. Dann gilt für (x, s) H : x T s = x T (c A T y) = x T c b T y = x T c (A x) T y = x T c x T A T y = x T c x T (c s). ii) Die Funktion t ln t ist strikt konvex, weil die zweite Ableitung t t 2 > ist. Aus i) und ii) folgt die Behauptung. Lemma.6. f ist nach unten beschränkt, d.h. C : f (x, s) C (x, s) H. Aufgabe 3.3. Lemma.7. Für K ist die Menge {(x, s) H : x T s K} beschränkt. Folgt unmittelbar aus Aufgabe 3.2. Lemma.8. Sei κ R. Dann ist die Menge in einer kompakten Menge enthalten. Für g(t) = t ln t ist Dann {(x, s) H : f (x, s) κ} f (x, s) = f (x, s) κ g( x is i ) + n n ln. g( x is i ) κ = κ n + n ln.
4 4 F. Vallentin, A. Gundert Für Index i =,..., n gilt g( x is i ) κ n j= j i g( x js j ) κ, weil g(t) für t. Weil g(t) für t oder t, existiert ein M, sodass Also M x is i M, i =,..., n. x T s = Nach Lemma.8 existiert ein M u mit x i s i nm. x i M u, s i M u. Also M x is i M u s i s i, genauso x i. MM u MM u Also sind die x i und s i nach oben und unten beschränkt und somit ist die Menge {(x, s) H : f (x, s) κ} in einer kompakten Menge enthalten. Nun können wir beweisen, dass der zentrale Pfad existiert und eindeutig ist. (Theorem.3) Weil f strikt konvex und die Menge {(x, s) H : f (x, s) κ} in einer kompakten Menge enthalten ist, besitzt f ein eindeutiges Minimum (x, s ). Behauptung: x = x, s = s. Beweis: (x, s ) löst das Minimierungsproblem min f (x, s) Ax = b A T y + s = c x >, s > (in den Variablen x, y, s). Insbesondere ist (x, s ) ein lokales Minimum für min f (x, s) Ax = b A T y + s = c. Nun wenden wir ein Theorem aus der Analysis an: Theorem.9. (Extrema mit Nebenbedingungen/Lagrange-Multiplikatoren) Sei U R n offen, seien f : U R, g,..., g N : U R stetig differenzierbar. Falls x R n ein lokales Extremum von f unter den Nebenbedingungen g (x ) =... = g N (x ) = ist, dann gibt es λ,..., λ N R (Multiplikatoren) mit N f(x ) = λ i g i (x ).
5 Die Innere-Punkte-Methode 5 Hier haben wir die Situation: s f (x, s) = X e x f (x, s) = x y f (x, s), S e s f (x, s) g (x, y, s) = [Ax b],..., g m (x, y, s) = [Ax b] m, g m+ (x, y, s) = [A T y + s c],..., g m+n (x, y, s) = [A T y + s c] n. Also λ R m, µ R n : (a) (b) (c) Aus (b) und (c) folgt A( x S e) =. (a) multipliziert mit ( x S e) T liefert: s X e = A T λ = Aµ x S e = µ. ( x ) T ( S e A T x T ( s ) λ = e) S X e. = ( e) Xe S T ( e) Se X Definiere X 2 = diag ( x,..., x n ) und S 2 = diag ( s,..., s n ). Dann = ( Xe S e ) T =I = (XS) 2 e (XS) 2 e 2. {}}{ ( ) (X 2 S 2 )(X 2 S 2 ) Se X e XSe = e. Definition.. Sei (x, y, s) F. Das Dualitätsmaß µ von (x, y, s) ist µ = xt s n = ct x b T y. Definition.. Sei θ [, ). Die Nachbarschaft des zentralen Pfads ist Lemma.2. N(θ) = {(x, y, s) F : XSe µe θµ}. a) (x, y, s) C (x, y, s) N(). b) Falls XSe µe < µ, d.h. θ <, dann ist x >, s >. a) klar. b) Falls x i = oder s i =, dann XSe µe x i s i µ = µ, aber θ <.
6 6 F. Vallentin, A. Gundert Betrachte 2. Der Algorithmus und seine Analyse F (x, y, s) = AT y + s c Ax b =. XSe e Sei (x, y, s) F. Linearisiere F an (x, y, s): wobei mit F (x, y, s) + F ( x, y, s), F ( x, y, s) = AT I x A y S X s ( x, y, s) R 2n+m und F (x, y, s) = XSe Definition 2.. Für den Zentrierungsparameter σ [, ] definiere den modifizierten Newton-Schritt ( x, y, s) R 2n+m durch das lineare Gleichungssystem AT I x A y =. S X s XSe + σµe Nun können wir den Algorithmus angeben: Innere-Punkte-Methode: Input : θ =.4, σ =.4 n, Startpunkt (x, y, s ) N(θ), N = Anzahl Iterationen for k = to N do Bestimme ( x k, y k, s k ) durch Löse des LGS AT I A S k X k x k y k = s k (x k+, y k+, s k+ ) = (x k, y k, s k ) + ( x k, y k, s k ). end Algorithmus : Innere-Punkte-Methode X k S k e + σµ k e Bild dazu: x 2 s 2 3 N(θ) 2 C (x, y, s ) optimaler Wert x s
7 Die Innere-Punkte-Methode 7 Lemma 2.2. Falls (x k, y k, s k ) F, dann gilt a) ( x k ) T ( s k ) =. b) µ k = (.4 ) µ k. n σ a) Aufgabe 3.4. b) x T k+s k+ = (x k + x k ) T (s k + s k ) = x T k s k + x T k s k + x T k s k + x T k s k = = σx T k s k, denn aus der dritten Zeile des LGS im Algorithmus ergibt sich () S k x k + X k s k = X k S k e + σµ k e, und durch Aufsummieren der Einträge in () erhält man also s T k x k + x T k s k = x T k s k + nσµ k, x T k s k + s T k x k + x T k s k = nσµ k = nσ xt k s k n = σxt k s k. Beispiel 2.3. µ = 6, n =, N = 5. Dann µ N = (.4 ) N µ = (.996) N µ.2 Jetzt fehlt nur noch zu zeigen, dass (x k, y k, s k ) F. Wir zeigen, dass (x k, y k, s k ) sogar in N(θ) liegt. Lemma 2.4. Seien u, v R n, u T v. Dann gilt UV e u + v 2. Es ist wobei also ( ) u T v = u i v i + u i v i u iv i> u iv i< = u i v i u i v i, i P i M P = {i : u i v i > }, M = {i : u i v i < }, u i v i u i v i. i M i P
8 8 F. Vallentin, A. Gundert Somit UV e = ( (u i v i ) i P 2 + (u i v i ) i M 2) 2 () ( (u i v i ) i P 2 + (u i v i ) i M 2 ) 2 ( ) ( 2 (u i v i ) i P 2 ) 2 = 2 (u i v i ) i P (2) 2 ( 4 (u i + v i ) 2 ) i P = (u i + v i ) 2 i P u + v 2. Dabei gilt (), weil 2, und (2) gilt, da für α, β R stets αβ 4 (α + β)2 erfüllt ist. Lemma 2.5. Sei (x k, y k, z k ) N(.4). Dann gilt X k+ S k+ e µ k+ e.2µ k. D.h. insbesondere (x k+, y k+, s k+ ) N(.4)..Behauptung: X k+ S k+ e µ k+ e = X k S k e. Beweis: Betrachte den i-ten Eintrag der Vektoren: (x k+ ) i (s k+ ) i µ k+ = ((x k ) i + ( x k ) i )((s k ) i + ( s k ) i ) σµ k Lemma 2.2.b) = (x k ) i (s k ) i + (x k ) i ( s k ) i + ( x k ) i (s k ) i + ( x k ) i ( s k ) i σµ k = (x k ) i (s k ) i (x k ) i (s k ) i + σµ k + ( x k ) i ( s k ) i σµ k = ( x k ) i ( s k ) i 2.Behauptung: X k S k e.2µ k. Beweis: Definiere D k = X 2 k S 2 k. Dann gilt X k S k e = D k X kd k S k e nach Lemma 2.4. Nun ist weil D k x k + D k s k 2. D k x k + D k s k = (X k S k ) 2 ( Xk S k e + σµ k e), S k x k + X k s k = X k S k e + σµ k e
9 Die Innere-Punkte-Methode 9 gilt, und dies multipliziert mit (X k S k ) 2 liefert die obige Gleichung. Also X k S k e 2 3 ( (x k ) i (s k ) i + σµ k ) 2 2 (x k ) i (s k ) i X k S k e σµ k e 2 min,...,n (x k ) i (s k ) i. Da (x k, y k, s k ) N(θ), gilt min,...,n (x k ) i (s k ) i ( θ)µ k, denn X k S k e µ k e θµ k (x k ) i (s k ) i µ i θµ k (x k ) i (s k ) i µ k θµ k. Desweiteren Also X k S k e σµ k e 2 e T (X k S k e µ k e) = x T k s k nµ k =. = (X k S k e µ k e) + ( σ)µ k e 2 = X k S k e µ k e 2 + 2( σ)µ k e T (X k S k e µ k e) + ( σ) 2 µ 2 ke T e θ 2 µ 2 k + ( σ) 2 µ 2 kn. Zusammen X k S k e 2 3 θ 2 µ 2 2 k + ( σ)2 µ 2 k n ( θ)µ k.2µ k. Literatur [] S.J. Wright, Primal-dual interior-point-methods, SIAM, 997. Prof. Dr. F. Vallentin, Dr. A. Gundert, Mathematisches Institut, Universität zu Köln, Weyertal 86 9, 593 Köln, Deutschland address: frank.vallentin@uni-koeln.de, anna.gundert@uni-koeln.de
Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1
Inhaltsverzeichnis 1 Inhaltsverzeichnis Innere-Punkte-Verfahren 3 1 Theoretische Grundlagen 3 1.1 Die KKT-Bedingungen........................... 3 1.2 Der zentrale Pfad.............................. 4
MehrKAPITEL 4 FLÜSSE IN NETZWERKEN
KAPITEL 4 FLÜSSE IN NETZWERKEN F. VALLENTIN, A. GUNDERT 1. Das Max-Flow-Min-Cut Theorem Es sei D = (V, A) ein gerichteter Graph, s, t V zwei Knoten. Wir nennen s Quelle und t Senke. Definition 1.1. Eine
Mehr55 Lokale Extrema unter Nebenbedingungen
55 Lokale Extrema unter Nebenbedingungen Sei f : O R mit O R n differenzierbar. Notwendige Bescheinigung für ein lokales Extremum in p 0 ist dann die Bedingung f = 0 (siehe 52.4 und 49.14). Ist nun F :
MehrKonvexe Optimierungsprobleme
von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
Mehr9 Höhere partielle Ableitungen und die Taylorformel
Vorlesung SS 29 Analsis 2 Prof Dr Siegfried Echterhoff 9 Höhere partielle Ableitungen und die Talorformel Definition 91 Sei U R n offen, f : U R m eine Funktion Dann heißt f 2-mal partiell differenzierbar,
MehrKontinuierliche Optimierung
Kontinuierliche Optimierung Markus Herrich Wintersemester 2018/19 ii Inhaltsverzeichnis 2 Optimalitäts- und Regularitätsbedingungen 1 2.1 Einleitung und Wiederholung.................... 1 2.2 Optimalitätsbedingungen
MehrKAPITEL 3. Konvexe Funktionen
KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn
MehrOperations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung
Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden
Mehr1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)
. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)
MehrTeil 6. Differentialrechnung mehrerer Veränderlicher
Teil 6 Differentialrechnung mehrerer Veränderlicher 95 96 6.1 Topologie von Mengen Umgebung ε-umgebung eines Punktes x R n : B ε (x) = {y : y x < ε} Umgebung U von x: Menge, die eine ε-umgebung von x enthält
MehrKlausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016
Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.
MehrMonotonie, Konkavität und Extrema
Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1
MehrMonotonie, Konkavität und Extrema
Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1
MehrHöhere Mathematik III für die Fachrichtung Physik Wintersemester 2016/17. Lösungsvorschlag zu Übungsblatt 5
Institut für Analysis Dr. Christoph Schmoeger M.Sc. Jonathan Wunderlich Höhere Mathematik III für die Fachrichtung Physik Wintersemester 6/7..7 Lösungsvorschlag zu Übungsblatt 5 Aufgabe 6: Zeigen Sie mit
MehrDer Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.
Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x
MehrEffiziente Algorithmen Lineares Programmieren 216. Schwache Dualität
Effiziente Algorithmen Lineares Programmieren 216 Schwache Dualität Sei wieder z = max{ c T x Ax b, x 0 } (P ) und w = min{ b T u A T u c, u 0 }. (D) x ist primal zulässig, wenn x { x Ax b, x 0 }. u ist
MehrHöhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) =
Karlsruher Institut für Technologie (KIT Institut für Analysis Priv-Doz Dr P C Kunstmann Dipl-Math D Roth SS 0 7060 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8 Übungsblatt
MehrLösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =
Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls
Mehrcos(x)cos(2x)cos(4x) cos(2 n x) = sin(2n+1 x) 2 n+1 sin(x) = sin(2n+2 x) 2 n+2 sin(x).
Stroppel/Sändig Musterlösung 8. 3., min Aufgabe 5 Punkte Beweisen Sie für alle x R {zπ z Z} die Formel für n N mit Hilfe der vollständigen Induktion. cosxcosxcosx cos n x = sinn+ x n+ sinx Dabei dürfen
MehrWenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }
A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder
MehrRückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
MehrKonvexe Mengen und Funktionen
Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf
MehrNewton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer
Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für
MehrProbeklausur zur Analysis 2, SoSe 2017
BERGISCHE UNIVERSITÄT WUPPERTAL 21717 Fakultät 4 - Mathematik und Naturwissenschaften Prof N V Shcherbina Dr T P Pawlaschyk wwwkanauni-wuppertalde Probeklausur zur Analysis 2, SoSe 217 Hinweis Die Lösungen
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09
................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT
MehrNachklausur Analysis 2
Nachklausur Analysis 2. a) Wie ist der Grenzwert einer Folge in einem metrischen Raum definiert? Antwort: Se (a n ) n N eine Folge in dem metrischen Raum (M, d). Diese Folge besitzt den Grenzwert g M,
MehrOptimierungstheorie Scheinklausur Sommersemester Juli 2007
Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur
MehrGeometrische Interpretation
Geometrische Interpretation Stefanie Riedel 10. Mai 2010 1 Starke und schwache Dualität über Wertemengen Wir betrachten eine einfache geometrische Interpretation dualer Funktionen aus der Menge G: G =
Mehr19.2 Mittelwertsatz der Differentialrechnung
19 Mittelwertsätze der Differentialrechnung mit Anwendungen 19.1 Satz von Rolle 19.2 Mittelwertsatz der Differentialrechnung 19.4 Globaler Wachstumssatz 19.6 Verallgemeinerter Mittelwertsatz der Differentialrechnung
MehrOptimierung. Vorlesung 02
Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j
MehrÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS
ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS Aufgabe 1. a) Gegeben sei die Gleichung 2x 2 4xy +y 2 3x+4y = 0. Verifizieren Sie, dass diese Gleichung
MehrRückblick auf die letzte Vorlesung
Rückblick auf die letzte Vorlesung 1. Anwendungen des Satzes über implizite Funktionen 2. Stationäre Punkte implizit definierter Funktionen 3. Reguläre Punkte 4. Singuläre Punkte Ausblick auf die heutige
MehrDualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
MehrKlausur zu Analysis II - Lösungen
Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Dr. Axel Grünrock WS 1/11 11..11 Klausur zu Analysis II - Lösungen 1. Entscheiden Sie, ob die folgenden Aussagen richtig oder falsch sind.
MehrÜbungen zur Analysis II Blatt 27 - Lösungen
Prof. Dr. Torsten Wedhorn SoSe 22 Daniel Wortmann Übungen zur Analysis II Blatt 27 - Lösungen Aufgabe 5: 6+6+6* Punkte Bestimme alle lokalen Extrema der folgenden Funktionen: a b c* f : R 3 R g : R 2 R
Mehr3. Approximation von Funktionen und Extremwertprobleme im R n
3. Approximation von Funktionen und Extremwertprobleme im R n Wie in D ist es wichtig Funktionen mit mehreren Variablen durch Polynome lokal approximieren zu können. Polynome lassen sich im Gegensatz zu
MehrInnere-Punkt-Methoden
Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN
Prof Dr M Keyl M Kech TECHNISCHE UNIVERSITÄT MÜNCHEN Zentrum Mathematik Mathematik für Physiker 3 (Analysis 2) MA923 http://wwwm5matumde/allgemeines/ma923_26s Sommersem 26 Probeklausur (4726) Krümmung
Mehrf(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.
Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit
MehrExtremwerte von Funktionen mehrerer reeller Variabler
Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein
MehrMehrdimensionale Differentialrechnung Übersicht
Mehrdimensionale Differentialrechnung Übersicht Partielle und Totale Differenzierbarkeit Man kann sich mehrdimensionale Funktionen am Besten für den Fall f : R 2 M R vorstellen Dann lässt sich der Graph
MehrKAPITEL 3 MATCHINGS IN BIPARTITEN GRAPHEN
KAPITEL 3 MATCHINGS IN BIPARTITEN GRAPHEN F. VALLENTIN, A. GUNDERT 1. Definitionen Notation 1.1. Ähnlich wie im vorangegangenen Kapitel zunächst etwas Notation. Wir beschäftigen uns jetzt mit ungerichteten
MehrDas Gradientenverfahren
Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1
MehrKapitel 16 : Differentialrechnung
Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen
MehrAnalysis II 14. Übungsblatt
Jun.-Prof. PD Dr. D. Mugnolo Wintersemester 01/13 F. Stoffers 04. Februar 013 Analysis II 14. Übungsblatt 1. Aufgabe (8 Punkte Man beweise: Die Gleichung z 3 + z + xy = 1 besitzt für jedes (x, y R genau
Mehr9 Differentialrechnung für Funktionen in n Variablen
$Id: diff.tex,v.7 29/7/2 3:4:3 hk Exp $ $Id: ntaylor.tex,v.2 29/7/2 3:26:42 hk Exp $ 9 Differentialrechnung für Funktionen in n Variablen 9.6 Lagrange Multiplikatoren Die Berechnung von Maxima und Minima
MehrDie duale Simplexmethode
Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen
MehrBERGISCHE UNIVERSITÄT WUPPERTAL Fachbereich C Mathematik und Naturwissenschaften
Musterl osung BERGISCHE UNIVERSITÄT WUPPERTAL Fachbereich C Mathematik und Naturwissenschaften Analysis II Klausur WS 211/212 Prof. Dr. Hartmut Pecher 3.2.212, 9:15 Uhr Name Matr.Nr. Studienfach Fachsemester
Mehrf(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}
9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen
MehrSeminar Gewöhnliche Differentialgleichungen
Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden
Mehrf(x) f(a) f (a) := lim x a Es existiert ein Polynom ersten Grades l(x) = f(a) + c (x a) derart, dass gilt lim x a x a lim
A Analysis, Woche 8 Partielle Ableitungen A 8. Partielle Ableitungen Wir haben vorhin Existenzkriterien für Extrema betrachtet, aber wo liegen sie genau? Anders gesagt, wie berechnet man sie? In einer
MehrKuhn-Tucker-Bedingung
Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann
MehrAnwendungen der Differentialrechnung
KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle
MehrHauptsatz und Optimalitätskriterium der Simplexmethode
Kapitel 4 Hauptsatz und Optimalitätskriterium der Simplexmethode In diesem Abschnitt wird das wichtigste Verfahren zur Lösung linearer Optimierungsprobleme eingeführt die Simplexmethode Es existiere für
MehrVorlesung Mathematik für Ingenieure 2 (Sommersemester 2009)
1 Vorlesung Mathematik für Ingenieure 2 (Sommersemester 2009) Kapitel 10: Differenzialrechnung R n R m Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 27. März 2009) Differenzialrechnung
MehrKuhn-Tucker-Bedingung
Kuhn-Tucker-Bedingung Ist x ein lokales Minimum einer skalaren Funktion f unter den Nebenbedingungen g i (x) 0 und sind die Gradienten der aktiven Gleichungen g i (x ) = 0, i I, linear unabhängig, dann
MehrLösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 2016/17
Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 6/7 837 Aufgabe Punkte): Gegeben sei das lineare Gleichungssystem Ax = b mit A = 6 3 und
MehrLineare Algebra und Numerische Mathematik für D-BAUG
R Käppeli L Herrmann W Wu Herbstsemester 26 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 2 Aufgabe 2 Welche der folgenden Aussagen sind korrekt? (i) Jedes
MehrDas Subgradientenverfahren
Das Subgradientenverfahren Seminar Optimierung WS 05/06 Betreuer: Prof. F. Jarre von Jalo Liljo Das Subgradientenverfahren Das Ziel dieses Vortrags ist die Berechnung einer Lösung des unrestringierten
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
Mehr4x 1 + 2x 2 + 3x 3 = 1, x 2 + ax 3 = 1, ax 2 + x 3 = a 1. 0 a 1 1 Wir führen nun den Gauÿalgorithmus durch:
Aufgabe 8 Punkte Bestimmen Sie die Lösungsmenge in R in Abhängigkeit von a R des folgenden linearen Gleichungssystems: 4x + x + 3x 3 =, x + ax 3 =, ax + x 3 =. Lösung. Wir schreiben das lineare Gleichungssystem
MehrMusterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:
Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,
Mehr(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge
ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,
MehrÜbungen zu Grundlagen der Mathematik 2 Lösungen Blatt 12 SS 14. Aufgabe 44. Bestimmen Sie die Taylor-Polynome der Funktion.
Übungen zu Grundlagen der Mathematik Lösungen Blatt 1 SS 14 Prof. Dr. W. Decker Dr. M. Pleger Aufgabe 44. Bestimmen Sie die Taylor-Polynome der Funktion f : U R, (x, y) x y x + y, im Punkt (1, 1) bis einschließlich.
MehrÜbungen zum Ferienkurs Analysis II
Übungen zum Ferienkurs Analysis II Implizite Funktionen und Differentialgleichungen 4.1 Umkehrbarkeit Man betrachte die durch g(s, t) = (e s cos(t), e s sin(t)) gegebene Funktion g : R 2 R 2. Zeigen Sie,
MehrEinführung in die Mathematik des Operations Research
Universität zu Köln Mathematisches Institut Prof. Dr. F. Vallentin Einführung in die Mathematik des Operations Research Sommersemester 3 en zur Klausur (7. Oktober 3) Aufgabe ( + 3 + 5 = Punkte). Es sei
MehrInnere Punkt Verfahren
Kapitel 1 Innere Punkt Verfahren Innere Punkt Verfahren verfolgen die Idee, bei der Lösung von linearen Programmen durch das Innere des konvexen Polyeders zum Optimum zu gelangen. Damit unterscheiden sie
Mehr2 Extrema unter Nebenbedingungen
$Id: lagrangetex,v 18 01/11/09 14:07:08 hk Exp $ $Id: untermfgtex,v 14 01/11/1 10:00:34 hk Exp hk $ Extrema unter Nebenbedingungen Lagrange-Multiplikatoren In der letzten Sitzung hatten wir begonnen die
MehrMusterlösung Klausur zu Analysis II. Verständnisteil
Technische Universität Berlin SS 2009 Institut für Mathematik 20.07.2009 Prof. Dr. R. Schneider Fritz Krüger Sebastian Holtz Musterlösung Klausur zu Analysis II Verständnisteil 1. (a) Sei D R n konvex
Mehr6 Lineare Gleichungssysteme
6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α
MehrDie Lagrange-duale Funktion
Die Lagrange-duale Funktion Gregor Leimcke 21. April 2010 1 Die Lagrangefunktion Wir betrachten das allgemeine Optimierungsproblem wobei minimiere f 0 über D sodass f i 0, i = 1,..., m 1.1 D = h i = 0,
MehrÜbungen zum Ferienkurs Lineare Algebra WS 14/15
Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen
MehrMusterlösung zu Blatt 1
Musterlösung zu Blatt Analysis III für Lehramt Gymnasium Wintersemester 0/4 Überprüfe zunächst die notwendige Bedingung Dfx y z = 0 für die Existenz lokaler Extrema Mit x fx y z = 8x und y fx y z = + z
Mehr1 Umkehrfunktionen und implizite Funktionen
Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13
MehrKap. 4.3: Das Dualitätstheorem der linearen Optimierung
Kap. 4.3: Das Dualitätstheorem der linearen Optimierung Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 18. VO A&D WS 08/09 18.12.2008 1 Literatur
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
MehrKlausur zu Grundlagen der Computermathematik
Prof. Dr. Klaus Höllig 14. Oktober 2010 Klausur zu Grundlagen der Computermathematik en Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. a Die Folge A
Mehr3.1. Existenzsatz und Struktur der Lösungsmenge
3. EXISTENZ UND DUALITÄT 3.1. Existenzsatz und Struktur der Lösungsmenge Nach dem Satz von Weierstraß besitzt eine lineare Funktion auf einem Polytop stets ein Minimum und ein Maximum. Im allgemeinen Fall
Mehr12. Trennungssätze für konvexe Mengen 83
12. Trennungssätze für konvexe Mengen 83 C_1 C_2 a Abbildung 12.4. Trennung konvexer Mengen durch eine Hyperebene mit Normalenvektor a Dann ist int(c) nicht leer (warum?) und [als Minkowski-Summe von C
Mehr2 Direkte Lösungsverfahren für lineare Gleichungen
(2.1) Sei x = (x n ) n=1,...,n R N, A = (a m,n ) m=1,...,m, n=1,...,n R M,N. a) Sei 1 m n N. Dann ist x[m : n] = (x k ) k=m,...,n R 1+n m Teilvektor von x. b) Seien 1 m 1 m 2 M, 1 n 1 n 2 N. Dann ist A[m
MehrScheinklausur Analysis 2 Ss Juli 2008
Scheinklausur Analysis 2 Ss 2008 11. Juli 2008 Es gibt 10 Aufgaben. Die jeweilige Punktzahl steht am linken Rand. Die Gesamtpunktzahl ist 40 Punkte. Zum Bestehen der Klausur sind 16 Punkte erforderlich.
MehrÜbungen zur Vorlesung. Einführung in Dynamische Systeme. Musterlösungen zu Aufgabenblatt 2
Prof. Roland Gunesch Sommersemester 00 Übungen zur Vorlesung Einführung in Dynamische Systeme Musterlösungen zu Aufgabenblatt Aufgabe : a Zeigen Sie: Für alle Anfangsdaten u 0, t 0 R R hat das Anfangswertproblem
MehrSymmetrische Ableitungen von Massen
Symmetrische Ableitungen von Massen Hyuksung Kwon 5. Juni 203 Inhaltsverzeichnis Einführung 2 Hardy-Littlewood Maximaloperator 2 3 Symmetrische Ableitung vom positiven Maß 7 Einführung Definition. (Borelmaß
Mehr6. Einführung 43. gilt. Dann soll also A B x B = b eindeutig lösbar sein, also A B vollen Rang haben, d. h. invertierbar (regulär) sein.
6. Einführung 43 und aus der linearen Unabhängigkeit der (a i ) i I(x) folgt y i = z i auch für i I(x). Insgesamt gilt also y = z, d. h., nach Definition 6.9 ist x eine Ecke von P. Beachte: Der Koordinatenvektor
MehrKonvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.
Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,
MehrProjektionen auf abgeschlossene konvexe Mengen
Projektionen auf abgeschlossene konvexe Mengen Seminarvortrag von Veronika Pick Seminar Optimierung bei Herrn Prof. Dr. F. Jarre Heinrich-Heine-Universität Düsseldorf SS 2006 1 Vorbemerkung Das Seminarthema
MehrIntegraldarstellung des Restgliedes; Lagrangesche Restgliedformel;
Kapitel Der Satz von Taylor. Taylor-Formel und Taylor-Reihe (Taylor-Polynom; Restglied; Integraldarstellung des Restgliedes; Lagrangesche Restgliedformel; die Klasse C ; reell analytische Funktionen) In
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrLösungen zu Mathematik I/II
Dr. A. Caspar ETH Zürich, Januar D BIOL, D CHAB Lösungen zu Mathematik I/II. ( Punkte) a) Wir benutzen L Hôpital lim x ln(x) L Hôpital x 3 = lim 3x + x L Hôpital = lim x ln(x) x 3x 3 = lim ln(x) x 3 x
MehrSchnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005
Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung
MehrDas Trust-Region-Verfahren
Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein
MehrDie duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme
Kapitel 11 Die duale Simplexmethode zur Lösung rein ganzzahliger linearer Programme Wir betrachten folgendes Optimierungsproblem z = c T x min! Ax = b (11.1) (11.2) x j ganz für j = 1,..., n 1 n, (11.3)
MehrWirtschaftsmathematik II
WMS: Wirtschaftsmathematik 2 :: WS 2009/10 Wirtschaftsmathematik II Reinhard Ullrich http://homepage.univie.ac.at/reinhard.ullrich Basierend auf Folien von Dr. Ivana Ljubic October 11, 2009 1 Funktionen
MehrEs wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger auf Details.
Kapitel 5 Lösungsverfahren Dieses Kapitel gibt einen Überblick über Lösungsverfahren für nichtlineare Optimierungsprobleme. Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger
MehrVORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)
VORLESUNG 14 Lineare Optimierung, Dualität (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 96 H. Meyerhenke: Kombinatorische Optimierung Dualität bei linearen Programmen Def.: Es sei (L): c T x max
MehrKapitel 9: Lineare Gleichungssysteme
Kapitel 9: Lineare Gleichungssysteme Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz Stefan Ruzika (KO) Kapitel 9: Lineare Gleichungssysteme 1 / 15 Gliederung 1 Grundbegriffe
Mehr11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen
11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen Ziel: Wir wollen lokale Extrema von Funktionen f : M R untersuchen, wobei M R n eine k-dimensionale Untermannigfaltigkeit des
MehrNachklausur zur Analysis 2, SoSe 2017
BERGISCHE UNIVERSITÄT WUPPERTAL 18.9.17 Fakultät 4 - Mathematik und Naturwissenschaften Prof. N. V. Shcherbina Dr. T. P. Pawlaschyk www.kana.uni-wuppertal.de Nachklausur zur Analysis 2, SoSe 217 Aufgabe
Mehr