Das Subgradientenverfahren
|
|
|
- Hermann Pfaff
- vor 7 Jahren
- Abrufe
Transkript
1 Das Subgradientenverfahren Seminar Optimierung WS 05/06 Betreuer: Prof. F. Jarre von Jalo Liljo
2 Das Subgradientenverfahren Das Ziel dieses Vortrags ist die Berechnung einer Lösung des unrestringierten Optimierungsproblems (P U) min x R n f(x), wobei f : R n R eine auf dem ganzen R n endliche und konvexe Funktion ist. Dazu betrachten wir eine Verallgemeinerung des Gradientenverfahrens. 1 Das Verfahren Erinnerung: Für eine Funktion f ConvR n nennen wir einen Vektor s R n Subgradient von f in x, wenn f(y) f(x) + s, y x y R n gilt. Mit f(x) bezeichnet man die Menge aller Subgradienten in x. Der Unterschied zum Gradientenverfahren ist, dass man im k-ten Iterationsschritt die Suchrichtung d (k) = s (k) mit einem beliebigen s (k) f(x (k) ) benutzt. Ist f differenzierbar so gilt wegen Satz d (k) = f(x (k) ). Verfahren 1.1 : Subgradientenverfahren Wähle einen Startpunkt x (0) R n und setze k := Berechne einen Subgradienten s (k) f(x (k) ). 2. Abbruchkriterium: Ist s (k) = 0 (d.h. 0 f(x (k) )), dann STOP. 3. Setze d (k) = s (k) / s (k). Wähle t k > 0 und setze x () := x (k) + t k d (k). 4. k:=, GOTO 1. Anwendung des Verfahrens auf die Wolfe-Funktion mit einem Startpunkt x (0) aus der Menge S = {(x 1, x 2 ) T R 2 x 1 > x 2 > ( 9 16 )2 x 1 } und einer Line Search zur Schrittweitenwahl, liefert dieselbe Iterationsfolge wie das Gradientenverfahren, welche nicht gegen nicht gegen x opt konvergiert. Also sind weitere Voraussetzungen an die Schrittweite nötig. 1
3 Weitere Nachteile des Verfahrens: Wie das folgende Beispiel zeigt muss s (k) keine Abstiegsrichtung sein. Daher muss die Folge {f(x (k) )} nicht monoton fallend sein und man erhält kein Abstiegsverfahren. Weiterhin ist das Abbruchkriterium praktisch nie erfüllt. Beispiel 1.2 : Das Minimum der Funktion f(x) = x ist x = 0 und es gilt [ 1, 1] f(0). Wählt man s (0) 0 und startet in x (0) = 0, ist das Abbruchkriterium nicht erfüllt und man entfernt sich von x. 2 Konvergenzbetrachtungen Das folgende Lemma liefert die grundlegende Idee für die Schrittweitenwahl. Lemma 2.1 : Ist f : R n R eine konvexe Funktion, x ein beliebiger Minimalpunkt von f und x (k) kein Minimalpunkt, dann gibt es ein T k > 0, so dass für das Verfahren 1.1 gilt x () x < x (k) x t k ]0, T k [. (1) Beweis: Für ein beliebiges t k > 0 gilt Daraus folgt mit x () x 2 = x (k) t ks (k) s (k) x 2 = x (k) x 2 2t k s(k) s (k), x(k) x + t 2 k s(k) s (k) 2. x () x 2 = x (k) x 2 2t k b k + t 2 k b k = s(k) s (k), x(k) x. Wegen f(x ) < f(x (k) ) und s (k) f(x (k) ) folgt aus der Subgradientenungleichung 0 > f(x ) f(x (k) ) s (k), x x (k) = b k s (k). Also ist b k > 0 und daher 2t k b k + t 2 k < 0 für 0 < t k < T k := 2b k, woraus (1) folgt. b k > 0 bedeutet gerade, dass der Winkel zwischen der Richtung s (k) und der idealen Richtung x x (k) im Punkt x (k) kleiner als 90 ist. Wenn man sich also von x (k) nicht zu weit in Richtung s (k) bewegt, liegt x () näher bei x als x (k), wenn T k > 0 hinreichend klein ist. 2
4 Also muss die Schrittweite t k hinreichend klein sein damit (1) gilt. Daher verlangt man lim t k = 0. (2) k Diese Bedingung reicht aber noch nicht aus, denn ist r := t k <, so gilt k 1 k 1 x (0) x (k) x (i) x (i+1) = t i d (k) r. i=0 Also liegen alle Iterationspunkte in der Kugel um x (0) mit Radius r. Daher muss r hinreichend groß sein, denn sonst kann man x nicht erreichen. Wir fordern daher zusätzlich t k =. (3) Beispiel 2.2 : Ist t k = 2, k = 0, 1,..., so sind die Bedingungen (2) und (3) erfüllt. Wendet man das Subgradientenverfahren auf die Funktion f(x) = x mit dem Startpunkt x (0) = 5 an und stoppt nach 45 Iterationen, wird der beste Funktionswert in Iteration 38 erreicht. Die Folge der Funktionswerte ist nicht monoton fallend und das Abbruchkriterium ist nie erfüllt: i=0 k x (k) k x (k) k x (k)
5 Um für das Verfahren eine Konvergenzaussage zu erhalten, benötigen wir einige Hilfsresultate. Lemma 2.3 : Ist t k eine Folge positiver Zahlen mit (2), (3) und τ m := m t k, ρ m := m t 2 k m N ρ m dann folgt lim = 0. m τ m Lemma 2.4 : Ist f : R n R eine konvexe Funktion, x, z R n mit f(z) > f( x), 0 s f(z) und H z := {x R n s, x z = 0}, dann hat das Optimierungsproblem 1 min x H z 2 x x 2 (4) die eindeutig bestimmte Lösung ˆx = x + λs mit λ = s, z x s 2. Weiter ist λ > 0, ˆx x = λ s und f(ˆx) f(z). Beweis: H z ist nichtleer, abgeschlossen und konvex. p(x) = 1 2 x x 2 ist differenzierbar und konvex. Weiterhin lässt sich (4) in der Form (PL) schreiben min p(x) wobei s, x z = 0. Daher ist nach Satz ˆx R n genau dann Lösung, wenn es einen Lagrange- Multiplikator λ R gibt mit p(ˆx) λs = ˆx x λs = 0, s, ˆx z = 0. Daraus folgt ˆx = x + λs und daher Also 0 = s, x + λs z = s, x z + λ s 2. λ = s, z x s 2. Aus der Voraussetzung f(z) > f( x) und der Subgradientenungleichung für s folgt 0 > f( x) f(z) s, x z. Also ist λ > 0 und daher gilt ˆx x = λs = λ s. Die Subgradientenungleichung liefert f(ˆx) f(z) s, ˆx z = 0. 4
6 Da die Folge der Funktionswerte beim Subgradientenverfahren nicht monoton fallend sein muss, definieren wir die Folge der besten Funktionswerte { f k } durch f k := min{f(x (i) ) i = 0, 1,..., k}. Satz 2.5 : Ist f : R n R konvex, erfüllt die Schrittweitenfolge {t k } die Bedingungen (2) und (3) und stoppt das Subgradientenverfahren nicht nach endlich vielen Schritten, dann gilt wobei f = sein kann. lim k f k = f := inf x R n f(x), Beweis: Angenommen die Behauptung ist falsch. Dann gibt es ein x R n und ein η > 0 mit f(x (k) ) f k f( x) + η k N 0. Wie im Beweis von Lemma 2.1 folgt für k N x () x 2 = x (k) x 2 2t k b k + t 2 k mit b k = s (k) / s (k), x (k) x. Nach Lemma 2.4 angewandt mit z = x (k), s = s (k) ist λ = b k / s (k) > 0 und daher auch b k > 0 für alle k N 0. Wir definieren δ m := min b k für m 1.,...,m Dann ist für k = 0,..., m x () x 2 x (k) x 2 2t k δ m + t 2 k. Bildet man die Summe dieser Ungleichungen erhält man Also gilt x (m+1) x 2 + 2δ m 2δ m m und daher ist nach Lemma 2.3 m t k x (0) x 2 + t k x (0) x 2 + lim δ m = 0. m m t 2 k m t 2 k. Sei nun k(m) {0,..., m} ein Index mit δ m = b k(m) und K := {k(m) m 1}. Dann gilt lim l K b l = 0. 5
7 Daher gibt es ein M > 0 mit 0 b l M für alle l K. Nach Lemma 2.4 angewandt mit z = x (l), s = s (l) 1 hat das Optimierungsproblem min x x 2 x H 2 mit H := H x (l) = {x R n s (l), x x (l) = 0} die eindeutig bestimmte Lösung und es gilt ˆx (l) = x + λ l s (l) mit λ l = s(l), x (l) x s (l) 2 = b l s (l) x ˆx (l) = b l M l K. Aufgrund der Lipschitzstetigkeit von f auf B( x, M) gibt es ein L > 0 mit f( x) f(ˆx (l) ) L x ˆx (l) = Lb l l K. Aus Lemma 2.4 und der Annahme folgt weiterhin f(ˆx (l) ) f(x (l) ) > f( x) und daher 0 f(x (l) ) f( x) f(ˆx (l) ) f( x) Lb l l K. Mit lim l K b l = 0 folgt im Widerspruch zur Annahme. lim f(x (l) ) f( x) = 0 l K 6
8 3 Numerische Beispiele Wir testen das Verfahren zunächst an der Wolfe-Funktion mit dem Startpunkt (5, 4) T und wählen t k = x () x (k) < tolx oder s (k) < tolg als Abbruchkriterium mit tolx = tolg = 10 2, wobei das zweite Kriterium in der Regel nie erfüllt sein wird. Wir testen die drei Schrittweiten i, i = 1, 2, 3. Der eindeutig bestimmte Minimalpunkt der Wolfe-Fuktion ist ( 1, 0) T. t k Iter. beste Approximation Norm des Subgrad x (215) = ( , ) s (215) = x (186) = ( , ) s (186) = x (1000) = ( , ) s (1000) = Die Abbildungen im Anhang zeigen den Ablauf der Iterationen. Die Folge {x (k) } konvergiert in allen 3 Fällen gegen den Minimalpunkt. Man sieht aber auch, dass die Konvergenz sehr langsam sein kann und die Folge der berechneten Funktionwerte nicht monoton fallend ist. Als weiteres Beispiel betrachten wir die konvexe und nichtglatte Maxq-Funktion f(x) = max 1 i n x2 i für n = 20 mit dem Minimalpunkt x = 0. Wir testen das Verfahren mit den Startpunkten u = (1,..., 10, 11,..., 20) T und v = (1,..., 20) T. Nach 1000 Iterationen ergeben sich folgende Werte, wobei jeweils in der letzten Iteration der beste Funktionswert erreicht wurde: Startpunkt t k bester Funktionswert u u v v v
9 Die Beispiele zeigen, dass die Wahl der Schrittweite sehr entscheidend ist. Weiterhin kann man keine gute Konvergenz erwarten. Dies liegt daran, dass das Subgradientenverfahren im Allgemeinen schlechter als linear konvergiert. Angenommen die Voraussetzungen von Satz 2.5 seien erfüllt und die Folge x (k) konvergiert linear gegen den Minimalpunkt x. Dann gibt es ein 0 < q < 1 mit Dann gilt und mit M := x (0) x x () x q x (k) x k 0. x (k) x q k x (0) x k 0 t k = x () x (k) x () x + x (k) x M(q + 1)q k für k 0. Daraus folgt t k M(q + 1) q k = M(q + 1) 1 q < was im Widerspruch zur Bedingung (3) steht. 8
10 Folgende Sätze aus dem Buch bzw. den vorherigen Vorträgen wurden benutzt: Satz : Ist die Funktion f ConvR n in x int(domf) differenzierbar, dann gilt f (x, d) = f(x), d d R n, und f(x) = { f(x)} ist einelementig. Satz : Ein Punkt x C ist genau dann Lösung von (PL), wenn es Langrangemultiplikatoren λ R m und µ R p zu x gibt. 9
Konvexe Optimierungsprobleme
von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel
Das Gradientenverfahren
Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1
Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Seminarvortrag: Trust-Region-Verfahren
Seminarvortrag: Trust-Region-Verfahren Helena Klump Universität Paderborn Dezember 2012 Helena Klump 1 / 22 Trust-Region-Verfahren Problemstellung Sei die Funktion f : R n R gegeben. Betrachtet wird das
Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 1 Newton Verfahren Taylor Approximation 1. Ordnung von Newton Verfahren! 0 Setze 0und berechne Löse lineares Gleichungssystem für : 2
Das Trust-Region-Verfahren
Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein
Konvexe Mengen und Funktionen
Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf
Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer
Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für
Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh ([email protected]) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
Optimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
5.3.5 Abstiegs & Gradientenverfahren
5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3.5 Abstiegs & Gradientenverfahren Die bisher kennengelernten Iterationsverfahren zur Approximation von linearen Gleichungssystemen haben
TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09
................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT
Kontinuierliche Optimierung
Kontinuierliche Optimierung Markus Herrich Wintersemester 2018/19 ii Inhaltsverzeichnis 2 Optimalitäts- und Regularitätsbedingungen 1 2.1 Einleitung und Wiederholung.................... 1 2.2 Optimalitätsbedingungen
18.4 Das Newton-Verfahren
18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift
Optimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
12. Trennungssätze für konvexe Mengen 83
12. Trennungssätze für konvexe Mengen 83 C_1 C_2 a Abbildung 12.4. Trennung konvexer Mengen durch eine Hyperebene mit Normalenvektor a Dann ist int(c) nicht leer (warum?) und [als Minkowski-Summe von C
Analysis I. Guofang Wang Universität Freiburg
Universität Freiburg 30.11.2016 5. Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,..., x n ) : x i R} = } R. {{.. R }. n mal Für x R ist x der Abstand zum
Nichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.
Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x
Innere-Punkt-Methoden
Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction
Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 5 Optimierung mit Nebenbedingungen 1 Minimierung mit Gleichheitsrestriktionen Gegeben: Funktion,,,, : Ziel:,,, Unrestringierter Fall: Notwendige Bedingung für lokales Minimum keine
NICHTRESTRINGIERTE OPTIMIERUNG
3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene
Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1
Inhaltsverzeichnis 1 Inhaltsverzeichnis Innere-Punkte-Verfahren 3 1 Theoretische Grundlagen 3 1.1 Die KKT-Bedingungen........................... 3 1.2 Der zentrale Pfad.............................. 4
Analysis I für Studierende der Ingenieurwissenschaften
Analysis I für Studierende der Ingenieurwissenschaften Ingenuin Gasser Department Mathematik Universität Hamburg Technische Universität Hamburg Harburg Wintersemester 2008/2009 1 Definition: Sei M R, alsom
Seminar Gewöhnliche Differentialgleichungen
Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden
KAPITEL 10 DIE INNERE-PUNKTE-METHODE
KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach
Lagrange-Relaxierung und Subgradientenverfahren
Lagrange-Relaxierung und Subgradientenverfahren Wir wollen nun eine Methode vorstellen, mit der man gegebene Relaxierungen verbessern kann. Wir werden die Idee zunächst an der 1-Baum-Relaxierung des symmetrischen
6 Die Bedeutung der Ableitung
6 Die Bedeutung der Ableitung 24 6 Die Bedeutung der Ableitung Wir wollen in diesem Kapitel diskutieren, inwieweit man aus der Kenntnis der Ableitung Rückschlüsse über die Funktion f ziehen kann Zunächst
Einführung in die nichtlineare Optimierung
Einführung in die nichtlineare Optimierung Prof. Dr. Walter Alt Semester: SS 2010 1 Vorwort Dieses Dokument wurde als Skript für die auf der Titelseite genannte Vorlesung erstellt und wird jetzt im Rahmen
5 Teilmengen von R und von R n
5 Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,...,x n ) : x i R} = R }... {{ R }. n mal Für x R ist x der Abstand zum Nullpunkt. Die entsprechende Verallgemeinerung
4 Differenzierbarkeit einer konjugierten Funktion
4 Differenzierbarkeit einer konjugierten Funktion (Eingereicht von Corinna Vits) 4.1 Differenzierbarkeit 1.Ordnung Theorem 4.1.1: Sei f ConvR n strikt konvex. Dann ist int dom und f ist stetig differenzierbar
4. Folgen. Folge in R 2 mit Grenzwert (1, 1 2 ).
8 4. Folgen Im Folgenden sei X = K n (oder ein K-Vektorraum) mit der Norm.(Eslangtvöllig,sichden Fall X = R 2 vorzustellen.) Auf R bzw. C verwenden wir als Norm stets den Betrag. 4.. Definition. Eine Folge
zul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) =
2. Grundlagen der nicht-linearen konvexen Optimierung 2.1. Die Karush-Kuhn-Tucker Bedingungen. Unser Basisproblem (NLO) sei geben durch min f(x) NLO g i (x) 0, i I = {1,..., m} x R n f, g i stetig differenzierbar.
Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems
Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest
NICHTLINEARE OPTIMIERUNG
NICHTLINEARE OPTIMIERUNG Vorlesungsskript, Wintersemester 2015/16 Christian Clason Stand vom 21. März 2016 Fakultät für Mathematik Universität Duisburg-Essen INHALTSVERZEICHNIS I GRUNDLAGEN 1 grundlagen
Optimierungstheorie Scheinklausur Sommersemester Juli 2007
Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur
KAPITEL 3. Konvexe Funktionen
KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn
Lösungen der Übungsaufgaben von Kapitel 3
Analysis I Ein Lernbuch für den sanften Wechsel von der Schule zur Uni 1 Lösungen der Übungsaufgaben von Kapitel 3 zu 3.1 3.1.1 Bestimmen Sie den Abschluss, den offenen Kern und den Rand folgender Teilmengen
Optimale Steuerung 1
Optimale Steuerung 1 Kapitel 6: Nichtlineare Optimierung unbeschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Parameteranpassung für Phasengleichgewicht
Von Skalarprodukten induzierte Normen
Von Skalarprodukten induzierte Normen Niklas Angleitner 4. Dezember 2011 Sei ein Skalarproduktraum X,, gegeben, daher ein Vektorraum X über C bzw. R mit einer positiv definiten Sesquilinearform,. Wie aus
1 Die direkte Methode der Variationsrechnung
Die direkte Methode der Variationsrechnung Betrachte inf I(u) = f(x, u(x), u(x)) dx : u u + W,p () wobei R n, u W,p mit I(u ) < und f : R R n R. (P) Um die Existenz eines Minimierers direkt zu zeigen,
Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }
A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder
1. Aufgabe [2 Punkte] Seien X, Y zwei nicht-leere Mengen und A(x, y) eine Aussageform. Betrachten Sie die folgenden Aussagen:
Klausur zur Analysis I svorschläge Universität Regensburg, Wintersemester 013/14 Prof. Dr. Bernd Ammann / Dr. Mihaela Pilca 0.0.014, Bearbeitungszeit: 3 Stunden 1. Aufgabe [ Punte] Seien X, Y zwei nicht-leere
Rechenoperationen mit Folgen. Rekursion und Iteration.
Rechenoperationen mit Folgen. Die Menge aller Folgen in V bildet einen Vektorraum, V N, für den die Addition und skalare Multiplikation wie folgt definiert sind. (a n ) n N + (b n ) n N := (a n + b n )
Ein Filter-Trust-Region Verfahren zum Lösen nichtlinearer Zulässigkeitsprobleme mit teuren Funktionen
Ein Filter-Trust-Region Verfahren zum Lösen nichtlinearer Zulässigkeitsprobleme mit teuren Funktionen Markus Kaiser 1, Alexander Thekale 2 1 Arbeitsgruppe Optimierung & Approximation Bergische Universität
4 Messbare Funktionen
4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und
Kapitel 5 Nichtlineare Gleichungssysteme und Iterationen
Kapitel 5 Nichtlineare Gleichungssysteme und Iterationen Wir betrachten das System f() = 0 von n skalaren Gleichungen f i ( 1,..., n ) = 0, i = 1,..., n. Gesucht: Nullstelle von f() = 0. Es sei (0) eine
4 Funktionenfolgen und normierte Räume
$Id: norm.tex,v 1.57 2018/06/08 16:27:08 hk Exp $ $Id: jordan.tex,v 1.34 2018/07/12 20:08:29 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Am Ende der letzten Sitzung hatten wir zwei
Lösungsvorschläge für das 5. Übungsblatt
Lösungsvorschläge für das 5. Übungsblatt Aufgabe 6 a) Sei = [0, ], f(x) := [e x ] für x. Hierbei ist [y] := maxk Z k y} für y. Behauptung: f ist messbar und es ist f(x) dx = 2 log 2. falls x [0, log 2),
Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung
Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Dr. Gerhard Mülich Christian Maaß 6.Mai 8 Im letzten Vortrag haben wir gesehen, dass das
Kapitel 3. Konvergenz von Folgen und Reihen
Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden
GRUNDLAGEN MATHEMATIK
Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik GRUNDLAGEN MATHEMATIK 2. Folgen Prof. Dr. Gunar Matthies Wintersemester 2015/16 G. Matthies Grundlagen Mathematik
4 Holomorphie-Konvexität. Definition Satz. 42 Kapitel 2 Holomorphiegebiete
42 Kapitel 2 Holomorphiegebiete 4 Holomorphie-Konvexität Wir wollen weitere Beziehungen zwischen Pseudokonvexität und affiner Konvexität untersuchen. Zunächst stellen wir einige Eigenschaften konvexer
7. Nichtlineare Gleichngssysteme. Problem 7: Sei f : R n R n stetig. Löse f(x) = 0.
7. Nichtlineare Gleichngssysteme Problem 7: Sei f : R n R n stetig. Löse f(x) = 0. Das Gleichungssystem f(x) = 0 lässt sich in die Fixpunktgleichung x = φ(x) umschreiben, wobei φ : D R n R n. Beispielsweise
Vortrag 20: Kurze Vektoren in Gittern
Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die
5 Stetigkeit und Differenzierbarkeit
5 Stetigkeit und Differenzierbarkeit 5.1 Stetigkeit und Grenzwerte von Funktionen f(x 0 ) x 0 Graph einer stetigen Funktion. Analysis I TUHH, Winter 2006/2007 Armin Iske 127 Häufungspunkt und Abschluss.
Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren
Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren
Höhere Mathematik für Physiker II
Universität Heidelberg Sommersemester 2013 Wiederholungsblatt Übungen zur Vorlesung Höhere Mathematik für Physiker II Prof Dr Anna Marciniak-Czochra Dipl Math Alexandra Köthe Fragen Machen Sie sich bei
z k Anwendung des Quotientenkriteriums ergibt z k+1 (k + 1)! z k+1 k! = z k (k + 1)! = z k + 1
Beispiel: Wir untersuchen die Konvergenz der Reihe k=1 z k k! (z C) Anwendung des Quotientenkriteriums ergibt z k+1 (k + 1)! z k z k+1 k! = z k (k + 1)! = z k + 1 k! Damit konvergiert die Reihe (absolut)
Numerische Optimierung
Numerische Optimierung 6 In den ersten fünf Kapiteln dieses Skriptes haben wir Grundaufgaben der biomedizinischen Bildgebung eingeführt, im Sinne von Variationsmethoden modelliert und ihre Analyse in geeigneten
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra
Skript zur Vorlesung. Optimierung. gelesen von. Prof. Dr. S. Volkwein
Skript zur Vorlesung Optimierung gelesen von Prof. Dr. S. Volkwein Konstanz, Sommersemester 2009 Inhaltsverzeichnis 1 Einleitung 3 2 Optimalitätskriterien 4 2.1 Allgemeiner Fall.........................................
Übungen zur Funktionalanalysis Lösungshinweise Blatt 2
Übungen zur Funktionalanalysis Lösungshinweise Blatt 2 Aufgabe 5. Beweisen Sie: Ein kompakter Hausdorffraum, welcher dem ersten Abzählbarkeitsaxiom genügt, ist folgenkompakt. Lösung. Es sei X ein kompakter
Vollständigkeit. 1 Konstruktion der reellen Zahlen
Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente
ANALYSIS I FÜR TPH WS 2018/19 3. Übung Übersicht
ANALYSIS I FÜR TPH WS 208/9 3. Übung Übersicht Aufgaben zu Kapitel 5 und 6 Aufgabe : Konvergenz von Reihen (i) Aufgabe 2: Konvergenz von Reihen (ii) Aufgabe 3: ( ) Konvergenz von Reihen (iii) Aufgabe 4:
Analyis I -Metrische Räume - eine Einführung in die Topologie
Analyis I -Metrische Räume - eine Einführung in die Topologie E = E isolierter Punkte x 1 x 2 x 3 E ist abgeschlossen U ɛ (x) x innerer Punkt Ω Häufungspunkte Ω Metrik Metrische Räume Definition Sei X
Skript zur Vorlesung. Optimierung. gelesen von. Prof. Dr. S. Volkwein
Skript zur Vorlesung Optimierung gelesen von Prof. Dr. S. Volkwein Konstanz, Sommersemester 2011 Inhaltsverzeichnis 1 Einleitung 3 2 Optimalitätskriterien 4 2.1 Allgemeiner Fall.........................................
VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.
IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei
Analysis I - Stetige Funktionen
Kompaktheit und January 13, 2009 Kompaktheit und Funktionengrenzwert Definition Seien X, d X ) und Y, d Y ) metrische Räume. Desweiteren seien E eine Teilmenge von X, f : E Y eine Funktion und p ein Häufungspunkt
(c) (a) X ist abgeschlossen. X = A,wobeiderDurchschnittüberalleabgeschlossenenMengengebildet wird, die X enthalten. (d) (e)
27 15. Metrische Räume Mit Hilfe einer Norm können wir den Abstand x y zweier Punkte x, y messen. Eine Metrik ist eine Verallgemeinerung dieses Konzepts: 15.1. Metriken. Es sei M eine beliebige Menge.
Übungsblatt 2 - Analysis 2, Prof. G. Hemion
Tutor: Martin Friesen, [email protected] Übungsblatt 2 - Analysis 2, Prof. G. Hemion Um die hier gestellten Aufgaben zu lösen brauchen wir ein wenig Kentnisse über das Infimum bzw. Supremum einer Menge.
2.4 Verallgemeinerte Ungleichungen
2.4 Verallgemeinerte Ungleichungen 2.4.1 Eigentliche Kegel und verallgemeinerte Ungleichungen Ein Kegel K R heißt eigentlicher Kegel, wenn er die folgenden Bedingungen erfüllt: K ist konvex K ist abgeschlossen
5 Numerische Iterationsverfahren
In diesem Kapitel besprechen wir numerische Iterationsverfahren (insbesondere Fixpunktverfahren) als eine weitere Lösungsmethode zur Lösung von linearen Gleichungssystemen (Kapitel 4) sowie zur Lösung
Nichtlineare Gleichungssysteme
Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei
Ferienkurs Seite 1. Technische Universität München Ferienkurs Analysis 1 Stetigkeit, Konvergenz, Topologie
Ferienkurs Seite Technische Universität München Ferienkurs Analysis Hannah Schamoni Stetigkeit, Konvergenz, Topologie Lösung 2.03.202. Gleichmäßige Konvergenz Entscheiden Sie, ob die folgenden auf (0,
(a) Welche der folgenden Funktionen ist injektiv, surjektiv beziehungsweise bijektiv? x 1 + x
Aufgabe Injektiv und Surjektiv) a) Welche der folgenden Funktionen ist injektiv, surjektiv beziehungsweise bijektiv?. f : Z N; x x 2. 2. f : R R; x x x.. f : R [, ]; x sin x. 4. f : C C; z z 4. b) Zeigen
Numerische Verfahren zur Lösung der Monge-Ampère-Gleichung, Teil II
für zur Lösung der Monge-Ampère-Gleichung, Teil II Andreas Platen Institut für Geometrie und Praktische Mathematik RWTH Aachen Seminar zur Approximationstheorie im Wintersemester 2009/2010 1 / 27 Gliederung
9 Metrische und normierte Räume
9 Metrische und normierte Räume Idee: Wir wollen Abstände zwischen Punkten messen. Der Abstand soll eine reelle Zahl 0 sein (ohne Dimensionsangabe wie Meter...). 9.1 Definition Sei X eine Menge. Eine Metrik
Lineare und nichtlineare Optimierung
Lineare und nichtlineare Optimierung AXEL DREVES Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Universität der Bundeswehr München Werner-Heisenberg-Weg 39 85577 Neubiberg/München
Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016
Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.
Wiederholungsklausur zur Analysis I
Wiederholungsklausur zur Analysis I Prof. Dr. C. Löh/M. Blank 5. Oktober 2011 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen Sie, ob Sie alle Seiten erhalten
Inexakte Newton Verfahren
Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n
Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript
Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript Janko Latschev Fachbereich Mathematik Universität Hamburg www.math.uni-hamburg.de/home/latschev Hamburg,
Modulprüfung Numerische Mathematik 1
Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel
Kommutativität. De Morgansche Regeln
1. Formale Logik Proposition 1.1. Die logischen Elementarverknüpfungen gehorchen folgenden Äquivalenzen: (1.1) (1.2) p p p p p p Idempotenz (1.3) (1.4) p q q p p q q p Kommutativität (1.5) (1.6) (p q)
3 Numerische Behandlung der Tschebyscheff-Approximation
Approximationstheorie 81 3 Numerische Behandlung der Tschebyscheff-Approximation Die Bestapproximation bezüglich einer Funktion f C(K) aus einem Haarschen Unterraum V C(K) läßt sich i.a. nicht in geschlossener
eine Folge in R, für die man auch hätte schreiben können, wenn wir alle richtig raten, was auf dem Pünktchen stehen sollte.
Analysis, Woche 5 Folgen und Konvergenz A 5. Cauchy-Folgen und Konvergenz Eine Folge in R ist eine Abbildung von N nach R und wird meistens dargestellt durch {x n } n=0, {x n} n N oder {x 0, x, x 2,...
13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
Seminar: Finanzmathematik. Portfoliooptimierung im vollständigen Finanzmarktmodell. Katharina Hasow
Seminar: Finanzmathematik Portfoliooptimierung im vollständigen Finanzmarktmodell Katharina Hasow 11. Mai 2010 1 Inhaltsverzeichnis 1 Einführung 1 1.1 Nutzenfunktion............................ 1 1.2 Formulierung
Nichtlineare Optimierung ohne Nebenbedingungen
Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt
NEXTLEVEL I, Analysis I
NEXTLEVEL I, Analysis I Hanna Peywand Kiani Wintersemester 9/ Die ins Netz gestellten Kopien der Folien sollen nur die Mitarbeit während der Veranstaltung erleichtern. Ohne die in der Veranstaltung gegebenen
Numerische Verfahren und Grundlagen der Analysis
Numerische Verfahren und Grundlagen der Analysis Rasa Steuding Hochschule RheinMain Wiesbaden Wintersemester 2011/12 R. Steuding (HS-RM) NumAna Wintersemester 2011/12 1 / 26 1. Folgen R. Steuding (HS-RM)
