Das Subgradientenverfahren

Größe: px
Ab Seite anzeigen:

Download "Das Subgradientenverfahren"

Transkript

1 Das Subgradientenverfahren Seminar Optimierung WS 05/06 Betreuer: Prof. F. Jarre von Jalo Liljo

2 Das Subgradientenverfahren Das Ziel dieses Vortrags ist die Berechnung einer Lösung des unrestringierten Optimierungsproblems (P U) min x R n f(x), wobei f : R n R eine auf dem ganzen R n endliche und konvexe Funktion ist. Dazu betrachten wir eine Verallgemeinerung des Gradientenverfahrens. 1 Das Verfahren Erinnerung: Für eine Funktion f ConvR n nennen wir einen Vektor s R n Subgradient von f in x, wenn f(y) f(x) + s, y x y R n gilt. Mit f(x) bezeichnet man die Menge aller Subgradienten in x. Der Unterschied zum Gradientenverfahren ist, dass man im k-ten Iterationsschritt die Suchrichtung d (k) = s (k) mit einem beliebigen s (k) f(x (k) ) benutzt. Ist f differenzierbar so gilt wegen Satz d (k) = f(x (k) ). Verfahren 1.1 : Subgradientenverfahren Wähle einen Startpunkt x (0) R n und setze k := Berechne einen Subgradienten s (k) f(x (k) ). 2. Abbruchkriterium: Ist s (k) = 0 (d.h. 0 f(x (k) )), dann STOP. 3. Setze d (k) = s (k) / s (k). Wähle t k > 0 und setze x () := x (k) + t k d (k). 4. k:=, GOTO 1. Anwendung des Verfahrens auf die Wolfe-Funktion mit einem Startpunkt x (0) aus der Menge S = {(x 1, x 2 ) T R 2 x 1 > x 2 > ( 9 16 )2 x 1 } und einer Line Search zur Schrittweitenwahl, liefert dieselbe Iterationsfolge wie das Gradientenverfahren, welche nicht gegen nicht gegen x opt konvergiert. Also sind weitere Voraussetzungen an die Schrittweite nötig. 1

3 Weitere Nachteile des Verfahrens: Wie das folgende Beispiel zeigt muss s (k) keine Abstiegsrichtung sein. Daher muss die Folge {f(x (k) )} nicht monoton fallend sein und man erhält kein Abstiegsverfahren. Weiterhin ist das Abbruchkriterium praktisch nie erfüllt. Beispiel 1.2 : Das Minimum der Funktion f(x) = x ist x = 0 und es gilt [ 1, 1] f(0). Wählt man s (0) 0 und startet in x (0) = 0, ist das Abbruchkriterium nicht erfüllt und man entfernt sich von x. 2 Konvergenzbetrachtungen Das folgende Lemma liefert die grundlegende Idee für die Schrittweitenwahl. Lemma 2.1 : Ist f : R n R eine konvexe Funktion, x ein beliebiger Minimalpunkt von f und x (k) kein Minimalpunkt, dann gibt es ein T k > 0, so dass für das Verfahren 1.1 gilt x () x < x (k) x t k ]0, T k [. (1) Beweis: Für ein beliebiges t k > 0 gilt Daraus folgt mit x () x 2 = x (k) t ks (k) s (k) x 2 = x (k) x 2 2t k s(k) s (k), x(k) x + t 2 k s(k) s (k) 2. x () x 2 = x (k) x 2 2t k b k + t 2 k b k = s(k) s (k), x(k) x. Wegen f(x ) < f(x (k) ) und s (k) f(x (k) ) folgt aus der Subgradientenungleichung 0 > f(x ) f(x (k) ) s (k), x x (k) = b k s (k). Also ist b k > 0 und daher 2t k b k + t 2 k < 0 für 0 < t k < T k := 2b k, woraus (1) folgt. b k > 0 bedeutet gerade, dass der Winkel zwischen der Richtung s (k) und der idealen Richtung x x (k) im Punkt x (k) kleiner als 90 ist. Wenn man sich also von x (k) nicht zu weit in Richtung s (k) bewegt, liegt x () näher bei x als x (k), wenn T k > 0 hinreichend klein ist. 2

4 Also muss die Schrittweite t k hinreichend klein sein damit (1) gilt. Daher verlangt man lim t k = 0. (2) k Diese Bedingung reicht aber noch nicht aus, denn ist r := t k <, so gilt k 1 k 1 x (0) x (k) x (i) x (i+1) = t i d (k) r. i=0 Also liegen alle Iterationspunkte in der Kugel um x (0) mit Radius r. Daher muss r hinreichend groß sein, denn sonst kann man x nicht erreichen. Wir fordern daher zusätzlich t k =. (3) Beispiel 2.2 : Ist t k = 2, k = 0, 1,..., so sind die Bedingungen (2) und (3) erfüllt. Wendet man das Subgradientenverfahren auf die Funktion f(x) = x mit dem Startpunkt x (0) = 5 an und stoppt nach 45 Iterationen, wird der beste Funktionswert in Iteration 38 erreicht. Die Folge der Funktionswerte ist nicht monoton fallend und das Abbruchkriterium ist nie erfüllt: i=0 k x (k) k x (k) k x (k)

5 Um für das Verfahren eine Konvergenzaussage zu erhalten, benötigen wir einige Hilfsresultate. Lemma 2.3 : Ist t k eine Folge positiver Zahlen mit (2), (3) und τ m := m t k, ρ m := m t 2 k m N ρ m dann folgt lim = 0. m τ m Lemma 2.4 : Ist f : R n R eine konvexe Funktion, x, z R n mit f(z) > f( x), 0 s f(z) und H z := {x R n s, x z = 0}, dann hat das Optimierungsproblem 1 min x H z 2 x x 2 (4) die eindeutig bestimmte Lösung ˆx = x + λs mit λ = s, z x s 2. Weiter ist λ > 0, ˆx x = λ s und f(ˆx) f(z). Beweis: H z ist nichtleer, abgeschlossen und konvex. p(x) = 1 2 x x 2 ist differenzierbar und konvex. Weiterhin lässt sich (4) in der Form (PL) schreiben min p(x) wobei s, x z = 0. Daher ist nach Satz ˆx R n genau dann Lösung, wenn es einen Lagrange- Multiplikator λ R gibt mit p(ˆx) λs = ˆx x λs = 0, s, ˆx z = 0. Daraus folgt ˆx = x + λs und daher Also 0 = s, x + λs z = s, x z + λ s 2. λ = s, z x s 2. Aus der Voraussetzung f(z) > f( x) und der Subgradientenungleichung für s folgt 0 > f( x) f(z) s, x z. Also ist λ > 0 und daher gilt ˆx x = λs = λ s. Die Subgradientenungleichung liefert f(ˆx) f(z) s, ˆx z = 0. 4

6 Da die Folge der Funktionswerte beim Subgradientenverfahren nicht monoton fallend sein muss, definieren wir die Folge der besten Funktionswerte { f k } durch f k := min{f(x (i) ) i = 0, 1,..., k}. Satz 2.5 : Ist f : R n R konvex, erfüllt die Schrittweitenfolge {t k } die Bedingungen (2) und (3) und stoppt das Subgradientenverfahren nicht nach endlich vielen Schritten, dann gilt wobei f = sein kann. lim k f k = f := inf x R n f(x), Beweis: Angenommen die Behauptung ist falsch. Dann gibt es ein x R n und ein η > 0 mit f(x (k) ) f k f( x) + η k N 0. Wie im Beweis von Lemma 2.1 folgt für k N x () x 2 = x (k) x 2 2t k b k + t 2 k mit b k = s (k) / s (k), x (k) x. Nach Lemma 2.4 angewandt mit z = x (k), s = s (k) ist λ = b k / s (k) > 0 und daher auch b k > 0 für alle k N 0. Wir definieren δ m := min b k für m 1.,...,m Dann ist für k = 0,..., m x () x 2 x (k) x 2 2t k δ m + t 2 k. Bildet man die Summe dieser Ungleichungen erhält man Also gilt x (m+1) x 2 + 2δ m 2δ m m und daher ist nach Lemma 2.3 m t k x (0) x 2 + t k x (0) x 2 + lim δ m = 0. m m t 2 k m t 2 k. Sei nun k(m) {0,..., m} ein Index mit δ m = b k(m) und K := {k(m) m 1}. Dann gilt lim l K b l = 0. 5

7 Daher gibt es ein M > 0 mit 0 b l M für alle l K. Nach Lemma 2.4 angewandt mit z = x (l), s = s (l) 1 hat das Optimierungsproblem min x x 2 x H 2 mit H := H x (l) = {x R n s (l), x x (l) = 0} die eindeutig bestimmte Lösung und es gilt ˆx (l) = x + λ l s (l) mit λ l = s(l), x (l) x s (l) 2 = b l s (l) x ˆx (l) = b l M l K. Aufgrund der Lipschitzstetigkeit von f auf B( x, M) gibt es ein L > 0 mit f( x) f(ˆx (l) ) L x ˆx (l) = Lb l l K. Aus Lemma 2.4 und der Annahme folgt weiterhin f(ˆx (l) ) f(x (l) ) > f( x) und daher 0 f(x (l) ) f( x) f(ˆx (l) ) f( x) Lb l l K. Mit lim l K b l = 0 folgt im Widerspruch zur Annahme. lim f(x (l) ) f( x) = 0 l K 6

8 3 Numerische Beispiele Wir testen das Verfahren zunächst an der Wolfe-Funktion mit dem Startpunkt (5, 4) T und wählen t k = x () x (k) < tolx oder s (k) < tolg als Abbruchkriterium mit tolx = tolg = 10 2, wobei das zweite Kriterium in der Regel nie erfüllt sein wird. Wir testen die drei Schrittweiten i, i = 1, 2, 3. Der eindeutig bestimmte Minimalpunkt der Wolfe-Fuktion ist ( 1, 0) T. t k Iter. beste Approximation Norm des Subgrad x (215) = ( , ) s (215) = x (186) = ( , ) s (186) = x (1000) = ( , ) s (1000) = Die Abbildungen im Anhang zeigen den Ablauf der Iterationen. Die Folge {x (k) } konvergiert in allen 3 Fällen gegen den Minimalpunkt. Man sieht aber auch, dass die Konvergenz sehr langsam sein kann und die Folge der berechneten Funktionwerte nicht monoton fallend ist. Als weiteres Beispiel betrachten wir die konvexe und nichtglatte Maxq-Funktion f(x) = max 1 i n x2 i für n = 20 mit dem Minimalpunkt x = 0. Wir testen das Verfahren mit den Startpunkten u = (1,..., 10, 11,..., 20) T und v = (1,..., 20) T. Nach 1000 Iterationen ergeben sich folgende Werte, wobei jeweils in der letzten Iteration der beste Funktionswert erreicht wurde: Startpunkt t k bester Funktionswert u u v v v

9 Die Beispiele zeigen, dass die Wahl der Schrittweite sehr entscheidend ist. Weiterhin kann man keine gute Konvergenz erwarten. Dies liegt daran, dass das Subgradientenverfahren im Allgemeinen schlechter als linear konvergiert. Angenommen die Voraussetzungen von Satz 2.5 seien erfüllt und die Folge x (k) konvergiert linear gegen den Minimalpunkt x. Dann gibt es ein 0 < q < 1 mit Dann gilt und mit M := x (0) x x () x q x (k) x k 0. x (k) x q k x (0) x k 0 t k = x () x (k) x () x + x (k) x M(q + 1)q k für k 0. Daraus folgt t k M(q + 1) q k = M(q + 1) 1 q < was im Widerspruch zur Bedingung (3) steht. 8

10 Folgende Sätze aus dem Buch bzw. den vorherigen Vorträgen wurden benutzt: Satz : Ist die Funktion f ConvR n in x int(domf) differenzierbar, dann gilt f (x, d) = f(x), d d R n, und f(x) = { f(x)} ist einelementig. Satz : Ein Punkt x C ist genau dann Lösung von (PL), wenn es Langrangemultiplikatoren λ R m und µ R p zu x gibt. 9

Konvexe Optimierungsprobleme

Konvexe Optimierungsprobleme von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel

Mehr

Das Gradientenverfahren

Das Gradientenverfahren Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Seminarvortrag: Trust-Region-Verfahren

Seminarvortrag: Trust-Region-Verfahren Seminarvortrag: Trust-Region-Verfahren Helena Klump Universität Paderborn Dezember 2012 Helena Klump 1 / 22 Trust-Region-Verfahren Problemstellung Sei die Funktion f : R n R gegeben. Betrachtet wird das

Mehr

Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 1 Newton Verfahren Taylor Approximation 1. Ordnung von Newton Verfahren! 0 Setze 0und berechne Löse lineares Gleichungssystem für : 2

Mehr

Das Trust-Region-Verfahren

Das Trust-Region-Verfahren Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein

Mehr

Konvexe Mengen und Funktionen

Konvexe Mengen und Funktionen Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf

Mehr

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh ([email protected]) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

5.3.5 Abstiegs & Gradientenverfahren

5.3.5 Abstiegs & Gradientenverfahren 5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3.5 Abstiegs & Gradientenverfahren Die bisher kennengelernten Iterationsverfahren zur Approximation von linearen Gleichungssystemen haben

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09 ................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT

Mehr

Kontinuierliche Optimierung

Kontinuierliche Optimierung Kontinuierliche Optimierung Markus Herrich Wintersemester 2018/19 ii Inhaltsverzeichnis 2 Optimalitäts- und Regularitätsbedingungen 1 2.1 Einleitung und Wiederholung.................... 1 2.2 Optimalitätsbedingungen

Mehr

18.4 Das Newton-Verfahren

18.4 Das Newton-Verfahren 18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

12. Trennungssätze für konvexe Mengen 83

12. Trennungssätze für konvexe Mengen 83 12. Trennungssätze für konvexe Mengen 83 C_1 C_2 a Abbildung 12.4. Trennung konvexer Mengen durch eine Hyperebene mit Normalenvektor a Dann ist int(c) nicht leer (warum?) und [als Minkowski-Summe von C

Mehr

Analysis I. Guofang Wang Universität Freiburg

Analysis I. Guofang Wang Universität Freiburg Universität Freiburg 30.11.2016 5. Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,..., x n ) : x i R} = } R. {{.. R }. n mal Für x R ist x der Abstand zum

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn Optimierung Vorlesung 5 Optimierung mit Nebenbedingungen 1 Minimierung mit Gleichheitsrestriktionen Gegeben: Funktion,,,, : Ziel:,,, Unrestringierter Fall: Notwendige Bedingung für lokales Minimum keine

Mehr

NICHTRESTRINGIERTE OPTIMIERUNG

NICHTRESTRINGIERTE OPTIMIERUNG 3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene

Mehr

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis Innere-Punkte-Verfahren 3 1 Theoretische Grundlagen 3 1.1 Die KKT-Bedingungen........................... 3 1.2 Der zentrale Pfad.............................. 4

Mehr

Analysis I für Studierende der Ingenieurwissenschaften

Analysis I für Studierende der Ingenieurwissenschaften Analysis I für Studierende der Ingenieurwissenschaften Ingenuin Gasser Department Mathematik Universität Hamburg Technische Universität Hamburg Harburg Wintersemester 2008/2009 1 Definition: Sei M R, alsom

Mehr

Seminar Gewöhnliche Differentialgleichungen

Seminar Gewöhnliche Differentialgleichungen Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden

Mehr

KAPITEL 10 DIE INNERE-PUNKTE-METHODE

KAPITEL 10 DIE INNERE-PUNKTE-METHODE KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach

Mehr

Lagrange-Relaxierung und Subgradientenverfahren

Lagrange-Relaxierung und Subgradientenverfahren Lagrange-Relaxierung und Subgradientenverfahren Wir wollen nun eine Methode vorstellen, mit der man gegebene Relaxierungen verbessern kann. Wir werden die Idee zunächst an der 1-Baum-Relaxierung des symmetrischen

Mehr

6 Die Bedeutung der Ableitung

6 Die Bedeutung der Ableitung 6 Die Bedeutung der Ableitung 24 6 Die Bedeutung der Ableitung Wir wollen in diesem Kapitel diskutieren, inwieweit man aus der Kenntnis der Ableitung Rückschlüsse über die Funktion f ziehen kann Zunächst

Mehr

Einführung in die nichtlineare Optimierung

Einführung in die nichtlineare Optimierung Einführung in die nichtlineare Optimierung Prof. Dr. Walter Alt Semester: SS 2010 1 Vorwort Dieses Dokument wurde als Skript für die auf der Titelseite genannte Vorlesung erstellt und wird jetzt im Rahmen

Mehr

5 Teilmengen von R und von R n

5 Teilmengen von R und von R n 5 Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,...,x n ) : x i R} = R }... {{ R }. n mal Für x R ist x der Abstand zum Nullpunkt. Die entsprechende Verallgemeinerung

Mehr

4 Differenzierbarkeit einer konjugierten Funktion

4 Differenzierbarkeit einer konjugierten Funktion 4 Differenzierbarkeit einer konjugierten Funktion (Eingereicht von Corinna Vits) 4.1 Differenzierbarkeit 1.Ordnung Theorem 4.1.1: Sei f ConvR n strikt konvex. Dann ist int dom und f ist stetig differenzierbar

Mehr

4. Folgen. Folge in R 2 mit Grenzwert (1, 1 2 ).

4. Folgen. Folge in R 2 mit Grenzwert (1, 1 2 ). 8 4. Folgen Im Folgenden sei X = K n (oder ein K-Vektorraum) mit der Norm.(Eslangtvöllig,sichden Fall X = R 2 vorzustellen.) Auf R bzw. C verwenden wir als Norm stets den Betrag. 4.. Definition. Eine Folge

Mehr

zul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) =

zul. Kurve g 1 C zul dθ (0) y = dϕ dθ (0) = 2. Grundlagen der nicht-linearen konvexen Optimierung 2.1. Die Karush-Kuhn-Tucker Bedingungen. Unser Basisproblem (NLO) sei geben durch min f(x) NLO g i (x) 0, i I = {1,..., m} x R n f, g i stetig differenzierbar.

Mehr

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest

Mehr

NICHTLINEARE OPTIMIERUNG

NICHTLINEARE OPTIMIERUNG NICHTLINEARE OPTIMIERUNG Vorlesungsskript, Wintersemester 2015/16 Christian Clason Stand vom 21. März 2016 Fakultät für Mathematik Universität Duisburg-Essen INHALTSVERZEICHNIS I GRUNDLAGEN 1 grundlagen

Mehr

Optimierungstheorie Scheinklausur Sommersemester Juli 2007

Optimierungstheorie Scheinklausur Sommersemester Juli 2007 Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Prof. Dr. Christian Wieners, Dipl.-Math. techn. Martin Sauter Institut für Angewandte und Numerische Mathematik Optimierungstheorie Scheinklausur

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

Lösungen der Übungsaufgaben von Kapitel 3

Lösungen der Übungsaufgaben von Kapitel 3 Analysis I Ein Lernbuch für den sanften Wechsel von der Schule zur Uni 1 Lösungen der Übungsaufgaben von Kapitel 3 zu 3.1 3.1.1 Bestimmen Sie den Abschluss, den offenen Kern und den Rand folgender Teilmengen

Mehr

Optimale Steuerung 1

Optimale Steuerung 1 Optimale Steuerung 1 Kapitel 6: Nichtlineare Optimierung unbeschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Parameteranpassung für Phasengleichgewicht

Mehr

Von Skalarprodukten induzierte Normen

Von Skalarprodukten induzierte Normen Von Skalarprodukten induzierte Normen Niklas Angleitner 4. Dezember 2011 Sei ein Skalarproduktraum X,, gegeben, daher ein Vektorraum X über C bzw. R mit einer positiv definiten Sesquilinearform,. Wie aus

Mehr

1 Die direkte Methode der Variationsrechnung

1 Die direkte Methode der Variationsrechnung Die direkte Methode der Variationsrechnung Betrachte inf I(u) = f(x, u(x), u(x)) dx : u u + W,p () wobei R n, u W,p mit I(u ) < und f : R R n R. (P) Um die Existenz eines Minimierers direkt zu zeigen,

Mehr

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 } A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder

Mehr

1. Aufgabe [2 Punkte] Seien X, Y zwei nicht-leere Mengen und A(x, y) eine Aussageform. Betrachten Sie die folgenden Aussagen:

1. Aufgabe [2 Punkte] Seien X, Y zwei nicht-leere Mengen und A(x, y) eine Aussageform. Betrachten Sie die folgenden Aussagen: Klausur zur Analysis I svorschläge Universität Regensburg, Wintersemester 013/14 Prof. Dr. Bernd Ammann / Dr. Mihaela Pilca 0.0.014, Bearbeitungszeit: 3 Stunden 1. Aufgabe [ Punte] Seien X, Y zwei nicht-leere

Mehr

Rechenoperationen mit Folgen. Rekursion und Iteration.

Rechenoperationen mit Folgen. Rekursion und Iteration. Rechenoperationen mit Folgen. Die Menge aller Folgen in V bildet einen Vektorraum, V N, für den die Addition und skalare Multiplikation wie folgt definiert sind. (a n ) n N + (b n ) n N := (a n + b n )

Mehr

Ein Filter-Trust-Region Verfahren zum Lösen nichtlinearer Zulässigkeitsprobleme mit teuren Funktionen

Ein Filter-Trust-Region Verfahren zum Lösen nichtlinearer Zulässigkeitsprobleme mit teuren Funktionen Ein Filter-Trust-Region Verfahren zum Lösen nichtlinearer Zulässigkeitsprobleme mit teuren Funktionen Markus Kaiser 1, Alexander Thekale 2 1 Arbeitsgruppe Optimierung & Approximation Bergische Universität

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Kapitel 5 Nichtlineare Gleichungssysteme und Iterationen

Kapitel 5 Nichtlineare Gleichungssysteme und Iterationen Kapitel 5 Nichtlineare Gleichungssysteme und Iterationen Wir betrachten das System f() = 0 von n skalaren Gleichungen f i ( 1,..., n ) = 0, i = 1,..., n. Gesucht: Nullstelle von f() = 0. Es sei (0) eine

Mehr

4 Funktionenfolgen und normierte Räume

4 Funktionenfolgen und normierte Räume $Id: norm.tex,v 1.57 2018/06/08 16:27:08 hk Exp $ $Id: jordan.tex,v 1.34 2018/07/12 20:08:29 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Am Ende der letzten Sitzung hatten wir zwei

Mehr

Lösungsvorschläge für das 5. Übungsblatt

Lösungsvorschläge für das 5. Übungsblatt Lösungsvorschläge für das 5. Übungsblatt Aufgabe 6 a) Sei = [0, ], f(x) := [e x ] für x. Hierbei ist [y] := maxk Z k y} für y. Behauptung: f ist messbar und es ist f(x) dx = 2 log 2. falls x [0, log 2),

Mehr

Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung

Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Dr. Gerhard Mülich Christian Maaß 6.Mai 8 Im letzten Vortrag haben wir gesehen, dass das

Mehr

Kapitel 3. Konvergenz von Folgen und Reihen

Kapitel 3. Konvergenz von Folgen und Reihen Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden

Mehr

GRUNDLAGEN MATHEMATIK

GRUNDLAGEN MATHEMATIK Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik GRUNDLAGEN MATHEMATIK 2. Folgen Prof. Dr. Gunar Matthies Wintersemester 2015/16 G. Matthies Grundlagen Mathematik

Mehr

4 Holomorphie-Konvexität. Definition Satz. 42 Kapitel 2 Holomorphiegebiete

4 Holomorphie-Konvexität. Definition Satz. 42 Kapitel 2 Holomorphiegebiete 42 Kapitel 2 Holomorphiegebiete 4 Holomorphie-Konvexität Wir wollen weitere Beziehungen zwischen Pseudokonvexität und affiner Konvexität untersuchen. Zunächst stellen wir einige Eigenschaften konvexer

Mehr

7. Nichtlineare Gleichngssysteme. Problem 7: Sei f : R n R n stetig. Löse f(x) = 0.

7. Nichtlineare Gleichngssysteme. Problem 7: Sei f : R n R n stetig. Löse f(x) = 0. 7. Nichtlineare Gleichngssysteme Problem 7: Sei f : R n R n stetig. Löse f(x) = 0. Das Gleichungssystem f(x) = 0 lässt sich in die Fixpunktgleichung x = φ(x) umschreiben, wobei φ : D R n R n. Beispielsweise

Mehr

Vortrag 20: Kurze Vektoren in Gittern

Vortrag 20: Kurze Vektoren in Gittern Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die

Mehr

5 Stetigkeit und Differenzierbarkeit

5 Stetigkeit und Differenzierbarkeit 5 Stetigkeit und Differenzierbarkeit 5.1 Stetigkeit und Grenzwerte von Funktionen f(x 0 ) x 0 Graph einer stetigen Funktion. Analysis I TUHH, Winter 2006/2007 Armin Iske 127 Häufungspunkt und Abschluss.

Mehr

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren

Mehr

Höhere Mathematik für Physiker II

Höhere Mathematik für Physiker II Universität Heidelberg Sommersemester 2013 Wiederholungsblatt Übungen zur Vorlesung Höhere Mathematik für Physiker II Prof Dr Anna Marciniak-Czochra Dipl Math Alexandra Köthe Fragen Machen Sie sich bei

Mehr

z k Anwendung des Quotientenkriteriums ergibt z k+1 (k + 1)! z k+1 k! = z k (k + 1)! = z k + 1

z k Anwendung des Quotientenkriteriums ergibt z k+1 (k + 1)! z k+1 k! = z k (k + 1)! = z k + 1 Beispiel: Wir untersuchen die Konvergenz der Reihe k=1 z k k! (z C) Anwendung des Quotientenkriteriums ergibt z k+1 (k + 1)! z k z k+1 k! = z k (k + 1)! = z k + 1 k! Damit konvergiert die Reihe (absolut)

Mehr

Numerische Optimierung

Numerische Optimierung Numerische Optimierung 6 In den ersten fünf Kapiteln dieses Skriptes haben wir Grundaufgaben der biomedizinischen Bildgebung eingeführt, im Sinne von Variationsmethoden modelliert und ihre Analyse in geeigneten

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

Skript zur Vorlesung. Optimierung. gelesen von. Prof. Dr. S. Volkwein

Skript zur Vorlesung. Optimierung. gelesen von. Prof. Dr. S. Volkwein Skript zur Vorlesung Optimierung gelesen von Prof. Dr. S. Volkwein Konstanz, Sommersemester 2009 Inhaltsverzeichnis 1 Einleitung 3 2 Optimalitätskriterien 4 2.1 Allgemeiner Fall.........................................

Mehr

Übungen zur Funktionalanalysis Lösungshinweise Blatt 2

Übungen zur Funktionalanalysis Lösungshinweise Blatt 2 Übungen zur Funktionalanalysis Lösungshinweise Blatt 2 Aufgabe 5. Beweisen Sie: Ein kompakter Hausdorffraum, welcher dem ersten Abzählbarkeitsaxiom genügt, ist folgenkompakt. Lösung. Es sei X ein kompakter

Mehr

Vollständigkeit. 1 Konstruktion der reellen Zahlen

Vollständigkeit. 1 Konstruktion der reellen Zahlen Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente

Mehr

ANALYSIS I FÜR TPH WS 2018/19 3. Übung Übersicht

ANALYSIS I FÜR TPH WS 2018/19 3. Übung Übersicht ANALYSIS I FÜR TPH WS 208/9 3. Übung Übersicht Aufgaben zu Kapitel 5 und 6 Aufgabe : Konvergenz von Reihen (i) Aufgabe 2: Konvergenz von Reihen (ii) Aufgabe 3: ( ) Konvergenz von Reihen (iii) Aufgabe 4:

Mehr

Analyis I -Metrische Räume - eine Einführung in die Topologie

Analyis I -Metrische Räume - eine Einführung in die Topologie Analyis I -Metrische Räume - eine Einführung in die Topologie E = E isolierter Punkte x 1 x 2 x 3 E ist abgeschlossen U ɛ (x) x innerer Punkt Ω Häufungspunkte Ω Metrik Metrische Räume Definition Sei X

Mehr

Skript zur Vorlesung. Optimierung. gelesen von. Prof. Dr. S. Volkwein

Skript zur Vorlesung. Optimierung. gelesen von. Prof. Dr. S. Volkwein Skript zur Vorlesung Optimierung gelesen von Prof. Dr. S. Volkwein Konstanz, Sommersemester 2011 Inhaltsverzeichnis 1 Einleitung 3 2 Optimalitätskriterien 4 2.1 Allgemeiner Fall.........................................

Mehr

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf. IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei

Mehr

Analysis I - Stetige Funktionen

Analysis I - Stetige Funktionen Kompaktheit und January 13, 2009 Kompaktheit und Funktionengrenzwert Definition Seien X, d X ) und Y, d Y ) metrische Räume. Desweiteren seien E eine Teilmenge von X, f : E Y eine Funktion und p ein Häufungspunkt

Mehr

(c) (a) X ist abgeschlossen. X = A,wobeiderDurchschnittüberalleabgeschlossenenMengengebildet wird, die X enthalten. (d) (e)

(c) (a) X ist abgeschlossen. X = A,wobeiderDurchschnittüberalleabgeschlossenenMengengebildet wird, die X enthalten. (d) (e) 27 15. Metrische Räume Mit Hilfe einer Norm können wir den Abstand x y zweier Punkte x, y messen. Eine Metrik ist eine Verallgemeinerung dieses Konzepts: 15.1. Metriken. Es sei M eine beliebige Menge.

Mehr

Übungsblatt 2 - Analysis 2, Prof. G. Hemion

Übungsblatt 2 - Analysis 2, Prof. G. Hemion Tutor: Martin Friesen, [email protected] Übungsblatt 2 - Analysis 2, Prof. G. Hemion Um die hier gestellten Aufgaben zu lösen brauchen wir ein wenig Kentnisse über das Infimum bzw. Supremum einer Menge.

Mehr

2.4 Verallgemeinerte Ungleichungen

2.4 Verallgemeinerte Ungleichungen 2.4 Verallgemeinerte Ungleichungen 2.4.1 Eigentliche Kegel und verallgemeinerte Ungleichungen Ein Kegel K R heißt eigentlicher Kegel, wenn er die folgenden Bedingungen erfüllt: K ist konvex K ist abgeschlossen

Mehr

5 Numerische Iterationsverfahren

5 Numerische Iterationsverfahren In diesem Kapitel besprechen wir numerische Iterationsverfahren (insbesondere Fixpunktverfahren) als eine weitere Lösungsmethode zur Lösung von linearen Gleichungssystemen (Kapitel 4) sowie zur Lösung

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei

Mehr

Ferienkurs Seite 1. Technische Universität München Ferienkurs Analysis 1 Stetigkeit, Konvergenz, Topologie

Ferienkurs Seite 1. Technische Universität München Ferienkurs Analysis 1 Stetigkeit, Konvergenz, Topologie Ferienkurs Seite Technische Universität München Ferienkurs Analysis Hannah Schamoni Stetigkeit, Konvergenz, Topologie Lösung 2.03.202. Gleichmäßige Konvergenz Entscheiden Sie, ob die folgenden auf (0,

Mehr

(a) Welche der folgenden Funktionen ist injektiv, surjektiv beziehungsweise bijektiv? x 1 + x

(a) Welche der folgenden Funktionen ist injektiv, surjektiv beziehungsweise bijektiv? x 1 + x Aufgabe Injektiv und Surjektiv) a) Welche der folgenden Funktionen ist injektiv, surjektiv beziehungsweise bijektiv?. f : Z N; x x 2. 2. f : R R; x x x.. f : R [, ]; x sin x. 4. f : C C; z z 4. b) Zeigen

Mehr

Numerische Verfahren zur Lösung der Monge-Ampère-Gleichung, Teil II

Numerische Verfahren zur Lösung der Monge-Ampère-Gleichung, Teil II für zur Lösung der Monge-Ampère-Gleichung, Teil II Andreas Platen Institut für Geometrie und Praktische Mathematik RWTH Aachen Seminar zur Approximationstheorie im Wintersemester 2009/2010 1 / 27 Gliederung

Mehr

9 Metrische und normierte Räume

9 Metrische und normierte Räume 9 Metrische und normierte Räume Idee: Wir wollen Abstände zwischen Punkten messen. Der Abstand soll eine reelle Zahl 0 sein (ohne Dimensionsangabe wie Meter...). 9.1 Definition Sei X eine Menge. Eine Metrik

Mehr

Lineare und nichtlineare Optimierung

Lineare und nichtlineare Optimierung Lineare und nichtlineare Optimierung AXEL DREVES Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Universität der Bundeswehr München Werner-Heisenberg-Weg 39 85577 Neubiberg/München

Mehr

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016 Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.

Mehr

Wiederholungsklausur zur Analysis I

Wiederholungsklausur zur Analysis I Wiederholungsklausur zur Analysis I Prof. Dr. C. Löh/M. Blank 5. Oktober 2011 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen Sie, ob Sie alle Seiten erhalten

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript

Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript Janko Latschev Fachbereich Mathematik Universität Hamburg www.math.uni-hamburg.de/home/latschev Hamburg,

Mehr

Modulprüfung Numerische Mathematik 1

Modulprüfung Numerische Mathematik 1 Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel

Mehr

Kommutativität. De Morgansche Regeln

Kommutativität. De Morgansche Regeln 1. Formale Logik Proposition 1.1. Die logischen Elementarverknüpfungen gehorchen folgenden Äquivalenzen: (1.1) (1.2) p p p p p p Idempotenz (1.3) (1.4) p q q p p q q p Kommutativität (1.5) (1.6) (p q)

Mehr

3 Numerische Behandlung der Tschebyscheff-Approximation

3 Numerische Behandlung der Tschebyscheff-Approximation Approximationstheorie 81 3 Numerische Behandlung der Tschebyscheff-Approximation Die Bestapproximation bezüglich einer Funktion f C(K) aus einem Haarschen Unterraum V C(K) läßt sich i.a. nicht in geschlossener

Mehr

eine Folge in R, für die man auch hätte schreiben können, wenn wir alle richtig raten, was auf dem Pünktchen stehen sollte.

eine Folge in R, für die man auch hätte schreiben können, wenn wir alle richtig raten, was auf dem Pünktchen stehen sollte. Analysis, Woche 5 Folgen und Konvergenz A 5. Cauchy-Folgen und Konvergenz Eine Folge in R ist eine Abbildung von N nach R und wird meistens dargestellt durch {x n } n=0, {x n} n N oder {x 0, x, x 2,...

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Seminar: Finanzmathematik. Portfoliooptimierung im vollständigen Finanzmarktmodell. Katharina Hasow

Seminar: Finanzmathematik. Portfoliooptimierung im vollständigen Finanzmarktmodell. Katharina Hasow Seminar: Finanzmathematik Portfoliooptimierung im vollständigen Finanzmarktmodell Katharina Hasow 11. Mai 2010 1 Inhaltsverzeichnis 1 Einführung 1 1.1 Nutzenfunktion............................ 1 1.2 Formulierung

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

NEXTLEVEL I, Analysis I

NEXTLEVEL I, Analysis I NEXTLEVEL I, Analysis I Hanna Peywand Kiani Wintersemester 9/ Die ins Netz gestellten Kopien der Folien sollen nur die Mitarbeit während der Veranstaltung erleichtern. Ohne die in der Veranstaltung gegebenen

Mehr

Numerische Verfahren und Grundlagen der Analysis

Numerische Verfahren und Grundlagen der Analysis Numerische Verfahren und Grundlagen der Analysis Rasa Steuding Hochschule RheinMain Wiesbaden Wintersemester 2011/12 R. Steuding (HS-RM) NumAna Wintersemester 2011/12 1 / 26 1. Folgen R. Steuding (HS-RM)

Mehr