8 Iterationsverfahren zur Lösung von Gleichungssystemen
|
|
- Arwed Junge
- vor 6 Jahren
- Abrufe
Transkript
1 Numerische Mathematik Iterationsverfahren zur Lösung von Gleichungssystemen Nichtlineare Gleichungssysteme (sogar eine nichtlineare Gleichung in einer Unbekannten) müssen fast immer iterativ gelöst werden (vgl. Kapitel 1.2). Große dünnbesetzte lineare Gleichungssysteme müssen iterativ gelöst werden, weil direkte Verfahren wie die Gauß-Elimination sowohl bez. Rechenaufwand (Komplexität = O(n 3 ), n = Anzahl der Unbekannten) als auch bez. Speicherbedarf ( fill-in ) in der Regel zu kostspielig sind. 8 Iterationsverfahren zur Lösung von Gleichungssystemen Technische Universität Bergakademie Freiberg
2 Numerische Mathematik Der Banachsche Fixpunktsatz Satz 8.1 Es sei eine beliebige Norm im R n und D R n abgeschlossen. Die Selbstabbildung f : D D sei stark kontrahierend, d.h. es existiere eine Konstante L < 1 mit Dann folgt: f(x ) f(y) L x y x, y D. (8.1) (a) f besitzt genau einen Fixpunkt x in D (f(x ) = x ), (b) für jeden Startvektor x 0 D konvergiert die durch x m+1 := f(x m ) definierte Folge {x m } m 0 gegen x (Fixpunktiteration), (c) x m x Lm 1 L x 0 x 1 (d) x m x L 1 L x m x m 1 (a-priori-abschätzung), (a-posteriori-abschätzung). 8.1 Der Banachsche Fixpunktsatz Technische Universität Bergakademie Freiberg
3 Numerische Mathematik 380 Der Spezialfall n = 1: Korollar 8.2 I R sei ein abgeschlossenes Intervall, f : I I sei stark kontrahierend, d.h. L < 1 mit f(x) f(y) L x y x, y I. Dann besitzt f genau einen Fixpunkt x in I. Die Iterationsfolge {x m } m 0, x m+1 := f(x m ) (m = 0, 1, 2,...), konvergiert für beliebiges x 0 I gegen x. Es gelten die Abschätzungen x x m Lm 1 L x 0 x 1 sowie x x m L 1 L x m x m Der Banachsche Fixpunktsatz Technische Universität Bergakademie Freiberg
4 Numerische Mathematik 381 Ein Kriterium für starke Kontraktion: Ist f : D D aus C 1 (D), d.h. für die Komponentenabbildungen f i : D R sind alle partiellen Ableitungen f i x j : D R stetig (1 i, j n), und gibt es eine Matrixnorm M, so dass für die Funktionalmatrix von f, f 1 f x 1 (x ) 1 x n (x ) f (x ) =. f n x 1 (x ). f n x n (x ) L := max x D f (x ) M < 1 gilt, dann folgt Rn n (eigentlich f : D R n n ), f(x ) f(y) L x y x, y D, d.h. f ist stark kontrahierend bez. jeder Vektornorm, die mit M verträglich ist. 8.1 Der Banachsche Fixpunktsatz Technische Universität Bergakademie Freiberg
5 Numerische Mathematik 382 Für den Spezialfall n = 1 bedeutet das: L := max x I f (x) < 1, dann folgt Ist f : I I aus C 1 (I) mit f(x) f(y) = f (ξ) x y L x y x, y I, d.h. f ist stark kontrahierend. Beispiel 1. Gesucht ist eine Lösung x = [ξ, η] des Gleichungssystems x 1 = 0.7 sin x cos x 2, x 2 = 0.7 cos x sin x 2. Äquivalent: Gesucht ist ein Fixpunkt x der Abbildung [ ] [ f : R 2 R 2 x1 0.7 sin x cos x 2, x cos x sin x 2 ]. 8.1 Der Banachsche Fixpunktsatz Technische Universität Bergakademie Freiberg
6 Numerische Mathematik 383 Die Frobenius-Norm der Funktionalmatrix von f, ([ ]) [ f (x ) = f x1 0.7 cos x sin x 2 = x sin x cos x 2 ] ist (für alle x R 2 ) durch f (x ) F = (0.49 cos 2 x sin 2 x sin 2 x cos 2 x 2 ) 1/2 = ( ) 1/2 =: L gegeben. Also ist f auf ganz R 2 stark kontrahierend (mit der Kontraktionskonstanten L). f besitzt deshalb in R 2 genau einen Fixpunkt x und die Fixpunktiteration [ x (m+1) 1 x (m+1) 2 ] := f ([ x (m) 1 x (m) 2 ]) = [ (m) 0.7 sin x cos x (m) cos x (m) sin x (m) 2 konvergiert für jeden Startvektor (x (0) 1, x(0) 1 ) R 2 gegen x. ] 8.1 Der Banachsche Fixpunktsatz Technische Universität Bergakademie Freiberg
7 Numerische Mathematik 384 Wir wählen x 0 = [x (0) 1, x(0) 2 ] = [0, 0]. Frage: Wieviele Iterationsschritte m sind erforderlich, um garantieren zu können, dass x x m ? Die a-priori-abschätzung liefert was auf x x m 2 Lm 1 L x 0 x 1 2 = 0.53m/ / /2! 10 4, m + 1 ( 4 + log 10 ( /2 ))/ log 10 (0.53 1/2 ) = führt. Nach 33 Iterationsschritten ist also x x m garantiert. Die numerische Rechnung zeigt, dass dieser Fehler schon nach 21 Schritten erreicht wird. Man wird die Fixpunktiteration in der Praxis dann abbrechen, wenn die a-posteriori-schranke unter 10 4 liegt, was hier nach 22 Schritten der Fall ist. 8.1 Der Banachsche Fixpunktsatz Technische Universität Bergakademie Freiberg
8 Numerische Mathematik 385 m x (m) 1 x (m) 2 a-priori a-posteriori tats. Fehler e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e Der Banachsche Fixpunktsatz Technische Universität Bergakademie Freiberg
9 Numerische Mathematik Konvergenzordnung Definition. f : D R n, D R n, sei eine Abbildung mit dem Fixpunkt x D (f(x ) = x ). Der Fixpunkt x heißt anziehend (attraktiv), wenn es eine Kugel K ε (x ) := {x R n : x x < ε} mit ε > 0 gibt, so dass die Fixpunktiteration für jeden Startvektor aus K ε (x ) D gegen x strebt (die Fixpunktiteration ist lokal konvergent). Kriterium: (Satz von Ostrowski) x D ist ein anziehender Fixpunkt der stetig differenzierbaren Abbildung f C 1 (D), wenn (a) f(x ) = x und (b) ρ(f (x )) := max{ λ : λ ist Eigenwert von f (x )} < 1 gelten. Hinreichend für (b) ist die Existenz einer Matrixnorm M mit f (x ) M < Konvergenzordnung Technische Universität Bergakademie Freiberg
10 Numerische Mathematik 387 Im Spezialfall n = 1 ist x ein anziehender Fixpunkt der stetig differenzierbaren Funktion f : I R, wenn f(x ) = x und f (x ) < 1 erfüllt sind <f (x)< <f (x)< f (x) >1 8.2 Konvergenzordnung Technische Universität Bergakademie Freiberg
11 Numerische Mathematik 388 Es sei {a m } m 0 eine Nullfolge positiver reeller Zahlen. Die Folge {a m } m 0 besitzt (mindestens) die Konvergenzordnung p 1, wenn es ein C > 0 gibt mit a m+1 Ca p m für alle m m 0. Für p = 1 (lineare Konvergenz) wird zusätzlich C < 1 gefordert. Die konvergente Vektorfolge {x m } m 0 R n (x = lim m x m ) besitzt (mindestens) die Konvergenzordnung p, wenn dies für die Fehlerfolge { x x m } m 0 gilt. (Dabei ist es irrelevant, in welcher Norm die Fehler gemessen werden.) Eine Folge wie a m = 1/(m + 1) konvergiert sublinear (langsamer als linear). Gilt lim m a m+1 /a m = 0, so spricht man von superlinearer Konvergenz (schneller als linear). Jede Folge mit Konvergenzordnung p > 1 konvergiert superlinear. 8.2 Konvergenzordnung Technische Universität Bergakademie Freiberg
12 Numerische Mathematik 389 Faustregel: Eine Folge konvergiert umso schneller, je größer ihre Konvergenzordnung ist sublineare Konv lineare Konv quadratische Konv Konvergenzordnung Technische Universität Bergakademie Freiberg
13 Numerische Mathematik 390 Kriterium (für n = 1): f : [a, b] R sei aus C p [a, b] (p-mal stetig differenzierbar). Es sei f(x ) = x für ein x [a, b]. Gilt 0 = f (x ) = f (x ) =... = f (p 1) (x ), so konvergiert die Fixpunktiteration x m+1 = f(x m ) (m = 0, 1, 2,...) lokal mit (mindestens) der Ordnung p. 8.2 Konvergenzordnung Technische Universität Bergakademie Freiberg
14 Numerische Mathematik 391 Beispiel. Die Iterationsvorschrift des Newton-Verfahrens zur Bestimmung einer Nullstelle von g C 2 [a, b] lautet: x m+1 = x m g(x m) g (x m ) =: f(x m) mit der Iterationsfunktion f(x) := x g(x)/g (x). Sei g (x ) 0: Dann ist x Nullstelle von g x ist Fixpunkt von f. f (x) = 1 g (x)g (x) g(x)g (x) g (x) 2 = g(x)g (x) g (x) 2 f (x ) = 0. Für einfache Nullstellen konvergiert das Newton-Verfahren lokal (mindestens) quadratisch, d.h. mit der Ordnung p = Konvergenzordnung Technische Universität Bergakademie Freiberg
15 Numerische Mathematik Nullstellen reellwertiger Funktionen Gesucht sind Nullstellen einer (zumindest) stetigen Funktion g : [a, b] R. Gilt g(a)g(b) < 0, dann besitzt g in (a, b) (mindestens) eine Nullstelle (Zwischenwertsatz). Wir beschreiben und vergleichen drei Verfahren zur näherungsweisen Berechnung einer Nullstelle von g: das Intervallhalbierungsverfahren, das Newton-Verfahren, das Sekantenverfahren. 8.3 Nullstellen reellwertiger Funktionen Technische Universität Bergakademie Freiberg
16 Numerische Mathematik 393 Intervallhalbierungsverfahren: Setze a_0 = a und b_0 = b m = 0 while b_m-a_m > tol x =.5*(a_m+b_m) m = m+1 if g(x)*g(a_{m-1}) < 0 a_m = a_{m-1} b_m = x else a_m = x b_m = b_{m-1} end if end while 8.3 Nullstellen reellwertiger Funktionen Technische Universität Bergakademie Freiberg
17 Numerische Mathematik 394 Das Intervallhalbierungsverfahren konvergiert linear mit dem Konvergenzfaktor 1/2. Pro Iterationsschritt ist eine Funktionsauswertung erforderlich. Ist g differenzierbar, so können wir das Newton-Verfahren einsetzen (vgl. Kapitel 1.2): x m+1 = x m g(x m) g (x m ) (m = 0, 1, 2,...). Wir wissen bereits, dass es bei einfachen Nullstellen lokal quadratisch konvergiert. Der Rechenaufwand beträgt i.w. zwei Funktionsauswertungen pro Schritt (insbesondere die Auswertung der Ableitung ist in der Praxis problematisch, da g nur in Ausnahmefällen explizit bekannt ist). 8.3 Nullstellen reellwertiger Funktionen Technische Universität Bergakademie Freiberg
18 Numerische Mathematik 395 Ersetzt man im Newton-Verfahren die Tangentensteigung g (x m ) durch die Sekantensteigung g(x m) g(x m 1 ) x m x m 1, so erhält man das Sekantenverfahren x m+1 = x m x m x m 1 g(x m ) g(x m 1 ) g(x m) = x m 1g(x m ) x m g(x m 1 ) g(x m ) g(x m 1 ) (m = 0, 1, 2,...). Hier sind zwei Startwerte erforderlich. Ist g C 2 [a, b] und besitzt g eine einfache Nullstelle ζ [a, b], so konvergiert das Sekantenverfahren lokal gegen ζ mit der Konvergenzordnung (1 + 5)/2 = Jeder Iterationsschritt erfordert eine Funktionsauswertung. Beispiel. g(x) = x exp( x/2) besitzt wegen g(0.6) = und g(0.8) = eine Nullstelle in [0.6, 0.8]. 8.3 Nullstellen reellwertiger Funktionen Technische Universität Bergakademie Freiberg
19 Numerische Mathematik 396 Intervallhalbierungsverfahren: m a m b m e e e e e e e e e e e e Nullstellen reellwertiger Funktionen Technische Universität Bergakademie Freiberg
20 Numerische Mathematik 397 Erwartungsgemäß konvergieren Sekantenverfahren (Startwerte x 0 = 0.6, x 1 = 0.8) und Newton-Verfahren (Startwert x 0 = 0.6) wesentlich schneller. Wir tabellieren die resultierenden Fehler: m Sekantenverfahren Newton-Verfahren e e e e e e e-006 < eps = e e < eps = e Nullstellen reellwertiger Funktionen Technische Universität Bergakademie Freiberg
21 Numerische Mathematik Das Newton-Verfahren im R n Gesucht: Nullstelle x einer stetig differenzierbaren Funktion f : R n D R n, d.h. f(x ) = 0. Iterationsvorschrift: x m+1 = x m [f (x m )] 1 f(x m ) (m = 0, 1, 2,...) mit der Funktionalmatrix f (x ) = [ f i / (x j )(x )] 1 i,j n. Praxis. Die Inverse von f (x m ) wird nicht berechnet, sondern: a. löse das n n lineare Gleichungssystem f (x m )h = f(x m ), b. setze x m+1 = x m + h. 8.4 Das Newton-Verfahren im R n Technische Universität Bergakademie Freiberg
22 Numerische Mathematik 399 Beispiel 2 (vgl. Beispiel 1). Um die Lösung x R n von [ ] ([ ]) [ x1 x1 0.7 sin x cos x 2 = f := x 2 x cos x sin x 2 ] mit dem Newton-Verfahren berechnen zu können, müssen wir das Problem zuerst in Nullstellenform formulieren. x ist Nullstelle von etwa g(x ) = x f(x ), [ ] [ ] g : R 2 R 2 x1 x1 0.7 sin x cos x 2,. x 2 x cos x sin x 2 Es gilt: g (x ) = g ([ x1 x 2 ]) = [ cos x1 0.2 sin x sin x cos x 2 ]. 8.4 Das Newton-Verfahren im R n Technische Universität Bergakademie Freiberg
23 Numerische Mathematik 400 Folglich [g (x )] 1 = [ g ([ x1 x 2 ])] 1 = 1 D [ cos x2 0.2 sin x sin x cos x 1 ] mit der Funktionaldeterminanten D = det g (x ) = (1 0.7 cos x 1 )( cos x 2 ) 0.14 sin x 1 sin x 2 (beachte D = 0.1 > 0 x R 2, so dass g (x ) für jedes x R 2 invertierbar ist). 8.4 Das Newton-Verfahren im R n Technische Universität Bergakademie Freiberg
24 Numerische Mathematik 401 Iterationsvorschrift in unserem Beispiel: [ ] [ ] (m+1) (m) x 1 x 1 x (m+1) = 2 x (m) 2 1 D [ (m) cos x sin x (m) sin x (m) cos x (m) 1 ][ (m) x sin x (m) cos x (m) 2 x (m) cos x (m) sin x (m) 2 ] (wir weisen noch einmal darauf hin, dass die Invertierung von g (x m ) nur im Ein- oder Zweidimensionalen durchgeführt werden kann i.a. wird man, wie oben beschrieben, ein lineares Gleichungssystem mit der Matrix g (x m ) lösen). 8.4 Das Newton-Verfahren im R n Technische Universität Bergakademie Freiberg
25 Numerische Mathematik 402 Die numerische Rechnung liefert: m x (m) 1 x (m) 2 x x m e e e e e < eps = e-16 (vgl. die Konvergenzgeschwindigkeit der gewöhnlichen Fixpunktiteration). 8.4 Das Newton-Verfahren im R n Technische Universität Bergakademie Freiberg
26 Numerische Mathematik Konvergenz des Newton-Verfahrens Lemma 8.3 Die Funktion f : D R n R n sei stetig differenzierbar und genüge in der konvexen Menge D der Bedingung f (u) f (v) γ u v für beliebige u, v D, d.h. f sei Lipschitz-stetig in D. Dann gilt für x, y D f(y) f(x ) f (x )(y x ) 1 2 γ x y 2. Lemma 8.4 Die Funktion f : D R n R n sei differenzierbar an der Stelle x D mit f(x ) = 0. Sei ferner die matrixwertige Funktion A : D R n n stetig in x und die Matrix A(x ) invertierbar. Dann ist die Funktion g : D R n, x x A(x ) 1 f(x ) in einer Umgebung von x wohldefiniert und differenzierbar in x mit g (x ) = I A(x ) 1 f (x ). 8.5 Konvergenz des Newton-Verfahrens Technische Universität Bergakademie Freiberg
27 Numerische Mathematik 404 Satz 8.5 (Lokale Konvergenz des Newton-Verfahrens) Die Funktion f : D R n R n besitze die Nullstelle x, sei stetig differenzierbar an der Stelle x und f (x ) sei invertierbar. Dann ist x anziehender Fixpunkt der Newton-Iteration x m+1 = x m f (x m ) 1 f(x m ) m = 0, 1,..., und es gilt lim m x m+1 x x m x Falls in einer Umgebung U(x ) von x gilt = 0. (8.2) f (x ) f (x ) α x x x U(x ), (8.3) dann existieren C > 0 und m 0 N mit x m+1 x C x m x 2 für m m Konvergenz des Newton-Verfahrens Technische Universität Bergakademie Freiberg
28 Numerische Mathematik 405 Satz 8.6 (Newton-Kantorovich) Es sei f : D R n R n differenzierbar in D R n, D konvex; für x, y D gelte Es gebe ein x 0 D mit f (x ) f (y) γ x y. β := f (x 0 ) 1, η := f (x 0 ) 1 f(x 0 ) sodass α := βγη < 1 2 ist. Ferner sei S := {x Rn : x x 0 t } D mit t = (1 1 2α)/(βγ). Dann gilt: mit dem in den Voraussetzungen genannten x 0 sind die Iterierten des Newton-Verfahrens x m+1 = x m f (x m ) 1 f(x m ), m = 1, 2,..., wohldefiniert und konvergieren gegen eine Lösung x D von f(x ) = 0. Es gilt die Fehlerabschätzung x x 1 2βγ x 1 x Konvergenz des Newton-Verfahrens Technische Universität Bergakademie Freiberg
29 Numerische Mathematik 406 Bemerkungen: 1. Der Satz von Newton-Kantorovich liefert eine quantitative Charakterisierung der lokal quadratischen Konvergenz des Newton-Verfahrens im R n. 2. Neben der lokal quadratischen Konvergenz sichert er auch die Existenz einer Nullstelle in einer t -Kugel um x. 3. Die (recht starken) Voraussetzungen sind in der Praxis selten zu verifizieren. Es kommt letztlich immer darauf an, einen hinreichend guten Startwert x 0 zu wählen. 8.5 Konvergenz des Newton-Verfahrens Technische Universität Bergakademie Freiberg
30 Numerische Mathematik 407 Einfache (eindimensionale) Beispiele zeigen, dass das Newton-Verfahren nur in Ausnahmefällen global konvergiert. Unter speziellen Voraussetzungen kann globale Konvergenz gesichert werden. Definition. Eine Menge D R n heißt konvex, wenn sie mit zwei Punkten x, y auch deren Verbindungsstrecke enthält: x, y D αx + (1 α)y D α [0, 1]. Die Abbildung f : R n D R n, D konvex, heißt konvex in D, wenn f(αx + (1 α)y) αf(x ) + (1 α)f(y) für alle x, y D und alle α [0, 1] gilt. Die Relation ist hier komponentenweise zu verstehen. Interpretation im Eindimensionalen: Der Graph von f liegt unterhalb aller Sekanten. 8.5 Konvergenz des Newton-Verfahrens Technische Universität Bergakademie Freiberg
31 Numerische Mathematik 408 Lemma 8.7 Ist f stetig differenzierbar in der konvexen Menge D, so ist f genau dann konvex, wenn für alle x, y D gilt. f(y) f(x ) f (x )(y x ) (8.4) Interpretation im Eindimensionalen: Der Graph von f liegt oberhalb aller Tangenten Konvergenz des Newton-Verfahrens Technische Universität Bergakademie Freiberg
32 Numerische Mathematik 409 Satz 8.8 (Newton-Baluev) Es sei f : R n R n stetig differenzierbar und konvex. f (x ) sei invertierbar mit [f (x )] 1 O (komponentenweise) für alle x R n. Außerdem besitze f(x ) = 0 eine Lösung x. Dann gilt: (a) x ist die einzige Lösung von f(x ) = 0. (b) Die Newton-Folge x m+1 = x m f (x m ) 1 f(x m ), m = 0, 1,... konvergiert für beliebiges x 0 R n gegen x (globale Konvergenz!), (c) Es gilt (komponentenweise monotone Konvergenz) x x m+1 x m für m = 1, 2, Konvergenz des Newton-Verfahrens Technische Universität Bergakademie Freiberg
33 Numerische Mathematik D: x x 0 x x 1 x 1 0 x 8.5 Konvergenz des Newton-Verfahrens Technische Universität Bergakademie Freiberg
34 Numerische Mathematik 411 Bemerkung. Genügt f zusätzlich der Monotoniebedingung f (x ) f (y) falls x y, so lässt sich eine Einschließung von x konstruieren: Neben der Newton-Folge wird noch die Folge x m+1 := x m f (x m ) 1 f( x m ) (m = 1, 2,... ) (Funktionalmatrix an der Stelle x m, nicht an der Stelle x m!) berechnet. Ist x 1 D so gewählt, dass f( x 1 ) 0 gilt, so folgt x m x m+1 x x m+1 x m (m = 1, 2,...) und lim x m = lim x m = x. m m 8.5 Konvergenz des Newton-Verfahrens Technische Universität Bergakademie Freiberg
35 Numerische Mathematik Modifikationen des Newton-Verfahrens Problem beim Newton-Verfahren: Nur lokale Konvergenz. Idee des gedämpften Newton-Verfahrens: Iteriere gemäß x m+1 = x m α m f (x m ) 1 f(x m ) (m = 0, 1, 2,...), dabei ist α m (0, 1] ein Dämpfungsfaktor, der so gewählt wird, dass f(x 0 ) f(x 1 ) f(x 2 ) erfüllt ist. 8.6 Modifikationen des Newton-Verfahrens Technische Universität Bergakademie Freiberg
36 Numerische Mathematik 413 Programmentwurf: m = 0 while norm(f(x_m)) > tol Loese f (x_m)* h = -f(x_m) alpha = 1 x = x_m + alpha*h while norm(f(x)) > (1-0.25*alpha)*norm(f(x_m)) alpha = 0.5*alpha if alpha < 2^(-10), break, end if x = x + alpha*h end while m = m+1 x_m = x end while 8.6 Modifikationen des Newton-Verfahrens Technische Universität Bergakademie Freiberg
37 Numerische Mathematik 414 Problem beim Newton-Verfahren: Berechnung von f (x m ) teuer. Idee der Quasi-Newton-Verfahren: Iteriere gemäß x m+1 = x m A 1 m f(x m ) (m = 0, 1, 2,...), (8.5) dabei ist A m eine Näherung an f (x m ), die der Quasi-Newton-Bedingung genügt. Populär ist der Ansatz A m (x m x m 1 ) = f(x m ) f(x m 1 ) (8.6) A m = A m 1 + u m v T m (Rang-Eins-Verfahren), weil sich A 1 m dann leicht aus A 1 m 1 berechnen lässt: 8.6 Modifikationen des Newton-Verfahrens Technische Universität Bergakademie Freiberg
38 Numerische Mathematik 415 Beim Broyden-Verfahren wird neben (A m A m 1 )(x m x m 1 ) = f(x m ) f(x m 1 ) A m 1 (x m x m 1 ) (folgt aus der Quasi-Newton-Bedingung) noch (A m A m 1 )h = 0 für alle h x m x m 1 gefordert. Damit ist A m eindeutig bestimmt. Es ergibt sich mit A m = A m 1 + u m v T m v m := x m x m 1, u m := (f(x m) f(x m 1 ) Av m )v T m v T mv m. Die Berechnung der nächsten Iterierten x m+1 nach (8.5) erfordert zunächst O(n 3 ) Operationen. Durch Aufdatieren der Inversen kann man den Aufwand auf O(n 2 ) reduzieren: 8.6 Modifikationen des Newton-Verfahrens Technische Universität Bergakademie Freiberg
39 Numerische Mathematik 416 Satz 8.9 (Sherman-Morrison-Formel) Sind u, v R n und A R n n invertierbar. Dann ist A + uv T genau dann invertierbar, wenn 1 + v T A 1 u 0 gilt. In diesem Fall ist ( A + uv T ) 1 = A 1 A 1 uv T A v T A 1 u. Satz 8.10 Die Abbildung f : R n D R n besitze eine Nullstelle x D. f sei differenzierbar in einer Umgebung U von x und f sei in U Lipschitz-stetig. Außerdem sei f (x ) invertierbar. Dann gibt es positive Konstanten δ und ρ mit den folgenden Eigenschaften: Für alle Startwerte x 0 mit x 0 x δ und alle Näherungen A 0 (für f (x 0 )) mit A 0 f (x 0 ) ρ konvergiert das Broyden-Verfahren superlinear gegen x. 8.6 Modifikationen des Newton-Verfahrens Technische Universität Bergakademie Freiberg
40 Numerische Mathematik Nichtlineare Ausgleichsprobleme Gegeben sind f : R n D R m (m n) mit den Komponenten f 1,..., f m : D R und y R m. Gesucht ist ein Vektor x R n mit y f(x ) 2 = min x D y f(x ) 2 (8.7) In Kapitel 5 wurde der lineare Spezialfall dieses Problems behandelt, in dem f(x ) = Ax, A R m n. 8.7 Nichtlineare Ausgleichsprobleme Technische Universität Bergakademie Freiberg
41 Numerische Mathematik 418 Beispiel. n Parameter einer Modellfunktion ϕ sollen an m Messwerte angepasst werden. Etwa: ϕ(t) = ϕ(t; x 1, x 2, x 3 ) = x 1 exp( x 2 t) + x 3. Als Daten seien folgende fünf Messungen gegeben: j t j y j Hier ist also: f = f 1. f 5 : R3 R 5, f j (x 1, x 2, x 3 ) = x 1 exp( x 2 t j )+x 3, j = 1,..., Nichtlineare Ausgleichsprobleme Technische Universität Bergakademie Freiberg
42 Numerische Mathematik 419 Setzt man F : R n D R, x f(x ) y 2 2, so ist 1 2 F (x ) = f (x ) T [f(x ) y] = 0 eine notwendige Bedingung für die Lösung x von (8.7) (falls f C 1 (D)). Man könnte dieses Gleichungssystem mit dem Newton-Verfahren attackieren. Dies ist i.a. zu kompliziert (um F zu bestimmen, benötigt man f ) und man linearisiert (8.7) direkt. Ausgangspunkt ist die Taylorreihe von f (f C 2 (D)) f(x ) = f(x 0 ) + f (x 0 )[x x 0 ] + o( x x 0 ). 8.7 Nichtlineare Ausgleichsprobleme Technische Universität Bergakademie Freiberg
43 Numerische Mathematik 420 Ist x 0 eine gute Näherung von x, so erwartet man, dass die Lösung x 1 von ( ) min y f(x 0) f (x 0 )[x x 0 ] 2 min y f(x ) x R n x R n 2 (8.8) eine bessere Approximation an x ist. (8.8) ist ein lineares Ausgleichsproblem, kann also mit den Methoden aus Kapitel 5 gelöst werden. Gauß-Newton-Verfahren: Waehle x_0. for k = 0,1,2,...: Berechne A = f (x_k) und b = y - f(x_k), bestimme die Loesung h_k des linearen Ausgleichsproblems \ b - A h_k \ _2 = min, setze x_{k+1} = x_k + h_k. end for 8.7 Nichtlineare Ausgleichsprobleme Technische Universität Bergakademie Freiberg
44 Numerische Mathematik 421 In der Praxis muss dieses Verfahren gedämpft werden (x k+1 = x k + αh k, vgl. Abschnitt 8.6). Die folgende Tabelle zeigt für unser Beispiel das Residuum y f(x k ) 2 der Iterierten x k des Gauß-Newton-Verfahrens mit und ohne Dämpfung (x 0 = 0, in Klammern: Dämpfungsfaktoren): k ohne Dämpfung mit Dämpfung [1.0] [1.0] [0.5] [1.0] [1.0] !! [1.0] 8.7 Nichtlineare Ausgleichsprobleme Technische Universität Bergakademie Freiberg
45 Numerische Mathematik 422 Satz 8.11 Sei h = x x 0 die Lösung des linearen Ausgleichsproblems (8.8), f (x 0 ) besitze vollen Rang und y f(x 0 ) 0. Dann existiert α > 0 so dass die Funktion ϕ(α) = y f(x 0 + αh) 2 2 für alle α [0, α] streng monoton fällt. Insbesondere gilt ϕ(α) = y f(x 0 + αh) 2 2 < ϕ(0) = y f(x 0 ) 2 2. Die Gauß-Newton-Korrektur h ist also eine Abstiegsrichtung. Ein geeignet gedämpftes Gauß-Newton-Verfahren führt somit immer zu einer monoton abnehmenden Residualnorm der Iterierten. 8.7 Nichtlineare Ausgleichsprobleme Technische Universität Bergakademie Freiberg
46 Numerische Mathematik 423 Das Levenberg-Marquardt-Verfahren wählt bei gegebenem λ k > 0 die Korrekturrichtung h k für x k als die Lösung von [y f(x k )] f (x k )h k λ 2 k h k 2 2 min h k R n. (8.9) Die Idee ist, λ k klein zu wählen, wenn x k weit von einer Lösung entfernt ist und λ k groß zu wählen, wenn x k eine gute Näherung für die Lösung ist. Eine äquivalente Formulierung von (8.9) ist [ ] [ ] y f(xk ) f (x k ) 2 h k 0 λ k I n 2 min h k R n. Es handelt sich also um ein lineares Ausgleichsproblem der Dimension (m + n) n, dessen Koeffizientenmatrix stets vollen Rang n besitzt. Die sehr spezielle Struktur dieses Kleinsten-Quadrate-Problems muss bei der Rechnung ausgenutzt werden. Auch die Korrektur h k des Marquardt-Verfahrens ist eine Abstiegsrichtung. 8.7 Nichtlineare Ausgleichsprobleme Technische Universität Bergakademie Freiberg
47 Numerische Mathematik 424 Marquardt-Verfahren: Waehle x_0 und lambda_0 > 0. for k = 0,1,2,...: Berechne A = f (x_k) und b = y - f(x_k), bestimme die Loesung h_k des linearen Ausgleichsproblems \ b - A h_k \ ^2 + lambda_k^2 \ h_k \ ^2 = min, setze x_{test} = x_k + h_k. while \ y - f(x_{test}) \ >= \ y - f(x_k) \ Setze lambda_k = 2 lambda_k und loese \ b - A h_k \ ^2 + lambda_k^2 \ h_k \ ^2 = min, setze x_{test} = x_k + h_k. end while Setze x_{k+1} = x_{test} und lambda_{k+1} = 0.5 lambda_k. end for 8.7 Nichtlineare Ausgleichsprobleme Technische Universität Bergakademie Freiberg
48 Numerische Mathematik 425 In unserem Beispiel ist das Marquardt-Verfahren etwa so schnell wie das gedämpfte Gauß-Newton-Verfahren (r k := y f(x k ), x 0 = 0, λ 0 = 1): k r k λ k 1 1/2 1/4 1/8 1/16 1/32 1/ x 1 = x 2 = x 3 = Nichtlineare Ausgleichsprobleme Technische Universität Bergakademie Freiberg
49 Numerische Mathematik Klassische Iterationsverfahren für lineare Systeme Zu lösen: Ax = b, A R n n invertierbar, aber n so groß, dass Gauß-Elimination nicht durchführbar ist. Mit einer Zerlegung von A, A = M N (M, N R n n, M invertierbar), lässt sich das LGS äquivalent als Fixpunktaufgabe schreiben: Mx = Nx + b oder x = M 1 Nx + M 1 b. Zugehörige Fixpunktiteration Mx m+1 = Nx m + b oder x m+1 = M 1 Nx m + M 1 b (m = 0, 1, 2...). 8.8 Klassische Iterationsverfahren für lineare Systeme Technische Universität Bergakademie Freiberg
50 Numerische Mathematik 427 Bezeichnungen: e m = A 1 b x m (Fehler), r m = b Ax m (Residuum), r m = M 1 (b Ax m ) (Pseudo-Residuum). Mit T = M 1 N (Iterationsmatrix) folgt e m = T e m 1 = = T m e 0 und r m = T r m 1 = = T m r Klassische Iterationsverfahren für lineare Systeme Technische Universität Bergakademie Freiberg
51 Numerische Mathematik 428 Satz 8.12 Das Iterationsverfahren x m+1 = M 1 Nx m + M 1 b (m = 0, 1, 2,...) (8.10) konvergiert genau dann für jeden Startvektor x 0 R n gegen A 1 b, wenn es eine Matrixnorm M gibt mit T M = M 1 N M < 1. Korollar 8.13 Das Iterationsverfahren (8.10) konvergiert genau dann für jeden Startvektor x 0 R n, wenn ρ(t ) < 1. Eine Matrix T mit ρ(t ) < 1 heißt konvergente Matrix. 8.8 Klassische Iterationsverfahren für lineare Systeme Technische Universität Bergakademie Freiberg
52 Numerische Mathematik 429 Es gilt: M wird i.a. nicht invertiert: x m+1 = M 1 Nx m + M 1 b = x m + M 1 r m m = 0 r_0 = b - A*x_0 while norm(r_m) > tol*norm(b) m = m+1 Loese M*h = r_{m-1} x_m = x_{m-1}+h r_m = b-a*x_m end while Lineare Gleichungssysteme mit Koeffizientenmatrix M müssen sehr viel kostengünstiger zu lösen sein als solche mit A! 8.8 Klassische Iterationsverfahren für lineare Systeme Technische Universität Bergakademie Freiberg
53 Numerische Mathematik 430 Die Wahl M = diag(a) führt zum Jacobi- oder Gesamtschrittverfahren: x (m) j = 1 b j a j,k x (m 1) k (1 j n, m > 0). a j,j k j Die Wahl M = tril(a) führt zum Gauß-Seidel- oder Einzelschrittverfahren: x (m) j = 1 b j a j,k x (m) k a j,k x (m 1) k (1 j n, m > 0). a j,j k<j k>j Unterschied: Beim Jacobi-Verfahren wird x m ausschließlich aus Komponenten von x m 1 berechnet. Beim Gauß-Seidel-Verfahren werden zur Berechnung von x (m) j alle verfügbaren Komponenten von x m, d.h. x (m) k für k < j, verwendet. 8.8 Klassische Iterationsverfahren für lineare Systeme Technische Universität Bergakademie Freiberg
54 Numerische Mathematik 431 Definition. Eine Matrix A R n n heißt streng diagonaldominant, falls a j,k < a j,j j = 1, 2,..., n. k j Satz 8.14 Ist A streng diagonaldominant, so konvergieren sowohl das Jacobi-Verfahren als auch das Gauß-Seidel Verfahren für jeden Startvektor. Dieses Kriterium nennt man auch starkes Zeilensummenkriterium. Analog kann man ein starkes Saltensummenkriterium herleiten. 8.8 Klassische Iterationsverfahren für lineare Systeme Technische Universität Bergakademie Freiberg
55 Numerische Mathematik 432 Definition. A = M N, A, M, N R n n heißt reguläre Zerlegung von A falls M 1 O und N O. (Die Ungleichungen sind wieder komponentenweise zu verstehen.) Insbesondere gilt für reguläre Zerlegungen T = M 1 N O. Satz 8.15 Ist A R n n nichtsingulär, gilt A 1 O und ist A = M N eine reguläre Zerlegung, so gilt ρ(m 1 N) < 1. Definition. Eine Matrix A = [a i,j ] R n n heißt M-Matrix, falls A 1 O und a i,j 0 falls i j. Korollar 8.16 Ist A eine M-Matrix, so konvergieren Jacobi- und Gauß-Seidel Verfahren für jeden Startvektor. 8.8 Klassische Iterationsverfahren für lineare Systeme Technische Universität Bergakademie Freiberg
56 Numerische Mathematik 433 Zur Illustration lösen wir das lineare Gleichungssysteme Ax = b, das bei der Diskretisierung der Wärmeleitungsgleichung (implizites Euler-Verfahren, vgl. Kapitel 1.3) entsteht, durch Gesamt- und Einzelschrittverfahren. Bis auf einen skalaren Vorfaktor ist A =.... R n n Hier muss allerdings bemerkt werden, dass man dieses System in der Praxis durch Gauß-Elimination (Cholesky-Zerlegung) sehr viel effizienter lösen würde. 8.8 Klassische Iterationsverfahren für lineare Systeme Technische Universität Bergakademie Freiberg
57 Numerische Mathematik Jacobi 10 1 Gauss Seidel Hier: n = 20. Die Konvergenz ist in beiden Fällen linear mit den Konvergenzfaktoren (Jacobi) bzw (Gauß-Seidel). Vergrößert man n, so konvergieren beide Verfahren (noch) langsamer. 8.8 Klassische Iterationsverfahren für lineare Systeme Technische Universität Bergakademie Freiberg
58 Numerische Mathematik Gradientenverfahren In diesem Abschnitt sei A R n n stets symmetrisch und positiv definit, b R n beliebig und (, ) das Euklidsche Innenprodukt in R n. Grundlegendes Resultat: Unter dieser Voraussetzung löst x R n das lineare Gleichungssystem Ax = b genau dann, wenn x die Funktion φ : R n R, x φ(x ) := 1 2 (Ax, x ) (b, x ) minimiert, d.h. wenn gilt. φ(x ) = min x R n φ(x ) 8.9 Gradientenverfahren Technische Universität Bergakademie Freiberg
59 Numerische Mathematik 436 Dies folgt unmittelbar aus den Identitäten φ(x ) = 1 2 x x 2 A + φ(x ) = 1 2( b Ax 2 A 1 b 2 A 1 ). Hierbei sind A bzw. A 1 die zu den Innenprodukten (x, y) A := y T Ax bzw. (x, y) A 1 := y T A 1 x, x, y R n, gehörenden Normen auf R n. ( A-Norm und A 1 -Norm ). Fazit: Das Lösen des linearen Gleichungssystems Ax = b mit symmetrisch positiv definiter Koeffizientenmatrix A ist äquivalent mit der Minimierung des quadratischen Funktionals φ(x ) = 1 2 (Ax, x ) (b, x ). Daher können auch Minimierungsverfahren zur Lösung eingesetzt werden. 8.9 Gradientenverfahren Technische Universität Bergakademie Freiberg
60 Numerische Mathematik 437 Graph und Niveaulinien der Funktion φ (für n = 2): 8.9 Gradientenverfahren Technische Universität Bergakademie Freiberg
61 Numerische Mathematik 438 Eindimensionale Minimierung Gegeben: x : Näherung an x, zugehöriges Residuum r = b Ax, p : Suchrichtung, Gesucht: min{φ(x + αp) : α R} Es ist φ(x + αp) = 1 2( A(x + αp), x + αp ) (b, x + αp) Da A spd wird das Minimum erzielt für α = (b Ax, p) (Ap, p) = führt. Notwendig ist somit p r. = φ(x ) α(b Ax, p) + α2 2 (Ap, p) (r, p) (Ap, p), was auf φ(x + αp) = φ(x ) 1 2 (r, p) 2 (Ap, p) 8.9 Gradientenverfahren Technische Universität Bergakademie Freiberg
62 Numerische Mathematik 439 Stategie: Ist x m 1 eine Näherung für x, so bestimmt man eine Suchrichtung p m R n \ {0 } und minimiert φ entlang der Geraden {x m 1 + αp m : α R}. Dies führt auf die nächste Approximation x m = x m 1 + (r m 1, p m ) (Ap m, p m ) p m (ersetze die n-dimensionale Minimierungsaufgabe φ(x ) = min x R n Folge eindimensionaler Probleme φ(x m 1 + αp m ) = min α R ). durch eine Wahl der Suchrichtung: Naheliegend ist die (lokal optimale) Richtung des steilsten Abstiegs von φ, also die des (negativen) Gradienten φ(x ) = ( 1 2 (Ax, x ) (b, x )) = b Ax = r. Dies führt auf α m = (r m 1, r m 1 )/(Ar m 1, r m 1 ) und zum Verfahren des steilsten Abstiegs. 8.9 Gradientenverfahren Technische Universität Bergakademie Freiberg
63 Numerische Mathematik 440 Verfahren des steilsten Abstiegs m := 0, x 0 gegeben, r 0 := b Ax 0 while r k 0 do m := m + 1 α m := (r m 1, r m 1 )/(Ar m 1, r m 1 ) x m := x m 1 + α m r m 1 r m := b Ax m Beachte: Wegen b Ax m = b A(x m 1 + α m r m 1 ) = r m 1 α m Ar m 1 ist nur ein Matrix-Vektorprodukt zu berechnen. 8.9 Gradientenverfahren Technische Universität Bergakademie Freiberg
64 Numerische Mathematik 441 Satz 8.17 Das Verfahren des steilsten Abstiegs zur Lösung von Ax = b ist global linear konvergent. Bemerkung: Eine schärfere Abschätzung als im Beweis von Satz 8.17 liefert die Kantorovich-Ungleichung (x, x ) 2 (Ax, x )(A 1 x, x ) was zur linearen Konvergenzrate κ 1 κ + 1 < 1 1 κ, des Verfahrens des steilsten Abstiegs führt. 4λ max(a)λ min (A) (λ max (A) + λ min (A)) 2, x Rn, κ = cond 2(A) Es zeigt sich allerdings, dass diese (lokal optimale) Wahl der Suchrichtung i.a. zu einem sehr langsam konvergenten Verfahren führt. 8.9 Gradientenverfahren Technische Universität Bergakademie Freiberg
65 Numerische Mathematik 442 Konvergenz beim Verfahren des steilsten Abstiegs: Beispiel: A = [ 1 0 ] 0 ε, b = [ 1 ] 1, κ = 1 ε, 1 1 κ = 1 ε. 8.9 Gradientenverfahren Technische Universität Bergakademie Freiberg
66 Numerische Mathematik 443 Allgemeinere Suchrichtungen Idee: Wähle m linear unabhängige Suchrichtungen p 1,..., p m so, dass die m-te Iterierte die Funktion φ minimiert über { x = x0 + p : p span{p 1,..., p m } }. Folge: Minimum nach spätestens n Schritten gefunden, da dann span{p 1,..., p n } = R n. Frage: Ist es möglich, eine globale Minimierung durch eine Folge lokaler Minimierungen zu realisieren? 8.9 Gradientenverfahren Technische Universität Bergakademie Freiberg
67 Numerische Mathematik 444 A-konjugierte Suchrichtungen Ist P m = [p 1,..., p m ] R n m die Matrix der ersten m Suchrichtungen, so ist x x 0 + span{p 1,..., p m } äquivalent mit Dann gilt x = x 0 + P m 1 y + αp m, y R m 1, α R. φ(x ) = φ(x 0 + P m 1 y) + α (Ap m, P m 1 y) + α2 }{{} 2 (Ap m, p m ) α(r 0, p m ) ( ) Ohne den gemischten Term ( ) würde die globale Minimierung zerfallen in (i) Minimierung über x 0 + span{p 1,..., p m 1 } und (ii) Minimierung längs der Geraden {x m 1 + αp m : α R}. 8.9 Gradientenverfahren Technische Universität Bergakademie Freiberg
68 Numerische Mathematik 445 Wir fordern also (Ap m, P m 1 y) = 0 y R m 1, (Ap m, p) = 0 p span{p 1,..., p m 1 } d.h. p m ist A-orthogonal ( A-konjugiert ) zu span{p 1,..., p m 1 }. Gilt dann (i) φ(x m 1 ) = min{φ(x 0 + P m 1 y) : y R m 1 } und (ii) α m = (r 0, p m )/(Ap m, p m ), so ist die Lösung von min y R m 1 α R φ(x 0 + P m 1 y + αp m ) ( ) α 2 = min φ(x 0 + P m 1 y) + min y R m 1 α R 2 (Ap m, p m ) α(r 0, p m ) 8.9 Gradientenverfahren Technische Universität Bergakademie Freiberg
69 Numerische Mathematik 446 gegeben durch P m 1 y = x m 1, α = α m. Beachte: Wegen x m 1 x 0 + span{p 1,..., p m 1 } ist r m 1 = b Ax m 1 r 0 + Aspan{p 1,..., p m 1 } und damit (r 0, p m ) = (r m 1, p m ). Demzufolge gilt auch α m = (r m 1, p m )/(Ap m, p m ). Bisherige Forderungen an p m : (i) p m A-konjugiert zu span{p 1,..., p m 1 }, (ii) p m r m 1. Noch offen: Existenz eines solchen p m in jedem Schritt. Man kann zeigen: ein solches p m liegt in span{r m 1, p m 1 }. 8.9 Gradientenverfahren Technische Universität Bergakademie Freiberg
70 Numerische Mathematik 447 Das Verfahren der konjugierten Gradienten [Hestenes & Stiefel, 1952]: m := 0 r 0 := b Ax 0 while r m > tol b do m := m + 1 if m = 1 then p 1 := r 0 else β m := (r m 1, r m 1 )/(r m 2, r m 2 ) p m := r m 1 + β m p m 1 α m := (r m 1, r m 1 )/(Ap m, p m ) x m := x m 1 + α m p m r m := r m 1 α m Ap m Aufwand pro Schritt: 1 Matrix-Vektor-Multiplikation, 2 Innenprodukte, 3 Vektor-Aufdatierungen (saxpys). 8.9 Gradientenverfahren Technische Universität Bergakademie Freiberg
71 Numerische Mathematik 448 Satz 8.18 Für die Iterierten des cg Verfahrens gilt die Fehlerabschätzung x ( ) m x m A κ 1 x 2. x 0 A κ + 1 Dabei ist κ = cond 2 (A) = λ max (A)/λ min (A) die Konditionszahl von A bez. der Euklid-Norm. In der Praxis wird das cg-verfahren häufig auf das vorkonditionierte Gleichungssystem L 1 AL T y = L 1 b mit y = L T x angewandt. Dabei ist L eine invertierbare untere Dreiecksmatrix mit (im Idealfall) cond 2 (L 1 AL T ) = cond 2 ((LL T ) 1 A) cond 2 (A). 8.9 Gradientenverfahren Technische Universität Bergakademie Freiberg
72 Numerische Mathematik 449 Abschließend illustrieren wir beide Gradientenverfahren am Testbeispiel Ax = b mit A = tridiag( 1, 2, 1) R : steilster Abstieg konjugierte Gradienten (Bei exakter Rechnung liefert das cg-verfahren nach n = dim(a) Schritten immer die exakte Lösung.) 8.9 Gradientenverfahren Technische Universität Bergakademie Freiberg
18.4 Das Newton-Verfahren
18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift
MehrIterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
Mehr6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme
6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear
MehrNewton-Verfahren für ein Skalarfunktion
Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
MehrKapitel 5. Lösung nichtlinearer Gleichungen
Kapitel 5. Lösung nichtlinearer Gleichungen 5.1 Nullstellen reeller Funktionen, Newton-Verfahren 5.2 Das Konvergenzverhalten iterativer Verfahren 5.3 Methode der sukzessiven Approximation 5.4 Das Newton-Verfahren
MehrNichtlineare Gleichungen
Nichtlineare Gleichungen Ein wichtiges Problem in der Praxis ist die Bestimmung einer Lösung ξ der Gleichung f(x) =, () d.h. das Aufsuchen einer Nullstelle ξ einer (nicht notwendig linearen) Funktion f.
MehrDer CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
Mehr3 Nichtlineare Gleichungssysteme
3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )
MehrInexakte Newton Verfahren
Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n
MehrInhalt Kapitel I: Nichtlineare Gleichungssysteme
Inhalt Kapitel I: Nichtlineare Gleichungssysteme I Nichtlineare Gleichungssysteme I. Nullstellenbestimmung von Funktionen einer Veränderlichen I.2 I.3 Newton-Verfahren Kapitel I (UebersichtKapI) 3 Bisektionsverfahren
MehrKapitel 3. Konvergenz von Folgen und Reihen
Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden
Mehr2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p
Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.
MehrNichtlineare Gleichungen, mehrere Unbekannte
Dritte Vorlesung, 6. März 2008, Inhalt Aufarbeiten von Themen der letzten Vorlesung, und Nichtlineare Gleichungen, mehrere Unbekannte Systeme nichtlinearer Gleichungen Vektor- und Matrixnormen Fixpunkt-Iteration,
MehrWir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems
Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrNichtlineare Gleichungssysteme
Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische
MehrNullstellenberechnung von nichtlinearen Funktionen
Kapitel 3 Nullstellenberechnung von nichtlinearen Funktionen In dieser Vorlesung wird nur die Nullstellenberechnung reeller Funktionen einer reellen Variablen f : R R betrachtet. Man nennt die Nullstellen
MehrKapitel 16 : Differentialrechnung
Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen
MehrIterative Lösung von nichtlinearen Gleichungen und Gleichungssystemen
Kapitel 5 Iterative Lösung von nichtlinearen Gleichungen und Gleichungssstemen 5.1 Iterationsverfahren zur Lösung einer reellen nichtlinearen Gleichung Es sei g() eine im Intervall I definierte reellwertige
MehrBemerkung 2.1: Das Newtonverahren kann auch als sequential quad. minimization verstanden werden: 2.1 Ein globalisiertes Newtonverfahren
Kapitel 2 Newtonverfahren Ziel: Bestimmung von Nullstellen von f (=stationärer Punkt). Dies geschieht mit dem Newtonverfahren. x k+1 = x k ( 2 f (x k )) 1 f (x k ) (2.1) Bemerkung 2.1: Das Newtonverahren
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)
MehrFunktionen mehrerer Variabler
Vektoranalysis Funktionen mehrerer Variabler Wir untersuchen allgemein vektorwertige Funktionen von vektoriellen Argumenten, wobei zunächst nur reelle Vektoren zugelassen seien. Speziell betrachten wir:
MehrRückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
MehrNumerische Mathematik für Ingenieure und Physiker
Willi Törnig Peter Spellucci Numerische Mathematik für Ingenieure und Physiker Band 1: Numerische Methoden der Algebra Zweite, überarbeitete und ergänzte Auflage Mit 15 Abbildungen > Springer-Verlag Berlin
Mehr18.2 Implizit definierte Funktionen
18.2 Implizit definierte Funktionen Ziel: Untersuche Lösungsmengen von nichtlinearen Gleichungssystemen g(x) = 0 mit g : D R m, D R n, d.h. betrachte m Gleichungen für n Unbekannte mit m < n, d.h. wir
Mehrε δ Definition der Stetigkeit.
ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x
Mehr6.8 Newton Verfahren und Varianten
6. Numerische Optimierung 6.8 Newton Verfahren und Varianten In den vorherigen Kapiteln haben wir grundlegende Gradienten-basierte Verfahren kennen gelernt, die man zur numerischen Optimierung von (unbeschränkten)
Mehr5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme
5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme Als zweite Hauptanwendung des Banachschen Fixpunktsatzes besprechen wir in diesem Kapitel die iterative Lösung linearer Gleichungssysteme. Die
Mehr8 Allgemeine Iterationsverfahren
Numerik I. Version: 24.06.08 215 8 Allgemeine Iterationsverfahren Vor der Diskussion der konkreten Verfahren für lineare Gleichungssysteme, präsentieren wir die Grundidee der Iterationsverfahren. 8.1 Die
MehrElemente der Analysis II
Elemente der Analysis II Kapitel 5: Differentialrechnung im R n Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 17. Juni 2009 1 / 31 5.1 Erinnerung Kapitel
MehrKlausur zu Analysis II - Lösungen
Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Dr. Axel Grünrock WS 1/11 11..11 Klausur zu Analysis II - Lösungen 1. Entscheiden Sie, ob die folgenden Aussagen richtig oder falsch sind.
MehrFolgerungen aus dem Auflösungsatz
Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und
Mehrf(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}
9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen
Mehr5 Stetigkeit und Differenzierbarkeit
5 Stetigkeit und Differenzierbarkeit 5.1 Stetigkeit und Grenzwerte von Funktionen f(x 0 ) x 0 Graph einer stetigen Funktion. Analysis I TUHH, Winter 2006/2007 Armin Iske 127 Häufungspunkt und Abschluss.
MehrNumerisches Programmieren, Übungen
Technische Universität München SS 2012 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Alexander Breuer Dipl.-Math. Dipl.-Inf. Jürgen Bräckle Dr.-Ing. Markus
MehrKurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen
Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)
MehrLineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte
Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)
MehrIterative Lösung Linearer Gleichungssysteme
Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:
Mehr3 Lineare Differentialgleichungen
3 Lineare Differentialgleichungen In diesem Kapitel behandeln wir die allgemeine Theorie linearer Differentialgleichungen Sie werden zahlreiche Parallelen zur Theorie linearer Gleichungssysteme feststellen,
Mehr3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
Mehr20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen
20 Gleichmäßige Konvergenz für Folgen und Reihen von Funktionen 20.1 Folgen und Reihen von Funktionen 20.3 Die Supremumsnorm 20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20.7 Das Cauchy-Kriterium
MehrIterative Verfahren zur Lösung von Linearen Gleichungssystemen
Kapitel 4 Iterative Verfahren zur Lösung von Linearen Gleichungssystemen Situation: A C n n schwach besetzt, n groß, b C n. Ziel: Bestimme x C n mit Ax = b. 4.1 Spliting-Methoden Die Grundidee ist hier
MehrExtremwerte von Funktionen mehrerer reeller Variabler
Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
MehrMathematik für Anwender I. Beispielklausur I mit Lösungen
Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Mathematik für Anwender I Beispielklausur I mit en Dauer: Zwei volle Stunden + 10 Minuten Orientierung, in denen noch nicht geschrieben werden darf.
MehrKap. 6: Iterative Lösung von Gleichungssystemen
Kap. 6: Iterative Lösung von Gleichungssystemen 6.1 Einleitung In vielen Anwendungen sind Gleichungssysteme zu lösen, in denen die Unbekannten nichtlinear auftreten. Beispiel: Der Betrag der Gravitationskraft
Mehr7 Mehrgitterverfahren. Themen: Newton-Verfahren Nichtlineare CG-Verfahren Nichtlineare Mehrgitterverfahren
7 Mehrgitterverfahren Themen: Newton-Verfahren Nichtlineare CG-Verfahren Nichtlineare Mehrgitterverfahren 7.7 Beispiele nichtlinearer elliptischer Differentialgleichungen Nichtlineare elliptische Differentialgleichungen
Mehr3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
MehrKAPITEL 6. Nichtlineare Ausgleichsrechnung
KAPITEL 6 Nichtlineare Ausgleichsrechnung Beispiel 61 Gedämpfte Schwingung: u + b m u + D m u = 0, Lösungen haben die Form: u(t) = u 0 e δt sin(ω d t + ϕ 0 ) Modell einer gedämpften Schwingung y(t; x 1,
MehrNichtlineare Optimierung ohne Nebenbedingungen
Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt
MehrHöhere Mathematik für Physiker II
Universität Heidelberg Sommersemester 2013 Wiederholungsblatt Übungen zur Vorlesung Höhere Mathematik für Physiker II Prof Dr Anna Marciniak-Czochra Dipl Math Alexandra Köthe Fragen Machen Sie sich bei
MehrVektor und Matrixnormen Vorlesung vom
Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse
MehrKleine Formelsammlung zu Mathematik für Ingenieure IIA
Kleine Formelsammlung zu Mathematik für Ingenieure IIA Florian Franzmann 5. Oktober 004 Inhaltsverzeichnis Additionstheoreme Reihen und Folgen 3. Reihen...................................... 3. Potenzreihen..................................
MehrNICHTLINEARE AUSGLEICHSPROBLEME
1 NICHTLINEARE AUSGLEICHSPROBLEME In Numerik I haben wir uns bereits mit linearen Ausgleichsproblemen befasst. Wir erinnern uns daran, dass diese Probleme von der Form Ax d 2 2 min mit A R m n,d R m,m>n
MehrDas Newton Verfahren.
Das Newton Verfahren. Ziel: Bestimme eine Nullstelle einer differenzierbaren Funktion f :[a, b] R. Verwende die Newton Iteration: x n+1 := x n f x n) f x n ) für f x n ) 0 mit Startwert x 0. Das Verfahren
Mehr18 Höhere Ableitungen und Taylorformel
8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a
MehrDas CG-Verfahren. Sven Wetterauer
Das CG-Verfahren Sven Wetterauer 06.07.2010 1 Inhaltsverzeichnis 1 Einführung 3 2 Die quadratische Form 3 3 Methode des steilsten Abstiegs 4 4 Methode der Konjugierten Richtungen 6 4.1 Gram-Schmidt-Konjugation.........................
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 12
Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 1 Hausaufgaben Aufgabe 1.1 Sei f : R R gegeben durch f(x 1, x ) = x 3
Mehrf f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.
Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrNumerische Ableitung
Numerische Ableitung Die Ableitung kann angenähert werden durch den Differentenquotient: f (x) f(x + h) f(x) h oder f(x + h) f(x h) 2h für h > 0, aber h 0. Beim numerischen Rechnen ist folgendes zu beachten:
Mehr11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen
11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen Ziel: Wir wollen lokale Extrema von Funktionen f : M R untersuchen, wobei M R n eine k-dimensionale Untermannigfaltigkeit des
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als
MehrÜbungen zur Vorlesung MATHEMATIK II
Fachbereich Mathematik und Informatik der Philipps-Universität Marburg Übungen zur Vorlesung MATHEMATIK II Prof. Dr. C. Portenier unter Mitarbeit von Michael Koch Marburg, Sommersemester 2005 Fassung vom
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
MehrLösungen zu den Hausaufgaben zur Analysis II
Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin
MehrLösungsvorschlag zur Übungsklausur zur Analysis I
Prof. Dr. H. Garcke, Dr. H. Farshbaf-Shaker, D. Depner WS 8/9 NWF I - Mathematik 9..9 Universität Regensburg Lösungsvorschlag zur Übungsklausur zur Analysis I Frage 1 Vervollständigen Sie die folgenden
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
MehrKlausurlösung Einführung in Numerische Methoden und FEM Universität Siegen, Department Maschinenbau,
Universität Siegen, Department Maschinenbau, 7.7. Aufgabe y 3 l 3 3 F l l x Das dargestellte Fachwerk soll statisch mit Hilfe der FEM untersucht werden. Die Knoten und Elemente sind in der Abbildung nummeriert.
Mehr3.2 Implizite Funktionen
3.2 Implizite Funktionen Funktionen können explizit als y = f(x 1, x 2,..., x n ) oder implizit als F(x 1, x 2,..., x n ;y) = 0 gegeben sein. Offensichtlich kann man die explizite Form immer in die implizite
MehrKlausur zur Vordiplom-Prüfung
Technische Universität Hamburg-Harburg SS 25 Arbeitsbereich Mathematik Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren 22. Juli 25 Sie haben 9 Minuten Zeit zum Bearbeiten der
MehrFinite Elemente I 2. 1 Variationstheorie
Finite Elemente I 2 1 Variationstheorie 1 Variationstheorie TU Bergakademie Freiberg, SoS 2007 Finite Elemente I 3 1.1 Bilinearformen Definition 1.1 Sei V ein reeller normierter Vektorraum. Eine Bilinearform
MehrTeil II. Nichtlineare Optimierung
Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene
Mehr15 Differentialrechnung in R n
36 15 Differentialrechnung in R n 15.1 Lineare Abbilungen Eine Abbilung A : R n R m heißt linear falls A(αx + βy) = αa(x) + βa(y) für alle x, y R n un alle α, β R. Man schreibt oft Ax statt A(x) un spricht
MehrNICHTLINEARE GLEICHUNGSSYSTEME
NICHTLINEARE GLEICHUNGSSYSTEME Christian Kanzow Julius Maximilians Universität Würzburg Institut für Mathematik Am Hubland 97074 Würzburg e-mail: kanzow@mathematik.uni-wuerzburg.de URL: http://www.mathematik.uni-wuerzburg.de/
MehrNormalengleichungen. Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b,
Normalengleichungen Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b, Normalengleichungen 1-1 Normalengleichungen Für eine beliebige
Mehr8 Extremwerte reellwertiger Funktionen
8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R
Mehr1.6 Implizite Funktionen
1 1.6 Implizite Funktionen Wir werden uns jetzt mit nichtlinearen Gleichungen beschäftigen, f(x) = 0, wobei f = (f 1,..., f m ) stetig differenzierbar auf einem Gebiet G R n und m < n ist. Dann hat man
Mehr9. Übung zur Linearen Algebra II -
9. Übung zur Linearen Algebra II - en Kommentare an Hannes.Klarner@Fu-Berlin.de FU Berlin. SS 00. Aufgabe 33 (i) Beweise oder widerlege: In einem euklidischen VR gilt x + y = x + y x y (Satz von Pythagoras).
MehrHöhere Mathematik I für die Fachrichtung Informatik. Lösungsvorschläge zum 10. Übungsblatt. < 0 für alle t > 1. tan(x) tan(0) x 0
KARLSRUHER INSTITUT FÜR TECHNOLOGIE INSTITUT FÜR ANALYSIS Dr. Christoph Schmoeger Heiko Hoffmann WS 03/4 Höhere Mathematik I für die Fachrichtung Informatik Lösungsvorschläge zum 0. Übungsblatt Aufgabe
MehrMethode der kleinsten Quadrate
Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,
Mehr5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21
5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11
MehrDer Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.
Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x
Mehr27 Taylor-Formel und Taylor-Entwicklungen
136 IV. Unendliche Reihen und Taylor-Formel 27 Taylor-Formel und Taylor-Entwicklungen Lernziele: Konzepte: klein o - und groß O -Bedingungen Resultate: Taylor-Formel Kompetenzen: Bestimmung von Taylor-Reihen
MehrThema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen
Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen In diesem Kapitel betrachten wir die Invertierbarkeit von glatten Abbildungen bzw. die Auflösbarkeit von impliziten Gleichungen.
MehrMathematik I. Vorlesung 7. Folgen in einem angeordneten Körper
Prof. Dr. H. Brenner Osnabrück WS 009/010 Mathematik I Vorlesung 7 Folgen in einem angeordneten Körper Wir beginnen mit einem motivierenden Beispiel. Beispiel 7.1. Wir wollen die Quadratwurzel einer natürlichen
MehrDefinition: Differenzierbare Funktionen
Definition: Differenzierbare Funktionen 1/12 Definition. Sei f :]a, b[ R eine Funktion. Sie heißt an der Stelle ξ ]a, b[ differenzierbar, wenn der Grenzwert existiert. f(ξ + h) f(ξ) lim h 0 h = lim x ξ
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
MehrDas heißt, Γ ist der Graph einer Funktion von d 1 Veränderlichen.
Kapitel 2 Der Gaußsche Satz Partielle Differentialgleichung sind typischerweise auf beschränkten Gebieten des R d, d 1, zu lösen. Dabei sind die Eigenschaften dieser Gebiete von Bedeutung, insbesondere
MehrAbbildung 10.1: Das Bild zu Beispiel 10.1
Analysis 3, Woche Mannigfaltigkeiten I. Definition einer Mannigfaltigkeit Die Definition einer Mannigfaltigkeit braucht den Begriff Diffeomorphismus, den wir in Definition 9.5 festgelegt haben. Seien U,
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen
Mehr10 Untermannigfaltigkeiten
10. Untermannigfaltigkeiten 1 10 Untermannigfaltigkeiten Definition. Eine Menge M R n heißt k-dimensionale Untermannigfaltigkeit des R n, 1 k n, falls es zu jedem a M eine offene Umgebung U R n von a und
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
MehrStudientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Numerische Verfahren der nicht-linearen Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Line
Mehr1 Matrizenrechnung zweiter Teil
MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten
Mehr4 Fehlerabschätzungen und Konvergenz der FEM
4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und
MehrMathematik II für Inf und WInf
Gruppenübung Mathematik II für Inf und WInf 8. Übung Lösungsvorschlag G 28 (Partiell aber nicht total differenzierbar) Gegeben sei die Funktion f : R 2 R mit f(x, ) := x. Zeige: f ist stetig und partiell
Mehr