Kapitel 8. Lineare Gleichungssysteme III: iterative Verfahren
|
|
- Dominik Morgenstern
- vor 6 Jahren
- Abrufe
Transkript
1 Kapitel 8. Lineare Gleichungssysteme III: iterative Verfahren Inhalt: 8.1 Fixpunkt-Iteration 8.2 Verfahren der konjugierten Gradienten 8.3 Anwendungsbeispiel Numerische Mathematik I 323
2 Kap. 8: Lineare Gleichungssysteme III: iterative Verfahren Ziel: Lösung des linearen Gleichungssystems mit regulärer Matrix A R n n, b R n. Ax = b Das Gaußsche Eliminationsverfahren erfordert bei Bandmatrizen mit der Bandbreite m den Aufwand 1 3 nm2. Für große Matrizen (n > 10 6, m > 10 2 ) sind dies bereits Rechenoperationen. Bei vielen Aufgaben für zwei- und dreidimensionale Modelle treten Matrizen mit sehr vielen Nullen in den Matrixeinträgen auf, die keine echte Bandstruktur aufweisen. Das Gaußsche Eliminationsverfahren würde zum Auffüllen vieler dieser Stellen führen. Iterationsverfahren bestimmen die Lösung x näherungsweise und nutzen dabei die Struktur der Matrix A aus, indem sie nur auf die von Null verschiedenen Einträge der Matrix A zugreifen. Dies ermöglicht eine kompakte Speicherung dünn besetzter Matrizen (matlab sparse ) und spart Rechenoperationen. Gute iterative Verfahren haben die Komplexität O(nm), wobei m die durchschnittliche Anzahl der von Null verschiedenen Einträge pro Zeile der Matrix ist. Numerische Mathematik I 324
3 Allgemeine Form der Fixpunkt-Iteration 8.1 Fixpunkt-Iteration Allgemeine Form der Fixpunkt-Iteration Mit einer beliebigen invertierbaren Matrix C R n n gilt die Äquivalenz Ax = b Cx = Cx Ax +b x = (I C 1 A)x +C 1 b. Man versucht C so zu wählen, dass zu gegebenem Vektor x (k) der neue Vektor mit wenig Aufwand zu berechnen ist, x (k+1) = (I C 1 A)x (k) +C 1 b die Iterationsfunktion φ : R n R n, φ(x) = (I C 1 A)x +C 1 b kontrahierend ist und eine möglichst kleine Kontraktionszahl besitzt. Zuerst betrachten wir zwei Verfahren, die wenig Aufwand zur Berechnung von x (k+1) erfordern. Numerische Mathematik I 325
4 Gesamtschrittverfahren (Jacobi-Verfahren) Gesamtschrittverfahren (Jacobi-Verfahren) Die Matrix A habe Diagonalelemente a ii Wähle beliebigen Startvektor x (0) R n, z.b. x (0) i 2. Für k = 0,1,2,... = bi a ii. für i = 1,2,...,n: ( löse die i-te Gleichung nach x i ) x (k+1) i = 1 n a ii b i a ij x (k) j. j=1 j i Einzelschrittverfahren (Gauß-Seidel-Verfahren) Die Matrix A habe Diagonalelemente a ii Wähle beliebigen Startvektor x (0) R n, z.b. x (0) i 2. Für k = 0,1,2,... = bi a ii. für i = 1,2,...,n: ( löse die i-te Gleichung nach x i ) x (k+1) i = 1 i 1 n b i a ij x (k+1) j a ij x (k) j. a ii j=1 j=i+1 Numerische Mathematik I 326
5 Beispiel: eindimensionales Modellproblem Beispiel: eindimensionales Modellproblem Zur numerischen Lösung des Randwertproblems 2. Ordnung u (x) = f(x), x [0,1], mit u(0) = u(1) = 0 führt man die übliche Diskretisierung u (x k ) 2u(x k) u(x k 1 ) u(x k+1 ) h 2, h = 1 n+1, x k = kh, 0 k n+1, durch und löst das lineare Gleichungssystem Au = b mit der Tridiagonalmatrix A = R n n zur rechten Seite b k = h 2 f(x k ), 1 k n. Für spätere Zwecke halten wir fest: die Eigenwerte von A sind ( ) kπ λ k = 2 1 cos, 1 k n, n+1 und zugehörige Eigenvektoren sind ( v k = sin jkπ ). n +1 1 j n Numerische Mathematik I 327
6 Beispiel: eindimensionales Modellproblem Zu f(x) 1 sowie n = 4 ist die exakte Lösung u = (2,3,3,2) T. Gesamt- und Einzelschrittverfahren liefern die Werte der folgenden Tabellen. Tabelle 8.1: GSV zum 1-dim. Modellproblem, h = 1 5 x (0) x (1) x (2) x (3) x (4) x (5) x (6) x (7) x (20) Tabelle 8.2: ESV zum 1-dim. Modellproblem, h = 1 5 x (0) x (1) x (2) x (3) x (4) x (5) x (6) x (7) x (20) Numerische Mathematik I 328
7 Darstellung der Iterationsfunktion Darstellung der Iterationsfunktion Die Matrix A wird in drei Teile zerlegt gemäß A = L+D +R mit 0 0 a a 12 a 1n.. a..... L = , D =, R = an 1,n a n1 a n,n a nn 0 0 Proposition a) Die Iterationsfunktion des Gesamtschrittverfahrens lautet φ GSV (x) = (I D 1 A)x +D 1 b. b) Die Iterationsfunktion des Einzelschrittverfahrens lautet φ ESV (x) = (I (L+D) 1 A)x +(L +D) 1 b. Wir nennen J := (I D 1 A) = D 1 (L +R), H 1 := (I (L+D) 1 A) = (L +D) 1 R, die Iterationsmatrizen der beiden Verfahren. (Gesamtschrittverfahren) (Einzelschrittverfahren) Numerische Mathematik I 329
8 Konvergenz der Fixpunktiteration Konvergenz der Fixpunktiteration bei beliebigem Startvektor x (0) R n Satz x (k+1) = (I C 1 A)x (k) +C 1 b (8.1.1) Die Matrizen A und C seien regulär, der Vektor x sei die eindeutige Lösung des linearen Gleichungssystems Ax = b, und B := I C 1 A bezeichne die Iterationsmatrix in (8.1.1). Dann sind die folgenden Aussagen äquivalent: (i) Die Fixpunktiteration (8.1.1) konvergiert bei beliebigem Startvektor x (0) R n gegen x. (ii) B hat den Spektralradius ρ(b) = max{ λ ; λ Eigenwert von B} < 1. (iii) Es gibt eine natürliche Matrixnorm. auf R n n mit B < 1. Numerische Mathematik I 330
9 Natürliche Matrixnormen Erinnerung an 2.1.2, Numerik I: Natürliche Matrixnormen Die Funktion q : R n n R heißt natürliche Matrixnorm, wenn es eine Norm. auf dem R n gibt mit q(a) = max{ Ax ; x R n, x = 1}. Beispiele natürlicher Matrixnormen: a) Zeilensummennorm A, Spaltensummennorm A 1 und Spektralnorm A 2, siehe und (Numerik I). b) Es sei T R n n regulär. Dann ist durch x T := T 1 x, x R n, eine Norm auf R n definiert. Die zugehörige natürliche Matrixnorm ist A T := T 1 AT = max{ Ax T ; x R n, x T = 1}. Numerische Mathematik I 331
10 Hilfssatz zum Spektralradius von Matrizen Die Äquivalenz von (ii) und(iii): Hilfssatz zum Spektralradius von Matrizen Gegeben sei die Matrix B R n n mit Spektralradius ρ(b). a) Für jede natürliche Matrixnorm q : R n n R gilt ρ(b) q(b). b) Zu beliebigem ǫ > 0 existiert eine natürliche Matrixnorm q : R n n R mit q(b) ρ(b)+ǫ. Insgesamt gilt also: ρ(b) = inf{q(b) : q ist natürliche Matrixnorm auf R n n }. Bemerkung: a) In Kapitel 2 (Einführung der Spektralnorm) wurde gezeigt, dass für hermitesche Matrizen A C n n der Spektralradius und die Spektralnorm übereinstimmen: ρ(a) = A 2. b) Der Satz liefert die fundamentale Beziehung ρ(b) = limsup k wobei. eine beliebige Matrixnorm sein darf. ( B k ) 1/k, (8.1.2) Numerische Mathematik I 332
11 Hilfssatz zum Spektralradius von Matrizen Beweis: (a) Mit der zugehörigen Vektornorm. auf R n ist Bx = λx = λ x für jeden Eigenvektor zum betragsgrößten Eigenwert λ, also auch q(b) = B op λ. In Teil (b) wird eine reguläre Matrix T = T 1 T 2 zur Definition einer natürlichen Matrixnorm konstruiert. Hierbei dient T 1 zur Erstellung der Jordan-Normalform von B λ 1 d T 1 1 BT 1 =, λ n 1 d n 1 wobei λ 1,...,λ n die Eigenwerte von B und d 1,...,d n 1 entweder 0 oder 1 sind. Die Matrix T 2 = diag(1,ǫ,...,ǫ n 1 ) liefert eine Skalierung der Nicht-Diagonalelemente λ 1 ǫd T 1 2 T 1 1 BT 1 T 2 = λ n 1 λ n. ǫd n 1 Mit T = T 1 T 2 liefert die natürliche Matrixnorm q : R n n R, q(a) = A T, den Wert q(b) = T 1 2 T 1 1 BT 1 T 2 = max{ λ 1 +ǫd 1,..., λ n 1 +ǫd n 1, λ n } ρ(b)+ǫ. λ n Numerische Mathematik I 333
12 Hilfssatz zum Spektralradius von Matrizen Beweis von 8.1.6: x sei die Lösung von Ax = b, also gilt x = Bx +c. Wir setzen e (k) := x (k) x und erhalten e (k+1) = x (k+1) x = Bx (k) +c Bx c = Be (k), also e (k) = B k e (0). Daher ist (i) in Satz äquivalent zur Beziehung lim k Bk y = 0 für alle y R n. (8.1.3) 1. Die Bedingung (ii) in ist notwendig für (i): Falls (ii) nicht erfüllt ist, besitzt B einen Eigenwert λ C mit λ > 1. Sei w C n \{0} ein zugehöriger Eigenvektor. Dann ist B k w = λ k w = λ k w w keine Nullfolge, also konvergiert wenigstens eine der Folgen B k (Rew), B k (Imw) nicht gegen den Nullvektor. Dies widerspricht (8.1.3). 2. Die Bedingung (iii) (und damit auch (ii)) in ist hinreichend für (i): Sei q eine natürliche Matrixnorm (mit zugehöriger Vektornorm. ), für die q(b) < 1 gilt. Dann folgt für alle y R n und k N also ist (8.1.3) erfüllt. B k y q(b) B k 1 y (q(b)) k y, Numerische Mathematik I 334
13 Satz: lineare Konvergenz der Fixpunktiteration Die Konvergenz ist i.a. linear, also von der Form O(q k ), wobei q = ρ(b) der Spektralradius von B ist: Satz: lineare Konvergenz der Fixpunktiteration Falls die Fixpunktiteration (8.1.1) bei beliebigem Startwert x (0) gegen die Lösung x von Ax = b konvergiert, so gilt Bemerkung: lim sup k ( x (k) x ) 1/k ρ(b). x (0) x a) Falls L := q(b) < 1 mit einer natürlichen Matrixnorm q gilt, so ist die Iterationsfunktion φ sogar kontrahierend bzgl. der zugehörigen Vektornorm auf R n, die Kontraktionskonstante ist L. Deshalb gelten in diesem Fall sogar die a-priori und a-posteriori Fehlerabschätzungen des Banachschen Fixpunktsatzes??. Diese sollten als Abbruchkriterien verwendet werden. b) Selbst wenn q(b) 1, aber ρ(b) < 1 gilt, so wird nach einigen Schritten die lineare Konvergenz e (k) 0 mit der Geschwindigkeit ρ(b) k k0 sichtbar. Dies liegt an der fundamentalen Beziehung (8.1.2). Numerische Mathematik I 335
14 Satz: lineare Konvergenz der Fixpunktiteration Beweis: Aus der Voraussetzung und Satz folgt ρ := ρ(b) < 1. Sei ǫ > 0 und q eine natürliche Matrixnorm mit q(b) < ρ+ǫ. Dann gilt für den Fehler e (k) = x (k) x in der zugehörigen Vektornorm Es folgt in dieser speziellen Vektornorm ( e (k) = B k e (0) q(b) k e (0) (ρ+ǫ) k e (0). lim sup k x (k) x x (0) x ) 1/k ρ+ǫ. Da auf R n alle Normen äquivalent sind, folgt für jede weitere Norm ( ) 1/k x (k) x lim sup k x (0) x ρ+ǫ. Weil ǫ > 0 beliebig gewählt werden kann, folgt die Behauptung. Numerische Mathematik I 336
15 Definition und Satz: GSV und ESV für stark diagonaldominante Matrizen Es folgen zwei Anwendungen von Satz Definition und Satz: GSV und ESV für stark diagonaldominante Matrizen Eine Matrix A R n n heißt stark diagonaldominant, falls a ii > n a ij für alle 1 i n. j=1 j i Ist A stark diagonaldominant, so gilt für die Iterationsmatrizen J und H 1 ρ(j) J < 1, ρ(h 1 ) J < 1. Numerische Mathematik I 337
16 Definition und Satz: GSV und ESV für stark diagonaldominante Matrizen Beweis: Die Voraussetzung liefert a ii 0 für alle i. Also sind J und H 1 wohldefiniert. Die erste Abschätzung folgt sofort aus ρ(j) J = D 1 1 (L +R) = max a ij < 1. 1 i n a ii j i Sei nun µ C ein Eigenwert von H 1 mit zugehörigem Eigenvektor w und w = 1. Dann ist µw = (D +L) 1 Rw = µ(d +L)w = Rw = µw = D 1 (µl +R)w. (8.1.4) Daraus erhalten wir µ = µw = D 1 (µl +R)w D 1 (µl +R) 1 i 1 n = max µa ij + a ij. 1 i n a ii j=1 j=i+1 (8.1.5) Die Annahme µ 1 führt zum Widerspruch 1 i 1 n µ max µa ij + µa ij < µ. 1 i n a ii j=1 j=i+1 Also gilt µ < 1 und (8.1.5) ergibt 1 i 1 n µ max a ij + a ij = J < 1. 1 i n a ii j=1 j=i+1 Numerische Mathematik I 338
17 Definition: Schwach diagonaldominante Matrix In der Praxis treten häufig Matrizen auf, die ein etwas schwächeres Kriterium erfüllen Definition: Schwach diagonaldominante Matrix Eine Matrix A R n n heißt schwach diagonaldominant, wenn a ii n a ij für alle 1 i n, j=1 j i und wenn mindestens ein 1 r n existiert mit a rr > n a rj. j=1 j r Numerische Mathematik I 339
18 Definition: Unzerlegbare Matrix Zusätzlich verlangt man eine weitere Eigenschaft: Definition: Unzerlegbare Matrix Eine Matrix A R n n heißt zerlegbar, wenn es zwei nichtleere Indexmengen I,J {1,2,...,n} gibt mit und I J = {1,2,...,n}, I J =, a i,j = 0 für alle i I, j J. Mit anderen Worten: A ist zerlegbar, wenn es eine Permutationsmatrix P gibt, so dass [ ] PAP T A11 0 = A 21 A 22 gilt. Falls keine solche Zerlegung existiert, heißt A unzerlegbar oder auch irreduzibel. Die Irreduzibilität lässt sich auch so feststellen: Zu beliebigen Indizes 0 r,s n gibt es eine Kette weiterer Indizes k 1,...,k m mit a r,k1 0, a k1,k 2 0, a k2,k a km,s 0. (8.1.6) Numerische Mathematik I 340
19 Satz: GSV und ESV für schwach diagonaldominante unzerlegbare Matrizen Nun lässt sich Satz erweitern Satz: GSV und ESV für schwach diagonaldominante unzerlegbare Matrizen Die Matrix A R n n sei schwach diagonaldominant und unzerlegbar. Dann gilt: a) A ist regulär, b) alle Diagonalelemente a ii sind ungleich 0, c) sowohl das Gesamtschrittverfahren als auch das Einzelschrittverfahren konvergieren für jeden Startvektor x (0). Numerische Mathematik I 341
20 Satz: GSV und ESV für schwach diagonaldominante unzerlegbare Matrizen Beweis: Da A unzerlegbar ist, enthält A keine Nullzeile. Aus der schwachen Diagonaldominanz folgt dann a ii > 0 für alle i, und die Matrizen J und H 1 sind wohldefiniert. Wie in folgt aus der schwachen Diagonaldominanz ρ(j) J 1, ρ(h 1 ) J 1. Wir müssen also nur ausschließen, dass Eigenwerte vom Betrag 1 auftreten. Angenommen, es existiert ein Eigenwert λ C von J mit λ = 1. Sei v zugehöriger Eigenvektor mit v = 1. Der Index r sei gegeben mit v r = 1. Aus λv = Jv folgt (in jeder Zeile i) v i = λv i 1 a ij v j, 1 i n. (8.1.7) a ii j i Für einen Index s liefert die schwache Diagonaldominanz sowie v j 1 v s 1 a sj < 1. a ss j s Wegen v r = 1 ist r s. Aufgrund der Unzerlegbarkeit existiert eine Kette r,k 1,...,k m,s wie in (8.1.6). Wir erhalten aus (8.1.7) den Widerspruch v km. v r 1 a km,km a km,j v j + a km,s }{{} j k m,s 0 v s < 1, 1 a rr a r,j v j + a r,k1 v k1 }{{} < 1. j r,k 1 0 Numerische Mathematik I 342
21 Satz: Konvergenz von ESV für positiv-definite Matrizen Für H 1 verläuft der Beweis von ähnlich, siehe dazu (8.1.5). Für eine weitere Klasse von Matrizen konvergiert das Einzelschrittverfahren Satz: Konvergenz von ESV für positiv-definite Matrizen Falls A positiv definit ist, so konvergiert das Einzelschrittverfahren. Numerische Mathematik I 343
22 Satz: Konvergenz von ESV für positiv-definite Matrizen Beweis: Die Diagonalelemente von A erfüllen a ii > 0, also ist H 1 wohldefiniert. Wir definieren zunächst die Vektornorm x A := x T Ax und zeigen für die zugehörige Operatornorm H 1 A = max{ H 1 x A ; x A = 1} < 1. Dann ist auch ρ(h 1 ) H 1 A < 1 (Hilfssatz 8.1.8). Man beachte die Äquivalenz H 1 A < 1 x T H T 1 AH 1x < x T Ax für alle x 0 x T (A H T 1 AH 1)x > 0 für alle x 0. Mit X := (D +L) 1 und der Symmetrie von A = L+D +L T (also R = L T ) folgt und weiter A H T 1 AH 1 H 1 = XR = X(A+X 1 ) = I +XA, = A (I +XA) T A(I +XA) = A (I +AX T )A(I +XA) = A A AX T A AXA AX T AXA = (AX T A+AXA+AX T AXA) = AX T (X 1 +(X T ) 1 +A) XA }{{} = D = AX T DXA = (XA) T D(XA). Die Diagonalmatrix D ist positiv definit (wegen a ii > 0 wie oben), X und A sind regulär, also ist (XA) T D(XA) ebenfalls positiv definit (Sylvesterscher Trägheitssatz). q.e.d. Numerische Mathematik I 344
23 Das SOR (=successive over-relaxation)-verfahren Um die Konvergenz beim ESV zu beschleunigen, wird in jedem Berechnungsschritt (innere Schleife des ESV) eine Verlängerung der Korrektur vorgenommen: Das SOR (=successive over-relaxation)-verfahren Die Matrix A habe Diagonalelemente a ii 0. Weiter sei ω R. (ω wird Relaxationsparameter genannt.) 1. Wähle beliebigen Startvektor x (0) R n, z.b. x (0) i 2. Für k = 0,1,2,... für i = 1,2,...,n x (k+1) i = 1 i 1 b i a ii j=1 a ij x (k+1) j n j=i+1 = bi a ii. a ij x (k) j x (k+1) i = ω x (k+1) i +(1 ω)x (k) i. Bemerkung: Eine entsprechende Änderung beim Gesamtschrittverfahren liefert das JOR-Verfahren; dies wird hier nicht diskutiert. Numerische Mathematik I 345
24 Beispiel: Beispiel: Tabelle 8.3: SOR zum 1-dim. Modellproblem aus 8.1.4, h = 1 5, ω = 1.2 x (0) x (1) x (2) x (3) x (4) x (5) x (6) x (7) x (13) Tabelle 8.4: SOR zum 1-dim. Modellproblem aus 8.1.4, h = 1 5, ω = 1.3 x (0) x (1) x (2) x (3) x (4) x (5) x (6) x (7) x (9) Zur Wahl des optimalen Relaxationsparameters vgl.?? Numerische Mathematik I 346
25 Iterationsfunktion des SOR-Verfahrens Iterationsfunktion des SOR-Verfahrens Mit A = L+D +R wie in lautet die Iterationsfunktion des SOR-Verfahrens φ SOR (x) = H ω x +ω(d +ωl) 1 b. mit der Iterationsmatrix H ω = (D +ωl) 1 ((1 ω)d ωr). Herleitung: Umstellung der Gleichungen in gibt Dies lautet a ii x (k+1) i 1 i +ω a ij x (k+1) j j=1 = ωb i ω n j=i+1 a ij x (k) j +(1 ω)a ii x (k) i. (D +ωl)x (k+1) = ωb +((1 ω)d ωr)x (k). Bemerkung: Für ω = 1 ist φ SOR = φ ESV in Numerische Mathematik I 347
26 Satz: Konvergenzanalyse Satz: Konvergenzanalyse a) von Kahan: Für beliebiges A mit Diagonalelementen a ii 0 und beliebiges ω R ist ρ(h ω ) ω 1. Die Konvergenz des SOR-Verfahrens kann also höchstens für ω (0, 2) eintreten. b) von Reich und Ostrowski: Für jede positiv definite Matrix A und jedes ω (0,2) gilt ρ(h ω ) < 1, also ist das SOR-Verfahren konvergent. Numerische Mathematik I 348
27 Satz: Konvergenzanalyse Beweis: a) Mit L = D 1 L und R = D 1 R schreibt man H ω um in H ω = (D +ωl) 1 ((1 ω)d ωr) = (I +ω L) 1 D 1 D ((1 ω)i ω R). }{{} = I Weil L und R strikte untere bzw. obere Dreiecksmatrizen sind, folgt deth ω = det(i +ω L) 1 det((1 ω)i ω R) = (1 ω) n. Weil deth ω gleich dem Produkt aller Eigenwerte von H ω ist, folgt ρ(h ω) 1 ω. b) Wir zeigen H ω A < 1 wie in Dies ist wieder äquivalent zur positiven Definitheit der Matrix A H T ωah ω. Mit X := (D +ωl) 1 und R = A D L ist H ω = X((1 ω)d ω(a D L)) = X(D+ωL ωa) = X( X 1 ωa) = I +ωxa. Weiter ergibt sich wie in A H T ω AHω = ωaxt (X 1 +(X T ) 1 +ωa) XA }{{} = (2 ω)d = ω(2 ω)ax T DXA mit der positiv definiten Matrix AX T DXA aus Weil ω(2 ω) > 0 für alle ω (0,2) gilt, ist alles gezeigt. Numerische Mathematik I 349
28 Beispiel: Beispiel: Die Modellmatrix A = tridiag( 1,2, 1) R n n in Beispiel besitzt die Eigenwerte ( ) kπ λ k = 2 1 cos, 1 k n. n+1 Einfache Rechnung ergibt für J = D 1 (L +R) = 1 (2I A) die Eigenwerte 2 Mit h := 1 n+1 ist µ k = cos kπ n+1. ρ(j) = cosπh = 1 π2 h 2 +O(h 4 ), 2 ρ(h 1 ) = ρ(j) 2 = cos 2 πh = 1 π 2 h 2 +O(h 4 ), ω 1 für ω ω, ρ(h ω) = ( 1 ωρ(j)+ 2 ω 4 2 ρ(j) 2 4(ω 1)) für ω < ω. Der Wert ω = ω 2 = 1+ (1,2) liefert das Minimum 1 ρ(j) 2 ρ(h ω ) = ω 1 = 1 1 ρ(j) ρ(j) 2 = 1 sinπh 1+sinπh = 1 2πh +O(h2 ). Dies ist eine deutliche Verbesserung der Rate der linearen Konvergenz. Numerische Mathematik I 350
29 Diskussion: Diskussion: Die im Beispiel gemachte Beobachtung trifft bei Matrizen eines speziellen Typs zu, die bei der Diskretisierung partieller Dgl n auftreten. In diesen Spezialfällen ( M-Matrizen) gilt ρ(h 1 ) = ρ(j) 2 < 1 und ρ(h ω) hat die in angegebene Form. Das absolute Minimum liegt beim optimalen Relaxationsparameter 1 < ω 2 = 1+ 1 ρ(j) < 2, 2 es hat den Wert ρ(h ω ) = ω 1 = 1 1 ρ(j) ρ(j) < 1. 2 ρ(j) ρ(h 1 ) ρ(h ω ) ω linkes Bild, s. Beispiel rechtes Bild ω * = Numerische Mathematik I 351
Numerische Mathematik für Ingenieure (SoSe 2013)
Numerische Mathematik für Ingenieure (SoSe 2013) PD Dr(USA) Maria Charina Auszüge aus Vorlesungsfolien von Prof Joachim Stöckler werden verwendet Für die Bereitstellung dieses Materials und der Tex-Files
MehrKapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen
Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung
MehrKapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen
Kapitel 2: Lineare Gleichungssysteme 21 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,,255}, n = 1,,N, m = 1,,M dig Camera Realisierung von B η ist
Mehr2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren
2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;
MehrIterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
MehrKAPITEL 1. Einleitung
KAPITEL 1 Einleitung Wir beschäftigen uns in dieser Vorlesung mit Verfahren aus der Numerischen linearen Algebra und insbesondere dem sogenannten Mehrgitterverfahren zur Lösung linearer Gleichungssysteme
Mehr5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme
5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme Als zweite Hauptanwendung des Banachschen Fixpunktsatzes besprechen wir in diesem Kapitel die iterative Lösung linearer Gleichungssysteme. Die
MehrNumerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
Mehr38 Iterative Verfahren für lineare Gleichungssysteme
38 Iterative Verfahren für lineare Gleichungssysteme 38.1 Motivation Viele praktische Probleme führen auf sehr große lineare Gleichungssysteme, bei denen die Systemmatrix dünn besetzt ist, d. h. nur wenige
MehrBegleitmaterial zur Vorlesung Numerik I
Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik
MehrIII. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische lineare Iterationsverfahren
III. Iterative Löser III.1 Direkte Löser und ihre Nachteile III.2 Klassische lineare Iterationsverfahren Typeset by FoilTEX 1 Erinnerung: Lineares Gleichungssystem bei FDM Diskretisierung einer linearen
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der
MehrNumerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen
(für Informatiker) M. Grepl J. Berger & J.T. Frings Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2010/11 Problemstellung Lineare Gleichungssysteme, iterative Verfahren geg.:
MehrKonvergenz des Jacobi- und Gauß-Seidel-Verfahrens
Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens Bachelor-Arbeit im -Fach Bachelorstudiengang Mathematik der Mathematisch-Naturwissenschaftlichen Fakultät der Christian-Albrechts-Universität zu Kiel vorgelegt
MehrWiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
Mehr4 Iterative Lösung Linearer Gleichungssysteme 4.1 Fixpunktiteration und Konvergenzsätze.
4 Iterative Lösung Linearer Gleichungssysteme 4.1 Fixpunktiteration und Konvergenzsätze. Wir betrachten das lineare Gleichungssystem der Form Ax = b; (4.1.1) mit A R n n reguläre Matrix und b R n gegeben,
MehrIterative Lösung Linearer Gleichungssysteme
Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:
Mehr2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p
Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.
Mehr3. Lineare Gleichungssysteme
3. Lineare Gleichungssysteme 1 3.1. Problemstellung 2 3.2. Direkte Verfahren 3 3.3. Normen und Fehleranalyse 4 3.4. Iterative Verfahren 5 3.5. Konvergenz von linearen Iterationsverfahren 6 3.6. Gradienten-Verfahren
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 11 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 2010 Prof. Dr. Klaus Höllig
MehrKapitel 6. Iterationsverfahren für lineare Gleichungssysteme
Kapitel 6 Iterationsverfahren für lineare Gleichungssysteme Falls n sehr groß ist und falls die Matrix A dünn besetzt ist (sparse), dann wählt man zur Lösung von Ax = b im Allgemeinen iterative Verfahren.
MehrKapitel 1. Vektoren und Matrizen. 1.1 Vektoren
Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren
MehrD-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch. Musterlösung 6. x A 1 b. A 1 b A 1. x A ( A. gestört: x A 1 =
D-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch Musterlösung 6 1. a b exakt: x = c Die Inverse von A lautet x = A 1 b x = A 1 b x A 1 b x A 1 b x A 1 b A x b x κ A b x b 3 1 A 1 = gestört:
MehrKAPITEL 5. Nichtlineare Gleichungssysteme
KAPITEL 5. Nichtlineare Gleichungssysteme Beispiel 5.1. Gravitationskraft zwischen zwei Punktmassen m 1 und m 2 mit gegenseitigem Abstand r: F = G m 1m 2 r 2, wobei G = 6.67 10 11 Nm 2 /kg. Gravitationsfeld
MehrLineare Algebra und analytische Geometrie II
Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 53 Norm von Endomorphismen und Matrizen Definition 53.1. Es seien V und W endlichdimensionale normierte K-
Mehr4.6 Berechnung von Eigenwerten
4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.
MehrEINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK II 1. Numerische Lineare Algebra. Prof. Dr. Hans Babovsky. Institut für Mathematik
EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK II 1 Numerische Lineare Algebra Prof. Dr. Hans Babovsky Institut für Mathematik Technische Universität Ilmenau 1 Version vom Sommer 2010 INHALTSVERZEICHNIS 1 Inhaltsverzeichnis
Mehr5 Numerische Iterationsverfahren
In diesem Kapitel besprechen wir numerische Iterationsverfahren (insbesondere Fixpunktverfahren) als eine weitere Lösungsmethode zur Lösung von linearen Gleichungssystemen (Kapitel 4) sowie zur Lösung
Mehr7. Iterative Lösung. linearer Gleichungssysteme
7. Iterative Lösung linearer Gleichungssysteme 1 Grundlagen (1) Zur Erinnerung: Gesucht ist die Lösung eines linearen Gleichungssystems a 0,0 x 0 +a 0,1 x 1 + a 0,n 1 x n 1 = b 0 a 1,0 x 0 +a 1,1 x 1 +
MehrIII. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische Iterationsverfahren. III.3 GMRES und CG-Verfahren
III. Iterative Löser III.1 Direkte Löser und ihre Nachteile III.2 Klassische Iterationsverfahren III.3 GMRES und CG-Verfahren Kapitel III (0) 1 Erinnerung: Lineares Gleichungssystem bei FDM Diskretisierung
MehrKapitel 4: Nichtlineare Nullstellenprobleme
Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 4: Nichtlineare Nullstellenprobleme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 2015 HM: Numerik (SS
MehrBegleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme
Begleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik 1
MehrEigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
Mehr2 Lineare Gleichungssysteme
2 Lineare Gleichungssysteme Wir betrachten das lineare Gleichungssystem Ax = b mit der n n-koeffizientenmatrix A und der rechten Seite b R n. Wir leiten zuerst eine Variante des Gauss-Algorithmus (LR-Zerlegung)
MehrLineare Iterationsverfahren: Definitionen
Lineare Iterationsverfahren: Definitionen 1. Ein Lösungsverfahren zur Berechnung von Ax = b heißt iterativ, falls ausgehend von einem Startwert x eine Folge x k von Iterierten bestimmt wird. 2. Ein Iterationsverfahren
Mehr3 Lineare Differentialgleichungen
3 Lineare Differentialgleichungen In diesem Kapitel behandeln wir die allgemeine Theorie linearer Differentialgleichungen Sie werden zahlreiche Parallelen zur Theorie linearer Gleichungssysteme feststellen,
Mehr6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
MehrKapitel 5 Iterative Verfahren für LGS
Kapitel 5 Iterative Verfahren für LGS Einführung Matrixnormen Splitting Verfahren Mehrgitter (Multigrid) Verfahren Gradientenverfahren Vorkonditionierung CG-Verfahren Abbruch von iterativen Verfahren Zusammenfassung
Mehr(d) das zu Grunde liegende Problem gut konditioniert ist.
Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
MehrZiel: Iterative Lösung der (nichtlinearen) Gleichung f(x) = 0.
6.4 Fixpunkt-Iteration Ziel: Iterative Lösung der (nichtlinearen) Gleichung f(x) = 0. Möglichkeiten: Bisektionsverfahren (Intervallhalbierung) Newton-Verfahren, x k+1 = x k f(x k) f (x k ) für k = 0, 1,
MehrLineare Gleichungssysteme
I Lineare Gleichungssysteme 1. Gauß Algorithmus Gegeben: Ein lineares Gleichungssystem (GLS) A x = b mit einer regulären (n, n) Koeffizientenmatrix A und der rechten Seite b. Da A regulär, ist das GLS
MehrKurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen
Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)
MehrNichtlineare Gleichungssysteme
Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei
MehrLineare Gleichungssysteme: direkte Verfahren
Sechste Vorlesung, 24. April 2008, Inhalt Lineare Gleichungssysteme: direkte Verfahren Dreiecksmatrizen Gauß-Elimination LR-Zerlegung Anwendungen: Determinante, Inverse 1 Lösungsverfahren für lineare Gleichungssysteme
MehrJacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren
Universität Hamburg SS 2005 Proseminar Numerik Leitung: Prof. W. Hofmann Vortrag von Markus Stürzekarn zum Thema: Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren Gegeben sei ein lineares
Mehr51 Numerische Berechnung von Eigenwerten und Eigenvektoren
5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,
MehrMathematik für Physiker, Informatiker und Ingenieure
Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel V SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme 6. Vorlesung 170004 Numerische Methoden I Clemens Brand 25. März 2010 Nachträge Gliederung Nachträge it Nachträge Wichtige Begriffe Eine Zusammenfassung der Folien 8 16 der letzten
MehrFinite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015
Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 5 Aufgabe 8 (Speichertechniken) Finite Elemente Übung 5 a) Stellen Sie die Matrix
MehrInstitut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf
Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf Praktikum im Sommersemester 2012 Programmierpraktikum numerische Algorithmen (P2E1) (Numerische Lösung der Wärmeleitungsgleichung)
MehrBanach scher Fixpunktsatz. 1) D ist abgeschlossen und konvex; 2) f ist selbstabbildend, d.h. f(d) D;
Institut für Geometrie und Praktische Mathematik Höhere Mathematik IV (für Elektrotechniker und Technische Informatiker) - Numerik - SS 2007 Dr. S. Börm, Dr. M. Larin Banach scher Fixpunktsatz Gegeben
Mehr8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren
8. Vorlesung, 5. April 2017 170 004 Numerische Methoden I Eigenwerte und Eigenvektoren 1 Eigenwerte und Eigenvektoren Gegeben ist eine n n-matrix A. Gesucht sind ein vom Nullvektor verschiedener Vektor
MehrMathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen
Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β
MehrModulprüfung Numerische Mathematik 1
Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel
Mehrbekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR
LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine
MehrHauptachsentransformation: Eigenwerte und Eigenvektoren
Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung
MehrLösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1
D-MAVT Lineare Algebra II FS 8 Prof. Dr. N. Hungerbühler Lösungen Serie. Welche der folgenden Vektoren sind Eigenvektoren der Matrix? (a) (,, ). Ein Vektor v ist Eigenvektor von A :=, falls Av ein skalares
MehrEigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009
Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx
MehrAlgorithmik kontinuierlicher Systeme
Algorithmik kontinuierlicher Systeme Iterative Verfahren (2/2) Ziel dieser Vorlesung Wie schnell können wir Gleichungssysteme lösen? O(n 3 ) LR- oder QR-Zerlegung: Immer anwendbar Komplexität im Allgemeinen
Mehr5.1 Iterative Lösung linearer Gleichungssysteme
5.1 Iterative Lösung linearer Gleichungssysteme à Gegeben: A Œ Ñ n,n regulär, b Œ Ñ n Gesucht: x èè Œ Ñ n : Ax èè = b bzw. Iterationsverfahren: x H0L Œ Ñ n, x Hm+1L := GHx HmL L, m=0,1,..., mit x HmL ô
Mehr8 Iterationsverfahren zur Lösung von Gleichungssystemen
Numerische Mathematik 378 8 Iterationsverfahren zur Lösung von Gleichungssystemen Nichtlineare Gleichungssysteme (sogar eine nichtlineare Gleichung in einer Unbekannten) müssen fast immer iterativ gelöst
MehrDer CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist
MehrEigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)
Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein
MehrNumerische Mathematik für Ingenieure und Physiker
Willi Törnig Peter Spellucci Numerische Mathematik für Ingenieure und Physiker Band 1: Numerische Methoden der Algebra Zweite, überarbeitete und ergänzte Auflage Mit 15 Abbildungen > Springer-Verlag Berlin
Mehrm 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23
Kapitel 5 Eigenwerte 5. Definition und Beispiele Wir sehen uns ein System dreier schwingender Kugeln der Massen m, m und m 3 an, die durch Federn aneinander gekoppelt sein sollen. m k m k 3 m 3 x ( t x
MehrVektor und Matrixnormen Vorlesung vom
Vektor und Matrixnormen Vorlesung vom 20.12.13 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse
MehrSysteme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.
Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x
Mehr4.4 Hermitesche Formen
44 Hermitesche Formen Wie üblich bezeichnen wir das komplex konjugierte Element von ζ = a + bi C (a, b R) mit ζ = a bi Definition 441 Sei V ein C-Vektorraum Eine hermitesche Form (HF) auf V ist eine Abbildung
MehrKapitel 5. Lösung nichtlinearer Gleichungen
Kapitel 5. Lösung nichtlinearer Gleichungen 5.1 Nullstellen reeller Funktionen, Newton-Verfahren 5.2 Das Konvergenzverhalten iterativer Verfahren 5.3 Methode der sukzessiven Approximation 5.4 Das Newton-Verfahren
MehrEigenwerte, Diagonalisierbarkeit, charakteristisches Polynom
Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 12
Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=
MehrLineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v
MehrNumerik I. Universität zu Köln SS 2009 Mathematisches Institut Prof. Dr. C. Tischendorf Dr. M. Selva,
Universität zu Köln SS 009 Mathematisches Institut Prof. Dr. C. Tischendorf Dr. M. Selva, mselva@math.uni-koeln.de Numerik I Musterlösung 1. praktische Aufgabe, Bandmatrizen Bei der Diskretisierung von
MehrLineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
Mehra 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:
Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
MehrInstitut für Geometrie und Praktische Mathematik
RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik 4 Punkte Es gibt zu jeder der Aufgaben vier Teilaufgaben. Diese sind mit bzw. zu kennzeichnen hinschreiben. Es müssen
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
MehrVektor und Matrixnormen Vorlesung vom
Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse
Mehr18.4 Das Newton-Verfahren
18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift
MehrErweiterungen der LR-Zerlegung
Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen
MehrNewton-Verfahren für ein Skalarfunktion
Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren
MehrMusterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen
Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können
Mehr3 Elementare Umformung von linearen Gleichungssystemen und Matrizen
3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange
Mehri j m f(y )h i h j h m
10 HÖHERE ABLEITUNGEN UND ANWENDUNGEN 56 Speziell für k = 2 ist also f(x 0 + H) = f(x 0 ) + f(x 0 ), H + 1 2 i j f(x 0 )h i h j + R(X 0 ; H) mit R(X 0 ; H) = 1 6 i,j,m=1 i j m f(y )h i h j h m und passendem
MehrNumerische Behandlung von linearen Gleichungssystemen
Numerische Behandlung von linearen Gleichungssystemen Der Gauÿ'sche Algorithmus Der Gauÿ'sche Algorithmus ist schon besprochen worden. Er eignet sich zwar prinzipiell gut zur Bestimmung der Lösung eines
MehrMusterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:
Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,
Mehr9 Lineare Gleichungssysteme
9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der
MehrLineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
MehrBeginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)
M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.
MehrSkript zur Vorlesung: Einführung in die numerische Mathematik
Skript zur Vorlesung: Einführung in die numerische Mathematik Numerische Lineare Algebra Prof Dr PE Kloeden Institut für Mathematik Johann Wolfgang Goethe Universität Zimmer 0, Robert-Mayer-Straße 0 Telefon:
Mehr5 Numerische Mathematik
6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul
Mehr7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012)
Technische Universität München Zentrum Mathematik, M1 Prof. Dr. Boris Vexler Dr. Ira Neitzel Dipl.-Math. Alana Kirchner 7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Diese Auswahl
MehrExponentialabbildung für Matrizen und Systeme von Differentialgleichungen
Proseminar Lineare Algebra SS10 Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen Simon Strahlegger Heinrich-Heine-Universität Betreuung: Prof. Dr. Oleg Bogopolski Inhaltsverzeichnis:
MehrMultiplikationen und Divisionen Hauptarbeit des Algorithmus liegt somit in der Berechnung der LR-Zerlegung. (n 1)n(2n 1) 6. = n3 3 n2.
KAPITEL LINEARE GLEICHUNGSSYSTEME 7 Rechenaufwand der LR-Zerlegung: A A : n Divisionen, n 2 Multiplikationen und Additionen A L, R: Also insgesamt n j= j2 + j = n3 3 n 3 Multiplikationen und Divisionen
MehrLösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink
Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung
MehrAusgleichsproblem. Definition (1.0.3)
Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst
MehrLösungsskizze zur Wiederholungsserie
Lineare Algebra D-MATH, HS Prof. Richard Pink Lösungsskizze zur Wiederholungsserie. [Aufgabe] Schreibe die lineare Abbildung f : Q Q 5, x +x +x x x +x +6x f x := x +x +8x x x +x +x. x +x +5x als Linksmultiplikation
Mehr