4 Iterative Lösung Linearer Gleichungssysteme 4.1 Fixpunktiteration und Konvergenzsätze.

Größe: px
Ab Seite anzeigen:

Download "4 Iterative Lösung Linearer Gleichungssysteme 4.1 Fixpunktiteration und Konvergenzsätze."

Transkript

1 4 Iterative Lösung Linearer Gleichungssysteme 4.1 Fixpunktiteration und Konvergenzsätze. Wir betrachten das lineare Gleichungssystem der Form Ax = b; (4.1.1) mit A R n n reguläre Matrix und b R n gegeben, und suchen die eindeutige Lösung x R n dieses Systems. Die GEM liefert Lösungsvectoren x R n, die (bis auf Rundungsfehler) exakt sind in O(n 3 /3) Operationen. Oft ist man aber schon mit approximativen Lösungen x von (4.1.1) zufrieden, die mit wesentlich weniger Aufwand berechnet werden können. Numerische Methoden, die dies leisten, heissen iterative Verfahren. Iterative Lösungsverfahren für (4.1.1) liefern, ausgehend von einem Startvektor x (0) R n eine Folge {x (k) } k=1 von Vektoren, die gegen die eindeutige Lösung x von (4.1.1) konvergiert: x = lim k x (k) x x (k) 0 für k. Diese Verfahren gehen von der Fixpunktform des linearen Gleichungssystems (4.1.1) aus: x = Bx + f (4.1.2) Um (4.1.1) auf Fixpunktform zu bringen, spalten wir die Matrix A auf: A = P N, P, N R n n (4.1.3) wobei die Matrix P der sog. Vorkonditionierer (engl. Preconditioner) und die Matrix N der sog. nichtdiagonale Anteil (engl. nondiagonal part) der Matrix A ist. Mit der Aufspaltung (4.1.3) schreiben wir (4.1.1) um in P x = Nx + b und erhalten die Fixpunktform (4.1.2) mit der Iterationsmatrix B = P 1 N. Mit der Aufspaltung (4.1.3) erhalten wir das Iterationsverfahren P x (k+1) = Nx (k) + b x (k+1) = Bx (k) + f (4.1.4) Die Aufspaltung (4.1.3) ist nicht eindeutig jede Aufspaltung ergibt eine andere Iteration. Ausschlaggebend für die Wahl einer Aufspaltung sind folgende, sich oft widersprechende, Kriterien: a) einfache Invertierbarkeit der Vorkonditionierungsmatrix P und b) Kleinheit des Nichtdiagonalanteils N und damit schnelle Konvergenz der Fixpunktiteration (4.1.4). 84

2 Wir sagen, die Fixpunktiteration (4.1.4) sei konsistent mit dem System (4.1.1), falls die Fixpunktgleichung (4.1.2) genau eine Lösung hat, die (4.1.1) löst. Wir untersuchen die Konvergenz der Fixpunkiteration (4.1.4). Hierfür subtrahieren wir (4.1.2) von (4.1.4); dies ergibt die Fehlerrekurrenz e (k+1) = Be (k), k = 0, 1, 2,..., wobei e (k) := x (k) x. (4.1.5) Offensichtlich gilt x (k) x genau dann, wenn e (k) = x (k) x 0 gilt. Wegen e (k) = Be (k 1) = B 2 e (k 2) =... = B k e (0) ist dies genau dann der Fall für beliebigen Startvektor x (0) R n, wenn B k 0 für k. Nach Theorem ist dies genau dann der Fall, wenn ρ(b) < 1 ist. Theorem Die Fixpunktiteration (4.1.4) konvergiert genau dann für alle Startvektoren x (0) R n, wenn ρ(b) < 1 ist. Für die Iteration P x (k+1) = Nx (k) + f gelten folgende allgemeinen Konvergenzsätze, die wir ohne Beweis angeben. Proposition Sei A = P N mit A, P SPD. Falls 2P A positiv definit, konvergiert die Iteration für jedes x (0) und für die Iterationsmatrix B = P 1 N gilt ρ(b) = B A = B P < 1. Die Konvergenz ist monoton in der Norm A und der Norm P : e (k+1) P e (k) P, e (k+1) A e (k) A. Proposition Sei A = P N SPD und es gelte P + P A positiv definit. Dann existiert P 1, und die Iteration (4.1.2) konvergiert monoton in der Norm A und es gilt ρ(b) B A < Beispiele. Jacobi- und Gauss-Seidel Verfahren. Wir geben die wichtigsten Beispiele für die Aufspaltungen A = P N. Beispiel (Jacobi-Iteration) Sei n = 3, und Ax = b zu lösen. Wir schreiben x 1 = (b 1 a 12 x 2 a 13 x 3 )/a 11 x 2 = (b 2 a 21 x 1 a 23 x 3 )/a 22 x 3 = (b 3 a 31 x 1 a 32 x 2 )/a 33. Sei nun x (0) gegeben, dann ist die Jacobi-Iteration für n > 1 beliebig für i = 1 : n ( i 1 n ) / x (k+1) i := b i a ij x (k) j a ij x (k) j a ii, i = 1 : n (4.2.6) j=1 j=i+1 85

3 Beispiel (Gauss-Seidel Iteration) Beachte: (4.2.6) benutzt für x (k+1) i nicht die neueste Information und der Speicher für die x (k) ist 2n. Besser ist es, die x (k) j, j < i, gleich zu ersetzen: ( i 1 x (k+1) i := b i j=1 a ij x (k+1) j Wir schreiben (4.2.6), (4.2.7) symbolisch. Dazu n j=i+1 ) / a ij x (k) j a ii. (4.2.7) A = L + D + U (4.2.8) wo a 12 a 1n a D =... a, L = , U = a an 1,n. nn a n1 a n,n Dann ist Jacobi in Fixpunktform: Dx (k+1) = b Lx (k) Ux (k) x (k+1) = D 1( b Lx (k) Ux (k)) = D 1 (L + U) }{{} x(k) + D 1 b = B J x (k) + c. (4.2.9) Analog erhalten wir aus (4.2.7) das Verfahren von Gauss-Seidel in Fixpunktform: (4.2.7) x (k+1) = D 1( b Lx (k+1) Ux (k)) (D + L) x (k+1) = Ux (k) + b (4.2.10) x (k+1) = (D + L) 1 Ux (k) + (D + L) 1 b x (k+1) = B GS x (k) + c mit der Iterationsmatrix B GS = (D + L) 1 U, c = (D + L) 1 b. Einen ersten Konvergenzsatz erhalten wir für diagonaldominante Matrizen A. Definition A R n n heisst zeilendiagonaldominant, falls a ii n a ij, i = 1,..., n, j=1 j i 86

4 und spaltendiagonaldominant, falls a ii n a ji, i = 1,..., n. j=1 j i Falls > gilt, ist A streng zeilen- bzw. spaltendiagonaldominant. Es gilt Theorem Sei A streng zeilen- bzw. spaltendiagonaldominant. Dann konvergieren das Jacobi- sowie das GS-Verfahren. Beweis: Wir müssen entweder zeigen, dass ρ(b J ) < 1 ist oder dass B J M < 1 in einer submultiplikativen Matrixnorm M. Wir zeigen B J < 1. Sei dazu A streng zeilendiagonaldominant. Dann ist a ii j i a ij, i = 1 : n, und B J = max i=1:n n j=1 j i a ij / a ii < 1. Wann konvergiert GS? Theorem Sei A R n n SPD. Dann konvergiert GS (4.2.10) für alle x (0) R n. Beweis: A = A = U = L, also x (k+1) = B GS x (k) + c, B GS = (D + L) 1 L. Wir lassen im Rest des Beweises den Superskript GS weg. Wir zeigen in zwei Schritten. ρ(b) < 1 i) A SPD = 0 x R n : x Ax > 0. = a ii = e i Ae i > 0 = D > 0 = D ±1/2 = diag(a ±1/2 ii ) existiert. ii) Wegen Bx = λx = D 1 2 BD 1 2 D 1 2 x = λd 1 2 x hat B1 := D 1 2 BD 1 2 gleiche Eigenwerte wie B, und es gilt ρ(b) < 1 ρ(b 1 ) < 1. Es gilt weiter Sei x C n Eigenvektor von B 1 : B 1 = (1 + L 1 ) 1 L 1 mit L 1 = D 1 2 LD 1 2. B 1 x = λx, x H x = 1. Dann gilt: L 1 x = λ(1 + L 1)x = x H L 1 x = λ(1 + xh L 1 x). 87

5 Sei x H L 1 x = a + bi, mit a, b R. = λ 2 = a bi 1 + a + bi 2 = a 2 + b a + a 2 + b 2. D 1 2 AD 1 2 = 1 + L1 + L 1 pos. def. = 0 < 1 + x H L 1 x + x H L T 1 x = 1 + 2a = λ < Relaxationsverfahren. JOR und SOR-Verfahren Eine Verallgemeinerung des Jacobi-Verfahrens ist die sogenannte Überrelaxationsmethode (oder JOR von Jacobi Overrelaxation), bei der man zuerst die Näherung (4.2.9), die mit x (k+1) J = D 1 (b Lx (k) Ux (k) ) bezeichnet sei, berechnet, und dann mit einem Relaxationsparameter ω > 0 die neue Näherung x (k+1) berechnet nach x (k+1) = ω x (k+1) J + (1 ω) x (k). Für ω = 0 erhält man x (k+1) = x (k), ω = 1 ergibt offensichtlich das Jacobi-Verfahren; für ω > 1 geht man weiter in Richtung des Jacobischritts x (k+1), und man spricht von Überrelaxation, für ω < 1 resultiert die sogenannte Unterrelaxation. Es gilt x (k+1) = B J ω x(k) + f mit B J ω = ω B J + (1 ω) I und B J = D 1 (L + U) = I D 1 A, Das JOR Verfahren lässt sich auch als Residualkorrektur x (k+1) = x (k) + ωd 1 r (k), r (k) = b Ax (k). schreiben. Theorem Für A R n n SPD konvergiert JOR für 0 < ω < 2/ρ(D 1 A). Beweis: Übung. Sei A R n n SPD zerlegt wie in (4.2.8): A = D + L + L. (4.3.1) Dann ist das Gauss-Seidel Verfahren für Ax = b 88

6 nach (4.2.10): x (k+1) GS = D 1 (b Lx (k+1) L x (k) ). (4.3.2) Das SOR(ω)-Verfahren erhält man durch dämpfen bzw. verlängern eines GS Schrittes. Sei dazu wieder ω > 0 ein sog. Relaxations-Parameter. Dann gilt Fixpunktform: wo x (k+1) SOR := (1 ω) x(k) + ω x (k+1) GS = (1 ω) x (k) + ω D 1( b Lx (k+1) L x (k)). (4.3.3) x (k+1) = B SOR (ω) x (k) + c(ω) (4.3.4) B SOR (ω) := (D + ωl) 1 [ (1 ω) D ωl ], c(ω) := ω(d + ωl) 1 b. (4.3.5) Theorem Sei A R n n SPD. Genau dann konvergiert SOR(ω) für alle x (0) R n, wenn 0 < ω < 2. Beweis: Sei λ Eigenwert von B(ω) in (4.4.4). Dann existiert 0 z C n mit B(ω) z = λz, woraus mit (4.3.5) und A = D + L + L = D + L + U folgt ( (1 ω)d ωu ) z = λ(d + ωl)z. (4.3.6) Aber 2(1 ω)d 2ωU = (2 ω)d ωa + ω(l U), 2(D + ωl) = (2 ω)d + ωa + ω(l U). Einsetzen in (4.3.6) und multiplizieren von (4.3.6) von links mit z H = (2 ω) z H Dz ωz H Az ωz H (U U) z = λ [ (2 ω) z H Dz + ωz H Az ωz H (U U) z ]. (4.3.7) A SPD, z 0 und a ii > 0 = d := z H Dz > 0, a := z H Az > 0. Weiter ist (U U) schiefsymmetrisch = z H (U U) z = ir, r R. Damit ist (4.3.7): und es folgt (2 ω)d ωa + iωr = λ [ (2 ω)d + ωa + iωr ] λ = (2 ω)d ωa + iωr (2 ω)d + ωa + iωr. (4.3.8) Nun ist (2 ω)d ωa < (2 ω)d + ωa 0 < ω < 2, während die Imaginärteile von Zähler und Nenner in (4.3.8) gleich sind. Daher λ(ω) < 1 für 0 < ω < 2 und ρ ( B(ω) ) < 1, da λ beliebiger Eigenwert von B(ω) war. 89

7 4.4 Konvergenzraten und Stoppkriterien. Für kontrahierende Iterationsmatrizen B konvergiert also die Fixpunktiteration (4.1.4) für alle Startvektoren x (0) C n gegen den eindeutigen Fixpunkt x von (4.1.2). Für die Numerik ist neben der Konvergenz vor allem folgendes wichtig: a) wie genau ist x (k) nach k-schritten, d.h. wie schnell der Fehler e (k) = x (k) x (0) gegen Null strebt; dies ist die Konvergenzgeschwindigkeit, und b) wie die Iteration gestoppt werden soll, d.h. das sog. Abbruchkriterium. Der folgende Satz gibt hierüber Auskunft. Proposition Sei B C n n kontrahierend, d.h. ρ(b) < 1, und sei {x (k) } k=0 Folge sukzessiver Approximationen (4.1.4) des Fixpunkts x von (4.1.2). Dann gilt: Für alle α (ρ(b), 1) und jede Vektornorm auf C n existiert C(n, α) derart, dass die a-priori Fehlerschätzung x (k) x C(n, α) gilt. Weiterhin gilt die (im allgemeinen genauere) a-posteriori Fehlerabschätzung x (k) x C(n, α) sowie die residualbasierte Fehlerschätzung x (k) x C(n, α) α k 1 α x(1) x (0) (4.4.1) α 1 α x(k) x (k 1) (4.4.2) α 1 α r(k) (4.4.3) wo r (k) := x (k) Bx (k) f das (berechenbare!) Residuum der Iterierten x (k) in der Fixpunktgleichung (4.1.2) ist. Beweis: i) B kontrahierend = ρ(b) < 1. Nach Theorem existiert für alle 0 < ε < 1 ρ(b) eine Norm auf C n derart, dass B = sup 0 x C n Bx x ρ(b) + ε < 1. ii) Sei die gegebene Norm auf C n. Wegen der existieren c 1 (n), c 2 (n) > 0 mit Äquivalenz von Normen auf dem Cn x C n : c 1 x x c 2 x. 90

8 iii) Aus der Fehlerrekurrenz (4.1.5) folgt und, für k 1, e (k+1) B e (k) (ρ(b) + ε) e (k) x (k+1) x (k) = B(x (k) x (k 1) ) (ρ(b) + ε) x (k) x (k 1). (ρ(b) + ε) k x (1) x (0). iv) Sei α := ρ(b) + ε < 1. Dann gilt für alle p 1, p ganz, p x (k+p) x (k) x (k+i) x (k+i 1) ) i=1 (1 + α + + α p 1 ) x (k+1) x (k) (4.4.4) 1 αp 1 α αk x (1) x (0). Für p und beliebiges, festes k 1 folgt wegen α p 0 und x (k+p) x, dass Aus Schritt ii) erhalten wir dann x x (k) c 1 (n) x x (k) x x (k) woraus (4.4.1) mit C(n) = c 2 (n)/c 1 (n) folgt. αk 1 α x(1) x (0). αk 1 α x(1) x (0) c 2 (n) v) Zum Beweis von (4.4.2) gehen wir aus von (4.4.4) in der Form und lassen p. vi) Um (4.4.3) zu zeigen, beachten wir (4.1.2): und die Definition des Residuums gibt x (k+p) x (k) 1 αp 1 α x(k+1) x (k), α k 1 α x(1) x (0) x = Bx + c (4.4.5) x (k) = Bx (k) + c + r (k). (4.4.6) 91

9 Vergleich von (4.4.5), (4.4.6) zeigt, dass das Residuum r (k) misst um wieviel die Iterate x (k) die Fixpunktgleichung (4.1.2) verletzt. Genauer: (4.4.6) - (4.4.5) = r (k) = 0 x (k) = x e (k) = 0. x (k) x = B ( x (k) x ) + r (k) (I B) ( x (k) x ) = r (k) r (k) = (I B) e (k) Wegen ρ(b) < 1 existiert (I B) 1 (Korollar 3.5.2) und nach Korollar ii): e (k) = (I B) 1 r (k) (1 B ) 1 r (k) (1 α) 1 r (k). Dann folgt (4.4.3) aus ii) mit C = c 2 /c 1. In obigen Abschätzungen war α im Wesentlichen gleich ρ(b). Wir sehen aus (4.4.1), dass die Fehlerreduktion pro Schritt der Fixpunktiteration (4.1.4) bestimmt ist durch ρ(b). Wir sehen weiter aus (4.4.3), dass das Residuum bis auf einen Faktor, der von ρ(b) sowie von n abhängt, gleich ist dem Fehler in der Iterierten x (k). Bemerkung Die Wichtigkeit des Vorkonditionierers P ist damit klar: falls der Spektralradius von B = P 1 N = P 1 (P A) = I P 1 A wesentlich kleiner ist als der von I A, wird die Fixpunktiteration (4.1.4) schneller konvergieren und (4.4.3) wird ein besseres Stoppkriterium sein. Das Finden von Vorkonditionierern P die einfach zu invertieren sind und für die ρ(i P 1 A) klein ist, ist daher für die effiziente iterative Lösung grosser Gleichungssysteme wesentlich. Entweder man benutzt Information über die Herkunft von A oder man versucht sog. Black-Box Vorkonditionierer zu schreiben. Standardzugang ist hier die sog. unvollständige LU-Zerlegung, siehe [QSS1], Kap 4.3. Neuere Zugänge basieren auf Konstruktion von P durch rekursive Niedrigrangapproximation von A, den sog. H-Matrizen. 4.5 Instationäre Iterationsverfahren Richardson-Verfahren Alle bisher betrachteten Methoden liessen sich als Fixpunktiteration mit fester Iterationsmatrix B schreiben. Dies sind sogenannte stationäre Verfahren. Alternativ dazu können wir auch instationäre Verfahren betrachten, bei denen B = B k ist. Das einfachste instationäre Verfahren ist das sogenannte Richardson-Verfahren. Wir leiten es wie folgt her: x (k+1) = x (k) + α P 1 r (k), (4.5.1) 92

10 wobei α > 0 ein Relaxationsparameter und r (k) = b Ax (k) (4.5.2) das Residuum von x (k) ist. Die Iterationsmatrix lautet hier B = I αp 1 A, also in (4.5.1) stationär. Ist α von Schritt k abhängig, also α = α k, dann erhalten wir die Iterationsmatrizen B k = I α k P 1 A. Beachte, dass das Jacobi- sowie das GS-Verfahren Spezialfälle des stationären Richardson- Verfahrens sind mit α = 1, P = D bzw. P = D + L. Theorem Sei P nichtsingulär und λ i C die Eigenwerte von P 1 A: λ i σ(p 1 A). Dann konvergiert das stationäre Richardson-Verfahren (4.5.1) genau dann, wenn gilt. Beweis: Es gilt B α = I αp 1 A und daher gilt 2 Rλ i > 1, i = 1 : n, (4.5.3) α λ i 2 ρ(b α ) = max{ λ i (B α ) : i = 1 : n} = max{ 1 α λ i (P 1 A) : i = 1 : n} < 1 genau dann, wenn 1 αλ i < 1. Daraus folgt (1 α Rλ i ) 2 + (αiλ i ) 2 < 1, was (4.5.3) beweist. Theorem Sei P nichtsingulär und P 1 A habe positive reelle Eigenwerte λ 1 λ 2 λ n > 0. Dann konvergiert das stationäre Richardson-Verfahren (4.5.1) genau dann, wenn 0 < α < 2/λ 1. Für α = α opt := 2/(λ 1 + λ n ), ist der Spektralradius von B minimal, d.h. ρ opt = min α>0 ρ(b α) = λ 1 λ n λ 1 + λ n. (4.5.4) Beweis: Die Eigenwerte der Matrix B α sind durch λ i (B α ) = 1 αλ 1 gegeben, so dass (4.5.1) genau dann konvergiert, wenn λ i (B α ) < 1 für i = 1,..., n gilt, d.h. wenn 0 < α < 2/λ 1. Es folgt (siehe Fig. 4.1), dass ρ(b α ) minimal für 1 αλ n = αλ 1 1 wird, d.h. für α = 2/(λ 1 +λ n ), was den gewünschten Wert für α opt liefert. Durch Substitution erhält man den gewünschten Wert von ρ opt. 93

11 1 αλ 1 ρ = 1 1 αλ k fig4.1.eps mm ρ opt 1 αλ n 1 α opt 2 1 λ 1 λ 1 λ n α Fig. 4.1: Spektralradius von R α als Funktion der Eigenwerte von P 1 A Bemerkung Für P 1 A SPD gilt cond 2 (P 1 A) = λ 1 /λ n. Damit folgt aus (4.5.4), dass ρ opt = λ 1/λ n 1 λ 1 /λ n + 1 = cond 2(P 1 A) 1 cond 2 (P 1 A) + 1 (4.5.5) ist - somit hängt die Konvergenzgeschwindigkeit des Richardson Verfahrens (4.5.1) ausschliesslich von cond 2 (P 1 A) ab. Die Konstruktion eines billigen Vorkonditionierers kann man z.b. mit der unvollständigen LU-Zerlegung (sogenannte ILU-Belegung ) von A erhalten (vgl. [QSS1], Kap für Details) Gradientenverfahren Sei A R n n SPD, b R n gegeben. Dann ist die Lösung vom LGS Ax = b (4.5.6) charakterisiert durch das Minimum des quadratischen Potentials zu A: Φ(y) = 1 2 y Ay y b; (4.5.7) denn wegen A SPD ist Φ( ) strikt konvex: für alle y 1, y 2 R n, y 1 y 2, und für 0 < θ < 1 gilt Φ(θy 1 + (1 θ)y 2 ) < θφ 1 (y 1 ) + (1 θ) Φ(y 2 ). 94

12 Deshalb hat Φ( ) ein eindeutiges Minimum x auf R d mit Beachte, dass für alle y x R d und x = A 1 b R d gilt ( Φ)(x) = Ax b! = 0. (4.5.8) Φ(y) Φ(x) = 1 2 (y x) A (y x) = 1 2 y x 2 A > 0 (4.5.9) (nachrechnen!), so dass x in der Tat das Minimum von Φ( ) auf R d realisiert. Das Gradientenverfahren zur iterativen Lösung von (4.5.6) basiert hierauf. Sei x (0) Näherung für x. Wir suchen nun a) eine Abstiegsrichtung ( descent direction ) d (0) und b) eine Schrittweite α > 0 derart, dass die Bedingung Φ(x (1) )! < Φ(x (0) ) erfüllt. Wegen x (1) := x (0) + α d (0) (4.5.10) Wahl von d (0) : wähle die Richtung d (0), in der Φ(x (0) ) am kleinsten ist: also d (0) 2 = 1 Φ d (0) (x(0) ) = d (0) ( Φ)(x (0) )! = min. (4.5.11) ist die Richtung des steilsten Abstiegs von Φ an x (0) gerade Für d 2 = 1 ist ja die Richtungsableitung von Φ( ) an x (0) Φ(x (0) ) = Ax (0) b = r (0) (4.5.12) d (0) := r (0) / r (0) 2 : (4.5.13) d ( Φ)(x (0) ) = r (0) d = cos ϕ r (0) 2 wo ϕ der von r (0) und d eingeschlossene Winkel ist: d ϕ fig4.2.eps mm r (0) Also wird Φ(x(0) ) d für ϕ = 0 oder für d (0) = r (0) / r (0) 2 minimal, und (4.5.11) lautet x (1) = x (0) + α r (0), α > 0. (4.5.14) Wir bestimmen das optimale α > 0, α 0 aus der Liniensuche Φ(x (0) + α 0 r (0) ) = min α>0 Φ(x(0) + αr (0) ). (4.5.15) 95

13 Dies ist, für gegebenes x (0) und r (0), ein quadratisches Polynom ϕ(α). Es gilt woraus ϕ (α 0 ) = α folgt (nachrechnen!). Iteration ergibt Algorithmus (Gradientenverfahren) x (0) R n gegeben. Für k = 0, 1, 2,..., berechne ( Φ(x (0) + αr (0) ) ) α=α0 = ( Φ)(x (0) + αr (0) ) r (0) α=α0! = 0 α 0 = r(0) r (0) r (0) Ar (0) r (k) := b Ax (k) α k := r(k) r (k) r (k) Ar (k) (4.5.16) x (k+1) := x (k) + α k r (k). Theorem Sei A R n n SPD. Dann ist das Gradientenverfahren, Algorithmus 4.5.4, für alle x (0) R n konvergent und es gilt e (k+1) A cond 2(A) 1 cond 2 (A) + 1 e(k) A, k = 0, 1, 2,... (4.5.17) Konjugierte Gradienten (cg) Verfahren ([QSS1, 4.3.4]) Wir verallgemeinern das Gradientenverfahren, Algorithmus 4.5.4, indem wir von x (k) in eine Richtung p (k) die nicht mehr notwendig gleich der Richtung des steilsten Abstiegs des Potentials Φ( ) ist, um die Länge α > 0 gehen. Insbesondere ist p (k) nicht mehr gleich r (k). Analog zu (4.5.16) erhält man α k = p(k) r (k). (4.5.18) p (k) Ap (k) Da die exakte Lösung das Potential Φ( ) minimiert, verlangen wir nach wie vor, dass die Richtung p (k) eine Abstiegsrichtung des Potentials Φ ist. Die Schrittlänge α > 0 bestimmen wir wieder so, dass das Potential in Richtung p (k) minimiert wird. Die folgende Definition formalisiert dies. Definition Ein Punkt x (k) R n heisst optimal bezüglich 0 p R n λ R : Φ(x (k) ) Φ(x (k) + λp). (4.5.19) Falls (4.5.19) für alle p V R d, heisst x (k) optimal bezüglich dem Unterraum V R n. 96

14 Bemerkung Es gilt r (k) = b Ax (k) p, denn 0 = Φ λ (x(k) + λp) λ=0 = p (Ax (k) b) + λp Ap λ=0 p r (k) = 0. Idee des cg: erzeuge {x (k) } k=0 so, dass x(k) optimal bezüglich V k R n mit dim V k = k. Dann ist r (k) V k, k = 1, 2,... und r (n) V n r (n) = 0. Dazu: sei x (k) optimal bezüglich p V k. Dann ergibt die Forderung x (k+1) optimal bezüglich p V k, dass r (k+1) p sein muss, also dass gelten muss 0 = p r (k+1) = p ( b Ax (k+1)) = p ( b A(x (k) + q) ) = p ( r (k) Aq ) = p Aq. Definition Zwei Richtungen p, q R n heissen A konjugiert p Aq = 0. Idee: Erzeuge eine Folge A-konjugierter Richtungen p (k). Da A SPD, sind die p (k) linear unabhängig und k = dimv k = dim span{p (1),..., p (k) }. Sei dazu (Ansatz): p (k+1) = r (k+1) β k p (k), k = 0, 1, 2,... (4.5.20) mit β k R so, dass Ap (j) p (k+1), j = 0, 1,..., k, also 0 = (Ap (j) ) p (k+1) = (p (j) ) Ap (k+1) j = 0, 1,..., k. (4.5.21) (4.5.21) für j = k = β k = (Ap(k) ) r (k+1) (Ap (k) ) p (k), k = 0, 1, 2,.... Dann gilt (4.5.21) auch für alle j < k. (Übung!). Der folgende Algorithmus formalisiert diese Konstruktion. Wichtig ist dabei, dass in jedem Schritt nur eine Matrix-Vektor Multiplikation ausgeführt werden muss. Residuum r (k) und die Abstiegsrichtung d (k) werden direkt mit der Näherung x (k) aktualisiert. Algorithmus b, x (0) R n, A R n n SPD gegeben. r (0) := b Ax (0), p (0) := r (0). 97

15 Für k = 0, 1, 2,... do: α k = p(k) r (k) p (k) Ap (k) x (k+1) = x (k) + α k p (k) r (k+1) = r (k) α k Ap (k) β k = (Ap(k) ) r (k+1) (Ap (k) ) p (k) p (k+1) = r (k+1) β k p (k) end; Theorem Sei A R n n SPD, b R n. Dann gilt: a) Jede Methode, die A konjugierte Richtungen verwendet, bricht in exakter Arithmetik nach max. n Schritten ab. b) Für x (k) aus cg-algorithmus gilt mit e (k) A c = 2ck 1 + c 2k e(0) A (4.5.22) cond2 (A) 1 cond2 (A) + 1 < Vorkonditioniertes cg-verfahren Die Abschätzung (4.5.22) zeigt, dass die Konvergenz des cg-verfahrens durch die Kondition cond 2 (A) bestimmt ist. In der Praxis sind cg-verfahren nur dann erfolgreich für sehr grosse SPD Matrizen A, wenn sie in wesentlich weniger als n Schritten schon sehr gute Näherungen liefern. Dies ist, nach der Abschätzung (4.5.22), genau dann der Fall, wenn die Konstante c dort deutlich kleiner als 1 ist. Hierzu ist es notwendig, die Kondition der Matrix A klein zu machen. Idee: Sei A R n n SPD und P R n n SPD ein Vorkonditionierer: Vor Anwendung des cg-verfahrens schreiben wir das lineare System Ax = b um wie folgt: Ax = b P 1 2 AP 1 2 }{{} P 1 2 x = P }{{} 1 2 b. }{{} B y c und wenden das cg-verfahren auf das LGS mit der Vorkonditionierten Matrix B := P 1 2 AP 1 2 an. 98

16 Wichtig hierbei ist, dass das vorkonditionierte cg-verfahren algorithmisch realisiert werden kann, ohne dass j s die Matrix B explizit gebildet wird! Falls nämlich A sowie P dünn besetzt sind, ist in der Regel B voll besetzt, und die Berechnung von B sowie x Bx benötigt wesentlich mehr Speicher und Arbeitsaufwand als die Speicherung von A, P beziehungsweise die Operationen x y := Ax und y z := P 1 y (die natürlich als Lösung des Hilfsgleichungssystems P z = y realisiert wird). Auf den ersten Blick nicht offensichtlich ist ebenfalls, dass im Vorkonditionierten cg-verfahren P 1/2 niemals gebildet werden muss. Algorithmus (pccg). Seien A, P in R n n und b, x (0) R n gegeben. Setze: Berechne für k = 0, 1, 2,...: r (0) = b Ax (0), z (0) = P 1 r (0), p (0) = z (0) α k = (p(k) ) r (k) (p (k) ) Ap (k) x (k+1) = x (k) + α k p (k) r (k+1) = r (k) α k Ap (k) P z (k+1) = r (k+1) β k := (Ap(k) ) z (k+1) (Ap (k) ) p (k) p (k+1) := z (k+1) β k p (k). Als Übungsaufgabe rechne man nach, dass Algorithmus in der Tat das cg-verfahren Algorithmus angewandt auf die Matrix B = P 1/2 AP 1/2 ergibt. 99

3. Lineare Gleichungssysteme

3. Lineare Gleichungssysteme 3. Lineare Gleichungssysteme 1 3.1. Problemstellung 2 3.2. Direkte Verfahren 3 3.3. Normen und Fehleranalyse 4 3.4. Iterative Verfahren 5 3.5. Konvergenz von linearen Iterationsverfahren 6 3.6. Gradienten-Verfahren

Mehr

Numerische Mathematik für Ingenieure (SoSe 2013)

Numerische Mathematik für Ingenieure (SoSe 2013) Numerische Mathematik für Ingenieure (SoSe 2013) PD Dr(USA) Maria Charina Auszüge aus Vorlesungsfolien von Prof Joachim Stöckler werden verwendet Für die Bereitstellung dieses Materials und der Tex-Files

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

38 Iterative Verfahren für lineare Gleichungssysteme

38 Iterative Verfahren für lineare Gleichungssysteme 38 Iterative Verfahren für lineare Gleichungssysteme 38.1 Motivation Viele praktische Probleme führen auf sehr große lineare Gleichungssysteme, bei denen die Systemmatrix dünn besetzt ist, d. h. nur wenige

Mehr

7. Iterative Lösung. linearer Gleichungssysteme

7. Iterative Lösung. linearer Gleichungssysteme 7. Iterative Lösung linearer Gleichungssysteme 1 Grundlagen (1) Zur Erinnerung: Gesucht ist die Lösung eines linearen Gleichungssystems a 0,0 x 0 +a 0,1 x 1 + a 0,n 1 x n 1 = b 0 a 1,0 x 0 +a 1,1 x 1 +

Mehr

Lineare Iterationsverfahren: Definitionen

Lineare Iterationsverfahren: Definitionen Lineare Iterationsverfahren: Definitionen 1. Ein Lösungsverfahren zur Berechnung von Ax = b heißt iterativ, falls ausgehend von einem Startwert x eine Folge x k von Iterierten bestimmt wird. 2. Ein Iterationsverfahren

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 21 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,,255}, n = 1,,N, m = 1,,M dig Camera Realisierung von B η ist

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 11 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 2010 Prof. Dr. Klaus Höllig

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme 2 Lineare Gleichungssysteme Wir betrachten das lineare Gleichungssystem Ax = b mit der n n-koeffizientenmatrix A und der rechten Seite b R n. Wir leiten zuerst eine Variante des Gauss-Algorithmus (LR-Zerlegung)

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.

Mehr

Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf

Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf Praktikum im Sommersemester 2012 Programmierpraktikum numerische Algorithmen (P2E1) (Numerische Lösung der Wärmeleitungsgleichung)

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei

Mehr

Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens

Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens Bachelor-Arbeit im -Fach Bachelorstudiengang Mathematik der Mathematisch-Naturwissenschaftlichen Fakultät der Christian-Albrechts-Universität zu Kiel vorgelegt

Mehr

8 Iterationsverfahren zur Lösung von Gleichungssystemen

8 Iterationsverfahren zur Lösung von Gleichungssystemen Numerische Mathematik 378 8 Iterationsverfahren zur Lösung von Gleichungssystemen Nichtlineare Gleichungssysteme (sogar eine nichtlineare Gleichung in einer Unbekannten) müssen fast immer iterativ gelöst

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen (für Informatiker) M. Grepl J. Berger & J.T. Frings Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2010/11 Problemstellung Lineare Gleichungssysteme, iterative Verfahren geg.:

Mehr

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme Als zweite Hauptanwendung des Banachschen Fixpunktsatzes besprechen wir in diesem Kapitel die iterative Lösung linearer Gleichungssysteme. Die

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

Näherungsverfahren zur Bestimmung der Nullstelle α sind iterativ, d.h. sie liefern eine Folge {x (k) } k=0 mit α = lim x (k). (3.0.

Näherungsverfahren zur Bestimmung der Nullstelle α sind iterativ, d.h. sie liefern eine Folge {x (k) } k=0 mit α = lim x (k). (3.0. 3 Nullstellenbestimmung von Funktionen Sei x f(x) eine reellwertige Funktion, definiert auf einem Intervall I = [a, b] R. suchen Nullstellen der Funktion f, d.h. Wir finde α R so, das f(α) = 0. (3.0.1)

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

Kapitel 5 Iterative Verfahren für LGS

Kapitel 5 Iterative Verfahren für LGS Kapitel 5 Iterative Verfahren für LGS Einführung Matrixnormen Splitting Verfahren Mehrgitter (Multigrid) Verfahren Gradientenverfahren Vorkonditionierung CG-Verfahren Abbruch von iterativen Verfahren Zusammenfassung

Mehr

Lösbarkeit linearer Gleichungssysteme

Lösbarkeit linearer Gleichungssysteme Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn

Mehr

Kapitel 4: Nichtlineare Nullstellenprobleme

Kapitel 4: Nichtlineare Nullstellenprobleme Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 4: Nichtlineare Nullstellenprobleme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 2015 HM: Numerik (SS

Mehr

Finite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015

Finite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015 Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 5 Aufgabe 8 (Speichertechniken) Finite Elemente Übung 5 a) Stellen Sie die Matrix

Mehr

KAPITEL 5. Nichtlineare Gleichungssysteme

KAPITEL 5. Nichtlineare Gleichungssysteme KAPITEL 5. Nichtlineare Gleichungssysteme Beispiel 5.1. Gravitationskraft zwischen zwei Punktmassen m 1 und m 2 mit gegenseitigem Abstand r: F = G m 1m 2 r 2, wobei G = 6.67 10 11 Nm 2 /kg. Gravitationsfeld

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β

Mehr

Lineare Algebra. 10. Übungsstunde. Steven Battilana.

Lineare Algebra. 10. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,

Mehr

EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK II 1. Numerische Lineare Algebra. Prof. Dr. Hans Babovsky. Institut für Mathematik

EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK II 1. Numerische Lineare Algebra. Prof. Dr. Hans Babovsky. Institut für Mathematik EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK II 1 Numerische Lineare Algebra Prof. Dr. Hans Babovsky Institut für Mathematik Technische Universität Ilmenau 1 Version vom Sommer 2010 INHALTSVERZEICHNIS 1 Inhaltsverzeichnis

Mehr

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear

Mehr

5 Numerische Iterationsverfahren

5 Numerische Iterationsverfahren In diesem Kapitel besprechen wir numerische Iterationsverfahren (insbesondere Fixpunktverfahren) als eine weitere Lösungsmethode zur Lösung von linearen Gleichungssystemen (Kapitel 4) sowie zur Lösung

Mehr

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009 Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

18.4 Das Newton-Verfahren

18.4 Das Newton-Verfahren 18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift

Mehr

Algorithmik kontinuierlicher Systeme

Algorithmik kontinuierlicher Systeme Algorithmik kontinuierlicher Systeme Iterative Verfahren (2/2) Ziel dieser Vorlesung Wie schnell können wir Gleichungssysteme lösen? O(n 3 ) LR- oder QR-Zerlegung: Immer anwendbar Komplexität im Allgemeinen

Mehr

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012)

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Technische Universität München Zentrum Mathematik, M1 Prof. Dr. Boris Vexler Dr. Ira Neitzel Dipl.-Math. Alana Kirchner 7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Diese Auswahl

Mehr

Iterative Lösung Linearer Gleichungssysteme

Iterative Lösung Linearer Gleichungssysteme Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:

Mehr

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können

Mehr

5 Numerische Mathematik

5 Numerische Mathematik 6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul

Mehr

KAPITEL 7. Berechnung von Eigenwerten. Av = λv

KAPITEL 7. Berechnung von Eigenwerten. Av = λv KAPITEL 7. Berechnung von Eigenwerten Aufgabe: Sei A R n n eine reelle quadratische Matrix. Gesucht λ C und v C n, v 0, die der Eigenwertgleichung Av = λv genügen. Die Zahl λ heißt Eigenwert und der Vektor

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

(d) das zu Grunde liegende Problem gut konditioniert ist.

(d) das zu Grunde liegende Problem gut konditioniert ist. Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt

Mehr

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen 1 Zum Aufwärmen 1.1 Notationen In diesem Teil der Vorlesung bezeichnen wir Körper mit K, Matrizen mit Buchstaben A,B,..., Vektoren mit u,v,w,... und Skalare mit λ,µ,... Die Menge der m n Matrizen bezeichnen

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 5 Aufgabe 5.1 Kommutierende Matrizen In der Vorlesung und vergangenen

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

5 Lineare Gleichungssysteme und Determinanten

5 Lineare Gleichungssysteme und Determinanten 5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von

Mehr

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest

Mehr

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)

Mehr

Numerische Mathematik für Ingenieure und Physiker

Numerische Mathematik für Ingenieure und Physiker Willi Törnig Peter Spellucci Numerische Mathematik für Ingenieure und Physiker Band 1: Numerische Methoden der Algebra Zweite, überarbeitete und ergänzte Auflage Mit 15 Abbildungen > Springer-Verlag Berlin

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016 Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b

Mehr

Ausgleichsproblem. Definition (1.0.3)

Ausgleichsproblem. Definition (1.0.3) Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

3 Lineare Differentialgleichungen

3 Lineare Differentialgleichungen 3 Lineare Differentialgleichungen In diesem Kapitel behandeln wir die allgemeine Theorie linearer Differentialgleichungen Sie werden zahlreiche Parallelen zur Theorie linearer Gleichungssysteme feststellen,

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

D-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch. Musterlösung 6. x A 1 b. A 1 b A 1. x A ( A. gestört: x A 1 =

D-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch. Musterlösung 6. x A 1 b. A 1 b A 1. x A ( A. gestört: x A 1 = D-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch Musterlösung 6 1. a b exakt: x = c Die Inverse von A lautet x = A 1 b x = A 1 b x A 1 b x A 1 b x A 1 b A x b x κ A b x b 3 1 A 1 = gestört:

Mehr

Erweiterungen der LR-Zerlegung

Erweiterungen der LR-Zerlegung Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen

Mehr

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v

Mehr

6. Iterationsverfahren. Fixpunktiteration. 6.Iterationsverfahren: Fixpunktiteration Numerisches Programmieren, Jürgen Bräckle page 1 of 16

6. Iterationsverfahren. Fixpunktiteration. 6.Iterationsverfahren: Fixpunktiteration Numerisches Programmieren, Jürgen Bräckle page 1 of 16 6. Iterationsverfahren Fixpunktiteration Numerisches Programmieren, Jürgen Bräckle page 1 of 16 Beispiel: Ausbreitung eines Grippevirus in einem Kindergarten Zeitpunkt t 0 t 1 t 2 t 3 t 4 t 5 Anteil kranker

Mehr

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

51 Numerische Berechnung von Eigenwerten und Eigenvektoren 5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Newton-Verfahren für ein Skalarfunktion

Newton-Verfahren für ein Skalarfunktion Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren

Mehr

Numerisches Programmieren, Übungen

Numerisches Programmieren, Übungen Technische Universität München SoSe 3 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Jürgen Bräckle Numerisches Programmieren, Übungen Musterlösung 3. Übungsblatt:

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Institut für Geometrie und Praktische Mathematik Diplom VP Numerik 13. September 004 Aufgabe 1 10 0 40 Gegeben sei die Matrix A = 80 10 10. 10 5 5 (6 Punkte) a) Skalieren (Zeilenäquilibrierung)

Mehr

Ferienkurs Numerik Lösungsskizze. 1 Iterative Verfahren für lineare Gleichungssysteme

Ferienkurs Numerik Lösungsskizze. 1 Iterative Verfahren für lineare Gleichungssysteme Technische Universität München SoSe 1 Zentrum Mathematik Ferienkurse Dipl.-Math. Konrad Waldherr Ferienkurs Numerik Lösungsskizze 1 Iterative Verfahren für lineare Gleichungssysteme 1. Wir erhalten folgende

Mehr

Das CG-Verfahren. Sven Wetterauer

Das CG-Verfahren. Sven Wetterauer Das CG-Verfahren Sven Wetterauer 06.07.2010 1 Inhaltsverzeichnis 1 Einführung 3 2 Die quadratische Form 3 3 Methode des steilsten Abstiegs 4 4 Methode der Konjugierten Richtungen 6 4.1 Gram-Schmidt-Konjugation.........................

Mehr

Lineare Gleichungssysteme Hierarchische Matrizen

Lineare Gleichungssysteme Hierarchische Matrizen Kompaktkurs Lineare Gleichungssysteme Hierarchische Matrizen M. Bebendorf, O. Steinbach O. Steinbach Lineare Gleichungssysteme SIMNET Kurs 24. 27.4.26 / 6 Numerische Simulation stationäre und instationäre

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 20.12.13 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB)

Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Prof. R. Leithner, Dipl. Phys. E. Zander Wintersemester 2010/2011 Kapitel 5 Lineare

Mehr

3 Systeme linearer Gleichungen

3 Systeme linearer Gleichungen 3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +

Mehr

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x) 9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten

Mehr

Kapitel 5. Lösung nichtlinearer Gleichungen

Kapitel 5. Lösung nichtlinearer Gleichungen Kapitel 5. Lösung nichtlinearer Gleichungen 5.1 Nullstellen reeller Funktionen, Newton-Verfahren 5.2 Das Konvergenzverhalten iterativer Verfahren 5.3 Methode der sukzessiven Approximation 5.4 Das Newton-Verfahren

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

A 1 A 2 A 3 A 4 A 5 A 6 A 7

A 1 A 2 A 3 A 4 A 5 A 6 A 7 Institut für Geometrie und Praktische Mathematik Numerisches Rechnen für Informatiker WS 7/8 Prof. Dr. H. Esser J. Grande, Dr. M. Larin Klausur Numerisches Rechnen für Informatiker Hilfsmittel: keine (außer

Mehr

Iterative Verfahren zur Lösung von Linearen Gleichungssystemen

Iterative Verfahren zur Lösung von Linearen Gleichungssystemen Kapitel 4 Iterative Verfahren zur Lösung von Linearen Gleichungssystemen Situation: A C n n schwach besetzt, n groß, b C n. Ziel: Bestimme x C n mit Ax = b. 4.1 Spliting-Methoden Die Grundidee ist hier

Mehr

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 = Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

Vortrag 20: Kurze Vektoren in Gittern

Vortrag 20: Kurze Vektoren in Gittern Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die

Mehr

Modulprüfung Numerische Mathematik 1

Modulprüfung Numerische Mathematik 1 Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel

Mehr

Numerische Mathematik 1

Numerische Mathematik 1 Springer-Lehrbuch Numerische Mathematik 1 Bearbeitet von A Quarteroni, R Sacco, F Saleri, L Tobiska 1. Auflage 2001. Taschenbuch. xiv, 370 S. Paperback ISBN 978 3 540 67878 6 Format (B x L): 15,5 x 23,5

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

Ziel: Iterative Lösung der (nichtlinearen) Gleichung f(x) = 0.

Ziel: Iterative Lösung der (nichtlinearen) Gleichung f(x) = 0. 6.4 Fixpunkt-Iteration Ziel: Iterative Lösung der (nichtlinearen) Gleichung f(x) = 0. Möglichkeiten: Bisektionsverfahren (Intervallhalbierung) Newton-Verfahren, x k+1 = x k f(x k) f (x k ) für k = 0, 1,

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

Vorkonditionierer. diskrete stationäre Eulergleichungen

Vorkonditionierer. diskrete stationäre Eulergleichungen Übersicht Bernhard Pollul,, RWTH Templergraben 55, 52056, E-mail: pollul@igpm.rwth-aachen.de Vorkonditionierer für diskrete stationäre Eulergleichungen 1/13 1., Teilprojekt B4 2. Vorkonditionierung 3.

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

Orthogonale Matrix. Definition 4.19

Orthogonale Matrix. Definition 4.19 Orthogonale Matrix Ausgleichsprobleme sind häufig schlecht konditioniert. Matrix des Normalengleichungssystems kann nahezu singulär sein. Spezielle Matrixzerlegung für höhere numerische Stabilität: QR-Zerlegung

Mehr