3. Lineare Gleichungssysteme

Größe: px
Ab Seite anzeigen:

Download "3. Lineare Gleichungssysteme"

Transkript

1 3. Lineare Gleichungssysteme Problemstellung Direkte Verfahren Normen und Fehleranalyse Iterative Verfahren Konvergenz von linearen Iterationsverfahren Gradienten-Verfahren Vorkonditionierung 3. Lineare Gleichungssysteme 1 / 38

2 3.1. Problemstellung lineares Gleichungssystem (GLS) gegeben : Matrix A R n n, d.h. A = (a i,j ) n i,j=1, det(a) 0 Vektor b R n, d.h. b = (b 1,..., b n ) T gesucht : Lösungsvektor x R n, d.h. x = (x 1,..., x n ) T, so dass n Ax = b, d.h. a i,j x j = b i i = 1,..., n j=1 Lösung über Determinanten kostet zu viele Operationen (ca. (n + 1)! ) : x i = 1 det(a) det(a(1),..., a (i 1), b, a (i+1),..., a (n) ), (21! 5.1 e+19) 3. Lineare Gleichungssysteme 2 / 38

3 3.2. Direkte Verfahren Definition (3.1. direkte & iterative Verfahren ) Bei einem direkten Verfahren erhält man die exakte Lösung x (bis auf Rundungsfehler) nach Ausführung einer endlichen Anzahl von Operationen. Bei einem iterativen Verfahren erhält man die exakte Lösung x nur als Grenzwert einer Folge von Näherungsvektoren x (k), k = 1, 2,.... Beispiel für direktes Verfahren : Gauß-Algorithmus (steht in engem Zusammenhang mit folgender Zerlegung der Matrix A ) : u.. k,j A =. l..... i,k Lineare Gleichungssysteme 3 / 38

4 LU-Zerlegung Definition (3.2.) untere Dreiecksmatrix (lower triangular matrix ) : L = (l i,j ) mit l i,j = 0 j > i obere Dreiecksmatrix (upper triangular matrix ) : U = (u i,j ) mit u i,j = 0 j < i LU-Zerlegung : A R n n besitzt eine LU-Zerlegung, wenn eine untere Dreiecksmatrix L R n n und eine obere Dreiecksmatrix U R n n existieren, so dass A = LU. Eindeutigkeit der LU-Zerlegung im Fall det(a) 0 : wenn l i,i = 1 i, dann ist die LU-Zerlegung von A eindeutig 3. Lineare Gleichungssysteme 4 / 38

5 Lösung des GLS über LU-Zerlegung angenommen, die LU-Zerlegung von A sei bekannt für die Lösung x des GLS Ax = b gilt dann: Ax = L( }{{} Ux ) = b =:y Lösungsverfahren : 1.) bestimme y durch Lösung von Ly = b (vorwärts einsetzen) 2.) bestimme x durch Lösung von Ux = y (rückwärts einsetzen) vorwärts einsetzen, d.h. löse Ly = b in R n Start : y 1 = b 1 /l 1,1 Schleife: for i = 2 : n ( y i = b i i 1 j=1 l i,j y j )/l i,i end rückwärts einsetzen bei Ux = y analog : Start mit x n = y n /u n,n 3. Lineare Gleichungssysteme 5 / 38

6 Berechnung der LU-Zerlegung (Gauß-Elimination) Idee : erzeuge im Ergebnis des k -ten Schrittes eine Matrix A (k+1) mit Nullen in Spalte k unterhalb der Hauptdiagonalen, wobei k = 1, 2,..., n 1 : A =: A (1) A (2) A (k) A (k+1) A (n 1) A (n) = U Algorithmus : k - ter Schritt : A (k) A (k+1) (Start : A (1) := A ) übernehme fertige Zeilen i k : a (k+1) i,j := a (k) i,j setze Pivot-Element: p k := a (k) k,k ( Vor. p k 0 ) für jede Transformationszeile i > k : li,k := a (k) i,k /p k ( speichern in L ; setze l k,k := 1 ) { 0 Spalten j k a (k+1) i,j := a (k) i,j l i,k a (k) k,j Spalten j > k j = 1,..., n 3. Lineare Gleichungssysteme 6 / 38

7 Spalten-Pivotisierung Beispiel : löse Ax = b (Genauigkeit: b = 10, l = 4 ) [A b] = [A (1) b (1) ] = [A (2) b (2) ] = [ [ e e+4 ] ] x 2 = 1 x 1 = 0 aber : exakte Lösung : x 2 = x 1 = große Empfindlichkeit in Bezug auf Rundungsfehler Abhilfe : besseres Pivotelement durch vorherigen Zeilentausch, d.h. suche in Spalte k ab der Hauptdiagonalen das betragsmäßig größte Pivotelement 3. Lineare Gleichungssysteme 7 / 38

8 Gauß-Algorithmus mit Spalten-Pivotisierung Start: A (1) := A und z (1) i := i i (Permutationsvektor) Schritt: A (k) A (k+1) ( Ziel: Nullen in Spalte k ) wähle in Spalte k den Zeilenindex r, so dass a (k) r,k = max k i n a(k) i,k tausche Zeile r und k : A (k) Ã(k) und z (k) z (k+1) mit a (k) r,j, i = k z (k) r, i = k ã (k) i,j := a (k) k,j, i = r und z (k+1) i := z (k) k, i = r a (k) i,j, sonst z (k) i, sonst wende Gauß-Elimination auf Ã(k) an: Ã (k) A (k+1) 3. Lineare Gleichungssysteme 8 / 38

9 Modifizierte LU-Zerlegung Theorem (3.3 modifizierte LU-Zerlegung) Vor.: Matrix A R n n ist regulär, d.h. det(a) 0 Beh.: Gauß-Elimination mit Spalten-Pivotisierung ist durchführbar und mit U = A (n), L = (l i,k ) und 1, j = z (n) i P = (P i,j ), P i,j = 0, j z (n) i gilt: P A = L U Lösung von Ax = b : PAx = Pb L( Ux ) = Pb =: b Schritt 1: löse Ly = b, wobei bi = b j mit j = z (n) i Schritt 2: löse Ux = y 3. Lineare Gleichungssysteme 9 / 38

10 Zeilenäquilibrierung Einfluß auf die Genauigkeit der Lösung von Ax = b hat die Zahl cond(a) := Konditionszahl von A (Def. später) zur Verbesserung von cond(a) : multipliziere Zeile i von A mit Faktor d i d i := 1 s i, wobei s i := n a i,j (Betrags-Zeilensumme) j=1 neue Matrix : à = (ã i,j) mit ã i,j := d i a i,j oder kurz: d à = D A wobei D := (Diagonalmatrix) 0... d n Übergang zum skalierten GLS : Ax = b }{{} DA x = }{{} Db à b 3. Lineare Gleichungssysteme 10 / 38

11 Andere direkte Verfahren Cholesky - Zerlegung : Vor.: Matrix A ist symmetrisch und positiv definit, d.h. alle Eigenwerte von A sind positiv Beh.: untere Dreiecksmatrix L mit A = L L T Vorteil : man spart Speicherplatz im Vergleich zur LU-Zerlegung QR - Zerlegung : Vor.: Matrix A ist regulär, d.h. det(a) 0 Beh.: orthogonale Matrix Q (d.h. Q 1 = Q T ) und obere Dreiecksmatrix R mit A = Q R Vorteil : keine Verstärkung von Rundungsfehlern 3. Lineare Gleichungssysteme 11 / 38

12 3.3. Normen und Fehleranalyse Definition (3.4. Vektor-Normen) Sei V ein linearer Vektorraum. Eine Norm auf einem Vektorraum V ordnet jedem Element u V eine Maßzahl u 0 zu und genügt folgenden Axiomen: (A1) u = 0 genau dann, wenn u = 0 V (0 V = Nullelement in V ) (A2) λu = λ u λ R, u V (A3) u + v u + v u, v V (Dreiecks-Ungleichung) konkrete Vektor-Normen für x = (x 1,..., x n ) T R n : x 1 := n j=1 x j (l 1 -Norm) x 2 := ( n j=1 x j 2 ) 1/2 (l 2 -Norm, Euklidische Norm) x := max 1 j n x j (l -Norm, Maximum-Norm) 3. Lineare Gleichungssysteme 12 / 38

13 Matrix-Normen Sei A R n n eine n n - Matrix. Definition (3.5. Matrix-Normen) Für eine gegebene Vektor-Norm auf R n ist die zugeordnete Matrix-Norm definiert als: A := Ax sup 0 x R n x Formeln für konkrete Matrix-Normen von A = (a i,j ) R n n : n A 1 := max 1 j n i=1 a i,j (Spaltensummen-Norm) ( ) 1/2 ( 1/2 A 2 := λ max (AA T ) = λ max (A A)) T (Spektral-Norm) A := max 1 i n n j=1 a i,j (Zeilensummen-Norm) Bem. : λ max (M) := größter Eigenwert von M (Vor.: M T = M) 3. Lineare Gleichungssysteme 13 / 38

14 Eigenschaften von Vektor- und Matrix-Normen Lemma (3.6. Norm-Abschätzungen) Seien A, B R n n beliebige n n - Matrizen und x R n ein beliebiger Vektor. Ferner bezeichne eine beliebige Vektor-Norm bzw. die zugeordnete Matrix-Norm. Dann gilt stets: Ax A x AB A B Definition (3.7. Konditionszahl (condition number)) Sei A R n n eine reguläre Matrix (d.h. A 1 ) und eine zugeordnete Matrix-Norm. Dann heißt die Zahl cond(a) := A A 1 die Konditionszahl von A (bezüglich der Norm ). 3. Lineare Gleichungssysteme 14 / 38

15 Fehleranalyse für die Lösung von Ax = b sei x = fehlerbehaftete Lösung von Ax = b mit Fehlervektor x := x x Frage : wie kann man x abschätzen? berechenbar ist das Residuum r von x definiert als : r := A x b dann gilt für den absoluten Fehler : 1 A r x A 1 r für den relativen Fehler gilt : 1 cond(a) r b x x cond(a) r b 3. Lineare Gleichungssysteme 15 / 38

16 Bedeutung der Konditionszahl Problem : löse Ax = b Daumenregel angenommen: cond(a) 10 s seien die relativen Fehler der Rechnung in der Größenordnung 10 k, (z.b in Matlab), also r / b 10 k dann muß man mit folgendem relativen Fehler in der Lösung rechnen: x x 10 (k s), man verliert also etwa s - Stellen an Genauigkeit 3. Lineare Gleichungssysteme 16 / 38

17 3.4. Iterative Verfahren warum iterativ? bei der Diskretisierung partieller DGL entstehen große Gleichungssysteme (mehr als Unbekannte), die aber nur schwach besetzt sind, d.h. weniger als 5 % NNE (Nicht - Null - Elemente) in der Matrix bei direkten Verfahren kommt es zu einer Auffüllung ( fill in ) mit NNE und damit zu einem hohen Speicherplatz-Bedarf bei iterativen Verfahren braucht man nur die NNE speichern iteratives Prinzip : Start k = 0 : wähle Startnäherung x (0) R n Schritt k 1 : x (k) x (k+1) verbessere Näherung x (k) Abbruch : wenn Ax (k) b < TOL 3. Lineare Gleichungssysteme 17 / 38

18 Allgemeines lineares Iterationsverfahren allgemeines lineares Iterationsverfahren Problem: finde Lösung x R n Start: wähle Startvektor x (0) R n des GLS Ax = b Iterationsschritt k 0: berechne neue Näherung x (k+1) als: beachte : x (k+1) = x (k) + C 1( b Ax (k)) } {{ } Korrektur v (k) man berechnet nicht die Matrix C 1 und multipliziert dann mit dem Defekt-Vektor d (k) := b Ax (k), sondern man bestimmt den Korrektur-Vektor v (k) als Lösung des GLS: Cv (k) = d (k) 3. Lineare Gleichungssysteme 18 / 38

19 Das Richardson-Verfahren Verfahren allgemein : x (k+1) = x (k) + C 1( b Ax (k)) Richardson-Verfahren : wähle C := τ 1 I mit geeignetem Parameter τ > 0 ; dann ist C 1 = τi und x (k+1) = x (k) + τ ( b Ax (k)) Vorteil : sehr geringer Aufwand pro Iterationsschritt Nachteil : langsame Konvergenz x (k) x für k 3. Lineare Gleichungssysteme 19 / 38

20 (gedämpftes) Jacobi-Verfahren Dreickszerlegung von A : (nicht verwechseln mit LU-Zerlegung!!) A = L + D + U ( ) ( ) ( ) ( ) = (gedämpftes) Jacobi-Verfahren : wähle C := ω 1 D mit ω > 0 ; dann ist C 1 = ωd 1 Schritt k: x (k+1) = x (k) + ωd 1( b Ax (k)) bei ω = 1 spricht man vom klassischen Jacobi-Verfahren; bei ω < 1 vom gedämpften Jacobi-Verfahren Vor. : für D = (d i,j ) gilt d i,i = a i,i 0 i 3. Lineare Gleichungssysteme 20 / 38

21 praktikable Form des Jacobi-Verfahrens in der Praxis berechnet und speichert man nicht C 1 = ωd 1, sondern löst komponentenweise das GLS Cv (k) = d (k), d.h. ω 1 a 1, a n,n v (k) 1. v (k) n = d (k) 1. d (k) n Zeile i : ω 1 a i,i v (k) i v (k) i = d (k) i = ( b Ax (k)) i (Vor. : a i,i 0) = ω d (k) a i = ω ( b i i,i a i,i n j=1 ) a i,j x (k) j x (k+1) i = x (k) i + ω a i,i ( b i n j=1 ) a i,j x (k) j i = 1,..., n 3. Lineare Gleichungssysteme 21 / 38

22 Gauß-Seidel-Verfahren (SOR-Verfahren) nutze die Dreickszerlegung : A = L + D + U Gauß-Seidel-Verfahren (SOR-Verfahren) : ( ) wähle C := L + ω 1 0 D = C 1 = (L + ω 1 D) 1 Schritt k: x (k+1) = x (k) + (L + ω 1 D) 1( b Ax (k)) } {{ } Korrekturvektor v (k) Vor. : ω (0, 2) und a i,i 0 i bei ω = 1 spricht man vom Gauß-Seidel-Verfahren; bei ω > 1 vom SOR-Verfahren (Successive Over-Relaxation) bei ω < 1 von Unterrelaxation 3. Lineare Gleichungssysteme 22 / 38

23 praktikable Form des GS / SOR-Verfahrens in der Praxis berechnet und speichert man nicht (L + ω 1 D) 1, sondern löst das GLS (L + ω 1 D)v (k) = d (k), d (k) := b Ax (k) : ω 1 a 1, a n,1... ω 1 a n,n Zeile i :... v (k) i x (k+1) i = x (k) i ω 1 a i,i v (k) i = d (k) i j<i a i,j = ω (k) d a i = ω ( b i i,i a i,i j<i + ω a i,i ( b i j<i a i,j x (k+1) j v (k) 1. v (k) n = d (k) 1. d (k) n v (k) j }{{} bereits berechnet j i a i,j x (k+1) j ) a i,j x (k) j =: j i d (k) i ) a i,j x (k) j i = 1,..., n 3. Lineare Gleichungssysteme 23 / 38

24 3.5. Konvergenz von linearen Iterationsverfahren allgemeines Verfahren : x (k+1) = x (k) + C 1( b Ax (k)) x (k+1) = φ ( x (k)) wobei φ : R n R n definiert ist als: φ(x) := }{{} x +C 1 (b Ax) = (I C 1 A) x + C 1 b }{{} =Ix =M Def. : Iterationsmatrix M des Verfahrens M := I C 1 A Kontraktivität von φ : R n R n : Ziel : q (0, 1) : φ(x) φ(y) q x y x, y R n φ(x) φ(y) = Mx + C 1 b My C 1 b = M(x y) M x y x, y R n φ ist kontraktiv auf R n, falls M < 1 3. Lineare Gleichungssysteme 24 / 38

25 Fehlerabschätzung aus dem Banach schen Fixp. Satz Theorem (3.8 Konvergenz linearer Iterationsverfahren) sei x exakte Lösung des GLS Ax = b sei beliebige Vektor- bzw. zugeordnete Matrix-Norm Vor. : für die Iterationsmatrix M = I C 1 A gelte M < 1 Beh. : das Iterationsverfahren x (k+1) = Mx (k) + C 1 b konvergiert für jeden Startvektor x (0) R n a priori Fehlerabschätzung : u. es gilt: x (k) x a posteriori Fehlerabschätzung : x (k) x M k 1 M x (1) x (0) M 1 M x (k) x (k 1) 3. Lineare Gleichungssysteme 25 / 38

26 Der Spektralradius Definition (3.9. Spektralradius einer Matrix) sei M R n n eine gegebene Matrix seien λ i C, i = 1,..., n, die (eventuell komplexen) Eigenwerte von M dann heißt sp(m) := max i=1,...,n λ i der Spektralradius von M Lemma (3.10 Spektralradius und Matrix-Norm) Für jede zugeordnete Matrix-Norm und jede Matrix M gilt sp(m) M 3. Lineare Gleichungssysteme 26 / 38

27 qualitatives Konvergenz-Kriterium Theorem (3.11 qualitatives Konvergenz-Kriterium) Vor. : lineares Iterationsverfahren x (k+1) = x (k) + C 1( b Ax (k)) mit Iterationsmatrix M = I C 1 A Beh. : das Iterationsverfahren konvergiert für jeden Startvektor x (0) R n genau dann wenn sp(m) < 1 Bew idee : man kann zeigen, dass zu jedem ε > 0 eine zugeordnete Matrix-Norm existiert mit der Eigenschaft sp(m) M sp(m) + ε 3. Lineare Gleichungssysteme 27 / 38

28 Konvergenz des Jacobi- u. Gauß-Seidel-Verfahrens Theorem (3.12 Konvergenz Jacobi- und Gauß-Seidel-Verf.) Vor. : Matrix A = (a i,j ) R n n sei streng diagonaldominant, d.h. a i,i > a i,j i = 1,..., n j i Beh. : A, D und L + D sind regulär und sowohl das Jacobials auch das Gauß-Seidel-Verfahren sind konvergent für jeden Startvektor x (0) Bsp.: A = Lineare Gleichungssysteme 28 / 38

29 Konvergenz des SOR-Verfahrens Theorem (3.13 Konvergenz SOR-Verfahren) Bem. : Vor. : Matrix A = (a i,j ) R n n definit sei symmetrisch und positiv Beh. : für jeden Parameter ω (0, 2) ist C = L + ω 1 D regulär und das SOR-Verfahren konvergiert für jeden Startvektor x (0) durch optimale Wahl von ω kann man die Konvergenzgeschwindigkeit des SOR-Verfahrens gegenüber dem Gauß-Seidel-Verfahren oft enorm verbessern, d.h. M SOR (ω opt ) M GS = M SOR (1) zum Finden eines guten ω muß man experimentieren 3. Lineare Gleichungssysteme 29 / 38

30 3.6. Gradienten-Verfahren Def. : Skalarprodukt zwischen Vektoren x = (x j ), y = (y j ) R n : (x, y) := n j=1 x jy j Vor. : Matrix A R n n ist symmetrisch positiv definit (kurz spd ), d.h. A T = A und : (x, Ax) > 0 x R n \ {0} oder : alle Eigenwerte von A sind positiv Idee : Lösung x R n von Ax = b realisiert das Minimum: F(x ) = min F(x) mit F(x) := 1 (x, Ax) (b, x) x R n 2 3. Lineare Gleichungssysteme 30 / 38

31 Dar Algorithmus des Gradienten-Verfahrens Algorithmus Gradienten-Verfahren Problem: finde x R n, so dass Ax = b, Start: wähle x (0) R n, berechne r (0) = b Ax (0) Iterationsschritt k 0: wähle die Suchrichtung: s (k) = r (k) [= F (x (k) )] Vor.: A ist spd berechne: w (k) = A r (k) (Matrix Vektor-Operation) und α k = (r (k), r (k) ) (r (k), w (k) ) [= optimale Schrittlänge = (r (k), s (k) ) (s (k), As (k) ) ] update: x (k+1) = x (k) + α k r (k) r (k+1) = r (k) α k w (k) Abbruch : falls r (k) 2 = b A x (k) 2 < TOL pro Schritt : 1 Matrix Vektor-Op., 2 Skalarprodukte, 2 Linearkombin. 3. Lineare Gleichungssysteme 31 / 38

32 Konvergenz des Gradienten-Verfahrens Def. : Energie-Norm A auf R n : (Vor. : A R n n ist spd) man kann zeigen : v A := (v, A v) 1/2 v R n {λ min (A)} 1/2 v 2 v A {λ max (A)} 1/2 v 2 v R n Theorem (3.14 Konvergenz Gradienten-Verfahren) Vor. : Matrix A R n n sei spd und κ(a) := λ max (A)/λ min (A) [= cond 2 (A)] Beh. : das Gradienten-Verfahren konvergiert für jeden Startvektor x (0) x (k) x A und es gilt: ( ) κ(a) 1 k x (0) x A κ(a) Lineare Gleichungssysteme 32 / 38

33 Das CG-Verfahren (Conjugate Gradient method) Idee : wähle die neue Suchrichtung s (k+1) [ konjugiert bzw. A - orthogonal ] zu allen vorherigen Suchrichtungen, d.h. (s (k+1), As (j) ) = 0 j = 0,..., k (zu Anfang setze: s (0) = F(x (0) ) = r (0) = b Ax (0) ) mit dem optimalen α k gilt dann für x (k+1) := x (k) + α k s (k) : F(x (k+1) ) = wobei min v U k+1 F(x (k) + v) optimal bzgl. Unterraum U k+1 U k+1 := Span{s (0),..., s (k) } = {v R n : v = k c j s (j), c j R} j=0 3. Lineare Gleichungssysteme 33 / 38

34 Bestimmung der neuen Suchrichtung man kann beweisen, dass für k 0 gilt: s (k+1) = r } (k+1) {{} + β k s (k) }{{} F (x (k+1) ) Korrektur für A-Orthog. dabei ist: β k R so dass (s (k+1), As (k) ) = 0 (r (k+1) + β k s (k), As (k) ) = 0 β k = (r (k+1), As (k) ) (s (k), As (k) ) =... = (r (k+1), r (k+1) ) (r (k), r (k) ) 3. Lineare Gleichungssysteme 34 / 38

35 Algorithmus des CG-Verfahrens Algorithmus CG-Verfahren Problem: finde x R n, so dass Ax = b, Vor.: A ist spd Start: wähle x (0) R n, berechne r (0) = b Ax (0), s (0) := r (0) Iterationsschritt k 0: berechne: w (k) = A s (k) (Matrix Vektor-Operation) und α k = (r (k), r (k) ) (s (k), w (k) ) [= optimale Schrittlänge = = (r (k), s (k) ) (s (k), As (k) ) ] update: x (k+1) = x (k) + α k s (k) (r (k+1), r (k+1) ) berechne: β k = (r (k), r (k) ) r (k+1) = r (k) α k w (k) neue Suchrichtung: s (k+1) = r (k+1) + β k s (k) pro Schritt : 1 Matrix Vektor-Op., 3 Skalarprodukte, 3 Linearkombin. 3. Lineare Gleichungssysteme 35 / 38

36 Konvergenz des CG-Verfahrens Theorem (3.15 Konvergenz CG-Verfahren) Vor. : Matrix A R n n sei spd und κ(a) := λ max (A)/λ min (A) [= cond 2 (A)] Beh. : das CG-Verfahren konvergiert für jeden Startvektor x (0) x (k) x A 2 und es gilt: ( κ(a) 1 κ(a) + 1 ) k x (0) x A beachte : je größer die Konditionszahl κ(a), desto langsamer konvergiert das CG-Verfahren!!! 3. Lineare Gleichungssysteme 36 / 38

37 Verallgemeinerung für nicht-symmetrische Matrizen Lit. : Y. Saad : Iterative methods for sparse linear systems, Software-Bausteine : moderne Verfahren : GMRES : siehe Matlab-Help unter gmres BiCGStab : siehe Matlab-Help unter bicgstab CGS : siehe Matlab-Help unter cgs als Nutzer braucht man nur die Funktion w = matvec(a,v) (Matrix Vektor-Operation) zu programmieren, die w = Av berechnet 3. Lineare Gleichungssysteme 37 / 38

38 3.7. Vorkonditionierung beachte : je größer die Konditionszahl cond 2 (A), desto langsamer konvergiert i.a. ein Iterations-Verfahren!!! Prinzip der Vorkonditionierung : anstelle von Ax = b mit cond 2 (A) groß arbeitet man mit dem äquivalenten GLS Ãx = b, d.h. BAx }{{} Ãx = Bb }{{} b wobei cond 2 (Ã) relativ klein B heißt Vorkonditionierer ( preconditioner ) und sollte eine Näherung von A 1 sein B braucht man nur als Funktion : w = precond(v) := Bv Bsp. : Bv = Ergebnis y (1) einer SOR-Iteration für Ay = v mit Startvektor y (0) = 0 3. Lineare Gleichungssysteme 38 / 38

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme 2 Lineare Gleichungssysteme Wir betrachten das lineare Gleichungssystem Ax = b mit der n n-koeffizientenmatrix A und der rechten Seite b R n. Wir leiten zuerst eine Variante des Gauss-Algorithmus (LR-Zerlegung)

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine

Mehr

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme Als zweite Hauptanwendung des Banachschen Fixpunktsatzes besprechen wir in diesem Kapitel die iterative Lösung linearer Gleichungssysteme. Die

Mehr

Iterative Lösung Linearer Gleichungssysteme

Iterative Lösung Linearer Gleichungssysteme Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)

Mehr

Rechenaufwand der LR- und LDL T - Zerlegung

Rechenaufwand der LR- und LDL T - Zerlegung 6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für

Mehr

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Matrizenoperationen mit FORTRAN

Matrizenoperationen mit FORTRAN Kapitel 2 Matrizenoperationen mit FORTRAN 21 Grundlagen Bei vielen Anwendungen müssen große zusammenhängende Datenmengen gespeichert und verarbeitet werden Deshalb ist es sinnvoll, diese Daten nicht als

Mehr

Das CG-Verfahren. Sven Wetterauer

Das CG-Verfahren. Sven Wetterauer Das CG-Verfahren Sven Wetterauer 06.07.2010 1 Inhaltsverzeichnis 1 Einführung 3 2 Die quadratische Form 3 3 Methode des steilsten Abstiegs 4 4 Methode der Konjugierten Richtungen 6 4.1 Gram-Schmidt-Konjugation.........................

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 20.12.13 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

4.2.3 LR-Zerlegung für diagonaldominante Matrizen

4.2.3 LR-Zerlegung für diagonaldominante Matrizen 4.2 Lösungsmethoden für lineare Gleichungssysteme 4.2.3 LR-Zerlegung für diagonaldominante Matrizen Satz 4.28 besagt, dass die LR-Zerlegung für beliebige reguläre Matrizen mit Pivotierung möglich ist.

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear

Mehr

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung Kapitel 2: Matrizen 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung 2.1 Matrizen M = n = 3 m = 3 n = m quadratisch M ij : Eintrag von M in i-ter

Mehr

Numerische Mathematik für Ingenieure und Physiker

Numerische Mathematik für Ingenieure und Physiker Willi Törnig Peter Spellucci Numerische Mathematik für Ingenieure und Physiker Band 1: Numerische Methoden der Algebra Zweite, überarbeitete und ergänzte Auflage Mit 15 Abbildungen > Springer-Verlag Berlin

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Lineare Gleichungssysteme Hierarchische Matrizen

Lineare Gleichungssysteme Hierarchische Matrizen Kompaktkurs Lineare Gleichungssysteme Hierarchische Matrizen M. Bebendorf, O. Steinbach O. Steinbach Lineare Gleichungssysteme SIMNET Kurs 24. 27.4.26 / 6 Numerische Simulation stationäre und instationäre

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

8. Elemente der linearen Algebra 8.5 Quadratische Matrizen und Determinanten

8. Elemente der linearen Algebra 8.5 Quadratische Matrizen und Determinanten Einheitsmatrix Die quadratische Einheitsmatrix I n M n,n ist definiert durch I n = 1 0 0 0 1 0 0 0 1 (Auf der Hauptdiagonalen stehen Einsen, außerhalb Nullen Durch Ausmultiplizieren sieht man I n A = A

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Klausur HM I H 2005 HM I : 1

Klausur HM I H 2005 HM I : 1 Klausur HM I H 5 HM I : 1 Aufgabe 1 4 Punkte): Zeigen Sie mit Hilfe der vollständigen Induktion: n 1 1 + 1 ) k nn k n! für n. Lösung: Beweis mittels Induktion nach n: Induktionsanfang: n : 1 ) 1 + 1 k

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D. Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion

Mehr

8 Iterationsverfahren zur Lösung von Gleichungssystemen

8 Iterationsverfahren zur Lösung von Gleichungssystemen Numerische Mathematik 378 8 Iterationsverfahren zur Lösung von Gleichungssystemen Nichtlineare Gleichungssysteme (sogar eine nichtlineare Gleichung in einer Unbekannten) müssen fast immer iterativ gelöst

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Numerische Lösung linearer Gleichungssysteme

Numerische Lösung linearer Gleichungssysteme Kapitel 2 Numerische Lösung linearer Gleichungssysteme Dieses Kapitel behandelt numerische Verfahren zur Lösung linearer Gleichungssysteme der Gestalt Ax = b, A R n n, x, b R n (21) mit a 11 a 1n A = a

Mehr

Lineare Gleichungssysteme - Grundlagen

Lineare Gleichungssysteme - Grundlagen Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Iterative Verfahren zur Lösung von Linearen Gleichungssystemen

Iterative Verfahren zur Lösung von Linearen Gleichungssystemen Kapitel 4 Iterative Verfahren zur Lösung von Linearen Gleichungssystemen Situation: A C n n schwach besetzt, n groß, b C n. Ziel: Bestimme x C n mit Ax = b. 4.1 Spliting-Methoden Die Grundidee ist hier

Mehr

2 Matrizenrechnung und Lineare Gleichungssysteme

2 Matrizenrechnung und Lineare Gleichungssysteme Technische Universität München Florian Ettlinger Ferienkurs Lineare Algebra Vorlesung Dienstag WS 2011/12 2 Matrizenrechnung und Lineare Gleichungssysteme 2.1 Matrizenrechnung 2.1.1 Einführung Vor der

Mehr

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,

Mehr

9 Vektorräume mit Skalarprodukt

9 Vektorräume mit Skalarprodukt 9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Inhaltsverzeichnis Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Auf dieser Seite werden Matrizen und Vektoren fett gedruckt, um sie von Zahlen zu unterscheiden. Betrachtet wird das

Mehr

( ) Lineare Gleichungssysteme

( ) Lineare Gleichungssysteme 102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Klausur zur Vordiplom-Prüfung

Klausur zur Vordiplom-Prüfung Technische Universität Hamburg-Harburg SS 25 Arbeitsbereich Mathematik Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren 22. Juli 25 Sie haben 9 Minuten Zeit zum Bearbeiten der

Mehr

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w = 1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition

Mehr

Kapitel 1. Matrizen und lineare Gleichungssysteme. 1.1 Matrizenkalkül (Vektorraum M(n,m); Matrixmultiplikation;

Kapitel 1. Matrizen und lineare Gleichungssysteme. 1.1 Matrizenkalkül (Vektorraum M(n,m); Matrixmultiplikation; Kapitel 1 Matrizen und lineare Gleichungssysteme 11 Matrizenkalkül (Vektorraum M(n,m; Matrixmultiplikation; Transposition; Spalten- und Zeilenvektoren Matrizen sind im Prinzip schon bei der schematischen

Mehr

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau 312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind

Mehr

Brückenkurs Mathematik. Mittwoch Freitag

Brückenkurs Mathematik. Mittwoch Freitag Brückenkurs Mathematik Mittwoch 5.10. - Freitag 14.10.2016 Vorlesung 4 Dreiecke, Vektoren, Matrizen, lineare Gleichungssysteme Kai Rothe Technische Universität Hamburg-Harburg Montag 10.10.2016 0 Brückenkurs

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

Im Falle einer zweimal differenzierbaren Funktion lässt sich das Krümmungsverhalten anhand der zweiten Ableitung feststellen.

Im Falle einer zweimal differenzierbaren Funktion lässt sich das Krümmungsverhalten anhand der zweiten Ableitung feststellen. Konvex, Konkav, Wendepunkt: Sei f : D R eine Funktion und sei I D ein Intervall. Gilt für alle x 1,x 2 I f ( x1 +x ) 2 2 f(x 1)+f(x 2 ), 2 dann heißt f konvex (linksgekrümmt) in I. Gilt für alle x 1,x

Mehr

Quadratische Formen und Definitheit

Quadratische Formen und Definitheit Universität Basel Wirtschaftswissenschaftliches Zentrum Quadratische Formen und Definitheit Dr. Thomas Zehrt Inhalt: 1. Quadratische Formen 2. Quadratische Approximation von Funktionen 3. Definitheit von

Mehr

36 2 Lineare Algebra

36 2 Lineare Algebra 6 Lineare Algebra Quadratische Matrizen a a n sei jetzt n m, A, a ij R, i, j,, n a n a nn Definition Eine quadratische Matrix A heißt invertierbar genau dann, wenn es eine quadratische Matrix B gibt, so

Mehr

Lösungen zu den Hausaufgaben zur Analysis II

Lösungen zu den Hausaufgaben zur Analysis II Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin

Mehr

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen 3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

1 Grundlagen der Numerik

1 Grundlagen der Numerik 1 Grundlagen der Numerik 1.1 Gleitpunkt-Arithmetik Es gibt nur endlich viele Zahlen auf dem Computer. Gleitpunktzahl: x = σmb E σ: Vorzeichen B: Basis (feste Zahl >1); M: Mantisse E: Exponent B = 2 : Dualzahl

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2016 Lineare Gleichungssysteme Schwerpunkte: Interpretation und Verständnis der Gleichungen Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik unter

Mehr

Kapitel 5. LU Zerlegung. 5.1 L- und U-Matrizen

Kapitel 5. LU Zerlegung. 5.1 L- und U-Matrizen Kapitel 5 LU Zerlegung In vielen Fällen interessiert uns die inverse Matrix A 1 gar nicht. Stattdessen suchen wir die Lösung der Matrixgleichung Ax = b bzw. x = A 1 b 5.1) für einen oder wenige Vektoren

Mehr

5 Stetigkeit und Differenzierbarkeit

5 Stetigkeit und Differenzierbarkeit 5 Stetigkeit und Differenzierbarkeit 5.1 Stetigkeit und Grenzwerte von Funktionen f(x 0 ) x 0 Graph einer stetigen Funktion. Analysis I TUHH, Winter 2006/2007 Armin Iske 127 Häufungspunkt und Abschluss.

Mehr

Lineare Algebra. Teil III. Inhaltsangabe

Lineare Algebra. Teil III. Inhaltsangabe Teil III Lineare Algebra Inhaltsangabe 3 Lineare Algebra 22 3.1 Einführung.......................... 22 3.2 Matrizen und Vektoren.................... 23 3.3 Spezielle Matrizen...................... 24

Mehr

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016, Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren

Mehr

r i w i (siehe (3.7)). r i v, w i = 0.

r i w i (siehe (3.7)). r i v, w i = 0. Orthogonales Komplement und Orthogonalprojektion Wir betrachten weiterhin einen euklidischen Vektorraum V,,. (6.13) Def.: Ist M V, so heißt das orthogonale Komplement von M. (6.14) Fakt. (i) M ist Untervektorraum

Mehr

Nichtlineare Gleichungen

Nichtlineare Gleichungen Nichtlineare Gleichungen Ein wichtiges Problem in der Praxis ist die Bestimmung einer Lösung ξ der Gleichung f(x) =, () d.h. das Aufsuchen einer Nullstelle ξ einer (nicht notwendig linearen) Funktion f.

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

Skalarprodukte (Teschl/Teschl Kap. 13)

Skalarprodukte (Teschl/Teschl Kap. 13) Skalarprodukte (Teschl/Teschl Kap. ) Sei V Vektorraum über R. Ein Skalarprodukt auf V ist eine Abbildung V V R, (x, y) x, y mit den Eigenschaften () x, y = y, x (symmetrisch), () ax, y = a x, y und x +

Mehr

2 Euklidische Vektorräume

2 Euklidische Vektorräume Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,

Mehr

4 Fehlerabschätzungen und Konvergenz der FEM

4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und

Mehr

Serie 10: Inverse Matrix und Determinante

Serie 10: Inverse Matrix und Determinante D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die

Mehr

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:

Mehr

Lineare Algebra II, Lösungshinweise Blatt 9

Lineare Algebra II, Lösungshinweise Blatt 9 Prof Dr Katrin Wendland Priv Doz Dr Katrin Leschke Christoph Tinkl SS 27 Lineare Algebra II, Lösungshinweise Blatt 9 Aufgabe (4 Punkte) Sei 2 3 4 A = 5 6 Berechnen Sie A k für alle k N und verifizieren

Mehr

4 Lineare Abbildungen Basisdarstellungen

4 Lineare Abbildungen Basisdarstellungen 4 Lineare Abbildungen Basisdarstellungen (4.1) Seien V,W endlich dimensionale K-Vektorräume, und sei T : V W linear. Sei {v 1,...,v } Basis von V und {w 1,...,w M } Basis von W. Sei T (v j ) = M a kj w

Mehr

Kap 5: Rang, Koordinatentransformationen

Kap 5: Rang, Koordinatentransformationen Kap 5: Rang, Koordinatentransformationen Sei F : V W eine lineare Abbildung. Dann ist der Rang von F erklärt durch: rang F =dim ImF. Stets gilt rang F dimv, und ist dimv

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

7 Die Determinante einer Matrix

7 Die Determinante einer Matrix 7 Die Determinante einer Matrix ( ) a11 a Die Determinante einer 2 2 Matrix A = 12 ist erklärt als a 21 a 22 det A := a 11 a 22 a 12 a 21 Es ist S 2 = { id, τ}, τ = (1, 2) und sign (id) = 1, sign (τ) =

Mehr

Mat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1

Mat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1 Aufgabe. Bestimmen Sie das Exponential expa) der Matrix ) 5 6 A = Mat, R). 4. Wir bestimmen das charakterische Polynom f A t) = t t = t )t + ). ). Eigenvektor zu EW ist v = ). Eigenvektor zu EW ist v =

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

18.4 Das Newton-Verfahren

18.4 Das Newton-Verfahren 18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift

Mehr

Klausurvorbereitungsblatt Lineare Algebra

Klausurvorbereitungsblatt Lineare Algebra Klausurvorbereitungsblatt Lineare Algebra Sommersemester 25 Aufgabe 2 2 Sei A 3 3 8 2 4 3 R4 5. 5 2 a) Bestimmen Sie die Lösungsmenge des linearen Gleichungssystems Ax b) Ist Ax b mit b lösbar? (Begründen

Mehr