3. Lineare Gleichungssysteme
|
|
|
- Hildegard Heidrich
- vor 8 Jahren
- Abrufe
Transkript
1 3. Lineare Gleichungssysteme Problemstellung Direkte Verfahren Normen und Fehleranalyse Iterative Verfahren Konvergenz von linearen Iterationsverfahren Gradienten-Verfahren Vorkonditionierung 3. Lineare Gleichungssysteme 1 / 38
2 3.1. Problemstellung lineares Gleichungssystem (GLS) gegeben : Matrix A R n n, d.h. A = (a i,j ) n i,j=1, det(a) 0 Vektor b R n, d.h. b = (b 1,..., b n ) T gesucht : Lösungsvektor x R n, d.h. x = (x 1,..., x n ) T, so dass n Ax = b, d.h. a i,j x j = b i i = 1,..., n j=1 Lösung über Determinanten kostet zu viele Operationen (ca. (n + 1)! ) : x i = 1 det(a) det(a(1),..., a (i 1), b, a (i+1),..., a (n) ), (21! 5.1 e+19) 3. Lineare Gleichungssysteme 2 / 38
3 3.2. Direkte Verfahren Definition (3.1. direkte & iterative Verfahren ) Bei einem direkten Verfahren erhält man die exakte Lösung x (bis auf Rundungsfehler) nach Ausführung einer endlichen Anzahl von Operationen. Bei einem iterativen Verfahren erhält man die exakte Lösung x nur als Grenzwert einer Folge von Näherungsvektoren x (k), k = 1, 2,.... Beispiel für direktes Verfahren : Gauß-Algorithmus (steht in engem Zusammenhang mit folgender Zerlegung der Matrix A ) : u.. k,j A =. l..... i,k Lineare Gleichungssysteme 3 / 38
4 LU-Zerlegung Definition (3.2.) untere Dreiecksmatrix (lower triangular matrix ) : L = (l i,j ) mit l i,j = 0 j > i obere Dreiecksmatrix (upper triangular matrix ) : U = (u i,j ) mit u i,j = 0 j < i LU-Zerlegung : A R n n besitzt eine LU-Zerlegung, wenn eine untere Dreiecksmatrix L R n n und eine obere Dreiecksmatrix U R n n existieren, so dass A = LU. Eindeutigkeit der LU-Zerlegung im Fall det(a) 0 : wenn l i,i = 1 i, dann ist die LU-Zerlegung von A eindeutig 3. Lineare Gleichungssysteme 4 / 38
5 Lösung des GLS über LU-Zerlegung angenommen, die LU-Zerlegung von A sei bekannt für die Lösung x des GLS Ax = b gilt dann: Ax = L( }{{} Ux ) = b =:y Lösungsverfahren : 1.) bestimme y durch Lösung von Ly = b (vorwärts einsetzen) 2.) bestimme x durch Lösung von Ux = y (rückwärts einsetzen) vorwärts einsetzen, d.h. löse Ly = b in R n Start : y 1 = b 1 /l 1,1 Schleife: for i = 2 : n ( y i = b i i 1 j=1 l i,j y j )/l i,i end rückwärts einsetzen bei Ux = y analog : Start mit x n = y n /u n,n 3. Lineare Gleichungssysteme 5 / 38
6 Berechnung der LU-Zerlegung (Gauß-Elimination) Idee : erzeuge im Ergebnis des k -ten Schrittes eine Matrix A (k+1) mit Nullen in Spalte k unterhalb der Hauptdiagonalen, wobei k = 1, 2,..., n 1 : A =: A (1) A (2) A (k) A (k+1) A (n 1) A (n) = U Algorithmus : k - ter Schritt : A (k) A (k+1) (Start : A (1) := A ) übernehme fertige Zeilen i k : a (k+1) i,j := a (k) i,j setze Pivot-Element: p k := a (k) k,k ( Vor. p k 0 ) für jede Transformationszeile i > k : li,k := a (k) i,k /p k ( speichern in L ; setze l k,k := 1 ) { 0 Spalten j k a (k+1) i,j := a (k) i,j l i,k a (k) k,j Spalten j > k j = 1,..., n 3. Lineare Gleichungssysteme 6 / 38
7 Spalten-Pivotisierung Beispiel : löse Ax = b (Genauigkeit: b = 10, l = 4 ) [A b] = [A (1) b (1) ] = [A (2) b (2) ] = [ [ e e+4 ] ] x 2 = 1 x 1 = 0 aber : exakte Lösung : x 2 = x 1 = große Empfindlichkeit in Bezug auf Rundungsfehler Abhilfe : besseres Pivotelement durch vorherigen Zeilentausch, d.h. suche in Spalte k ab der Hauptdiagonalen das betragsmäßig größte Pivotelement 3. Lineare Gleichungssysteme 7 / 38
8 Gauß-Algorithmus mit Spalten-Pivotisierung Start: A (1) := A und z (1) i := i i (Permutationsvektor) Schritt: A (k) A (k+1) ( Ziel: Nullen in Spalte k ) wähle in Spalte k den Zeilenindex r, so dass a (k) r,k = max k i n a(k) i,k tausche Zeile r und k : A (k) Ã(k) und z (k) z (k+1) mit a (k) r,j, i = k z (k) r, i = k ã (k) i,j := a (k) k,j, i = r und z (k+1) i := z (k) k, i = r a (k) i,j, sonst z (k) i, sonst wende Gauß-Elimination auf Ã(k) an: Ã (k) A (k+1) 3. Lineare Gleichungssysteme 8 / 38
9 Modifizierte LU-Zerlegung Theorem (3.3 modifizierte LU-Zerlegung) Vor.: Matrix A R n n ist regulär, d.h. det(a) 0 Beh.: Gauß-Elimination mit Spalten-Pivotisierung ist durchführbar und mit U = A (n), L = (l i,k ) und 1, j = z (n) i P = (P i,j ), P i,j = 0, j z (n) i gilt: P A = L U Lösung von Ax = b : PAx = Pb L( Ux ) = Pb =: b Schritt 1: löse Ly = b, wobei bi = b j mit j = z (n) i Schritt 2: löse Ux = y 3. Lineare Gleichungssysteme 9 / 38
10 Zeilenäquilibrierung Einfluß auf die Genauigkeit der Lösung von Ax = b hat die Zahl cond(a) := Konditionszahl von A (Def. später) zur Verbesserung von cond(a) : multipliziere Zeile i von A mit Faktor d i d i := 1 s i, wobei s i := n a i,j (Betrags-Zeilensumme) j=1 neue Matrix : à = (ã i,j) mit ã i,j := d i a i,j oder kurz: d à = D A wobei D := (Diagonalmatrix) 0... d n Übergang zum skalierten GLS : Ax = b }{{} DA x = }{{} Db à b 3. Lineare Gleichungssysteme 10 / 38
11 Andere direkte Verfahren Cholesky - Zerlegung : Vor.: Matrix A ist symmetrisch und positiv definit, d.h. alle Eigenwerte von A sind positiv Beh.: untere Dreiecksmatrix L mit A = L L T Vorteil : man spart Speicherplatz im Vergleich zur LU-Zerlegung QR - Zerlegung : Vor.: Matrix A ist regulär, d.h. det(a) 0 Beh.: orthogonale Matrix Q (d.h. Q 1 = Q T ) und obere Dreiecksmatrix R mit A = Q R Vorteil : keine Verstärkung von Rundungsfehlern 3. Lineare Gleichungssysteme 11 / 38
12 3.3. Normen und Fehleranalyse Definition (3.4. Vektor-Normen) Sei V ein linearer Vektorraum. Eine Norm auf einem Vektorraum V ordnet jedem Element u V eine Maßzahl u 0 zu und genügt folgenden Axiomen: (A1) u = 0 genau dann, wenn u = 0 V (0 V = Nullelement in V ) (A2) λu = λ u λ R, u V (A3) u + v u + v u, v V (Dreiecks-Ungleichung) konkrete Vektor-Normen für x = (x 1,..., x n ) T R n : x 1 := n j=1 x j (l 1 -Norm) x 2 := ( n j=1 x j 2 ) 1/2 (l 2 -Norm, Euklidische Norm) x := max 1 j n x j (l -Norm, Maximum-Norm) 3. Lineare Gleichungssysteme 12 / 38
13 Matrix-Normen Sei A R n n eine n n - Matrix. Definition (3.5. Matrix-Normen) Für eine gegebene Vektor-Norm auf R n ist die zugeordnete Matrix-Norm definiert als: A := Ax sup 0 x R n x Formeln für konkrete Matrix-Normen von A = (a i,j ) R n n : n A 1 := max 1 j n i=1 a i,j (Spaltensummen-Norm) ( ) 1/2 ( 1/2 A 2 := λ max (AA T ) = λ max (A A)) T (Spektral-Norm) A := max 1 i n n j=1 a i,j (Zeilensummen-Norm) Bem. : λ max (M) := größter Eigenwert von M (Vor.: M T = M) 3. Lineare Gleichungssysteme 13 / 38
14 Eigenschaften von Vektor- und Matrix-Normen Lemma (3.6. Norm-Abschätzungen) Seien A, B R n n beliebige n n - Matrizen und x R n ein beliebiger Vektor. Ferner bezeichne eine beliebige Vektor-Norm bzw. die zugeordnete Matrix-Norm. Dann gilt stets: Ax A x AB A B Definition (3.7. Konditionszahl (condition number)) Sei A R n n eine reguläre Matrix (d.h. A 1 ) und eine zugeordnete Matrix-Norm. Dann heißt die Zahl cond(a) := A A 1 die Konditionszahl von A (bezüglich der Norm ). 3. Lineare Gleichungssysteme 14 / 38
15 Fehleranalyse für die Lösung von Ax = b sei x = fehlerbehaftete Lösung von Ax = b mit Fehlervektor x := x x Frage : wie kann man x abschätzen? berechenbar ist das Residuum r von x definiert als : r := A x b dann gilt für den absoluten Fehler : 1 A r x A 1 r für den relativen Fehler gilt : 1 cond(a) r b x x cond(a) r b 3. Lineare Gleichungssysteme 15 / 38
16 Bedeutung der Konditionszahl Problem : löse Ax = b Daumenregel angenommen: cond(a) 10 s seien die relativen Fehler der Rechnung in der Größenordnung 10 k, (z.b in Matlab), also r / b 10 k dann muß man mit folgendem relativen Fehler in der Lösung rechnen: x x 10 (k s), man verliert also etwa s - Stellen an Genauigkeit 3. Lineare Gleichungssysteme 16 / 38
17 3.4. Iterative Verfahren warum iterativ? bei der Diskretisierung partieller DGL entstehen große Gleichungssysteme (mehr als Unbekannte), die aber nur schwach besetzt sind, d.h. weniger als 5 % NNE (Nicht - Null - Elemente) in der Matrix bei direkten Verfahren kommt es zu einer Auffüllung ( fill in ) mit NNE und damit zu einem hohen Speicherplatz-Bedarf bei iterativen Verfahren braucht man nur die NNE speichern iteratives Prinzip : Start k = 0 : wähle Startnäherung x (0) R n Schritt k 1 : x (k) x (k+1) verbessere Näherung x (k) Abbruch : wenn Ax (k) b < TOL 3. Lineare Gleichungssysteme 17 / 38
18 Allgemeines lineares Iterationsverfahren allgemeines lineares Iterationsverfahren Problem: finde Lösung x R n Start: wähle Startvektor x (0) R n des GLS Ax = b Iterationsschritt k 0: berechne neue Näherung x (k+1) als: beachte : x (k+1) = x (k) + C 1( b Ax (k)) } {{ } Korrektur v (k) man berechnet nicht die Matrix C 1 und multipliziert dann mit dem Defekt-Vektor d (k) := b Ax (k), sondern man bestimmt den Korrektur-Vektor v (k) als Lösung des GLS: Cv (k) = d (k) 3. Lineare Gleichungssysteme 18 / 38
19 Das Richardson-Verfahren Verfahren allgemein : x (k+1) = x (k) + C 1( b Ax (k)) Richardson-Verfahren : wähle C := τ 1 I mit geeignetem Parameter τ > 0 ; dann ist C 1 = τi und x (k+1) = x (k) + τ ( b Ax (k)) Vorteil : sehr geringer Aufwand pro Iterationsschritt Nachteil : langsame Konvergenz x (k) x für k 3. Lineare Gleichungssysteme 19 / 38
20 (gedämpftes) Jacobi-Verfahren Dreickszerlegung von A : (nicht verwechseln mit LU-Zerlegung!!) A = L + D + U ( ) ( ) ( ) ( ) = (gedämpftes) Jacobi-Verfahren : wähle C := ω 1 D mit ω > 0 ; dann ist C 1 = ωd 1 Schritt k: x (k+1) = x (k) + ωd 1( b Ax (k)) bei ω = 1 spricht man vom klassischen Jacobi-Verfahren; bei ω < 1 vom gedämpften Jacobi-Verfahren Vor. : für D = (d i,j ) gilt d i,i = a i,i 0 i 3. Lineare Gleichungssysteme 20 / 38
21 praktikable Form des Jacobi-Verfahrens in der Praxis berechnet und speichert man nicht C 1 = ωd 1, sondern löst komponentenweise das GLS Cv (k) = d (k), d.h. ω 1 a 1, a n,n v (k) 1. v (k) n = d (k) 1. d (k) n Zeile i : ω 1 a i,i v (k) i v (k) i = d (k) i = ( b Ax (k)) i (Vor. : a i,i 0) = ω d (k) a i = ω ( b i i,i a i,i n j=1 ) a i,j x (k) j x (k+1) i = x (k) i + ω a i,i ( b i n j=1 ) a i,j x (k) j i = 1,..., n 3. Lineare Gleichungssysteme 21 / 38
22 Gauß-Seidel-Verfahren (SOR-Verfahren) nutze die Dreickszerlegung : A = L + D + U Gauß-Seidel-Verfahren (SOR-Verfahren) : ( ) wähle C := L + ω 1 0 D = C 1 = (L + ω 1 D) 1 Schritt k: x (k+1) = x (k) + (L + ω 1 D) 1( b Ax (k)) } {{ } Korrekturvektor v (k) Vor. : ω (0, 2) und a i,i 0 i bei ω = 1 spricht man vom Gauß-Seidel-Verfahren; bei ω > 1 vom SOR-Verfahren (Successive Over-Relaxation) bei ω < 1 von Unterrelaxation 3. Lineare Gleichungssysteme 22 / 38
23 praktikable Form des GS / SOR-Verfahrens in der Praxis berechnet und speichert man nicht (L + ω 1 D) 1, sondern löst das GLS (L + ω 1 D)v (k) = d (k), d (k) := b Ax (k) : ω 1 a 1, a n,1... ω 1 a n,n Zeile i :... v (k) i x (k+1) i = x (k) i ω 1 a i,i v (k) i = d (k) i j<i a i,j = ω (k) d a i = ω ( b i i,i a i,i j<i + ω a i,i ( b i j<i a i,j x (k+1) j v (k) 1. v (k) n = d (k) 1. d (k) n v (k) j }{{} bereits berechnet j i a i,j x (k+1) j ) a i,j x (k) j =: j i d (k) i ) a i,j x (k) j i = 1,..., n 3. Lineare Gleichungssysteme 23 / 38
24 3.5. Konvergenz von linearen Iterationsverfahren allgemeines Verfahren : x (k+1) = x (k) + C 1( b Ax (k)) x (k+1) = φ ( x (k)) wobei φ : R n R n definiert ist als: φ(x) := }{{} x +C 1 (b Ax) = (I C 1 A) x + C 1 b }{{} =Ix =M Def. : Iterationsmatrix M des Verfahrens M := I C 1 A Kontraktivität von φ : R n R n : Ziel : q (0, 1) : φ(x) φ(y) q x y x, y R n φ(x) φ(y) = Mx + C 1 b My C 1 b = M(x y) M x y x, y R n φ ist kontraktiv auf R n, falls M < 1 3. Lineare Gleichungssysteme 24 / 38
25 Fehlerabschätzung aus dem Banach schen Fixp. Satz Theorem (3.8 Konvergenz linearer Iterationsverfahren) sei x exakte Lösung des GLS Ax = b sei beliebige Vektor- bzw. zugeordnete Matrix-Norm Vor. : für die Iterationsmatrix M = I C 1 A gelte M < 1 Beh. : das Iterationsverfahren x (k+1) = Mx (k) + C 1 b konvergiert für jeden Startvektor x (0) R n a priori Fehlerabschätzung : u. es gilt: x (k) x a posteriori Fehlerabschätzung : x (k) x M k 1 M x (1) x (0) M 1 M x (k) x (k 1) 3. Lineare Gleichungssysteme 25 / 38
26 Der Spektralradius Definition (3.9. Spektralradius einer Matrix) sei M R n n eine gegebene Matrix seien λ i C, i = 1,..., n, die (eventuell komplexen) Eigenwerte von M dann heißt sp(m) := max i=1,...,n λ i der Spektralradius von M Lemma (3.10 Spektralradius und Matrix-Norm) Für jede zugeordnete Matrix-Norm und jede Matrix M gilt sp(m) M 3. Lineare Gleichungssysteme 26 / 38
27 qualitatives Konvergenz-Kriterium Theorem (3.11 qualitatives Konvergenz-Kriterium) Vor. : lineares Iterationsverfahren x (k+1) = x (k) + C 1( b Ax (k)) mit Iterationsmatrix M = I C 1 A Beh. : das Iterationsverfahren konvergiert für jeden Startvektor x (0) R n genau dann wenn sp(m) < 1 Bew idee : man kann zeigen, dass zu jedem ε > 0 eine zugeordnete Matrix-Norm existiert mit der Eigenschaft sp(m) M sp(m) + ε 3. Lineare Gleichungssysteme 27 / 38
28 Konvergenz des Jacobi- u. Gauß-Seidel-Verfahrens Theorem (3.12 Konvergenz Jacobi- und Gauß-Seidel-Verf.) Vor. : Matrix A = (a i,j ) R n n sei streng diagonaldominant, d.h. a i,i > a i,j i = 1,..., n j i Beh. : A, D und L + D sind regulär und sowohl das Jacobials auch das Gauß-Seidel-Verfahren sind konvergent für jeden Startvektor x (0) Bsp.: A = Lineare Gleichungssysteme 28 / 38
29 Konvergenz des SOR-Verfahrens Theorem (3.13 Konvergenz SOR-Verfahren) Bem. : Vor. : Matrix A = (a i,j ) R n n definit sei symmetrisch und positiv Beh. : für jeden Parameter ω (0, 2) ist C = L + ω 1 D regulär und das SOR-Verfahren konvergiert für jeden Startvektor x (0) durch optimale Wahl von ω kann man die Konvergenzgeschwindigkeit des SOR-Verfahrens gegenüber dem Gauß-Seidel-Verfahren oft enorm verbessern, d.h. M SOR (ω opt ) M GS = M SOR (1) zum Finden eines guten ω muß man experimentieren 3. Lineare Gleichungssysteme 29 / 38
30 3.6. Gradienten-Verfahren Def. : Skalarprodukt zwischen Vektoren x = (x j ), y = (y j ) R n : (x, y) := n j=1 x jy j Vor. : Matrix A R n n ist symmetrisch positiv definit (kurz spd ), d.h. A T = A und : (x, Ax) > 0 x R n \ {0} oder : alle Eigenwerte von A sind positiv Idee : Lösung x R n von Ax = b realisiert das Minimum: F(x ) = min F(x) mit F(x) := 1 (x, Ax) (b, x) x R n 2 3. Lineare Gleichungssysteme 30 / 38
31 Dar Algorithmus des Gradienten-Verfahrens Algorithmus Gradienten-Verfahren Problem: finde x R n, so dass Ax = b, Start: wähle x (0) R n, berechne r (0) = b Ax (0) Iterationsschritt k 0: wähle die Suchrichtung: s (k) = r (k) [= F (x (k) )] Vor.: A ist spd berechne: w (k) = A r (k) (Matrix Vektor-Operation) und α k = (r (k), r (k) ) (r (k), w (k) ) [= optimale Schrittlänge = (r (k), s (k) ) (s (k), As (k) ) ] update: x (k+1) = x (k) + α k r (k) r (k+1) = r (k) α k w (k) Abbruch : falls r (k) 2 = b A x (k) 2 < TOL pro Schritt : 1 Matrix Vektor-Op., 2 Skalarprodukte, 2 Linearkombin. 3. Lineare Gleichungssysteme 31 / 38
32 Konvergenz des Gradienten-Verfahrens Def. : Energie-Norm A auf R n : (Vor. : A R n n ist spd) man kann zeigen : v A := (v, A v) 1/2 v R n {λ min (A)} 1/2 v 2 v A {λ max (A)} 1/2 v 2 v R n Theorem (3.14 Konvergenz Gradienten-Verfahren) Vor. : Matrix A R n n sei spd und κ(a) := λ max (A)/λ min (A) [= cond 2 (A)] Beh. : das Gradienten-Verfahren konvergiert für jeden Startvektor x (0) x (k) x A und es gilt: ( ) κ(a) 1 k x (0) x A κ(a) Lineare Gleichungssysteme 32 / 38
33 Das CG-Verfahren (Conjugate Gradient method) Idee : wähle die neue Suchrichtung s (k+1) [ konjugiert bzw. A - orthogonal ] zu allen vorherigen Suchrichtungen, d.h. (s (k+1), As (j) ) = 0 j = 0,..., k (zu Anfang setze: s (0) = F(x (0) ) = r (0) = b Ax (0) ) mit dem optimalen α k gilt dann für x (k+1) := x (k) + α k s (k) : F(x (k+1) ) = wobei min v U k+1 F(x (k) + v) optimal bzgl. Unterraum U k+1 U k+1 := Span{s (0),..., s (k) } = {v R n : v = k c j s (j), c j R} j=0 3. Lineare Gleichungssysteme 33 / 38
34 Bestimmung der neuen Suchrichtung man kann beweisen, dass für k 0 gilt: s (k+1) = r } (k+1) {{} + β k s (k) }{{} F (x (k+1) ) Korrektur für A-Orthog. dabei ist: β k R so dass (s (k+1), As (k) ) = 0 (r (k+1) + β k s (k), As (k) ) = 0 β k = (r (k+1), As (k) ) (s (k), As (k) ) =... = (r (k+1), r (k+1) ) (r (k), r (k) ) 3. Lineare Gleichungssysteme 34 / 38
35 Algorithmus des CG-Verfahrens Algorithmus CG-Verfahren Problem: finde x R n, so dass Ax = b, Vor.: A ist spd Start: wähle x (0) R n, berechne r (0) = b Ax (0), s (0) := r (0) Iterationsschritt k 0: berechne: w (k) = A s (k) (Matrix Vektor-Operation) und α k = (r (k), r (k) ) (s (k), w (k) ) [= optimale Schrittlänge = = (r (k), s (k) ) (s (k), As (k) ) ] update: x (k+1) = x (k) + α k s (k) (r (k+1), r (k+1) ) berechne: β k = (r (k), r (k) ) r (k+1) = r (k) α k w (k) neue Suchrichtung: s (k+1) = r (k+1) + β k s (k) pro Schritt : 1 Matrix Vektor-Op., 3 Skalarprodukte, 3 Linearkombin. 3. Lineare Gleichungssysteme 35 / 38
36 Konvergenz des CG-Verfahrens Theorem (3.15 Konvergenz CG-Verfahren) Vor. : Matrix A R n n sei spd und κ(a) := λ max (A)/λ min (A) [= cond 2 (A)] Beh. : das CG-Verfahren konvergiert für jeden Startvektor x (0) x (k) x A 2 und es gilt: ( κ(a) 1 κ(a) + 1 ) k x (0) x A beachte : je größer die Konditionszahl κ(a), desto langsamer konvergiert das CG-Verfahren!!! 3. Lineare Gleichungssysteme 36 / 38
37 Verallgemeinerung für nicht-symmetrische Matrizen Lit. : Y. Saad : Iterative methods for sparse linear systems, Software-Bausteine : moderne Verfahren : GMRES : siehe Matlab-Help unter gmres BiCGStab : siehe Matlab-Help unter bicgstab CGS : siehe Matlab-Help unter cgs als Nutzer braucht man nur die Funktion w = matvec(a,v) (Matrix Vektor-Operation) zu programmieren, die w = Av berechnet 3. Lineare Gleichungssysteme 37 / 38
38 3.7. Vorkonditionierung beachte : je größer die Konditionszahl cond 2 (A), desto langsamer konvergiert i.a. ein Iterations-Verfahren!!! Prinzip der Vorkonditionierung : anstelle von Ax = b mit cond 2 (A) groß arbeitet man mit dem äquivalenten GLS Ãx = b, d.h. BAx }{{} Ãx = Bb }{{} b wobei cond 2 (Ã) relativ klein B heißt Vorkonditionierer ( preconditioner ) und sollte eine Näherung von A 1 sein B braucht man nur als Funktion : w = precond(v) := Bv Bsp. : Bv = Ergebnis y (1) einer SOR-Iteration für Ay = v mit Startvektor y (0) = 0 3. Lineare Gleichungssysteme 38 / 38
Iterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
2 Lineare Gleichungssysteme
2 Lineare Gleichungssysteme Wir betrachten das lineare Gleichungssystem Ax = b mit der n n-koeffizientenmatrix A und der rechten Seite b R n. Wir leiten zuerst eine Variante des Gauss-Algorithmus (LR-Zerlegung)
Der CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR
LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine
5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme
5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme Als zweite Hauptanwendung des Banachschen Fixpunktsatzes besprechen wir in diesem Kapitel die iterative Lösung linearer Gleichungssysteme. Die
Iterative Lösung Linearer Gleichungssysteme
Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:
Inexakte Newton Verfahren
Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n
2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,
Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist
Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen
Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)
Rechenaufwand der LR- und LDL T - Zerlegung
6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für
2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p
Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.
1 Matrizenrechnung zweiter Teil
MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten
Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)
M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.
3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
Numerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)
37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
Matrizen, Determinanten, lineare Gleichungssysteme
Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n
6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
Matrizenoperationen mit FORTRAN
Kapitel 2 Matrizenoperationen mit FORTRAN 21 Grundlagen Bei vielen Anwendungen müssen große zusammenhängende Datenmengen gespeichert und verarbeitet werden Deshalb ist es sinnvoll, diese Daten nicht als
Das CG-Verfahren. Sven Wetterauer
Das CG-Verfahren Sven Wetterauer 06.07.2010 1 Inhaltsverzeichnis 1 Einführung 3 2 Die quadratische Form 3 3 Methode des steilsten Abstiegs 4 4 Methode der Konjugierten Richtungen 6 4.1 Gram-Schmidt-Konjugation.........................
Vektor und Matrixnormen Vorlesung vom
Vektor und Matrixnormen Vorlesung vom 20.12.13 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse
4.2.3 LR-Zerlegung für diagonaldominante Matrizen
4.2 Lösungsmethoden für lineare Gleichungssysteme 4.2.3 LR-Zerlegung für diagonaldominante Matrizen Satz 4.28 besagt, dass die LR-Zerlegung für beliebige reguläre Matrizen mit Pivotierung möglich ist.
Vektor und Matrixnormen Vorlesung vom
Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse
4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung
4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax
Lineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte
Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)
6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme
6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear
Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung
Kapitel 2: Matrizen 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung 2.1 Matrizen M = n = 3 m = 3 n = m quadratisch M ij : Eintrag von M in i-ter
Numerische Mathematik für Ingenieure und Physiker
Willi Törnig Peter Spellucci Numerische Mathematik für Ingenieure und Physiker Band 1: Numerische Methoden der Algebra Zweite, überarbeitete und ergänzte Auflage Mit 15 Abbildungen > Springer-Verlag Berlin
1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema
1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und
Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
Lineare Gleichungssysteme Hierarchische Matrizen
Kompaktkurs Lineare Gleichungssysteme Hierarchische Matrizen M. Bebendorf, O. Steinbach O. Steinbach Lineare Gleichungssysteme SIMNET Kurs 24. 27.4.26 / 6 Numerische Simulation stationäre und instationäre
3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation
5 Interpolation und Approximation
5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)
Überbestimmte Gleichungssysteme
Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare
Eigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
8. Elemente der linearen Algebra 8.5 Quadratische Matrizen und Determinanten
Einheitsmatrix Die quadratische Einheitsmatrix I n M n,n ist definiert durch I n = 1 0 0 0 1 0 0 0 1 (Auf der Hauptdiagonalen stehen Einsen, außerhalb Nullen Durch Ausmultiplizieren sieht man I n A = A
Methode der kleinsten Quadrate
Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,
9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
Klausur HM I H 2005 HM I : 1
Klausur HM I H 5 HM I : 1 Aufgabe 1 4 Punkte): Zeigen Sie mit Hilfe der vollständigen Induktion: n 1 1 + 1 ) k nn k n! für n. Lösung: Beweis mittels Induktion nach n: Induktionsanfang: n : 1 ) 1 + 1 k
Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.
Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion
8 Iterationsverfahren zur Lösung von Gleichungssystemen
Numerische Mathematik 378 8 Iterationsverfahren zur Lösung von Gleichungssystemen Nichtlineare Gleichungssysteme (sogar eine nichtlineare Gleichung in einer Unbekannten) müssen fast immer iterativ gelöst
Lineare Algebra: Determinanten und Eigenwerte
: und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b
Numerische Lösung linearer Gleichungssysteme
Kapitel 2 Numerische Lösung linearer Gleichungssysteme Dieses Kapitel behandelt numerische Verfahren zur Lösung linearer Gleichungssysteme der Gestalt Ax = b, A R n n, x, b R n (21) mit a 11 a 1n A = a
Lineare Gleichungssysteme - Grundlagen
Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente
4 Lineare Algebra (Teil 2): Quadratische Matrizen
4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,
8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
Iterative Verfahren zur Lösung von Linearen Gleichungssystemen
Kapitel 4 Iterative Verfahren zur Lösung von Linearen Gleichungssystemen Situation: A C n n schwach besetzt, n groß, b C n. Ziel: Bestimme x C n mit Ax = b. 4.1 Spliting-Methoden Die Grundidee ist hier
2 Matrizenrechnung und Lineare Gleichungssysteme
Technische Universität München Florian Ettlinger Ferienkurs Lineare Algebra Vorlesung Dienstag WS 2011/12 2 Matrizenrechnung und Lineare Gleichungssysteme 2.1 Matrizenrechnung 2.1.1 Einführung Vor der
Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung
Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,
9 Vektorräume mit Skalarprodukt
9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden
Euklidische und unitäre Vektorräume
Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein
Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix
Inhaltsverzeichnis Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Auf dieser Seite werden Matrizen und Vektoren fett gedruckt, um sie von Zahlen zu unterscheiden. Betrachtet wird das
( ) Lineare Gleichungssysteme
102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv
6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
Klausur zur Vordiplom-Prüfung
Technische Universität Hamburg-Harburg SS 25 Arbeitsbereich Mathematik Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren 22. Juli 25 Sie haben 9 Minuten Zeit zum Bearbeiten der
C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =
1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition
Kapitel 1. Matrizen und lineare Gleichungssysteme. 1.1 Matrizenkalkül (Vektorraum M(n,m); Matrixmultiplikation;
Kapitel 1 Matrizen und lineare Gleichungssysteme 11 Matrizenkalkül (Vektorraum M(n,m; Matrixmultiplikation; Transposition; Spalten- und Zeilenvektoren Matrizen sind im Prinzip schon bei der schematischen
4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau
312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind
Brückenkurs Mathematik. Mittwoch Freitag
Brückenkurs Mathematik Mittwoch 5.10. - Freitag 14.10.2016 Vorlesung 4 Dreiecke, Vektoren, Matrizen, lineare Gleichungssysteme Kai Rothe Technische Universität Hamburg-Harburg Montag 10.10.2016 0 Brückenkurs
Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,
6 Lineare Gleichungssysteme
6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α
Im Falle einer zweimal differenzierbaren Funktion lässt sich das Krümmungsverhalten anhand der zweiten Ableitung feststellen.
Konvex, Konkav, Wendepunkt: Sei f : D R eine Funktion und sei I D ein Intervall. Gilt für alle x 1,x 2 I f ( x1 +x ) 2 2 f(x 1)+f(x 2 ), 2 dann heißt f konvex (linksgekrümmt) in I. Gilt für alle x 1,x
Quadratische Formen und Definitheit
Universität Basel Wirtschaftswissenschaftliches Zentrum Quadratische Formen und Definitheit Dr. Thomas Zehrt Inhalt: 1. Quadratische Formen 2. Quadratische Approximation von Funktionen 3. Definitheit von
36 2 Lineare Algebra
6 Lineare Algebra Quadratische Matrizen a a n sei jetzt n m, A, a ij R, i, j,, n a n a nn Definition Eine quadratische Matrix A heißt invertierbar genau dann, wenn es eine quadratische Matrix B gibt, so
Lösungen zu den Hausaufgaben zur Analysis II
Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin
3 Elementare Umformung von linearen Gleichungssystemen und Matrizen
3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange
Technische Universität München Zentrum Mathematik. Übungsblatt 7
Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion
1 Grundlagen der Numerik
1 Grundlagen der Numerik 1.1 Gleitpunkt-Arithmetik Es gibt nur endlich viele Zahlen auf dem Computer. Gleitpunktzahl: x = σmb E σ: Vorzeichen B: Basis (feste Zahl >1); M: Mantisse E: Exponent B = 2 : Dualzahl
Lineare Gleichungssysteme
Brückenkurs Mathematik TU Dresden 2016 Lineare Gleichungssysteme Schwerpunkte: Interpretation und Verständnis der Gleichungen Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik unter
Kapitel 5. LU Zerlegung. 5.1 L- und U-Matrizen
Kapitel 5 LU Zerlegung In vielen Fällen interessiert uns die inverse Matrix A 1 gar nicht. Stattdessen suchen wir die Lösung der Matrixgleichung Ax = b bzw. x = A 1 b 5.1) für einen oder wenige Vektoren
5 Stetigkeit und Differenzierbarkeit
5 Stetigkeit und Differenzierbarkeit 5.1 Stetigkeit und Grenzwerte von Funktionen f(x 0 ) x 0 Graph einer stetigen Funktion. Analysis I TUHH, Winter 2006/2007 Armin Iske 127 Häufungspunkt und Abschluss.
Lineare Algebra. Teil III. Inhaltsangabe
Teil III Lineare Algebra Inhaltsangabe 3 Lineare Algebra 22 3.1 Einführung.......................... 22 3.2 Matrizen und Vektoren.................... 23 3.3 Spezielle Matrizen...................... 24
Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,
Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren
r i w i (siehe (3.7)). r i v, w i = 0.
Orthogonales Komplement und Orthogonalprojektion Wir betrachten weiterhin einen euklidischen Vektorraum V,,. (6.13) Def.: Ist M V, so heißt das orthogonale Komplement von M. (6.14) Fakt. (i) M ist Untervektorraum
Nichtlineare Gleichungen
Nichtlineare Gleichungen Ein wichtiges Problem in der Praxis ist die Bestimmung einer Lösung ξ der Gleichung f(x) =, () d.h. das Aufsuchen einer Nullstelle ξ einer (nicht notwendig linearen) Funktion f.
Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
Skalarprodukte (Teschl/Teschl Kap. 13)
Skalarprodukte (Teschl/Teschl Kap. ) Sei V Vektorraum über R. Ein Skalarprodukt auf V ist eine Abbildung V V R, (x, y) x, y mit den Eigenschaften () x, y = y, x (symmetrisch), () ax, y = a x, y und x +
2 Euklidische Vektorräume
Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,
4 Fehlerabschätzungen und Konvergenz der FEM
4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und
Serie 10: Inverse Matrix und Determinante
D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die
Einführung in die Vektor- und Matrizenrechnung. Matrizen
Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:
Lineare Algebra II, Lösungshinweise Blatt 9
Prof Dr Katrin Wendland Priv Doz Dr Katrin Leschke Christoph Tinkl SS 27 Lineare Algebra II, Lösungshinweise Blatt 9 Aufgabe (4 Punkte) Sei 2 3 4 A = 5 6 Berechnen Sie A k für alle k N und verifizieren
4 Lineare Abbildungen Basisdarstellungen
4 Lineare Abbildungen Basisdarstellungen (4.1) Seien V,W endlich dimensionale K-Vektorräume, und sei T : V W linear. Sei {v 1,...,v } Basis von V und {w 1,...,w M } Basis von W. Sei T (v j ) = M a kj w
Kap 5: Rang, Koordinatentransformationen
Kap 5: Rang, Koordinatentransformationen Sei F : V W eine lineare Abbildung. Dann ist der Rang von F erklärt durch: rang F =dim ImF. Stets gilt rang F dimv, und ist dimv
5 Lineare Algebra (Teil 3): Skalarprodukt
5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale
Rückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
7 Die Determinante einer Matrix
7 Die Determinante einer Matrix ( ) a11 a Die Determinante einer 2 2 Matrix A = 12 ist erklärt als a 21 a 22 det A := a 11 a 22 a 12 a 21 Es ist S 2 = { id, τ}, τ = (1, 2) und sign (id) = 1, sign (τ) =
Mat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1
Aufgabe. Bestimmen Sie das Exponential expa) der Matrix ) 5 6 A = Mat, R). 4. Wir bestimmen das charakterische Polynom f A t) = t t = t )t + ). ). Eigenvektor zu EW ist v = ). Eigenvektor zu EW ist v =
Lineare Algebra und Numerische Mathematik für D-BAUG
P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen
Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2
18.4 Das Newton-Verfahren
18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift
Klausurvorbereitungsblatt Lineare Algebra
Klausurvorbereitungsblatt Lineare Algebra Sommersemester 25 Aufgabe 2 2 Sei A 3 3 8 2 4 3 R4 5. 5 2 a) Bestimmen Sie die Lösungsmenge des linearen Gleichungssystems Ax b) Ist Ax b mit b lösbar? (Begründen
