2 Direkte Lösungsverfahren für lineare Gleichungen

Save this PDF as:
 WORD  PNG  TXT  JPG

Größe: px
Ab Seite anzeigen:

Download "2 Direkte Lösungsverfahren für lineare Gleichungen"

Transkript

1 2 Direkte Lösungsverfahren für lineare Gleichungen Sei A R invertierbar und b R. Löse Ax = b genau und effizient. Die LR-Zerlegung Wir berechnen eine Zerlegung A = LR mit L, R R und den folgen Eigenschaften: L[n,n] = 1, R[n,n] 0, L[n,k] = R[k,n] = 0 für n = 1,...,, k > n. 1 0 L ist eine untere normierte Dreiecksmatrix: L = R ist eine obere reguläre Dreiecksmatrix: R = Um Ax = b zu lösen, löse zunächst Ly = b, Rx = y und damit Ax = LRx = Ly = b. (2.1 Satz (a Sei L R eine normierte untere Dreiecksmatrix (d.h. diagl = I und L[1 : n,n + 1] = 0 n für n = 1,..., 1, und sei b R. Dann ist L regulär und das Lineare Gleichungssystem (LGS Ly = b ist mit O( 2 Operationen lösbar. (b Für eine reguläre obere Dreiecksmatrix R R, (d.h. R[n,n] 0 für alle n und R[n + 1,1 : n] = 0 T n für n < ist das LGS Rx = y in O( 2 Operationen lösbar. Beweis. Zu (a: Wir lösen das LGS L[1 : n,1 : n]x[1 : n] = y[1 : n] induktiv für n = 1,..., durch Vorwärtssubstitution. Es gilt det(l[1 : n, 1 : n] = 1, also ist L[1 : n, 1 : n] regulär. Für n = 1 gilt y[1] = b[1]. un sei für n > 1 bereits y[1 : n 1] mit L[1 : n 1,1 : n 1]y[1 : n 1] = b[1 : n 1] berechnet. Aus dem Ansatz ( L[1 : n 1,1 : n 1] 0n 1 L[n,1 : n 1] 1 ( y[1 : n 1] y[n : n] = folgt L[n,1 : n 1]y[1 : n 1] + y[n : n] = b[n : n], also ist y[n : n] = b[n : n] L[n,1 : n 1]y[1 : n 1] ( b[1 : n 1] b[n : n] mit O( Operationen berechenbar. Zusammen werden somit O( 2 Operationen benötigt. Zu (b: Umgekehrt lösen wir LGS R[n :,n : ]y[n : ] = b[n : ] induktiv für n =,...,1 durch Rückwärtssubstitution. Da R regulär ist, gilt det(r = n=1 R[n,n] 0, also R[n,n] 0 für alle n = 1,...,. Für n = setze x[] = y[]/r[,]. un sei für n bereits x[n : ] mit R[n :,n : ]x[n : ] = y[n : ] berechnet. Aus ( ( ( R[n 1,n 1] R[n 1,n : ] x[n 1 : n 1] y[n 1 : n 1] = 0 n+1 R[n :,n : ] x[n : ] y[n : ] 3

2 folgt R[n 1,n 1]x[n 1 : n 1] + R[n 1,n : ]x[n : ] = y[n 1 : n 1], also ist ( x[n 1 : n 1] = y[n 1 : n 1] R[n 1,n : ]x[n : ] /R[n 1,n 1] mit O( Operationen berechenbar. Zusammen werden somit O( 2 Operationen benötigt. (2.2 Satz a Die normierten unteren Dreiecksmatrizen bilden eine Gruppe. b Die regulären oberen Dreiecksmatrizen bilden eine Gruppe. Beweis. Das Produkt von Dreiecksmatrizen ist wieder eine Dreiecksmatrix. Wie zeigen induktiv, dass L[1 : n,1 : n] 1 normierte untere Dreiecksmatrix ist. Für n = 1 gilt L[1,1] 1 = 1. un betrachte n > 1. Der Ansatz ( L[1 : n,1 : n] 0n L[n + 1,1 : n] 1 ( L[1 : n,1 : n] 1 0 n l T 1 = ( I 0 n 0 T n 1 mit l R n ergibt l T = L[n + 1,1 : n]l[1 : n,1 : n] 1. Also besitzt L[1 : n + 1,1 : n + 1] eine Inverse. Wenn L[1 : n,1 : n] 1 normierte untere Dreiecksmatrix ist, dann ist damit auch L[1 : n + 1,1 : n + 1] 1 normierte untere Dreiecksmatrix. Wenn R reguläre obere Dreiecksmatrix ist, dann ist L = diag(r 1 R T normierte untere Dreiecksmatrix. Also ist L 1 normierte untere Dreiecksmatrix und somit ( 1 R 1 = L T diag(r = diag(r 1 L T obere Dreiecksmatrix. Diagonalskalierung Die Multiplikation einer Matrix A R M, mit einer Diagonalmatrix D M = diag(d 1,...,d M von links entspricht einer Zeilenskalierung (bzw. mit D = diag(d 1,...,d von rechts einer Spaltenskalierung: d 1 A[1,1 : ] ( D M A =., AD = d 1 A[1 : M,1] d M A[M,1 : ] d A[1 : M,]. (2.3 Satz Wenn eine Matrix A R eine LR-Zerlegung A = LR besitzt, dann ist A regulär und das LGS Ax = b ist mit O( 2 Operationen lösbar. Beweis. Es gilt nach Voraussetzung det(l = 1 und det(r 0, also det(a = det(lr = det(l det(r = det(r 0. Also ist A regulär. Weiterhin gilt b = Ax = LRx = Ly für y = Rx. Also löse zunächst Ly = b und dann Rx = y. 4

3 (2.4 Satz Eine Matrix A R besitzt genau dann eine LR-Zerlegung, wenn alle Hauptuntermatrizen A[1 : n,1 : n], (n = 1,..., regulär sind. Die LR-Zerlegung ist eindeutig und lässt sich mit O( 3 Operationen berechnen. Beweis. (i Existenz: Wir berechnen die LR-Zerlegung A[1 : n,1 : n] = L[1 : n,1 : n]r[1 : n,1 : n] induktiv für n = 1,...,. Für n = 1 gilt L[1,1] = 1, R[1,1] = A[1,1] 0. un sei eine Zerlegung A[1 : n,1 : n] = L[1 : n,1 : n]r[1 : n,1 : n] berechnet. Der Ansatz ( L[1 : n,1 : n] 0n L[n + 1,1 : n] 1 ergibt die Gleichungen ( R[1 : n,1 : n] R[1 : n,n + 1] 0 T n R[n + 1,n + 1] = L[1 : n,1 : n]r[1 : n,n + 1] = A[1 : n,n + 1], L[n + 1,1 : n]r[1 : n,1 : n] = A[n + 1,1 : n], L[n + 1,1 : n]r[1 : n,n + 1] + R[n + 1,n + 1] = A[n + 1,n + 1]. ( A[1 : n,1 : n] A[1 : n,n + 1] A[n + 1,1 : n] A[n + 1,n + 1] Da A[1 : n,1 : n] regulär ist, sind auch L[1 : n,1 : n] und R[1 : n,1 : n] regulär, also gilt R[1 : n,n + 1] = L[1 : n,1 : n] 1 A[1 : n,n + 1], L[n + 1,1 : n] = A[n + 1,1 : n]r[1 : n,1 : n] 1, R[n + 1,n + 1] = A[n + 1,n + 1] L[n + 1,1 : n]r[1 : n,n + 1]. Damit ist eine LR-Zerlegung A[1 : n+1,1 : n+1] = L[1 : n+1,1 : n+1]r[1 : n+1,1 : n+1] berechnet, und aus 0 deta[1 : n + 1,1 : n + 1] = detr[1 : n + 1,1 : n + 1] = det ( R[1 : n,1 : n] R[n + 1,n + 1] folgt R[n + 1,n + 1] 0. Also ist R[1 : n + 1,1 : n + 1] regulär. (ii Eindeutigkeit: Sei A = L R eine weitere LR-Zerlegung von A. Dann ist LR = L R, also L 1 L = RR 1. Aus Satz (2.2 folgt, dass L 1 L und RR 1 sowohl untere normierte Dreiecksmatrix ist wie auch obere Dreieckmatrix. Somit gilt L 1 L = RR 1 = I, also ist L = L, R = R. (iii Aufwand: In jedem Schritt werden zwei Dreieckssysteme mit O(n 2 Operationen gelöst, Schritte werden benötigt. Damit ist die Anzahl der Operationen in der Größenordnung O( 3. Bemerkung Die LR-Zerlegung respektiert die Hüllenstruktur. Für k < n gilt: A[n,1 : k] = 0 T k = L[n,1 : k] = 0 T k A[1 : k,n] = 0 k = R[1 : k,n] = 0 k 5

4 Algorithmus 1 Berechnung einer LR-Zerlegung, Vorwärts- und Rückwärtssubstitution. function x = lr_solve(a,b = size(a,1; for n=1:-1 A(n+1:,n = A(n+1:,n/A(n,n; A(n+1:,n+1: = A(n+1:,n+1: - A(n+1:,n * A(n,n+1:; x = b; for n=2: x(n = x(n - A(n,1:n-1 * x(1:n-1; for n=:-1:1 x(n = (x(n - A(n,n+1:*x(n+1:/A(n,n; return (2.5 Definition Eine Matrix A R heißt diagonaldominant, wenn A[n,n] k=1 k n A[n,k] (n = 1,..., gilt, und strikt diagonaldominant, falls A[n,n] > k=1 k n A[n,k] (n = 1,..., (2.6 Folgerung Wenn A R strikt diagonal dominant ist, dann existiert eine LR-Zerlegung. Beweis. Wenn keine LR-Zerlegung existiert, dann existiert ein n, für das die Untermatrix A[1 : n,1 : n] singulär ist, und es existiert x R n mit A[1 : k,1 : k]x = 0 und x 0 n. Wähle k {1,...,n} mit x[k] x[ j] für alle j = 1,...,n. Dann folgt aus A[k,k] x[k] = n j=1 j k A[k, j]x[ j] n j=1 j k A[k, j] x[ j] A[k, j] x[k] < x[k] A[k, k] j k und x[k] 0 ein Widerspruch. (2.7 Satz Sei A R symmetrisch und positiv definit. Dann existiert genau eine Cholesky-Zerlegung A = LL T mit regulärer unterer Dreiecksmatrix L. 6

5 Beweis. Da A positiv definit ist, ist det(a[1 : n,1 : n] > 0; es existiert also eine LR- Zerlegung A = L R. Definiere D = diag( R. Aus n k=1 D[k,k] = det( R[1 : n,1 : n] = det(a[1 : n,1 : n] > 0 folgt induktiv D[k, k] > 0. Wir skalieren die Spalten von L und Zeilen von R und setzen L = LD 1 2, R = D 1 2 R. Damit folgt LR = L R = A = A T = R T L T = R T L T Hieraus ergibt sich R T L = L T R 1 = I, woraus R = L T folgt. Die Berechnung der Cholesky-Zerlegung benötigt nur halb soviele Operationen wie die Berechnung einer LR-Zerlegung. Algorithmus 2 Berechnung einer Cholesky-Zerlegung, Vorwärts- und Rückwärtssubstitution. function x = cholesky_solve(a,b = size(a,1; for n=1: A(n:,n = A(n:,n - A(n:,1:n-1 * A(n,1:n-1 ; A(n:,n = A(n:,n / sqrt(a(n,n; x = b for n=1: x(n = (x(n - A(n,1:n-1 * x(1:n-1/ A(n,n; for n=:-1:1 x(n = (x(n - A(n+1:,n * x(n+1:/ A(n,n; return Die LR-Zerlegung mit Pivotsuche Durch Zeilenvertauschungen von A lässt sich immer garantieren, dass eine LR-Zerlegung existiert. (2.8 Definition Sei π S eine Permutation. Dann heißt P π = ( e eπ π 1 (1 ( 1 R Permutationsmatrix zu π. Die Multiplikation einer Matrix A R M mit einer Permutationsmatrix P π von links vertauscht die Zeilen (bzw. mit P σ von rechts vertauscht die Spalten. (P π A[n,k] = A[π(n,k] (AP σ [n,k] = A[n,σ 1 (k] 7

6 Also ist die Zeile n von A die Zeile π(n von P π A Als Beispiel betrachte π S 3 mit π(1 = 3, π(2 = 1 und π(3 = 2 und A = Dann gilt P π = 1 0 0, P π A = und AP π = (2.9 Satz Die Permutationsmatrizen in R bilden eine Gruppe. Es gilt P π P σ = P π σ und (P π 1 = P T π. (2.10 Satz Sei A R regulär. Dann existiert eine Permutationsmatrix P, so dass PA eine LR- Zerlegung mit L[n,k] 1 besitzt. Beweis. Wir konstruieren die Zerlegung induktiv. Für = 1 ist nichts zu zeigen. un sei > 1. Suche in der ersten Spalte n = 1 das Pivotelement A[p,1] mit dem größten Betrag, d.h. A[p,1] A[k,1] für alle k = 1,...,. Da A regulär ist, ist A[1 :,1] 0, also A[p,1] 0. Falls p 1, vertausche die Zeilen 1 und p und setze τ = [1 p]. Sonst setze τ = id. un setze A 1 = P τ A, d.h. A 1 [1,1] = A[p,1], ( 1 0 L 1 = T 1 A 1 [2 :,1]/A 1 [1,1] I 1 ( 1 0 L 1 A 1 = T ( 1 A1 [1,1] A 1 [1,2 : ] A 1 [2 :,1]/A 1 [1,1] I 1 A 1 [2 :,1] A 1 [2 :,2 : ] ( A1 [1,1] A = 1 [1,2 : ] 0 1 A 2 mit der Restmatrix A 2 = A 1 [2 :,2 : ] + L 1 [2 :,1]A 1 [1,2 : ]. Dann gilt per Konstruktion L 1 A 1 = R 1. Aus A 1 [1,1]detA 2 = det(l 1 det(a 1 = det(p τ A = det(p τ deta 0 }{{} =±1 folgt deta 2 0. Also existiert in R 1 1 per Induktionsvoraussetzung eine LR-Zerlegung P 2 A 2 = L 2 R 2. Wir setzen ( ( 1 0 T ˆP 2 = T, ˆL 0 1 P 2 = 1, R = L 2 ( A1 [1,1] A 1 [1,2 : ] 0 1 R 2 Aus P = ˆP 2 P τ folgt ˆP 2 L 1 A 1 = ˆL 2 R. Damit erhalten wir eine LR-Zerlegung mit Pivotsuche: PA = ˆP 2 P τ A = ˆP 2 A 1 = ˆP 2 L1 1 L 1A 1 = L1 1 ˆP 2 L 1 A 1 = L1 1 ˆL 2 R = LR 8.

7 Das System Ax = b wird wie folgt gelöst: Es gilt LRx = PAx = Pb. Berechne erst y = Rx durch Vorwärtssubstitution von Ly = Pb und dann x durch Rückwärtssubstitution von Rx = y. Die LR-Zerlegung mit Spaltenpivotsuche benötigt zusätzlich O( 2 Operationen. Die Stabilität (siehe unten der LR-Zerlegung lässt sich durch sogenannte totale Pivotsuche erhöhen: Durch den Zeilen- und Spaltentausch ersetze in jedem Schritt A n [1,1] durch den maximalen Eintrag in der Restmatrix A n. Hierfür werden allerdings O( 3 Operationen benötigt. Algorithmus 3 Berechnung einer LR-Zerlegung mit Pivotsuche, Vorwärts- und Rückwärtssubstitution. function x = lr_pivot_solve(a,b = size(a,1; p = (1: ; for n = 1:-1 [r,m] = max(abs(a(n:,n; m = m+n-1; if abs(a(m,n<eps error( *** ERROR *** Matrix fast singulär ; if (m ~= n A([n m],: = A([m n],:; p([n m] = p([m n]; A(n+1:,n = A(n+1:,n/A(n,n; A(n+1:,n+1: = A(n+1:,n+1: - A(n+1:,n*A(n,n+1:; x = b(p; for n=2: x(n = x(n - A(n,1:n-1 * x(1:n-1; for n=:-1:1 x(n = (x(n - A(n,n+1:*x(n+1:/A(n,n; return 9

8 Störungsrechnung (2.11 Satz Sei A R regulär, und sei A R so klein, dass A < 1 gilt. Dann ist die A 1 Matrix à = A + A regulär. Sei b R, b 0, b R klein und b = b + b. Dann gilt für die Lösung x R von Ax = b und x R von à x = b x x κ(a 1 κ(a A A ( b b + A A. Dabei ist x = x x der absolute Fehler, x x der relative Fehler, und κ(a = A A 1 die Kondition von A. Beweis. Aus der Voraussetzung A < 1 A 1 folgt, dass die Reihe ( AA 1 k konvergiert. Also ist à = A + A R regulär, es gilt für die Inverse die k=0 Darstellung ( 1 A + A = A 1 ( AA 1 k k=0 und die ormabschätzung (A + A 1 A 1 1 A 1 A. Ferner folgt aus (A + A(x + x = b + b und Ax = b die Gleichung (A + A x = b Ax und somit x (A + A 1 ( b + A x A 1 ( b 1 A 1 + A x A x A A 1 ( b A x + A A 1 A A 1 A A x. Mit κ(a = A A 1 und b A x b b folgt die Behauptung. Vektor- und Matrixnormen Wir verwen für x R und A R K x 1 = x[n] n=1 x 2 = x T x x = max x[n] n=1,..., Ax p A p = sup x 0 x p 1-orm 2-orm / euklidische orm Maximumsnorm zugeordnete Operatornorm (p = 1,2,. 10

9 (2.12 Satz Sei A R K. p ist submultiplikativ und es gilt Dabei ist A 1 = A 2 = A = K max n=1,..., k=1 ρ(a T A max k=1,...,k n=1 A[k, n] A[k, n] Spaltensummennorm Spektralnorm Zeilensummennorm. ρ(a = max{ λ : λ σ(a} Spektralradius von A, σ(a = {λ C: det(a λi = 0} Spektrum von A. Beweis. Zur Submultiplikativität der orm: ABx p A p Bx p AB p = sup sup = A p B p x 0 x p x 0 x p p = 1: Es gilt Ax 1 = leq K k=1 n=1 K k=1 n=1 K max n=1,..., k=1 = A 1 x 1 A[k, n]x[n] A[k, n] x[n] A[k, n] n=1 x[n] Für n 0 mit K k=1 A[k,n 0] = A 1 ist Also gilt Ae n0 1 = K A[k,n 0 ]e n0 [n 0 ] = A 1 k=1 Ax 1 A 1 = min{c 0 Ax 1 C x 1 } = sup x 0 x 1 p = 2: Zu A T A R, symmetrisch existiert eine orthogonale Matrix Q R, (d.h Q 1 = Q T mit Q T A T AQ = diag(λ 1,...λ =: Λ und Eigenwerten λ n 0 von A T A. Es gilt Qy 2 2 = (Qy T Qy = y T Q T Qy = y T y = y 2 2 AQy 2 2 = (AQy T AQy = y T Q T A T AQy = y T Λy Λy

10 Damit ergibt sich (mit der Substitution x = Qy Ax 2 AQy 2 Λy 2 A = sup = sup = sup max λ n, x 0 x 2 y 0 Qy 2 y 0 y 2 es gilt also A 2 ρ(a T A. Wähle n 0 mit λ n0 = ρ(a T A und q R mit Aq = λ n0 q, q 0 mit A T Aq = λ n0 q. Dann gilt Ax 2 A 2 = sup Aq 2 = λ n0 = ρ(a T A, x 0 x 2 q 2 da Aq 2 2 = qt A T Aq = λ n0 q T q = λ n0 q 2 2. p = : siehe Analysis II Bemerkung Wenn A symmetrisch ist mit Eigenwerten λ 1,...,λ, dann gilt und Also ist A 2 = A 1 2 = ρ(a 2 = ρ(a = max λ n n=1,..., max n=1,..., κ(a = A 2 A 1 2 = Grundlagen der Arithmetik 1 λ n = 1 min λ n. n=1,..., max λ n n=1,..., min λ n. n=1,..., In der Praxis muss das Schema Eingabe Algorithmus Resultat ergänzt werden: Untersuche Eingabe mit Fehlern Algorithmus mit Fehlern Resultat mit Fehlern. (2.13 Definition a Die Gleitkommazahlen zur Basis B {2,3,4,...}, Mantissenlänge M und Exponent E ist die Menge { } FL = ±B e M a m B m Q e = e E 1 + e k B k, a k, e k {0,...,B 1} m=1 k=0 b Eine Gleitkommaarithmetik wird durch eine Abbildung fl: R FL mit fl(x = x für x FL definiert: x + y = fl(x + y, x y = fl(xy. 12

11 { } Mit eps := sup x fl(x x x R\FL bezeichnen wir die Maschinengenauigkeit. Als Ergebnis einer Rechenoperation werden zusätzlich folge Fehlerzustände definiert: a (not a number nicht definiertes Ergebnis overflow Ergebnis > max FL oder < min FL underflow fl(x = 0, aber x 0 Beispiele: a (not a number Division durch 0, 1 overflow exp(100 underflow exp( 100 Im IEEE-Standard wird double mit 64 Bit = 8 Byte dargestellt: 1 Bit Vorzeichen 52 Bits Mantisse m = 51 i=0 11 Bits Exponenten e = E + a i 2 i a i {0,1} 10 b j 2 j b j {0,1} j=0 Es ist M = , E = 1022, E + = 1023 und damit gilt für die Maschinengenauigkeit Außerdem erhalten wir eps FL [ , ] {0} [10 308, ]. Folge Probleme treten wegen der begrenzten Zahlenmenge auf: (1 Unvermeidliche Rundungsfehler: Setze doublex = 4 arctan(1. Dies sollte π sein. Wir erhalten: x = π = (2 Auslöschung: Auslöschung tritt immer dann auf, wenn zwei fast gleich große Zahlen voneinander abgezogen werden. Sei beispielsweise doublex = exp(1. Berechne nun y = x und z = fl(x y. Dann gilt z e 16, und für den relativen Fehler z 10 8 z 1e 8. Also ist die Berechnung nur auf 8 Dezimalstellen genau. Ein typisches Beispiel für vermeidbare Rundungsfehler ist die Auswertung von exp( x für x > 0: Die Berechnung der Exponentialfunktion ist gut konditioniert, aber die direkte numerische Auswertung der Exponentialreihe für negative Argumente ist (durch Auslöschung sehr ungenau. Die Auswertung exp( x = 1/exp(x ist numerisch stabil. 13

12 Kondition und Stabilität Bei vielen Anwungen sind die Daten (z.b. durch ungenaue Messungen unsicher. Dazu führen wir einige Begriffe ein. Bezeichnung a Ein Problem heißt sachgemäß gestellt, wenn es eindeutig lösbar ist und die Lösung stetig von den Daten abhängt. b Die Kondition eines Problems ist ein Maß dafür, wie stark die Abhängigkeit der Lösung von den Daten ist. c Die Stabilität eines numerischen Algorithmus ist ein Maß dafür, wie stark die Datenabhängigkeit der numerischen Lösung im Vergleich zu der tatsächlichen Lösung ist. Also: Ein Problem ist gut konditioniert, wenn kleine Änderungen der Daten die Lösung nur wenig ändern. Ein numerischer Algorithmus ist stabil, wenn durch kleine Änderungen der Daten die Änderung der numerischen Lösung durch den Algorithmus nicht zusätzlich verstärkt wird. Damit ergibt sich folge Charakterisierung: Kondition des Problems: Unvermeidbare Fehlerverstärkung bei optimaler Problemlösung. Stabilität des Algorithmus: Der gewählte Algorithmus vergrößert den Fehler nicht stärker als die unvermeidliche Fehlerverstärkung. Beispiel a Wetterberechnung ist schlecht konditioniert: Kleine Veränderungen der Ausgangslage können langfristig große Auswirkungen haben. b Sei V = L 2 (0,1 ausgestattet mit der orm v V 2 = 1 0 v(t 2 dt; V = P seien die Polynome mit Grad kleiner oder gleich. Zu v(t = 1 t 1 bestimme die euklidische Bestapproximation in P. ach Kapitel 1 ist P(t = k=0 x[k]tk mit Ax = b in R +1 ( 1 A = t k t j dt b = 0 ( 1 0 v(tt k dt k, j=0,..., k=0,..., ( 1 = 1 + k + j k, j=0,..., (Hilbertmatrix A ist sehr schlecht konditioniert, aber das Problem selber ist gut konditioniert. c Die Berechnung von x T y(x,y R ist gut konditioniert, d.h. es existiert ein Algorithmus ohne Rundungsfehlerverstärkung. d Die Polynomauswertung mit dem Hornerschema ist stabil. P(t = a 0 + a 1 t + a 2 t 2 + a 3 t 3 + a 4 t 4 = a 0 +t(a 1 +t(a 2 +t(a 3 + a 4 t 14

13 e Bei der Auswertung von Differenzenquotienten f (t 1 ( f (t + h f (t h ist Auslöschung unvermeidbar. Ein Kompromiss ist die Wahl h = x eps. Die Genauigkeit beträgt liegt dann im Bereich von f (x x eps. f Das Berechnen einer Orthonormalbasis mit dem Gram-Schmidt-Verfahren ist nicht stabil. Konditionszahlen (2.14 Definition Sei f : R R K differenzierbar, x,δx k R. Dann heißt κabs nk (x = n f k (x absolute Konditionszahl, und ist f k (x + δx f k (x der absolute Fehler von f k. Falls f k (x 0, so heißt κrel nk = n f k (x x n f k (x relative Konditionszahl, und f k(x+δx f k (x f k (x ist der relative Fehler von f k. Eine Taylor-Entwicklung erster Ordnung liefert f k (x + δx = f k (x + Daher gilt für den absoluten Fehler und den relativen Fehler f k (x + δx f k (x f k (x + δx f k (x f k (x n=1 n f k (xδx n + o(δx. κabs nk (x δx n + o(δx n=1 κrel nk (x δx n n=1 x n + o(δx. Beispiel a f (x 1,x 2 = x 1 +x 2 ; die Jacobi-Matrix ist J f (x 1,x 2 = (1,1, d.h. es gilt κabs nk 1 und κrel n1(x = x n x 1 +x 2 1 für x 1, x 2 0. b f (x 1,x 2 = x 1 x 2 ; die Jacobi-Matrix ist J f (x 1,x 2 = (x 2,x 1. Es ist κrel 11(x = x 1 x 2 x 1 x 2 = 1. Addition und Multiplikation sind gut konditioniert. c f (b = A 1 b; es gilt n f k (b = e T k A 1 e n. Die relative Konditionszahl ist durch die Kondition von A beschränkt: rel (b = b n et k A 1 e n e T k A 1 b A 1 AA 1 b A 1 A 1 A = κ(a b κ nk 15

14 Stabilitätsanalyse a Ein Algorithmus ist vorwärtsstabil, wenn die einzelnen Schritte in f = f K f K 1... f 2 f 1 nicht wesentlich schlechter konditioniert sind als das Problem f. b Zu einem gestörten Ergebnis ỹ = f (x suche x mit f ( x = ỹ (exaktes Ergebnis mit gestörten Eingangsdaten. Falls klein ist, heißt der Algorithmus rückwärtsstabil. x x x 16

15 Satz von Wilkinson Sei PA L R eine numerisch berechnete LR-Zerlegung. Dann gilt PA L R A 2 3 r(aeps mit und r(a = max{ a a R tritt im Algorithmus auf} max{ A[n, k] } r(a 2 1 r(a 1 r(a 2 LR-Zerlegung mit Spaltenpivotsuche Cholesky-Zerlegung A tridiagonal oder strikt diagonaldominant PA L R impliziert A 1 (P T L R 1 = B. 17

2 Direkte Lösungsverfahren für lineare Gleichungen

2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei x = (x n ) n=1,...,n R N, A = (a m,n ) m=1,...,m, n=1,...,n R M,N. a) Sei 1 m n N. Dann ist x[m : n] = (x k ) k=m,...,n R 1+n m Teilvektor von x. b) Seien 1 m 1 m 2 M, 1 n 1 n 2 N. Dann ist A[m

Mehr

2 Direkte Lösungsverfahren für lineare Gleichungen

2 Direkte Lösungsverfahren für lineare Gleichungen 2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei L R N N eine normierte untere Dreiecksmatrix und b R N. Dann ist L invertierbar und das Lineare Gleichungssystem (LGS) Ly = b ist mit O(N 2

Mehr

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine

Mehr

In diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen.

In diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen. Kapitel 4 Lineare Gleichungssysteme 4 Problemstellung und Einführung In diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen Lineares Gleichungssystem: Gesucht ist

Mehr

LR Zerlegung. Michael Sagraloff

LR Zerlegung. Michael Sagraloff LR Zerlegung Michael Sagraloff Beispiel eines linearen Gleichungssystems in der Ökonomie (Input-Output Analyse Wir nehmen an, dass es 3 Güter G, G, und G 3 gibt Dann entspricht der Eintrag a i,j der sogenannten

Mehr

1 Arithmetische Grundlagen

1 Arithmetische Grundlagen Am 4. Juni 1996 explodierte kurz nach dem Start die erste Ariane 5 Rakete durch einen Softwarefehler. Die Horizontalgeschwindigkeit wurde durch eine Gleitkommazahl v [ 10 308, 10 308 ] {0} [10 308,10 308

Mehr

3 Lineare Algebra Vektorräume

3 Lineare Algebra Vektorräume 3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

1.4 Stabilität der Gauß-Elimination

1.4 Stabilität der Gauß-Elimination KAPIEL 1. LINEARE GLEICHUNGSSYSEME 18 1.4 Stabilität der Gauß-Elimination Bezeichne x die exakte Lösung von Ax = b bzw. ˆx die mit einem (zunächst beliebigen Algorithmus berechnete Näherungslösung (inklusive

Mehr

1 Fehleranalyse, Kondition, Stabilität

1 Fehleranalyse, Kondition, Stabilität Fehleranalyse, Kondition, Stabilität Fehlerquellen: Modellierungsfehler z.b. Ohmsches Gesetz u = Ri berücksichtigt nicht die Temperaturabhängigkeit des Widerstandes Messfehler z.b. digitaler Temperatursensor

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 20.12.13 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

Kapitel 2: Lineare Gleichungssysteme

Kapitel 2: Lineare Gleichungssysteme Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 2: Lineare Gleichungssysteme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 205 HM: Numerik (SS 205), Kapitel

Mehr

Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination. Lehrstuhl für Angewandte Mathematik Wintersemester 2009/10. 14.

Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination. Lehrstuhl für Angewandte Mathematik Wintersemester 2009/10. 14. Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Wintersemester 2009/0 4. Januar 200 Instabilitäten

Mehr

1 Grundlagen der Numerik

1 Grundlagen der Numerik 1 Grundlagen der Numerik 1.1 Gleitpunkt-Arithmetik Es gibt nur endlich viele Zahlen auf dem Computer. Gleitpunktzahl: x = σmb E σ: Vorzeichen B: Basis (feste Zahl >1); M: Mantisse E: Exponent B = 2 : Dualzahl

Mehr

Multiplikationen und Divisionen Hauptarbeit des Algorithmus liegt somit in der Berechnung der LR-Zerlegung. (n 1)n(2n 1) 6. = n3 3 n2.

Multiplikationen und Divisionen Hauptarbeit des Algorithmus liegt somit in der Berechnung der LR-Zerlegung. (n 1)n(2n 1) 6. = n3 3 n2. KAPITEL LINEARE GLEICHUNGSSYSTEME 7 Rechenaufwand der LR-Zerlegung: A A : n Divisionen, n 2 Multiplikationen und Additionen A L, R: Also insgesamt n j= j2 + j = n3 3 n 3 Multiplikationen und Divisionen

Mehr

Erweiterungen der LR-Zerlegung

Erweiterungen der LR-Zerlegung Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen

Mehr

Numerische Verfahren

Numerische Verfahren Numerische Verfahren 1. Kapitel: Prof. Dr.-Ing. K. Warendorf Hochschule für Angewandte Wissenschaften München Fakultät 03 WS 13/14 Prof. Dr.-Ing. K. Warendorf (Fakultät 03) Numerische Verfahren WS 13/14

Mehr

Der Gaußsche Algorithmus und Varianten Vorlesung vom

Der Gaußsche Algorithmus und Varianten Vorlesung vom Der Gaußsche Algorithmus und Varianten Vorlesung vom 17114 Gaußsche Elimination und Rückwärtssubstitution: Motivation am Beispiel, Verallgemeinerung und Algorithmus Achtung: Durchführbarkeit nur bei nichtverschwindenden

Mehr

Rechenaufwand der LR- und LDL T - Zerlegung

Rechenaufwand der LR- und LDL T - Zerlegung 6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für

Mehr

Orthogonale Matrix. Definition 4.19

Orthogonale Matrix. Definition 4.19 Orthogonale Matrix Ausgleichsprobleme sind häufig schlecht konditioniert. Matrix des Normalengleichungssystems kann nahezu singulär sein. Spezielle Matrixzerlegung für höhere numerische Stabilität: QR-Zerlegung

Mehr

Direkte Verfahren für Lineare Gleichungssysteme

Direkte Verfahren für Lineare Gleichungssysteme Kapitel 1 Direkte Verfahren für Lineare Gleichungssysteme 11 Einführung (mündlich) 12 Das Gaußsche Eliminationsverfahren Es sei A IK n n eine invertierbare Matrix und b IK n ein gegebener Vektor Gesucht

Mehr

Determinanten. I. Permutationen

Determinanten. I. Permutationen Determinanten Durch Bildung der Determinante wird einer quadratischen (! Matrix eine gewisse Zahl zuordnet. Die Determinante tritt besonders bei Fragen der Flächen- bzw. Volumsberechnung auf (siehe auch

Mehr

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,...

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,... Cramersche Regel Satz 2.4. Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei A j := (a,...,a j,b,a j+,...,a n ) also die Matrix, die entsteht, wenn in A die j-spalte durch den

Mehr

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

1. Rechnerzahlen, Kondition, Stabilität

1. Rechnerzahlen, Kondition, Stabilität 1. Rechnerzahlen, Kondition, Stabilität 1 1.1. Rechnerzahlen 2 1.2. Kondition 3 1.3. Stabilität 1. Rechnerzahlen, Kondition, Stabilität 1 / 18 1.1. Rechnerzahlen allgemeine Zahlendarstellung zur Basis

Mehr

bekannt Analog reduzieren wir die Randwerte im 2d-System. Man erhält dann eine Blocktridia-

bekannt Analog reduzieren wir die Randwerte im 2d-System. Man erhält dann eine Blocktridia- 3.. Jetzt: Eliminiere 1. und 2. wie folgt u 2 + 2u 1 = h 2 f 1 + α }{{} bekannt Nun: Au = b mit A R n,n, b R n, u R n und A hat die Gestalt 2 1 1 2 1 A =......... =: tridiag( 1, 2, 1)...... 1 1 2 Analog

Mehr

8 Polynominterpolation

8 Polynominterpolation 8 Polynominterpolation Interpolations-Aufgabe: Von einer glatten Kurve seien nur lich viele Punktewerte gegeben. Wähle einen lichdimensionalen Funktionenraum. Konstruiere nun eine Kurve in diesem Funktionenraum

Mehr

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 12. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 14, 2017 1 Erinnerung: Determinanten, Orthogonale/unitäre Matrizen Sei A R 2 2, dann kann die Inverse

Mehr

Computer-orientierte Mathematik

Computer-orientierte Mathematik Computer-orientierte Mathematik 3. Vorlesung - Christof Schuette 11.11.16 Memo: Rationale und reelle Zahlen Rationale Zahlen: Rationale Zahlen als Brüche ganzer Zahlen. q-adische Brüche, periodische q-adische

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung

Mehr

6 Numerische Verfahren zur Lösung linearer Gleichungssysteme

6 Numerische Verfahren zur Lösung linearer Gleichungssysteme Numerische Mathematik für ingenieurwissenschaftliche Studiengänge 208 6 Numerische Verfahren zur Lösung linearer Gleichungssysteme The simplest model in applied mathematics is a system of linear equations.

Mehr

KAPITEL 3. Lineare Gleichungssysteme, direkte Lösungsverfahren

KAPITEL 3. Lineare Gleichungssysteme, direkte Lösungsverfahren KAPITEL 3. Lineare Gleichungssysteme, direkte Lösungsverfahren Beispiel 3.2. Gesucht u(x), das eine Differentialgleichung vom Typ u (x) + λ(x)u(x) = f(x), x [0,], mit den Randbedingungen u(0) = u() = 0

Mehr

1. Rechnerarithmetik und. Rundungsfehler

1. Rechnerarithmetik und. Rundungsfehler 1. Rechnerarithmetik und Rundungsfehler 1 Rundung (1) Die natürlichen Zahlen hat der liebe Gott gemacht, alles andere ist Menschenwerk, L. Kronecker Ohne Zahlendarstellung auf einem Rechner wiederholen

Mehr

KAPITEL 7. Berechnung von Eigenwerten. Av = λv

KAPITEL 7. Berechnung von Eigenwerten. Av = λv KAPITEL 7. Berechnung von Eigenwerten Aufgabe: Sei A R n n eine reelle quadratische Matrix. Gesucht λ C und v C n, v 0, die der Eigenwertgleichung Av = λv genügen. Die Zahl λ heißt Eigenwert und der Vektor

Mehr

Linear Systems and Least Squares

Linear Systems and Least Squares Linear Systems and Least Squares Vortragender: Gelin Jiofack Nguedong Betreuer: Prof. Dr. Joachim Weickert Proseminar: Matrixmethoden in Datenanalyse und Mustererkennung Wintersemester 2015/2016 18. November

Mehr

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)

Mehr

Numerische Mathematik I für Ingenieure Multiple-Choice Klausuraufgaben Frühjahr 08

Numerische Mathematik I für Ingenieure Multiple-Choice Klausuraufgaben Frühjahr 08 Numerische Mathematik I für Ingenieure Multiple-Choice Klausuraufgaen Frühjahr 08 Hier einige Hinweise zu den MC-Aufgaen. Die Lösungen sollten nicht auswendig gelernt werden. Man sollte verstehen, warum

Mehr

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2. MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der

Mehr

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v

Mehr

Cramersche Regel. Satz 2.26

Cramersche Regel. Satz 2.26 ramersche Regel Satz 6 Es sei A R n n eine quadratische Matrix mit det(a) 6= Für das LGS Ax = b sei A j := (a,,a j, b, a j+,,a n ), also die Matrix, die entsteht, wenn in A die j-te Spalte durch den Vektor

Mehr

KAPITEL 2. Fehleranalyse: Kondition, Rundungsfehler, Stabilität. Datenfehler. Dahmen-Reusken Kapitel 2 1

KAPITEL 2. Fehleranalyse: Kondition, Rundungsfehler, Stabilität. Datenfehler. Dahmen-Reusken Kapitel 2 1 KAPITEL 2 Fehleranalyse: Kondition, Rundungsfehler, Stabilität Datenfehler Fehler im Algorithmus Fehler im Resultat Dahmen-Reusken Kapitel 2 1 Kondition eines Problems Analyse der Fehlerverstärkung bei

Mehr

Kapitel 2. Lösung linearer Gleichungssysteme I. Inhalt: 2.1 Fehlerabschätzungen 2.2 Direkte Lösungsverfahren 2.3 Spezielle Gleichungssysteme

Kapitel 2. Lösung linearer Gleichungssysteme I. Inhalt: 2.1 Fehlerabschätzungen 2.2 Direkte Lösungsverfahren 2.3 Spezielle Gleichungssysteme Kapitel 2. Lösung linearer Gleichungssysteme I Inhalt: 2.1 Fehlerabschätzungen 2.2 Direkte Lösungsverfahren 2.3 Spezielle Gleichungssysteme Numerische Mathematik I 34 Prolog: Wiederholung aus der Linearen

Mehr

(d) das zu Grunde liegende Problem gut konditioniert ist.

(d) das zu Grunde liegende Problem gut konditioniert ist. Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt

Mehr

2. Direkte Verfahren zur Lösung. linearer Gleichungssysteme

2. Direkte Verfahren zur Lösung. linearer Gleichungssysteme 2. Direkte Verfahren zur Lösung linearer Gleichungssysteme 1 Einleitung (1) Eine zentrale Rolle bei numerischen Berechnungen spielen lineare Gleichungssysteme Es sind die am häufigsten auftretenden numerischen

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

5 Lineare Gleichungssysteme und Determinanten

5 Lineare Gleichungssysteme und Determinanten 5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme 2 Lineare Gleichungssysteme Wir betrachten das lineare Gleichungssystem Ax = b mit der n n-koeffizientenmatrix A und der rechten Seite b R n. Wir leiten zuerst eine Variante des Gauss-Algorithmus (LR-Zerlegung)

Mehr

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.

Mehr

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009 Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx

Mehr

Lineare Algebra. 10. Übungsstunde. Steven Battilana.

Lineare Algebra. 10. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 21 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,,255}, n = 1,,N, m = 1,,M dig Camera Realisierung von B η ist

Mehr

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,

Mehr

Lineare Gleichungssysteme, LR-Zerlegung

Lineare Gleichungssysteme, LR-Zerlegung Prof Thomas Richter 2 Juni 27 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomasrichter@ovgude Material zur Vorlesung Algorithmische Mathematik II am 22627 Lineare Gleichungssysteme,

Mehr

Numerisches Programmieren, Übungen

Numerisches Programmieren, Übungen Technische Universität München SoSe 3 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Jürgen Bräckle Numerisches Programmieren, Übungen Musterlösung 3. Übungsblatt:

Mehr

Computerorientierte Mathematik II

Computerorientierte Mathematik II Computerorientierte Mathematik II Vorlesungen: Christoph Wehmeyer, Frank Noé Übungszettel: Christoph Wehmeyer Tutorien: Anna Dittus, Felix Mann, Dominik Otto 1. Anmeldung im KVV und im Campus Management!

Mehr

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012)

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Technische Universität München Zentrum Mathematik, M1 Prof. Dr. Boris Vexler Dr. Ira Neitzel Dipl.-Math. Alana Kirchner 7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Diese Auswahl

Mehr

LR-Zerlegung. N = size(a,1); for n=1:n-1 A(n+1:N,n) = A(n+1:N,n)/A(n,n); A(n+1:N,n+1:N) = A(n+1:N,n+1:N) - A(n+1:N,n) * A(n,n+1:N); end;

LR-Zerlegung. N = size(a,1); for n=1:n-1 A(n+1:N,n) = A(n+1:N,n)/A(n,n); A(n+1:N,n+1:N) = A(n+1:N,n+1:N) - A(n+1:N,n) * A(n,n+1:N); end; LR-Zerlegung N = size(a,1); for n=1:n-1 A(n+1:N,n) = A(n+1:N,n)/A(n,n); A(n+1:N,n+1:N) = A(n+1:N,n+1:N) - A(n+1:N,n) * A(n,n+1:N); x = b; for n=2:n x(n) = x(n) - A(n,1:n-1) * x(1:n-1); for n=n:-1:1 x(n)

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

Numerik für Informatiker, Elektrotechniker und Naturfreunde von Michael Lehn

Numerik für Informatiker, Elektrotechniker und Naturfreunde von Michael Lehn Numerik für Informatiker, Elektrotechniker und Naturfreunde von Michael Lehn Verfasst von Patrick Schneider E-Mail: Patrick.Schneider@uni-ulm.de Universität Ulm Institut für Numerische Mathematik Sommersemester

Mehr

Numerische Verfahren und Grundlagen der Analysis

Numerische Verfahren und Grundlagen der Analysis Numerische Verfahren und Grundlagen der Analysis Rasa Steuding Hochschule RheinMain Wiesbaden Wintersemester 2011/12 R. Steuding (HS-RM) NumAna Wintersemester 2011/12 1 / 19 Fehlerbetrachtung R. Steuding

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

Lineare Gleichungssysteme: direkte Verfahren

Lineare Gleichungssysteme: direkte Verfahren Sechste Vorlesung, 24. April 2008, Inhalt Lineare Gleichungssysteme: direkte Verfahren Dreiecksmatrizen Gauß-Elimination LR-Zerlegung Anwendungen: Determinante, Inverse 1 Lösungsverfahren für lineare Gleichungssysteme

Mehr

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

Quadratische Matrizen Inverse und Determinante

Quadratische Matrizen Inverse und Determinante Kapitel 2 Quadratische Matrizen Inverse und Determinante In diesem Abschnitt sei A M(n, n) stets eine quadratische n n Matrix. Für nicht-quadratische Matrizen ergeben die folgenden Betrachtungen keinen

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme Höhere Ableitungen Interpolationsbedingungen d k Φ dx k (x j) = y (k) j, ( j =,,..., n; k =,,..., c j ) bestimmen das Hermite Interpolationspolynom Φ Π r mit r + = n ( + c j ). j= 2 Lineare Gleichungssysteme

Mehr

Mathematische Grundlagen

Mathematische Grundlagen Mathematische Grundlagen 1 / 16 Vektorraum u R n, u = (u 1,..., u n ), u k R Euklidisches Skalarprodukt Euklidische Vektornorm (u, v) = u k v k u 2 = (u, u) = n u 2 k Vektoren u, v R n heißen orthogonal,

Mehr

Darstellung rationaler und reeller Zahlen Vorlesung vom

Darstellung rationaler und reeller Zahlen Vorlesung vom Darstellung rationaler und reeller Zahlen Vorlesung vom 30.10.15 Rationale Zahlen: Rationale Zahlen als Brüche ganzer Zahlen. q-adische Brüche, periodische q-adische Brüche. Beispiele. Satz: Jede rationale

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=

Mehr

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Lösbarkeit linearer Gleichungssysteme

Lösbarkeit linearer Gleichungssysteme Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn

Mehr

Stabilitätsanalyse des Gaußsche Algorithmus Vorlesung vom

Stabilitätsanalyse des Gaußsche Algorithmus Vorlesung vom Stabilitätsanalyse des Gaußsche Algorithmus Vorlesung vom 22.1.16 Auswirkung von Auswertungsfehlern: Beispiel und Definition der Stabilität. Stabilitätsanalyse in drei verschiedenen Auflösungen. Einfachster

Mehr

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1. Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 1 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 2010 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Theoretische Fragen zu ausgewählten Themen in Lineare Algebra

Theoretische Fragen zu ausgewählten Themen in Lineare Algebra Theoretische Fragen zu ausgewählten Themen in Lineare Algebra { Oren Halvani, Jonathan Weinberger } TU Darmstadt 25. Juni 2009 Inhaltsverzeichnis 1 Determinanten................................................

Mehr

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: Lineare Algebra D-MATH, HS 04 Prof. Richard Pink Lösung zu Serie. [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: a) F (X) := X 5 X in R[X] und C[X]. b) F (X) := X 4 +X 3 +X in

Mehr

3. Lineare Gleichungssysteme

3. Lineare Gleichungssysteme 3. Lineare Gleichungssysteme 1 3.1. Problemstellung 2 3.2. Direkte Verfahren 3 3.3. Normen und Fehleranalyse 4 3.4. Iterative Verfahren 5 3.5. Konvergenz von linearen Iterationsverfahren 6 3.6. Gradienten-Verfahren

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

3 Numerisches Rechnen

3 Numerisches Rechnen E Luik: Numerisches Rechnen 65 3 Numerisches Rechnen 31 Zahlen und ihre Darstellung Grundlage der Analysis bilden die reellen Zahlen Wir sind heute daran gewöhnt, eine reelle Zahl im Dezimalsystem als

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

36 2 Lineare Algebra

36 2 Lineare Algebra 6 Lineare Algebra Quadratische Matrizen a a n sei jetzt n m, A, a ij R, i, j,, n a n a nn Definition Eine quadratische Matrix A heißt invertierbar genau dann, wenn es eine quadratische Matrix B gibt, so

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen 1 Zum Aufwärmen 1.1 Notationen In diesem Teil der Vorlesung bezeichnen wir Körper mit K, Matrizen mit Buchstaben A,B,..., Vektoren mit u,v,w,... und Skalare mit λ,µ,... Die Menge der m n Matrizen bezeichnen

Mehr

3 Determinanten, Eigenwerte, Normalformen

3 Determinanten, Eigenwerte, Normalformen Determinanten, Eigenwerte, Normalformen.1 Determinanten Beispiel. Betrachte folgendes Parallelogramm in der Ebene R 2 : y (a + c, b + d) (c, d) (a, b) x Man rechnet leicht nach, dass die Fläche F dieses

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

4.13. Permutationen. Definition. Eine Permutation der Elementen {1,..., n} ist eine bijektive Abbildung

4.13. Permutationen. Definition. Eine Permutation der Elementen {1,..., n} ist eine bijektive Abbildung 43 Permutationen Definition Eine Permutation der Elementen {,, n} ist eine bijektive Abbildung σ : {,,n} {,,n} Es ist leicht zu sehen, dass die Hintereinanderführung zweier Permutationen ergibt wieder

Mehr

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Konkrete Mathematik. Eine Einführung in die Numerische Mathematik für LehramtskandidatInnen. Vorlesungsskript, Sommersemester 2008.

Konkrete Mathematik. Eine Einführung in die Numerische Mathematik für LehramtskandidatInnen. Vorlesungsskript, Sommersemester 2008. Konkrete Mathematik Eine Einführung in die Numerische Mathematik für LehramtskandidatInnen Vorlesungsskript, Sommersemester 2008 Christian Clason Stand vom 12. September 2008 Institut für Mathematik und

Mehr

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte Mathematik I Matrizen In diesem Kapitel werden wir lernen was Matrizen sind und wie man mit Matrizen rechnet. Matrizen ermöglichen eine kompakte Darstellungsform vieler mathematischer Strukturen. Zum Darstellung

Mehr

Vorlesung 12 22. bzw. 23. Januar 2014. Determinanten 1. Cramersche Regel

Vorlesung 12 22. bzw. 23. Januar 2014. Determinanten 1. Cramersche Regel Vorlesung 2 22 bzw 23 Januar 204 Lineares Gleichungssystem a a 2 b b 2 = F a a 2 a 3 b b 2 b 3 c c 2 c 3 = V V =< a, b c > c b a b a F V Seite 70 a x + a 2 x 2 + a 3 x 3 b = 0 < a x + a 2 x 2 + a 3 x 3

Mehr

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x) 9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten

Mehr

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich Henning Krause Lineare Algebra Julia Sauter SS 27 Klausur 2.9.27 mit Lösungsvorschlag Jan Geuenich Aufgabe (4 Punkte: Sei n N und seien A und B zwei (n n-matrizen über einem Körper K. Wahr Falsch (a Es

Mehr