1 Euklidische Approximation

Größe: px
Ab Seite anzeigen:

Download "1 Euklidische Approximation"

Transkript

1 1 Euklidische Approximation Sei V ein reeller euklidischer Vektorraum. Das Skalarprodukt in V wird mit, V und die Norm mit V bezeichnet. V N V sei ein Teilraum der Dimension N < mit Basis {φ n } n=1,...,n. (1.1) Problemstellung: Sei v V. Bestimme v N V mit v v N V = min w N V N v w N V. (1.2) Die Matrix ) A = ( φ n,φ k V n,k=1,...,n RN N ist symmetrisch und positiv definit. (1.3) Problem (1.1) ist eindeutig lösbar. Es gilt N v N = x n φ n, n=1 wobei x R N die eindeutige Lösung des linearen Gleichungssystems Ax = b ) mit b = ( v,φ k V k=1,...,n RN ist. C. Wieners: Einführung in die Numerische Mathematik 1

2 2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei L R N N eine normierte untere Dreiecksmatrix und b R N, d.h. diagl = I N und L[1 : n,n + 1] = 0 n für n = 1,...,N 1. Dann ist L regulär und das lineare Gleichungssystem Ly = b ist mit O(N 2 ) Operationen lösbar. Entsprechend ist für eine reguläre obere Dreiecksmatrix R R N N (d.h. R[n,n] 0 für alle n und R[n + 1,1 : n] = 0 T n für n < N) das LGS Rx = y in O(N 2 ) Operationen lösbar. (2.2) Die normierten unteren Dreiecksmatrizen bilden eine Gruppe. Die regulären oberen Dreiecksmatrizen bilden eine Gruppe. (2.4) Wenn eine Matrix A R N N eine LR-Zerlegung A = LR mit einer normierten untere Dreiecksmatrix L und einer regulären obere Dreiecksmatrix R besitzt, dann ist A regulär und das LGS Ax = b ist mit O(N 2 ) Operationen lösbar. (2.5) Eine Matrix A R N N besitzt genau dann eine LR-Zerlegung von A, wenn alle Hauptuntermatrizen A[1 : n,1 : n] regulär sind. Die LR-Zerlegung ist eindeutig und lässt sich mit O(N 3 ) Operationen berechnen. (2.6) Eine Matrix A R N N heißt strikt diagonal-dominant, falls a nn > n 1 a nk + N a nk. k=1 k=n+1 (2.7) Wenn A strikt diagonal dominant ist, dann existiert eine LR-Zerlegung. (2.8) Sei A R N N symmetrisch und positiv definit. Dann existiert genau eine Cholesky-Zerlegung A = LL T mit einer regulären unteren Dreiecksmatrix L. C. Wieners: Einführung in die Numerische Mathematik 2

3 2 Direkte Lösungsverfahren für lineare Gleichungen (2.9) Sei π S N eine Permutation. Dann heißt P π = ( e π 1 (1)... e π (N)) 1 R N N Permutationsmatrix zu π. Es gilt (P π A)[n,k] = A[π(n),k] und (AP π )[n,k] = A[n,π 1 (k)]. (2.10) Die Permutationsmatrizen in R N N bilden eine Gruppe. Es gilt P σ P π = P π σ und P π 1 = Pπ T. (2.11) Sei A R N N regulär. Dann existiert eine Permutationsmatrix P, so dass PA eine LR-Zerlegung PA = LR besitzt und für die Einträge L[m,n] 1 gilt. Sie lässt sich mit O(N 3 ) Operationen berechnen. Die Lösung von Ax = b berechnet sich aus Ly = Pb und Rx = y. Sei eine Vektornorm, und sei eine zugeordete Matrixnorm, d. h., Ax A x, x R N, A R M N. (2.12) Sei A R N N regulär, und sei A R N N so klein, dass A < A 1 1 gilt. Dann ist die Matrix à = A + A regulär. Sei b R N, b 0 N, b R N klein und b = b + b. Dann gilt für die Lösungen x R N von Ax = b und x R N von à x = b x κ(a) ( b x 1 κ(a) A + A ). b A A Dabei ist x = x x, x x der relative Fehler, und κ(a) = A A 1 die Kondition von A. C. Wieners: Einführung in die Numerische Mathematik 3

4 2 Arithmetische Grundlagen (2.13) a) Eine Gleitkommazahlen zur Basis B {2, 3,...} der Mantissenlänge M und Exponentenlänge E ist die Menge { FL = ± B e M a m B m : e = e E 1 } + c k B k, a m,c k {0,1,...,B 1} m=1 k=0 b) Eine Gleitkommaarithmetik wird durch eine Abbildung fl: R FL mit fl(x) = x für x FL definiert. Sei bestimmt die Rundung: x y = fl(x { + y), x y = fl(x } y), etc. x fl(x) Die zugehörige Maschinengenauigkeit ist eps := max : x FL. x (2.14) Sei f : R N R K eine differenzierbare Funktion und x R N. Dann heißt a) κabs kn = x n f k (x) absolute Konditionszahl. b) κrel kn = x n f k (x) xn f k (x) relative Konditionszahl. C. Wieners: Einführung in die Numerische Mathematik 4

5 2 Kondition und Stabilität (2.15) a) Ein Problem heißt sachgemäß gestellt, wenn es eindeutig lösbar ist und die Lösung stetig von den Daten abhängt. b) Die Kondition eines Problems ist eine Maß dafür, wie stark die Abhängigkeit der Lösung von den Daten ist. c) Die Stabilität eines numerischen Algorithmus ist eine Maß dafür, wie stark die Daten- Abhängigkeit der numerischen Lösung im Vergeich zu der exakten Lösung ist. (2.16) Wir verwenden für x R N und A R M N N x 1 = x[n] x 2 = x T x x = max x[n] n=1 n=1,...,n Ax und die zugeordnete Operatornorm A p = sup p x 0N x p, d.h. M N A 1 = max A[m,n], A 2 = ρ(a T A), A = max A[m, n] n=1,...,n m=1 m=1,...,m n=1 mit Spekralradius ρ(a) = max{ λ : λ σ(a)} und Spektrum σ(a). C. Wieners: Einführung in die Numerische Mathematik 5

6 3 Ausgleichsrechnung Sei Q R N N orthogonal, d.h. Q T Q = I N. Dann ist κ 2 (Q) = 1. (3.1) Zu v R N und k n mit v[k] 2 + v[n] 2 > 0 existiert eine Givens-Rotation G R N N mit ( ) ( ) G[k,k] G[k,n] c s =, c G[n, k] G[n, n] s c 2 + s 2 = 1, und G[j][j] = 1 für j k,n und G[i][j] = 0 sonst, so dass en T Gv = 0 gilt: Für v[n] > v[k] setze τ = v[k] v[n], s = 1+τ 1 v[n], c = sτ, sonst setze τ = 2 v[k], c = 1+τ 1, s = cτ. 2 Es gilt G = c(e k ek T + e nen T ) + s(e k en T e n ek T ) + e j ej T. j k,n (2.10) Zu v R N, v 0 N, existiert eine Householder-Spiegelung H = I N 2 w T w ww T R N N mit w R N, w[1] = 1, so dass Hv = σe 1 mit σ R und Hw = w gilt: Falls v[1] > 0, setze σ = v 2, sonst setze σ = v 2. Dann definierte w = 1 v[1] σ (v σe 1). (3.3) Zu A R K N existiert eine QR-Zerlegung A = QR mit einer orthogonalen Matrix Q R K K und eine oberen Dreiecksmatrix R R K N, d.h. QQ T = I K und R[k + 1 : K,k] = 0 K k für k = 1,...,K. (3.4) Sei A R K N und b R K. Dann gilt: x R N minimiert Ax b 2 A T Ax = A T b. C. Wieners: Einführung in die Numerische Mathematik 6

7 Berechnung der Householder-Vektoren function [v,beta] = householder(y) N = length(y); s = y(2:n) * y(2:n); if N == 1 s = 0; end; v = [1;y(2:N)]; if s == 0 beta = 0; else mu = sqrt(y(1)^2 + s); if y(1) <= 0 v(1) = y(1) - mu; else v(1) = -s/(y(1) + mu); end; beta = 2*v(1)^2/(s + v(1)^2); v = v / v(1); end; return; C. Wieners: Einführung in die Numerische Mathematik 7

8 QR-Zerlegung [M,N] = size(a); for m = 1:min(N,M-1) [v,beta] = householder(a(m:m,m)); if beta ~= 0 w = beta * v * A(m:M,m:N); A(m:M,m:N) = A(m:M,m:N) - v * w; A(m+1:M,m) = v(2:m-m+1); end; end; for m = 1:min(N,M-1) v = [1;A(m+1:M,m)]; beta = 2 / (v * v); if beta ~= 2 b(m:m) = b(m:m) - beta*(v *b(m:m)) * v; end; end; for n=min(n,m):-1:1 x(n) = (b(n) - A(n,n+1:N) * x(n+1:n)) / A(n,n); end; C. Wieners: Einführung in die Numerische Mathematik 8

9 3 Ausgleichsrechnung (3.5) Zu A R K N mit R = rang(a) existiert eine Singulärwertzerlegung A = V ΣU T mit Matizen V = (v 1 v R ) R K R, U = (u 1, u R ) R N R, Σ = diag(σ 1,...,σ R ) R R R mit V T V = U T U = I R und den Singulärwerten σ 1,...,σ R > 0. Es gilt A = R σ r u r vr T r=1 und Ax = R σ r (vr T x)u r. r=1 (2.22) A + = UΣ 1 V T ist die Pseudo-Inverse. Es gilt A + = R σr 1 v r ur T und Ax = R σr 1 (ur T x)v r. r=1 r=1 (2.22) x = A + b löst die Normalengleichung A T Ax = A T b. (2.23) Sei A R K N und b R M. Dann gilt für die Tikhonov-Regularisierung mit α > 0: x R N minimiert Ax b α x 2 2 (A T A + αi N )x = A T b. (2.24) Es gilt lim α 0 (AT A + αi N ) 1 A T b = A + b. Diskrepanzprinzip: Sei b Bild(A), x = A + b und b δ eine Störung mit b b δ < δ < b 2. Dann existiert ein α = α(δ) > 0 mit Ax α b δ 2 = δ für x α = (A T A + αi N ) 1 A T b δ. Es gilt α(δ) 0 für δ 0. C. Wieners: Einführung in die Numerische Mathematik 9

10 4 Eigenwertberechnung (4.3) H R N N heißt Hessenberg-Matrix, wenn H[n + 2 : N,n] = 0 N n 1 für n = 1,...,N 2. (4.4) Sei A R N N. Dann existiert eine orthogonale Matrix Q R N N, so dass H = QAQ T eine Hessenberg-Matrix ist. Die Berechnung benötigt O(N 3 ) Operationen. Wenn A symmetrisch ist, dann ist H eine Tridiagonalmatrix. (4.8) Sei A R N N symmetrisch, tridiagonal, und irreduzibel, d.h. A[n 1,n] = A[n,n 1] 0 und A[n + 2 : N,n] = A[n,n + 2 : N] T = 0 N n 1. Die charakteristischen Polynome P n (t) = det ( A[1 : n,1 : n] ti n ) der Hauptuntermatrizen lassen sich durch eine Dreitermrekursion berechnen: Setze P 0 1. Dann gilt P 1 (t) = A[1,1] t und P n (t) = (A[n,n] t)p n 1 (t) A[n 1,n] 2 P n 2 (t). Sie bilden eine Sturmsche Kette: Für die Nullstellen λ n 1 λ n 2 λ n n von P n gilt λ n 1 k 1 < λ n k < λ n 1 k, k = 1,...,n (mit λ n 0 = A und λ n n+1 = A ), und es gilt für t ( A, A ) λ n k < t λ n k+1 mit k = W n (t) und W n (t) = # { j {1,...,n}: P j (t)p j 1 (t) < 0 oder P j (t) = 0 }. C. Wieners: Einführung in die Numerische Mathematik 10

11 4 Eigenwertberechnung Sei A R N N symmetrisch mit Eigenwerten λ 1,...,λ N und ONB aus Eigenvektoren v 1,...,v N. Dann gilt A = n (4.9) Der Rayleigh-Quotient ist λ n v n (v n ) T und Ax = λ n (vn T x)v n. n r(a,x) = x T Ax x T x, x RN, x 0 N. (4.10) Sei λ 1 = ρ(a) und λ n < λ 1 für n = 2,...,N. Dann gilt für alle w R N mit w T v 1 > 0 lim k r(a,ak w) = λ 1, (4.11) Sei w 2 = 1 und µ = r(a,w). Dann gilt min λ n µ Aw µw 2. n=1,...,n 1 lim k A k A k w = v 1. w 2 Eine konvergente Folge (d k ) in R mit Grenzwert d konvergiert a) linear, wenn c (0,1) und k 0 > 0 existieren mit d k+1 d c d k d für k k 0 b) superlinear, wenn zu jedem ε > 0 ein k 0 > 0 existiert mit d k+1 d ε d k d für k k 0 c) von der Ordnung p > 1, wenn wenn C > 0 existiert mit d k+1 d C d k d p. C. Wieners: Einführung in die Numerische Mathematik 11

12 4 Eigenwertberechnung (4.12) Inverse Iteration mit variablem shift S0) Wähle z 0 R N, z 0 0 N, ε 0. Setze k = 0. S1) Setze w k = 1 z k 2 z k, µ k = r(a,w k ). S2) Falls Aw k µ k w k 2 ε STOP. S3) Berechne z k+1 = (A µ k I N ) 1 w k. S4) Setze k := k + 1, gehe zu S1). Wenn der Startvektor z 0 hinreichend nahe bei einem Eigenvektor v m mit isoliertem Eigenwert λ m liegt, konvergiert die Iteration kubisch (d.h. von der Ordnung p = 3). (4.13) QR-Iteration mit shift (A R N N symmetrisch) S0) Berechne A 0 = QAQ T tridiagonal (Hessenberg-Transformation). Wähle ε 0. Setze k = 0. S1) Falls A k [n + 1,n] ε für ein n: getrennte Eigenwertberechnung für A k [1 : n,1 : n] und A k [n + 1 : N,n + 1 : N]. S2) Berechne d k = 1 2 (A k [N 1,N 1] A k [N,N]) und s k = A k [N,N] + d k sgn(d k ) dk 2 + A k [N 1,N] 2. S3) Berechne QR-Zerlegung Q k R k = A k s k I N und setze A k+1 = R k Q k + s k I N. S4) Setze k := k + 1, gehe zu S1). Es gilt A k+1 = Q T k A k Q k. Falls der shift µ k = A k [N,N] gewählt wird, entspricht die QR-Iteration der Inversen Iteration mit variablem shift und Startvektor z 0 = e N. C. Wieners: Einführung in die Numerische Mathematik 12

13 4 Eigenwertberechnung (4.14) Gershgorin Zu A R N N sind die Gershgorin-Kreise durch K n = { λ C: λ A[n,n] A[n,k] }, k n defininiert. Dann gilt n = 1,...,N N σ(a) K n. n=1 (4.15) Sei A R N N symmetrisch mit Eigenwerten λ 1 λ 2 λ N. λ n = max dims=n λ N+1 n = min dims=n min r(a,x), 0 N x S max r(a,x). 0 N x S C. Wieners: Einführung in die Numerische Mathematik 13

14 5 Iterative Lösungsverfahren für lineare Gleichungen (5.1) Sei A,B R N N mit ρ(i N BA) < 1. Dann ist A invertierbar, und es gilt für alle b R N und alle Startvektoren x 0 R N konvergiert die Iteration x k+1 = x k + B(b Ax k ), k = 0,1,2,... gegen lim k x k = A 1 b. (5.2) Sei K R N N und ε > 0 Dann existiert eine Vektor-Norm und eine zugeordnete Matrix-Norm, so dass K ρ(k ) + ε gilt. Anwendung: Es gilt x x k I N BA k x x 0 (lineare Konvergenz). (5.3) Konvergenz des Gauß-Seidel-Verfahrens Sei A = L + D + R R N N symmetrisch positiv definit und sei B = (L + D) 1. Dann gilt bezüglich der Energienorm x A = x T Kx Ax und K A = sup A x x 0 A N I N BA A < 1. Anwendung der Neumannschen Reihe ergibt dann A 1 = k=0 (I N BA) k B. C. Wieners: Einführung in die Numerische Mathematik 14

15 5 Iterative Lösungsverfahren für lineare Gleichungen (5.4) Eine Matrix A R N N heißt stark diagonal-dominant, wenn und wenn ein j {1,...,N} existiert N A[n,k] A[n,n], n = 1,...,N, k=1 k n N A[j,k] < A[j,j]. k=1 k n (5.5) Eine Matrix A R N N sei irreduzibel. Dann existiert zu jedem Paar j n eine Folge j = j 0,j 1,j 2,...,j R = n mit A[j 1,j 0 ] 0,...,A[j R,j R 1 ] 0. (5.6) Eine Matrix A R N N sei stark diagonal-dominant und irreduzibel. Dann gilt: a) A ist regulär und das Jacobi-Verfahren x k+1 = x k + diag(a) 1 (b Ax k ) konvergiert. b) Sei A[n,n] > 0 für alle n. Dann ist A positiv definit. c) Sei A[n,n] > 0 und A[n,k] 0 für n k. Dann ist A 1 [n,k] 0 für alle n,k. C. Wieners: Einführung in die Numerische Mathematik 15

16 5 Iterative Lösungsverfahren: Krylov-Verfahren (5.7) Zu C R N N und d R N ist k-te Krylov-Raum K k (C,d) = span { d,cd,..c k 1 d } = { P(C)d : P P k 1 }. (5.8) Zu einer regulären Matrix A R N N, einer rechten Seite b R N und einem Startwert x 0 R N sei x R N die Lösung von Ax = b und r 0 = b Ax 0. Sei B R N N eine reguläre Matrix (Vorkonditionierer). Wenn dimk k (AB,r 0 ) < k für ein k gilt, dann ist x x 0 + K k 1 (BA,Br 0 ). Sei, ein Skalarprodukt in R N. Gram-Schmidt-Verfahren zur Berechnung einer Orthonormalbasis v 1,...,v k von K k (BA,Br 0 ) = span{br 0,BABr 0,...,(BA) k 1 Br 0 } = {V k y : y R k }, V k = ( v 1... v k ). S0) Wähle x 0 R N, setze r 0 = b Ax 0, z 1 = Br 0, h 10 = z 1 V und v 1 = h 1 z S1) Für k = 1,2,3,... berechne w k = BAv k, z k+1 = w k k h jk v j mit h jk = v j,w k V j=1 v k+1 = 1 h k+1,k z k+1 mit h k+1,k = z k+1 V Dann gilt BAv k = k+1 j=1 h jk v j, also BAV k = V k+1 H k mit H k = (h jm ) R k+1,k. C. Wieners: Einführung in die Numerische Mathematik 16

17 5 Iterative Lösungsverfahren: GMRES-Verfahren S0) Wähle x 0 R N, ε > 0. Berechne r 0 = b Ax 0, z 1 = Br 0, h 10 = z 1 2 und v 1 = h 1 z 1. Setze k = S1) Berechne w k = BAv k und z k+1 = w k k h jk v j mit h jk = (v j ) T w k j=1 v k+1 = 1 h k+1,k z k+1 mit h k+1,k = z k+1 2 S2) Berechne y k R k mit ρ k = H k y k h 10 e 1 2 = min! Dabei ist H k = (h jm ) j=1,...,k+1, m=1,...,k R k+1,k. S3) Wenn ρ k < ε, setze x k = x 0 + k yj k v j j=1 S4) Setze k := k + 1 und gehe zu S1). STOP. (5.4) Es gilt ρ k = min B(b Az) 2. z x 0 +span{v 1,...,v k } Das GMRES-Verfahren ist wohldefiniert, und wenn es abbricht, gilt x x k 2 (BA) 1 2 ε. (5.5) Für C α > 0 gelte z T BAz αz T z und BA 2 C. ) k/2 Dann gilt für das GMRES-Verfahren x k x 2 κ 2 (BA) (1 α2 C 2 x 0 x 2. C. Wieners: Einführung in die Numerische Mathematik 17

18 5 Iterative Lösungsverfahren: CG-Verfahren S0) Wähle x 0 R N, ε > 0. Berechne r 0 = b Ax 0, y 0 = Br 0, ρ 0 = (y 0 ) T r 0 und d 1 = y 0. Setze k = 0. S1) Falls ρ k ε STOP S2) Setze k := k + 1 und berechne u k = Ad k ρ α k = k 1 (u k ) T d k x k = x k 1 + α k d k r k = r k 1 α k u k y k = Br k ρ k = (y k ) T r k d k+1 = y k + ρ k ρ k 1 d k Gehe zu S1). (5.6) x k x A = min z x 0 +span{d 1,...,d k } z x A ( min κ(ba) 1 ) k x A 2 x 0 x A. P P k, P(0)=1 λ σ(ba) κ(ba) + 1 C. Wieners: Einführung in die Numerische Mathematik 18

19 5 Transformierte Chebychev-Polynome (5.6) k b min max P(t) 2 a 1 P P k, P(0)=1 t [a,b] b a + 1 P 4, P 5, P 6, P 12 mit P k (0) = 1 zu [a,b] = [0.1,2.1] C. Wieners: Einführung in die Numerische Mathematik 19

20 6 Lösungsverfahren für nichtlineare Gleichungen (6.1) Sei D R N konvex und F : D R N ein stetig differenzierbares Vektorfeld. Sei x D eine Nullstelle von F, und sei B R N N. Wenn ρ ( I N BJ F (x ) ) < 1 gilt, dann existiert ein δ > 0, so dass für alle x 0 B(x,δ) die Fixpunktiteration x k+1 = Φ(x k ) mit Φ(x) = x BF(x) linear gegen x konvergiert. (6.2) Banachscher Fixpunktsatz Sei D R N konvex und φ : D D kontrahierend mit q (0.1), d.h. φ(y) φ(z) q y z für y,z D. Dann existiert genau ein Fixpunkt x D von φ, d.h. φ(x ) = x, und es gelten für die Fixpunktiteration x k+1 = Φ(x k ) die Abschätzungen x k x qk 1 q x 0 x 1 und x k x q 1 q x k x k 1. (6.3) Seien α,β,γ > 0 mit 2αγ < β 2 und P(t) = α βt + γ 2 t2. Dann konvergiert für t 0 = 0 das Newton-Verfahren t k+1 = t k P (t k ) 1 P(t k ) quadratisch gegen die kleinste Nullstelle t von P, und {t k } ist monoton steigend mit t 0 = 0 < t 1 < < t k < t k+1 = t k + γ 2 (t k t k 1 ) 2 t 2α = β γt k β + β 2 2αγ. C. Wieners: Einführung in die Numerische Mathematik 20

21 6 Lösungsverfahren für nichtlineare Gleichungen (6.3) Sei D R N offen und F : D R N ein stetig differenzierbares Vektorfeld. Sei x 0 D mit a) F (x 0 ) α b) J F (x 0 )y β y für y R N c) B(x 0,2α/β) = {z R N : z x 0 2α/β} D d) J F (y) J F (z) γ y z für y,z B(x 0,2α/β) e) 2αγ < β 2. Dann ist das Newton-Verfahren x k+1 = x k J F (x k ) 1 F (x k ) wohldefiniert und konvergiert quadratisch gegen x D mit x x 0 2α β + β 2 2αγ. Gedämpftes Newton-Verfahren S0) Wähle x 0 D, ε > 0, θ (0,1). Setze k = 0. S1) Falls F (x k ) ε STOP S2) Löse J F (x k )d k = F (x k ). S3) Bestimme t k {1,θ,θ 2,...,θ r } mit F (x k + t k d k ) minimal. S4) Setze x k+1 = x k + t k d k, k := k + 1 und gehe zu S1). C. Wieners: Einführung in die Numerische Mathematik 21

22 7 Orthogonalpolynome Zu a < b und einem Gewicht W C(a,b), W > 0 definiere V = C(a,b) als Euklidischen Vektorraum mit dem Skalarprodukt b (u,v) V = u(t)v(t)w (t)dt. a Aufgabe: Zu f C(a,b) bestimme P P N mit P f V = min Q P N Q f V. N Sei Q 0,...,Q N P N eine Orthogonalbasis. Dann gilt P(t) = (f,q k ) V Q k (t). k=0 (7.1) Eine orthogonale Basis Q n, n = 0,1,2,... berechnet sich mit Q 1 0, Q 0 1 ρ 0 und ρ n+1 Q n+1 (t) = (t β n ) Q n (t) ρ n Q n 1 (t) n = 0,1,2,... mit ρ 0 = 1 V, ρ n = (Q n,tq n 1 ) V > 0, und β n = (Q n,tq n ) V. Es gilt gradq n = n. (7.2) Das Orthogonalpolynom Q n besitzt n verschiedene Nullstellen in (a,b). Die Orthogonalpolynome Q 0,Q 1,Q 2,... bilden eine Sturmsche Kette. C. Wieners: Einführung in die Numerische Mathematik 22

23 7 Orthogonalpolynome Chebychev-Polynome Wir betrachten den Fall (a,b) = ( 1,1) und W (t) = 1 1 t 2. Definiere T 0 1, T 1 (t) = t und T n+1 P n+1 mit T n+1 (t) = 2tT n (t) T n 1 (t). Für t [ 1,1] gilt T n (t) = cos(n arccost), (T n,t k ) V = 0 für n k, und für t 1 gilt T n (t) = 1 2 ( t + t 2 1 ) n (7.3) Sei ξ [ 1,1] und P(t) = T n (t)/t n (ξ ). Dann gilt max P(t) max Q(t) für alle Q P n mit Q(ξ ) = 1. t [ 1,1] t [ 1,1] (7.4) Sei 0 < α < β und κ = β/α. Dann existiert ein P P n mit P(0) = 1 ( ) n κ 1 und max P(x) 2. x [α,β] κ + 1 ( n t t 2 1). Transformierte Chebychev-Polynome P 4, P 5, P 6, P 12 mit P n (0) = 1 zu [α,β] = [0.1,2.1] C. Wieners: Einführung in die Numerische Mathematik 23

24 7 Orthogonalpolynome (7.5) Approximationssatz von Weierstraß Sei [a, b] ein kompaktes Intervall. Dann gilt: Jede stetige Funktion f C([a, b]) lässt sich gleichmäßig durch Polynome approximieren. Konstruktion: O.E. sei f C(R) mit f (t) = 0 für t > 0.5 und [a, b] = [ 0.25, 0.25]. Dann wähle P 2n (t) = (1 t 2 ) n f (s t)ds, r n = (1 t 2 ) n dt. r n 1 1 Für t 0.25 gilt P 2n (t) = r 1 n n a nkj t k 1 s j f (s)dt P 2n mit (1 (s t) 2 ) n = 2n a nkj t k s j. j,k=0 1 j,k=0 Nun sei (v,w) 0 = 1 v(t)w(t)dt das Skalarprodukt in L 2 ( 1,1), seien Q 0,Q 1,Q 2,... die 1 Orthogonalpolynonme, und sei p n (f ) = n (f,q k ) 0 Q k die Orthogonalprojektion auf P n. k=0 (7.6) Für jede stetig Funktion f C[ 1, 1] gilt lim n p n(f ) f 0 = 0. (7.7) Sei f C k [ 1,1]. Dann existiert C > 0 mit p n (f ) f 0 Cn k ( ddt ) k f 0. C. Wieners: Einführung in die Numerische Mathematik 24

25 8 Interpolation (8.1) Lagrange-Interpolation Zu Stützstellen t 0 < t 1 < < t N und Werten f 0,f 1,...,f N R bestimme P P N mit P(t n ) = f n. (8.2) Die Interpolationsaufgabe (8.1) ist eindeutig lösbar. (8.3) Hermite-Interpolation Zu t 0 t 1 t N definiere d n = max{n k : t k = = t n } und d = maxd n. Zu f C d (R) bestimme P P N mit ( d ) dn ( d ) dn P(tn ) = f (tn ) für n = 0,...,N. dt dt (8.4) Die Interpolationsaufgabe (8.3) ist eindeutig lösbar. (8.5) Der eindeutig bestimmte höchste Koeffizient b N 1 N! ( ddt ) NP(t) der Lösung der Interpolationsaufgabe (8.1) wird mit b N = f [t 0,...,t N ] bezeichnet. (8.6) Zu t 0 t 1 t N definiere die Newton-Basis von P N durch ω 0 1 und ω k+1 (t) = ω k (t)(t t k ), k = 0,...,N 1. a) P(t) = N f [t 0,...,t k ]ω k (t) löst die Interpolationsaufgabe (8.3). k=0 b) Für f C(R) gilt f (t) = P(t) + f [t 0,...,t N,t] ω N+1 (t). C. Wieners: Einführung in die Numerische Mathematik 25

26 8 Interpolation (8.7) Für t k < t n gilt f [t k,...,t n ] = f [t k+1,...,t n ] f [t k,...,t n 1 ]. t n t k ( ) Sei f C n k 1 d n k (R). Für t k = t k+1 = = t n gilt f [t k,...,t n ] = f (t (n k)! dt k ). Sei P kn (t) = n f [t k,...,t j ]ω kj (t) mit ω kk 1 und mit ω k,j+1 (t) = ω kj (t)(t t j ) die Interpolation j=k an t k t n zu f k,...,f n. Für t k < t n gilt P kn (t) = t t k t n t P k k+1,n (t) + tn t t n t P k k,n 1 (t). (8.9) Für den Interpolationsfehler gilt f (t) P N (t) = 1 ( d ) N+1f (τ) ωn+1 (t) (N + 1)! dt mit einer Zwischenstelle τ = τ(t) I := [min{t,t 0 } max{t,t N }]. (8.11) Es gilt f [t 0,...,t N ] = ( d Σ N dt s 0 mit Σ N =. R N+1 : s n ) Nf ( N s n t n )ds n=0 N n=0 s n = 1,s n 0 (8.12) f [t 0,...,t N ] = 1 N! ( ddt ) Nf (τ) mit τ [mintn,maxt n ]. (Standard-Simplex) C. Wieners: Einführung in die Numerische Mathematik 26

27 9 Splines (9.1) Zu einer Zerlegung : a = t 0 < t 1 < < t N = b von [a,b] definiere den Spline-Raum von Grad k S k ( ) = { S C k 1 [a,b]: S n := S [tn 1,t n] P k, n = 1,...,N }. S S k ( ) heißt interpolierender Spline zu f C 0 [a,b] wenn S(t n ) = f (t n ). (9.2) Es gilt dims k ( ) = k + N. Wir betrachten interpolierende Splines von Grad k = 2r + 1 mit einer der Randbedingungen (I) Natürliche Randbedingung ( d ) ms(a) ( d ) ms(b) = 0 und = 0 für r + 1 m 2r dt dt (II) Hermite-Randbedingung zu f C r [a,b] ( d ) ms(a) ( d ) mf ( d ) ms(b) ( d ) mf = (a) und = (b) für 1 m r dt dt dt dt (III) periodische Randbedingungen ( d ) ms(a) ( d ) ms(b) = für 1 m 2r dt dt C. Wieners: Einführung in die Numerische Mathematik 27

28 9 Splines Zu g,h C m [a,b] definiere b ( d ) mg(t) ( d ) mh(t)dt (g,h) m =, g m = (g,g) m. a dt dt (9.3) Zu a t 0 < t 1 < < t N b und f 0,...,f N definiere M = { g C 2 [a,b]: g(t n ) = f n }. Dann existiert genau ein S M mit S 2 g 2 für alle g M. Es gilt S (t) = 0 für t [a,t 0 ] [t N,b] und S [tn 1,t n] P 3. (9.4) Sei S S 2r+1 ( ) ein interpolierender Spline zu f und sei zusätzlich eine der Randbedingungen (I), (II) oder (III) erfüllt. Sei g C r+1 [a,b] mit g(t n ) = f (t n ) für n = 0,...,N, und zusätzlich gelte im Fall (II) ( d ) mg(a) ( d ) mf ( d ) mg(b) ( d ) mf = (a) und = (b) für 1 m r, dt dt dt dt im Fall (III) ( d ) mg(a) ( d ) mg(b) = dt dt für 1 m r. Dann gilt (S g,s) r+1 = 0 und S r+1 g r+1. (9.5) Die Spline-Interpolation S S 2r+1 ( ) zu f mit einer der Randbedingungen (I), (II), (III) ist eindeutig lösbar. C. Wieners: Einführung in die Numerische Mathematik 28

29 9 Splines (9.6) Die Momente M n = S (t n ) von S S 3 ( ) zu f sind eindeutig durch und µ n = µ n M n 1 + M n + λ n M n+1 = 3f [t n 1,t n,t n+1 ] h n 2(h n + h n+1 ), λ h n = n+1 2(h n + h n+1 ) mit h n = t n t n 1 bestimmt und es gilt S n (t) = M n(t t n 1 ) 3 + M n 1 (t n t) 3 + f (t n) + f (t n 1 ) h2 n 6h n 2 12 (M n + M n 1 ) ( f (tn ) f (t + n 1 ) h )( n h n 6 (M n M n 1 ) t t n + t ) n 1, t [t 2 n 1,t n ]. (9.7) Es gilt für m = 0,...,r und h = max i=n,...,n h i, h n = t n t n 1 (r+1 m)/2 (r + 1) S f m 2 h r+1 m f m! r+1 (9.8) Es gilt für f C 2 [a,b] S 3 f. (9.9) Es gilt für f C 4 [a,b] ( d ) 4f S f h 4. dt C. Wieners: Einführung in die Numerische Mathematik 29

30 10 Numerische Integration Newton-Cotes-Formeln (10.1) Eine Quadraturformel I Ξ : C[a,b] R mit I Ξ (f ) = ω ξ f (ξ ) zu Stützstellen Ξ [a,b] und ξ Ξ b Gewichten ω ξ ist eine Linearform zur Approximation des Integrals I(f ) = f (t)dt. a Sie heißt exakt von der Ordnung p, wenn der Fehler I(P) = I Ξ (P) für Polynome P P p. (10.2) Sei Ξ = N + 1. Wenn I Ξ exakt von der Ordnung N ist, dann gilt b t η ω ξ = L ξ (t)dt mit L ξ (t) = η Ξ\{ξ } ξ η P N. a (10.3) Die Quadraturformeln von der Ordnung N zu äquidistanten Stützstellen ξ n = a + nh, h = b a N heißen Newton-Cotes-Quadraturformeln. Es gilt: ω n = ω N n = b a ( 1) N n N N N n!(n n)! (t j)dt. 0 j=0, j n (10.4) Die Newton-Cotes-Formeln sind für gerade N exakt von der Ordnung N + 1. (10.5) Seien g,h C[a,b] mit g(t) 0 für t [a,b]. Dann gilt: b b g(t)h(t)dt = h(τ) g(t)dt für eine Zwischenstelle τ (a,b). a a (10.6) Sei f C 4 [a,b]. Dann gilt für die Simpsonregel: ( b a ) 5 1 I 2 (f ) I(f ) = 2 90 f (τ) für ein τ (a,b). C. Wieners: Einführung in die Numerische Mathematik 30

31 10 Numerische Integration Gauß-Quadatur (10.7) Die maximale Ordnung einer Quadratur mit N Stützstellen ist 2N 1. (10.8) Seien ξ 1,...,ξ N die Nullstellen des Orthogonalpolynoms Q N in (a,b) bzgl. des Gewichts W. Dann ist die zugehörige Gauß-Quadratur G N (f ) = N ω n f (ξ n ) exakt für P P 2N 1. n=1 Die Gewichte der Gauß-Quadratur sind positiv. (10.9) b a f (t)w (t)dt G N (f ) = 1 ( d ) 2Nf N (τ) (RN,R (2N)! dt N ) W mit R N (t) = (t ξ n ). n=1 Eine Folge {I Ξ N } N N von Quadraturen mit Stützstellen Ξ N [a,b] und Ge- wichten ωξ N konvergent, wenn lim I(f ) I Ξ N (f ) = 0 für alle f C[a,b]. N heißt (10.10)Sei {I Ξ N } für alle Polynome P konvergent (d.h. lim N I Ξ N (P) = I(P)), und seien die Gewichte uniform beschränkt durch ωξ N C für alle N. ξ Ξ N Dann ist {I Ξ N } konvergent für alle f C[a,b]. (10.11)Wenn alle Gewichte positiv sind und I Ξ N von der Ordnung N exakt ist, ist {I Ξ N } konvergent. C. Wieners: Einführung in die Numerische Mathematik 31

32 10 Numerische Integration (10.12)Sei I h I = Ch p + O(h q ) mit q > p. Dann gilt für die Extrapolation Îh = I h + 1 ( ) Ih 2 p I 1 2h a) I Îh = O(h q ) b) I I h = 1 ( ) 2 p 1 Ih I 2h + O(h q ) (10.13)Sei g C 2m+2 [0,1]. Es existieren Konstanten b j und eine Zwischenstelle ξ (0,1) mit 1 g(t)dt = g(0) + 1 m (( d ) 2j 1g(0) ( d ) 2j 1g(1) ) 2 g(1) + ( d ) 2m+2g(ξ j + b j=1b dt dt m+1 ). dt (10.14)Für f C 2m+2 [a,b] und h = b a n gilt m (( d ) 2j 1f ( d T h (f ) I(f ) = j h j=1c 2j + O(h 2m+2 ) mit c j = b j (a) dt dt (10.15)Zu T k0 = T hk (f ) mit h k = 2 k h für k = 0,1,...,m definiere rekursiv ) 2j 1f (b) ). T ki = T k,i i 1 (T k,i 1 T k 1,i 1 ), i = 1,...,m und k = i,...,m. Dann gilt: T mm I Ch 2m+2 ( d ) 2m+2f dt mit C > 0 unabhängig von f. (10.16) a) I T kk = O(h 2k+2 ) b) I T k,k 1 = T kk T k,k 1 + O(h 2k+2 ). C. Wieners: Einführung in die Numerische Mathematik 32

33 10 Numerische Integration Romberg-Quadratur using namespace std; #include <iostream> #include <cmath> #include <ext/numeric> using gnu_cxx::power; const int K = 6; const int N = power(2,k); double Romberg (double F(double), double a, double b, double Eps) { double f[n+1]; double h = (b-a) / N; for (int i=0; i<=n; i+=2) f[i] = F(a+i*h); return Romberg(F,a,b,f,Eps); } double F (double x) { return 4.0 / (x*x + 1); } int main () { cout << "Q = " << Romberg(F,0,1,1e-10) << endl; } C. Wieners: Einführung in die Numerische Mathematik 33

34 10 Numerische Integration Romberg-Quadratur double Romberg (double F(double), double a, double b, double* f, double Eps) { double T[K+1]; double h = (b - a) * 0.5; T[0] = h * (f[0] + f[n]); for (int i=1, m=n; i<=k; ++i, m/=2, h /= 2) { double s = 0.0; if (i<k) for (int j=m/2; j<n; j+=m) s += f[j]; else for (int j=1; j<n; j+=2) s += (f[j] = F(a+j*h)); T[i] = 0.5 * T[i-1] + h * s; for (int j=1, q=4; j<=i; ++j, q *= 4) { double e = (T[i-j+1] - T[i-j]) / (q - 1); T[i-j] = T[i-j+1] + e; if (abs(e) < Eps) return T[i-j]; } } double f2[2*n+1]; for (int j=0; j<=n; ++j) f2[2*j] = f[j]; Eps *= 0.5; return Romberg(F,a,(a+b)*0.5,f2,Eps) + Romberg(F,(a+b)*0.5,b,f2+N,Eps); } C. Wieners: Einführung in die Numerische Mathematik 34

35 11 Trigonometrische Interpolation (11.1) Die 2π-periodischen komplexen trigonometrischen Polynome T n sind von der Form n T (t) = α k exp(ikt). k= n (11.2) Die Funktionen Q k (t) = 1 2π exp(ikt) bilden eine Orthogonalbasis von T n bzgl. 2π (f,g) 0 = f (t)g(t)dt. 0 (11.3) Sei f L 2 (0,π). Dann ist p n (f )(t) = k (f,q k ) 0 Q k Orthogonalprojektion von f mit f p n (f ) 0 f T 0, T T n. ( ) (11.4) Sei N N, ω = ω N = exp i 2π N die N-te Einheitswurzel und ( ) 1 ω ω 2 ω N 1 F N = ωn nk = 1 ω 2 ω 4 ω 2(N 1) n,k=0,,n 1.. C N N.. 1 ω N 1 ω 2(N 1) ω (N 1)2 die Fouriermatrix. Dann gilt F 1 = N 1 F, d.h 1 N F ist unitär. (11.7) Sei ˆα k = N 1 N 1 f (t j )exp( ikt j ) mit t j = 2πj N. Dann gilt f (t j ) = N 1 ˆα k exp(ikt j ). j=0 k=0 C. Wieners: Einführung in die Numerische Mathematik 35

36 11 Trigonometrische Interpolation (11.6) Sei N = 2M N gerade und y = F N x C N. Dann gilt y 2k = y 2k+1 = M 1 x n + ωm kn mit x n + = x n + x M+n, n=0 M 1 xn ωm kn mit xn = (x n x M+n )ωn n. n=0 FFT-Algorithmus für die Berechnung von y = F N x für N = 2 K S1) Wenn N = 1 und y = x: STOP S2) Definiere x + = x [0 : N2 ] [ N 1 + x x = diag ( ω n N) ( x S3) Berechne y + = F N2 x +, y = F N2 x ] 2 : N 1 C N 2 [0 : N2 1 ] x [ ]) N 2 : N 1 C N 2 S4) Setze y = (y + [0],y [0],y + [1],y [1], ) C N. STOP (11.7) Der FFT-Algorithmus benötigt N log(n) Operationen. C. Wieners: Einführung in die Numerische Mathematik 36

37 11 Trigonometrische Interpolation ( Zu s 0 definiere f s = k Z (1 + k 2s ) α k 2) 1/2 mit αk = 1 2π f (t)exp( ikt)dt und 2π 0 H s = { u L 2 (0,2π): f periodisch fortsetzbar und f s < }. (11.8) Es gilt a) H s C 0 per[0,2π] für s > 1/2. b) C m per[0,2π] H m für m N. Im Folgenden sei f H s für s > 1/2. (11.9) Es gilt für ˆα k = 1 N ˆα k = α k+jn. j Z N 1 f (t j )exp(ikt j ) mit t j = 2πj N und N/2 < k N/2 j=0 n (11.10)Sei n < N/2 und T n (t) = ˆα k exp(ikt). Dann existiert eine Konstante C > 0 mit k= n f T n 0 C n s f s. C. Wieners: Einführung in die Numerische Mathematik 37

2 Direkte Lösungsverfahren für lineare Gleichungen

2 Direkte Lösungsverfahren für lineare Gleichungen 2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei L R N N eine normierte untere Dreiecksmatrix und b R N. Dann ist L invertierbar und das Lineare Gleichungssystem (LGS) Ly = b ist mit O(N 2

Mehr

2 Direkte Lösungsverfahren für lineare Gleichungen

2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei x = (x n ) n=1,...,n R N, A = (a m,n ) m=1,...,m, n=1,...,n R M,N. a) Sei 1 m n N. Dann ist x[m : n] = (x k ) k=m,...,n R 1+n m Teilvektor von x. b) Seien 1 m 1 m 2 M, 1 n 1 n 2 N. Dann ist A[m

Mehr

1 Euklidische Approximation

1 Euklidische Approximation 1 Euklidische Approximation Sei V ein reeller euklidischer Vektorraum. Das Skalarprodukt in V wird mit, V und die Norm mit V bezeichnet. V N V sei ein Teilraum der Dimension N < mit Basis {φ n N } n=1,...,n.

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b.

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b. NumaMB F14 Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Bewertung: Vier Fragen richtig beantwortet

Mehr

1 Arithmetische Grundlagen

1 Arithmetische Grundlagen Am 4. Juni 1996 explodierte kurz nach dem Start die erste Ariane 5 Rakete durch einen Softwarefehler. Die Horizontalgeschwindigkeit wurde durch eine Gleitkommazahl v [ 10 308, 10 308 ] {0} [10 308,10 308

Mehr

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.

Mehr

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)

Mehr

3 Lineare Algebra Vektorräume

3 Lineare Algebra Vektorräume 3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +

Mehr

LR-Zerlegung. N = size(a,1); for n=1:n-1 A(n+1:N,n) = A(n+1:N,n)/A(n,n); A(n+1:N,n+1:N) = A(n+1:N,n+1:N) - A(n+1:N,n) * A(n,n+1:N); end;

LR-Zerlegung. N = size(a,1); for n=1:n-1 A(n+1:N,n) = A(n+1:N,n)/A(n,n); A(n+1:N,n+1:N) = A(n+1:N,n+1:N) - A(n+1:N,n) * A(n,n+1:N); end; LR-Zerlegung N = size(a,1); for n=1:n-1 A(n+1:N,n) = A(n+1:N,n)/A(n,n); A(n+1:N,n+1:N) = A(n+1:N,n+1:N) - A(n+1:N,n) * A(n,n+1:N); x = b; for n=2:n x(n) = x(n) - A(n,1:n-1) * x(1:n-1); for n=n:-1:1 x(n)

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik 4 Punkte Es gibt zu jeder der Aufgaben vier Teilaufgaben. Diese sind mit bzw. zu kennzeichnen hinschreiben. Es müssen

Mehr

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren 2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;

Mehr

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012)

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Technische Universität München Zentrum Mathematik, M1 Prof. Dr. Boris Vexler Dr. Ira Neitzel Dipl.-Math. Alana Kirchner 7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Diese Auswahl

Mehr

8 Polynominterpolation

8 Polynominterpolation 8 Polynominterpolation Interpolations-Aufgabe: Von einer glatten Kurve seien nur lich viele Punktewerte gegeben. Wähle einen lichdimensionalen Funktionenraum. Konstruiere nun eine Kurve in diesem Funktionenraum

Mehr

Mathematische Grundlagen

Mathematische Grundlagen Mathematische Grundlagen 1 / 16 Vektorraum u R n, u = (u 1,..., u n ), u k R Euklidisches Skalarprodukt Euklidische Vektornorm (u, v) = u k v k u 2 = (u, u) = n u 2 k Vektoren u, v R n heißen orthogonal,

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung

Mehr

Numerisches Rechnen Panikzettel

Numerisches Rechnen Panikzettel panikzettel.philworld.de Numerisches Rechnen Panikzettel der Dude, Luca Oeljeklaus, Tobias Polock, Philipp Schröer, Caspar Zecha Version 9 0.03.208 Inhaltsverzeichnis Einleitung 2 2 Fehleranalyse: Kondition,

Mehr

Banach scher Fixpunktsatz. 1) D ist abgeschlossen und konvex; 2) f ist selbstabbildend, d.h. f(d) D;

Banach scher Fixpunktsatz. 1) D ist abgeschlossen und konvex; 2) f ist selbstabbildend, d.h. f(d) D; Institut für Geometrie und Praktische Mathematik Höhere Mathematik IV (für Elektrotechniker und Technische Informatiker) - Numerik - SS 2007 Dr. S. Börm, Dr. M. Larin Banach scher Fixpunktsatz Gegeben

Mehr

2 Direkte Lösungsverfahren für lineare Gleichungen

2 Direkte Lösungsverfahren für lineare Gleichungen 2 Direkte Lösungsverfahren für lineare Gleichungen Sei A R invertierbar und b R. Löse Ax = b genau und effizient. Die LR-Zerlegung Wir berechnen eine Zerlegung A = LR mit L, R R und den folgen Eigenschaften:

Mehr

Numerische Mathematik I für Ingenieure Multiple-Choice Klausuraufgaben Frühjahr 08

Numerische Mathematik I für Ingenieure Multiple-Choice Klausuraufgaben Frühjahr 08 Numerische Mathematik I für Ingenieure Multiple-Choice Klausuraufgaen Frühjahr 08 Hier einige Hinweise zu den MC-Aufgaen. Die Lösungen sollten nicht auswendig gelernt werden. Man sollte verstehen, warum

Mehr

4.6 Berechnung von Eigenwerten

4.6 Berechnung von Eigenwerten 4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.

Mehr

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2. MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 21 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,,255}, n = 1,,N, m = 1,,M dig Camera Realisierung von B η ist

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

Numerische Mathematik

Numerische Mathematik Numerische Mathematik Von Martin Hermann 2., überarbeitete und erweiterte Auflage Oldenbourg Verlag München Wien Vorwort zur ersten Auflage Vorwort zur zweiten Auflage V VII 1 Wichtige Phänomene des numerischen

Mehr

A 1 A 2 A 3 A 4 A 5 A 6 A 7

A 1 A 2 A 3 A 4 A 5 A 6 A 7 Institut für Geometrie und Praktische Mathematik Numerisches Rechnen für Informatiker WS 7/8 Prof. Dr. H. Esser J. Grande, Dr. M. Larin Klausur Numerisches Rechnen für Informatiker Hilfsmittel: keine (außer

Mehr

(d) das zu Grunde liegende Problem gut konditioniert ist.

(d) das zu Grunde liegende Problem gut konditioniert ist. Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt

Mehr

Numerische Mathematik für Ingenieure (SoSe 2013)

Numerische Mathematik für Ingenieure (SoSe 2013) Numerische Mathematik für Ingenieure (SoSe 2013) PD Dr(USA) Maria Charina Auszüge aus Vorlesungsfolien von Prof Joachim Stöckler werden verwendet Für die Bereitstellung dieses Materials und der Tex-Files

Mehr

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009 Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx

Mehr

KAPITEL 1. Einleitung

KAPITEL 1. Einleitung KAPITEL 1 Einleitung Wir beschäftigen uns in dieser Vorlesung mit Verfahren aus der Numerischen linearen Algebra und insbesondere dem sogenannten Mehrgitterverfahren zur Lösung linearer Gleichungssysteme

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

KAPITEL 5. Nichtlineare Gleichungssysteme

KAPITEL 5. Nichtlineare Gleichungssysteme KAPITEL 5. Nichtlineare Gleichungssysteme Beispiel 5.1. Gravitationskraft zwischen zwei Punktmassen m 1 und m 2 mit gegenseitigem Abstand r: F = G m 1m 2 r 2, wobei G = 6.67 10 11 Nm 2 /kg. Gravitationsfeld

Mehr

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x) 9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

KAPITEL 7. Berechnung von Eigenwerten. Av = λv

KAPITEL 7. Berechnung von Eigenwerten. Av = λv KAPITEL 7. Berechnung von Eigenwerten Aufgabe: Sei A R n n eine reelle quadratische Matrix. Gesucht λ C und v C n, v 0, die der Eigenwertgleichung Av = λv genügen. Die Zahl λ heißt Eigenwert und der Vektor

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der

Mehr

3. Lineare Gleichungssysteme

3. Lineare Gleichungssysteme 3. Lineare Gleichungssysteme 1 3.1. Problemstellung 2 3.2. Direkte Verfahren 3 3.3. Normen und Fehleranalyse 4 3.4. Iterative Verfahren 5 3.5. Konvergenz von linearen Iterationsverfahren 6 3.6. Gradienten-Verfahren

Mehr

Lineare Algebra. 10. Übungsstunde. Steven Battilana.

Lineare Algebra. 10. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,

Mehr

Zusammenfassung Numerische Mathematik für Elektrotechniker

Zusammenfassung Numerische Mathematik für Elektrotechniker Zusammenfassung Numerische Mathematik für Elektrotechniker RWTH Aachen, SS 2006, Prof. Dr. W. Dahmen c 2006 by Sebastian Strache, Ralf Wilke Korrekturen bitte an Ralf.Wilke@rwth-aachen.de 27. August 2006

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

KAPITEL 8. Interpolation

KAPITEL 8. Interpolation KAPITEL 8. Interpolation 8.2 Lagrange-Interpolationsaufgabe für Polynome Wir beschränken uns auf die Lagrange-Interpolation mit Polynomen. Der Raum der Polynome vom Grad n: Stützstellen: Π n = { n j=0

Mehr

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015 sskizzen der Klausur zur Linearen Algebra im Herbst 5 Aufgabe I. Es sei (G, ) eine Gruppe mit neutralem Element e und M {x G x x e}. Zeigen Sie: (a) Ist G kommutativ, so ist M eine Untergruppe von G. (b)

Mehr

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016 Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b

Mehr

Zusammenfassung zu Numerische Mathematik I

Zusammenfassung zu Numerische Mathematik I Sara Adams Zusammenfassung zu Numerik I - WS 003/04 Inhaltsverzeichnis Zusammenfassung zu Numerische Mathematik I Sara Adams 11. August 004 Diese Zusammenfassung basiert auf der Vorlesung Numerische Mathematik

Mehr

Nachklausur am Donnerstag, den 7. August 2008

Nachklausur am Donnerstag, den 7. August 2008 Nachklausur zur Vorlesung Numerische Mathematik (V2E2) Sommersemester 2008 Prof. Dr. Martin Rumpf Dr. Martin Lenz Dipl.-Math. Nadine Olischläger Nachklausur am Donnerstag, den 7. August 2008 Bearbeitungszeit:

Mehr

Inhaltsverzeichnis. 1 Einleitung... 1

Inhaltsverzeichnis. 1 Einleitung... 1 Inhaltsverzeichnis 1 Einleitung................................................. 1 2 Fehleranalyse: Kondition, Rundungsfehler, Stabilität...... 11 2.1 Kondition eines Problems................................

Mehr

Spline-Interpolation

Spline-Interpolation Spline-Interpolation Tim Schmölzer 20 November 2009 Tim Schmölzer Spline-Interpolation 20 November 2009 1 / 38 Übersicht 1 Vorbemerkungen 2 Lösbarkeit des Interpolationsproblems 3 Stabilität der Interpolation

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

I f AM. 2. Übung zur Numerischen Mathematik I. Hausübung. Hannover, den

I f AM. 2. Übung zur Numerischen Mathematik I. Hausübung. Hannover, den Hannover, den 14.10.2002 1. Übung zur Numerischen Mathematik I Aufgabe 1.1 Man nde das Interpolationspolynom p 2 P 2, das die Funktion f(x) = cos(x) in den Punkten x k := π 2 + π k n, h = 1 n, k = 0,...,

Mehr

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen Fachbereich Mathematik/Informatik 6. Juni 0 Prof. Dr. H. Brenner Mathematik für Anwender II Testklausur mit Lösungen Aufgabe. Definiere die folgenden (kursiv gedruckten) Begriffe. () Ein Skalarprodukt

Mehr

6. Polynom-Interpolation

6. Polynom-Interpolation 6. Polynom-Interpolation 1 6.1. Klassische Polynom-Interpolation 2 6.2. Lösung mit Hilfe Lagrange scher Basisfunktionen 3 6.3. Lösung mit Hilfe Newton scher Basisfunktionen 4 6.4. Fehlerabschätzung für

Mehr

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear

Mehr

Modulprüfung Numerische Mathematik 1

Modulprüfung Numerische Mathematik 1 Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel

Mehr

Numerische Mathematik

Numerische Mathematik ».- Numerische Mathematik Von Dr. sc. math. Hans Rudolf Schwarz o. Professor an der Universität Zürich Mit einem Beitrag von Dr. sc. math. Jörg Waldvogel Titularprofessor an der Eidg. Technischen Hochschule

Mehr

Newton-Verfahren für ein Skalarfunktion

Newton-Verfahren für ein Skalarfunktion Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

18.4 Das Newton-Verfahren

18.4 Das Newton-Verfahren 18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift

Mehr

4 Lineare Ausgleichsrechnung

4 Lineare Ausgleichsrechnung Numerik I 15 4 Lineare Ausgleichsrechnung Die folgende Tabelle zeigt die Bevölkerungsentwicklung in den U.S.A. 19 191 192 193 194 75.995 91.972 15.711 123.23 131.669 195 196 197 198 199 15.697 179.323

Mehr

Klausur zur Vordiplom-Prüfung

Klausur zur Vordiplom-Prüfung Technische Universität Hamburg-Harburg SS 25 Arbeitsbereich Mathematik Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren 22. Juli 25 Sie haben 9 Minuten Zeit zum Bearbeiten der

Mehr

5 Iterationsverfahren für lineare Gleichungssysteme

5 Iterationsverfahren für lineare Gleichungssysteme 5 Iterationsverfahren für lineare Gleichungssysteme Klassische Iterationsverfahren Sei A R N N und b R N. Wir wollen nun das LGS Ax = b iterativ lösen. Dazu betrachten wir die Komponenten m = 1,...,N:

Mehr

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine

Mehr

Übungen zu Lineare Algebra und Geometrie 1

Übungen zu Lineare Algebra und Geometrie 1 Übungen zu Lineare Algebra und Geometrie 1 Andreas Čap Sommersemester 2015 Wiederholung grundlegender Begriffe (1 Bestimme Kern und Bild der linearen Abbildung f : R 3 R 3, die gegeben ist durch f(x, y,

Mehr

3.6 Approximationstheorie

3.6 Approximationstheorie 3.6 Approximationstheorie Bisher haben wir uns im Wesentlichen mit der Interpolation beschäftigt. Die Approximation ist weiter gefasst: wir suchen eine einfache Funktion p P (dabei ist der Funktionenraum

Mehr

KAPITEL 10. Numerische Integration

KAPITEL 10. Numerische Integration KAPITEL 10. Numerische Integration 10.1 Einleitung Sei Es gilt I Ĩ = b I = b a a f(x) f(x) dx f(x) dx, Ĩ = b b a f(x) dx. a f(x) f(x) dx (b a) f f. I Ĩ I (b a) f f b a f(x) dx = ba f dx b a f(x) dx f f

Mehr

Mathematik für Ingenieure 1

Mathematik für Ingenieure 1 A. Hoffmann B. Marx W. Vogt Mathematik für Ingenieure 1 Lineare Algebra, Analysts Theorie und Numerik PEARSON Studium ein Imprint von Pearson Education München Boston San Francisco Harlow, England Don

Mehr

7 Lineare Abbildungen und Skalarprodukt

7 Lineare Abbildungen und Skalarprodukt Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u

Mehr

5 Numerische Iterationsverfahren

5 Numerische Iterationsverfahren In diesem Kapitel besprechen wir numerische Iterationsverfahren (insbesondere Fixpunktverfahren) als eine weitere Lösungsmethode zur Lösung von linearen Gleichungssystemen (Kapitel 4) sowie zur Lösung

Mehr

Erweiterungen der LR-Zerlegung

Erweiterungen der LR-Zerlegung Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei

Mehr

12.2 Gauß-Quadratur. Erinnerung: Mit der Newton-Cotes Quadratur. I n [f] = g i f(x i ) I[f] = f(x) dx

12.2 Gauß-Quadratur. Erinnerung: Mit der Newton-Cotes Quadratur. I n [f] = g i f(x i ) I[f] = f(x) dx 12.2 Gauß-Quadratur Erinnerung: Mit der Newton-Cotes Quadratur I n [f] = n g i f(x i ) I[f] = i=0 b a f(x) dx werden Polynome vom Grad n exakt integriert. Dabei sind die Knoten x i, 0 i n, äquidistant

Mehr

10 Unitäre Vektorräume

10 Unitäre Vektorräume 10 Unitäre Vektorräume Pink: Lineare Algebra 2014/15 Seite 98 10 Unitäre Vektorräume Die Theorie komplexer Vektorräume mit Skalarprodukt folgt denselben Linien wie die Theorie reeller Vektorräume mit Skalarprodukt;

Mehr

8 Interpolation. 8.1 Problemstellung. Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen. x 0 < x 1 <... < x n.

8 Interpolation. 8.1 Problemstellung. Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen. x 0 < x 1 <... < x n. 8 Interpolation 81 Problemstellung Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen x 0 < x 1 < < x n Eingabedaten: (x 0, f 0 ),(x 1, f 1 ),,(x n, f n ) Gegebene Daten (x j, f j ) Analysis

Mehr

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

Beispiele. Grundlagen. Kompakte Operatoren. Regularisierungsoperatoren

Beispiele. Grundlagen. Kompakte Operatoren. Regularisierungsoperatoren Beispiele Grundlagen Kompakte Operatoren Regularisierungsoperatoren Transportgleichung Dierenzieren ( nx ) (f δ n ) (x) = f (x) + n cos, x [0, 1], δ Regularisierung!! Inverse Wärmeleitung Durc f (f δ n

Mehr

35 Stetige lineare Abbildungen

35 Stetige lineare Abbildungen 171 35 Stetige lineare Abbildungen Lernziele: Konzepte: Lineare Operatoren und ihre Normen Resultate: Abschätzungen für Matrizennormen Kompetenzen: Abschätzung von Operatornormen 35.1 Lineare Abbildungen.

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 20.12.13 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

Kapitel 4: Nichtlineare Nullstellenprobleme

Kapitel 4: Nichtlineare Nullstellenprobleme Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 4: Nichtlineare Nullstellenprobleme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 2015 HM: Numerik (SS

Mehr

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 12. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 14, 2017 1 Erinnerung: Determinanten, Orthogonale/unitäre Matrizen Sei A R 2 2, dann kann die Inverse

Mehr

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme Als zweite Hauptanwendung des Banachschen Fixpunktsatzes besprechen wir in diesem Kapitel die iterative Lösung linearer Gleichungssysteme. Die

Mehr

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische lineare Iterationsverfahren

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische lineare Iterationsverfahren III. Iterative Löser III.1 Direkte Löser und ihre Nachteile III.2 Klassische lineare Iterationsverfahren Typeset by FoilTEX 1 Erinnerung: Lineares Gleichungssystem bei FDM Diskretisierung einer linearen

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,

Mehr

= ( n x j x j ) 1 / 2

= ( n x j x j ) 1 / 2 15 Skalarprodukte 77 15 Skalarprodukte 15.1 Einführung. a) Ab jetzt sei stets K = R oder K = C, da Wurzeln eine wichtige Rolle spielen werden. b) Nach dem Satz des Pythagoras ist die Länge eines Vektors

Mehr

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW Lineare Gleichungssysteme Lösen Sie folgende Gleichungssysteme über R: a) x + x + x = 6x + x + x = 4 x x x = x 7x x = 7 x x = b) x + x 4x + x 4 = 9 x + 9x x x

Mehr

Klausur zur Vordiplom-Prüfung

Klausur zur Vordiplom-Prüfung Technische Universität Hamburg-Harburg SS Arbeitsbereich Mathematik Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren. Juli Sie haben Minuten Zeit zum Bearbeiten der Klausur. Bitte

Mehr

Inhaltsverzeichnis. 1 Einleitung... 1

Inhaltsverzeichnis. 1 Einleitung... 1 Inhaltsverzeichnis 1 Einleitung... 1 2 Fehleranalyse: Kondition, Rundungsfehler, Stabilität... 11 2.1 KonditioneinesProblems... 11 2.1.1 ElementareBeispiele... 12 2.1.2 Bemessen,Normen... 15 2.1.3 RelativeundAbsoluteKondition...

Mehr

Aufgabe I.1 (4 Punkte) Gegeben seien die Matrix H := und die Menge L := {A R 4 4 A HA = H} Zeigen Sie:

Aufgabe I.1 (4 Punkte) Gegeben seien die Matrix H := und die Menge L := {A R 4 4 A HA = H} Zeigen Sie: Aufgabe I (4 Punkte Gegeben seien die Matrix und die Menge Zeigen Sie: H := L := {A R 4 4 A HA = H} a L ist bezüglich der Matrizenmultiplikation eine Gruppe b Die Matrizen der Form ( E O, O B wobei E R

Mehr

Kapitel 3. Konvergenz von Folgen und Reihen

Kapitel 3. Konvergenz von Folgen und Reihen Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden

Mehr

Numerische Mathematik

Numerische Mathematik Numerische Mathematik Von Prof. Dr. sc. math. Hans Rudolf Schwarz Universität Zürich Mit einem Beitrag von Prof. Dr. sc. math. Jörg Waldvogel Eidg. Technische Hochschule Zürich 4., überarbeitete und erweiterte

Mehr

5 Numerische Mathematik

5 Numerische Mathematik 6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Finite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015

Finite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015 Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 5 Aufgabe 8 (Speichertechniken) Finite Elemente Übung 5 a) Stellen Sie die Matrix

Mehr

Die Interpolationsaufgabe besteht darin, eine (einfache) Funktion u n U n zu finden,

Die Interpolationsaufgabe besteht darin, eine (einfache) Funktion u n U n zu finden, Kapitel 3 Interpolation 31 Einführung Bemerkung 31 Motivation, Aufgabenstellung Gegeben seien eine Funktion f C([a,b]) und x i [a,b], i = 0,n, mit a x 0 < x 1 < < x n b (31) Die Interpolationsaufgabe besteht

Mehr

Übungen zu Lineare Algebra und Geometrie für LAK

Übungen zu Lineare Algebra und Geometrie für LAK Übungen zu Lineare Algebra und Geometrie für LAK Andreas Cap Wintersemester 2010/11 Wiederholung grundlegender Begriffe (1) Bestimme Kern und Bild der linearen Abbildung f : R 3 R 3, die gegeben ist durch

Mehr

Gaußsche Ausgleichsrechnung

Gaußsche Ausgleichsrechnung Kapitel 6 Gaußsche Ausgleichsrechnung 6. Gaußsche Methode der kleinsten Fehlerquadrate Die Gaußsche Methode der kleinsten Fehlerquadrate wurde 89 von C.F. Gauß in dem Aufsatz Theorie der Bewegung der Himmelkörper

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr