1 Euklidische Approximation
|
|
- Bärbel Kästner
- vor 6 Jahren
- Abrufe
Transkript
1 1 Euklidische Approximation Sei V ein reeller euklidischer Vektorraum. Das Skalarprodukt in V wird mit, V und die Norm mit V bezeichnet. V N V sei ein Teilraum der Dimension N < mit Basis {φ n } n=1,...,n. (1.1) Problemstellung: Sei v V. Bestimme v N V mit v v N V = min w N V N v w N V. (1.2) Die Matrix ) A = ( φ n,φ k V n,k=1,...,n RN N ist symmetrisch und positiv definit. (1.3) Problem (1.1) ist eindeutig lösbar. Es gilt N v N = x n φ n, n=1 wobei x R N die eindeutige Lösung des linearen Gleichungssystems Ax = b ) mit b = ( v,φ k V k=1,...,n RN ist. C. Wieners: Einführung in die Numerische Mathematik 1
2 2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei L R N N eine normierte untere Dreiecksmatrix und b R N, d.h. diagl = I N und L[1 : n,n + 1] = 0 n für n = 1,...,N 1. Dann ist L regulär und das lineare Gleichungssystem Ly = b ist mit O(N 2 ) Operationen lösbar. Entsprechend ist für eine reguläre obere Dreiecksmatrix R R N N (d.h. R[n,n] 0 für alle n und R[n + 1,1 : n] = 0 T n für n < N) das LGS Rx = y in O(N 2 ) Operationen lösbar. (2.2) Die normierten unteren Dreiecksmatrizen bilden eine Gruppe. Die regulären oberen Dreiecksmatrizen bilden eine Gruppe. (2.4) Wenn eine Matrix A R N N eine LR-Zerlegung A = LR mit einer normierten untere Dreiecksmatrix L und einer regulären obere Dreiecksmatrix R besitzt, dann ist A regulär und das LGS Ax = b ist mit O(N 2 ) Operationen lösbar. (2.5) Eine Matrix A R N N besitzt genau dann eine LR-Zerlegung von A, wenn alle Hauptuntermatrizen A[1 : n,1 : n] regulär sind. Die LR-Zerlegung ist eindeutig und lässt sich mit O(N 3 ) Operationen berechnen. (2.6) Eine Matrix A R N N heißt strikt diagonal-dominant, falls a nn > n 1 a nk + N a nk. k=1 k=n+1 (2.7) Wenn A strikt diagonal dominant ist, dann existiert eine LR-Zerlegung. (2.8) Sei A R N N symmetrisch und positiv definit. Dann existiert genau eine Cholesky-Zerlegung A = LL T mit einer regulären unteren Dreiecksmatrix L. C. Wieners: Einführung in die Numerische Mathematik 2
3 2 Direkte Lösungsverfahren für lineare Gleichungen (2.9) Sei π S N eine Permutation. Dann heißt P π = ( e π 1 (1)... e π (N)) 1 R N N Permutationsmatrix zu π. Es gilt (P π A)[n,k] = A[π(n),k] und (AP π )[n,k] = A[n,π 1 (k)]. (2.10) Die Permutationsmatrizen in R N N bilden eine Gruppe. Es gilt P σ P π = P π σ und P π 1 = Pπ T. (2.11) Sei A R N N regulär. Dann existiert eine Permutationsmatrix P, so dass PA eine LR-Zerlegung PA = LR besitzt und für die Einträge L[m,n] 1 gilt. Sie lässt sich mit O(N 3 ) Operationen berechnen. Die Lösung von Ax = b berechnet sich aus Ly = Pb und Rx = y. Sei eine Vektornorm, und sei eine zugeordete Matrixnorm, d. h., Ax A x, x R N, A R M N. (2.12) Sei A R N N regulär, und sei A R N N so klein, dass A < A 1 1 gilt. Dann ist die Matrix à = A + A regulär. Sei b R N, b 0 N, b R N klein und b = b + b. Dann gilt für die Lösungen x R N von Ax = b und x R N von à x = b x κ(a) ( b x 1 κ(a) A + A ). b A A Dabei ist x = x x, x x der relative Fehler, und κ(a) = A A 1 die Kondition von A. C. Wieners: Einführung in die Numerische Mathematik 3
4 2 Arithmetische Grundlagen (2.13) a) Eine Gleitkommazahlen zur Basis B {2, 3,...} der Mantissenlänge M und Exponentenlänge E ist die Menge { FL = ± B e M a m B m : e = e E 1 } + c k B k, a m,c k {0,1,...,B 1} m=1 k=0 b) Eine Gleitkommaarithmetik wird durch eine Abbildung fl: R FL mit fl(x) = x für x FL definiert. Sei bestimmt die Rundung: x y = fl(x { + y), x y = fl(x } y), etc. x fl(x) Die zugehörige Maschinengenauigkeit ist eps := max : x FL. x (2.14) Sei f : R N R K eine differenzierbare Funktion und x R N. Dann heißt a) κabs kn = x n f k (x) absolute Konditionszahl. b) κrel kn = x n f k (x) xn f k (x) relative Konditionszahl. C. Wieners: Einführung in die Numerische Mathematik 4
5 2 Kondition und Stabilität (2.15) a) Ein Problem heißt sachgemäß gestellt, wenn es eindeutig lösbar ist und die Lösung stetig von den Daten abhängt. b) Die Kondition eines Problems ist eine Maß dafür, wie stark die Abhängigkeit der Lösung von den Daten ist. c) Die Stabilität eines numerischen Algorithmus ist eine Maß dafür, wie stark die Daten- Abhängigkeit der numerischen Lösung im Vergeich zu der exakten Lösung ist. (2.16) Wir verwenden für x R N und A R M N N x 1 = x[n] x 2 = x T x x = max x[n] n=1 n=1,...,n Ax und die zugeordnete Operatornorm A p = sup p x 0N x p, d.h. M N A 1 = max A[m,n], A 2 = ρ(a T A), A = max A[m, n] n=1,...,n m=1 m=1,...,m n=1 mit Spekralradius ρ(a) = max{ λ : λ σ(a)} und Spektrum σ(a). C. Wieners: Einführung in die Numerische Mathematik 5
6 3 Ausgleichsrechnung Sei Q R N N orthogonal, d.h. Q T Q = I N. Dann ist κ 2 (Q) = 1. (3.1) Zu v R N und k n mit v[k] 2 + v[n] 2 > 0 existiert eine Givens-Rotation G R N N mit ( ) ( ) G[k,k] G[k,n] c s =, c G[n, k] G[n, n] s c 2 + s 2 = 1, und G[j][j] = 1 für j k,n und G[i][j] = 0 sonst, so dass en T Gv = 0 gilt: Für v[n] > v[k] setze τ = v[k] v[n], s = 1+τ 1 v[n], c = sτ, sonst setze τ = 2 v[k], c = 1+τ 1, s = cτ. 2 Es gilt G = c(e k ek T + e nen T ) + s(e k en T e n ek T ) + e j ej T. j k,n (2.10) Zu v R N, v 0 N, existiert eine Householder-Spiegelung H = I N 2 w T w ww T R N N mit w R N, w[1] = 1, so dass Hv = σe 1 mit σ R und Hw = w gilt: Falls v[1] > 0, setze σ = v 2, sonst setze σ = v 2. Dann definierte w = 1 v[1] σ (v σe 1). (3.3) Zu A R K N existiert eine QR-Zerlegung A = QR mit einer orthogonalen Matrix Q R K K und eine oberen Dreiecksmatrix R R K N, d.h. QQ T = I K und R[k + 1 : K,k] = 0 K k für k = 1,...,K. (3.4) Sei A R K N und b R K. Dann gilt: x R N minimiert Ax b 2 A T Ax = A T b. C. Wieners: Einführung in die Numerische Mathematik 6
7 Berechnung der Householder-Vektoren function [v,beta] = householder(y) N = length(y); s = y(2:n) * y(2:n); if N == 1 s = 0; end; v = [1;y(2:N)]; if s == 0 beta = 0; else mu = sqrt(y(1)^2 + s); if y(1) <= 0 v(1) = y(1) - mu; else v(1) = -s/(y(1) + mu); end; beta = 2*v(1)^2/(s + v(1)^2); v = v / v(1); end; return; C. Wieners: Einführung in die Numerische Mathematik 7
8 QR-Zerlegung [M,N] = size(a); for m = 1:min(N,M-1) [v,beta] = householder(a(m:m,m)); if beta ~= 0 w = beta * v * A(m:M,m:N); A(m:M,m:N) = A(m:M,m:N) - v * w; A(m+1:M,m) = v(2:m-m+1); end; end; for m = 1:min(N,M-1) v = [1;A(m+1:M,m)]; beta = 2 / (v * v); if beta ~= 2 b(m:m) = b(m:m) - beta*(v *b(m:m)) * v; end; end; for n=min(n,m):-1:1 x(n) = (b(n) - A(n,n+1:N) * x(n+1:n)) / A(n,n); end; C. Wieners: Einführung in die Numerische Mathematik 8
9 3 Ausgleichsrechnung (3.5) Zu A R K N mit R = rang(a) existiert eine Singulärwertzerlegung A = V ΣU T mit Matizen V = (v 1 v R ) R K R, U = (u 1, u R ) R N R, Σ = diag(σ 1,...,σ R ) R R R mit V T V = U T U = I R und den Singulärwerten σ 1,...,σ R > 0. Es gilt A = R σ r u r vr T r=1 und Ax = R σ r (vr T x)u r. r=1 (2.22) A + = UΣ 1 V T ist die Pseudo-Inverse. Es gilt A + = R σr 1 v r ur T und Ax = R σr 1 (ur T x)v r. r=1 r=1 (2.22) x = A + b löst die Normalengleichung A T Ax = A T b. (2.23) Sei A R K N und b R M. Dann gilt für die Tikhonov-Regularisierung mit α > 0: x R N minimiert Ax b α x 2 2 (A T A + αi N )x = A T b. (2.24) Es gilt lim α 0 (AT A + αi N ) 1 A T b = A + b. Diskrepanzprinzip: Sei b Bild(A), x = A + b und b δ eine Störung mit b b δ < δ < b 2. Dann existiert ein α = α(δ) > 0 mit Ax α b δ 2 = δ für x α = (A T A + αi N ) 1 A T b δ. Es gilt α(δ) 0 für δ 0. C. Wieners: Einführung in die Numerische Mathematik 9
10 4 Eigenwertberechnung (4.3) H R N N heißt Hessenberg-Matrix, wenn H[n + 2 : N,n] = 0 N n 1 für n = 1,...,N 2. (4.4) Sei A R N N. Dann existiert eine orthogonale Matrix Q R N N, so dass H = QAQ T eine Hessenberg-Matrix ist. Die Berechnung benötigt O(N 3 ) Operationen. Wenn A symmetrisch ist, dann ist H eine Tridiagonalmatrix. (4.8) Sei A R N N symmetrisch, tridiagonal, und irreduzibel, d.h. A[n 1,n] = A[n,n 1] 0 und A[n + 2 : N,n] = A[n,n + 2 : N] T = 0 N n 1. Die charakteristischen Polynome P n (t) = det ( A[1 : n,1 : n] ti n ) der Hauptuntermatrizen lassen sich durch eine Dreitermrekursion berechnen: Setze P 0 1. Dann gilt P 1 (t) = A[1,1] t und P n (t) = (A[n,n] t)p n 1 (t) A[n 1,n] 2 P n 2 (t). Sie bilden eine Sturmsche Kette: Für die Nullstellen λ n 1 λ n 2 λ n n von P n gilt λ n 1 k 1 < λ n k < λ n 1 k, k = 1,...,n (mit λ n 0 = A und λ n n+1 = A ), und es gilt für t ( A, A ) λ n k < t λ n k+1 mit k = W n (t) und W n (t) = # { j {1,...,n}: P j (t)p j 1 (t) < 0 oder P j (t) = 0 }. C. Wieners: Einführung in die Numerische Mathematik 10
11 4 Eigenwertberechnung Sei A R N N symmetrisch mit Eigenwerten λ 1,...,λ N und ONB aus Eigenvektoren v 1,...,v N. Dann gilt A = n (4.9) Der Rayleigh-Quotient ist λ n v n (v n ) T und Ax = λ n (vn T x)v n. n r(a,x) = x T Ax x T x, x RN, x 0 N. (4.10) Sei λ 1 = ρ(a) und λ n < λ 1 für n = 2,...,N. Dann gilt für alle w R N mit w T v 1 > 0 lim k r(a,ak w) = λ 1, (4.11) Sei w 2 = 1 und µ = r(a,w). Dann gilt min λ n µ Aw µw 2. n=1,...,n 1 lim k A k A k w = v 1. w 2 Eine konvergente Folge (d k ) in R mit Grenzwert d konvergiert a) linear, wenn c (0,1) und k 0 > 0 existieren mit d k+1 d c d k d für k k 0 b) superlinear, wenn zu jedem ε > 0 ein k 0 > 0 existiert mit d k+1 d ε d k d für k k 0 c) von der Ordnung p > 1, wenn wenn C > 0 existiert mit d k+1 d C d k d p. C. Wieners: Einführung in die Numerische Mathematik 11
12 4 Eigenwertberechnung (4.12) Inverse Iteration mit variablem shift S0) Wähle z 0 R N, z 0 0 N, ε 0. Setze k = 0. S1) Setze w k = 1 z k 2 z k, µ k = r(a,w k ). S2) Falls Aw k µ k w k 2 ε STOP. S3) Berechne z k+1 = (A µ k I N ) 1 w k. S4) Setze k := k + 1, gehe zu S1). Wenn der Startvektor z 0 hinreichend nahe bei einem Eigenvektor v m mit isoliertem Eigenwert λ m liegt, konvergiert die Iteration kubisch (d.h. von der Ordnung p = 3). (4.13) QR-Iteration mit shift (A R N N symmetrisch) S0) Berechne A 0 = QAQ T tridiagonal (Hessenberg-Transformation). Wähle ε 0. Setze k = 0. S1) Falls A k [n + 1,n] ε für ein n: getrennte Eigenwertberechnung für A k [1 : n,1 : n] und A k [n + 1 : N,n + 1 : N]. S2) Berechne d k = 1 2 (A k [N 1,N 1] A k [N,N]) und s k = A k [N,N] + d k sgn(d k ) dk 2 + A k [N 1,N] 2. S3) Berechne QR-Zerlegung Q k R k = A k s k I N und setze A k+1 = R k Q k + s k I N. S4) Setze k := k + 1, gehe zu S1). Es gilt A k+1 = Q T k A k Q k. Falls der shift µ k = A k [N,N] gewählt wird, entspricht die QR-Iteration der Inversen Iteration mit variablem shift und Startvektor z 0 = e N. C. Wieners: Einführung in die Numerische Mathematik 12
13 4 Eigenwertberechnung (4.14) Gershgorin Zu A R N N sind die Gershgorin-Kreise durch K n = { λ C: λ A[n,n] A[n,k] }, k n defininiert. Dann gilt n = 1,...,N N σ(a) K n. n=1 (4.15) Sei A R N N symmetrisch mit Eigenwerten λ 1 λ 2 λ N. λ n = max dims=n λ N+1 n = min dims=n min r(a,x), 0 N x S max r(a,x). 0 N x S C. Wieners: Einführung in die Numerische Mathematik 13
14 5 Iterative Lösungsverfahren für lineare Gleichungen (5.1) Sei A,B R N N mit ρ(i N BA) < 1. Dann ist A invertierbar, und es gilt für alle b R N und alle Startvektoren x 0 R N konvergiert die Iteration x k+1 = x k + B(b Ax k ), k = 0,1,2,... gegen lim k x k = A 1 b. (5.2) Sei K R N N und ε > 0 Dann existiert eine Vektor-Norm und eine zugeordnete Matrix-Norm, so dass K ρ(k ) + ε gilt. Anwendung: Es gilt x x k I N BA k x x 0 (lineare Konvergenz). (5.3) Konvergenz des Gauß-Seidel-Verfahrens Sei A = L + D + R R N N symmetrisch positiv definit und sei B = (L + D) 1. Dann gilt bezüglich der Energienorm x A = x T Kx Ax und K A = sup A x x 0 A N I N BA A < 1. Anwendung der Neumannschen Reihe ergibt dann A 1 = k=0 (I N BA) k B. C. Wieners: Einführung in die Numerische Mathematik 14
15 5 Iterative Lösungsverfahren für lineare Gleichungen (5.4) Eine Matrix A R N N heißt stark diagonal-dominant, wenn und wenn ein j {1,...,N} existiert N A[n,k] A[n,n], n = 1,...,N, k=1 k n N A[j,k] < A[j,j]. k=1 k n (5.5) Eine Matrix A R N N sei irreduzibel. Dann existiert zu jedem Paar j n eine Folge j = j 0,j 1,j 2,...,j R = n mit A[j 1,j 0 ] 0,...,A[j R,j R 1 ] 0. (5.6) Eine Matrix A R N N sei stark diagonal-dominant und irreduzibel. Dann gilt: a) A ist regulär und das Jacobi-Verfahren x k+1 = x k + diag(a) 1 (b Ax k ) konvergiert. b) Sei A[n,n] > 0 für alle n. Dann ist A positiv definit. c) Sei A[n,n] > 0 und A[n,k] 0 für n k. Dann ist A 1 [n,k] 0 für alle n,k. C. Wieners: Einführung in die Numerische Mathematik 15
16 5 Iterative Lösungsverfahren: Krylov-Verfahren (5.7) Zu C R N N und d R N ist k-te Krylov-Raum K k (C,d) = span { d,cd,..c k 1 d } = { P(C)d : P P k 1 }. (5.8) Zu einer regulären Matrix A R N N, einer rechten Seite b R N und einem Startwert x 0 R N sei x R N die Lösung von Ax = b und r 0 = b Ax 0. Sei B R N N eine reguläre Matrix (Vorkonditionierer). Wenn dimk k (AB,r 0 ) < k für ein k gilt, dann ist x x 0 + K k 1 (BA,Br 0 ). Sei, ein Skalarprodukt in R N. Gram-Schmidt-Verfahren zur Berechnung einer Orthonormalbasis v 1,...,v k von K k (BA,Br 0 ) = span{br 0,BABr 0,...,(BA) k 1 Br 0 } = {V k y : y R k }, V k = ( v 1... v k ). S0) Wähle x 0 R N, setze r 0 = b Ax 0, z 1 = Br 0, h 10 = z 1 V und v 1 = h 1 z S1) Für k = 1,2,3,... berechne w k = BAv k, z k+1 = w k k h jk v j mit h jk = v j,w k V j=1 v k+1 = 1 h k+1,k z k+1 mit h k+1,k = z k+1 V Dann gilt BAv k = k+1 j=1 h jk v j, also BAV k = V k+1 H k mit H k = (h jm ) R k+1,k. C. Wieners: Einführung in die Numerische Mathematik 16
17 5 Iterative Lösungsverfahren: GMRES-Verfahren S0) Wähle x 0 R N, ε > 0. Berechne r 0 = b Ax 0, z 1 = Br 0, h 10 = z 1 2 und v 1 = h 1 z 1. Setze k = S1) Berechne w k = BAv k und z k+1 = w k k h jk v j mit h jk = (v j ) T w k j=1 v k+1 = 1 h k+1,k z k+1 mit h k+1,k = z k+1 2 S2) Berechne y k R k mit ρ k = H k y k h 10 e 1 2 = min! Dabei ist H k = (h jm ) j=1,...,k+1, m=1,...,k R k+1,k. S3) Wenn ρ k < ε, setze x k = x 0 + k yj k v j j=1 S4) Setze k := k + 1 und gehe zu S1). STOP. (5.4) Es gilt ρ k = min B(b Az) 2. z x 0 +span{v 1,...,v k } Das GMRES-Verfahren ist wohldefiniert, und wenn es abbricht, gilt x x k 2 (BA) 1 2 ε. (5.5) Für C α > 0 gelte z T BAz αz T z und BA 2 C. ) k/2 Dann gilt für das GMRES-Verfahren x k x 2 κ 2 (BA) (1 α2 C 2 x 0 x 2. C. Wieners: Einführung in die Numerische Mathematik 17
18 5 Iterative Lösungsverfahren: CG-Verfahren S0) Wähle x 0 R N, ε > 0. Berechne r 0 = b Ax 0, y 0 = Br 0, ρ 0 = (y 0 ) T r 0 und d 1 = y 0. Setze k = 0. S1) Falls ρ k ε STOP S2) Setze k := k + 1 und berechne u k = Ad k ρ α k = k 1 (u k ) T d k x k = x k 1 + α k d k r k = r k 1 α k u k y k = Br k ρ k = (y k ) T r k d k+1 = y k + ρ k ρ k 1 d k Gehe zu S1). (5.6) x k x A = min z x 0 +span{d 1,...,d k } z x A ( min κ(ba) 1 ) k x A 2 x 0 x A. P P k, P(0)=1 λ σ(ba) κ(ba) + 1 C. Wieners: Einführung in die Numerische Mathematik 18
19 5 Transformierte Chebychev-Polynome (5.6) k b min max P(t) 2 a 1 P P k, P(0)=1 t [a,b] b a + 1 P 4, P 5, P 6, P 12 mit P k (0) = 1 zu [a,b] = [0.1,2.1] C. Wieners: Einführung in die Numerische Mathematik 19
20 6 Lösungsverfahren für nichtlineare Gleichungen (6.1) Sei D R N konvex und F : D R N ein stetig differenzierbares Vektorfeld. Sei x D eine Nullstelle von F, und sei B R N N. Wenn ρ ( I N BJ F (x ) ) < 1 gilt, dann existiert ein δ > 0, so dass für alle x 0 B(x,δ) die Fixpunktiteration x k+1 = Φ(x k ) mit Φ(x) = x BF(x) linear gegen x konvergiert. (6.2) Banachscher Fixpunktsatz Sei D R N konvex und φ : D D kontrahierend mit q (0.1), d.h. φ(y) φ(z) q y z für y,z D. Dann existiert genau ein Fixpunkt x D von φ, d.h. φ(x ) = x, und es gelten für die Fixpunktiteration x k+1 = Φ(x k ) die Abschätzungen x k x qk 1 q x 0 x 1 und x k x q 1 q x k x k 1. (6.3) Seien α,β,γ > 0 mit 2αγ < β 2 und P(t) = α βt + γ 2 t2. Dann konvergiert für t 0 = 0 das Newton-Verfahren t k+1 = t k P (t k ) 1 P(t k ) quadratisch gegen die kleinste Nullstelle t von P, und {t k } ist monoton steigend mit t 0 = 0 < t 1 < < t k < t k+1 = t k + γ 2 (t k t k 1 ) 2 t 2α = β γt k β + β 2 2αγ. C. Wieners: Einführung in die Numerische Mathematik 20
21 6 Lösungsverfahren für nichtlineare Gleichungen (6.3) Sei D R N offen und F : D R N ein stetig differenzierbares Vektorfeld. Sei x 0 D mit a) F (x 0 ) α b) J F (x 0 )y β y für y R N c) B(x 0,2α/β) = {z R N : z x 0 2α/β} D d) J F (y) J F (z) γ y z für y,z B(x 0,2α/β) e) 2αγ < β 2. Dann ist das Newton-Verfahren x k+1 = x k J F (x k ) 1 F (x k ) wohldefiniert und konvergiert quadratisch gegen x D mit x x 0 2α β + β 2 2αγ. Gedämpftes Newton-Verfahren S0) Wähle x 0 D, ε > 0, θ (0,1). Setze k = 0. S1) Falls F (x k ) ε STOP S2) Löse J F (x k )d k = F (x k ). S3) Bestimme t k {1,θ,θ 2,...,θ r } mit F (x k + t k d k ) minimal. S4) Setze x k+1 = x k + t k d k, k := k + 1 und gehe zu S1). C. Wieners: Einführung in die Numerische Mathematik 21
22 7 Orthogonalpolynome Zu a < b und einem Gewicht W C(a,b), W > 0 definiere V = C(a,b) als Euklidischen Vektorraum mit dem Skalarprodukt b (u,v) V = u(t)v(t)w (t)dt. a Aufgabe: Zu f C(a,b) bestimme P P N mit P f V = min Q P N Q f V. N Sei Q 0,...,Q N P N eine Orthogonalbasis. Dann gilt P(t) = (f,q k ) V Q k (t). k=0 (7.1) Eine orthogonale Basis Q n, n = 0,1,2,... berechnet sich mit Q 1 0, Q 0 1 ρ 0 und ρ n+1 Q n+1 (t) = (t β n ) Q n (t) ρ n Q n 1 (t) n = 0,1,2,... mit ρ 0 = 1 V, ρ n = (Q n,tq n 1 ) V > 0, und β n = (Q n,tq n ) V. Es gilt gradq n = n. (7.2) Das Orthogonalpolynom Q n besitzt n verschiedene Nullstellen in (a,b). Die Orthogonalpolynome Q 0,Q 1,Q 2,... bilden eine Sturmsche Kette. C. Wieners: Einführung in die Numerische Mathematik 22
23 7 Orthogonalpolynome Chebychev-Polynome Wir betrachten den Fall (a,b) = ( 1,1) und W (t) = 1 1 t 2. Definiere T 0 1, T 1 (t) = t und T n+1 P n+1 mit T n+1 (t) = 2tT n (t) T n 1 (t). Für t [ 1,1] gilt T n (t) = cos(n arccost), (T n,t k ) V = 0 für n k, und für t 1 gilt T n (t) = 1 2 ( t + t 2 1 ) n (7.3) Sei ξ [ 1,1] und P(t) = T n (t)/t n (ξ ). Dann gilt max P(t) max Q(t) für alle Q P n mit Q(ξ ) = 1. t [ 1,1] t [ 1,1] (7.4) Sei 0 < α < β und κ = β/α. Dann existiert ein P P n mit P(0) = 1 ( ) n κ 1 und max P(x) 2. x [α,β] κ + 1 ( n t t 2 1). Transformierte Chebychev-Polynome P 4, P 5, P 6, P 12 mit P n (0) = 1 zu [α,β] = [0.1,2.1] C. Wieners: Einführung in die Numerische Mathematik 23
24 7 Orthogonalpolynome (7.5) Approximationssatz von Weierstraß Sei [a, b] ein kompaktes Intervall. Dann gilt: Jede stetige Funktion f C([a, b]) lässt sich gleichmäßig durch Polynome approximieren. Konstruktion: O.E. sei f C(R) mit f (t) = 0 für t > 0.5 und [a, b] = [ 0.25, 0.25]. Dann wähle P 2n (t) = (1 t 2 ) n f (s t)ds, r n = (1 t 2 ) n dt. r n 1 1 Für t 0.25 gilt P 2n (t) = r 1 n n a nkj t k 1 s j f (s)dt P 2n mit (1 (s t) 2 ) n = 2n a nkj t k s j. j,k=0 1 j,k=0 Nun sei (v,w) 0 = 1 v(t)w(t)dt das Skalarprodukt in L 2 ( 1,1), seien Q 0,Q 1,Q 2,... die 1 Orthogonalpolynonme, und sei p n (f ) = n (f,q k ) 0 Q k die Orthogonalprojektion auf P n. k=0 (7.6) Für jede stetig Funktion f C[ 1, 1] gilt lim n p n(f ) f 0 = 0. (7.7) Sei f C k [ 1,1]. Dann existiert C > 0 mit p n (f ) f 0 Cn k ( ddt ) k f 0. C. Wieners: Einführung in die Numerische Mathematik 24
25 8 Interpolation (8.1) Lagrange-Interpolation Zu Stützstellen t 0 < t 1 < < t N und Werten f 0,f 1,...,f N R bestimme P P N mit P(t n ) = f n. (8.2) Die Interpolationsaufgabe (8.1) ist eindeutig lösbar. (8.3) Hermite-Interpolation Zu t 0 t 1 t N definiere d n = max{n k : t k = = t n } und d = maxd n. Zu f C d (R) bestimme P P N mit ( d ) dn ( d ) dn P(tn ) = f (tn ) für n = 0,...,N. dt dt (8.4) Die Interpolationsaufgabe (8.3) ist eindeutig lösbar. (8.5) Der eindeutig bestimmte höchste Koeffizient b N 1 N! ( ddt ) NP(t) der Lösung der Interpolationsaufgabe (8.1) wird mit b N = f [t 0,...,t N ] bezeichnet. (8.6) Zu t 0 t 1 t N definiere die Newton-Basis von P N durch ω 0 1 und ω k+1 (t) = ω k (t)(t t k ), k = 0,...,N 1. a) P(t) = N f [t 0,...,t k ]ω k (t) löst die Interpolationsaufgabe (8.3). k=0 b) Für f C(R) gilt f (t) = P(t) + f [t 0,...,t N,t] ω N+1 (t). C. Wieners: Einführung in die Numerische Mathematik 25
26 8 Interpolation (8.7) Für t k < t n gilt f [t k,...,t n ] = f [t k+1,...,t n ] f [t k,...,t n 1 ]. t n t k ( ) Sei f C n k 1 d n k (R). Für t k = t k+1 = = t n gilt f [t k,...,t n ] = f (t (n k)! dt k ). Sei P kn (t) = n f [t k,...,t j ]ω kj (t) mit ω kk 1 und mit ω k,j+1 (t) = ω kj (t)(t t j ) die Interpolation j=k an t k t n zu f k,...,f n. Für t k < t n gilt P kn (t) = t t k t n t P k k+1,n (t) + tn t t n t P k k,n 1 (t). (8.9) Für den Interpolationsfehler gilt f (t) P N (t) = 1 ( d ) N+1f (τ) ωn+1 (t) (N + 1)! dt mit einer Zwischenstelle τ = τ(t) I := [min{t,t 0 } max{t,t N }]. (8.11) Es gilt f [t 0,...,t N ] = ( d Σ N dt s 0 mit Σ N =. R N+1 : s n ) Nf ( N s n t n )ds n=0 N n=0 s n = 1,s n 0 (8.12) f [t 0,...,t N ] = 1 N! ( ddt ) Nf (τ) mit τ [mintn,maxt n ]. (Standard-Simplex) C. Wieners: Einführung in die Numerische Mathematik 26
27 9 Splines (9.1) Zu einer Zerlegung : a = t 0 < t 1 < < t N = b von [a,b] definiere den Spline-Raum von Grad k S k ( ) = { S C k 1 [a,b]: S n := S [tn 1,t n] P k, n = 1,...,N }. S S k ( ) heißt interpolierender Spline zu f C 0 [a,b] wenn S(t n ) = f (t n ). (9.2) Es gilt dims k ( ) = k + N. Wir betrachten interpolierende Splines von Grad k = 2r + 1 mit einer der Randbedingungen (I) Natürliche Randbedingung ( d ) ms(a) ( d ) ms(b) = 0 und = 0 für r + 1 m 2r dt dt (II) Hermite-Randbedingung zu f C r [a,b] ( d ) ms(a) ( d ) mf ( d ) ms(b) ( d ) mf = (a) und = (b) für 1 m r dt dt dt dt (III) periodische Randbedingungen ( d ) ms(a) ( d ) ms(b) = für 1 m 2r dt dt C. Wieners: Einführung in die Numerische Mathematik 27
28 9 Splines Zu g,h C m [a,b] definiere b ( d ) mg(t) ( d ) mh(t)dt (g,h) m =, g m = (g,g) m. a dt dt (9.3) Zu a t 0 < t 1 < < t N b und f 0,...,f N definiere M = { g C 2 [a,b]: g(t n ) = f n }. Dann existiert genau ein S M mit S 2 g 2 für alle g M. Es gilt S (t) = 0 für t [a,t 0 ] [t N,b] und S [tn 1,t n] P 3. (9.4) Sei S S 2r+1 ( ) ein interpolierender Spline zu f und sei zusätzlich eine der Randbedingungen (I), (II) oder (III) erfüllt. Sei g C r+1 [a,b] mit g(t n ) = f (t n ) für n = 0,...,N, und zusätzlich gelte im Fall (II) ( d ) mg(a) ( d ) mf ( d ) mg(b) ( d ) mf = (a) und = (b) für 1 m r, dt dt dt dt im Fall (III) ( d ) mg(a) ( d ) mg(b) = dt dt für 1 m r. Dann gilt (S g,s) r+1 = 0 und S r+1 g r+1. (9.5) Die Spline-Interpolation S S 2r+1 ( ) zu f mit einer der Randbedingungen (I), (II), (III) ist eindeutig lösbar. C. Wieners: Einführung in die Numerische Mathematik 28
29 9 Splines (9.6) Die Momente M n = S (t n ) von S S 3 ( ) zu f sind eindeutig durch und µ n = µ n M n 1 + M n + λ n M n+1 = 3f [t n 1,t n,t n+1 ] h n 2(h n + h n+1 ), λ h n = n+1 2(h n + h n+1 ) mit h n = t n t n 1 bestimmt und es gilt S n (t) = M n(t t n 1 ) 3 + M n 1 (t n t) 3 + f (t n) + f (t n 1 ) h2 n 6h n 2 12 (M n + M n 1 ) ( f (tn ) f (t + n 1 ) h )( n h n 6 (M n M n 1 ) t t n + t ) n 1, t [t 2 n 1,t n ]. (9.7) Es gilt für m = 0,...,r und h = max i=n,...,n h i, h n = t n t n 1 (r+1 m)/2 (r + 1) S f m 2 h r+1 m f m! r+1 (9.8) Es gilt für f C 2 [a,b] S 3 f. (9.9) Es gilt für f C 4 [a,b] ( d ) 4f S f h 4. dt C. Wieners: Einführung in die Numerische Mathematik 29
30 10 Numerische Integration Newton-Cotes-Formeln (10.1) Eine Quadraturformel I Ξ : C[a,b] R mit I Ξ (f ) = ω ξ f (ξ ) zu Stützstellen Ξ [a,b] und ξ Ξ b Gewichten ω ξ ist eine Linearform zur Approximation des Integrals I(f ) = f (t)dt. a Sie heißt exakt von der Ordnung p, wenn der Fehler I(P) = I Ξ (P) für Polynome P P p. (10.2) Sei Ξ = N + 1. Wenn I Ξ exakt von der Ordnung N ist, dann gilt b t η ω ξ = L ξ (t)dt mit L ξ (t) = η Ξ\{ξ } ξ η P N. a (10.3) Die Quadraturformeln von der Ordnung N zu äquidistanten Stützstellen ξ n = a + nh, h = b a N heißen Newton-Cotes-Quadraturformeln. Es gilt: ω n = ω N n = b a ( 1) N n N N N n!(n n)! (t j)dt. 0 j=0, j n (10.4) Die Newton-Cotes-Formeln sind für gerade N exakt von der Ordnung N + 1. (10.5) Seien g,h C[a,b] mit g(t) 0 für t [a,b]. Dann gilt: b b g(t)h(t)dt = h(τ) g(t)dt für eine Zwischenstelle τ (a,b). a a (10.6) Sei f C 4 [a,b]. Dann gilt für die Simpsonregel: ( b a ) 5 1 I 2 (f ) I(f ) = 2 90 f (τ) für ein τ (a,b). C. Wieners: Einführung in die Numerische Mathematik 30
31 10 Numerische Integration Gauß-Quadatur (10.7) Die maximale Ordnung einer Quadratur mit N Stützstellen ist 2N 1. (10.8) Seien ξ 1,...,ξ N die Nullstellen des Orthogonalpolynoms Q N in (a,b) bzgl. des Gewichts W. Dann ist die zugehörige Gauß-Quadratur G N (f ) = N ω n f (ξ n ) exakt für P P 2N 1. n=1 Die Gewichte der Gauß-Quadratur sind positiv. (10.9) b a f (t)w (t)dt G N (f ) = 1 ( d ) 2Nf N (τ) (RN,R (2N)! dt N ) W mit R N (t) = (t ξ n ). n=1 Eine Folge {I Ξ N } N N von Quadraturen mit Stützstellen Ξ N [a,b] und Ge- wichten ωξ N konvergent, wenn lim I(f ) I Ξ N (f ) = 0 für alle f C[a,b]. N heißt (10.10)Sei {I Ξ N } für alle Polynome P konvergent (d.h. lim N I Ξ N (P) = I(P)), und seien die Gewichte uniform beschränkt durch ωξ N C für alle N. ξ Ξ N Dann ist {I Ξ N } konvergent für alle f C[a,b]. (10.11)Wenn alle Gewichte positiv sind und I Ξ N von der Ordnung N exakt ist, ist {I Ξ N } konvergent. C. Wieners: Einführung in die Numerische Mathematik 31
32 10 Numerische Integration (10.12)Sei I h I = Ch p + O(h q ) mit q > p. Dann gilt für die Extrapolation Îh = I h + 1 ( ) Ih 2 p I 1 2h a) I Îh = O(h q ) b) I I h = 1 ( ) 2 p 1 Ih I 2h + O(h q ) (10.13)Sei g C 2m+2 [0,1]. Es existieren Konstanten b j und eine Zwischenstelle ξ (0,1) mit 1 g(t)dt = g(0) + 1 m (( d ) 2j 1g(0) ( d ) 2j 1g(1) ) 2 g(1) + ( d ) 2m+2g(ξ j + b j=1b dt dt m+1 ). dt (10.14)Für f C 2m+2 [a,b] und h = b a n gilt m (( d ) 2j 1f ( d T h (f ) I(f ) = j h j=1c 2j + O(h 2m+2 ) mit c j = b j (a) dt dt (10.15)Zu T k0 = T hk (f ) mit h k = 2 k h für k = 0,1,...,m definiere rekursiv ) 2j 1f (b) ). T ki = T k,i i 1 (T k,i 1 T k 1,i 1 ), i = 1,...,m und k = i,...,m. Dann gilt: T mm I Ch 2m+2 ( d ) 2m+2f dt mit C > 0 unabhängig von f. (10.16) a) I T kk = O(h 2k+2 ) b) I T k,k 1 = T kk T k,k 1 + O(h 2k+2 ). C. Wieners: Einführung in die Numerische Mathematik 32
33 10 Numerische Integration Romberg-Quadratur using namespace std; #include <iostream> #include <cmath> #include <ext/numeric> using gnu_cxx::power; const int K = 6; const int N = power(2,k); double Romberg (double F(double), double a, double b, double Eps) { double f[n+1]; double h = (b-a) / N; for (int i=0; i<=n; i+=2) f[i] = F(a+i*h); return Romberg(F,a,b,f,Eps); } double F (double x) { return 4.0 / (x*x + 1); } int main () { cout << "Q = " << Romberg(F,0,1,1e-10) << endl; } C. Wieners: Einführung in die Numerische Mathematik 33
34 10 Numerische Integration Romberg-Quadratur double Romberg (double F(double), double a, double b, double* f, double Eps) { double T[K+1]; double h = (b - a) * 0.5; T[0] = h * (f[0] + f[n]); for (int i=1, m=n; i<=k; ++i, m/=2, h /= 2) { double s = 0.0; if (i<k) for (int j=m/2; j<n; j+=m) s += f[j]; else for (int j=1; j<n; j+=2) s += (f[j] = F(a+j*h)); T[i] = 0.5 * T[i-1] + h * s; for (int j=1, q=4; j<=i; ++j, q *= 4) { double e = (T[i-j+1] - T[i-j]) / (q - 1); T[i-j] = T[i-j+1] + e; if (abs(e) < Eps) return T[i-j]; } } double f2[2*n+1]; for (int j=0; j<=n; ++j) f2[2*j] = f[j]; Eps *= 0.5; return Romberg(F,a,(a+b)*0.5,f2,Eps) + Romberg(F,(a+b)*0.5,b,f2+N,Eps); } C. Wieners: Einführung in die Numerische Mathematik 34
35 11 Trigonometrische Interpolation (11.1) Die 2π-periodischen komplexen trigonometrischen Polynome T n sind von der Form n T (t) = α k exp(ikt). k= n (11.2) Die Funktionen Q k (t) = 1 2π exp(ikt) bilden eine Orthogonalbasis von T n bzgl. 2π (f,g) 0 = f (t)g(t)dt. 0 (11.3) Sei f L 2 (0,π). Dann ist p n (f )(t) = k (f,q k ) 0 Q k Orthogonalprojektion von f mit f p n (f ) 0 f T 0, T T n. ( ) (11.4) Sei N N, ω = ω N = exp i 2π N die N-te Einheitswurzel und ( ) 1 ω ω 2 ω N 1 F N = ωn nk = 1 ω 2 ω 4 ω 2(N 1) n,k=0,,n 1.. C N N.. 1 ω N 1 ω 2(N 1) ω (N 1)2 die Fouriermatrix. Dann gilt F 1 = N 1 F, d.h 1 N F ist unitär. (11.7) Sei ˆα k = N 1 N 1 f (t j )exp( ikt j ) mit t j = 2πj N. Dann gilt f (t j ) = N 1 ˆα k exp(ikt j ). j=0 k=0 C. Wieners: Einführung in die Numerische Mathematik 35
36 11 Trigonometrische Interpolation (11.6) Sei N = 2M N gerade und y = F N x C N. Dann gilt y 2k = y 2k+1 = M 1 x n + ωm kn mit x n + = x n + x M+n, n=0 M 1 xn ωm kn mit xn = (x n x M+n )ωn n. n=0 FFT-Algorithmus für die Berechnung von y = F N x für N = 2 K S1) Wenn N = 1 und y = x: STOP S2) Definiere x + = x [0 : N2 ] [ N 1 + x x = diag ( ω n N) ( x S3) Berechne y + = F N2 x +, y = F N2 x ] 2 : N 1 C N 2 [0 : N2 1 ] x [ ]) N 2 : N 1 C N 2 S4) Setze y = (y + [0],y [0],y + [1],y [1], ) C N. STOP (11.7) Der FFT-Algorithmus benötigt N log(n) Operationen. C. Wieners: Einführung in die Numerische Mathematik 36
37 11 Trigonometrische Interpolation ( Zu s 0 definiere f s = k Z (1 + k 2s ) α k 2) 1/2 mit αk = 1 2π f (t)exp( ikt)dt und 2π 0 H s = { u L 2 (0,2π): f periodisch fortsetzbar und f s < }. (11.8) Es gilt a) H s C 0 per[0,2π] für s > 1/2. b) C m per[0,2π] H m für m N. Im Folgenden sei f H s für s > 1/2. (11.9) Es gilt für ˆα k = 1 N ˆα k = α k+jn. j Z N 1 f (t j )exp(ikt j ) mit t j = 2πj N und N/2 < k N/2 j=0 n (11.10)Sei n < N/2 und T n (t) = ˆα k exp(ikt). Dann existiert eine Konstante C > 0 mit k= n f T n 0 C n s f s. C. Wieners: Einführung in die Numerische Mathematik 37
2 Direkte Lösungsverfahren für lineare Gleichungen
2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei L R N N eine normierte untere Dreiecksmatrix und b R N. Dann ist L invertierbar und das Lineare Gleichungssystem (LGS) Ly = b ist mit O(N 2
Mehr2 Direkte Lösungsverfahren für lineare Gleichungen
(2.1) Sei x = (x n ) n=1,...,n R N, A = (a m,n ) m=1,...,m, n=1,...,n R M,N. a) Sei 1 m n N. Dann ist x[m : n] = (x k ) k=m,...,n R 1+n m Teilvektor von x. b) Seien 1 m 1 m 2 M, 1 n 1 n 2 N. Dann ist A[m
Mehr1 Euklidische Approximation
1 Euklidische Approximation Sei V ein reeller euklidischer Vektorraum. Das Skalarprodukt in V wird mit, V und die Norm mit V bezeichnet. V N V sei ein Teilraum der Dimension N < mit Basis {φ n N } n=1,...,n.
MehrBegleitmaterial zur Vorlesung Numerik I
Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik
MehrVF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b.
NumaMB F14 Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Bewertung: Vier Fragen richtig beantwortet
Mehr1 Arithmetische Grundlagen
Am 4. Juni 1996 explodierte kurz nach dem Start die erste Ariane 5 Rakete durch einen Softwarefehler. Die Horizontalgeschwindigkeit wurde durch eine Gleitkommazahl v [ 10 308, 10 308 ] {0} [10 308,10 308
Mehr2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p
Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.
MehrKurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen
Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)
Mehr3 Lineare Algebra Vektorräume
3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +
MehrLR-Zerlegung. N = size(a,1); for n=1:n-1 A(n+1:N,n) = A(n+1:N,n)/A(n,n); A(n+1:N,n+1:N) = A(n+1:N,n+1:N) - A(n+1:N,n) * A(n,n+1:N); end;
LR-Zerlegung N = size(a,1); for n=1:n-1 A(n+1:N,n) = A(n+1:N,n)/A(n,n); A(n+1:N,n+1:N) = A(n+1:N,n+1:N) - A(n+1:N,n) * A(n,n+1:N); x = b; for n=2:n x(n) = x(n) - A(n,1:n-1) * x(1:n-1); for n=n:-1:1 x(n)
MehrInstitut für Geometrie und Praktische Mathematik
RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik 4 Punkte Es gibt zu jeder der Aufgaben vier Teilaufgaben. Diese sind mit bzw. zu kennzeichnen hinschreiben. Es müssen
Mehr2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren
2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;
Mehr7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012)
Technische Universität München Zentrum Mathematik, M1 Prof. Dr. Boris Vexler Dr. Ira Neitzel Dipl.-Math. Alana Kirchner 7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Diese Auswahl
Mehr8 Polynominterpolation
8 Polynominterpolation Interpolations-Aufgabe: Von einer glatten Kurve seien nur lich viele Punktewerte gegeben. Wähle einen lichdimensionalen Funktionenraum. Konstruiere nun eine Kurve in diesem Funktionenraum
MehrMathematische Grundlagen
Mathematische Grundlagen 1 / 16 Vektorraum u R n, u = (u 1,..., u n ), u k R Euklidisches Skalarprodukt Euklidische Vektornorm (u, v) = u k v k u 2 = (u, u) = n u 2 k Vektoren u, v R n heißen orthogonal,
MehrKapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen
Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung
MehrNumerisches Rechnen Panikzettel
panikzettel.philworld.de Numerisches Rechnen Panikzettel der Dude, Luca Oeljeklaus, Tobias Polock, Philipp Schröer, Caspar Zecha Version 9 0.03.208 Inhaltsverzeichnis Einleitung 2 2 Fehleranalyse: Kondition,
MehrBanach scher Fixpunktsatz. 1) D ist abgeschlossen und konvex; 2) f ist selbstabbildend, d.h. f(d) D;
Institut für Geometrie und Praktische Mathematik Höhere Mathematik IV (für Elektrotechniker und Technische Informatiker) - Numerik - SS 2007 Dr. S. Börm, Dr. M. Larin Banach scher Fixpunktsatz Gegeben
Mehr2 Direkte Lösungsverfahren für lineare Gleichungen
2 Direkte Lösungsverfahren für lineare Gleichungen Sei A R invertierbar und b R. Löse Ax = b genau und effizient. Die LR-Zerlegung Wir berechnen eine Zerlegung A = LR mit L, R R und den folgen Eigenschaften:
MehrNumerische Mathematik I für Ingenieure Multiple-Choice Klausuraufgaben Frühjahr 08
Numerische Mathematik I für Ingenieure Multiple-Choice Klausuraufgaen Frühjahr 08 Hier einige Hinweise zu den MC-Aufgaen. Die Lösungen sollten nicht auswendig gelernt werden. Man sollte verstehen, warum
Mehr4.6 Berechnung von Eigenwerten
4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.
MehrKLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.
MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw
MehrKapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen
Kapitel 2: Lineare Gleichungssysteme 21 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,,255}, n = 1,,N, m = 1,,M dig Camera Realisierung von B η ist
MehrWiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
MehrNumerische Mathematik
Numerische Mathematik Von Martin Hermann 2., überarbeitete und erweiterte Auflage Oldenbourg Verlag München Wien Vorwort zur ersten Auflage Vorwort zur zweiten Auflage V VII 1 Wichtige Phänomene des numerischen
MehrA 1 A 2 A 3 A 4 A 5 A 6 A 7
Institut für Geometrie und Praktische Mathematik Numerisches Rechnen für Informatiker WS 7/8 Prof. Dr. H. Esser J. Grande, Dr. M. Larin Klausur Numerisches Rechnen für Informatiker Hilfsmittel: keine (außer
Mehr(d) das zu Grunde liegende Problem gut konditioniert ist.
Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt
MehrNumerische Mathematik für Ingenieure (SoSe 2013)
Numerische Mathematik für Ingenieure (SoSe 2013) PD Dr(USA) Maria Charina Auszüge aus Vorlesungsfolien von Prof Joachim Stöckler werden verwendet Für die Bereitstellung dieses Materials und der Tex-Files
MehrEigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009
Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx
MehrKAPITEL 1. Einleitung
KAPITEL 1 Einleitung Wir beschäftigen uns in dieser Vorlesung mit Verfahren aus der Numerischen linearen Algebra und insbesondere dem sogenannten Mehrgitterverfahren zur Lösung linearer Gleichungssysteme
MehrIterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
MehrKAPITEL 5. Nichtlineare Gleichungssysteme
KAPITEL 5. Nichtlineare Gleichungssysteme Beispiel 5.1. Gravitationskraft zwischen zwei Punktmassen m 1 und m 2 mit gegenseitigem Abstand r: F = G m 1m 2 r 2, wobei G = 6.67 10 11 Nm 2 /kg. Gravitationsfeld
Mehry (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)
9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten
MehrDer CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
MehrKAPITEL 7. Berechnung von Eigenwerten. Av = λv
KAPITEL 7. Berechnung von Eigenwerten Aufgabe: Sei A R n n eine reelle quadratische Matrix. Gesucht λ C und v C n, v 0, die der Eigenwertgleichung Av = λv genügen. Die Zahl λ heißt Eigenwert und der Vektor
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der
Mehr3. Lineare Gleichungssysteme
3. Lineare Gleichungssysteme 1 3.1. Problemstellung 2 3.2. Direkte Verfahren 3 3.3. Normen und Fehleranalyse 4 3.4. Iterative Verfahren 5 3.5. Konvergenz von linearen Iterationsverfahren 6 3.6. Gradienten-Verfahren
MehrLineare Algebra. 10. Übungsstunde. Steven Battilana.
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,
MehrZusammenfassung Numerische Mathematik für Elektrotechniker
Zusammenfassung Numerische Mathematik für Elektrotechniker RWTH Aachen, SS 2006, Prof. Dr. W. Dahmen c 2006 by Sebastian Strache, Ralf Wilke Korrekturen bitte an Ralf.Wilke@rwth-aachen.de 27. August 2006
Mehr5 Interpolation und Approximation
5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
MehrKAPITEL 8. Interpolation
KAPITEL 8. Interpolation 8.2 Lagrange-Interpolationsaufgabe für Polynome Wir beschränken uns auf die Lagrange-Interpolation mit Polynomen. Der Raum der Polynome vom Grad n: Stützstellen: Π n = { n j=0
MehrLösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015
sskizzen der Klausur zur Linearen Algebra im Herbst 5 Aufgabe I. Es sei (G, ) eine Gruppe mit neutralem Element e und M {x G x x e}. Zeigen Sie: (a) Ist G kommutativ, so ist M eine Untergruppe von G. (b)
MehrLösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016
Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b
MehrZusammenfassung zu Numerische Mathematik I
Sara Adams Zusammenfassung zu Numerik I - WS 003/04 Inhaltsverzeichnis Zusammenfassung zu Numerische Mathematik I Sara Adams 11. August 004 Diese Zusammenfassung basiert auf der Vorlesung Numerische Mathematik
MehrNachklausur am Donnerstag, den 7. August 2008
Nachklausur zur Vorlesung Numerische Mathematik (V2E2) Sommersemester 2008 Prof. Dr. Martin Rumpf Dr. Martin Lenz Dipl.-Math. Nadine Olischläger Nachklausur am Donnerstag, den 7. August 2008 Bearbeitungszeit:
MehrInhaltsverzeichnis. 1 Einleitung... 1
Inhaltsverzeichnis 1 Einleitung................................................. 1 2 Fehleranalyse: Kondition, Rundungsfehler, Stabilität...... 11 2.1 Kondition eines Problems................................
MehrSpline-Interpolation
Spline-Interpolation Tim Schmölzer 20 November 2009 Tim Schmölzer Spline-Interpolation 20 November 2009 1 / 38 Übersicht 1 Vorbemerkungen 2 Lösbarkeit des Interpolationsproblems 3 Stabilität der Interpolation
MehrLineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
MehrI f AM. 2. Übung zur Numerischen Mathematik I. Hausübung. Hannover, den
Hannover, den 14.10.2002 1. Übung zur Numerischen Mathematik I Aufgabe 1.1 Man nde das Interpolationspolynom p 2 P 2, das die Funktion f(x) = cos(x) in den Punkten x k := π 2 + π k n, h = 1 n, k = 0,...,
MehrFachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen
Fachbereich Mathematik/Informatik 6. Juni 0 Prof. Dr. H. Brenner Mathematik für Anwender II Testklausur mit Lösungen Aufgabe. Definiere die folgenden (kursiv gedruckten) Begriffe. () Ein Skalarprodukt
Mehr6. Polynom-Interpolation
6. Polynom-Interpolation 1 6.1. Klassische Polynom-Interpolation 2 6.2. Lösung mit Hilfe Lagrange scher Basisfunktionen 3 6.3. Lösung mit Hilfe Newton scher Basisfunktionen 4 6.4. Fehlerabschätzung für
Mehr6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme
6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear
MehrModulprüfung Numerische Mathematik 1
Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel
MehrNumerische Mathematik
».- Numerische Mathematik Von Dr. sc. math. Hans Rudolf Schwarz o. Professor an der Universität Zürich Mit einem Beitrag von Dr. sc. math. Jörg Waldvogel Titularprofessor an der Eidg. Technischen Hochschule
MehrNewton-Verfahren für ein Skalarfunktion
Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren
MehrInexakte Newton Verfahren
Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n
Mehr18.4 Das Newton-Verfahren
18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift
Mehr4 Lineare Ausgleichsrechnung
Numerik I 15 4 Lineare Ausgleichsrechnung Die folgende Tabelle zeigt die Bevölkerungsentwicklung in den U.S.A. 19 191 192 193 194 75.995 91.972 15.711 123.23 131.669 195 196 197 198 199 15.697 179.323
MehrKlausur zur Vordiplom-Prüfung
Technische Universität Hamburg-Harburg SS 25 Arbeitsbereich Mathematik Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren 22. Juli 25 Sie haben 9 Minuten Zeit zum Bearbeiten der
Mehr5 Iterationsverfahren für lineare Gleichungssysteme
5 Iterationsverfahren für lineare Gleichungssysteme Klassische Iterationsverfahren Sei A R N N und b R N. Wir wollen nun das LGS Ax = b iterativ lösen. Dazu betrachten wir die Komponenten m = 1,...,N:
Mehrbekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR
LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine
MehrÜbungen zu Lineare Algebra und Geometrie 1
Übungen zu Lineare Algebra und Geometrie 1 Andreas Čap Sommersemester 2015 Wiederholung grundlegender Begriffe (1 Bestimme Kern und Bild der linearen Abbildung f : R 3 R 3, die gegeben ist durch f(x, y,
Mehr3.6 Approximationstheorie
3.6 Approximationstheorie Bisher haben wir uns im Wesentlichen mit der Interpolation beschäftigt. Die Approximation ist weiter gefasst: wir suchen eine einfache Funktion p P (dabei ist der Funktionenraum
MehrKAPITEL 10. Numerische Integration
KAPITEL 10. Numerische Integration 10.1 Einleitung Sei Es gilt I Ĩ = b I = b a a f(x) f(x) dx f(x) dx, Ĩ = b b a f(x) dx. a f(x) f(x) dx (b a) f f. I Ĩ I (b a) f f b a f(x) dx = ba f dx b a f(x) dx f f
MehrMathematik für Ingenieure 1
A. Hoffmann B. Marx W. Vogt Mathematik für Ingenieure 1 Lineare Algebra, Analysts Theorie und Numerik PEARSON Studium ein Imprint von Pearson Education München Boston San Francisco Harlow, England Don
Mehr7 Lineare Abbildungen und Skalarprodukt
Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u
Mehr5 Numerische Iterationsverfahren
In diesem Kapitel besprechen wir numerische Iterationsverfahren (insbesondere Fixpunktverfahren) als eine weitere Lösungsmethode zur Lösung von linearen Gleichungssystemen (Kapitel 4) sowie zur Lösung
MehrErweiterungen der LR-Zerlegung
Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen
MehrNichtlineare Gleichungssysteme
Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei
Mehr12.2 Gauß-Quadratur. Erinnerung: Mit der Newton-Cotes Quadratur. I n [f] = g i f(x i ) I[f] = f(x) dx
12.2 Gauß-Quadratur Erinnerung: Mit der Newton-Cotes Quadratur I n [f] = n g i f(x i ) I[f] = i=0 b a f(x) dx werden Polynome vom Grad n exakt integriert. Dabei sind die Knoten x i, 0 i n, äquidistant
Mehr10 Unitäre Vektorräume
10 Unitäre Vektorräume Pink: Lineare Algebra 2014/15 Seite 98 10 Unitäre Vektorräume Die Theorie komplexer Vektorräume mit Skalarprodukt folgt denselben Linien wie die Theorie reeller Vektorräume mit Skalarprodukt;
Mehr8 Interpolation. 8.1 Problemstellung. Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen. x 0 < x 1 <... < x n.
8 Interpolation 81 Problemstellung Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen x 0 < x 1 < < x n Eingabedaten: (x 0, f 0 ),(x 1, f 1 ),,(x n, f n ) Gegebene Daten (x j, f j ) Analysis
MehrLösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink
Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung
MehrBeispiele. Grundlagen. Kompakte Operatoren. Regularisierungsoperatoren
Beispiele Grundlagen Kompakte Operatoren Regularisierungsoperatoren Transportgleichung Dierenzieren ( nx ) (f δ n ) (x) = f (x) + n cos, x [0, 1], δ Regularisierung!! Inverse Wärmeleitung Durc f (f δ n
Mehr35 Stetige lineare Abbildungen
171 35 Stetige lineare Abbildungen Lernziele: Konzepte: Lineare Operatoren und ihre Normen Resultate: Abschätzungen für Matrizennormen Kompetenzen: Abschätzung von Operatornormen 35.1 Lineare Abbildungen.
Mehra b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,
Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist
MehrProseminar Lineare Algebra II, SS 11. Blatt
Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2
MehrLineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte
Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)
MehrVektor und Matrixnormen Vorlesung vom
Vektor und Matrixnormen Vorlesung vom 20.12.13 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse
MehrKapitel 4: Nichtlineare Nullstellenprobleme
Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 4: Nichtlineare Nullstellenprobleme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 2015 HM: Numerik (SS
MehrLineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching
Lineare Algebra 12. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 14, 2017 1 Erinnerung: Determinanten, Orthogonale/unitäre Matrizen Sei A R 2 2, dann kann die Inverse
Mehr5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme
5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme Als zweite Hauptanwendung des Banachschen Fixpunktsatzes besprechen wir in diesem Kapitel die iterative Lösung linearer Gleichungssysteme. Die
MehrIII. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische lineare Iterationsverfahren
III. Iterative Löser III.1 Direkte Löser und ihre Nachteile III.2 Klassische lineare Iterationsverfahren Typeset by FoilTEX 1 Erinnerung: Lineares Gleichungssystem bei FDM Diskretisierung einer linearen
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
MehrMethode der kleinsten Quadrate
Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,
Mehr= ( n x j x j ) 1 / 2
15 Skalarprodukte 77 15 Skalarprodukte 15.1 Einführung. a) Ab jetzt sei stets K = R oder K = C, da Wurzeln eine wichtige Rolle spielen werden. b) Nach dem Satz des Pythagoras ist die Länge eines Vektors
MehrAUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW
AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW Lineare Gleichungssysteme Lösen Sie folgende Gleichungssysteme über R: a) x + x + x = 6x + x + x = 4 x x x = x 7x x = 7 x x = b) x + x 4x + x 4 = 9 x + 9x x x
MehrKlausur zur Vordiplom-Prüfung
Technische Universität Hamburg-Harburg SS Arbeitsbereich Mathematik Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren. Juli Sie haben Minuten Zeit zum Bearbeiten der Klausur. Bitte
MehrInhaltsverzeichnis. 1 Einleitung... 1
Inhaltsverzeichnis 1 Einleitung... 1 2 Fehleranalyse: Kondition, Rundungsfehler, Stabilität... 11 2.1 KonditioneinesProblems... 11 2.1.1 ElementareBeispiele... 12 2.1.2 Bemessen,Normen... 15 2.1.3 RelativeundAbsoluteKondition...
MehrAufgabe I.1 (4 Punkte) Gegeben seien die Matrix H := und die Menge L := {A R 4 4 A HA = H} Zeigen Sie:
Aufgabe I (4 Punkte Gegeben seien die Matrix und die Menge Zeigen Sie: H := L := {A R 4 4 A HA = H} a L ist bezüglich der Matrizenmultiplikation eine Gruppe b Die Matrizen der Form ( E O, O B wobei E R
MehrKapitel 3. Konvergenz von Folgen und Reihen
Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden
MehrNumerische Mathematik
Numerische Mathematik Von Prof. Dr. sc. math. Hans Rudolf Schwarz Universität Zürich Mit einem Beitrag von Prof. Dr. sc. math. Jörg Waldvogel Eidg. Technische Hochschule Zürich 4., überarbeitete und erweiterte
Mehr5 Numerische Mathematik
6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
MehrFinite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015
Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 5 Aufgabe 8 (Speichertechniken) Finite Elemente Übung 5 a) Stellen Sie die Matrix
MehrDie Interpolationsaufgabe besteht darin, eine (einfache) Funktion u n U n zu finden,
Kapitel 3 Interpolation 31 Einführung Bemerkung 31 Motivation, Aufgabenstellung Gegeben seien eine Funktion f C([a,b]) und x i [a,b], i = 0,n, mit a x 0 < x 1 < < x n b (31) Die Interpolationsaufgabe besteht
MehrÜbungen zu Lineare Algebra und Geometrie für LAK
Übungen zu Lineare Algebra und Geometrie für LAK Andreas Cap Wintersemester 2010/11 Wiederholung grundlegender Begriffe (1) Bestimme Kern und Bild der linearen Abbildung f : R 3 R 3, die gegeben ist durch
MehrGaußsche Ausgleichsrechnung
Kapitel 6 Gaußsche Ausgleichsrechnung 6. Gaußsche Methode der kleinsten Fehlerquadrate Die Gaußsche Methode der kleinsten Fehlerquadrate wurde 89 von C.F. Gauß in dem Aufsatz Theorie der Bewegung der Himmelkörper
Mehr3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
Mehr