3 Eigenwertberechnung

Größe: px
Ab Seite anzeigen:

Download "3 Eigenwertberechnung"

Transkript

1 3 Eigenwertberechnung (3.) Definition Eine Matrix A R, heißt (obere) Block-Dreiecksmatrix, wenn ein n existiert, sodass A[n + :, : n] = 0 gilt, d.h.: A = ( ) A[ : n, : n] A[ : n,n + : ] 0 A[n + :,n + : ] Sie heißt reduzibel, wenn eine Permutationsmatrix P existiert, so dass PAP T Block-Dreiecksmatrix ist. Sie heißt irreduzibel, wenn keine Permutationsmatrix P existiert, so dass PAP T Block- Dreiecksmatrix ist. Für reduzible Matrizen lässt sich die Eigenwertberechnung in zwei kleinere Probleme (der Größe n und n) unterteilen. (3.) Definition Eine Matrix H R, heißt (obere) Hessenberg-Matrix, wenn H[n + :,n] = 0 n für n =,..., gilt. Eine Hessenbergmatrix ist reduzibel, falls H[n +, n] = 0 für ein 0 < n <. Symmetrische Hessenbergmatrizen sind tridiagonal. (3.3) Satz Sei A R,. Dann existiert eine orthogonale Matrix Q R,, so dass H = QAQ T eine Hessenberg-Matrix ist. Die Berechnung von Q benötigt O( 3 ) Operationen. Beweis. Induktion über. Für < 3 ist nichts zu zeigen. 3: Definiere x R mit: x[] = 0, x[ : ] = A[ :,].Fall: x[3 : ] = 0 Dann setze Q := I, A := A..Fall: x[3 : ] 0 Setze { x, x[] > 0 σ = x, x[] 0, ( w = x σe ) R, Damit ergibt sich x[] σ Q = I βww T mit β := w T w. A[,] A [, : ] A := Q AQ T = σ A 0 3

2 mit A [, : ] = A[, : ] β(a[, : ]w[ : ]w T [ : ]) A = (I βw[ : ]w T [ : ])A[ :, : ](I βw[ : ]w T [ : ]). ach Induktionsvoraussetzung existiert eine orthogonale Matrix Q R,, so dass H = Q A Q T eine obere Hessenberg-Matrix ist. Setze ( ) 0 Q := Q 0 Q. Somit folgt ( ) ( ) QAQ T 0 T = 0 T A[,] A[; : ]Q T A 0 Q = σ = H. 0 Q H O Damit ist der Induktionsschritt bewiesen. Zum Aufwand: In jedem Schritt werden O( ) Operationen benötigt, insgesamt also O( 3 ) Operationen. Wenn A symmetrisch ist, dann ist H = QAQ T eine Tridiagonalmatrix. (3.4) Satz Sei A R, symmetrisch, tridiagonal und irreduzibel, d.h. A[n,n] = A[n,n ] 0 und A[n + :,n] = A[n,n + : ] T = 0 n. Für das Spektrum von A gelte σ(a) (λ,λ). a) Die charakteristischen Polynome P n (t) = det ( A[ : n, : n] ti n ) der Hauptuntermatrizen lassen sich durch eine Dreitermrekursion berechnen: Setze P 0, P (t) = A[,] t, P n (t) = (A[n,n] t)p n (t) A[n,n] P n (t), n =,...,. b) Sie bilden eine Sturmsche Kette: Für die ullstellen λ n λ n λ n n von P n gilt λk n < λ k n < λ k n (mit λ n 0 = λ und λ n n+ = λ). c) Für t (λ,λ) gilt λ n k < t λ n k+ mit k = W n (t) und W n (t) = # { j {,...,n}: P j (t)p j (t) < 0 oder P j (t) = 0 }. 4

3 function A = hessenberg(a) = size(a,); for n = :- [v,beta] = householder(a(n+:,n)); if beta ~= 0 w = beta * A(:,n+:) * v; A(:,n+:) = A(:,n+:) - w * v ; w = beta * v * A(n+:,n:); A(n+:,n:) = A(n+:,n:) - v * w; A(n+:,n) = v(:-n); function Q = hessenbergrotation(a) = size(a,); Q = eye(); for n = :- v = [;A(n+:,n)]; beta = / (v * v); if beta ~= w = beta * v * Q(n+:,:); Q(n+:,:) = Q(n+:,:) - v * w; function A = symmetric_hessenberg(a) = size(a,); for n = :- [v,beta] = householder(a(n+:,n)); if beta ~= 0 w = beta * A(n:,n+:) * v; A(n:,n+:) = A(n:,n+:) - w * v ; w = beta * v * A(n+:,n:); A(n+:,n:) = A(n+:,n:) - v * w; Abbildung 6: Berechnung der Hessenberg-Transformation für allgemeine Matrizen mit Abspeicherung der Householder-Vektoren, Rekonstruktion der orthogonalen Transformationsmatrix, und Berechnung der Hessenberg-Transformation für symmetrische Matritzen ohne Abspeicherung der Householder-Vektoren. 5

4 Beweis. zu a) Übung. zu b) und c) Induktion über n. Sei n =. Dann gilt λ = A[,] (λ,λ), also λ 0 0 = λ < λ < λ = λ 0, und für t (λ,λ) gilt: Für W (t) = 0 ist P 0 (t)p (t) 0, also t A[,] und λ 0 < t λ. Für W (t) = ist somit t > A[,] mit λ < t λ. n n + : ach Induktionsvoraussetzung ist P n (λk n) 0. Damit ergibt sich aus a) P n+(λk n) = A[n,n + ] P n (λk n ) 0 und somit P n+ (λ n k )P n (λ n k ) < 0. () ach Induktionsvoraussetzung hat P n ( ) genau eine ullstelle in (λk n,λ k n ) hat. Daraus folgt P n (λk n )P n (λk n) < 0 und mit () gilt dann P n+(λk n )P n+(λk n ) < 0. Somit existiert auch eine ullstelle von P n+ ( ) in (λk n,λ k n ). Somit existieren mindestens n ullstellen von P n+ ( ) in (λ n,λ n n ). Analog folgt die Existenz von jeweils einer ullstelle von P n+ ( ) in (λ,λ n) und (λ n n,λ). Also gilt für alle n + ullstellen λk n < λ k n+ < λk n. Aus k = W n(t) folgt λk n < t λ k n und P n (t)p n+ (t) = k i= (λi n t)(λi n+ t) }{{} 0 (λk n+ Daher gilt P n (t)p n+ (t) 0 genau dann, wenn λ n+ k t) n i=k t. Das ergibt (λi n t)(λk+ n+ }{{ t). } 0 W n+ (t) = k λk n+ t λk n > λ k n+, W n+ (t) = k + λk n+ < t < λk n < λ k+ n+. Im Folgen sei stets A R, symmetrisch mit Eigenwerten λ,...,λ und OB aus Eigenvektoren v,...,v. Dann gilt A = λ n v n (v n ) T. (3.5) Definition Der Rayleigh-Quotient ist definiert durch r(a,x) = xt Ax x T x, x R, x 0. (3.6) Satz Sei λ = ρ(a) und λ n < λ für n =,...,. Dann gilt für alle w R mit w T v > 0: lim k r(a,ak w) = λ, lim k A k w A k w = v. 6

5 Beweis. Es gilt Somit folgt da und A k w = A k (w T v n )λ n v n = r(a,a k w) = (Ak w) T AA k k+ w λ (A k w) T (A k w) = lim k λ k ( λn λ (w T v n )λ k n v n = λ k ( λn ) k+ λ (w T v n ) ( ) k λn λ (w T v n ) ) k = {, n = 0, n ( λn λ A k w A k w k wt v (w T v ) v = v. ) k (w T v n )v n k (w T v ) λ (w T v ) = λ, (3.7) Satz Sei w R mit w = und λ = r(a,w). Dann gilt min λ λ n Aw λw.,..., Beweis. Es gilt w = (wt v n )v n und damit = w = wt w = (wt v n ). Ferner Aw λw = λ n (w T v n )v n λ(w T v n )v n = = λ n λ (w T v n ) min λ n λ,..., = min λ n λ.,..., (λ n λ)(w T v n )v n (w T v n ) (3.8) Definition Eine konvergente Folge (d k ) k in R mit Grenzwert d konvergiert (a) linear, wenn c (0,) und k 0 existieren mit d k+ d c d k d für k k 0 (b) superlinear, wenn zu jedem ε > 0 ein k 0 existiert mit d k+ d ε d k d für k k 0 7

6 (c) von der Ordnung p >, wenn C > 0 existiert mit d k+ d C d k d p. Wenn der größte Eigenwert isoliert ist, konvergiert die einfache Vektoriteration linear (Satz 3.6). Mit Satz 3.7 erhalten wir ein Abbruchkriterium für die Iteration. Inverse Iteration mit variablem Shift S) Wähle z 0 R, z 0 0, ε 0. Setze k = 0. S) Setze w k = z k z k, s k = r(a,w k ). S3) Falls Aw k s k w k ε STOP. S4) z k+ = (A s k I ) w k S5) Setze k := k +, gehe zu S). (3.9) Satz Wenn der Startvektor z 0 hinreich nahe bei einem Eigenvektor v m mit isoliertem Eigenwert λ m liegt, konvergiert die Inverse Iteration mit variablem Shift kubisch (d.h. von der Ordnung p = 3). Beweis. Setze v = v m und λ = λ m mit Av = λv und v T v =. Da λ ein isolierter Eigenwert ist, existiert ein ρ > 0 mit (λ ρ,λ + ρ) σ(a) = {λ}. Der Beweis erfolgt in vier Schritten. (i) Definiere w k = w k (v T w k )v. Dann ist w k = (v T w k )v + w k eine orthogonale Zerlegung mit ( w k ) T v = 0 und = w k = (vt w k ) + w k. Also existiert ein ϕ k [0,π/] mit v T w k = cos(ϕ k ) und w k = sin(ϕ k ), woraus wir folge Darstellung erhalten: w k = cos(ϕ k )v + sin(ϕ k )ŵ k, ŵ k = wk w k. Wir zeigen nun die Abschätzung sin(ϕ k+ ) C sin(ϕ k ) 3. Dann konvergiert w k kubisch gegen einen Eigenvektor von A. (ii) Es gilt Aw k = λ cos(ϕ k )v + sin(ϕ k )Aŵ k. Daraus folgt [ ] s k = λ cos(ϕ k ) + sin(ϕ k ) (ŵ k ) T Aŵ k = λ + sin(ϕ k ) (ŵ k ) T Aŵ k λ und wegen λ A sowie (ŵ k ) T Aŵ k A : (iii) Weiterhin haben wir also (für cos(ϕ k ) > 0) s k λ sin(ϕ k ) ( A ). z k+ = (A s k I ) w k = cos(ϕ k) λ s k v + sin(ϕ k )(A s k I n ) ŵ k, () z k+ cosϕ k λ s k 8 z k+ λ s k cosϕ k.

7 Ferner gilt (A s k I ) ŵ k = ( (λ n s k ) (ŵ k ) T v n) v n. n m (iv) Sei z k so nahe bei v, dass A sin(ϕ k ) ρ und cos(ϕ k) > / gilt. Dann folgt mit (ii) λ s k ρ, und mit der Bedingung an ρ für n m λ n s k ρ. Hiermit erhalten wir (A s k I ) ŵ k ρ. Aus w k+ = z k+ z k+ = cos(ϕ k+ )v + sin(ϕ k+ )ŵ k+ und () folgt sin(ϕ k+ ) = sin(ϕ k)(a s k I ) ŵ k z k+ (iii) sin(ϕ k ) 4 ρ λ s k (ii) 8 A ρ sin(ϕ k ) 3. QR-Iteration mit Shift S0) Gegeben sei A R, symmetrisch. Berechne A 0 = QAQ T tridiagonal (Hessenberg-Transformation). Wähle ε 0. Setze k = 0. S) Falls A k [n +,n] ε für ein n: Getrennte Eigenwertberechnung für A k [ : n, : n] und A k [n + :,n + : ]. S) Berechne d k = (A k[, ] A k [,]) und s k = A k [,] + d k sgn(d k ) dk + A k[,]. S3) Berechne eine QR-Zerlegung und setze Q k R k = A k s k I A k+ = R k Q k + s k I. S4) Setze k := k +, gehe zu S). 9

8 Es gilt A k+ = R k Q k + s k I = Q T k (A k s k I )Q k + s k I = Q T k A kq k. (3) Somit wird A in jedem Schritt nur mit orthogonalen Matrizen transformiert, die Eigenwerte ändern sich nicht. Da wir die QR-Iteration auf tridiagonale irreduzible Matrizen anwen, sind alle Eigenwerte verschieden, vgl. Satz (3.4). Dann lässt sich zeigen, dass die QR-Iteration (ohne variablen Shift) gegen eine Diagonalmatrix konvergiert (lineare Konvergenz). Mit variablem Shift ist die Konvergenz weit besser. (3.0) Satz Falls in S) der Shift s k = A k [,] gewählt wird, entspricht die QR-Iteration der Inversen Iteration mit variablem Shift für die Matrix A 0 und den Startvektor z 0 = e. Beweis. Sei z 0 = e. Im ersten Schritt gilt w 0 = z 0 = e und s 0 = r(a 0,e ) = A 0 [,]. Es genügt w k = Q 0 Q Q k e zu zeigen, denn dann folgt aus (3) s k = r(a 0,w k ) = r(a k,w 0 ) = A k [,]. Da A k symmetrisch ist, gilt A k s k I = Q k R k = R T k QT k. Aus zk+ = (A 0 s 0 I ) w k folgt also e = Q T k QT 0 w k = Q T k QT 0 (A 0 s k I )z k+ = (A s k I )Q T k QT 0 z k+ = R T k QT k QT k QT 0 z k+, Q T k QT k QT 0 z k+ = R T k e = R k [,] e. Daraus folgt z k+ = R k [,] und somit die Behauptung w k+ = z k+ z k+ Q 0 Q k e. (3.) Satz (Gerschgorin) Zu A R, sind die Gerschgorin-Kreise durch K n = { λ C: λ A[n,n] A[n,k] }, k n n =,..., definiert. Dann gilt σ(a) K n. Beweis. Sei λ σ(a). Dann existiert ein w R \{0} mit Aw = λw. Also existiert ein n {,...,} mit 0 w n w m, m =,...,. 30

9 function [c,s] = givens_parameter(a,b) if b == 0.0 c =.0; s = 0.0; else if abs(b) > abs(a) t = -a/b; s = /sqrt(+t^); c = s*t; else t = -b/a; c = /sqrt(+t^); s = c*t; function A = givens_transformation(a,g,k) = size(a,); if k> && k<- && >=3 ind = k-:k+; elseif k==- && >=3 ind = -:; elseif k== && >=3 ind = :3; elseif == ind = :; A([k k+],ind) = G * A([k k+],ind); A(ind,[k k+]) = A(ind,[k k+]) * G; function lambda = qr_iteration(a,tol) = size(a,); H = symmetric_hessenberg(a); while h00 = H(-,-); h0 = H(,-); h = H(,); if (abs(h0) < tol*abs(h+h00)), = -; if <, break; d = (h00 - h)/; if d ~= 0, mu = h + d - sign(d)*sqrt(d^+h0^); else, mu = h - h0; a = H(,) - mu; b = H(,); for k = :- [c,s] = givens_parameter(a,b); H = givens_transformation(h,[c,s;-s,c],k); if k<-, a = H(k+,k); b = H(k+,k); lambda = diag(h) Abbildung 7: QR-Iteration mit implizitem Shift. 3

10 Damit folgt A[n, : ]w = λw n (A[n,n] λ)w n = A[n,m]w m m n A[n,n] λ w n m n λ A[n,n] A[n,m] λ K n. m n A[n,m] w m w n A[n, m] m n Für irreduzible Matrizen gilt eine Verschärfung: Die Eigenwerte liegen im Inneren der Gershgorin-Kreise oder auf dem Durchschnitt der Ränder der Gershgorin-Kreise. (3.) Satz (Courant-Hilbert) Sei A R, symmetrisch mit Eigenwerten λ λ λ. λ n = max dims=n λ + n = min dims=n min r(a,x), 0 x S max r(a,x). 0 x S Beweis. Es sei VAV T = diag(λ,...,λ ) mit V = (v... v ) orthogonal. Dann gilt A = λ n v n (v n ) T. : Setze S n := span{v,...,v n }. Dann gilt für x S n : x T Ax = λ k (x T v k ) = k= Damit folgt r(a,x) = xt Ax x T x λ n und somit n k (x k=λ T v k ) n λ n (x T v k ) = λ n x T x. k= λ n = r(a,v n ) = min x S n x 0 r(a,x) max : Wähle S R,dimS = n. Es gilt dim( S ein y S mit y = k=n (yt v k )v k. Also gilt }{{} dimn min dims=n x S λ n r(a,y) min x S x 0 r(a,x). x 0 r(a,x). span{v n,...,v }). Also existiert }{{} dim n+ Da S beliebig war, folgt die Behauptung. 3

LR-Zerlegung. N = size(a,1); for n=1:n-1 A(n+1:N,n) = A(n+1:N,n)/A(n,n); A(n+1:N,n+1:N) = A(n+1:N,n+1:N) - A(n+1:N,n) * A(n,n+1:N); end;

LR-Zerlegung. N = size(a,1); for n=1:n-1 A(n+1:N,n) = A(n+1:N,n)/A(n,n); A(n+1:N,n+1:N) = A(n+1:N,n+1:N) - A(n+1:N,n) * A(n,n+1:N); end; LR-Zerlegung N = size(a,1); for n=1:n-1 A(n+1:N,n) = A(n+1:N,n)/A(n,n); A(n+1:N,n+1:N) = A(n+1:N,n+1:N) - A(n+1:N,n) * A(n,n+1:N); x = b; for n=2:n x(n) = x(n) - A(n,1:n-1) * x(1:n-1); for n=n:-1:1 x(n)

Mehr

1 Euklidische Approximation

1 Euklidische Approximation 1 Euklidische Approximation Sei V ein reeller euklidischer Vektorraum. Das Skalarprodukt in V wird mit, V und die Norm mit V bezeichnet. V N V sei ein Teilraum der Dimension N < mit Basis {φ n } n=1,...,n.

Mehr

Begleitmaterial zur Vorlesung Numerik II

Begleitmaterial zur Vorlesung Numerik II Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik

Mehr

4.6 Berechnung von Eigenwerten

4.6 Berechnung von Eigenwerten 4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.

Mehr

KAPITEL 7. Berechnung von Eigenwerten. Av = λv

KAPITEL 7. Berechnung von Eigenwerten. Av = λv KAPITEL 7. Berechnung von Eigenwerten Aufgabe: Sei A R n n eine reelle quadratische Matrix. Gesucht λ C und v C n, v 0, die der Eigenwertgleichung Av = λv genügen. Die Zahl λ heißt Eigenwert und der Vektor

Mehr

Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB)

Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Prof. R. Leithner, Dipl. Phys. E. Zander Wintersemester 2010/2011 Kapitel 6 Eigenwerte

Mehr

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009 Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx

Mehr

2 Direkte Lösungsverfahren für lineare Gleichungen

2 Direkte Lösungsverfahren für lineare Gleichungen 2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei L R N N eine normierte untere Dreiecksmatrix und b R N. Dann ist L invertierbar und das Lineare Gleichungssystem (LGS) Ly = b ist mit O(N 2

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

Übungsblatt 12 Musterlösung

Übungsblatt 12 Musterlösung NumLinAlg WS56 Übungsblatt 2 Musterlösung Lösung 44 (QR-Algorithmus mit Wilkinson-Shift und Deflation) a)+b) Die QR-Iteration zur Berechnung aller Eigenwerte einer Matrix A kann wie folgt implementiert

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Lineare Algebra und Geometrie II, Übungen

Lineare Algebra und Geometrie II, Übungen Lineare Algebra und Geometrie II, Übungen Gruppe (9 9 45 ) Sei A 2 Bestimmen Sie A und A Finden Sie weiters Vektoren u, v R 2 mit u und Au A, beziehungsweise v und Av A Zunächst die Berechnung der Norm

Mehr

20 Kapitel 2: Eigenwertprobleme

20 Kapitel 2: Eigenwertprobleme 20 Kapitel 2: Eigenwertprobleme 2.3 POTENZMETHODE Die Potenzmethode oder Vektoriteration ist eine sehr einfache, aber dennoch effektive Methode zur Bestimmung des betragsmäßig größten Eigenwertes. Um die

Mehr

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist

Mehr

1 Euklidische Approximation

1 Euklidische Approximation 1 Euklidische Approximation Sei V ein reeller euklidischer Vektorraum. Das Skalarprodukt in V wird mit, V und die Norm mit V bezeichnet. V N V sei ein Teilraum der Dimension N < mit Basis {φ n N } n=1,...,n.

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

Lanczos Methoden. Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann. 15.

Lanczos Methoden. Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann. 15. Lanczos Methoden Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann 15. Juni 2005 Lanczos-Methoden Lanczos-Methoden sind iterative Verfahren zur

Mehr

2 Direkte Lösungsverfahren für lineare Gleichungen

2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei x = (x n ) n=1,...,n R N, A = (a m,n ) m=1,...,m, n=1,...,n R M,N. a) Sei 1 m n N. Dann ist x[m : n] = (x k ) k=m,...,n R 1+n m Teilvektor von x. b) Seien 1 m 1 m 2 M, 1 n 1 n 2 N. Dann ist A[m

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Oliver Ernst Professur Numerische Mathematik Wintersemester 2015/16 Inhalt I 1 Einleitung 1.1 Lineare Gleichungssysteme 1.2 Matrixfunktionen 1.3 Modellreduktion 1.4 Eigenwertaufgaben

Mehr

1 Euklidische Approximation

1 Euklidische Approximation 1 Euklidische Approximation Sei V ein reeller euklidischer Vektorraum. Das Skalarprodukt in V wird mit, V und die Norm mit V bezeichnet. V N V sei ein Teilraum der Dimension N < mit Basis {φ n } n=1,...,n.

Mehr

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

51 Numerische Berechnung von Eigenwerten und Eigenvektoren 5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,

Mehr

III Das Symmetrische Eigenwertproblem (SEP)

III Das Symmetrische Eigenwertproblem (SEP) III Das Symmetrische Eigenwertproblem (SEP) III3 Algorithmen für symmetrische tridiagonale Eigenwertprobleme Sei im folgenden a b A = b a b b n a n b n b n a n R n n, zb nach Householder- oder Lanczos(im

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=

Mehr

2 EIGENWERTPROBLEME. Av = λv

2 EIGENWERTPROBLEME. Av = λv EIGENWERTPROBLEME Viele numerische Lösungsansätze von z.b. physikalischen Problemen erfordern die Lösung eines sogenannten Eigenwertproblems. Zu einer Matrix A R n n finde man eine Zahl λ C und einen Vektor

Mehr

Einführung in die Grundlagen der Numerik

Einführung in die Grundlagen der Numerik Einführung in die Grundlagen der Numerik Institut für Numerische Simulation Rheinische Friedrich-Wilhelms-Universität Bonn Wintersemester 2014/2015 Definition Eigenwertproblem Zu einer Matrix A R n n sind

Mehr

Sommer 2017 Musterlösung

Sommer 2017 Musterlösung Sommer 7 Musterlösung. (5 Punkte) a) Sei V ein Vektorraum über K und sei T End(V ). Geben Sie die Definition eines Eigenwertes von T und zeigen Sie für endlichdimensionales V, dass λ K genau dann ein Eigenwert

Mehr

Jordan-Form. Eine komplexe quadratische Matrix A lässt sich durch eine Ähnlichkeitstranformation auf die Blockdiagonalform. = Q 1 AQ 0 J k J =

Jordan-Form. Eine komplexe quadratische Matrix A lässt sich durch eine Ähnlichkeitstranformation auf die Blockdiagonalform. = Q 1 AQ 0 J k J = Jordan-Form Eine komplexe quadratische Matrix A lässt sich durch eine Ähnlichkeitstranformation auf die Blockdiagonalform J 1 0 J =... = Q 1 AQ 0 J k transformieren. Jordan-Form 1-1 Jordan-Form Eine komplexe

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

1 Euklidische Approximation

1 Euklidische Approximation 1 Euklidische Approximation Sei V ein reeller euklidischer Vektorraum. Das Skalarprodukt in V wird mit, V und die Norm mit V bezeichnet. V N V sei ein Teilraum der Dimension N < mit Basis {φ n } n=1,...,n.

Mehr

D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Musterlösung 13. (A ± I)x = 0 Ax ± x = 0 Ax = ±x Ax = λx

D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Musterlösung 13. (A ± I)x = 0 Ax ± x = 0 Ax = ±x Ax = λx D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung Musterlösung 13 1. Die Matrix A±I ist singulär falls es einen Vektor x 0 gibt der die Gleichung (A±I)x = 0 erfüllt, d.h. wenn A ± I als

Mehr

6. Normale Abbildungen

6. Normale Abbildungen SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische

Mehr

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse

Mehr

Symmetrische Gleichungssysteme Das Verfahren konjugierter Gradienten

Symmetrische Gleichungssysteme Das Verfahren konjugierter Gradienten Symmetrische Gleichungssysteme Das Verfahren konjugierter Gradienten 1 / 20 Lineares Gleichungssystem Ax = f, n A[i, j]x j = f i j=1 für i = 1,..., n Voraussetzungen Matrix A sei symmetrisch: A[i, j] =

Mehr

Mathematische Grundlagen

Mathematische Grundlagen Mathematische Grundlagen 1 / 16 Vektorraum u R n, u = (u 1,..., u n ), u k R Euklidisches Skalarprodukt Euklidische Vektornorm (u, v) = u k v k u 2 = (u, u) = n u 2 k Vektoren u, v R n heißen orthogonal,

Mehr

MODULPRÜFUNG MODUL MA 1302 Einführung in die Numerik

MODULPRÜFUNG MODUL MA 1302 Einführung in die Numerik ................ Note Name Vorname 1 I II Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT

Mehr

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 12. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 14, 2017 1 Erinnerung: Determinanten, Orthogonale/unitäre Matrizen Sei A R 2 2, dann kann die Inverse

Mehr

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q:

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q: Lineare Algebra D-MATH, HS 214 Prof Richard Pink Serie 5 1 [Aufgabe] Invertieren Sie folgende Matrizen über Q: 1 a) 1 1 1 1 1 2 1 1 1 b) 1 2 1 1 1 1 2 1 1 1 1 2 1 2 3 1 c) 1 3 3 2 2 1 5 3 1 2 6 1 [Lösung]

Mehr

8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren

8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren 8. Vorlesung, 5. April 2017 170 004 Numerische Methoden I Eigenwerte und Eigenvektoren 1 Eigenwerte und Eigenvektoren Gegeben ist eine n n-matrix A. Gesucht sind ein vom Nullvektor verschiedener Vektor

Mehr

2 EIGENWERTPROBLEME. Av = λv

2 EIGENWERTPROBLEME. Av = λv EIGENWERTPROBLEME Viele numerische Lösungsansätze von z.b. physikalischen Problemen erfordern die Lösung eines sogenannten Eigenwertproblems. Zu einer Matrix A R n n finde man eine Zahl λ C und einen Vektor

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Lineare Algebra für Physiker 11. Übungsblatt

Lineare Algebra für Physiker 11. Übungsblatt Lineare Algebra für Physiker 11. Übungsblatt Fachbereich Mathematik SS 01 Prof. Dr. Matthias Schneider./. Juli 01 Dr. Silke Horn Dipl.-Math. Dominik Kremer Gruppenübung Aufgabe G1 (Minitest) (a) Welche

Mehr

2 k k 1 k(k + 1) = 2n+1. n = 0 = k(k + 1) = 2n+1 n n. = 2 n+1 n + 2 (n + 1)(n + 2) + n. (n + 1)(n + 2)

2 k k 1 k(k + 1) = 2n+1. n = 0 = k(k + 1) = 2n+1 n n. = 2 n+1 n + 2 (n + 1)(n + 2) + n. (n + 1)(n + 2) Prof. Hesse Höhere Mathematik I und II Musterlösung 7. 0. 0, 80min Aufgabe (3 Punkte) Zeigen Sie mit vollständiger Induktion: Für alle n N gilt n k= k k k(k + ) = n+ n +. Induktionsanfang: k= Induktionsschluss

Mehr

Klausur HM I H 2005 HM I : 1

Klausur HM I H 2005 HM I : 1 Klausur HM I H 5 HM I : 1 Aufgabe 1 4 Punkte): Zeigen Sie mit Hilfe der vollständigen Induktion: n 1 1 + 1 ) k nn k n! für n. Lösung: Beweis mittels Induktion nach n: Induktionsanfang: n : 1 ) 1 + 1 k

Mehr

Numerisches Programmieren (IN0019)

Numerisches Programmieren (IN0019) Numerisches Programmieren (IN0019) Frank R. Schmidt Winter Semester 2016/2017 9. Symmetrisches Eigenwertproblem.................................................................................... 2 Eigenwert-Problem

Mehr

a ij x j max a ik = x 1 max max a ij x 0. a ij = e k 1 max

a ij x j max a ik = x 1 max max a ij x 0. a ij = e k 1 max 2.1 a) Sei x R n fest, aber beliebig gewählt. Sei i 0 {1,...,n} ein Index mit Dann gilt zunächst x i0 = max,...,n x i. x = max x i = x i0 = ( x i0 p) ( ) 1/p 1/p x i p = x p,...,n für alle p 1. Umgekehrt

Mehr

D-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den

D-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den D-ITET. D-MATL, RW Lineare Algebra HS 7 Dr. V. Gradinaru T. Welti Online-Test Einsendeschluss: Sonntag, den..7 : Uhr Dieser Test dient, seriös bearbeitet, als Repetition des bisherigen Vorlesungsstoffes

Mehr

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt

Mehr

Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung. x = x 2 e x 1.

Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung. x = x 2 e x 1. Name: Matrikel-Nr.: 1 Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung R 3 R 2, x 1 f : x 1 + e x2 2 sin(x3 ) x = x 2 e x 1 (1 + x 2 1 + x, 2x 3 )

Mehr

Lineare Algebra - Übungen 7 WS 2017/18

Lineare Algebra - Übungen 7 WS 2017/18 Prof. Dr. A. Maas Institut für Physik N A W I G R A Z Lineare Algebra - Übungen 7 WS 017/18 Aufgabe P0: Paulimatrizen Präsenzaufgaben 14. Dezember 017 Berechnen Sie für die Paulimatrizen σ 1 = ( ) 0 1,

Mehr

(Gewicht eines Neugeborenen) Zeit t (in Wochen) Gewicht (in Gramm)

(Gewicht eines Neugeborenen) Zeit t (in Wochen) Gewicht (in Gramm) Kapitel 4 Ausgleichsrechnung Wir betrachten die Methode der kleinsten Quadrate, die bereits um 8 von Gauß und unabhängig davon von Adrien Marie Legendre (75-833) entwickelt wurde Problem: Gegeben seien

Mehr

4 Lineare Abbildungen Basisdarstellungen

4 Lineare Abbildungen Basisdarstellungen 4 Lineare Abbildungen Basisdarstellungen (4.1) Seien V,W endlich dimensionale K-Vektorräume, und sei T : V W linear. Sei {v 1,...,v } Basis von V und {w 1,...,w M } Basis von W. Sei T (v j ) = M a kj w

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008 KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008 MUSTERLÖSUNG Name: Studiengang: Aufgabe 1 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter die Aufgabenstellung

Mehr

Höhere Mathematik II für die Fachrichtung Physik

Höhere Mathematik II für die Fachrichtung Physik Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Dipl.-Math. Sebastian Schwarz SS 5 4.5.5 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 4. Übungsblatt

Mehr

d) Produkte orthogonaler Matrizen sind wieder orthogonal.

d) Produkte orthogonaler Matrizen sind wieder orthogonal. Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 55 Studienplanung Bachelor

Mehr

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle).

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle). 77 Markowketten 77 Motivation Der Zustand eines Systems zur Zeit n N werde durch eine Zufallsvariable X n beschrieben und soll nur von X n abhängen (nicht jedoch von früheren Zuständen X n, X n 3, ) Wir

Mehr

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 3. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 29, 27 Erinnerung Satz. Axiomatischer Zugang, Eigenschaften der Determinante. Die Abbildung det :

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Name: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: b a 2 3a 1

Name: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: b a 2 3a 1 Name: Matr.-Nr.: 2 Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: 1 1 0 2 b 1 1 2 4 1 1 4 6 x = 1 1. 2 2 2a 2 3a 1 (a) Bringen Sie das lineare Gleichungssystem auf Treppenform. (b) Für welche

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

7.2 Die adjungierte Abbildung

7.2 Die adjungierte Abbildung 7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)

Mehr

Numerische Verfahren und Grundlagen der Analysis

Numerische Verfahren und Grundlagen der Analysis Numerische Verfahren und Grundlagen der Analysis Rasa Steuding Hochschule RheinMain Wiesbaden Wintersemester 2011/12 R. Steuding (HS-RM) NumAna Wintersemester 2011/12 1 / 26 1. Folgen R. Steuding (HS-RM)

Mehr

8 Polynominterpolation

8 Polynominterpolation 8 Polynominterpolation Interpolations-Aufgabe: Von einer glatten Kurve seien nur lich viele Punktewerte gegeben. Wähle einen lichdimensionalen Funktionenraum. Konstruiere nun eine Kurve in diesem Funktionenraum

Mehr

5 Diagonalisierbarkeit

5 Diagonalisierbarkeit 5 Diagonalisierbarkeit Sei V ein K Vektorraum mit einer Basis B = (v 1,..., v n ) Wiederholung aus 2: Sei f : V V K linear. Stelle f(v j ) für j = 1,..., n dar in der Form a 1j Das n Tupel a j =. a nj

Mehr

Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 2016

Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 2016 Name, Vorname Matrikel-Nr. Aufg. Aufg.2 Aufg.3 Aufg.4 Σ Note bzw. Kennzeichen Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 206 Bearbeiten Sie bitte

Mehr

47 Singulärwertzerlegung

47 Singulärwertzerlegung 47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar

Mehr

Lineare Algebra I Lösungsvorschlag

Lineare Algebra I Lösungsvorschlag Aufgabe Lineare Algebra I Lösungsvorschlag Wir bezeichnen mit a, a 2, a 3 Q 4 die Spalten der Matrix A. Es ist 7 a + 2a 2 = 7 4 = 7a 3, und wir sehen im l A = a, a 2, a 3 = a, a 2. Da die Vektoren a und

Mehr

Lineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1.

Lineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1. b Musterlösung Lineare Algebra und Numerische Mathematik D-BAUG. Multiple Choice) Gegeben sei die folgende Matrix Winter 3 Prof. H.-R. Künsch A = a a) deta) = genau dann wenn gilt x a =. a =. ), a R. x

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung Lineare Differentialgleichungen Ausblick auf die heutige Vorlesung Lineare autonome Differentialgleichungen 2 Bestimmung des Fundamentalsystems 3 Jordansche Normalform

Mehr

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y.

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y. Determinanten Motivation: Man betrachte das lineare Gleichungssystem [ [ [ a b x u = (1) c d y v Sei obda a und c Dann ist (1) äquivalent zu [ [ ca cb x = ac ad y und ferner zu [ [ ca cb x ad cb y Falls

Mehr

Computergestützte Mathematik zur Linearen Algebra

Computergestützte Mathematik zur Linearen Algebra Computergestützte Mathematik zur Linearen Algebra Singulärwertzerlegung Achim Schädle Übungsleiter: Lennart Jansen Tutoren: Marina Fischer, Kerstin Ignatzy, Narin Konar Pascal Kuhn, Nils Sänger, Tran Dinh

Mehr

IX. Das symmetrische Eigenwertproblem (SEP)

IX. Das symmetrische Eigenwertproblem (SEP) IX. Das symmetrische Eigenwertproblem (SEP IX.3. Algorithmen für symmetrische tridiagonale Matrizen Sei a b. b A =........ a n b n (IX. b n a n z. B. nach Householder- oder Lanczos-Triagonalisierung (Kapitel

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

Klausurvorbereitungsblatt Lineare Algebra

Klausurvorbereitungsblatt Lineare Algebra Klausurvorbereitungsblatt Lineare Algebra Sommersemester 25 Aufgabe 2 2 Sei A 3 3 8 2 4 3 R4 5. 5 2 a) Bestimmen Sie die Lösungsmenge des linearen Gleichungssystems Ax b) Ist Ax b mit b lösbar? (Begründen

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Einführung Eigenwerte

Einführung Eigenwerte Einführung Eigenwerte Bei der Modellierung von Stabweren, entstehen folgende Systeme: p = Ax mit A = ENE T, Verschiebungsvetor x und Lastvetor p und Diagonalmatrix N mit den Materialeigenschaften. Betrachtet

Mehr

Einführung Eigenwerte

Einführung Eigenwerte Einführung Eigenwerte Bei der Modellierung von Stabweren, entstehen folgende Systeme: p = Ax mit A = ENE T, Verschiebungsvetor x und Lastvetor p und Diagonalmatrix N mit den Materialeigenschaften. Betrachtet

Mehr

Lineare Differentialgleichungen

Lineare Differentialgleichungen Technische Universität München Thomas Reifenberger Vorlesung, Kapitel 4 Repetitorium Analysis I für Physiker Analysis I Lineare Differentialgleichungen 1 Das Matrixexponential Definition 1.1 Sei A C n

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

Klausur zu Grundlagen der Computermathematik

Klausur zu Grundlagen der Computermathematik Prof. Dr. Klaus Höllig. März 11 Klausur zu Grundlagen der Computermathematik en Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. a Die Folge A n x/ A n

Mehr

Komplexe Lineare Algebra. Lösung allgemeiner Linearer Systeme (m n möglich) Die Lösbarkeit eines linearen Systems

Komplexe Lineare Algebra. Lösung allgemeiner Linearer Systeme (m n möglich) Die Lösbarkeit eines linearen Systems Determinante und Inverse Lösung allgemeiner Linearer Systeme (m n möglich) Die Lösbarkeit eines linearen Systems Ax = b R m, x R n, A R mn hängt sehr stark vom sogenannten Rang der m n Matrix A ab Diese

Mehr

e At = e λt e (A λi)t.

e At = e λt e (A λi)t. Priv.-Doz. G. Reißig, F. Goßmann M.Sc Universität der Bundeswehr München Institut für Steuer- und Regelungstechnik (LR-15) Email: felix.gossmann@unibw.de Moderne Methoden der Regelungstechnik, H 2016 Übung

Mehr

Lösung 13: Unitäre Vektorräume und normale Abbildungen

Lösung 13: Unitäre Vektorräume und normale Abbildungen D-MATH Lineare Algebra II FS 2017 Dr. Meike Akveld Lösung 13: Unitäre Vektorräume und normale Abbildungen 1. a) Im Folgenden sei γ : V V C die Abbildung γ(v, w) v + w 2 v w 2 i v + iw 2 + i v iw 2. : Wir

Mehr

Lineare Algebra II, Lösungshinweise Blatt 9

Lineare Algebra II, Lösungshinweise Blatt 9 Prof Dr Katrin Wendland Priv Doz Dr Katrin Leschke Christoph Tinkl SS 27 Lineare Algebra II, Lösungshinweise Blatt 9 Aufgabe (4 Punkte) Sei 2 3 4 A = 5 6 Berechnen Sie A k für alle k N und verifizieren

Mehr

Klausur zur Höheren Mathematik I (ET/IT/AI/IKT/P/MP) WS 2016/

Klausur zur Höheren Mathematik I (ET/IT/AI/IKT/P/MP) WS 2016/ Dr. P. Furlan Dr. J. Horst Fakultät Mathematik Technische Universität Dortmund Klausur zur Höheren Mathematik I (ET/IT/AI/IKT/P/MP) WS 06/7 6.0.07 Es sind insgesamt 50 Punkte erreichbar. Bei mindestens

Mehr

Klausur Lineare Algebra I am Es sind insgesamt 60 Punkte bei der Klausur zu erreichen.

Klausur Lineare Algebra I am Es sind insgesamt 60 Punkte bei der Klausur zu erreichen. Klausur Lineare Algebra I am 03.02.10 Es sind insgesamt 60 Punkte bei der Klausur zu erreichen. Aufgabe 1. (6 Punkte insgesamt) a.) (3P) Definieren Sie, was eine abelsche Gruppe ist. b.) (3P) Definieren

Mehr

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 53 Norm von Endomorphismen und Matrizen Definition 53.1. Es seien V und W endlichdimensionale normierte K-

Mehr

Übungen zu Lineare Algebra und Geometrie 1

Übungen zu Lineare Algebra und Geometrie 1 Übungen zu Lineare Algebra und Geometrie 1 Andreas Čap Sommersemester 2015 Wiederholung grundlegender Begriffe (1 Bestimme Kern und Bild der linearen Abbildung f : R 3 R 3, die gegeben ist durch f(x, y,

Mehr

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren 2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;

Mehr

Serie a) Welche der folgenden Vektoren sind Eigenvektoren der Matrix 1 0 1? 0 1 1

Serie a) Welche der folgenden Vektoren sind Eigenvektoren der Matrix 1 0 1? 0 1 1 Prof. Norbert Hungerbühler Serie Lineare Algebra II ETH Zürich - D-MAVT. a Welche der folgenden Vektoren sind Eigenvektoren der Matrix? i (,,. ii (,,. iii (,,. iv (, 3,. v (,,. Ein Vektor v ist Eigenvektor

Mehr

Lösung 5: Gram-Schmidt Orthogonalisierung, adjungierte Abbildungen

Lösung 5: Gram-Schmidt Orthogonalisierung, adjungierte Abbildungen D-MATH Lineare Algebra II FS 7 Dr. Meike Akveld Lösung 5: Gram-Schmidt Orthogonalisierung, adjungierte Abbildungen. a) Wegen der Linearität im ersten Argument gilt sicherlich w S :, w =. Somit ist S und

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren

Mehr

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

Abschnitt 2.5: QR-Verfahren 31

Abschnitt 2.5: QR-Verfahren 31 Abschnitt 2.5: QR-Verfahren 31 Bemerkungen 2.5.7 i) Der Aufwand des oben beschriebenen Verfahrens, eine Matrix A R n n in obere Hessenbergform zu überführen, beträgt ungefähr 5 3 n3 Operationen. Hierbei

Mehr

Ökonometrische Analyse

Ökonometrische Analyse Institut für Statistik und Ökonometrie, Freie Universität Berlin Ökonometrische Analyse Dieter Nautz, Gunda-Alexandra Detmers Rechenregeln für Matrizen Notation und Matrixeigenschaften: Eine Matrix A der

Mehr