3 Eigenwertberechnung
|
|
- Friedrich Maier
- vor 5 Jahren
- Abrufe
Transkript
1 3 Eigenwertberechnung (3.) Definition Eine Matrix A R, heißt (obere) Block-Dreiecksmatrix, wenn ein n existiert, sodass A[n + :, : n] = 0 gilt, d.h.: A = ( ) A[ : n, : n] A[ : n,n + : ] 0 A[n + :,n + : ] Sie heißt reduzibel, wenn eine Permutationsmatrix P existiert, so dass PAP T Block-Dreiecksmatrix ist. Sie heißt irreduzibel, wenn keine Permutationsmatrix P existiert, so dass PAP T Block- Dreiecksmatrix ist. Für reduzible Matrizen lässt sich die Eigenwertberechnung in zwei kleinere Probleme (der Größe n und n) unterteilen. (3.) Definition Eine Matrix H R, heißt (obere) Hessenberg-Matrix, wenn H[n + :,n] = 0 n für n =,..., gilt. Eine Hessenbergmatrix ist reduzibel, falls H[n +, n] = 0 für ein 0 < n <. Symmetrische Hessenbergmatrizen sind tridiagonal. (3.3) Satz Sei A R,. Dann existiert eine orthogonale Matrix Q R,, so dass H = QAQ T eine Hessenberg-Matrix ist. Die Berechnung von Q benötigt O( 3 ) Operationen. Beweis. Induktion über. Für < 3 ist nichts zu zeigen. 3: Definiere x R mit: x[] = 0, x[ : ] = A[ :,].Fall: x[3 : ] = 0 Dann setze Q := I, A := A..Fall: x[3 : ] 0 Setze { x, x[] > 0 σ = x, x[] 0, ( w = x σe ) R, Damit ergibt sich x[] σ Q = I βww T mit β := w T w. A[,] A [, : ] A := Q AQ T = σ A 0 3
2 mit A [, : ] = A[, : ] β(a[, : ]w[ : ]w T [ : ]) A = (I βw[ : ]w T [ : ])A[ :, : ](I βw[ : ]w T [ : ]). ach Induktionsvoraussetzung existiert eine orthogonale Matrix Q R,, so dass H = Q A Q T eine obere Hessenberg-Matrix ist. Setze ( ) 0 Q := Q 0 Q. Somit folgt ( ) ( ) QAQ T 0 T = 0 T A[,] A[; : ]Q T A 0 Q = σ = H. 0 Q H O Damit ist der Induktionsschritt bewiesen. Zum Aufwand: In jedem Schritt werden O( ) Operationen benötigt, insgesamt also O( 3 ) Operationen. Wenn A symmetrisch ist, dann ist H = QAQ T eine Tridiagonalmatrix. (3.4) Satz Sei A R, symmetrisch, tridiagonal und irreduzibel, d.h. A[n,n] = A[n,n ] 0 und A[n + :,n] = A[n,n + : ] T = 0 n. Für das Spektrum von A gelte σ(a) (λ,λ). a) Die charakteristischen Polynome P n (t) = det ( A[ : n, : n] ti n ) der Hauptuntermatrizen lassen sich durch eine Dreitermrekursion berechnen: Setze P 0, P (t) = A[,] t, P n (t) = (A[n,n] t)p n (t) A[n,n] P n (t), n =,...,. b) Sie bilden eine Sturmsche Kette: Für die ullstellen λ n λ n λ n n von P n gilt λk n < λ k n < λ k n (mit λ n 0 = λ und λ n n+ = λ). c) Für t (λ,λ) gilt λ n k < t λ n k+ mit k = W n (t) und W n (t) = # { j {,...,n}: P j (t)p j (t) < 0 oder P j (t) = 0 }. 4
3 function A = hessenberg(a) = size(a,); for n = :- [v,beta] = householder(a(n+:,n)); if beta ~= 0 w = beta * A(:,n+:) * v; A(:,n+:) = A(:,n+:) - w * v ; w = beta * v * A(n+:,n:); A(n+:,n:) = A(n+:,n:) - v * w; A(n+:,n) = v(:-n); function Q = hessenbergrotation(a) = size(a,); Q = eye(); for n = :- v = [;A(n+:,n)]; beta = / (v * v); if beta ~= w = beta * v * Q(n+:,:); Q(n+:,:) = Q(n+:,:) - v * w; function A = symmetric_hessenberg(a) = size(a,); for n = :- [v,beta] = householder(a(n+:,n)); if beta ~= 0 w = beta * A(n:,n+:) * v; A(n:,n+:) = A(n:,n+:) - w * v ; w = beta * v * A(n+:,n:); A(n+:,n:) = A(n+:,n:) - v * w; Abbildung 6: Berechnung der Hessenberg-Transformation für allgemeine Matrizen mit Abspeicherung der Householder-Vektoren, Rekonstruktion der orthogonalen Transformationsmatrix, und Berechnung der Hessenberg-Transformation für symmetrische Matritzen ohne Abspeicherung der Householder-Vektoren. 5
4 Beweis. zu a) Übung. zu b) und c) Induktion über n. Sei n =. Dann gilt λ = A[,] (λ,λ), also λ 0 0 = λ < λ < λ = λ 0, und für t (λ,λ) gilt: Für W (t) = 0 ist P 0 (t)p (t) 0, also t A[,] und λ 0 < t λ. Für W (t) = ist somit t > A[,] mit λ < t λ. n n + : ach Induktionsvoraussetzung ist P n (λk n) 0. Damit ergibt sich aus a) P n+(λk n) = A[n,n + ] P n (λk n ) 0 und somit P n+ (λ n k )P n (λ n k ) < 0. () ach Induktionsvoraussetzung hat P n ( ) genau eine ullstelle in (λk n,λ k n ) hat. Daraus folgt P n (λk n )P n (λk n) < 0 und mit () gilt dann P n+(λk n )P n+(λk n ) < 0. Somit existiert auch eine ullstelle von P n+ ( ) in (λk n,λ k n ). Somit existieren mindestens n ullstellen von P n+ ( ) in (λ n,λ n n ). Analog folgt die Existenz von jeweils einer ullstelle von P n+ ( ) in (λ,λ n) und (λ n n,λ). Also gilt für alle n + ullstellen λk n < λ k n+ < λk n. Aus k = W n(t) folgt λk n < t λ k n und P n (t)p n+ (t) = k i= (λi n t)(λi n+ t) }{{} 0 (λk n+ Daher gilt P n (t)p n+ (t) 0 genau dann, wenn λ n+ k t) n i=k t. Das ergibt (λi n t)(λk+ n+ }{{ t). } 0 W n+ (t) = k λk n+ t λk n > λ k n+, W n+ (t) = k + λk n+ < t < λk n < λ k+ n+. Im Folgen sei stets A R, symmetrisch mit Eigenwerten λ,...,λ und OB aus Eigenvektoren v,...,v. Dann gilt A = λ n v n (v n ) T. (3.5) Definition Der Rayleigh-Quotient ist definiert durch r(a,x) = xt Ax x T x, x R, x 0. (3.6) Satz Sei λ = ρ(a) und λ n < λ für n =,...,. Dann gilt für alle w R mit w T v > 0: lim k r(a,ak w) = λ, lim k A k w A k w = v. 6
5 Beweis. Es gilt Somit folgt da und A k w = A k (w T v n )λ n v n = r(a,a k w) = (Ak w) T AA k k+ w λ (A k w) T (A k w) = lim k λ k ( λn λ (w T v n )λ k n v n = λ k ( λn ) k+ λ (w T v n ) ( ) k λn λ (w T v n ) ) k = {, n = 0, n ( λn λ A k w A k w k wt v (w T v ) v = v. ) k (w T v n )v n k (w T v ) λ (w T v ) = λ, (3.7) Satz Sei w R mit w = und λ = r(a,w). Dann gilt min λ λ n Aw λw.,..., Beweis. Es gilt w = (wt v n )v n und damit = w = wt w = (wt v n ). Ferner Aw λw = λ n (w T v n )v n λ(w T v n )v n = = λ n λ (w T v n ) min λ n λ,..., = min λ n λ.,..., (λ n λ)(w T v n )v n (w T v n ) (3.8) Definition Eine konvergente Folge (d k ) k in R mit Grenzwert d konvergiert (a) linear, wenn c (0,) und k 0 existieren mit d k+ d c d k d für k k 0 (b) superlinear, wenn zu jedem ε > 0 ein k 0 existiert mit d k+ d ε d k d für k k 0 7
6 (c) von der Ordnung p >, wenn C > 0 existiert mit d k+ d C d k d p. Wenn der größte Eigenwert isoliert ist, konvergiert die einfache Vektoriteration linear (Satz 3.6). Mit Satz 3.7 erhalten wir ein Abbruchkriterium für die Iteration. Inverse Iteration mit variablem Shift S) Wähle z 0 R, z 0 0, ε 0. Setze k = 0. S) Setze w k = z k z k, s k = r(a,w k ). S3) Falls Aw k s k w k ε STOP. S4) z k+ = (A s k I ) w k S5) Setze k := k +, gehe zu S). (3.9) Satz Wenn der Startvektor z 0 hinreich nahe bei einem Eigenvektor v m mit isoliertem Eigenwert λ m liegt, konvergiert die Inverse Iteration mit variablem Shift kubisch (d.h. von der Ordnung p = 3). Beweis. Setze v = v m und λ = λ m mit Av = λv und v T v =. Da λ ein isolierter Eigenwert ist, existiert ein ρ > 0 mit (λ ρ,λ + ρ) σ(a) = {λ}. Der Beweis erfolgt in vier Schritten. (i) Definiere w k = w k (v T w k )v. Dann ist w k = (v T w k )v + w k eine orthogonale Zerlegung mit ( w k ) T v = 0 und = w k = (vt w k ) + w k. Also existiert ein ϕ k [0,π/] mit v T w k = cos(ϕ k ) und w k = sin(ϕ k ), woraus wir folge Darstellung erhalten: w k = cos(ϕ k )v + sin(ϕ k )ŵ k, ŵ k = wk w k. Wir zeigen nun die Abschätzung sin(ϕ k+ ) C sin(ϕ k ) 3. Dann konvergiert w k kubisch gegen einen Eigenvektor von A. (ii) Es gilt Aw k = λ cos(ϕ k )v + sin(ϕ k )Aŵ k. Daraus folgt [ ] s k = λ cos(ϕ k ) + sin(ϕ k ) (ŵ k ) T Aŵ k = λ + sin(ϕ k ) (ŵ k ) T Aŵ k λ und wegen λ A sowie (ŵ k ) T Aŵ k A : (iii) Weiterhin haben wir also (für cos(ϕ k ) > 0) s k λ sin(ϕ k ) ( A ). z k+ = (A s k I ) w k = cos(ϕ k) λ s k v + sin(ϕ k )(A s k I n ) ŵ k, () z k+ cosϕ k λ s k 8 z k+ λ s k cosϕ k.
7 Ferner gilt (A s k I ) ŵ k = ( (λ n s k ) (ŵ k ) T v n) v n. n m (iv) Sei z k so nahe bei v, dass A sin(ϕ k ) ρ und cos(ϕ k) > / gilt. Dann folgt mit (ii) λ s k ρ, und mit der Bedingung an ρ für n m λ n s k ρ. Hiermit erhalten wir (A s k I ) ŵ k ρ. Aus w k+ = z k+ z k+ = cos(ϕ k+ )v + sin(ϕ k+ )ŵ k+ und () folgt sin(ϕ k+ ) = sin(ϕ k)(a s k I ) ŵ k z k+ (iii) sin(ϕ k ) 4 ρ λ s k (ii) 8 A ρ sin(ϕ k ) 3. QR-Iteration mit Shift S0) Gegeben sei A R, symmetrisch. Berechne A 0 = QAQ T tridiagonal (Hessenberg-Transformation). Wähle ε 0. Setze k = 0. S) Falls A k [n +,n] ε für ein n: Getrennte Eigenwertberechnung für A k [ : n, : n] und A k [n + :,n + : ]. S) Berechne d k = (A k[, ] A k [,]) und s k = A k [,] + d k sgn(d k ) dk + A k[,]. S3) Berechne eine QR-Zerlegung und setze Q k R k = A k s k I A k+ = R k Q k + s k I. S4) Setze k := k +, gehe zu S). 9
8 Es gilt A k+ = R k Q k + s k I = Q T k (A k s k I )Q k + s k I = Q T k A kq k. (3) Somit wird A in jedem Schritt nur mit orthogonalen Matrizen transformiert, die Eigenwerte ändern sich nicht. Da wir die QR-Iteration auf tridiagonale irreduzible Matrizen anwen, sind alle Eigenwerte verschieden, vgl. Satz (3.4). Dann lässt sich zeigen, dass die QR-Iteration (ohne variablen Shift) gegen eine Diagonalmatrix konvergiert (lineare Konvergenz). Mit variablem Shift ist die Konvergenz weit besser. (3.0) Satz Falls in S) der Shift s k = A k [,] gewählt wird, entspricht die QR-Iteration der Inversen Iteration mit variablem Shift für die Matrix A 0 und den Startvektor z 0 = e. Beweis. Sei z 0 = e. Im ersten Schritt gilt w 0 = z 0 = e und s 0 = r(a 0,e ) = A 0 [,]. Es genügt w k = Q 0 Q Q k e zu zeigen, denn dann folgt aus (3) s k = r(a 0,w k ) = r(a k,w 0 ) = A k [,]. Da A k symmetrisch ist, gilt A k s k I = Q k R k = R T k QT k. Aus zk+ = (A 0 s 0 I ) w k folgt also e = Q T k QT 0 w k = Q T k QT 0 (A 0 s k I )z k+ = (A s k I )Q T k QT 0 z k+ = R T k QT k QT k QT 0 z k+, Q T k QT k QT 0 z k+ = R T k e = R k [,] e. Daraus folgt z k+ = R k [,] und somit die Behauptung w k+ = z k+ z k+ Q 0 Q k e. (3.) Satz (Gerschgorin) Zu A R, sind die Gerschgorin-Kreise durch K n = { λ C: λ A[n,n] A[n,k] }, k n n =,..., definiert. Dann gilt σ(a) K n. Beweis. Sei λ σ(a). Dann existiert ein w R \{0} mit Aw = λw. Also existiert ein n {,...,} mit 0 w n w m, m =,...,. 30
9 function [c,s] = givens_parameter(a,b) if b == 0.0 c =.0; s = 0.0; else if abs(b) > abs(a) t = -a/b; s = /sqrt(+t^); c = s*t; else t = -b/a; c = /sqrt(+t^); s = c*t; function A = givens_transformation(a,g,k) = size(a,); if k> && k<- && >=3 ind = k-:k+; elseif k==- && >=3 ind = -:; elseif k== && >=3 ind = :3; elseif == ind = :; A([k k+],ind) = G * A([k k+],ind); A(ind,[k k+]) = A(ind,[k k+]) * G; function lambda = qr_iteration(a,tol) = size(a,); H = symmetric_hessenberg(a); while h00 = H(-,-); h0 = H(,-); h = H(,); if (abs(h0) < tol*abs(h+h00)), = -; if <, break; d = (h00 - h)/; if d ~= 0, mu = h + d - sign(d)*sqrt(d^+h0^); else, mu = h - h0; a = H(,) - mu; b = H(,); for k = :- [c,s] = givens_parameter(a,b); H = givens_transformation(h,[c,s;-s,c],k); if k<-, a = H(k+,k); b = H(k+,k); lambda = diag(h) Abbildung 7: QR-Iteration mit implizitem Shift. 3
10 Damit folgt A[n, : ]w = λw n (A[n,n] λ)w n = A[n,m]w m m n A[n,n] λ w n m n λ A[n,n] A[n,m] λ K n. m n A[n,m] w m w n A[n, m] m n Für irreduzible Matrizen gilt eine Verschärfung: Die Eigenwerte liegen im Inneren der Gershgorin-Kreise oder auf dem Durchschnitt der Ränder der Gershgorin-Kreise. (3.) Satz (Courant-Hilbert) Sei A R, symmetrisch mit Eigenwerten λ λ λ. λ n = max dims=n λ + n = min dims=n min r(a,x), 0 x S max r(a,x). 0 x S Beweis. Es sei VAV T = diag(λ,...,λ ) mit V = (v... v ) orthogonal. Dann gilt A = λ n v n (v n ) T. : Setze S n := span{v,...,v n }. Dann gilt für x S n : x T Ax = λ k (x T v k ) = k= Damit folgt r(a,x) = xt Ax x T x λ n und somit n k (x k=λ T v k ) n λ n (x T v k ) = λ n x T x. k= λ n = r(a,v n ) = min x S n x 0 r(a,x) max : Wähle S R,dimS = n. Es gilt dim( S ein y S mit y = k=n (yt v k )v k. Also gilt }{{} dimn min dims=n x S λ n r(a,y) min x S x 0 r(a,x). x 0 r(a,x). span{v n,...,v }). Also existiert }{{} dim n+ Da S beliebig war, folgt die Behauptung. 3
LR-Zerlegung. N = size(a,1); for n=1:n-1 A(n+1:N,n) = A(n+1:N,n)/A(n,n); A(n+1:N,n+1:N) = A(n+1:N,n+1:N) - A(n+1:N,n) * A(n,n+1:N); end;
LR-Zerlegung N = size(a,1); for n=1:n-1 A(n+1:N,n) = A(n+1:N,n)/A(n,n); A(n+1:N,n+1:N) = A(n+1:N,n+1:N) - A(n+1:N,n) * A(n,n+1:N); x = b; for n=2:n x(n) = x(n) - A(n,1:n-1) * x(1:n-1); for n=n:-1:1 x(n)
Mehr1 Euklidische Approximation
1 Euklidische Approximation Sei V ein reeller euklidischer Vektorraum. Das Skalarprodukt in V wird mit, V und die Norm mit V bezeichnet. V N V sei ein Teilraum der Dimension N < mit Basis {φ n } n=1,...,n.
MehrBegleitmaterial zur Vorlesung Numerik II
Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik
Mehr4.6 Berechnung von Eigenwerten
4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.
MehrKAPITEL 7. Berechnung von Eigenwerten. Av = λv
KAPITEL 7. Berechnung von Eigenwerten Aufgabe: Sei A R n n eine reelle quadratische Matrix. Gesucht λ C und v C n, v 0, die der Eigenwertgleichung Av = λv genügen. Die Zahl λ heißt Eigenwert und der Vektor
MehrEinführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB)
Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Prof. R. Leithner, Dipl. Phys. E. Zander Wintersemester 2010/2011 Kapitel 6 Eigenwerte
MehrEigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009
Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx
Mehr2 Direkte Lösungsverfahren für lineare Gleichungen
2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei L R N N eine normierte untere Dreiecksmatrix und b R N. Dann ist L invertierbar und das Lineare Gleichungssystem (LGS) Ly = b ist mit O(N 2
MehrBegleitmaterial zur Vorlesung Numerik I
Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik
MehrÜbungsblatt 12 Musterlösung
NumLinAlg WS56 Übungsblatt 2 Musterlösung Lösung 44 (QR-Algorithmus mit Wilkinson-Shift und Deflation) a)+b) Die QR-Iteration zur Berechnung aller Eigenwerte einer Matrix A kann wie folgt implementiert
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
MehrLineare Algebra und Geometrie II, Übungen
Lineare Algebra und Geometrie II, Übungen Gruppe (9 9 45 ) Sei A 2 Bestimmen Sie A und A Finden Sie weiters Vektoren u, v R 2 mit u und Au A, beziehungsweise v und Av A Zunächst die Berechnung der Norm
Mehr20 Kapitel 2: Eigenwertprobleme
20 Kapitel 2: Eigenwertprobleme 2.3 POTENZMETHODE Die Potenzmethode oder Vektoriteration ist eine sehr einfache, aber dennoch effektive Methode zur Bestimmung des betragsmäßig größten Eigenwertes. Um die
MehrTU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX
TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist
Mehr1 Euklidische Approximation
1 Euklidische Approximation Sei V ein reeller euklidischer Vektorraum. Das Skalarprodukt in V wird mit, V und die Norm mit V bezeichnet. V N V sei ein Teilraum der Dimension N < mit Basis {φ n N } n=1,...,n.
MehrEigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)
Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein
MehrLanczos Methoden. Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann. 15.
Lanczos Methoden Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann 15. Juni 2005 Lanczos-Methoden Lanczos-Methoden sind iterative Verfahren zur
Mehr2 Direkte Lösungsverfahren für lineare Gleichungen
(2.1) Sei x = (x n ) n=1,...,n R N, A = (a m,n ) m=1,...,m, n=1,...,n R M,N. a) Sei 1 m n N. Dann ist x[m : n] = (x k ) k=m,...,n R 1+n m Teilvektor von x. b) Seien 1 m 1 m 2 M, 1 n 1 n 2 N. Dann ist A[m
MehrWiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Oliver Ernst Professur Numerische Mathematik Wintersemester 2015/16 Inhalt I 1 Einleitung 1.1 Lineare Gleichungssysteme 1.2 Matrixfunktionen 1.3 Modellreduktion 1.4 Eigenwertaufgaben
Mehr1 Euklidische Approximation
1 Euklidische Approximation Sei V ein reeller euklidischer Vektorraum. Das Skalarprodukt in V wird mit, V und die Norm mit V bezeichnet. V N V sei ein Teilraum der Dimension N < mit Basis {φ n } n=1,...,n.
Mehr51 Numerische Berechnung von Eigenwerten und Eigenvektoren
5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,
MehrIII Das Symmetrische Eigenwertproblem (SEP)
III Das Symmetrische Eigenwertproblem (SEP) III3 Algorithmen für symmetrische tridiagonale Eigenwertprobleme Sei im folgenden a b A = b a b b n a n b n b n a n R n n, zb nach Householder- oder Lanczos(im
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 12
Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=
Mehr2 EIGENWERTPROBLEME. Av = λv
EIGENWERTPROBLEME Viele numerische Lösungsansätze von z.b. physikalischen Problemen erfordern die Lösung eines sogenannten Eigenwertproblems. Zu einer Matrix A R n n finde man eine Zahl λ C und einen Vektor
MehrEinführung in die Grundlagen der Numerik
Einführung in die Grundlagen der Numerik Institut für Numerische Simulation Rheinische Friedrich-Wilhelms-Universität Bonn Wintersemester 2014/2015 Definition Eigenwertproblem Zu einer Matrix A R n n sind
MehrSommer 2017 Musterlösung
Sommer 7 Musterlösung. (5 Punkte) a) Sei V ein Vektorraum über K und sei T End(V ). Geben Sie die Definition eines Eigenwertes von T und zeigen Sie für endlichdimensionales V, dass λ K genau dann ein Eigenwert
MehrJordan-Form. Eine komplexe quadratische Matrix A lässt sich durch eine Ähnlichkeitstranformation auf die Blockdiagonalform. = Q 1 AQ 0 J k J =
Jordan-Form Eine komplexe quadratische Matrix A lässt sich durch eine Ähnlichkeitstranformation auf die Blockdiagonalform J 1 0 J =... = Q 1 AQ 0 J k transformieren. Jordan-Form 1-1 Jordan-Form Eine komplexe
MehrKlausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2
Mehr1 Euklidische Approximation
1 Euklidische Approximation Sei V ein reeller euklidischer Vektorraum. Das Skalarprodukt in V wird mit, V und die Norm mit V bezeichnet. V N V sei ein Teilraum der Dimension N < mit Basis {φ n } n=1,...,n.
MehrD-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Musterlösung 13. (A ± I)x = 0 Ax ± x = 0 Ax = ±x Ax = λx
D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung Musterlösung 13 1. Die Matrix A±I ist singulär falls es einen Vektor x 0 gibt der die Gleichung (A±I)x = 0 erfüllt, d.h. wenn A ± I als
Mehr6. Normale Abbildungen
SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische
MehrEigenwerte, Diagonalisierbarkeit, charakteristisches Polynom
Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse
MehrSymmetrische Gleichungssysteme Das Verfahren konjugierter Gradienten
Symmetrische Gleichungssysteme Das Verfahren konjugierter Gradienten 1 / 20 Lineares Gleichungssystem Ax = f, n A[i, j]x j = f i j=1 für i = 1,..., n Voraussetzungen Matrix A sei symmetrisch: A[i, j] =
MehrMathematische Grundlagen
Mathematische Grundlagen 1 / 16 Vektorraum u R n, u = (u 1,..., u n ), u k R Euklidisches Skalarprodukt Euklidische Vektornorm (u, v) = u k v k u 2 = (u, u) = n u 2 k Vektoren u, v R n heißen orthogonal,
MehrMODULPRÜFUNG MODUL MA 1302 Einführung in die Numerik
................ Note Name Vorname 1 I II Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT
MehrLineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching
Lineare Algebra 12. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 14, 2017 1 Erinnerung: Determinanten, Orthogonale/unitäre Matrizen Sei A R 2 2, dann kann die Inverse
MehrSerie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q:
Lineare Algebra D-MATH, HS 214 Prof Richard Pink Serie 5 1 [Aufgabe] Invertieren Sie folgende Matrizen über Q: 1 a) 1 1 1 1 1 2 1 1 1 b) 1 2 1 1 1 1 2 1 1 1 1 2 1 2 3 1 c) 1 3 3 2 2 1 5 3 1 2 6 1 [Lösung]
Mehr8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren
8. Vorlesung, 5. April 2017 170 004 Numerische Methoden I Eigenwerte und Eigenvektoren 1 Eigenwerte und Eigenvektoren Gegeben ist eine n n-matrix A. Gesucht sind ein vom Nullvektor verschiedener Vektor
Mehr2 EIGENWERTPROBLEME. Av = λv
EIGENWERTPROBLEME Viele numerische Lösungsansätze von z.b. physikalischen Problemen erfordern die Lösung eines sogenannten Eigenwertproblems. Zu einer Matrix A R n n finde man eine Zahl λ C und einen Vektor
MehrIterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
MehrLineare Algebra für Physiker 11. Übungsblatt
Lineare Algebra für Physiker 11. Übungsblatt Fachbereich Mathematik SS 01 Prof. Dr. Matthias Schneider./. Juli 01 Dr. Silke Horn Dipl.-Math. Dominik Kremer Gruppenübung Aufgabe G1 (Minitest) (a) Welche
Mehr2 k k 1 k(k + 1) = 2n+1. n = 0 = k(k + 1) = 2n+1 n n. = 2 n+1 n + 2 (n + 1)(n + 2) + n. (n + 1)(n + 2)
Prof. Hesse Höhere Mathematik I und II Musterlösung 7. 0. 0, 80min Aufgabe (3 Punkte) Zeigen Sie mit vollständiger Induktion: Für alle n N gilt n k= k k k(k + ) = n+ n +. Induktionsanfang: k= Induktionsschluss
MehrKlausur HM I H 2005 HM I : 1
Klausur HM I H 5 HM I : 1 Aufgabe 1 4 Punkte): Zeigen Sie mit Hilfe der vollständigen Induktion: n 1 1 + 1 ) k nn k n! für n. Lösung: Beweis mittels Induktion nach n: Induktionsanfang: n : 1 ) 1 + 1 k
MehrNumerisches Programmieren (IN0019)
Numerisches Programmieren (IN0019) Frank R. Schmidt Winter Semester 2016/2017 9. Symmetrisches Eigenwertproblem.................................................................................... 2 Eigenwert-Problem
Mehra ij x j max a ik = x 1 max max a ij x 0. a ij = e k 1 max
2.1 a) Sei x R n fest, aber beliebig gewählt. Sei i 0 {1,...,n} ein Index mit Dann gilt zunächst x i0 = max,...,n x i. x = max x i = x i0 = ( x i0 p) ( ) 1/p 1/p x i p = x p,...,n für alle p 1. Umgekehrt
MehrD-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den
D-ITET. D-MATL, RW Lineare Algebra HS 7 Dr. V. Gradinaru T. Welti Online-Test Einsendeschluss: Sonntag, den..7 : Uhr Dieser Test dient, seriös bearbeitet, als Repetition des bisherigen Vorlesungsstoffes
MehrLösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung
D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt
MehrAufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung. x = x 2 e x 1.
Name: Matrikel-Nr.: 1 Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung R 3 R 2, x 1 f : x 1 + e x2 2 sin(x3 ) x = x 2 e x 1 (1 + x 2 1 + x, 2x 3 )
MehrLineare Algebra - Übungen 7 WS 2017/18
Prof. Dr. A. Maas Institut für Physik N A W I G R A Z Lineare Algebra - Übungen 7 WS 017/18 Aufgabe P0: Paulimatrizen Präsenzaufgaben 14. Dezember 017 Berechnen Sie für die Paulimatrizen σ 1 = ( ) 0 1,
Mehr(Gewicht eines Neugeborenen) Zeit t (in Wochen) Gewicht (in Gramm)
Kapitel 4 Ausgleichsrechnung Wir betrachten die Methode der kleinsten Quadrate, die bereits um 8 von Gauß und unabhängig davon von Adrien Marie Legendre (75-833) entwickelt wurde Problem: Gegeben seien
Mehr4 Lineare Abbildungen Basisdarstellungen
4 Lineare Abbildungen Basisdarstellungen (4.1) Seien V,W endlich dimensionale K-Vektorräume, und sei T : V W linear. Sei {v 1,...,v } Basis von V und {w 1,...,w M } Basis von W. Sei T (v j ) = M a kj w
MehrKLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008
KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008 MUSTERLÖSUNG Name: Studiengang: Aufgabe 1 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter die Aufgabenstellung
MehrHöhere Mathematik II für die Fachrichtung Physik
Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Dipl.-Math. Sebastian Schwarz SS 5 4.5.5 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 4. Übungsblatt
Mehrd) Produkte orthogonaler Matrizen sind wieder orthogonal.
Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =
MehrBegleitmaterial zur Vorlesung Numerik I
Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 55 Studienplanung Bachelor
MehrProzesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle).
77 Markowketten 77 Motivation Der Zustand eines Systems zur Zeit n N werde durch eine Zufallsvariable X n beschrieben und soll nur von X n abhängen (nicht jedoch von früheren Zuständen X n, X n 3, ) Wir
MehrLineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching
Lineare Algebra 3. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 29, 27 Erinnerung Satz. Axiomatischer Zugang, Eigenschaften der Determinante. Die Abbildung det :
MehrLineare Algebra: Determinanten und Eigenwerte
: und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b
MehrName: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: b a 2 3a 1
Name: Matr.-Nr.: 2 Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: 1 1 0 2 b 1 1 2 4 1 1 4 6 x = 1 1. 2 2 2a 2 3a 1 (a) Bringen Sie das lineare Gleichungssystem auf Treppenform. (b) Für welche
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
Mehr7.2 Die adjungierte Abbildung
7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)
MehrNumerische Verfahren und Grundlagen der Analysis
Numerische Verfahren und Grundlagen der Analysis Rasa Steuding Hochschule RheinMain Wiesbaden Wintersemester 2011/12 R. Steuding (HS-RM) NumAna Wintersemester 2011/12 1 / 26 1. Folgen R. Steuding (HS-RM)
Mehr8 Polynominterpolation
8 Polynominterpolation Interpolations-Aufgabe: Von einer glatten Kurve seien nur lich viele Punktewerte gegeben. Wähle einen lichdimensionalen Funktionenraum. Konstruiere nun eine Kurve in diesem Funktionenraum
Mehr5 Diagonalisierbarkeit
5 Diagonalisierbarkeit Sei V ein K Vektorraum mit einer Basis B = (v 1,..., v n ) Wiederholung aus 2: Sei f : V V K linear. Stelle f(v j ) für j = 1,..., n dar in der Form a 1j Das n Tupel a j =. a nj
MehrKlausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 2016
Name, Vorname Matrikel-Nr. Aufg. Aufg.2 Aufg.3 Aufg.4 Σ Note bzw. Kennzeichen Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 206 Bearbeiten Sie bitte
Mehr47 Singulärwertzerlegung
47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar
MehrLineare Algebra I Lösungsvorschlag
Aufgabe Lineare Algebra I Lösungsvorschlag Wir bezeichnen mit a, a 2, a 3 Q 4 die Spalten der Matrix A. Es ist 7 a + 2a 2 = 7 4 = 7a 3, und wir sehen im l A = a, a 2, a 3 = a, a 2. Da die Vektoren a und
MehrLineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1.
b Musterlösung Lineare Algebra und Numerische Mathematik D-BAUG. Multiple Choice) Gegeben sei die folgende Matrix Winter 3 Prof. H.-R. Künsch A = a a) deta) = genau dann wenn gilt x a =. a =. ), a R. x
MehrRückblick auf die letzte Vorlesung
Rückblick auf die letzte Vorlesung Lineare Differentialgleichungen Ausblick auf die heutige Vorlesung Lineare autonome Differentialgleichungen 2 Bestimmung des Fundamentalsystems 3 Jordansche Normalform
MehrDeterminanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y.
Determinanten Motivation: Man betrachte das lineare Gleichungssystem [ [ [ a b x u = (1) c d y v Sei obda a und c Dann ist (1) äquivalent zu [ [ ca cb x = ac ad y und ferner zu [ [ ca cb x ad cb y Falls
MehrComputergestützte Mathematik zur Linearen Algebra
Computergestützte Mathematik zur Linearen Algebra Singulärwertzerlegung Achim Schädle Übungsleiter: Lennart Jansen Tutoren: Marina Fischer, Kerstin Ignatzy, Narin Konar Pascal Kuhn, Nils Sänger, Tran Dinh
MehrIX. Das symmetrische Eigenwertproblem (SEP)
IX. Das symmetrische Eigenwertproblem (SEP IX.3. Algorithmen für symmetrische tridiagonale Matrizen Sei a b. b A =........ a n b n (IX. b n a n z. B. nach Householder- oder Lanczos-Triagonalisierung (Kapitel
MehrAufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009
I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe
MehrKlausurvorbereitungsblatt Lineare Algebra
Klausurvorbereitungsblatt Lineare Algebra Sommersemester 25 Aufgabe 2 2 Sei A 3 3 8 2 4 3 R4 5. 5 2 a) Bestimmen Sie die Lösungsmenge des linearen Gleichungssystems Ax b) Ist Ax b mit b lösbar? (Begründen
MehrEigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
MehrEinführung Eigenwerte
Einführung Eigenwerte Bei der Modellierung von Stabweren, entstehen folgende Systeme: p = Ax mit A = ENE T, Verschiebungsvetor x und Lastvetor p und Diagonalmatrix N mit den Materialeigenschaften. Betrachtet
MehrEinführung Eigenwerte
Einführung Eigenwerte Bei der Modellierung von Stabweren, entstehen folgende Systeme: p = Ax mit A = ENE T, Verschiebungsvetor x und Lastvetor p und Diagonalmatrix N mit den Materialeigenschaften. Betrachtet
MehrLineare Differentialgleichungen
Technische Universität München Thomas Reifenberger Vorlesung, Kapitel 4 Repetitorium Analysis I für Physiker Analysis I Lineare Differentialgleichungen 1 Das Matrixexponential Definition 1.1 Sei A C n
MehrHauptachsentransformation: Eigenwerte und Eigenvektoren
Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung
MehrKlausur zu Grundlagen der Computermathematik
Prof. Dr. Klaus Höllig. März 11 Klausur zu Grundlagen der Computermathematik en Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. a Die Folge A n x/ A n
MehrKomplexe Lineare Algebra. Lösung allgemeiner Linearer Systeme (m n möglich) Die Lösbarkeit eines linearen Systems
Determinante und Inverse Lösung allgemeiner Linearer Systeme (m n möglich) Die Lösbarkeit eines linearen Systems Ax = b R m, x R n, A R mn hängt sehr stark vom sogenannten Rang der m n Matrix A ab Diese
Mehre At = e λt e (A λi)t.
Priv.-Doz. G. Reißig, F. Goßmann M.Sc Universität der Bundeswehr München Institut für Steuer- und Regelungstechnik (LR-15) Email: felix.gossmann@unibw.de Moderne Methoden der Regelungstechnik, H 2016 Übung
MehrLösung 13: Unitäre Vektorräume und normale Abbildungen
D-MATH Lineare Algebra II FS 2017 Dr. Meike Akveld Lösung 13: Unitäre Vektorräume und normale Abbildungen 1. a) Im Folgenden sei γ : V V C die Abbildung γ(v, w) v + w 2 v w 2 i v + iw 2 + i v iw 2. : Wir
MehrLineare Algebra II, Lösungshinweise Blatt 9
Prof Dr Katrin Wendland Priv Doz Dr Katrin Leschke Christoph Tinkl SS 27 Lineare Algebra II, Lösungshinweise Blatt 9 Aufgabe (4 Punkte) Sei 2 3 4 A = 5 6 Berechnen Sie A k für alle k N und verifizieren
MehrKlausur zur Höheren Mathematik I (ET/IT/AI/IKT/P/MP) WS 2016/
Dr. P. Furlan Dr. J. Horst Fakultät Mathematik Technische Universität Dortmund Klausur zur Höheren Mathematik I (ET/IT/AI/IKT/P/MP) WS 06/7 6.0.07 Es sind insgesamt 50 Punkte erreichbar. Bei mindestens
MehrKlausur Lineare Algebra I am Es sind insgesamt 60 Punkte bei der Klausur zu erreichen.
Klausur Lineare Algebra I am 03.02.10 Es sind insgesamt 60 Punkte bei der Klausur zu erreichen. Aufgabe 1. (6 Punkte insgesamt) a.) (3P) Definieren Sie, was eine abelsche Gruppe ist. b.) (3P) Definieren
MehrMathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen
Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β
MehrLineare Algebra und analytische Geometrie II
Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 53 Norm von Endomorphismen und Matrizen Definition 53.1. Es seien V und W endlichdimensionale normierte K-
MehrÜbungen zu Lineare Algebra und Geometrie 1
Übungen zu Lineare Algebra und Geometrie 1 Andreas Čap Sommersemester 2015 Wiederholung grundlegender Begriffe (1 Bestimme Kern und Bild der linearen Abbildung f : R 3 R 3, die gegeben ist durch f(x, y,
Mehr2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren
2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;
MehrSerie a) Welche der folgenden Vektoren sind Eigenvektoren der Matrix 1 0 1? 0 1 1
Prof. Norbert Hungerbühler Serie Lineare Algebra II ETH Zürich - D-MAVT. a Welche der folgenden Vektoren sind Eigenvektoren der Matrix? i (,,. ii (,,. iii (,,. iv (, 3,. v (,,. Ein Vektor v ist Eigenvektor
MehrLösung 5: Gram-Schmidt Orthogonalisierung, adjungierte Abbildungen
D-MATH Lineare Algebra II FS 7 Dr. Meike Akveld Lösung 5: Gram-Schmidt Orthogonalisierung, adjungierte Abbildungen. a) Wegen der Linearität im ersten Argument gilt sicherlich w S :, w =. Somit ist S und
MehrLineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.
Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren
MehrLösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink
Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung
MehrAbschnitt 2.5: QR-Verfahren 31
Abschnitt 2.5: QR-Verfahren 31 Bemerkungen 2.5.7 i) Der Aufwand des oben beschriebenen Verfahrens, eine Matrix A R n n in obere Hessenbergform zu überführen, beträgt ungefähr 5 3 n3 Operationen. Hierbei
MehrÖkonometrische Analyse
Institut für Statistik und Ökonometrie, Freie Universität Berlin Ökonometrische Analyse Dieter Nautz, Gunda-Alexandra Detmers Rechenregeln für Matrizen Notation und Matrixeigenschaften: Eine Matrix A der
Mehr