Abschnitt 2.5: QR-Verfahren 31
|
|
- Stefanie Brandt
- vor 5 Jahren
- Abrufe
Transkript
1 Abschnitt 2.5: QR-Verfahren 31 Bemerkungen i) Der Aufwand des oben beschriebenen Verfahrens, eine Matrix A R n n in obere Hessenbergform zu überführen, beträgt ungefähr 5 3 n3 Operationen. Hierbei wird angenommen, dass die Householder-Matrizen Q j nicht explizit berechnet werden, sondern nur implizit über den jeweiligen Householdervektor gegeben sind. ii) Eine symmetrische Matrix A R n n wird mit obigem Algorithmus zu einer symmetrischen Tridiagonalmatrix transformiert, denn die Symmetrie bleibt erhalten. Wir schließen diesen Abschnitt mit einer Matlab-Realisierung der Transformation einer beliebigen reellwertigen quadratischen Matrix auf obere Hessenbergform. MATLAB-Funktion: HessRed.m 1 function [A] = HessRed(A) 2 % Reduction of the square matrix A to the upper 3 % Hessenberg form using Householder reflectors. 4 % Matrix A is overwritten with its upper Hessenberg form. 5 n = size(a,1); 6 for k=1:n-2 7 [v,beta] = HouseholderVector(A(k+1:n,k)); 8 A(k+1:n,k:n) = A(k+1:n,k:n) - beta*v*(v *A(k+1:n,k:n)); 9 A(:,k+1:n) = A(:,k+1:n) - beta*(a(:,k+1:n)*v)*v ; 1 Q = eye(numel(k+1:n)) - beta*(v*v ); 11 MATLAB-Funktion: HouseholderVector.m 1 function [v,beta] = HouseholderVector(x) 2 n = length(x); 3 if n>1 4 sigma = x(2:) *x(2:); 5 if sigma== 6 beta = ; 7 else 8 mu = sqrt(x(1)ˆ2+sigma); 9 if x(1)<= 1 tmp = x(1) - mu; 11 else 12 tmp = -sigma / (x(1) + mu); beta = 2*tmpˆ2/(sigma + tmpˆ2); 15 x(2:) = x(2:)/tmp; v = [1;x(2:)]; 18 else 19 beta = ; 2 v = 1; 21
2 32 Kapitel 2: Eigenwertprobleme Das QR-Verfahren für Matrizen in Hessenbergform Nachdem im letzten Abschnitt eine Möglichkeit zur Reduktion einer Matrix A R n n in obere Hessenbergform gefunden worden ist, wird nun eine Variante der QR-Zerlegung für obere Hessenbergmatrizen vorgestellt, die nur einen Aufwand von O(n 2 ) Operationen benötigt. Um die Eigenwerte der Matrix A zu bestimmen, kann man dann zunächst die Transformation auf Hessenbergform vornehmen und auf diese Matrix die hier beschriebene QR-Zerlegung ausführen. Der Rechenaufwand wird mit diesem Vorgehen von O(n 3 ) Operationen pro Iterationsschritt im Basisverfahren der QR-Iteration auf einmalig O(n 3 ) für die Matrixreduktion sowie O(n 2 ) Operationen in jedem Iterationsschritt verringert. Eine QR-Zerlegung einer Hessenbergmatrix H R n n lässt sich mittels n 1 Givens-Rotationen effektiv berechnen. Bezeichnet G i,j für i, j {1,...,n} diejenige Givens-Matrix, die bei Multiplikation von G T i,j mit H von links bewirkt, dass der Eintrag h ij verschwindet, so ist G T n,n 1...G T 2,1H = R eine obere Dreiecksmatrix. Beispielsweise erhalten wir für n =5: H = + GT 2,1 + GT 3,2 G T 4,3 Eine QR-Zerlegung von H ist somit durch + GT 5,4 + = R. H = QR mit Q = G 2,1...G n,n 1 gegeben. Betrachtet man nun die Matrix RQ, so ist aufgrund der Struktur der Matrizen G i+1,i, i =1,...,n 1, klar, dass diese Matrix wieder obere Hessenbergform hat. Für den oben aufgeführten Fall n =5sieht dies wie folgt aus: + + R = G 2,1 G 3, G 4, G 5,4 = H (1) Aufgrund der Eigenschaft, dass für die oben genannte QR-Zerlegung von H die Matrix RQ wiederum in oberer Hessenbergform ist, lässt sich die QR-Iteration für Hessenbergmatrizen folgermaßen formulieren.
3 Abschnitt 2.5: QR-Verfahren 33 Algorithmus 2.5.2: QR-Iteration für obere Hessenbergmatrizen Input: H R n n Setze H () = H. for k =1, 2,... H (k 1) = Q k R k H (k) = R k Q k obere Hessenbergmatrix % Bestimme QR-Zerlegung mit n 1 Givens-Rotationen % wieder in Hessenbergform Bemerkungen i) Man kann die Matrix H (k) aus H (k 1) auch direkt berechnen, indem man die einzelnen Matrixmultiplikationen gemäß der durch die folge Klammerung angedeutete Reihenfolge durchführt ( ( )) ) H (k) = G T n,n 1... G T 3,2 ((G T 2,1H (k 1) )G 2,1 G 3,2... G n,n 1. (2.18) Der Aufwand, auf diese Weise aus der Hessenbergmatrix H (k 1) die Hessenbergmatrix H (k) zu berechnen, liegt bei O(n 2 ) Operationen. ii) Im symmetrischen Fall, d.h. H (k 1) ist eine symmetrische Tridiagonalmatrix, benötigt man für den QR-Schritt H (k 1) H (k) sogar nur O(n) Operationen. Aufgabe Man zeige, dass die Berechnung der Matrix H (k) in (2.18) einen Aufwand von O(n 2 ) Operationen erfordert. Eine Matlab-Realisierung der QR-Iteration für Matrizen in Hessenbergform ist nachfolg dargestellt. MATLAB-Funktion: qrmethod hess.m 1 % QR Method for Hessenberg Matrices with Givens Rotations 2 3 function [H,Q,R] = qrmethod_hess(a,maxit) 4 5 n = max(size(a)); 6 H = hess(a); 7 for iter = 1:maxit 8 [Q,R,c,s] = qrgivens(h); 9 H = R; 1 for k = 1:n-1 11 H = gacol(h,c(k),s(k),1,k+1,k,k+1);
4 34 Kapitel 2: Eigenwertprobleme 16 % Determine QR-Factorization with Givens rotations 17 function [Q,R,c,s] = qrgivens(h) n = size(h,2); 2 21 c = zeros(n-1,1); 22 s = zeros(n-1,1); 23 for k = 1:n-1 24 [c(k),s(k)] = givcos(h(k,k),h(k+1,k)); 25 H = garow(h,c(k),s(k),k,k+1,k,n); R = H; 28 Q = prodgiv(c,s,n); % Calculate product of Givens-Rotation-Matrices 32 function Q = prodgiv(c,s,n) n1 = n-1; n2 = n-2; 35 Q = eye(n); 36 %write last matrix 37 Q(n1,n1) = c(n1); Q(n, n) = c(n1); 38 Q(n1,n ) = s(n1); Q(n,n1) = -s(n1); 39 4 for k = n2:-1:1 41 Q(k,k) = c(k); 42 Q(k+1,k) = -s(k); 43 q = Q(k+1, (k+1):n); 44 Q(k,(k+1):n) = s(k)*q; 45 Q(k+1,(k+1):n) = c(k)*q; % Calculate c and s for one rotation 49 function [c,s] = givcos(xi,xk) 5 51 if xk== 52 c = 1; s=; 53 else 54 if abs(xk)>abs(xi) 55 t = -xi/xk; 56 s = 1/sqrt(1+tˆ2); 57 c = s*t; 58 else 59 t = -xk/xi; 6 c = 1/sqrt(1+tˆ2); 61 s = c*t; %Calculate Q *A whereq is one rotation 66 function M = garow(m,c,s,i,k,j1,j2) for j = j1:j2 69 t1 = M(i,j); 7 t2 = M(k,j); 71 M(i,j) = c*t1 - s*t2; 72 M(k,j) = s*t1 + c*t2; 73
5 Abschnitt 2.5: QR-Verfahren %Calculate A*Q where Q is one rotation 75 function M = gacol(m,c,s,j1,j2,i,k) for j = j1:j2 78 t1 = M(j,i); 79 t2 = M(j,k); 8 M(j,i) = c*t1 - s*t2; 81 M(j,k) = s*t1 + c*t2; 82 MATLAB-Beispiel: QR-Iteration für Hessenbergmatrix Man bestimme die Eigenwerte der Hessenbergmatrix H = mittels QR-Iteration. >> qrmethod_hess(h,5) ans = >> qrmethod_hess(h,1) ans = >> qrmethod_hess(h,15) ans = Das QR-Verfahren mit einfachem expliziten Shift Analog zur Potenzmethode ist die Konvergenz der QR-Iteration abhängig von der Lage der Eigenwerte. Sind diese betragsmäßig schlecht voneinander getrennt, kann die Konvergenzgeschwindigkeit des Verfahrens sehr langsam sein, vgl. Satz Wie bei der inversen Iteration nach Wielandt kann man mit Hilfe von Shiftparametern versuchen, das Spektrum der Matrix, deren Eigenwerte berechnet werden sollen, so zu verändern, dass die Konvergenz beschleunigt wird. Dies ist die Idee des QR-Verfahrens mit explizitem Shift. Wir setzen im Folgen stets voraus, dass eine Matrix H R n n in oberer Hessenbergform vorliegt. Andernfalls kann die Matrix wie in Abschnitt beschrieben auf diese Gestalt gebracht werden. Außerdem können wir o.b.d.a. annehmen, dass die Hessenbergmatrix H unreduziert ist. Ist sie dies nicht, so hat H die Form ( ) H11 H H = 12 H 22 p n p p n p wobei 1 p<nund das Problem zerfällt in zwei kleinere Probleme, nämlich in die Bestimmung der Eigenwerte von H 11 und H 22. Im Fall p = n 1 oder p = n 2 wird häufig auch von Deflation gesprochen. Gegeben ein Shiftparameter µ k R, wet man bei QR-Verfahren mit einfachem expliziten
6 36 Kapitel 2: Eigenwertprobleme Shift im k-ten Schritt die QR-Zerlegung nicht auf H (k 1) an, sondern auf wobei µ k so gewählt wird, dass H (k 1) = H (k 1) µ k I, λ 1 µ k λ 2 µ k... λ n 1 µ k λ n µ k nach eventueller Umnummerierung der Eigenwerte λ 1,...,λ n von H (k 1) gilt. Es ergibt sich so der folge Algorithmus. Algorithmus 2.5.3: QR-Iteration mit einfachem expliziten Shift Input: H R n n obere Hessenbergmatrix, (µ k ) k N Folge von Shiftparametern Setze H () = H. for k =1, 2,... H (k 1) µ k I = Q k R k % Bestimme QR-Zerlegung (2.19) H (k) = R k Q k + µ k I Lemma Für die Folge (H (k) ) k N aus Algorithmus gilt: i) H (k) ist orthogonal ähnlich zu H für alle k N, genauer gilt mit P k := Q 1 Q 2...Q k. ii) Für k N gilt außerdem H (k) = Q T k H(k 1) Q k = P T k HP k, (H µ k I)... (H µ 1 I)=Q 1... Q k R k... R 1. iii) Falls darüberhinaus R k nichtsingulär ist, gilt auch mit U k := R k R k 1...R 1. H (k) = R k H (k 1) R 1 k = U k HU 1 k, Beweis. Die Aussagen ergeben sich sofort aus Algorithmus und seien daher dem Leser als Übung überlassen. Aufgabe Man beweise Lemma Wir wissen bereits aus dem vorherigen Abschnitt, dass H (k) wiederum eine Matrix in oberer Hessenbergform ist, sofern H (k 1) diese Form besitzt. Man kann diese Aussage für die QR-Iteration mit explizitem Shift aber noch erweitern.
7 Abschnitt 2.5: QR-Verfahren 37 Satz Sei H (k 1) R n n eine unreduzierte obere Hessenbergmatrix. H (k) ist genau dann wieder eine unreduzierte Hessenbergmatrix, wenn der Shiftparameter µ k kein Eigenwert von H (k 1) ist. Andernfalls besitzt H (k) die Form ( ) H(k) H (k) =, µ k wobei H (k) R (n 1) (n 1) eine unreduzierte Hessenbergmatrix ist. Beweis. Aus (2.19) folgt R k = Q T k (H(k 1) µ k I). (2.2) Falls µ k kein Eigenwert von H (k 1) ist, muss R k regulär sein und es folgt aus für die Einträge von H (k), dass h (k) H (k) = R k H (k 1) R 1 k, j+1,j = et j+1h (k) e j = e T j+1r k H (k 1) R 1 k e j = r (k) j+1,j+1 h(k 1) j+1,j (r(k) jj ) 1. Also zerfällt auch H (k) nicht. Sei nun µ k ein Eigenwert von H (k 1). Dann ist R k singulär. Da H (k 1) eine unzerlegbare Hessenbergmatrix ist, sind die ersten n 1 Spalten von H (k 1) µ k I linear unabhängig. Wegen (2.2) sind auch die ersten n 1 Spalten von R k linear unabhängig. Aufgrund der Singularität von R k muss die letzte Zeile von R k verschwinden, also R k die Gestalt ( ) Rk R k = besitzen mit einer regulären oberen Dreiecksmatrix R k R (n 1) (n 1). Wegen ( ) Rk H (k 1) µ k I = Q k R k = Q k und aufgrund der Tatsache, dass H (k 1) unzerlegbar ist, ist auch Q k eine unzerlegbare Hessenbergmatrix. Daher besitzt H (k) folge Struktur ( ) ( ) Rk H (k) H(k) = R k Q k + µ k I = Q k + µ k I = µ k mit einer unzerlegbaren Hessenbergmatrix H (k). Wen wir uns nun der Wahl der Shiftparameter zu. Nach den obigen Überlegungen sollte man als Shiftparameter möglichst gute Näherungswerte für einen Eigenwert von H wählen. Gemäß Satz gilt: Existiert nur ein betragsmäßig kleinster Eigenwert λ n von H, so gilt unter bestimmten Voraussetzungen im QR-Verfahren lim nn = λ n. Das Element h (k) nn wird also in k h(k) diesem Fall für genüg großes k eine gute Näherung an λ n sein. Es empfiehlt sich daher µ k = h (k 1) nn zu setzen, sobald die Konvergenz der Elemente h (k 1) nn fortgeschritten ist. Ein möglicher Indikator dafür ist z.b., dass 1 h(k 2) nn η < 1 h (k 1) nn für ein kleines η gilt. Hierbei liefert bereits die Wahl η =1/3gute Ergebnisse. Sofern die Einträge h (k) n,n 1 gegen Null konvergieren, geschieht dies mit quadratischer Konvergenzrate. Um dies zu sehen, betrachten wir ein Beispiel.
8 38 Kapitel 2: Eigenwertprobleme Beispiel Nehmen wir an, H ist eine unreduzierte obere Hessenbergmatrix der Form H = ɛ h nn und wir führen einen Schritt der QR-Iteration mit einfachem expliziten Shift aus: QR = H h nn I H = RQ + h nn I. Nach n 2 Schritten in der Reduktion von H h nn I auf obere Dreiecksform, erhält man eine Matrix mit der folgen Struktur: H = a b. ɛ Man kann zeigen, dass der (n, n 1)-te Eintrag von H = RQ + h nn I durch ɛ2 b ɛ 2 + a 2 gegeben ist. Nimmt man an, dass ɛ a, so gilt h n,n 1 = O(ɛ 2 ), d.h. der Algorithmus konvergiert quadratisch Das QR-Verfahren mit doppeltem expliziten Shift Leider ist der Algorithmus in einigen Fällen nicht zielführ. Probleme können auftreten, wenn in einer Iteration die Eigenwerte a 1 und a 2 von ( ) hmm h G = mn m = n 1 h nm h nn komplexwertig sind, da dann h nn meistens eine schlechte Approximation für einen Eigenwert ist. Um dieses Problem zu umgehen, kann meine zwei einfache Shifts mit a 1 und a 2 als Shiftparameter ausführen. H a 1 I = U 1 R 1 H 1 = R 1 U 1 + a 1 I H 1 a 2 I = U 2 R 2 H 2 = R 2 U 2 + a 2 I Diese Vorgehensweise würde allerdings komplexwertige Arithmetik erfordern (a 1 und a 2 sind komplexwertig!) und ist daher noch nicht zufriedenstell. Man kann aber analog zu Lemma zeigen, dass (U 1 U 2 )(R 2 R 1 )=(H a 1 I)(H a 2 I)=:M (2.21) gilt. Schaut man sich die Matrix M näher an M = H 2 (a 1 + a 2 )H + a 1 a 2 I,
9 Abschnitt 2.5: QR-Verfahren 39 so stellt man fest, dass sie reellwertig ist, sofern H nur reelle Einträge besitzt, denn a 1 + a 2 = h mm + h nn = trace(g) R (2.22) a 1 a 2 = h mm h nn h mn h nm =det(g) R. (2.23) Daher ist (2.21) eine QR-Zerlegung einer reellwertigen Matrix und man kann die unitären Matrizen U 1 und U 2 so wählen, dass Z := U 1 U 2 eine reellwertige orthogonale Matrix ist. Dann ist H 2 = U H 2 H 1 U 2 = U H 2 (U H 1 HU 1 )U 2 =(U 1 U 2 ) H H(U 1 U 2 )=Z T HZ ebenfalls reell. Aufgrund von Rundungsfehlern ist es aber in der Regel nicht möglich von der komplexwertigen Arithmetik zur reellwertigen zurückzukehren. Um dies zu gewährleisten, könnte man 1. die reellwertige Matrix M = H 2 (a 1 + a 2 )H + a 1 a 2 I explizit berechnen, 2. die reelle QR-Zerlegung M = ZR berechnen und 3. H 2 = Z T HZ setzen. Da allerdings der erste dieser Schritte O(n 3 ) Rechenoperationen erfordern würde, ist dieses Vorgehen zu aufwig. Eine Lösung dieses Problems stellt das QR-Verfahren mit doppeltem impliziten Shift dar Das QR-Verfahren mit doppeltem impliziten Shift Den Schlüssel zur Reduktion des Aufwandes von O(n 3 ) auf O(n 2 ) Rechenoperationen liefert der folge Satz, das sog. implizite Q-Theorem. Satz (Implizites Q-Theorem, [Golub/Loan]) Q =[q 1,...,q n ] und V =[v 1,...,v n ] seien orthogonale Matrizen mit der Eigenschaft, dass für eine Matrix A R n n sowohl Q T AQ = H als auch V T AV = G in oberer Hessenbergform sind. Sei k der kleinste Index, für den h k+1,k = gilt, wobei wir definieren, dass k = n gilt, wenn H unreduziert ist. Sofern q 1 = v 1 gilt, dann ist q i = ±v i für i = 2,...,k und h j+1,j = g j+1,j für j =1,...,k 1. Ist k<n, so gilt g k+1,k =. Beweis. Wir definieren die orthogonale Matrix W =[w 1,...,w n ] via W := V T Q und bemerken, dass GW = WH gilt. Daher erhalten wir für i =2,...,k i 1 h i,i 1 w i = Gw i 1 h j,i 1 w j. Die erste Spalte von W ist gleich dem ersten kanonischen Einheitsvektor, w 1 = e 1, und so folgt aus der letzten Gleichung, dass [w 1,...,w k ] obere Dreiecksform hat. Daher ist w i = ±e i für i =2,...,k.Daw i = V T q i und h i,i 1 = w T i Gw i 1 gilt, erhalten wir schließlich, dass v i = ±q i und h i,i 1 = g i,i 1 für i =2,...,k. Ist h k+1,k =, dann ergibt sich j=1 g k+1,k = e T k+1 Ge k = e T k+1 GW e k = (e T k+1 W )(He k) k k = e T k+1 h ik We i = h ik e T k+1 e i =. i=1 i=1
10 4 Kapitel 2: Eigenwertprobleme Bemerkung Man kann die Aussage des Satzes auch auf den Fall unitärer Matrizen Q und V erweitern. Hierzu sei auf [Stoer, Satz ] verwiesen. Wir sind nun in der Lage, den Übergang von H zu H 2 aus obigem Abschnitt mit einem Aufwand von O(n 2 ) Rechenoperationen zu bewerkstelligen, indem wir folgermaßen vorgehen: 1. berechne Me 1, also die erste Spalte von M, 2. bestimme eine Householdermatrix P, sodass P (Me 1 ) ein Vielfaches von e 1 ist, 3. bestimme weitere Householdermatrizen P 1,...,P n 2, sodass für das Produkt Z 1 = P P 1...P n 2 die Matrix Z T 1 HZ 1 in oberer Hessenbergform ist und die erste Spalte von Z 1 mit derjenigen von Z übereinstimmt. Unter diesen Umständen kann man mit dem impliziten Q-Theorem schließen, dass Z T HZ und Z1 T HZ 1 bis auf Vorzeichen übereinstimmen, sofern sie beide unreduzierte Hessenbergmatrizen sind. Sind sie dies nicht, so zerfällt das Problem wie zu Beginn von Abschnitt beschrieben in kleinere Probleme in unreduzierter Hessenberggestalt. Die erste Spalte von M kann man leicht berechnen: h 11 a 1 h h 11 a 2 h 21 h 22 a 1 h h 21 m := Me 1 =(H a 1 I)(H a 2 I)e 1 =. h 32 h 33 a (h 11 a 1 )(h 11 a 2 )+h 12 h 21 x h 21 (h 11 a 2 )+h 21 (h 22 a 1 ) y h 32 h 21 z = = wobei nach Einsetzen von (2.22) und (2.23).. x = h h 12 h 21 h 11 (h n 1,n 1 + h nn )+h n 1,n 1 h nn h n 1,n h n,n 1 y = h 21 (h 11 + h 22 h n 1,n 1 h nn ) z = h 21 h 32. Man bestimmt nun eine (reelle) Householdermatrix P, sodass der Vektor m in ein Vielfaches des ersten kanonischen Basisvektors e 1 transformiert wird: x y z P m = P = r 11 e 1, r 11 R.. P besitzt wegen M = P T P M = P 2 M = P [r 11 e 1,,..., ] bis auf einen Faktor ±1 die gleiche erste Spalte wie Z. Da eine Ähnlichkeitstransformation mit P nur eine Änderungen in den ersten drei Zeilen und
11 Abschnitt 2.5: QR-Verfahren 41 Spalten bewirkt, ergibt sich für die Matrix P T HP folge Form (hier n =6) P T HP = + P = Nun besteht die Aufgabe der Householdermatrizen P 1,...,P n 2 darin, die Hessenbergform der Matrix wiederherzustellen. P 1 T, P 1 + P 2 T, P P3 T, P 3 P 4 T, P Hierbei haben die Householdermatrizen die Gestalt P k = diag(i k, P k,i n k 3 ) für k =1,...,n 3, wobei P k eine 3 3-Householdermatrix ist. Für k = n 2 ist P n 2 = diag(i n 2, P n 2 ) mit einer 2 2-Householdermatrix P n 2. H P T HP P T 1 P T HP P 1... P T n 2 P T 1 P T HP P 1 P n 2 =: K K ist wiederum in Hessenbergform. Da die erste Spalte von P und von P... P n 2 übereinstimmen, d.h. P... P n 2 e 1 = P e 1, und da P und Z die gleiche erste Spalte haben, gilt nach dem impliziten Q-Theorem bis auf Vorzeichen H 2 = K. Damit haben wir also eine Möglichkeit gefunden, H 2 aus H mit einem Aufwand von insgesamt O(n 2 ) Rechenoperationen zu erhalten (n 1 Householdertransformationen, die jeweils einen Aufwand von O(n) erfordern). Diese implizite Bestimmung von H 2 aus H wurde zuerst von Francis im Jahr 1961 erwähnt und wird daher auch oft Francis-QR-Step genannt. Algorithmus 2.5.4: Francis-QR-Step Gegeben sei eine unreduzierte ( obere Hessenbergmatrix H R n n, hn 1,n 1 h deren Untermatrix n 1,n die Eigenwerte a 1 und a 2 besitzt. h n,n 1 h nn ) Dann überschreibt dieser Algorithmus H mit Z T HZ, wobei Z = P 1 P n 2 ein Produkt von Householdermatrizen und Z T (H a 1 I)(H a 2 I) eine obere Dreiecksmatrix ist. m = n 1 % Berechne die erste Spalte von(h a 1 I)(H a 2 I) s = H(m, m)+h(n, n) t = H(m, m)h(n, n) H(m, n)h(n, m)
12 42 Kapitel 2: Eigenwertprobleme x = H(1, 1)H(1, 1) + H(1, 2)H(2, 1) sh(1, 1) + t y = H(2, 1)(H(1, 1) + H(2, 2) s) z = H(2, 1)H(3, 2) for k =:n 3 P = house([xyz] T ) q =max{1,k} H(k +1:k +3,q : n) =PH(k +1:k +3,q : n) r =min{k +4,n} H(1 : r, k +1:k + 3) = H(1 : r, k +1:k + 3)P x = H(k +2,k+ 1) if k<n 3 z = H(k +4,k+ 1) P = house([xy] T ) H(n 1:n, n 2:n) =PH(n 1:n, n 2:n) H(1 : n, n 1:n) =H(1 : n, n 1:n)P Bemerkung Der Algorithmus benötigt 1n 2 Rechenoperationen. Soll die orthogonale Matrix Z zusätzlich konkret berechnet und abgespeichert werden, so sind hierfür weitere 1n 2 Rechenoperationen notwig Das gesamte QR-Verfahren Für eine nichtsymmetrische Matrix A R n n besteht die Standardmethode zur Lösung des Eigenwertproblems darin, A wie in beschrieben auf obere Hessenbergform zu transformieren und dann den Algorithmus iterativ anzuwen, um die reelle Schurform der Matrix A zu bestimmen. Währ der Iteration müssen die Elemente unterhalb der Diagonalen beobachtet werden, um eine mögliche Deflation auszumachen. Der gesamte Prozess zur Bestimmung der Eigenwerte von A ist in dem folgen Algorithmus umrissen. Bemerkung Der folge Algorithmus benötigt 25n 3 Rechenoperationen, wenn Q und T berechnet werden. Sollen nur die Eigenwerte berechnet werden, dann sind 1n 3 Rechenoperationen notwig.
13 Abschnitt 2.5: QR-Verfahren 43 Algorithmus 2.5.5: Gesamter QR-Algorithmus Gegeben A R n n und ein Toleranzwert tol > berechnet dieser Algorithmus die reelle Schurform Q T AQ = T. A wird mit der Hessenbergmatrix H überschrieben. Wenn Q und T bestimmt werden sollen, dann wird T in H gespeichert. Werden nur die Eigenwerte benötigt, dann werden die Diagonalblöcke von T in den entsprechen Positionen von H abgespeichert. 1. Reduziere A mittels n 2 Householder-Transformationen auf obere Hessenbergform; 2. while q<n Setze alle Elemente in der ersten unteren Nebiagonalen h i+1,i =, die h i+1,i tol( h ii + h i+1,i+1 ) i =1,...,n 1 erfüllen. Finde größtes q und kleinstes p, sodass wobei H 11 H 12 H 13 H = H 22 H 23 p n p q q H 33 p n p q q H 11 : obere Hessenbergmatrix H 22 : unreduzierte obere Hessenbergmatrix und H 33 : obere Quasi-Dreiecksmatrix (d.h. eine Dreicksmatrix, die auch 2 2-Blöcke auf der Diagonalen enthalten darf) sind. if q<n We einen Francis QR-Schritt auf H 22 an: H 22 = Z T H 22 Z if Q soll bestimmt werden Q = Q diag(i p,z,i q ) H 12 = H 12 Z H 23 = Z T H 23
QR-Algorithmus Praktische Anwendung auf reelle und komplexe Eigenwerte
QR-Algorithmus Praktische Anwendung auf reelle und komplexe Eigenwerte Proseminar - Numerische Mathematik Sommersemester 2005 - Universität Hamburg Fachbereich Mathematik geleitet von Prof. Wolf Hofmann
KAPITEL 7. Berechnung von Eigenwerten. Av = λv
KAPITEL 7. Berechnung von Eigenwerten Aufgabe: Sei A R n n eine reelle quadratische Matrix. Gesucht λ C und v C n, v 0, die der Eigenwertgleichung Av = λv genügen. Die Zahl λ heißt Eigenwert und der Vektor
4.6 Berechnung von Eigenwerten
4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.
20 Kapitel 2: Eigenwertprobleme
20 Kapitel 2: Eigenwertprobleme 2.3 POTENZMETHODE Die Potenzmethode oder Vektoriteration ist eine sehr einfache, aber dennoch effektive Methode zur Bestimmung des betragsmäßig größten Eigenwertes. Um die
QR-Iteration. Ax = λx Q T AQQ T x = λq T x.
Lehrstuhl für Numerische Mathemati QR-Iteration Vorüberlegung: Die Multipliation mit einer orthonormalen Matrix Q heißt Ähnlicheitstransformation. Die Eigenwerte einer Matrix A bleiben unter einer Ähnlicheitstransformation
QR-Algorithmus. Proseminar - Numerische Mathematik Sommersemester Universität Hamburg Fachbereich Mathematik geleitet von Prof.
QR-Algorithmus Proseminar - Numerische Mathematik Sommersemester 2005 - Universität Hamburg Fachbereich Mathematik geleitet von Prof. Wolf Hofmann 1 Im Laufe der Jahre wurde immer wieder versucht, die
3 Eigenwertberechnung
3 Eigenwertberechnung (3.) Definition Eine Matrix A R, heißt (obere) Block-Dreiecksmatrix, wenn ein n existiert, sodass A[n + :, : n] = 0 gilt, d.h.: A = ( ) A[ : n, : n] A[ : n,n + : ] 0 A[n + :,n + :
51 Numerische Berechnung von Eigenwerten und Eigenvektoren
5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,
Numerische Lineare Algebra
Numerische Lineare Algebra Oliver Ernst Professur Numerische Mathematik Wintersemester 2015/16 Inhalt I 1 Einleitung 1.1 Lineare Gleichungssysteme 1.2 Matrixfunktionen 1.3 Modellreduktion 1.4 Eigenwertaufgaben
Übungsblatt 12 Musterlösung
NumLinAlg WS56 Übungsblatt 2 Musterlösung Lösung 44 (QR-Algorithmus mit Wilkinson-Shift und Deflation) a)+b) Die QR-Iteration zur Berechnung aller Eigenwerte einer Matrix A kann wie folgt implementiert
3 Lineare Gleichungssysteme
Lineare Gleichungssysteme Wir wissen bereits, dass ein lineares Gleichungssystem genau dann eindeutig lösbar ist, wenn die zugehörige Matrix regulär ist. In diesem Kapitel lernen wir unterschiedliche Verfahren
Einführung Eigenwerte
Einführung Eigenwerte Bei der Modellierung von Stabweren, entstehen folgende Systeme: p = Ax mit A = ENE T, Verschiebungsvetor x und Lastvetor p und Diagonalmatrix N mit den Materialeigenschaften. Betrachtet
Einführung Eigenwerte
Einführung Eigenwerte Bei der Modellierung von Stabweren, entstehen folgende Systeme: p = Ax mit A = ENE T, Verschiebungsvetor x und Lastvetor p und Diagonalmatrix N mit den Materialeigenschaften. Betrachtet
1 Matrizenrechnung zweiter Teil
MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten
Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB)
Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Prof. R. Leithner, Dipl. Phys. E. Zander Wintersemester 2010/2011 Kapitel 6 Eigenwerte
Numerik SS Musterlösung zu Hausaufgabenblatt 1
PROF DR BERND SIMEON CHRISTIAN GOBERT THOMAS MÄRZ Numerik SS 2009 Musterlösung zu Hausaufgabenblatt Aufgabe Links- und Rechtseigenpaare (20 P) Definition: Sei A C n n Ein Vektor 0 = x C n heißt (Rechts-)eigenvektor
bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR
LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine
Numerisches Programmieren, Übungen
Technische Universität München SoSe 3 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Jürgen Bräckle Numerisches Programmieren, Übungen Musterlösung 3. Übungsblatt:
Numerisches Programmieren, Übungen
Technische Universität München SoSe 8 Institut für Informatik Prof. Dr. Thomas Huckle Michael Rippl Fabio Gratl Numerisches Programmieren, Übungen Musterlösung 3. Übungsblatt: Gaußelimination mit Pivotsuche,
Lineare Algebra 1. Roger Burkhardt
Lineare Algebra 1 Roger Burkhardt roger.burkhardt@fhnw.ch Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 2 Rechenoperationen und Gesetze Gleichheit
Begleitmaterial zur Vorlesung Numerik II
Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik
2 Lineare Gleichungssysteme
Vorlesungsskript HM-Numerik (SS 4): Kapitel Version: 9 Mai 4 Lineare Gleichungssysteme Gegeben: A R n n mit det(a) b R n Gesucht: x R n mit Ax = b Zeilenäquilibrierung Möchten zunächst die Kondition des
QR Zerlegung mit Householder Transformationen. Numerische Mathematik1 WS 2011/12
QR Zerlegung mit Householder Transformationen Numerische Mathematik1 WS 0/1 Orthogonales Eliminieren /33 Sei x R n ein Vektor x = 0. Ziel: Ein orthogonales H R n;n bestimmen, sodass Hx = kxke 1 ; ein Vielfaches
Die Top 10 der Algorithmen Der QR-Algorithmus
Die Top 10 der Algorithmen Der QR-Algorithmus Hans Hansen TU Chemnitz WS 04/05 17. Januar 2005 1 INHALTSVERZEICHNIS 2 Inhaltsverzeichnis 1 Geschichte 3 2 Die Grundidee 3 3 Ähnlichkeitstransformationen
3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q:
Lineare Algebra D-MATH, HS 214 Prof Richard Pink Serie 5 1 [Aufgabe] Invertieren Sie folgende Matrizen über Q: 1 a) 1 1 1 1 1 2 1 1 1 b) 1 2 1 1 1 1 2 1 1 1 1 2 1 2 3 1 c) 1 3 3 2 2 1 5 3 1 2 6 1 [Lösung]
Das QZ-Verfahren. vorgelegt von Janina Gnutzmann. Erstgutachter: Prof. Dr. Steffen Börm Zweitgutachter: Dipl.-Math.
Das QZ-Verfahren Bachelor-Arbeit im 1-Fach Bachelorstudiengang Mathematik der Mathematisch-Naturwissenschaftlichen Fakultät der Christian-Albrechts-Universität zu Kiel vorgelegt von Janina Gnutzmann Erstgutachter:
Lineares Gleichungssystem
Lineares Gleichungssystem Ein System von m linearen Gleichungen in n Unbekannten besteht aus einer Menge von algebraischen Relationen der Form n a ij x j = b i, i =,...,m, j= wobei a ij R, i m, j n, die
Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009
Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx
4. Übungsblatt zur Mathematik II für Inf, WInf
Fachbereich Mathematik Prof Dr Streicher Dr Sergiy Nesenenko Pavol Safarik SS 010 11 15 Mai 4 Übungsblatt zur Mathematik II für Inf, WInf Gruppenübung Aufgabe G13 (Basistransformation) ( ) 15 05 Die lineare
III Das Symmetrische Eigenwertproblem (SEP)
III Das Symmetrische Eigenwertproblem (SEP) III3 Algorithmen für symmetrische tridiagonale Eigenwertprobleme Sei im folgenden a b A = b a b b n a n b n b n a n R n n, zb nach Householder- oder Lanczos(im
Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren
Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren
Numerische Methoden 4. Übungsblatt
Karlsruher Institut für Technologie (KIT) SS 0 Institut für Analysis Prof. Dr. Michael Plum Dipl.-Math.techn. Rainer Mandel Numerische Methoden 4. Übungsblatt Aufgabe 9: QR-Verfahren (Bearbeitung bis Do,.05.)
Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v.
Teil I Lineare Algebra I Vorlesung Sommersemester 2011 Olga Holtz MA 378 Sprechstunde Fr 14-16 und nv holtz@mathtu-berlinde Sadegh Jokar MA 373 Sprechstunde, Do 12-14 und nv jokar@mathtu-berlinde Kapitel
QR-Zerlegung mit Householder-Transformationen
1/ QR-Zerlegung mit Householder-Transformationen Numerische Mathematik 1 WS 011/1 Orthogonales Eliminieren / Sei x R n ein Vektor x = 0. Ziel: Ein orthogonales H R n;n bestimmen, sodass Hx = kxke 1 ; ein
LR Zerlegung. Michael Sagraloff
LR Zerlegung Michael Sagraloff Beispiel eines linearen Gleichungssystems in der Ökonomie (Input-Output Analyse Wir nehmen an, dass es 3 Güter G, G, und G 3 gibt Dann entspricht der Eintrag a i,j der sogenannten
a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:
Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag
LR-Zerlegung. N = size(a,1); for n=1:n-1 A(n+1:N,n) = A(n+1:N,n)/A(n,n); A(n+1:N,n+1:N) = A(n+1:N,n+1:N) - A(n+1:N,n) * A(n,n+1:N); end;
LR-Zerlegung N = size(a,1); for n=1:n-1 A(n+1:N,n) = A(n+1:N,n)/A(n,n); A(n+1:N,n+1:N) = A(n+1:N,n+1:N) - A(n+1:N,n) * A(n,n+1:N); x = b; for n=2:n x(n) = x(n) - A(n,1:n-1) * x(1:n-1); for n=n:-1:1 x(n)
8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren
8. Vorlesung, 5. April 2017 170 004 Numerische Methoden I Eigenwerte und Eigenvektoren 1 Eigenwerte und Eigenvektoren Gegeben ist eine n n-matrix A. Gesucht sind ein vom Nullvektor verschiedener Vektor
5 Lineare Gleichungssysteme und Determinanten
5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von
Algorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 2015 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8 Such-Algorithmen
Lanczos Methoden. Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann. 15.
Lanczos Methoden Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann 15. Juni 2005 Lanczos-Methoden Lanczos-Methoden sind iterative Verfahren zur
Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K).
Matrizen - I Definition. Sei K ein Körper. Ein rechteckiges Schema A = a 11 a 12...... a 1n a 21 a 22...... a 2n............ a m1 a m2...... a mn wobei j K heißt Matrix bzw. eine m n Matrix (mit Elementen
2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren
2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;
Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte
Mathematik I Matrizen In diesem Kapitel werden wir lernen was Matrizen sind und wie man mit Matrizen rechnet. Matrizen ermöglichen eine kompakte Darstellungsform vieler mathematischer Strukturen. Zum Darstellung
5.2 Rechnen mit Matrizen
52 Rechnen mit Matrizen 52 Rechnen mit Matrizen 97 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij
K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 13. Übung: Woche vom (Lin.Alg.
Übungsaufgaben 13. Übung: Woche vom 23. 1.-27. 1. 2017 (Lin.Alg. II): Heft Ü 3: 1.1.3; 1.1.7 (a,b); 1.1.8; 1.1.11; 3.4.3 (b); 1.3.3 (c); 1.2.3 (b,d); Hinweis 1: 3. Test (Integration, analyt. Geom.) ist
Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte
Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)
Spezielle Matrixformen
Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß
3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
a ij x j max a ik = x 1 max max a ij x 0. a ij = e k 1 max
2.1 a) Sei x R n fest, aber beliebig gewählt. Sei i 0 {1,...,n} ein Index mit Dann gilt zunächst x i0 = max,...,n x i. x = max x i = x i0 = ( x i0 p) ( ) 1/p 1/p x i p = x p,...,n für alle p 1. Umgekehrt
Rechenaufwand der LR- und LDL T - Zerlegung
6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für
3 Matrizen und Lineare Gleichungssysteme
3 Matrizen und LGS Pink: Lineare Algebra HS 2014 Seite 38 3 Matrizen und Lineare Gleichungssysteme 3.1 Definitionen Sei K ein Körper, und seien m,n,l natürliche Zahlen. Definition: Eine Matrix mit m Zeilen
oder A = (a ij ), A =
Matrizen 1 Worum geht es in diesem Modul? Definition und Typ einer Matrix Spezielle Matrizen Rechenoperationen mit Matrizen Rang einer Matrix Rechengesetze Erwartungswert, Varianz und Kovarianz bei mehrdimensionalen
Kapitel 2: Lineare Gleichungssysteme
Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 2: Lineare Gleichungssysteme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 205 HM: Numerik (SS 205), Kapitel
Lösungshinweise zu den Hausaufgaben:
S. Hagh Shenas Noshari, 9. Gruppenübung zur Vorlesung S. Nitsche, C. Rösinger, A. Thumm, D. Zimmermann Höhere Mathematik Wintersemester 8/9 M. Stroppel Lösungshinweise zu den Hausaufgaben: Aufgabe H 33.
Algorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 2017 Dr. Stefanie Demirci Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8
2 Direkte Lösungsverfahren für lineare Gleichungen
2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei L R N N eine normierte untere Dreiecksmatrix und b R N. Dann ist L invertierbar und das Lineare Gleichungssystem (LGS) Ly = b ist mit O(N 2
MC-Serie 11: Eigenwerte
D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung
Lösung 5: Gram-Schmidt Orthogonalisierung, adjungierte Abbildungen
D-MATH Lineare Algebra II FS 7 Dr. Meike Akveld Lösung 5: Gram-Schmidt Orthogonalisierung, adjungierte Abbildungen. a) Wegen der Linearität im ersten Argument gilt sicherlich w S :, w =. Somit ist S und
Musterlösung 11. D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung
D-INFK Lineare Algebra HS 27 Özlem Imamoglu Olga Sorkine-Hornung Musterlösung. Wir bezeichnen die Spalten von A als A (a a 2 a 3 ) und die Spalten des Resultats der QR-Zerlegung mit Q (q q 2 q 3 ), R (r
37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016
Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b
5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21
5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11
Mathematik für Naturwissenschaftler II SS 2010
Mathematik für Naturwissenschaftler II SS 2010 Lektion 11 1. Juni 2010 Rechenregeln für Determinanten Satz 62. (Determinanten von Dreiecksmatrizen) Es sei A eine obere oder untere n n-dreiecksmatrix.
IX. Das symmetrische Eigenwertproblem (SEP)
IX. Das symmetrische Eigenwertproblem (SEP IX.3. Algorithmen für symmetrische tridiagonale Matrizen Sei a b. b A =........ a n b n (IX. b n a n z. B. nach Householder- oder Lanczos-Triagonalisierung (Kapitel
Klausur zu Grundlagen der Computermathematik
Prof. Dr. Klaus Höllig. März 11 Klausur zu Grundlagen der Computermathematik en Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. a Die Folge A n x/ A n
Lineare Gleichungssysteme: direkte Verfahren
Sechste Vorlesung, 24. April 2008, Inhalt Lineare Gleichungssysteme: direkte Verfahren Dreiecksmatrizen Gauß-Elimination LR-Zerlegung Anwendungen: Determinante, Inverse 1 Lösungsverfahren für lineare Gleichungssysteme
Eigenwertaufgaben. Heinrich Voss. TUHH Heinrich Voss Kapitel / 80.
Heinrich Voss voss@tu-harburg.de Hamburg University of Technology Institute for Numerical Simulation TUHH Heinrich Voss Kapitel 6 2010 1 / 80 Wir betrachten in diesem Kapitel die numerische Behandlung
Chr.Nelius : Lineare Algebra II (SS 2005) 1. Wir wollen hier eine Beschreibung des Gauß-Algorithmus mit Hilfe der sog. Elementarmatrizen vornehmen.
ChrNelius : Lineare Algebra II (SS 2005) 1 Einschub A) Elementarmatrizen Wir wollen hier eine Beschreibung des Gauß-Algorithmus mit Hilfe der sog Elementarmatrizen vornehmen (A1) DEF: Seien r, s IN mit
Numerische Lineare Algebra Spezielle Systeme
Numerische Lineare Algebra Spezielle Systeme Friedrich Solowjow 2. Mai 2012, Bonn 1 / 34 1 Einleitung Übersicht Definitionen 2 3 Datenzugriff Speichertechniken 2 / 34 Übersicht Definitionen Gliederung
8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.
Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren
3 Elementare Umformung von linearen Gleichungssystemen und Matrizen
3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange
TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX
TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende
In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)
34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)
Lösung Serie 11: Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung
D-MATH/D-PHYS Lineare Algebra I HS 06 Dr. Meike Akveld Lösung Serie : Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung. Um zu zeigen, dass es sich bei den gegebenen Vektoren um Basen handelt,
3 Determinanten, Eigenwerte, Normalformen
Determinanten, Eigenwerte, Normalformen.1 Determinanten Beispiel. Betrachte folgendes Parallelogramm in der Ebene R 2 : y (a + c, b + d) (c, d) (a, b) x Man rechnet leicht nach, dass die Fläche F dieses
Blockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 :
Blockmatrizen Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 : 2 1 3 1 1 0 1 0 1 0 0 2 1 1 11 1 1 4 0 1 0 1 0 1 4 1 0 2 1 0 1 0 1 0 3 1 2 1 = 2 4 3 5 11 1 1 4 0 1 0 1 0 1 5 1 2 1 2 4 3 5
Wiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
Dreiecksmatrizen. Die Treppennormalform
Dreiecksmatrizen. Die Treppennormalform Lineare Algebra I Kapitel 4-5 8. Mai 202 Logistik Dozent: Olga Holtz, MA 378, Sprechstunden Freitag 4-6 Webseite: www.math.tu-berlin.de/ holtz Email: holtz@math.tu-berlin.de
Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v
Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
bzw. eine obere Dreiecksmatrix die Gestalt (U: upper)
bzw. eine obere Dreiecksmatrix die Gestalt (U: upper) U = u 11 u 12 u 1n 1 u nn 0 u 22 u 2n 1 u 2n 0......... 0 0 u n 1n 1 u n 1n 0 0 0 u nn Eine nicht notwendig quadratische Matrix A = (a ij ) heißt obere
3.4 Trigonalisierung und Jordansche Normalform
3.4 Trigonalisierung und Jordansche Normalform Definition 3.4.1. Sei V ein K-Vektorraum, F End K (V ). Ein Unterraum U V heißt F -invariant falls F (U) U. Bemerkung. (1) Falls U V ein F -invarianter Unterraum
a ij i - te Gleichung (Zeile), i = 1,2,3,..., m
I) MATRIZEN Der Start: Lineare Gleichungen y ax+ a2x2 + a3x3 y2 a2x+ a22x2 + a23x3... Koeffizienten a ij i - te Gleichung (Zeile), i,2,3,..., m j - te Variable (Spalte), j,2,3,..., n Definition m x n Matrix
Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 2016/17
Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 6/7 837 Aufgabe Punkte): Gegeben sei das lineare Gleichungssystem Ax = b mit A = 6 3 und
Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching
Lineare Algebra 12. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 14, 2017 1 Erinnerung: Determinanten, Orthogonale/unitäre Matrizen Sei A R 2 2, dann kann die Inverse
Universität Tübingen Tübingen, den Mathematisches Institut D. Mansour, J. Seyrich
Universität Tübingen Tübingen, den 03.07.2013 Mathematisches Institut D. Mansour, J. Seyrich Probeklausur zu Algorithmen der Numerischen Mathematik SS 2013 ID Nummer: 1 Name:.........................................
3 Lineare Algebra Vektorräume
3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +
Matrix: Eine rechteckige Anordnung reeller Zahlen a ij (i = 1,..., n i ; j = 1,..., m) in Zeilen und Spalten. Die a ij heiÿen Elemente von A.
Matrizenrechnung Matrix: Eine rechteckige Anordnung reeller Zahlen a ij i = 1,..., n i ; j = 1,..., m in Zeilen und Spalten. Die a ij heiÿen Elemente von A. a 11 a 12... a ij... a 1m a 21 a 22.........
Eigenschaften der Matrizenmultiplikation. Transponierung. Spezielle Matrizen.
Eigenschaften der Matrizenmultiplikation. Transponierung. Spezielle Matrizen. Lineare Algebra I Kapitel 4 23. April 2013 Logistik Dozent: Olga Holtz, MA 417, Sprechstunden Freitag 14-16 Webseite: www.math.tu-berlin.de/
Numerik für Informatiker und Bioinformatiker. Daniel Weiß
Numerik für Informatiker und Bioinformatiker Daniel Weiß SS 202 Folgende Literatur bildet die Grundlage dieser Vorlesung: P Deuflhard, A Hohmann, Numerische Mathematik, Eine algorithmisch orientierte Einführung,
36 2 Lineare Algebra
6 Lineare Algebra Quadratische Matrizen a a n sei jetzt n m, A, a ij R, i, j,, n a n a nn Definition Eine quadratische Matrix A heißt invertierbar genau dann, wenn es eine quadratische Matrix B gibt, so
Hauptachsentransformation: Eigenwerte und Eigenvektoren
Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung
Ökonometrische Analyse
Institut für Statistik und Ökonometrie, Freie Universität Berlin Ökonometrische Analyse Dieter Nautz, Gunda-Alexandra Detmers Rechenregeln für Matrizen Notation und Matrixeigenschaften: Eine Matrix A der
7 Matrizen über R und C
Mathematik für Physiker I, WS 06/07 Montag 9 $Id: matrixtex,v 7 06//9 :58: hk Exp $ 7 Matrizen über R und C 7 Addition und Multiplikation von Matrizen In der letzten Sitzung haben wir begonnen uns mit
Kapitel 4. Determinante. Josef Leydold Mathematik für VW WS 2017/18 4 Determinante 1 / 24
Kapitel 4 Determinante Josef Leydold Mathematik für VW WS 2017/18 4 Determinante 1 / 24 Was ist eine Determinante? Wir wollen messen, ob n Vektoren im R n linear abhängig sind bzw. wie weit sie davon entfernt
= 9 10 k = 10
2 Die Reihe für Dezimalzahlen 1 r = r 0 +r 1 10 +r 1 2 100 + = r k 10 k, wobei r k {0,,9} für k N, konvergiert, da r k 10 k 9 10 k für alle k N und ( 1 ) k 9 10 k 9 = 9 = 10 1 1 = 10 10 k=0 k=0 aufgrund