Numerische Lineare Algebra

Ähnliche Dokumente
4.6 Berechnung von Eigenwerten

Begleitmaterial zur Vorlesung Numerik II

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

KAPITEL 7. Berechnung von Eigenwerten. Av = λv

Eigenwerte (Teschl/Teschl 14.2)

Ausgewählte Lösungen zu den Übungsblättern 9-10

8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren

Berechnung der Determinante

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

20 Kapitel 2: Eigenwertprobleme

MC-Serie 11: Eigenwerte

Klausurähnliche Aufgaben

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Lineare Algebra und Geometrie II, Übungen

6 Die Schursche Normalform und einige Klassen von Matrizen

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX

Sommer 2017 Musterlösung

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Eigenwerte und Diagonalisierung

Klausur zur Mathematik II (Modul: Lineare Algebra II) Sie haben 60 Minuten Zeit zum Bearbeiten der Klausur.

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

und Unterdeterminante

und Unterdeterminante

Lineare Algebra und Numerische Mathematik für D-BAUG

3.6 Eigenwerte und Eigenvektoren

QR-Algorithmus. Proseminar - Numerische Mathematik Sommersemester Universität Hamburg Fachbereich Mathematik geleitet von Prof.

Kapitel 5 : Eigenwerte und Eigenvektoren

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Serie a) Welche der folgenden Vektoren sind Eigenvektoren der Matrix 1 0 1? 0 1 1

Lanczos Methoden. Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann. 15.

10 Unitäre Vektorräume

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung

Spezielle Matrixformen

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren

Lineare Algebra 1. Roger Burkhardt

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF

47 Singulärwertzerlegung

3 Eigenwertberechnung

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

7.3 Unitäre Operatoren

QR-Iteration. Ax = λx Q T AQQ T x = λq T x.

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit.

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung

5.2 Diagonalisierbarkeit und Trigonalisierung

Matrizen, Determinanten, lineare Gleichungssysteme

Die Top 10 der Algorithmen Der QR-Algorithmus

Lineare Algebra und analytische Geometrie II

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren

Lösbarkeit linearer Gleichungssysteme

Eigenwerte und Eigenvektoren

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Eigenwerte (Teschl/Teschl 14.2)

Lineare Algebra: Determinanten und Eigenwerte

3 Lineare Gleichungssysteme

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

45 Eigenwerte und Eigenvektoren

4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit

Basiswissen Matrizen

37 Gauß-Algorithmus und lineare Gleichungssysteme

5 Eigenwerte und die Jordansche Normalform

Einführung Eigenwerte

Einführung in die Grundlagen der Numerik

4 Funktionenfolgen und normierte Räume

Mathematische Grundlagen

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

5 Eigenwerte und die Jordansche Normalform

Iterative Methoden zur Lösung von linearen Gleichungssystemen

29 Lineare Algebra 2 (SS 2009) 4.9. Das charakteristische Polynom sei Produkt von linearen Polynomen.

Serie 12: Eigenwerte und Eigenvektoren

Transkript:

Numerische Lineare Algebra Oliver Ernst Professur Numerische Mathematik Wintersemester 2015/16

Inhalt I 1 Einleitung 1.1 Lineare Gleichungssysteme 1.2 Matrixfunktionen 1.3 Modellreduktion 1.4 Eigenwertaufgaben 2 Krylov-Unterraumverfahren 2.1 Projektionen 2.2 Orthogonale Projektionsverfahren 2.3 Krylov-Unterräume 3 Lineare Gleichungssysteme 3.1 Lösungsstrategien 3.2 Selbstadjungierte Probleme 3.3 Das Verfahren der konjugierten Gradienten 3.4 Das LSQR-Verfahren für lineare Ausgleichsprobleme 3.5 Vorkonditionierung 4 Matrixfunktionen 4.1 Erste Definition mithilfe der Jordanschen Normalform 4.2 Hermitesche Polynominterpolation Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 2 / 310

Inhalt II 4.3 Alternative Darstellungen von Matrixfunktionen 4.4 Resolventenintegrale 4.5 Ein Beispiel 5 Krylov-Verfahren für Matrixfunktionen 5.1 Schranken für f(a) 5.2 Fehlerschranken für Krylov-Verfahren 5.3 Die Konvergenz des CG-Verfahens 6 Das QR-Verfahren für Eigenwertaufgaben 6.1 Reduktion auf Hessenberg-Gestalt 6.2 Vektoriteration 6.3 QR-Iteration Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 3 / 310

Inhalt 1 Einleitung 2 Krylov-Unterraumverfahren 3 Lineare Gleichungssysteme 4 Matrixfunktionen 5 Krylov-Verfahren für Matrixfunktionen 6 Das QR-Verfahren für Eigenwertaufgaben Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 274 / 310

Vorbemerkungen Nach dem Satz von Abel-Ruffini sind Polynomgleichungen ab Grad 5 nicht durch Wurzelziehen lösbar. Die Nullstellen des Polynoms p(z) = z n + a n 1 z n 1 + + a 1 z + a 0 sind die Eigenwerte seiner Frobenius-Begleitmatrix 0 a 0 1 0 a 1 A =....... C n n. 1 0 a n 2 1 a n 1 Ein Verfahren zur Berechnung von Eigenwerten mit endlich vielen Schritten würde somit zu einer Formel für die Nullstellen eines Polynomes führen. Das in diesem Kapitel betrachtete Verfahren, die QR-Iteration, berechnet die Schur-Zerlegung einer n n Matrix in O(n 3 ) Operationen. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 275 / 310

Vorbemerkungen Direkte Verfahren zur Berechnung der Eigenwerte einer Matrix A C n n beruhen darauf, die Matrix schrittweise in eine Form zu überführen, an der man die Eigenwerte ablesen kann. Da Ähnlichkeitstransformationen die Eigenwerte unverändert lassen, kommen diese hierfür in Frage. Ähnlichkeitstransformation auf Diagonalform ist nur für diagonalisierbare Matrizen möglich. Unitäre Transformation auf Diagonalform (attraktiver, weil numerisch stabiler) geht sogar nur für normale Matrizen. Satz 6.1 (Schur-Zerlegung) Jede Matrix A C n n läßt sich durch unitäre Ähnlichkeitstransformation in obere Dreiecksgestalt überführen, d.h. es existieren eine unitäte Matrix U sowie eine obere Dreiecksmatrix T mit A = UTU H bzw. U H AU = T (Schur-Form). Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 276 / 310

Vorbemerkungen Ist eine Schur-Zerlegung U H AU = T vorhanden und gilt Tx = λx, so ist Ux ein Eigenvektor von A zum Eigenwert λ. Es genügt also, Eigenvektoren von T zu bestimmen. Ist λ = t i,i einfacher Eigenwert von T so gilt (T λi )x = 0, oder T 11 λi T 12 T 13 0 = 0 T 0 T 23 O 0 T 33 λi x 1 x 2 x 3 Da λ einfach ist, sind T 11 λi und T 33 λi invertierbar. (T 11 λi )x 1 + T 12 x 2 + T 13 x 3 = T 23 x 3 (T 33 λi )x 3 Insbesondere folgt aus (T 33 λi )x 3 = 0 auch x 3 = 0 und somit (T 11 λi )x 1 = T 12 x 2. Setzt man x 2 = 1, so ergibt sich (T 11 λi ) 1 T 12 x = 1 0. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 277 / 310

Vorbemerkungen Das QR-Verfahren besteht prinzipiell aus einer (geschickt gewählten) Folge unitärer Ähnlichkeitstransformationen, die A immer näher an Schur-Form bringen. Man kann den Rechenaufwand für diese Transformationen reduzieren, indem man A zunächst (ebenfalls unitär ähnlich) auf obere Hessenberg-Gestalt bringt. Der Aufwand hierfür beträgt O(n 3 ) Rechenoperationen. Für unitäre Ähnlichkeitstransformation angewandt auf Hessenberg-Matrizen beträgt der Aufwand O(n 2 ) Operationen. Im Allgemeinen konvergiert das QR-Verfahren dann in O(n) Schritten, woraus sich ein Gesamtaufwand von O(n 3 ) ergibt. (Ohne Hessenberg-Reduktion O(n 4 ).) Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 278 / 310

Inhalt 1 Einleitung 2 Krylov-Unterraumverfahren 3 Lineare Gleichungssysteme 4 Matrixfunktionen 5 Krylov-Verfahren für Matrixfunktionen 6 Das QR-Verfahren für Eigenwertaufgaben 6.1 Reduktion auf Hessenberg-Gestalt 6.2 Vektoriteration 6.3 QR-Iteration Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 279 / 310

Reduktion auf Hessenberg-Gestalt Eine Matrix A = [a i,j ] C n n heißt obere Hessenberg-Matrix, falls a i,j = 0 falls i > j + 1. Im 6 6-Beispiel: ( bezeichnet beliebige Einträge, i.a. 0) 0 0 0 0 0 0 0 0 0 0 Satz 6.2 Zur jeder Matrix A C n n existiert eine unitäre Matrix U C n n sodass obere Hessenberg-Matrix ist. U H AU = H Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 280 / 310

Reduktion auf Hessenberg-Gestalt Algorithmus 13 : Transformation auf Hessenberg-Gestalt. Gegeben : A C n n. 1 for k = 1 to n 2 do 2 [v, β] house(a(k + 1 : n, k)) 3 A(k + 1 : n, k : n) (I βvv H )A(k + 1 : n, k : n) 4 A(1 : n, k + 1 : n) A(1 : n, k + 1 : n)(i βvv H ) Dabei liefert die Funktion [v, β] = house(x ) zu x C n einen Vektor v C n, den sog. Householder-Vektor, mit v 1 = 1 sowie β R sodass P = I βvv H unitär und Px = x 2 x 1 x 1 e 1. Dieser Algorithmus erfordert 10n 3 /3 Flops, 4n 3 /3 zusätzliche Flops falls U explizit benötigt wird. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 281 / 310

Reduktion auf Hessenberg-Gestalt Wir zeigen das Vorgehen der Reduktion auf Hessenberg-Gestalt durch Householder- Transformationen anhand einer beliebigen 6 6-Matrix A auf. Bezeichnet P 1 C (n 1) (n 1) eine Householder-Transformation, welche den Vektor A(2 : n, 1) auf ein Vielfaches von e 1 C n 1 abbildet, so ergibt [ ] 1 0 P1 H T A = 0 P1 = 0 0 0 0 Anschließende Multiplikation von rechts mit P 1 lässt die erste Spalte unverändert, sodass wir mit A 1 := P1 H AP 1 eine zu A unitär ähnliche Matrix erhalten mit Nullen unterhalb der ersten Nebendiagonalen in der ersten Spalte. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 282 / 310

Reduktion auf Hessenberg-Gestalt Mit der zweiten Spalte verfahren wir analog: bildet die Householder-Matrix P 2 C (n 2) (n 2) den Vektor A 1 (3 : n, 2) auf ein Vielfaches von e 1 C n 3 ab, so wirkt die unitäre Matrix von links multipliziert [ ] P2 H I2 O = O P 2 nur auf die Zeilen 3 bis n, analog P 3 von rechts multipliziert nur auf Spalten 3 bis n, und wir erhalten A 2 = (P 1 P 2 ) H A(P 1 P 2 ) = 0 0 0 0 0 0 0 Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 283 / 310

Reduktion auf Hessenberg-Gestalt In 2 weiteren Schritten mit immer kleineren Householder-Transformationen erhalten wir P A 3 2 A3 = 0 P 4 0 0 A4 = 0 0 0. 0 0 0 0 0 0 0 0 0 0 0 0 0 Die unitäre Transformation auf obere Hessenberg-Gestalt lautet insgesamt A 4 = U H AU, U = P 1 P 2 P 3 P 4. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 284 / 310

Inhalt 1 Einleitung 2 Krylov-Unterraumverfahren 3 Lineare Gleichungssysteme 4 Matrixfunktionen 5 Krylov-Verfahren für Matrixfunktionen 6 Das QR-Verfahren für Eigenwertaufgaben 6.1 Reduktion auf Hessenberg-Gestalt 6.2 Vektoriteration 6.3 QR-Iteration Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 285 / 310

Vektoriteration Der Prototyp aller numerischer Eigenwertverfahren ist die sog. Vektoriteration nach von Mises, auch Potenzmethode (engl. power method) genannt. Es beruht auf der Tatsache, dass für (nahezu) jeden Vektor q C n die Vektorfolge q, Aq, A 2 q, A 3 q,... asymptotisch in Richtung eines Eigenvektors von A zum betragsgrößten Eigenwert zeigt. In seiner einfachsten Form lautet das Verfahren wie folgt: Algorithmus 14 : Vektoriteration nach von Mises. Gegeben : A C n n, q 0 C n. 1 for k = 1 to... do 2 z k Aq k 1 3 q k z k / z k 2 4 µ k q H k Aq k Wie man sieht, wird, allein schon um Gleitpunktüber-/unterlauf zu vermeiden, der Vektor zusätzlich in jedem Schritt normiert. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 286 / 310

Vektoriteration Lemma 6.3 Sei A C n n und u C n \ {0}. Der Ausdruck Au µu 2 wird minimiert für µ = u H Au u H u (Rayleigh-Quotient). Ferner ist Au µu u. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 287 / 310

Vektoriteration Ist A diagonalisierbar mit Eigenwerten λ 1 > λ 2 λ n 1 λ n und einer Basis {v j } n j=1 aus zugehörigen Eigenvektoren, so gilt mit Startvektor q = γ 1 v 1 + + γ n v n, für die Richtung der Iterierten im k-ten Schritt A k q = λ k 1γ 1 v 1 + + λ k nγ n v n ( ( ) k = λ k λ2 1 γ 1 v 1 + γ 2 v 2 + + λ k 1γ 1 v 1. λ 1 ( λn λ 1 ) k γ n v n ) Sofern nur γ 1 0 klingen die übrigen Komponenten der Iterierten (linear) ab mit mindestens der Rate λ 2 /λ 1. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 288 / 310

Vektoriteration Wir betrachten die Matrix (MATLAB-Notation) A = diag(100 : 1 : 1) + 1 triu(ones(100), 1) 3 mit Eigenwerten Λ(A) = {1, 2,..., 100}. und wenden die Vektoriteration an mit Startvektoren q 0 = ones(100, 1) bzw. q 0 = 99 j=1 v j. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 289 / 310

Vektoriteration q 0 = ones(100, 1) : Aq k µ k q k 2 (q k, v 100 ) 100 µ k 10 1 10 1 10 3 10 5 0 200 400 600 800 1000 Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 290 / 310

Vektoriteration q 0 = v 1 + + v 99 : Aq k µ k q k 2 (q k, v 100 ) 100 µ k (q k, v 99 ) 99 µ k 10 0 10 2 10 4 10 6 10 8 10 10 0 1000 2000 3000 4000 5000 Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 291 / 310

Inverse Iteration Ist man an einem anderen als dem dominanten Eigenpaar interessiert, leistet die einfache Vektoriteration nicht das Gewünschte. Ist man jedoch bereit, in jedem Schritt ein lineares Gleichungssystem zu lösen, so kann man die Vektoriteration anstatt auf A auf die Matrix (A σi ) 1 anwenden. Den Parameter σ bezeichnet man dabei als Shift ( Verschiebung ). Der betragsgrößte Eigenwert der geshifteten Matrix ist gegeben durch 1 λ(σ) σ λ(σ) := arg min λ σ. λ Λ(A) Durch geeignete Wahl von σ kann man so die Konvergenz der Vektoriteration steuern. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 292 / 310

Inverse Iteration Algorithmus 15 : Inverse Iteration. Gegeben : A C n n, q 0 C n, σ C \ Λ(A). 1 for k = 1 to... do 2 z k (A σi ) 1 q k 1 3 q k z k / z k 2 4 µ k q H k Aq k Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 293 / 310

Inhalt 1 Einleitung 2 Krylov-Unterraumverfahren 3 Lineare Gleichungssysteme 4 Matrixfunktionen 5 Krylov-Verfahren für Matrixfunktionen 6 Das QR-Verfahren für Eigenwertaufgaben 6.1 Reduktion auf Hessenberg-Gestalt 6.2 Vektoriteration 6.3 QR-Iteration Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 294 / 310

Simultane Iteration Die Erweiterung der Vektoriteration auf mehrere (orthogonal gehaltene) Vektoren ist als simultane Iteration (simultaneous/subspace/orthogonal iteration) bekannt. Algorithmus 16 : Simultane Iteration. Gegeben : A C n n, Q 0 C n p mit orthonormalen Spalten. 1 for k = 1 to... do 2 Z k AQ k 1 3 QR-Zerlegung Z k = Q k R k Satz 6.4 Sei A C n n diagonalisierbar mit A = X ΛX 1, die Beträge der Eigenwerte von A paarweise verschieden und alle Hauptuntermatrizen von X invertierbar. Dann konvergiert bei simultaner Iteration mit p = n und Startvektor Q 0 = I die Folge der Matrizen A k := Qk HAQ k gegen eine obere Dreiecksmatrix, auf deren Hauptdiagonalen die Eigenwerte von A in Reihenfolge abnehmenden Betrags erscheinen. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 295 / 310

QR-Iteration Algorithmus 17 : QR-Iteration. Gegeben : A C n n, A 0 := A. 1 for k = 0 to... do 2 A k = Q k R k (QR-Zerlegung) 3 A k+1 R k Q k. Wegen A k+1 = R k Q k = Q H k Q kr k Q k = Q H k A kq k sind A k+1 und A k unitär ähnlich. Lemma 6.5 Für die durch Algorithmus 17 erzeugte Folge {A k } gilt A k = Q k HA Q k, wobei Q k die durch simultane Iteration mit Startmatrix Q 0 = I bezeichnet. Somit konvergiert A k gegen obere Dreicksform, sofern die Eigenwerte von A paarweise verschiedene Beträge besitzen. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 296 / 310

QR-Iteration Als nächstes beschleunigen wir die Konvergenz der QR-Iteration durch Einbringen von Shifts: Algorithmus 18 : QR-Iteration mit Shifts. Gegeben : A C n n, A 0 := A. 1 for k = 0 to... do 2 Wähle Shift σ k nahe an einem Eigenwert von A 3 A k σ k I = Q k R k (QR-Zerlegung) 4 A k+1 R k Q k + σ k I. Lemma 6.6 A k und A k+1 sind unitär ähnlich. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 297 / 310

QR-Iteration Bemerkung 6.7 1 Ist R k regulär, so gilt auch A k+1 = R k A k R 1 k. 2 Ist σ k ein Eigenwert von A k, so konvergiert die QR-Iteration in einem Schritt. 3 Ist σ k kein (exakter) Eigenwert, so sehen wir [A k+1 ] n,n dann als konvergiert an, wenn die restlichen Einträge der Zeile A k+1 (n, 1 : n 1) hinreichend klein geworden sind. 4 Wahl geeigneter Shifts: Konvergenz gegen Schur-Form beginnt bei A(n, n); genauer: σ k = A(n, n) führt zu quadratischer Konvergenz von A(n, n) gegen einen Eigenwert von A. Bei reeller Matrix A: Konvergenz gegen komplexen Eigenwert möglich. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 298 / 310

QR-Iteration Besitzt A k Hessenberg-Gestalt, so kann man den QR-Schritt A k σ k I = Q k R k, A k+1 R k Q k + σ k I so durchführen, dass die Hessenberg-Struktur erhalten bleibt, indem man die QR- Zerlegung mit Givens-Rotationen durchführt. Im folgenden 5 5-Beispiel wird die obere Dreiecksstruktur nach sukzessiver Multiplikation mit Givens-Rotationen erreicht: G j,j+1, j = 1,..., n 1, Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 299 / 310

QR-Iteration G 0 1,2 0 0 0 0 0 0 0 0 0 0 0 0 G 3,4 0 G 0 0 4,5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Fasst man alle n 1 Givens-Rotationen zusammen als so ergibt sich G 2,3 Q H := G n 1,n G n 2,n 1 G 1,2, Q H A = R, oder A = QR. 0 0 0 0 0 0 0 0 Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 300 / 310

QR-Iteration Die Matrix Q = G H 1,2 G H n 1,n ist aufgrund des Besetzungsmusters ihrer Faktoren ebenfalls obere Hessenberg-Matrix. (Dies folgt auch aus dem zu A = QR äquivalenten Ausdruck Q = AR 1.) Demzufolge ist mit A k auch obere Hessenberg-Matrix. Satz 6.8 A k+1 = R k Q k + σ k I Beim QR-Schritt mit einfachem Shift bleibt die obere Hessenberg-Struktur erhalten. Eine effiziente Implementierung des QR-Verfahrens arbeitet mit impliziten Shifts, d.h. die QR-Zerlegung der Hessenberg-Matrizen wird implizit als Produkt von elementaren unitären Matrizen konstruiert. Hierzu ist eine Tatsache hilfreich, die als implizites Q-Theorem bekannt ist. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 301 / 310

QR-Iteration Definition 6.9 Eine obere Hessenberg-Matrix H = [h i,j ] n i,j=1 Cn n heißt unreduziert (engl. unreduced), falls h k+1,k 0 k = 1, 2,..., n 1. Satz 6.10 Ein Eigenwert λ Λ(A) einer unreduzierten Hessenberg-Matrix A C n n besitzt geometrische Vielfachheit Eins. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 302 / 310

QR-Iteration Satz 6.11 (Implizites Q-Theorem) Seien A C n n sowie zwei unitäre Matrizen Q = [q 1,..., q n ] und V = [v 1,..., v n ] gegeben, für welche die Matrizen H = [h i,j ] = Q H AQ und G = [g i,j ] = V H AV obere Hessenberg-Gestalt besitzen. Ferner sei k := min{j : h j+1,j k = n falls H unreduziert. Gilt dann v 1 = q 1, so gelten auch = 0} bzw. v j = ϑ j q j mit ϑ j = 1, h j+1,j = g j+1,j, j = 2,..., k. Falls k < n, so ist auch g k+1,k = 0. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 303 / 310

QR-Iteration Interpretation: Sind G = V H AV und H = Q H AQ zwei unreduzierte Hessenberg-Matrizen und besitzen die unitären Matrizen V und Q die gleiche erste Spalte, so sind G und H im Wesentlichen gleich, d.h. es gilt G = D 1 HD mit einer Diagonalmatrix D = diag(ϑ 1,..., ϑ n ), ϑ j = 1. Die implizite Berechnung der QR-Schritts A k+1 = Q H k A kq k geschieht nun wie folgt: 1 Berechne die erste Spalte von Q k (skalares Vielfaches der ersten Spalte von A k σ k I, ergibt sich also durch Nomierung). 2 Bestimme restliche Spalten von Q k so, dass Q k unitär und A k+1 unreduzierte obere Hessenberg-Matrix. Das implizite Q-Theorem stellt dann sicher, dass wir dann A k+1 bis auf Faktoren vom Betrag eins berechnet haben. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 304 / 310

QR-Iteration Wir illustrieren den impliziten QR-Schritt an folgendem 5 5 Beispiel: A 0 liege in unreduzierter Hessenberg-Gestalt vor. c 1 s 1 s 1 c 1 G1 H = 1 1, G 1 H AG 1 = + 0 0 1 0 0 0 1 G2 H = c 2 s 2 s 2 c 2 1, G 2 H A 1 G 2 = 0 0 + 1 0 0 0 Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 305 / 310

QR-Iteration 1 G3 H = 1 G4 H = 1 1 c 3 s 3 s 3 c 3, G 3 H A 2 G 3 = 0 0 0 1 0 0 + 1, G4 H A c 4 s 4 3 G 4 = 0 0 0 s 4 c 4 0 0 0 Diese sukzessive Wahl der Givens-Rotationen nennt man auch bulge chasing, da die von der ersten orthogonalen Ähnlichkeitstransformation erzeugte Beule in der (3,1)-Position schrittweise entlang der zweiten unteren Nebendiagonalen gescheucht wird. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 306 / 310

QR-Iteration Insgesamt besitzt nun Q H AQ wieder obere Hessenberg-Gestalt, mit c 1 s 1 Q := G 1 G 2 G 3 G 4 = s 2 s 3. s 4 Die erste Spalte von Q lautet [c 1, s 2, 0,..., 0] T. Nach dem impliziten Q-Theorem bestimmt diese (bis auf Faktoren vom Betrag Eins) die restlichen Spalten von Q. Wir wählen nun die erste Spalte von Q als skalares Vielfaches der ersten Spalte von A σi, also [a 11 σ, a 21, 0,..., 0] T. Damit ist Q bereits der linke Faktor aus der QR-Zerlegung von A σi. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 307 / 310

QR-Iteration Komplexe Arithmetik ist etwa viermal teurer als reelle. Daher wäre es von Vorteil, für reelle Matrizen die QR-Iteration auch in reeller Arithmetik durchzuführen. Man nutzt dabei die Tatsache aus, dass nichtreelle Eigenwerte reeller Matrizen als konjugiert-komplexe Paare auftreten. Der Doppelshift-Algorithmus von Francis nutzt gleichzeitig die konjugiertkomplexen Shifts σ und σ: Lemma 6.12 A 0 σi = Q 1 R 1 A 1 = R 1 Q 1 + σi, d.h. A 1 = Q T 1 A 0 Q 1, A 1 σi = Q 2 R 2, A 2 = R 2 Q 2 + σi, d.h. A 2 = Q T 2 A 1 Q 2 = Q T 2 Q T 1 A 0 Q 1 Q 2. Die orthogonalen Matrizen Q 1, Q 2 können so gewählt werden, dass sie (und damit A 2 ) reell sind und die erste Spalte von Q 1 Q 2 leicht zu berechnen ist. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 308 / 310

QR-Iteration Zur Wahl von (einfachen und doppelten) Shifts: Beim einfachen Shift hatten für A k hatten wir σ = A k (n, n) gewählt. Für einen Doppelshift wählt man σ und σ als die beiden Eigenwerte des rechten unteren 2-Blocks A k (n 1 : n, n 1 : n). Dieser Block konvergiert dann entweder gegen eine 2 2 Diagonalmatrix oder gegen eine 2 2-Matrix deren (konjugiert-komplexe) Eigenwerte auch Eigenwerte von A sind. Eigenwerte werden als konvergiert betrachtet sobald a n,n 1 bzw. a n 1,n 2 hinreichend klein geworden sind. Man kann zeigen: im Allgemeinen konvergieren diese Einträge quadratisch gegen Null. In der Praxis sind nicht mehr als zwei Iterationen pro Eigenwert erforderlich. Es sei erwähnt, dass trotz erfolgreichen Einsatzes dieses Verfahrens seit 60 Jahren noch einige Detailfragen bei der Konvergenzanalyse des QR-Verfahrens offen bleiben. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 309 / 310

QR-Iteration Konvergenz der QR-Iteration: Unter realistischen Annahmen kann man zeigen, dass das QR-Verfahren quadratisch konvergiert. Für hermitesche Matrizen erhöht sich diese Konvergenzordnung auf kubisch. Das hermitesche QR-Verfahren kann auch zur Berechnung der Singulärwertzerlegung eingesetzt werden. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 310 / 310