51 Numerische Berechnung von Eigenwerten und Eigenvektoren

Ähnliche Dokumente
46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

20 Kapitel 2: Eigenwertprobleme

Tutorium Mathematik II, M Lösungen

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

6 Hauptachsentransformation

45 Eigenwerte und Eigenvektoren

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren

Der CG-Algorithmus (Zusammenfassung)

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

1 Singulärwertzerlegung und Pseudoinverse

++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1

Musterlösungen zur Linearen Algebra II Übungsklausur

Euklidische und unitäre Vektorräume

Lösungsskizzen zur Klausur

6 Eigenwerte und Eigenvektoren

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

3.3 Klassifikation quadratischer Formen auf R n

2.9 Die komplexen Zahlen

Iterative Verfahren, Splittingmethoden

Vorlesung, 26. Mai 2011, Inhalt. Eigenwerte und Eigenvektoren. Gewöhnliche Differentialgleichungen

Berechnung von Eigenwerten und Eigenvektoren

6.3 Hauptachsentransformation

37 Gauß-Algorithmus und lineare Gleichungssysteme

Eigenwerte und Diagonalisierung

Klausur zur Vordiplom-Prüfung

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung

Einführung in die Mathematik für Informatiker

Erweiterte Koordinaten

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Variante A. Hinweise

Das QZ-Verfahren. vorgelegt von Janina Gnutzmann. Erstgutachter: Prof. Dr. Steffen Börm Zweitgutachter: Dipl.-Math.

Höhere Mathematik II. 7 Lineare Algebra II. für naturwissenschaftliche Studiengänge. 7.1 Wiederholung einiger Begriffe

6 Symmetrische und hermitesche Matrizen

Lineare Algebra II 6. Übungsblatt

4 Lineare Algebra (Teil 2): Quadratische Matrizen

Vektoren und Matrizen

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems

4.3 Anwendungen auf Differentialgleichungen

Lineare Algebra II, Lösungshinweise Blatt 9

Serie 10: Inverse Matrix und Determinante

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Lineare Gleichungssysteme - Grundlagen

Orthogonale Matrizen. Kapitel 40

40 Lokale Extrema und Taylor-Formel

Eigenwerte und Eigenvektoren

9.2 Invertierbare Matrizen

Technische Universität München Zentrum Mathematik. Übungsblatt 7

2. Aufgabe Vereinfachen Sie die folgenden Ausdrücke so, dass möglichst wenige Multiplikationen ausgeführt werden müssen!

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen

MC-Serie 11: Eigenwerte

Einige Beispiele zu Drehmatrizen Dr. W. Tenten fürs Forum "Abenteuer-Universum" zusammengestellt

Brückenkurs Mathematik

Proseminar Lineare Algebra II, SS 11. Blatt

QR-Zerlegung Allgemeines. Householder-Spiegelung. Givens-Rotation. Gram-Schmidt-Orthogonalisierung. Fazit. QR-Zerlegung.

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

Numerische Mathematik für Ingenieure und Physiker

Ranking am Beispiel von Google (1998):

Verfahren zur Berechnung der Exponentialmatrix

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

Skalarprodukte (Teschl/Teschl Kap. 13)

Kapitel 18. Aufgaben. Verständnisfragen

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014

Eigenschaften kompakter Operatoren

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

Lineare Algebra. Teil III. Inhaltsangabe

Matrizen, Determinanten, lineare Gleichungssysteme

Vorkurs Mathematik B

( ) Lineare Gleichungssysteme

Klausur zur Höheren Mathematik IV

Lösung Semesterendprüfung (Nachprüfung)

5.1 Eigenwerte und Eigenvektoren

Grundsätzliches Rechnen mit Matrizen Anwendungen. Matrizenrechnung. Fakultät Grundlagen. Juli 2015

2.4 Die Länge von Vektoren

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?

2 Die Dimension eines Vektorraums

Mathematische Erfrischungen III - Vektoren und Matrizen

5 Potenzreihenansatz und spezielle Funktionen

Analytische Geometrie, Vektorund Matrixrechnung

Formelsammlung. für den Teilbereich Zustandsraumdarstellung der Vorlesung. Einführung in die Regelungstechnik

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

Numerische Behandlung des Eigenwertproblems

Nichtlineare Gleichungssysteme

Skalarprodukt und Orthogonalität

Zahlen und Gleichungen

Drehung um einen Punkt um Winkel α.

4.4. Rang und Inversion einer Matrix

Fachhochschule Nordwestschweiz (FHNW) Hochschule Technik Lösungen Serie 10 (Lineare Abbildungen)

Übungen zur Vorlesung MATHEMATIK II

Anleitung zu Blatt 4 Differentialgleichungen I für Studierende der Ingenieurwissenschaften

Musterlösung Höhere Mathematik I/II Di. Aufgabe 1 (11 Punkte) Geben Sie die Matrixbeschreibung der Quadrik

Numerisches Programmieren, Übungen

Transkript:

5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel, da für allgemeine Polynomgleichungen höheren als vierten Grades keine algebraische Auflösungsformel existiert. Daher sind numerische Näherungsverfahren notwendig. 5.2 Einfache Vektoriteration Andere Bezeichnungen: Potenzmethode, von-mises-verfahren Idee: Es sei A IR n n symmetrisch und u 0 IR n ein beliebiger Vektor. Wir betrachten die Iterationsvorschrift u k+ = Au k, k = 0,,... ( ) Was lässt sich über die Folge (u k ) aussagen? Im Folgenden seien λ,..., λ n die (reellen) Eigenwerte der Matrix A und v,..., v n zugehörige orthonormale Eigenvektoren. Ohne Einschränkung der Allgemeingültigkeit gelte λ λ 2... λ n. Es sei nun u 0 = α i v i die Darstellung von u 0 bezüglich der Basis {v,..., v n }. Dann gilt i= u = Au 0 = α i Av i = i= α i λ i v i. i= Allgemein ergibt sich (vgl. Satz 45.5) ( u k = A k u 0 = α i λ k i v i = λ k α v + i= 84 i=2 λ k i λ k α i v i ).

Falls λ > λ 2 (man sagt in diesem Falle, λ ist dominanter Eigenwert), so ( ) λ konvergiert k i λ k α λ k i v i für k gegen den Nullvektor (da i geometrische i=2 Folge mit einem Quotienten betragsmäßig kleiner als ist). Ist daher der Startvektor u 0 allgemein gewählt (präzise: so, dass α 0), so konvergieren die Vektoren u k gegen α v, also bis auf Normierung gegen den λ k dominanten Eigenvektor v. Die Konvergenz ist um so schneller, je kleiner die λ i für i = 2,..., n sind. λ Weiterhin konvergiert auch der Rayleigh-Koeffizient λ k gegen R A (u k ) = ut k Au k u T k u k = ut k u k+ u T k u k lim R A(u k ) = (α v ) T (λ α v ) = λ k (α v ) T. (α v ) Ergebnis: Die Vektoriteration ( ) ist ein einfaches Verfahren zur numerischen Annäherung des dominanten Eigenwertes (und damit der Spektralnorm) sowie des dominanten Eigenvektors einer symmetrischen Matrix. In der Praxis möchte man die durch den Faktor λ k erzeugten sehr großen (falls λ > ) oder sehr kleinen (falls λ < ) numerischen Werte vermeiden. Man normiert u k daher nach jedem Iterationsschritt. 85

5.3 Beispiel ( ) 0,9635,4266 Gegeben sei A = und der (bereits normierte) Anfangsvektor,4266 0,0365 ( ) 0 u 0 =. Wir berechnen mit 4 Nachkommastellen i u i := Aũ i ũ i := u i u i 0 0 0,4266 0,9997 0,0365 0,0256 0,9997 0,5737 2,427 0,890,72 0,8970 3 0,8483 0,442,4950 0,7557 4,2958 0,6550,6625 0,8335 5,020 0,5525,593 0,7962 6,2092 0,6050,6302 0,853 7,579 0,579,67 0,8059 8,842 0,592,622 0,806 9,73 0,5856,664 0,8082 0,778 0,5889 R A (ũ i ) 0,0365,0358,6824,937,9780,9944,9985,9996,9999 2,0000 Tatsächlich ist (auf 4 Nachkommastellen) der dominante Eigenwert von A gleich ( ) 0,8090 2 und der zugehörige normierte Eigenvektor. 0,5878 86

Kann man auch die nicht dominanten Eigenwerte und Eigenvektoren bestimmen? Wir lernen jetzt ein einfaches und robustes Verfahren zur Bestimmung aller Eigenwerte und Eigenvektoren einer symmetrischen Matrix kennen. 5.4 Das Jacobi-Verfahren Grundidee: Wendet man auf eine symmetrische Matrix A eine orthogonale Matrix Q an, so erhält man die Matrix Q T AQ, die dieselben Eigenwerte wie A besitzt, vgl. 44.8 (Wechsel zwischen Orthonormalbasen) und 46.4 (Hauptachsentransformation). Man transformiert nun A mithilfe einer Folge (Q k ) orthogonaler Matrizen auf Diagonalgestalt. Damit wird (numerisch angenähert) die Hauptachsenform A = QΛQ T erzeugt, aus der die Eigenwerte und Eigenvektoren abgelesen werden können. Algorithmische Umsetzung: Als orthogonale Transformationen verwendet man Rotationsmatrizen vom Typ 0... 0 0... cos ϕ... sin ϕ Q(i, j, ϕ) :=....... sin ϕ... cos ϕ... 0 0... 0 (die Rotationsmatrixeinträge stehen in der i-ten und j-ten Zeile und Spalte). Die Anwendung von Q(i, j, ϕ) verändert nur die i-te und j-te Zeile und Spalte von A. Man iteriert nun über die Nichtdiagonalelemente a ij. Wird im Iterationsschritt k das Element a ij, i j, betrachtet, so wählt man den Rotationswinkel ϕ k so, 87

dass Q = Q(i, j, ϕ k ) gerade die Einträge a ij und a ji zu Null macht: Mit ϕ k := 2 arccot a jj a ii 2a ij erhält man a ii a ij cos ϕk sin ϕ k aii a ij cos ϕk sin ϕ k = sin ϕ k cos ϕ k a ji a jj sin ϕ k cos ϕ k a ji = a jj wobei wegen cos 2 ϕ k a ii 2 cos ϕ k sin ϕ k a ij + sin 2 ϕ k a jj cos ϕ k sin ϕ k (a ii a jj ) + (cos 2 ϕ k sin 2 ϕ k )a ij cos ϕ k sin ϕ k (a ii a jj ) +(cos 2 ϕ k sin 2 ϕ k )a ij sin 2 ϕ k a ii + 2 cos ϕ k sin ϕ k a ij + cos 2 ϕ k a jj cos 2 ϕ k sin 2 ϕ k 2 cos ϕ k sin ϕ k = cos(2ϕ k) sin(2ϕ k ) = cot(2ϕ k) = a jj a ii 2a ij die Nebendiagonaleinträge a ij = a ji verschwinden., Bei wiederholtem Durchlauf über alle Nichtdiagonaleinträge entsteht so eine Kette von orthogonalen Transformationen Q, Q 2,..., und man kann zeigen, dass Q T k... QT 2 QT AQ Q 2... Q k diag(λ,..., λ n ) für k. Zugleich enthält die i-te Spalte der orthogonalen Matrix P k := Q Q 2... Q k eine Approximation des Eigenvektors zum Eigenwert λ i. Auch im Falle mehrfacher Eigenwerte entsteht automatisch ein orthonormales Eigenvektorsystem (keine Gram-Schmidt-Orthonormalisierung erforderlich). Ein ausgearbeiteter Algorithmus zum Jacobi-Verfahren ist zu finden in H. R. Schwarz: Numerische Mathematik. Teubner, Stuttgart. Komplexität: Im Falle einer n n-matrix werden pro Zyklus (einmaliges Durchlaufen aller Nichtdiagonaleinträge) etwa 32n 3 Multiplikationen benötigt. Typischerweise sind etwa sechs bis acht Zyklen erforderlich. 88

Bemerkungen: Die numerische Berechnung von Eigenwerten (und Eigenvektoren) ist rechenaufwändig. Sowohl für symmetrische Matrizen als auch im allgemeineren Fall nichtsymmetrischer Matrizen gibt es weitere, kompliziertere Verfahren zur Eigenwertbestimmung. 89