Berechnung von Eigenwerten und Eigenvektoren



Ähnliche Dokumente
3.3 Eigenwerte und Eigenräume, Diagonalisierung

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Kevin Caldwell. 18.April 2012

7 Rechnen mit Polynomen

Eigenwerte und Eigenvektoren von Matrizen

Musterlösungen zur Linearen Algebra II Blatt 5

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

Rekursionen. Georg Anegg 25. November Methoden und Techniken an Beispielen erklärt

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

Bestimmung einer ersten

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen.

Lineare Gleichungssysteme

KAPITEL 7. Berechnung von Eigenwerten. Av = λv

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Primzahlen und RSA-Verschlüsselung

5 Eigenwerte und die Jordansche Normalform

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

7 Die Determinante einer Matrix

Einführung in die Algebra

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse Lösung 10 Punkte

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

Die reellen Lösungen der kubischen Gleichung

a n auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert:

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen

3.1. Die komplexen Zahlen

Absolute Stetigkeit von Maßen

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester gehalten von Harald Baum

Rekursionen (Teschl/Teschl )

Lösungen zum 3. Aufgabenblatt

Charakteristikenmethode im Beispiel

Nichtlineare Optimierung ohne Nebenbedingungen

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5)

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

Übungen zum Ferienkurs Lineare Algebra WS 14/15

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

Kapitel 15. Lösung linearer Gleichungssysteme

Lineare Gleichungssysteme

Lösungsvorschlag für die Probeklausuren und Klausuren zu Algebra für Informations- und Kommunikationstechniker bei Prof. Dr.

Zeichen bei Zahlen entschlüsseln

DIFFERENTIALGLEICHUNGEN

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

Lineare Gleichungssysteme

Approximation durch Taylorpolynome

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Im Jahr t = 0 hat eine Stadt Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

1.9 Eigenwerte und Eigenvektoren

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

0, v 6 = , v 4 = span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

Lineare Gleichungssysteme I (Matrixgleichungen)

4 Vorlesung: Matrix und Determinante

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN

Informationsblatt Induktionsbeweis

Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination. Lehrstuhl für Angewandte Mathematik Wintersemester 2009/

Lineare Gleichungssysteme

Codierungsverfahren SS Reed-Solomon-Codes zur Mehrblock-Bündelfehler-Korrektur

!(0) + o 1("). Es ist damit möglich, dass mehrere Familien geschlossener Orbits gleichzeitig abzweigen.

Entladen und Aufladen eines Kondensators über einen ohmschen Widerstand

Modulabschlussklausur Analysis II

Definition:Eine meromorphe Modulform vom Gewicht k Z ist eine meromorphe. f : H C. (ii) C > 0, so daß f(z) im Bereich Im z > C keine Singularität hat.

Leitfaden Lineare Algebra: Determinanten

Mathematischer Vorbereitungskurs für Ökonomen

Mengensysteme, Wahrscheinlichkeitsmaße

2 Die Darstellung linearer Abbildungen durch Matrizen

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik

Lineare Differentialgleichungen erster Ordnung erkennen

Universität Bonn, Institut für Angewandte Mathematik. WS 2012/2013 Prüfung Angewandte Mathematik und Statistik - Agrarwiss. /ELW

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Seminararbeit für das SE Reine Mathematik- Graphentheorie


Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme

Das Mathematik-Abitur im Saarland

Hans Walser, [ a] Wurzeln aus Matrizen

1 Ordnung muß sein. 1.1 Angeordnete Körper. 1.2 Folgerungen aus den Anordnungsaxiomen. ( c) (b a) > 0. Somit a c b c > 0.

Professionelle Seminare im Bereich MS-Office

Analysis I für Studierende der Ingenieurwissenschaften

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u.

Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen?

8. Quadratische Reste. Reziprozitätsgesetz

4. Übungsblatt Matrikelnr.:

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x y = x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775,

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Umgekehrte Kurvendiskussion

6.2 Scan-Konvertierung (Scan Conversion)

2 3 x3 17. x k dx = x k x k+1 k +1. Mit jeder weiteren partiellen Integration reduziert sich der Grad des Faktors x n, induktiv erhalten wir also

Der Zwei-Quadrate-Satz von Fermat

Frohe Weihnachten und ein gutes neues Jahr!

Wir unterscheiden folgende drei Schritte im Design paralleler Algorithmen:

Simplex-Umformung für Dummies

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume?

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli Fachbereich für Mathematik und Statistik Universität Konstanz

2.12 Potenzreihen. 1. Definitionen. 2. Berechnung POTENZREIHEN 207. Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen.

4.6 Berechnung von Eigenwerten

Transkript:

Kapitel 5 Berechnung von Eigenwerten und Eigenvektoren 5.1 Einführung Bemerkung 5.1 Aufgabenstellung. Diese Kapitel behandelt numerische Verfahren zur Lösung des Eigenwertproblems. Gegeben sei A R n n. Bestimme λ C und v C n, v 0, so dass Av = λv 5.1) gilt. Hierbei heißt λ Eigenwert und v Eigenvektor zum Eigenwert λ. In der Vorlesung wird vor allem der Fall betrachtet, dass A eine symmetrische Matrix ist. Dann sind alle Eigenwerte und alle Eigenvektoren reell. Beispiel 5. Spektralnorm und Spektralkondition einer symmetrischen Matrix.Für eine symmetrische invertierbare Matrix A gelten A = λ max A) und A 1 = λ min A) 1. Damit muss man für die Berechnung der Spektralnorm von A den betragsmäßig größten Eigenwert bestimmen und zur Berechnung der Spektralkondition noch zusätzlich den betragsmäßig kleinsten Eigenwert. Es ist jedoch nicht nötig, alle Eigenwerte zu berechnen. Beispiel 5.3 Modellierung von Schwingungsabläufen, Sturm 1 Liouville Problem. Die gedämpfte Schwingung einer Feder wird durch die Differentialgleichung u x)+λrx)ux) = 0, x 0,1), 5.) mit den Randbedingungen u0) = u1) = 0 modelliert. In 5.) ist die Funktion r C[0,1]) mit rx) > 0 gegeben und die Funktion ux) sowie die Zahlen λ sind gesucht. Die Funktion rx) beschreibt die Dichte der Feder im Punkt x. Im Fall rx) 1 rechnet man direkt nach, dass λ = kπ) und ux) = sinkπx), k = 0,1,,... Lösungen von 5.) sind. Ist rx) nicht konstant, dann gibt es aber im Allgemeinen keine geschlossene Formel, um die Lösungen darzustellen. Man muss die Lösungen numerisch approximieren. Dazu kann man [0,1] in ein äquidistantes Gitter mit n Intervallen und der Schrittweite h = 1/n zerlegen. Nun werden die Funktionen rx) und ux) in 5.) in den Gitterpunkten x i, i = 0,...,n, betrachtet und die zweite Ableitung in den inneren Gitterpunkten wird durch einen Differenzenquotienten approximiert u x i ) ux i +h) ux i )+ux i h) h, i = 1,...,n 1. 5.3) 1 Jacques Charles Francois Sturm 1803 1855) Joseph Liouville 1809 188) 60

Mit Taylor Entwicklung kann man nachrechnen, dass diese Approximation genau bis auf Terme der Ordnung h ist, wenn ux) glatt genug ist. In den Randpunkten braucht man die zweite Ableitung nicht, da dort die Lösung gegeben ist. Bezeichne u i die approximierte Lösung im Gitterpunkt x i, i = 0,...,n. Dann wird in der Praxis in 5.3) ux i ) durch u i usw. ersetzt. Einsetzen der Approximationen in 5.) ergibt für die Knoten u 0 = 0, u i+1 u i +u i 1 h +λrx i )u i = 0, i = 1,...,n 1, u n = 0. Die Randwerte kann man in die Gleichung für i = 1 beziehungsweise i = n 1 einsetzen und man erhält letztlich ein Gleichungssystem mit n 1) Gleichungen für die n 1) Unbekannten u T = u 1,...,u n 1 ) der Gestalt Bu+λDu = 0 mit 1 rx 1 ). B = 1 1..... h........., D =...... 1 1 rx )....... rx n 1 ) Da nach Voraussetzung rx i ) > 0 für alle i ist, kann man bilden. Damit erhält man D 1/ = diag rx 1 ),..., rx n 1 )) Bu = λdu = λd 1/ D 1/ u D 1/ Bu = λd 1/ u. Setzt man v = D 1/ u, so ergibt sich ein Eigenwertproblem der Gestalt 5.1) Da A symmetrisch A T = Av = D 1/ BD 1/ v = λv. D 1/ BD 1/) T = D T/ B T D T/ = D 1/ BD 1/ = A und positiv definit ist, sind alle Eigenwerte reell und positiv. In dieser Aufgabe sind alle Eigenwerte und alle Eigenvektoren gesucht. 5. Zur Theorie des Eigenwertproblems Bemerkung 5.4 Inhalt. Dieser Abschnitt stellt einige Aussagen zur Theorie des Eigenwertproblems 5.1) zusammen, die zum Teil schon aus der linearen Algebra bekannt sind. Bemerkung 5.5 Das charakteristische Polynom. Die Zahl λ C ist genau dann Eigenwert von A R n n, wenn pλ) = deta λi) = 0. 61

Man nennt pλ) P n das charakteristische Polynom der MatrixA. Seine Nullstellen sind die Eigenwerte von A. Die Verwendung des charakteristischen Polynoms zur Berechnung der Eigenwerte von A besitzt jedoch in der Praxis entscheidende Nachteile. Zuerst müssen die Koeffizienten des Polynoms berechnet werden. Das ist für große n aufwändig. Des Weiteren hängen die Nullstellen oft sensibel von den Koeffizienten des charakteristischen Polynoms ab. Das Problem ist also schlecht konditioniert, insbesondere wenn die Matrix mehrfache Eigenwerte besitzt. Insgesamt ist das charakteristische Polynom zur numerischen Berechnung von Eigenwerten einer Matrix nicht brauchbar. Übungsaufgabe) Bemerkung 5.6 Weitere bekannte Aussagen, Begriffe. Das charakteristische Polynom pλ) besitzt nach dem Fundamentalsatz der Algebra genau n mit entsprechender Vielfachheit gezählte) reelle oder komplexe Nullstellen,...,λ n. Der Eigenwert λ i heißt einfacher Eigenwert, wenn die entsprechende Nullstelle des charakteristischen Polynoms einfach ist. Die Menge aller Eigenwerte von A heißt Spektrum von A. σa) = {,...,λ n } Zwei Matrizen A,B R n n heißen ähnlich über dem Körper der reellen Zahlen), wenn es eine invertierbare Matrix T R n n gibt mit der Eigenschaft B = T 1 AT. Ähnliche Matrizen besitzen das gleiche Spektrum σa) = σt 1 AT) für eine beliebige invertierbare Matrix T R n n. Die Matrix A R n n heißt diagonalisierbar, wenn A zu einer Diagonalmatrix ähnlich ist. Die Matrix A ist genau dann diagonalisierbar, wenn sie n linear unabhängige Eigenvektoren hat. Besitzt A R n n n verschiedene Eigenwerte, so ist A diagonalisierbar. Lemma 5.7 Reelle Schur 3 Faktorisierungen. Zu jeder Matrix A R n n gibt es eine orthogonale Matrix Q R n n, so dass R 11... Q T AQ =... = R. 5.4) 0... Rmm Dabei ist für jedes i {1,...,m} entweder R ii R oder R ii R. Im letzteren Fall hat R ii ein Paar von konjugiert komplexen Eigenwerten. Die Menge aller Eigenwerte der R ii, i = 1,...,m, bilden das Spektrum von A. Die Zerlegung ist nicht eindeutig. 3 Issai Schur 1875 1941) 6

Beweis: Für einen Beweis sei auf die Literatur verwiesen, zum Beispiel Golub and Van Loan, 1996, S. 341). Folgerung 5.8 Diagonalisierbarkeit symmetrischer Matrizen. Jede symmetrische Matrix A R n n lässt sich mittels einer orthogonalen Matrix Q R n n durch eine Ähnlichkeitstransformation auf Diagonalgestalt bringen Q 1 AQ = D = diag,...,λ n ). Die Matrix A besitzt somit nur reelle Eigenwerte und n linear unabhängige, zueinander orthogonale Eigenvektoren, nämlich die Spalten von Q Beweis: Die Symmetrie von R folgt direkt aus 5.4) und der Symmetrie von A R T = Q 1 AQ ) T = Q T A T Q T = Q 1 AQ = R. Auf Grund der speziellen Gestalt von R, siehe 5.4), ist der mit markierte Block ein Nullblock. Es können nun noch symmetrische Blöcke R ii auftreten. Man rechnet aber direkt nach, dass symmetrische Matrizen immer reelle Eigenwerte besitzen, da die Diskriminante des charakteristischen Polynoms nichtnegativ ist. Somit widerspricht das Auftreten von symmetrischen Blöcken den Aussagen von Lemma 5.7 und R muss eine Diagonalmatrix sein. 5.3 Kondition des Eigenwertproblems Bemerkung 5.9 Inhalt. In diesem Abschnitt wird untersucht, wie stark sich Eigenwerte und Eigenvektoren bei Störungen in A verändern. Satz 5.10 Absolute Kondition des Eigenwertproblems. Sei A R n n diagonalisierbar, das heißt es existiert eine Matrix T R n n mit T 1 AT = diag,...,λ n ). Sei A R n n eine Störung von A und sei µ ein Eigenwert der gestörten Matrix A+ A. Dann gilt für alle p [1, ]. min λ i µ T 1 i n p T 1 p A p 5.5) Beweis: Auch hier sei für den Beweis wieder auf die Literatur, zum Beispiel Golub and Van Loan 1996) oder Stoer and Bulirsch 005). Bemerkung 5.11 Interpretation von Satz 5.10. Die absolute Kondition des Eigenwertproblems min 1 i n λ i µ sup A A p hängt von κ p T) = T T 1 p p und nicht von κ p A) ab. Da die Spalten von T gerade die Eigenvektoren von A sind, bedeutet 5.5) gerade, dass für eine diagonalisierbare Matrix die Kondition der Eigenvektorbasis eine große Rolle bei der Empfindlichkeit der Eigenwerte von A bezüglich Störungen spielt. 63

Beispiel 5.1 Kondition eines Eigenwertproblems. Betrachte ) 0 1 A = 0 0 und die gestörte Matrix A+ A = ) 0 1 δ 0 mit δ > 0. Die Eigenwerte von A sind = λ = 0 und die von A + A sind, = ± δ. Für die Kondition des Eigenwertproblems ergibt sich somit κ = A+ A A δ δ = 1 δ für δ 0. Offenbar kann das Eigenwertproblem für beliebige Matrizen beliebig schlecht konditioniert sein. Folgerung 5.13 Kondition des Eigenwertproblems für symmetrische Matrizen. Sei A R n n symmetrisch und sei µ ein Eigenwert der gestörten Matrix A+ A. Dann gilt min 1 i n λ i µ A. Das Eigenwertproblem für symmetrische Matrizen ist also gut konditioniert. Beweis: Nach Folgerung 5.8 lässt sich A mittels einer Orthogonalmatrix Q diagonalisieren. Da für Orthogonalmatrizen κ Q) = 1 gilt, folgt die Behauptung direkt aus 5.5). 5.4 Abschätzungen für Eigenwerte Bemerkung 5.14 Inhalt. In diesem Abschnitt werden Abschätzungen für Eigenwerte angegeben, welche man aus direkt zugänglichen Informationen, zum Beispiel den Einträgen der Matrix, erhält, ohne dass man die Eigenwerte explizit berechnen muss. Lemma 5.15 Eigenschaften von Eigenwerten und des Spektrums. Seien A,B R n n. Dann gelten die folgenden Aussagen. i) Falls deta) 0 und λ ein Eigenwert von A ist, so ist λ 1 ein Eigenwert von A 1. ii) Ist λ σa), dann ist αλ σαa) für beliebiges α C. iii) Ist λ σa), dann ist λ α) σa αi). Man nennt α Spektralverschiebung oder Shift. iv) Ist λ σa), dann ist λ σa). v) Es gilt σa) = σa T ). vi) Es gilt σab) = σba). Beweis: Alle Aussagen sind aus der Linearen Algebra bekannt. Lemma 5.16 Abschätzung von Eigenwerten mit Matrixnormen. Es gilt λ A für jedes λ σa) und jede Matrixnorm. 64

Beweis: Sei λ σa) und sei v ein zugehöriger Eigenvektor mit v = 1, wobei die Vektornorm zur Matrixnorm verträglich ist. Dann gilt mit einer Normeigenschaft, der Eigenwertaufgabe und der Verträglichkeit der Normen λ = λ v = λv = Av A v = A. Bemerkung 5.17 Zur Abschätzung von Eigenwerten mit Matrixnormen. Der Spektralradius einer Matrix A R n n ist definiert durch ρa) = max{ λ : λ σa)}. Aus Lemma 5.16 folgt sofort, dass ρa) A für jede Matrixnorm. Man kann zeigen, dass es zu jedem ε > 0 eine Matrixnorm gibt, so dass die Ungleichung A ρa)+ε gilt. Satz 5.18 Kreissatz von Gerschgorin 4. Sei A R n n und seien K i = z C : z a ii a ij die Gerschgorin Kreise. Dann gilt σa) i=1,i j n K i. 5.6) Das heißt, alle Eigenwerte liegen in der Vereinigung der Gerschgorin Kreise. Beweis:SeiλeinEigenwertvonAmitEigenvektorx.FüreinenIndexigilt x i x j für alle j i. Da x ein Eigenvektor ist, gilt insbesondere x i > 0. Die i te Gleichung des Eigenwertproblems hat die Gestalt j=1,j i Mit Dreiecksungleichung folgt λ a ii x i = i=1 a ijx j +a ii λ)x i = 0. j=1,j i a ijx j Nun ergibt Division mit x i > 0 und x i x j λ a ii = j=1,j i j=1,j i a ij xj x i n j=1,j i a ij x j. a ij. Also liegt λ in einem der Gerschgorin Kreise und damit erst recht in der Vereinigung aller Gerschgorin Kreise. Folgerung 5.19 Weitere Einschränkungen des Bereiches der Eigenwerte. Sei A R n n mit den Gerschgorin Kreisen K i und seien Ki T die Gerschgorin Kreise von A T. Dann gilt n n ) σa) K i ). i=1 4 Semjon Aronowitsch Gerschgorin 1901 1933) i=1 K T i 65

Falls A symmetrisch ist gilt σa) n K i R). i=1 Beweis: Aus Lemma 5.15 v) und dem Kreissatz von Gerschgorin für A T folgt σa) = σa T ) n Ki T. Zusammen mit 5.6) folgt damit die erste Aussage. Die zweite Aussage folgt daraus, dass alle Eigenwerte einer symmetrischen Matrix reell sind. Beispiel 5.0 Anwendung des Kreissatzes von Gerschgorin. Betrachte die Matrix A = 4 1 0 0 1. 1 1 3 DieEigenwertevonAsindmitMATLABberechnet) =.3,λ,3 = 3.6111± 0.0974i. Zunächst kann man den Betrag der Eigenwerte mit Normen von A abschätzen. Man erhält A 1 = 5, A F = 5.7446, A = 5. Damit ergibt sich λ i 5, i = 1,,3. Die Gerschgorin Kreise von A und A T sind K 1 = {z : z 4 1}, K T 1 = {z : z 4 1}, K = {z : z + 1}, K T = {z : z + }, K 3 = {z : z 3 }, K T 3 = {z : z 3 1}. Betrachtet man nun den Schnitt gemäß Folgerung 5.19, so erhält man mit i=1 σa) K 1 K K 3 K 1 = {z : z 4 1}, K = {z : z + 1}, K1 = {z : z 3 1}. 5.5 Die Potenzmethode oder Vektoriteration Bemerkung 5.1 Grundidee.DiePotenzmethodeoderVektoriterationisteinVerfahren zur Berechnung des betragsgrößten Eigenwertes und eines zugehörigen Eigenvektors einer Matrix A. Dieses Verfahren geht auf von Mises 5 zurück. Es liefert das Grundkonzept für die Entwicklung weiterer Verfahren zur Berechnung von Eigenwerten und vektoren. Der Einfachheit halber werden für die Konvergenzanalyse einige Annahmen gemacht. Die Matrix A R n n sei diagonalisierbar. Weiter gelte für die Eigenwerte 5 Richard von Mises 1883 1953) > λ... λ n, 66

dasheißt,derbetragsgrößteeigenwertsolleinfachsein.insbesonderesinddamitalle Eigenwerte reell, alle Eigenvektoren v j, j = 1,...,n, reell und die Eigenvektoren spannen R n auf. Für die Potenzmethode benötigt man einen Startvektor x 0) R n. Dieser lässt sich als Linearkombination der Eigenvektoren darstellen x 0) = c j v j. j=1 Sei x 0) so gewählt, dass c 1 0 gilt. Multipliziert man die Darstellung von x 0) mit der k ten Potenz A k von, so erhält man Damit gilt A k x 0) = x k) := A k x 0) = λ k 1 c 1 v 1 + Wegen λ j / < 1 folgt c j A k v j = j=1 j= lim k rk) = lim k c j λ k jv j. j=1 ) k λj c j v j =: λ k 1 c 1 v 1 +r k)). 5.7) j= ) k λj c j v j = 0. Das bedeutet, für große k dominiert in 5.7) der Beitrag vom ersten Eigenwert und Eigenvektor. Satz 5. Konvergenz der Vektoriteration. Sei A R n n und erfülle A die Voraussetzungen aus Bemerkung 5.1. Sei x k) R n die k te Iterierte der Potenzmethode und sei ) x k) T ) Ax k) x k) T x k+1) λ k) = x k) = x k). Dann gilt λ k) λ k) = O. Beweis: Man betrachtet den Abstand zwischen dem Unterraum S k) := {αx k) : α R} und dem Eigenvektor v 1 ) d S k),v 1 := min x v 1 = minαx k) v 1. x S k) α R Nun formt man 5.7) äquivalent um λ k 1c 1 ) 1x k) = v 1 +c 1 1 r k). 5.8) ) Wählt man in d S k),v 1 den Wert α = α k := ) 1, λ k 1c 1 so erhält man damit und der Definition von r k) ) d S k),v 1 α k x k) v 1 = c 1 k) r = O 1 λ k). 5.9) 67

Damit ist α k x k) eine Approximation an v 1, also Aα k x k) α k x k) = Ax k) x k). ) T Durch Multiplikation dieser Beziehung von links mit x k) folgt, dass λ k) = x k) ) T Ax k) x k) = x k) ) T x k+1) x k) eine Approximation an ist. Analog ist α k+1 x k+1) mit α k+1 = ) λ k+1 1 1 c 1 = αk / eine Approximation von v 1. Jetzt muss man noch die Güte dieser Approximation untersuchen. Man erhält mit 5.8), 5.9) und v 1 = 1 ) T ) ) T ) α k x α k) k x α k+1) k x α k) k+1 x k+1) λ k) = α k x k) = α k x k) ) T ) v 1 +c 1 1 rk) v 1 +c 1 1 rk+1) = v 1 +c 1 1 rk) v 1 +O )) λ k T v )) λ 1 +O k+1 = ) v1 +O λ k ) λ 1+O k λ 1 = 1+O λ 1+O ) = k λ1 λ k)). Die Gültigkeit des letzten Schrittes sieht man aus 1+O k)) k)) 1+O = 1+O λ λ = 1+O λ λ k) +O k), vergleiche Definition des Landau 6 Symbols. Durch Umstellen folgt λ k) λ k) = O. λ ) k Bemerkung 5.3 Symmetrische Matrizen. Falls A eine symmetrische Matrix ist, kann man sogar λ k) λ = O zeigen. k). Bemerkung 5.4 Skalierung der Iterierten. Wendet man das bisherige Verfahren an, so gelten x k) falls > 1, x k) 0 falls < 1. 6 Edmund Georg Hermann Landau 1877 1938) 68

Aus diesen Gründen ist es zweckmäßig, die Iterierten zu skalieren. Damit werden starke Änderungen in der Größenordnung vermieden. Die Konvergenzaussagen ändern sich durch Skalierung auch nicht, da weder der Unterraum S k) noch die Iterierte λ k) von einer Skalierung von x k) abhängen. Algorithmus 5.5 Potenzmethode, Vektoriteration. Seien A R n n und y 0) 0 mit y 0) = 1 gegeben. Für k = 0,1,... berechne ỹ k+1) = Ay k) λ k) = ỹ k+1)) T y k) y k+1) = ỹ k+1) ỹ k+1). Bemerkung 5.6 Zu Algorithmus 5.5. Wählt man y 0) = x 0), so weist man mit vollständiger Induktion nach, dass y k) = xk) x k) = Ak x 0) A k x 0). Also liefert Algorithmus 5.5, bis auf Skalierung in x k), die oben analysierten Folgen {x k) } und {λ k) }. Die Konvergenzgeschwindigkeit der Potenzmethode hängt wesentlich vom Verhältnis von und λ ab. Beispiel 5.7 Sturm Liouville Problem. Betrachte das in Beispiel 5.3 hergeleitete Eigenwerproblem Av = λv. Sei rx) 1, dann sind die Eigenwerte von A bekannt λ n j = 4 ) jπh h sin, j = 1,...,n 1, h = 1 n. Es ist > λ >... > λ n 1. Dann erhält man mit h = 1/n, einem Additionstheorem für die Sinusfunktion, Taylorentwicklung und Polynomdivision λ sin ) n )πh = sin ) = sin π πh) n 1)πh sin π ) πh = cos πh) cos ) πh ) 1 πh) 1 πh/) ) = 1 π h + π 1 π h 4 h 4 4 4 + π4 h 4 64 1 3 4 π h. Man erkennt, dass man im Fall h 1 mit einer sehr langsamen Konvergenz λ k) rechnen muss. Bemerkung 5.8 Fazit.FallsAdiagonalisierbaristund eineinfachereigenwert ist, dann konvergiert Algorithmus 5.5. Die Konvergenz kann aber sehr langsam sein. Bemerkung 5.9 Berechnung anderer Eigenwerte, inverse Vektoriteration, Spektralverschiebung. Sei A R n n nichtsingulär und diagonalisierbar. Die Eigenwertgleichung Av i = λ i v i, i = 1,...,n, ist äquivalent zu 1 λ i v i = A 1 v i. 69

Damit würde die Vektoriteration angewandt mit A 1 unter der Annahme λ... λ n 1 > λ n den betragsmäßig größten Eigenwert λ n von A 1 berechnen, das heißt den betragsmäßig kleinsten Eigenwert von A. Nach Lemma 5.15, iii), ist λ i ein Eigenwert von A genau dann, wenn λ i µ ein Eigenwert von A µi ist. Angenommen, man hätte eine Schätzung µ λ i eines beliebigen einfachen reellen Eigenwertes von A, so dass λ i µ < λ j µ, für alle i j. 5.10) Dann ist λ i µ) 1 der betragsmäßig größte Eigenwert von A µi) 1. Zur Berechnung dieses Eigenwertes kann man die Vektoriteration anwenden. Algorithmus 5.30 Inverse Vektoriteration mit Spektralverschiebung. Gesucht ist der einfache reelle Eigenwert λ i von A R n n. Wähle µ so, dass 5.10) gilt und wähle einen Startvektor y 0) 0 mit y 0) = 1. Für k = 0,1,... berechne A µi)ỹ k+1) = y k) 5.11) λ k) 1 = ỹk+1) ) T +µ y k) y k+1) = ỹ k+1) ỹ k+1). Bemerkung 5.31 Zu Algorithmus 5.30. In5.11)mussmaneinlinearesGleichungssystemmitderMatrixA µi)lösen. Dafür berechnet man einmal eine LU oder QR Zerlegung von A µi). Die Vektoriteration, Algorithmus 5.5, strebt gegen λ i µ) 1. Das bedeutet für die Iterierten aus Algorithmus 5.30, dass λ k) = 1 ỹk+1) ) T y k) +µ λ i µ+µ = λ i für k. Die Konvergenzgeschwindigkeit von Algorithmus 5.30 hängt wie bei der Vektoriteration von Verhältnis der betragsgrößten Eigenwerte ab. Das ist hier max j i λ j µ 1 λ i µ 1 = min 1 j i λ j µ ) λ i µ λ i µ 1 = min j i λ j µ. Hat man also eine gute Schätzung µ von λ i, dann gilt λ i µ min j i λ j µ 1 und das Verfahren konvergiert sehr schnell. In der Praxis ist allerdings im Allgemeinen nicht klar, wie man µ wählen sollte. Die Konvergenzgeschwindigkeit kann verbessert werden, wenn man während der Iteration den Parameter µ geeignet anpasst, zum Beispiel mit der aktuellen Iterierten µ = λ k). Nach jeder Anpassung muss man allerdings die Matrix A µi) neu faktorisieren, so dass die Kosten dieses Iterationsschrittes sehr hoch sind. 70

5.6 Das QR Verfahren Bemerkung 5.3 Inhalt. Sei A R n n eine symmetrische Matrix. Aus Folgerung 5.13 ist bekannt, dass das Eigenwertproblem für A gut konditioniert ist. Dieser Abschnitt stellt ein Verfahren zur Berechnung aller Eigenwerte und Eigenvektoren von A vor. Bemerkung 5.33 Transformationen von A durch Orthogonaltransformationen. Aus Folgerung 5.8 ist bekannt, dass alle Eigenwerte von A reell sind, A diagonlisierbar ist und eine Orthonormalbasis aus Eigenvektoren {v 1,...,v n } existiert, so dass Q 1 AQ = diag,...,λ n ) mit Q = [v 1,...,v n ]. Im Allgemeinen ist es jedoch nicht möglich, Q in endlich vielen Schritten zu bestimmen. Damit wäre auch ein endliches Verfahren zur Bestimmung aller Nullstellen eines Polynoms n ten Grades gefunden. Ein solches Verfahren, basierend auf elementaren Rechenoperation und der Quadratwurzel, kann es aber nach dem Satz von Abel 7 nicht geben. Es ist auch nicht möglich, A mit Orthogonaltransformationen, zum Beispiel mit Housholder Spiegelungen auf Diagonalgestalt zu bringen. Mit einer ersten Housholder Spiegelung kann man die Elemente der ersten Spalte unterhalb der Diagonalen zu Null machen. Wendet man dann eine Housholder Spiegelung auf die erste Zeile an, dann wird die erste Spalte wieder gefüllt 0 0 0 0 A = Q 1 0 0 0 0 Q. Man verliert auch die Symmetrie der Matrix. Es ist jedoch möglich, A mit orthogonalen Transformationen auf Tridiagonalgestalt zu bringen. Verwendet man eine orthogonale Matrix deren erste Zeile der erste Einheitsvektor ist und deren Spalten durch eine Housholder Spiegelung so konstruiert sind, dass die Elemente der ersten Spalte unter a 1 verschwinden, so erhält man 0 0 0 A = Q 1 0 0 0 Q T 1 0 0. 0 Die Anwendung von Q T 1 hat keine Auswirkungen auf die erste Spalte. Auf diese Art und Weise fährt man fort bis man eine Tridiagonalmatrix erhält. Lemma 5.34 Transformationen auf Tridiagonalgestalt. Sei A R n n symmetrisch. Dann existiert eine orthogonale Matrix Q R n n, die das Produkt von n ) Householder Spiegelungen ist, so dass QAQ T eine symmetrische Tridiagonalmatrix ist. 7 Niels Henrik Abel 180 189) 71

Beweis: Die Fortsetzung des in Bemerkung 5.33 beschriebenen Prozesses und die Eigenschaften der Householder Matrizen Q 1,...,Q n liefern 0 0 0 0 0 QAQ T = Q n...q 1AQ T 1...Q T n = 0 0 0 0. 0 0 0 Bemerkung 5.35 Reduktion des Eigenwertproblems. Die Matrizen A und QAQ T sind ähnlich und sie besitzen gemäß Bemerkung 5.6 dieselben Eigenwerte. Damit hat man also das Problem der Bestimmung der Eigenwerte einer symmetrischen Matrix auf das Problem der Bestimmung der Eigenwerte einer symmetrischen Tridiagonalmatrix reduziert. Bemerkung 5.36 Iteration mit Tridiagonalmatrizen. Die Berechnung der Eigenwerte einer Tridiagonalmatrix wird iterativ erfolgen. Die grundlegende Idee wurde in Rutishauser 1958) vorgestellt. Sei 0 0 0 0 0 B = B 1 = 0 0 0 0. 0 0 0 Dann kann man eine Faktorisierung von B bestimmen, wobei in Rutishauser 1958) die LU Zerlegung vorgeschlagen wurde. Für Tridiagonalmatrizen erhält man ein Produkt aus zwei Bidiagonalmatrizen 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 B = B 1 = LU = 0 1 0 0 0 0 0 0 0 1 0 0 0 0. 0 0 0 1 0 0 0 0 Nun vertauscht man die Faktoren 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 B = UL = 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1 und wiederholt das Verfahren mit B. In den Arbeiten Francis 1961/196) und Kublanovskaja1961)wurdedasVerfahrenmodifiziert,indemstattderLU Zerlegung die stabile QR Zerlegung verwendet wurde. Mit diesem Verfahren erhält man eine Folge von Matrizen {B k } k N. Lemma 5.37 Eigenschaften der Matrizen {B k } k N. Die Matrizen {B k } k N seien mit dem Verfahren aus Bemerkung 5.36 definiert, wobei die Faktorisierung mittels einer QR Zerlegung vorgenommen wurde B k = Q k R k, B k+1 = R k Q k. Dann gelten: i) B k ist ähnlich zu B, k 1. ii) Falls B symmetrisch ist, so ist auch B k symmetrisch, k 1. 7

iii) Falls B symmetrisch und tridiagonal ist, so ist auch B k symmetrisch und tridiagonal, k 1. Beweis: i). Die Aussage ist bewiesen, wenn man gezeigt hat, dass B k und B k+1 für beliebiges k 1 ähnlich sind. Nach Konstruktion der Matrizen {B k } k N und einer Eigenschaft von Orthogonalmatrizen, Lemma.14, gilt Q k B k+1 Q T k = Q k R k Q k Q T k = Q k R k = B k. Das ist genau die Ähnlichkeit der beiden Matrizen. ii). Diese Aussage wird durch vollständige Induktion nach k gezeigt. Der Induktionsanfang, die Symmetrie von B 1 = B ist klar. Gelte also die Symmetrie für B k. Dann folgt B T k+1 = B T k+1q T kq k = Q k B k+1 ) T Q k = Q k R k Q k ) T Q k = B k Q k ) T Q k = Q T kb T k Q k = Q T kb k Q k = Q T kq k R k Q k = R k Q k = B k+1. iii). Der Beweis wird mit vollständiger Induktion nach k erbracht. Der Induktionsanfang ist wieder klar. Sei nun B k eine Tridiagonalmatrix. Dann kann man mit n 1) Givens Drehungen G i,k die Einträge der unteren Hauptnebendiagonalen zu Null machen und erhält eine Dreiecksmatrix R k mit dem Besetzheitsmuster 0 0 0 0 B k = Q k R k = G 1,k...G n 1,k R k = G 1,k...G n 1,k 0 0 0 0 0. 0 0 0 0 Beispielsweise im ersten Schritt, bei der Givens Drehung G 1,k, wird ein Vielfaches der zweiten Zeile von B k zur ersten Zeile addiert. Da B k tridiagonal ist, also b j = 0 für j > 3, bleiben alle Elemente der ersten Zeile der resultierenden Matrix mit einem Spaltenindex größer als Drei Null. Nun ist 0 0 0 B k+1 = R k Q k = R k G 1,k...G n 1,k = 0 0 0 0 0 G,k...G n 1,k 0 0 0 0 0 0 0 = 0 0 0 0 0 0 0 0 0 G 3,k...G n 11,k =... = 0 0 0 0 0 da G 1,k nur die ersten beiden Zeilen beeinflusst, G,k nur die zweite und dritte und so weiter. Nach Teil ii) ist B k+1 aber auch symmetrisch. Das bedeutet, dass der ganze Fill in im oberen Dreieck über der oberen Hauptnebendiagonalen verschwindet. Damit ist B k+1 tridiagonal. Satz 5.38 Iteration zur Approximation der Eigenwerte. Sei A R n n symmetrisch mit Eigenwerten,...,λ n, welche die Eigenschaft > λ >... > λ n > 0 haben mögen. Weiter seien die Matrizenfolgen {A k } k N, {Q k } k N und {R k } k N durch A 1 = A, A k = Q k R k, A k+1 ) = R k Q k definiert. Dann gibt es Vorzeichen ) Matrizen S k = diag σ k) 1,...,σk) n mit σ k) = 1 so dass lim S k 1Q k S k = I k i, 73

und lim S kr k S k 1 = lim S k 1A k S k = diag,...,λ n ) = D. k k Es gilt also insbesondere, da aus der Existenz des Grenzwertes S k 1 = S k ab einem gewissen Index folgt, dass lim k ak) jj = λ j, j = 1,...,n, wobei a k) jj das j te Diagonalelement von A k ist. Beweis: Der Beweis ist recht umfangreich und deshalb wird auf die Literatur verwiesen, zum Beispiel auf Wilkinson 1965). Bemerkung 5.39 Zu Satz 5.38. Satz 5.38 bietet einen Algorithmus zur Konstruktion einer Schur Faktorisierung von A gemäß 5.4). Der Algorithmus aus Satz 5.38 lässt sich als Verallgemeinerung der Vektoriteration auffassen. Er entspricht der Projektion auf die Unterräume, die von den Spalten von A k aufgespannt werden, siehe Stoer and Bulirsch, 005, S. 58). Algorithmus 5.40 QR Verfahren zur Eigenwertberechnung. Sei die symmetrische matrix A R n n gegeben. 1. Transformiere A mit Hilfe von Householder Spiegelungen auf Tridiagonalgestalt B = Q T AQ.. Wende auf B den Algorithmus aus Satz 5.38 mit Givens Drehungen an, womit GBG T D und G das Produkt aller Givens Matrizen ist. Die Diagonale von GBG T approximiert die Eigenwerte von A und die Spalten von GQ T die zugehörigen Eigenvektoren. Bemerkung 5.41 Zum QR Verfahren. Der Aufwand des ersten Schrittes beträgt O 3 n3) Multiplikationen/Divisionen. Jede Iteration im. Schritt benötigt O n ) Multiplikationen/Divisionen. Man kann zeigen, dass die Konvergenzgeschwindigkeit des QR Verfahrens von den Faktoren λ j+1 /λ j für j = 1,...,n 1, abhängt. Liegt dieser Wert für einen oder mehrere Indizes nahe bei Eins, dann ist die Effizienz des Verfahrens schlecht. Abhilfe kann man auch hier mit einer Spektralverschiebung schaffen, vergleiche Algorithmus 5.30. Mit einigen Modifikationen lässt sich das Verfahren auch auf nichtsymmetrische Matrizen anwenden, siehe beispielsweise Stoer and Bulirsch 005). 74