Komplexe Lineare Algebra. Lösung allgemeiner Linearer Systeme (m n möglich) Die Lösbarkeit eines linearen Systems

Ähnliche Dokumente
12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Ausgewählte Lösungen zu den Übungsblättern 9-10

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

und Unterdeterminante

und Unterdeterminante

3.6 Eigenwerte und Eigenvektoren

3 Lineare Algebra Vektorräume

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Kapitel 11 Eigenwerte und Eigenvektoren

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung

6 Eigenwerte und Eigenvektoren

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Eigenwerte und Diagonalisierung

D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Musterlösung 13. (A ± I)x = 0 Ax ± x = 0 Ax = ±x Ax = λx

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

5 Lineare Gleichungssysteme und Determinanten

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y.

6 Hauptachsentransformation

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Theoretische Fragen zu ausgewählten Themen in Lineare Algebra

Lösung 13: Unitäre Vektorräume und normale Abbildungen

3.7 Eigenwerte und Eigenvektoren

Berechnung der Determinante

Kapitel 3 Lineare Algebra

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

Lineare Algebra für Physiker 11. Übungsblatt

Klausurenkurs zum Staatsexamen (SS 2013): Lineare Algebra und analytische Geometrie 3 Lösungsvorschlag

Spezielle Matrixformen

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Lineare Algebra I für Mathematiker Lösungen

Lineare Algebra: Determinanten und Eigenwerte

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9

Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie-

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Karlsruher Institut für Technologie (KIT) WS 2012/13 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2018/2019

Eigenwerte und Eigenvektoren

5.4 Basis, Lineare Abhängigkeit

Serie 8: Online-Test

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Lineare Algebra und Numerische Mathematik für D-BAUG

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

3 Matrizenrechnung. 3. November

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

Vektoren und Matrizen

Klausur Lineare Algebra I am Es sind insgesamt 60 Punkte bei der Klausur zu erreichen.

7.3 Unitäre Operatoren

MC-Serie 11: Eigenwerte

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert

Eigenwerte (Teschl/Teschl 14.2)

45 Eigenwerte und Eigenvektoren

D-INFK Lineare Algebra HS 2016 Özlem Imamoglu Olga Sorkine-Hornung. Musterlösung = = V A =

8.2 Invertierbare Matrizen

3 Lineare Gleichungssysteme

4 Lineare Abbildungen Basisdarstellungen

Musterlösung der Klausur zur linearen Algebra II

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Serie 8: Fakultativer Online-Test

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

D-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den

4 Lineare Algebra (Teil 2): Quadratische Matrizen

1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von

Ökonometrische Analyse

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Lösungsskizze zur Wiederholungsserie

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Proseminar Lineare Algebra II, SS 11. Blatt

Klausur zur Mathematik II (Modul: Lineare Algebra II) Sie haben 60 Minuten Zeit zum Bearbeiten der Klausur.

3 Determinanten, Eigenwerte, Normalformen

5 Lineare Algebra (Teil 3): Skalarprodukt

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte

Lineare Algebra. Teil III. Inhaltsangabe

8. Elemente der linearen Algebra 8.5 Quadratische Matrizen und Determinanten

8.2 Invertierbare Matrizen

Mathematik für Physiker, Informatiker und Ingenieure

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Transkript:

Determinante und Inverse Lösung allgemeiner Linearer Systeme (m n möglich) Die Lösbarkeit eines linearen Systems Ax = b R m, x R n, A R mn hängt sehr stark vom sogenannten Rang der m n Matrix A ab Diese natürliche Zahl rang(a) erfüllt die folgenden äquivalenten Definitionen: maximale Zahl linear unabhängiger Spalten maximale Zahl linear unabhängiger Zeilen Dimension des Bildraumes {Ax : x R n } n dim(kern(a)) mit kern(a) = {x R n : Ax = 0} maximale Größe einer quadratischen Untermatrix à mit nichtverschwindender Determinante det(ã) Determinante und Inverse Mittels der Gauß Elimination läßt sich ein beliebiges, dh nicht notwendigerweise quadratisches, lineares System A x = b immer zu einem äquivalenten System à x = b umformen Hierbei unterscheiden sich die Lösungsvektoren x und x nur in der Reihenfolge ihrer Elemente, x kann also als Permutation von x erhalten werden, wenn überhaupt Spaltenvertauschungen durchgeführt wurden Die Matrix à hat Trapezform, so daß n {}}{ 0 m 0 0 0 0 0 = 0 0 0 0 0 0 0 0 0 0 0 0 0 0 }{{}}{{} r n r wobei die ersten r = rang(a) Elemente der Diagonale nicht Null sind }{{} r } {{ } n r }{{} r } {{ } m r Determinante und Inverse Eigenschaften der Lösung x Aus der Trapezform des linearen Systems lässt sich unmittelbar ablesen: die letzten m r Komponenten von b müssen verschwinden, sonst gibt es keine Lösungen, gibt es überhaupt Lösungen, so sind die letzten n r Komponenten von x beliebig Aus diesen beiden Beobachtungen ergeben sich für die entsprechenden Größen b und x die folgenden möglichen Situationen: n = r = m: Für beliebiges b gibt es eine eindeutige Lösung x n = m > r: Für bestimmte b (insbesondere b = 0) existieren mehrere Lösungen x, sonst keine m = r < n: Für beliebige b existieren mehrere x n = r < m: Für bestimmte b existieren eindeutige x, sonst keine n > r < m: Für bestimmte b existieren mehrere x, sonst keine B - 10 Komplexe Lineare Algebra Für die Berechnung von Eigenwerten und Eigenvektoren von nicht symmetrischen reellen Matrizen besteht die Notwendigkeit, die bisher im Reellen betrachtete lineare Algebra auf die Räume C n der n-elementigen komplexen Vektoren a C n mit a = (α i) i = 1n, α i = Re (α i) + iim (α i) C zu erweitern Zu jedem solchen Vektor a existiert der konjugiert komplexe Vektor ā = (ᾱ i) i = 1n, ᾱ i = Re(α i) iim(α i ) C Offensichtlich gilt, wie schon im skalaren Falle, für jeden reellen Vektor a R n : ā = a

Durch a b = ā T b = n ᾱ iβ i C wird nun ein inneres Produkt (oder Skalarprodukt) definiert, welches im Gegensatz zum reellen Falle nicht kommutativ ist, dh es ist von der Reihenfolge der Faktoren abhängig: b a = b T a = ā T b = a b Da nun (a, a) immer reell und nicht negativ ist läßt sich damit die innere Produktnorm a = [ n ] 1 2 a a = α i 2 definieren Es gelten die üblichen Normeigenschaften a 0, a = 0 a = 0, γa = γ a für beliebiges γ C, sowie die Dreiecksungleichungen a + b a + b, a b a b Erweitert man den Körper der Skalare von R auf C, so bleiben fast alle Definitionen und Sätze gültig Das gilt insbesondere für die Begriffe Linearkombination Linearer Unterraum Dimension Lineare Unabhängigkeit Basis Lineare Abbildung sowie Matrizen und ihre speziellen Formen Unterschiede ergeben sich lediglich dort, wo das innere Produkt eine wesentliche Rolle spielt: Eine Familie von Vektoren v i C n, i = 1 r, heißt orthogonal, wenn v i v j = v T i v j = 0 für i j, was weiterhin lineare Unabhängigkeit impliziert Eine quadratische Matrix A = (α ij) j=1n n Cnn heißt orthogonal, wenn ihre Spalten paarweise orthogonal sind und ihre Norm jeweils gleich 1 ist Mittels der konjugiert transponierten Matrix Ā T = ᾱ 1 1 ᾱ n 1 ᾱ 1 n ᾱ n n läßt sich die Orthogonalität von A durch die Beziehungen Ā T A = I = AĀT beschreiben, wobei I weiterhin die Einheitsmatrix bezeichnet: I = diag(1, 1,, 1) R nn C nn Abgesehen von der Orthogonalität erfährt auch der Begriff der Symmetrie bei der Erweiterung auf komplexe Matrizen eine Veränderung Man kann zwar eine Matrix A = (α i j) C nn immer noch symmetrisch nennen, wenn α j i = α i j gilt, diese Eigenschaft ist aber wesentlich weniger interessant als die Erfüllung der Bedingung ᾱ j i = α i j Ā T = A Solche Matrizen nennt man hermitesch und die entsprechenden linearen Abbildungen auch selbstadjungiert, da für beliebige Vektoren a, b C n a (Ab) = ā T Ab = (Ā T a) b = (Aa) b gilt Für uns wird nur von Bedeutung sein, daß hermitesche Matrizen (wie ihre Untermenge der reell symmetrischen Matrizen) nur reelle Eigenwerte haben

Definition B73 () Eine komplexe Zahl λ C heißt Eigenwert einer quadratischen Matrix A C nn wenn es einen entsprechenden Eigenvektor v C n gibt, so daß gilt: Av = λv mit v 0 Folgerung B74 Daraus folgt unmittelbar, daß v eine nicht triviale Lösung des homogenen Systems (A λi ) v = 0 ist Eine solche existiert genau dann, wenn der Rang von (A λ I ) kleiner als n ist, und damit äquivalenterweise gilt P(λ) det(a λ I ) = 0 P(λ) wird das charakteristische Polynom von A genannt Satz B75 (Polynomeigenschaft von P(A)) P(λ) ist ein Polynom n-ten Grades und hat die spezielle Form wobei P(λ) = ( λ) n + Tr(A)( λ) n 1 + + det(a), Tr(A) = n α i i die Spur (engl trace) der Matrix A bezeichnet Falls alle Elemente von A reell sind, so gilt dies auch für die Koeffizienten des charakteristischen Polynoms (allerdings nicht für die Wurzeln) Bemerkung: Die spezielle Form des n ten, (n 1) ten und konstanten Koeffizienten wird hier nicht bewiesen Beweis: Durch Induktion nach n beweisen wir die etwas allgemeinere Behauptung: P(λ) det(a λb) ist für jedes Paar von Matrizen A,B C nn mit B = (β ij) ein Polynom vom Grade kleiner oder gleich n Induktionsanfang, n = 1: det(a λb) = α 1 1 λβ 1 1 ist offensichtlich ein Polynom vom Grade gleich 1 Induktionsvorraussetzung: deg(det(a λb)) n sei erfüllt für n Induktionsschritt, n n + 1: Nach dem Entwicklungssatz gilt für zwei Matrizen A, B R (n+1)(n+1) n+1 det(a λ B) = ( 1) (j+1) (α 1 j λβ 1 j) det(a 1 j λ B 1 j) j=1 wobei A 1 j und B 1 j die durch Weglassen der ersten Zeile und j ten Spalte aus A bzw B gebildeten n n Matrizen darstellen Nach Induktionsvorraussetzung sind die Determinanten det(a 1 j λb 1 j) Polynome vom Grade höchstens n, so daß die Multiplikation mit den linearen Faktoren (α 1 j λβ 1 j) den Grad höchstens auf n + 1 erhöhen kann Algebraische Vielfachheit Nach dem Fundamentalsatz der Algebra gibt es k n verschiedene Nullstellen λ i der Vielfachheit p i, so daß das charakteristische Polynom geschrieben werden kann als P(λ) = (λ 1 λ) p1 (λ 2 λ) p2 (λ k λ) pk k mit p i = n Daraus folgt k λ i = Tr(A), k λ pi i = det(a) Die Zahl p i > 0 heißt die algebraische Vielfachheit des Eigenwertes λ i

Beispiel B76 Die Matrix A = ( ) 0 1 1 0 hat das charakteristische Polynom ( ) λ 1 P(λ) = det 1 λ = λ 2 + 1 = (i λ)( i λ) Die Eigenwerte sind also λ 1 = i und λ 2 = i, beide mit der algebraischen Vielfachheit p 1 = p 2 = 1 Man prüft leicht die Identitäten Tr(A) = 0+0 = 0 = i i und det(a) = 1 = i ( i) = i 2 = ( 1) Dabei ist i die imaginäre Einheit der komplexen Zahlen Berechnung der Eigenvektoren Die zu einem Eigenwert λ i gehörenden Eigenvektoren v i lassen sich als Lösungen des homogenen Gleichungssystems (A λ i I )v = 0 bestimmen Sie bilden einen linearen Unterraum der Dimension q i dim(kern(a λ i I )) = n rang(a λ i I ) Die Zahl q i > 0 heißt die geometrische Vielfachheit des Eigenwertes λ i und ist immer kleiner oder gleich der algebraischen Vielfachheit p i von λ i: q i p i für i = 1 k Eigenwerte λ i mit q i < p i heißen defekt Zum Eigenwert λ i kann man immer q i linear unabhängige Vektoren finden, die den Unterraum kern(a I λ i) aufspannen Weiterhin gilt die folgende Aussage bezüglich verschiedener Eigenwerte Lemma B77 Die zu r verschiedenen Eigenwerten λ i, i = 1 r, gehörenden Eigenvektoren (v i) i = 1r sind linear unabhängig Beweis: Induktionsanfang, r=1: v 1 ist wie jeder Eigenvektor definitionsgemäß ungleich Null und deshalb linear unabhängig, dhγ 1v 1 = 0 kann nur mit γ 1 = 0 erfüllt werden Induktionsvoraussetzung, r: Die Menge der Eigenvektoren (v i) i = 1r sei linear unabhängig, dh γ iv i = 0 = γ 1 = = γ r = 0 Induktionsschritt, r r+1: Es gelte für geeignete Koeffizienten γ i γ iv i = 0 Fortsetzung Beweis Multiplikation mit der Matrix A bzw dem Skalar λ r+1 liefert 0 = A 0 = A γ iv i = γ i Av i = bzw 0 = λ r+1 0 = λ r+1 γ iv i = γ iλ iv i + γ r+1λ r+1v r+1 γ iλ r+1v i + γ r+1λ r+1v r+1 Aus der Differenz dieser beiden Gleichungen fällt der letzte Term mit v r+1 ganz heraus: 0 = γ i(λ r+1 λ i)v i Laut Induktionsannahme sind die v i, i = 1 r, linear unabhängig, also müssen die zusammengesetzten Koeffizienten γ i(λ r+1 λ i) alle gleich Null sein Da die λ i verschieden sind, gilt λ r+1 λ i 0, i = 1 r Dies kann aber nur bedeuten, daß die Koeffizienten γ i für i = 1 r und damit auch γ r+1 gleich Null sind Also ist auch die um einen Eigenvektor erweiterte Familie v i, i = 1 r + 1, linear unabhängig

Eigenwertzerlegung von Matrizen Sind nun alle Eigenwerte einfach oder zumindest nicht defekt, so kann man einen vollen Satz von n linear unabhängigen Eigenvektoren v i finden Diese faßt man als Spalten zu einer quadratischen Matrix V = [v 1, v 2,, v n] C nn zusammen, welche auf Grund der linearen Unabhängigkeit ihrer Spaltenvektoren eine Inverse V 1 besitzt Nun kann man die n Vektorgleichungen Av i = λ iv i mit Hilfe der Diagonalmatrix Λ = diag(λ i) i = 1n zur Matrixgleichung A V = V Λ kombinieren Multipliziert man von links bzw von rechts mit V 1 so erhält man die Darstellung Λ = V 1 A V bzw A = V Λ V 1 Eigenwerte bei speziellen Matrizen Definition B78 (Ähnlichkeitstransformation) Gibt es für zwei Matrizen A, B C nn eine reguläre Matrix T, so daß TA = TB und damit auch A = TBT 1 bzw B = T 1 A T gilt, so sagt man, die Matrizen A und B sind ähnlich Die Überführung der Matrix B in A durch TBT 1 heisst Ähnlichkeitstransformation Daraus folgt mit det(t ) det(t 1 ) = 1 unmittelbar: Folgerung B79 (Eigenwerte ähnlicher Matrizen) det(a λi ) = det(tbt 1 λtt 1 ) = det(t (B λi )T 1 ) = det(t ) det(b λ I ) det(t 1 ) = det(b λi ) Also haben zueinander ähnliche Matrizen genau dasselbe charakteristische Polynom und damit auch dieselben Eigenwerte Verschiebung (Shift) Addiert man zu einer Matrix A ein Vielfaches der Einheitsmatrix, so verschieben sich die Eigenwerte entsprechend, da det((a + µi ) λi ) = det(a (λ µ)i ), so daß λ genau dann ein Eigenwert von (A + µi ) ist, wenn λ µ ein Eigenwert von A ist Transponierung Selbst bei komplexen Matrizen läßt die Transponierung den Determinantenwert unverändert, so daß det(a T λi ) = det((a λi ) T ) = det(a λi ) Also haben A und A T genau dieselben Eigenwerte, wobei die dazugehörigen Eigenvektoren im allgemeinen allerdings verschieden sind Konjugierte und symmetrische Matrizen Da die Konjugierung von komplexen Zahlen sich auf Faktoren und Summanden überträgt, gilt det(a λi ) = det(a λi ) = det(a λi ) = det(a λi ), so daß λ genau dann ein Eigenwert von Ā und damit auch ĀT ist, wenn λ ein Eigenwert von A ist Da für reelle Matrizen A = Ā gilt, ist für diese mit jedem λ auch λ ein Eigenwert Das heißt: Folgerung B80 (Eigenwerte reeller Matrizen) Alle Eigenwerte reeller Matrizen sind entweder reell oder treten als konjugiert komplexe Paare (λ, λ) auf

Hermitesche Matrizen Für diese Klasse von Matrizen sind alle Eigenwerte reell und die Eigenvektoren können sogar orthogonal zueinander gewählt werden Es gilt nämlich Av = λv v T Ā T = λ v T, und somit folgt durch Multiplikation der linken Gleichung von links mit v T und entsprechend der rechten Gleichung mit v von rechts, daß v T Av = λ v T v = λ v T v, wobei wir die Voraussetzung ĀT = A benutzt haben Da nun v T v = v 2 nicht Null ist, gilt λ = λ, und der Eigenwert λ muß deshalb reell sein Praktische Berechnung der Eigenwerte Der offensichtliche Weg Eigenwerte und die entsprechende Eigenvektoren zu berechnen, führt über das charakteristische Polynom P(λ) = det(a λi ) Bei grösseren Dimensionen ist jedoch schon die Berechnung der Koeffizienten von P(λ) sehr aufwendig Ausserdem erhält man dann die Eigenwerte als Nullstellen von P(λ) mit nur geringer Genauigkeit, da sie stark durch numerische Rundungsfehler beeinträchtigt werden Stattdessen führt man beim sogenannten QR-Algorithmus eine Folge von orthogonalen Ähnlichkeitstransformationen durch, die A sukzessive auf diagonale Form reduzieren (falls A wirklich diagonalisierbar ist) Der Gesamtaufwand dafür ist normalerweise mindestens 5n 3 skalare Multiplikationen und damit ein Vielfaches der Kosten für eine LU- Faktorisierung Deswegen wird die Eigenwertzerlegung nur in ganz speziellen Fällen zur Lösung linearer Systeme Ax = b herangezogen Nutzung der Diagonalisierung Eigenwertzerlegungen spielen besonders bei der Analyse sogenannter dynamischer Systeme eine zentrale Rolle Betrachtet man zum Beispiel eine lineare Evolutionsgleichung x neu = Ax alt + b so ergibt deren wiederholte Anwendung den k-ten Zustand von x beginnend mit x = 0 als einen Ausdruck der Form Q k(a)b mit k 1 Q k(a) = q ja j j=0 k 1 = V q jλ j V 1 = VQ k(λ)v 1 j=0 Hierbei gilt das Gleichheitszeichen unter der Vorraussetzung dass A = V ΛV 1 so dass insbesondere A j = V Λ j V 1 Mit anderen Worten: Man kann V aus dem Matrixpolynom Q k(a) herausziehen, so dass dessen Verhalten gerade fuer grosse k durch Q k(λ) = diag(q k(λ j )) j+1n beschrieben ist Kanonische Jordanform Einige Matrizen (wie zum Beispiel [ 1 1 0 1] ) lassen sich nicht in die Form A = V ΛV 1 mit Diagonalmatrix Λ bringen Vielmehr bleiben in Λ noch einige Elemente in der Superdiagonalen zurück, die einen sogenannten Jordanblock bilden Die vollständige Diagonalisierung gelingt hier nicht, weil der Eigenwert (λ 1 = 1) eine höhere algebraische (p 1 = 2) als geometrische Vielfachheit (q 1 = 1) besitzt, dh defekt ist Dieser Effekt ist sehr speziell, da für ein beliebig kleines ε 0 die [ ] gestörte Matrix 1 1 0 1+ε zwei unterschiedlichen Eigenwerte (1 und 1 + ε) hat und deshalb diagonalisierbar ist Allerdings ist die entsprechende Matrix V 1 dann sehr gross und explodiert, wenn man ε immer kleiner macht Zusammenfassend bleibt festzustellen, dass die Eigenwertzerlegung A = V ΛV 1 ein wesentlich kniffligeres Problem darstellt als die Lösung linearer Gleichungsysteme Ax = b