ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem DGS mit den Anfangsbedingungen AB dv 4v 5w, dt v 8 für t 0 ; dw dt 2v 3w, w 5 für t 0 zusammen ein Anfangswertproblem AWP. In Matrix-Schreibweise lautet AWP kurz wobei ut du dt A u, u u 0 für t 0, vt wt, u 0 8, A 5 4 5. 2 3 Im skalaren Fall du dt au, u u 0 für t 0 kennt man Trennung der Variablen; vgl. spätere Analysis-Vorlesung die Lösung ut e at u 0. Daher machen wir den Ansatz { vt e λt y wt e λt z mit Unbekannten λ, y, z oder kurz mit x ut e λt x. y z Diesen Ansatz setzen wir in das Differentialgleichungssystem DGS ein: λe λt y 4e λt y 5e λt z λe λt z 2e λt y 3e λt z,
ME Lineare Algebra HT 2008 100 kürzen durch den gemeinsamen Faktor e λt > 0; es bleibt oder kurz { 4y 5z λy 2y 3z λz Ax λx. Dies ist die grundlegende Gleichung für den Eigenwert λ mit Eigenvektor x. Diese ist nichtlinear wegen des Produktes λx; ist aber ein Eigenwert λ bekannt, bleibt für x ein lineares homogenes Glg.system: A λix 0. Wie bei jedem homogenen linearen Glg.system gibt es die triviale Lösung x 0; diese ist aber nutzlos, denn mit der Nullfunktion können wir die Anfangsbedingungen nicht erfüllen. Also interessieren nur spezielle Werte λ, zu denen es nichttriviale Lösungen 0 gibt, d.h. A λi muss singulär sein. Folgerung: λ ist Eigenwert von A mit einem Eigenvektor deta λi 0, Dies ist die charakteristische Gleichung zum charakteristischen Polynom deta λi Im Beispiel: det 4 λ 5 2 3 λ also zwei getrennte Eigenwerte: λ 1 1, λ 2 2 hierzu gehört jeweils ein Unterraum für λ 1 1 4 λ 3 λ + 10 λ 2 λ 2 λ + 1λ 2 5 5 y A λ 1 I x 2 2 z 0 0 und x 1 1 1 ist eine Basis des Nullraums N A λ 1 I, des Eigenraums zu λ 1 1; für λ 2 2 2 5 y A λ 2 I x 2 5 z 0 0 und x 2 5 2
ME Lineare Algebra HT 2008 101 ist eine Basis für N A λ 2 I, des Eigenraums zu λ 2 2. Zurück zum AWP! 1 u 1 e λ1t x 1 e t ; 1 5 u 2 e λ2t x 2 e 2t 2 sind zwei spezielle Exponential- Lösungen des DGS. Da das DGS linear und homogen ist, können wir superponieren, d.h. ut γ 1 e λ 1t x 1 + γ 2 e λ 2t x 2 mit freien Parametern γ 1, γ 2 ist auch Lösung. Durch Wahl dieser γ 1, γ 2 lassen sich hoffentlich die Anfangsbedingungen erfüllen: γ 1 u 1 0 + γ 2 u 2 0 γ 1 x 1 + γ 1 x 2 u 0 Im Beispiel 1 5 1 2 γ1 γ 2 8 5 inhomogenes lineares Glg.system γ 1 3, γ 2 1. Die Lösung zu obigem Anfangswertproblem ist ut 3e t 1 1 + e 2t 5 2 oder für die einzelnen Komponenten vt 3e t + 5e 2t ; wt 3e t + 2e 2t. Da eine Gleichung n-ten Grades wie die charakteristische Gleichung für n 2 i.a. komplexe Wurzeln besitzt, benötigen wir spätestens jetzt Vektoren in IC n als unitären Vektorraum, insbesondere Definition und Eigenschaften der konjugierten Transponierten Hermiteschen Transponierten.
ME Lineare Algebra HT 2008 102 5.2 Das Eigenwertproblem, das charakteristische Polynom, die charakteristische Gleichung Definition 5.1 Sei A IC n n. Dann heißt λ IC ein Eigenwert von A und x IC n ein zugehöriger Eigenvektor, wenn x 0 und die Eigengleichung erfüllt ist. Ax λx Eigenwertproblem : Finde alle Eigenwerte und Eigenvektoren von A. Geometrische Deutung: A vermittelt lineare Abbildung IC n IC n. Aus Ax λx folgt α IC A α x λ α x, d.h. A bildet die Gerade IC x {αx α IC} in sich selbst ab, IC x ist also eine Fixgerade eine Fixpunktgerade, nur falls λ 1. Eigenwertproblem: Finde alle Fixgeraden von A. Mit anderen Worten: λ IC ist genau dann ein Eigenwert von A, wenn die Eigengleichung A λix 0 eine nichttriviale Lösung x 0 besitzt. Dies trifft genau dann zu, wenn die quadratische Matrix A λi singulär ist oder wenn λ die charakteristische Gleichung erfüllt: deta λ I 0. 5.1 Ausführlicher mit A a jk heißt diese charakteristische Gleichung a 11 λ a 12 a 1n a 21 a 22 λ a 2n. a n1 a nn λ 0. Die linke Seite der Gleichung 5.1 ist ein Polynom in λ, denn wegen der Summendarstellung 4.3 der Determinante in 4.2 ist jeder Summand ein Polynom in λ. Diese Summe über die Permutationen ν enthält - wählt man gerade die Permutation ν als die Identität - das Produkt der Diagonalglieder n n a 11 λa 22 λ a nn λ 1 n λ n + 1 n 1 a jj λ n 1 +...+ a jj, j1 j1
ME Lineare Algebra HT 2008 103 ein Polynom n-ten Grades mit Höchstkoeffizienten 1 n ; alle anderen Summanden sind Polynome niedrigeren Grades. Damit folgt: Das charakteristische Polynom χ A λ : deta λ I ist ein Polynom vom Grad n in λ. Jetzt schreiben wir das charakteristische Polynom in Potenzen von λ auf: n χ A λ deta λ I c l λ l, l0 wobei wie bereits oben gesehen, c n 1. Zunächst Fall n 2. Entwicklung nach den Spalten liefert χ A λ a 11 λ 1 a 12 a 21 λ 0 a 22 λ a 11 a 12 a 21 a 22 λ λ 1 a 12 0 a 22 λ { a 11 a 12 a 21 a 22 λ a 11 0 a 21 1 λ 1 a 12 0 a 22 λ 1 0 0 1 } det A a 11 + a 22 λ + λ 2. Zu allgemeinem n schreiben wir mit Spaltenvektoren A a 1,..., a n, I e 1,..., e n und entwickeln in den Spalten deta λi deta 1 λe 1, a 2 λe 2,..., a n λe n deta 1, a 2 λe 2,..., a n λe n λ dete 1, a 2 λe 2,..., a n λe n. n c l λ l. l1 Also ist c l die Summe von Determinanten der Form detz 1,..., z n mit z j a j oder z j e j j 1,..., n. Einziger Term ohne λ ist deta 1,..., a n, damit wird c 0 det A. 5.2 Die Terme zu λ n 1 sind genau n Determinanten, nämlich detz 1,..., z n mit einem z j a j j 1,..., n, alle übrigen z j e j für j j, j
ME Lineare Algebra HT 2008 104 {1,..., n}, also mit Entwickeln nach der jten Zeile detz 1,..., z n a jj. Folglich erhalten wir die Spur von A, n c n 1 a jj : Spur A. 5.3 j1 Andererseits gibt es nach dem Fundamentalsatz der Algebra zu dem charakteristischen Polynom χ A λ n-ten Grades r paarweise verschiedene Wurzeln oder Nullstellen, wobei 1 r n, also r paarweise verschiedene Eigenwerte λ j, j 1,..., r und es gilt χ A λ 1 n λ λ 1 k 1 λ λ 2 k2... λ λ r kr 5.4 mit k 1 + k 2 +... + k r n und λ j k j -facher Eigenwert von A. Hierbei heißt k j IN algebraische Vielfachheit von λ j. Etwas ausführlicher und jeweils -1 hineinmultipliziert schreibt sich χ A λ λ 1 λ... λ 1 λ... λ r λ... λ r λ. }{{}}{{} k 1 F aktoren k r F aktoren Koeffizientenvergleich mit χ A λ c 0 + c 1 λ + + c n 1 λ n 1 + λ n Mit 5.2 und 5.3 folgt: c n 1 k 1 λ 1 +... + k r λ r c 0 λ k 1 1... λ kr r det A λ k 1 1 λk 2 2... λkr r ; 5.5 Spur A k 1 λ 1 + k 2 λ 2 +... + k r λ r. 5.6 Invarianz bei Ähnlichkeitstransformationen Jede Matrix A IC n n vermittelt bekanntlich die lineare Abbildung x IC n y Ax IC n. Transformieren wir die Koordinaten x, y zu z T x, w T y mit einer invertierbaren Transformationsmatrix T IC n n und führen somit einen Basiswechsel durch, vgl. Beispiel zu Def. 2.8, S. 42 und Bemerkung zu Korollar 2.2, S. 46 in 2.3, dann stellt sich dieselbe lineare Abbildung in den neuen Koordinaten dar als z IC n w T y T Ax T AT 1 z IC n, d.h. als z IC n w Bz mit der Matrix B T AT 1. Dies motiviert folgende Begriffsbildung.
ME Lineare Algebra HT 2008 105 Definition 5.2 Seien A, B IC n n. A und B heißen ähnlich oder B ist aus A durch eine Ähnlichkeitstransformation hervorgegangen, falls es eine nichtsinguläre Matrix M IC n n gibt, so dass B M 1 AM. Satz 5.1 Bei ähnlichen Matrizen A und B gilt χ A χ B. Beweis: detb λ I detm 1 AM λ M 1 M detm 1 A λ IM det M 1 deta λ I det M deta λ I Folgerung Bei Ähnlichkeitstransformationen bleiben unverändert: i alle Eigenwerte samt algebraischer Vielfachheiten, ii Determinante der Matrix, iii Spur der Matrix. Im Fall n 3 sind die Hauptinvarianten von χ A λ λ 3 +c 2 λ 2 c 1 λ+c 0 c 2 Spur A c 1 1 [ Spur A 2 Spur A 2] 2 c 0 det A 1 [ Spur A 3 3 Spur ASpur A 2 + 2 Spur A 3]. 6 5.3 Der Eigenraum, Diagonalisierbarkeit Definition 5.3 Sei A IC n n und λ ein Eigenwert zu A. Dann heißt der Nullraum N A λ I der Eigenraum zu λ, seine Dimension die geometrische Vielfachheit g von λ. Es gilt vgl. 2.4 g dim N A λ I n Rang A λ I 5.7
ME Lineare Algebra HT 2008 106 Bemerkungen zum Fall A IR n n 1 Ist auch λ reell, so liefert Gaußsche Elimination reelle Eigenvektoren aus der Eigengleichung A λ I x 0 und eine Basis des Eigenraums zu λ lässt sich aus g reellen Vektoren bilden. 2 Ist dagegen Im λ 0, dann sind auch alle Eigenvektoren echt komplex. Mit λ ist auch λ Eigenwert, denn aus χ A λ 0 folgt 0 χ A λ χ A λ, da χ A ein reelles Polynom ist. Satz 5.2 Für die geometrische Vielfachheit g j und die algebraische Vielfachheit k j eines Eigenwertes λ j von A IC n n gilt Beweis: 1 g j k j. Sei µ ein Eigenwert von A. Dann ist A µi singulär und dazu äquivalent Rang A µi n 1. Also ergibt sich die geometrische Vielfachheit als Defekt von A µi, d.h. g n Rang A µi 1. Um die zweite Ungleichung zu beweisen, gehen wir in zwei Schritten vor. Zunächst ergänzen wir eine Basis {x 1,..., x g } des g-dimensionalen Eigenraumes N A µi zu einer Basis {x 1,..., x g, x g+1,..., x n } des IC n. Dann konstruieren wir eine zu A ähnliche Matrix B derart, dass µ mindestens ein g-facher Eigenwert von B und damit auch von A ist. 1. Schritt: Konstruiere eine Basis des orthogonalen Komplements U zu dem Unterraum U : N A λi; denn IC n U N A λi. Dazu löse in y IC n die homogenen Gleichungen y x j 0 x j y 0 j 1,..., g. Mit anderen Worten: Bilde die Matrix S x 1,..., x g IC n g mit Rang S g, löse das homogene LGS S y 0 und finde eine Basis des n g- dimensionalen linken Nullraums N S, wobei ja S IC g n und dim N S n - Rang S n - Rang S n g. 2. Schritt: Wir gehen aus von einer Basis {x 1,..., x g, x g+1,..., x n } des IC n mit Ax j µx j ; j 1,..., g. Dann hat die Matrix T : x 1,..., x n IC n n vollen Rang und die Inverse T 1 t 1. t n
ME Lineare Algebra HT 2008 107 mit den Zeilen t k ; k 1,..., n. Es gilt T 1 T kl t k xl δ kl { 1 k l, 0 k l. Andererseits schreibt sich das Matrizenprodukt AT Darum schließen wir Ax 1,..., x g, x g+1,..., x n Ax 1,..., Ax g, Ax g+1,..., Ax n µx 1,..., µx g,,...,. B : T 1 AT t 1. t n µ 0... 0 µ 0 C µx1,..., µx g,,...,. Die zu A ähnliche Matrix B besteht also aus einer g g-diagonalmatrix links oben und einer n g n g-matrix C rechts unten. Da wegen Satz 5.1 die charakteristischen Polynome von A und B übereinstimmen, erhalten wir nach Entwicklung in den ersten g Spalten χ A λ χ B λ det B λi µ λ g det C λi. Also ist µ mindestens g-facher Eigenwert von A. Beispiel: q.e.d. A 3 1 α 3 χ A λ 3 λ 2 α 0 λ 1,2 3 ± α, falls α 0 λ 1,2 3 ± i α, falls α < 0
ME Lineare Algebra HT 2008 108 Fall α 0 λ 3; r 1; k 1 2. Der Nullraum 3 λ 1 N N 0 3 λ 0 1 0 0 1 wird z.b. aufgespannt von ; 0 aber: g 1 dim N A λi n-rang 2 1 1 < k 1! Fall α 4 bereitet Ähnlichkeitstrafo auf Diagonalgestalt vor r 2; λ 1 5, λ 2 1. 2 1 2 1 N A λ 1 I N N 4 2 0 0 wird z.b. aufgespannt von 1 : x 1 2 N A λ 2 I N 2 1 4 2 1 wird z.b. aufgespannt von : x 2. 2 Damit klar Setze Damit ist N 2 1 0 0 Ax j λ j x j j 1, 2; A x 1, x 2 λ 1 x 1, λ 2 x 2 S : x 1, x 2 AS λ 1 x 1, λ 2 x 2 S 1 1 2 2 λ1 0 0 λ 2 Weil x 1 und x 2 linear unabhängig, ist S invertierbar. Daher äquivalente Darstellung: S 1 λ1 0 5 0 AS 0 λ 2 0 1 Der Fall α 1 führt auf eine symmetrische Matrix A; hier sind die Eigenvektoren zu den Eigenwerten 2, 4 orthogonal.
ME Lineare Algebra HT 2008 109 Betrachte jetzt Summe vgl. 2.5 aller Eigenräume Wann gilt? Dazu benötigen wir r N A λ j I IC n j1 Satz 5.3 Gehören die Eigenvektoren x 1,..., x s 1 s r zu paarweise verschiedenen Eigenwerten λ 1,..., λ s der Matrix A IC n n, dann sind sie linear unabhängig. Beweis: s Zu zeigen: Aus * α k x k 0 α k IC folgt, dass alle α k 0. k1 Dazu verwenden wir die Gleichung A λ j Ix k { λk λ j x k falls j k 0 j k j, k 1,..., s. Fixiere Index l {1,..., s} und multipliziere * von links mit A λ 1 I... A λ l 1 IA λ l+1 I... A λ s I. Bleibt nur α l λ l λ 1... λ l λ l 1 λ l λ l+1... λ l λ s x l 0 Alle Klammern 0, da EWe paarweise verschieden, und x l 0 EVektor! α l 0. q.e.d. Satz 5.4 A IC n n habe n linear unabhängige Eigenvektoren x 1,..., x n. Setzt man S x 1,..., x n IC n n, folgt λ 1 S 1 λ 2 AS Λ :... λ n Beweis: Sei Ax j λ j x j j 1,..., n. Da {x 1,..., x n } linear unabhängig, ist S nichtsingulär. Berechne Produkt AS spaltenweise:
ME Lineare Algebra HT 2008 110 Ax 1, x 2,..., x n λ 1 x 1, λ 2 x 2,..., λ n x n λ 1 λ 2 x 1, x 2,..., x n... λ n Also AS SΛ oder S 1 AS Λ oder A SΛS 1 q.e.d. Definition 5.4 A IC n n heißt diagonalisierbar, falls A ähnlich zu einer Diagonalmatrix ist. Prozess: diagonalisieren, auf Diagonalgestalt transformieren, d.h. gesucht ist: Diagonalmatrix Λ und Ähnlichkeitstransformation S. Bemerkungen: Die Spalten von S müssen Eigenvektoren von A sein, andere Matrizen transformieren nicht auf eine Diagonalmatrix Λ; denn aus AS SΛ folgt für die j-te Spalte y j von S, dass j-te Spalte von SΛ λ j y j und j-te Spalte von AS Ay j, also Ay j λ j y j. Transformations-Matrix S ist nicht eindeutig. Eigenvektoren sind es ja auch nicht! Folgerung: Eine Matrix A IC n n mit genau n paarweise verschiedenen Eigenwerten ist diagonalisierbar. Beweis: Zu EWerten λ 1,..., λ n gehören EVektoren x 1,..., x n, die nach obigem Satz linear unabhängig sind. Allgemeiner folgt aus Obigem das Diagonalisierbarkeitskriterium: Eine Matrix ist diagonalisierbar für jeden Eigenwert der Matrix gilt algebraische Vielfachheit geometrische Vielfachheit. Bemerkung: Nicht jede Matrix ist diagonalisierbar! Obiges Beispiel g 1 1 < 2 k 1. Jedoch ist jede symmetrische Matrix siehe später in 6.3 diagonalisierbar.