2.11 Eigenwerte und Diagonalisierbarkeit

Ähnliche Dokumente
3.7 Eigenwerte und Eigenvektoren

Lineare Algebra I für Mathematiker Lösungen

5.2 Diagonalisierbarkeit und Trigonalisierung

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform

6.3 Eigenwerte. γ ist Eigenwert von T [T] B B γi ist nicht invertierbar.

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Eigenwerte und Diagonalisierung

5 Diagonalisierbarkeit

7.3 Unitäre Operatoren

Lineare Algebra II Lösungen zu ausgewählten Aufgaben

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit.

Klausur Lineare Algebra I am Es sind insgesamt 60 Punkte bei der Klausur zu erreichen.

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153

7.2 Die adjungierte Abbildung

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015

6 Eigenwerte und Eigenvektoren

2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23

ist (oder besser Abspalten von Linearfaktoren beschäftigen. Zu einem beliebigen Körper K betrachten wir die Menge (j,k) N N j+k=n

{ id, falls sgn(σ) = 1, τ, falls sgn(σ) = 1,

29 Lineare Algebra 2 (SS 2009) 4.9. Das charakteristische Polynom sei Produkt von linearen Polynomen.

Kapitel 11 Eigenwerte und Eigenvektoren

Lineare Algebra und analytische Geometrie I

3.3 Eigenwerte und Eigenräume, Diagonalisierung

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG

23. Die Jordan sche Normalform

Serie 17: Satz von Cayley-Hamilton & spezielle Endomorphismen

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

6 Hauptachsentransformation

Übungen zur Vorlesung Lineare Algebra II, SoSe 2016, Blatt 1

a) Die Abbildung µ h ist injektiv, da für alle g 1, g 2 G gilt: Daher ist µ h bijektiv. Zudem folgt aus µ h (g) = g auch

9 Lineare Algebra 2 (SS 2009)

Technische Universität München Zentrum Mathematik. Übungsblatt 12

VI.3. JORDAN SCHE NORMALFORM 167

Musterlösungen zur Linearen Algebra II Blatt 2

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 5

5. Übung zur Linearen Algebra II -

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Mathematik für Physiker, Informatiker und Ingenieure

Lineare Algebra II 6. Übungsblatt

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

D-Math/Phys Lineare Algebra II FS 2017 Dr. Meike Akveld. Clicker Fragen

Zeigen Sie, dass der einzige Gruppenhomomorphismus von (G, ) nach (Z 5, +) die Abbildung Φ : G Z 5

Lineare Algebra und analytische Geometrie I

5 Minimalpolynom und charakteristisches Polynom

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

Mathematik I. Vorlesung 16. Eigentheorie

Lösung 13: Unitäre Vektorräume und normale Abbildungen

4.2 Die adjungierte Abbildung

6. Normale Abbildungen

Verständnisfragen: Lineare Algebra und Analytische Geometrie I und II

Lineare Algebra und Analytische Geometrie I für die Fachrichtung Informatik

Ausgewählte Lösungen zu den Übungsblättern 9-10

Übungen zum Ferienkurs Ferienkurs Lineare Algebra für Physiker WiSe 2017/18 Blatt 3 - Lösung

Lineare Algebra II, Lösungshinweise Blatt 9

Eigenwerttheorie. Martin Gubisch Lineare Algebra I WS 2007/2008

Lineare Algebra für Physiker 11. Übungsblatt

Steilkurs Lineare Algebra 1 einige wichtige Stationen

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y.

R 3 und U := [e 2, e 3 ] der von e 2, e 3 erzeugte

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra I Zusammenfassung

3.3 Das charakteristische Polynom

Musterlösung der Klausur zur linearen Algebra II

i) ii) iii) iv) i) ii) iii) iv) v) gilt (Cauchy-Schwarz-Ungleichung): Winkel zwischen zwei Vektoren : - Für schreibt man auch.

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008

Aufgabe I.1 (4 Punkte) Gegeben seien die Matrix H := und die Menge L := {A R 4 4 A HA = H} Zeigen Sie:

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Tutorium 2. 1 Der Polynomring

2.8. ABBILDUNGSMATRIZEN UND BASISWECHSEL 105. gramms kommutativ:

Lineare Algebra und analytische Geometrie I

(1) In dieser Aufgabe kreuzen Sie bitte nur die Antworten an, die Sie für richtig halten. Eine Begründung wird nicht verlangt.

Prüfung Lineare Algebra , B := ( ), C := 1 1 0

Lineare Algebra und analytische Geometrie I

Lösungsskizze zur Wiederholungsserie

Lineare Algebra II 3. Übungsblatt

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Serie Sei V ein Vektorraum. Man nennt eine lineare Abbildung P : V V eine Projektion, falls P 2 = P gilt. Zeigen Sie:

KLAUSUR ZUR LINEAREN ALGEBRA I 22. Februar 2008

Lerndingsbums für LA

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.

4.4 Hermitesche Formen

Musterlösung Donnerstag - Determinanten und Eigenwerte

Karlsruher Institut für Technologie (KIT) WS 2012/13 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2

Lineare Differentialgleichungen

Lineare Algebra II 5. Übungsblatt

Berechnung der Determinante

45 Eigenwerte und Eigenvektoren

6 Determinanten Pink: Lineare Algebra HS 2014 Seite 66

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Übungen zur Diskreten Mathematik I Blatt 6

Wir wollen Systeme von linearen Differentialgleichungen 1. Ordnung über einem offenen Intervall I R untersuchen:

Kapitel 5. Endomorphismen von Vektorräumen. 5.3 Nilpotente Endomorphismen

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger

Transkript:

2.11. EIGENWERTE UND DIAGONALISIERBARKEIT 127 Die Determinante eines Endomorphismus Wir geben uns jetzt einen endlichen erzeugten K-Vektorraum V und einen Endomorphismus ϕ : V V vor. Wir wollen die Determinante von ϕ definieren. Hierzu wählen wir uns (irgendwie) eine Basis b 1,...,b n von V und betrachten die Determinante der Abbildungsmatrix M B (ϕ) von ϕ bzgl. B. Ich behaupte, dass diese Determinante nicht von der Wahl der Basis abhängt. Sei hierzu B eine andere Basis von V, und sei S die Koordinatenmatrix von B bezüglich B. Dann gilt nach (2.20) und Aussage 2.59: Det(M B (ϕ)) = Det(S 1 M B (ϕ) S) = Damit können wir definieren: Det(S 1 ) Det(M B (ϕ)) Det(S) = Det(M B (ϕ)) Definition Die Determinante von ϕ ist die Determinante der Abbildungsmatrix von ϕ bezüglich irgendeiner Basis von V. Bezeichnung: Det(ϕ). 2.11 Eigenwerte und Diagonalisierbarkeit Eigenwerte und Diagonalisierbarkeit von Endomorphismen Wir fixieren einen endlich erzeugten K-Vektorraum V der Dimension n. Sei ferner ϕ : V V ein Endomorphismus von V. Es liegt nun nahe, zu fragen, ob es eine Basis von V gibt, so dass die Abbildungmatrix von ϕ bezüglich dieser Basis besonders einfach oder schön ist. Ganz besonders einfach sind die Matrizen der Form a I n mit a K, aber wenn ϕ bezüglich irgendeiner Basis die Abbildungsmatrix a I n hat, dann ist ϕ = a id V. Nach diesen Matrizen sind die Diagonalmatrizen besonders einfach. Dies motiviert: Definition Der Endomorphismus ϕ ist diagonalisierbar, falls eine Basis B von V existiert, so dass die Abbildungsmatrix von ϕ bzgl. der Basis B eine Diagonalmatrix ist. Somit ist ϕ genau dann diagonalisierbar, wenn es eine Basis b 1,...,b n von V sowie Skalare a 1,...,a n K mit ϕ(b i ) = a i b i für alle i = 1,...,n gibt.

128 KAPITEL 2. GRUNDLAGEN DER LINEAREN ALGEBRA Definition Ein Eigenwert von ϕ ist ein Skalar a K, so dass es einen Vektor v V mit v o und ϕ(v) = a v gibt. Wenn nun a ein Eigenwert von ϕ ist, dann ist jeder Vektor v o mit ϕ(v) = a v ein Eigenvektor von ϕ zum Eigenwert a. Somit ist ϕ also genau dann diagonalisierbar, wenn eine Basis von V aus Eigenvektoren von ϕ existiert. Aussage 2.64 Seien v 1,...,v k Eigenvektoren von ϕ zu paarweise verschiedenen Eigenwerten. Dann sind die Vektoren v 1,...,v k linear unabhängig. Beweis. Wir beweisen die Aussage per Induktion nach k. Der Induktionsanfang k = 1 (oder auch k = 0) ist trivial. Wir schließen nun von k auf k + 1: Seien also v 1,...,v k+1 Eigenvektoren von ϕ zu den Eigenwerten a 1,..., a k+1, welche paarweise verschieden sind. Seien c 1,...,c k+1 K beliebig mit c 1 v 1 + + c k+1 v k+1 = o. Wenn wir hierauf ϕ anwenden, erhalten wir: o = c 1 ϕ(v 1 ) + + c k+1 ϕ(v k+1 ) = c 1 a 1 v 1 + + c k+1 a k+1 v k+1 Andererseits ist Dies ergibt: o = a k+1 c 1 v 1 + + a k+1 c k+1 v k+1. (a 1 a k+1 ) c 1 v 1 + + (a k a k+1 ) c k v k = o Da nach Induktionsvoraussetzung v 1,...,v k linear unabhängig sind, folgt (a 1 a k+1 ) c 1 = 0,..., (a k a k+1 ) c k = 0. Da die Eigenwerte a 1,...,a k paarweise verschieden sind, ist somit c 1 = = c k = 0. Aufgrund der ursprünglichen Gleichung ist dann auch c k+1 = 0. Hieraus folgt: Aussage 2.65 Der Endomorphismus ϕ hat höchstens n Eigenwerte. Wenn ϕ n Eigenwerte hat, dann ist ϕ diagonalisierbar. Achtung Es kann sein, dass ϕ weniger als n Eigenwerte hat und trotzdem diagonalisierbar ist. Zum Beispiel ist a id V für ein a K immer diagonalisierbar. Aussage 2.66 Sei a K. Dann ist die Menge ein Untervektorraum von V. {v V ϕ(v) = a v}

2.11. EIGENWERTE UND DIAGONALISIERBARKEIT 129 Beweis. Offensichtlich ist o V. Seien nun v, w V und c K mit ϕ(v) = a v, ϕ(w) = a w. Dann ist ϕ(c v + w) = c ϕ(v) + ϕ(w) = c a v+a w = a (c v + w). Definition Sei a ein Eigenwert von ϕ. Dann ist E a := {v V ϕ(v) = a v} der Eigenraum zum Eigenwert a. Der Eigenraum E a besteht also aus o und allen Eigenvektoren zu a. Bemerkung Es macht Sinn, die obige Definition von E a auf alle a K auszuweiten. Dann ist E a also genau dann nicht-trivial (d.h. {o}), wenn a ein Eigenwert ist. Nur in diesem Fall sprechen wir von einem Eigenraum. Definition und Bemerkung Seien U 1,...,U k Untervektorräume von V. Dann ist die Summe von U 1,..., U k U 1 + + U k := {u 1 + + u k u 1 U 1,...,u k U k }. Man sieht leicht, dass dies das Erzeugnis der Teilmenge U 1 U k von V ist und dass Dim(U 1 + + U k ) Dim(U 1 ) + + Dim(U k ) gilt. Die folgenden Lemmata sind nicht schwer: Lemma 2.67 Seien wieder U 1,...,U k Untervektorräume von V. Dann sind äquivalent: a) V = U 1 + U 2 + + U k b) Es gibt eine Basis von V, die in U 1 U k enthalten ist. Lemma 2.68 Seien wieder U 1,...,U k Untervektorräume von V. Wir fixieren für jedes i = 1,...,k eine Basis b i,1,...,b i,dim(ui ) von U i. Dann sind die folgenden Aussagen äquivalent: a) Für alle v U 1 + +U k gibt es eindeutig bestimmte u 1 U 1,..., u k U k mit v = u 1 + + u k. b) Für alle u 1 U 1,...,u k U k gilt: u 1 + +u k = o u 1 = = u k = o. c) Für alle i = 1,...,k ist U i (U 1 + + U i 1 + U i+1 + + U k ) = {o} d) Für alle i 1 < i 2 < < i l (mit l k) und alle u 1 U i1,..., u l U il mit u 1 o,..., u l o sind die Vektoren u 1,...,u l linear unabhängig.

130 KAPITEL 2. GRUNDLAGEN DER LINEAREN ALGEBRA e) b 1,1,..., b 1,Dim(U1 ),...,b k,1,...,b k,dim(uk ) ist eine Basis von U 1 + +U k. f) Dim(U 1 + + U k ) = Dim(U 1 ) + + Dim(U k ). Bemerkung Falls alle U i nicht-trivial ( {o}) sind, kann man d) auch einfacher formulieren: Für alle u 1 U 1,...,u k U k mit u 1 o,...u k o sind die Vektoren u 1,..., u k linear unabhängig. Wenn allerdings einer der Untervektorräume U i gleich {o} ist, ist die obige Bedingung (trivialerweise) immer erfüllt, die Bedingungen im Lemma aber nicht notwendigerweise. Ferner sind die ersten vier Aussagen auch in nicht endlich-erzeugten Vektorräumen äquivalent. Definition Wir sagen nun, dass die Summe direkt ist, falls die Bedingungen im obigen Lemma erfüllt sind. Aussage 2.69 Die Eigenräume von ϕ bilden eine direkte Summe in V. Ferner ist V genau dann eine (direkte) Summe der Eigenräume von ϕ, wenn ϕ diagonalisierbar ist. Beweis. Nach Äquivalenz d) im obigen Lemma ist die erste Aussage eine Umformulierung von Aussage 2.64. Die zweite Aussage folgt aus Lemma 2.67. Eigenwerte und Diagonalisierbarkeit von Matrizen Definition Seien A, B K n n. Dann sind A und B ähnlich, falls es eine invertierbare Matrix S K n n gibt, so dass S 1 AS = B. Man sieht leicht, dass Ähnlichkeit eine Äquivalenzrelation auf K n n ist. Beachten Sie: Wenn ϕ : V V ein Endomorphismus ist, dann sind Abbildungsmatrizen von ϕ zu verschiedenen Basen von V ähnlich zueinander. Man kann dies auch direkt auf Matrizen anwenden: Sei A K n n. Nun ist eine Matrix S K n n genau dann invertierbar, wenn die Spalten von S eine Basis bilden. Wenn nun so eine Matrix S = (s 1 s n ) gegeben ist, dann ist S 1 AS die Abbildungsmatrix von Λ A bzgl. s 1,...,s n. Somit sind zwei Matrizen A, B K n n genau dann ähnlich, wenn es eine Basis von K n gibt, so dass B die Abbildungsmatrix von Λ A bzgl. dieser Basis ist. Hieraus folgt:

2.11. EIGENWERTE UND DIAGONALISIERBARKEIT 131 Bemerkung und Definition Sei A eine n n-matrix über K. Dann sind äquivalent: a) Λ A ist diagonalisierbar. b) A ist ähnlich zu einer Diagonalmatrix. Falls dies der Fall ist, sagen wir, dass A diagonalisierbar ist. Die Begriffe des Eigenwerte, Eigenvektors und Eigenraums übertragen sich nun sofort auf A. Konkret heißt das: Definition Sei A K n n. Sei a K und v 0. Dann ist v ein Eigenvektor zum Eigenwert a, falls Av = a v. Sei a ein Eigenwert von A. Dann ist der Eigenraum von a E a := {v K n n Av = av}. Ein Skalar a ist also genau dann ein Eigenwert von A, wenn Rang(A ai n ) < n ist. Die obigen Aussagen über Endomorphismen übertragen sich dann auch sofort auf Matrizen. Man sieht auch: Sei s 1,...,s n eine Basis von K n und sei S := (s 1 s n ). Dann ist S 1 AS genau dann eine Diagonalmatrix, wenn S eine Basis von Eigenvektoren ist. Denn: Sei B := S 1 AS. Dann ist b j der Koordinatenvektor von As j bzgl. der Basis s 1,...,s n. Damit ist b i genau dann ein Vielfaches von e j, wenn s j ein Eigenvektor ist. (Alternativ kann man auch die Identität SB = AS betrachten.) Das charakteristische Polynom Sei weiterhin A eine n n-matrix über K. Wir haben eben gesehen: Ein Skalar a K ist genau dann ein Eigenwert von A, wenn Rang(A ai n ) < n. Dies bedeutet natürlich, dass Det(A ai n ) = 0. Es ist somit naheliegend, das Polynom Det(A TI n ) K[T] zu betrachten und nach den Nullstellen dieses Polynoms zu suchen, um die Eigenwerte zu bestimmen. Es gibt hier allerdings ein Problem: Was soll eigentlich Det(A T I n ) K[T] sein? Schließlich haben wir nur Determinanten von Matrizen über Körpern definiert.

132 KAPITEL 2. GRUNDLAGEN DER LINEAREN ALGEBRA Es gibt zwei Möglichkeiten, Determinanten von Matrizen in K[T] zu definieren: 1. Möglichkeit Der Polynomring K[T] ist ein kommutativer Ring. Sei allgemeiner R ein beliebiger kommutativer Ring. Dann bilden die n n-matrizen über R wie gewohnt einen Ring. Wir definieren nun für eine Matrix M R n n : Det(M) := σ S n sign(σ) m 1,σ(1) m n,σ(n). Offensichtlich verallgemeinert dies unsere bisherige Definition von Determinanten über Körpern. 2. Möglichkeit Wir erinnern uns, dass man mittels eines formalen Prozesses den Körper Q aus dem Körper Z erhalten kann (siehe 1.7). Analog kann man auch einen Körper definieren, dessen Elemente Brüche von Polynome in K[T] sind. Diesen Körper bezeichnet man mit K(T), die Elemente nennt man rationale Funktionen über K. (Das ist nur ein Name; es sind keine Funktionen.) Die Elemente von K(T) haben also die Form a(t) b(t), wobei a(t), b(t) K[T] mit b(t) 0 sind. Hierbei ist (per Definition) für a(t), b(t), c(t), d(t) K[T] genau dann a(t) b(t) = c(t) d(t), wenn a(t) d(t) = b(t) c(t). Nun haben wir für alle Matrizen über K(T) eine Determinante, also insbesondere auch für Matrizen über K[T]. Da wir ja die Leibniz-Formel über beliebigen Körpern bewiesen haben, stimmen diese beiden Definitionen der Determinante einer Matrix über K[T] überein. Definition Das charakteristische Polynom von A ist Explizit ist also χ A = χ A (T) := Det(A T I n ) K[T]. χ A = Det(A T I n ) = σ S n sign(σ) (a 1,σ(1) T δ 1,σ(1) ) (a n,σ(n) T δ n,σ(n) ). (2.26) Diese Formel hat einige einfache Konsequenzen:

2.11. EIGENWERTE UND DIAGONALISIERBARKEIT 133 Lemma 2.70 a) Es ist χ A = ( 1) n T n +c n 1 T n 1 + +c 1 T+c 0 mit gewissen Koeffizienten c 0,...,c n 1 K. Hierbei ist c 0 = Det(A) und c n 1 = ( 1) n 1 (a 1,1 + + a n,n ) = ( 1) n 1 Spur(A) mit Spur(A) := a 1,1 + + a n,n. b) Für a K ist χ A (a) = Det(A a I n ). Beweis. Die erste Aussage erhält man, wenn man die obige Formel nach T entwickelt. Die zweite Aussage erhält man, wenn man a einsetzt (T durch a ersetzt). Somit haben wir: Aussage 2.71 Die Eigenwerte von A sind genau die Nullstellen von χ A. Ferner: Aussage 2.72 Ähnliche Matrizen haben dasselbe charakteristische Polynom. Beweis. Seien A und A ähnlich. Dann existiert also eine invertierbare Matrix S K n n mit A = S 1 AS. Nun ist χ A = Det(A T I n ) = Det(S 1 AS T I n ) = Det(S 1 (A T I n ) S) = Det(S 1 ) Det(A T I n ) Det(S) = χ A. Bemerkung Hier einige Tipps zum Berechnen des charakteristischen Polynoms: Bei 2 2 und 3 3-Matrizen benutzt man am besten die Leibniz- Formel bzw. Entwicklung. Bei einer größeren Matrix mit einige Nullen kann man versuchen, geschickt zu entwickeln. Ansonsten kann man den Gauß- Algorithmus benutzen. Beachten Sie: Wie oben beschrieben, berechnen wir die Determinante einer Matrix über dem Körper K(T). Es ist nun kein Problem, z.b. durch T a für a K zu teilen, denn dies ist auch nur ein ganz bestimmtes Körperelement in K(T). Man muss hier also keine Fallunterscheidung machen, ob T gleich a sei oder nicht. (T ist per Definition eben nicht a.) Beispiel 2.73 Das charakteristische Polynom einer Diagonalmatrix mit Diagonaleinträgen d 1,...,d n ist n i=1 (d i T). Die Nullstellen hiervon sind d 1,...,d n. Man sieht leicht direkt, dass das genau die Eigenwerte der Matrix sind.

134 KAPITEL 2. GRUNDLAGEN DER LINEAREN ALGEBRA Sei allgemeiner A = ((a i,j )) i,j K n n eine obere Dreiecksmatrix (d.h. für alle i > j ist a i,j = 0). Dann ist χ A = n i=1 (a i,i T). Die Eigenwerte sind demnach a 1,1,...,a n,n. (Dies kann man wieder leicht direkt sehen.) Wir können nun zurück zu Endomorphismen gehen. Wir definieren: Definition Sei ϕ : V V ein Endomorphismus. Sei A die Abbildungsmatrix von ϕ bezüglich irgendeiner Basis von V. Dann ist das charakteristische Polynom von ϕ χ ϕ := Det(A T I n ). Dies ist wohldefiniert, denn zwei Abbildungsmatrizen desselben Endomorphismus sind ähnlich und deren charakteristischen Polynome sind gleich nach Aussage 2.72. Trigonalisierbarkeit und der Satz von Cayley-Hamilton Definition Sei U V ein Untervektorraum und ϕ : V V ein Endomorphismus. Dann heißt U ϕ-invariant, falls ϕ(u) U. Wenn nun U ϕ-invariant ist, induziert ϕ einen Endomorphismus von U. Diesen bezeichnen wir mit ϕ U. Wir haben also ϕ U : U U, v ϕ(v). (Nach unserer allgemeinen Notation ist hingegen ϕ U eine Abbildung von U nach V.) Ferner haben wir den Endomorphismus ϕ : V/U V/U, [v] U [ϕ(v)] U. (Dies ist wohldefiniert, weil U ϕ-invariant ist.) Das folgende Lemma ist offensichtlich: Lemma 2.74 Sei ϕ : V V ein Endomorphismus und U V ϕ-invariant. Sei b 1,...,b n eine Basis von V, wobei b 1,...,b k eine Basis von U ist. Somit ist also [b k+1 ] U,...,[b n ] U eine Basis von V/U. Sei A die Abbildungsmatrix von ϕ U bezüglich b 1,...,b k und D die Abbildungsmatrix von ϕ bezüglich [b k+1 ] U,...,[b n ] U. Dann hat die Abbildungsmatrix von ϕ bezüglich b 1,...,b n die Form ( ) A B O D mit einer k n k-matrix B. Die Determinante einer Blockmatrix ) ist Det(A) Det(D) (Übungsaufgabe). Wenn man dies auf die Matrix ( ) A TIk B anwen- O D TI (n k) (n k) det, erhält man: ( A B O D χ ϕ = χ ϕu χ ϕ. (2.27)

2.11. EIGENWERTE UND DIAGONALISIERBARKEIT 135 Wir benötigen nun eine einfache Aussage über Polynome: Aussage 2.75 Sei f K[T], f(t) 0. Dann gibt es paarweise verschiedene a 1,..., a k K (k N 0 ) sowie e 1,...,e k N und ein Polynom g K[T] ohne Nullstellen in K mit f(t) = ( k (T a i ) e i ) g(t). i=1 Hierbei gilt für alle i = 1,...,k: e i := max{e N (T a i ) e teilt f(t) } und das Polynom g(t) ist eindeutig bestimmt. Beweis. Die Darstellung folgt aus der folgenden Aussage per Induktion: Sei f K[T], f 0 sowie a K mit f(a) = 0. Dann teilt T a das Polynom f. Dies folgt aus der Polynomdivision. Wir fixieren nun ein i = 1,..., k und setzen m := max{e N (T a i ) e teilt f(t) }. Dann gibt es also ein h(t) K[T] mit f(t) = (T a i ) m h(t) und h(a i ) 0. Ferner haben wir nach der obigen Gleichung ein Polynom l(t) K[T] mit f(t) = (T a i ) ei l(t) und l(a i ) 0. Wenn man dies voneinander subtrahiert und (T a i ) e i ausklammert, folgt: h(t) = (T a i ) m ei l(t). Wenn man a i einsetzt, folgt e i = m. Mit einem ähnlichen Argument folgt nun auch die Eindeutigkeit von g(t). Aussage 2.76 Sei ϕ : V V ein Endomorphismus. Seien a 1,..., a k K die Eigenwerte von ϕ. Sei χ ϕ = (T a 1 ) n1 (T a k ) nk g(t), wobei n i N ist und g(t) keine Nullstellen in K hat. Dann gilt Dim(E ai ) n i. Ferner ist der Endomorphismus genau dann diagonalisierbar, wenn ϕ in Linearfaktoren zerfällt (d.h. g(t) K ist) und für alle i = 1,...,k Dim(E ai ) = n i gilt. Beweis. Der Eigenraum E ai ist ϕ-invariant. Wie oben ausgeführt teilt χ ϕeai das Polynom χ ϕ. Es ist aber χ ϕeai = (a i T) Dim(Ea i ). Dies zeigt die Ungleichung. Es ist i n i n. Die angegebene Bedingung ist nun äquivalent zu i Dim(E a i ) = n. Und dies bedeutet gerade, dass ϕ diagonalisierbar ist.

136 KAPITEL 2. GRUNDLAGEN DER LINEAREN ALGEBRA Definition Sei ϕ : V V ein Endomorphismus. Dann heißt ϕ trigonalisierbar (oder triagonalisierbar), wenn es eine Basis von V gibt, so dass die Abbildungsmatrix von ϕ bzgl. dieser Basis eine obere Dreiecksmatrix ist. (Analog heißt eine n n-matrix über K trigonalisierbar, wenn sie ähnlich zu einer oberen Dreiecksmatrix ist.) Satz 2.8 (Trigonalisierbarkeit) Sei ϕ : V V ein Endomorphismus. Dann ist ϕ genau dann trigonalisierbar, wenn das charakteristische Polynom von ϕ in Linearfaktoren zerfällt. Beweis. Da das charakteristische Polynom einer oberen Dreiecksmatrix in Linearfaktoren zerfällt, ist die Notwendigkeit der Bedingung klar. Wir zeigen die Rückrichtung per Induktion über n, der Dimension von V. Der Induktionsanfang ist trivial. Es folgt der Induktionsschritt von n nach n + 1: Der Vektorraum V habe Dimension n + 1 und das charakteristische Polynom von ϕ zerfalle in Linearfaktoren. Dann hat χ ϕ insbesondere eine Nullstelle und somit hat ϕ einen Eigenwert. Sei a so ein Eigenwert mit einem zugehörigen Eigenvektor v. Offensichtlich ist nun der 1-dimensionale Untervektorraum v ϕ-invariant. Nun ist ϕ End K (V/ v ) nach Induktionsvoraussetzung trigonalisierbar. Sei [b 2 ] U,...,[b n+1 ] U eine Basis von V/ v (mit b 2,...,b n+1 V ), so dass ϕ bzgl. dieser Basis eine Abbildungsmatrix hat, welche eine obere Dreiecksmatrix ist. Sei b 1 := v. Dann ist b 1,...,b n eine Basis von V und nach dem obigen Lemma ist die Abbildungsmatrix bzgl. dieser Basis auch eine obere Dreiecksmatrix. Korollar 2.77 Sei K algebraisch abgeschlossen, z.b. K = C. Dann ist jede Matrix über K trigonalisierbar. Bemerkung Wenn ϕ explizit gegeben ist und χ ϕ in Linearfaktoren zerfällt, kann man eine geeignete Basis von V, so dass die Abbildungmatrix trigonal ist, auch algorithmisch berechnen. Hier kann man ähnlich wie im Beweis oben vorgehen. Es ist allerdings praktisch, pro Schritt nicht nur einen Eigenvektor v sondern eine Basis der Summe aller vorhandenen Eigenräume zu berechnen. Wenn f(t) = n i=0 a it i K[T] ein beliebiges Polynom über K ist, kann man ϕ in f einsetzen. Man erhält dann den Endomorphismus n i=0 a iϕ i. Hier ist (wie immer) ϕ 0 := id V. Man sieht sofort: Die Abbildung K[T] End K (V ), f(t) f(ϕ)

2.11. EIGENWERTE UND DIAGONALISIERBARKEIT 137 ist ein Ringhomomorphismus und ein Homomorphismus von K-Vektorräumen. Ferner ist für f(t) K[T] und einen Untervektorraum U von V f(ϕ) U = f(ϕ U ). Der K-Vektorraum End K (V ) hat die Dimension n 2. Somit sind also die Potenzen ϕ i für i = 0,..., n 2 linear abhängig. Es gibt also ein Polynom f(t) K[T] mit f(t) 0, Grad(f) n 2 und f(ϕ) = 0 V. Bemerkenswerterweise hat auch das charakteristische Polynom diese Eigenschaft. Dies ist vielleicht der berühmteste Satz der Linearen Algebra: Satz 2.9 (Satz von Cayley-Hamilton) Es ist χ ϕ (ϕ) = 0 V, die Nullabbildung auf V. Zum Beweis. Wir zeigen den Satz zunächst unter der Voraussetzung, dass χ ϕ in Linearfaktoren zerfällt. Am Ende des Beweises gehen wir kurz darauf ein, wie man dann auch den Satz auch in voller Allgemeinheit erhalten kann. Wir werden später den Satz mit einer vollständig anderen Methode beweisen. Sei b 1,...,b n eine Basis von V, so dass die Abbildungsmatrix von ϕ bzgl. dieser Basis eine obere Dreiecksmatrix ist. Sei A die entsprechende Abbildungsmatrix. Nun ist also χ ϕ = (a 1,1 T) (a n,n T) und somit χ ϕ (ϕ) = (a 1,1 id ϕ) (a n,n id ϕ). Sei U i := b 1,...,b i und χ i := (a 1,1 T) (a i,i T). Beachten Sie, dass alle Räume U i ϕ-invariant sind und χ i das charakteristische Polynom von ϕ Ui ist! Insbesondere ist χ n = χ ϕ. Ich behaupte, dass für alle i = 1,..., n χ i (ϕ Ui ) = (χ i (ϕ)) Ui = 0 Ui ist. Der Beweis erfolgt per Induktion über i: Der Induktionsanfang i = 1 ist trivial. Zum Induktionsschritt von i auf i + 1: Wir müssen zeigen: j = 1,..., i + 1 : (χ i+1 (ϕ))(b j ) = o. Denn hieraus folgt dann: (χ i+1 (ϕ)) Ui+1 = 0 Ui+1. Sei j = 1,...,i + 1. Dann ist (ϕ a i+1,i+1 id)(b j ) U i. (Für j i ist das so, weil U i ϕ-invariant ist und für j = i + 1 folgt das aus der Struktur der Abbildungsmatrix A.) Somit ist χ i+1 (ϕ)(b j ) = (χ i (ϕ) (ϕ a i+1,i+1 id))(b j ) = χ i (ϕ)((ϕ a i+1,i+1 id)(b j )) = o nach Induktionsvoraussetzung. Zum zum allgemeinen Fall: Zunächst kann man die Aussage in eine Aussage über Matrizen umformulieren. Sie lautet dann wie folgt: Sei A K n n, so dass χ A in K[T] vollständig in Linearfaktoren zerfällt. Dann ist χ A (A) = O.

138 KAPITEL 2. GRUNDLAGEN DER LINEAREN ALGEBRA Nun gibt es für jeden Körper K und jedes Polynom f K[T] einen Körper L, der K enthält, so dass f aufgefasst als Polynom in L[T] in Linearfaktoren zerfällt (Lücke!). Sei nun A K n n eine beliebige Matrix. Dann gibt es also einen Körper L, der K enthält, so dass χ A in L[T] in Linearfaktoren zerfällt. Wir können auch A als Matrix in L n n auffassen und erhalten χ A (A) = O. Da dies nun für alle Matrizen über K gilt, gilt auch für alle Endomorphismen ϕ endlich-dimensionaler K-Vektorräume: χ ϕ (ϕ) = 0.