3.7. EIGENWERTE UND EIGENVEKTOREN 123 3.7 Eigenwerte und Eigenvektoren Wir wollen jetzt lineare Endomorphismen durch Matrizen besonders übersichtlicher Gestalt (u.a. mit möglichst vielen Nullen) beschreiben, was durch die Auswahl geeigneter Basen geschieht. Zu einer besonders einfachen Form der f End K (V ) darstellenden Matrix verhelfen gegebenenfalls natürlich solche Basisvektoren, die von f auf ein Vielfaches von sich selbst abgebildet werden. Wir bemerken zunächst, daß für solche Vektoren folgendes gilt: f(v) = κ v (f κ id V )(v) = v Kern(f κ id V ). Wir führen deshalb die folgenden Bezeichnungen ein: 3.7.1 Definition (Eigenwerte, Eigenvektoren, Eigenräume) Ist f End K (V ), dann heißt κ K Eigenwert von f genau dann, wenn Kern(f κ id V ) { V }. Die von Null verschiedenen Elemente des Kerns von f κ id V heißen ggf. Eigenvektoren zum Eigenwert κ, und als Eigenraum von f zum Eigenwert κ bezeichnen wir den gesamten Kern: E(κ) := {v V f(v) = κv} = Kern(f κ id V ). Falls die Dimension von V endlich ist, gibt es weitere dazu äquivalente Formulierungen, denn wir können die Determinante von f heranziehen: 3.7.2 Hilfssatz Ist f End K (V ), dim K (V ) N, κ K, dann sind äquivalent: 1. κ ist Eigenwert von f, 2. Kern(f κ id V ) { V }, 3. det(f κ id V ) =, 4. f κ id V ist nicht injektiv, 5. f κ id V ist nicht surjektiv, 6. v V \{ V }: f(v) = κ v. Die Gleichung det(f κ id V ) = zeigt, daß die Eigenwerte von f als Nullstellen eines Polynoms aufgefaßt werden können. Wir wollen dies präzisieren und beginnen dazu mit 3.7.3 Definition (Formale Potenzreihen, Polynome, Polynomabbildungen) (R, +, ) sei ein kommutativer Ring mit Einselement.
124 Wir erinnern zunächst an den Ring R N der formalen Potenzreihen über R in einer Unbestimmten x. Die Elemente p R N schreibt man gern in der Form p = p n x n, wobei p n := p(n). n= Dieser Ring wird meist mit R[x] bezeichnet, um die Bezeichnung der Unbestimmten x hervorzuheben. Er enthält auch das wurde bereits erwähnt den Teilring R[x] := {p R N p(n) =, für fast alle n} der Polynome über R in einer Unbestimmten x. Ist p R[x] und n N maximal mit p(n), dann heißt r n = p(n) der Leitkoeffizient von p und n der Grad von p. Dem Nullpolynom wird kein Grad zugeordnet. Zu p := r n x n R[x] gehört die Polynomabbildung P : R R, ρ r n ρ n. Ganz allgemein heißt f R R polynomiale Abbildung, wenn es p R[x] gibt mit P = f, d.h. P (ρ) = f(ρ), für alle ρ R. Falls Char(R) ist P nicht notwendig eindeutig bestimmt, z.b. ist P =, falls p = x+x 2 Z 2 [x]. ρ R heißt Wurzel von p, wenn ρ Nullstelle von P ist, d.h. wenn P (ρ) = gilt. Wir definieren: 3.7.4 Definition (charakteristisches Polynom, charakteristische Koeffizienten) Ist f End K (V ), n := dim K (V ) N, B eine Basisfolge für V, A := M(B, f, B), dann heißt p A := det(a x E n ) = α i x i K[x] das charakteristische Polynom von A. Die α i heißen die charakteristischen Koeffizienten von A. Wegen det(a xe n ) = det(t AT 1 x E n ) ist dieses Polynom unabhängig von der Wahl der Basisfolge, wir können also p f := p A setzen und dieses Polynom auch als das charakteristische Polynom von f bezeichnen und die α i als die charakteristischen Koeffizienten von f.
3.7. EIGENWERTE UND EIGENVEKTOREN 125 Für gilt beispielsweise A := 1 2 3 4 1 x 2 p A = det = x 2 5x 2. 3 4 x 3.7.5 Hilfssatz Ist f End K (V ), n := dim K (V ) N, A = M(B, f, B) = (a ik ), dann gilt für die charakteristischen Koeffizienten von f bzw. A : α = det(a), α = ( 1) i a ii, α n = ( 1) n. Die Summe i a ii der Elemente in der Hauptdiagonalen von A heißt die Spur von A : Spur(A) := a ii. i Aus der Definition des charakteristischen Polynoms ergibt sich direkt: 3.7.6 Folgerung Eigenwerte von f End K (V ) bzw. A = M(B, f, B) sind, bei endlichdimensionalem V, gegebenenfalls (!) genau die Wurzeln (in K!) des charakteristischen Polynoms p f = p A, also die Nullstellen der zugehörigen Polynomabbildung P f = P A. Deshalb liefern u.a. auch Hilfsmittel aus der Analysis, nämlich Aussagen über Nullstellen von Polynomabbildungen, Existenzsätze für Eigenwerte. So sagt z.b. der Fundamentalsatz der Algebra der meist in der Vorlesung über Funktionentheorie bewiesen wird aus, daß jede Polynomabbildung P : C C, p vom Grad n, n Nullstellen (die aber nicht paarweise verschieden sein müssen) in C hat. Das liefert, mit 4.3.9: 3.7.7 Satz Jeder lineare Endomorphismus eines endlichdimensionalen Vektorraums V { V } über C besitzt Eigenwerte (und damit auch Eigenvektoren). Das gilt für K := R dagegen nicht, z.b. hat das Polynom p := 1 + x 2 keine Wurzeln in R, die lineare Abbildung f End R (R 2 ) mit 1 M(E, f, E) = 1 hat also keine Eigenwerte. Immerhin gilt noch 3.7.8 Satz Ist n := dim R (V ) N, f End R (V ), dann gilt: 1. Ist n ungerade, dann besitzt f Eigenwerte, und zwar mindestens einen positiven (negativen), falls det(f) positiv (negativ) ist.
126 2. Ist n gerade und det(f) negativ, dann besitzt f mindestens einen positiven und einen negativen Eigenwert. Beweis: Bei ungeradem n ist a n = ( 1) n = 1, und nach Sätzen aus der Analysis ergibt sich, daß P f (x) mit x gegen geht, mit x dagegen nach. Wegen der Stetigkeit von P f folgt daraus mit dem Zwischenwertsatz die Behauptung. Analog folgt für gerade n die zweite Behauptung, da dann α = P f () = det(f). Kehren wir wieder zu dem allgemeinen Fall zurück. 3.7.9 Satz Jede Menge aus Eigenvektoren zu paarweise verschiedenen Eigenwerten ist linear unabhängig. Beweis: M bezeichne die gegebene Menge von Eigenvektoren. Wir haben zu zeigen, daß für jede endliche Teilmenge N := {v,..., v } M gilt: κ i v i = = i: κ i =. Der Beweis erfolgt per Induktion nach n : i I n = 1 : Die Menge {v } ist linear unabhängig, da v. II n n + 1 : Wir schließen indirekt. Wäre {v,..., v n } linear abhängig, dann gäbe es eine nicht triviale lineare Relation zwischen den Elementen dieser Menge. Ohne Einschränkung der Allgemeinheit können wir annehmen, sie sei von der Form v n = λ i v i, wobei nicht alle λ i gleich Null sind. Daraus würde sich aber folgendes ergeben, wenn v i Eigenvektor zum Eigenwert κ i ist, = f(v n ) κ n v n = λ i f(v i ) κ n λ i v i = λ i (κ i κ n )v }{{} i, ein Widerspruch zur Induktionsannahme, der linearen Unabhängigkeit von {v,..., v }. 3.7.1 Folgerung Ist f ein linearer Endomorphismus von V, dim K (V ) N, mit dim K (V ) paarweise verschiedenen Eigenwerten, dann besitzt V eine Basisfolge B aus Eigenvektoren. f wird also bezüglich dieser Basisfolge durch eine Diagonalmatrix M(B, f, B) beschrieben, in deren Hauptdiagonale die Eigenwerte von f stehen.
3.7. EIGENWERTE UND EIGENVEKTOREN 127 3.7.11 Satz Ist V = U W, n = dim K (V ) N, f End K (V ), f(u) U, π W : V W, u + w w (die kanonische Projektion von V auf W ), dann gilt: Für g := π W f W haben wir p f = p f U p g. Beweis: Wir wählen eine Basisfolge B von V, die an die Zerlegung angepaßt ist, d.h. B = (b,..., b ), mit U = b,..., b m 1, W = b m,..., b. Dann gilt für A := M(B, f, B) und B = (b,..., b m 1 ), B 1 = (b m,..., b ) : B C A =, mit B = M(B D, f U, B ), sowie, wegen f(u) U, mit einer Nullmatrix aus n Zeilen und m Spalten, Damit erhalten wir: M(B 1, g, B 1 ) = M(B 1, π w, B) M(B, f W, B 1 ) C = ( E n m ) = D. D p f = det(a xe n ) = det(b xe m ) det(d xe n m ) = p f U p g. 3.7.12 Folgerung Ist U Unterraum von V mit f(u) U, dann teilt p f U das Polynom p f. Heißt κ K ein r facher Eigenwert von f, wenn (x κ) r Teiler von p f ist, und verstehen wir unter der Vielfachheit von κ das maximale dieser r, dann ergibt sich: 3.7.13 Satz Die Dimension des Eigenraums von κ K ist höchstens gleich der Vielfachheit von κ als Eigenwert. Beweis: Man sieht sehr leicht, daß f E(κ) = κ id E(κ) gilt, also p f E(κ) = (κ x) dim(e(κ)). Dieses Polynom teilt aber, wegen f(e(κ)) E(κ) und 3.7.12 das charakteristische Polynom p f, in dem der Faktor κ x genau mit dem Exponenten r steckt. Der Grad des Produkts zweier Polynome ist die Summe der Grade der Faktoren. Also ist die Summe der Vielfachheiten der Eigenwerte von f höchstens dim K (V ). Das, zusammen mit 4.3.16, ergibt:
128 3.7.14 Satz Ist f End K (V ) und n := dim K (V ) N, dann sind äquivalent: f läßt sich durch eine Diagonalmatrix beschreiben. V hat eine Basis aus Eigenvektoren. V ist direkte Summe der Eigenräume von f. p f ist Produkt von Linearfaktoren (:=Polynome vom Grad 1) und die Vielfachheiten der Eigenwerte gleichen den Dimensionen der zugehörigen Eigenräume. Will man eine Matrix auf Diagonalisierbarkeit untersuchen, wird man sich also zuerst das charakteristische Polynom vorzunehmen. Läßt es sich in Linearfaktoren zerlegen, hat man noch die Dimensionen n Rg(A κe) der Eigenräume zu ermitteln und mit den Vielfachheiten zu vergleichen. 3.7.15 Beispiel 1. Die Matrix A := 1 4 6 1 5 2 hat das charakteristische Polynom det(a xe) = det 1 x 1 x 4 6 = (1 + x) 2 (2 x), 5 2 x also die Eigenwerte κ = 1 und κ 1 = 2. Wegen A κ E 3 = 4 6, 5 3 ist die Dimension des Eigenraums, also 3 Rg(A κ E), gleich 1 und damit kleiner als die Vielfachheit des Eigenwerts κ. Die Matrix A besitzt demnach keine Basis aus Eigenvektoren. 2. Für die Matrix A := 1 4 6 2 5 3 dagegen gilt p A = (1 + x)(2 x)(3 x). Die Eigenwerte sind also κ = 1, κ 1 = 2 und κ 2 = 3. Nach 4.3.12 existiert also eine Basis aus Eigenvektoren.
3.7. EIGENWERTE UND EIGENVEKTOREN 129 3. Einen Eigenvektor b i zum Eigenwert κ i erhält man durch Lösen des Gleichungssystems (A κ i E n )b i =, für unser Beispiel erhält man beispielsweise (die Eigenvektoren sind nur bis auf Zahlenfaktoren eindeutig bestimmt!): b = 1, b 1 = 26/3 1 5, b 2 = 9 6 Eine deutlich schwächere Forderung an A als die Diagonalisierbarkeit ist die nach Trigonalisierbarkeit: 3.7.16 Satz Ist f End K (V ) und n := dim K (V ) N, dann sind äquivalent: f ist trigonalisierbar, d.h. es gibt eine Basisfolge B, so daß A := M(B, f, B) eine obere Dreiecksmatrix ist. Es gibt eine Kette V := {} V 1... V V n := V f-invarianter Unterräume (d.h. f(v i ) = V i ) mit dim K (V i ) = i. Das charakteristische Polynom zerfällt in Linearfaktoren: Beweis: p f = (λ i x), λ i K. i= a) Die Äquivalenz der ersten beiden Punkte ist klar: Eine an eine solche Kette von invarianten Unterräumen angepaßte Basis liefert eine obere Dreiecksmatrix und umgekehrt. b) Ist A := M(B, f, B) eine obere Dreiecksmatrix, dann ist. det(a xe n ) = i (a ii x), also Produkt von Linearfaktoren. c) Zerfällt umgekehrt das charakteristische Polynom in Linearfaktoren, etwa p f = i= (λ i x), dann können wir die Trigonalisierbarkeit wie folgt per Induktion nach n beweisen: I n = 1 : Dieser Fall ist trivial. II n > 1 : f besitzt Eigenvektoren zum Eigenwert λ. Wir nehmen einen von ihnen, v, als -tes Element der Basisfolge B = (v,..., v ), so daß λ a 1... a, A = M(B, f, B) =. Ã.
13 Nun gilt aber V = v W, wenn W := v 1,..., v. Aus 3.7.11 folgt demnach, wenn U := v, p f = p f U p g, mit g = π W f W. Es folgt, weil p f U = λ x, p g = (λ i x). i=1 Nun ist aber p g das charakteristische Polynom von Ã, so daß, nach Induktionsannahme, eine Kette W := {} W 1... W n 2 W = W aus g-invarianten Unterräumen W i (der Dimension i) existiert. Wir wollen zeigen, daß die Unterräume V i := U + W i 1 eine Kette f-invarianter Unterräume der gewünschten Dimensionen i bilden. Dazu bemerken wir, daß offenbar f W = h + k, mit h: W U, v j a j v, sowie k: W W, v j a ij v j. Sei jetzt v U + W i 1, etwa v = u + w, u U, w W i 1. Es gilt dann i=1 f(u + w) = f(u) + f(w) = f(u) + f W (w) = = f(u) + (h + k)(w) = f(u) + h(w) + k(w) U + W i 1. }{{}}{{} U =g(w) Demnach sind die V i wirklich f-invariant. Die Aussage über die Dimension ist leicht nachzuvollziehen. Dieser Beweis ergibt ein Verfahren zur sukzessiven Berechnung einer darstellenden Dreiecksmatrix anhand einer gegebenen Zerlegung p f = ± (λ i x) i= des charakteristischen Polynoms in Linearfaktoren: Man geht von der Standardbasis E aus, ermittelt zunächst einen Eigenvektor v zum Eigenwert λ und nimmt diesen als -tes Element v einer Basisfolge B = (v, e,..., e i 1, ê i, e i+1,..., e ), die aus v und geeigneten n 1 Elementen der Standardbasis besteht (unter Verwendung des Austauschsatzes, die Schreibweise ê i bedeute, daß e i ausgetauscht wurde). Die entsprechende Basistransformation T ergibt T M(E, f, E)T 1 = λ.... Ã.
3.7. EIGENWERTE UND EIGENVEKTOREN 131 Jetzt betrachten wir den von der Basisfolge (e,..., e i 1, ê i, e i+1,..., e ) erzeugten Unterraum und auf diesem die durch à dargestellte lineare Abbildung. Aus 3.7.12 folgt pã = ± (λ i x), i=1 so daß man ganz analog zum vorherigen Schritt verfahren kann: Die Auswahl eines Eigenvektors v 1 zum Eigenwert λ 1 samt Anwendung des Austauschsatzes (mit i 1 i ) ergibt eine Basisfolge Die Transformation auf die Basisfolge (v 1, e,..., ê i,..., ê i1,..., e ). B 1 := (v, v 1, e,..., ê i,..., ê i1,..., e ) ergibt jetzt usw. T 1 M(E, f, E)T 1 1 = λ λ 1... λ 1..... à 1