3.7 Eigenwerte und Eigenvektoren

Ähnliche Dokumente
4.2 Die adjungierte Abbildung

Eigenwerte und Diagonalisierung

Lineare Algebra I Lösungsvorschlag

5.2 Diagonalisierbarkeit und Trigonalisierung

3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform

2.11 Eigenwerte und Diagonalisierbarkeit

Kapitel 11 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

5 Diagonalisierbarkeit

Lineare Algebra II Lösungen zu ausgewählten Aufgaben

23. Die Jordan sche Normalform

Trigonalisierung. Definition. 1) Sei F : V V linear, dim V = n. Dann heißt F trigonalisierbar, wenn es eine Basis B von V gibt sodass a 11 a 12..

Lineare Algebra II, Lösungshinweise Blatt 9

6 Eigenwerte und Eigenvektoren

Lineare Algebra I Lösungsvorschläge zum 14. Übungsblatt U. Görtz

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Lineare Algebra I für Mathematiker Lösungen

6.3 Eigenwerte. γ ist Eigenwert von T [T] B B γi ist nicht invertierbar.

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 5

Diagonalisierbarkeit symmetrischer Matrizen

Sommer 2017 Musterlösung

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit.

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Ausgewählte Lösungen zu den Übungsblättern 9-10

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.

Lineare Algebra II 6. Übungsblatt

1 Darstellungsmatrizen

7.3 Unitäre Operatoren

Lineare Algebra und analytische Geometrie I

Klausur Lineare Algebra I am Es sind insgesamt 60 Punkte bei der Klausur zu erreichen.

Lineare Algebra I Zusammenfassung

4 Eigenwerte und Eigenvektoren

Serie Sei V ein Vektorraum. Man nennt eine lineare Abbildung P : V V eine Projektion, falls P 2 = P gilt. Zeigen Sie:

Eigenwerttheorie. Martin Gubisch Lineare Algebra I WS 2007/2008

Wir verallgemeinern jetzt den Begriff bilinear zu multilinear. Unser Ziel ist dabei insbesondere die Einführung der sogenannten Determinante.

7.2 Die adjungierte Abbildung

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

29 Lineare Algebra 2 (SS 2009) 4.9. Das charakteristische Polynom sei Produkt von linearen Polynomen.

3.4 Trigonalisierung und Jordansche Normalform

Lineare Algebra und analytische Geometrie I

12.3 Kommutierende Abbildungen

Hauptachsentransformation: Eigenwerte und Eigenvektoren

3.5 Duale Vektorräume und Abbildungen

Lineare Algebra Weihnachtszettel

Aufgaben zur linearen Algebra und analytischen Geometrie I

2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG

Lineare Algebra 2. Lösung zu Aufgabe 7.2:

Lineare Algebra I. Prof. Dr. Daniel Roggenkamp Vorlesung -

Tutorium 2. 1 Der Polynomring

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II Lösungen der Klausur

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Mathematik für Physiker, Informatiker und Ingenieure

Ausgewählte Lösungen zu den Übungsblättern 4-5

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

Berechnung der Determinante

3.3 Das charakteristische Polynom

Lösung zu Serie Zeige, dass das Minimalpolynom jedes Jordanblocks gleich seinem charakteristischen

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

i) ii) iii) iv) i) ii) iii) iv) v) gilt (Cauchy-Schwarz-Ungleichung): Winkel zwischen zwei Vektoren : - Für schreibt man auch.

4 Funktionenfolgen und normierte Räume

Klausur zur Vorlesung Lineare Algebra und Geometrie I

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Klausur zur Linearen Algebra I

Lösungsskizzen zur Klausur zur Linearen Algebra II. Definitionen

Lineare Algebra II 3. Übungsblatt

Definitionen. b) Was bedeutet V ist die direkte Summe von U und W? V ist direkte Summe aus U und W, falls V = U + W und U W = {0}.

Übungen zur Vorlesung Lineare Algebra II, SoSe 2016, Blatt 1

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2

KLAUSUR ZUR LINEAREN ALGEBRA I 22. Februar 2008

Musterlösung Donnerstag - Determinanten und Eigenwerte

3.2 Unabhängigkeitsstrukturen

4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit

Wiederholungsserie II

Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 2016

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lineare Algebra und Analytische Geometrie I für die Fachrichtung Informatik

Lineare Algebra und analytische Geometrie II

Lineare Abbildungen und Darstellungsmatrizen

Serie 17: Satz von Cayley-Hamilton & spezielle Endomorphismen

Transkript:

3.7. EIGENWERTE UND EIGENVEKTOREN 123 3.7 Eigenwerte und Eigenvektoren Wir wollen jetzt lineare Endomorphismen durch Matrizen besonders übersichtlicher Gestalt (u.a. mit möglichst vielen Nullen) beschreiben, was durch die Auswahl geeigneter Basen geschieht. Zu einer besonders einfachen Form der f End K (V ) darstellenden Matrix verhelfen gegebenenfalls natürlich solche Basisvektoren, die von f auf ein Vielfaches von sich selbst abgebildet werden. Wir bemerken zunächst, daß für solche Vektoren folgendes gilt: f(v) = κ v (f κ id V )(v) = v Kern(f κ id V ). Wir führen deshalb die folgenden Bezeichnungen ein: 3.7.1 Definition (Eigenwerte, Eigenvektoren, Eigenräume) Ist f End K (V ), dann heißt κ K Eigenwert von f genau dann, wenn Kern(f κ id V ) { V }. Die von Null verschiedenen Elemente des Kerns von f κ id V heißen ggf. Eigenvektoren zum Eigenwert κ, und als Eigenraum von f zum Eigenwert κ bezeichnen wir den gesamten Kern: E(κ) := {v V f(v) = κv} = Kern(f κ id V ). Falls die Dimension von V endlich ist, gibt es weitere dazu äquivalente Formulierungen, denn wir können die Determinante von f heranziehen: 3.7.2 Hilfssatz Ist f End K (V ), dim K (V ) N, κ K, dann sind äquivalent: 1. κ ist Eigenwert von f, 2. Kern(f κ id V ) { V }, 3. det(f κ id V ) =, 4. f κ id V ist nicht injektiv, 5. f κ id V ist nicht surjektiv, 6. v V \{ V }: f(v) = κ v. Die Gleichung det(f κ id V ) = zeigt, daß die Eigenwerte von f als Nullstellen eines Polynoms aufgefaßt werden können. Wir wollen dies präzisieren und beginnen dazu mit 3.7.3 Definition (Formale Potenzreihen, Polynome, Polynomabbildungen) (R, +, ) sei ein kommutativer Ring mit Einselement.

124 Wir erinnern zunächst an den Ring R N der formalen Potenzreihen über R in einer Unbestimmten x. Die Elemente p R N schreibt man gern in der Form p = p n x n, wobei p n := p(n). n= Dieser Ring wird meist mit R[x] bezeichnet, um die Bezeichnung der Unbestimmten x hervorzuheben. Er enthält auch das wurde bereits erwähnt den Teilring R[x] := {p R N p(n) =, für fast alle n} der Polynome über R in einer Unbestimmten x. Ist p R[x] und n N maximal mit p(n), dann heißt r n = p(n) der Leitkoeffizient von p und n der Grad von p. Dem Nullpolynom wird kein Grad zugeordnet. Zu p := r n x n R[x] gehört die Polynomabbildung P : R R, ρ r n ρ n. Ganz allgemein heißt f R R polynomiale Abbildung, wenn es p R[x] gibt mit P = f, d.h. P (ρ) = f(ρ), für alle ρ R. Falls Char(R) ist P nicht notwendig eindeutig bestimmt, z.b. ist P =, falls p = x+x 2 Z 2 [x]. ρ R heißt Wurzel von p, wenn ρ Nullstelle von P ist, d.h. wenn P (ρ) = gilt. Wir definieren: 3.7.4 Definition (charakteristisches Polynom, charakteristische Koeffizienten) Ist f End K (V ), n := dim K (V ) N, B eine Basisfolge für V, A := M(B, f, B), dann heißt p A := det(a x E n ) = α i x i K[x] das charakteristische Polynom von A. Die α i heißen die charakteristischen Koeffizienten von A. Wegen det(a xe n ) = det(t AT 1 x E n ) ist dieses Polynom unabhängig von der Wahl der Basisfolge, wir können also p f := p A setzen und dieses Polynom auch als das charakteristische Polynom von f bezeichnen und die α i als die charakteristischen Koeffizienten von f.

3.7. EIGENWERTE UND EIGENVEKTOREN 125 Für gilt beispielsweise A := 1 2 3 4 1 x 2 p A = det = x 2 5x 2. 3 4 x 3.7.5 Hilfssatz Ist f End K (V ), n := dim K (V ) N, A = M(B, f, B) = (a ik ), dann gilt für die charakteristischen Koeffizienten von f bzw. A : α = det(a), α = ( 1) i a ii, α n = ( 1) n. Die Summe i a ii der Elemente in der Hauptdiagonalen von A heißt die Spur von A : Spur(A) := a ii. i Aus der Definition des charakteristischen Polynoms ergibt sich direkt: 3.7.6 Folgerung Eigenwerte von f End K (V ) bzw. A = M(B, f, B) sind, bei endlichdimensionalem V, gegebenenfalls (!) genau die Wurzeln (in K!) des charakteristischen Polynoms p f = p A, also die Nullstellen der zugehörigen Polynomabbildung P f = P A. Deshalb liefern u.a. auch Hilfsmittel aus der Analysis, nämlich Aussagen über Nullstellen von Polynomabbildungen, Existenzsätze für Eigenwerte. So sagt z.b. der Fundamentalsatz der Algebra der meist in der Vorlesung über Funktionentheorie bewiesen wird aus, daß jede Polynomabbildung P : C C, p vom Grad n, n Nullstellen (die aber nicht paarweise verschieden sein müssen) in C hat. Das liefert, mit 4.3.9: 3.7.7 Satz Jeder lineare Endomorphismus eines endlichdimensionalen Vektorraums V { V } über C besitzt Eigenwerte (und damit auch Eigenvektoren). Das gilt für K := R dagegen nicht, z.b. hat das Polynom p := 1 + x 2 keine Wurzeln in R, die lineare Abbildung f End R (R 2 ) mit 1 M(E, f, E) = 1 hat also keine Eigenwerte. Immerhin gilt noch 3.7.8 Satz Ist n := dim R (V ) N, f End R (V ), dann gilt: 1. Ist n ungerade, dann besitzt f Eigenwerte, und zwar mindestens einen positiven (negativen), falls det(f) positiv (negativ) ist.

126 2. Ist n gerade und det(f) negativ, dann besitzt f mindestens einen positiven und einen negativen Eigenwert. Beweis: Bei ungeradem n ist a n = ( 1) n = 1, und nach Sätzen aus der Analysis ergibt sich, daß P f (x) mit x gegen geht, mit x dagegen nach. Wegen der Stetigkeit von P f folgt daraus mit dem Zwischenwertsatz die Behauptung. Analog folgt für gerade n die zweite Behauptung, da dann α = P f () = det(f). Kehren wir wieder zu dem allgemeinen Fall zurück. 3.7.9 Satz Jede Menge aus Eigenvektoren zu paarweise verschiedenen Eigenwerten ist linear unabhängig. Beweis: M bezeichne die gegebene Menge von Eigenvektoren. Wir haben zu zeigen, daß für jede endliche Teilmenge N := {v,..., v } M gilt: κ i v i = = i: κ i =. Der Beweis erfolgt per Induktion nach n : i I n = 1 : Die Menge {v } ist linear unabhängig, da v. II n n + 1 : Wir schließen indirekt. Wäre {v,..., v n } linear abhängig, dann gäbe es eine nicht triviale lineare Relation zwischen den Elementen dieser Menge. Ohne Einschränkung der Allgemeinheit können wir annehmen, sie sei von der Form v n = λ i v i, wobei nicht alle λ i gleich Null sind. Daraus würde sich aber folgendes ergeben, wenn v i Eigenvektor zum Eigenwert κ i ist, = f(v n ) κ n v n = λ i f(v i ) κ n λ i v i = λ i (κ i κ n )v }{{} i, ein Widerspruch zur Induktionsannahme, der linearen Unabhängigkeit von {v,..., v }. 3.7.1 Folgerung Ist f ein linearer Endomorphismus von V, dim K (V ) N, mit dim K (V ) paarweise verschiedenen Eigenwerten, dann besitzt V eine Basisfolge B aus Eigenvektoren. f wird also bezüglich dieser Basisfolge durch eine Diagonalmatrix M(B, f, B) beschrieben, in deren Hauptdiagonale die Eigenwerte von f stehen.

3.7. EIGENWERTE UND EIGENVEKTOREN 127 3.7.11 Satz Ist V = U W, n = dim K (V ) N, f End K (V ), f(u) U, π W : V W, u + w w (die kanonische Projektion von V auf W ), dann gilt: Für g := π W f W haben wir p f = p f U p g. Beweis: Wir wählen eine Basisfolge B von V, die an die Zerlegung angepaßt ist, d.h. B = (b,..., b ), mit U = b,..., b m 1, W = b m,..., b. Dann gilt für A := M(B, f, B) und B = (b,..., b m 1 ), B 1 = (b m,..., b ) : B C A =, mit B = M(B D, f U, B ), sowie, wegen f(u) U, mit einer Nullmatrix aus n Zeilen und m Spalten, Damit erhalten wir: M(B 1, g, B 1 ) = M(B 1, π w, B) M(B, f W, B 1 ) C = ( E n m ) = D. D p f = det(a xe n ) = det(b xe m ) det(d xe n m ) = p f U p g. 3.7.12 Folgerung Ist U Unterraum von V mit f(u) U, dann teilt p f U das Polynom p f. Heißt κ K ein r facher Eigenwert von f, wenn (x κ) r Teiler von p f ist, und verstehen wir unter der Vielfachheit von κ das maximale dieser r, dann ergibt sich: 3.7.13 Satz Die Dimension des Eigenraums von κ K ist höchstens gleich der Vielfachheit von κ als Eigenwert. Beweis: Man sieht sehr leicht, daß f E(κ) = κ id E(κ) gilt, also p f E(κ) = (κ x) dim(e(κ)). Dieses Polynom teilt aber, wegen f(e(κ)) E(κ) und 3.7.12 das charakteristische Polynom p f, in dem der Faktor κ x genau mit dem Exponenten r steckt. Der Grad des Produkts zweier Polynome ist die Summe der Grade der Faktoren. Also ist die Summe der Vielfachheiten der Eigenwerte von f höchstens dim K (V ). Das, zusammen mit 4.3.16, ergibt:

128 3.7.14 Satz Ist f End K (V ) und n := dim K (V ) N, dann sind äquivalent: f läßt sich durch eine Diagonalmatrix beschreiben. V hat eine Basis aus Eigenvektoren. V ist direkte Summe der Eigenräume von f. p f ist Produkt von Linearfaktoren (:=Polynome vom Grad 1) und die Vielfachheiten der Eigenwerte gleichen den Dimensionen der zugehörigen Eigenräume. Will man eine Matrix auf Diagonalisierbarkeit untersuchen, wird man sich also zuerst das charakteristische Polynom vorzunehmen. Läßt es sich in Linearfaktoren zerlegen, hat man noch die Dimensionen n Rg(A κe) der Eigenräume zu ermitteln und mit den Vielfachheiten zu vergleichen. 3.7.15 Beispiel 1. Die Matrix A := 1 4 6 1 5 2 hat das charakteristische Polynom det(a xe) = det 1 x 1 x 4 6 = (1 + x) 2 (2 x), 5 2 x also die Eigenwerte κ = 1 und κ 1 = 2. Wegen A κ E 3 = 4 6, 5 3 ist die Dimension des Eigenraums, also 3 Rg(A κ E), gleich 1 und damit kleiner als die Vielfachheit des Eigenwerts κ. Die Matrix A besitzt demnach keine Basis aus Eigenvektoren. 2. Für die Matrix A := 1 4 6 2 5 3 dagegen gilt p A = (1 + x)(2 x)(3 x). Die Eigenwerte sind also κ = 1, κ 1 = 2 und κ 2 = 3. Nach 4.3.12 existiert also eine Basis aus Eigenvektoren.

3.7. EIGENWERTE UND EIGENVEKTOREN 129 3. Einen Eigenvektor b i zum Eigenwert κ i erhält man durch Lösen des Gleichungssystems (A κ i E n )b i =, für unser Beispiel erhält man beispielsweise (die Eigenvektoren sind nur bis auf Zahlenfaktoren eindeutig bestimmt!): b = 1, b 1 = 26/3 1 5, b 2 = 9 6 Eine deutlich schwächere Forderung an A als die Diagonalisierbarkeit ist die nach Trigonalisierbarkeit: 3.7.16 Satz Ist f End K (V ) und n := dim K (V ) N, dann sind äquivalent: f ist trigonalisierbar, d.h. es gibt eine Basisfolge B, so daß A := M(B, f, B) eine obere Dreiecksmatrix ist. Es gibt eine Kette V := {} V 1... V V n := V f-invarianter Unterräume (d.h. f(v i ) = V i ) mit dim K (V i ) = i. Das charakteristische Polynom zerfällt in Linearfaktoren: Beweis: p f = (λ i x), λ i K. i= a) Die Äquivalenz der ersten beiden Punkte ist klar: Eine an eine solche Kette von invarianten Unterräumen angepaßte Basis liefert eine obere Dreiecksmatrix und umgekehrt. b) Ist A := M(B, f, B) eine obere Dreiecksmatrix, dann ist. det(a xe n ) = i (a ii x), also Produkt von Linearfaktoren. c) Zerfällt umgekehrt das charakteristische Polynom in Linearfaktoren, etwa p f = i= (λ i x), dann können wir die Trigonalisierbarkeit wie folgt per Induktion nach n beweisen: I n = 1 : Dieser Fall ist trivial. II n > 1 : f besitzt Eigenvektoren zum Eigenwert λ. Wir nehmen einen von ihnen, v, als -tes Element der Basisfolge B = (v,..., v ), so daß λ a 1... a, A = M(B, f, B) =. Ã.

13 Nun gilt aber V = v W, wenn W := v 1,..., v. Aus 3.7.11 folgt demnach, wenn U := v, p f = p f U p g, mit g = π W f W. Es folgt, weil p f U = λ x, p g = (λ i x). i=1 Nun ist aber p g das charakteristische Polynom von Ã, so daß, nach Induktionsannahme, eine Kette W := {} W 1... W n 2 W = W aus g-invarianten Unterräumen W i (der Dimension i) existiert. Wir wollen zeigen, daß die Unterräume V i := U + W i 1 eine Kette f-invarianter Unterräume der gewünschten Dimensionen i bilden. Dazu bemerken wir, daß offenbar f W = h + k, mit h: W U, v j a j v, sowie k: W W, v j a ij v j. Sei jetzt v U + W i 1, etwa v = u + w, u U, w W i 1. Es gilt dann i=1 f(u + w) = f(u) + f(w) = f(u) + f W (w) = = f(u) + (h + k)(w) = f(u) + h(w) + k(w) U + W i 1. }{{}}{{} U =g(w) Demnach sind die V i wirklich f-invariant. Die Aussage über die Dimension ist leicht nachzuvollziehen. Dieser Beweis ergibt ein Verfahren zur sukzessiven Berechnung einer darstellenden Dreiecksmatrix anhand einer gegebenen Zerlegung p f = ± (λ i x) i= des charakteristischen Polynoms in Linearfaktoren: Man geht von der Standardbasis E aus, ermittelt zunächst einen Eigenvektor v zum Eigenwert λ und nimmt diesen als -tes Element v einer Basisfolge B = (v, e,..., e i 1, ê i, e i+1,..., e ), die aus v und geeigneten n 1 Elementen der Standardbasis besteht (unter Verwendung des Austauschsatzes, die Schreibweise ê i bedeute, daß e i ausgetauscht wurde). Die entsprechende Basistransformation T ergibt T M(E, f, E)T 1 = λ.... Ã.

3.7. EIGENWERTE UND EIGENVEKTOREN 131 Jetzt betrachten wir den von der Basisfolge (e,..., e i 1, ê i, e i+1,..., e ) erzeugten Unterraum und auf diesem die durch à dargestellte lineare Abbildung. Aus 3.7.12 folgt pã = ± (λ i x), i=1 so daß man ganz analog zum vorherigen Schritt verfahren kann: Die Auswahl eines Eigenvektors v 1 zum Eigenwert λ 1 samt Anwendung des Austauschsatzes (mit i 1 i ) ergibt eine Basisfolge Die Transformation auf die Basisfolge (v 1, e,..., ê i,..., ê i1,..., e ). B 1 := (v, v 1, e,..., ê i,..., ê i1,..., e ) ergibt jetzt usw. T 1 M(E, f, E)T 1 1 = λ λ 1... λ 1..... à 1