Lineare Algebra - Determinanten und Eigenwerte 26 März 2011 1 Determinanten 11 Definition (Determinanten): Sei K ein Körper und N n 0 Dann nennt man eine durch det : M(n n, K) K, a det(a) definierte Abbildung eine Determinante, falls sie folgende Eigenschaften hat: D1 det ist linear in jeder Zeile, dh det a i + b i = det a i + det b i und det λa i = λ det a i wobei a i, b i n-dimensionale Zeilenvektoren bezeichnen D2 det ist alternierend, dh sind zwei Zeilen von A gleich, so gilt det(a) = 0 D3 det ist normiert und zwar det(1 n ) = 1 Der folgende Satz stellt die aus den Definitionen folgenden Eigenschaften der Determinanten zusammen Der Beweis soll in den Übungen erfolgen 12 Satz (Eigenschaften der Determinante): Für die Detmerinante M(n n, K) K und A, B M(n n, K)gelten die folgenden Rechenregeln R1 λ K gilt det(λa) = λ n det(a) R2 Ist eine Zeile von A gleich null, dann gilt det(a) = 0 R3 Vertauscht man bei A die Zeilen und erhält dadurch B, dann gilt det(b) = det(a) 1
R4 Addiert man zu A das λ-fache der i-ten Zeile zu der j-ten Zeile (i j), dh dann gilt det(a) = det(b) R5 Falls A eine obere Dreiecksmatrix a 11 a 12 a 1n a 21 a 22 a 2n B = a j1 + λa i1 a j2 + λa i2 a jn + λa in a n1 a n2 a nn λ 1 A = 0 λ n ist, dann gilt det(a) = λ 1 λ n Insbesondere gilt dies für eine Diagonalmatrix A = diag(λ 1,, λ n ) R6 Seien A 1, A 2 quadratische Matrizen, dann gilt für ein ( ) A1 A = 0 A 2 die Regel det(a) = det(a 1 ) det(a 2 ) R7 det(a) = 0 ist gleichbedeutend mit der Aussage Rang(A) < n R8 Für A, B M(n n, K) gilt det(a B) = det(a) det(b) R9 Für A Gl(n, K) gilt det(a 1 ) = (det(a)) 1 Bemerkung: Hiermit ist nicht die Umkehrabbildung von det gemeint Mit Hilfe dieser Regeln kann man eine Determinante prinzipiell durch Umformen von A in eine Zeilenstufenform berechnen Wir werden später auch noch andere Regeln zur Berechnung kennen lernen, wollen uns aber zunächst mit diesen Elementaren Rechenregeln vertraut machen Wir haben die Determinante asiomatisch über die Weierstraßschen Axiome eingeführt Es gibt aber eine äquivalente konstruktive Definition, welche eine direkte Berechnungsformel für Determinanten angibt, die Leibniz-Formel 13 Satz (Leibniz-Formel) Sei K ein Körper und n 1, so gibt es genau eine Determinante und für jedes M(n n, K) A = (a ij ) gilt det(a) = det : M(n n, K) K σ S n sign(σ) a 1σ(1) a nσ(n) Man geht also jede mögliche Anordnung der Komponenten von A durch, wobei man jedoch das Signum der Permutation beachten muss, welches garantiert, dass die Determinante alternierend ist Aus dieser Gleichung sind auch die elementaren Regeln zur Berechnung von det(a) begründet Für den Fall von 2 2-Matrizen gilt ( ) a b det = ad bc c d 2
und für 3 3-Matrizen gilt entsprechend a 11 a 12 a 13 det a 21 a 22 a 23 = a 11 a 22 a 33 + a 12 a 23 a 31 + a 13 a 21 a 32 (a 13 a 22 a 31 + a 12 a 21 a 33 + a 11 a 23 a 32 ) a 31 a 32 a 33 Die letzte Regel bezeichnet man auch als die Regel von Sarrus, welche besagt, dass man den Wert der Determinante einer 3 3-Matrix durch folgende Merkregel berechnen kann: Zunächst addiere man die Produkte der Komponenten auf den Diagonalen von links oben nach rechts unten und subtrahiere dann die Diagonalen von rechts oben nach links unten Vosicht! Die Regel gilt nur für n 3 Für Matrizen mit höherem n muss man auf andere Regeln zurückgreifen Als nächstes wollen wir den Entwicklungssatz von Laplace formuliere, welcher nicht nur oft eine erhebliche Erleichterung der Rechnung mit sich bringt, sondern erst die Berechnungen aller Determinanten von Matrizen mit n 4 ermöglicht Dafür bezeichnen wir mit A ij die (n 1) (n 1) Matrix, welche wir durch Streichen der i-ten Zeile und j-ten Spalte erhalten, also a 11 a 1(j 1) a 1(j+1) a 1n A ij = a (i 1)1 a (i 1)(j 1) a (i 1)(j+1) a (i 1)n a (i+1)1 a (i+1)(j 1) a (i+1)(j+1) a (i+1)n a n1 a n(j 1) a n(j+1) a nn Der Entwicklungssatz gestattet es uns nun, die Berechnung einer n n Matrix auf die Berechnung einer Summe von (n 1) (n 1) Matrizen zurückzuführen Dabei muss man aber noch die relativen Vorzeichen beachten 14 Satz (Entwicklungssatz von Laplace): Sei n 2 und A M(n n, K), so gilt für i {1,, n} n det(a) = ( 1) i+j a ij det(a ij) j=1 Entwicklung nach der i-ten Zeile und j {1,, n} n det(a) = ( 1) i+j a ij det(a ij) i=1 Entwicklung nach der j-ten Spalte Bemerkung: Zur Anwendung dieses Satzes ist es nicht notwendig, sich die Formel in genau dieser Form zu merken Es ist möglich sich eine einfachere, visuelle Regel abzuleiten Sei die folgende Determinante gegeben a 11 a 1n a n1 a nn Dann sieht die Laplace-Entwicklung nach der ersten Spalte folgendermaßen aus a 11 a 1n a 22 a 2n a 12 a 1n a 21 a 2n a 32 a 3n a 32 a 3n = a 11 a 21 + a n1 a nn a n2 a nn a n2 a nn 3
aus, wobei sich die Vorzeiche nach dem folgenden Schachbrettmuster verteilen + + + wobei die Punkte eben die Fortsetzung dieses alternierenden Musters bedeuten sollen 15 Beispiel: Sei die folgende Matrix 1 5 2 A = 0 7 1 3 2 1 gegeben Wir wollen die Determinante von A mit Hilfe des Entwicklungssatzes berechnen, und zwar entwickeln wir zunächst nach der ersten Spalte 1 5 2 ( ) ( ) ( ) det 0 7 1 7 1 5 2 5 2 = 1 det 0 det + 3 det 2 1 2 1 7 1 3 2 1 = a [7 + 2] + 3 [5 14] = 9 + 3( 9) = 18 Nun wiederholen wir die Prozedur zur Übung, nur dass wir nun nach der ersten Zeile entwickeln 1 5 2 ( ) ( ) ( ) det 0 7 1 7 1 0 1 0 7 = 1 det 5 det + 2 det 2 1 3 1 3 2 3 2 1 = 1 [7 + 2] 5 [ 3] + 2 [ 21] = 18 Man muss natürlich auf das selbe Ergebnis kommen, aber der letzte Weg war der eindeutig arbeitsamere, da man eine Determinante mehr berechnen musste Nun erkennt man auch, dass man möglichst nach den Zeilen/Spalten entwickelt, die möglichst viele Nullen enthalten 16 Satz (Invertierung von Matrizen): Sei A Gl(n n, K) und C = (c ij ) M(n n, K) mit dann lässt sich das Inverse der Matrix A als schreiben c ij := ( 1) i+j det(a ij) A 1 = 1 det(a) CT Als nächstes geben wir noch eine nützliche Methode zur Berechnung von linearen Gleichungssystemen mit Hilfe von Determinanten an Satz (Cramersche Regel): Sei A Gl(n n, K), b K n und x = (x 1,, x n ) T K n erfülle Dann gilt A x = b x i = det(a1,, a i 1, b, a i+1,, a n ) det(a) wobei a i den i-ten Spaltenvektor von A bezeichnet Man erhält also die i-te Komponente der Lösung x dadurch, dass man den i-ten Spaltenvektor von A durch b ersetzt, die Determinante davon bildet und schließlich das Ganzen noch durch die Determinante der ursprünglichen Matrix A teilt 4
2 Eigenwerte Wir erinnern daran, dass ein Endomorphismus F auf einem Vektorraum V als eine lineare Selbstabbildung auf V definiert ist, also F : V V, linear Den Raum aller Endomorphismen auf V bezeichnen wir mit End(V ) 21 Definition (Eigenwerte): Sei F End(V ), dann nennt man ein λ K einen Eigenwert von F und V v 0 einen Eigenvektor zum Eigenwert λ und zum Endomorphimus F, wenn gilt F (v) = λ v Wir haben gelernt, dass sich jeder Endomorphismus aus V durch eine Matrix darstellen lasst Sei also A F die Matrix, welche F darstellt, dann schreibt sich die Eigenwertbedingung als A F v = λ v 22 Satz: Sei F End(V ) und v 1, v 2,, v k Eigenvektoren zu paarweise verschiedenen Eigenwerten λ 1, λ 2,, λ k, dann sind die Vektoren v 1, v 2,, v k linear unabhängig Nun wollen wir uns an die Arbeit machen, Endomorphismen durch Eigenwerte und Eigenvektoren zu charakterisieren 23 Definition (Diagonalisierbarkeit): Einen Endomorphismus nennt man diagonalisierbar, wenn es eine Basis von Eigenvektoren gibt 24 Hinweis: (1) Für eine gegebene Basis kann man jedem Endomorphismus F eine Matrix A F (Darstellungsgmatrix) zuordnen Dies bedeutet konkret, dass für eine Basis {v i : i = 1, 2,, n} die Komponenten von A F durch F (v i ) = (A F ) ij v j gewonnen werden können (2) Da jede Matrix auch ein Endomorphismus ist, gelten alle Aussagen, welche im Folgenden für Endomorphismen gegeben werden auch für Matrizen Entsprechend spricht man auch von diagonalisierbaren Matrizen (3) Die Bezeichnung Diagonalisierbarkeit rührt daher, dass der Endomorphismus F in der Basis der Eigenvektoren durch eine Diagonalmatrix dargestellt wird Dies wird klar, wenn man sich eine Basis aus Eigenvektoren v i, i {1, 2, 3,, n} konstruiert, denn dann gilt und daher (A F ) ij = λ i δ ij F (v i ) = λ i v i (4) Eine Matrix A M(n n, K) ist genau dann diagonalisierbar, wenn sie ähnlich zu einer Diagonalmatrix ist, dh es gibt eine invertierbare Matrix S Gl(n, K), so dass D = SAS 1 diagonal ist Die Einträge der Matrix D sind dann gerade die Eigenwerte von A, also D = diag(λ 1, λ 2,, λ n ) Für diesen Fall gilt dann die einfache Gleichung det(a) = für die Determinante einer diagonalisierbaren Matrix Als Nächstes wollen wir konkretere Aussagen formulieren, wann ein Endomorphismus diagonalisierbar ist, und wann gerade nicht Dazu führen wir die folgende Schreibweise für den durch die Eigenvektoren zu einem speziellen Eigenwert aufgespannten Raum ein 25 Definition (Eigenraum): Sei F : V V ein Endomorphismus und λ i, i {1, 2,, m} die zugehörigen Eigenwerte, dann nennt man n i=1 Eig(F, λ i ) := {v V : F (v) = λ i v} = ker(f λ i id V ) λ i 5
den Eigenraum von λ i Wenn ein Endomorphismus diagonalisierbar ist, dann zerfällt der Vektorraum V in ein direktes Produkt der Eigenräume zu paarweise verschiedenen Eigenwerten Als Nächstes wollen wir eine Methode angeben mit der sich die Eigenwerte eines Endomorphismus rezeptartig angeben lässt Sei also wiederum F ein Endomorphismus und A F die darstellende Matrix, dann muss wegen v 0 aus der Eigenwertbedingung folgen P F (λ) := det(a F λ 1 n ) = 0 und wir bezeichnen mit µ(p F, λ i ) die algebraische Vielfachheit des Eigenwertes λ i Dies gibt uns das sogenannte charakteristische Polynom P F (λ), dessen Lösungen uns wiederum alle Eigenwerte des Endomorphismus liefert Mit der Eigenwertgleichung lassen sich dann die Eigenvektoren zu den passenden Eigenwerten bestimmen 26 Bemerkung (Algebraische Vielfachheit): Jede algebraische Gleichung lässt sich nach dem Fundamentalsatz der Algebra in C lösen und P F zerfällt in Linearfaktoren, dh P F (λ) = ±(λ λ 1 ) µ(p F,λ 1) (λ λ m ) µ(p F,λ m) mit den Eigenwerten λ i, i {1, 2,, m} Die algebraische Vielfachheit ist somit nichts weiter als die Häufigkeit mit der ein Eigenwert Lösung des charakteristischen Polynoms ist Allgemein bezeichnet man das charkteristische Polynom als zerfallend, wenn es auf die oben angegebene Form gebracht werden kann Der nächste Satz ist das erste zentrale Resultat zur Charakterisierung von Endomorphismen und gibt uns konkrete Bedingungen für die Diagonalisierbarkeit, welche sich meistens konstruktiv ermitteln lassen 27 Satz: Ein Endomorphismus ist diagonalisierbar, wenn gilt (a) Das charakteristische Polynom zerfällt in Linearfaktoren (b) Die algebraische Vielfachheit der Eigenwerte des charakteristischen Polynoms ist gleich der geometrischen Vielfachheit (die Dimension der entsprechenden Eigenräume), dh µ(p F, λ i ) = dim Eig(F, λ i ) Praktisch geht man zum Beweis der Diagonalisierbarkeit folgendermaßen vor Zunächst bestimmt man das charakteristische Polynom eines Endomorphismus und zeigt, ob es in Linearfaktoren zerfällt (man erhält hiermit automatisch die algebraische Vielfachheiten der Eigenwerte) Dann konstruiert man Basen für die Eigenräume Eig(F, λ i ) und erhält dadurch deren Dimensionalität 28 Satz und Definition (Simultane Diagonalisierung): Seien F, G End(V ), dann nennt man F und G simultan diagonalisierbar, falls sie sich bzgl einer gemeinsamen Basis diagonalisieren lassen Dies ist immer dann möglich, wenn F, G diagonalisierbar und gilt F G = G F Nun fehlen uns noch die Fälle, wenn ein Endomorphismus nicht diagonalisierbar ist Dies ist nach den obigen Ausführungen immer dann der Fall, wenn die algebraische Vielfachheit ungleich der geometrischen ist (den Fall, dass das charakteristische Polynom nicht in Linearfaktoren zerfällt, lassen wir hier außer Acht) Dann lässt sich der Endomorphismus aber immer noch in die Form einer oberen Dreiecksmatrix bringen Das motiviert die folgende Definition 29 Definition (Trigonalisierung): Man nennt einen Endomorphismus F End(V ) trigonalisierbar, wenn eine es eine Basis gibt, so dass sich F durch eine obere Dreiecksmatrix darstellen lässt 210 Satz (Charakterisierung der Trigonalisierbarkeit): Ein Endomorphismus in einem endlichdimensionalen Vektorraum ist genau dann trigonalisierbar, wenn das charakteristische Polynom in Linearfaktoren zerfällt 211 Folgerung: Jeder Endomorphismus in einem endlich-dimensionalen komplexen Vektorraum lässt sich trigonalisieren 6
Mit dieser letzten Aussage sind wir mit der eigentlichen Charakterisierung der Endomorphismen auf einem endlich-dimensionalen Vektorraum an ein Ende gelangt Aber leider wissen wir im Falle einer Trigonalisierung nicht, wie die Komponenten der darstellenden Matrix außerhalb der Diagonalen aussehen Eine Darstellung für eine solche Dreiecksmatrix wird durch die Jordan-Normalform gegeben, welche wir im Folgenden erarbeiten wollen Das Problem mit der Trigonalisierung sind, wie schon erwähnt, die zu kleinen Eigenräume Mit der folgenden Definition lassen sich aber Räume der richtigen Dimensionalität erzeugen 212 Definition (Haupträume): Sei F : V V ein Endomorphismus und im Folgenden sei r i := µ(p F, λ i ) immer die algebraischen Vielfachheit, dann nennt man den Hauptraum von F zum Eigenwert λ i 213 Bemerkungen: Hau(F, λ i ) := ker ((F λ i id V ) ri ) (1) Für den Fall r i = 1 gilt immer Hau(F, λ i ) = Eig(F, λ i ) (2) Es gibt ein festes Schema, mit dem man häufig eine Basis für einen Hauptraum erzeugen kann Hat man durch die Eigenwertgleichung (F λ i id V )v 1 = 0 bereits einen Basisvektor gefunden, dann kann man durch (F λ i id V )v 2 = v 1 einen weiteren solchen berechnen Man fährt hierbei sukzessive fort bis man alle Basisvektoren bestimmt hat Man verifiziert dieses Resultat einfach durch Einsetzen und durch Beachtung der Relation ker(f λ i id V ) l 1 ker(f λ i id V ) l 214 Satz (Hauptraumzerlegung): Sei F End(V ) und das charakteristische Polynom zerfalle in die Linearfaktoren P F (λ) = ±(λ λ 1 ) r1 (λ λ m ) rm dann gilt (1) V = m Hau(F, λ i ) i=1 (2) F lässt sich in eine diagonale Matrix F D und eine nilpotente Matrix F N zerlegen, dh F = F D + F N Die Zerlegung ist zudem eindeutig falls man noch F D F N = F N F D fordert (3) F (Hau(F, λ i )) Hau(F, λ i ) und µ(f, λ i ) = dim (Hau(F, λ i )) Die darstellende Matrix A F von F lässt sich daher immer in die Form λ 1 1 r1 + N 1 Ã F = SA F S 1 λ 2 1 r2 + N 2 λm1rm + Nm wobei alle nichtausgefüllten Plätze durch Nullen aufzufüllen sind und diese Blöcke λ i λ i 1 ri + N i = 0 λ i 7
die Gestalt einer oberer Dreiecksmatrizen haben Allgemein kann man natürlich auch jede Matrix A M(n n, K) deren charakteristisches Polynom in Linearfaktoren P A (λ) = ±(λ λ 1 ) r1 (λ λ m ) rm zerfällt auf diese Form transformieren Leider lässt sich jetzt noch keine genauere Aussage über die Einträge der Jordanblöcke oberhalb der Diagonalen machen Dazu werden wir zunächst eine allgemeine Darstellung für nilpotente Endomorphismen vorstellen Für den nächsten Satz benötigen wir die sogenannten wir sogenannten Jordanmatrizen J d, die durch 0 1 0 0 0 0 0 1 0 0 J d := M(d d, K) 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 definiert sind 215 Satz (Darstellung eines nilpotenten Endomorphismus): Sei G ein nilpotenter Endomorphimus auf dem Vektorraum V und d := min{n N : G n = 0}, dann gibt es eindeutige Zahlen s 1, s d N mit d s d + (d 1)s d 1 + + s 1 = dim(v ) und eine Basis, so dass man G durch die Matrix darstellen kann in der die Jordanmatrix J d exakt s d -mal in der Diagonalen vorkommt und zwar J d J d J d 1 Jd 1 J1 wobei die nicht ausgefüllten Felder mit Nullen gefüllt werden Wir geben jetzt einen konstruktiven Weg (für weitere Details siehe Fischer - Lineare Algebra ) an, wie man eine Basis und in der Folge auch die Zahlen s l berechnen kann Hierzu betrachten wir und erhalten folgende Kette dieser Räume U l := ker(g l ) {0} = U 0 U 1 U 2 U d 1 U d = V Hierbei ist zu beachten, dass dies tatsächlich echte Inklusionen sind, also 0 = dim(u 0 ) < dim(u 1 ) < dim(u 2 ) < < dim(u d ) = dim(v ) Ziel ist es nun V mit Hilfe dieser Räume auf solche Art zu zerlegen, dass man hierdurch ein Schema erhält um eine Basis (Jordanbasis) zu berechnen, in welcher der nilpotente Endomorphismus G die oben angegebene Form aus Jordanmatrizen annimmt Wir geben hier nur das Rezept an: (1) Zunächst bestimmen wir die Räume U l Dies geschieht durch Angabe einer Basis (2) Der Vektorraum V wird folgendermaßen zerlegt V = U d 1 W d, wobei natürlich W p U d 1 = {0} und W p + U d 1 = V gelten muss Da wie oben schon erwähnt U d 1 echt kleiner als V ist, lässt sich dies immer dadurch erreichen, indem man Basisvektoren w (d) 1,, w(d) s d für W d aus V auswählt, so dass diese linear unabhängig zu den Basisvektoren von U d 1 sind und w (d) 1,, w(d) s d zusammen mit der Basis aus U d 1 V aufspannt 8
(3) Man fährt nun sukzessive fort, indem man den Raum U d 1 weiter zerlegt, und zwar nach dem selben Schema wie schon zuvor Man erhält also U d 1 = U d 2 W d 1 und wählt sich eine passende Basis für W d (siehe Punkt (4)) Durch die wiederholte Verwendung der Vorschrift U l = U l 1 W l zerlegt man V schlussendlich vollständig in die Räume W l, also V = W 1 W 2 W d (4) Es kann des Weiteren gezeigt werden, dass G(W d ) W d 1 gilt, also kann man die Basisvektoren von W d mit Hilfe des Endomorphismus G auf den Raum W d 1 übertragen Allerdings kann es sein, dass die Vektoren G(w (d) 1 ),, G(w(d) s d ) den Raum W d 1 noch nicht ausspannen In diesem Fall muss man die Vektoren G(w (d) 1 ),, G(w(d) s d ) um weitere dazu linear-unabhängige Vektoren w (d 1) 1,, w s (d 1) d 1 ergänzen um somit eine Basis von W d 1 zu erhalten Durch Anwendung dieses Prinzips auf alle W l lässt sich das folgende Schema ableiten w (d) 1,, w(d) s d G(w (d) 1 ),, G(w(d) s d ), G d 1 (w (d) 1 ),, Gd 1 (w s (d) d ), w (d 1) 1,, w s (d 1) d 1 G d 2 (w (d 1) 1 ),, G d 1 (w s (d 1) d 1 ),, w (1) 1,, w(1) s 1 welches uns durch die folgende Merkregel die Basis gibt, in der G durch die Jordanmatrizenform darsgestellt wird: Man durchlaufe im oben angegebenen Schema die Spalten von unten nach oben und zwar bei der ersten Spalte beginnend und nach rechts fortfahrend Die so erhalten Reihenfolge von Basisvektoren von V ergibt die gewünschte Basis B (5) Die Zahlen s d, welche die Anzahl der Jordanmatrizen J d der Größe d angeben, berechnen sich über die Vorschrift s l = 2 dim(u l ) dim(u l 1 ) dim(u l+1 ) Nach dem Abschluss des noch fehlenden, formellen Teiles der Jordan-Normalform folgt ein Beispiel, mit dem dann hoffentlich klar wird, wie dieses Verfahren abläuft In unserem speziellem Falle wird der Raum V jeweils einer der Haupträume V i := Hau(F, λ i ) sein und G entspricht dann der Einschränkung G i = F λ i 1 ri Vi Dann können wir auch dort eine solche Zerlegung nach dem oben vorgeführten Muster durchführen 216 Jordan-Normalform: Die darstellende Matrix A F zu einem Endomorphismus F End(V ) lässt sich immer in die folgende Form zerlegen λ 1 1 r1 + N 1 λ 2 1 r2 + N 2 A F = λm1rm + Nm und man nennt diese Zerlegung die Jordan-Normalform von F, bzw A F Hierbei haben die Blöcke auf der Diagonalen die Form λ i 1 λ i 1 λ i 1 ri + N i = 1 λi 0 λ i 1 9
sind also die Summe aus der Diagonalmatrix λ i 1 ri und einer Zerlegung der Nilpotenten Matrix N i nach Jordanmatrizen, wie es weiter oben konstruiert wurde Da jeder Jordanblock λ i 1 λ i 1 1 λi 0 die geometrische Vielfachheit 1 besitzt, müssen genau dim Eig(F λ i 1 ri ) Jordanblöcke/Jordanmatrizen zu jedem Eigenwert existieren Die Anzahl der Jordanmatrizen der Größe l ist durch s l = 2 dim(u l ) dim(u l 1 ) dim(u l+1 ) und der Eigenwert kommt pro Block λ i 1 ri + N i in exakt seiner Vielfachheit vor Man geht nun zur Konstruktion der Jordannormalform folgendermaßen vor: 217 Beispiel: Sei gegeben, dann lautet das charakteristische Polynom 2 0 0 0 A = 0 2 0 0 1 0 2 0 0 1 0 2 P A (λ) = (2 λ) 4 und die algebraische Vielfachheit des Eigenwertes λ = 2 beträgt 4 Für den Eigenraum zu λ = 2 gilt aber Eig(A, 2) = span(e 3, e 4 ) und daher ist die geometrische Vielfachheit wesentlich kleiner als die algebraische Daher ist A nicht diagonalisierbar, daher wollen wir im Folgenden A auf Jordan-Normalform bringe Besser geht es nicht Zunächst einmal gilt 0 0 0 0 G := A 2 1 4 = 0 0 0 0 1 0 0 0 0 1 0 0 und G 2 = 0 Wenn wir unser Schema von oben anwenden erhalten wir und wir zerlegen U 1 = Eig(A, 2) = span(e 3, e 4 ) U 2 = R 4 R 4 = U 1 W 2 und wählen für letzteren Raum die Basisvektoren e 1 und e 2 Dann erhalten wir weiterhin e 1 e 2 G(e 1 ) = e 3 G(e 2 ) = e 4 Durch das korrekte Durchlaufen dieses Schemas erhält man die Basis B = {b 1 = e 3, b 2 = e 1, b 3 = e 4, b 4 = e 2 } Wie schon früher erwähnt ist die Reihenfolge entscheidend Dadurch erhält man die Transformationsmatrix 0 1 0 0 T 1 = 0 0 0 1 1 0 0 0 0 0 1 0 10
und es gilt 2 1 0 0 A J = T AT 1 = 0 2 0 0 0 0 2 1 0 0 0 2 Diese Form hätten wir auch ohne Angabe der Jordanbasis hinschreiben können Da wir ausschließlich den Eigenwert λ = 2 haben gibt es sowieso nur einen Eigenwert-Block Wegen dim(u l ) = 4, l 2 sowie dim(u 1 ) = 2 und dim(u 0 ) = 0 ergibt sich s 2 = 8 4 2 = 2 s 1 = 4 4 0 = 0 und daher gibt es zwei Jordanblöcke der Größe 2 und keinen der Größe 1, was unserem vorherigen Ergebnis entspricht 11