Kapitel Eigenwerte und Eigenvektoren. Problem der Diagonalisierbarkeit Es sei wieder K gleich R oder. Eine n n)-matrix A mit Koeffizienten aus K wird als diagonalisierbar bezeichnet, wenn es eine invertierbare Matrix S K n n gibt mit der Eigenschaft λ 0 S A S =... K n n. 0 λ n Bezeichnen nun v...v n die Spalten der Matrix S so liefert Umstellen dieser Beziehung v v v n λ 0 λ v λ v λ n v n A S =...... =... v n v n v nn 0 λ n λ v n λ v n λ n v n bzw. kurz A v = λ v A v n = λ n v n. Die Bestimmung einer solchen Matrix S K n n führt also auf ein sogeanntes Eigenwertproblem. Definition.. Eine nichtverschwindende Lösung v K n {0} der Gleichung A v = λ v heißt ein Eigenvektor zum Eigenwert λ K. In diesem Kapitel betrachten wir Eigenwertprobleme für endlichdimensionale Matrizen. In der Mathematik und Physik spielen jedoch auch Eigenwertprobleme für unendlich dimensionale Probleme eine besonders wichtige Rolle. 8
8 Eigenwerte und Eigenvektoren Ein Beispiel hierfür ist das Auffinden der Eigenzustände des Schrödingeroperators, eines unendlich dimensionalen Differentialoperators. Wir möchten insbesondere auf folgende klassische Literatur verweisen: A. Sommerfeld: Vorlesungen über theoretische Physik, Band 6, Partielle Differentialgleichungen in der Physik.. Der Eigenraum An unsere bisherigen Betrachtungen können wir wie folgt anknüpfen: λ ist genau dann Eigenwert der Matrix A wenn es einen nicht verschwindenden Vektor v K n gibt mit A v = λ v bzw. A λ E n ) v = 0 worin E n die n-dimensionale Einheitsmatrix bedeutet. Mit anderen Worten: Der Kern der linearen Abbildung v A λ E n ) v besitzt neben dem stets vorhandenen Element 0 K n mindestens dieses eine weitere Element v K n. Die Abbildung A λ E n ist also nicht injektiv. Definition.. Es heißt die Menge der Eigenraum der Matrix A. N λ := KernA λ E n ).3 Beispiele Das einfachste Beispiel liefert die Identität id: K n K n vermöge v v. Jedes Element v K wird also auf sich selbst abgebildet. Die Abbildung besitzt den Eigenwert λ = und jedes v K {0} ist Eigenvektor. Da aber auch gilt 0 Kernid E n ) folgern wir N λ = V. Zweitens besitzt die Spiegelung an der Ebene Span{vw} R 3 einen Eigenwert λ = mit Eigenraum N = Span{vw}; einen weiteren Eigenwert λ = mit Eigenraum N = Span{v w}.
.5 Das charakteristische Polynom 83.4 Lineare Unabhängigkeit der Eigenvektoren Wir beweisen den folgenden Satz.. Die Eigenvektoren zu verschiedenen Eigenwerten einer Matrix A sind stets linear unabhängig. Beweis. Es bedeuten λ...λ m verschiedene Eigenwerte, und v...v m bezeichnen zugehörige Eigenvektoren. Die Behauptung ist klar für den speziellen Fall m =. Sei dann die Behauptung auch für ein bereits bewiesen: Die Eigenvektoren v...v zu den zueinander verschiedenen Eigenvektoren λ...λ seien linear unabhängig. Dann sei für Eigenvektoren v...v + zu verschiedenen Eigenwerten λ...λ + α v +... + α + v + = 0 richtig, und wir wollen α =... = α + = 0 folgern. Es ist aber 0 = A λ + E n ) 0 = A λ + E n + ) α k v k = + k= α k A v k λ + v k ) = k= k= α k λ k λ + )v k + α + 0. Die v...v sind aber nach Voraussetzung linear unabhängig, und da auch stets λ k λ + = 0 für alle k =... richtig ist, schließen wir α =... = α = 0. Dann muss aber α + v + = 0 sein, und da v + nicht verschwindet, folgt α + = 0. Folgerung.. Sind λ...λ m paarweise verschiedene Eigenwerte von A und sind B i Basen von N i = KernA λ i E n ) i =...m so bilden diese zusammen genommen eine linear unabhängige Menge M. Beweis. Übungsaufgabe.5 Das charakteristische Polynom Definition Für eine n n)-matrix A wird durch p A x) := deta xe n ) ihr sogenanntes charakteristisches Polynom definiert.
84 Eigenwerte und Eigenvektoren Die Form des charakteristischen Polynoms Eine wichtige Charakterisierung von Eigenwerten beinhaltet der Satz.. Dieses charakteristische Polynom ist von der Form p A x) = x) n + SpurA x) n +... + deta mit der Spur von A gegeben durch SpurA = n k= a kk. Ferner ist λ K n genau dann Eigenwert von A wenn gilt deta λ E n ) = 0 d.h. λ ist Nullstelle des charakteristischen Polynoms. Beweis.. Wir beginnen mit der zweiten Aussage: Es ist λ genau dann Eigenwert von A wenn es ein v = 0 gibt mit A λ E n ) v = 0 gibt. Damit ist v im Kern der linearen Abbildung A λ E n und diese Abbildung ist somit nicht invertierbar, also auch deta λ E n ) = 0 nach Folgerung 0.4 des vorigen Kapitels.. Die im Satz behauptete Form des charakteristischen Polynoms beweist man induktiv. Zunächst einmal machen wir uns klar, dass der Grad dieses Polynoms kleiner, höchstens gleich n ist. Den konstanten Term in p A x) kann man ferner wie folgt bestimmen: p A 0) = deta 0 E n ) = deta. Nun zu den Koeffizienten vor x n und x n : Im Fall n = berechnen wir explizit a x a det = x a x a + a )x + a a a ). a Die Behauptung sei jetzt induktiv für alle k < n bewiesen, wobei n 3. Es sei nun A K n n. Entwicklung nach der ersten Zeile liefert a x a a n a a x a n n..... a. x)p x) + a k P k x) k= a n a n a nn x mit geeigneten Polynomen P x) und P k x) k =...n.
.6 Algebraische und geometrische Vielfachheit 85 Nach Induktionsannahme wissen wir aber a x a n P x) =..... = x) n + a nn x a n n k=a kk x) n +... Es ist wichtig zu bemerken, dass alle anderen P k k =...n Polynome vom Grade höchstens n sind, was sich nach Entwicklung der ersten Zeile ergibt, welche nicht von x abhängt! Insgesamt erhalten wir also n kk x) k=a n deta xe n ) = a x) x) n + +... = x) n + SpurA x) n +... Das war zu zeigen. Anwendung auf ähnliche Matrizen Wir wollen auf den Begriff ähnlicher Matrizen zurück kommen. Satz.3. Ähnliche Matrizen besitzen dasselbe charakteristische Polynom. Beweis. Es seien A und B ähnlich, d.h. mit einer Transformationsmatrix S gilt B = S A S. Dann berechnen wir p B x) = B xe n = S A S xs E n S = S A xe n ) S = S A xe n S = A xe n = p A x) woraus die Behauptung folgt. Die Matrix S wird später aus Eigenvektoren von A aufgebaut..6 Algebraische und geometrische Vielfachheit Definition.3. Ein Eigenwert λ der Matrix A besitzt die algebraische Vielfachheit k N wenn er k-fache Nullstelle des zugehörigen charakteristischen Polynoms ist, d.h. wenn gilt p A x) = x λ ) k qx)
86 Eigenwerte und Eigenvektoren mit einem Polynom q mit der Eigenschaft qλ ) = 0. Die geometrische Vielfachheit von λ hingegen ist definiert als die Dimension des zugehörigen Eigenraums N λ. Betrachten wir ein einfaches Beispiel: Die Matrix λ A = 0 λ besitzt das charakteristische Polynom p A x) = λ x) also ist auch λ ein zweifacher Eigenwert von A. Der zugehörige Eigenraum bestimmt sich aus 0 N λ = KernA λ E) = Kern = Span{e 0 0 } mit e = 0). Die Dimension dieses Eigenraums ist gleich d.h. die geometrische Vielfachheit von λ ist kleiner als dessen algebraische Vielfachheit. Das gilt auch allgemein: Satz.4. Die geometrische Vielfachheit ist höchstens gleich der algebraischen Vielfachheit. Den nicht einfachen Beweis dieser Tatsache belassen wir als eine Übungsaufgabe. Summe und Produkte der Eigenwerte Den Vietaschen Wurzelsätzen entnimmt man auch den folgenden Satz.5. Sind λ...λ r die verschiedenen reellen Nullstellen des charakteristischen Polynoms der Matrix A und bezeichnen k...k r die zugehörigen Ordnungen bzw. algebraischen Vielfachheiten, so gelten SpurA = k λ +...k r λ r sowie deta = λ k... λ k r r..7 Diagonalisierbarkeit Wir wollen nun den Begriff der Diagonalisierbarkeit präzisieren. Definition.4. Eine lineare Abbildung L auf dem Vektorraum V über dem Körper K heißt diagonalisierbar, falls es eine nur aus Eigenvektoren bestehende Basis B = {v...v n } von V gibt, d.h. es gelten Lv k ) = λ k v k für k =...n mit Eigenwerten λ k K.
.7 Diagonalisierbarkeit 87 Die Abbildungsmatrix bez. dieser ausgezeichneten Basis besitzt also die Form λ 0 M B B L) =.... 0 λ n Der Sinn der Diagonalisierung besteht also darin, eine Basis zu finden, bezüglich derer sich eine gegeben lineare Abbildung möglichst einfach schreiben läßt! Satz.6. Die Matrix A ist genau dann diagonalisierbar, wenn ihr charakteristisches Polynom p A x) über dem Körper K in Linearfaktoren zerfällt und für jede Nullstelle von p A x) die algebraische Vielfachheit und die geometrische Vielfachheit übereinstimmen. Insbesondere ist A sicher dann diagonalisierbar, wenn ihr charakteristisches Polynom n verschiedene Nullstellen in K hat. Bevor wir zum Beweis dieses Satzes kommen, einige wichtige Bemerkungen: Über dem Körper der komplexen Zahlen der komplexen Zahlen läßt sich nach dem Fundamentalsatz der Algebra jedes Polynom n-ten Grades in genau n Linearfaktoren x β i aufspalten: p A x) = n k=0 α k x k = c n i= x β i ). Man sagt, dass Polynom zerfällt in seine Linearfaktoren. Ob also eine Matrix diagonalisierbar ist, hängt vom verwendeten Zahlenkörper ab; dieser muss demnach groß genug sein. Und noch ein Beispiel zur zweiten Bedingung im Satz: Die Matrix A = 0 besitzt den einzigen Eigenwert λ = der algebraischen Vielfachheit. Der zugehörige Eigenraum ist aber Span{e } und besitzt die Dimension d.h. die geometrische Vielfachheit von λ ist gleich. Algebraische und geometrische Vielfachheit stimmen nicht überein! Es kann also zwei Gründe geben, warum die Diagonalisierbarkeit scheitern kann: der verwendete Zahlenkörper ist zu klein; es sind nicht genügend Eigenwerte vorhanden. Nun aber zum Beweis des Satzes. Beweis. Wir identifizieren die Matrix A mit der zugehörigen linearen Abbildung L.. L sei diagonalisierbar, d.h. wir wissen Lv k ) = λ k v k für k =...n und B = {v...v n } bildet eine Basis von V. Die Abbildungsmatrix M B BL) besitzt dann die oben angegebene Diagonalgestalt.
88 Eigenwerte und Eigenvektoren Bezeichnen wir diese kurz mit D so lautet das zugehörige charakteristische Polynom p L x) = p D x) = D xe n. Seien nun µ... µ r die verschiedenen Nullstellen von p L x) und k...k r die zugehörigen algebraischen Vielfachheiten. Wir denken uns die Basisvektoren der Art sortiert, dass Wir zeigen nun λ =... = λ k = µ... λ n kr + =... = λ n = µ r. dimn µ = k woraus wir schließen, dass die geometrische Vielfachheit von µ gleich der algebraischen Vielfachheit ist. Durch eventuelles Umnummerieren und Umsortieren zeigt man auf die gleiche Weise dimn µi = k i. Wir betrachten also einen Vektor v N µ mit den Koordinaten bez. der Basis B. Wir ermitteln v B = x = x...x n ) v N µ D µ E n ) v = 0 λ k µ k )x k = 0 für k > k x k = 0 für k > k x Span{e...e k }. Also folgt dimn µ = dimkernd µ E n ) = k.. Seien nun andererseits µ...µ r die verschiedenen Eigenwerte von L und k...k n die zugehörigen algebraischen Vielfachheiten (Ordnungen) mit dimn µi = k i für i =...r. Es gelte ferner r k i = n. i= Sind nun B eine Basis von N µ B eine Basis von N µ usw., so bildet die Menge B = B B... B r eine Basis des gesamten Raumes V. 3. Hat schließlich L lauter verschiedene Eigenwerte λ...λ n und bezeichnen v...v n die zugehörigen Eigenvektoren, so sind diese linear unabhängig und bilden damit eine Basis von V.
.8 Beispiele 89.8 Beispiele Spiegelung an einer Ebene Es seien v R 3 und w R 3 linear unabhängig, E = Span{vw}. Die Spiegelung an der Ebene E bez. der Basis {vwv w} besitzt dann die Diagonalgestalt 0 0. 0 0 0 0 Das ist die einfachste algebraische Beschreibung dieser geometrischen Operation. Ein dreidimensionales Beispiel Die Matrix A = besitzt das charakteristische Polynom p A x) = x) 3 3 x) + = z 3 3z + mit z := x. Offenbar ist z = eine Nullstelle. Eine Polynomdivision ergibt dann z 3 3z + ) = z )z + z ) = z )z )z + ) d.h. z = bzw. x = ist zweifache Nullstelle, z = bzw. x = 4 einfache. Die Nullstellen des charakteristischen Polynoms sind also Der Eigenraum N zu λ = ist gleich λ = (zweifach) λ = 4 (einfach). KernA E 3 ) = Kern. Diese Matrix besitzt den Rang und nach dem Kern-Bild-Satz ist daher ihr Kern zweidimensional: Die algebraische Vielfachheit und die geometrische Vielfachheit des Eigenwerts λ = stimmen also überein! Entsprechendes verifiziert man auch für λ (klar machen!). Insgesamt folgt, dass A diagonalisierbar ist. Wir wollen aber N explizit bestimmen: N ist Lösungsmenge der einen Gleichung x + x + x 3 = 0.
90 Eigenwerte und Eigenvektoren Hierin führen wir zwei freie Parameter x = α und x = β ein und erhalten die Darstellung α β = α 0 + β 0 αv + β w α β und somit gilt N = Span{vw}. Wir bestimmen noch exemplarisch N : Dazu ist das LGS x x = 4 x x x 3 zu lösen. Hierzu wenden wir Gaußsche Eliminationsverfahren an und erhalten nach einigen Umformungen x 3 geht über in 0 Also ist N Lösungsmenge des linearen Gleichungssystems x x + x 3 = 0 x x 3 = 0. Wir führen einen freien Parameter x 3 = α ein und erhalten N = Span{)}. Durch Probe möge man dies bestätigen. Schließlich bemerken wir, dass die drei Eigenvektoren 0 ) 0 ) ) linear unabhängig sind und damit eine Basis des gesamten Raumes R 3 bilden (klar machen!). Nun setzen wir mit diesen Eigenvektoren S = 0 0 mit der Inversen S = 4 4. 6
.8 Beispiele 9 Jetzt berechnen wir S A S = 4 4 6 0 0 = 4 4 0 4 0 4 = 6 0 0 0 6 0 6 6 8 0 0 4 = 0 0. 0 0 0 0 4 Diese rechte Matrix ist die Matrix B welche die lineare Abbildung beschreibt innerhalb derjenigen Basis des R 3 welche aus den drei Basisvektoren besteht. Ihre Wirkung im Raum entspricht der Wirkung der Ausgangsmatrix A sie unterscheiden sich allerdings in ihrer algebraischen Darstellung: die Darstellung als Matrix B ist offenbar die einfachste Möglichkeit. Die Matrizen A und B sind einander ähnlich.