Kapitel 11 Eigenwerte und Eigenvektoren

Ähnliche Dokumente
Ausgewählte Lösungen zu den Übungsblättern 9-10

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Eigenwerte und Diagonalisierung

3.7 Eigenwerte und Eigenvektoren

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Lineare Algebra und analytische Geometrie I

5 Diagonalisierbarkeit

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2

2.2 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

Berechnung der Determinante

Musterlösungen zur Linearen Algebra II Übungsklausur

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF

6.3 Eigenwerte. γ ist Eigenwert von T [T] B B γi ist nicht invertierbar.

9. Übungsblatt zur Mathematik I für Maschinenbau

Lineare Algebra II 3. Übungsblatt

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Klausurenkurs zum Staatsexamen (SS 2013): Lineare Algebra und analytische Geometrie 3 Lösungsvorschlag

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Übungen zum Ferienkurs Lineare Algebra 2015/2016: Lösungen

Übungen zum Ferienkurs Lineare Algebra 2015/2016: Lösungen

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Klausurenkurs zum Staatsexamen (WS 2016/17): Lineare Algebra und analytische Geometrie 4

1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y.

Mathematik für Physiker, Informatiker und Ingenieure

Lineare Algebra für Physiker 11. Übungsblatt

Eigenwerte (Teschl/Teschl 14.2)

Musterlösungen zur Linearen Algebra II Weihnachtszettel

Mathematik II Frühjahrssemester 2013

45 Eigenwerte und Eigenvektoren

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2018/2019

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Lineare Algebra und Numerische Mathematik für D-BAUG

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 4

Lineare Algebra II 8. Übungsblatt

Übungen zum Ferienkurs Ferienkurs Lineare Algebra für Physiker WiSe 2017/18 Blatt 3 - Lösung

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 5

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

3.3 Das charakteristische Polynom

Lineare Algebra und Analytische Geometrie I für die Fachrichtung Informatik

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

Mathematik I. Vorlesung 16. Eigentheorie

MC-Serie 11: Eigenwerte

4 Eigenwerte und Eigenvektoren

Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 2016

5.2 Diagonalisierbarkeit und Trigonalisierung

13. Vorlesung. Lineare Algebra und Koordinatenwechsel.

2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren

Klausur Lineare Algebra I am Es sind insgesamt 60 Punkte bei der Klausur zu erreichen.

2.11 Eigenwerte und Diagonalisierbarkeit

und Unterdeterminante

und Unterdeterminante

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013

13. Lineare Algebra und Koordinatenwechsel.

6 Hauptachsentransformation

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9

Eigenwerte und Eigenvektoren von Matrizen

5. Übung zur Linearen Algebra II -

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren

3 a) Berechnen Sie die normierte Zeilenstufenform der Matrix A = normierte Zeilenstufenform:

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Lineare Algebra I für Mathematiker Lösungen

Lineare Algebra: Determinanten und Eigenwerte

Prüfung Lineare Algebra , B := ( ), C := 1 1 0

Lineare Differentialgleichungen

Übungen zur Vorlesung Lineare Algebra II, SoSe 2016, Blatt 1

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

7.3 Unitäre Operatoren

5 Eigenwerte und die Jordansche Normalform

2.2 Kern und Bild; Basiswechsel

Höhere Mathematik I. Variante B

Transkript:

Kapitel Eigenwerte und Eigenvektoren. Problem der Diagonalisierbarkeit Es sei wieder K gleich R oder. Eine n n)-matrix A mit Koeffizienten aus K wird als diagonalisierbar bezeichnet, wenn es eine invertierbare Matrix S K n n gibt mit der Eigenschaft λ 0 S A S =... K n n. 0 λ n Bezeichnen nun v...v n die Spalten der Matrix S so liefert Umstellen dieser Beziehung v v v n λ 0 λ v λ v λ n v n A S =...... =... v n v n v nn 0 λ n λ v n λ v n λ n v n bzw. kurz A v = λ v A v n = λ n v n. Die Bestimmung einer solchen Matrix S K n n führt also auf ein sogeanntes Eigenwertproblem. Definition.. Eine nichtverschwindende Lösung v K n {0} der Gleichung A v = λ v heißt ein Eigenvektor zum Eigenwert λ K. In diesem Kapitel betrachten wir Eigenwertprobleme für endlichdimensionale Matrizen. In der Mathematik und Physik spielen jedoch auch Eigenwertprobleme für unendlich dimensionale Probleme eine besonders wichtige Rolle. 8

8 Eigenwerte und Eigenvektoren Ein Beispiel hierfür ist das Auffinden der Eigenzustände des Schrödingeroperators, eines unendlich dimensionalen Differentialoperators. Wir möchten insbesondere auf folgende klassische Literatur verweisen: A. Sommerfeld: Vorlesungen über theoretische Physik, Band 6, Partielle Differentialgleichungen in der Physik.. Der Eigenraum An unsere bisherigen Betrachtungen können wir wie folgt anknüpfen: λ ist genau dann Eigenwert der Matrix A wenn es einen nicht verschwindenden Vektor v K n gibt mit A v = λ v bzw. A λ E n ) v = 0 worin E n die n-dimensionale Einheitsmatrix bedeutet. Mit anderen Worten: Der Kern der linearen Abbildung v A λ E n ) v besitzt neben dem stets vorhandenen Element 0 K n mindestens dieses eine weitere Element v K n. Die Abbildung A λ E n ist also nicht injektiv. Definition.. Es heißt die Menge der Eigenraum der Matrix A. N λ := KernA λ E n ).3 Beispiele Das einfachste Beispiel liefert die Identität id: K n K n vermöge v v. Jedes Element v K wird also auf sich selbst abgebildet. Die Abbildung besitzt den Eigenwert λ = und jedes v K {0} ist Eigenvektor. Da aber auch gilt 0 Kernid E n ) folgern wir N λ = V. Zweitens besitzt die Spiegelung an der Ebene Span{vw} R 3 einen Eigenwert λ = mit Eigenraum N = Span{vw}; einen weiteren Eigenwert λ = mit Eigenraum N = Span{v w}.

.5 Das charakteristische Polynom 83.4 Lineare Unabhängigkeit der Eigenvektoren Wir beweisen den folgenden Satz.. Die Eigenvektoren zu verschiedenen Eigenwerten einer Matrix A sind stets linear unabhängig. Beweis. Es bedeuten λ...λ m verschiedene Eigenwerte, und v...v m bezeichnen zugehörige Eigenvektoren. Die Behauptung ist klar für den speziellen Fall m =. Sei dann die Behauptung auch für ein bereits bewiesen: Die Eigenvektoren v...v zu den zueinander verschiedenen Eigenvektoren λ...λ seien linear unabhängig. Dann sei für Eigenvektoren v...v + zu verschiedenen Eigenwerten λ...λ + α v +... + α + v + = 0 richtig, und wir wollen α =... = α + = 0 folgern. Es ist aber 0 = A λ + E n ) 0 = A λ + E n + ) α k v k = + k= α k A v k λ + v k ) = k= k= α k λ k λ + )v k + α + 0. Die v...v sind aber nach Voraussetzung linear unabhängig, und da auch stets λ k λ + = 0 für alle k =... richtig ist, schließen wir α =... = α = 0. Dann muss aber α + v + = 0 sein, und da v + nicht verschwindet, folgt α + = 0. Folgerung.. Sind λ...λ m paarweise verschiedene Eigenwerte von A und sind B i Basen von N i = KernA λ i E n ) i =...m so bilden diese zusammen genommen eine linear unabhängige Menge M. Beweis. Übungsaufgabe.5 Das charakteristische Polynom Definition Für eine n n)-matrix A wird durch p A x) := deta xe n ) ihr sogenanntes charakteristisches Polynom definiert.

84 Eigenwerte und Eigenvektoren Die Form des charakteristischen Polynoms Eine wichtige Charakterisierung von Eigenwerten beinhaltet der Satz.. Dieses charakteristische Polynom ist von der Form p A x) = x) n + SpurA x) n +... + deta mit der Spur von A gegeben durch SpurA = n k= a kk. Ferner ist λ K n genau dann Eigenwert von A wenn gilt deta λ E n ) = 0 d.h. λ ist Nullstelle des charakteristischen Polynoms. Beweis.. Wir beginnen mit der zweiten Aussage: Es ist λ genau dann Eigenwert von A wenn es ein v = 0 gibt mit A λ E n ) v = 0 gibt. Damit ist v im Kern der linearen Abbildung A λ E n und diese Abbildung ist somit nicht invertierbar, also auch deta λ E n ) = 0 nach Folgerung 0.4 des vorigen Kapitels.. Die im Satz behauptete Form des charakteristischen Polynoms beweist man induktiv. Zunächst einmal machen wir uns klar, dass der Grad dieses Polynoms kleiner, höchstens gleich n ist. Den konstanten Term in p A x) kann man ferner wie folgt bestimmen: p A 0) = deta 0 E n ) = deta. Nun zu den Koeffizienten vor x n und x n : Im Fall n = berechnen wir explizit a x a det = x a x a + a )x + a a a ). a Die Behauptung sei jetzt induktiv für alle k < n bewiesen, wobei n 3. Es sei nun A K n n. Entwicklung nach der ersten Zeile liefert a x a a n a a x a n n..... a. x)p x) + a k P k x) k= a n a n a nn x mit geeigneten Polynomen P x) und P k x) k =...n.

.6 Algebraische und geometrische Vielfachheit 85 Nach Induktionsannahme wissen wir aber a x a n P x) =..... = x) n + a nn x a n n k=a kk x) n +... Es ist wichtig zu bemerken, dass alle anderen P k k =...n Polynome vom Grade höchstens n sind, was sich nach Entwicklung der ersten Zeile ergibt, welche nicht von x abhängt! Insgesamt erhalten wir also n kk x) k=a n deta xe n ) = a x) x) n + +... = x) n + SpurA x) n +... Das war zu zeigen. Anwendung auf ähnliche Matrizen Wir wollen auf den Begriff ähnlicher Matrizen zurück kommen. Satz.3. Ähnliche Matrizen besitzen dasselbe charakteristische Polynom. Beweis. Es seien A und B ähnlich, d.h. mit einer Transformationsmatrix S gilt B = S A S. Dann berechnen wir p B x) = B xe n = S A S xs E n S = S A xe n ) S = S A xe n S = A xe n = p A x) woraus die Behauptung folgt. Die Matrix S wird später aus Eigenvektoren von A aufgebaut..6 Algebraische und geometrische Vielfachheit Definition.3. Ein Eigenwert λ der Matrix A besitzt die algebraische Vielfachheit k N wenn er k-fache Nullstelle des zugehörigen charakteristischen Polynoms ist, d.h. wenn gilt p A x) = x λ ) k qx)

86 Eigenwerte und Eigenvektoren mit einem Polynom q mit der Eigenschaft qλ ) = 0. Die geometrische Vielfachheit von λ hingegen ist definiert als die Dimension des zugehörigen Eigenraums N λ. Betrachten wir ein einfaches Beispiel: Die Matrix λ A = 0 λ besitzt das charakteristische Polynom p A x) = λ x) also ist auch λ ein zweifacher Eigenwert von A. Der zugehörige Eigenraum bestimmt sich aus 0 N λ = KernA λ E) = Kern = Span{e 0 0 } mit e = 0). Die Dimension dieses Eigenraums ist gleich d.h. die geometrische Vielfachheit von λ ist kleiner als dessen algebraische Vielfachheit. Das gilt auch allgemein: Satz.4. Die geometrische Vielfachheit ist höchstens gleich der algebraischen Vielfachheit. Den nicht einfachen Beweis dieser Tatsache belassen wir als eine Übungsaufgabe. Summe und Produkte der Eigenwerte Den Vietaschen Wurzelsätzen entnimmt man auch den folgenden Satz.5. Sind λ...λ r die verschiedenen reellen Nullstellen des charakteristischen Polynoms der Matrix A und bezeichnen k...k r die zugehörigen Ordnungen bzw. algebraischen Vielfachheiten, so gelten SpurA = k λ +...k r λ r sowie deta = λ k... λ k r r..7 Diagonalisierbarkeit Wir wollen nun den Begriff der Diagonalisierbarkeit präzisieren. Definition.4. Eine lineare Abbildung L auf dem Vektorraum V über dem Körper K heißt diagonalisierbar, falls es eine nur aus Eigenvektoren bestehende Basis B = {v...v n } von V gibt, d.h. es gelten Lv k ) = λ k v k für k =...n mit Eigenwerten λ k K.

.7 Diagonalisierbarkeit 87 Die Abbildungsmatrix bez. dieser ausgezeichneten Basis besitzt also die Form λ 0 M B B L) =.... 0 λ n Der Sinn der Diagonalisierung besteht also darin, eine Basis zu finden, bezüglich derer sich eine gegeben lineare Abbildung möglichst einfach schreiben läßt! Satz.6. Die Matrix A ist genau dann diagonalisierbar, wenn ihr charakteristisches Polynom p A x) über dem Körper K in Linearfaktoren zerfällt und für jede Nullstelle von p A x) die algebraische Vielfachheit und die geometrische Vielfachheit übereinstimmen. Insbesondere ist A sicher dann diagonalisierbar, wenn ihr charakteristisches Polynom n verschiedene Nullstellen in K hat. Bevor wir zum Beweis dieses Satzes kommen, einige wichtige Bemerkungen: Über dem Körper der komplexen Zahlen der komplexen Zahlen läßt sich nach dem Fundamentalsatz der Algebra jedes Polynom n-ten Grades in genau n Linearfaktoren x β i aufspalten: p A x) = n k=0 α k x k = c n i= x β i ). Man sagt, dass Polynom zerfällt in seine Linearfaktoren. Ob also eine Matrix diagonalisierbar ist, hängt vom verwendeten Zahlenkörper ab; dieser muss demnach groß genug sein. Und noch ein Beispiel zur zweiten Bedingung im Satz: Die Matrix A = 0 besitzt den einzigen Eigenwert λ = der algebraischen Vielfachheit. Der zugehörige Eigenraum ist aber Span{e } und besitzt die Dimension d.h. die geometrische Vielfachheit von λ ist gleich. Algebraische und geometrische Vielfachheit stimmen nicht überein! Es kann also zwei Gründe geben, warum die Diagonalisierbarkeit scheitern kann: der verwendete Zahlenkörper ist zu klein; es sind nicht genügend Eigenwerte vorhanden. Nun aber zum Beweis des Satzes. Beweis. Wir identifizieren die Matrix A mit der zugehörigen linearen Abbildung L.. L sei diagonalisierbar, d.h. wir wissen Lv k ) = λ k v k für k =...n und B = {v...v n } bildet eine Basis von V. Die Abbildungsmatrix M B BL) besitzt dann die oben angegebene Diagonalgestalt.

88 Eigenwerte und Eigenvektoren Bezeichnen wir diese kurz mit D so lautet das zugehörige charakteristische Polynom p L x) = p D x) = D xe n. Seien nun µ... µ r die verschiedenen Nullstellen von p L x) und k...k r die zugehörigen algebraischen Vielfachheiten. Wir denken uns die Basisvektoren der Art sortiert, dass Wir zeigen nun λ =... = λ k = µ... λ n kr + =... = λ n = µ r. dimn µ = k woraus wir schließen, dass die geometrische Vielfachheit von µ gleich der algebraischen Vielfachheit ist. Durch eventuelles Umnummerieren und Umsortieren zeigt man auf die gleiche Weise dimn µi = k i. Wir betrachten also einen Vektor v N µ mit den Koordinaten bez. der Basis B. Wir ermitteln v B = x = x...x n ) v N µ D µ E n ) v = 0 λ k µ k )x k = 0 für k > k x k = 0 für k > k x Span{e...e k }. Also folgt dimn µ = dimkernd µ E n ) = k.. Seien nun andererseits µ...µ r die verschiedenen Eigenwerte von L und k...k n die zugehörigen algebraischen Vielfachheiten (Ordnungen) mit dimn µi = k i für i =...r. Es gelte ferner r k i = n. i= Sind nun B eine Basis von N µ B eine Basis von N µ usw., so bildet die Menge B = B B... B r eine Basis des gesamten Raumes V. 3. Hat schließlich L lauter verschiedene Eigenwerte λ...λ n und bezeichnen v...v n die zugehörigen Eigenvektoren, so sind diese linear unabhängig und bilden damit eine Basis von V.

.8 Beispiele 89.8 Beispiele Spiegelung an einer Ebene Es seien v R 3 und w R 3 linear unabhängig, E = Span{vw}. Die Spiegelung an der Ebene E bez. der Basis {vwv w} besitzt dann die Diagonalgestalt 0 0. 0 0 0 0 Das ist die einfachste algebraische Beschreibung dieser geometrischen Operation. Ein dreidimensionales Beispiel Die Matrix A = besitzt das charakteristische Polynom p A x) = x) 3 3 x) + = z 3 3z + mit z := x. Offenbar ist z = eine Nullstelle. Eine Polynomdivision ergibt dann z 3 3z + ) = z )z + z ) = z )z )z + ) d.h. z = bzw. x = ist zweifache Nullstelle, z = bzw. x = 4 einfache. Die Nullstellen des charakteristischen Polynoms sind also Der Eigenraum N zu λ = ist gleich λ = (zweifach) λ = 4 (einfach). KernA E 3 ) = Kern. Diese Matrix besitzt den Rang und nach dem Kern-Bild-Satz ist daher ihr Kern zweidimensional: Die algebraische Vielfachheit und die geometrische Vielfachheit des Eigenwerts λ = stimmen also überein! Entsprechendes verifiziert man auch für λ (klar machen!). Insgesamt folgt, dass A diagonalisierbar ist. Wir wollen aber N explizit bestimmen: N ist Lösungsmenge der einen Gleichung x + x + x 3 = 0.

90 Eigenwerte und Eigenvektoren Hierin führen wir zwei freie Parameter x = α und x = β ein und erhalten die Darstellung α β = α 0 + β 0 αv + β w α β und somit gilt N = Span{vw}. Wir bestimmen noch exemplarisch N : Dazu ist das LGS x x = 4 x x x 3 zu lösen. Hierzu wenden wir Gaußsche Eliminationsverfahren an und erhalten nach einigen Umformungen x 3 geht über in 0 Also ist N Lösungsmenge des linearen Gleichungssystems x x + x 3 = 0 x x 3 = 0. Wir führen einen freien Parameter x 3 = α ein und erhalten N = Span{)}. Durch Probe möge man dies bestätigen. Schließlich bemerken wir, dass die drei Eigenvektoren 0 ) 0 ) ) linear unabhängig sind und damit eine Basis des gesamten Raumes R 3 bilden (klar machen!). Nun setzen wir mit diesen Eigenvektoren S = 0 0 mit der Inversen S = 4 4. 6

.8 Beispiele 9 Jetzt berechnen wir S A S = 4 4 6 0 0 = 4 4 0 4 0 4 = 6 0 0 0 6 0 6 6 8 0 0 4 = 0 0. 0 0 0 0 4 Diese rechte Matrix ist die Matrix B welche die lineare Abbildung beschreibt innerhalb derjenigen Basis des R 3 welche aus den drei Basisvektoren besteht. Ihre Wirkung im Raum entspricht der Wirkung der Ausgangsmatrix A sie unterscheiden sich allerdings in ihrer algebraischen Darstellung: die Darstellung als Matrix B ist offenbar die einfachste Möglichkeit. Die Matrizen A und B sind einander ähnlich.