Lineare Algebra und analytische Geometrie I

Ähnliche Dokumente
Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

Lineare Algebra und analytische Geometrie I

Mathematik I. Vorlesung 12. Lineare Abbildungen

Mathematik für Anwender I

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I

Mathematik I. Vorlesung 16. Eigentheorie

Mathematik für Anwender I

Lineare Algebra und analytische Geometrie II

5 Minimalpolynom und charakteristisches Polynom

Mathematik für Anwender I

Lineare Algebra und analytische Geometrie I

Mathematik für Anwender I

Lineare Algebra: Determinanten und Eigenwerte

Mathematik für Physiker, Informatiker und Ingenieure

Klausur zu. Lineare Algebra II. Viel Erfolg! Fachbereich Mathematik WS 2012/13 Dr. habil. Matthias Schneider. Bonus Note. Aufgabe

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I

Lineare Algebra II 6. Übungsblatt

Lineare Algebra und analytische Geometrie I

Mathematik I. Vorlesung 14. Rang von Matrizen

10.2 Begleitmatrix, Satz von Cayley-Hamilton und Minimalpolynom

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG

Körper- und Galoistheorie

2.11 Eigenwerte und Diagonalisierbarkeit

Einführung in die Algebra

Körper- und Galoistheorie

Lineare Algebra I (WS 13/14)

Einführung in die Algebra

Lineare Algebra und analytische Geometrie II

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Eigenwerte und Eigenvektoren

3.3 Das charakteristische Polynom

Mathematik III. Vorlesung 68. Das Verhalten von Maßen bei linearen Abbildungen

Lineare Algebra und analytische Geometrie I

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit.

(1) In dieser Aufgabe kreuzen Sie bitte nur die Antworten an, die Sie für richtig halten. Eine Begründung wird nicht verlangt.

Eigenwerte und Diagonalisierung

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

6.3 Eigenwerte. γ ist Eigenwert von T [T] B B γi ist nicht invertierbar.

7.2 Die adjungierte Abbildung

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Proseminar Lineare Algebra II, SS 11. Blatt

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen

Zeigen Sie, dass der einzige Gruppenhomomorphismus von (G, ) nach (Z 5, +) die Abbildung Φ : G Z 5

Aufgabe I.1 (4 Punkte) Gegeben seien die Matrix H := und die Menge L := {A R 4 4 A HA = H} Zeigen Sie:

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.

Übungen zu Lineare Algebra und Geometrie 1

i) ii) iii) iv) i) ii) iii) iv) v) gilt (Cauchy-Schwarz-Ungleichung): Winkel zwischen zwei Vektoren : - Für schreibt man auch.

3 Determinanten, Eigenwerte, Normalformen

KLAUSUR ZUR LINEAREN ALGEBRA I 22. Februar 2008

Prüfung EM1 28. Jänner 2008 A :=

und Unterdeterminante

4 Lineare Algebra (Teil 2): Quadratische Matrizen

Lineare Schieberegisterfolgen

Lineare Algebra und Analytische Geometrie I für die Fachrichtung Informatik

1. Hausübung ( )

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger

Lineare Algebra I Zusammenfassung

Lineare Algebra und analytische Geometrie I

Lineare Differenzengleichungen

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Lineare Algebra und analytische Geometrie II

6 Eigenwerte und Eigenvektoren

R 3 und U := [e 2, e 3 ] der von e 2, e 3 erzeugte

5. Übung zur Linearen Algebra II -

MC-Serie 11: Eigenwerte

4 Lineare Abbildungen und Matrizen

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y.

Prüfung Lineare Algebra , B := ( ), C := 1 1 0

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 6 (WS 2010/2011) Abgabetermin: Donnerstag, 27. November

Einführung in die Algebra

Euklidische und unitäre Vektorräume

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform

6. Normale Abbildungen

Lineare Algebra II Lösungen zu ausgewählten Aufgaben

23. Die Jordan sche Normalform

Übungen zu Lineare Algebra und Geometrie für LAK

V. Lineare Algebra. 35 Lineare Abbildungen und Matrizen. 156 V. Lineare Algebra

Lösungsskizze zur Wiederholungsserie

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

Analysis II. Vorlesung 48. Die Hesse-Form

Zusammenfassung zum Thema Vektor- und Matrizenrechnung

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Klausurvorbereitungsblatt Lineare Algebra

5 Lineare Algebra (Teil 3): Skalarprodukt

Testklausur II mit Lösungen

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

Lineare Algebra und analytische Geometrie II

4 Eigenwerte und Eigenvektoren

Transkript:

Prof. Dr. H. Brenner Osnabrück WS 2015/2016 Lineare Algebra und analytische Geometrie I Vorlesung 24 Das Lernen und der Orgasmus finden letztlich im Kopf statt Der Satz von Cayley-Hamilton Arthur Cayley (1821-1895) William Hamilton (1805-1865) Einer der Höhepunkte dieses Kurses ist der Satz von Cayley-Hamilton. Um ihn formulieren zu können erinnern wir daran, dass man in Polynome quadratische Matrizen einsetzen kann, siehe die 20. Vorlesung. Dabei ersetzt man an jeder Stelle die Variable X durch die Matrix M und muss die Potenzen M i als das i-te Matrixprodukt von M mit sich selbst verstehen und die Addition als die (komponentenweise) Addition von Matrizen interpretieren. Ein Skalar a wird dabei als das a-fache der Einheitsmatrix interpretiert. Für das Polynom und die Matrix P = 3X 2 5X +2 M = ( ) 2 4 3 1 1

2 ist also ( ) 2 ( ) 2 4 2 4 P(M) = 3 5 +2 3 1 3 1 ( )( ) 3 0 16 12 = + 0 3 9 13 ( ) 40 16 =. 12 36 ( 5 0 0 5 )( ) 2 4 + 3 1 ( ) 2 0 0 2 Zu einer fixierten Matrix M Mat n (K) gibt es also eine Einsetzungsabbildung K[X] Mat n (K), P P(M). Dies ist - ebenso wie die Einsetzungsabbildung zu a K - ein Ringhomomorphismus, d.h. es gelten die Beziehungen (P+Q)(M) = P(M)+Q(M), (P Q)(M) = P(M) Q(M) und 1(M) = E n. Der Satz von Cayley-Hamilton beantwortet nun die Frage, was passiert, wenn man eine Matrix in ihr charakteristisches Polynom einsetzt. Satz 24.1. Es sei K ein Körper und sei M eine n n-matrix über K. Es sei χ M = X n +c n 1 X n 1 + +c 1 X +c 0 das charakteristische Polynom zu M. Dann gilt χ M (M) = M n +c n 1 M n 1 + +c 1 M +c 0 = 0. Das heißt, dass die Matrix das charakteristische Polynom annulliert. Beweis. Wir fassen die Matrix XE n M als eine Matrix auf, deren Einträge im Körper K(X) liegen. Die adjungierte Matrix Adj(XE n M) liegt ebenfalls in Mat n (K(X)). Die einzelnen Einträge der adjungierten Matrix sind nach Definition Determinanten von (n 1) (n 1)-Untermatrizen vonxe n M.IndenEinträgendieserMatrixkommtdieVariableX maximal in der ersten Potenz vor, so dass in den Einträgen der adjungierten Matrix die Variable maximal in der (n 1)-ten Potenz vorkommt. Wir schreiben Adj(XE n M) = X n 1 A n 1 +X n 2 A n 2 + +XA 1 +A 0 mit Matrizen A i Mat n (K), d.h. man schreibt die einzelnen Einträge als Polynom und fasst dann zu X i die Koeffizienten zu einer Matrix zusammen. Aufgrund von Satz 17.9 gilt χ M E n = (XE n M) Adj(XE n M) = (XE n M) (X n 1 A n 1 +X n 2 A n 2 + +XA 1 +A 0 ) = X n A n 1 +X n 1 (A n 2 M A n 1 ) +X n 2 (A n 3 M A n 2 )

+ +X 1 (A 0 M A 1 ) M A 0. Wir können auch die Matrix links nach den Potenzen von X aufteilen, dann ist χ M E n = X n E n +X n 1 c n 1 E n +X n 2 c n 2 E n + +X 1 c 1 E n +c 0 E n. Da diese zwei Polynome übereinstimmen, müssen jeweils ihre Koeffizienten übereinstimmen. D.h. wir haben ein System von Gleichungen E n = A n 1 c n 1 E n = A n 2 M A n 1 c n 2 E n = A n 3 M A n 2... c 1 E n = A 0 M A 1 c 0 E n = M A 0. Wir multiplizieren diese Gleichungen von links von oben nach unten mit M n,m n 1,M n 2,,M 1,E n und erhalten das Gleichungssystem M n = M n A n 1 c n 1 M n 1 = M n 1 A n 2 M n A n 1 c n 2 M n 2 = M n 2 A n 3 M n 1 A n 2... c 1 M 1 = MA 0 M 2 A 1 c 0 E n = M A 0. Wenn wir die linke Spalte dieses Gleichungssystem aufsummieren, so erhalten wir gerade χ M (M). Wenn wir die rechte Seite aufsummieren, so erhalten wir 0, da jeder Teilsummand M i+1 A i einmal positiv und einmal negativ vorkommt. Also ist χ M (M) = 0. Satz 24.2. Es sei V ein endlichdimensionaler Vektorraum über einem Körper K und es sei f: V V eine lineare Abbildung. Dann gilt für das charakteristische Polynom die Beziehung χ f (f) = 0. 3 Beweis. Dies folgt direkt aus Satz 24.1. Minimalpolynom und charakteristisches Polynom Korollar 24.3. Es sei V ein endlichdimensionaler Vektorraum über einem Körper K und es sei f: V V eine lineare Abbildung. Dann ist das charakteristische Polynom χ f ein Vielfaches des Minimalpolynoms µ f zu f.

4 Beweis. Dies folgt direkt aus Satz 24.2 und Korollar 20.11. Insbesondere ist der Grad des Minimalpolynoms zu ϕ: V V durch die Dimension des Vektorraums V beschränkt. Minimalpolynom und charakteristisches Polynom stimmen in verschiedener Hinsicht überein, beispielsweise besitzen sie die gleichen Nullstellen. Lemma 24.4. Es sei V ein endlichdimensionaler Vektorraum über einem Körper K und es sei f: V V eine lineare Abbildung. Es sei v V ein Eigenvektor von f zum Eigenwert λ und es sei P K[X] ein Polynom. Dann ist (P(f))(v) = P(λ)v. Insbesondere ist v ein Eigenvektor von P(f) zum Eigenwert P(λ). Der Vektor v 0 gehört genau dann zum Kern von P(f), wenn λ eine Nullstelle von P ist. Beweis. Es ist (f k )(v) = λ k v. Daher folgt alles daraus, dass die Zuordnung P P(f) mit der Addition und der Skalarmultiplikation verträglich ist. Lemma 24.5. Es sei V ein endlichdimensionaler Vektorraum über einem Körper K und es sei f: V V eine lineare Abbildung. Dann besitzen das charakteristische Polynom χ f und das Minimalpolynom µ f die gleichen Nullstellen. Beweis. Dass die Nullstellen des Minimalpolynoms auch Nullstellen des charakteristischen Polynoms sind, folgt direkt aus Cayley-Hamilton. Umgekehrt sei λ K eine Nullstelle des charakteristischen Polynoms und sei v V ein Eigenvektor von f zum Eigenwert λ, den es nach Satz 23.2 gibt. Das Minimalpolynom schreiben wir als wobei Q nullstellenfrei sei. Dann ist µ f = (X λ 1 ) m1 (X λ k ) m k Q, 0 = µ f (f) = ((X λ 1 ) m1 (X λ k ) m k Q)(f) = (f λ 1 Id V ) m1 (f λ k Id V ) m k Q(f). Wirwendendiesaufv an.nachlemma24.4bildendiefaktorendenvektorv auf(λ λ i ) m i v bzw.aufq(λ)v ab.dadiegesamtabbildungdienullabbildung und Q(λ) 0 ist, muss ein λ i = λ sein.

5 Wir betrachten lineare Abbildungen Weitere Beispiele ϕ: V V mit der Eigenschaft, dass eine Potenz davon die Identität ist, sagen wir ϕ k = Id V. Typische Beispiele sind Drehungen um einen Winkel der Form 360 k oder Permutationsmatrizen. Das Polynom X k 1 annulliert dann diesen Endomorphismus und ist daher ein Vielfaches des Minimalpolynoms. Definition 24.6. Es sei K ein Körper und n N +. Dann heißen die Nullstellen des Polynoms X n 1 in K die n-ten Einheitswurzeln in K. Lemma 24.7. Sei n N +. Die Nullstellen des Polynoms X n 1 über C sind e 2πik/n = cos 2πk n In C[X] gilt die Faktorisierung 2πk +isin,k = 0,1,,n 1. n X n 1 = (X 1)(X e 2πi/n ) (X e 2πi(n 1)/n ) Beweis. Der Beweis verwendet einige Grundtatsachen über die komplexe Exponentialfunktion. Es ist ( e 2πik/n ) n = e 2πik = ( e 2πi) k = 1 k = 1. Die angegebenen komplexen Zahlen sind also wirklich Nullstellen des Polynoms X n 1. Diese Nullstellen sind alle untereinander verschieden, da aus e 2πik/n = e 2πil/n mit 0 k l n 1 sofort durch betrachten des Quotienten e 2πi(l k)/n = 1 folgt, und daraus l k = 0. Es gibt also n explizit angegebene Nullstellen und daher müssen dies alle Nullstellen des Polynoms sein. Die explizite Beschreibung in Koordinaten folgt aus der eulerschen Formel. Definition 24.8. Zu einer Permutation π auf {1,,n} nennt man die n n-matrix M π = (a ij ), für die a π(j),j = 1 ist und sonst alle Einträge 0 sind, eine Permutationsmatrix.

6 Wir wollen das charakteristische Polynom zu einer Permutationsmatrix bestimmen. Dabei verwenden wir, dass eine Permutation ein Produkt von Zykeln ist. Zu einem Zykel der Form 1 2 3 k 1 gehört die Permutationsmatrix 0 0 0 1 1 0 0 0 0 1 0 0... 0 0 1 0 Jeder Zykel kann (durch Umnummerierung) auf diese Gestalt gebracht werden. Lemma 24.9. Das charakteristische Polynom einer Permutationsmatrix M ρ zu einem Zykel ρ S n der Ordnung k ist χ M = (X 1) n k (X k 1). Beweis. Wir können von einem Zykel der Form 1 2 3 k 1 ausgehen. Die zugehörige Permutationsmatrix M ρ ist bezüglich e k+1,,e n die Einheitsmatrix und hat bezüglich den ersten k Standardvektoren die Gestalt 0 0 0 1 1 0 0 0 0 1 0 0... 0 0 1 0 Die Determinante zu XE n M ρ ist (X 1) n k multipliziert mit der Determinante von X 0 0 1 1 X 0 0 0 1 X 0... 0 0 1 X Die Entwicklung nach der ersten Zeile liefert X k +( 1) k+1 ( 1)( 1) k 1 = X k 1. Lemma 24.10. Zu einer Permutationsmatrix M ρ über C zu einem Zykel ρ S n mit ρ : i 1 i 2 i k i 1 und einer k-ten Einheitswurzel ζ sind die Vektoren v ζ := ζ k 1 e i1 +ζ k 2 e i2 + +ζe ik 1 +e ik Eigenvektoren zum Eigenwert ζ. Insbesondere ist eine Permutationsmatrix zu einem Zykel über C diagonalisierbar.

Beweis. Es ist M ρ (v ζ ) = M ρ (ζ k 1 e i1 +ζ k 2 e i2 + +ζe ik 1 +e ik ) = ζ k 1 M ρ (e i1 )+ζ k 2 M ρ (e i2 )+ +ζm ρ (e ik 1 )+M ρ (e ik ) = ζ k 1 e i2 +ζ k 2 e i3 + +ζe ik +e i1 = e i1 +ζ k 1 e i2 +ζ k 2 e i3 + +ζe ik = ζ(ζ k 1 e i1 +ζ k 2 e i2 + +ζe ik 1 +e ik ) = ζv ζ. Da es k verschiedene k-te Einheitswurzeln in C gibt, sind diese Vektoren nach Lemma 22.3 linear unabhängig und erzeugen einen k-dimensionalen Untervektorraum U von K n, und zwar gilt U = e ij, j = 1,,k. Da die Vektoren e i, i i j, Fixvektoren sind, bilden die v ζ zusammen mit den e i, i i j, eine Basis aus Eigenvektoren von M ρ und daher ist M ρ diagonalisierbar. Satz 24.11. Eine Permutationsmatrix ist über C diagonalisierbar. 7 Beweis. Siehe Aufgabe 24.26.

Abbildungsverzeichnis Quelle = Arthur Cayley.jpg, Autor = Benutzer Zuirdj auf Commons, Lizenz = PD 1 Quelle = WilliamRowanHamilton.jpeg, Autor = Benutzer auf PD, Lizenz = 1 9