Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 11 (WS 2010/2011) Abgabetermin: Donnerstag, 20. Januar. http://www.math.uni-bielefeld.



Ähnliche Dokumente
Lineare Algebra II 5. Übungsblatt

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.

3.7 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren

Übungsaufgaben zur Linearen Algebra II. 1.) Lösen Sie das folgende lineare Gleichungssystem mit der Cramerschen Regel.

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte und Diagonalisierung

2.11 Eigenwerte und Diagonalisierbarkeit

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

5 Diagonalisierbarkeit

Heinrich Heine-Universität Düsseldorf Sommersemester Lineare Algebra 1. Vierzehnte & Fünfzehnte Woche,

Lineare Algebra I. Prof. Dr. Daniel Roggenkamp Vorlesung -

Lineare Algebra und analytische Geometrie I

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit.

Ausgewählte Lösungen zu den Übungsblättern 9-10

Übungen zur Vorlesung Lineare Algebra II, SoSe 2016, Blatt 1

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

29 Lineare Algebra 2 (SS 2009) 4.9. Das charakteristische Polynom sei Produkt von linearen Polynomen.

5.2 Diagonalisierbarkeit und Trigonalisierung

1 Darstellungsmatrizen

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3

2.2 Eigenwerte und Eigenvektoren

Diagonalisierbarkeit symmetrischer Matrizen

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008

Lineare Algebra I Lösungsvorschlag

Kapitel 11 Eigenwerte und Eigenvektoren

9 Lineare Algebra 2 (SS 2009)

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Ferienkurs Lineare Algebra

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

6.3 Eigenwerte. γ ist Eigenwert von T [T] B B γi ist nicht invertierbar.

Lineare Algebra II 3. Übungsblatt

Eigenwerte und Eigenvektoren

Berechnung der Determinante

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23

8 Eigenwerttheorie I 8. EIGENWERTTHEORIE I 139. Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet:

2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren

23. Die Jordan sche Normalform

6 Hauptachsentransformation

Eigenwerttheorie. Martin Gubisch Lineare Algebra I WS 2007/2008

Eigenwerte (Teschl/Teschl 14.2)

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

3 Determinanten, Eigenwerte, Normalformen

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Wir wollen Systeme von linearen Differentialgleichungen 1. Ordnung über einem offenen Intervall I R untersuchen:

Musterlösung Donnerstag - Determinanten und Eigenwerte

3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform

MC-Serie 11: Eigenwerte

7.3 Unitäre Operatoren

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y.

und Unterdeterminante

und Unterdeterminante

Lösung zu Serie Bestimme die Jordansche Normalform und eine zugehörige Basiswechselmatrix der folgenden reellen Matrizen: A := B :=

L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert

Lineare Algebra II Lösungen der Klausur

Lineare Algebra II Lösungen zu ausgewählten Aufgaben

Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 2016

Klausur zur Vorlesung Lineare Algebra und Geometrie I

Basisprüfung. 18. August 2015

Lösungsskizze zur Wiederholungsserie

Abschnitt: Diagonalisierung von Endomorphismen

Lineare Abbildungen und Darstellungsmatrizen

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG

5 Minimalpolynom und charakteristisches Polynom

4.2 Die adjungierte Abbildung

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

Klausur zu. Lineare Algebra II. Viel Erfolg! Fachbereich Mathematik WS 2012/13 Dr. habil. Matthias Schneider. Bonus Note. Aufgabe

Lineare Algebra II 6. Übungsblatt

Abschnitt: Diagonalisierung von Endomorphismen

T := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 1 (WS 2010/2011) Abgabetermin: Donnerstag, 21. Oktober.

Eigenwerte (Teschl/Teschl 14.2)

Klausur Linearen Algebra 1 Musterlösung: Aufgabe A

ist (oder besser Abspalten von Linearfaktoren beschäftigen. Zu einem beliebigen Körper K betrachten wir die Menge (j,k) N N j+k=n

Serie 17: Satz von Cayley-Hamilton & spezielle Endomorphismen

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2

Karlsruher Institut für Technologie (KIT) WS 2012/13 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning

3.3 Das charakteristische Polynom

Lineare Algebra I Zusammenfassung

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

Sommer 2017 Musterlösung

Analysis II. Vorlesung 48. Die Hesse-Form

Lineare Algebra - Determinanten und Eigenwerte

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

7.2 Die adjungierte Abbildung

4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Scheinklausur, 2. Teil, Lineare Algebra I, WS 2001, Prof. Dr. G. Hiß. Ja oder

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Lineare Algebra 2. Lösung zu Aufgabe 7.2:

Transkript:

Lineare Algebra I Prof. Dr. M. Rost Übungen Blatt 11 (WS 2010/2011) Abgabetermin: Donnerstag, 20. Januar http://www.math.uni-bielefeld.de/~rost/la1 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Algebraisch abgeschlossene Körper Ein Körper K heißt algebraisch abgeschlossen falls jedes nicht-konstante Polynom mit Koeffizienten in K eine Nullstelle in K besitzt. Ist also P(t) = t n +a n 1 t n 1 + +a 1 t+a 0 (a i K,n > 0) einbeliebiges Polynom über K vomgrad 1,so gibt esein α K mit P(α) = 0, d. h. α n +a n 1 α n 1 + +a 1 α+a 0 = 0 Über einem algebraisch abgschlossenen Körper zerfällt jedes Polynom vollständig in Linearfaktoren: P(t) = (t α 1 ) (t α n ) (α i K) (Beweis mit Polynomdivision durch Induktion über den Grad, siehe Vorlesung.) Der Fundamentalsatz der Algebra besagt, daß der Körper C der komplexen Zahlen algebraisch abgeschlossen ist. Zitat aus der Algebra: Jeder Körper K ist in einem algebraisch abgschlossenen Körper enthalten. Dies wird im Rahmen der Linearen Algebra nicht bewiesen, ist aber gut zu wissen. Hat man nämlich ein Polnom P(t) über einem Körper K gegeben, das dummerweise nicht in Linearfaktoren zerfällt (oder sogar überhaupt keine Nullstelle in K hat), so kann man zumindest nach Übergang zu einem algebraisch abgeschlossenen Körper H mit K H die Nullstellen von P(t) in H betrachten. Z. B. redet man oft von den komplexen Nullstellen eines reellen Polynomes.

2 Endomorphismen und Basiswechsel An dieser Stelle will ich die Definition der Determinante und des charakteristischen Polynomes von Endomorphismen wiederholen. Wichtig ist dabei der Begriff des Basiswechsels. Dieser wurde mehrfach erwähnt und soll hier nochmal dargestellt werden, vor allem in Bezug auf die Matrizen- Darstellung von Endomorphismen. Es sei f: V V ein Endomorphismus eines (endlich-dimensionalen) Vektorraumes V über einem Körper K. Wählt man eine Basis v 1,..., v n (n = dimv) von V, so wird f bezüglich dieser Basis dargestellt durch eine n n-matrix bestimmt durch (siehe Blatt 6, Seite 7). A = (a i,j ),...,n j=1,...,n f(v j ) = M n (K) a ij v i Ist w 1,..., w n eine andere Basis, so erhält man eine andere Matrix; bezeichnen wir sie mit B = (b i,j ) wobei f(w j ) = b ij w i Man betrachtet nun die Basiswechsel-Matrizen. Diese entstehen, wenn man eine Basis durch eine andere Basis ausdrückt. In unserem Fall hat man die Matrizen S = (s i,j ) und T = (t i,j ) mit w j = s ij v i Man stellt nun fest: (1) (2) j=1 v j = j=1 t ij w i TS = ST = E n TA = BT Zum Beweis von (1) siehe Blatt 7, Aufgaba 4 (a). Insbesondere gilt S = T 1, T = S 1

3 Zum Beweis von (2): f(v j ) = a ij v i = a ij t ki w k = t ki a ij w k = i i,k k i k ( ) f(v j ) = f t ij w i = t ij f(w i ) i i = t ij b ki w k = b ki t ij w k = (BT) kj w k i,k k i k Koeffizientenverleich zeigt (2). Wegen S = T 1 ergibt sich also B = TAT 1, A = SBS 1 was man je nach Geschmack auch so schreibt: B = S 1 AS, A = T 1 BT (TA) kj w k Für die Determinanten der Matrizen A und B folgt nun det(b) = det ( TAT 1) = det(t)det(a)det(t 1 ) = det(a) wegen det(t)det(t 1 ) = 1. Die Determinante von f ist nun definiert als die Determinante der darstellenden Matrix bezüglich irgendeiner Basis von V. Das Ergebnis ist unabhänging von der Wahl dieser Basis: det(f) = det(a) = det(b) Entspechendes gilt für das charakteristische Polynom χ f (t) = P f (t) = det(t id V f) K[t] von f das konkret gegeben ist durch das charakteristische Polynom der darstellenden Matrix bezüglich irgendeiner Basis von V: P f (t) = det(te n A) K[t] Für B wie oben erhält man tatsächlich das gleiche Polynom: det(te n B) = det ( te n TAT 1) = det ( ttt 1 TAT 1) = det ( T(tE n A)T 1) = det(t)det(te n A)det(T 1 ) = det(te n A)

4 Die Koeffizienten des charakteristischen Polynomes Schreibt man das charakteristische Polynom P f (t) aus als P f (t) = t n + ( 1) i c i t n i = t n c 1 t n 1 + +( 1) n c n k=1 so erhält man gewisse Elemente c i des Körpers K. Man erhält so für jeden Endomorphismus f: V V eines n-dimensionalen Vektorraumes über K gewisse Zahlen c 1,c 2,...,c n K Diese Zahlen werden sozusagen von f gleich mitgeliefert. Ein wichtiges Thema der Linearen Algebra ist es, zu versuchen, den Endomorphismus f aus diesen Zahlen zu rekonstruieren, so gut es geht. Dies führt auf die sogenannte Jordan- Normalform. Die Zahlen c i nennt man auch Invarianten von f. Der Name kommt von der Invarianz (Unabhängigkeit) bei Basiswechseln. Man schreibt c i = c i (f) Ist A eine n n-matrix, so schreibt man entsprechend P A (t) = t n + ( 1) i c i (A)t n i = t n c 1 (A)t n 1 + +( 1) n c n (A) k=1 Wie bei der Determinante gilt dann c i (f) = c i (A) = c i (B) falls A, B wie oben die Matrizen zu f bezüglich irgendwelchen Basen sind. Die Spezialfälle c 1 und c n. Die Zahl c n (f) ist einfach die Determinante: ( 1) n c n (f) = P f (0) = det(0 f) = ( 1) n det(f) Die Zahl c 1 (f) heißt die Spur (engl.: trace) von f bzw. A: Dabei gilt für A = (a ij ) spur(f) = c 1 (f), spur(a) = (siehe Blatt P11, Aufgabe 4). spur(a) = c 1 (A) a ii = a 11 +...+a nn i=0

Die eingeführten Vorzeichen der Koeffizienten sind praktisch in Bezug auf die Nullstellen des Polynomes. Zerfällt P f (t) in Linearfaktoren P f (t) = (t α 1 ) (t α n ) (α i K) (die α i sind also die Eigenwerte von f), so hat man die vorzeichenfreien Formeln c 1 = α 1 + +α n c n = α 1 α n 5 und allgemein z. B. c i = α r1 α ri 1 r 1 < <r i n c 2 = α r α s 1 r<s n

6 Die Eigenraum-Zerlegung eines Endomorphismus Hier ist eine kurze Vorschau. Es sei f: V V ein Endomorphismus eines n-dimensionalen Vektorraumes V über einem Körper K mit charakteristischem Polynom P f (t) = det(t id V f) K[t] Nehmen wir an, der Grundkörper ist algebraisch abgschlossen (z. B. K = C). Dann zerfällt das Polynom vollständig in Linearfaktoren. Dabei können Nullstellen mehrfach auftreten. Es sei ( ) P f (t) = (t α 1 ) n1 (t α r ) nr wobei r die Anzahl der Nullstellen (nicht mehrfach gezählt) und n i die Vielfachheit (Multiplizität) der Nullstelle α i ist. Dabei gilt α i α j für i j und natürlich n 1 + +n r = n = deg ( P f (t) ) = dimv Es ergibt sich nun, daß der Zerlegung ( ) des charakteristischen Polynomes P f (t) eine Zerlegung von V als direkte Summe von Untervektorräumen entspricht. Es gibt Unterräume V i (1 i r) von V mit und dimv i = n i f(v i ) V i sowie V = V 1 V r Ist f i = f V i : V i V i die Einschränkung von f auf V i so ist also f die direkte Summe der f i : Dabei gilt f = f 1 f r P f (t) = P f1 (t) P fr (t), P fi (t) = (t α i ) n i Der Speziallfall r = n (also alle Nullstellen sind verschieden; insbesondere gilt n i = 1 für die Multiplizitäten) wurde bereits in der Vorlesung behandelt. Dies wird im Folgenden wiederholt.

7 Diagonalisierbare Matrizen Eine n n-matrix D = (d ij ) M n (K) heißt diagonal, falls d ij = 0 für i j. Es steht also außerhalb der Diagonale überall die 0. Wir schreiben d 1 0 0 0 d D = diag(d 1,...,d n ) = 2 0..... 0 0 d n für Diagonal-Matrizen, also D = (d ij ) mit d ij = 0 für i j und d ii = d i. Eine n n-matrix A M n (K) heißt diagonalisierbar, falls eine invertierbare Matrix C gibt, so daß C 1 AC diagonal ist. Ist A diagonalisierbar und kennt man die zugehörige Matrix C, so lassen sich zum Beispiel die Potenzen von A leicht bestimmen. Ist etwa A = Cdiag(d 1,...,d n )C 1 so folgt A = Cdiag(d k 1,...,dk n )C 1 DiesfolgtausderbekanntenRechnung(ghg 1 ) k = gh k g 1 unddiag(d 1,...,d n ) k = diag(d k 1,...,dk n ). Lemma. Eine Matrix A M n (K) ist genau dann diagonalisierbar wenn es eine Basis aus Eigenvektoren gibt. Beweis. Esseiv 1,..., v n einebasisdesk n bestehendauseigenvektoren vonazu deneigenwertenα 1,...,α n.betrachtetmandiev i wieüblichalsspaltenvektoren, so hat C = (v 1,...,v n ) die gewünschten Eigenschaften. Es gilt nämlich ACe i = Av i = α i v i und andererseits Cdiag(α 1,...,α n )e i = Cα i e i = α i v i und damit AC = Cdiag(α 1,...,α n ) also C 1 AC = diag(α 1,...,α n ) Umgekehrt, ist A diagonalisierbar, so gibt es ein C mit Dann bilden die Spalten C 1 AC = diag(α 1,...,α n ) v i = Ce i

8 eine Basis aus Eigenvektoren. Denn es ist Av i = ACe i = Cdiag(α 1,...,α n )e i = Cα i e i = α i v i Satz. Ist A eine n n-matrix mit n verschiedenen Eigenwerten α 1,..., α n (das charakteristische Polynom zerfällt also in n verschiedene Linearfaktoren (t α i )), so ist A diagonalisierbar. Genauer: Es gibt eine invertierbare Matrix C mit C 1 AC = diag(α 1,...,α n ) Der Beweis wurde praktischerweise gleich für einen Endomorphismus eines Vektorraumes über K geführt. f: V V Satz. Ist f: V V ein Endomorphismus eines n-dimensionalen Vektorraumes mit n verschiedenen Eigenwerten α 1,..., α n und sind v 1,..., v n zugehörige Eigenvektoren, so ist v 1,..., v n eine Basis von V. Die darstellende Matrix bezüglich dieser Basis ist die Diagonal-Matrix diag(α 1,...,α n ) Beweis. Beim Beweis in der Vorlesung bestand die Hauptarbeit darin, zu zeigen, daß die v i linear unabhängig sind. Der Rest ist dann klar. Dazu zeigt man durch Induktion, daß für r 1 die Vektoren v 1,..., v r linear unabhängig sind. Der Fall r = 1 ist klar. Wäre nun r c i v i = 0 (nicht alle c i = 0) so folgt ( r ) 0 = f c i v i = r c i f(v i ) = r c i α i v i Multipliziert man die erste Gleichung mit α r und subtrahiert sie von der zweiten Gleichung, so ergibt sich (α 1 α r )c 1 v 1 + +(α r 1 α r )c r 1 v r 1 = 0 Dies ergibt eine lineare Abhängigkeit für die Vektoren v 1,..., v r 1. Nach Induktionsannahme sind diese aber linear unabhängig, also gilt (α i α r )c i = 0 für i < r. Weil α i α r für i < r, hätte man c 1 = = c r 1 = 0. Damit wäre aber c r 0. Es folgt v r = 0. Dies widerspricht der Annahme, daß v r ein Eigenvektor ist.

Beweis des ersten Satzes. Hier ist V = K n und die Eigenvektoren v i bilden eine Basis des K n nach dem zweiten Satz. Die Behauptung folgt nun aus dem Lemma. 9 Eigenräume: Zu einem Eigenwert α gibt es per Definition immer einen Eigenvektor, aber nicht den Eigenvektor man kann ja einen Eigenvektor immer mit einem Skalar multiplizieren. Allgemein macht man folgende Definition. Für einen Endomorphismus f: V V und α K definiert man den Eigenraum von f zu α als die Menge der Eigenvektoren (einschließlich des Nullvektors) mit Eigenwert α: Eigen(f,α) = Kern(f α id V ) = {v V f(v) = αv} V Dies ist immer ein K-Untervektrorraum von V. Ist α kein Eigenwert von f, so ist Eigen(f,α) = 0. Im zweiten Satz sind die Eigenräume V i = Eigen(f,α i ) alle 1-dimensional. Dabei wird V i von v i erzeugt: V i = Kv i Weil die v i eine Basis bilden, erhält man so eine Zerlegung wie auf Seite 6. V = V 1 V n

10 Zu den Fragen über die Diagonalisierbarkeit siehe insbesondere das Lemma auf Seite 7 und den ersten Satz auf Seite 8. Aufgabe 1. Es sei A = 1 0 1 0 1 2 2 1 0 Man bestimme das charakteristische Polynom, alle Eigenwerte und alle Eigenvektoren. Ist A diagonalisierbar? Aufgabe 2. Man zeige, daß die Matrix 3 3a 10 A = 0 b 0 0 a 2 genau dann diagonalisierbar ist wenn b 3,2 oder wenn a = 0. Aufgabe 3. Diagonalisieren Sie die komplexe Matrix A = 1 ( ) 2+4i 1+3i 5 1 2i 3+6i D. h. finden Sie die Eigenwerte α 1, α 2 von A und eine Matrix C M 2 (C) mit C 1 AC = diag(α 1,α 2 ) Aufgabe 4. Für eine quadratische Matrix A M n (K) und ein Polynom Q(t) = a 0 +a 1 t+ +a k t k K[t] setzt man Q(A) = a 0 E n +a 1 A+ +a k A k M n (K) Man zeige: (1) Ist v ein Eigenvektor von A mit Eigenwert α, so ist v auch ein Eigenvektor von P(A) mit Eigenwert P(α). (2) Für S GL n (K) gilt P(S 1 AS) = S 1 P(A)S