Lineare Algebra I Prof. Dr. M. Rost Übungen Blatt 11 (WS 2010/2011) Abgabetermin: Donnerstag, 20. Januar http://www.math.uni-bielefeld.de/~rost/la1 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Algebraisch abgeschlossene Körper Ein Körper K heißt algebraisch abgeschlossen falls jedes nicht-konstante Polynom mit Koeffizienten in K eine Nullstelle in K besitzt. Ist also P(t) = t n +a n 1 t n 1 + +a 1 t+a 0 (a i K,n > 0) einbeliebiges Polynom über K vomgrad 1,so gibt esein α K mit P(α) = 0, d. h. α n +a n 1 α n 1 + +a 1 α+a 0 = 0 Über einem algebraisch abgschlossenen Körper zerfällt jedes Polynom vollständig in Linearfaktoren: P(t) = (t α 1 ) (t α n ) (α i K) (Beweis mit Polynomdivision durch Induktion über den Grad, siehe Vorlesung.) Der Fundamentalsatz der Algebra besagt, daß der Körper C der komplexen Zahlen algebraisch abgeschlossen ist. Zitat aus der Algebra: Jeder Körper K ist in einem algebraisch abgschlossenen Körper enthalten. Dies wird im Rahmen der Linearen Algebra nicht bewiesen, ist aber gut zu wissen. Hat man nämlich ein Polnom P(t) über einem Körper K gegeben, das dummerweise nicht in Linearfaktoren zerfällt (oder sogar überhaupt keine Nullstelle in K hat), so kann man zumindest nach Übergang zu einem algebraisch abgeschlossenen Körper H mit K H die Nullstellen von P(t) in H betrachten. Z. B. redet man oft von den komplexen Nullstellen eines reellen Polynomes.
2 Endomorphismen und Basiswechsel An dieser Stelle will ich die Definition der Determinante und des charakteristischen Polynomes von Endomorphismen wiederholen. Wichtig ist dabei der Begriff des Basiswechsels. Dieser wurde mehrfach erwähnt und soll hier nochmal dargestellt werden, vor allem in Bezug auf die Matrizen- Darstellung von Endomorphismen. Es sei f: V V ein Endomorphismus eines (endlich-dimensionalen) Vektorraumes V über einem Körper K. Wählt man eine Basis v 1,..., v n (n = dimv) von V, so wird f bezüglich dieser Basis dargestellt durch eine n n-matrix bestimmt durch (siehe Blatt 6, Seite 7). A = (a i,j ),...,n j=1,...,n f(v j ) = M n (K) a ij v i Ist w 1,..., w n eine andere Basis, so erhält man eine andere Matrix; bezeichnen wir sie mit B = (b i,j ) wobei f(w j ) = b ij w i Man betrachtet nun die Basiswechsel-Matrizen. Diese entstehen, wenn man eine Basis durch eine andere Basis ausdrückt. In unserem Fall hat man die Matrizen S = (s i,j ) und T = (t i,j ) mit w j = s ij v i Man stellt nun fest: (1) (2) j=1 v j = j=1 t ij w i TS = ST = E n TA = BT Zum Beweis von (1) siehe Blatt 7, Aufgaba 4 (a). Insbesondere gilt S = T 1, T = S 1
3 Zum Beweis von (2): f(v j ) = a ij v i = a ij t ki w k = t ki a ij w k = i i,k k i k ( ) f(v j ) = f t ij w i = t ij f(w i ) i i = t ij b ki w k = b ki t ij w k = (BT) kj w k i,k k i k Koeffizientenverleich zeigt (2). Wegen S = T 1 ergibt sich also B = TAT 1, A = SBS 1 was man je nach Geschmack auch so schreibt: B = S 1 AS, A = T 1 BT (TA) kj w k Für die Determinanten der Matrizen A und B folgt nun det(b) = det ( TAT 1) = det(t)det(a)det(t 1 ) = det(a) wegen det(t)det(t 1 ) = 1. Die Determinante von f ist nun definiert als die Determinante der darstellenden Matrix bezüglich irgendeiner Basis von V. Das Ergebnis ist unabhänging von der Wahl dieser Basis: det(f) = det(a) = det(b) Entspechendes gilt für das charakteristische Polynom χ f (t) = P f (t) = det(t id V f) K[t] von f das konkret gegeben ist durch das charakteristische Polynom der darstellenden Matrix bezüglich irgendeiner Basis von V: P f (t) = det(te n A) K[t] Für B wie oben erhält man tatsächlich das gleiche Polynom: det(te n B) = det ( te n TAT 1) = det ( ttt 1 TAT 1) = det ( T(tE n A)T 1) = det(t)det(te n A)det(T 1 ) = det(te n A)
4 Die Koeffizienten des charakteristischen Polynomes Schreibt man das charakteristische Polynom P f (t) aus als P f (t) = t n + ( 1) i c i t n i = t n c 1 t n 1 + +( 1) n c n k=1 so erhält man gewisse Elemente c i des Körpers K. Man erhält so für jeden Endomorphismus f: V V eines n-dimensionalen Vektorraumes über K gewisse Zahlen c 1,c 2,...,c n K Diese Zahlen werden sozusagen von f gleich mitgeliefert. Ein wichtiges Thema der Linearen Algebra ist es, zu versuchen, den Endomorphismus f aus diesen Zahlen zu rekonstruieren, so gut es geht. Dies führt auf die sogenannte Jordan- Normalform. Die Zahlen c i nennt man auch Invarianten von f. Der Name kommt von der Invarianz (Unabhängigkeit) bei Basiswechseln. Man schreibt c i = c i (f) Ist A eine n n-matrix, so schreibt man entsprechend P A (t) = t n + ( 1) i c i (A)t n i = t n c 1 (A)t n 1 + +( 1) n c n (A) k=1 Wie bei der Determinante gilt dann c i (f) = c i (A) = c i (B) falls A, B wie oben die Matrizen zu f bezüglich irgendwelchen Basen sind. Die Spezialfälle c 1 und c n. Die Zahl c n (f) ist einfach die Determinante: ( 1) n c n (f) = P f (0) = det(0 f) = ( 1) n det(f) Die Zahl c 1 (f) heißt die Spur (engl.: trace) von f bzw. A: Dabei gilt für A = (a ij ) spur(f) = c 1 (f), spur(a) = (siehe Blatt P11, Aufgabe 4). spur(a) = c 1 (A) a ii = a 11 +...+a nn i=0
Die eingeführten Vorzeichen der Koeffizienten sind praktisch in Bezug auf die Nullstellen des Polynomes. Zerfällt P f (t) in Linearfaktoren P f (t) = (t α 1 ) (t α n ) (α i K) (die α i sind also die Eigenwerte von f), so hat man die vorzeichenfreien Formeln c 1 = α 1 + +α n c n = α 1 α n 5 und allgemein z. B. c i = α r1 α ri 1 r 1 < <r i n c 2 = α r α s 1 r<s n
6 Die Eigenraum-Zerlegung eines Endomorphismus Hier ist eine kurze Vorschau. Es sei f: V V ein Endomorphismus eines n-dimensionalen Vektorraumes V über einem Körper K mit charakteristischem Polynom P f (t) = det(t id V f) K[t] Nehmen wir an, der Grundkörper ist algebraisch abgschlossen (z. B. K = C). Dann zerfällt das Polynom vollständig in Linearfaktoren. Dabei können Nullstellen mehrfach auftreten. Es sei ( ) P f (t) = (t α 1 ) n1 (t α r ) nr wobei r die Anzahl der Nullstellen (nicht mehrfach gezählt) und n i die Vielfachheit (Multiplizität) der Nullstelle α i ist. Dabei gilt α i α j für i j und natürlich n 1 + +n r = n = deg ( P f (t) ) = dimv Es ergibt sich nun, daß der Zerlegung ( ) des charakteristischen Polynomes P f (t) eine Zerlegung von V als direkte Summe von Untervektorräumen entspricht. Es gibt Unterräume V i (1 i r) von V mit und dimv i = n i f(v i ) V i sowie V = V 1 V r Ist f i = f V i : V i V i die Einschränkung von f auf V i so ist also f die direkte Summe der f i : Dabei gilt f = f 1 f r P f (t) = P f1 (t) P fr (t), P fi (t) = (t α i ) n i Der Speziallfall r = n (also alle Nullstellen sind verschieden; insbesondere gilt n i = 1 für die Multiplizitäten) wurde bereits in der Vorlesung behandelt. Dies wird im Folgenden wiederholt.
7 Diagonalisierbare Matrizen Eine n n-matrix D = (d ij ) M n (K) heißt diagonal, falls d ij = 0 für i j. Es steht also außerhalb der Diagonale überall die 0. Wir schreiben d 1 0 0 0 d D = diag(d 1,...,d n ) = 2 0..... 0 0 d n für Diagonal-Matrizen, also D = (d ij ) mit d ij = 0 für i j und d ii = d i. Eine n n-matrix A M n (K) heißt diagonalisierbar, falls eine invertierbare Matrix C gibt, so daß C 1 AC diagonal ist. Ist A diagonalisierbar und kennt man die zugehörige Matrix C, so lassen sich zum Beispiel die Potenzen von A leicht bestimmen. Ist etwa A = Cdiag(d 1,...,d n )C 1 so folgt A = Cdiag(d k 1,...,dk n )C 1 DiesfolgtausderbekanntenRechnung(ghg 1 ) k = gh k g 1 unddiag(d 1,...,d n ) k = diag(d k 1,...,dk n ). Lemma. Eine Matrix A M n (K) ist genau dann diagonalisierbar wenn es eine Basis aus Eigenvektoren gibt. Beweis. Esseiv 1,..., v n einebasisdesk n bestehendauseigenvektoren vonazu deneigenwertenα 1,...,α n.betrachtetmandiev i wieüblichalsspaltenvektoren, so hat C = (v 1,...,v n ) die gewünschten Eigenschaften. Es gilt nämlich ACe i = Av i = α i v i und andererseits Cdiag(α 1,...,α n )e i = Cα i e i = α i v i und damit AC = Cdiag(α 1,...,α n ) also C 1 AC = diag(α 1,...,α n ) Umgekehrt, ist A diagonalisierbar, so gibt es ein C mit Dann bilden die Spalten C 1 AC = diag(α 1,...,α n ) v i = Ce i
8 eine Basis aus Eigenvektoren. Denn es ist Av i = ACe i = Cdiag(α 1,...,α n )e i = Cα i e i = α i v i Satz. Ist A eine n n-matrix mit n verschiedenen Eigenwerten α 1,..., α n (das charakteristische Polynom zerfällt also in n verschiedene Linearfaktoren (t α i )), so ist A diagonalisierbar. Genauer: Es gibt eine invertierbare Matrix C mit C 1 AC = diag(α 1,...,α n ) Der Beweis wurde praktischerweise gleich für einen Endomorphismus eines Vektorraumes über K geführt. f: V V Satz. Ist f: V V ein Endomorphismus eines n-dimensionalen Vektorraumes mit n verschiedenen Eigenwerten α 1,..., α n und sind v 1,..., v n zugehörige Eigenvektoren, so ist v 1,..., v n eine Basis von V. Die darstellende Matrix bezüglich dieser Basis ist die Diagonal-Matrix diag(α 1,...,α n ) Beweis. Beim Beweis in der Vorlesung bestand die Hauptarbeit darin, zu zeigen, daß die v i linear unabhängig sind. Der Rest ist dann klar. Dazu zeigt man durch Induktion, daß für r 1 die Vektoren v 1,..., v r linear unabhängig sind. Der Fall r = 1 ist klar. Wäre nun r c i v i = 0 (nicht alle c i = 0) so folgt ( r ) 0 = f c i v i = r c i f(v i ) = r c i α i v i Multipliziert man die erste Gleichung mit α r und subtrahiert sie von der zweiten Gleichung, so ergibt sich (α 1 α r )c 1 v 1 + +(α r 1 α r )c r 1 v r 1 = 0 Dies ergibt eine lineare Abhängigkeit für die Vektoren v 1,..., v r 1. Nach Induktionsannahme sind diese aber linear unabhängig, also gilt (α i α r )c i = 0 für i < r. Weil α i α r für i < r, hätte man c 1 = = c r 1 = 0. Damit wäre aber c r 0. Es folgt v r = 0. Dies widerspricht der Annahme, daß v r ein Eigenvektor ist.
Beweis des ersten Satzes. Hier ist V = K n und die Eigenvektoren v i bilden eine Basis des K n nach dem zweiten Satz. Die Behauptung folgt nun aus dem Lemma. 9 Eigenräume: Zu einem Eigenwert α gibt es per Definition immer einen Eigenvektor, aber nicht den Eigenvektor man kann ja einen Eigenvektor immer mit einem Skalar multiplizieren. Allgemein macht man folgende Definition. Für einen Endomorphismus f: V V und α K definiert man den Eigenraum von f zu α als die Menge der Eigenvektoren (einschließlich des Nullvektors) mit Eigenwert α: Eigen(f,α) = Kern(f α id V ) = {v V f(v) = αv} V Dies ist immer ein K-Untervektrorraum von V. Ist α kein Eigenwert von f, so ist Eigen(f,α) = 0. Im zweiten Satz sind die Eigenräume V i = Eigen(f,α i ) alle 1-dimensional. Dabei wird V i von v i erzeugt: V i = Kv i Weil die v i eine Basis bilden, erhält man so eine Zerlegung wie auf Seite 6. V = V 1 V n
10 Zu den Fragen über die Diagonalisierbarkeit siehe insbesondere das Lemma auf Seite 7 und den ersten Satz auf Seite 8. Aufgabe 1. Es sei A = 1 0 1 0 1 2 2 1 0 Man bestimme das charakteristische Polynom, alle Eigenwerte und alle Eigenvektoren. Ist A diagonalisierbar? Aufgabe 2. Man zeige, daß die Matrix 3 3a 10 A = 0 b 0 0 a 2 genau dann diagonalisierbar ist wenn b 3,2 oder wenn a = 0. Aufgabe 3. Diagonalisieren Sie die komplexe Matrix A = 1 ( ) 2+4i 1+3i 5 1 2i 3+6i D. h. finden Sie die Eigenwerte α 1, α 2 von A und eine Matrix C M 2 (C) mit C 1 AC = diag(α 1,α 2 ) Aufgabe 4. Für eine quadratische Matrix A M n (K) und ein Polynom Q(t) = a 0 +a 1 t+ +a k t k K[t] setzt man Q(A) = a 0 E n +a 1 A+ +a k A k M n (K) Man zeige: (1) Ist v ein Eigenvektor von A mit Eigenwert α, so ist v auch ein Eigenvektor von P(A) mit Eigenwert P(α). (2) Für S GL n (K) gilt P(S 1 AS) = S 1 P(A)S