Lineare Algebra II. Eine Vorlesung von Prof. Dr. Klaus Hulek

Größe: px
Ab Seite anzeigen:

Download "Lineare Algebra II. Eine Vorlesung von Prof. Dr. Klaus Hulek"

Transkript

1 Lineare Algebra II Eine Vorlesung von Prof Dr Klaus Hulek

2 Bei dieser Vorlesung handelt es sich um die Fortsetzung der Vorlesung Lineare Algebra I vom WS 21/2 c Klaus Hulek Institut für Mathematik Universität Hannover D 36 Hannover Germany hulek@mathuni-hannoverde

3 Inhaltsverzeichnis 1 Der Satz von Sylvester und das Hurwitzkriterium 4 Der Trägheitssatz von Sylvester Das Hurwitz Kriterium Diagonalisierung symmetrischer Matrizen 11 Eigenwerttheorie II 13 Polynome Ideale in K[x] Nilpotente Matrizen Idempotente Matrizen Zerfallende Matrizen Das Minimalpolynom Eigenwerte und Minimalpolynom Spektralzerlegung Die Jordan-Chevalley Zerlegung Anwendungen Der Quotientenraum Kanonische Faktorisierung Die Joradansche Normalform Nilzyklische Matrizen Zur Berechnung der Jordanform 12 Projektive Räume 83 Definition der projektiven Räume Homogene Koordinaten Abbildungen Koordinatensysteme Affinitäten 13 Quadriken in projektiven Räumen 1 Projektive Quadriken Projektive Klassifikation von Quadriken in P n (R) 14 Affine Quadriken 11 Affine Quadriken Klassifikation der reellen projektiven Quadriken bezüglich affiner Äquivalenz Klassifikation der reellen affinen Quadriken 15 Das Tensorprodukt 126 Definition und Konstruktion des Tensorprodukts Tensorprodukte von Unterräumen und Quotienten Tensorprodukte und lineare Abbildungen Komposition von Abbildungen Bild und Kern Das Kroneckerprodukt von Matrizen Mehrfache Tensorprodukte Die Tensoralgebra Induzierte Abbildungen Die gemischte Tensoralgebra Darstellung mittels einer Basis Transformationsverhalten Tensorverjüngung 16 Äußere Algebra 154 Das p-fache äußere Produkt Vorbereitungen zur Konstruktion des äußeren Produkts Interpretation der Determinante Induzierte lineare Abbildungen Äußere Algebra Multiplikation 17 Symmetrische Algebra 169 Fas p-fache symmetrische Produkt Symmetrische Tensoren Die symmetrische Algebra Literaturverzeichnis 176 3

4 4 1 Der Satz von Sylvester und das Hurwitzkriterium Der Trägheitssatz von Sylvester Es sei V ein endlich-dimensionaler reeller oder komplexer Vektorraum mit einer symmetrischen Bilinearform (hermiteschen Sesquilinearform), : V V K Bezüglich einer Basis B = (v 1,, v n ) wird, dargestellt durch die Matrix A = (a ij ), a ij = v i, v j Nach der Transformationsformel ändert sich bei einem Basiswechsel mit Übergangsmatrix S GL(n; K) die darstellende Matrix auf die folgende Weise: A t SAS Wir wissen bereits, daß es ein S O(n) (bzw U(n)) gibt mit λ 1 t SAS = S 1 AS =, (λ 1,, λ n R) λ n Wir fragen nun nach der Normalform, wenn wir allgemeiner S GL(n; K) zulassen Eine erste Antwort hierauf liefert der folgende Satz Satz 11 (Trägheitssatz von Sylvester) Es sei, : V V K eine symmetrische Bilinearform (hermitesche Sesquilinearform) Ferner seien B 1, B 2 Basen von V und A 1, A 2 die zugehörigen darstellenden Matrizen Sei k i := Anzahl positiver Eigenwerte von A i l i := Anzahl negativer Eigenwerte von A i, wobei die Eigenwerte mit Vielfachheit gezählt werden Dann gilt (i) k 1 = k 2, (ii) l 1 = l 2, (iii) k 1 + l 1 = Rang A 1 = Rang A 2 = k 2 + l 2 Beweis Es sei V + i := Unterraum aufgespannt von den Eigenvektoren zu positiven Eigenwerten von A i V i := Unterraum aufgespannt von den Eigenvektoren zu negativen Eigenwerten von A i V i := Unterraum aufgespannt von den Eigenvektoren zum Eigenwert = KerA i

5 1 DER SATZ VON SYLVESTER UND DAS HURWITZKRITERIUM 5 (Hierbei heißt ein Vektor v V ein Eigenvektor von A i zum Eigenwert λ i wenn A i q Bi (v) = λ i q Bi (v) gilt) Behauptung Es gilt Dies sieht man etwa wie folgt ein Es gilt: V i = {v V ; v, w = für alle w V } v, w = w, v = t q Bi (w)a i q Bi (v) Also ist v, w = für alle w V genau dann wenn A i q Bi (v) = ist, d h wenn q Bi (v) KerA i = Eig(A i, ) ist Diese Darstellung zeigt aber auch, daß Ferner gilt nach Korollar (I928): und damit bzw Es gilt ferner: V 1 = V 2 =: V V = V + i V i V k 1 + l 1 = Rang A 1 = Rang A 2 = k 2 + l 2, k i + l i + dim V = dim V v V + i v, v > v V i v, v < Dies zeigt man wie folgt Es sei v (i) 1,, v (i) k i eine ONBasis von V + i bestehend aus Eigenvektoren von A i Dann ist die Einschränkung von, auf V + i bezüglich dieser Basis durch eine Matrix λ i 1 ; λ i 1,, λ i k i > λ i k i gegeben, wobei die λ j die positiven Eigenwerte von A i sind Damit gilt: v V + i v = k i j=1 x (i) j v(i) j v, v = k i j=1 x (i) j, v (i) j > }{{} =λ i j > 2 v (i) j

6 6 Damit folgt und daher gilt V + 2 (V 1 V ) = {} k 2 + l 1 + dim V dim V Wegen k 1 + l 1 + dim V = dim V erhalten wir k 2 k 1 Analog zeigt man k 1 k 2 Damit gilt k 1 = k 2, also auch l 1 = l 2 Korollar 12 Sei A Mat(n; K) hermitesch (symmetrisch) Sei S GL(n; K) Dann haben A und t SAS dieselbe Anzahl von positiven bzw negativen Eigenwerten sowie denselben Rang Bemerkung Sei (V,, ) gegeben Dann hat man eine (nicht notwendig eindeutig bestimmte) Zerlegung mit V = V + V V v V + v, v > v V v, v < V = {v V ; v, w = für alle w V } V heißt der Ausartungsraum (oder Nullraum) der Form, Definition (i) Der Index der Form, ist die Anzahl der (mit Vielfachheit gezählten) positiven Eigenwerte einer (und damit jeder) darstellenden Matrix von, (ii) Der Rang von, ist der Rang einer (und damit jeder) darstellenden Matrix (iii) Die Signatur von, ist die Differenz zwischen der Anzahl der positiven und der Anzahl der negativen Eigenwerte einer (und damit jeder) darstellenden Matrix Bemerkung Für eine Zerlegung gilt also V = V + V V Index = dim V +, Rang = dim V + + dim V, Signatur = dim V + dim V

7 1 DER SATZ VON SYLVESTER UND DAS HURWITZKRITERIUM 7 Satz 13 Es gibt eine Basis B bezüglich der, dargestellt wird durch } k } l wobei k der Index der Form, ist, und l = Index Signatur ist Beweis Es gibt zunächst eine Basis B = (w 1,, w n ) bezüglich der die darstellende Matrix wie folgt lautet: λ 1 λk λ k+1 λk+l, λ i ist { > für i k < für k < i k + l Wir setzen Dann ist für 1 i k + l: Also können wir v i := { 1 λi w i 1 i k + l w i i > k + l { v i, v i = 1 λ i λ +1 1 i k i = 1 k < i k + l B = (v 1,, v n ) wählen um das Gewünschte zu erreichen

8 8 Folgerung 14 (i) Ist A eine symmetrische (hermitesche) Matrix, so gibt es ein S GL(n, K) mit 1 1 t 1 SAS = 1 (ii) Die hermiteschen Sesquilinearformen (symmetrischen Bilinearformen) werden durch Index und Signatur klassifiziert Das Hurwitz-Kriterium Es sei A = t A Mat(n; K) eine symmetrische (hermitesche) Matrix Definition Die Matrix A heißt positiv definit, falls die zugehörige Form, A positiv definit ist, d h x, x A = t xax > für x A heißt negativ definit wenn A positiv definit ist Schreibweise Ist A positiv definit, so schreibt man A > Es ist wichtig, ein Kriterium dafür zu haben, daß eine Matrix positiv definit ist Satz 15 A ist genau dann positiv definit wenn alle Eigenwerte positiv sind Beweis Die Eigenschaft positiv definit zu sein, hängt nur von der Form, A ab, nicht von der gewählten Basis Nach Basiswechsel gilt: 1 } 1 k t 1 SAS = 1 Diese Form ist genau dann positiv definit, wenn k = n ist

9 1 DER SATZ VON SYLVESTER UND DAS HURWITZKRITERIUM 9 Sei nun K = R und A = t A Wir schreiben a 11 a 1k a 1n A = a k1 a kk a n1 a nn und definieren A k := (a ij ) 1 i,j k Satz 16 (Hurwitz-Kriterium) Es sei A Mat(n; R) eine reelle symmetrische Matrix Dann sind äquivalent: (i) A ist positiv definit (ii) det A k > für 1 k n Beweis (i) (ii): Wir zeigen zunächst det A = det A n > Da A positiv definit ist, gibt es ein S GL(n; R) mit t SAS = 1 1 Also folgt 1 = det( t SAS) = det A(det S) 2 und damit det A > Um nun det A k > für 1 k n zu zeigen, betrachten wir R k = {x R n ; x k+1 = = x n = } R n Die Form, induziert durch Einschränkung eine Form, k : R k R k R mit darstellender Matrix A k Da auch, k positiv definit ist, folgt det A k > (1 k n)

10 1 (ii) (i): Wir machen Induktion nach n n = 1: Klar n 1 n: A n 1 ist nach Induktionsvoraussetzung positiv definit Also gibt es ein S GL(n 1; R) mit t S A n 1 S = 1 1 = E n 1 Sei S := S 1 GL(n; R) Es ist t SAS = = t S b 1 b n 1 a 1,n a n 1,n b 1 b n 1 b n a 1,n A n 1 =: B, a n 1,n a n,n S 1 wobei b i = a i,n Dann gilt ( ) det B = (det S) 2 det A > Es genügt zu zeigen, daß B positiv definit ist Wir setzen T := b 1 b n 1 GL(n; R)

11 1 DER SATZ VON SYLVESTER UND DAS HURWITZKRITERIUM 11 Dann ist t T BT = Nun ist Also ist = = b 1 b n 1 1 b 1 b n b 1 b n 1 1 b 1 b n b n b 2 1 b 2 n 1 b b n b 2 1 b 2 n 1 b n 1 b n =: C det C = (det T ) 2 det B = det B ( ) > b n b 2 1 b 2 n 1 > Damit ist C positiv definit und damit auch B und A b 1 b n 1 Diagonalisierung symmetrischer Matrizen Wir hatten bereits früher die Elementarmatrizen 1 F k (α) = α wobei α an der Stelle (k, k) steht und, 1 1 F kl = l k 1

12 12 betrachtet Multipliziert man eine Matrix A mit F k (α) von links (rechts), so bedeutet dies Multiplikation der k-ten Zeile (Spalte) mit α Die Multiplikation von A mit F kl von links (rechts) bedeutet die Addition der l-ten Zeile von A zur k-ten Zeile (der k-ten Spalte von A zur l-ten Spalte) Es gilt t F k (α) = F k (α), t F kl = F lk Satz 17 Es sei A Mat(n; R) eine reelle symmetrische Matrix Dann gibt es Elementarmatrizen C 1,, C s, so daß C s C 1 A t C 1 t C s = D, wobei D eine Diagonalmatrix ist Beweis Wir führen einen Induktionsbeweis nach n Für n = 1 ist nichts zu zeigen 1 Fall a 11 Man addiere das a k1 a fache der ersten Zeile zur k-ten Zeile und ebenso das a 1k a 1 11 = a k1 a fache der ersten Spalte zur k-ten Spalte, wobei k = 2,, n Dies entspricht endlich vielen Zeilen- und Spaltenumformungen Sind C 1,, C N die zu den Zeilenumformungen gehörigen Elementarmatrizen, so gilt 1 C N C 1 A t C 1 t C N = A wobei A = t A eine symmetrische (n 1) (n 1) Matrix ist Man kann dann die Induktionsvoraussetzung auf A anwenden 2 Fall a 11 =, aber a kk für ein k 2 Die Matrix C sei ein Produkt von Elementarmatrizen, das dem Vertauschen der ersten und der k-ten Zeile entspricht Dann ist A = CA t C eine symmetrische Matrix mit a 11 und wir sind im 1 Fall 3 Fall a kk = für alle k Ist A =, so ist nichts zu zeigen Ansonsten gibt es einen Eintrag a ij = a ji Die Elementarmatrix C entspreche der Addition der j-ten Zeile zur i-ten Zeile Für A = CA t C gilt dann a ii = 2a ij und wir sind im zweiten Fall Bemerkung Dieses Verfahren kann man für alle symmetrischen Matrizen A Mat(n; K) anwenden, so lange die Charakteristik des Körpers ungleich 2 ist, dh Aus diesem Satz kann man aucheinen Algorithmus zur Diagonalisierung ableiten Man schreibe die Matrix A und die Einheitsmatrix E = E n übereinander Dann führe man A durch das ebene beschriebene Verfahren in eine Diagonalmatrix D über Auf E wende man nur die entsprechenden Spaltenumformungen an Dies ergibt ( A E ) ( D t C 1 t C s )

13 11 EIGENWERTTHEORIE II Eigenwerttheorie II Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet: K[x] = Abb[N, K] = {P ; P = a n x n + a n 1 x n a ; a ν K} Definition Eine Funktion f : K K heißt eine Polynomfunktion, falls es ein Polynom P K[x] gibt mit f(a) = P (a) für alle a K Definiert man Pol(K) := {f; f : K K ist Polynomfunktion}, so hat man eine surjektive Abbildung von K-Vektorräumen: K[x] Pol(K) Satz 111 Hat K unendlich viele Elemente, so ist die obige Abbildung ein Isomorphismus Bemerkungen (i) Für K = R folgt dies z B daraus, daß für jedes nicht-konstante Polynom P const gilt: lim x P (x) = ± (ii) Im folgenden werden wir meist annehmen, daß K unendlich viele Elemente besitzt und dann nicht mehr zwischen Polynomen und Polynomfunktionen unterscheiden (iii) Falls K endlich ist, ist die Aussage von Satz (111) stets falsch Z B ist für K = F 2 das Polynom P (x) = x 2 + x, als Funktion ist jedoch f(x) = x(x + 1) Lemma 112 (Vandermonde-Determinante) Für a 1,, a n K gilt: 1 a 1 a 2 1 a n 1 1 det = 1 a n a 2 n a n 1 n Beweis Sei Induktion nach n: n = 1: Klar 1 i<j n 1 a 1 a n 1 1 := det 1 a n a n 1 n (a j a i ) n 1 n: Wir formen um: Für k = n, n 1,, 3, 2 subtrahiere man das a 1 -fache der (k 1)-ten Spalte von der k-ten Spalte:

14 14 1 a 1 a n 2 1 a 2 a n 2 1 a n a n 2 n 1 a n a n 1 2 a n 1 n 1 a 1 a n a 2 a n 2 2 a n 2 2 (a 2 a 1 ) 1 a n a n 2 n a n 2 n (a n a 1 ) 1 1 a 2 a 1 (a 2 a 1 )a n a n a 1 (a n a 1 )an n 2 Also erhält man a 2 a 1 (a 2 a 1 )a n 2 2 (a 1,, a n ) = det a n a 1 (a n a 1 )a n 2 n 1 a2 n 2 = (a 2 a 1 ) (a n a 1 ) det 1 an n 2 = (a i a 1 ) (a 2,, a n 2 ) (IV) = 1<i n 1<i n (a i a 1 ) 2 i<j n (a j a i ) = 1 i<j n (a j a i ) Beweis von Satz (111) Die Abbildung ist natürlich surjektiv Es bleibt zu zeigen, daß die Funktionen {1, x, x 2, } in dem Vektorraum Abb(K, K) linear unabhängig sind Ansonsten gibt es a,, a n (nicht alle zugleich ) mit P (x) = a + a 1 x + + a n x n (als Funktion) Es seien x 1,, x n+1 K verschieden Dann gilt (L) P (x i ) = a + a 1 x i + + a n x n i = (i = 1,, n + 1) Man fasse dies als Gleichungssystem in den Koeffizienten a i auf Die Koeffizientenmatrix ist 1 x 1 x n 1 A = 1 x n+1 x n n+1 Also ist det A = (x 1,, x n+1 ) = 1 i<j n+1 (x j x i )

15 11 EIGENWERTTHEORIE II 15 Damit ist das quadratische homogene Gleichungssystem L eindeutig lösbar, und es gilt: a = = a n = Für den Rest des Paragraphen gelte: #K = Jedes Polynom P (bzw falls #K = auch jede Polynomfunktion) besitzt also eine eindeutige Darstellung Definition (i) n heißt der Grad von P (n = deg P ) (ii) P heißt normiert, falls a n = 1 (iii) deg() := Bemerkung deg(p ) = P = a Es seien Dann gilt für die zugehörigen Funktionen mit Insbesondere ist Man definiert also auch für die Polynome P (x) = a + + a n x n mit a n P (x) = a + + a n x n K[x] Q(x) = b + + b m x m K[x] P (x) Q(x) = c + + c n+m x n+m c k = und nennt dies das Produkt von P und Q Bemerkung i+j=k a i b j c = a b, c n+m = a n b m (P Q)(x) := c + + c n+m x n+m deg(p Q) = deg P + deg Q (Gradformel) Bemerkung Mit dieser Multiplikation wird K[x] zu einem kommutativen Ring mit Einselement (Polynomring), bzw zu einer K-Algebra

16 16 Definition Es sei V ein K-Vektorraum versehen mit einer Multiplikation V V V, (x, y) x y Dann heißt V eine Algebra über K (K-Algebra), falls gilt (αx + βy) z = α(x z) + β(y z) x (αy + βz) = α(x y) + β(x z) (x, y, z V ; α, β K) Die Algebra heißt assoziativ, falls stets x (y z) = (x y) z, (x, y, z V ) und kommutativ, falls stets x y = y x (x, y V ) Man sagt V hat ein Einselement, falls es ein Element 1 V gibt mit 1 x = x 1 = x (x V ) Beispiele (1) Der Polynomring K[x] ist eine assoziative, kommutative K-Algebra mit Einselement (2) Der Vektorraum Mat(n; K) der (n n)-matrizen ist zusammen mit der Matrizenmultiplikation eine assoziative K-Algebra mit Einselement E, die sogenannte Matrizenalgebra Für n 2 ist diese Algebra nicht kommutativ Homomorphismen zwischen K-Algebren werden in der üblichen Weise definiert Satz 113 (Division mit Rest) Es seien P, Q K[x] Dann gibt es eindeutig bestimmte Polynome q, r mit (i) P = Qq + r, (ii) deg r < deg Q Beweis Eindeutigkeit: Es sei Qq + r = Qq + r (deg r, deg r < deg Q) Also gilt Q(q q ) = r r 1 Fall: q = q r = r

17 11 EIGENWERTTHEORIE II 17 2 Fall: q q Dann ist Dies ist ein Widerspruch Existenz: Wir betrachten deg(r r) }{{} <deg Q = deg Q + deg(q q ) deg Q }{{} M := {deg(p Qp); p K[x]} Die Menge M besitzt ein Minimum in N { } Es sei q K[x] so, daß ( ) deg(p Qq) deg(p Qp) für alle p K[x] Es sei ferner d h Es genügt zu zeigen, daß deg r < deg Q Annahme: deg r deg Q Dann haben wir Es sei Dann ist Es ist also Daher gilt r := P Qq, P = Qq + r Q = b + b 1 x + + b m x m (b m ) r = c + c 1 x + + c k x k (c k, k m) p := q + c k b m x k m K[x] P Qp = P Qq Q c k x }{{} k m = r Q c k x k m b m b m =r P Qp = c k x k c k b m x k +Terme niedrigerer Ordnung b }{{ m } = Dies steht im Widerspruch zur Wahl von q deg(p Qp) < k = deg r = deg(p Qq) Aus dem eben gegebenen Beweis kann ein Algorithmus für die Polynomdivision abgeleitet werden, der hier kurz an einem Beispiel beschrieben werden soll

18 18 Beispiel Gegeben seien Man erhält Damit ergibt sich P (x) = x 4 + 4x 2 x + 3, Q(x) = x 2 + x + 1 (x 4 + 4x 2 x + 3) : (x 2 + x + 1) = x 2 x + 4(= q(x)) x 4 + x 3 + x 2 x 3 + 3x 2 x + 3 x 3 x 2 x 4x x 2 + 4x + 4 4x 1(= r(x)) (x 4 + 4x 2 x + 3) = (x 2 + x + 1)(x 2 x + 4) + ( 4x 1) Definition Ist P K[x] und λ K, so daß P (λ) = gilt, so heißt λ eine Nullstelle von P Korollar 114 Es sei P K[x] und λ eine Nullstelle von P Dann gibt es genau ein Polynom Q K[x] mit P = Q(x λ) Es ist deg Q = deg P 1 Beweis Der Divisionssatz (113) angewandt auf P und (x λ) gibt P = (x λ)q + r mit Also ist r = const Da deg r < deg(x λ) = 1 = P (λ) = r(λ), folgt r = Die Eindeutigkeit folgt ebenfalls aus dem Divisionssatz Korollar 115 Es sei P Dann ist die Anzahl der verschiedenen Nullstellen von P höchstens gleich deg P

19 11 EIGENWERTTHEORIE II 19 Beweis Es sei k = deg P Gäbe es verschiedene Nullstellen, λ 1,, λ k+1, so wäre mit deg Q = Nun ist P = (x λ 1 ) (x λ k )Q P (λ k+1 ) = (λ k+1 λ 1 ) (λ }{{} k+1 λ k ) Q(λ }{{} k+1 ), also ist Q(λ k+1 ) = D h Q =, also P = Satz 116 Jedes Polynom P K[x] besitzt eine Darstellung P = (x λ 1 ) m1 (x λ r ) mr Q wobei die λ 1,, λ r paarweise verschieden sind, und Q ein Polynom ohne Nullstellen ist Diese Darstellung ist bis auf die Reihenfolge der Faktoren eindeutig Beweis Die Existenz der Darstellung folgt aus obigem Eindeutigkeit: (i) (ii) Die λ i sind genau die Nullstellen von P, liegen also eindeutig fest Die Eindeutigkeit der m i folgt aus dem folgenden Lemma Lemma 117 Es seien P, Q K[x] Polynome mit P (λ) Q(λ) Falls für alle x K, so ist m = n Beweis Es sei m n Dann gilt (x λ) m P (x) = (x λ) n Q(x) (x λ) m n P (x) Q(x) = (für x λ) Da K unendlich viele Elemente enthält, gilt für die Polynome (x λ) m n P Q = Falls m > n, wäre Q(λ) =, ein Widerspruch Beweis von Satz (116) (Fortsetzung) (iii): Eindeutigkeit von Q: Es sei (x λ 1 ) m1 (x λ r ) mr Q = (x λ 1 ) m1 (x λ r ) mr Q

20 2 Für alle x λ 1,, λ r gilt Q(x) = Q (x) Also hat Q Q unendlich viele Nulstellen, und es folgt Q = Q Definition Man sagt das Polynom P K[x] zerfällt über K, falls es eine Darstellung P (x) = a(x λ 1 ) m1 (x λ r ) mr (a K) gibt Bemerkungen (i) a ist der Koeffizient von x n (ii) Diese Darstellung ist (bis auf die Reihenfolge der Faktoren) eindeutig (iii) Es gibt viele Polynome, die nicht zerfallen, z B P (x) = 1 + x 2 R[x] Aber P (x) = (x i)(x + i) C[x] Satz 118 (Fundamentalsatz der Algebra) Jedes nicht-konstante Polynom P C[x] besitzt eine Nullstelle Beweis Siehe die Vorlesungen Algebra I, Funktionentheorie I Korollar 119 Jedes Polynom P C[x] zerfällt Ideale in K[x] Definition Eine Teilmenge I eines Ringes R heißt ein Ideal, falls gilt: (I1) I R ist additive Untergruppe (I1) Für P I, Q R gilt Q P I (d h R I I) Beispiel I := P 1,, P n := {Q 1 P Q n P n ; Q i R} Definition I = P 1,, P n heißt das von P 1,, P n erzeugte Ideal Definition I heißt Hauptideal, falls es von einem Element erzeugt wird, d h I = P für ein P R Satz 111 (i) K[x] ist ein Hauptidealring, d h jedes Ideal ist Hauptideal (ii) Zu jedem Ideal I {} in K[x] gibt es genau ein normiertes Polynom P mit I = P

21 11 EIGENWERTTHEORIE II 21 Beweis (i): Es sei I {} (sonst ist I = ) Dann ist M = {deg P ; P I} Es sei m := Min M und P I mit deg P = m Behauptung I = P = K[x] P Es ist K[x] P I nach (I2) Es bleibt zu zeigen, daß I K[x] P Es sei Q I beliebig Dann gibt es eine Darstellung Q = qp + r, deg r < deg P Ist r =, so ist Q P Ist r, so folgt mit (I1) und (I2) Wegen ist dies ein Widerspruch zur Wahl von P (ii): r = Q qp I deg r < deg P = m Mit P liegt auch ap in I Also kann man P normiert annehmen Sei mit P, P normiert Dann gilt für geeignete Q, Q K[x] Also I = P = P P = Q P, P = QP ( ) P = QQ P Daraus folgt ( ) P (1 QQ ) = Nach dem Gradsatz folgt aus ( ) deg QQ =, also QQ = 1 nach ( ) Wieder nach dem Gradsatz sind Q, Q konstant Da P, P normiert sind, folgt Q = Q = 1, d h P = P Definition (i) Zwei Polynome P, P K[x]; P, P heißen teilerfremd, falls aus P = QR, P = Q R folgt R = const

22 22 (ii) Man sagt, ein Polynom P K[x] teilt ein Polynom Q K[x] (Schreibweise P Q), falls es ein Polynom R K[x] gibt, mit Q = P R Korollar 1111 P, P seien teilerfremd Dann gibt es Q, Q K[x] mit P Q + P Q = 1 Beweis Die Menge I := P, P = {QP + Q P ; Q, Q K[x]} ist ein Ideal Also gibt es ein normiertes Polynom R K[x] mit Damit gilt P = QR, I = R P = Q R für geeignete Q, Q K[x] Da P, P teilerfremd sind, ist R = const Aus der Normierung von R folgt R = 1 Also ist 1 I, d h es gibt Q, Q K[x] mit QP + Q P = 1 Nilpotente Matrizen Definition Eine Matrix A Mat(n; K) heißt nilpotent, falls es ein m N mit A m = gibt Bemerkung A nilpotent A GL(n, K) Definition (i) A heißt obere Dreiecksmatrix, falls für A = (α ij ) gilt α ij = für i > j (ii) A heißt echte obere Dreiecksmatrix, falls α ij = für i j Bemerkung Obere (bzw echte obere) Dreiecksmatrizen haben also die Gestalt A =, bzw Lemma 1112 (i) A sei nilpotent und B A Dann ist auch B nilpotent (ii) Ist A nilpotent, so ist Eigenwert, und es gibt keine weiteren Eigenwerte

23 11 EIGENWERTTHEORIE II 23 Beweis (i): B = W 1 AW Sei A m = Es ist B m = (W 1 AW )(W 1 AW ) (W 1 AW ) = W 1 A m W = (ii): Ist A nilpotent, so ist A GL(n, K) Also ist Eigenwert von A Sei λ ein weiterer Eigenwert mit Eigenwert v Dann gilt Av = λv (v ) Satz 1113 Es sind äquivalent für A Mat(n; K): (i) A ist nilpotent A m v = λ m v für alle m A m stets (ii) A ist ähnlich zu einer echten oberen Dreiecksmatrix In diesem Fall ist A n = und χ A (x) = x n Beweis (i) (ii): Induktion nach n: n = 1 : A = () n 1 n: Ist A nilpotent, dann ist ein Eigenwert von A, und es gibt einen Vektor v Ker A = Eig(A, ) Ergänzt man v zu einer Basis von K n, so folgt, daß Es ist A A m = B Bm =: A = Also ist mit A auch B nilpotent Nach der Induktionsvoraussetzung gibt es mit W GL(n 1, K) W 1 BW = B = Setze W := 1 W

24 24 Dann ist W 1 A W = W 1 BW = Damit ist auch A zu einer echten oberen Dreiecksmatrix ähnlich (ii) (i): A A = (α ij) mit α ij = für i j Nach Lemma (1112) genügt (A ) n = zu zeigen Behauptung (A ) s = (α (s) ij ) mit α (s) ij = für i j + 1 s Induktion nach s: s = 1: s 1 s: Sei Dies ist die Voraussetzung, daß A echte obere Dreiecksmatrix ist α ij(s) = n α ikα kj(s 1) k=1 (1) i j + 1 s Dann ist k (j + 1) (s 1) α (s 1) kj = nach Induktionsvoraussetzung oder Also gilt Sei nun k (j + 1) s (1) i α ik = α (s) ij = A = A Dann ist (A ) n = also nach Lemma (1112) auch A n = Ferner gilt, da A A : x χ A (x) = χ A (x) = det = xn x

25 11 EIGENWERTTHEORIE II 25 Korollar 1114 Ist A nilpotent, so ist Spur A = Beweis Es ist χ A (x) = x n Spur Ax n 1 + Da χ A (x) = x n gilt, folgt Spur A = Definition (i) Für A, B Mat(n; K) heißt der Kommutator von A und B (ii) [A, B] := AB BA A, B heißen vertauschbar, falls [A, B] =, d h falls AB = BA Satz 1115 Es sei [A, B] = Dann gilt (i) (ii) (iii) (A + B) m = m ( m ) k= k A k B m k Ist B nilpotent, so ist auch AB nilpotent Sind A, B nilpotent, so ist auch A + B nilpotent Beweis (i): Dies beweist man wie beim binomischen Lehrsatz (ii): (AB) m = (AB) (AB) = A m B m =, falls B m = (iii): A m =, B p = Sei k := m + p Es gibt zwei Fälle: (A + B) k (i) = k l= ( ) k A l B k l l l < m k l > k m = (m + p) m = p B k l =, l m A l = Satz 1116 Seien A, N Mat(n; K) Es sei N nilpotent und [A, N] = Dann gilt Insbesondere ist det(a) = det(a + N) χ A = χ A+N Beweis Die letzte Behauptung folgt aus der Gleichheit der charakteristischen Polynome, da für jede Matrix B Mat(N; K) gilt: det B = ( 1) n χ B ()

26 26 Wir betrachten nun det(xe A) = χ A (x) = x n Spur Ax n 1 + Da K unendlich viele Elemente enthält, gibt es x mit det(xe A) Es sei ( ) M := (xe A) 1 N (i) M ist nilpotent: Da N nilpotent ist, genügt es nach Satz (??) (ii), zu zeigen daß [(xe A) 1, N] = Es ist (xe A)N = xen AN [A,N]= = xne NA = N(xE A) Multiplikation mit (xe A) 1 von beiden Seiten ergibt N(xE A) 1 = (xe A) 1 N, d h [(xe A) 1, N] = (ii) det(e M) = 1: Da M nilpotent ist, gibt es ein W GL(n, K) mit W 1 MW = echte obere Dreiecksmatrix Also det(e M) = det(w 1 (E M)W ) = det(e W 1 MW ) 1 = det = 1 1 (iii) Beweis der Aussage: Es sei zunächst x K mit χ A (x) Dann gilt χ A+N (x) = det(xe (A + N)) ( ) = det((xe A) (xe A)M) = det((xe A)(E M)) (ii) = det(xe A) = χ A (x) Da K unendlich viele Elemente hat, folgt χ A+N = χ A

27 11 EIGENWERTTHEORIE II 27 Idempotente Matrizen Definition A Mat(n; k) heißt idempotent, falls A 2 = A Lemma 1117 Die Matrix A sei idempotent Dann ist K n = Im A Ker A Die beiden einzig möglichen Eigenwerte sind, 1 Beweis Nach der Dimensionsformel gilt Also genügt es zu zeigen, daß Es sei x K n Wir setzen Dann ist also ist x Ker A und dim Im A + dim Ker A = n Im A + Ker A = K n x 1 := Ax Im A; x := x x 1 = x Ax Ax = Ax A 2 x = Ax Ax = x = x 1 + x Wir haben also für jedes x K n eine eindeutige Darstellung x = x 1 + x mit x, x 1 wie oben beschrieben Dann ist Ax = A(x + x 1 ) = x 1, also ist Ax = λx { x =, λ = 1 x 1 =, λ = Die geometrische Deutung der zu einer idempotenten Matrix gehörigen Abbildung h A : K n K n, x Ax ist, daß es eine Projektion auf den Unterraum Im A ist Satz 1118 Es sei A Mat(n; K) und r = Rang A > Dann sind äquivalent:

28 28 (i) (ii) A ist idempotent ( ) E (r) A (wobei E (r) die Einheitsmatrix der Größe r bezeichnet) In diesem Fall ist χ A (x) = (x 1) r x n r und Spur A = r 1 ( ) E (r) Bemerkung Bezüglich der Basis, die zur Matrix gehört, ist der zugehörige Endomorphismus K n K n gegeben durch (x 1,, x n ) (x 1,, x r,,, ) Abb 1: Projektion auf den Unterraum Im A Bemerkung r 1 = 1 } + {{ + 1 } r-mal Beweis (ii) (i): Also Es ist A = W 1 ( E (r) ) W A 2 = W 1 ( E (r) = W 1 ( E (r) (mit W GL(n, K)) ) ( E W W 1 (r) ) W = A ) W (i) (ii): Wir wählen Basen b 1,, b r Im A b r+1,, b n Ker A Dann ist b 1,, b n Basis von K n Es gilt Ab i = für i = r + 1,, n,

29 11 EIGENWERTTHEORIE II 29 also sind b r+1,, b n Eigenvektoren zum Eigenwert Für b 1,, b r Im A gilt: Also b i = Ab i (b i K n ) Ab i = A 2 b i = Ab i = b i (i = 1,, r) D h b 1,, b r sind Eigenvektoren zum Eigenwert 1 Nach Satz (I81) ist A diagonalisierbar, und es gilt 1 A wobei die Anzahl der Einträge 1 gleich r ist Es gelte nun (i), (ii) Dann ist 1 χ A (x) = χ B (x) mit B = =: B, ( E (r) ) Also folgt x 1 χ A (x) = det(xe B) = = (x 1) r x n r x 1 x x Daraus folgt Spur A = Spur B = r 1 Korollar 1119 A sei idempotent vom Rang r Dann gilt det(e xa) = (1 x) r

30 3 Beweis Nach Satz (1118) gibt es W GL(n, K) mit ( ) E W 1 (r) AW = Also ist det(e xa) = det(w 1 (E xa)w ) ( ) E (r) = det(e x ) 1 x 1 x = det 1 = (1 x) r 1 Zerfallende Matrizen Definition Man sagt, eine Matrix A Mat(n; K) zerfällt, falls das charakteristische Polynom von A zerfällt, d h χ A (x) = (x λ 1 ) m1 (x λ r ) mr (In einer solchen Darstellung nehmen wir stets an, daß λ 1, λ r paarweise verschieden sind) Bemerkung Die λ i sind genau die Eigenwerte von A Definition Die m i heißen die algebraischen Vielfachheiten der Eigenwerte λ i Beispiele (1) Alle Matrizen A Mat(n; C) zerfallen wegen des Fundamentalsatzes der Algebra (2) Ist A nilpotent so zerfällt A, da χ A (x) = x n (3) Ist A idempotent, so zerfällt A, da χ A (x) = (x 1) r x n r Definition Eine verallgemeinerte Jordanmatrix (Jordanblock) zum Eigenwert λ K ist eine Matrix der Form J = λe + N wobei N echte obere Dreiecksmatrix ist Damit hat J folgende Gestalt: λ J = λ

31 11 EIGENWERTTHEORIE II 31 Definition Die Jordanmatrix (der Größe n) zum Eigenwert λ ist die Matrix λ 1 J = 1 λ Bemerkung In jedem Fall gilt χ J (x) = (x λ) n Satz 112 (Struktursatz, 1 Form der Jordanschen Normalform) Es sei A eine zerfallende Matrix mit χ A (x) = (x λ 1 ) m1 (x λ k ) m k, wobei λ 1,, λ k paarweise verschieden sind Dann ist A ähnlich zu einer Blockmatrix A 1 A 2 Ak wobei A i Mat(m i ; K) verallgemeinerte Jordanmatrizen zum Eigenwert λ i sind Bemerkung Wir werden später eine Normalform herleiten wobei nur noch (echte) Jordanmatrizen vorkommen Korollar 1121 Für A Mat(n; K) sind äquivalent (i) (ii) A zerfällt A ist zu einer oberen Dreiecksmatrix ähnlich Beweis (ii) (i): λ 1 A A = λ n Dann ist x λ 1 χ A = χ A = det = (x λ 1 ) (x λ n ) x λ n (i) (ii): Aus dem Struktursatz

32 32 Korollar 1122 Sei A Mat(n; K) Falls A zerfällt, ist Spur A gleich der Summe der Eigenwerte (mit Vielfachheit) Beweis A zerfalle Dann gilt nach dem Struktursatz (112) λ 1 λ 1 A A = λ k λ k Hieraus folgt dann Spur A = Spur A = m 1 λ m k λ k Korollar 1123 Zerfällt A Mat(n; K) in n verschiedene Linearformen (d h hat A genau n verschiedene Eigenwerte), so ist A diagonalisierbar Beweis Sofort aus dem Struktursatz (112) Bevor wir den Struktursatz beweisen können, benötigen wir das Lemma 1124 Es seien M Mat(p; K); N Mat(q; K) nilpotente Matrizen Ferner sei C Mat(p, q; K) Dann gibt es genau ein X Mat(p, q; K) mit ( ) X = MX XN + C Beweis Wir betrachten ( ) als lineares Gleichungssystem Die Unbekannten sind x ij #Gleichungen = pq #Unbekannten = pq Also ist ( ) genau dann eindeutig lösbar, wenn das zugehörige homogene Gleichungssystem ( ) X = MX XN nur X = als Lösung hat

33 11 EIGENWERTTHEORIE II 33 Behauptung X sei Lösung von ( ) Dann gilt für alle s N: s ( ) s ( ) X = ( 1) σ M s σ XN σ σ σ= Daraus folgt das Lemma: Da M, N nilpotent gibt es m, n N mit M m = und N n = Sei s = m + n Ist s = (s σ) + σ, so ist (s σ) m oder σ n Also folgt X = Beweis der Behauptung Wir machen Induktion nach s s = 1: s s + 1 : Für s = 1 ist ( ) gerade die Gleichung ( ) Da X ( ) erfüllt: Nach Induktionsvoraussetzung gilt s ( ) s X = ( 1) σ M s σ XN σ σ σ= X ( ) = MX XN (IV) s ( ) s s ( ) s = ( 1) σ M (s+1) σ XN σ ( 1) σ M s σ XN σ+1 σ σ σ= σ= s+1 (( ) ( )) s s = ( 1) σ + M (s+1) σ XN σ σ σ 1 σ= s+1 ( ) s + 1 = ( 1) σ M (s+1) σ XN σ σ σ= Beweis des Struktursatzes (112) Wir machen nun Induktion nach n n = 1: n 1 n: A = (λ 1 ) Trivial Es sei A gegeben mit ( ) χ A (x) = (x λ 1 ) m1 (x λ k ) m k Nach Satz (I85) gilt: Es ist A λ 1 B =: A χ A (x) = (x λ 1 )χ B (x)

34 34 Wegen ( ) folgt χ B (x) = (x λ 1 ) m 1 1 (x λ 2 ) m2 (x λ k ) m k (Dies gilt zunächst für x λ i, da #K =, aber dann für alle x und damit für die Polynome) Also zerfällt auch B Nach Induktionsvoraussetzung gilt A 1 A2 B =: B wobei A k A i = λ i E mi + N i Mat(m i ; K); i = 2,, k A 1 = λ 1 E m1 1 + N 1 Mat(m 1 1; K) verallgemeinerte Jordanblöcke sind (Falls m 1 = n gilt, ist man an dieser Stelle fertig) Behauptung A λ 1 B Denn: Es sei W GL(n 1, K) mit Dann definiere man Dann gilt und wir erhalten W 1 A W = W 1 BW = B 1 W := W GL(n, K) 1 W 1 = (W ) 1 λ 1 λ 1 (W ) 1 BW = B

35 11 EIGENWERTTHEORIE II 35 Also hat man bisher gefunden A 1 C 2 C k A 2 A A k wobei }{{} m 1 }{{} m 2 }{{} m k }m 1 }m 2 }m k =: C A i = λ i E mi + N i Mat(m i ; K) (i = 1,, k) verallgemeinerte Jordanblöcke sind, sowie ( ) C i = K(m 1, m i ; K) (i = 2,, k) Wir müssen nun die Kästchen C i wegtransformieren Dazu wählen wir den Ansatz: E m1 W2 Wk E m2 W = mit E mk W i Mat(m 1, m i ; K) Behauptung E m1 W 2 W k E m2 W 1 = E mk Denn: Es gilt E m1 W 2 W k E m1 W2 Wk E m2 E m2 E mk E mk

36 36 E m1 W2 W 2 Wk W k E m2 = = E (n) E mk Also hat man W 1 C W = = = E m1 W 2 W k A 1 C 2 C k E m2 A 2 E mk A k E m1 W2 Wk E m2 E mk A 1 C 2 W 2 A 2 C k W k A k E m1 W2 Wk A 2 E m2 A k E mk A 1 A 1 W2 + C 2 W 2 A 2 A 1 Wk + C k W k A k A 2 A k Es sei D r := C r + A 1 Wr W r A r (r = 2,, k) Es gilt A r = λ r E mr + N r (N r echte obere Dreiecksmatrix) Damit ist D r = C r + (λ 1 E m1 + N 1 ) W r W r (λ r E mr + N r ) = C r + λ 1 Wr λ r Wr + N 1 Wr W r N r

37 11 EIGENWERTTHEORIE II 37 Also Da λ 1 λ r, gilt D r = genau wenn: W r = D r = (λ 1 λ r ) W r + N 1 Wr W r N r + C r 1 λ r λ 1 N 1 }{{} =:M W r W 1 r N r λ r λ }{{ 1 } =:N 1 + C r λ r λ }{{ 1 } =:C Da N 1, N r nilpotent, sind auch M, N nilpotent und die Gleichung W r = M W r W r N + C hat nach Lemma (1124) genau eine Lösung Diese W r tun es Das Minimalpolynom Es sei daran erinnert, daß Mat(n; K) ein Vektorraum der Dimension n 2 ist Wie üblich setzen wir für A Mat(n; K): A n = A A (n-mal), A = E Dann ordnen wir der Matrix A wie folgt einen Unterraum in Mat(n; K) zu: Definition K[A] := Span{A n ; n N {}} Bemerkung Mit dem Matrizenprodukt ist K[A] ein (kommutativer) Ring und sogar eine kommutative K-Algebra Man definiert ϕ A : K[x] K[A] P = n ν= a νx ν P (A) := n ν= a νa ν Bemerkung (i) ϕ A ist surjektiv (ii) ϕ A ist sowohl ein Homomorphismus von K-Vektorräumen, als auch ein Ringhomomorphismus: (P + Q)(A) = P (A) + Q(A) (λp )(A) = λp (A) (P Q)(A) = P (A) Q(A) Genauer gesagt ist ϕ A ein K-Algebrenhomomorphismus

38 38 Wir betrachten nun I A := {P K[x]; P (A) = } = Ker ϕ A Nach obigem folgt, daß I A ein Ideal ist Da K[x] ein Hauptidealring ist, gibt es (falls I A {} ist) genau ein normiertes Polynom µ A K[x] mit I A = µ A Satz 1125 Es gibt ein normiertes Polynom µ A K[x] mit folgenden Eigenschaften (i) µ A (A) = (ii) Ist P K[x] ein Polynom mit P (A) =, so ist P = Q µ A ; d h µ A teilt P Ferner gilt: (iii) Unter allen normierten Polynomen mit P (A) = hat µ A minimalen Grad Dadurch ist µ A eindeutig bestimmt (iv) deg µ A = dim K[A] Definition µ A heißt das Minimalpolynom von A Beweis Wir zeigen zunächst I A {} Es ist K[A] Mat(n; K), also gilt dim K[A] n 2 =: N Daher sind die Matrizen E, A, A 2,, A N linear abhängig, d h es gibt a,, a N K, nicht alle, mit Also ist Damit ist nach Satz (111) a E + a 1 A + + a N A N = P (x) = a + + a N x N I A I A = µ A für ein eindeutig bestimmtes normiertes Polynom µ A Dies zeigt (i) (iii) (iv): Es sei m := dim K[A] Dann sind E, A,, A m

39 11 EIGENWERTTHEORIE II 39 linear abhängig Wie oben zeigt man, daß es ein (normiertes) Polynom P K[x], deg P m gibt mit P (A) = Also ist Es sei umgekehrt deg µ A m = dim K[A] m := deg µ A Behauptung dim K[A] m Wir betrachten V := Span(E, A,, A m 1 ) Nach Definition von m ist dim V = m Es genügt zu zeigen, daß K[A] V Dazu ist zu zeigen, daß A s V für s m Es sei µ A = x m + a m 1x m a Da µ A (A) = folgt A m = a m 1A m 1 a E V Durch Multiplikation mit A auf beiden Seiten folgt dann aber auch A m +1 = a m 1A m a A V Induktion liefert die Behauptung Korollar 1126 Ist m = deg µ A, so ist E, A,, A m 1 eine Basis von K[A] Beweis E,, A m 1 sind wegen m = deg µ A linear unabhängig Die Behauptung folgt dann aus m = dim K[A] Korollar 1127 (i) A ist invertierbar µ A () (ii) Ist A invertiertbar, so ist A 1 K[A]

40 4 Beweis Es sei µ(x) = x m + a m 1 x m a 1 x + a Also ist A m + a m 1 A m a 1 A = a E und damit Ist a = µ(), so ist und damit d h A GL(n, K) Ist A GL(n, K), so folgt A(A m 1 + a m 1 A m a 1 E) = a }{{} E =:B AB = a E A( 1 a B) = E, B = a A 1 Nun ist B (sonst wäre µ A nicht das Minimalpolynom) Also ist a = µ() (ii): Nach obigem ist A 1 = 1 a B K[A] Korollar 1128 Ist A GL(n, K), so gibt es ein Polynom P K[x] mit P () =, so daß P (A) = E Beweis Ist A GL(n, K), so ist nach Korollar (1127) (ii) auch A 1 K[A] Also gibt es ein Q(x) K[x] mit Daraus folgt, daß D h für A 1 = Q(A) E = A Q(A) P (x) := x Q(x) gilt P (A) = E

41 11 EIGENWERTTHEORIE II 41 Lemma 1129 (Invarianz) A B µ A = µ B Beweis Für P K[x] und W GL(n, K) gilt P (A) = P (W 1 AW ) = Dies folgt, da P (W 1 AW ) = a E + a 1 W 1 AW + + a m (W 1 AW ) m = a W 1 EW + a 1 W 1 AW + + a m (W 1 A m W ) = W 1 (P (A))W Bemerkung µ a = µ b i a A B Beispiel ) ) A = ( 1 2 2, B = ( Dann ist (A E)(A 2E) = (B E)(B 2E) = =, 1 = Also ist, da A E, A 2E und B E, B 2E µ A (x) = µ B (x) = (x 1)(x 2) Andererseits gilt χ A (x) = x 1 det x 1 χ B (x) = det D h χ A χ B, und damit A B x 2 x 1 = (x 1)(x 2) 2, x 2 = (x 1) 2 (x 2) x 2

42 42 Eigenwerte und Minimalpolynom Satz 113 Für A Mat(n; K) sind äquivalent (i) λ ist Eigenwert von A (ii) µ A (λ) = Beweis (i) (ii): Es sei v ein Vektor mit Av = λv (v ) Dann gilt A k v = λ k v und also für jedes P K[x]: P (A)v = (a E + + a n A n )v = a v + a 1 λv + + a n λ n v = P (λ)v Ist P = µ A, so ist µ A (A) =, also µ A (λ)v = Da v ist, folgt µ A (λ) = (ii) (i): Es sei µ A (λ) = Dann gilt µ A (x) = (x λ)p (x) für ein geeignetes P K[x] Nun ist, da µ das Minimalpolynom von A ist P (A), d h es gibt einen Vektor v mit v Im P (A) Also gibt es ein w K n mit v = P (A)w Um zu zeigen, daß λ Eigenwert von A ist, genügt es zu zeigen, daß Av = λv Dies gilt, da Av λv = (A λe)v = (A λe)p (A)w = µ A (A)w = Folgerung χ A und µ A haben dieselben Nullstellen Wir werden später sehen, daß µ A das charakteristische Polynom χ A teilt, d h χ A = µ A R

43 11 EIGENWERTTHEORIE II 43 für ein Polynom R K[x] Wir erinnern daran, daß eine verallgemeinerte Jordanmatrix zum Eigenwert λ eine Matrix der folgenden Form ist: λ J = λe + N =, λ wobei N echte obere Dreiecksmatrix ist Satz 1131 Ist J eine verallgemeinerte Jordanmatrix zum Eigenwert λ, so ist für ein Polynom P K[x] die Matrix P (J) eine verallgemeinerte Jordanmatrix zu P (λ) Beweis Es gilt Daraus folgt P (x) = a + + a n x n P (J) = a E + a 1 J + + a n J n = a E + a 1 (λe + N) + + a n (λe + N) n = P (λ) E + N Dabei ist N eine Linearkombination von N,, N n, also auch wieder eine echte obere Dreiecksmatrix Satz 1132 Es sei A Mat(n; K) eine zerfallende Matrix mit charakteristischem Polynom (die λ i seien paarweise verschieden): Es sei Dann ist w A (A) nilpotent χ A = (x λ 1 ) m1 (x λ r ) mr w A := (x λ 1 ) (x λ r ) Beweis Es ist A A 1 A r =: A A i = λ i E + N i Mat(m i ; K), wobei die N i echte obere Dreiecksmatrizen sind (Wir werden hier und im folgenden oft E statt E mi schreiben, um die Notation zu vereinfachen)

44 44 Da A A, ist auch w A (A) w A (A ) Also genügt es nach Satz (1112) (i) zu zeigen, daß w A (A ) nilpotent ist Nun ist w A (A 1 ) w A (A ) = w A (A r ) Da A i verallgemeinerte Jordanmatrix zum Eigenwert λ i ist, ist nach (1131) w A (A i ) verallgemeinerte Jordanmatrix zum Eigenwert w A (λ i ) = Also gilt w A (A i ) = Damit ist w A (A i ) eine echte obere Dreicksmatrix, damit auch w A (A ), also ist die Matrix w A (A ) nilpotent Theorem 1133 (Satz von Cayley) Es sei K C Dann gilt für jede Matrix A Mat(n; K): Folgerung 1134 Das Minimalpolynom µ A teilt χ A, d h für ein geeignetes Polynom R K[x] χ A (A) = χ A = R µ A Beweis Da K C ist, kann man A Mat(n; C) annehmen Über C zerfällt χ A Also gilt A A = A 1 wobei die A i verallgemeinerte Jordanblöcke zum Eigenwert λ i sind Es genügt nun zu zeigen, daß χ A (A ) = χ A (A ) = Es ist χ A (A 1 ) χ A (A ) = χ A (A r ) Es genügt nun, daß χ A (A i ) = (A i λ 1 E) m1 (A i λ i E) mi (A i λ r E) mr A r

45 11 EIGENWERTTHEORIE II 45 Null wird, wobei Nun ist χ A = χ A = (x λ 1 ) m1 (x λ r ) mr A i λ i E = N i eine echte obere Dreiecksmatrix der Größe m i Daraus folgt (A i λ i E) m i = N m i i = Also ist χ A (A i ) = für i = 1,, r und damit auch χ A (A ) = Bemerkung Der Satz gilt für alle Körper K Man braucht dazu die folgende Aussage der Algebra: Es sei P K[x] Dann gibt es einen Körper K K (Zerfällungskörper), so daß P K [x] zerfällt Satz 1135 Es sei A Mat(n; K) zerfallend mit mit paarweise verschiedenen Nullstellen λ i Dann sind äquivalent: (i) (ii) A ist diagonalisierbar χ A (x) = (x λ 1 ) m1 (x λ r ) mr Jedes Element von K[A] ist diagonalisierbar (iii) Ist B K[A] nilpotent, so folgt B = (iv) µ A (x) = (x λ 1 ) (x λ r ) (v) (vi) µ A hat nur einfache Nullstellen Es gibt in K[A] linear unabhängige idempotente Matrizen P 1,, P r mit (a) P i P j = für i j (b) P P r = E (c) A = λ 1 P λ r P r Bemerkung (i) P 1,, P r heißt eine Spektralzerlegung von A (ii) Ist A diagonalisierbar, so enthält die Algebra K[A] keine von verschiedenen nilpotenten Matrizen Dann nennt man K[A] auch halbeinfach Man bezeichnet mitunter diagonalisierbare Matrizen auch als halbeinfache Matrizen

46 46 Beweis (i) (ii): Es sei D eine Diagonalmatrix und W 1 AW = D Es sei nun B K[A], d h B = P (A) für ein P K[x] Damit ist ebenfalls eine Diagonalmatrix W 1 BW = W 1 P (A)W = P (W 1 AW ) = P (D) (ii) (iii): Es sei B K[A] Nach (ii) ist B diagonalisierbar, d h B µ 1 µ n =: C Nun ist mit B auch C nilpotent, d h µ 1 = = µ n = D h W 1 BW = B = W W 1 = (iii) (iv): Es sei w A := (x λ 1 ) (x λ r ) Nach Satz (1132) ist w A (A) nilpotent Also ist w A (A) = Da µ A nach Satz (113) dieselben Nullstellen wie χ A hat, folgt µ A = w A (iv) (v): (v) (i): Klar Da nach Satz (113) µ A die Nullstellen λ 1, λ r haben muß, folgt µ A = (x λ 1 ) (x λ r ) Für A kann man nach Satz (112) annehmen, daß A B = A 1, A r

47 11 EIGENWERTTHEORIE II 47 wobei A i = λ i E + N i, N i echte obere Dreiecksmatrix Unser Ziel ist es zu zeigen, daß N i = Es gilt nun µ A = µ B Damit gilt µ A (A 1 ) µ A (B) = = µ A (A r ) Also gilt = µ A (A i ) = (A i λ 1 E) (A i λ i E) (A }{{} i λ r E) N i r = (A i λ j E) N i j=1 j i Hierbei haben wir verwendet, daß K[A i ] kommutativ ist Nun ist J i := r (A i λ j E) = ϕ i (A i ) j=1 j i mit ϕ i (x) := r (x λ j ) j=1 j i Also ist J i nach Satz (1131) verallgemeinerte Jordanmatrix zum Eigenwert ϕ i (λ i ) = r (λ i λ j ) =: c i j=1 j i D h c i = J i N i = (c i ) c i Behauptung N i = ( A i ist Diagonalmatrix)

48 48 Denn: Es sei N i Man wähle das minimale s 1 mit α (i) k,k+s A i = (α (i) kl )) Nun ist = JiNi = (cie + N ) Ni = cini + N Ni, wobei N eine echte obere Dreiecksmatrix ist Es genügt zu zeigen, daß (N N i ) k,k+s =, denn dann erhalten wir einen Widerspruch zu α (i) k,k+s Nun ist für ein k (Es sei (N N i ) k,k+s = = n N kl(n i ) l,k+s l=1 k l=1 N kl (N }{{} i ) l,k+s + = n l=k+1 N kl (N i ) }{{ l,k+s = } =,da k+s l<s (iv) (vi): Wir wissen, daß µ A (x) = (x λ 1 ) (x λ r ) Es sei Dann ist ψ i (x) := ϕ i(x) ϕ i (λ i ) K[x] ψ i (λ j ) = δ ij Es sei wie früher I A = {P K[x]; P (A) = } = µ A Behauptung 1 ψ i ψ j δ ij ψ i I A Denn: Es genügt zu zeigen, daß für ϕ ij := ψ i ψ j δ ij ψ i gilt ϕ ij (λ k ) = k = 1,, r, denn dann ist µ A ein Teiler von ϕ ij Nun ist ϕ ij (λ k ) = ψ i (λ k )ψ j (λ k ) δ ij ψ i (λ k ) = δ ik δ jk δ ij δ ik =

49 11 EIGENWERTTHEORIE II 49 Behauptung 2 ψ ψ r 1 I A Denn: Dies folgt wie oben wegen ψ 1 (λ k ) + + ψ r (λ k ) 1 = (k = 1,, r) Behauptung 3 λ 1 ψ λ r ψ r x I A Denn: Es gilt λ 1 ψ 1 (λ k ) + + λ r ψ r (λ k ) λ k = λ k λ k = (k = 1,, r) Man setze nun: P i := ψ i (A) (i = 1,, r) Dann folgen die Behauptungen Pi 2 = P i sowie (a), (b) und (c) sofort aus den Behauptungen (1), (2) und (3) Da deg ψ i < deg µ A ist, ist P i für i = 1,, r Es bleibt die lineare Unabhängigkeit der P i zu zeigen Es sei Multiplizieren mit P i gibt wegen (a): α 1 P α r P r = = α i P 2 i = α i P i P i α i = (i = 1,, k) (vi) (iv): Es gilt Also folgt Also (α 1 P α r P r )(β 1 P β r P r ) P ip j =δ ij P i = (α1 β 1 P α r β r P r ) Insbesondere folgt daraus P (A) (c) = P (λ 1 P λ r P r ) = P (λ 1 )P P (λ r )P r P (A) = P (λ 1 ) = = P (λ r ) = µ A = (x λ 1 ) (x λ r ) Bemerkung Der Beweis zeigt, wie man die Spektralzerlegung berechnen kann ( ) 1 1 A := 2 4

50 5 Es gilt χ A = (x 1)(x 4) + 2 = x 2 5x + 6 = (x 2)(x 3) = µ A Dann ist Also ist ψ 1 = x 3 1 = 3 x; ψ 2 = x 2 1 ( ) 2 1 P 1 = ψ 1 (A) =, P = ψ 2 (A) = = x 2 ( ) Es ist insbesondere ( ) 4 2 2P 1 + 3P 2 = ( ) 3 3 = 6 6 ( ) 1 1 = A 2 4 Es sei hier nochmals an den Begriff des Eigenraums zum Eigenwert λ erinnert, der wie folgt definiert war Eig(A, λ) = {v K n ; Av = λv} = Ker(A λe) Der Zusammenhang zwischen Eigenräumen und Spektralzerlegung ist dann durch den folgenden Satz gegeben Es sei A diagonalisierbar Dann haben wir eine Spektralzerlegung (1) A = λ 1 P λ r P r konstruiert Wir erinnern an folgende Eigenschaften: (2) P i P j = für i j, P 2 i = P i, (3) E = P P r Satz 1136 Die MAtrix A zerfalle Für die Eigenräume von A gilt dann: Eig(A, λ i ) = Im P i Beweis Im P i Eig(A, λ i ): Es sei x Im P i, d h es gibt ein y mit x = P i y Dann folgt Also ist x Eig(A, λ i ) Ax = AP i (y) (1) = (λ 1 P λ i P i + + λ r P r )P i (y) (2) = λ i P 2 i (y) (2) = λ i P i (y) = λ i x

51 11 EIGENWERTTHEORIE II 51 Eig(A, λ i ) Im P i : Es sei x Eig(A, λ i ) Also gilt Ax = λ i x Daraus folgt mit (1) und damit Also ist (λ 1 P λ r P r )x = λ i x, λ j P j (x) (2) = P j (λ 1 P λ r P r )(x) = P j (λ i x) = λ i P j (x) Für j i folgt P j (x) = Also gilt P j (x)(λ j λ i ) = x = Ex (3) = (P P r )(x) = P i (x) x Im P i Satz 1137 Sind λ 1,, λ r die Eigenwerte von A, so sind äquivalent: (i) A ist diagonalisierbar (ii) K n = Eig(A, λ 1 ) Eig(A, λ r ) Beweis (ii) (i) Es gibt eine Basis aus Eigenvektoren, also ist A diagonalisierbar (i) (ii) Daß die Summe direkt ist, folgt aus Lemma (I86) Wegen Satz (1136) ist Eig(A, λ i ) = Im P i, und es genügt zu zeigen, daß Es sei x K n Dann gilt K n = Im P Im P n x = Ex = (P P r )(x) = P 1 (x) + + P r (x) Im(P 1 ) + + Im(P r ) Definition Die geometrische Vielfachheit eines Eigenwertes λ i ist die Dimension des Eigenraumes Eig(A, λ i ) Satz 1138 Die geometrische Vielfachheit eines Eigenwertes λ i ist höchstens gleich der algebraischen Vielfachheit von λ i Beweis Es sei r die geometrische und s die algebraische Vielfachheit von λ i Ergänzt man r linear unabhängige Eigenvektoren zum Eigenwert λ, zu einer Basis von K n, so

52 52 erhält man D h A λ i λ i B }{{} r } r und es folgt, daß r s ist Beispiel Für gilt χ A (x) = (x λ i ) r χ B (x) A = ( ) Eig(A, 2) = Ke 1, χ A (x) = (x 2) 2 Die geometrische Vielfachheit eines Eigenwertes kann also echt kleiner als die algebraische Vielfachheit sein Die Jordan-Chevalley-Zerlegung Theorem 1139 Es sei A Mat(n; K) eine zerfallende Matrix Dann gibt es eine diagonalisierbare Matrix H, sowie eine nilpotente Matrix N mit H, N K[A], so daß Insbesondere gilt [H, N] = Beweis Wir machen zunächst den Reduktionsschritt: ( ) A = H + N Es genügt anzunehmen, daß A in Blockform gegeben ist: A = A 1 Hierbei sind A i Mat(m i ; K) verallgemeinerte Jordanblöcke zum Eigenwert λ i A r

53 11 EIGENWERTTHEORIE II 53 Denn: Es sei A = W 1 A W mit A in Blockform Man habe eine Zerlegung A = H + N Dann gilt A = W 1 H W + W 1 N W Wir setzen H := W 1 H W, N := W 1 N W Dann ist H diagonalisierbar, und N ist nilpotent Ferner gilt H, N W 1 K[A ]W = K[W 1 A W ] = K[A] Existenzbeweis: Es sei also A wie in ( ) Wir setzen C i := E mi wobei E mi die Einheitsmatrix der Größe m i ist Dann ist H := λ 1 C λ r C r eine Diagonalmatrix Wir setzen N := A H Dies ist eine echte obere Dreiecksmatrix, also nilpotent Es bleibt zu zeigen, daß H K[A] ist Dann ist auch N K[A], und damit gilt auch [H, N] = Um einzusehen, daß H K[A] ist, genügt es zu zeigen, daß C 1,, C r K[A] gilt 1 Schritt: Es gibt eine verallgemeinerte Jordanmatrix J i Mat(m i ; K) zum Eigenwert 1 mit B i := J i K[A]

54 54 Dazu betrachten wir die paarweise verschiedenen Eigenwerte λ 1,, λ r und ψ i (x) := j i x λ j λ i λ j K[x] (ψ i (λ j ) = δ ij ) Es gilt ψ i (A 1 ) ψ i (A) = K[A] ψ i (A r ) Nun ist ψ i (A j ) Jordanmatrix zum Eigenwert ψ i (λ j ) = δ ij Für i j ist also ψ i (A j ) echte obere Dreiecksmatrix, d h nilpotent Also hat B i := ψ i (A) n = 1 1 K[A] die gewünschte Form 2 Schritt: Es gibt nach Korollar (1128), angewandt auf die Matrix J i ein Polynom Q i K[x] mit Q i () = und Q i (J i ) = E mi Damit gilt Q i (B i ) = Q i (J i ) = E mi = C i Wegen B i K[A] folgt auch C i K[A] Satz 114 Die Matrizen A, B Mat(n; K) seien diagonalisierbar Ist [A, B] =, so gilt: (i) A, B sind zugleich diagonalisierbar, d h es gibt eine Matrix W GL(n; K), so daß W 1 AW und W 1 BW Diagonalmatrizen sind (ii) A + B, AB sind diagonalisierbar Beweis (ii) folgt aus (i), da W 1 (A + B)W = W 1 AW + W 1 BW W 1 (AB)W = (W 1 AW )(W 1 BW )

55 11 EIGENWERTTHEORIE II 55 (i) Nach Übergang von A zu U 1 AU; U GL(n; K) kann man annehmen, daß A = λ 1E m1 λ r E mr die Ein- wobei λ 1,, λ r die paarweise verschiedenen Eigenwerte von A sind, und E mi heitsmatrix der Größe m i ist Wir schreiben B in Blockform B 11 B 12 B = B 22, B ij Mat(m i, m j ; K) B rr Nun folgt: [A, B] = λ i B ij = λ j B ij Für i j folgt also B ij =, d h B = B 11 Brr Behauptung Die Matrizen B ii sind diagonalisierbar Denn: Es sei µ B das Minimalpolynom von B; µ Bii das Minimalpolynom von B ii Da µ B (B 11 ) = µ B (B) = folgt µ B (B ii ) = Also gibt es R i K[x] mit µ B = R i µ Bii µ B (B rr ) Da B diagonalisierbar ist, hat µ B nur einfache Nullstellen Dasselbe gilt dann für µ Bii und somit ist auch B ii diagonalisierbar (Satz (84)) Es gibt also W i GL(m i ; K) mit wobei D ii eine Diagonalmatrix ist Es sei W := W i B ii W 1 i = D ii, W 11 W rr

56 56 Damit gilt W 1 AW = W E m1 λ 11 W W 1 rr λ r E mr W rr = λ 1 E m1 = A sowie W 1 BW = W 1 λ r E mr 11 B 11 W 11 also ist W 1 BW eine Diagonalmatrix Es sei nun A Mat(n; K) zerfallend und W 1 rr B rr W rr A = H + N 11 = D eine Jordan-Chevalley-Zerlegung, d h H ist diagonalisierbar, N ist nilpotent und es gilt [H, N] = Satz 1141 H und N sind eindeutig bestimmt Es gilt stets H, N K[A] Beweis Wir wählen eine Darstellung nach Theorem (1139): (2) A = H + N, H ist diagonalisierbar, N ist nilpotent, [H, N ] = und H, N K[A] 1 Schritt: [H, H ] = [N, N ] = : [H, N] = [H, H }{{ + N } ] = [H, A] = =A Da H K[A] folgt [H, H ] = Analog zeigt man [N, N ] = 2 Schritt: H H ist diagonalisierbar, N N ist nilpotent Dies folgt für H H aus Satz (114) (ii) für N N aus Satz (1115) (iii) 3 Schritt: Es gilt also H + N = A = H + N, H H = N N Damit ist H H diagonalisierbar und nilpotent Also ist H H =, d h H = H und damit auch N = N D rr,

57 11 EIGENWERTTHEORIE II 57 Anwendungen (1) Multiplikative Jordan-Chevalley Zerlegung Satz 1142 Sei A GL(n; K) zerfallend Dann gibt es genau eine diagonalisierbare Matrix H, sowie eine nilpotente Matrix N, so daß A = H(E + N) und [H, N] = Beweis Wir betrachten die additive Jordan-Chevalley Zerlegung A = H + N, H, N K[A] Nach Satz (1116) ist det H = det(h + N ) = det A Also ist H GL(n; K) Sei N := H 1 N Dann ist A = H + HN = H(E + N) Da [H, N] = [H, N ] = ist, folgt die Nilpotenz von N, d h wir haben eine multiplikative Zerlegung gefunden Umgekehrt ist A = H + HN eine additive Jordan-Chevalley Zerlegung Die Eindeutigkeit von H, N folgt aus der Eindeutigkeit von H und N (2) Symmetrische Matrizen Satz 1143 Es sei A Mat(n; K) symmetrisch und zerfallend Dann gilt für die Jordan-Chevalley Zerlegung daß auch H, N symmetrisch sind Beweis Es ist A = H + N, H + N = A = t A = t H + t N Es ist auch t H diagonalisierbar, t N ist nilpotent und [ t H, t N] = Damit ist auch A = t H + t N eine Jordan-Chevalley Zerlegung von A Aus der Eindeutigkeit folgt dann H = t H, N = t N

58 58 (3) Reelle Jordan-Chevalley Zerlegung Es sei Z = (z kl ) Mat(n; C) Wir schreiben z kl = x kl + iy kl ; x kl, y kl R für alle k, l Also hat man eine eindeutige Zerlegung Z = X + iy ; X, Y Mat(n; R) Definition Die konjugierte Matrix ist definiert durch Z := X iy Bemerkung (i) Z 1 + Z 2 = Z 1 + Z 2, (ii) Z 1 Z 2 = Z 1 Z 2 Definition A Mat(n; R) heißt halbeinfach, falls A, aufgefaßt als Element in Mat(n; C), diagonalisierbar ist Satz 1144 Es sei A Mat(n; R) Dann gibt es eindeutig bestimmte reelle Matrizen H, N mit H halbeinfach und N nilpotent, so daß und [H, N] = gilt A = H + N Beweis daß A Mat(n; C) ist zerfallend Also gibt es H diagonalisierbar, N nilpotent so A = H + N und [H, N] = Es gilt A = A = H + N Wegen der Eindeutigkeit folgt H = H, N = N, d h H und N sind reell Die Eindeutigkeit folgt aus dem komplexen Fall

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit.

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit. KAPITEL 8 Normalformen Definition 8.1 (Blockmatrizen). Sind 1. Blockmatrizen A K m 1 n 1,B K m 1 n 2,C K m 2 n 1 und D K m 2 n 2 so nennet man die Matrix X = ( A B C D ) K (m 1+m 2 ) (n 1 +n 2 ) eine Blockmatrix

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen 12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn

Mehr

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: Lineare Algebra D-MATH, HS 04 Prof. Richard Pink Lösung zu Serie. [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: a) F (X) := X 5 X in R[X] und C[X]. b) F (X) := X 4 +X 3 +X in

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008 KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008 MUSTERLÖSUNG Name: Studiengang: Aufgabe 1 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter die Aufgabenstellung

Mehr

Lineare Algebra II Lösungen zu ausgewählten Aufgaben

Lineare Algebra II Lösungen zu ausgewählten Aufgaben Lineare Algebra II Lösungen zu ausgewählten Aufgaben Blatt 2, Aufgabe 3 a) Wir zeigen, daß das Ideal (2, X) kein Hauptideal in Z[X] ist. (Dieses Ideal besteht aus allen Elementen in Z[X], die von der Form

Mehr

Lineare Algebra II. Sommersemester Wolfgang Ebeling

Lineare Algebra II. Sommersemester Wolfgang Ebeling Lineare Algebra II Sommersemester 2006 Wolfgang Ebeling 1 c Wolfgang Ebeling Institut für Mathematik Universität Hannover Postfach 6009 30060 Hannover E-mail: ebeling@mathuni-hannoverde 1 Euklidische und

Mehr

Mathematik für Physiker, Informatiker und Ingenieure

Mathematik für Physiker, Informatiker und Ingenieure Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel V SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

Lineare Algebra II. Sommersemester Wolfgang Ebeling

Lineare Algebra II. Sommersemester Wolfgang Ebeling Lineare Algebra II Sommersemester 2009 Wolfgang Ebeling 1 c Wolfgang Ebeling Institut für Algebraische Geometrie Leibniz Universität Hannover Postfach 6009 30060 Hannover E-mail: ebeling@mathuni-hannoverde

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

2.11 Eigenwerte und Diagonalisierbarkeit

2.11 Eigenwerte und Diagonalisierbarkeit 2.11. EIGENWERTE UND DIAGONALISIERBARKEIT 127 Die Determinante eines Endomorphismus Wir geben uns jetzt einen endlichen erzeugten K-Vektorraum V und einen Endomorphismus ϕ : V V vor. Wir wollen die Determinante

Mehr

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse

Mehr

5 Diagonalisierbarkeit

5 Diagonalisierbarkeit 5 Diagonalisierbarkeit Sei V ein K Vektorraum mit einer Basis B = (v 1,..., v n ) Wiederholung aus 2: Sei f : V V K linear. Stelle f(v j ) für j = 1,..., n dar in der Form a 1j Das n Tupel a j =. a nj

Mehr

Lineare Algebra I Zusammenfassung

Lineare Algebra I Zusammenfassung Prof. Dr. Urs Hartl WiSe 10/11 Lineare Algebra I Zusammenfassung 1 Vektorräume 1.1 Mengen und Abbildungen injektive, surjektive, bijektive Abbildungen 1.2 Gruppen 1.3 Körper 1.4 Vektorräume Definition

Mehr

3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform

3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform LinAlg II Version 1 29. Mai 2006 c Rudolf Scharlau 219 3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform Das Problem der Normalformen für Endomorphismen handelt kurz gesprochen

Mehr

Tutorium 2. 1 Der Polynomring

Tutorium 2. 1 Der Polynomring 1 Der Polynomring Tutorium 2 Wiederholung. Eine Einheit eines Rings ist ein multiplikativ invertierbares Element. Zum Beispiel sind {1, 1} die Einheiten in Z, und alle Zahlen außer der 0 in jedem Körper.

Mehr

2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren

2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren 2 ÄHNLICHKEIT VON MATRIZEN, EIGENWERTE UND EIGENVEKTOREN 1 19. Mai 2000 2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren Motivation. Es seien: V ein K-Vektorraum mit dim V = n < und F End V, Φ,

Mehr

Aufgabe I.1 (4 Punkte) Gegeben seien die Matrix H := und die Menge L := {A R 4 4 A HA = H} Zeigen Sie:

Aufgabe I.1 (4 Punkte) Gegeben seien die Matrix H := und die Menge L := {A R 4 4 A HA = H} Zeigen Sie: Aufgabe I (4 Punkte Gegeben seien die Matrix und die Menge Zeigen Sie: H := L := {A R 4 4 A HA = H} a L ist bezüglich der Matrizenmultiplikation eine Gruppe b Die Matrizen der Form ( E O, O B wobei E R

Mehr

4 Eigenwerte und Eigenvektoren

4 Eigenwerte und Eigenvektoren 4 Eigenwerte und Eigenvektoren Sei V {0} ein K Vektorraum und f : V V K linear. Definition: Ein Eigenwert von f ist ein Element λ K, für die es einen Vektor v 0 in V gibt, so dass f(v) = λ v. Sei nun λ

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG Aufgabe 1 Es sei K ein Körper, V ein K-Vektorraum, und seien v 1,..., v n V (n N). (a) Definieren Sie, wann die endliche Familie v 1,...,

Mehr

3 Lineare Algebra Vektorräume

3 Lineare Algebra Vektorräume 3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 23 Die Gradformel Satz 1. Seien K L und L M endliche Körperweiterungen. Dann ist auch K M eine endliche Körpererweiterung und

Mehr

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen. Definition: Lineare Abbildung Lineare Abbildungen Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen. 8.1 Definition: Lineare Abbildung Eine Funktion f : V Ñ W zwischen

Mehr

1 Transponieren, Diagonal- und Dreiecksmatrizen

1 Transponieren, Diagonal- und Dreiecksmatrizen Technische Universität München Thomas Reifenberger Ferienkurs Lineare Algebra für Physiker Vorlesung Mittwoch WS 2008/09 1 Transponieren, Diagonal- und Dreiecksmatrizen Definition 11 Transponierte Matrix

Mehr

Lineare Algebra II 6. Übungsblatt

Lineare Algebra II 6. Übungsblatt Lineare Algebra II 6 Übungsblatt Fachbereich Mathematik SS 2011 Prof Dr Kollross 18/19 Mai 2011 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minimalpolynom) Bestimmen Sie das Minimalpolynom der

Mehr

Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie-

Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie- 1 Vorbemerkungen Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie- benen Vektoren. Wird die Matrix A = ( a 1,..., a n ) mit dem Vektor c = c 1. c n multipliziert,

Mehr

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung Prof. Dr. B. Hanke Dr. J. Bowden Lineare Algebra 2 (SS ) Blatt : Musterlösung Aufgabe. Es sei C (R) der R-Vektorraum der unendlich oft differenzierbaren Funktionen auf R und : C (R) C (R), f f die Abbildung,

Mehr

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger Stefan Lell 2. Juli 2 Aufgabe. Sei t Q und A t = t 4t + 2 2t + 2 t t 2t 2t Mat 3Q a Bestimmen Sie die Eigenwerte von A t in Abhängigkeit

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016, Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren

Mehr

Musterlösungen zur Linearen Algebra II Übungsklausur

Musterlösungen zur Linearen Algebra II Übungsklausur Musterlösungen zur Linearen Algebra II Übungsklausur Aufgabe. Sei A R 3 3. Welche der folgenden Aussagen sind richtig? a Ist det(a =, dann ist A eine orthogonale Matrix. b Ist A eine orthogonale Matrix,

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

2.5 Smith-Normalform für Matrizen über Euklidischen Ringen

2.5 Smith-Normalform für Matrizen über Euklidischen Ringen 2.5. SMITH-NORMALFORM FÜR MATRIZEN ÜBER EUKLIDISCHEN RINGEN73 2.5 Smith-Normalform für Matrizen über Euklidischen Ringen Bemerkung 2.74. Sei K ein Körper und A K n m, b K n 1. Das lineare Gleichungssystem

Mehr

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen 1 Zum Aufwärmen 1.1 Notationen In diesem Teil der Vorlesung bezeichnen wir Körper mit K, Matrizen mit Buchstaben A,B,..., Vektoren mit u,v,w,... und Skalare mit λ,µ,... Die Menge der m n Matrizen bezeichnen

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof. Dr. H. Brenner Osnabrück WS 0/06 Lineare Algebra und analytische Geometrie I Vorlesung... und ein guter Lehrer kann auch einem schlechten Schüler was beibringen Beziehung zwischen Eigenräumen Wir

Mehr

Übungen zur Vorlesung Lineare Algebra

Übungen zur Vorlesung Lineare Algebra Übungen zur Vorlesung Lineare Algebra Institut für Reine Mathematik WS 2009/10 & SS 2010 Kapitel 1. Vektorräume Was ist ein Vektorraum? Sei X und K ein Körper. Wie macht man Abb (X, K) zu einem K -Vektorraum?

Mehr

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015 sskizzen der Klausur zur Linearen Algebra im Herbst 5 Aufgabe I. Es sei (G, ) eine Gruppe mit neutralem Element e und M {x G x x e}. Zeigen Sie: (a) Ist G kommutativ, so ist M eine Untergruppe von G. (b)

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Musterlösung der Klausur zur linearen Algebra II

Musterlösung der Klausur zur linearen Algebra II David Blottière SS 7 Patrick Schützdeller Universität Paderborn Julia Sauter Musterlösung der Klausur zur linearen Algebra II Aufgabe 1 Bestimmen Sie Jordan-Normalformen der folgenden Matrizen, und schreiben

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 12. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 14, 2017 1 Erinnerung: Determinanten, Orthogonale/unitäre Matrizen Sei A R 2 2, dann kann die Inverse

Mehr

6.3 Eigenwerte. γ ist Eigenwert von T [T] B B γi ist nicht invertierbar.

6.3 Eigenwerte. γ ist Eigenwert von T [T] B B γi ist nicht invertierbar. Um zu zeigen, dass die irreduziblen Teiler eines reellen Polynoms höchstens den Grad 2 haben, fassen wir nun (x γ) und (x γ) zusammen und stellen fest, dass (x (a + b i))(x ((a b i)) = x 2 2a + (a 2 +

Mehr

Lineare Algebra II, Lösungshinweise Blatt 9

Lineare Algebra II, Lösungshinweise Blatt 9 Prof Dr Katrin Wendland Priv Doz Dr Katrin Leschke Christoph Tinkl SS 27 Lineare Algebra II, Lösungshinweise Blatt 9 Aufgabe (4 Punkte) Sei 2 3 4 A = 5 6 Berechnen Sie A k für alle k N und verifizieren

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=

Mehr

Lösungsskizze zur Wiederholungsserie

Lösungsskizze zur Wiederholungsserie Lineare Algebra D-MATH, HS Prof. Richard Pink Lösungsskizze zur Wiederholungsserie. [Aufgabe] Schreibe die lineare Abbildung f : Q Q 5, x +x +x x x +x +6x f x := x +x +8x x x +x +x. x +x +5x als Linksmultiplikation

Mehr

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

5 Matrizen. In dem linearen Gleichungssystem. wollen wir die Koeffizienten zusammenfassen zu einer Matrix A =

5 Matrizen. In dem linearen Gleichungssystem. wollen wir die Koeffizienten zusammenfassen zu einer Matrix A = 74 5 Matrizen K sei ein fest gewählter Körper In dem linearen Gleichungssystem α ξ + α 2 ξ 2 + +α n ξ n = 0 α 2 ξ + +α 2n ξ n = 0 α m ξ + + +α mn ξ n = 0 wollen wir die Koeffizienten zusammenfassen zu

Mehr

3.3 Das charakteristische Polynom

3.3 Das charakteristische Polynom LinAlg II Version 1 2. Mai 2006 c Rudolf Scharlau 209 3.3 Das charakteristische Polynom Wir setzen die im vorigen Abschnitt begonnene Untersuchung von Eigenvektoren und Eigenwerten fort und stellen den

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof. Dr. H. Brenner Osnabrück WS 2015/2016 Lineare Algebra und analytische Geometrie I Vorlesung 24 Das Lernen und der Orgasmus finden letztlich im Kopf statt Der Satz von Cayley-Hamilton Arthur Cayley

Mehr

i) ii) iii) iv) i) ii) iii) iv) v) gilt (Cauchy-Schwarz-Ungleichung): Winkel zwischen zwei Vektoren : - Für schreibt man auch.

i) ii) iii) iv) i) ii) iii) iv) v) gilt (Cauchy-Schwarz-Ungleichung): Winkel zwischen zwei Vektoren : - Für schreibt man auch. Abbildungen Rechnen Matrizen Rechnen Vektoren Äquivalenzrelation Addition: Skalarmultiplikation: Skalarprodukt: Länge eines Vektors: Vektorprodukt (im ): i ii i ii v) gilt (Cauchy-Schwarz-Ungleichung):

Mehr

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit 3 Lineare Algebra (Teil : Lineare Unabhängigkeit 3. Der Vektorraum R n Die Menge R n aller n-dimensionalen Spalten a reeller Zahlen a,..., a n R bildet bezüglich der Addition a b a + b a + b. +. :=. (53

Mehr

Musterlösungen zur Linearen Algebra II Weihnachtszettel

Musterlösungen zur Linearen Algebra II Weihnachtszettel Musterlösungen zur Linearen Algebra II Weihnachtszettel Aufgabe. Welche der folgenden Matrizen 3 0 0 A = 0 4, B = 3, C = 0 0 0 6 0 0 0 sind über R und welche über C diagonalisierbar? Bestimmen Sie dazu

Mehr

5 Die Allgemeine Lineare Gruppe

5 Die Allgemeine Lineare Gruppe 5 Die Allgemeine Lineare Gruppe Gegeben sei eine nicht leere Menge G und eine Abbildung (Verknüpfung) : G G G, (a, b) a b( a mal b ) Das Bild a b von (a, b) heißt Produkt von a und b. Andere gebräuchliche

Mehr

Ausgewählte Lösungen zu den Übungsblättern 4-5

Ausgewählte Lösungen zu den Übungsblättern 4-5 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit

Mehr

5 Quadriken. K = { R 2 ax 2 + bxy + cy 2 + dx + ey + f = 0} wobei a, b, c, d, e, f reelle Zahlen sind mit (a, b, c) (0, 0, 0).

5 Quadriken. K = { R 2 ax 2 + bxy + cy 2 + dx + ey + f = 0} wobei a, b, c, d, e, f reelle Zahlen sind mit (a, b, c) (0, 0, 0). 5 Quadriken Kegelschnitte Ein Kegelschnitt ist eine Teilmenge K R 2, welche durch eine quadratische Gleichung in zwei Unbestimmten beschrieben werden kann: x K = { R 2 ax 2 + bxy + cy 2 + dx + ey + f =

Mehr

Algebraische Zahlentheorie. Teil II. Die Diskriminante.

Algebraische Zahlentheorie. Teil II. Die Diskriminante. II-1 Algebraische Zahlentheorie Teil II Die Diskriminante Sei K ein Zahlkörper vom Grad n (also [K : Q] = n) Es gibt genau n Körper- Homomorphismen σ i : K C (siehe Merkzettel Separabilität) Stellen wir

Mehr

3. Übungsblatt zur Lineare Algebra I für Physiker

3. Übungsblatt zur Lineare Algebra I für Physiker Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte

Mehr

β 1 x :=., und b :=. K n β m

β 1 x :=., und b :=. K n β m 44 Lineare Gleichungssysteme, Notations Betrachte das lineare Gleichungssystem ( ) Sei A = (α ij ) i=,,m j=,n α x + α x + + α n x n = β α x + α x + + α n x n = β α m x + α m x + + α mn x n = β m die Koeffizientenmatrix

Mehr

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW Lineare Gleichungssysteme Lösen Sie folgende Gleichungssysteme über R: a) x + x + x = 6x + x + x = 4 x x x = x 7x x = 7 x x = b) x + x 4x + x 4 = 9 x + 9x x x

Mehr

1. Übungsblatt: Lineare Algebra II Lösungsskizzen

1. Übungsblatt: Lineare Algebra II Lösungsskizzen Institut für Mathematik Universität Hannover Prof. Dr. K. Hulek, Dr. D. Wille Hannover, den 9. April. Übungsblatt: Lineare Algebra II sskizzen Aufgabe (,, Punkte) Der Vektorraum V = C[, ] sei mit dem üblichen

Mehr

7.2 Die adjungierte Abbildung

7.2 Die adjungierte Abbildung 7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)

Mehr

5 Minimalpolynom und charakteristisches Polynom

5 Minimalpolynom und charakteristisches Polynom 5 Minimalpolynom und charakteristisches Polynom 5.1 Lemma Sei A K n n. Dann ist λ K genau dann ein Eigenwert von A, wenn det(λe n A) = 0. 5.2 Beispiel ( ) 1 4 i) A = R 1 1 2 2 det(λe 2 A) = λ 1 4 1 λ 1

Mehr

Stichwortliste zur Vorlesung. Lineare Algebra II. Gabriela Weitze-Schmithüsen. Saarbrücken, Sommersemester 2016

Stichwortliste zur Vorlesung. Lineare Algebra II. Gabriela Weitze-Schmithüsen. Saarbrücken, Sommersemester 2016 Stichwortliste zur Vorlesung Lineare Algebra II Gabriela Weitze-Schmithüsen Saarbrücken, Sommersemester 2016 Kapitel I Jordansche Normalform Ziel: Wir möchten Matrizen bis aus Ähnlichkeit klassifizieren.

Mehr

Ringe. Kapitel Einheiten

Ringe. Kapitel Einheiten Kapitel 8 Ringe Die zahlreichen Analogien zwischen Matrizenringen und Endomorphismenringen (beides sind zugleich auch Vektorräume) legen es nahe, allgemeinere ringtheoretische Grundlagen bereitzustellen,

Mehr

Klausurvorbereitungsblatt Lineare Algebra

Klausurvorbereitungsblatt Lineare Algebra Klausurvorbereitungsblatt Lineare Algebra Sommersemester 25 Aufgabe 2 2 Sei A 3 3 8 2 4 3 R4 5. 5 2 a) Bestimmen Sie die Lösungsmenge des linearen Gleichungssystems Ax b) Ist Ax b mit b lösbar? (Begründen

Mehr

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q:

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q: Lineare Algebra D-MATH, HS 214 Prof Richard Pink Serie 5 1 [Aufgabe] Invertieren Sie folgende Matrizen über Q: 1 a) 1 1 1 1 1 2 1 1 1 b) 1 2 1 1 1 1 2 1 1 1 1 2 1 2 3 1 c) 1 3 3 2 2 1 5 3 1 2 6 1 [Lösung]

Mehr

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y.

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y. Determinanten Motivation: Man betrachte das lineare Gleichungssystem [ [ [ a b x u = (1) c d y v Sei obda a und c Dann ist (1) äquivalent zu [ [ ca cb x = ac ad y und ferner zu [ [ ca cb x ad cb y Falls

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

Lineare Algebra II 3. Übungsblatt

Lineare Algebra II 3. Übungsblatt Lineare Algebra II 3. Übungsblatt Fachbereich Mathematik SS 2011 Prof. Dr. Kollross 27./28. April 2011 Susanne Kürsten Tristan Alex Minitest Aufgabe M1 (Formale Polynome) Betrachten Sie die folgenden Polynome

Mehr

Mathematik I. Vorlesung 16. Eigentheorie

Mathematik I. Vorlesung 16. Eigentheorie Prof Dr H Brenner Osnabrück WS 009/00 Mathematik I Vorlesung 6 Eigentheorie Unter einer Achsenspiegelung in der Ebene verhalten sich gewisse Vektoren besonders einfach Die Vektoren auf der Spiegelungsachse

Mehr

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ)) Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 18 Vielfachheiten und diagonalisierbare Abbildungen Satz 18.1. Es sei K ein Körper und es sei V ein endlichdimensionaler K- Vektorraum.

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

Lineare Algebra II 11. Übungsblatt

Lineare Algebra II 11. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross 9 / Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest (Bearbeitung innerhalb von Minuten und ohne Benutzung des

Mehr

3 Definition: 1. Übungsblatt zur Vorlesung Lineare Algebra I. im WS 2003/2004 bei Prof. Dr. S. Goette

3 Definition: 1. Übungsblatt zur Vorlesung Lineare Algebra I. im WS 2003/2004 bei Prof. Dr. S. Goette 1. Übungsblatt zur Vorlesung Abgabe Donnerstag, den 30.10.03 1 Finden 2 Sei Sie reelle Zahlen a, b, c, so dass a (2, 3, 1) + b (1, 2, 2) + c (2, 5, 3) = (3, 7, 5). (V,, ) ein euklidischer Vektorraum. Zeigen

Mehr

V. Lineare Algebra. 35 Lineare Abbildungen und Matrizen. 156 V. Lineare Algebra

V. Lineare Algebra. 35 Lineare Abbildungen und Matrizen. 156 V. Lineare Algebra 156 V. Lineare Algebra V. Lineare Algebra 35. Lineare Abbildungen und Matrizen 156 36. Eigenwerte und Eigenvektoren 161 37. Hauptvektoren 165 38. Normen und Neumannsche Reihe 168 39. Numerische Anwendungen

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 2016

Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 2016 Name, Vorname Matrikel-Nr. Aufg. Aufg.2 Aufg.3 Aufg.4 Σ Note bzw. Kennzeichen Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 206 Bearbeiten Sie bitte

Mehr

R 3 und U := [e 2, e 3 ] der von e 2, e 3 erzeugte

R 3 und U := [e 2, e 3 ] der von e 2, e 3 erzeugte Aufgabe ( Es seien e =, e = Untervektorraum (, e = ( R und U := [e, e ] der von e, e erzeugte Weiter sei G := {A GL(, R A e = e und A U U} (a Zeigen Sie, dass G eine Untergruppe von GL(, R ist (b Geben

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

Inhaltsverzeichnis. I Lineare Gleichungssysteme und Matrizen 1. Vorwort

Inhaltsverzeichnis. I Lineare Gleichungssysteme und Matrizen 1. Vorwort Vorwort V I Lineare Gleichungssysteme und Matrizen 1 1 Der Begriff des Körpers 3 1.1 Mengen 3 1.2 Köiperaxiome 3 1.3 Grundlegende Eigenschaften von Körpern 5 1.4 Teilkörper 7 1.5 Aufgaben 8 1.5.1 Grundlegende

Mehr

Lineare Algebra und Analytische Geometrie I für die Fachrichtung Informatik

Lineare Algebra und Analytische Geometrie I für die Fachrichtung Informatik Universität Karlsruhe (TH) Institut für Algebra und Geometrie Dr. Klaus Spitzmüller Dipl.-Inform. Wolfgang Globke Lineare Algebra und Analytische Geometrie I für die Fachrichtung Informatik Lösungen zum

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Matrizen: Theorie und Anwendungen

Matrizen: Theorie und Anwendungen Einführungsvortrag der Lehrerfortbildung am 23 September 2009 Markoff-Ketten, Call-Center und Google s PageRank: Zur Theorie und Anwendungen von Matrizen von Harm Pralle Institut für Mathematik Technische

Mehr

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr