Lineare Algebra II. Sommersemester Wolfgang Ebeling. Korrigierte Fassung

Größe: px
Ab Seite anzeigen:

Download "Lineare Algebra II. Sommersemester Wolfgang Ebeling. Korrigierte Fassung"

Transkript

1 Lineare Algebra II Sommersemester 2015 Wolfgang Ebeling Korrigierte Fassung 1

2 c Wolfgang Ebeling Institut für Algebraische Geometrie Leibniz Universität Hannover Postfach Hannover

3 1 Summen von Vektorräumen 3 1 Summen von Vektorräumen Im Folgenden sei K zunächst ein beliebiger Körper Wir betrachten verschiedene Summen von Vektorräumen Definition Es sei V ein K-Vektorraum und U 1, U 2 Unterräume von V Dann heißt U 1 + U 2 := {u 1 + u 2 u 1 U 1, u 2 U 2 } die Summe von U 1 und U 2 Lemma 11 Für die oben definierte Summe U 1 +U 2 der Unterräume U 1 und U 2 gilt: (i) U 1 + U 2 = Span(U 1 U 2 ) (ii) U 1 + U 2 V ist ein Unterraum (iii) dim(u 1 + U 2 ) dim U 1 + dim U 2 Beweis (i) U 1 + U 2 Span(U 1 U 2 ) ist klar Zum Beweis der umgekehrten Inklusion sei v Span(U 1 U 2 ) Dann gibt es u 1,, u k U 1, w 1,, w m U 2 und λ 1,, λ k, µ 1,, µ m K mit v = λ 1 u λ k u k + µ 1 w µ m w m Setze v 1 := λ 1 u λ k u k und v 2 := µ 1 w µ m w m Dann ist v 1 U 1 und v 2 U 2, also v = v 1 + v 2 U 1 + U 2 (ii) folgt aus (i) (iii) Ist u 1,, u k eine Basis von U 1 und w 1,, w m eine Basis von U 2, so ist u 1,, u k, w 1,, w m ein Erzeugendensystem von Span(U 1 U 2 ) Damit folgt die Behauptung aus (i) Satz 11 (Dimensionsformel für Summen) Für endlich dimensionale Unterräume U 1, U 2 V gilt dim(u 1 + U 2 ) = dim U 1 + dim U 2 dim(u 1 U 2 ) Beweis Es sei {v 1,, v m } eine Basis von U 1 U 2 Wir ergänzen diese Basis zu Basen {v 1,, v m, u 1,, u k } von U 1 und {v 1,, v m, u 1,, u l} von U 2 Wir müssen zeigen: B := {v 1,, v m, u 1,, u k, u 1,, u l} ist eine Basis von U 1 + U 2

4 1 Summen von Vektorräumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 U 2 ) und nach Lemma 11(i) damit von U 1 + U 2 ist Wir müssen also noch zeigen, dass B linear unabhängig ist Dazu sei Wir setzen λ 1 v λ m v m + µ 1 u µ k u k + µ 1u µ lu l = 0 v := λ 1 v λ m v m + µ 1 u µ k u k Dann ist v U 1 und v = µ 1u µ l u l U 2 Daraus folgt v U 1 U 2 Also ist v = λ 1v λ mv m für gewisse Skalare λ 1,, λ m Da {v 1,, v m, u 1,, u k } eine Basis von U 1 bildet, folgt aus der Eindeutigkeit der Darstellung von v als Linearkombination der Vektoren dieser Basis insbesondere µ 1 = = µ k = 0 Setzen wir dies in die obige Gleichung ein, so folgt λ 1 = = λ m = µ 1 = = µ l = 0 Lemma 12 Ist V = U 1 + U 2, so sind die folgenden Aussagen äquivalent: (i) U 1 U 2 = {0} (ii) Jedes v V lässt sich eindeutig darstellen als v = u 1 + u 2 mit u 1 U 1 und u 2 U 2 (iii) Je zwei vom Nullvektor verschiedene Vektoren u 1 U 1 und u 2 U 2 sind linear unabhängig Beweis (i) (ii): Es sei v = u 1 + u 2 = u 1 + u 2 (u 1, u 1 U 1, u 2, u 2 U 2 ) Dann folgt u 1 u 1 = u 2 u 2 U 1 U 2, nach (i) also u 1 u 1 = u 2 u 2 = 0 (ii) (iii): Nach (ii) besitzt der Nullvektor eine eindeutige Darstellung 0 = 0u 1 + 0u 2 (iii) (i): Es sei 0 v U 1 U 2 Dann sind nach (iii) v und v linear unabhängig im Widerspruch zu 1v + ( 1)v = 0 Ist eine der drei äquivalenten Bedingungen von Lemma 12 erfüllt, so heißt V die direkte Summe von U 1 und U 2 Also gilt z B:

5 1 Summen von Vektorräumen 5 Definition Ein Vektorraum V heißt direkte Summe von zwei Unterräumen U 1 und U 2, in Zeichen V = U 1 U 2, wenn V = U 1 + U 2 und U 1 U 2 = {0} Beispiel 11 Es sei V = R 3 Ist U 1 = Span{e 1, e 2 } und U 2 = Span{e 3 }, so ist V = U 1 U 2 Ist dagegen U 3 = Span{e 2, e 3 }, so ist zwar V = U 1 + U 3, die Summe ist aber nicht direkt, da U 1 U 3 = Span{e 2 } Satz 12 Es sei V ein endlich dimensionaler K-Vektorraum und U 1, U 2 Untervektorräume von V Dann sind die folgenden Bedingungen äquivalent: (i) V = U 1 U 2 (ii) Es gibt Basen {u 1,, u k } von U 1 und {u 1,, u l } von U 2, so dass {u 1,, u k, u 1,, u l } eine Basis von V ist (iii) Es gilt V = U 1 + U 2 und dim V = dim U 1 + dim U 2 Beweis (i) (ii) folgt aus dem Beweis der Dimensionsformel (Satz 11) und der Tatsache, dass U 1 U 2 = {0} (ii) (iii) ist klar (iii) (i): Aus der Dimensionsformel folgt dim(u 1 U 2 ) = 0 Daraus folgt U 1 U 2 = {0} Definition Es sei U V ein Unterraum Ein Unterraum W V heißt Komplement von U in V, falls U W = V Bemerkung 11 Zu einem Unterraum U ist ein Komplement W im Allgemeinen nicht eindeutig bestimmt: Ist zum Beispiel V = R 3 und U = Span{e 1, e 2 }, so sind W 1 = Span{e 3 } und W 2 = Span{e 1 + e 3 } Komplemente von U Satz 13 Ist V endlich dimensional und U V ein Unterraum, so besitzt U ein Komplement in V Beweis Man nehme eine Basis {v 1,, v r } von U und ergänze sie nach I, Satz 114, zu einer Basis {v 1,, v r, v r+1,, v n } von V Man setze W := Span{v r+1,, v n } Nun sei K = R oder K = C und (V,, ) ein euklidischer (K = R) oder unitärer (K = C) Vektorraum

6 1 Summen von Vektorräumen 6 Definition Es sei V ein euklidischer (unitärer) Vektorraum (a) Zwei Vektoren v, w V heißen orthogonal, in Zeichen v w, falls vw = 0 (b) Zwei Unterräume U, W V heißen orthogonal, in Zeichen U W, falls u w für alle u U, w W (c) Ist U ein Unterraum, so heißt U := {v V u, v = 0 für alle u U} das orthogonale Komplement von U Bemerkung 12 Das orthogonale Komplement U eines Unterraums U ist ein Unterraum Aus dem unten stehenden Satz 14 folgt, dass es ein Komplement von U ist Definition Es sei V ein euklidischer (unitärer) Vektorraum und U 1, U 2 Unterräume von V Man sagt, V ist die orthogonale direkte Summe der Unterräume U 1 und U 2, in Zeichen V = U 1 U 2, falls (i) V = U 1 U 2 und (ii) U 1 U 2 Lemma 13 Es sei V ein euklidischer (unitärer) Vektorraum und U 1, U 2 Unterräume von V Gilt (i) V = U 1 + U 2 und (ii) U 1 U 2, so ist V die orthogonale direkte Summe der Unterräume U 1 und U 2 Beweis Wir haben zu zeigen: U 1 U 2 = {0} Es sei v U 1 U 2, v 0 Wegen (i) ist v = u 1 + u 2 mit u 1 U 1 und u 2 U 2 Dann gilt 0 v, v = v, u 1 + v, u 2 = 0 wegen (ii), ein Widerspruch Satz 14 Es sei V ein endlich dimensionaler euklidischer (unitärer) Vektorraum und W V ein Unterraum Dann gilt V = W W Insbesondere ist dim V = dim W + dim W

7 1 Summen von Vektorräumen 7 Beweis Es sei {w 1,, w m } eine ON-Basis von W Diese ergänze man nach I, Satz 202, zu einer ON-Basis {w 1,, w m, w m+1,, w n } von V Dann ist w m+1,, w n W Es sei nun v V Dann können wir v schreiben als mit v = λ 1 w λ m w m + λ m+1 w m λ n w n λ 1 w λ m w m W, λ m+1 w m λ n w n W Daraus folgt die Behauptung Wir wollen nun auch Summen von mehr als zwei Unterräumen betrachten Definition Es sei V ein K-Vektorraum und U 1,, U s Unterräume von V Dann heißt U U s := {u u s u i U i, i = 1,, s} die Summe von U 1,, U s Wie oben beweist man: Lemma 14 Für die Summe U U s der Unterräume U 1,, U s gilt: (i) U U s = Span(U 1 U s ) (ii) U U s V ist ein Unterraum (iii) dim(u U s ) dim U dim U s Satz 15 Ist V = U U s, so sind die folgenden Aussagen äquivalent: (i) Für jedes i = 1,, s gilt: Ist W i := U Ûi + + U s, so ist U i W i = {0} (Hierbei bedeutet Ûi: In der Summe wird U i weggelassen, nimmt seinen Hut und geht ) (ii) Jedes Element v V lässt sich eindeutig darstellen als v = u 1 + +u s mit u i U i (iii) Für jede Teilmenge I {1,, s} gilt: Ist für i I u i U i, u i 0, so ist die Teilmenge S I := {u i i I} linear unabhängig Definition Ist eine der äquivalenten Bedingungen von Satz 15 erfüllt, so heißt V die direkte Summe von U 1,, U s, in Zeichen V = U 1 U s

8 1 Summen von Vektorräumen 8 Beweis (i) (ii): Es sei Dann folgt v = u u s = u u s (u i, u i U i ) u i u i = (u 1 u 1 )+ +(u i 1 u i 1 )+(u i+1 u i+1 )+ +(u s u s ) W i U i Nach (i) folgt u i u i = 0 (ii) (iii): Es sei I = {i 1,, i r } {1,, s} und λ 1 u i1 + + λ r u ir = 0 Da nach (ii) auch der Nullvektor 0 V eine eindeutige Darstellung 0 = 0u i u ir besitzt, folgt λ 1 = = λ r = 0 (iii) (i): Es sei W i U i {0} Dann gibt es ein u i U i mit u i 0 und u i = u u i 1 + u i u s mit u j U j Es sei I die Menge aller Indizes j {1,, s} mit u j Teilmenge S I linear abhängig im Widerspruch zu (iii) 0 Dann ist die Satz 16 Es sei V ein endlich dimensionaler K-Vektorraum und U 1,, U s Unterräume von V Dann sind die folgenden Bedingungen äquivalent: (i) V = U 1 U s (ii) Ist für jedes i {1,, s} eine Basis {u (i) 1,, u (i) k i } von U i gegeben, so ist {u (1) 1,, u (1) k 1,, u (s) 1,, u (s) k s } eine Basis von V (iii) Es gilt V = U U s und dim V = dim U dim U s Beweis (i) (ii): Es sei B := {u (1) 1,, u (1) k 1,, u (s) 1,, u (s) k s } Offensichtlich ist B ein Erzeugendensystem von V Es reicht daher zu zeigen, dass B linear unabhängig ist Dazu sei λ (1) 1 u (1) λ (1) k 1 u (1) k λ (s) 1 u (s) λ (s) k s u (s) k s = 0

9 1 Summen von Vektorräumen 9 Setzen wir w i := λ (i) 1 u (i) λ (i) k i u (i) k i, so folgt w w s = 0 Aus Satz 15 (iii) folgt w 1 = = w s = 0 Also ist λ (i) 1 u (i) λ (i) k i u (i) k i = 0 für i = 1,, s Daraus folgt λ (i) 1 = = λ (i) k i = 0 (ii) (iii) ist klar (ii) (i) folgt aus Satz 15 (ii) Es sei nun wieder K = R, C und V ein euklidischer (unitärer) Vektorraum Definition Es sei V ein euklidischer (unitärer) Vektorraum und U 1,, U s Unterräume von V Man sagt, V ist die orthogonale direkte Summe der Unterräume U 1, U s, in Zeichen V = U 1 U s, falls (i) V = U 1 U s und (ii) U i U j für i j Lemma 15 Es sei V ein euklidischer (unitärer) Vektorraum und U 1,, U s Unterräume von V Gilt (i) V = U U s und (ii) U i U j für i j, so ist V die orthogonale direkte Summe der Unterräume U 1,, U s Beweis Wir haben zu zeigen: U i W i = {0} Es sei v U i W i, v 0 Dann gilt v = u u i 1 + u i u s mit u j U j Da U i U j für i j gilt, folgt dann 0 v, v = v, u v, u i 1 + v, u i v, u s = 0, ein Widerspruch

10 2 Normierte Vektorräume 10 2 Normierte Vektorräume Es sei K = R, C und V ein K-Vektorraum Ist, : V V K eine symmetrische Bilinearform (hermitesche Sesquilinearform), so erhält man daraus eine Abbildung q : V K v q(v) := v, v Sie heißt die zu, gehörige quadratische Form Man kann, aus q zurückgewinnen Dies nennt man Polarisierung: K = R : v, w = 1 (q(v + w) q(v w)), 4 K = C : v, w = 1 (q(v + w) q(v w) + iq(v + iw) iq(v iw)) 4 (Beweis durch Nachrechnen) Definition Es sei V ein K-Vektorraum Unter einer Norm auf V versteht man eine Funktion : V R v v mit folgenden Eigenschaften: (i) v 0, v = 0 v = 0, (ii) λv = λ v für alle λ K, v V (iii) v + w v + w für alle v, w V (Dreiecksungleichung) Ein normierter Vektorraum ist ein Paar (V, ), das aus einem Vektorraum V und einer Norm auf V besteht Definition Es sei X eine Menge Unter einer Metrik auf X versteht man eine Abbildung d : X X R (x, y) d(x, y) mit folgenden Eigenschaften: (i) d(x, y) = 0 x = y (ii) d(x, y) = d(y, x) für alle x, y X (Symmetrie) (iii) d(x, z) d(x, y) + d(y, z) für alle x, y, z X (Dreiecksungleichung)

11 2 Normierte Vektorräume 11 Ein metrischer Raum ist ein Paar (X, d), X Menge, d Metrik Man nennt d(x, y) den Abstand oder die Distanz der Punkte x und y bzgl d Bemerkung 21 Aus den Axiomen folgt, dass d(x, y) 0 für alle x, y X Beweis Wende Dreiecksungleichung auf x, y, x an: 0 (i) = d(x, x) d(x, y) + d(y, x) (ii) = 2d(x, y) Satz 21 Es sei (V, ) ein normierter Vektorraum Dann wird durch eine Metrik d auf V definiert Beweis d(x, y) := x y für x, y V (i) d(x, y) = 0 x y = 0 x y = 0 x = y (ii) d(x, y) = x y = 1 x y = y x = d(y, x) (iii) d(x, z) = x z = x y+y z x y + y z = d(x, y)+d(y, z) Satz 22 Ist (V,, ) ein euklidischer (unitärer) Vektorraum, so wird durch eine Norm auf V definiert v := v, v Für den Beweis dieses Satzes brauchen wir das folgende Resultat: Satz 23 (Cauchy-Schwarzsche Ungleichung) Für v, w V gilt v, w v w und Gleichheit gilt genau dann, wenn v und w linear abhängig sind Beweis Für w = 0 sind beide Seiten der Ungleichung gleich 0, die Ungleichung ist daher erfüllt Es genügt daher, den Fall w 0 zu behandeln Für λ, µ K gilt 0 λv + µw, λv + µw = λλ v, v + λµ v, w + λµ w, v + µµ w, w

12 3 Normalform orthogonaler und unitärer Endomorphismen 12 Setzen wir nun λ := w, w und µ := v, w, so folgt 0 λ( v, v w, w v, w v, w ) = λ( v 2 w 2 v, w 2 ) Wegen λ 0 folgt daraus 0 v 2 w 2 v, w 2 Nun ziehen wir auf beiden Seiten die Quadratwurzel Dann bleibt das Ungleichheitszeichen erhalten und wir erhalten die behauptete Ungleichung Für den Beweis des Zusatzes bemerken wir (für λ := w, w und µ := v, w ) : v, w = v w λv + µw, λv + µw = 0 λv + µw = 0 v = µ λ w Man beachte, dass dies der gleiche Beweis wie für I, Satz 34 ist, nur dass wir statt einer symmetrischen Bilinearform auch eine hermitesche Sesquilinearform zugelassen haben Beweis von Satz 22 (i) und (ii) sind einfach (siehe Vorlesung) (iii): Um die Dreiecksungleichung v + w, v + w v, v + w, w zu beweisen, geht man durch Quadrieren zu der äquivalenten Ungleichung v + w, v + w v, v + 2 v, v w, w + w, w über, die gleichbedeutend ist mit v, v + 2 v, w + w, w v, v + 2 v, v w, w + w, w Diese Ungleichung ist äquivalent zu der Cauchy-Schwarzschen Ungleichung 3 Normalform orthogonaler und unitärer Endomorphismen Nun sei im Folgenden wieder K = R, C und (V,, ) ein euklidischer (unitärer) Vektorraum Wir erinnern an die folgende Definition

13 3 Normalform orthogonaler und unitärer Endomorphismen 13 Definition Es sei V ein euklidischer (unitärer) Vektorraum Ein Endomorphismus f : V V heißt orthogonal (unitär), falls gilt: f(v), f(w) = v, w für alle v, w V Theorem 31 Es sei V ein unitärer Vektorraum der Dimension n und f : V V ein unitärer Endomorphismus Dann besitzt V eine ON-Basis, die aus Eigenvektoren von f besteht Insbesondere ist f diagonalisierbar Beweis Der zugrundeliegende Körper ist C und die Eigenwerte von f sind die Nullstellen des charakteristischen Polynoms P f (x), das ein komplexes Polynom ist Nach dem Fundamentalsatz der Algebra hat P f (x) genau n Nullstellen λ 1, λ n C Also gilt P f (x) = (x λ 1 ) (x λ n ) Wir führen nun Induktion nach n = dim V durch Der Induktionsanfang n = 1 ist klar Wir nehmen nun an, dass die Behauptung bereits für n 1 bewiesen ist Es sei v 1 ein Eigenvektor von f zum Eigenwert λ 1 Ohne Einschränkung können wir annehmen, dass v 1 = 1 Es sei Dann gilt nach Satz 14 Behauptung f(w ) = W W := Span{v 1 } = {w V v 1, w = 0} V = Span{v 1 } W Beweis Da f ein Isomorphismus ist, reicht es zu zeigen: f(w ) W Nach I, Satz 211 (v), gilt λ 1 = 1 Damit gilt für w W : λ 1 v 1, f(w) = λ 1 v 1, f(w) = f(v 1 ), f(w) = v 1, w = 0 Da λ 1 0 folgt v 1, f(w) = 0, also f(w) W Nun betrachten wir den Endomorphismus f W : W W Da f W die Einschränkung eines unitären Endomorphismus ist, ist f W auch wieder unitär Da dim W = n 1 können wir auf f W : W W die Induktionsvoraussetzung anwenden Danach besitzt W eine ON-Basis {v 2,, v n } aus Eigenvektoren Dann ist B := {v 1, v 2,, v n } eine ON-Basis von V aus Eigenvektoren

14 3 Normalform orthogonaler und unitärer Endomorphismen 14 Korollar 31 Eine unitäre Matrix A ist diagonalisierbar Genauer gilt: Es gibt eine unitäre Matrix S mit λ S T 0 λ 2 0 AS = 0 0 λ n Hierbei gilt λ i = 1 für i = 1,, n Beweis Siehe Vorlesung In LA I hatten wir bereits orthogonale Abbildungen f : R n R n betrachtet und für n = 1, 2, 3 klassifiziert Allgemeiner wollen wir nun beweisen: Theorem 32 Es sei V ein euklidischer Vektorraum der Dimension n und f : V V ein orthogonaler Endomorphismus Dann besitzt V eine ON-Basis B, bezüglich der f die Darstellungsmatrix MB B (f) =, 1 0 A 1 A k besitzt, wobei für j = 1,, k ( cos αj sin α A j = j sin α j cos α j ) mit α j [0, 2π), aber α j 0, π Für den Beweis dieses Theorems brauchen wir ein Lemma Lemma 31 Jedes Polynom P (x) mit reellen Koeffizienten besitzt eine Zerlegung P (x) = (x λ 1 ) (x λ r )Q 1 (x) Q k (x), wobei λ 1,, λ r R und Q 1 (x),, Q k (x) Polynome vom Grad 2 sind, die keine reelle Nullstelle haben

15 3 Normalform orthogonaler und unitärer Endomorphismen 15 Beweis Das Polynom P (x) hat n komplexe Nullstellen Ist λ C eine Nullstelle von P (x), so auch λ: P (λ) = a 0 + a 1 λ + + a n λ n = a 0 + a 1 λ + + a n λ n = P (λ) = 0 = 0 Also hat man eine Zerlegung P (x) = (x λ 1 ) (x λ r )(x µ 1 )(x µ 1 ) (x µ k )(x µ k ), wobei λ 1,, λ r R und µ 1,, µ k R Es sei j = 1,, k und µ j = ξ j +iη j mit ξ j, η j R Setze Q j (x) = (x µ j )(x µ j ) = x 2 2ξ j x + (ξ 2 j + η 2 j ) Beweis von Theorem 32 Wir führen Theorem 32 auf Theorem 31 zurück Dazu komplexifizieren wir f Es sei B irgendeine ON-Basis von V und A := MB B (f) die Darstellungsmatrix von f bezüglich B Dann ist A orthogonal und als reelle Matrix auch unitär Also ist der Endomorphismus A : C n C n, z Az, unitär Es sei P A (x) = P (x) = (x λ 1 ) (x λ r )(x µ 1 )(x µ 1 ) (x µ k )(x µ k ) die Zerlegung des charakteristischen Polynoms von A, die nach Lemma 31 existiert Nach I, Satz 211 (v) gilt λ i = ±1, i = 1,, r, µ j = cos α j +i sin α j, α j [0, 2π), α j 0, π, j = 1,, k Nach Theorem 31 erhalten wir für A eine ON-Basis B von C n von Eigenvektoren von A Es sei nun z ein Eigenvektor zu einem nicht reellen Eigenwert µ Dann ist z ein Eigenvektor zum Eigenwert µ, denn Az = Az = µz = µ z Deswegen können wir die Basis B so anordnen: v 1,, v p die Eigenvektoren zum Eigenwert + 1, w 1,, w q die Eigenvektoren zum Eigenwert 1, z 1,, z k die Eigenvektoren zu den Eigenwerten µ 1,, µ k, z 1,, z k die Eigenvektoren zu den Eigenwerten µ 1,, µ k Da A reell ist, liegen die Eigenvektoren v 1,, v p, w 1,, w q in R n

16 3 Normalform orthogonaler und unitärer Endomorphismen 16 Zu einem Paar z, z von Eigenvektoren zu µ, µ konstruieren wir nun einen unter A invarianten Unterraum W R n Dazu sei z = x + iy, x, y R n und Behauptung A(W ) = W W := Span{x, y} R n Beweis Es gilt 0 = z, z = x + iy, x iy = x, x y, y + 2i x, y 1 = z, z = x + iy, x + iy = x, x + y, y Daraus folgt x, x = y, y = 1 2 x = 1(z + z), y = 1 (z z) folgt 2 2i und x, y = 0 Aus µ = cos α + i sin α, Ax = 1 2 (Az + Az) = 1 (µz + µ z) = cos αx sin αy, 2 Ay = 1 2i (Az Az) = 1 (µz µ z) = sin αx + cos αy 2i Nun setzen wir x := 2x, y := 2y Bezüglich der ON-Basis {x, y } von W wird die Einschränkung von A auf W beschrieben durch die Matrix ( ) cos α sin α sin α cos α Damit haben wir eine Orthonormalbasis B := {v 1,, v p, w 1,, w q, x 1, y 1,, x k, y k} von R n gefunden, bezüglich der die Abbildung A : R n R n die in Theorem 32 angegebene Gestalt hat Die Transformationsmatrix, die die Standardbasis des R n in die Basis B des R n transformiert, transformiert dann die Basis B von V in eine ON-Basis B von V mit den gewünschten Eigenschaften

17 4 Selbstadjungierte Endomorphismen 17 4 Selbstadjungierte Endomorphismen Es sei V ein euklidischer (unitärer) Vektorraum Definition Ein Endomorphismus f : V V heißt selbstadjungiert, falls f(v), w = v, f(w) für alle v, w V Bemerkung 41 Ist f : V V ein Endomorphismus und V endlich dimensional, so kann man zeigen, dass es genau eine lineare Abbildung f adj : V V mit der Eigenschaft f(v), w = v, f adj (w) für alle v, w V gibt Die Abbildung f adj heißt die zu f adjungierte Abbildung Daher rührt die Bezeichnung selbstadjungiert Satz 41 Es sei dim V <, f : V V ein Endomorphismus und B eine ON-Basis von V Dann ist f genau dann selbstadjungiert, wenn die Darstellungsmatrix MB B (f) bezüglich der Basis B symmetrisch (hermitesch) ist Beweis Es seien v, w V und x bzw y die Koordinatenvektoren von v bzw w bezüglich der Basis B Es sei A := MB B (f) Dann gilt: f(v), w = v, f(w) (Ax) T y = x T (Ay) A T = A Lemma 41 Ist f selbstadjungiert, so sind (auch im komplexen Fall) alle Eigenwerte reell Insbesondere hat eine hermitesche Matrix nur reelle Eigenwerte Beweis Ist f(v) = λv mit v 0, so gilt λ v, v = f(v), v = v, f(v) = v, λv = λ v, v Wegen v 0 folgt daraus λ = λ Theorem 41 Es sei V ein euklidischer (unitärer) Vektorraum und f : V V ein selbstadjungierter Endomorphismus Dann besitzt V eine ON-Basis, die aus Eigenvektoren von f besteht

18 4 Selbstadjungierte Endomorphismen 18 Beweis Ist K = C, so zerfällt das charakteristische Polynom in Linearfaktoren p f (t) = ±(t λ 1 ) (t λ n ) und nach Lemma 41 sind die Eigenwerte λ 1,, λ n reell Auch im Fall K = R zerfällt das charakteristische Polynom in Linearfaktoren: Dazu betrachten wir die Matrixdarstellung A = MB B (f) von f bezüglich irgendeiner ON-Basis B von V Nach Satz 41 ist A symmetrisch Wir können A auch als komplexe Matrix auffassen Dann ist A hermitesch Dann zerfällt das charakteristische Polynom p A (t) = p f (t) über C in Linearfaktoren und nach Lemma 41 sind alle Eigenwerte reell Nun wenden wir Induktion nach n = dim V an: Es sei v 1 ein Eigenvektor von f zum Eigenwert λ 1 O B d A sei v 1 = 1 Es sei W := {w V v 1, w = 0} Behauptung (a) W ist ein Unterraum von V der Dimension n 1 (b) Es gilt f(w ) W Beweis (a) Dass W ein Unterraum von V ist, lässt sich leicht zeigen Wegen v 1 W gilt dim W n 1 Nach I, Satz 202, lässt sich {v 1 } zu einer ON-Basis {v 1, v 2,, v n} von V ergänzen Da v i W für i = 2,, n, folgt dim W n 1, also dim W = n 1 (b) Es gilt für w W : v 1, f(w) = f(v 1 ), w = λ 1 v 1, w = λ 1 v 1, w = 0 Daraus folgt f(w ) W Aufgrund der Behauptung definiert f W einen Endomorphismus f W : W W Da f W die Einschränkung eines selbstadjungierten Endomorphismus ist, ist auch f W wieder selbstadjungiert Da W ein Unterraum von V der Dimension n 1 ist, können wir die Induktionsannahme auf den Endomorphismus f W : W W anwenden Nach Induktionsannahme gibt es eine ON-Basis {v 2,, v n } von Eigenvektoren für f W : W W Dann ist B = {v 1,, v n } eine ON-Basis von Eigenvektoren für f Korollar 41 Ist A Mat(n, n; K) eine symmetrische bzw hermitesche Matrix, so gibt es eine orthogonale bzw unitäre Matrix S, so dass λ 1 0 S T AS = 0 λ n mit λ 1,, λ n R

19 5 Hauptachsentransformation 19 Wir halten noch das folgende Korollar fest Korollar 42 Es sei V ein euklidischer (unitärer) Vektorraum, f : V V ein selbstadjungierter Endomorphismus und λ 1,, λ k die paarweise verschiedenen Eigenwerte Dann ist V = Eig(f, λ 1 ) Eig(f, λ k ) Beweis Aus dem Theorem folgt, dass V die direkte Summe der Eigenräume ist Es bleibt zu zeigen: Eig(f, λ i ) Eig(f, λ j ) für alle i j, i, j = 1,, k Dazu sei v Eig(f, λ i ), w Eig(f, λ j ), i j Dann gilt λ i v, w = λ i v, w = f(v), w = v, f(w) = v, λ j w = λ j v, w Daraus folgt also v, w = 0 (λ i λ j ) v, w = 0, 5 Hauptachsentransformation Es sei s : R n R n R (v, w) s(v, w) eine symmetrische Bilinearform auf dem R n Nach I, Lemma 202, wird sie durch eine symmetrische Matrix A = (s(e i, e j )) gegeben Für x, y R n gilt s(x, y) = x T Ay = Ax, y = x, Ay, wobei, das euklidische Skalarprodukt des R n bezeichnet Die Matrix A definiert daher einen selbstadjungierten Endomorphismus f : R n R n x Ax Aus Theorem 41 und Korollar 41 folgt daher: Satz 51 (Hauptachsentransformation) Es sei A Mat(n, n; R) eine symmetrische Matrix und s die durch A gegebene Bilinearform auf dem R n (i) Die Matrix A hat nur reelle Eigenwerte λ 1,, λ n und sie ist diagonalisierbar Genauer gilt: Es gibt eine orthogonale Matrix S, so dass λ 1 0 S T AS = 0 λ n

20 5 Hauptachsentransformation 20 (ii) Es gibt eine Orthonormalbasis B = (w 1,, w n ) des R n, so dass gilt λ 1 0 (s(w i, w j )) = 0 λ n Beispiel 51 Es sei n = 2 und ( a b A = b a ( ) x Für v = R y 2 gilt s(v, v) = v T Av = ( x y ) ( a b b a ) ) ( x y Im R 2 mit den Koordinaten x, y betrachten wir die Kurve C = {v R 2 s(v, v) = 1} ) = ax 2 + 2bxy + ay 2 = {(x, y) R 2 ax 2 + 2bxy + ay 2 = 1} Wir untersuchen die Eigenwerte und Eigenvektoren der Matrix A Das charakteristische Polynom lautet P A (λ) = λ 2 2aλ + a 2 b 2 = (λ a + b)(λ a b) Die Eigenwerte sind also λ 1 = a + b und λ 2 = a b Als Eigenvektoren berechnet man v 1 = 1 ( ) 1, v = 1 ( ) Sind x, y die Koordinaten des Vektors v bezüglich der Basis B = {v 1, v 2 }, so gilt ( ) x = 1 ( ) ( ) 1 1 x y y, s(v, v) = (a + b)x 2 + (a b)y 2 In den neuen Koordinaten x, y ist also der gemischte Term mit x y verschwunden Wir nehmen an, dass λ 1 > 0 und λ 2 0 Dann setzen wir α = 1 λ1 und β = 1 λ2

21 5 Hauptachsentransformation 21 Damit lautet die Gleichung von C in den Koordinaten x, y : x 2 α 2 ± y 2 β 2 = 1 Im Fall + beschreibt diese Gleichung eine Ellipse, α und β sind gerade die Hauptachsen (vgl Abbildung 1) Im Fall können wir für die linke Seite der Gleichung auch schreiben x 2 α 2 y 2 β 2 = ( x Mit der Koordinatentransformation schreibt sich die Gleichung von C als α + y β ) ( x x = x α + y β, ỹ = x α y β xỹ = 1 α y β Diese Gleichung beschreibt eine Hyperbel, α und β sind wieder die Hauptachsen (vgl Abbildung 2) Deswegen nennt man die obige Transformation auch Hauptachsentransformation Die Matrix S = 1 ( ) ist eine orthogonale Matrix Wegen cos 45 = 1 2 beschreibt S eine Drehung um 45 Das bedeutet, dass die durch ax 2 + 2bxy + ay 2 = 1 gegebene Kurve nach einer Drehung des Koordinatensystems um 45 in Hauptachsenform vorliegt Beispiel 52 Wir betrachten die Matrix A = )

22 5 Hauptachsentransformation 22 Das charakteristische Polynom dieser Matrix lautet 1 λ P A (λ) = 1 1 λ λ = λ 3 + 2λ λ 32 = ( λ + 2)(λ + 4)(λ 4) Die Eigenwerte von A sind also λ 1 = 2, λ 2 = 4 und λ 3 = 4 Eine Lösung von x y = z 0 ist der Vektor v 1 = 1 2 v 1 ist also ein Eigenvektor zum Eigenwert λ 1 = 2 Eine Lösung des Gleichungssystems x y = z 0 ist der Vektor v 2 = v 2 ist also ein Eigenvektor zum Eigenwert λ 2 = 4 Entsprechend sieht man, dass der Vektor v 3 = ein Eigenvektor zum Eigenwert λ 3 = 4 ist Also diagonalisiert die Matrix die Matrix A, dh es gilt S = S T AS =,,

23 6 Symmetrische Bilinearformen 23 Sind x, y, z die Koordinaten von v bezüglich der Basis B = {v 1, v 2, v 3 }, so lautet die Gleichung s(v, v) = 1 in diesen Koordinaten 2x 2 + 4y 2 4z 2 = 1 Diese Gleichung beschreibt ein einschaliges Hyperboloid (vgl Abbildung 6) 6 Symmetrische Bilinearformen Es sei nun V ein endlich dimensionaler reeller Vektorraum mit einer symmetrischen Bilinearform, : V V R (Diese Bilinearform braucht nicht positiv definit zu sein) Wie wir bereits gesehen haben, entspricht dieser Bilinearform eine quadratische Form q : V R, q(v) = v, v Bezüglich einer Basis B = {v 1,, v n } von V wird, dargestellt durch die Matrix A = (a ij ), a ij = v i, v j Nach der Transformationsformel ändert sich bei einem Basiswechsel mit Transformationsmatrix S GL(n; R) die Darstellungsmatrix wie folgt: A S T AS Nach dem Satz über die Hauptachsentransformation gibt es eine orthogonale Matrix S mit λ S T AS = S 1 0 λ 2 0 AS =, (λ 1,, λ n R) 0 0 λ n Wir fragen nun nach einer Normalform, wenn wir allgemeiner S GL(n; R) zulassen Satz 61 Es sei, : V V R eine symmetrische Bilinearform Dann gibt es eine Basis B von V, bezüglich der, dargestellt wird durch E k 0 E l 0 0

24 6 Symmetrische Bilinearformen 24 Beweis Nach dem Satz über die Hauptachsentransformation gibt es eine Basis B = {w 1,, w n }, bezüglich der die darstellende Matrix wie folgt aussieht: λ 1 0 λ k λ k+1 { > 0 für i k,, λ i < 0 für k < i k + l λ k+l 0 0 Wir setzen Dann gilt: v i := 0 { 1 λi w i für 1 i k + l, w i sonst +1 für 1 i k, v i, v i = 1 für k < i k + l, 0 sonst Also hat, bezüglich der Basis B = {v 1,, v n } die gewünschte Gestalt Definition Menge Es sei, : V V R eine symmetrische Bilinearform Die V 0 := {v V v, w = 0 für alle w V } heißt das Radikal (oder der Nullraum) von, Es ist ein Unterraum von V Korollar 61 Es sei, : V V R eine symmetrische Bilinearform Dann gibt es eine Zerlegung in Unterräume, so dass gilt: V = V + V V 0, (i) Die Zerlegung ist orthogonal bezüglich, (ii) v, v > 0 für 0 v V +, v, v < 0 für 0 v V

25 6 Symmetrische Bilinearformen 25 Beweis Es sei B = {v 1,, v n } eine Basis wie in Satz 61 Setze V + := Span{v 1,, v k }, V := Span{v k+1,, v k+l } Dann bleibt zu zeigen, dass V 0 = Span{v k+l+1,, v n } Die Inklusion Span{v k+l+1,, v n } V 0 ist klar Es sei umgekehrt v V 0 Dann gilt v = µ 1 v µ k+l v k+l + µ k+l+1 v k+l µ n v n Für i {1,, k + l} gilt aber v, v i = ±µ i = 0 Daraus folgt µ i = 0 Wie der Beweis zeigt, hängt die Zerlegung von einer Basis B von V ab Ist A die Darstellungsmatrix von, bezüglich dieser Basis, so gilt dim V + = Anzahl der positiven Eigenwerte von A, dim V = Anzahl der negativen Eigenwerte von A Der Trägheitssatz von Sylvester besagt, dass diese Zahlen tatsächlich unabhängig von der Wahl von B sind Satz 62 (Trägheitssatz von Sylvester) Es sei, : V V R eine symmetrische Bilinearform, B eine Basis von V und A die Darstellungsmatrix von, bezüglich B Dann sind die Zahlen k := Anzahl der positiven Eigenwerte von A, l := Anzahl der negativen Eigenwerte von A unabhängig von der Auswahl von B Beweis Es sei B eine andere Basis, k, l die entsprechenden Anzahlen und V = V + V V 0 = V + V V 0 die entsprechenden zugehörigen Zerlegungen nach Korollar 61 Da die Anzahl der von Null verschiedenen Eigenwerte gleich dim V dim V 0 ist und damit nicht von der Auswahl der Basis abhängt, gilt k + l = k + l Daher reicht es, l = l zu zeigen Angenommen, es gibt 0 v V + (V V 0 )

26 6 Symmetrische Bilinearformen 26 Dann gilt v, v > 0 und v = v + v 0 mit v 0 Dann folgt aber v, v = v, v + v 0, v 0 = v, v < 0, ein Widerspruch Also gilt V + (V V 0 ) = {0} und aus Satz 12 folgt k + l + dim V 0 dim V, also k + l k + l, dh l l Durch Vertauschen der Rollen von l und l folgt l l, also l = l und k = k Definition Die Zahl k nennt man auch den Index, die Zahl k l die Signatur der symmetrischen Bilinearform, Korollar 62 Eine symmetrische Bilinearform ist genau dann positiv definit, wenn alle Eigenwerte einer Darstellungsmatrix positiv sind Definition Eine symmetrische Matrix A Mat(n, n; R) heißt positiv definit, in Zeichen A > 0, falls die zugehörige Form, A positiv definit ist, dh x T Ax > 0 für alle x R n, x 0 Korollar 63 Eine symmetrische Matrix A Mat(n, n; R) ist genau dann positiv definit, wenn alle Eigenwerte positiv sind Wir wollen zum Abschluss noch ein anderes Kriterium dafür angeben, dass eine symmetrische Matrix A = (a ij ) positiv definit ist Dazu bezeichnen wir mit a 11 a 1k A k := a k1 a kk die linke obere k k-teilmatrix von A Die Determinante det A k bezeichnet man auch als Hauptminor von A Satz 63 (Hurwitz-Kriterium) Es sei A Mat(n, n; R) eine symmetrische Matrix Dann gilt: A positiv definit det A k > 0 für 1 k n Beweis : Wir zeigen zunächst det A = det A n > 0

27 6 Symmetrische Bilinearformen 27 Da A positiv definit ist, gibt es ein S GL(n; R) mit 1 0 S T AS = 0 1 Also folgt 1 = det(s T AS) = det A(det S) 2, also det A > 0 Um nun det A k > 0 für 1 k < n zu zeigen, betrachten wir U k := {x R n x k+1 = = x n = 0} R n Die Form, A definiert durch Einschränkung eine Form, k : U k U k R mit Darstellungsmatrix A k Da auch, k positiv definit ist, folgt det A k > 0 : Wir führen Induktion über n durch Der Induktionsanfang n = 1 ist klar Nach Induktionsvoraussetzung ist A n 1 positiv definit Also gibt es ein S GL(n 1; R) mit Es sei Es gilt und (S ) T A n 1 S = S := S = E n 1 GL(n; R) 1 b 1 S T AS = 1 b n 1 =: B b 1 b n 1 b n det B = (det S) 2 det A > 0 Es genügt zu zeigen, dass B positiv definit ist Dazu setze 1 b 1 T := GL(n; R) 1 b n

28 7 Das Minimalpolynom 28 Dann ist Nun ist T T BT = c n =: C det C = (det T ) 2 det B = det B > 0 und damit c n > 0 Also ist C positiv definit und damit auch B und A 7 Das Minimalpolynom Wir kommen nun auf das schon in LA I betrachtete Problem zurück, für die Darstellungsmatrix eines Endomorphismus f : V V eines K-Vektorraums eine Normalform zu finden Dabei spielt neben dem charakteristischen Polynom ein anderes Polynom eine Rolle, das wir nun einführen wollen Dazu machen wir zunächst einen Exkurs über den Polynomring Es sei K ein beliebiger Körper Dann betrachten wir den Polynomring in einer Variablen über K: K[x] := {a 0 + a 1 x + + a n x n a i K} Auf K[x] ist eine Addition und eine Multiplikation erklärt Es sei P (x), Q(x) K[x], P (x) = a 0 + a 1 x + + a n x n, Q(x) = b 0 + b 1 x + + b m x m O B d A sei n m Zur Definition der Addition setzen wir a n+1 = a m = 0 Dann definieren wir P (x) + Q(x) := (a 0 + b 0 ) + (a 1 + b 1 )x + + (a m + b m )x m Die Multiplikation ist dadurch erklärt, dass man formal ausmultipliziert: mit P (x) Q(x) = (a 0 + a 1 x + + a n x n ) (b 0 + b 1 x + + b m x m ) := a 0 b 0 + (a 0 b 1 + a 1 b 0 )x + + a n b m x n+m = c 0 + c 1 x + + c n+m x n+m c k := k a i b k i Statt P (x) und Q(x) schreiben wir von nun an auch P und Q i=0

29 7 Das Minimalpolynom 29 Satz 71 Mit dieser Addition und Multiplikation wird K[x] zu einem kommutativen Ring mit Einselement Beweis Die Axiome sind leicht nachzuprüfen Was ist das Einselement? Das Nullpolynom (alle Koeffizienten a i = 0) bezeichnen wir mit 0 Definition Der Grad eines Polynoms P (x) = a 0 + a 1 x + + a n x n mit a n 0 ist die Zahl n (n = deg P ) Den Grad des Nullpolynoms definieren wir als deg(0) := Das Polynom P heißt normiert, falls a n = 1 ist Satz 72 (Gradformel) Für P, Q K[x] gilt: deg(p Q) = deg P + deg Q Dabei soll formal n = m = = gelten Beweis Dies folgt aus c n+m = a n b m 0 falls a n 0 und b m 0 Satz 73 (Division mit Rest) Es seien P, Q K[x] mit P, Q 0 Dann gibt es eindeutig bestimmte Polynome q, r mit (i) P = Qq + r, (ii) deg r < deg Q Beweis Wir zeigen zunächst die Eindeutigkeit Es seien q, q, r, r K[x] mit P = Qq + r = Qq + r, deg r, deg r < deg Q Dann folgt 1Fall: q = q r = r 2Fall: q q Dann ist Q(q q ) = r r deg(r r) = deg Q + deg(q q ) deg Q im Widerspruch zu deg(r r) max{deg r, deg r } < deg Q Nun beweisen wir die Existenz von q und r Wenn es ein q K[x] gibt mit P = Qq,

30 7 Das Minimalpolynom 30 so können wir r = 0 setzen und die Behauptung ist bewiesen Andernfalls betrachten wir die Menge M := {deg(p Qp) p K[x]} N = {0, 1, 2, } Diese Menge besitzt ein Minimum in N Es sei q K[x] mit deg(p Qq) deg(p Qp) für alle p K[x] Es sei ferner dh r := P Qq, P = Qq + r Es bleibt zu zeigen: deg r < deg Q Angenommen, deg r deg Q Es sei Q = b 0 + b 1 x + + b m x m (b m 0), r = c 0 + c 1 x + + c k x k (c k 0) Dann ist nach Annahme k m Es sei p := q + c k b m x k m K[x] Dann ist Es ist also P Qp = P Qq Q c k b m x k m = r Q c k b m x k m P Qp = c k x k b m c k b m x k + Terme der Ordnung < k Daher folgt deg(p Qp) < k = deg r = deg(p Qq) im Widerspruch zur Wahl von q Dies führt zu dem schon aus der Schule bekannten Verfahren zur Polynomdivision (siehe Vorlesung und Übungen) In Polynome können wir nun Körperelemente einsetzen Ist und λ K, so setzen wir P (x) = a 0 + a 1 x + + a n x n K[x] P (λ) := a 0 + a 1 λ + + a n λ n K

31 7 Das Minimalpolynom 31 Auf diese Weise definiert P (x) eine Funktion Damit erhalten wir eine Abbildung P : K K λ P (λ) : K[x] Abb(K, K) P P Warnung Wir müssen zwischen Polynomen P und Polynomfunktionen P unterscheiden, denn bei endlichen Körpern können Unterschiede auftreten: Ist zb K = F 2 und P (x) = x 2 + x, so ist P die Nullfunktion, da P (0) = P (1) = = 0 Also ist in diesem Fall die Abbildung nicht injektiv Definition Ist 0 P K[x] und λ K, so dass P (λ) = 0 gilt, so heißt λ eine Nullstelle von P Korollar 71 Es sei 0 P K[x] und λ eine Nullstelle von P Dann gibt es genau ein Polynom Q K[x] mit Es ist deg Q = deg P 1 P = Q(x λ) Beweis Wir dividieren P durch (x λ) mit Rest: Nach Satz 73 gibt es eindeutig bestimmte Q, r K[x] mit P = (x λ)q + r, deg r < 1 = deg(x λ) Also ist r(x) = a 0 K Setzen wir λ in diese Gleichung ein, so folgt 0 = P (λ) = (λ λ)q(λ) + a 0 = a 0, also r = 0 Korollar 72 Es sei 0 P K[x] Dann ist die Anzahl der Nullstellen von P höchstens gleich dem Grad von P Beweis Wir führen Induktion über den Grad n := deg P Für n = 0 ist P ein konstantes Polynom P (x) = a 0 0 und das hat gar keine Nullstelle Damit ist die Behauptung für n = 0 bewiesen Nun sei deg P = n 1 und die Behauptung sei schon für alle Polynome Q K[x] mit deg Q n 1 bewiesen Hat P keine Nullstelle, so ist

32 7 Das Minimalpolynom 32 die Behauptung richtig Andernfalls sei λ K eine Nullstelle von P Nach Korollar 71 gibt es dann ein Q K[x] mit P = (x λ)q und deg Q = n 1 Alle von λ verschiedenen Nullstellen von P müssen auch Nullstellen von Q sein Nach Induktionsannahme hat Q höchstens n 1 verschiedene Nullstellen, also P höchstens n verschiedene Nullstellen Korollar 73 Hat K unendlich viele Elemente, so ist die Abbildung injektiv : K[x] Abb(K, K), P P, Beweis Es seien P 1, P 2 K[x] mit P 1 = P 2 Betrachte Q := P 1 P 2 Dann ist Q = 0, also hat Q unendlich viele Nullstellen Aus Korollar 72 folgt damit Q = 0, also P 1 = P 2 Satz 74 Es sei K ein unendlicher Körper Jedes Polynom 0 P K[x] besitzt eine Darstellung P = (x λ 1 ) ν1 (x λ r ) νr Q, wobei λ 1,, λ r paarweise verschieden sind und Q ein Polynom ohne Nullstellen ist Diese Darstellung ist bis auf die Reihenfolge der Faktoren eindeutig Definition Man nennt ν i die Ordnung oder Vielfachheit der Nullstelle λ i Für den Beweis des Satzes brauchen wir ein Lemma Lemma 71 Es sei K ein unendlicher Körper und P, Q K[x] Polynome mit P (λ) 0, Q(λ) 0 Gilt für alle x K, so ist ν = µ (x λ) ν P (x) = (x λ) µ Q(x) Beweis O B d A sei ν µ Dann gilt (x λ) ν µ P (x) Q(x) = 0 (für x λ) Da K unendlich viele Elemente enthält, gilt für die Polynome (x λ) ν µ P Q = 0

33 7 Das Minimalpolynom 33 Falls ν > µ, wäre Q(λ) = 0, ein Widerspruch Beweis von Satz 74 Die Existenz der Darstellung folgt aus Korollar 71 Zum Beweis der Eindeutigkeit: Die λ i sind genau die Nullstellen von P, liegen also eindeutig fest Die Eindeutigkeit der ν i folgt aus Lemma 71 Es bleibt die Eindeutigkeit von Q zu zeigen Dazu sei (x λ 1 ) ν1 (x λ r ) νr Q = (x λ 1 ) ν1 (x λ r ) νr Q Dann gilt für alle x λ 1,, λ r Q(x) = Q (x) Also hat Q Q unendlich viele Nullstellen und es folgt Q = Q Definition Man sagt, das Polynom 0 P K[x] zerfällt über K, falls es eine Darstellung gibt P (x) = a(x λ 1 ) ν1 (x λ r ) νr (a K) Beispiel 71 Das Polynom P (x) = 1 + x 2 zerfällt nicht über R, aber über C: P (x) = (x i)(x + i) Satz 75 (Fundamentalsatz der Algebra) Jedes nicht konstante Polynom P C[x] besitzt eine Nullstelle Diesen Satz hat erstmals C F Gauß 1799 bewiesen Heutzutage wird er meist in der Vorlesung Funktionentheorie bewiesen, da man mit Methoden dieser Vorlesung einen sehr knappen und eleganten Beweis geben kann Korollar 74 Jedes Polynom P C[x] zerfällt Definition Eine Teilmenge I eines Ringes R heißt ein Ideal, falls gilt: (I1) I R ist eine Untergruppe bezüglich der Addition (I2) Ist r R und s I, so ist auch r s I Beispiel 72 I := P 1,, P n := {Q 1 P Q n P n Q i R} Definition I = P 1,, P n heißt das von P 1,, P n erzeugte Ideal

34 7 Das Minimalpolynom 34 Definition Ein Ideal I heißt Hauptideal, falls es von einem Element erzeugt, wird, dh I = P = {QP Q R} für ein P R Lemma 72 Es seien R, R Ringe und f : R R ein Ringhomomorphismus Dann ist der Kern von f ein Ideal in R Beweis Nach I, Satz 84, ist Ker f eine Untergruppe von R Es sei r R und s Ker f Dann gilt f(r s) = f(r) f(s) = f(r) 0 = 0, also r s Ker f Satz 76 (i) K[x] ist ein Hauptidealring, dh jedes Ideal von K[x] ist ein Hauptideal (ii) Zu jedem Ideal I {0} in K[x] gibt es genau ein normiertes Polynom P mit I = P Beweis (i): Im Fall I = {0} ist I = 0 Es sei also I {0} Dann hat die Menge M := {deg P 0 P I} N ein Minimum m := min M Es sei P I mit deg P = m Behauptung I = P = K[x] P Beweis Es gilt P I nach Definition eines Ideals Es bleibt zu zeigen: I P Dazu sei Q I beliebig Nach Satz 73 gibt es eine Darstellung Q = qp + r, deg r < deg P Ist r = 0, so ist Q P Andernfalls folgt mit (I1) und (I2) r = Q qp I Wegen 0 deg r < deg P = m ist dies ein Widerspruch zur Wahl von P (ii): Mit P liegt auch ap in I für a K Also kann man P als normiert annehmen Es sei I = P = P mit P, P normiert

35 7 Das Minimalpolynom 35 Dann gilt Es folgt P = Q P, P = QP für geeignete Q, Q K[x] Nach der Gradformel folgt daraus P = QQ P P (1 QQ ) = 0 deg QQ = 0, also QQ = 1, und damit sind Q und Q ebenfalls nach der Gradformel konstant Da P, P normiert sind, folgt Q = Q = 1, also P = P Nun wollen wir die Theorie auf Matrizen anwenden Die Menge Mat(n, n; K) ist ein Vektorraum der Dimension n 2 und obendrein ein Ring mit der Matrizenaddition und Matrizenmultiplikation Wie üblich setzen wir für A Mat(n, n; K): A m = A A (m-mal), A 0 = E Wir setzen nun Matrizen in Polynome ein, dh wir betrachten die Einsetzungsabbildung ϕ A : K[x] Mat(n, n; K) P (x) = m i=0 a ix i P (A) := m i=0 a ia i Die Abbildung ϕ A ist linear, also ein Homomorphismus von K-Vektorräumen und sogar ein Ringhomomorphismus: (P + Q)(A) = P (A) + Q(A), (λp )(A) = λp (A), (P Q)(A) = P (A)Q(A) Das Bild von ϕ A ist der Untervektorraum K[A] := Span{E, A, A 2, } von Mat(n, n; K) Wir betrachten nun die Menge I A := {P K[x] P (A) = 0} = Ker ϕ A Aus Lemma 72 folgt, dass I A ein Ideal in K[x] ist Da K[x] ein Hauptidealring ist, gibt es (falls I A {0}) genau ein normiertes Polynom µ A K[x] mit I A = µ A

36 7 Das Minimalpolynom 36 Satz 77 Es gibt genau ein normiertes Polynom 0 µ A K[x] mit folgenden Eigenschaften: (i) µ A (A) = 0 (ii) Ist P K[x] ein Polynom mit P (A) = 0, so ist P = Q µ A (iii) Unter allen normierten Polynomen P K[x] mit P (A) = 0 hat µ A minimalen Grad Definition Das Polynom µ A K[x] heißt das Minimalpolynom von A Beweis Wir zeigen zunächst I A {0} Es ist K[A] Mat(n, n; K), also gilt dim K[A] n 2 =: N Daher sind die Matrizen E, A, A 2,, A N linear abhängig, dh es gibt a 0, a 1,, a N K, nicht alle gleich 0, mit a 0 E + a 1 A + + a N A N = 0 Also ist 0 P (x) := a 0 + a 1 x + + a N x N I A Nach Satz 76 ist dann I A = µ A für ein eindeutig bestimmtes normiertes Polynom µ A 0 Beispiel 73 Es sei A = Man rechnet leicht aus: Daraus folgt A 2 = µ A (x) = x n Mat(n, n; K),, A n = 0

37 7 Das Minimalpolynom 37 Satz 78 Es gilt deg µ A = dim K[A] Beweis Es sei m := dim K[A] Dann sind E, A, A 2,, A m linear abhängig Wie im Beweis von Satz 77 zeigt man, dass es ein (normiertes) Polynom P K[x] gibt mit deg P m und P (A) = 0 Also ist deg µ A m = dim K[A] Es sei umgekehrt m = deg µ A Zum Beweis von dim K[A] m betrachten wir U := Span{E, A,, A m 1 } Dann sind E, A,, A m 1 linear unabhängig, denn andernfalls wäre m = deg µ A nicht minimal Also ist dim U = m Es genügt zu zeigen: Dazu ist zu zeigen, dass Es sei Da µ A (A) = 0 folgt K[A] U A s U für s m µ A (x) = a 0 + a 1 x + + a m 1x m 1 + x m A m = a 0 E a m 1A m 1 U Durch Multiplikation mit A auf beiden Seiten folgt dann aber auch A m +1 = a 0 A a m 1A m U Die Behauptung folgt dann durch Induktion Korollar 75 Ist m = deg µ A, so ist {E, A,, A m 1 } eine Basis von K[A] Korollar 76 Eine Matrix A Mat(n, n; K) ist genau dann invertierbar, wenn µ A (0) 0 gilt In diesem Fall liegt A 1 K[A]

38 7 Das Minimalpolynom 38 Beweis Es sei µ A (x) = a 0 + a 1 x + + a m 1 x m 1 + x m das Minimalpolynom von A Dann gilt Setzen wir so folgt a 1 A + + a m 1 A m 1 + A m = a 0 E B := a 1 E + + a m 1 A m 2 + A m 1, AB = a 0 E Nach Korollar 75 ist B 0 Ist A nicht invertierbar, so gilt det A = 0, also µ A (0) = a 0 = 0 Ist A invertierbar, so ist B = a 0 A 1 und µ A (0) = a 0 0 Lemma 73 (Invarianz) Sind die Matrizen A, B Mat(n, n; K) ähnlich, dann stimmen die Minimalpolynome µ A und µ B überein Beweis Es sei P K[x] und B = S 1 AS Dann gilt P (S 1 AS) = a 0 E + a 1 S 1 AS + + a m (S 1 AS) m = a 0 S 1 ES + a 1 S 1 AS + + a m S 1 A m S = S 1 P (A)S Daraus folgt Damit können wir definieren: P (A) = 0 P (B) = P (S 1 AS) = 0 Definition Es sei V ein endlich dimensionaler K-Vektorraum und f : V V ein Endomorphismus Dann ist das Minimalpolynom µ f von f das Minimalpolynom einer Darstellungsmatrix von f Nun zeigen wir, dass auch das charakteristische Polynom einer Matrix A in I A liegt Satz 79 (Satz von Cayley-Hamilton) Es sei P A Polynom einer Matrix A Mat(n, n; K) Dann gilt das charakteristische P A (A) = 0

39 7 Das Minimalpolynom 39 Daraus folgt unmittelbar: Korollar 77 Das Minimalpolynom µ A teilt das charakteristische Polynom P A einer Matrix A Mat(n, n; K) Beweis von Satz 79 Wir wenden einen Trick an Wir setzen Dann gilt B(x) := (A xe) T Mat(n, n; K[x]) det B(x) = P A (x) K[x] Nun ersetzen wir die Unbestimmte x durch die Matrix A und jeden Eintrag a ij durch die Matrix a ij E Das ergibt a 11 E A a 21 E a n1 E a 12 E a 22 E A a n2 E B(A) = Mat(n, n; K[A]) a 1n E a 2n E a nn E A Diese Matrix kann mit einem Spaltenvektor des K n2 multipliziert werden, dh einem Spaltenvektor, dessen Einträge wiederum Spaltenvektoren des K n sind Insbesondere gilt e 1 a 11 e 1 Ae 1 + a 21 e a n1 e n B(A) = = 0 e n a 1n e 1 + a 2n e a nn e n Ae n 0 Nun sei B (x) Mat(n, n; K[x]) die zu B(x) adjungierte Matrix, die wir in LA I definiert haben Ihre Einträge sind entsprechend der Definition Polynome vom Grad n 1, und es gilt B (x)b(x) = (det B(x))E = P A (x)e Setzen wir nun A für x ein, so folgt 0 = B (A)B(A) 0 e 1 e n = P A (A)e 1 P A (A)e n Also ist P A (A) = 0

40 8 Diagonalisierbarkeit 40 8 Diagonalisierbarkeit Nun kommen wir zurück auf das Problem, für die Darstellungsmatrix eines Endomorphismus eines endlich dimensionalen K-Vektorraums eine Normalform zu finden Zunächst betrachten wir noch einmal die Diagonalisierbarkeit Es sei V ein K-Vektorraum der Dimension n und f : V V ein Endomorphismus Definition Es sei λ ein Eigenwert von f (i) Die algebraische Vielfachheit von λ, in Zeichen ν alg (f, λ), ist die Vielfachheit von λ als Nullstelle des charakteristischen Polynoms (ii) Die geometrische Vielfachheit von λ, in Zeichen ν geom (f, λ), ist die Dimension des Eigenraums Eig(f, λ) Lemma 81 Ist λ Eigenwert von f, so gilt 1 ν geom (f, λ) ν alg (f, λ) Beweis Es sei (v 1,, v s ) eine Basis von Eig(f, λ) Da λ Eigenwert von f ist, gilt s 1 Wir ergänzen diese Basis zu einer Basis B = (v 1,, v s, v s+1,, v n ) von V Dann ist A := MB B (f) = λ 0 0 λ 0 A Daraus folgt und damit P f (x) = (x λ) s P A (x) ν geom (f, λ) = dim Eig(f, λ) = s ν alg (f, λ) Theorem 81 Es sei V ein n-dimensionaler K-Vektorraum und f : V V ein Endomorphismus von V Dann sind die folgenden Bedingungen äquivalent:

41 8 Diagonalisierbarkeit 41 (i) f ist diagonalisierbar (ii) Das charakteristische Polynom zerfällt in Linearfaktoren und es gilt ν geom (f, λ) = ν alg (f, λ) für alle Eigenwerte λ von f (iii) Sind λ 1,, λ k die paarweise verschiedenen Eigenwerte von f, so ist V = Eig(f, λ 1 ) Eig(f, λ k ) Beweis (i) (ii): Es sei f diagonalisierbar und λ 1,, λ k die paarweise verschiedenen Eigenwerte von f Zu λ i (i = 1,, k) betrachten wir eine Basis (v (i) 1,, v s (i) i ) von Eig(f, λ i ) Setzen wir r i := ν alg (f, λ i ), so gilt s s k = n, r r k = n und s i r i Daraus folgt aber s i = r i für alle i = 1,, k (ii) (iii): Es sei W := Eig(f, λ 1 ) + + Eig(f, λ k ) Nach I, Satz 193, und der Bedingung (iii) in Satz 15 folgt W = Eig(f, λ 1 ) Eig(f, λ k ) Aus (ii) und Satz 16 (iii) folgt dann W = V (iii) (i): Für jedes i = 1,, k sei Nach Satz 16 (ii) ist dann (v (i) 1,, v (i) s i ) eine Basis von Eig(f, λ i ) B := (v (1) 1,, v (1) s 1,, v (k) 1,, v (k) s k ) eine Basis von V Da sie nach Definition aus Eigenvektoren von f besteht, ist f diagonalisierbar Als Anwendung von Theorem 81 betrachten wir das Problem, zwei Endomorphismen mit einer gemeinsamen Basis zu diagonalisieren (simultane Diagonalisierung)

42 8 Diagonalisierbarkeit 42 Bemerkung 81 Angenommen, die Matrizen A, B Mat(n, n; K) lassen sich simultan diagonalisieren Das bedeutet, dass es eine Matrix S GL(n; K) gibt mit SAS 1 = D und SBS 1 = D, wobei D und D Diagonalmatrizen sind Dann gilt BA = S 1 DSS 1 DS = S 1 DDS = S 1 D DS = S 1 DSS 1 DS = AB Das bedeutet, dass A und B kommutieren müssen Satz 81 Sind f, g diagonalisierbare Endomorphismen von V und gilt f g = g f, so sind f und g simultan diagonalisierbar Beweis Nach Theorem 81 gilt V = Eig(f, λ 1 ) Eig(f, λ k ) = Eig(g, µ 1 ) Eig(g, µ l ), wobei λ 1,, λ k bzw µ 1,, µ l die verschiedenen Eigenwerte von f bzw g sind Es sei λ einer der Eigenwerte von f und Es sei w W Dann gilt W := Eig(f, λ) f(g(w)) = g(f(w)) = g(λw) = λg(w) Also ist auch g(w) ein Eigenvektor von f zum Eigenwert λ, also liegt auch g(w) in W Damit gilt g(w ) W Setze W j := W Eig(g, µ j ) für j = 1,, l Behauptung W = W 1 W l Beweis Wegen I, Satz 193, und der Bedingung (iii) in Satz 15 reicht es zu zeigen: W = W W l Es sei w W Dann gibt es w j Eig(g, µ j ), so dass w = w w l Dann gilt f(w) = f(w 1 ) + + f(w l ) = λw λw l = λw

43 9 Nilpotente Endomorphismen 43 Da f(w j ) Eig(g, µ j ) und λw j Eig(g, µ j ) und die Darstellung von w in eindeutig ist, folgt also w j W und somit w j W j Eig(g, µ 1 ) Eig(g, µ l ) f(w j ) = λw j, Da die Behauptung für alle Eigenwerte λ von f gilt, folgt die Aussage des Satzes 9 Nilpotente Endomorphismen Wie wir in Theorem 81 gesehen haben, gibt es zwei Bedingungen für die Diagonalisierbarkeit: (a) Das charakteristische Polynom muss in Linearfaktoren zerfallen, und (b) die geometrische Vielfachheit muss gleich der algebraischen Vielfachheit der Eigenwerte sein Wir untersuchen nun, welche Aussage man noch treffen kann, wenn nur die Bedingung (a) erfüllt ist Definition Eine Matrix A = (a ij ) Mat(n, n; K) heißt obere Dreiecksmatrix, wenn a ij = 0 für i > j gilt Satz 91 Für einen Endomorphismus f eines n-dimensionalen Vektorraums sind die folgenden Bedingungen äquivalent: (i) Es gibt eine Basis B, so dass MB B (f) eine obere Dreiecksmatrix ist (ii) Das charakteristische Polynom P f zerfällt in Linearfaktoren, dh P f (x) = ±(x λ 1 ) (x λ n ) mit λ 1,, λ n K Beweis (i) (ii): Dies folgt aus I, Satz 181 (ii) (i): Wir führen den Beweis durch Induktion über n Für n = 0, 1 ist die Behauptung klar Es sei n 2 und v 1 ein Eigenvektor zu dem Eigenwert λ 1 Wir ergänzen ihn zu einer Basis B = (v 1, w 2,, w n )

44 9 Nilpotente Endomorphismen 44 von V Dann gilt und V = U 1 W mit U 1 := Span{v 1 } und W := Span{w 2,, w n } MB B (f) = λ 1 a 12 a 1n a 22 a 2n 0 0 a n2 a nn Wir definieren nun lineare Abbildungen h : W U 1 und g : W W durch für j = 2,, n Dann gilt h(w j ) = a 1j v 1 und g(w j ) = a 2j w a nj w n f(w) = h(w) + g(w) für alle w W Für die charakteristischen Polynome gilt P f (x) = (x λ 1 )P g (x), also P g (x) = ±(x λ 2 ) (x λ n ) Deswegen können wir die Induktionsvoraussetzung auf g : W W anwenden Demnach gibt es eine Basis (v 2,, v n ) von W, bezüglich der g durch eine obere Dreiecksmatrix dargestellt wird Für f gilt dann f(v j ) = h(v j ) + g(v j ) Span{v 1,, v j } für j = 2,, n Also ist auch die Darstellungsmatrix von f bezüglich der Basis B = (v 1,, v n ) eine obere Dreiecksmatrix Wir betrachten nun eine Anwendung dieses Satzes Definition (i) Ein Endomorphismus f : V V heißt nilpotent, wenn f k = 0 für ein k 1 ist (ii) Eine Matrix A Mat(n, n; K) heißt nilpotent, wenn A k = 0 für ein k 1 ist Lemma 91 Es sei A nilpotent (i) Ist B ähnlich zu A, dann ist auch B nilpotent (ii) 0 ist der einzige Eigenwert von A

Lineare Algebra II. Sommersemester Wolfgang Ebeling

Lineare Algebra II. Sommersemester Wolfgang Ebeling Lineare Algebra II Sommersemester 2006 Wolfgang Ebeling 1 c Wolfgang Ebeling Institut für Mathematik Universität Hannover Postfach 6009 30060 Hannover E-mail: ebeling@mathuni-hannoverde 1 Euklidische und

Mehr

Lineare Algebra II. Sommersemester Wolfgang Ebeling

Lineare Algebra II. Sommersemester Wolfgang Ebeling Lineare Algebra II Sommersemester 2009 Wolfgang Ebeling 1 c Wolfgang Ebeling Institut für Algebraische Geometrie Leibniz Universität Hannover Postfach 6009 30060 Hannover E-mail: ebeling@mathuni-hannoverde

Mehr

1. Übungsblatt: Lineare Algebra II Abgabe: 24./ in den Übungsgruppen

1. Übungsblatt: Lineare Algebra II Abgabe: 24./ in den Übungsgruppen Hannover, den 0. April 2006. Übungsblatt: Lineare Algebra II Abgabe: 24./25.4.2006 in den Übungsgruppen ( ) 2 5 a) Zeigen Sie, dass A = und B = 2 ( 7 6 invertierbare Matrix T an mit T AT = B. b) Zeigen

Mehr

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen Hannover, den 7. Februar 2002 Aufgabe. Übungsblatt: Lineare Algebra II Abgabe: 8./9.4.2002 in den Übungsgruppen (2, 2, 3 Punkte) Der Vektorraum V = C[, ] sei mit dem üblichen Skalarprodukt f, g = f(t)g(t)

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

Wiederholungsserie II

Wiederholungsserie II Lineare Algebra II D-MATH, FS 205 Prof. Richard Pink Wiederholungsserie II. Zeige durch Kopfrechnen, dass die folgende reelle Matrix invertierbar ist: 205 2344 234 990 A := 224 423 990 3026 230 204 9095

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Verständnisfragen: Lineare Algebra und Analytische Geometrie I und II

Verständnisfragen: Lineare Algebra und Analytische Geometrie I und II Verständnisfragen: Lineare Algebra und Analytische Geometrie I und II Matrizen, lineare Gleichungssysteme Wie kommt man von einem linearen Gleichungssystem zu einer Matrix? Was ist die Zeilenstufenform?

Mehr

3 Bilinearform, Basen und Matrizen

3 Bilinearform, Basen und Matrizen Lineare Algebra II 2. Oktober 2013 Mitschrift der Vorlesung Lineare Algebra II im SS 2013 bei Prof. Peter Littelmann von Dario Antweiler an der Universität zu Köln. Kann Fehler enthalten. Veröentlicht

Mehr

3.7 Eigenwerte und Eigenvektoren

3.7 Eigenwerte und Eigenvektoren 3.7. EIGENWERTE UND EIGENVEKTOREN 123 3.7 Eigenwerte und Eigenvektoren Wir wollen jetzt lineare Endomorphismen durch Matrizen besonders übersichtlicher Gestalt (u.a. mit möglichst vielen Nullen) beschreiben,

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Lösungsskizzen zur Klausur zur Linearen Algebra II. Definitionen

Lösungsskizzen zur Klausur zur Linearen Algebra II. Definitionen Technische Universität Berlin Sommersemester 2008 Institut für Mathematik 18 Juli 2008 Prof Dr Stefan Felsner Andrea Hoffkamp Lösungsskizzen zur Klausur zur Linearen Algebra II Aufgabe 1 (1+1+1 Punkte)

Mehr

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23 Kapitel 5 Eigenwerte 5. Definition und Beispiele Wir sehen uns ein System dreier schwingender Kugeln der Massen m, m und m 3 an, die durch Federn aneinander gekoppelt sein sollen. m k m k 3 m 3 x ( t x

Mehr

7.2 Die adjungierte Abbildung

7.2 Die adjungierte Abbildung 7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)

Mehr

Lineare Algebra II (SS 13)

Lineare Algebra II (SS 13) Lineare Algebra II (SS 13) Bernhard Hanke Universität Augsburg 03.07.2013 Bernhard Hanke 1 / 16 Selbstadjungierte Endomorphismen und der Spektralsatz Definition Es sei (V,, ) ein euklidischer oder unitärer

Mehr

Lineare Algebra II Lösungen zu ausgewählten Aufgaben

Lineare Algebra II Lösungen zu ausgewählten Aufgaben Lineare Algebra II Lösungen zu ausgewählten Aufgaben Blatt 2, Aufgabe 3 a) Wir zeigen, daß das Ideal (2, X) kein Hauptideal in Z[X] ist. (Dieses Ideal besteht aus allen Elementen in Z[X], die von der Form

Mehr

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung Prof. Dr. B. Hanke Dr. J. Bowden Lineare Algebra 2 (SS ) Blatt : Musterlösung Aufgabe. Es sei C (R) der R-Vektorraum der unendlich oft differenzierbaren Funktionen auf R und : C (R) C (R), f f die Abbildung,

Mehr

7.3 Unitäre Operatoren

7.3 Unitäre Operatoren Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren

Mehr

Lineare Algebra I Lösungsvorschlag

Lineare Algebra I Lösungsvorschlag Aufgabe Lineare Algebra I Lösungsvorschlag Wir bezeichnen mit a, a 2, a 3 Q 4 die Spalten der Matrix A. Es ist 7 a + 2a 2 = 7 4 = 7a 3, und wir sehen im l A = a, a 2, a 3 = a, a 2. Da die Vektoren a und

Mehr

8 Eigenwerttheorie I 8. EIGENWERTTHEORIE I 139. Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet:

8 Eigenwerttheorie I 8. EIGENWERTTHEORIE I 139. Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet: 8. EIGENWERTTHEORIE I 139 8 Eigenwerttheorie I Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet: K[x] = Abb[N, K] = {P ; P = a n x n + a n 1 x n 1 + + a 0 ; a

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG Aufgabe 1 Es sei K ein Körper, V ein K-Vektorraum, und seien v 1,..., v n V (n N). (a) Definieren Sie, wann die endliche Familie v 1,...,

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit

4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit 4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit Definition 4.41. Eine Familie F linearer Operatoren heißt vertauschbar oder kommutierend, wenn für je zwei Operatoren U,T in F gilt: UT = TU.

Mehr

5 Diagonalisierbarkeit

5 Diagonalisierbarkeit 5 Diagonalisierbarkeit Sei V ein K Vektorraum mit einer Basis B = (v 1,..., v n ) Wiederholung aus 2: Sei f : V V K linear. Stelle f(v j ) für j = 1,..., n dar in der Form a 1j Das n Tupel a j =. a nj

Mehr

10 Unitäre Vektorräume

10 Unitäre Vektorräume 10 Unitäre Vektorräume Pink: Lineare Algebra 2014/15 Seite 98 10 Unitäre Vektorräume Die Theorie komplexer Vektorräume mit Skalarprodukt folgt denselben Linien wie die Theorie reeller Vektorräume mit Skalarprodukt;

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 42 Normale Endomorphismen Nach Satz 34.1 besitzt eine Isometrie über C eine Orthonormalbasis aus Eigenvektoren

Mehr

2.11 Eigenwerte und Diagonalisierbarkeit

2.11 Eigenwerte und Diagonalisierbarkeit 2.11. EIGENWERTE UND DIAGONALISIERBARKEIT 127 Die Determinante eines Endomorphismus Wir geben uns jetzt einen endlichen erzeugten K-Vektorraum V und einen Endomorphismus ϕ : V V vor. Wir wollen die Determinante

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

5.2 Diagonalisierbarkeit und Trigonalisierung

5.2 Diagonalisierbarkeit und Trigonalisierung HINWEIS: Sie finden hier eine vorläufige Kurzfassung des Inhalts; es sind weder Beweise ausgeführt noch ausführliche Beispiele angegeben. Bitte informieren Sie sich in der Vorlesung. c M. Roczen und H.

Mehr

2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren

2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren 2 ÄHNLICHKEIT VON MATRIZEN, EIGENWERTE UND EIGENVEKTOREN 1 19. Mai 2000 2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren Motivation. Es seien: V ein K-Vektorraum mit dim V = n < und F End V, Φ,

Mehr

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016, Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren

Mehr

Musterlösungen zur Linearen Algebra II Übungsklausur

Musterlösungen zur Linearen Algebra II Übungsklausur Musterlösungen zur Linearen Algebra II Übungsklausur Aufgabe. Sei A R 3 3. Welche der folgenden Aussagen sind richtig? a Ist det(a =, dann ist A eine orthogonale Matrix. b Ist A eine orthogonale Matrix,

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

4.4 Hermitesche Formen

4.4 Hermitesche Formen 44 Hermitesche Formen Wie üblich bezeichnen wir das komplex konjugierte Element von ζ = a + bi C (a, b R) mit ζ = a bi Definition 441 Sei V ein C-Vektorraum Eine hermitesche Form (HF) auf V ist eine Abbildung

Mehr

6.3 Eigenwerte. γ ist Eigenwert von T [T] B B γi ist nicht invertierbar.

6.3 Eigenwerte. γ ist Eigenwert von T [T] B B γi ist nicht invertierbar. Um zu zeigen, dass die irreduziblen Teiler eines reellen Polynoms höchstens den Grad 2 haben, fassen wir nun (x γ) und (x γ) zusammen und stellen fest, dass (x (a + b i))(x ((a b i)) = x 2 2a + (a 2 +

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Lineare Algebra I. Prof. Dr. Daniel Roggenkamp Vorlesung -

Lineare Algebra I. Prof. Dr. Daniel Roggenkamp Vorlesung - Lineare Algebra I Prof. Dr. Daniel Roggenkamp - 22.Vorlesung - Aus der letzten Vorlesung: Polynome K[t] (p 0, p,, p i K mit p i = 0 i > i 0 für ein i 0 = i 0 p i t i = p 0 + p t + p 2 t 2 + + p i0 t i

Mehr

3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform

3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform LinAlg II Version 1 29. Mai 2006 c Rudolf Scharlau 219 3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform Das Problem der Normalformen für Endomorphismen handelt kurz gesprochen

Mehr

Sommer 2017 Musterlösung

Sommer 2017 Musterlösung Sommer 7 Musterlösung. (5 Punkte) a) Sei V ein Vektorraum über K und sei T End(V ). Geben Sie die Definition eines Eigenwertes von T und zeigen Sie für endlichdimensionales V, dass λ K genau dann ein Eigenwert

Mehr

Kapitel 11 Eigenwerte und Eigenvektoren

Kapitel 11 Eigenwerte und Eigenvektoren Kapitel Eigenwerte und Eigenvektoren. Problem der Diagonalisierbarkeit Es sei wieder K gleich R oder. Eine n n)-matrix A mit Koeffizienten aus K wird als diagonalisierbar bezeichnet, wenn es eine invertierbare

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008 KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008 MUSTERLÖSUNG Name: Studiengang: Aufgabe 1 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter die Aufgabenstellung

Mehr

Lösung 13: Unitäre Vektorräume und normale Abbildungen

Lösung 13: Unitäre Vektorräume und normale Abbildungen D-MATH Lineare Algebra II FS 2017 Dr. Meike Akveld Lösung 13: Unitäre Vektorräume und normale Abbildungen 1. a) Im Folgenden sei γ : V V C die Abbildung γ(v, w) v + w 2 v w 2 i v + iw 2 + i v iw 2. : Wir

Mehr

Lineare Algebra für Physiker 11. Übungsblatt

Lineare Algebra für Physiker 11. Übungsblatt Lineare Algebra für Physiker 11. Übungsblatt Fachbereich Mathematik SS 01 Prof. Dr. Matthias Schneider./. Juli 01 Dr. Silke Horn Dipl.-Math. Dominik Kremer Gruppenübung Aufgabe G1 (Minitest) (a) Welche

Mehr

Lineare Algebra II Lösungen der Klausur

Lineare Algebra II Lösungen der Klausur Prof Dr K Doerk 673 Jens Mandavid Christian Sevenheck Lineare Algebra II Lösungen der Klausur (a Diese Aussage ist richtig, sie stimmt nämlich für k = Sei nämlich n N beliebig und bezeichne N die Menge

Mehr

Lina II - Aufgaben zur Vorbereitung für die Klausur (Teil 1) - Lösungen

Lina II - Aufgaben zur Vorbereitung für die Klausur (Teil 1) - Lösungen Lina II - Aufgaben zur Vorbereitung für die Klausur (Teil 1) - en Kommentare an HannesKlarner@FU-Berlinde FU Berlin SS 1 Dia- und Trigonalisierbarkeit Aufgabe (1) Gegeben seien A = i i C 3 3 und B = 1

Mehr

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Kontrollfragen und Aufgaben zur 3. Konsultation

Kontrollfragen und Aufgaben zur 3. Konsultation 1 Technische Universität Ilmenau Fakultät für Mathematik und Naturwissenschaften Institut für Mathematik Prof. Dr. Michael Stiebitz Kontrollfragen und Aufgaben zur 3. Konsultation Termin: Ort: Determinante

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 34 Die Diagonalisierbarkeit von Isometrien im Komplexen Satz 34.1. Es sei V ein endlichdimensionaler C-Vektorraum

Mehr

Tagesablauf. Allgemeine Organisation. Programm des Kompaktseminars

Tagesablauf. Allgemeine Organisation. Programm des Kompaktseminars Kompaktseminar Werbellinsee Sept. 2008 1 Tagesablauf 9:00 Frühstück 9:30-13:00 Erste Sitzung (mit Pausen nach Bedarf) 13:00 Mittagessen 14:30-19:00 Zweite Sitzung (mit Pausen nach Bedarf) 19:00 Abendessen

Mehr

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse

Mehr

1 Euklidische und unitäre Vektorräume

1 Euklidische und unitäre Vektorräume 1 Euklidische und unitäre Vektorräume In diesem Abschnitt betrachten wir reelle und komplexe Vektorräume mit Skalarprodukt. Dieses erlaubt uns die Länge eines Vektors zu definieren und (im Fall eines reellen

Mehr

Kapitel II. Vektorräume

Kapitel II. Vektorräume Inhalt der Vorlesung LAAG I Prof. Dr. Arno Fehm TU Dresden WS2017/18 Kapitel II. Vektorräume In diesem ganzen Kapitel sei K ein Körper. 1 Definition und Beispiele 1.1 Beispiel. Ist K = R, so haben wir

Mehr

Diagonalisierbarkeit symmetrischer Matrizen

Diagonalisierbarkeit symmetrischer Matrizen ¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren

Mehr

Eigenwerttheorie. Martin Gubisch Lineare Algebra I WS 2007/2008

Eigenwerttheorie. Martin Gubisch Lineare Algebra I WS 2007/2008 Eigenwerttheorie Martin Gubisch Lineare Algebra I WS 27/28 Motivation Gegeben seien ein K-Vektorraum V der Dimension n < und eine K-lineare Abbildung f : V V Wir suchen eine Basis V = v 1,, v n von V,

Mehr

Steilkurs Lineare Algebra 1 einige wichtige Stationen

Steilkurs Lineare Algebra 1 einige wichtige Stationen Steilkurs Lineare Algebra 1 einige wichtige Stationen Für einen Körper K ist ein K-Vektorraum V eine Menge mit einer kommutativen und assoziativen Verknüpfung + : V V V, für die es ein neutrales Element

Mehr

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ)) Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 18 Vielfachheiten und diagonalisierbare Abbildungen Satz 18.1. Es sei K ein Körper und es sei V ein endlichdimensionaler K- Vektorraum.

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

23. Die Jordan sche Normalform

23. Die Jordan sche Normalform Chr.Nelius, Lineare Algebra II (SS 2005) 1 23. Die Jordan sche Normalform Wir suchen für einen trigonalisierbaren Endomorphismus unter seinen dreiecksförmigen Darstellungsmatrizen eine Darstellungsmatrix,

Mehr

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen. Definition: Lineare Abbildung Lineare Abbildungen Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen. 8.1 Definition: Lineare Abbildung Eine Funktion f : V Ñ W zwischen

Mehr

44 Spektralzerlegung normaler Operatoren im endlichdimensionalen Fall

44 Spektralzerlegung normaler Operatoren im endlichdimensionalen Fall 44 Spektralzerlegung normaler Operatoren im endlichdimensionalen Fall 44 1 Zusammenfassung Dieser Paragraf richtet sich im Aufbau weitgehend nach 42, um den Zerlegungssatz (44.7) analog zum Satz über die

Mehr

Übungen zur Vorlesung Lineare Algebra

Übungen zur Vorlesung Lineare Algebra Übungen zur Vorlesung Lineare Algebra Institut für Reine Mathematik WS 2009/10 & SS 2010 Kapitel 1. Vektorräume Was ist ein Vektorraum? Sei X und K ein Körper. Wie macht man Abb (X, K) zu einem K -Vektorraum?

Mehr

Heinrich Heine-Universität Düsseldorf Sommersemester Lineare Algebra 1. Vierzehnte & Fünfzehnte Woche,

Heinrich Heine-Universität Düsseldorf Sommersemester Lineare Algebra 1. Vierzehnte & Fünfzehnte Woche, Fakultät für Mathematik PD Dr Markus Perling Heinrich Heine-Universität Düsseldorf Sommersemester 2014 Lineare Algebra 1 Vierzehnte & Fünfzehnte Woche, 1672014 10 Determinanten (Schluß) Das folgende Resultat

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Lineare Algebra I für Mathematiker Lösungen

Lineare Algebra I für Mathematiker Lösungen Lineare Algebra I für Mathematiker Lösungen Anonymous 24. April 2016 Aufgabe 1 Beantworten Sie bitte die folgenden Fragen. Jeder Vektorraum hat mindestens ein Element. Q ist ein R-Vektorraum (mit der Multiplikation

Mehr

Basisprüfung. 18. August 2015

Basisprüfung. 18. August 2015 Lineare Algebra I/II D-MATH, HS 4/FS 5 Prof Richard Pink Basisprüfung 8 August 25 [6 Punkte] Betrachte den reellen Vektorraum R 3 zusammen mit dem Standardskalarprodukt, und die Vektoren 9 3 v := 6, v

Mehr

7 Lineare Abbildungen und Skalarprodukt

7 Lineare Abbildungen und Skalarprodukt Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

Lineare Algebra II 6. Übungsblatt

Lineare Algebra II 6. Übungsblatt Lineare Algebra II 6 Übungsblatt Fachbereich Mathematik SS 2011 Prof Dr Kollross 18/19 Mai 2011 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minimalpolynom) Bestimmen Sie das Minimalpolynom der

Mehr

Universität Bielefeld Sommersemester Lineare Algebra 2 Übungsblatt 1

Universität Bielefeld Sommersemester Lineare Algebra 2 Übungsblatt 1 Übungsblatt 1 Abgabe bis 10:00 Uhr am Donnerstag, den 19. April 2018, im Postfach Ihrer Tutorin bzw. Ihres Tutors. Es sei K ein beliebiger Körper. Seien V und W endlich-dimensionale K-Vektorräume, mit

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren

Mehr

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung

Mehr

Richie Gottschalk Lineare Algebra I Seite 1. a) Welche der folgenden Ringe sind kommutativ? Es gibt genau einen Unterraum W von V mit dim(w ) = n.

Richie Gottschalk Lineare Algebra I Seite 1. a) Welche der folgenden Ringe sind kommutativ? Es gibt genau einen Unterraum W von V mit dim(w ) = n. Richie Gottschalk Lineare Algebra I Seite Aufgabe Im Folgenden sind K immer ein Körper und V ein K-Vektorraum. a) Welche der folgenden Ringe sind kommutativ? K[x] K[x] ist per se ein kommutativer Polynomring.

Mehr

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in

Mehr

Musterlösungen zur Linearen Algebra II Weihnachtszettel

Musterlösungen zur Linearen Algebra II Weihnachtszettel Musterlösungen zur Linearen Algebra II Weihnachtszettel Aufgabe. Welche der folgenden Matrizen 3 0 0 A = 0 4, B = 3, C = 0 0 0 6 0 0 0 sind über R und welche über C diagonalisierbar? Bestimmen Sie dazu

Mehr

D-Math/Phys Lineare Algebra II FS 2017 Dr. Meike Akveld. Clicker Fragen

D-Math/Phys Lineare Algebra II FS 2017 Dr. Meike Akveld. Clicker Fragen D-Math/Phys Lineare Algebra II FS 2017 Dr. Meike Akveld Clicker Fragen Frage 1 Wenn eine reelle Matrix einen Eigenvektor hat, so hat es unendlich viele Eigenvektoren Sei u K n einen Eigenvektor von A M

Mehr

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153 3.3. SKALARPRODUKTE 153 Hierzu müssen wir noch die Eindeutigkeit (Unabhängigkeit von der Wahl der Basis bzw. des Koordinatensystems) zeigen. Sei hierzu β eine Bilinearform und q die entsprechende quadratische

Mehr

Probeklausur Lineare Algebra 1 Achten Sie auf vollständige, saubere und schlüssige Argumentation! 100 Punkte sind 100%. Inhaltsverzeichnis

Probeklausur Lineare Algebra 1 Achten Sie auf vollständige, saubere und schlüssige Argumentation! 100 Punkte sind 100%. Inhaltsverzeichnis Prof. Dr. Wolfgang Arendt Manuel Bernhard Wintersemester 5/6 Probeklausur Lineare Algebra Achten Sie auf vollständige, saubere und schlüssige Argumentation! Punkte sind %. Inhaltsverzeichnis Aufgabe Aufgabe

Mehr

Lineare Algebra II. Eine Vorlesung von Prof. Dr. Klaus Hulek

Lineare Algebra II. Eine Vorlesung von Prof. Dr. Klaus Hulek Lineare Algebra II Eine Vorlesung von Prof Dr Klaus Hulek hulek@mathuni-hannoverde Bei dieser Vorlesung handelt es sich um die Fortsetzung der Vorlesung Lineare Algebra I vom WS 21/2 c Klaus Hulek Institut

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit.

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit. KAPITEL 8 Normalformen Definition 8.1 (Blockmatrizen). Sind 1. Blockmatrizen A K m 1 n 1,B K m 1 n 2,C K m 2 n 1 und D K m 2 n 2 so nennet man die Matrix X = ( A B C D ) K (m 1+m 2 ) (n 1 +n 2 ) eine Blockmatrix

Mehr

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt

Mehr

29 Lineare Algebra 2 (SS 2009) 4.9. Das charakteristische Polynom sei Produkt von linearen Polynomen.

29 Lineare Algebra 2 (SS 2009) 4.9. Das charakteristische Polynom sei Produkt von linearen Polynomen. 9 Lineare Algebra (SS 009) 49 Das charakteristische Polynom sei Produkt von linearen Polynomen 49 Das charakteristische Polynom sei Potenz eines linearen Polynoms Wir betrachten nun eine Matrix A, sodass

Mehr

Zusammenfassung Lineare Algebra II

Zusammenfassung Lineare Algebra II Zusammenfassung Lineare Algebra II CC BY: Tim Baumann, http://timbaumanninfo/uni-spicker Notation Sofern nicht anders angegeben, bezeichne K im folgenden einen beliebigen Körper, V einen (möglicherweise

Mehr

3 Vektorräume abstrakt

3 Vektorräume abstrakt Mathematik I für inf/swt Wintersemester / Seite 7 Vektorräume abstrakt Lineare Unabhängigkeit Definition: Sei V Vektorraum W V Dann heißt W := LH(W := Menge aller Linearkombinationen aus W die lineare

Mehr

4 Lineare Abbildungen Basisdarstellungen

4 Lineare Abbildungen Basisdarstellungen 4 Lineare Abbildungen Basisdarstellungen (4.1) Seien V,W endlich dimensionale K-Vektorräume, und sei T : V W linear. Sei {v 1,...,v } Basis von V und {w 1,...,w M } Basis von W. Sei T (v j ) = M a kj w

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=

Mehr

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

1 Die Jordansche Normalform

1 Die Jordansche Normalform Matthias Tischler Karolina Stoiber Ferienkurs Lineare Algebra für Physiker WS 4/5 A Die Jordansche Normalform Vierter Tag (9.03.205) Im Zusammenhang mit der Lösung komplexer Differentialgleichungssysteme

Mehr

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Technische Universität München Department of Physics Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Freitag, 16.03.2012 Sascha Frölich Ferienkurs Lin. Alg. -

Mehr

4 Orthogonale Endormorphismen

4 Orthogonale Endormorphismen 4 Orthogonale Endormorphismen Frage: Bei welchen Abbildungen R R bzw. R 3 R 3 bleibt der Abstand zwischen zwei Punkten erhalten? Für α R setzen wir cosα sin α D(α) = und S(α) := sin α cosα ( cos α sin

Mehr

Klausur zu. Lineare Algebra II. Viel Erfolg! Fachbereich Mathematik WS 2012/13 Dr. habil. Matthias Schneider. Bonus Note. Aufgabe

Klausur zu. Lineare Algebra II. Viel Erfolg! Fachbereich Mathematik WS 2012/13 Dr. habil. Matthias Schneider. Bonus Note. Aufgabe Klausur zu Lineare Algebra II Fachbereich Mathematik WS 0/3 Dr. habil. Matthias Schneider Aufgabe 3 4 5 6 7 Bonus Note Punktzahl 4 3 3 3 3 0 erreichte Punktzahl Es sind keine Hilfsmittel zugelassen. Die

Mehr

Mathematik für Physiker, Informatiker und Ingenieure

Mathematik für Physiker, Informatiker und Ingenieure Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel V SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de

Mehr

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau 312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind

Mehr

Lineare Algebra I Lösungsvorschläge zum 14. Übungsblatt U. Görtz

Lineare Algebra I Lösungsvorschläge zum 14. Übungsblatt U. Görtz Lineare Algebra I Lösungsvorschläge zum 14. Übungsblatt U. Görtz Aufgabe 1 Sei V ein endlich-dimensionaler K-Vektorraum, und seien f und g Endomorphismen von V mit f g = g f. Zeige: a) Sind f und g diagonalisierbar,

Mehr

3.3 Das charakteristische Polynom

3.3 Das charakteristische Polynom LinAlg II Version 1 2. Mai 2006 c Rudolf Scharlau 209 3.3 Das charakteristische Polynom Wir setzen die im vorigen Abschnitt begonnene Untersuchung von Eigenvektoren und Eigenwerten fort und stellen den

Mehr

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: Lineare Algebra D-MATH, HS 04 Prof. Richard Pink Lösung zu Serie. [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: a) F (X) := X 5 X in R[X] und C[X]. b) F (X) := X 4 +X 3 +X in

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr