Lineare Algebra II. Sommersemester Wolfgang Ebeling

Größe: px
Ab Seite anzeigen:

Download "Lineare Algebra II. Sommersemester Wolfgang Ebeling"

Transkript

1 Lineare Algebra II Sommersemester 2006 Wolfgang Ebeling 1

2 c Wolfgang Ebeling Institut für Mathematik Universität Hannover Postfach Hannover

3 1 Euklidische und unitäre Vektorräume 1 1 Euklidische und unitäre Vektorräume Wir wollen das Skalarprodukt auf dem R n verallgemeinern Definition heißt Es sei V ein R-Vektorraum Eine Abbildung, : V V R (v, w) v, w (i) eine Bilinearform, falls für alle v, v, w, w V und λ R gilt v + v, w = v, w + v, w λv, w = λ v, w v, w + w = v, w + v, w (ii) symmetrisch, falls für alle v, w V (iii) positiv definit, falls v, w = w, v, v, v > 0 für alle v 0 v, λw = λ v, w, Eine positiv definite symmetrische Bilinearform nennt man auch ein Skalarprodukt Ein euklidischer Vektorraum ist ein R-Vektorraum zusammen mit einem Skalarprodukt Beispiel 11 Der R n mit dem gewöhnlichen Skalarprodukt y 1 v, y := v T n y = (v 1,, v n ) = v i y i y i=1 n ist ein euklidischer Vektorraum Beispiel 12 Es sei V = C[0, 1] = {f f : [0, 1] R stetig} und f, g := 1 0 f(t)g(t)dt Nach den Rechenregeln für Integrale ist, eine symmetrische Bilinearform Wegen f, f = 1 0 f 2 (t)dt > 0 für f 0 ist diese Bilinearform positiv definit, also ein Skalarprodukt auf V

4 1 Euklidische und unitäre Vektorräume 2 Wir wollen nun auch ein Skalarprodukt auf dem C n einführen Warum ist die Bilinearform von Beispiel 11 kein Skalarprodukt? Definition heißt Es sei V ein C-Vektorraum Eine Abbildung, : V V C (v, w) v, w (i) eine Sesquilinearform, falls für alle v, v, w, w V und λ C gilt v + v, w = v, w + v, w λv, w = λ v, w v, w + w = v, w + v, w (ii) hermitesch, falls für alle v, w V v, w = w, v, v, λw = λ v, w, (iii) positiv definit, falls v, v > 0 für alle v 0 Eine positiv definite hermitesche Sesquilinearform auf einem C-Vektorraum V nennt man auch ein Skalarprodukt auf V Ein unitärer Vektorraum ist ein C-Vektorraum zusammen mit einem Skalarprodukt Beispiel 13 In der Vorlesung wird gezeigt, dass C n mit der Sesquilinearform y 1 v, y := v T n y = (v 1,, v n ) = v i y i ein unitärer Vektorraum ist Beispiel 14 Es sei f : [0, 1] C eine Funktion Dann ist f = u + iv für reelle Funktionen u, v : [0, 1] R Die Funktion f heißt stetig falls die reellen Funktionen u und v stetig sind Das Integral von f über [0, 1] ist definiert als 1 0 f(t)dt := 1 Es sei V = {f : [0, 1] C stetig} und 0 f, g := u(t)dt + i 1 0 y n 1 0 f(t)g(t)dt Dann definiert, ein Skalarprodukt auf V i=1 v(t)dt C

5 1 Euklidische und unitäre Vektorräume 3 Definition (a) Eine n n-matrix über R heißt symmetrisch, falls A = A T (b) Eine n n-matrix über C heißt hermitesch, falls A = A T Es sei im Folgenden K = R oder K = C Für eine symmetrische (hermitesche) n n-matrix A über K setzen wir, A : K n K n K ( x, y) x, y A := x T A y Man beachte, dass die komplexe Konjugation auf R die Identität ist Deswegen können wir auf diese Weise den symmetrischen und den hermiteschen Fall parallel behandeln Lemma 11 Ist A symmetrisch (hermitesch), so ist, A eine symmetrische Bilinearform (hermitesche Sesquilinearform) Beweis Durch Nachrechnen (siehe Vorlesung) Es sei nun V ein endlich dimensionaler K-Vektorraum mit einer fest gewählten Basis B = {v 1,, v n } Dann können wir einer symmetrischen (hermiteschen) n n-matrix A wie folgt eine symmetrische Bilinearform (hermitesche Sesquilinearform) auf V zuordnen: Es seien v, w V und x der Koordinatenvektor zu v und y der Koordinatenvektor zu w bezüglich der Basis B Dann setzen wir Es sei nun umgekehrt v, w A := x T A y, : V V K eine symmetrische Bilinearform (hermitesche Sesquilinearform) Dann ordnen wir dieser eine n n-matrix A wie folgt zu: A = ( v i, v j ) Definition der Basis B Die Matrix A heißt die Darstellungsmatrix von, bezüglich

6 1 Euklidische und unitäre Vektorräume 4 Lemma 12 Die Darstellungsmatrix A einer symmetrischen Bilinearform (hermiteschen Sesquilinearform) ist symmetrisch (hermitesch) Beweis Durch Nachrechnen (siehe Vorlesung) Daraus ergibt sich, dass wir nach Wahl einer Basis B eine bijektive Beziehung zwischen symmetrischen (hermiteschen) Matrizen und symmetrischen Bilinearformen (hermiteschen Sesquilinearformen) auf V haben Wir diskutieren nun, wie sich die Darstellungsmatrix einer symmetrischen Bilinearform (hermiteschen Sesquilinearform), ändert, wenn wir von der Basis B zu einer anderen Basis B übergehen Satz 11 (Transformationsformel) Es sei V ein endlich dimensionaler K-Vektorraum, B, B Basen von V und, eine symmetrische Bilinearform (hermitesche Sesquilinearform) auf V Es sei A bzw A die Darstellungsmatrix von, bezüglich B bzw B Schließlich sei S = TB B die Transformationsmatrix von B nach B Dann gilt A = S T A S Beweis Es seien v, w V und x bzw y die Koordinatenvektoren von v bzw w bezüglich der Basis B Dann sind S x bzw S y die Koordinatenvektoren von v bzw w bezüglich der Basis B Dann gilt auf der einen Seite auf der anderen Seite Speziell für v = v i, w = v j erhält man v, w = x T A y, v, w = (S x) T A (S y) = x T (S T A S) y v i, v j = e T i A e j = a ij, v i, v j = e T i (S T A S) e j = c ij, wobei A = (a ij ) und S T A S = (c ij ) Daraus folgt A = S T A S Man vergleiche diese Formel mit der Transformationsformel für lineare Abbildungen (I, Satz 164)

7 1 Euklidische und unitäre Vektorräume 5 Ist, : V V K eine symmetrische Bilinearform (hermitesche Sesquilinearform), so erhält man daraus eine Abbildung q : V K v q(v) := v, v Sie heißt die zu, gehörige quadratische Form Man kann, aus q zurückgewinnen Dies nennt man Polarisierung: K = R : v, w = 1 (q(v + w) q(v w)), 2 K = C : v, w = 1 (q(v + w) q(v w) + iq(v + iw) iq(v iw)) 4 (Beweis durch Nachrechnen) Definition Es sei V ein K-Vektorraum Unter einer Norm auf V versteht man eine Funktion : V R v v mit folgenden Eigenschaften: (i) v 0, v = 0 v = 0, (ii) λv = λ v für alle λ R, v V (iii) v + w v + w für alle v, w V (Dreiecksungleichung) Ein normierter Vektorraum ist ein Paar (V, ), das aus einem Vektorraum V und einer Norm auf V besteht Definition Es sei X eine Menge Unter einer Metrik auf X versteht man eine Abbildung d : X X R (x, y) d(x, y) mit folgenden Eigenschaften: (i) d(x, y) = 0 x = y (ii) d(x, y) = d(y, x) für alle x, y X (Symmetrie) (iii) d(x, z) d(x, y) + d(y, z) für alle x, y, z X (Dreiecksungleichung) Ein metrischer Raum ist ein Paar (X, d), X Menge, d Metrik Man nennt d(x, y) den Abstand oder die Distanz der Punkte x und y bzgl d

8 1 Euklidische und unitäre Vektorräume 6 Bemerkung 11 Aus den Axiomen folgt, dass d(x, y) 0 für alle x, y X Beweis Wende Dreiecksungleichung auf x, y, x an: 0 (i) = d(x, x) d(x, y) + d(y, x) (ii) = 2d(x, y) Satz 12 Es sei (V, ) ein normierter Vektorraum Dann wird durch eine Metrik d auf V definiert Beweis d(x, y) := x y für x, y V (i) d(x, y) = 0 x y = 0 x y = 0 x = y (ii) d(x, y) = x y = 1 x y = y x = d(y, x) (iii) d(x, z) = x z = x y+y z x y + y z = d(x, y)+d(y, z) Satz 13 Ist (V,, ) ein euklidischer (unitärer) Vektorraum, so wird durch eine Norm auf V definiert v := v, v Für den Beweis dieses Satzes brauchen wir das folgende Resultat: Satz 14 (Cauchy-Schwarzsche Ungleichung) Für v, w V gilt v, w v w und Gleichheit gilt genau dann, wenn v und w linear abhängig sind Beweis Für w = 0 sind beide Seiten der Ungleichung gleich 0, die Ungleichung ist daher erfüllt Es genügt daher, den Fall w 0 zu behandeln Für λ, µ K gilt 0 λv + µw, λv + µw = λλ v, v + λµ v, w + λµ w, v + µµ w, w

9 2 Summen von Vektorräumen 7 Setzen wir nun λ := w, w und µ := v, w, so folgt 0 λ( v, v w, w v, w v, w ) = λ( v 2 w 2 v, w 2 ) Wegen λ 0 folgt daraus 0 v 2 w 2 v, w 2 Nun ziehen wir auf beiden Seiten die Quadratwurzel Dann bleibt das Ungleichheitszeichen erhalten und wir erhalten die behauptete Ungleichung Für den Beweis des Zusatzes bemerken wir (für λ := w, w und µ := v, w ) : v, w = v w λv + µw, λv + µw = 0 λv + µw = 0 v = µ λ w Man beachte, dass dies der gleiche Beweis wie für I, Satz 34 ist, nur dass wir statt einer symmetrischen Bilinearform auch eine hermitesche Sesquilinearform zugelassen haben Beweis von Satz 13 (i) und (ii) sind einfach (siehe Vorlesung) (iii): Um die Dreiecksungleichung v + w, v + w v, v + w, w zu beweisen, geht man durch Quadrieren zu der äquivalenten Ungleichung v + w, v + w v, v + 2 v, v w, w + w, w über, die gleichbedeutend ist mit v, v + 2 v, w + w, w v, v + 2 v, v w, w + w, w Diese Ungleichung ist äquivalent zu der Cauchy-Schwarzschen Ungleichung 2 Summen von Vektorräumen Im Folgenden sei K zunächst ein beliebiger Körper Wir betrachten verschiedene Summen von Vektorräumen

10 2 Summen von Vektorräumen 8 Definition Es sei V ein K-Vektorraum und U 1, U 2 Unterräume von V Dann heißt U 1 + U 2 := {u 1 + u 2 u 1 U 1, u 2 U 2 } die Summe von U 1 und U 2 Lemma 21 Für die oben definierte Summe U 1 +U 2 der Unterräume U 1 und U 2 gilt: (i) U 1 + U 2 V ist ein Unterraum (ii) U 1 + U 2 = span(u 1 U 2 ) (iii) dim(u 1 + U 2 ) dim U 1 + dim U 2 Beweis Siehe Vorlesung Satz 21 (Dimensionsformel für Summen) Für endlich dimensionale Unterräume U 1, U 2 V gilt dim(u 1 + U 2 ) = dim U 1 + dim U 2 dim(u 1 U 2 ) Beweis Es sei {v 1,, v m } eine Basis von U 1 U 2 Wir ergänzen diese Basis zu Basen {v 1,, v m, u 1,, u k } von U 1 und {v 1,, v m, u 1,, u l} von U 2 Wir müssen zeigen: B := {v 1,, v m, u 1,, u k, u 1,, u l} ist eine Basis von U 1 + U 2 Dazu reicht es zu zeigen, dass B linear unabhängig ist Dazu sei Wir setzen λ 1 v λ m v m + µ 1 u µ k u k + µ u 1 + µ u l = 0 v := λ 1 v λ m v m + µ 1 u µ k u k Dann ist v U 1 und v = µ u 1 + µ u l U 2 Daraus folgt v U 1 U 2 Also ist v = λ 1v λ mv m für gewisse Skalare λ 1,, λ m Da {v 1,, v m } eine Basis bildet, folgt µ 1 = = µ k = 0 Setzen wir dies in die obige Gleichung ein, so folgt λ 1 = = λ m = µ 1,, µ l = 0

11 2 Summen von Vektorräumen 9 Lemma 22 Ist V = U 1 + U 2, so sind die folgenden Aussagen äquivalent: (i) U 1 U 2 = {0} (ii) Jedes v V lässt sich eindeutig darstellen als v = u 1 + u 2 mit u 1 U 1 und u 2 U 2 (iii) Je zwei vom Nullvektor verschiedene Vektoren u 1 U 1 und u 2 U 2 sind linear unabhängig Beweis Siehe Vorlesung Ist eine der drei äquivalenten Bedingungen von Lemma 22 erfüllt, so heißt V die direkte Summe von U 1 und U 2 Also gilt z B: Definition Ein Vektorraum V heißt direkte Summe von zwei Unterräumen U 1 und U 2, in Zeichen V = U 1 U 2, wenn V = U 1 + U 2 und U 1 U 2 = {0} Beispiel 21 Es sei V = R 3 Ist U 1 = span{ e 1, e 2 } und U 2 = span{ e 3 }, so ist V = U 1 U 2 Ist dagegen U 3 = span{ e 2, e 3 }, so ist zwar V = U 1 + U 3, die Summe ist aber nicht direkt, da U 1 U 3 = span{ e 2 } Satz 22 Es sei V ein endlich dimensionaler K-Vektorraum und U 1, U 2 Untervektorräume von V Dann sind die folgenden Bedingungen äquivalent: (i) V = U 1 U 2 (ii) Es gibt Basen {u 1,, u k } von U 1 und {u 1,, u l } von U 2, so dass {u 1,, u k, u 1,, u l } eine Basis von V ist (iii) Es gilt V = U 1 + U 2 und dim V = dim U 1 + dim U 2 Beweis Siehe Vorlesung Definition Es sei U V ein Unterraum Ein Unterraum W V heißt Komplement von U in V, falls U W = V Bemerkung 21 Zu einem Unterraum U ist ein Komplement W im Allgemeinen nicht eindeutig bestimmt: Ist zum Beispiel V = R 3 und U = span{ e 1, e 2 }, so sind W 1 = span{ e 3 } und W 2 = span{ e 1 + e 3 } Komplemente von U

12 2 Summen von Vektorräumen 10 Satz 23 Ist V endlich dimensional und U V ein Unterraum, so besitzt U ein Komplement in V Beweis Man nehme eine Basis {v 1,, v r } von U und ergänze sie nach I, Satz 133(a), zu einer Basis {v 1,, v r, v r+1,, v n } von V Man setze W := span{v r+1,, v n } Nun betrachten wir einen euklidischen oder unitären Vektorraum V Definition Es sei V ein euklidischer (unitärer) Vektorraum (a) Zwei Vektoren v, w V heißen orthogonal, in Zeichen v w, falls vw = 0 (b) Zwei Unterräume U, W V heißen orthogonal, in Zeichen U W, falls u w für alle u U, w W (c) Ist U ein Unterraum, so heißt U := {v V u, v = 0 für alle u U} das orthogonale Komplement von U Bemerkung 22 Das orthogonale Komplement U eines Unterraums U ist ein Komplement von U, also insbesondere wieder ein Unterraum (siehe Vorlesung) Definition Es sei V ein euklidischer (unitärer) Vektorraum Eine Teilmenge S = {v 1,, v n } von V heißt orthogonal, wenn die Vektoren v i paarweise orthogonal sind, dh wenn v i v j für alle i j, i, j = 1,, n, gilt Eine Teilmenge S = {v 1,, v n } von V heißt orthonormal, wenn S orthogonal ist und alle Vektoren auf die Länge 1 normiert sind, dh wenn v i, v j = 0 für alle i j und v i, v i = 1 für i, j = 1,, n Eine Basis S = {v 1,, v n } von V heißt Orthonormalbasis (abgekürzt ON-Basis), wenn sie orthonormal ist Es sei V ein euklidischer (unitärer) Vektorraum Wie in LA I beweisen wir:

13 2 Summen von Vektorräumen 11 Lemma 23 Eine orthogonale Teilmenge S = {v 1,, v n } von V mit vom Nullvektor verschiedenen Elementen ist linear unabhängig Beweis Es sei Dann gilt α 1 v α n v n = 0 α 1 v α n v n, v i = α i v i, v i = 0 Da nach Vorausetzung v i 0, folgt daraus α i = 0 Dies gilt für alle i = 1,, n Lemma 24 Es sei W ein Unterraum von V und {v 1,, v m } eine Orthonormalbasis von W Es sei u V Dann ist der Vektor orthogonal zu allen Vektoren von W v := u u, v 1 v 1 u, v m v m Definition Der Vektor u u, v 1 v 1 u, v m v m heißt die zu W orthogonale Komponente von u Beweis Es gilt v, v i = u u, v 1 v 1 u, v m v m, v i = u, v i u, v i = 0 Satz 24 (Orthonormalisierungssatz) Es sei V ein endlich dimensionaler euklidischer (unitärer) Vektorraum Es sei W V ein Unterraum und {w 1,, w m } eine ON-Basis von W Dann kann man diese zu einer ON- Basis {w 1,, w m, w m+1,, w n } von V ergänzen Beweis Der Beweis wird durch das E Schmidt sche Orthonormalisierungsverfahren gegeben, das wir schon in LA I vorgestellt haben Ist V = W, so ist man fertig Andernfalls gibt es ein v V \ W Wir betrachten die zu W orthogonale Komponente von v: w := v v, w 1 w 1 v, w m w m Da v W, ist w 0 Nach Lemma 24 ist w W Wir setzen nun w m+1 := w w

14 2 Summen von Vektorräumen 12 Dann ist {w 1,, w m+1 } eine orthogonale Teilmenge, deren Elemente vom Nullvektor verschieden sind Nach Lemma 23 ist diese Teilmenge linear unabhängig und damit eine ON-Basis von W := span{w 1,, w m+1 } Ist W = V, so ist man fertig Andernfalls kommt man nach endlich vielen Schritten zum Ziel Korollar 21 Jeder endlich dimensionale euklidische (unitäre) Vektorraum besitzt eine Orthonormalbasis Beweis Man wende das obige Verfahren mit W = {0} an Definition Es sei V ein euklidischer (unitärer) Vektorraum und U 1, U 2 Unterräume von V Man sagt, V ist die orthogonale direkte Summe der Unterräume U 1 und U 2, in Zeichen V = U 1 U 2, falls (i) V = U 1 U 2 und (ii) U 1 U 2 Lemma 25 Es sei V ein euklidischer (unitärer) Vektorraum und U 1, U 2 Unterräume von V Gilt (i) V = U 1 + U 2 und (ii) U 1 U 2, so ist V die orthogonale direkte Summe der Unterräume U 1 und U 2 Beweis Wir haben zu zeigen U 1 U 2 = Es sei v U 1 U 2, v 0 Wegen (i) ist v = u 1 + u 2 mit u 1 U 1 und u 2 U 2 Dann gilt 0 v, v = v, u 1 + v, u 2 = 0 wegen (ii), ein Widerspruch Satz 25 Es sei V ein endlich dimensionaler euklidischer (unitärer) Vektorraum und W V ein Unterraum Dann gilt V = W W Insbesondere ist dim V = dim W + dim W

15 2 Summen von Vektorräumen 13 Beweis Es sei {w 1,, w m } eine ON-Basis von W Diese ergänze man nach Satz 24 zu einer ON-Basis {w 1,, w m, w m+1,, w n } von V Dann ist w m+1,, w n W Es sei nun v V Dann können wir v schreiben als mit v = λ 1 w λ m w m + λ m+1 w m λ n w n λ 1 w λ m w m W, λ m+1 w m λ n w n W Daraus folgt die Behauptung Wir wollen nun auch Summen von mehr als zwei Unterräumen betrachten Definition Es sei V ein K-Vektorraum und U 1,, U s Unterräume von V Dann heißt U U s := {u u s u i U i, i = 1,, s} die Summe von U 1,, U s Wie oben beweist man: Lemma 26 Für die Summe U U s der Unterräume U 1,, U s gilt: (i) U U s V ist ein Unterraum (ii) U U s = span(u 1 U s ) (iii) dim(u U s ) dim U dim U s Satz 26 Ist V = U U s, so sind die folgenden Aussagen äquivalent: (i) Für jedes i = 1,, s gilt: Ist W i := U Ûi + + U s, so ist U i W i = {0} (Hierbei bedeutet Ûi: In der Summe wird U i weggelassen, nimmt seinen Hut und geht ) (ii) Jedes Element v V lässt sich eindeutig darstellen als v = u 1 + +u s mit u i U i (iii) Für jede Teilmenge I {1,, s} gilt: Ist für i I u i U i, u i 0, so ist die Teilmenge S I := {u i i I} linear unabhängig Definition Ist eine der äquivalenten Bedingungen von Satz 26 erfüllt, so heißt V die direkte Summe von U 1,, U s, in Zeichen V = U 1 U s

16 2 Summen von Vektorräumen 14 Beweis (i) (ii): Es sei Dann folgt v = u u s = u u s (u i, u i U i ) u i u i = (u 1 u 1 )+ +(u i 1 u i 1 )+(u i+1 u i+1 )+ +(u s u s ) W i U i Nach (i) folgt u i u i = 0 (ii) (iii): Es sei I = {i 1,, i r } {1,, s} und λ 1 u i1 + + λ r u ir = 0 Da nach (ii) auch der Nullvektor 0 V eine eindeutige Darstellung 0 = 0u i u ir besitzt, folgt λ 1 = = λ r = 0 (iii) (i): Es sei W i U i {0} Dann gibt es ein u i U i mit u i 0 und u i = u u i 1 + u i u s mit u j U j Es sei I die Menge aller Indizes j {1,, s} mit u j Teilmenge S I linear abhängig im Widerspruch zu (iii) 0 Dann ist die Satz 27 Es sei V ein endlich dimensionaler K-Vektorraum und U 1,, U s Unterräume von V Dann sind die folgenden Bedingungen äquivalent: (i) V = U 1 U s (ii) Ist für jedes i {1,, s} eine Basis {u (i) 1,, u (i) k i } von U i gegeben, so ist {u (1) 1,, u (1) k 1,, u (s) 1,, u (s) k s } eine Basis von V (iii) Es gilt V = U U s und dim V = dim U dim U s Beweis (i) (ii): Es sei B := {u (1) 1,, u (1) k 1,, u (s) 1,, u (s) k s } Offensichtlich ist B ein Erzeugendensystem von V Es reicht daher zu zeigen, dass B linear unabhängig ist Dazu sei λ (1) 1 u (1) + + λ (1) k 1 u (1) k λ (s) 1 u (s) λ (s) k s u (s) k s = 0

17 2 Summen von Vektorräumen 15 Setzen wir w i := λ (i) 1 u (i) + + λ (i) k i u (i) k i, so folgt w w s = 0 Aus Satz 26 (iii) folgt w 1 = = w s = 0 Also ist λ (i) 1 u (i) + + λ (i) k i u (i) k i = 0 für i = 1,, s Daraus folgt λ (i) 1 = = λ (i) k i = 0 (ii) (iii) ist klar (ii) (i) folgt aus Satz 26 (ii) Es sei nun wieder K = R, C und V ein euklidischer (unitärer) Vektorraum Definition Es sei V ein euklidischer (unitärer) Vektorraum und U 1,, U s Unterräume von V Man sagt, V ist die orthogonale direkte Summe der Unterräume U 1, U s, in Zeichen V = U 1 U s, falls (i) V = U 1 U s und (ii) U i U j für i j Lemma 27 Es sei V ein euklidischer (unitärer) Vektorraum und U 1,, U s Unterräume von V Gilt (i) V = U U s und (ii) U i U j für i j, so ist V die orthogonale direkte Summe der Unterräume U 1,, U s Beweis Wir haben zu zeigen: U i W i = {0} Es sei v U i W i, v 0 Dann gilt v = u u i 1 + u i u s mit u j U j Da U i U j für i j folgt dann 0 v, v = v, u v, u i 1 + v, u i v, u s = 0, ein Widerspruch

18 3 Orthogonale und unitäre Endomorphismen 16 3 Orthogonale und unitäre Endomorphismen Es sei zunächst K ein beliebiger Körper Wir führen noch einen Sprachgebrauch ein Definition Es sei V ein K-Vektorraum Ein Endomorphismus von V ist eine lineare Abbildung f : V V Ein Automorphismus von V ist ein bijektiver Endomorphismus Nun sei im Folgenden wieder K = R, C und (V,, ) ein euklidischer (unitärer) Vektorraum Definition Es sei V ein euklidischer (unitärer) Vektorraum Ein Endomorphismus f : V V heißt orthogonal (unitär), falls gilt: f(v), f(w) = v, w für alle v, w V Satz 31 Für einen orthogonalen (unitären) Endomorphismus f : V V gilt: (i) f(v) = v für alle v V (ii) v w f(v) f(w) (iii) f ist injektiv (iv) Ist V endlich dimensional, so ist f ein Automorphismus und f 1 ist ebenfalls orthogonal (unitär) (v) Ist λ ein Eigenwert von f, so ist λ = 1 Beweis Siehe Vorlesung bzw LA B, Satz 74 Satz 32 Ein Endomorphismus f : V V ist genau dann orthogonal (unitär), wenn f eine Isometrie ist, dh f(v) = v für alle v V gilt Beweis ist Satz 31 (i) Es sei K = R (Der Fall K = C kann analog bewiesen werden) Wir wenden Polarisierung an: f(v), f(w) = 1 ( f(v) + f(w) 2 f(v) f(w) 2) 2 = 1 ( f(v + w) 2 f(v w) 2) 2 = 1 ( v + w 2 v w 2) = v, w 2

19 3 Orthogonale und unitäre Endomorphismen 17 Wir hatten in LA I die Gruppe GL(n) aller invertierbaren Matrizen mit reellen Einträgen eingeführt Wir bezeichnen die Menge aller invertierbaren Matrizen mit Einträgen in dem Körper K mit GL(n; K) Allgemeiner bezeichnen wir die Menge aller n n-matrizen mit Einträgen in K mit Mat(n; K) Definition (a) Eine Matrix A GL(n; R) heißt orthogonal, wenn gilt: A 1 = A T (b) Eine Matrix A GL(n; C) heißt unitär, wenn gilt: A 1 = A T Lemma 31 Für eine orthogonale (unitäre) Matrix A gilt det A = 1 Beweis Aus A t A = E folgt: det(a t A) = det A t det A = (det A)(det A) = det A 2 = 1 Definition (a) O(n) := {A GL(n; R) A 1 = A T } (orthogonale Gruppe) (b) SO(n) := {A O(n) det A = 1} (spezielle orthogonale Gruppe) (c) U(n) := {A GL(n; C) A 1 = A T } (unitäre Gruppe) (d) SU(n) := {A U(n) det A = 1} (spezielle unitäre Gruppe) Die angegebenen Mengen sind Untergruppen von GL(n; K) (Beweis Übungsaufgabe) Satz 33 Für A Mat(n; K) sind die folgenden Aussagen äquivalent: (i) A ist orthogonal (unitär) (ii) Die Spaltenvektoren von A bilden eine ON-Basis von K n (iii) Die Zeilenvektoren von A bilden eine ON-Basis von K n

20 3 Orthogonale und unitäre Endomorphismen 18 Beweis (ii) bedeutet A T A = E (iii) bedeutet AA T = E Satz 34 Es sei V ein euklidischer (unitärer) Vektorraum mit einer ON- Basis B und f ein Endomorphismus von V Dann ist f genau dann orthogonal (unitär), wenn die Darstellungsmatrix MB B (f) bezüglich der Basis B orthogonal (unitär) ist Beweis Es seien v, w V und x bzw y die Koordinatenvektoren von v bzw w bezüglich der Basis B Dann gilt v, w = x T E y = x T y, da E die Darstellungsmatrix des Skalarprodukts bezüglich einer ON-Basis ist Setze A := MB B (f) Dann gilt: f(v), f(w) = v, w (A x) T (A y) = x T y A T A = E Theorem 31 Es sei V ein unitärer Vektorraum der Dimension n und f : V V ein unitärer Endomorphismus Dann besitzt V eine ON-Basis, die aus Eigenvektoren von f besteht Insbesondere ist f diagonalisierbar Beweis Der zugrundeliegende Körper ist C und die Eigenwerte von f sind die Nullstellen des charakteristischen Polynoms P f (x), das ein komplexes Polynom ist Nach dem Fundamentalsatz der Algebra hat P f (x) genau n Nullstellen λ 1, λ n C Also gilt P f (x) = (x λ 1 ) (x λ n ) Wir führen nun Induktion nach n = dim V durch Der Induktionsanfang n = 1 ist klar Wir nehmen nun an, dass die Behauptung bereits für n 1 bewiesen ist Es sei v 1 ein Eigenvektor von f zum Eigenwert λ 1 Ohne Einschränkung können wir annehmen, dass v 1 = 1 Es sei Dann gilt nach Satz 25 W := span{v 1 } = {w V v 1, w = 0} V = span{v 1 } W

21 3 Orthogonale und unitäre Endomorphismen 19 Behauptung f(w ) = W Beweis Da f ein Isomorphismus ist, reicht es zu zeigen: f(w ) W Nach Satz 31 (v) gilt λ 1 = 1 Damit gilt für w W : λ 1 v 1, f(w) = λ 1 v 1, f(w) = f(v 1 ), f(w) = v 1, w = 0 Da λ 1 0 folgt v 1, f(w) = 0, also f(w) W Nun betrachten wir den Endomorphismus f W : W W Da f W die Einschränkung eines unitären Endomorphismus ist, ist f W auch wieder unitär Da dim W = n 1 können wir auf f W : W W die Induktionsvoraussetzung anwenden Danach besitzt W eine ON-Basis {v 2,, v n } aus Eigenvektoren Dann ist B := {v 1, v 2,, v n } eine ON-Basis von V aus Eigenvektoren Korollar 31 Eine unitäre Matrix A ist diagonalisierbar Genauer gilt: Es gibt eine unitäre Matrix S mit λ S T 0 λ 2 0 AS = 0 0 λ n Hierbei gilt λ i = 1 für i = 1,, n Beweis Siehe Vorlesung In LA I hatten wir bereits orthogonale Abbildungen f : R n R n betrachtet und für n = 1, 2, 3 klassifiziert Allgemeiner wollen wir nun beweisen: Theorem 32 Es sei V ein euklidischer Vektorraum der Dimension n und f : V V ein orthogonaler Endomorphismus Dann besitzt V eine ON-Basis B, bezüglich der f die Darstellungsmatrix MB B (f) =, 1 0 A 1 A k

22 3 Orthogonale und unitäre Endomorphismen 20 besitzt, wobei für j = 1,, k ( cos αj sin α A j = j sin α j cos α j ) mit α j [0, 2π), aber α j 0, π Für den Beweis dieses Theorems brauchen wir ein Lemma Lemma 32 Jedes Polynom P (x) mit reellen Koeffizienten besitzt eine Zerlegung P (x) = (x λ 1 ) (x λ r )Q 1 (x) Q k (x), wobei λ 1,, λ r R und Q 1 (x),, Q k (x) Polynome vom Grad 2 sind, die keine reelle Nullstelle haben Beweis Das Polynom P (x) hat n komplexe Nullstellen Ist λ C eine Nullstelle von P (x), so auch λ: P (λ) = a 0 + a 1 λ + + a n λ n = a 0 + a 1 λ + + a n λ n = P (λ) = 0 = 0 Also hat man eine Zerlegung P (x) = (x λ 1 ) (x λ r )(x µ 1 )(x µ 1 ) (x µ k )(x µ k ), wobei λ 1,, λ r R und µ 1,, µ k R Es sei j = 1,, k und µ j = ξ j +iη j mit ξ j, η j R Setze Q j (x) = (x µ j )(x µ j ) = x 2 2ξ j x + (ξ 2 j + η 2 j ) Beweis von Theorem 32 Wir führen Theorem 32 auf Theorem 31 zurück Dazu komplexifizieren wir f Es sei A irgendeine ON-Basis von V und A := MA A (f) die Darstellungsmatrix von f bezüglich A Dann ist A orthogonal und als reelle Matrix auch unitär Also ist der Endomorphismus A : C n C n, z A z, unitär Es sei P A (x) = P (x) = (x λ 1 ) (x λ r )(x µ 1 )(x µ 1 ) (x µ k )(x µ k ) die Zerlegung des charakteristischen Polynoms von A, die nach Lemma 32 existiert Nach Satz 31 (v) gilt λ i = ±1, i = 1,, r, µ j = cos α j + i sin α j, α j [0, 2π), α j 0, π, j = 1,, k Nach Theorem 31 erhalten wir für A eine ON-Basis B von C n von Eigenvektoren von A Es sei nun z ein Eigenvektor zu

23 3 Orthogonale und unitäre Endomorphismen 21 einem nicht reellen Eigenwert µ Dann ist z ein Eigenvektor zum Eigenwert µ, denn A z = A z = µ z = µ z Deswegen können wir die Basis B so anordnen: v 1,, v p die Eigenvektoren zum Eigenwert + 1, w 1,, w q die Eigenvektoren zum Eigenwert 1, z 1,, z k die Eigenvektoren zu den Eigenwerten µ 1,, µ k, z 1,, z k die Eigenvektoren zu den Eigenwerten µ 1,, µ k Da A reell ist, liegen die Eigenvektoren v 1,, v p, w 1,, w q in R n Zu einem Paar z, z von Eigenvektoren zu µ, µ konstruieren wir nun einen unter A invarianten Unterraum W R n Dazu sei z = x + i y, x, y R n und Behauptung A(W ) = W W := span{ x, y} R n Beweis Es gilt 0 = z, z = x + i y, x i y = x, x y, y + 2i x, y 1 = z, z = x + i y, x + i y = x, x + y, y Daraus folgt x, x = y, y = 1 2 x = 1( z + z), y = 1 ( z z) folgt 2 2i und x, y = 0 Aus µ = cos α + i sin α, A x = 1 2 (A z + A z) = 1 (µ z + µ z) = cos α x sin α y, 2 A y = 1 2i (A z A z) = 1 (µ z µ z) = sin α x + cos α y 2i Nun setzen wir x := 2 x, y := 2 y Bezüglich der ON-Basis { x, y } von W wird die Einschränkung von A auf W beschrieben durch die Matrix ( ) cos α sin α sin α cos α

24 4 Selbstadjungierte Endomorphismen 22 Damit haben wir eine Orthonormalbasis B := { v 1,, v p, w 1,, w q, x 1, y 1,, x k, y k} von R n gefunden, bezüglich der die Abbildung A : R n R n die in Theorem 32 angegebene Gestalt hat Die Transformationsmatrix, die die Standardbasis des R n in die Basis B des R n transformiert, transformiert dann die Basis A von V in eine ON-Basis B von V mit den gewünschten Eigenschaften 4 Selbstadjungierte Endomorphismen Es sei V ein euklidischer (unitärer) Vektorraum Definition Ein Endomorphismus f : V V heißt selbstadjungiert, falls f(v), w = v, f(w) für alle v, w V Bemerkung 41 Ist f : V V ein Endomorphismus, so kann man zeigen, dass es genau eine lineare Abbildung f adj : V V mit der Eigenschaft f(v), w = v, f adj (w) für alle v, w V gibt Die Abbildung f adj heißt die zu f adjungierte Abbildung Daher rührt die Bezeichnung selbstadjungiert Satz 41 Es sei dim V <, f : V V ein Endomorphismus und B eine ON-Basis von V Dann ist f genau dann selbstadjungiert, wenn die Darstellungsmatrix MB B (f) bezüglich der Basis B symmetrisch (hermitesch) ist Beweis Es seien v, w V und x bzw y die Koordinatenvektoren von v bzw w bezüglich der Basis B Es sei A := MB B (f) Dann gilt: f(v), w = v, f(w) (A x) T y = x T (A y) A T = A Lemma 41 Ist f selbstadjungiert, so sind (auch im komplexen Fall) alle Eigenwerte reell Insbesondere hat eine hermitesche Matrix nur reelle Eigenwerte Beweis Ist f(v) = λv mit v 0, so gilt λ v, v = f(v), v = v, f(v) = v, λv = λ v, v Wegen v 0 folgt daraus λ = λ

25 4 Selbstadjungierte Endomorphismen 23 Theorem 41 Es sei V ein euklidischer (unitärer) Vektorraum und f : V V ein selbstadjungierter Endomorphismus Dann besitzt V eine ON-Basis, die aus Eigenvektoren von f besteht Beweis Ist K = C, so zerfällt das charakteristische Polynom in Linearfaktoren χ f (t) = ±(t λ 1 ) (t λ n ) und nach Lemma 41 sind die Eigenwerte λ 1,, λ n reell Auch im Fall K = R zerfällt das charakteristische Polynom in Linearfaktoren: Dazu betrachten wir die Matrixdarstellung A = MB B (f) von f bezüglich irgendeiner ON-Basis B von V Nach Satz 41 ist A symmetrisch Wir können A auch als komplexe Matrix auffassen Dann ist A hermitesch Dann zerfällt das charakteristische Polynom χ A (t) = χ f (t) über C in Linearfaktoren und nach Lemma 41 sind alle Eigenwerte reell Nun wenden wir wieder Induktion nach n = dim V an: Es sei v 1 ein Eigenvektor von f zum Eigenwert λ 1 O B d A sei v 1 = 1 Es sei W := (span{v 1 }) Dann ist W invariant unter f, denn für w W gilt: v 1, f(w) = f(v 1 ), w = λ 1 v 1, w = λ 1 v 1, w = 0 Daraus folgt f(w ) W Nach Induktionsannahme gibt es eine ON-Basis {v 2,, v n } von Eigenvektoren für f W : W W Dann ist B = {v 1,, v n } eine ON-Basis von Eigenvektoren für f Als Anwendung erhalten wir den schon in LA I formulierten, aber nicht bewiesenen, Satz über die Hauptachsentransformation Korollar 41 (Hauptachsentransformation) Es sei A Mat(n; K) eine symmetrische (hermitesche) Matrix Dann gibt es eine orthogonale (unitäre) Transformationsmatrix S mit λ S T 0 λ 2 0 AS = 0 0 λ n Hierbei sind λ 1,, λ n reell

26 5 Symmetrische Bilinearformen 24 Korollar 42 Es sei V ein euklidischer (unitärer) Vektorraum, f : V V ein selbstadjungierter Endomorphismus und λ 1,, λ k die paarweise verschiedenen Eigenwerte Dann ist V = Eig(f, λ 1 ) Eig(f, λ k ) Beweis Aus dem Theorem folgt, dass V die direkte Summe der Eigenräume ist Es bleibt zu zeigen: Eig(f, λ i ) Eig(f, λ j ) für alle i j, i, j = 1,, k Dazu sei v Eig(f, λ i ), w Eig(f, λ j ), i j Dann gilt λ i v, w = λ i v, w = f(v), w = v, f(w) = v, λ j w = λ j v, w Daraus folgt also v, w = 0 (λ i λ j ) v, w = 0, 5 Symmetrische Bilinearformen Es sei nun V ein endlich dimensionaler reeller Vektorraum mit einer symmetrischen Bilinearform, : V V R (Diese Bilinearform braucht nicht positiv definit zu sein) Wie wir bereits gesehen haben, entspricht dieser Bilinearform eine quadratische Form q : V R, q(v) = v, v Bezüglich einer Basis B = {v 1,, v n } von V wird, dargestellt durch die Matrix A = (a ij ), a ij = v i, v j Nach der Transformationsformel ändert sich bei einem Basiswechsel mit Transformationsmatrix S GL(n; R) die Darstellungsmatrix wie folgt: A S T AS Nach dem Satz über die Hauptachsentransformation gibt es eine orthogonale Matrix S mit λ S T AS = S 1 0 λ 2 0 AS =, (λ 1,, λ n R) 0 0 λ n Wir fragen nun nach einer Normalform, wenn wir allgemeiner S GL(n; R) zulassen

27 5 Symmetrische Bilinearformen 25 Satz 51 Es sei, : V V R eine symmetrische Bilinearform Dann gibt es eine Basis B von V, bezüglich der, dargestellt wird durch E k 0 E l 0 0 Beweis Nach dem Satz über die Hauptachsentransformation gibt es eine Basis B = {w 1,, w n }, bezüglich der die darstellende Matrix wie folgt aussieht: λ 1 0 λ k λ k+1 { > 0 für i k,, λ i < 0 für k < i k + l λ k+l 0 0 Wir setzen Dann gilt: v i := 0 { 1 λi w i für 1 i k + l, w i sonst +1 für 1 i k, v i, v i = 1 für k < i k + l, 0 sonst Also hat, bezüglich der Basis B = {v 1,, v n } die gewünschte Gestalt Definition Menge Es sei, : V V R eine symmetrische Bilinearform Die V 0 := {v V v, w = 0 für alle w V } heißt das Radikal (oder der Nullraum) von, Es ist ein Unterraum von V Korollar 51 Es sei, : V V R eine symmetrische Bilinearform Dann gibt es eine Zerlegung in Unterräume, so dass gilt: V = V + V V 0,

28 5 Symmetrische Bilinearformen 26 (i) Die Zerlegung ist orthogonal bezüglich, (ii) v, v > 0 für 0 v V +, v, v < 0 für 0 v V Beweis Es sei B = {v 1,, v n } eine Basis wie in Satz 51 Setze V + := span{v 1,, v k }, V := span{v k+1,, v k+l } Dann bleibt zu zeigen, dass V 0 = span{v k+l+1,, v n } Die Inklusion span{v k+l+1,, v n } V 0 ist klar Es sei umgekehrt v V 0 Dann gilt v = µ 1 v µ k+l v k+l + µ k+l+1 v k+l µ n v n Für i {1,, k + l} gilt aber v, v i = ±µ i = 0 Daraus folgt µ i = 0 Wie der Beweis zeigt, hängt die Zerlegung von einer Basis B von V ab Ist A die Darstellungsmatrix von, bezüglich dieser Basis, so gilt dim V + := Anzahl der positiven Eigenwerte von A, dim V := Anzahl der negativen Eigenwerte von A Der Trägheitssatz von Sylvester besagt, dass diese Zahlen tatsächlich unabhängig von der Wahl von B sind Satz 52 (Trägheitssatz von Sylvester) Es sei, : V V R eine symmetrische Bilinearform, B eine Basis von V und A die Darstellungsmatrix von, bezüglich B Dann sind die Zahlen k := Anzahl der positiven Eigenwerte von A, l := Anzahl der negativen Eigenwerte von A unabhängig von der Auswahl von B Beweis Es sei B eine andere Basis, k, l die entsprechenden Anzahlen und V = V + V V 0 = V + V V 0 die entsprechenden zugehörigen Zerlegungen nach Korollar 51 Da die Anzahl der von Null verschiedenen Eigenwerte gleich dim V dim V 0 ist und damit nicht von der Auswahl der Basis abhängt, gilt k + l = k + l Daher reicht es, l = l zu zeigen

29 5 Symmetrische Bilinearformen 27 Angenommen, es gibt 0 v V + (V V 0 ) Dann gilt v, v > 0 und v = v + v 0 mit v 0 Dann folgt aber v, v = v, v + v 0, v 0 = v, v < 0, ein Widerspruch Also gilt V + (V V 0 ) = {0} und aus Satz 22 folgt k + l + dim V 0 dim V, also k + l k + l, dh l l Durch Vertauschen der Rollen von l und l folgt l l, also l = l und k = k Definition Die Zahl k nennt man auch den Index, die Zahl k l die Signatur der symmetrischen Bilinearform, Korollar 52 Eine symmetrische Bilinearform ist genau dann positiv definit, wenn alle Eigenwerte einer Darstellungsmatrix positiv sind Definition Eine symmetrische Matrix A Mat(n; R) heißt positiv definit, in Zeichen A > 0, falls die zugehörige Form, A positiv definit ist, dh x T A x > 0 für alle x R n, x 0 Korollar 53 Eine symmetrische Matrix A Mat(n; R) ist genau dann positiv definit, wenn alle Eigenwerte positiv sind Wir wollen zum Abschluss noch ein anderes Kriterium dafür angeben, dass eine symmetrische Matrix A = (a ij ) positiv definit ist Dazu bezeichnen wir mit a 11 a 1k A k := a k1 a kk die linke obere k k-teilmatrix von A Die Determinante det A k bezeichnet man auch als Hauptminor von A Satz 53 (Hurwitz-Kriterium) Es sei A Mat(n; R) eine symmetrische Matrix Dann gilt: A positiv definit det A k > 0 für 1 k n

30 5 Symmetrische Bilinearformen 28 Beweis : Wir zeigen zunächst det A = det A n > 0 Da A positiv definit ist, gibt es ein S GL(n; R) mit 1 0 S T AS = 0 1 Also folgt 1 = det(s T AS) = det A(det S) 2, also det A > 0 Um nun det A k > 0 für 1 k < n zu zeigen, betrachten wir U k := { x R n x k+1 = = x n = 0} R n Die Form, A definiert durch Einschränkung eine Form, k : U k U k R mit Darstellungsmatrix A k Da auch, k positiv definit ist, folgt det A k > 0 : Wir führen Induktion über n durch Der Induktionsanfang n = 1 ist klar Nach Induktionsvoraussetzung ist A n 1 positiv definit Also gibt es ein S GL(n 1; R) mit (S ) T A n 1 S = = E n 1 Es sei Es gilt und S := S GL(n; R) 1 b 1 S T AS = 1 b n 1 =: B b 1 b n 1 b n det B = (det S) 2 det A > 0

31 6 Das Minimalpolynom 29 Es genügt zu zeigen, dass B positiv definit ist Dazu setze 1 b 1 T := GL(n; R) 1 b n Dann ist Nun ist T T BT = c n =: C det C = (det T ) 2 det B = det B > 0 und damit c n > 0 Also ist C positiv definit und damit auch B und A 6 Das Minimalpolynom Wir kommen nun auf das schon in LA I betrachtete Problem zurück, für die Darstellungsmatrix eines Endomorphismus f : V V eines K-Vektorraums eine Normalform zu finden Dabei spielt neben dem charakteristischen Polynom ein anderes Polynom eine Rolle, das wir nun einführen wollen Dazu machen wir zunächst einen Exkurs über den Polynomring Es sei K ein beliebiger Körper Dann betrachten wir den Polynomring in einer Variablen über K: K[x] := {a 0 + a 1 x + + a n x n a i K} Auf K[x] ist eine Addition und eine Multiplikation erklärt Es sei P (x), Q(x) K[x], P (x) = a 0 + a 1 x + + a n x n, Q(x) = b 0 + b 1 x + + b m x m O B d A sei n m Zur Definition der Addition setzen wir a n+1 = a m = 0 Dann definieren wir P (x) + Q(x) := (a 0 + b 0 ) + (a 1 + b 1 )x + + (a m + b m )x m Die Multiplikation ist dadurch erklärt, dass man formal ausmultipliziert: P (x) Q(x) = (a 0 + a 1 x + + a n x n ) (b 0 + b 1 x + + b m x m ) := a 0 b 0 + (a 0 b 1 + a 1 b 0 )x + + a n b m x n+m = c 0 + c 1 x + + c n+m x n+m

32 6 Das Minimalpolynom 30 mit c k := k a i b k i Statt P (x) und Q(x) schreiben wir von nun an auch P und Q i=0 Satz 61 Mit dieser Addition und Multiplikation wird K[x] zu einem kommutativen Ring mit Einselement Beweis Die Axiome sind leicht nachzuprüfen Was ist das Einselement? Das Nullpolynom (alle Koeffizienten a i = 0) bezeichnen wir mit 0 Definition Der Grad eines Polynoms P (x) = a 0 + a 1 x + + a n x n mit a n 0 ist die Zahl n (n = deg P ) Den Grad des Nullpolynoms definieren wir als deg(0) := Das Polynom P heißt normiert, falls a n = 1 ist Satz 62 (Gradformel) Für P, Q K[x] gilt: deg(p Q) = deg P + deg Q Dabei soll formal n = m = = gelten Beweis Dies folgt aus c n+m = a n b m 0 falls a n 0 und b m 0 Satz 63 (Division mit Rest) Es seien P, Q K[x] mit P, Q 0 Dann gibt es eindeutig bestimmte Polynome q, r mit (i) P = Qq + r, (ii) deg r < deg Q Beweis Wir zeigen zunächst die Eindeutigkeit Es seien q, q, r, r K[x] mit P = Qq + r = Qq + r, deg r, deg r < deg Q Dann folgt 1Fall: q = q r = r 2Fall: q q Dann ist Q(q q ) = r r deg(r r) = deg Q + deg(q q ) deg Q

33 6 Das Minimalpolynom 31 im Widerspruch zu deg(r r) max{deg r, deg r } < deg Q Nun beweisen wir die Existenz von q und r Wenn es ein q K[x] gibt mit P = Qq, so können wir r = 0 setzen und die Behauptung ist bewiesen Andernfalls betrachten wir die Menge M := {deg(p Qp) p K[x], P Qp} N = {0, 1, 2, } Diese Menge ist nach unten beschränkt, besitzt also ein Minimum in N Es sei q K[x] mit deg(p Qq) deg(p Qp) für alle p K[x] Es sei ferner dh r := P Qq, P = Qq + r Es bleibt zu zeigen: deg r < deg Q Angenommen, deg r deg Q Es sei Q = b 0 + b 1 x + + b m x m (b m 0), r = c 0 + c 1 x + + c k x k (c k 0) Dann ist nach Annahme k m Es sei p := q + c k b m x k m K[x] Dann ist Es ist also P Qp = P Qq Q c k b m x k m = r Q c k b m x k m P Qp = c k x k b m c k b m x k + Terme der Ordnung < k Daher folgt deg(p Qp) < k = deg r = deg(p Qq) im Widerspruch zur Wahl von q Dies führt zu dem schon aus der Schule bekannten Verfahren zur Polynomdivision (siehe Vorlesung und Übungen)

34 6 Das Minimalpolynom 32 In Polynome können wir nun Körperelemente einsetzen Ist und λ K, so setzen wir P (x) = a 0 + a 1 x + + a n x n K[x] P (λ) := a 0 + a 1 λ + + a n λ n K Auf diese Weise definiert P (x) eine Funktion Damit erhalten wir eine Abbildung P : K K λ P (λ) : K[x] Abb(K, K) P P Warnung Wir müssen zwischen Polynomen P und Polynomfunktionen P unterscheiden, denn bei endlichen Körpern können Unterschiede auftreten: Ist zb K = F 2 und P (x) = x 2 + x, so ist P die Nullfunktion, da P (0) = P (1) = = 0 Also ist in diesem Fall die Abbildung nicht injektiv Definition Ist 0 P K[x] und λ K, so dass P (λ) = 0 gilt, so heißt λ eine Nullstelle von P Korollar 61 Es sei 0 P K[x] und λ eine Nullstelle von P Dann gibt es genau ein Polynom Q K[x] mit Es ist deg Q = deg P 1 P = Q(x λ) Beweis Wir dividieren P durch (x λ) mit Rest: Nach Satz 63 gibt es eindeutig bestimmte Q, r K[x] mit P = (x λ)q + r, deg r < 1 = deg(x λ ) Also ist r(x) = a 0 K Setzen wir λ in diese Gleichung ein, so folgt 0 = P (λ) = (λ λ)q(λ) + a 0 = a 0, also r = 0

35 6 Das Minimalpolynom 33 Korollar 62 Es sei 0 P K[x] Dann ist die Anzahl der Nullstellen von P höchstens gleich dem Grad von P Beweis Wir führen Induktion über den Grad n := deg P Für n = 0 ist P eine konstantes Polynom P (x) = a 0 0 und das hat gar keine Nullstelle Damit ist die Behauptung für n = 0 bewiesen Nun sei deg P = n 1 und die Behauptung sei schon für alle Polynome Q K[x] mit deg Q n 1 bewiesen Hat P keine Nullstelle, so ist die Behauptung richtig Andernfalls sei λ K eine Nullstelle von P Nach Korollar 61 gibt es dann ein Q K[x] mit P = (x λ)q und deg Q = n 1 Alle von λ verschiedenen Nullstellen von P müssen auch Nullstellen von Q sein Nach Induktionsannahme hat Q höchstens n 1 verschiedene Nullstellen, also P höchstens n verschiedene Nullstellen Korollar 63 Hat K unendlich viele Elemente, so ist die Abbildung injektiv : K[x] Abb(K, K), P P, Beweis Es seien P 1, P 2 K[x] mit P 1 = P 2 Betrachte Q := P 1 P 2 Dann ist Q = 0, also hat Q unendlich viele Nullstellen Aus Korollar 62 folgt damit Q = 0, also P 1 = P 2 Satz 64 Es sei K ein unendlicher Körper Jedes Polynom 0 P K[x] besitzt eine Darstellung P = (x λ 1 ) ν1 (x λ r ) νr Q, wobei λ 1,, λ r paarweise verschieden sind und Q ein Polynom ohne Nullstellen ist Diese Darstellung ist bis auf die Reihenfolge der Faktoren eindeutig Definition Man nennt ν i die Ordnung oder Vielfachheit der Nullstelle λ i Für den Beweis des Satzes brauchen wir ein Lemma Lemma 61 Es sei K ein unendlicher Körper und P, Q K[x] Polynome mit P (λ) 0, Q(λ 0 Gilt für alle x K, so ist ν = µ (x λ) ν P (x) = (x λ) µ Q(x)

36 6 Das Minimalpolynom 34 Beweis O B d A sei ν µ Dann gilt (x λ) ν µ P (x) Q(x) = 0 (für x λ) Da K unendlich viele Elemente enthält, gilt für die Polynome (x λ) ν µ P Q = 0 Falls ν > µ, wäre Q(λ) = 0, ein Widerspruch Beweis von Satz 64 Die Existenz der Darstellung folgt aus Korollar 61 Zum Beweis der Eindeutigkeit: Die λ i sind genau die Nullstellen von P, liegen also eindeutig fest Die Eindeutigkeit der ν i folgt aus Lemma 61 Es bleibt die Eindeutigkeit von Q zu zeigen Dazu sei (x λ 1 ) ν1 (x λ r ) νr Q = (x λ 1 ) ν1 (x λ r ) νr Q Dann gilt für alle x λ 1,, λ r Q(x) = Q (x) Also hat Q Q unendlich viele Nullstellen und es folgt Q = Q Definition Man sagt, das Polynom 0 P K[x] zerfällt über K, falls es eine Darstellung gibt P (x) = a(x λ 1 ) ν1 (x λ r ) νr (a K) Beispiel 61 Das Polynom P (x) = 1 + x 2 zerfällt nicht über R, aber über C: P (x) = (x i)(x + i) Satz 65 (Fundamentalsatz der Algebra) Jedes nicht konstante Polynom P C[x] besitzt eine Nullstelle Diesen Satz hat erstmals C F Gauß 1799 bewiesen Heutzutage wird er meist in der Vorlesung Funktionentheorie bewiesen, da man mit Methoden dieser Vorlesung einen sehr knappen und eleganten Beweis geben kann Korollar 64 Jedes Polynom P C[x] zerfällt Definition Eine Teilmenge I eines Ringes R heißt ein Ideal, falls gilt:

37 6 Das Minimalpolynom 35 (I1) I R ist eine Untergruppe bezüglich der Addition (I2) Ist P I und Q R, so ist auch Q P I Beispiel 62 I := P 1,, P n := {Q 1 P Q n P n Q i R} Definition I = P 1,, P n heißt das von P 1,, P n erzeugte Ideal Definition Ein Ideal I heißt Hauptideal, falls es von einem Element erzeugt, wird, dh I = P = {QP Q R} für ein P R Satz 66 (i) K[x] ist ein Hauptidealring, dh jedes Ideal von K[x] ist ein Hauptideal (ii) Zu jedem Ideal I {0} in K[x] gibt es genau ein normiertes Polynom P mit I = P Beweis (i): Im Fall I = {0} ist I = 0 Es sei also I {0} Dann ist die Menge M := {deg P 0 P I} nichtleer und nach unten beschränkt Es existiert also m := min M Es sei P I mit deg P = m Behauptung I = P = K[x] P Beweis Es gilt P I nach Definition eines Ideals Es bleibt zu zeigen: I P Dazu sei Q I beliebig Nach Satz 63 gibt es eine Darstellung Q = qp + r, deg r < deg P Ist r = 0, so ist Q P Andernfalls folgt mit (I1) und (I2) r = Q qp I Wegen 0 deg r < deg P = m ist dies ein Widerspruch zur Wahl von P (ii): Mit P liegt auch ap in I Also kann man P als normiert annehmen Es sei I = P = P mit P, P normiert Dann gilt P = Q P, P = QP für geeignete Q, Q K[x]

38 6 Das Minimalpolynom 36 Es folgt P = QQ P P (1 QQ ) = 0 Nach der Gradformel folgt daraus deg QQ = 0, also QQ = 1, und damit sind Q und Q ebenfalls nach der Gradformel konstant Da P, P normiert sind, folgt Q = Q = 1, also P = P Nun wollen wir die Theorie auf Matrizen anwenden Die Menge Mat(n; K) ist ein Vektorraum der Dimension n 2 und obendrein ein Ring mit der Matrizenaddition und Matrizenmultiplikation Wie üblich setzen wir für A Mat(n; K): A n = A A (n-mal), A 0 = E Wir setzen nun Matrizen in Polynome ein, dh wir betrachten die Einsetzungsabbildung ϕ A : K[x] Mat(n; K) P (x) = n i=0 a ix i P (A) := n i=0 a ia i Die Abbildung ϕ A ist linear, also ein Homomorphismus von K-Vektorräumen und sogar ein Ringhomomorphismus: (P + Q)(A) = P (A) + Q(A), (λp )(A) = λp (A), (P Q)(A) = P (A)Q(A) Das Bild von ϕ A ist der Untervektorraum K[A] := span{e, A, A 2, } von Mat(n; K) Wir betrachten nun die Menge I A := {P K[x] P (A) = 0} = ker ϕ A Dann folgt, das I A ein Ideal in K[x] ist Da K[x] ein Hauptidealring ist, gibt es (falls I A {0}) genau ein normiertes Polynom µ A K[x] mit I A = µ A Satz 67 Es gibt genau ein normiertes Polynom 0 µ A K[x] mit folgenden Eigenschaften:

39 6 Das Minimalpolynom 36 Es folgt P = QQ P P (1 QQ ) = 0 Nach der Gradformel folgt daraus deg QQ = 0, also QQ = 1, und damit sind Q und Q ebenfalls nach der Gradformel konstant Da P, P normiert sind, folgt Q = Q = 1, also P = P Nun wollen wir die Theorie auf Matrizen anwenden Die Menge Mat(n; K) ist ein Vektorraum der Dimension n 2 und obendrein ein Ring mit der Matrizenaddition und Matrizenmultiplikation Wie üblich setzen wir für A Mat(n; K): A n = A A (n-mal), A 0 = E Wir setzen nun Matrizen in Polynome ein, dh wir betrachten die Einsetzungsabbildung ϕ A : K[x] Mat(n; K) P (x) = n i=0 a ix i P (A) := n i=0 a ia i Die Abbildung ϕ A ist linear, also ein Homomorphismus von K-Vektorräumen und sogar ein Ringhomomorphismus: (P + Q)(A) = P (A) + Q(A), (λp )(A) = λp (A), (P Q)(A) = P (A)Q(A) Das Bild von ϕ A ist der Untervektorraum K[A] := span{e, A, A 2, } von Mat(n; K) Wir betrachten nun die Menge I A := {P K[x] P (A) = 0} = ker ϕ A Dann folgt, das I A ein Ideal in K[x] ist Da K[x] ein Hauptidealring ist, gibt es (falls I A {0}) genau ein normiertes Polynom µ A K[x] mit I A = µ A Satz 67 Es gibt genau ein normiertes Polynom 0 µ A K[x] mit folgenden Eigenschaften:

40 6 Das Minimalpolynom 37 (i) µ A (A) = 0 (ii) Ist P K[x] ein Polynom mit P (A) = 0, so ist P = Q µ A (iii) Unter allen normierten Polynomen P K[x] mit P (A) = 0 hat µ A minimalen Grad Definition Das Polynom µ A K[x] heißt das Minimalpolynom von A Beweis Wir zeigen zunächst I A {0} Es ist K[A] Mat(n; K), also gilt Daher sind die Matrizen dim K[A] n 2 =: N E, A, A 2,, A N linear abhängig, dh es gibt a 0, a 1,, a N K, nicht alle gleich 0, mit a 0 E + a 1 A + + a N A N = 0 Also ist 0 P (x) := a 0 + a 1 x + + a N x N I A Nach Satz 66 ist dann I A = µ A für ein eindeutig bestimmtes normiertes Polynom µ A 0 Beispiel 63 Es sei A = Man rechnet leicht aus: A 2 = Mat(n; K),, A n = 0 Daraus folgt µ A (x) = x n

41 6 Das Minimalpolynom 38 Satz 68 Es gilt deg µ A = dim K[A] Beweis Es sei m := dim K[A] Dann sind E, A, A 2,, A m linear abhängig Wie im Beweis von Satz 67 zeigt man, dass es ein (normiertes) Polynom P K[x] gibt mit deg P m und P (A) = 0 Also ist deg µ A m = dim K[A] Es sei umgekehrt m = deg µ A Zum Beweis von dim K[A] m betrachten wir U := span{e, A,, A m 1 } Dann sind E, A,, A m 1 linear unabhängig, denn andernfalls wäre m = deg µ A nicht minimal Also ist dim U = m Es genügt zu zeigen: Dazu ist zu zeigen, dass Es sei Da µ A (A) = 0 folgt K[A] U A s V für s m µ A (x) = a 0 + a 1 x + + a m 1x m 1 + x m A m = a 0 E a m 1A m 1 U Durch Multiplikation mit A auf beiden Seiten folgt dann aber auch A m +1 = a 0 A a m 1A m U Die Behauptung folgt dann durch Induktion Korollar 65 Ist m = deg µ A, so ist {E, A,, A m 1 } eine Basis von K[A] Korollar 66 Eine Matrix A Mat(n; K) ist genau dann invertierbar, wenn µ A (0) 0 gilt In diesem Fall liegt A 1 K[A]

42 6 Das Minimalpolynom 39 Beweis Es sei µ A (x) = a 0 + a 1 x + + a m 1 x m 1 + x m das Minimalpolynom von A Dann gilt Setzen wir so folgt a 1 A + + a m 1 A m 1 + A m = a 0 E B := a 1 E + + a m 1 A m 2 + A m 1, AB = a 0 E Nach Korollar 65 ist B 0 Ist A nicht invertierbar, so gilt det A = 0, also µ A (0) = a 0 = 0 Ist A invertierbar, so ist B = a 0 A 1 und µ A (0) = a 0 0 Lemma 62 (Invarianz) Sind die Matrizen A, B Mat(n; K) ähnlich, dann stimmen die Minimalpolynome µ A und µ B überein Beweis Es sei P K[x] und B = S 1 AS Dann gilt P (S 1 AS) = a 0 E + a 1 S 1 AS + + a m (S 1 AS) m = a 0 S 1 ES + a 1 S 1 AS + + a m S 1 A m S = S 1 P (A)S Daraus folgt Damit können wir definieren: P (A) = 0 P (B) = P (S 1 AS) = 0 Definition Es sei V ein endlich dimensionaler K-Vektorraum und f : V V ein Endomorphismus Dann ist das Minimalpolynom µ f von f das Minimalpolynom einer Darstellungsmatrix von f Nun zeigen wir, dass auch das charakteristische Polynom einer Matrix A in I A liegt Satz 69 (Satz von Cayley-Hamilton) Es sei P A Polynom einer Matrix A Mat(n; K) Dann gilt das charakteristische P A (A) = 0

43 6 Das Minimalpolynom 40 Daraus folgt unmittelbar: Korollar 67 Das Minimalpolynom µ A teilt das charakteristische Polynom P A einer Matrix A Mat(n; K) Beweis von Satz 69 Wir wenden einen Trick an Wir setzen Dann gilt B(x) := (A xe) T Mat(n; K[x]) det B(x) = P A (x) K[x] Nun ersetzen wir die Unbestimmte x durch die Matrix A und jeden Eintrag a ij durch die Matrix a ij E Das ergibt a 11 E A a 21 E a n1 E a 12 E a 22 E A a n2 E B(A) = Mat(n; K[A]) a 1n E a 2n E a nn E A Diese Matrix kann mit einem Spaltenvektor des K n2 multipliziert werden, dh einem Spaltenvektor, dessen Einträge wiederum Spaltenvektoren des K n sind Insbesondere gilt e 1 a 11 e 1 A e 1 + a 21 e a n1 e n B(A) = = 0 e n a 1n e 1 + a 2n e a nn e n A e n 0 Nun sei B (x) Mat(n; K[x]) die zu B(x) adjungierte Matrix, die wir in LA I definiert haben Ihre Einträge sind entsprechend der Definition Polynome vom Grad n 1, und es gilt B (x)b(x) = (det B(x))E = P A (x)e Setzen wir nun A für x ein, so folgt 0 = B (A)B(A) 0 e 1 e n = P A (A) e 1 P A (A) e n Also ist P A (A) = 0

44 7 Diagonalisierbarkeit 41 7 Diagonalisierbarkeit Nun kommen wir zurück auf das Problem, für die Darstellungsmatrix eines Endomorphismus eines endlich dimensionalen K-Vektorraums eine Normalform zu finden Zunächst betrachten wir noch einmal die Diagonalisierbarkeit Es sei V ein K-Vektorraum der Dimension n und f : V V ein Endomorphismus Definition Es sei λ ein Eigenwert von f (i) Die algebraische Vielfachheit von λ, in Zeichen ν alg (f, λ), ist die Vielfachheit von λ als Nullstelle des charakteristischen Polynoms (ii) Die geometrische Vielfachheit von λ, in Zeichen ν geom (f, λ), ist die Dimension des Eigenraums Eig(f, λ) Lemma 71 Ist λ Eigenwert von f, so gilt 1 ν geom (f, λ) ν alg (f, λ) Beweis Es sei {v 1,, v s } eine Basis von Eig(f, λ) Da λ Eigenwert von f ist, gilt s 1 Wir ergänzen diese Basis zu einer Basis B = {v 1,, v s, v s+1,, v n } von V Dann ist A := MB B (f) = λ 0 0 λ 0 B Daraus folgt und damit P f (x) = (x λ) s P B (x) ν geom (f, λ) = dim Eig(f, λ) = s ν alg (f, λ) Theorem 71 Es sei V ein n-dimensionaler K-Vektorraum und f : V V ein Endomorphismus von V Dann sind die folgenden Bedingungen äquivalent:

Lineare Algebra II. Sommersemester Wolfgang Ebeling

Lineare Algebra II. Sommersemester Wolfgang Ebeling Lineare Algebra II Sommersemester 2009 Wolfgang Ebeling 1 c Wolfgang Ebeling Institut für Algebraische Geometrie Leibniz Universität Hannover Postfach 6009 30060 Hannover E-mail: ebeling@mathuni-hannoverde

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung Prof. Dr. B. Hanke Dr. J. Bowden Lineare Algebra 2 (SS ) Blatt : Musterlösung Aufgabe. Es sei C (R) der R-Vektorraum der unendlich oft differenzierbaren Funktionen auf R und : C (R) C (R), f f die Abbildung,

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016, Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153 3.3. SKALARPRODUKTE 153 Hierzu müssen wir noch die Eindeutigkeit (Unabhängigkeit von der Wahl der Basis bzw. des Koordinatensystems) zeigen. Sei hierzu β eine Bilinearform und q die entsprechende quadratische

Mehr

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse

Mehr

1 Euklidische und unitäre Vektorräume

1 Euklidische und unitäre Vektorräume 1 Euklidische und unitäre Vektorräume In diesem Abschnitt betrachten wir reelle und komplexe Vektorräume mit Skalarprodukt. Dieses erlaubt uns die Länge eines Vektors zu definieren und (im Fall eines reellen

Mehr

Musterlösungen zur Linearen Algebra II Übungsklausur

Musterlösungen zur Linearen Algebra II Übungsklausur Musterlösungen zur Linearen Algebra II Übungsklausur Aufgabe. Sei A R 3 3. Welche der folgenden Aussagen sind richtig? a Ist det(a =, dann ist A eine orthogonale Matrix. b Ist A eine orthogonale Matrix,

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

4 Lineare Abbildungen Basisdarstellungen

4 Lineare Abbildungen Basisdarstellungen 4 Lineare Abbildungen Basisdarstellungen (4.1) Seien V,W endlich dimensionale K-Vektorräume, und sei T : V W linear. Sei {v 1,...,v } Basis von V und {w 1,...,w M } Basis von W. Sei T (v j ) = M a kj w

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

Lineare Algebra II. Inhalt und Begriffe. Lineare Algebra II p. 1

Lineare Algebra II. Inhalt und Begriffe. Lineare Algebra II p. 1 Lineare Algebra II Inhalt und Begriffe Lineare Algebra II p. 1 Inhaltsverzeichnis Kapitel II Grundlagen der Linearen Algebra... Lineare Algebra II p. 2 Inhaltsverzeichnis Kapitel II Grundlagen der Linearen

Mehr

Lineare Algebra II 6. Übungsblatt

Lineare Algebra II 6. Übungsblatt Lineare Algebra II 6 Übungsblatt Fachbereich Mathematik SS 2011 Prof Dr Kollross 18/19 Mai 2011 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minimalpolynom) Bestimmen Sie das Minimalpolynom der

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

Aufgaben zu Kapitel 20

Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

Musterlösungen zur Linearen Algebra II Weihnachtszettel

Musterlösungen zur Linearen Algebra II Weihnachtszettel Musterlösungen zur Linearen Algebra II Weihnachtszettel Aufgabe. Welche der folgenden Matrizen 3 0 0 A = 0 4, B = 3, C = 0 0 0 6 0 0 0 sind über R und welche über C diagonalisierbar? Bestimmen Sie dazu

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

2 Euklidische Vektorräume

2 Euklidische Vektorräume Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,

Mehr

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau 312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind

Mehr

3.3 Das charakteristische Polynom

3.3 Das charakteristische Polynom LinAlg II Version 1 2. Mai 2006 c Rudolf Scharlau 209 3.3 Das charakteristische Polynom Wir setzen die im vorigen Abschnitt begonnene Untersuchung von Eigenvektoren und Eigenwerten fort und stellen den

Mehr

Lineare Algebra I Zusammenfassung

Lineare Algebra I Zusammenfassung Prof. Dr. Urs Hartl WiSe 10/11 Lineare Algebra I Zusammenfassung 1 Vektorräume 1.1 Mengen und Abbildungen injektive, surjektive, bijektive Abbildungen 1.2 Gruppen 1.3 Körper 1.4 Vektorräume Definition

Mehr

11.2 Orthogonalität. Wintersemester 2013/2014

11.2 Orthogonalität. Wintersemester 2013/2014 Universität Konstanz Fachbereich Mathematik und Statistik Wintersemester 2013/2014 Markus Scheighofer Lineare Algebra I 11.2 Orthogonalität Definition 11.2.1. Seien V ein K-Vektorraum mit Skalarprodukt

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

MATHEMATIK II FÜR STUDIERENDE DER PHYSIK

MATHEMATIK II FÜR STUDIERENDE DER PHYSIK - 87 - MATHEMATIK II FÜR STUDIERENDE DER PHYSIK 21 Vektorräume mit Skalarprodukt Wir halten uns hier im Wesentlichen an das Buch G.Fischer : Lineare Algebra, 14. Auflage, Kap. 5. 21.1 Definition und Beispiele

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung

Mehr

4 Eigenwerte und Eigenvektoren

4 Eigenwerte und Eigenvektoren 4 Eigenwerte und Eigenvektoren Sei V {0} ein K Vektorraum und f : V V K linear. Definition: Ein Eigenwert von f ist ein Element λ K, für die es einen Vektor v 0 in V gibt, so dass f(v) = λ v. Sei nun λ

Mehr

Kapitel 11. Bilinearformen über beliebigen Bilinearformen

Kapitel 11. Bilinearformen über beliebigen Bilinearformen Kapitel 11 Bilinearformen über beliebigen Körpern Wir können in diesem Kapitel rasch vorgehen, weil die meisten Konzepte im Zusammenhang mit Sesquilinearformen bereits eingeführt wurden. In diesem Abschnitt

Mehr

Lineare Algebra II, Lösungshinweise Blatt 9

Lineare Algebra II, Lösungshinweise Blatt 9 Prof Dr Katrin Wendland Priv Doz Dr Katrin Leschke Christoph Tinkl SS 27 Lineare Algebra II, Lösungshinweise Blatt 9 Aufgabe (4 Punkte) Sei 2 3 4 A = 5 6 Berechnen Sie A k für alle k N und verifizieren

Mehr

Leitfaden 34. , dies ist eine reelle symmetrische Matrix, also diagonalisierbar.

Leitfaden 34. , dies ist eine reelle symmetrische Matrix, also diagonalisierbar. Leitfaden 34 5. Euklidsche und unitäre Räume (und selbstadjungierte, orthogonale, unitäre, normale Endomorphismen). 5.1. Reelle symmetrische Matrizen sind diagonalisierbar. Satz: Reelle symmetrische Matrizen

Mehr

Übungen zur Linearen Algebra 1

Übungen zur Linearen Algebra 1 Übungen zur Linearen Algebra 1 Wintersemester 2014/2015 Universität Heidelberg - IWR Prof. Dr. Guido Kanschat Dr. Dörte Beigel Philipp Siehr Blatt 10 Abgabetermin: Freitag, 16.01.2015, 11 Uhr Auf diesem

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

6.2 Basen. Wintersemester 2013/2014. Definition Seien V ein K-Vektorraum, n N 0 und v 1,..., v n V. (a) Man nennt

6.2 Basen. Wintersemester 2013/2014. Definition Seien V ein K-Vektorraum, n N 0 und v 1,..., v n V. (a) Man nennt Universität Konstanz Fachbereich Mathematik und Statistik Wintersemester 213/214 Markus Schweighofer Lineare Algebra I 6.2 Basen Definition 6.2.1. Seien V ein K-Vektorraum, n N und v 1,..., v n V. (a)

Mehr

Lineare Algebra I Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß

Lineare Algebra I Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß Lineare Algebra I - 26. Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß Donnerstag 8.12.: 8:30 Uhr - Vorlesung 10:15 Uhr - große Übung / Fragestunde Klausur: Mittwoch, 14.12. 14:15 Uhr, A3 001 Cauchy-Schwarz

Mehr

Kapitel VI. Euklidische Geometrie

Kapitel VI. Euklidische Geometrie Kapitel VI. Euklidische Geometrie 1 Abstände und Lote Wiederholung aus Kapitel IV. Wir versehen R n mit dem Standard Skalarprodukt x 1 y 1.,. := x 1 y 1 +... + x n y n x n y n Es gilt für u, v, w R n und

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Wintersemester 2014/15 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax

Mehr

Technische Universität München

Technische Universität München Technische Universität München Michael Schreier Ferienkurs Lineare Algebra für Physiker Vorlesung Montag WS 2008/09 1 komplexe Zahlen Viele Probleme in der Mathematik oder Physik lassen sich nicht oder

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 1 (SS 2011) Abgabetermin: Donnerstag, 21. April.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 1 (SS 2011) Abgabetermin: Donnerstag, 21. April. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 1 (SS 2011) Abgabetermin: Donnerstag, 21. April http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Symmetrische

Mehr

Übungen zu Lineare Algebra und Geometrie 1

Übungen zu Lineare Algebra und Geometrie 1 Übungen zu Lineare Algebra und Geometrie 1 Andreas Čap Sommersemester 2015 Wiederholung grundlegender Begriffe (1 Bestimme Kern und Bild der linearen Abbildung f : R 3 R 3, die gegeben ist durch f(x, y,

Mehr

Bonusmaterial Euklidische und unitäre Vektorräume Geometrie in höheren Dimensionen

Bonusmaterial Euklidische und unitäre Vektorräume Geometrie in höheren Dimensionen Bonusmaterial Euklidische und unitäre Vektorräume Geometrie in höheren Dimensionen Orthogonale und unitäre Endomorphismen Wir untersuchen nun lineare Abbildungen in euklidischen und unitären Vektorräumen

Mehr

In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa. Unterraum,

In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa. Unterraum, 2 Vektorräume In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa Unterraum, Linearkombination, lineare Unabhängigkeit und Erzeugendensystem.

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

Skalarprodukt, Norm & Metrik

Skalarprodukt, Norm & Metrik Skalarprodukt, Norm & Metrik Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz 11. Mai 2016 Stefan Ruzika 5: Skalarprodukt, Norm & Metrik 11. Mai 2016 1 / 13 Gliederung 1

Mehr

i) ii) iii) iv) i) ii) iii) iv) v) gilt (Cauchy-Schwarz-Ungleichung): Winkel zwischen zwei Vektoren : - Für schreibt man auch.

i) ii) iii) iv) i) ii) iii) iv) v) gilt (Cauchy-Schwarz-Ungleichung): Winkel zwischen zwei Vektoren : - Für schreibt man auch. Abbildungen Rechnen Matrizen Rechnen Vektoren Äquivalenzrelation Addition: Skalarmultiplikation: Skalarprodukt: Länge eines Vektors: Vektorprodukt (im ): i ii i ii v) gilt (Cauchy-Schwarz-Ungleichung):

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

5.7 Lineare Abhängigkeit, Basis und Dimension

5.7 Lineare Abhängigkeit, Basis und Dimension 8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n

Mehr

(a) Bestimmen Sie die Matrixdarstellung dieser Abbildung bzgl. einer möglichst einfachen Basis von P n - (b) Bestimmen Sie die zu F duale Abbildung F.

(a) Bestimmen Sie die Matrixdarstellung dieser Abbildung bzgl. einer möglichst einfachen Basis von P n - (b) Bestimmen Sie die zu F duale Abbildung F. Übung. Wiederholen Sie die folgenden Begriffe und geben sie jeweils Beispiele (a) Vektorraum (b) Vektorraumhomomorphismus mit Spezialfällen (c) Basis (d) Dualraum (e) Duale Basis (f) Koordinatenabbildung

Mehr

= ( n x j x j ) 1 / 2

= ( n x j x j ) 1 / 2 15 Skalarprodukte 77 15 Skalarprodukte 15.1 Einführung. a) Ab jetzt sei stets K = R oder K = C, da Wurzeln eine wichtige Rolle spielen werden. b) Nach dem Satz des Pythagoras ist die Länge eines Vektors

Mehr

Klausur Lineare Algebra I & II

Klausur Lineare Algebra I & II Prof. Dr. G. Felder, Dr. Thomas Willwacher ETH Zürich, Sommer 2010 D MATH, D PHYS, D CHAB Klausur Lineare Algebra I & II Bitte ausfüllen! Name: Vorname: Studiengang: Bitte nicht ausfüllen! Aufgabe Punkte

Mehr

9 Vektorräume mit Skalarprodukt

9 Vektorräume mit Skalarprodukt 9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden

Mehr

3 Bilinearformen und quadratische Formen

3 Bilinearformen und quadratische Formen 3 Bilinearformen und quadratische Formen Sei V ein R Vektorraum. Definition: Eine Bilinearform auf V ist eine Abbildung s : V V R, welche linear in beiden Variablen ist, d.h.: Für u, v, w V und λ, µ R

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 23 Die Gradformel Satz 1. Seien K L und L M endliche Körperweiterungen. Dann ist auch K M eine endliche Körpererweiterung und

Mehr

44 Orthogonale Matrizen

44 Orthogonale Matrizen 44 Orthogonale Matrizen 44.1 Motivation Im euklidischen Raum IR n haben wir gesehen, dass Orthonormalbasen zu besonders einfachen und schönen Beschreibungen führen. Wir wollen das Konzept der Orthonormalität

Mehr

Ringe. Kapitel Einheiten

Ringe. Kapitel Einheiten Kapitel 8 Ringe Die zahlreichen Analogien zwischen Matrizenringen und Endomorphismenringen (beides sind zugleich auch Vektorräume) legen es nahe, allgemeinere ringtheoretische Grundlagen bereitzustellen,

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 39 Definitheit von Bilinearformen Wir möchten die symmetrischen Bilinearformen über den reellen Zahlen klassifizieren.

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

Vorlesung 27. Der projektive Raum. Wir werden den projektiven Raum zunehmend mit mehr Strukturen versehen.

Vorlesung 27. Der projektive Raum. Wir werden den projektiven Raum zunehmend mit mehr Strukturen versehen. Vorlesung 27 Der projektive Raum Definition 1. Sei K ein Körper. Der projektive n-dimensionale Raum P n K besteht aus allen Geraden des A n+1 K durch den Nullpunkt, wobei diese Geraden als Punkte aufgefasst

Mehr

Mathematische Erfrischungen III - Vektoren und Matrizen

Mathematische Erfrischungen III - Vektoren und Matrizen Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen

Mehr

Teil 2 LINEARE ALGEBRA II

Teil 2 LINEARE ALGEBRA II Teil 2 LINEARE ALGEBRA II 27 Kapitel VII Euklidische und unitäre Vektorräume Wir beschäftigen uns jetzt mit Vektorräumen, die noch eine zusätzliche Struktur tragen Der Winkel zwischen Vektoren im IR 2

Mehr

Sesqui- und Bilinearformen

Sesqui- und Bilinearformen Kapitel 8 Sesqui- und Bilinearformen 8.1 Sesquilinearformen Definition 8.1.1 Sei V ein reeller oder komplexer K-Vektorraum (also K = R oder C). Eine Abbildung f : V V K heißt eine Sesquilinearform wenn

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

Analysis II. Vorlesung 48. Die Hesse-Form

Analysis II. Vorlesung 48. Die Hesse-Form Prof. Dr. H. Brenner Osnabrück SS 2015 Analysis II Vorlesung 48 Die Hesse-Form Wir sind natürlich auch an hinreichenden Kriterien für das Vorliegen von lokalen Extrema interessiert. Wie schon im eindimensionalen

Mehr

LINEARE ALGEBRA FÜR ANALYSIS

LINEARE ALGEBRA FÜR ANALYSIS LINEARE ALGEBRA FÜR ANALYSIS ALBERTO S. CATTANEO Zusammenfassung. Eine Zusammenfassung der wichtigsten in der Analysis gebrauchten Grundbegriffe aus der linearen Algebra (speziell für diejenigen, die lineare

Mehr

2.3 Basis und Dimension

2.3 Basis und Dimension Lineare Algebra I WS 205/6 c Rudolf Scharlau 65 2.3 Basis und Dimension In diesem zentralen Abschnitt werden einige für die gesamte Lineare Algebra fundamentale Grundbegriffe eingeführt: Lineare Abhängigkeit

Mehr

4.1. Vektorräume und lineare Abbildungen

4.1. Vektorräume und lineare Abbildungen 4.1. Vektorräume und lineare Abbildungen Mengen von Abbildungen Für beliebige Mengen X und Y bezeichnet Y X die Menge aller Abbildungen von X nach Y (Reihenfolge beachten!) Die Bezeichnungsweise erklärt

Mehr

Mat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1

Mat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1 Aufgabe. Bestimmen Sie das Exponential expa) der Matrix ) 5 6 A = Mat, R). 4. Wir bestimmen das charakterische Polynom f A t) = t t = t )t + ). ). Eigenvektor zu EW ist v = ). Eigenvektor zu EW ist v =

Mehr

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar. Lineare Algebra I Prof. Dr. M. Rost Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar http://www.math.uni-bielefeld.de/~rost/la1 Erinnerungen und Ergänzungen zur Vorlesung: Hinweis:

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof. Dr. H. Brenner Osnabrück WS 2015/2016 Lineare Algebra und analytische Geometrie I Vorlesung 25 J ai décidé d être heureux parce que c est bon pour la santé Voltaire Trigonalisierbare Abbildungen

Mehr

Lineare Algebra I (WS 13/14)

Lineare Algebra I (WS 13/14) Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 15.11.2013 Alexander Lytchak 1 / 12 Erinnerung Eine Abbildung f : V W zwischen reellen Vektorräumen ist linear, wenn

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 53 Norm von Endomorphismen und Matrizen Definition 53.1. Es seien V und W endlichdimensionale normierte K-

Mehr

Algebraische Zahlentheorie. Teil II. Die Diskriminante.

Algebraische Zahlentheorie. Teil II. Die Diskriminante. II-1 Algebraische Zahlentheorie Teil II Die Diskriminante Sei K ein Zahlkörper vom Grad n (also [K : Q] = n) Es gibt genau n Körper- Homomorphismen σ i : K C (siehe Merkzettel Separabilität) Stellen wir

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Vektorräume. Kapitel Definition und Beispiele

Vektorräume. Kapitel Definition und Beispiele Kapitel 3 Vektorräume 3.1 Definition und Beispiele Sei (V,,0) eine abelsche Gruppe, und sei (K, +,, 0, 1) ein Körper. Beachten Sie, dass V und K zunächst nichts miteinander zu tun haben, deshalb sollte

Mehr

Lineare Abbildungen. i=0 c ix i n. K n K m

Lineare Abbildungen. i=0 c ix i n. K n K m Kapitel 4 Lineare Abbildungen In diesem Abschnitt lernen Sie erstmals eine Klasse von strukturerhaltenden Abbildungen kennen. Diese Konzept ist von zentraler Bedeutung in der Algebra. Grob gesagt geht

Mehr

Übungen zur Diskreten Mathematik I Blatt 6

Übungen zur Diskreten Mathematik I Blatt 6 1 Blatt 6 Aufgabe 19 Es sei M := {n N : n 2} und R := {(n, m) M M : n teilt m}. a) Zeigen Sie, dass R eine Ordnungsrelation auf M ist. b) Überprüfen Sie, ob R eine totale Ordnung auf M ist. c) Zeigen Sie,

Mehr

Vektorräume und Lineare Abbildungen

Vektorräume und Lineare Abbildungen Vektorräume und Lineare Abbildungen Patricia Doll, Selmar Binder, Lukas Bischoff, Claude Denier ETHZ D-MATL SS 07 11.04.2007 1 Vektorräume 1.1 Definition des Vektorraumes (VR) 1.1.1 Grundoperationen Um

Mehr

Lineare Algebra I. Christian Ebert & Fritz Hamm. Gruppen & Körper. Vektorraum, Basis & Dimension. Lineare Algebra I. 18.

Lineare Algebra I. Christian Ebert & Fritz Hamm. Gruppen & Körper. Vektorraum, Basis & Dimension. Lineare Algebra I. 18. 18. November 2011 Wozu das alles? Bedeutung von Termen Vektoren in R n Ähnlichkeiten zwischen Termbedeutungen Skalarprodukt/Norm/Metrik in R n Komposition von Termbedeutungen Operationen auf/abbildungen

Mehr

Lineare Algebra I (WS 13/14)

Lineare Algebra I (WS 13/14) Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 29.11.2013 Alexander Lytchak 1 / 13 Wiederholung Der Rang einer linearen Abbildung ist gleich dem Spaltenrang der darstellenden

Mehr

Kapitel 5. Vektorräume mit Skalarprodukt

Kapitel 5. Vektorräume mit Skalarprodukt Kapitel 5 Vektorräume mit Skalarprodukt 119 120 Kapitel V: Vektorräume mit Skalarprodukt 5.1 Elementare Eigenschaften des Skalarprodukts Dienstag, 20. April 04 Wollen wir in einem Vektorraum wie in der

Mehr

a i x i, (1) Ein Teil der folgenden Betrachtungen gilt auch, wenn man den Körper durch einen Ring ersetzt.

a i x i, (1) Ein Teil der folgenden Betrachtungen gilt auch, wenn man den Körper durch einen Ring ersetzt. Polynome Definition 1. Ein Polynom f über einem Körper K mit der Unbestimmten x ist eine formale Summe f(x) = i 0 a i x i, (1) wobei nur endlich viele der Koeffizienten a i K von Null verschieden sind.

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

Elemente von S n = Aut([1, n]) heißen Permutationen. Spezielle Permutationen sind Transpositionen und Zyklen. (Vergl. Skript S

Elemente von S n = Aut([1, n]) heißen Permutationen. Spezielle Permutationen sind Transpositionen und Zyklen. (Vergl. Skript S Begriffe Faser: Es sei f : M N eine Abbildung von Mengen. Es sei n N. Die Menge f 1 ({n}) M nennt man die Faser in n. (Skript Seite 119). Parallel: Zwei Vektoren v und w heißen parallel, wenn für einen

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN

TECHNISCHE UNIVERSITÄT MÜNCHEN TECHNISCHE UNIVERSITÄT MÜNCHEN Zentrum Mathematik PROF. DR.DR. JÜRGEN RICHTER-GEBERT, VANESSA KRUMMECK, MICHAEL PRÄHOFER Höhere Mathematik für Informatiker I Wintersemester 3/ Aufgabenblatt 6. Januar Präsenzaufgaben

Mehr

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition)

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition) Vektorräume In vielen physikalischen Betrachtungen treten Größen auf, die nicht nur durch ihren Zahlenwert charakterisiert werden, sondern auch durch ihre Richtung Man nennt sie vektorielle Größen im Gegensatz

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn

Mehr

Übungen zu Lineare Algebra und Geometrie für LAK

Übungen zu Lineare Algebra und Geometrie für LAK Übungen zu Lineare Algebra und Geometrie für LAK Andreas Cap Wintersemester 2010/11 Wiederholung grundlegender Begriffe (1) Bestimme Kern und Bild der linearen Abbildung f : R 3 R 3, die gegeben ist durch

Mehr

3.5 Duale Vektorräume und Abbildungen

3.5 Duale Vektorräume und Abbildungen 3.5. DUALE VEKTORRÄUME UND ABBILDUNGEN 103 3.5 Duale Vektorräume und Abbildungen Wir wollen im Folgenden auch geometrische Zusammenhänge mathematisch beschreiben und beginnen deshalb jetzt mit der Einführung

Mehr

Lineare Algebra Weihnachtszettel

Lineare Algebra Weihnachtszettel Lineare Algebra Weihnachtszettel 4..008 Die Aufgaben auf diesem Zettel sind zum Üben während der Weihnachtspause gedacht, sie dienen der freiwilligen Selbstkontrolle. Die Aufgaben müssen nicht bearbeitet

Mehr

x,y A = t xay v i,v j A = e i,e j t PAP

x,y A = t xay v i,v j A = e i,e j t PAP 75 Lineare Algebra II SS 2005 Teil 6 Bilinearformen 6A Kongruenz quadratischer Matrizen Sei K ein Körper, sei A M(n n, K) eine quadratische Matrix Wie wir zu Beginn von Teil 3 gesehen haben, liefert A

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

Kapitel 18. Aufgaben. Verständnisfragen

Kapitel 18. Aufgaben. Verständnisfragen Kapitel 8 Aufgaben Verständnisfragen Aufgabe 8 Gegeben ist ein Eigenvektor v zum Eigenwert λ einer Matrix A (a) Ist v auch Eigenvektor von A? Zu welchem Eigenwert? (b) Wenn A zudem invertierbar ist, ist

Mehr

Lösungsskizzen zur Klausur

Lösungsskizzen zur Klausur sskizzen zur Klausur Mathematik II Sommersemester 4 Aufgabe Es seien die folgenden Vektoren des R 4 gegeben: b = b = b 3 = b 4 = (a) Prüfen Sie ob die Vektoren b b 4 linear unabhängig sind bestimmen Sie

Mehr