Lösung zur Wiederholungsserie II

Größe: px
Ab Seite anzeigen:

Download "Lösung zur Wiederholungsserie II"

Transkript

1 Lineare Algebra II D-MATH, FS 5 Prof. Richard Pink Lösung zur Wiederholungsserie II. Zeige durch Kopfrechnen, dass die folgende reelle Matrix invertierbar ist: A := Lösung: Die Determinante ist definiert durch eine universelle polynomiale Formel mit Koeffizienten in Z. Da alle Einträge von A in Z liegen, ist also auch det(a Z. Weiter sind alle Diagonaleinträge von A ungerade, und alle übrigen Einträge gerade. Also ist A modulo kongruent zu der Einheitsmatrix I 4. Die universelle Formel für die Determinante impliziert nun, dass det(a modulo kongruent ist zu det(i 4 =. Also ist det(a eine ungerade ganze Zahl, und deshalb sicher ungleich Null in R. Somit ist A als reelle Matrix invertierbar.. Betrachte beliebige Unterräume U und U eines endlich-dimensionalen euklidischen Vektorraums V. Welche Inklusionen und Gleichheiten gelten immer zwischen den Unterräumen U U, (U U, U + U, (U + U? Lösung: Nach Definition der Begriffe ist U U = { v V u U : u, v = } { v V u U : u, v = } = { v V u U : u, v = u U : u, v = } = { v V u U u U : u + u, v = u, v + u, v = } = { v V u U + U : u, v = } = (U + U, wobei die Gleichung = gilt wegen der Additivität und weil man auch u = oder u = einsetzen kann. Wenden wir die so gefundene Gleichung auf die Unterräume Ui an, so erhalten wir anstelle von U i U U = (U (U = (U + U, und somit (U U = U + U.

2 Weiter ist nach Konstruktion U U U + U. Insgesamt haben wir also die Inklusion und die Gleichungen U U U + U (U + U (U U Hier sind die horizontalen Inklusionen im Allgemeinen keine Gleichheiten, zum Beispiel nicht, wenn U ein echter Teilraum von U ist. 3. Sei U V ein Unterraum und betrachte die linearen Abbildungen i: U V, u u und π : V V/U, v v + U. Zeige: Die zu π duale lineare Abbildung π : (V/U V ist ein Isomorphismus von (V/U auf den Kern der zu i dualen linearen Abbildung i : V U. Lösung: Wegen i π = (π i = = ist Bild(π Kern(i. Für jedes Element λ : V K in Kern(i, gilt λ(v = für alle v U, also U Kern(λ. Nach der universellen Eigenschaft der Quotientenabbildung π : V V/U existiert daher eine eindeutige lineare Abbildung λ : V/U K mit λ π = λ, also mit π (λ = λ. Die Abbildung π : (V/U Kern(i ist somit surjektiv, wegen der Eindeutigkeitsaussage aber auch injektiv, also ein Isomorphismus. Aliter: Die Injektivität folgt alternativ aus der Surjektivität von π : V V/U, siehe Aufgabe 7 der Wiederholungsserie I. 4. Betrachte eine lineare Abbildung von K-Vektorräumen f : V W sowie einen Unterraum W von W. Zeige: (a Das Urbild f (W := {v V f(v W } ist ein Unterraum von V. (b Die Abbildung f induziert eine eindeutige injektive Abbildung f : V/f (W W/W, sodass das folgende Diagramm kommutiert: V f W V/f (W f W/W. (c Das Bild von f ist gleich (Bild(f + W /W.

3 Lösung: (a Der Beweis der Aussage findet man in der Lösung zu Serie 8, Aufgabe 7. (b Sei π W : W W/W die Quotientenabbildung und sei g := π W f. Wegen Kern(π W = W ist Kern(g = f (W. Also folgt aus der universellen Eigenschaft des Quotientenvektorraums π : V V/f (W angewendet auf g, dass eine eindeutige lineare Abbildung f : V/f (W W/W existiert mit f π = g, also mit f π = π W f, also sodass das obige Diagram kommutiert. Wegen Kern(g = f (W und Serie, Aufgabe 4 (b ist f zudem injektiv. (c Wegen der Surjektivität von π : V V/f (W ist das Bild von f gleich dem Bild von f π, also wegen der Kommutativität des Diagrams gleich Bild(π W f = {f(v + W v V }. Für jedes w W ist aber f(v + W = f(v + w + W ; somit ist dies auch gleich {f(v + w + W v V, w W } = { w + W w Bild(f + W }. und letzteres ist nach Definition gleich (Bild(f + W /W. 5. Sei V ein endlich-dimensionaler euklidischer Vektorraum, und seien v,..., v m und w,..., w m Vektoren in V, sodass für alle i, j gilt: v i, v j = w i, w j. Zeige, dass ein Endomorphismus f : V V existiert mit f(v i = w i für alle i. Lösung: Betrachte zunächst eine beliebige Teilmenge I {,..., m}. Die Vektoren v i für alle i I sind linear unabhängig genau dann, wenn ihre Gramsche Determinante det ( v i, v j ungleich Null ist. Nach Voraussetzung ist diese Determinante aber gleich det ( w i, w j, und somit ungleich Null genau i,j I i,j I dann, wenn die Vektoren w i für alle i I linear unabhängig sind. Unter allen Teilmengen mit den genannten äquivalenten Eigenschaften sei nun I eine maximale. Nach Umordnen der Vektoren v,..., v m und w,..., w m dürfen wir I = {,..., n} annehmen für ein n m. Dann ist (v,..., v n eine maximales linear unabhängiges Teilsystem von (v,..., v m und somit eine Basis des Unterraums V := v,..., v m. Aus demselben Grund ist (w,..., w n eine maximales linear unabhängiges Teilsystem von (w,..., w m und somit eine Basis des Unterraums V := w,..., w m. Betrachte den eindeutigen Isomorphismus f : V V mit f (v i = w i für alle i n. Behauptung: Für diesen gilt auch f (v l = w l für alle l m. Betrachte dafür die Gramsche Matrix M := (g ij i,j n := ( v i, v j und i,j n bezeichne ihre Inverse mit M = (g ij i,j n. Schreibe v l = n i= a iv i mit eindeutigen a i R. Für jedes j =,..., n gilt dann n v l, v j = a i g ij, 3 i=

4 also nach Multiplikation mit g jk und anschliessendem Aufsummieren auch n n v l, v j g jk = a i g ij g jk = j= i,j= n a i (MM i,k = a k i für alle k =,..., n. Es gilt daher v l = n ( n v l, v j g v jk k. k= j= Da gleichzeitig M = ( w i, w j i,j n ist, zeigt man analog w l = n ( n w l, w j g w jk k. k= j= Zusammen folgt daraus unter Benutzung von v l, v j = w l, w j ( n ( n f (v l = f v l, v j g jk v k wie behauptet. = = k= j= n ( n v l, v j g f jk (v k k= j= n ( n w l, w j g w jk k = w l, k= j= Sei schliesslich f : V V eine beliebige Fortsetzung von f. Zum Beispiel wähle ein Komplement U mit V = V U und setze f(v +u := f (v für alle v V und alle u U. Jede Fortsetzung hat die gewünschte Eigenschaft. 6. (Hermitesche Polynome Sei C[x] der Vektorraum aller komplexen Polynome in einer Variablen x. (a Zeige, dass (u, v := ein Skalarprodukt auf C[x] definiert. u(xv(xe x / dx (b Sei L : C[x] C[x] der Endomorphismus gegeben durch L(u := u xx + xu x, u C[x], mit u x := u/ x. Zeige, dass L selbstadjungiert bezüglich (, ist. (c Bestimme rekursiv die Eigenwerte und Eigenvektoren von L. (Hinweis: Für jeden Eigenvektor u von L ist auch P u := u x + xu ein Eigenvektor. Der Operator P heisst Erzeugungs-Operator für L. 4

5 (d Zeige, dass für jede natürliche Zahl n ein eindeutiges normiertes Polynom H n existiert, welches ein Eigenvektor von L ist. Dieses heisst das n-te Hermitesche Polynom H n. (e Zeige für alle n die Formel H n (x = ( n e x / dn dx n e x /. *(f Berechne die Skalarprodukte (H n, H m für alle n, m. (Hinweis: Verwende das Gauss-Integral e x / dx = π Lösung: (a Aus der Analysis folgt, dass das Integral (u, v für alle u, v C[x] endlich und somit wohldefiniert ist. Unter Verwendung der Grundeigenschaften des Integrals prüft man direkt, dass (, eine hermitesche Sesquilinearform ist. Sei u C[x] ein nicht-verschwindendes Polynom. Dann hat die zugehörige Polynomfunktion höchstens endlich viele Nullstellen, und dasselbe gilt für die Funktion x u(x e x /. Da diese stetig und ist, folgt ebenfalls aus der Analysis, dass ihr Integral (u, u = u(x e x / > ist. Somit ist die Paarung (, positiv definit, also ein Skalarprodukt. (b Behauptung (b. Für alle u, v C[x] gilt (u x, v = (xu, v (u, v x. Beweis der Behauptung (b. Aus partieller Integration folgt (u x, v = u x (xv(xe x / dx = u(xv(xe x / ( u(x v(xe x / dx. x Da die Funktion x u(xv(xe x / für x ± verschwindet, ist dieses gleich u(xv x (xe x / dx+ u(xv(xxe x / dx = (u, v x +(xu, v. Für beliebige u, v C[x] folgt (L(u, v = ( u xx + xu x, v = ( (u x x, v + (xu x, v (Beh. = (xu x, v + (u x, v x + (xu x, v = (u x, v x Durch Anwenden dieser Gleichung mit u und v vertauscht folgt weiter (u x, v x = (v x, u x = (L(v, u = (u, L(v, also ist L selbstadjungiert bezüglich (,. 5

6 (c Für alle n definiere Polynome H n C[x] rekursiv durch H := H n+ := P H n = (H n x + xh n. (R Behauptung. Für jedes n ist H n ein normiertes Polynom vom Grad n, das ein Eigenvektor von L zum Eigenwert n ist. Beweis. Das Polynom H = hat Grad, ist normiert und ist wegen L( = ein Eigenvektor von L zum Eigenwert. Die Aussage gilt also für n =. Angenommen die Aussage gilt für n. Mit x = / x gilt dann und also x(h n+ = 3 x(h n x (H n x x(h n = x ( x (H n + x x (H n x (H n = x (L(H n x (H n (IV = x (nh n x (H n = (n + ( x (H n x x (H n+ = x x(h n + xh n + x x H n = xl(h n + xh n (IV = (n + xh n, L(H n+ = ( x + x x (Hn = (n + H n+. Somit ist H n+ ein Eigenvektor von L zum Eigenwert n +. Aus der Rekursion H n+ = x (H n + xh n und der Induktionsvoraussetzung folgt direkt, dass H n+ normiert vom Grad n + ist. Also gilt die Aussage der Behauptung auch für n +. Da für jedes n das Polynom H n normiert und vom Grad n ist, bildet die Menge {H n } n eine Basis von C[x]. Wegen der Behauptung besitzt daher L genau die Eigenwerte Z, mit Eigenraum H n zum Eigenwert n Z. (d Mit (c ist jedes n Z ein Eigenwert von L mit zugehörigem eindimensionalen Eigenraum H n. Das Polynom H n ist somit das eindeutige normierte Polynom, welches ein Eigenvektor von L zum Eigenwert n ist. (e Wir verwenden Induktion über n. Für n = gilt die Gleichung in der Aufgabe. Angenommen die Gleichung gilt für n. Aus der Rekursionsgleichung für H n folgt H n+ = x H n + xh n (IV = x (( n e x / x n (e x / ( = ( n+ e x / x n+ (e x /, also gilt die Gleichung auch für n +. 6 ( + x ( n e x / x n (e x /

7 (*f Da L selbst-adjungiert ist, sind die Eigenräume zu verschiedenen Eigenwerten von L orthogonal. Es folgt (H n, H m = für alle n m. Behauptung. (H n, H n = π n! Beweis. Für n = ist die Gleichung äquivalent zu dem Gauss-Integral (H, H = e x / dx = π, siehe Analysis; also gilt die Aussage für n =. Angenommen die Aussage gilt für n. Aus der Rekursionsgleichung (R und der Behauptung (b in Teilaufgabe (b folgt (H n+, H n+ (R = ( (H n x + xh n, H n+ = ( ( (H n x, H n+ + xhn, H n+ { (b (xhn ( } =, H n+ Hn, (H n+ x + ( xh n, H n+ (R = ( H n, ( (H n x + xh n x = ( H n, (H n xx + x(h n x + ( Hn, H n = ( H n, L(H n + ( H n, H n = (n + ( H n, H n = (n + π n! Also gilt die Aussage auch für n +. Ingesamt erhalten wir für alle n, m somit (H n, H m = δ nm H n (x e x / dx = π n! δ nm. Aliter: Um für n > die Werte (H n, H n zu berechnen, kann man auch wie folgt vorgehen. Durch Taylorentwicklung der Funktion e xt t / nach t und mit (e erhält man die Potenzreihenentwicklung e xt t / = n H n (x tn n! mit Konvergenzradius. Wegen der Orthogonalität der H n für alle n gilt somit für jedes t R, ( e xt t /, e xt t / t n = (n! (H n, H n. Für jedes t R ist die linke Seite ( e xt t /, e xt t / = n= e xt t x / dx = e t e x +xt t dx = e t e (x t dx = e t e t n x dx = e t π = π n!. 7 n=

8 Durch Vergleichen des Koeffizienten von t n erhalten wir somit (H n, H n = δ nm H n (x e x / dx = π n! Die Hermiteschen Polynome sind wichtig für Anwendungen in der Physik. Sie tauchen zum Beispiel in der quantenmechanischen Beschreibung des harmonischen Oszillators auf, siehe: 7. Sei M die Darstellungsmatrix der quadratischen Form q : R 3 R, (x, x, x 3 T x + x + 6x 3 x x 3 + 4x x 3 Zeige, dass M positiv definit ist und berechne ihre Cholesky-Zerlegung. Lösung: Die Matrix ist charakterisiert durch die Gleichung q(x = x T Mx für alle x R 3 und somit gegeben durch M =. 6 Ihre Hauptminoren ergeben sich zu ( det( =, det =, det(m = 6. Da alle diese positiv sind, ist M positiv definit. Die Cholesky-Zerlegung von M ist nach Definition die Lösung der Matrixgleichung M = R T R durch eine reelle obere Dreiecksmatrix a a a 3 R = a a 3 a 33 mit Diagonaleinträgen >. Wir rechnen a a a a 3 R T R = a a a a 3 a 3 a 3 a 33 a 33 a a a a a 3 = a + a a a 3 + a a 3 a 3 + a 3 + a 33 wobei wir wegen der Symmetrie die Einträge unterhalb der Diagonalen ignorieren können. Durch sukzessives Auflösen erhalten wir a = =, a = /a =, a 3 = /a =, a = a =, a 3 = ( a a 3 /a =, a 33 = 6 a 3 a 3 = 3. 8

9 Also ist R = Entscheide, welche der folgenden reellen symmetrischen Matrizen positiv definit sind, und führe für diese die Matrixzerlegungen aus 9.5 der Vorlesung aus: A := 3 B := 3 3 Lösung: Für beide Matrizen verwenden wir das Hauptminorenkriterium. Wegen ( 3 3 det A = det = 6 < 3 ist A nicht positiv definit. Für B berechnen wir det(b = det( ( = 6 >, det(b = det = 3 >, det(b 3 = det(b = 4 >. Somit ist B positiv definit. Wir müssen noch eine invertierbare reelle obere Dreiecksmatrix R und eine invertierbare symmetrische reelle Matrix C finden mit B = R T R = C. Um R zu finden, machen wir den Ansatz a a a 3 R = a a 3 a 33 mit reellen Koeffizienten a ij, wobei die Diagonaleinträge > sind. Durch sukzessives Auflösen der Matrixgleichung a a a a a 3 B = a + a a a 3 + a a 3, a 3 + a 3 + a 33 wobei wir wie in Aufgabe 8 wegen der Symmetrie von B die Einträge unterhalb der Diagonalen ignorieren können, erhalten wir a =, a = /a = /, a 3 = /a = /, a = a = 3/, a 3 = ( a a 3 /a = /6, a 33 = a 3 a 3 = 4/3. 9

10 Also ist / / R = 3/ /6. 4/3 Um C zu finden, diagonalisieren wir die Matrix B durch eine Orthonormalbasis. Das charakteristische Polynom von B ist char B (X = X 3 6X + X 4 ( = (X X ( + ( X ( Die Eigenräume zu den Eigenwerten und + und sind jeweils Eig (B = Kern(B I 3 = Kern = Eig + (B = Kern(B ( + I 3 = Kern = Eig (B = Kern(B ( I 3 = Kern =. Da B symmetrisch ist, sind die Eigenräume zu unterschiedlichen Eigenwerten von B orthogonal. Also bilden die normalisierten Eigenvektoren,, eine Orthonormalbasis von R 3, und die zugehörige Basiswechselmatrix / / U := / / / / / / ist orthogonal. Wir erhalten also die Diagonalisierung B = U + U. Setzen wir also C := U + U

11 so ist C symmetrisch und erfüllt C = B, ist also die gesuchte Matrix. Es bleibt C explizit zu berechnen. Sei α := +. Dann ist = /α und somit C = U α /α U α/ / α = α/ /( α α/ /( U T α = α + α α / α / α / / + α + α / / α + α / α / / α + α / / + α + α / 9. Sei A eine positiv-definite reelle symmetrische n n-matrix. (a Ist A positiv definit? (b Ist A positiv definit? Lösung: Da A reell symmetrisch ist, existiert nach dem Spektralsatz eine orthogonale n n-matrix U, so dass D := U T AU eine Diagonalmatrix ist. Da die positiv-definitheit unter diesem Basiswechsel invariant ist, ist auch D positiv definit. Also sind alle Diagonaleinträge von D positiv. Insbesondere ist D invertierbar, und sowohl D als auch D sind Diagonalmatrizen mit allen Diagonaleinträgen positiv. Somit sind D und D symmetrisch und positivdefinit. Schliesslich gilt dann A = UU T AUU T = UDU T, und somit sind auch A = UDU T UDU T = UD U T und A = UD U T symmetrisch und positiv definit. Beide Fragen sind daher zu beantworten mit ja. Aliter: Als positiv-definite reelle symmetrische Matrix ist A invertierbar. Für jeden Vektor v R n ist daher Av und somit v T A v = v T A T Av = (Av T (Av = Av >, wobei den Absolutbetrag zum Standardskalarprodukt auf R n bezeichnet. Also ist A positiv definit. Für jeden Vektor v R n aber auch A v und somit v T A v = v T A AA v = (A v T A(A v = A v A >, wobei A den Absolutbetrag zu dem Skalarprodukt (v, w v T Aw bezeichnet. Also ist A positiv definit.. Zeige, dass jede symmetrische komplexe Matrix mit positive definitem Realteil invertierbar ist. Lösung: Schreibe die Matrix in der Form A + ib für reelle symmetrische n n-matrizen A und B. Dann ist A positiv definit. Nach einem Satz der Vorlesung existiert daher eine invertierbare reelle n n-matrix V mit A = V T V..

12 Dann ist auch (V T BV reell symmetrisch. Nach dem Spektralsatz existiert darum eine orthogonale Matrix Q, so dass D := Q T (V T BV Q eine reelle Diagonalmatrix ist. Zusammen ist dann Q T (V T (A + ibv Q = I n + id eine Diagonalmatrix mit Realteil I n. Diese ist also invertierbar; und somit ist auch A + ib invertierbar. Aliter: Finde zuerst mit dem Spektralsatz eine orthogonale n n-matrix R, so dass R T AR eine Diagonalmatrix ist. Diese ist dann immer noch positiv definit; ihre Diagonaleinträge sind daher positiv. Sei D die aus den positiven Quadratwurzeln dieser Einträge gebildete Diagonalmatrix. Dann gilt R T AR = D und daher A = (R T D T DR = V T V mit der invertierbaren Matrix V := DR. Dann fahre fort wie oben. Aliter : Schreibe die Matrix in der Form A + ib für reelle symmetrische n n- Matrizen A und B. Dann ist A positiv definit, also invertierbar, und es existiert eine invertierbare symmetrische Matrix C mit A = C. Folglich ist A + ib invertierbar genau dann wenn C (A + ibc = I n + ic BC = I n + ib invertierbar ist mit B := C BC. Da B und C symmetrisch sind, sind es auch C und B. Folglich sind alle komplexen Eigenwerte von B reell. Insbesondere ist i kein Eigenwert von B, und somit ist ii n + B invertierbar. Damit ist dann auch i( ii n + B = I n + ib invertierbar, und folglich auch A + ib, wie zu zeigen war.. Sei ε {+, } und betrachte die reelle 5 5-Matrix ε A := ε ε ε. Bestimme eine orthogonale Matrix U, sodass U AU Diagonalgestalt hat. Lösung: Wir erkennen, dass der (i, j-te Eintrag in A nicht null ist genau dann, wenn i und j beide ungerade oder gerade sind. Bezeichnen wir mit (e,..., e 5 die Standardbasis von R 5, dann hat A also in der Basis (e, e 4, e, e, e 3 Blockdiagonalgestalt. Um dies als Matrixgleichung auszudrücken, sei P := die Permutationsmatrix zur Permutation 3,, 3 4, 4, 5 5.

13 Dann ist die Matrix B := ε ε ε ε = P AP eine Blockdiagonalmatrix. Wir diagonalisieren die einzelnen Matrixblöcke ( ε B := und B := ε ε ε separat. Die Matrix B besitzt die orthogonalen Eigenvektoren (, T und (, T zu den jeweiligen Eigenwerten und. Nach Normalisieren erhalten wir also die Orthonormalbasis ( (, T, (, T von R aus Eigenvektoren von B. Das charakteristische Polynom der Matrix B ist char B (X = (X 3 3(X = X (X 3 Man berechnet die Eigenräume Eig 3 (B = (,, T, Eig (B = (, ε, T, (,, T. Da B symmetrisch ist, sind die Eigenräume zu den verschiedenen Eigenwerten orthogonal. Durch Anwenden des Gram-Schmidt-Verfahrens auf die Eigenvektoren zum Eigenwert, und durch Normalisierung des Eigenvektors zum Eigenwert 3, erhalten wir die Orthonormalbasis 3,, ε ε von R 3 bestehend aus Eigenvektoren von B. Somit bilden die Vektoren,, 3, ε, ε eine Orthonormalbasis von R 5 aus Eigenvektoren von B zu den jeweiligen Eigenwerten,, +ε,,. Da diese Vektoren orthonormal sind, ist die zugehörige Basiswechselmatrix U := 3 /. 3 ε ε/ 3 ε 3

14 orthogonal, und nach Konstruktion gilt B = U + ε U. Wegen der Orthogonalität der Permutationsmatrix P ist somit 3 / U := P U = 3 ε ε/. 3 ε orthogonal, und nach Konstruktion hat Diagonalgestalt. U AU = U (P AP U = U BU. (Vergleiche Serie 6, Aufgabe 5 Sei V ein euklidischer Vektorraum der Dimension < n <, und sei f : V V ein selbstadjungierter Endomorphismus mit Eigenwerten λ... λ n. Zeige: { } f(x, x λ = min x, x x V, { } f(x, x λ n = max x, x x V. Zeige allgemeiner das Min-Max-Prinzip: Für alle r =,..., n gilt { } f(x, x λ r = min max x W {} x, x W V, dim W = r. Lösung: Wir zeigen das allgemeinere Min-Max Prinzip. Da f selbstadjungiert ist, existiert eine Orthonormalbasis (v,..., v n von V aus Eigenvektoren von f zu den jeweiligen Eigenwerten λ,..., λ n. Sei V := v r,..., v n und sei W V ein Unterraum der Dimension r. Wegen dim(v W = dim V + dim W dim(v + W r + (n (r n = existiert ein nicht-verschwindendes Element x W V. Schreiben wir x = n i=r a iv i für Koeffizienten a i R, so folgt f(x, x max x W {} x, x f(x, x x, x = i a iλ i v i, i a iv i x, x = i λ ia i i a i λ r, 4

15 also, da W V beliebig war, { inf W V dim(w =r max x W {} } f(x, x λ r. x, x Wir zeigen, dass das Infimum durch den Unterraum V r := v,..., v r angenommen wird. Für ein beliebiges Element x = r i= a iv i V r {} mit Koeffizienten a i R gilt f(x, x = = λ r x, x also inf W V dim(w =r r i= λ ia i r i= a i f(x, x max x V r {} x, x r i= λ ra i r i= a i λ r. Wegen dim(v r = r gilt aber nach Definition des Infimum auch { } f(x, x f(x, x λ r max max. x W {} x, x x V r {} x, x Also wird das Infimum durch V r angenommen, und es gilt { } { } f(x, x f(x, x inf max = min max = λ r W V x W {} x, x W V x W {} x, x dim(w =r dim(w =r 3. Seien V ein reeller Vektorraum der Dimension n und β eine nicht-ausgeartete symmetrische Bilinearform auf V mit der Signatur (p, q. Bestimme die maximale Dimension eines Unterraums U V mit β U U =. Lösung: Nach Voraussetzung ist n = p+q und es existiert eine geordnete Basis von V, bezüglich welcher die Darstellungsmatrix von β eine Diagonalmatrix ist mit p Diagonaleinträgen und q Diagonaleinträgen. Schreibe diese Basis in der Form v,..., v p, w,..., w q mit β(v i, v i = und β(w i, w i = für alle i. Behauptung: Die gesuchte maximale Dimension ist m := min{p, q}. Betrachte zuerst einen beliebigen Unterraum U der Dimension > p. Setze U := w,..., w q ; aus der Dimensionsformel für Durchschnitte folgt dann dim(u U = dim(u + dim(u dim(u + U dim(u + dim(u dim(v > p + q n =. Also existiert ein von Null verschiedener Vektor u U U. Wegen u U gilt für diesen β(u, u <. Also ist β U U. Betrachte sodann einen beliebigen Unterraum U der Dimension > q. Setze U + := v,..., v p und rechne dim(u U + = dim(u + dim(u + dim(u + U + dim(u + dim(u + dim(v > q + p n =. 5

16 Also existiert ein von Null verschiedener Vektor u U U +. Wegen u U + gilt für diesen β(u, u >. Also ist β U U. Insgesamt ist somit β U U für jeden Unterraum U der Dimension > m. Die gesuchte maximale Dimension ist also m. Schliesslich setze u i := v i + w i für alle i m. Dann gilt β(u i, u i = β(v i + w i, v i + w i = + + =, und für alle i, j m mit i j gilt β(u i, u j = β(v i + w i, v j + w j = =. Für beliebige Koeffizienten a i, b j R folgt dann ( m β a i u i, i= m b j u j = j= m m a i b j β(u i, u j =. i= j= Mit U := u,..., u m gilt also β U U =. Da die u i linear unabhängig sind, gilt weiter dim(u = m. Die gesuchte maximale Dimension ist also m. 4. Der Index einer reellen, symmetrischen n n-matrix A mit Eigenwerten λ,..., λ k der jeweiligen Vielfachheiten m,..., m k ist definiert als Ind(A := m i m i, i:λ i > i:λ i < also als die Anzahl positiver minus die Anzahl negativer Eigenwerte von A, gezählt mit Vielfachheiten. Seien A und B zwei symmetrische n n-matrizen mit x T Ax x T Bx für alle x R n. Zeige, dass Ind(A Ind(B ist. Lösung: Sei a bzw. a die Anzahl positiver bzw. negativer Eigenwerte von A, und sei b bzw. b die Anzahl positivier bzw. negativer Eigenwerte von B, jeweils gezählt mit Vielfachheiten. Sei U die Summe aller Eigenräume von A zu positiven Eigenwerten. Dann ist die Einschränkung L A U positiv definit. Für alle x U {} gilt also x T Bx x T Ax >. Mit 9.4 der Zusammenfassung folgt b dim(u = a. Sei U die Summe aller Eigenräume von B zu negativen Eigenwerten. Dann ist die Einschränkung L B U negativ definit. Für alle x U {} gilt also x T Ax x T Bx <. Mit 9.4 der Zusammenfassung folgt a dim(u = b. Beide Aussagen zusammen ergeben dann Ind(B = b b a a = Ind(A. 5. Sei V ein endlich-dimensionaler reeller Vektorraum. (a Zeige oder widerlege: Für jeden invertierbaren Endomorphismus f : V V existiert ein euklidisches Skalarprodukt, auf V, bezüglich dem f orthogonal ist. 6

17 (b Sei nun V = R 3 und f = L A mit A := Lösung: Finde eine 3 3-Matrix M, sodass (x, y x T My ein Skalarprodukt auf V ist, bezüglich welchem A orthogonal ist. (a Im Fall dim(v = ist jeder Endomorphismus bezüglich dem eindeutigen Skalarprodukt auf V orthogonal; insbesondere gilt also die Aussage. Im Fall dim(v > sei f : V V die Linksmultiplikation mit einem Skalar λ R {,, }. Falls f orthogonal bezüglich einem Skalarprodukt, ist, gilt für alle v V dann v, v = f(v, f(v = λ v, v. Für einen Vektor v V {} ist wegen der Positiv-Definitheit von, aber v, v >, folglich also λ {±}, was ein Widerspruch ist. Die Aussage ist im Fall dim(v > also falsch. (b Ist, ein Skalarprodukt, bezüglich welchem A orthogonal ist, sind die Eigenräume zu verschiedenen Eigenwerten von A orthogonal. Wir finden also zuerst die Eigenräume von A. Das charakteristische Polynom von A ist char A (X = X 3 + X X = (X (X +. Weiter sind die Eigenräume zu den Eigenwerten und gleich Eig (A = Kern(A I 3 = 4 Eig (A = Kern(A + I 3 =,. Dann hat L A bezüglich der Basis B =, 4, die Darstellungsmatrix M BB (L A =. 7

18 Bezüglich dem Standardskalarprodukt auf R 3 ist dies eine orthogonale Matrix. Definieren wir also ein Skalarprodukt, auf R 3 indem wir die Basis B als Orthonormalbasis deklarieren, so hat, bezüglich B die Darstellungsmatrix I 3, und folglich ist L A orthogonal bezüglich,. Wir müssen nur noch die Darstellungsmatrix M von, bezüglich der Standardbasis b von R 3 finden. Sei also U := 4 die Basiswechselmatrix M bb (id R 3. Dann erfüllt die Darstellungsmatrix M = M bb (, die Gleichung U T MU = I 3, und ist somit M = (U T U = Seien R, S : R 3 R 3 zwei nicht-triviale Drehungen um je eine Gerade durch den Ursprung. Beweise die Äquivalenz der folgenden beiden Aussagen: (a R und S kommutieren, das heisst, es gilt RS = SR. (b R und S haben entweder dieselbe Drehachse oder sind Rotationen um 8 bezüglich orthogonaler Drehachsen. Lösung: Jede nicht-triviale Drehung im R 3 hat den Eigenwert mit geometrischer Vielfachheit. Nach Voraussetzung gilt dies also für R und S. Seien v R, v S normierte Eigenvektoren von R bzw. S zum Eigenwert. (a (b : Angenommen R und S kommutieren. Dann ist nach Serie Aufgabe 7a der Eigenvektor v R auch ein Eigenvektor von S zu einem Eigenwert λ R. Da S orthogonal ist, kann dieser Eigenwert nur λ = ± sein. Im Fall λ = ist wegen der geometrischen Vielfachheit des Eigenwertes der Vektor v R ein Vielfaches von v S. Die Drehungen R und S haben also dieselbe Drehachse: v R = v S. Im Fall λ = sind v R, v S Eigenvektoren von S zu den jeweiligen Eigenwerten und, wegen der Orthogonalität von S sind sie also insbesondere orthogonal zueinander. Folglich haben R und S orthogonale Drehachsen. Weiter ist jetzt ein Eigenwert von S, also hat S den Drehwinkel 8. Schliesslich wiederholen wir die bisherigen Argumente mit vertauschten Rollen von R und S. Anwenden von Serie Aufgabe 7a zeigt, dass der Eigenvektor v S von S ein Eigenvektor von R zu einem Eigenwert µ = ± ist. Im Fall µ = wären die Drehachsen gleich, was jetzt schon ausgeschlossen ist. Also ist µ =, und somit hat auch R den Drehwinkel 8. (b (a : 8

19 Haben R und S dieselbe Drehachse, gilt also Eig (R = Eig (S, so haben R und S bezüglich einer Orthonormalbasis der Form b = (v R, v, v 3 für Vektoren v, v 3 R 3 die Darstellungsmatrizen M bb (R = cos α sin α, M bb (S = cos β sin β. sin α cos α sin β cos β mit jeweiligen Drehwinkeln α, β R. Durch direktes Rechnen folgt M bb (R M bb (S = cos(α + β sin(α + β = M bb (S M bb (R, sin(α + β cos(α + β also R S = S R. Haben R und S orthogonale Drehachsen und beide den Drehwinkel 8, dann ist ein Eigenwert von R der Vielfachheit, also v R = Eig (R. Es folgt v S v R = Eig (R. Ebenso zeigt man v R v S = Eig (S. Für ein nicht-verschwindenden Vektor b v R, v S folgt weiter b Eig (R und b Eig (S. Also haben R und S beide bezüglich der Basis (v R, v S, b Diagonalgestalt, und kommutieren miteinander. 7. Sei f ein Automorphismus eines endlich-dimensionalen unitären Vektorraums V. Zeige: Ist f selbstadjungiert, bzw. unitär, bzw. normal, so haben f und f dieselbe Eigenschaft. Lösung: Nach Serie 5, Aufgabe d gilt stets (f! = (f. Zuerst sei f selbstadjungiert, nach Definition also f = f. Dann gilt (f = f und (f =! (f = f ; somit sind f und f selbstadjungiert. Sodann sei f unitär, nach Definition also f = f. Dann gilt (f = (f! = (f und (f! = (f = (f ; somit sind f und f unitär. Schliesslich sei f normal, nach Definition also f f = f f. Wegen (f = f gilt dann (f f = f f = f f = f (f und (f f! = (f f = (f f = (f f = f (f! = f (f, somit sind f und f normal. 8. Gegeben sei eine natürliche Zahl n. Beweise oder widerlege: (a Für alle nilpotenten komplexen n n-matrizen A, B ist auch A + B nilpotent. (b Für alle normalen komplexen n n-matrizen A, B ist auch A + B normal. 9

20 Lösung: Für n = ist jede Matrix gleich der Nullmatrix und somit nilpotent und normal. Also gelten beide Aussagen für n =. Für n = betrachte eine -Matrix A = (a mit einem Skalar a C. Nach Definition ist A nilpotent genau dann, wenn eine Potenz A m die Nullmatrix ist. Das ist äquivalent zu a m =, und da C ein Körper ist, zu a =. Eine - Matrix ist also nilpotent genau dann, wenn sie die Nullmatrix ist. Da die Summe zweier Nullmatrizen die Nullmatrix ist, gilt die Aussage (a im Fall n =. Weiter ist die Multiplikation von -Matrizen kommutativ. Insbesondere gilt A A = AA ; also ist jede komplexe -Matrix normal. Insbesondere gilt auch die Aussage (b im Fall n =. und B := ( Sei nun n =. Für (a setze A := (. Dann gilt A = B = ; also sind A und B nilpotent. Andererseits gilt (A + B = ( ( = ; für alle m folgt daraus (A + B m = ( m ( =. Also ist A + B nicht nilpotent; die Aussage (a ist demnach falsch für n =. Für (b setze A := ( ( und B := i i. Dann gilt A = A und B = B. Daraus folgt A A = AA = AA und B B = BB = BB ; somit sind A und B normal. Andererseits ist ( ( ( i i i (A + B (A + B = =, (A + B(A + B = i i ( ( i i i i = i ( i i Da die rechten Seiten nicht gleich sind, ist also A+B nicht normal. Die Aussage (b ist somit falsch für n =. Für n beliebig wähle A und B wie im jeweiligen Gegenbeispiel für n = und betrachte die n n-blockdiagonalmatrizen ( ( A O B O A := und B :=. O O O O Da eine Blockdiagonalmatrix nilpotent bzw. normal ist genau dann, wenn ihre Blockdiagonaleinträge es sind, bilden auch A und B ein Gegenbeispiel. Fazit: Für n sind beide Aussagen korrekt; für n sind beide falsch. 9. Beweise oder widerlege: Jeder normale Endomorphismus eines endlich-dimensionalen unitären Vektorraums ist die Komposition eines selbstadjungierten mit einem unitären Endomorphismus. Lösung: Für jeden normalen Endomorphismus f : V V eines endlichdimensionalen unitären Vektorraums V existiert eine Orthonormalbasis b, sodass M bb (f eine Diagonalmatrix mit Diagonaleinträgen λ,..., λ n C ist. Für i =,..., n schreibe λ i = r i e iϕ i mit reellen Zahlen r i R und ϕ i < π. Dann ist der eindeutige Endomorphismus S (bzw. U mit der Darstellungsmatrix ( M bb (S = diag(r,..., r n bzw. Mbb (U = diag(e iϕ,..., diag(e iϕn.

21 selbstadjungiert (bzw. unitär, und es gilt M bb (S U = M bb (S M bb (U = diag(r e iϕ,..., r n e iϕn = M bb (f, also S U = f. Damit ist die Ausage bewiesen.. Wir betrachten ein korrekt ausgefüllte Sudokugitter als eine 9 9 Matrix S mit Einträgen in {,,..., 9} Z. Welche der folgenden Aussagen sind für alle, für manche, für kein S korrekt? (a Die Zahl 45 ist ein Eigenwert von S. (b Die Determinante von S ist durch 9 teilbar. (c Der Vektor (,..., 9 T ist ein Eigenvektor von S. *(d Die Determinante von S ist positiv. Lösung: (a Jede Zeile von S besteht aus den Zahlen bis 9 in gewisser Reihenfolge, somit ist (,..., T ein Eigenvektor zum Eigenwert = 45. Die Aussage ist also für alle S korrekt. (b Da alle Einträge von S in Z liegen, gilt dasselbe auch für die Determinante. Die Aussage ist also wohldefiniert. Addieren wir die anderen Zeilen zur ersten, so steht in der ersten Zeile (45, 45,..., 45. Somit ist 45 ein Teiler von det(s. Die Aussage ist also für alle S korrekt. Bemerkung. Dividieren wir die erste Zeile durch 45 und addieren weiter alle anderen Spalten zur ersten, so erhalten wir die erste Spalte (9, 45,..., 45 T. Folglich ist die Determinante sogar durch 9 45 = 45 teilbar. (c Die Summe jeder Spalte der Matrix S := S/45 ist, und alle Einträge sind >, also ist S eine Markovmatrix. Mit Aufgabe 6 der Wiederholungsserie I hat daher jeder komplexe Eigenwert von S Betrag, also hat jeder komplexe Eigenwert von S Betrag 45. Angenommen v := (,..., 9 T ist ein Eigenvektor von S zu einem Eigenwert λ, und sei (a,..., a 9 die erste Zeile von S. Wegen a i für alle i und a j > für ein j 9, folgt aus dem Vergleichen des ersten Eintrages von Sv = λv dann n λ = (a,..., a n (,..., 9 T = ia i > i = 45, i= i was ein Widerspruch ist. Also ist (,..., 9 T kein Eigenvektor von S. Die Aussage ist also für kein S korrekt. (c Falls S eine Sudokumatrix mit positiver Determinante ist, erhält man durch Vertauschen der zwei ersten Zeilen wieder eine Sudokumatrix, deren Determinante gleich det(s, also negativ ist. Daher kann det(s nicht immer positiv sein. Um zu überprüfen ob die Aussage manchmal oder nie gilt, müssen wir entscheiden ob eine Sudokumatrix mit positiver Determinante existiert. Wählen wir

22 zum Beispiel S := so folgt durch direktes Rechnen (für welches es sich anbietet einen Computer zu verwenden det(s = = Durch Vertauschen der ersten beiden Zeilen in S erhält man somit eine Sudokumatrix mit positiver Determinante. Die Aussage ist also manchmal wahr., Bemerkung. Nicht jede Sudokumatrix ist invertierbar. Zum Beispiel gilt det =, siehe auch Für welche reellen Zahlen a und b existiert eine reelle -Matrix A mit ( a A =? b Lösung: Nimm an, es gebe eine solche Matrix ( A. Trigonalisiere sie über C, das u heisst, wähle U GL (C mit U AU = für gewisse u, v C. Dann ( v u ist U A U = (U AU = v. Das charakteristische Polynom von A ist also gleich (X u (X v. Nach Voraussetzung ist es aber auch gleich (X a(x b. Deshalb sind u, v gleich a, b bis auf die Reihenfolge. Sind u, v R, so gilt u, v, also auch a, b. Andernfalls ist u = v und somit a = b. Da aber b reell ist, folgt daraus a = b. Eine notwendige Bedingung für die Existenz von A ist also a, b oder a = b. Wir zeigen, dass diese Bedingung auch hinreicht. Sind a, b, so tut es zum Beispiel die Matrix A := ( a b. Sei nun also a = b <. Wir erinnern uns

23 an den Ringhomomorphismus k : C Mat (R, ( x y x + iy. y x Betrachte die Matrix A := k ( a e πi/4 = ( cos(π/4 sin(π/4 a. sin(π/4 cos(π/4 Wegen der Multiplikativität von k gilt dann A = k (( a e πi/4 = k ( a e 4πi/4 = k( a = k(a = ( a, a wie gewünscht. Also ist die Bedingung hinreichend.. Für welche der folgenden Gleichungen existiert eine reelle Matrix X, die sie erfüllt? (a X 3 = (b X 5 + X = ( (c X 6 + X 4 + X = 3 4 (d X 4 = 3 3 Lösung: (a Ist X eine reelle Matrix mit X 3 =, 3 dann gilt X 9 = (X 3 3 = und somit ist X nilpotent. Dann hat aber X das charakteristische Polynom char X (t = t 3 (siehe Zusammenfassung 8.9 und folglich ist X 3 =, was ein Widerspruch ist. Also erfüllt keine reelle Matrix die Gleichung. (b Betrachte die symmetrische Matrix 3 5 B :=

24 Aus dem Spektralsatz für selbstadjungierte Endomorphismen folgt, dass eine eine invertierbare Matrix U und λ, λ, λ 3 R existieren mit λ U BU = λ. λ 3 Da U invertierbar ist, ist die Gleichung X 5 + X = B äquivalent zu (U XU 5 + U XU = U (X 5 + XU = U BU, mit Y = U XU also äquivalent zu λ Y 5 + Y = λ. λ 3 Machen wir den Ansatz µ Y = µ µ 3 mit Koeffizienten µ, µ, µ 3 R, so ist die Gleichung Y 5 + Y = diag(λ, λ, λ 3 äquivalent zu µ 5 i + µ i = λ i für i =,, 3. Da der höchste Grad im Polynom X 5 + X ungerade ist, ist die Abbildung R R, x x 5 + x surjektiv, und somit existiert für jedes λ i R ein µ i R 5 mit µ 5 i + µ i. Wählen wir ein solches für i =,, 3, so erfüllt Y = diag(µ, µ, µ 3 die betrachtete Gleichung. Die Matrixgleichung der Aufgabe hat also eine Lösung. (c Wir erinnern uns an den injektiven Ringhomomorphismus ( x y κ: C Mat (R, x + iy. y x Da jedes nicht-konstante komplexe Polynom eine komplexe Nullstelle besitzt, existiert ein z C mit z 6 + z 4 + z = i. Es folgt κ(z 6 + κ(z 4 + κ(z = (, also löst κ(z die gegebene Matrixgleichung. 3 4 (d Die Matrix Y := 3 hat den Eigenwert 3 mit geometrischer 3 Vielfachheit und dem zugehörigen Eigenvektor v :=. Angenommen es existiert eine reelle Matrix X mit X 4 = Y. Dann ist Y Xv = X 5 v = X(X 4 v = XY v = 3Xv, 4

25 also liegt Xv im Eigenraum von Y zum Eigenwert 3, und somit ist Xv = λv für ein λ R. (Siehe auch Serie Aufgabe 7a. Es folgt 3v = Y v = X 4 v = λ 4 v, also λ 4 = 3 was unmöglich ist. Also besitzt die Gleichung keine Lösung. 3. Was sind die Möglichkeiten für den Rang einer reellen 7 7-Matrix mit Minimalpolynom X? Lösung: Der einzige normierte irreduzible Faktor des Minimalpolynoms ist X. Dies entspricht dem Eigenwert. Also ist die Jordannormalform der Matrix eine Blockdiagonalmatrix mit Blockdiagonaleinträgen der Form N j := der Grösse j j für gewisse j. Nach der Definition des Minimalpolynoms gilt A =. Für alle j 3 ist aber N j ; somit können nur Jordanblöcke der Form N und N auftreten. Nach der Minimalität des Minimalpolynoms ist andererseits A. Wegen N = und N muss daher mindestens ein Block der Form N in der Jordannormalform von A auftreten. Die Anzahl der Jordanblöcke der Form N ist also eine Zahl a. Die Anzahl der Jordanblöcke der Form N ist dann gleich 7 a. Die möglichen Werte sind also a =,, 3. Der Rang der Matrix ist nun gleich a Rang(N + (7 a Rang(N = a + (7 a = a. Die Möglichkeiten für den Rang sind also genau,, Sei K ein Körper. Bestimme alle natürlichen Zahlen n, so dass die Jordan- Normalform jedes Endomorphismus eines n-dimensionalen K-Vektorraums durch das charakteristische Polynom zusammen mit dem Minimalpolynom bereits eindeutig bestimmt ist. Lösung: Für jedes n 4 betrachte die n n-blockdiagonalmatrix x A x := Für jedes x {, } ist sie in Jordanscher Normalform, und zwar mit + x Jordanblöcken der Form ( sowie n x Jordanblöcken der Form (. In beiden Fällen ist das charakteristische Polynom gleich X n und das Minimalpolynom gleich X, die Jordan-Normalformen sind jedoch nicht äquivalent. Die zu 5

26 den Matrizen A und A assoziierten Endomorphismen bilden also Gegenbeispiele zu der gewünschten Eigenschaft. Die Eigenschaft ist also für jedes n 4 verletzt. Wir zeigen nun, dass für jedes n 3 die gewünschte Eigenschaft erfüllt ist. Sei also f ein beliebiger Endomorphismus eines K-Vektorraums der Dimension n 3. Durch Induktion können wir voraussetzen, dass die Aussage bereits für jeden Endomorphismus eines K-Vektorraums der Dimension < n gilt. Besitzt der Endomorphismus mehrere Haupträume, so entspricht die Hauptraumzerlegung der Zerlegung des charakteristischen Polynoms wie des Minimalpolynoms in Potenzen verschiedener normierter irreduzibler Faktoren, welche jeweils das charakteristische Polynom bzw. das Minimalpolynom des von f induzierten Endomorphismus des Hauptraums sind. Nach Induktionsvoraussetzung ist die Jordannormalform dann in jedem Hauptraum schon durch das charakteristische und das Minimal-Polynom bestimmt, also ist sie insgesamt durch das charakteristische und das Minimal-Polynom bestimmt, wie gewünscht. Wir können also annehmen, dass der Endomorphismus höchstens einen Hauptraum, sagen wir zum normierten irreduziblen Polynom p(x K[X], besitzt. Das Minimalpolynom von f ist dann gleich p(x r für ein r. Ist r =, so muss = p(f = id V sein, also V =. In diesem Fall gibt es überhaupt nur einen Endomorphismus; der ist schon in Jordannormalform und hängt von nichts mehr ab; also ist die fragliche Bedingung in diesem Fall erfüllt. Ist r =, so ist die Begleitmatrix von p(x die einzige Möglichkeit für die Jordanblöcke von f. Die Anzahl dieser Blöcke ist dann auch durch n = dim(v bestimmt; die fragliche Bedingung ist somit auch in diesem Fall erfüllt. Ist r, so gibt es wegen 3 n = dim(v deg(p(x r = r deg(p(x nur die Möglichkeiten (r, n {(,, (, 3, (3, 3} mit deg(p(x =. Im Fall (r, n = (, gibt es genau einen Jordanblock der Grösse und sonst keinen, also ist die Jordannormalform eindeutig bestimmt. Im Fall (r, n = (, 3 gibt es je einen Jordanblock der Grössen und und sonst keine, also die Jordannormalform ebenfalls eindeutig bestimmt. Im Fall (r, n = (3, 3 gibt es genau einen Jordanblock der Grösse 3 3 und sonst keinen, also ist die Jordannormalform ebenfalls eindeutig bestimmt. Fazit: Die natürlichen Zahlen mit der gewünschten Eigenschaft sind, unabhängig vom Körper K, genau die Zahlen,,, Wir betrachten alle reellen symmetrischen 3 3-Matrizen, welche v :=, v :=, v 3 := als Eigenvektoren besitzen. (a Was lässt sich über die Eigenwerte λ i zu v i aussagen? (b Gib eine Parametrisierung der Menge aller dieser Matrizen. 6

27 Lösung: (a Alle Eigenwerte einer symmetrischen Matrix sind reell, und die Eigenräume zu verschiedenen Eigenwerte sind orthogonal. Da v und v 3 nicht orthogonal zueinander sind, muss somit λ = λ 3 gelten. Wir behaupten, dass dies die einzigen Einschränkungen an die Eigenwerte sind. Genauer zeigen wir, dass für alle λ, µ R eine symmetrische Matrix mit Eigenvektoren v, v, v 3 zu den jeweiligen Eigenwerten λ, µ, µ existiert. Da die Vektoren v, v, v 3 eine Basis von R 3 bilden, ist die Matrix durch diese Eigenwerte dann auch eindeutig bestimmt. Die Eindeutigkeit hilft uns bei der Konstruktion und gibt uns gleichzeitig die Lösung von (b. Zunächst überführen wir die gegebene Basis in eine Orthonormalbasis. Sei dafür v, v 3 eine Orthonormalbasis des Erzeugnisses v, v 3, also zum Beispiel v :=, v 3 :=, und sei v = (,, T die Normalisierung von v. Dann bilden die Vektoren (v, v, v 3 eine Orthonormalbasis von R 3 ; folglich ist die Matrix U = orthogonal. Somit ist für jedes λ, µ R die Matrix λ A λ,µ = U µ U = λ + µ λ + m µ µ λ + µ λ + µ symmetrisch und besitzt die Eigenvektoren v, v, v 3 zu den jeweiligen Eigenwerten λ, µ, µ. (b Nach obiger Rechnung ist es die Menge aller Matrizen λ + µ λ + m µ λ + µ λ + µ für alle λ, µ R Seien A = 3 und B = Bestimme die Jordansche Normalform von A und von B, sowie zugehörige Jordan-Basen von R 5. 7

28 Lösung: (A Wir bestimmen die Jordansche Normalform von A, indem wir die Jordansche Normalform der einzelnen Blöcke ( 4 A :=, A 3 := 3 bestimmen. (A Die Matrix A hat das characteristische Polynom char A (X = X + X + = (X +, also ist der einzige Eigenwert von A. Wegen A + I = ( 4 hat A genau einen Jordanblock zum Eigenwert der Grösse. Sei v ein beliebiger Vektor der nicht in Kern(A + I liegt, also zum Beispiel v := (, T. Dann bildet (A v, v = ( (, T, (, T eine Jordanbasis von R zu A. (A Das charakteristische Polynom von A ist char A (A = X 3 6X + X 8 = (X 3, also ist der einzige Eigenwert. Wir haben A I 3 =, (A I 3 = und (A I 3 k = für alle k 3. Die Matrix A hat also einen 3 3-Jordanblock zum Eigenwert. Sei w R 3 Kern((A I 3 beliebig, also zum Beispiel sei w := (,, T. Dann ist ( (A I 3 w, (A I 3 w, w = ( (,, T, (,, T, (,, T eine Jordanbasis von A. Wir schliessen, dass A die Jordansche Normalform besitzt mit der zugehörigen Jordanbasis,,, 8,.

29 (B Durch Spaltenentwicklung entlang der dritten Spalte erhalten wir das charakteristische Polynom X 8 6 X 9 char B (X = det X X X 6 X 8 6 = (X 3 det X X X 6 ( ( X 8 6 X + 8 = (X 3 det det X X 6 = (X 3 (X + X (X + X = (X 3(X + (X + X. Folglich hat B die Eigenwerte,, und 3. Da die Eigenwerte, und 3 mit geometrischer Vielfachheit auftreten, haben die zugehörigen Jordan-Blöcke Grösse. Es genügt deshalb, die zugehörige Eigenvektoren bzw. Eigenräume zu bestimmen. Wir erhalten Eig (B = (,,,, T Eig (B = (, 3,,, T Eig 3 (B = (,,,, T Wir betrachten die Eigenwert. Wir haben B = und Kern(B = span { (,,, 3, T }. Hau X (B = Kern(B = span { (3, 4,,, T, (,,, 3, T }. Sei w Kern(B Kern(B beliebig, sei zum Beispiel w := (3, 4,,, T. Dann bildet (Bw, w = ( (,,, 3, T, (3, 4,,, T eine Jordanbasis des Hauptraums Hau X (B. Wir schliessen, dass B die Jordansche Normalform 3 9

30 mit der zugehörigen Jordanbasis, 3, 3, 3 4, besitzt. 7. Seien f und g Endomorphismen eines endlich-dimensionalen Vektorraums V. Zeige, dass die Endomorphismen f g und gf dasselbe charakteristische Polynom haben. Lösung: Wähle eine geordnete Basis (v,..., v r von Kern(f und erweitere sie zu einer geordneten Basis B := (v,..., v n von V. Die Vektoren w i := f(v i für alle r < i n bilden dann eine geordnete Basis von Bild(f. Erweitere diese zu einer geordneten Basis B := (w,..., w n von V. Die zugehörige Darstellungsmatrix von f ist dann die folgende Blockmatrix mit s := n r: ( O O M B B(f =. O Schreibe die Darstellungsmatrix von g bezüglich der vertauschten Basen ebenfalls in Blockform: ( A B M BB (g =. C D Die zusammengesetzten Endomorphismen haben dann die Darstellungsmatrizen ( ( ( A B O O O B M BB (gf = M BB (g M B B(f = =. C D O O D M B B (fg = M B B(f M BB (g = I s I s I s ( ( O O A B O C D = ( O O C D Die charakteristische Polynome dieser Blockdreiecksmatrizen hängen von den Einträgen ausserhalb der Blockdiagonale, also von B bzw. C, nicht ab. Sie sind also beide gleich dem charakteristischen Polynom der Blockmatrix ( O O, O D und somit sind sie untereinander gleich. Aliter: Wegen der Funktorialität von Alt r und wegen Spur(F G = Spur(G F für alle Endomorphismen F, G eines endlich-dimensionalen Vektorraums gilt Spur(Alt r (f g = Spur(Alt r (f Alt r (g = Spur(Alt r (g Alt r (f = Spur(Alt r (g f. 3

31 für alle r, also mit n = dim(v und Serie 3 Aufgabe somit char f g (X = = n ( r Spur(Alt r (f gx n r r= n ( r Spur(Alt r (g fx n r r= = char g f (X. 8. Betrachte zwei K-Vektorräume V, W sowie einen Unterraum V V. (a Konstruiere einen natürliche injektiven Homomorphismus V K W V K W. Identifiziere V K W mit seinem Bild. (b Konstruiere einen natürlichen Isomorphismus (V K W /(V K W = (V/V K W. Lösung: Nach Definition von V K W ist die Abbildung V W V K W, (v, w v w bilinear. Somit ist auch ihre Einschränkung V W V K W bilinear. Nach Definition von V K W existiert also eine eindeutige lineare Abbildung i, für die das folgende Diagramm kommutiert: (v, w V W V W (v, w v w V K W i V K W v w Dabei bezeichnen wir das Bild eines Paars (v, w V W in V K W mit v w, zur Unterscheidung von seinem Bild v w in V K W. Die Abbildung i ist natürlich, das heisst, sie hängt von keiner Wahl ab. Nun wählen wir aber eine Basis B von V und erweitern sie zu einer Basis B von V. Ausserdem wählen wir eine Basis C von W. Dann bilden die Elemente b c für alle (b, c B C eine Basis von V K W. Andererseits bilden die Elemente b c für alle (b, c B C eine Basis von V K W. Für diese gilt aber nach Konstruktion i(b c = b c; somit bildet i eine Basis von V K W bijektiv auf eine Teilmenge einer Basis von V K W ab. Daher ist i injektiv, und (a ist gegeigt. Aliter: Die Inklusionsabbildung ι: V V, v v ist linear. Also haben wir eine eindeutige lineare Abbildung i := ι id W : V K W V K W mit i(v w = v w für alle (v, w V W. Fahre weiter wie oben. (b Die kanonische Abbildung π : V V/V, v v + V ist linear. Also haben wir eine eindeutige lineare Abbildung ρ := π id W : V K W (V/V K W mit ρ(v w = (v + V w für alle (v, w V W. 3

32 Wähle Basen B, B, C wie oben. Dann bilden die Elemente π(b = b+v für alle b B := B B eine Basis von V/V. Somit bilden die Elemente (b + V c für alle (b, c B C eine Basis von (V/V K W. Der Klarheit wegen setze B := {b c (b, c B C}, B := {b c (b, c B C}, B := {b c (b, c B C}. Dann ist B eine Basis von V K W und B eine Basis des Unterraums V K W, und es gilt B = B B. Nach Konstruktion gilt für alle (b, c B C { (b + V c falls b B, ρ(b c = falls b B, da dann π(b = ist. Also bildet ρ die Basis B von V K W auf, aber die Basis B eines Komplements bijektiv auf eine Basis von (V/V K W ab. Deshalb ist ρ surjektiv mit Kern V K W. Nach Serie Aufgabe 4d induziert ρ somit den gewünschten Isomorphismus. Da schliesslich ρ von keiner Wahl abhängt, sind ρ und der so gefundene Isomorphismus natürlich. 9. Seien V ein endlichdimensionaler Vektorraum und p eine natürliche Zahl. Ein Element von p V der Form v... v p für Vektoren v,..., v p V heisst rein. Betrachte ein beliebiges nicht-verschwindendes Element α p V. Zeige: Der Kern der Abbildung f α : V p+ V, v v α hat Dimension p, und es gilt Gleichheit genau dann, wenn α rein ist. Lösung: Sei (e,..., e n eine Basis von V, sodass (e,..., e k eine Basis von Kern(f α ist für ein k n. Die induzierte Basis von Λ p V besteht dann aus e i... e ip für alle i <... < i p n. Folglich existieren eindeutige Koeffizienten α i,...,i p R mit α = i <...<i p n Für jedes j {,..., n} sind die Vektoren α i...i p e i... e ip. e j e i... e ip für alle i <... < i p n mit j / {i,..., i p } bis auf Vorzeichen Teil der von (e,..., e n induzierten Basis von p+ V, also insbesondere linear unabhängig. Für jedes j {,..., k} gilt = e j α = α i...i p e j e i... e ip, i <...<i p n j / {i,...,i p} 3

33 mit der linearen Unabhängigkeit von {e j e i... e ip } j / {i,...,i p} also α i...i p = für alle i <... < i p n mit j / {i,..., i p }. Kontrapositiv gesagt bedeutet dies j {i,..., i p } für alle i <... < i p n mit α i...i p. Da j {,..., k} beliebig war, gilt also {,..., k} {i,..., i p } für alle i <... < i p n mit α i...i p. Wegen α gibt es mindestens ein solches α i...i p, und für dieses folgt dim Kern(f α = k p, die erste zu beweisende Aussage. Andererseits haben wir jetzt für ein η Λ p k V {}. α = e... e k η Ist k = p, dann ist η Λ V = K ein Skalar, also α = (ηv... v p rein. Sei schliesslich umgekehrt α = v... v p p V ein nicht-verschwindendes reines Element. Nach Serie 5, Aufgabe c sind die Vektoren v,..., v p dann linear unabhängig. Nach Serie 5, Aufgabe 3 ist weiter Kern(f α = v,..., v p, also gilt dim Kern(f α = p, was zu zeigen war. 3. Betrachte eine 4 -Matrix M = (m ij i 4, j und bezeichne ihre - Minoren mit M ij := det ( m i m i m j m j für alle i < j 4. Existiert eine reelle 4 -Matrix M mit (M, M 3, M 4, M 3, M 4, M 34 gleich (a (, 3, 4, 5, 6, 7? (b (3, 4, 5, 6, 7, 8? (c (, 5, 3, 3,,? (Hinweis: Rechne in Λ R 4! Lösung: Sei (e, e, e 3, e 4 die Standardbasis von R 4. Ist M = (v v mit v, v R 4 eine 4 -Matrix mit Minoren -Minoren M ij für i < j 4, so folgt aus direktem Nachrechnen v v = M ij e i e j. i<j 4 Umgekehrt ist jedes reine äussere Produkt α R 4 von dieser Form. Wir müssen also prüfen ob die Elemente (a α := e e + 3e e 3 + 4e e 4 + 5e e 3 + 6e e 4 + 7e 3 e 4 (b α := 3e e + 4e e 3 + 5e e 4 + 6e e 3 + 7e e 4 + 8e 3 e 4 (c α 3 := e e + 5e e 3 + 3e e 4 + 3e e 3 + e e 4 + e 3 e 4 33

34 rein sind. Nach Serie 5, Aufgabe 5b ist ein Element α R 4 rein genau dann, wenn α = ist. Wir rechnen ( α α = 7 (e e (e 3 e (e e 3 (e e (e e 4 (e e 3 = ( e e e 3 e 4 = 3 e e e 3 e 4 α α = ( e e e 3 e 4 = 5 e e e 3 e 4 α 3 α 3 = ( + 9 e e e 3 e 4 =. Also existiert eine 4 -Matrix mit den angegeben Minoren im Fall (c, aber nicht in den Fällen (a und (b. 3. Zeige: Für je zwei K-Vektorräume V und W und für jedes k gibt es einen natürlichen Isomorphismus ( i j k(v V W = W. i+j=k Lösung: Seien ι V : V V W, v (v, und ι W : W V W, w (, w die natürlichen Inklusionen. Für jedes i + j = k betrachte die Abbildung ϕ ij : V i W j (ι i V,ι j ( V W k W κ k (V W, wobei κ die universelle alternierende Abbildung bezeichnet. Da κ alternierend ist, gilt für alle v,..., v i V und w,..., w j W ϕ ij (v,..., v i, w,..., w j = sgn(σϕ ij (v σ(,..., v σ(i, w,..., w j = sgn(τϕ ij (v,..., v i, w τ(,..., w τ(j, für alle σ S i und τ S j. Durch Anwenden der universellen Eigenschaft von ( i V, κ V und ( j W, κ W erhalten wir eine Abbildung ψ ij : i V j W k(v W mit ϕ ij = ψ ij (κ V, κ W. Aus der Multilinearität von ϕ ij folgt durch direktes Nachprüfen, dass ψ ij bilinear ist. Mit der universellen Eigenschaft des Tensorproduktes ( i V j W, t erhält man somit eine Abbildung η ij : i V j W k(v W mit ψ ij = η ij t. Betrachte die induzierte Abbildung E = i+j=k η ij : i+j=k ( i V j W 34 k (V W.

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

Lösungsskizze zur Wiederholungsserie

Lösungsskizze zur Wiederholungsserie Lineare Algebra D-MATH, HS Prof. Richard Pink Lösungsskizze zur Wiederholungsserie. [Aufgabe] Schreibe die lineare Abbildung f : Q Q 5, x +x +x x x +x +6x f x := x +x +8x x x +x +x. x +x +5x als Linksmultiplikation

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008 KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008 MUSTERLÖSUNG Name: Studiengang: Aufgabe 1 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter die Aufgabenstellung

Mehr

Lineare Algebra II Lösungen zu ausgewählten Aufgaben

Lineare Algebra II Lösungen zu ausgewählten Aufgaben Lineare Algebra II Lösungen zu ausgewählten Aufgaben Blatt 2, Aufgabe 3 a) Wir zeigen, daß das Ideal (2, X) kein Hauptideal in Z[X] ist. (Dieses Ideal besteht aus allen Elementen in Z[X], die von der Form

Mehr

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015 sskizzen der Klausur zur Linearen Algebra im Herbst 5 Aufgabe I. Es sei (G, ) eine Gruppe mit neutralem Element e und M {x G x x e}. Zeigen Sie: (a) Ist G kommutativ, so ist M eine Untergruppe von G. (b)

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

Lineare Algebra für Physiker 11. Übungsblatt

Lineare Algebra für Physiker 11. Übungsblatt Lineare Algebra für Physiker 11. Übungsblatt Fachbereich Mathematik SS 01 Prof. Dr. Matthias Schneider./. Juli 01 Dr. Silke Horn Dipl.-Math. Dominik Kremer Gruppenübung Aufgabe G1 (Minitest) (a) Welche

Mehr

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016, Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

Lösung zu Serie [Aufgabe] Zeige: Das folgende Diagramm kommutiert insgesamt genau dann, wenn alle 6 Teilquadrate kommutieren.

Lösung zu Serie [Aufgabe] Zeige: Das folgende Diagramm kommutiert insgesamt genau dann, wenn alle 6 Teilquadrate kommutieren. Lineare Algebra D-MATH, HS 2014 Prof. Richard Pink Lösung zu Serie 8 1. [Aufgabe] Zeige: Das folgende Diagramm kommutiert insgesamt genau dann, wenn alle 6 Teilquadrate kommutieren. a 1 A 1 a 2 A 2 a 3

Mehr

7.2 Die adjungierte Abbildung

7.2 Die adjungierte Abbildung 7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Prüfung Lineare Algebra 2

Prüfung Lineare Algebra 2 1. Überprüfen Sie die folgenden Aussagen: (1) Zwei reelle symmetrische Matrizen sind genau dann ähnlich, wenn sie die gleiche Signatur haben. (2) Jede symmetrische Matrix ist kongruent zu einer Diagonalmatrix,

Mehr

Abschnitt 1. Jordan Normalform

Abschnitt 1. Jordan Normalform Abschnitt Jordan Normalform Beispiel & Eigenschaften λ λ λ λ 2 λ 2 λ 2 λ 3 Voraussetzung: χ zerfällt Dann: ex. Basis, s.d. Darstellungsmatrix Jordan-Form hat Minimalpolynom µ hat Faktor zu jedem EW in

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

a) Ein Gruppenhomomorphismus von G nach H ist eine Abbildung Φ : G H, sodass für alle g 1, g 2 G die Gleichung Φ(g 1 g 2 ) = Φ(g 1 ) Φ(g 2 )

a) Ein Gruppenhomomorphismus von G nach H ist eine Abbildung Φ : G H, sodass für alle g 1, g 2 G die Gleichung Φ(g 1 g 2 ) = Φ(g 1 ) Φ(g 2 ) I. (4 Punkte) Es seien (G, ) eine Gruppe mit neutralem Element e G und (H, ) eine weitere Gruppe. a) Geben Sie die Definition eines Gruppenhomomorphismus Φ : G H an und beweisen Sie, dass für solch einen

Mehr

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: Lineare Algebra D-MATH, HS 04 Prof. Richard Pink Lösung zu Serie. [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: a) F (X) := X 5 X in R[X] und C[X]. b) F (X) := X 4 +X 3 +X in

Mehr

Aufgabe I.1 (4 Punkte) Gegeben seien die Matrix H := und die Menge L := {A R 4 4 A HA = H} Zeigen Sie:

Aufgabe I.1 (4 Punkte) Gegeben seien die Matrix H := und die Menge L := {A R 4 4 A HA = H} Zeigen Sie: Aufgabe I (4 Punkte Gegeben seien die Matrix und die Menge Zeigen Sie: H := L := {A R 4 4 A HA = H} a L ist bezüglich der Matrizenmultiplikation eine Gruppe b Die Matrizen der Form ( E O, O B wobei E R

Mehr

4.2 Die adjungierte Abbildung

4.2 Die adjungierte Abbildung 4.2. DIE ADJUNGIERTE ABBILDUNG 177 4.2 Die adjungierte Abbildung Die Vektorräume dieses Paragraphen seien sämtlich euklidisch, die Norm kommt jetzt also vom inneren Produkt her, v = v v. Zu f Hom R (V,

Mehr

3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform

3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform LinAlg II Version 1 29. Mai 2006 c Rudolf Scharlau 219 3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform Das Problem der Normalformen für Endomorphismen handelt kurz gesprochen

Mehr

5 Lineare Abbildungen

5 Lineare Abbildungen 5 Lineare Abbildungen Pink: Lineare Algebra HS 2014 Seite 56 5 Lineare Abbildungen 5.1 Definition Gegeben seien Vektorräume U, V, W über einem Körper K. Definition: Eine Abbildung f : V W heisst K-linear,

Mehr

Lösung zu Serie 24. a ij b i b j. v = j=1. v = v j b j.

Lösung zu Serie 24. a ij b i b j. v = j=1. v = v j b j. Lineare Algebra D-MATH, HS 2014 Prof. Richard Pink Lösung zu Serie 24 1. Zeige: Ist 1 n := min{dim K (V 1 ), dim K (V 2 )} < für Vektorräume V 1 und V 2, so ist jeder Tensor in V 1 K V 2 eine Summe von

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

Musterlösung der Klausur zur linearen Algebra II

Musterlösung der Klausur zur linearen Algebra II David Blottière SS 7 Patrick Schützdeller Universität Paderborn Julia Sauter Musterlösung der Klausur zur linearen Algebra II Aufgabe 1 Bestimmen Sie Jordan-Normalformen der folgenden Matrizen, und schreiben

Mehr

Lösung 7: Bilinearformen

Lösung 7: Bilinearformen D-MATH Lineare Algebra II FS 207 Dr. Meike Akveld Lösung 7: Bilinearformen. a). Seien u, u 2 V, λ K, dann gelten nach Voraussetzung: L v (u + λu 2 ) =β(v, u + λu 2 ) = β(v, u ) + β(v, λu 2 ) =β(v, u )

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung

Mehr

23. Die Jordan sche Normalform

23. Die Jordan sche Normalform Chr.Nelius, Lineare Algebra II (SS 2005) 1 23. Die Jordan sche Normalform Wir suchen für einen trigonalisierbaren Endomorphismus unter seinen dreiecksförmigen Darstellungsmatrizen eine Darstellungsmatrix,

Mehr

5 Lineare Abbildungen

5 Lineare Abbildungen 5 Lineare Abbildungen Pink: Lineare Algebra 2014/15 Seite 59 5 Lineare Abbildungen 5.1 Definition Gegeben seien Vektorräume U, V, W über einem Körper K. Definition: Eine Abbildung f : V W heisst K-linear,

Mehr

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153 3.3. SKALARPRODUKTE 153 Hierzu müssen wir noch die Eindeutigkeit (Unabhängigkeit von der Wahl der Basis bzw. des Koordinatensystems) zeigen. Sei hierzu β eine Bilinearform und q die entsprechende quadratische

Mehr

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich Henning Krause Lineare Algebra Julia Sauter SS 27 Klausur 2.9.27 mit Lösungsvorschlag Jan Geuenich Aufgabe (4 Punkte: Sei n N und seien A und B zwei (n n-matrizen über einem Körper K. Wahr Falsch (a Es

Mehr

3.5 Duale Vektorräume und Abbildungen

3.5 Duale Vektorräume und Abbildungen 3.5. DUALE VEKTORRÄUME UND ABBILDUNGEN 103 3.5 Duale Vektorräume und Abbildungen Wir wollen im Folgenden auch geometrische Zusammenhänge mathematisch beschreiben und beginnen deshalb jetzt mit der Einführung

Mehr

9 Vektorräume mit Skalarprodukt

9 Vektorräume mit Skalarprodukt 9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden

Mehr

6. Normale Abbildungen

6. Normale Abbildungen SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische

Mehr

Aufgaben zur linearen Algebra und analytischen Geometrie I

Aufgaben zur linearen Algebra und analytischen Geometrie I Aufgaben zur linearen Algebra und analytischen Geometrie I Es werden folgende Themen behandelt:. Formale und logische Grundlagen 2. Algebraische Grundlagen 3. Vektorräume und LGS 4. Homomorphismen und

Mehr

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW Lineare Gleichungssysteme Lösen Sie folgende Gleichungssysteme über R: a) x + x + x = 6x + x + x = 4 x x x = x 7x x = 7 x x = b) x + x 4x + x 4 = 9 x + 9x x x

Mehr

Steilkurs Lineare Algebra 1 einige wichtige Stationen

Steilkurs Lineare Algebra 1 einige wichtige Stationen Steilkurs Lineare Algebra 1 einige wichtige Stationen Für einen Körper K ist ein K-Vektorraum V eine Menge mit einer kommutativen und assoziativen Verknüpfung + : V V V, für die es ein neutrales Element

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG Aufgabe 1 Es sei K ein Körper, V ein K-Vektorraum, und seien v 1,..., v n V (n N). (a) Definieren Sie, wann die endliche Familie v 1,...,

Mehr

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit.

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit. KAPITEL 8 Normalformen Definition 8.1 (Blockmatrizen). Sind 1. Blockmatrizen A K m 1 n 1,B K m 1 n 2,C K m 2 n 1 und D K m 2 n 2 so nennet man die Matrix X = ( A B C D ) K (m 1+m 2 ) (n 1 +n 2 ) eine Blockmatrix

Mehr

3 Definition: 1. Übungsblatt zur Vorlesung Lineare Algebra I. im WS 2003/2004 bei Prof. Dr. S. Goette

3 Definition: 1. Übungsblatt zur Vorlesung Lineare Algebra I. im WS 2003/2004 bei Prof. Dr. S. Goette 1. Übungsblatt zur Vorlesung Abgabe Donnerstag, den 30.10.03 1 Finden 2 Sei Sie reelle Zahlen a, b, c, so dass a (2, 3, 1) + b (1, 2, 2) + c (2, 5, 3) = (3, 7, 5). (V,, ) ein euklidischer Vektorraum. Zeigen

Mehr

Mathematik für Physiker, Informatiker und Ingenieure

Mathematik für Physiker, Informatiker und Ingenieure Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel V SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

Ferienkurs - Lineare Algebra. Hanna Schäfer. Merkinhalte

Ferienkurs - Lineare Algebra. Hanna Schäfer. Merkinhalte Technische Universität München, Fakultät für Physik Ferienkurs - ineare Algebra Hanna Schäfer 03. März 04 0. inearität. f : M N, x : y = f(x) Merkinhalte. f(x + λy) = f(x) + λf(y), x, y V, λ K 3. ineare

Mehr

Lineare Abbildungen und Darstellungsmatrizen

Lineare Abbildungen und Darstellungsmatrizen KAPITEL 4 Lineare Abbildungen und Darstellungsmatrizen 1. Lineare Abbildungen Definition 4.1 (Lineare Abbildungen). Seien V und W zwei Vektorräume über den selben Körper K. Eine Abbildung f : V W heißt

Mehr

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau 312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind

Mehr

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung Prof. Dr. B. Hanke Dr. J. Bowden Lineare Algebra 2 (SS ) Blatt : Musterlösung Aufgabe. Es sei C (R) der R-Vektorraum der unendlich oft differenzierbaren Funktionen auf R und : C (R) C (R), f f die Abbildung,

Mehr

Musterlösungen zur Linearen Algebra II Übungsklausur

Musterlösungen zur Linearen Algebra II Übungsklausur Musterlösungen zur Linearen Algebra II Übungsklausur Aufgabe. Sei A R 3 3. Welche der folgenden Aussagen sind richtig? a Ist det(a =, dann ist A eine orthogonale Matrix. b Ist A eine orthogonale Matrix,

Mehr

Musterlösungen zur Linearen Algebra II Weihnachtszettel

Musterlösungen zur Linearen Algebra II Weihnachtszettel Musterlösungen zur Linearen Algebra II Weihnachtszettel Aufgabe. Welche der folgenden Matrizen 3 0 0 A = 0 4, B = 3, C = 0 0 0 6 0 0 0 sind über R und welche über C diagonalisierbar? Bestimmen Sie dazu

Mehr

Klausur Lineare Algebra I & II

Klausur Lineare Algebra I & II Prof. Dr. G. Felder, Dr. Thomas Willwacher ETH Zürich, Sommer 2010 D MATH, D PHYS, D CHAB Klausur Lineare Algebra I & II Bitte ausfüllen! Name: Vorname: Studiengang: Bitte nicht ausfüllen! Aufgabe Punkte

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren

Mehr

Übungen zu Lineare Algebra und Geometrie 1

Übungen zu Lineare Algebra und Geometrie 1 Übungen zu Lineare Algebra und Geometrie 1 Andreas Čap Sommersemester 2015 Wiederholung grundlegender Begriffe (1 Bestimme Kern und Bild der linearen Abbildung f : R 3 R 3, die gegeben ist durch f(x, y,

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=

Mehr

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q:

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q: Lineare Algebra D-MATH, HS 214 Prof Richard Pink Serie 5 1 [Aufgabe] Invertieren Sie folgende Matrizen über Q: 1 a) 1 1 1 1 1 2 1 1 1 b) 1 2 1 1 1 1 2 1 1 1 1 2 1 2 3 1 c) 1 3 3 2 2 1 5 3 1 2 6 1 [Lösung]

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Lineare Algebra I Zusammenfassung

Lineare Algebra I Zusammenfassung Prof. Dr. Urs Hartl WiSe 10/11 Lineare Algebra I Zusammenfassung 1 Vektorräume 1.1 Mengen und Abbildungen injektive, surjektive, bijektive Abbildungen 1.2 Gruppen 1.3 Körper 1.4 Vektorräume Definition

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 39 Definitheit von Bilinearformen Wir möchten die symmetrischen Bilinearformen über den reellen Zahlen klassifizieren.

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Wintersemester 2014/15 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax

Mehr

1 Lineare Abbildungen

1 Lineare Abbildungen 1 Lineare Abbildungen Definition 1 Sei K ein Körper und V und W K-Vektoräume. Eine Abbildung f : V W heisst linear oder Homomoprhismus, wenn gilt: fv 1 + v 2 = fv 1 + fv 2 v 1, v 2 V fλv = λfv λ K, v V

Mehr

6 Die Schursche Normalform und einige Klassen von Matrizen

6 Die Schursche Normalform und einige Klassen von Matrizen ME Lineare Algebra HT 28 111 6 Die Schursche Normalform und einige Klassen von Matrizen 61 Die Schur-Normalform und Hauptvektoren Für nichtdiagonalisierbare Matrizen gibt es andere Normalformen: Jordan-

Mehr

43911: Lineare Algebra/Geometrie Prüfungstermin Herbst 2015 Lösungsvorschlag

43911: Lineare Algebra/Geometrie Prüfungstermin Herbst 2015 Lösungsvorschlag Dr. Erwin Schörner 49: Lineare Algebra/Geometrie Prüfungstermin Herbst 5 Lösungsvorschlag I.. a Die in Abhängigkeit vom Parameter t R für t t A t t t R und b R t + t t + t zu betrachtende Menge F t { x

Mehr

Lineare Algebra II 11. Übungsblatt

Lineare Algebra II 11. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross 9 / Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest (Bearbeitung innerhalb von Minuten und ohne Benutzung des

Mehr

Mat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1

Mat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1 Aufgabe. Bestimmen Sie das Exponential expa) der Matrix ) 5 6 A = Mat, R). 4. Wir bestimmen das charakterische Polynom f A t) = t t = t )t + ). ). Eigenvektor zu EW ist v = ). Eigenvektor zu EW ist v =

Mehr

4 Vektorräume. 4.1 Definition. 4 Vektorräume Pink: Lineare Algebra 2014/15 Seite 48. Sei K ein Körper.

4 Vektorräume. 4.1 Definition. 4 Vektorräume Pink: Lineare Algebra 2014/15 Seite 48. Sei K ein Körper. 4 Vektorräume Pink: Lineare Algebra 2014/15 Seite 48 4 Vektorräume 4.1 Definition Sei K ein Körper. Definition: Ein Vektorraum über K, oder kurz ein K-Vektorraum, ist ein Tupel (V,+,, 0 V ) bestehend aus

Mehr

2.11 Eigenwerte und Diagonalisierbarkeit

2.11 Eigenwerte und Diagonalisierbarkeit 2.11. EIGENWERTE UND DIAGONALISIERBARKEIT 127 Die Determinante eines Endomorphismus Wir geben uns jetzt einen endlichen erzeugten K-Vektorraum V und einen Endomorphismus ϕ : V V vor. Wir wollen die Determinante

Mehr

Lineare Algebra II 6. Übungsblatt

Lineare Algebra II 6. Übungsblatt Lineare Algebra II 6 Übungsblatt Fachbereich Mathematik SS 2011 Prof Dr Kollross 18/19 Mai 2011 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minimalpolynom) Bestimmen Sie das Minimalpolynom der

Mehr

Lineare Algebra I (WS 13/14)

Lineare Algebra I (WS 13/14) Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 15.11.2013 Alexander Lytchak 1 / 12 Erinnerung Eine Abbildung f : V W zwischen reellen Vektorräumen ist linear, wenn

Mehr

Lineare Algebra Weihnachtszettel

Lineare Algebra Weihnachtszettel Lineare Algebra Weihnachtszettel 4..008 Die Aufgaben auf diesem Zettel sind zum Üben während der Weihnachtspause gedacht, sie dienen der freiwilligen Selbstkontrolle. Die Aufgaben müssen nicht bearbeitet

Mehr

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar. Lineare Algebra I Prof. Dr. M. Rost Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar http://www.math.uni-bielefeld.de/~rost/la1 Erinnerungen und Ergänzungen zur Vorlesung: Hinweis:

Mehr

D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 011 Tom Ilmanen. Musterlösung 12. a ij = v i,av j (A ist symmetrisch) = Av i,v j

D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 011 Tom Ilmanen. Musterlösung 12. a ij = v i,av j (A ist symmetrisch) = Av i,v j D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 0 Tom Ilmanen Musterlösung 2. Falls b := (v,,v n ) eine Orthonormalbasis von V ist, dann lassen sich die Komponenten von einem Vektor v = n i= t i v i bezüglich

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof. Dr. H. Brenner Osnabrück WS 0/06 Lineare Algebra und analytische Geometrie I Vorlesung... und ein guter Lehrer kann auch einem schlechten Schüler was beibringen Beziehung zwischen Eigenräumen Wir

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof. Dr. H. Brenner Osnabrück WS 215/216 Lineare Algebra und analytische Geometrie I Vorlesung 27 In der letzten Vorlesung haben wir die Haupträume zu einem Eigenwert λ zu einem Endomorphismus ϕ als Kern

Mehr

Lösung zu Serie 9. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 9. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 2014 Prof. Richard Pink Lösung zu Serie 9 1. [Aufgabe] Sei f : V W eine lineare Abbildung. Zeige: a) Die Abbildung f ist injektiv genau dann, wenn eine lineare Abbildung g :

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA I 22. Februar 2008

KLAUSUR ZUR LINEAREN ALGEBRA I 22. Februar 2008 KLAUSUR ZUR LINEAREN ALGEBRA I. Februar 008 MUSTERLÖSUNG Diese Klausur wurde je nach Sitzreihe in zwei verschiedenen Versionen geschrieben. Die andere Version unterscheidet sich von der vorliegenden jedoch

Mehr

Lineare Algebra II. Inhalt und Begriffe. Lineare Algebra II p. 1

Lineare Algebra II. Inhalt und Begriffe. Lineare Algebra II p. 1 Lineare Algebra II Inhalt und Begriffe Lineare Algebra II p. 1 Inhaltsverzeichnis Kapitel II Grundlagen der Linearen Algebra... Lineare Algebra II p. 2 Inhaltsverzeichnis Kapitel II Grundlagen der Linearen

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Lineare Algebra und Analytische Geometrie I für die Fachrichtung Informatik

Lineare Algebra und Analytische Geometrie I für die Fachrichtung Informatik Universität Karlsruhe (TH) Institut für Algebra und Geometrie Dr. Klaus Spitzmüller Dipl.-Inform. Wolfgang Globke Lineare Algebra und Analytische Geometrie I für die Fachrichtung Informatik Lösungen zum

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

Prüfung Lineare Algebra , B := ( ), C := 1 1 0

Prüfung Lineare Algebra , B := ( ), C := 1 1 0 1. Es seien 1 0 2 0 0 1 3 0 A :=, B := ( 1 2 3 4 ), C := 1 1 0 0 1 0. 0 0 0 1 0 0 1 0 0 0 0 Welche der folgenden Aussagen ist richtig? A. A und C haben Stufenform, B nicht. B. A und B haben Stufenform,

Mehr

Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 2016

Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 2016 Name, Vorname Matrikel-Nr. Aufg. Aufg.2 Aufg.3 Aufg.4 Σ Note bzw. Kennzeichen Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 206 Bearbeiten Sie bitte

Mehr

Lineare Algebra I/II LVA ,

Lineare Algebra I/II LVA , Lineare Algebra I/II LVA 401-1151-00,401-1152-00 Prof. G. Wüstholz, C. Fuchs Lösungen zur Basisprüfung, HS08/FS09 09.02.2010 1. a) (1 Punkt) Wir beginnen mit dem charakteristischen Polynom der Matrix A:

Mehr

Kapitel 3 Lineare Algebra

Kapitel 3 Lineare Algebra Kapitel 3 Lineare Algebra Inhaltsverzeichnis VEKTOREN... 3 VEKTORRÄUME... 3 LINEARE UNABHÄNGIGKEIT UND BASEN... 4 MATRIZEN... 6 RECHNEN MIT MATRIZEN... 6 INVERTIERBARE MATRIZEN... 6 RANG EINER MATRIX UND

Mehr

4 Lineare Abbildungen Basisdarstellungen

4 Lineare Abbildungen Basisdarstellungen 4 Lineare Abbildungen Basisdarstellungen (4.1) Seien V,W endlich dimensionale K-Vektorräume, und sei T : V W linear. Sei {v 1,...,v } Basis von V und {w 1,...,w M } Basis von W. Sei T (v j ) = M a kj w

Mehr

Übungen zu Lineare Algebra und Geometrie für LAK

Übungen zu Lineare Algebra und Geometrie für LAK Übungen zu Lineare Algebra und Geometrie für LAK Andreas Cap Wintersemester 2010/11 Wiederholung grundlegender Begriffe (1) Bestimme Kern und Bild der linearen Abbildung f : R 3 R 3, die gegeben ist durch

Mehr

Übungen zur Vorlesung Lineare Algebra

Übungen zur Vorlesung Lineare Algebra Übungen zur Vorlesung Lineare Algebra Institut für Reine Mathematik WS 2009/10 & SS 2010 Kapitel 1. Vektorräume Was ist ein Vektorraum? Sei X und K ein Körper. Wie macht man Abb (X, K) zu einem K -Vektorraum?

Mehr

44 Spektralzerlegung normaler Operatoren im endlichdimensionalen Fall

44 Spektralzerlegung normaler Operatoren im endlichdimensionalen Fall 44 Spektralzerlegung normaler Operatoren im endlichdimensionalen Fall 44 1 Zusammenfassung Dieser Paragraf richtet sich im Aufbau weitgehend nach 42, um den Zerlegungssatz (44.7) analog zum Satz über die

Mehr

Leitfaden 34. , dies ist eine reelle symmetrische Matrix, also diagonalisierbar.

Leitfaden 34. , dies ist eine reelle symmetrische Matrix, also diagonalisierbar. Leitfaden 34 5. Euklidsche und unitäre Räume (und selbstadjungierte, orthogonale, unitäre, normale Endomorphismen). 5.1. Reelle symmetrische Matrizen sind diagonalisierbar. Satz: Reelle symmetrische Matrizen

Mehr

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ)) Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 18 Vielfachheiten und diagonalisierbare Abbildungen Satz 18.1. Es sei K ein Körper und es sei V ein endlichdimensionaler K- Vektorraum.

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

Musterlösung zur Serie 10

Musterlösung zur Serie 10 D-MATH, D-PHYS, D-CHAB Lineare Algebra II FS 1 Prof. Giovanni Felder, Thomas Willwacher Musterlösung zur Serie 1 1. a) Zur Erinnerung: Eine Äquivalenzrelation auf einer Menge M ist eine Relation, die die

Mehr

1. Hausübung ( )

1. Hausübung ( ) Übungen zur Vorlesung»Lineare Algebra B«(SS ). Hausübung (8.4.) Aufgabe Es seien σ (3, 6, 5,, 4, 8,, 7) und τ (3,,, 4, 6, 5, 8, 7). Berechnen Sie σ τ, τ σ, σ, τ, die Anzahl der Inversionen von σ und τ

Mehr

Lineare Algebra II Lösungen der Aufgaben 42 und 43

Lineare Algebra II Lösungen der Aufgaben 42 und 43 D Blottière SS 7 P Schützdeller Universität Paderborn Lineare Algebra II Lösungen der Aufgaben 4 und 43 Aufgabe 4 : Bemerkungen : Es sei V ein n-dimensionaler Vektorraum über einem Körper K und β : V V

Mehr

Leitfaden 20. t = dim V dimu.

Leitfaden 20. t = dim V dimu. Leitfaden 2 Einschub (Nachtrag zur LA I): Komplementärbasen Sei V ein Vektorraum, U ein Unterraum Eine Folge (v,, v t ) von Vektoren aus V heißt linear unabhängig modulo U, falls folgendes gilt: sind p

Mehr

Skalarprodukte. Kapitel Bilinearformen

Skalarprodukte. Kapitel Bilinearformen Kapitel 11 Skalarprodukte Das bekannte Skalarprodukt auf dem n dimensionalen Euklidischen Raum R n ist ein Spezialfall einer für viele Bereiche der linearen Algebra und der Funktionalanalysis außerordentlich

Mehr

Klausur zur Vorlesung Lineare Algebra II

Klausur zur Vorlesung Lineare Algebra II Universität zu Köln Sommersemester 06 Mathematisches Institut 9. Juli 06 Prof. Dr. P. Littelmann Dr. Teodor Backhaus Klausur zur Vorlesung Lineare Algebra II Bearbeitungszeit 80 Minuten Bitte geben Sie

Mehr

Lineare Algebra II. Sommersemester Wolfgang Ebeling

Lineare Algebra II. Sommersemester Wolfgang Ebeling Lineare Algebra II Sommersemester 2006 Wolfgang Ebeling 1 c Wolfgang Ebeling Institut für Mathematik Universität Hannover Postfach 6009 30060 Hannover E-mail: ebeling@mathuni-hannoverde 1 Euklidische und

Mehr

Lineare Algebra II, Lösungshinweise Blatt 9

Lineare Algebra II, Lösungshinweise Blatt 9 Prof Dr Katrin Wendland Priv Doz Dr Katrin Leschke Christoph Tinkl SS 27 Lineare Algebra II, Lösungshinweise Blatt 9 Aufgabe (4 Punkte) Sei 2 3 4 A = 5 6 Berechnen Sie A k für alle k N und verifizieren

Mehr

L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert

L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors

Mehr