Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung T f : V V existiert mit x, y V : fx, y = T f x, y. Lösung: Sei B = v 1,..., v n eine Orthonormalbasis von V,,. Falls eine Abbildung T f mit der gewünschten Eigenschaft existiert, so folgt M BB T f = v j, T f v i = fv i, v j. 1 i,j n 1 i,j n Das zeigt die Eindeutigkeit von T f. Definieren wir umgekehrt die Abbildung T f EndV als den eindeutigen Endomorphismus mit Darstellungsmatrix M BB T f = fv i, v j, 1 i,j n so gilt für alle Elemente x = i a iv i und y = k b kv k in V T f x, y = a i fv i, v j v j, b k v k i j k = i,j,k a i b k fv i, v j δ jk = a i b j fv i, v j i,j = f a i v i, b j v j i j = fx, y. Damit ist T f die gewünschte Abbildung. 2. a Sei V,, ein unitärer Vektorraum. Zeige die Polarisationsformel x, y = 1 für alle x, y V. x + y 2 x y 2 i x + iy 2 + i x iy 2 1
b Sei f : V V eine lineare Abbildung. Zeige Lösung: a Für alle x, y V gilt f ist unitär v V : fv, fv = v, v 1 x + y 2 x y 2 i x + iy 2 + i x iy 2 = 1 x, x + x, y + y, x + y, y x, x x, y y, x + y, y i x, x + x, iy + iy, x + iy, iy +i x, x x, iy iy, x + iy, iy = 1 2 x, y + 2 y, x 2i x, iy 2i iy, x }{{}}{{} 2 x,y 2 y,x = x, y. b Die Richtung folgt direkt aus der Definition einer unitären Abbildung. Angenommen für f gilt v V : fv, fv = v, v, dann folgt aus der Polarisationsformel fv, fw = 1 fv + fw 2 fv fw 2 + i fv + ifw 2 i fv ifw 2 = 1 fv + w 2 fv w 2 + i fv + iw 2 i fv iw 2 = 1 v + w 2 v w 2 + i v + iw 2 i v iw 2 = v, w für alle v, w V, also ist f unitär. 3. Sei n 1 und sei ζ := e 2πi/n. Zeige, dass die komplexe Matrix unitär ist. A := 1 n ζ k 1l 1 Lösung: Für alle a Z mit 0 < a < n gilt l=1 1 k,l n ζ al 1 = ζan 1 ζ a 1 = 0 2
und für a = 0 gilt Wir erhalten also für alle a Z mit a < n. ζ al 1 = 1 = n. l=1 l=1 ζ at 1 = nδ a0 t=1 Mit A = A T = ζ m 1l 1 / n 1 l,m n folgt AA km = l 1 ζ k 1l 1 1 n ζ m 1l 1 = 1 n n ζ k ml 1 = δ km l für alle k, m, also AA = I n.. Sei T : V V ein Endomorphismus eines endlichdimensionalen unitären Vektorraums V,,, sodass gilt x, y V : x, y = 0 = T x, T y = 0. Zeige, dass eine unitäre Abbildung S : V V und ein c C existiert mit T = c S. Lösung: Sei f := T T und sei x V \ {0} ein beliebiger Vektor. Dann gilt y V : x, y = 0 = fx, y = 0, oder dazu äquivalent, dass fx orthogonal ist zu allen Vektoren, die orthogonal zu x sind. Es folgt fx x = x, also fx = λx für ein λ C. Damit ist jeder nicht-verschwindende Vektor aus V ein Eigenvektor von f, oder äquivalent dazu, f bildet jeden eindimensionalen Unterraum wieder in sich ab. Mit der Lösung zur Zwischenprüfung, Aufgabe 13, Implikation c b folgt f = b id V für ein b C. Die Abbildung f ist selbst-adjungiert und wegen v V : fv, v = T v, T v 0 zudem positiv-semidefinit. Es folgt b 0. Im Fall b = 0 ist T = 0 und die Aussage der Aufgabe gilt mit c := 0 und S := id V. Im Fall b > 0, sei c := b und S := T/ b. Dann ist wegen S S = T T/b = f/b = id V die Abbildung S unitär und es gilt T = cs. 5. Zeige je einmal mit und ohne den Spektralsatz, dass das charakteristische Polynom jeder hermiteschen Matrix reelle Koeffizienten hat. Lösung: mit Spektralsatz Jede hermitesche Matrix A ist nach dem Spektralsatz ähnlich zu einer Diagonalmatrix D mit reellen Diagonaleinträgen. Das 3
charakteristische Polynom P A X von A ist invariant unter Ähnlichkeit. Folglich ist es gleich dem charakteristischen Polynom der Matrix D, welche nur reelle Einträge besitzt. Also hat P A X reelle Koeffizienten. Lösung 2. ohne Spektralsatz Für jedes komplexe Polynom ϕx = a i X i definieren wir das komplex konjugierte Polynom durch ϕx := a i X i. Diese Konstruktion hat die Grundeigenschaft ϕ ψ = ϕ ψ. Für eine beliebige hermitesche Matrix A mit charakteristischen Polynom P A X = i a ix i gilt dann folglich a i = a i, also a i R für alle i. P A X = detxi n A = det XI n A = det XI n A = det XI n A = P A X, 6. Im Abschnitt 10.11 der Vorlesung wurde der folgende Satz präsentiert. Führe seinen Beweis aus in Analogie zu dem entsprechenden Beweis im reellen Fall. Satz: Für jede hermitesche n n-matrix A = a kl k,l=1,...,n sind äquivalent: a Die Matrix A ist positiv definit. b Alle Eigenwerte von A sind positiv. c Es existiert eine invertierbare Matrix B mit A = B B. d Es existiert eine invertierbare obere Dreiecksmatrix R mit A = R R. Cholesky-Zerlegung e Es existiert eine invertierbare hermitesche Matrix C mit A = C C = C 2. f Die Determinante der Matrix A m := a kl k,l=1,...,m 1 m n. Hauptminorenkriterium ist positiv für jedes Lösung: e c folgt mit B := C. d c folgt mit B := R. c a: Sei B wie in c; dann ist für alle x C n mit x 0 auch Bx 0 und folglich x Ax = x B Bx = Bx Bx = Bx 2 > 0. Also ist A positiv definit. a d: Ist A positiv definit, so ist γ : C n C n C, x, y x Ay ein Skalarprodukt. Auf dieses und die Standardbasis e 1,..., e n von C n wenden wir das Gram-Schmidt-Orthogonalisierungsverfahren an und erhalten eine Orthonormalbasis b 1,..., b n bezüglich γ sowie Koeffizienten a kl C und a ll R >0, so dass für alle 1 l n gilt
e l = l a kl b k. k=1 Mit a kl := 0 für alle 1 l < k n ist dann R := a kl k,l eine invertierbare obere Dreiecksmatrix. Für die Matrix B := b 1,..., b n gilt dann I n = e 1,..., e n = b 1,..., b n R = BR. Dass b 1,..., b n eine Orthonormalbasis bezüglich γ ist, bedeutet andererseits B AB = b kab l k,l = δ kl k,l = I n. Zusammen folgt daraus R R = R I n R = R B ABR = BR ABR = I nai n = A. a b: Nach dem Spektralsatz existiert eine unitäre Matrix Q mit D := Q 1 AQ = Q AQ = diagλ 1,..., λ n für gewisse λ k R. Insbesondere ist A ähnlich zu D, und die λ k sind genau die Eigenwerte von A. Da Q invertierbar ist, ist jeder von Null verschiedene Vektor in C n gleich Qz für einen von Null verschiedenen Vektor z C n. Für diesen gilt dann weiter Qz AQz = z Q AQz = z Dz = k λ k z k z k = k λ k z k 2. Dass A positiv definit ist, ist also äquivalent dazu, dass dieser Ausdruck immer > 0 ist. Im Fall z = e k ist dieser Ausdruck gleich λ k, also muss jedes λ k > 0 sein; woraus die Implikation a b folgt. Ist umgekehrt jedes λ k > 0, so ist die rechte Seite immer 0 und = 0 nur, wenn alle z k = 0 sind. Da wir dies bereits ausgeschlossen haben, folgt die Implikation a b. b e: Seien Q und D = diagλ 1,..., λ n wie soeben, wobei alle λ k R >0 sind. Setze D := diag λ 1,..., λ n und C := QD Q. Dann gilt C = QD Q = Q D Q = QD Q = C, also ist C hermitesch. Weiter gilt C 2 = QD Q QD Q = QD Q QD Q = QD I n D Q = QD D Q = QDQ = QQ AQQ = QQ AQQ = I n AI n = A. a f: Betrachte die injektive lineare Abbildung ε: C m C n, x x 0 und die Sesquilinearform C m C m C, x, y εx Aεy. Dass A hermitesch und positiv definit ist, impliziert, dass auch diese hermitesch und positiv definit ist. Aus der Definition von A m folgt aber εx Aεy = 5
x A m y. Also ist A m hermitesch und positiv definit. Die bereits bewiesene Implikation a b auf A m angewendet zeigt daher, dass alle Eigenwerte von A m reell und positiv sind. Das Produkt dieser Eigenwerte ist aber deta m und somit ebenfalls reell positiv. f a: Wir benutzen Induktion über n. Im Fall n = 0 ist nichts zu beweisen. Sei also n > 0 und die Implikation bereits bewiesen für n 1. Dann gilt die Implikation insbesondere für A n 1. Da die Hauptminoren von A n 1 genau die Hauptminoren deta m für 1 m n 1 von A sind, ist also A n 1 positiv definit. Die bereits bewiesene Implikation a c auf A n 1 angewendet zeigt daher, dass A n 1 = B B ist für eine invertierbare n 1 n 1-Matrix B. Mit der n n-blockmatrix C := B 1 0 0 1 gilt dann C AC = = B 1 0 0 In 1. An 1 B 1 0 0 = B 1 A n 1 B 1 Wegen C AC = C A C = C AC ist diese Matrix wieder hermitesch. Also gilt genauer C In 1 w AC = w λ für ein w C n 1 sowie ein λ = λ C, also ein λ R. Mit D := I n 1 w 1 folgt dann E := D C ACD = In 1 0 = 0 µ In 1 0 w 1 mit µ := λ w w R. Für dieses gilt dann In 1 w w λ In 1 w 0 1 µ = dete = detd C ACD = detd detc deta detc detd = detd detc deta detc detd = deta detd 2 detc 2. Da D und C invertierbar sind, ist detd detc 0 und somit detd 2 detc 2 > 0. Andererseits bedeutet der Spezialfall m = n der Voraussetzung f, dass deta > 0 ist. Also ist µ > 0. Somit ist die Matrix E positiv definit, zum Beispiel wegen der bereits bewiesenen Implikation b a. Da Positiv- Definitheit unter Basiswechsel invariant ist, ist also auch A positiv definit, was zu zeigen war. 7. Seien V und W endlichdimensionale unitäre Vektorräume und sei f : V W eine lineare Abbildung. Die Singulärwerte von f sind definiert als die Quadratwurzeln der positiven Eigenwerte von f f. Zeige: Ein Element σ R >0 ist ein Singulärwert von f genau dann, wenn gilt: Lösung: v V \ {0}, w W \ {0}: fv = σw f w = σv. 6
Sei σ ein Singulärwert von f. Dann gibt es einen Vektor v V \ {0} mit f fv = σ 2 v. Für w := fv/σ folgt also fv = σw und f w = f fv/σ = σv. Sei σ > 0 und seien v V \ {0} und w W \ {0} mit fv = σw und f w = σv. Wegen f fv = f σw = σ 2 v ist σ 2 ein Eigenwert von f f, also σ 2 = σ ein Singulärwert von f. 7