Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Ähnliche Dokumente
klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

3.3 Eigenwerte und Eigenräume, Diagonalisierung

Übungen zum Ferienkurs Lineare Algebra WS 14/15

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

A Matrix-Algebra. A.1 Definition und elementare Operationen

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Lösungsvorschläge zu ausgewählten Übungsaufgaben aus Storch/Wiebe: Lehrbuch der Mathematik Band 2, 2.Aufl. (Version 2010), Kapitel 5

11 Normalformen von Matrizen

6 Symmetrische Matrizen und quadratische Formen

Erinnerung/Zusammenfassung zu Abbildungsmatrizen

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik

Ausgewählte Aufgaben zum Grundbereich des Staatsexamens in Mathematik. Lineare Algebra. zusammengestellt von

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Eigenwerte und Eigenvektoren von Matrizen

Lineare Algebra - alles was man wissen muß

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u.

Musterlösungen zur Linearen Algebra II Blatt 5

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

TECHNISCHE UNIVERSITÄT MÜNCHEN. Abzählbarkeit, Injektivität, Sürjektivität und Bijektivität

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

Berechnung von Eigenwerten und Eigenvektoren

2 Die Darstellung linearer Abbildungen durch Matrizen

Mathematik III für Ingenieure

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Leitfaden Lineare Algebra: Determinanten

6 Lösung linearer Gleichungssysteme I: LR-Zerlegung und Verwandte

Übungsaufgaben LAAG I. für Lehramtsstudenten GS, MS, BS

Aufgabe 1. Sei A Mat(n n, R) mit Eigenwert 3. Dann gilt: Eig(A, 3) = Kern(A + 3E n ).

Lineare Algebra und analytische Geometrie II (Unterrichtsfach)

Risikomessung und Value at Risk Wintersemester 2013/14

Computer Vision SS Skript

Numerische Behandlung des Eigenwertproblems

Grundlagen der Mathematik II

7 Die Determinante einer Matrix

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

2 Lineare Gleichungssysteme

Höhere Mathematik I. 1. Gruppenübung zur Vorlesung Prof. Dr. M. Stroppel. Winter 2007/08

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

KAPITEL 3. Lineare Gleichungssysteme, direkte Lösungsverfahren

Statistische Methoden

GNS-Konstruktion und normale Zustände. 1 Rückblick. 2 Beispiel für einen Typ-II 1 -Faktor

Lineare Algebra für Informatiker TUM Sommersemester 2011 Dozent: Christian Pötzsche

Fakultät für Mathematik und Informatik. Seminar über angewandte Analysis. Sommersemester Der Kreissatz von Gerschgorin

Kernel, Perceptron, Regression. Erich Schubert, Arthur Zimek KDD Übung

4. Übungsblatt Matrikelnr.:

Lineare Gleichungssysteme

Definition 27 Affiner Raum über Vektorraum V

Optimalitätskriterien

Matrixalgebra. mit einer Einführung in lineare Modelle. Stefan Lang Institut für Statistik Ludwigstrasse 33

ax 2 + bx + c = 0, (4.1)

Mathematik 1 für Wirtschaftsinformatik

Vorlesung bzw. 23. Januar Determinanten 1. Cramersche Regel

Beispiel Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) =

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

Quantenautomaten und das Cut-Point-Theorem für beschränkte erkennbare Potenzreihen

Beispiel zur Lösung eines Gleichungssystems : 6 y + z = x + 3 y 3 z = x 3 y =

Satz 25 A sei eine (n n)-matrix über K

Statistik II. Universität Ulm Abteilung Stochastik. Vorlesungsskript Prof. Dr. Volker Schmidt Stand: Wintersemester 2007/08

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

2.1 Codes: einige Grundbegriffe

Orthogonale Funktionenräume

Definition und Eigenschaften Finiter Elemente

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

Modern Methods in Nonlinear Optimization

Bestimmung einer ersten

Minimale Darstellungen, Kommutator- und Fixräume, projektive Geometrie

Lineare Gleichungssysteme. Lineare Gleichungssysteme. LR Zerlegung ohne Pivotsuche. Zerlegung regulärer Matrizen

11. Primfaktorzerlegungen

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme

Gleichungen - Aufgabenstellung und Lösungsstrategien

Technische Universität Berlin Institut für Mathematik. Bachelorarbeit im Studiengang Technomathematik

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli Fachbereich für Mathematik und Statistik Universität Konstanz

Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination. Lehrstuhl für Angewandte Mathematik Wintersemester 2009/

Modellierung, Simulation, Optimierung Diskretisierung 1

Kapitel 4. Euklidische Ringe und die Jordansche Normalform. 4.1 Euklidische Ringe

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse Lösung 10 Punkte

Elemente der Analysis II

Lösungen zum 3. Aufgabenblatt

Quelle/Referenz für dieses Kapitel: Springborn [2, Lectures 28/29] hx a,vi

Extremwertverteilungen

Vorlesung. Funktionen/Abbildungen 1

Galerkin-Diskretisierung von Eigenwertproblemen für partielle Differentialgleichungen

Im Jahr t = 0 hat eine Stadt Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg

Kapitel 15. Lösung linearer Gleichungssysteme

II. Klein Gordon-Gleichung

Algebraische Kurven. Vorlesung 26. Die Schnittmultiplizität

7 Lineare Abbildungen und Lineare Gleichungssysteme

KAPITEL 0. Einführung

Noethersche und artinsche Ringe

Bildverarbeitung Herbstsemester Kanten und Ecken

SO(2) und SO(3) Martin Schlederer. 06. Dezember 2012

Lineare Gleichungssysteme

Hilbertraum-Methoden

Frohe Weihnachten und ein gutes neues Jahr!

Transkript:

Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung T f : V V existiert mit x, y V : fx, y = T f x, y. Lösung: Sei B = v 1,..., v n eine Orthonormalbasis von V,,. Falls eine Abbildung T f mit der gewünschten Eigenschaft existiert, so folgt M BB T f = v j, T f v i = fv i, v j. 1 i,j n 1 i,j n Das zeigt die Eindeutigkeit von T f. Definieren wir umgekehrt die Abbildung T f EndV als den eindeutigen Endomorphismus mit Darstellungsmatrix M BB T f = fv i, v j, 1 i,j n so gilt für alle Elemente x = i a iv i und y = k b kv k in V T f x, y = a i fv i, v j v j, b k v k i j k = i,j,k a i b k fv i, v j δ jk = a i b j fv i, v j i,j = f a i v i, b j v j i j = fx, y. Damit ist T f die gewünschte Abbildung. 2. a Sei V,, ein unitärer Vektorraum. Zeige die Polarisationsformel x, y = 1 für alle x, y V. x + y 2 x y 2 i x + iy 2 + i x iy 2 1

b Sei f : V V eine lineare Abbildung. Zeige Lösung: a Für alle x, y V gilt f ist unitär v V : fv, fv = v, v 1 x + y 2 x y 2 i x + iy 2 + i x iy 2 = 1 x, x + x, y + y, x + y, y x, x x, y y, x + y, y i x, x + x, iy + iy, x + iy, iy +i x, x x, iy iy, x + iy, iy = 1 2 x, y + 2 y, x 2i x, iy 2i iy, x }{{}}{{} 2 x,y 2 y,x = x, y. b Die Richtung folgt direkt aus der Definition einer unitären Abbildung. Angenommen für f gilt v V : fv, fv = v, v, dann folgt aus der Polarisationsformel fv, fw = 1 fv + fw 2 fv fw 2 + i fv + ifw 2 i fv ifw 2 = 1 fv + w 2 fv w 2 + i fv + iw 2 i fv iw 2 = 1 v + w 2 v w 2 + i v + iw 2 i v iw 2 = v, w für alle v, w V, also ist f unitär. 3. Sei n 1 und sei ζ := e 2πi/n. Zeige, dass die komplexe Matrix unitär ist. A := 1 n ζ k 1l 1 Lösung: Für alle a Z mit 0 < a < n gilt l=1 1 k,l n ζ al 1 = ζan 1 ζ a 1 = 0 2

und für a = 0 gilt Wir erhalten also für alle a Z mit a < n. ζ al 1 = 1 = n. l=1 l=1 ζ at 1 = nδ a0 t=1 Mit A = A T = ζ m 1l 1 / n 1 l,m n folgt AA km = l 1 ζ k 1l 1 1 n ζ m 1l 1 = 1 n n ζ k ml 1 = δ km l für alle k, m, also AA = I n.. Sei T : V V ein Endomorphismus eines endlichdimensionalen unitären Vektorraums V,,, sodass gilt x, y V : x, y = 0 = T x, T y = 0. Zeige, dass eine unitäre Abbildung S : V V und ein c C existiert mit T = c S. Lösung: Sei f := T T und sei x V \ {0} ein beliebiger Vektor. Dann gilt y V : x, y = 0 = fx, y = 0, oder dazu äquivalent, dass fx orthogonal ist zu allen Vektoren, die orthogonal zu x sind. Es folgt fx x = x, also fx = λx für ein λ C. Damit ist jeder nicht-verschwindende Vektor aus V ein Eigenvektor von f, oder äquivalent dazu, f bildet jeden eindimensionalen Unterraum wieder in sich ab. Mit der Lösung zur Zwischenprüfung, Aufgabe 13, Implikation c b folgt f = b id V für ein b C. Die Abbildung f ist selbst-adjungiert und wegen v V : fv, v = T v, T v 0 zudem positiv-semidefinit. Es folgt b 0. Im Fall b = 0 ist T = 0 und die Aussage der Aufgabe gilt mit c := 0 und S := id V. Im Fall b > 0, sei c := b und S := T/ b. Dann ist wegen S S = T T/b = f/b = id V die Abbildung S unitär und es gilt T = cs. 5. Zeige je einmal mit und ohne den Spektralsatz, dass das charakteristische Polynom jeder hermiteschen Matrix reelle Koeffizienten hat. Lösung: mit Spektralsatz Jede hermitesche Matrix A ist nach dem Spektralsatz ähnlich zu einer Diagonalmatrix D mit reellen Diagonaleinträgen. Das 3

charakteristische Polynom P A X von A ist invariant unter Ähnlichkeit. Folglich ist es gleich dem charakteristischen Polynom der Matrix D, welche nur reelle Einträge besitzt. Also hat P A X reelle Koeffizienten. Lösung 2. ohne Spektralsatz Für jedes komplexe Polynom ϕx = a i X i definieren wir das komplex konjugierte Polynom durch ϕx := a i X i. Diese Konstruktion hat die Grundeigenschaft ϕ ψ = ϕ ψ. Für eine beliebige hermitesche Matrix A mit charakteristischen Polynom P A X = i a ix i gilt dann folglich a i = a i, also a i R für alle i. P A X = detxi n A = det XI n A = det XI n A = det XI n A = P A X, 6. Im Abschnitt 10.11 der Vorlesung wurde der folgende Satz präsentiert. Führe seinen Beweis aus in Analogie zu dem entsprechenden Beweis im reellen Fall. Satz: Für jede hermitesche n n-matrix A = a kl k,l=1,...,n sind äquivalent: a Die Matrix A ist positiv definit. b Alle Eigenwerte von A sind positiv. c Es existiert eine invertierbare Matrix B mit A = B B. d Es existiert eine invertierbare obere Dreiecksmatrix R mit A = R R. Cholesky-Zerlegung e Es existiert eine invertierbare hermitesche Matrix C mit A = C C = C 2. f Die Determinante der Matrix A m := a kl k,l=1,...,m 1 m n. Hauptminorenkriterium ist positiv für jedes Lösung: e c folgt mit B := C. d c folgt mit B := R. c a: Sei B wie in c; dann ist für alle x C n mit x 0 auch Bx 0 und folglich x Ax = x B Bx = Bx Bx = Bx 2 > 0. Also ist A positiv definit. a d: Ist A positiv definit, so ist γ : C n C n C, x, y x Ay ein Skalarprodukt. Auf dieses und die Standardbasis e 1,..., e n von C n wenden wir das Gram-Schmidt-Orthogonalisierungsverfahren an und erhalten eine Orthonormalbasis b 1,..., b n bezüglich γ sowie Koeffizienten a kl C und a ll R >0, so dass für alle 1 l n gilt

e l = l a kl b k. k=1 Mit a kl := 0 für alle 1 l < k n ist dann R := a kl k,l eine invertierbare obere Dreiecksmatrix. Für die Matrix B := b 1,..., b n gilt dann I n = e 1,..., e n = b 1,..., b n R = BR. Dass b 1,..., b n eine Orthonormalbasis bezüglich γ ist, bedeutet andererseits B AB = b kab l k,l = δ kl k,l = I n. Zusammen folgt daraus R R = R I n R = R B ABR = BR ABR = I nai n = A. a b: Nach dem Spektralsatz existiert eine unitäre Matrix Q mit D := Q 1 AQ = Q AQ = diagλ 1,..., λ n für gewisse λ k R. Insbesondere ist A ähnlich zu D, und die λ k sind genau die Eigenwerte von A. Da Q invertierbar ist, ist jeder von Null verschiedene Vektor in C n gleich Qz für einen von Null verschiedenen Vektor z C n. Für diesen gilt dann weiter Qz AQz = z Q AQz = z Dz = k λ k z k z k = k λ k z k 2. Dass A positiv definit ist, ist also äquivalent dazu, dass dieser Ausdruck immer > 0 ist. Im Fall z = e k ist dieser Ausdruck gleich λ k, also muss jedes λ k > 0 sein; woraus die Implikation a b folgt. Ist umgekehrt jedes λ k > 0, so ist die rechte Seite immer 0 und = 0 nur, wenn alle z k = 0 sind. Da wir dies bereits ausgeschlossen haben, folgt die Implikation a b. b e: Seien Q und D = diagλ 1,..., λ n wie soeben, wobei alle λ k R >0 sind. Setze D := diag λ 1,..., λ n und C := QD Q. Dann gilt C = QD Q = Q D Q = QD Q = C, also ist C hermitesch. Weiter gilt C 2 = QD Q QD Q = QD Q QD Q = QD I n D Q = QD D Q = QDQ = QQ AQQ = QQ AQQ = I n AI n = A. a f: Betrachte die injektive lineare Abbildung ε: C m C n, x x 0 und die Sesquilinearform C m C m C, x, y εx Aεy. Dass A hermitesch und positiv definit ist, impliziert, dass auch diese hermitesch und positiv definit ist. Aus der Definition von A m folgt aber εx Aεy = 5

x A m y. Also ist A m hermitesch und positiv definit. Die bereits bewiesene Implikation a b auf A m angewendet zeigt daher, dass alle Eigenwerte von A m reell und positiv sind. Das Produkt dieser Eigenwerte ist aber deta m und somit ebenfalls reell positiv. f a: Wir benutzen Induktion über n. Im Fall n = 0 ist nichts zu beweisen. Sei also n > 0 und die Implikation bereits bewiesen für n 1. Dann gilt die Implikation insbesondere für A n 1. Da die Hauptminoren von A n 1 genau die Hauptminoren deta m für 1 m n 1 von A sind, ist also A n 1 positiv definit. Die bereits bewiesene Implikation a c auf A n 1 angewendet zeigt daher, dass A n 1 = B B ist für eine invertierbare n 1 n 1-Matrix B. Mit der n n-blockmatrix C := B 1 0 0 1 gilt dann C AC = = B 1 0 0 In 1. An 1 B 1 0 0 = B 1 A n 1 B 1 Wegen C AC = C A C = C AC ist diese Matrix wieder hermitesch. Also gilt genauer C In 1 w AC = w λ für ein w C n 1 sowie ein λ = λ C, also ein λ R. Mit D := I n 1 w 1 folgt dann E := D C ACD = In 1 0 = 0 µ In 1 0 w 1 mit µ := λ w w R. Für dieses gilt dann In 1 w w λ In 1 w 0 1 µ = dete = detd C ACD = detd detc deta detc detd = detd detc deta detc detd = deta detd 2 detc 2. Da D und C invertierbar sind, ist detd detc 0 und somit detd 2 detc 2 > 0. Andererseits bedeutet der Spezialfall m = n der Voraussetzung f, dass deta > 0 ist. Also ist µ > 0. Somit ist die Matrix E positiv definit, zum Beispiel wegen der bereits bewiesenen Implikation b a. Da Positiv- Definitheit unter Basiswechsel invariant ist, ist also auch A positiv definit, was zu zeigen war. 7. Seien V und W endlichdimensionale unitäre Vektorräume und sei f : V W eine lineare Abbildung. Die Singulärwerte von f sind definiert als die Quadratwurzeln der positiven Eigenwerte von f f. Zeige: Ein Element σ R >0 ist ein Singulärwert von f genau dann, wenn gilt: Lösung: v V \ {0}, w W \ {0}: fv = σw f w = σv. 6

Sei σ ein Singulärwert von f. Dann gibt es einen Vektor v V \ {0} mit f fv = σ 2 v. Für w := fv/σ folgt also fv = σw und f w = f fv/σ = σv. Sei σ > 0 und seien v V \ {0} und w W \ {0} mit fv = σw und f w = σv. Wegen f fv = f σw = σ 2 v ist σ 2 ein Eigenwert von f f, also σ 2 = σ ein Singulärwert von f. 7