Teil 2 LINEARE ALGEBRA II

Ähnliche Dokumente
Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

3 Vektorräume abstrakt

1 Euklidische und unitäre Vektorräume

7.2 Die adjungierte Abbildung

4.2 Die adjungierte Abbildung

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

1. Übungsblatt: Lineare Algebra II Abgabe: 24./ in den Übungsgruppen

Euklidische und unitäre Vektorräume

10 Unitäre Vektorräume

3 Bilinearform, Basen und Matrizen

8 Euklidische und unitäre Vektorräume. Skalarprodukte Orthogonalität Matrizen

7.3 Unitäre Operatoren

Lineare Algebra und analytische Geometrie II

Kontrollfragen und Aufgaben zur 3. Konsultation

Lineare Algebra II (SS 13)

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153

Lineare Algebra I (WS 13/14)

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

4 Lineare Abbildungen Basisdarstellungen

Wiederholungsserie II

7 Lineare Abbildungen und Skalarprodukt

Unter einem reellen inneren Produktraum verstehen wir einen Vektorraum V über

Lineare Algebra II 8. Übungsblatt

4.3 Reelle Skalarprodukte, Hermitesche Formen, Orthonormalbasen

Technische Universität München

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen

Skalarprodukt, Norm & Metrik

Lineare Algebra für Physiker 11. Übungsblatt

5.2 Diagonalisierbarkeit und Trigonalisierung

Eigenwerte und Diagonalisierung

6 Hauptachsentransformation

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung

5 Lineare Algebra (Teil 3): Skalarprodukt

8 Eigenwerttheorie I 8. EIGENWERTTHEORIE I 139. Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet:

Hinweis: Die Klausur Lineare Algebra 2 für die Fachrichtung Informatik besteht aus den Aufgaben 2.1 bis 2.4.

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 6

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5

4 Lineare Abbildungen und Matrizen

1 Die Jordansche Normalform

Lineare Algebra I Ferienblatt

44 Spektralzerlegung normaler Operatoren im endlichdimensionalen Fall

17. Orthogonalsysteme

9 Vektorräume mit Skalarprodukt

4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015

T := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass

3.7 Eigenwerte und Eigenvektoren

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

Aufgaben zu Kapitel 20

Übungen zur Vorlesung Lineare Algebra

Mathematik für Physiker, Informatiker und Ingenieure

Kapitel 5. Vektorräume mit Skalarprodukt

Kontrollfragen und Aufgaben zur 4. Konsultation

2 Euklidische Vektorräume

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

8 Euklidische und unitäre Vektorräume

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

6. Normale Abbildungen

4.4 Hermitesche Formen

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

r i w i (siehe (3.7)). r i v, w i = 0.

Lösungsskizzen zur Klausur zur Linearen Algebra II. Definitionen

44 Orthogonale Matrizen

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 5

42 Orthogonalität Motivation Definition: Orthogonalität Beispiel

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Beispiele. zum Tutorium Numerisches Rechnen und Lineare Algebra WS 2016/2017

Jede symmetrische Bilinearform b definiert eine quadratische Form q durch. q(x) := b(x, x).

Lineare Algebra für PhysikerInnen Teil 2

Lineare Algebra I Zusammenfassung

HM II Tutorium 1. Lucas Kunz. 24. April 2018

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG

Lineare Algebra II 11. Übungsblatt

Diagonalisierbarkeit symmetrischer Matrizen

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

= ( n x j x j ) 1 / 2

Lineare Algebra und analytische Geometrie II

6.3 Eigenwerte. γ ist Eigenwert von T [T] B B γi ist nicht invertierbar.

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

Lineare Algebra II Lösungen der Klausur

Einige Lösungsvorschläge für die Klausur zur Vorlesung

4 Orthogonale Endormorphismen

Lineare Algebra I Lösungsvorschlag

1. Übungsblatt: Lineare Algebra I Abgabe: 1. November 2001 in den Übungsgruppen

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

Lineare Algebra I für Mathematiker Lösungen

2.11 Eigenwerte und Diagonalisierbarkeit

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Musterlösungen zur Linearen Algebra II Übungsklausur

Aufgabenpool. Woche 1 Aussagenlogik. Woche 2 Mengen und Funktionen. Lineare Algebra und Geometrie I SS 2015

Transkript:

Teil 2 LINEARE ALGEBRA II 27

Kapitel VII Euklidische und unitäre Vektorräume Wir beschäftigen uns jetzt mit Vektorräumen, die noch eine zusätzliche Struktur tragen Der Winkel zwischen Vektoren im IR 2 bzw im IR 3 läßt sich mit Hilfe des sogenannten Skalarprodukts berechnen Durch Vergleich mit dem Kosinussatz erhält man z B im IR 2 für zwei Vektoren a = (a, a 2 ) und b = (b, b 2 ) die Beziehung: a b cos ϕ = (a, a 2 ) ( ) b b 2 = a b + a 2 b 2 ; dabei sei ϕ der (kleinere der beiden) Winkel, welcher von den Vektoren a und b eingeschlossen wird, und es sei a bzw b die Länge der Vektoren a bzw b, d h: a = a 2 + a 2 2 und b = b 2 + b 2 2 Wir wollen in allgemeinen Vektorräumen mit einem Skalarprodukt Drehungen beschreiben und speziell im IR 2 oder im IR 3 Ellipsen bzw Ellipsoide drehen und die beschreibende Gleichung in Abhängigkeit vom Drehwinkel aufstellen Ist zum Beispiel M ε = {(x, y) IR 2 x 2 a 2 + y2 } b 2 = eine Ellipse um den Koordinatenursprung, so soll M ε um 45 gegen den Uhrzeigersinn (um den Nullpunkt (0, 0) herum) gedreht werden Wie lautet dann die beschreibende Gleichung für die gedrehte Ellipse? Solche und ähnliche Fragen behandeln wir in diesem und im nächsten Kapitel 26 Skalarprodukte 26 Def inition Gegeben seien ein Vektorraum V VR K Abbildung s : V V K (über einem kommutativen Körper K ) und eine 29

30 KAPITEL VII EUKLIDISCHE UND UNITÄRE VEKTORRÄUME a) s heißt eine Bilinearform auf V, wenn s in jeder Komponente linear ist, d h wenn gilt: (BF) s(v + v 2, w) = s(v, w) + s(v 2, w), s(λ v, w) = λ s(v, w) (BF2) s(v, w + w 2 ) = s(v, w ) + s(v, w 2 ), für alle v, v, v 2, w, w, w 2 V und λ K s(v, λ w) = λ s(v, w) b) Eine Bilinearform s auf V VR K heißt symmetrisch, wenn für alle v, w V gilt: s(v, w) = s(w, v) c) Eine symmetrische Bilinearform s auf einem reellen Vektorraum V VR IR heißt ein Skalarprodukt, wenn für alle v V \ {0} gilt: s(v, v) > 0 d) Ist K = C und erfüllt s die Eigenschaft (BF) sowie s(v, w + w 2 ) = s(v, w ) + s(v, w 2 ) und s(v, λ w) = λ s(v, w) für alle v, w, w, w 2 V und λ C, dann heißt s eine Sesquilinearform 3 auf V e) Eine Sesquilinearform s auf V VR C heißt Hermite sch 32 oder eine Hermite sche Form, wenn für alle v, w V gilt: s(v, w) = s(w, v) (Speziell gilt für alle v V stets: s(v, v) IR ) f) Eine Hermite sche Form s (auf einem komplexen Vektorraum V ) heißt ein Skalarprodukt, wenn für alle v V \ {0} gilt: s(v, v) > 0 g) Ist s ein Skalarprodukt auf V VR K, so heißt V ein euklidischer 33 Vektorraum im Fall K = IR oder ein unitärer Vektorraum im Fall K = C 262 Beispiele a) Ist V = IR n, dann wird für x = (x, x 2,, x n ) und y = (y, y 2,, y n ) ein Skalarprodukt s durch s(x, y) := x y t = x i y i definiert (Dies ist also konsistent mit dem Begriff Skalarprodukt aus Definition 66) 3 Lat ital: 2 fach linear 32 Charles Hermite, französischer Mathematiker ( 242822, 4090) 33 Eukleides von Alexandria, genannt: Euklid, altgriechischer Mathematiker ( ca 365 v Chr, ca 300 v Chr)

26 SKALARPRODUKTE 3 b) Ist V = C n, so wird entsprechend ein Skalarprodukt s definiert durch s(x, y) := x y t = x y t = x i y i In den Fällen a) und b) nennt man s dann das kanonische Skalarprodukt im IR n bzw im C n c) Es sei I := [ ; + ] und V := {f : I IR f ist stetig auf I } Dann wird mit + s(f, g) := f(t) g(t) dt für f, g V ein Skalarprodukt s auf dem reellen Vektorraum V erklärt d) Ist I = [ ; ] und V := {f Abb(I, C) f ist stetig auf I }, so wird durch s(f, g) := f(t) g(t) dt entsprechend ein Skalarprodukt s auf dem komplexen Vektorraum V erklärt 263 Bemerkung Es ist üblich, bei Skalarprodukten f, g anstatt s(f, g) zu schreiben Um simultan die Fälle K = IR bzw K = C bei Skalarprodukten behandeln zu können, schreiben wir künftig IK an Stelle von IR bzw C Ist nun V VR IK mit dim IK V = n und B = (v, v 2,, v n ) eine Basis von V, v := n x i v i und w := n y i v i mit x i, y i IK für alle i n sowie s eine symmetrische Bilinearform bzw eine Hermite sche Form auf V, dann gilt: s(v, w) = 264 Def inition x i s(v i, w) = = (x, x 2,, x n ) }{{} = Φ B (v) t x i y j s(v i, v j ) j= s(v, v ) s(v, v 2 ) s(v, v n ) s(v 2, v ) s(v 2, v 2 ) s(v 2, v n ) s(v n, v ) s(v n, v 2 ) s(v n, v n ) y y 2 y n }{{} = Φ B (w) Ist V VR IK mit der Basis B = (v, v 2,, v n ) und s eine symmetrische Bilinearform (bzw Hermite sche Form) auf V wie oben, so heißt Φ B (s) := (s(v i, v j )) i,j n Mat(n, n; IK) die darstellende Matrix von s bezüglich B Aus Bemerkung 263 folgt direkt die Symmetrie von Φ B (s) im Fall IK = IR (vgl Definition 68) und Φ B (s) H := Φ B (s) t = Φ B (s) t = Φ B (s) im Fall IK = C (vgl Satz 207(iv)) Matrizen A Mat(n, n; C) mit der Eigenschaft A H = A heißen Hermite sch

32 KAPITEL VII EUKLIDISCHE UND UNITÄRE VEKTORRÄUME 265 Lemma Ist V VR IK mit der Basis B = (v, v 2,, v n ) (also dim IK V = n), so wird durch die Zuordnung f : s Φ B (s) eine bijektive Abbildung von der Menge der symmetrischen Bilinearformen (bzw Hermite schen Formen) auf V in die Menge der symmetrischen (bzw Hermite schen) Matrizen aus Mat(n, n; IK) definiert Beweis: Ist A Mat(n, n; IK), v = n x i v i und w = n y i v i, dann definieren wir s A durch s A (v, w) := (x, x 2,, x n ) A (y, y 2,, y n ) t Ist IK = IR und A symmetrisch, so ist s A eine symmetrische Bilinearform auf V wegen s A (v, w) = s A (v, w) t = (y, y 2,, y n ) A t (x, x 2,, x n ) t = (y, y 2,, y n ) A (x, x 2,, x n ) t = s A (w, v) Im Fall IK = C und A Hermite sch folgt entsprechend, daß s A eine Hermite sche Form auf V ist Bezeichnen wir die Abbildung A s A mit g, so gilt für A = (α ij ) : mit (f g)(a) = f(s A ) = Φ B (s A ) = (β ij ) i,j n β ij = s A (v i, v j ) = e i A e j t = e i A j = α ij Entsprechend gilt: (g f)(s) = g(φ B (s)) = s ΦB (s) =: r mit r(v, w) = (x, x 2,, x n ) Φ B (s) (y, y 2,, y n ) t = (x, x 2,, x n ) (s(v i, v j )) i,j n (y, y 2,, y n ) t = s(v, w) Aus f g = id und g f = id folgt dann die Behauptung 266 Satz Es sei V VR IK endlich dimensional und s eine symmetrische Bilinearform bzw eine Hermite sche Form auf V ; ferner seien B = (v, v 2,, v n ) und B = (v, v 2,, v n) zwei Basen von V sowie T := Φ B B (id V ) GL(n; IK) die Transformationsmatrix des Basiswechsels von B nach B Ist dann A := Φ B (s) und B := Φ B (s), so gilt: A = T t B T Beweis: Seien v = n x i v i und w = n y i v i so gilt nach Lemma 7 (aus Lineare Algebra I): aus V gegeben; ist dann v = n x i v i und w = n y i v i, (x, x 2,, x n) t = T (x, x 2,, x n ) t und (y, y 2,, y n) t = T (y, y 2,, y n ) t

26 SKALARPRODUKTE 33 Daraus folgt (mit dem Beweis zu Lemma 265): s(v, w) = s ΦB (s)(v, w) = s B (v, w) = (x, x 2,, x n) B (y, y 2,, y n) t = (x, x 2,, x n) B (y, y 2,, y n) t = (x, x 2,, x n ) T t B T (y, y 2,, y n ) t = (x, x 2,, x n ) T t B T (y, y 2,, y n ) t = s ΦB (s)(v, w) = s A (v, w) = (x, x 2,, x n ) A (y, y 2,, y n ) t 267 Def inition Es sei s eine symmetrische Bilinearform (oder Hermite sche Form) auf V VR IK ; dann heißt die Abbildung q s : V IR mit q s (v) := s(v, v) die zugeordnete quadratische Form Und q s (bzw s) heißt positiv definit, wenn für alle Vektoren v V \ {0} gilt: q s (v) > 0 Gilt für v V nur die Ungleichung: q s (v) 0, so heißt q s (bzw s) positiv semidefinit Und q s (bzw s) heißt indefinit, wenn es Vektoren v, w V gibt mit q s (v) < 0 und q s (w) > 0 268 Bemerkungen (i) Eine symmetrische Bilinearform (bzw Hermite sche Form) s ist genau dann ein Skalarprodukt, wenn s positiv definit ist (ii) Im Fall IK = IR gilt folgende Beziehung zwischen der symmetrischen Bilinearform s und der zugeordneten quadratischen Form q s : s(v, w) = 4 [q s(v + w) q s (v w)] = 2 [q s(v + w) q s (v) q s (w)] (iii) Im Fall IK = C gilt für eine Hermite sche Form s und die zugeordnete quadratische Form q s der Zusammenhang: mit i 2 = s(v, w) = 4 [q s(v + w) q s (v w) + i q s (v + i w) i q s (v i w)] (iv) Gemäß Lemma 265 erhalten wir durch eine symmetrische (bzw Hermite sche) Matrix A Mat(n, n; IK) eine quadratische Form q A auf dem IK n mit q A (x) := s A (x, x) = (x, x 2,, x n ) A (x, x 2,, x n ) t = x A x t = x A x H für alle x = n x i e i IK n Das führt zu:

34 KAPITEL VII EUKLIDISCHE UND UNITÄRE VEKTORRÄUME 269 Def inition Eine symmetrische (bzw Hermite sche) Matrix A Mat(n, n; IK) heißt positiv definit, wenn für alle Vektoren x IK n \ {0} gilt: x A x H > 0 260 Bemerkung Ist A Mat(n, n; IK) positiv definit, so ist A stets regulär Eine Diagonalmatrix ist genau dann positiv definit, wenn alle Diagonaleinträge positiv sind 27 Orthogonalisierung In einem Vektorraum V VR IK mit Skalarprodukt, kann man die Länge (den Betrag oder die Norm) eines Vektors v V kanonisch einführen durch: : V IR, v v := v, v 2 = v, v Wie man leicht nachprüft, gelten dann die folgenden charakteristischen Eigenschaften einer Norm auf V : (N) v = 0 v = 0 (N2) λ v = λ v für alle v V und λ IK (N3) v + w v + w für alle v, w V Es läßt sich ferner sofort zeigen, daß aus diesen Axiomen (N) (N3) die Eigenschaft v 0 für alle v V folgt Ein Vektor v V mit v = heißt ein Einheitsvektor Das dritte Axiom (N3), die sogenannte Dreiecksungleichung, kann auf folgenden Satz zurückgeführt werden: 27 Satz (Ungleichung von Cauchy 34 Schwarz 35 Bunjakowski 36 ) Sei V VR IK ein Vektorraum mit Skalarprodukt, ; dann gilt für alle Vektoren v, w V : v, w v w In dieser Ungleichung steht genau dann das Gleichheitszeichen, wenn v und w linear abhängig sind (Oftmals findet man diesen Satz auch als Cauchy Schwarz sche Ungleichung) 34 Augustin Louis de Cauchy, französischer Mathematiker ( 208789, 2205857) 35 Karl Hermann Amandus Schwarz, deutscher Mathematiker ( 250843, 3092) 36 Viktor Jakowlewitsch Bunjakowski, russischer Mathematiker ( 62804, 22889)

27 ORTHOGONALISIERUNG 35 Beweis zu Satz 27: Für w = 0 ist die Behauptung klar Gilt: w 0, also insbesondere: w 0, dann erhalten wir mit λ := 0 v λ w, v λ w = v, v λ w, v λ v, w + λ λ w, w v, w w, v = w 2 w 2 : w, v 2 = v, v w 2 = v 2 v, w 2 w 2 v, w 2 w 2 + v, w 2 w 4 w 2 Multiplikation auf beiden Seiten mit w 2 > 0 liefert: v 2 w 2 v, w 2 0 v, w Gilt (im Fall w 0 ) das Gleichheitszeichen, so ist 0 = v λ w = v w ; also sind v w 2 und w linear abhängig Sind umgekehrt v und w linear abhängig, etwa v = µ w mit µ IK, so folgt: v, w = µ w, w = µ w 2 = µ w w = µ w w = v w Hieraus ergibt sich dann die Dreiecksungleichung für Normen: 272 Korollar (Minkowski sche 37 Ungleichung) Ist V VR IK mit einem Skalarprodukt, versehen, so gilt für alle Vektoren v, w V : v + w v + w Beweis: Wegen Re λ (Re λ) 2 + (Im λ) 2 = λ gilt: v + w 2 = v + w, v + w = v 2 + v, w + w, v + w 2 = v 2 + v, w + v, w + w 2 = v 2 + 2 Re v, w + w 2 v 2 + 2 v, w + w 2 v 2 + 2 v w + w 2 nach Satz 27 = ( v + w ) 2 37 Hermann Minkowski, deutscher Mathematiker und Physiker ( 2206864, 20909)

36 KAPITEL VII EUKLIDISCHE UND UNITÄRE VEKTORRÄUME induziert in kanonischer Weise eine Abstands- Eine Norm auf einem Vektorraum V VR IK funktion oder Metrik d auf V durch 38 : d : V V IR, (v, w) d(v, w) := v w, die durch folgende Eigenschaften charakterisiert ist: (M) d(v, w) = 0 v = w (M2) d(v, w) = d(w, v) (Symmetrie) (M3) d(u, w) d(u, v) + d(v, w) (Dreiecksungleichung) Dabei seien u, v und w beliebige Elemente aus V Aus diesen Axiomen (M) (M3) erhält man entsprechend die Eigenschaft: d(v, w) 0 für alle v, w V Mit d(v, w) mißt man also den Abstand zweier Vektoren 273 Bemerkungen (i) Es sei V VR IK euklidisch bzw unitär; dann gilt für alle Vektoren v, w V : a) v + w 2 = v 2 + w 2 + v, w + w, v (Satz des Pythagoras 39 in allgemeiner Form) b) v + w 2 + v w 2 = 2 ( v 2 + w 2 ) (Parallelogrammgleichung) (ii) Es sei V VR IK ein Vektorraum mit einer Norm Es existiert genau dann ein Skalarprodukt s auf V mit v = (s(v, v)) 2 für alle v V, wenn die obige Parallelogrammgleichung erfüllt Dieser Satz geht auf J v Neumann 40 und P Jordan 4 und das Jahr 935 zurück Der Beweis wird üblicherweise in der Funktionalanalysis geführt (oder vgl [24, S 55]) 274 Def inition Es sei V VR IK ein euklidischer oder unitärer Vektorraum a) Sind v, w V mit v, w = 0, so heißt v orthogonal zu w Wir schreiben dann: v w b) Sind U und W Untervektorräume von V, so heißt U orthogonal zu W, wenn für alle u U und alle w W gilt: u w Kurzschreibweise: U W c) Eine beliebige Familie (v i ) i I von Vektoren aus V heißt orthogonal, wenn für alle i, j I mit i j gilt: v i v j Man nennt (v i ) i I dann auch ein Orthogonalsystem in V d) Eine Familie (v i ) i I von Vektoren aus V heißt orthonormal, wenn die Familie (v i ) i I orthogonal ist und wenn für alle i I gilt: v i = Entsprechend bezeichnet man (v i ) i I dann auch als Orthonormalsystem in V e) Eine Familie (v i ) i I von Vektoren aus V heißt eine Orthonormalbasis von V, falls (v i ) i I eine Basis von V und orthonormal ist 38 Engl distance = Distanz, Abstand, Entfernung 39 Pythagoras von Samos, altgriechischer Philosoph, Mathematiker, Astronom und Ordensführer ( ca 580 v Chr, ca 500 v Chr) 40 John (Johann, János) von Neumann, ungarisch deutsch amerikanischer Mathematiker, Informatiker und Physiker ( 282903, 0802957) 4 Ernst Pasqual Wilhelm Jordan, deutscher theoretischer Physiker ( 80902, 307980)

27 ORTHOGONALISIERUNG 37 275 Beispiele (i) Ist, das kanonische Skalarprodukt im IK n, so bildet (e, e 2,, e n ) eine Orthonormalbasis des IK n (ii) Es sei I := [ 0 ; 2π ] und V := {f Abb(I, C) f ist stetig auf I } wie in Beispiel 262d), f, g := 2π 0 f(t) g(t) dt und e k (x) := e ikx = cos kx + i sin kx für x I Dann gilt für alle j, k Z mit j k : e j, e k = = = = = = 2π 0 2π 0 2π 0 2π 0 e j (t) e k (t) dt = 2π e ijt (cos kt + i sin kt) dt = 0 e ijt e ikt dt 2π e ijt ( cos( kt) + i sin( kt)) dt = e i(j k)t dt = 2π 0 0 e ijt (cos kt i sin kt) dt 2π 0 e ijt e ikt dt ( ) cos((j k) t) + i sin((j k) t) [ ] 2π sin((j k) t) i cos((j k) t) j k 0 i (j k) ei(j k)t 2π = 0 0 Also bildet (e k ) k Z ein Orthogonalsystem Wegen e k, e k = 2π ist dann ( 2π e k ) k Z eine orthonormale Familie in V dt 276 Def inition Es seien V VR IK euklidisch bzw unitär und U ein endlich dimensionaler Untervektorraum von V mit einer Orthonormalbasis (u, u 2,, u n ) Dann heißt die Abbildung P U : V U mit P U (v) := die Orthogonalprojektion von V auf U v, u i u i 277 Beispiel Es sei V = IR 2, U i := <u i > mit u = 2 (, ) und u 2 = 2 (, ) Dann gilt für v = (0, ) : P U (v) = v, u u = u = (, ) 2 2 und P U2 (v) = v, u 2 u 2 = u 2 = (, ), 2 2 also: P U (v) + P U2 (v) = v = id IR 2(v) v u 2 u P U2 (v) P U (v) U U 2 Wir haben damit v zerlegt in zwei Komponenten, wobei P U (v), P U2 (v) = 0 ist

38 KAPITEL VII EUKLIDISCHE UND UNITÄRE VEKTORRÄUME 278 Def inition Sei V VR IK euklidisch bzw unitär mit Unterräumen V, V 2,, V k Der Vektorraum V heißt die orthogonale Summe von V, V 2,, V k, wenn folgendes gilt: (i) V = V + V 2 + + V k (ii) Es ist V i V j für alle i, j k mit i j Wir schreiben dann: V = V V 2 V k 279 Bemerkung Ist V orthogonale Summe von V, V 2,, V k, so ist die Summe direkt: V = V V 2 V k Beweis: Nach Bemerkung 48(ii) ist zu zeigen: V i Sei dazu x V i und x = k j= j i v j k j= j i k j= j i V j = {0} für alle i k V j Dann gilt für alle v V i : k x, v = v j, v = 0, also speziell: x, x = 0 x = 0 j= j i Wir wollen uns jetzt mit der Existenz von Orthonormalbasen beschäftigen 270 Satz (Orthonormalisierungsverfahren von Schmidt 42 Gram 43 ) Zu jedem endlichen oder höchstens abzählbar unendlichen System (x, x 2, x 3, ) linear unabhängiger Vektoren aus einem euklidischen bzw unitären Vektorraum V VR IK gibt es genau ein entsprechendes Orthonormalsystem (v, v 2, v 3, ) mit folgenden Eigenschaften: (a) Für alle k =, 2, 3, gilt: <x, x 2,, x k > = <v, v 2,, v k > =: V k (b) Die zu dem Basiswechsel von (x, x 2,, x k ) nach (v, v 2,, v k ) in V k gehörende Transformationsmatrix besitzt eine positive Determinante D k für jedes k =, 2, 3, 42 Erhard Schmidt, deutscher Mathematiker ( 30876, 062959) 43 Jørgen Pedersen Gram, dänischer Mathematiker ( 2706850, 290496)

27 ORTHOGONALISIERUNG 39 Beweis zu Satz 270: Die orthonormalen Vektoren v, v 2, v 3, werden induktiv definiert Ist das System endlich, so bricht das Verfahren nach endlich vielen Schritten ab Wegen der linearen Unabhängigkeit von (x, x 2, x 3, ) ist stets x 0, also v := x x ein Vektor mit der Länge v = Außerdem gilt: <x > = <v > = V mit D = > 0 Ist umgekehrt x e V mit <e > = <x >, so gilt: e = c x mit c IK Also ist c die Determinante der Transformationsmatrix; wegen (b) muß nämlich c > 0 gelten Wir erhalten aus e = : = e, e = c c x, x = c 2 x 2, was mit c > 0 sofort c = x liefert Damit ist e = v eindeutig (Induktionsanfang) Es seien nun die Vektoren v, v 2,, v n so konstruiert, daß (a) und (b) für k =, 2,, n erfüllt sind (Induktionsvoraussetzung) Dann gilt: V n+ = <x, x 2,, x n, x n+ > = <v, v 2,, v n, x n+ > ; wir betrachten: w n+ := x n+ x n+, v ν v ν = x n+ P Vn (x n+ ) ν= Nach dem Austauschlemma 38 gilt: V n+ = <v, v 2,, v n, w n+ > Für jedes µ =, 2,, n ist ferner v µ, w n+ = v µ, x n+ x n+, v ν v µ, v ν = v µ, x n+ x n+, v µ = 0, ν= also (v, v 2,, v n, v n+ := w n+ w n+) ein Orthonormalsystem mit der Eigenschaft (a) Die Transformation lautet: v = α x v 2 = α 2 x + α 22 x 2 v 3 = α 3 x 2 + α 32 x 2 + α 33 x 3 v n = α n x + α n2 x 2 + + α nn x n v n+ = α n+, x + α n+,2 x 2 + + α n+,n x n + Mithin gilt für die Determinante: n D n+ = α ii w n+ = D n w n+ ; w n+ x n+ und nach Induktionsvoraussetzung ist D n > 0, also auch D n+ > 0 Ist umgekehrt e n+ V derart, daß (v, v 2,, v n, e n+ ) ein Orthonormalsystem mit den Eigenschaften (a) und (b), so gilt wegen (a) analog zu oben: e n+ = Daher gilt auch: e n+ = c [x n+ n β ν v ν ] Für µ =, 2,, n erhalten wir: ν= n ν= α ν v ν + c x n+ mit c 0 0 = e n+, v µ = c [ x n+, v µ β µ ], d h wegen c 0 : β µ = x n+, v µ Es folgt schließlich: e n+ = c [x n+ P Vn (x n+ )] = c w n+ und damit wegen Bedingung (b) wie beim Induktionsanfang: c = w n+ Also ist e n+ = v n+ eindeutig bestimmt (Induktionsschritt)

40 KAPITEL VII EUKLIDISCHE UND UNITÄRE VEKTORRÄUME 27 Folgerung Es sei V VR IK euklidisch oder unitär und U ein endlich dimensionaler Unterraum von V Besitzt V endliche oder abzählbar unendliche Dimension, so kann jede Orthonormalbasis von U zu einer Orthonormalbasis von V ergänzt werden Speziell besitzt dann V selbst eine Orthonormalbasis Beweis: Es sei dim IK U = n und (v, v 2,, v n ) eine Orthonormalbasis von U Diese Basis kann zu einer Basis (v, v 2,, v n, x n+, x n+2, ) von V ergänzt werden (vgl Beweis zu Satz 32) Wenden wir auf diese Basis das Verfahren von Schmidt Gram an, so bleiben die ersten v, v 2,, v n erhalten, und es ergibt sich eine Orthonormalbasis (v, v 2,, v n, v n+, v n+2, ) von V 272 Beispiel Wir versehen den IR 4 mit dem kanonischen Skalarprodukt, und wenden Satz 270 auf die linear unabhängigen Vektoren x = (4, 2, 2, ), x 2 = (2, 2, 4, 5), x 3 = (0, 8, 2, 5) an Wir erhalten das Orthonormalsystem (v, v 2, v 3 ) mit v = x x = (4, 2, 2, ) ; 5 w 2 = x 2 x 2, v v = (2, 2, 4, 5) 25 v 2 = w 2 w 2 = ( 2, 0, 2, 4) ; 24 w 3 = x 3 x 3, v v x 3, v 2 v 2 = (0, 8, 2, 5) 25 5 5 = ( 2, 6, 2, 0), v 3 = w 3 w 3 = ( 2, 6, 2, 0) 44 273 Satz (4, 2, 2, ) 24 24 5 (4, 2, 2, ) = ( 2, 0, 2, 4), 5 24 ( 2, 0, 2, 4) Es sei V VR IK euklidisch oder unitär und U ein endlich dimensionaler Untervektorraum mit der Orthonormalbasis (u, u 2,, u n ) Dann gilt für jeden Vektor v V : v P U (v) v u für alle u U Beweis: Es ist für jedes j n (nach dem Beweis zu Satz 270): v P U (v), u j = v v, u i u i, u j = 0 v P U (v), u = 0 u U

28 ADJUNGIERTE ABBILDUNGEN 4 Für alle v V gilt damit: v u 2 = (v P U (v)) + (P U (v) u) 2 = v P U (v) 2 + 2 Re v P U (v), =u U {}}{ P U (v) u + P U (v) u 2 = v P U (v) 2 + P U (v) u 2 v P U (v) 2 Und Gleichheit liegt genau dann vor, wenn P U (v) u = 0, d h u = P U (v) ist 28 Adjungierte Abbildungen Ohne dies explizit zu erwähnen, seien in diesem Abschnitt stets V, W VR IK als zwei euklidische oder unitäre Vektorräume und F : V W als eine IK lineare Abbildung vorgegeben Ist M V eine Teilmenge, so heißt M := {v V v M} = {v V v, m = 0 für alle m M} das orthogonale Komplement von M in V 28 Def inition Eine IK lineare Abbildung F : W V heißt die zu F adjungierte Abbildung, wenn für alle v V und w W gilt 44 : F v, w W = v, F w V 282 Bemerkungen (i) Im allgemeinen muß zu einer linearen Abbildung F keine adjungierte Abbildung existieren (ii) Existiert F jedoch, so ist F eindeutig bestimmt Beweis zu (ii): Ist F neben F ebenfalls eine adjungierte Abbildung zu F, so gilt für jedes v V w W gemäß Definition 28: v, F w F w = v, F w v, F w = F v, w F v, w = 0 Daraus folgt: F w F w = 0 oder F w = F w und jedes 283 Satz Ist dim IK V = n, so existiert zu jeder linearen Abbildung F : V W die adjungierte Abbildung F : W V Ist (v, v 2,, v n ) eine Orthonormalbasis von V, so gilt für alle w W : F w = w, F v ν v ν ν= 44 Hierbei bezeichnet, W und, V das jeweilige Skalarprodukt in W bzw in V, worauf wir künftig nicht mehr extra hinweisen Ferner werden die Klammern bei der Abbildung weggelassen; statt F (v) oder F (w) schreibt man kurz: F v bzw F w

42 KAPITEL VII EUKLIDISCHE UND UNITÄRE VEKTORRÄUME Beweis zu Satz 283: Nach Folgerung 27 besitzt V eine Orthonormalbasis (v, v 2,, v n ) Dann gilt für jedes v V die Darstellung: v = v, v ν v ν Ist nämlich v = n ν= ν= α ν v ν mit α ν IK, so folgt: v, v µ = n α ν v ν, v µ = α µ Definieren wir nun F wie oben, so ist F wegen der Linearität des Skalarproduktes in der ersten Komponente gemäß (BF) ebenfalls linear Ferner gilt dann: ν= F v, w = = v, v ν F v ν, w = v, v ν w, F v ν ν= ν= v, w, F v ν v ν = v, F w ν= 284 Satz Zu F : V W existiere die adjungierte Abbildung F : W V Dann existiert auch die zu F adjungierte Abbildung F : V W mit F = F Ferner gilt: Ker F = (Im F ) und Ker F = (Im F ) Ist F surjektiv, so ist F injektiv; ist F surjektiv, dann ist F injektiv Beweis: Es gilt: F w, v = w, F v = v, F w = F v, w = w, F v ; also ist F = F Ferner gilt: w Ker F F w = 0 v, F w = F v, w = 0 v V w Im F w (Im F ) Weiter gilt wegen (F ) = F = F auch: Ker F = Ker F = Ker (F ) = (Im F ) Ist F surjektiv, so gilt: Ker F = (Im F ) = W = {0}, d h daß F injektiv ist Ist F surjektiv, dann folgt entsprechend: Ker F = (Im F ) = V = {0} 285 Satz Es seien V und W endlich dimensional, (v, v 2,, v n ) eine Orthonormalbasis von V und (w, w 2,, w r ) eine Orthonormalbasis von W Ist dann A die darstellende Matrix der linearen Abbildung F : V W bezüglich dieser Basen, so besitzt die adjungierte Abbildung F : W V bezüglich dieser Basen die darstellende Matrix A H

28 ADJUNGIERTE ABBILDUNGEN 43 Beweis zu Satz 285: Gemäß 6 gilt für die Matrix A = (α ij ) : F (v ν ) = r ϱ= α ϱν w ϱ Hieraus folgt: F (v ν ), w ϱ = α ϱν für alle ϱ r und ν n Ist B = (β ij ) die darstellende Matrix von F, so gilt entsprechend: F (w ϱ ) = Daraus folgt: n ν= β νϱ v ν, also: F (w ϱ ), v ν = β νϱ für jedes ν n und ϱ r β νϱ = F w ϱ, v ν = v ν, F w ϱ = F v ν, w ϱ = α ϱν = α νϱ t ν n ϱ r, d h: B = A t = A t = A H 286 Def inition Es sei V VR IK euklidisch bzw unitär Ein Endomorphismus F : V V heißt normal, wenn die zu F adjungierte Abbildung F : V V existiert und mit F vertauschbar ist, d h falls gilt: F F = F F 287 Satz Ein Endomorphismus F : V V ist genau dann normal, wenn der zu F adjungierte Endomorphismus F existiert und für alle v, w V gilt: F v, F w = F v, F w Beweis: : Aus F F = F F folgt sofort: F v, F w = v, F (F w) = v, F (F w) = F (F w), v = F w, F v = F v, F w : Umgekehrt ergibt sich aus F v, F w = F v, F w für alle v, w V : F (F v), w = F v, F w = F v, F w = F (F v), w, also: F F v F F v, w = (F F F F )v, w = 0 Da dies auch bei festem v für sämtliche w V gilt, erhalten wir: F F v = F F v Weil dieses v V aber beliebig wählbar ist, folgt also: F F = F F 288 Folgerung Es sei F End IK (V ) normal Dann gilt: a) Ker F = Ker F b) F und F besitzen dieselben Eigenvektoren: Ist v V Eigenvektor von F zum Eigenwert λ IK, so ist v auch Eigenvektor von F zum Eigenwert λ

44 KAPITEL VII EUKLIDISCHE UND UNITÄRE VEKTORRÄUME Beweis zu Folgerung 288: zu a): Aus Satz 287 folgt direkt für alle v V : F v 2 = F v 2 ; also ist F v = 0 äquivalent zu F v = 0 zu b): Und aus Satz 287 folgt weiterhin: F v λ v, F v λ v = F v 2 λ v, F v λ F v, v + λ λ v 2 = F v 2 λ F v, v λ v, F v + λ 2 v 2 = F v λ v, F v λ v Damit ist F v = λ v äquivalent zu F v = λ v 289 Satz (Spektralsatz für komplexe normale Endomorphismen) Es sei V VR C unitär mit dim C V = n Dann sind folgende Aussagen für einen Endomorphismus F : V V äquivalent: a) F ist normal b) Es existiert eine Orthonormalbasis von V, die aus lauter Eigenvektoren von F besteht Beweis: a) b) : Es existiert ein Eigenwert λ C von F und ein zugehöriger Eigenvektor v V Ohne Beschränkung der Allgemeinheit können wir v = voraussetzen (Induktionsanfang) Sei nun W := <v > = {w V v, w = 0} das orthogonale Komplement des Aufspanns von v in V Wir können (v ) ergänzen zu einer Orthonormalbasis (v, v 2, v 3,, v n ) von V ; dann gilt: W = <v 2, v 3,, v n >, also: dim C W = n Weiter gilt für alle w W nach Folgerung 288b): v, F w = F v, w = λ v, w = λ v, w = 0, d h: F w W Damit ist F (W ) W, also G := F W : W W ein normaler Endomorphismus in W (mit der adjungierten Abbildung G = F W ) Nach Induktionsvoraussetzung existiert eine Orthonormalbasis von W, die nur aus Eigenvektoren von G, also auch von F besteht Zusammen mit v erhalten wir die gewünschte Orthonormalbasis von V b) a) : Sei (v, v 2,, v n ) eine Orthonormalbasis von V aus lauter Eigenvektoren von F Wir definieren einen Endomorphismus G : V V durch G(v i ) := λ i v i und lineare Fortsetzung, wenn F v i = λ i v i für i n ist Dann gilt für alle i, j n : F v i, v j = λ i v i, v j = λ i v i, v j = λ i δ ij = v i, λ j v j = v i, Gv j ;

28 ADJUNGIERTE ABBILDUNGEN 45 also folgt für sämtliche v, w V : F v, w = v, Gw Damit ist G = F Weiter gilt für jedes i =, 2,, n : F F v i = G(λ i v i ) = λ i λ i v i = λ i λ i v i also: F F = F F Daher ist F normal = F (λ i v i ) = F (Gv i ) = F F v i, 280 Bemerkung und Def inition Ist V VR C unitär und (v, v 2,, v n ) eine Orthonormalbasis von V aus Eigenvektoren des Endomorphismus F End C (V ), so gilt für die darstellenden Matrizen von F und F bezüglich dieser Basis wegen der Normalität von F : A A H = A H A Folglich sagt man, eine Matrix A Mat(n, n; C) heiße normal, wenn A A H = A H A gilt 28 Bemerkung Ist V VR C unitär, F : V V normal und (v, v 2,, v n ) eine Orthonormalbasis von V ; dann gilt für beliebiges v := n v, v i v i aus V mit v i als jeweilige Eigenvektoren von F zum Eigenwert λ i C : F (v) = v, v i F (v i ) = λ i v, v i v i = λ i P <vi >(v) Dabei ist P <vi > die Orthogonalprojektion von V auf den von v i erzeugten Unterraum Setzen wir zur Abkürzung P i := P <vi >, so gilt daher: F = n λ i P i mit (P i P j )(v) = P i ( v, v j v j ) = v, v j v j, v i v i = δ ij P i (v) = δ ij P j (v) = (P j P i )(v) Sei nunmehr V VR IR euklidisch und F : V V normal, so ist Satz 289 nicht direkt übertragbar, wenn nicht die Existenz lauter reeller Eigenwerte gewährleistet ist Dann kann man sich jedoch folgendermaßen behelfen: Ist dim IR V = n, so definieren wir W := V V = V 2 und erklären darauf eine Addition und eine Skalarmultiplikation mit komplexen Zahlen durch die Festlegungen (x, y ) + (x 2, y 2 ) := (x + x 2, y + y 2 ) und α (x, y) := (α x α 2 y, α y + α 2 x) für alle x, x, x 2, y, y, y 2 V und α = α +i α 2 C Man überlegt sich, daß dadurch ein Vektorraum (W, +, ) über C entsteht mit dim C W = dim IR V = n Und W heißt die komplexe Erweiterung von V Identifizieren wir nämlich (x, 0) mit x V, so wird V isomorph in W eingebettet Wegen i (x, 0) = (0, x) können wir dann für jedes z := (x, y) W schreiben: z = x+i y Ist nun, das Skalarprodukt auf V, so erklären wir ein Skalarprodukt s : W W C durch s(z, z ) := ( x, x + y, y ) + i ( y, x x, y )

46 KAPITEL VII EUKLIDISCHE UND UNITÄRE VEKTORRÄUME für alle z = (x, y) und z = (x, y ) aus W Dann ist s das einzige Skalarprodukt auf W mit s V V =, (Ist nämlich t : W W C ein Skalarprodukt mit t V V =,, so folgt für z = x + i y und z = x + i y mit x, x, y, y V : t(z, z ) = t(x, x ) + i t(y, x ) i t(x, y ) + t(y, y ) ; und wegen t(x, x ) = x, x, t(y, x ) = y, x, t(x, y ) = x, y, t(y, y ) = y, y erhält man: t(z, z ) = ( x, x + y, y ) + i ( y, x x, y ) = s(z, z ) ) Damit läßt sich jeder euklidische Vektorraum in einen unitären Vektorraum einbetten Ist weiter F : V V eine IR lineare Abbildung, so gibt es genau eine C lineare Abbildung F : W W mit F V = F, d h mit F (v) = F (v) für alle v V Dazu definieren wir: F (z) = F (x + i y) := F (x) + i F (y) für alle z = x + i y W Ist F normal, dann ist auch F normal Hierzu überlegen wir uns zunächst, daß für den zu F adjungierten Endomorphismus F gilt: F (x + i y) = F (x) + i F (y), d h: F = F (Denn: Seien z = x + i y und z = x + i y beliebig aus W ; dann gilt: s( F (x + i y), x + i y ) = s(f (x) + i F (y), x + i y ) = ( F (x), x + F (y), y ) + i ( F (y), x F (x), y ) = ( x, F (x ) + y, F (y ) ) + i ( y, F (x ) x, F (y ) ) = s(x + i y, F (x ) + i F (y )) ) Hieraus folgt schließlich wegen F F = F F und F G = F Ĝ für F, G End IR(V ) : F F = F F = F F = F F = F F = F F Also ist mit F auch F normal 282 Lemma Es sei V VR IR euklidisch mit dim IR V = n und F End IR (V ) normal Mit W VR C bezeichnen wir die unitäre Erweiterung von V und mit F End C (W ) die lineare Fortsetzung von F auf W gemäß Bemerkung 28 Ist dann z = x + i y aus W mit z := s(z, z) = ein Eigenvektor von F zum Eigenwert λ C \ IR, so ist z = x i y ebenfalls ein Eigenvektor von F mit z = zum Eigenwert λ Ferner sind z und z dann orthogonal Beweis zu Lemma 282: Wegen x, y V ist x, y = y, x Hieraus folgt für das z = x i y W : s(z, z ) = ( x, x + y, y ) + i ( y, x x, y ) = x, x + y, y = s(z, z) =

28 ADJUNGIERTE ABBILDUNGEN 47 Weiter gilt mit λ = λ + i λ 2 für λ, λ 2 IR : F (z) = F (x) + i F (y) = λ z = (λ x λ 2 y) + i (λ y + λ 2 x), also: F (x) = λ x λ 2 y sowie F (y) = λ y + λ 2 x und daher: F (z ) = F (x) i F (y) = (λ i λ 2 ) (x i y) = λ z Nach Folgerung 288b) ist z ein Eigenvektor von F zum Eigenwert λ = λ Daraus folgt: λ s(z, z ) = s(λ z, z ) = s( F z, z ) = s(z, F z ) = s(z, λ z ) = λ s(z, z ) Und wegen λ λ ergibt sich letztlich, daß s(z, z ) = 0 ist 283 Satz (Spektralsatz für reelle normale Endomorphismen) Es sei V VR IR euklidisch mit dim IR V = n und F : V V ein Endomorphismus Dann sind folgende Aussagen äquivalent: a) F ist normal b) Es existiert eine Orthonormalbasis von V derart, daß die darstellende Matrix A von F bezüglich dieser Basis die Gestalt λ λ 2 0 A = λk Ak+ A k+2 0 Am hat, wobei λ, λ 2,, λ k die reellen Eigenwerte von F sind und wobei die Diagonaleinträge A ν reelle (2 2)-Matrizen der Form ( ) αν +β A ν = ν β ν α ν sind für ν = k +, k +2,, m Jedem A ν entspricht ein Paar λ ν, λ ν konjugiert komplexer Eigenwerte von F mit α ν = Re λ ν und β ν = Im λ ν Beweis zu Satz 283: a) b) : Man führt den Beweis durch vollständige Induktion nach n Der Fall n = ist trivial Es sei also n und die Behauptung für kleinere Dimension bewiesen Besitzt F einen reellen Eigenwert, dann ergibt sich die Behauptung wie im Beweis zum Spektralsatz 289 Besitzt F nun keinen reellen Eigenwert, so betten wir V in seine komplexe Erweiterung W ein und setzen F zu einem Endomorphismus F von W fort Sei dazu λ C \ IR Eigenwert von F zu einem Eigenvektor z W mit z = Ist z = x + i y mit

48 KAPITEL VII EUKLIDISCHE UND UNITÄRE VEKTORRÄUME x, y V, so ist z = x i y W nach Lemma 282 Eigenvektor von F mit z = zum Eigenwert λ Ferner gilt: z z Wir setzen jetzt v := 2 (z + z ) = 2 x und v 2 := i 2 (z z ) = 2 y ; also sind v, v 2 V mit v, v = v 2, v 2 = 2 (s(z, z) + s(z, z ) + s(z, z) + s(z, z )) = und v, v 2 = v 2, v = 2i (s(z, z) s(z, z ) + s(z, z) s(z, z )) = 0 Weiter gilt: F v = 2 ( F z + F z ) = 2 (λ z + λ z ) = 2 (λ + λ) 2 (z + z ) + i 2 (λ λ) i 2 (z z ) = (Re λ) v (Im λ) v 2 und F v 2 = i 2 ( F z F z ) = i 2 (λ z λ z ) = 2i (λ λ) 2 (z + z ) + 2 (λ + λ) i 2 (z z ) = (Im λ) v + (Re λ) v 2 Damit lauten die ersten beiden Spalten der darstellenden Matrix A von F bezüglich einer Basis (v, v 2,, v n ) von V : A = Re λ Im λ Im λ Re λ 0 0 0 0 Der weitere Beweis verläuft wie bei Satz 289 Wir betrachten hierzu U := <v, v 2 > Es gilt dann für beliebiges u U : v, F u = s(v, F u) = s( F v, u) = s( F z + F z, u) = [s(λ z, u) + s(λ z, u)] 2 2 = [ λ 2 s(v + i v 2, u) + λ ] s(v i v 2, u) 2 2 = 2 λ [s(v, u) + i s(v 2, u)] + 2 λ [s(v, u) i s(v 2, u)] = 0 und entsprechend: v 2, F u = 0 Also gilt: F (U) U Damit ist G := F U ein normaler Endomorphismus in U, auf den die Induktionsvoraussetzung angewandt werden kann

28 ADJUNGIERTE ABBILDUNGEN 49 b) a) : Nach Satz 285 hat F bezüglich der Orthonormalbasis von V die darstellende Matrix A H = A t (Dadurch ist dann F eindeutig festgelegt wie im Beweis zum Spektralsatz 289) Wegen A A t = A t A ergibt sich die Normalität von F ; es gilt nämlich: λ 2 λk A A t = 2 A k+ A k+ t A t m A m mit A ν A ν t = ( ) αν 2 +β 2 ν 0 0 α 2 ν +β 2 ν 284 Def inition Es sei V VR IK euklidisch oder unitär Ein Endomorphismus F : V V heißt selbstadjungiert, wenn für alle v, w V gilt: F v, w = v, F w, d h wenn F mit seiner adjungierten Abbildung F übereinstimmt 285 Bemerkung Ein selbstadjungierter Endomorphismus ist stets normal Jeder selbstadjungierte Endomorphismus F End IK (V ) besitzt nur reelle Eigenwerte Also existiert im endlich dimensionalen Fall eine Orthonormalbasis von V, die aus lauter Eigenvektoren von F besteht Bezüglich dieser Basis ist die darstellende Matrix von F dann eine reelle Diagonalmatrix Beweis: Sei V VR C unitär, F End C (V ) selbstadjungiert und λ C Eigenwert von F mit Eigenvektor x V \ {0} ; dann gilt: λ x, x = λ x, x = F x, x = x, F x = x, λ x = λ x, x, wegen x 2 0 also: λ = λ λ IR Ist V VR IR euklidisch, so sei W die komplexe unitäre Erweiterung von V und F : W W die Fortsetzung von F End IR (V ) auf W VR C Mit F ist auch F selbstadjungiert, weil gilt: s( F (x + i y), x + i y ) = s(f x + i F y, x + i y ) = ( F x, x + F y, y ) + i ( F y, x F x, y ) = ( x, F x + y, F y ) + i ( y, F x x, F y ) = s(x + i y, F x + i F y ) = s(x + i y, F (x + i y )) Aufgrund der ersten Überlegung besitzt F nur reelle Eigenwerte Sei also λ IR Eigenwert und z W zugehöriger Eigenvektor von F, d h F z = λ z mit z = x + i y Wegen F z = F x + i F y und λ z = λ x + i λ y folgt dann: F x = λ x und F y = λ y Also ist λ auch ein Eigenwert von F (Umgekehrt ist jeder Eigenwert von F sofort Eigenwert von F ) Diese Erkenntnisse wenden wir nun auf spezielle Endomorphismen, d h auch auf bestimmte Matrizen an

50 KAPITEL VII EUKLIDISCHE UND UNITÄRE VEKTORRÄUME 29 Orthogonale und unitäre Endomorphismen 29 Def inition Es sei V VR IK euklidisch bzw unitär; ein Endomorphismus F : V V heißt orthogonal bzw unitär, wenn für alle v, w V gilt: F v, F w = v, w 292 Satz Es sei V VR IK euklidisch bzw unitär und F : V V ein Endomorphismus Dann sind folgende Aussagen paarweise äquivalent: a) F ist orthogonal bzw unitär b) Aus v = folgt stets: F v = c) Für alle v V gilt: v = F v d) Ist (v, v 2,, v n ) ein Orthonormalsystem, so bildet (F v, F v 2,, F v n ) ebenfalls ein Orthonormalsystem in V Beweis: a) b) : Ist v, v =, so folgt direkt: F v, F v = b) c) : Ohne Beschränkung der Allgemeinheit sei v 0 ; mit w := w = und v = v w, also gilt: F v = v F w = v v v ist dann

29 ORTHOGONALE UND UNITÄRE ENDOMORPHISMEN 5 c) d) : Nach Bemerkung 268 folgt wegen v j, v k = 0 für alle j k : Re (4 F v j, F v k ) = F v j + F v k 2 F v j F v k 2 = v j + v k 2 v j v k 2 = 0 und Im (4 F v j, F v k ) = F v j + i F v k 2 F v j i F v k 2 = v j + i v k 2 v j i v k 2 = 0 d) a) : Ohne Einschränkung seien v 0 und w 0 ; wir müssen zeigen: F v, F w =! v, w Fall: Ist w = c v und e := v v, dann gilt: v, w = v e, c v e = v 2 c e, e = v 2 c und F v, F w = v 2 c F e, F e Nach Voraussetzung ist mit (e) auch (F e) ein Orthonormalsystem in V, d h es gilt: F e = 2 Fall: Sind v, w linear unabhängig, so existiert nach dem Satz von Schmidt Gram eine Orthonormalbasis (v, v 2 ) von dem von v und w aufgespannten Unterraum U Ist dann v = x v + x 2 v 2 und w = x v + x 2 v 2, so folgt: F v, F w = x F v + x 2 F v 2, x F v + x 2 F v 2 = x x F v, F v + x x 2 F v, F v 2 + + x 2 x F v 2, F v + x 2 x 2 F v 2, F v 2 = x x + x 2 x 2 = v, w, da mit (v, v 2 ) auch (F v, F v 2 ) ein Orthonormalsystem bildet 293 Satz Es sei V VR IK euklidisch bzw unitär und F : V V linear; dann gilt: a) Ist F orthogonal, so ist F unitär b) Ist F orthogonal bzw unitär, so ist F injektiv c) Ist F ein Automorphismus, so ist F genau dann orthogonal bzw unitär, wenn F = F gilt Beweis: zu a): folgt direkt aus Satz 292d) zu b): ist klar nach Definition 29

52 KAPITEL VII EUKLIDISCHE UND UNITÄRE VEKTORRÄUME zu c): Es seien v, w V ; dann existieren v, w V mit v = F v und w = F w Daraus folgt: F v, F w = F F v, F F w = v, w Ist F orthogonal bzw unitär, so ergibt sich weiter: F v, F w = v, w = F v, F w = v, w Also ist mit F auch F orthogonal bzw unitär Ferner gilt für beliebige v V und w V mit w = F w : F v, w = F v, F w = v, w = v, F w Damit ist F = F Ist umgekehrt F ein Automorphismus mit F = F, dann folgt für alle v, w V : d h F ist orthogonal bzw unitär F v, F w = v, F F w = v, w, Ist nun dim IK V = n mit einer Basis B = (v, v 2,, v n ) von V und F ein Automorphismus auf V sowie A = Φ B B (F ) die darstellende Matrix von F bezüglich B, dann gilt: A = Φ B B (F ) Ist darüber hinaus B = (v, v 2,, v n ) eine Orthonormalbasis von V, so gilt: A H = Φ B B (F ) Also ist F genau dann orthogonal bzw unitär, wenn A = A t bzw A = A H gilt Das führt zu: 294 Def inition Eine quadratische Matrix A Mat(n, n; C) heißt unitär, wenn A regulär ist mit A = A H Eine quadratische Matrix A Mat(n, n; IR) heißt orthogonal, wenn A regulär ist mit A = A t 295 Bemerkung Es sei V VR IK euklidisch bzw unitär mit dim IK V = n Nach Satz 293c) ist ein Endomorphismus F : V V genau dann orthogonal bzw unitär, wenn eine Orthonormalbasis von V derart existiert, daß die darstellende Matrix von F bezüglich dieser Basis orthogonal bzw unitär ist (Denn: Nach Korollar 47 ist ein injektiver Endomorphismus auf einem endlich dimensionalen Vektorraum bereits ein Automorphismus) 296 Lemma Für eine Matrix A = (α ij ) Mat(n, n; IK) sind folgende Aussagen paarweise äquivalent: a) A ist orthogonal bzw unitär

29 ORTHOGONALE UND UNITÄRE ENDOMORPHISMEN 53 b) Die Zeilen von A bilden ein Orthonormalsystem im IK n, d h es gilt: A i, A j = α ik α jk = δ ij für alle i, j n k= c) Die Spalten von A bilden ein Orthonormalsystem im IK n, d h es gilt: Beweis zu Lemma 296: A i, A j = Es gilt für jedes i, j =, 2,, n : α ki α kj = δ ij für alle i, j n k= (α j, α j2,, α jn ) t = (A H ) j, also: A i, A j = A i (A H ) j und (α j, α 2j,, α nj ) = (A H ) j, also: A i, A j = (A H ) j A i Gemäß Bemerkung 67(i) ist damit die Aussage b) äquivalent zu A A H = E n und Aussage c) äquivalent zu A H A = E n Also ist nach Definition 294 A orthogonal bzw unitär Wir wenden dieses Ergebnis auf den Spektralsatz 289 an: 297 Satz (Spektralzerlegung für normale Matrizen) Für eine komplexe Matrix A Mat(n, n; C) sind äquivalent: a) A ist normal, d h es gilt: A A H = A H A b) Es existieren eine Orthonormalbasis (v, v 2,, v n ) des C n und Eigenwerte λ, λ 2,, λ n C von A, so daß gilt: Beweis: A = λ i v i v H i Es sei K = (e t, e 2 t,, e n t ) die kanonische Orthonormalbasis des C n, und F der durch A induzierte Endomorphismus bezüglich K Dann existiert zur normalen Matrix A gemäß Satz 289 eine Orthonormalbasis B = (v, v 2,, v n ) des C n derart, daß die darstellende Matrix D von F bezüglich B Diagonalgestalt hat Laut 7 (siehe Lineare Algebra I) gilt hierbei: D = S A S mit S = R t und t v i = r ij e j j= für R = (r ij ) (In der i-ten Spalte von S stehen die Koordinaten von v i bezüglich K ) Daraus folgt nun: A = S D S,

54 KAPITEL VII EUKLIDISCHE UND UNITÄRE VEKTORRÄUME wobei die Diagonaleinträge von D genau die Eigenwerte λ i von F sind Da die Spalten von S eine Orthonormalbasis des C n bilden, ist S nach Lemma 296 unitär, d h: S = S H Schreiben wir dann D in der Form D = n λ i E ii mit den kanonischen Matrizen E ii Mat(n, n; C) aus dem Beweis zu Satz 65, so folgt die behauptete Darstellung mit dyadischen Produkten: A = λ i (S E ii S H ) = ( n ) λ i [(v, v 2,, v n ) E ii ] v H v 2 H v H n = [(λ v, 0, 0,, 0) + (0, λ 2 v 2, 0,, 0) + (0, 0,, 0, λ n v n )] = λ v v H + λ 2 v 2 v 2 H + + λ n v n v n H = λ i v i v H i Ist umgekehrt A = n λ i v i v H i, dann folgt: A H = n λ j v j v H j, nach Lemma 296 also: A A H = λ i λ j v i v ih v j v H j = λ i 2 v i v H i = A H A i,j= j= v H v 2 H v n H Für den Fall IK = IR erhalten wir analog: 298 Satz (Spektralzerlegung für symmetrische Matrizen) Für eine reelle Matrix A Mat(n, n; IR) sind äquivalent: a) A ist symmetrisch, d h es gilt: A = A t b) Es existieren eine Orthonormalbasis (v, v 2,, v n ) des IR n und Eigenwerte λ, λ 2,, λ n IR von A mit A = λ i v i v t i Beweis: a) b) : Nach Satz 207(iv) besitzt A als symmetrische Matrix nur reelle Eigenwerte λ i Dann liefert der Spektralsatz 283 mit Lemma 296: A = S D S t, wobei die Spalten von S die kanonischen Koordinaten der Eigenvektoren v i zu den Eigenwerten λ i von A sind (entsprechend zum Beweis von Satz 297) b) a) : Aus der Spektraldarstellung folgt (wie oben) sofort: At = A

30 DREHUNGEN UND SPIEGELUNGEN 55 299 Bemerkung Man sagt auch, daß normale Matrizen unitär diagonalähnlich und symmetrische Matrizen orthogonal diagonalähnlich seien Speziell sind unitäre oder orthogonale Vektorraum Automorphismen normal; jeder Eigenwert eines solchen Endomorphismus hat den Absolutbetrag (Ist nämlich F v = λ v, so folgt nach Satz 292: v = F v = λ v, also: λ = ) 290 Def inition und Satz Die Mengen O(n) := { A GL(n; IR) A = A t }, U(n) := { A GL(n; C) A = A H } und SO(n) := { A O(n) det A = + } bilden jeweils mit der Matrixmultiplikation als Verknüpfung eine Gruppe, nämlich die orthogonale Gruppe, die unitäre Gruppe bzw die eigentlich (oder spezielle) orthogonale Gruppe Während die unitären Matrizen vollständig beschrieben werden können, ist dies bisher bei den orthogonalen Matrizen nicht der Fall 30 Drehungen und Spiegelungen Ist A Mat(n, n; IR) eine orthogonale Matrix, d h gilt: A O(n), so existiert nach Spektralsatz 283 eine Orthonormalbasis B des IR n derart, daß die darstellende Matrix von Ψ B B (A) bezüglich dieser Basis die Form λ λ 2 0 D = λk Ak+ A k+2 0 Am ( ) αν β ν mit den reellen Eigenwerten λ, λ 2,, λ k und den Zweier Kästchen A ν = hat β ν α ν Wegen A O(n) ist λ ν {, } für alle ν k und α 2 ν + β 2 ν = λ ν 2 = für alle k+ ν m Also existiert zu jedem ν {k+, k+2,, m} genau ein γ ν IR mit 0 < γ ν < 2π, γ ν π sowie α ν = cos γ ν und β ν = sin γ ν Ist also F : IR n IR n ein orthogonaler Automorphismus, so existiert eine Orthonormalbasis derart, daß für die darstellende Matrix von F bezüglich dieser Basis gilt: 0 D = Ak+ 0 Am

56 KAPITEL VII EUKLIDISCHE UND UNITÄRE VEKTORRÄUME ( cos γν sin γ mit den unteren Diagonalblöcken A ν = ν sin γ ν cos γ ν ) Wir erhalten daraus sofort: 30 Bemerkung Ein Matrix A O(n) ist genau dann eigentlich orthogonal, wenn als Eigenwert von A eine geradzahlige Vielfachheit besitzt Die durch A SO(n) induzierten Endomorphismen heißen auch Drehungen Es sei V VR IR euklidisch mit dim IR V = n und W ein (n )-dimensionaler Untervektorraum Wir wählen eine Orthonormalbasis (v, v 2,, v n ) von W aus; dann existiert ein v n V mit v n <v, v 2,, v n > und v n = Wir definieren eine Abbildung S = S W : V V durch Damit ist S eine IR lineare Abbildung mit S(v) := v 2 v, v n v n = v 2 P <vn>(v) Sv, Sw = v, w 2 v, v n v n, w 2 v, v n w, v n + 4 v, v n w, v n v n, v n = v, w Also ist S ein orthogonaler Endomorphismus mit S(v n ) = v n und S(w) = w für alle w W Schreiben wir v V in der Form v = w + α v n = w + v, v n v n mit w W, so gilt: S(v) = S(w + α v n ) = S(w) + v, v n S(v n ) = w + v, v n ( v n ) = w α v n Ein solches S heißt Spiegelung an dem (n )-dimensionalen Unterraum W Für die darstellende Matrix A = Φ B B (S) von S bezüglich B = (v, v 2,, v n ) gilt dann: det A = Wir sagen deshalb auch: det S := det Φ B B (S) = 302 Satz Ist V VR IR euklidisch mit dim IR V = n und F : V V ein orthogonaler Endomorphismus mit det F = det Φ K K (F ) =, so existiert eine Drehung D und eine Spiegelung S mit F = S D Beweis: Sei W ein (n )-dimensionaler Unterraum von V mit einer Orthonormalbasis (v, v 2,, v n ) von W und B = (v, v 2,, v n, v n ) als Orthonormalbasis von V sowie S definiert wie in Bemerkung 30 Dann ist D := S F ein orthogonaler Endomorphismus mit det D = det Φ K K(D) = det S det F = det S det F = ( ) ( ) =

30 DREHUNGEN UND SPIEGELUNGEN 57 303 Beispiele Es sei V VR IR euklidisch und F : V V ein orthogonaler Endomorphismus a) Ist dim IR V = 2, so gilt bezüglich einer geeigneten Orthonormalbasis von V für die darstellende Matrix von F : ( ) ( ) ( ) ( ) 0 0 cos γ sin γ 0 D 0 =, D 0 π =, D 0 γ = oder S = sin γ cos γ 0 mit γ ] 0 ; 2π [ und γ π Dabei beschreibt D γ die Drehung um 0 mit Winkel γ im Uhrzeigersinn (Setzen wir α := 2π γ, d h γ = 2π α, so folgt: ( ) ( ) cos(2π α) sin(2π α) cos α sin α D γ = = =: sin(2π α) cos(2π α) sin α cos α D α Also beschreibt D α die Drehung um 0 mit Winkel α gegen den Uhrzeigersinn Damit ist die Bezeichnung Drehung mit Winkel α konsistent zu Beispiel 202) b) Ist dim IR V = 3, dann gilt für die darstellende Matrix von F bezüglich einer geeigneten Orthonormalbasis von V : 0 0 0 0 D γ = 0 cos γ sin γ oder Dγ = 0 cos γ sin γ mit 0 γ < 2π 0 sin γ cos γ 0 sin γ cos γ Ist dann B = (v, v 2, v 3 ) eine solche Orthonormalbasis von V mit Φ B B (F ) = D γ, so betrachten wir als Untervektorräume von V jeweils die Drehachse D a := <v > und die Drehebene D a := <v 2, v 3 > von F Da v zum Eigenwert gehört, bleibt D a unter F fest; und D a wird durch F auf sich selbst abgebildet Die Einschränkung F Da stellt eine Drehung des 2-dimensionalen Unterraumes D a dar Der Drehwinkel γ ist nicht eindeutig festgelegt; aus der Beziehung sp(d γ ) = + 2 cos γ folgt: cos γ = 2 ( sp(d γ) ) Ist nun A = (α ij ) SO(3) die darstellende Matrix der Drehung F bezüglich irgendeiner Basis von V, so gilt wegen der Invarianz der Spur bei ähnlichen Matrizen: sp(a) = α + α 22 + α 33 = + 2 cos γ cos γ = 2 (α + α 22 + α 33 ) 304 Satz Sei A SO(3) ; dann gibt es Werte α, β, γ [ 0 ; 2π [ cos γ sin γ 0 0 0 A = sin γ cos γ 0 0 cos β sin β 0 0 0 sin β cos β mit cos α sin α 0 sin α cos α 0 0 0 =: M,γ M 2,β M,α

58 KAPITEL VII EUKLIDISCHE UND UNITÄRE VEKTORRÄUME Beweis zu Satz 304: Es sei A = (α ij ) Wir wollen zeigen, daß ϕ, ψ, β IR existieren mit ϕ, ψ ] 2π ; 0 ] und 0 β < 2π sowie M,ϕ A M,ψ = M 2,β Wegen (M,ϕ ) = M, ϕ und (M,ψ ) = M, ψ erhalten wir dann mit γ := ϕ und α := ψ die Behauptung Dazu sei B = (β ij ) := M,ϕ A M,ψ = =: = = cos ϕ sin ϕ 0 sin ϕ cos ϕ 0 0 0 α α 2 α 3 α 2 α 22 α 23 α 3 α 32 α 33 0 α 3 0 A ϕ C A 0 α 23 ψ 0 0 0 α 3 α 32 α 33 0 0 ( ) A α3 0 ϕ C A ϕ A α 23 ψ 0 α 3 α 32 α 33 0 0 ( ) A α3 ϕ C A ψ A ϕ α 23 (α 3, α 32 ) A ψ α 33 cos ψ sin ψ 0 sin ψ cos ψ 0 0 0 Schritt: Es gilt: β 33 = α 33 ; da A orthogonal ist, ergibt sich: α 33 Wir wählen ein 0 β < 2π mit cos β = α 33 ) 2 Schritt: Es gilt: β 3 = (cos ϕ, sin ϕ) ( α3 α 23 ein 2π < ϕ 0 mit α 3 cos ϕ + α 23 sin ϕ = 0 = α 3 cos ϕ+α 23 sin ϕ; wir wählen daher 3 Schritt: Wir müssen ein 2π < ψ 0 mit β = finden, d h mit ( ) ( ) α α (cos ϕ, sin ϕ) 2 cos ψ = α 2 α 22 sin ψ Hierfür wählen wir ψ ] 2π ; 0 ] mit ( ) α α (x, x 2 ) := (cos ϕ, sin ϕ) 2 = (cos ψ, sin ψ) α 2 α 22 Diese Wahl von ψ ist möglich wegen x 2 + x 2 2 = (α cos ϕ + α 2 sin ϕ + α 3 0) 2 + + (α 2 cos ϕ + α 22 sin ϕ + α 32 0) 2 + + ( α 3 cos ϕ + α 23 sin ϕ + α 33 0 ) 2 }{{} =, = 0 da mit A und M,ϕ auch M,ϕ A orthogonal ist Dann gilt wegen β = und B O(3) sofort: β 2 = β 2 = β 3 = 0 Mit det A = muß schließlich auch gelten: ( ) ( ) ( ) β22 β det 23 β22 β =, also: 23 cos β ± sin β = β 32 β 33 β 32 β 33 sin β cos β

30 DREHUNGEN UND SPIEGELUNGEN 59 305 Def inition Ist A SO(3), so heißen die Größen α, β, γ [ 0 ; 2π [ aus Satz 304 die Euler schen 45 Winkel der zu A gehörigen Drehung 306 Beispiel Haben wir als darstellende Matrix 4 2 2 3 4 2 A = 4 6 2 4 6 2 2 0 2, 2 so rechnet man direkt nach, daß A SO(3) ist Gemäß dem Beweis zu Satz 304 erhalten wir zunächst: cos β = 2 2, d h: β = π 4 β = 7 4 π und 6 sin ϕ = 0 tan ϕ = 3, d h: ϕ = 5 6 π ϕ = 6 π 4 2 cos ϕ 4 Daraus ergibt sich weiter im 3 Schritt: ( 4 2 (cos ϕ, sin ϕ) 2 3 4 6 2 ) = (cos ψ, sin ψ), d h: ( ) ( 2 3, 2 ) 4 2 2 3 = (0, ) = (cos ψ, sin ψ) für ϕ = 5 4 6 6 π 2 ( ) oder ( 2 3, 2 ) 4 2 2 3 = (0, ) = (cos ψ, sin ψ) für ϕ = 4 6 6 π, 2 also: Somit gilt für die Euler schen Winkel zu A : ψ = π 2 ψ = 3 2 π α = ψ = π 2 α = 3 2 π, β = π 4 β = 7 4 π, γ = ϕ = 5 6 π γ = 6 π 307 Bemerkung Die Matrizen D γ aus Beispiel 303 bzw M,ϕ oder M 2,β aus Satz 304 stellen Drehungen um den Winkel γ, ϕ bzw β im Uhrzeigersinn dar, was (vgl Beispiel 303a) Drehungen um 2π γ, 2π ϕ bzw 2π β gegen den Uhrzeigersinn entspricht Drehungen gegen den Uhrzeigersinn um den Winkel γ, ϕ bzw β entsprechen also die Matrizen ( cos γ sin γ D γ = sin γ cos γ ) bzw M2,β =, M,ϕ = 0 0 0 cos β sin β 0 sin β cos β cos ϕ sin ϕ 0 sin ϕ cos ϕ 0 0 0 45 Leonhard Euler, schweizerischer Mathematiker und Physiker ( 504707, 809783)

60 KAPITEL VII EUKLIDISCHE UND UNITÄRE VEKTORRÄUME Damit gilt Satz 304 auch in der Form: A = M,γ M2,β M,α Geometrisch lassen sich die Euler schen Winkel im IR 3 wie folgt interpretieren: A e t 3 γ β β α α γ e t e t 3 A e 2 t β A e t e t 2 Man spricht dabei auch vom Präzessionswinkel α, vom Nutationswinkel β und vom Drehungswinkel γ (oder γ ) 3 Hauptachsentransformation Unter einem quadratischen Polynom über IK in den Unbestimmten t, t 2,, t n einen Ausdruck der Form P (t, t 2,, t n ) := a ij t i t j + a 0i t i + a 00 i j n i n verstehen wir mit Koeffizienten a ij IK für alle 0 i j n 3 Def inition Eine Teilmenge Q IK n heißt eine Quadrik (oder Hyperfläche zweiter Ordnung), wenn es ein quadratisches Polynom P in den Unbestimmten t, t 2,, t n IK gibt mit Q = {(x, x 2,, x n ) IK n P (x, x 2,, x n ) = 0}

3 HAUPTACHSENTRANSFORMATION 6 32 Beispiele a) Ist n = 2, so stellt Q = {(x, x 2 ) IR 2 x 2 +x 2 2 25 = 0} eine Quadrik im IR 2, nämlich die Kreislinie um (0, 0) mit Radius 5 dar Die Koeffizienten des zugehörigen quadratischen Polynoms sind hier: a 00 = 25, a 0 = a 02 = 0, a = a 22 = und a 2 = 0 b) Ebenso ist für n = 2 die Menge Q := {(x, x 2 ) IR 2 4 x 2 24 x x 2 + 34 x 2 2 25 = 0} eine Quadrik im IR 2 Welche geometrische Gestalt hat Q nun? Wir schreiben dazu Q in der Form: (x, x 2 ) A ( ) x x 2 = 25 mit A := ( 4 2 2 34 ) Läßt sich etwa durch eine Drehung die geometrische Gestalt von Q besser bestimmen? Setzen wir weiter: ( ) ( ) ( ) ( ) x cos α sin α y y = =: T sin α cos α α x 2 mit α IR, so ergibt sich wegen T α = T α t (x, x 2 ) A ( ) x x 2 y 2 die Darstellung: = (y, y 2 ) T α A T α y 2 ( ) y Kann man also A durch T α auf Diagonalgestalt transformieren? Wegen det (λ E 2 A) = (λ 50) (λ 25) besitzt A die einfachen Eigenwerte λ = 25 und λ 2 = 50 Es existiert daher ein α IR mit T α A T α = 25 ( 0 0 2 ( ) ( ) 3 4 Somit ist ein Eigenvektor von A zu λ und Eigenvektor zu λ 2 Also bildet 4 3 ( ( ) ( ) 3 5 4 ) 5 4, 3 eine Orthonormalbasis des IR 2 aus Eigenvektoren, und wir erhalten 5 tatsächlich als Drehmatrix: 5 T α = 5 ( 3 4 4 3 Folglich stellt Q die um den Winkel α mit cos α = 3 5 und sin α = 4 5 gedrehte Quadrik Q dar für { ( ) ( ) Q = (y, y 2 ) IR 2 0 y } (y, y 2 ) = 0 2 = {(y, y 2 ) IR 2 y 2 + 2 y 2 2 = } Man erkennt: Q ist eine um α gedrehte Ellipse ) ) y 2 y 2