LINEARE ALGEBRA II. Ernst Bönecke. Universität Hamburg

Ähnliche Dokumente
MATHEMATIK II FÜR STUDIERENDE DER PHYSIK

Eigenwerte und Diagonalisierung

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Lösungsskizzen zur Klausur zur Linearen Algebra II. Definitionen

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

1 Euklidische und unitäre Vektorräume

Diagonalisierbarkeit symmetrischer Matrizen

1 Die Jordansche Normalform

Skalarprodukt, Norm & Metrik

3 Vektorräume abstrakt

Lineare Algebra II Lösungen der Klausur

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

4.3 Reelle Skalarprodukte, Hermitesche Formen, Orthonormalbasen

Verständnisfragen: Lineare Algebra und Analytische Geometrie I und II

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

3 Bilinearform, Basen und Matrizen

7.2 Die adjungierte Abbildung

6 Hauptachsentransformation

7 Lineare Abbildungen und Skalarprodukt

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen

Lineare Algebra II (SS 13)

3.7 Eigenwerte und Eigenvektoren

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren

Musterlösungen zur Linearen Algebra II Hauptklausur

Lineare Algebra II 8. Übungsblatt

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

10 Unitäre Vektorräume

6 Eigenwerte und Eigenvektoren

Kontrollfragen und Aufgaben zur 3. Konsultation

Musterlösungen zur Linearen Algebra II Übungsklausur

2 Euklidische Vektorräume

5 Lineare Algebra (Teil 3): Skalarprodukt

8 Eigenwerttheorie I 8. EIGENWERTTHEORIE I 139. Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet:

Aufgaben zu Kapitel 20

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

Euklidische und unitäre Vektorräume

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

Basisprüfung. 18. August 2015

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Kapitel 5. Vektorräume mit Skalarprodukt

6 Eigenwerte und Eigenvektoren

Euklidische und unitäre Vektorräume

1. Übungsblatt: Lineare Algebra II Abgabe: 24./ in den Übungsgruppen

Lineare Algebra für Physiker 11. Übungsblatt

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Lineare Algebra I Lösungsvorschlag

Lineare Algebra und analytische Geometrie II

Übungen zur Vorlesung Lineare Algebra II, SoSe 2016, Blatt 1

Wiederholungsserie II

8 Euklidische und unitäre Vektorräume. Skalarprodukte Orthogonalität Matrizen

7.3 Unitäre Operatoren

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015

Lineare Algebra I für Mathematiker Lösungen

Übungen zur Vorlesung Lineare Algebra

Ausgewählte Lösungen zu den Übungsblättern 9-10

4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit

Lineare Algebra II 6. Übungsblatt

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen

Eigenwerte (Teschl/Teschl 14.2)

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen

3 Definition: 1. Übungsblatt zur Vorlesung Lineare Algebra I. im WS 2003/2004 bei Prof. Dr. S. Goette

Lineare Algebra 2. Lösung zu Aufgabe 7.2:

und Unterdeterminante

und Unterdeterminante

Wichtige Kenntnisse der Linearen Algebra

Mathematische Erfrischungen III - Vektoren und Matrizen

2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren

Lineare Algebra und analytische Geometrie II

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

Lineare Algebra für PhysikerInnen

Analytische Geometrie

10.2 Linearkombinationen

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6

Musterlösungen zur Linearen Algebra II Weihnachtszettel

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

4 Funktionenfolgen und normierte Räume

9 Vektorräume mit Skalarprodukt

4 Lineare Abbildungen und Matrizen

35 Matrixschreibweise für lineare Abbildungen

5 Diagonalisierbarkeit

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

Technische Universität München

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Transkript:

LINEARE ALGEBRA II Ernst Bönecke Universität Hamburg Juli 2016

V O R W O R T Auch der zweite Teil beginnt mit Themen, die schon aus der Schule bekannt sein dürften: Skalarprodukt und Vektorprodukt im R 3. Es wird aber schnell allgemeiner: Eigenwerte, orthogonale und unitäre Gruppen sind eher kein Schulstoff. Das Tensorprodukt wird von vielen Studierenden oft als abstrakt empfunden. Dem Text liegt in den Paragraphen 6, 7, 8 und 9 das Buch [Fi] von G.Fischer zugrunde. 6 ist ergänzt durch einen Abschnitt über sphärische Geometrie, nach dem Buch [Ko] von M.Koecher. Der Paragraph 10 über klassische Gruppen ist eine Zusammenstellung aus den Büchern [HN] von J.Hilgert/K.-H.Neeb, [Hei] von W.Hein und einem Vorlesungstext [Ja] von J.C.Jantzen. Vorausgesetzt werden die Paragraphen 1 bis 5 aus der Linearen Algebra I. Erst in 10 werden Kenntnisse aus Topologie und Analysis vorausgesetzt, wie man sie etwa bei O.Forster, Analysis 2 und 3 ( [Fo2], [Fo3] ), findet. Die benutzten Begriffe stehen zwar in 10, aber ohne weitere Beispiele und Übungsaufgaben kann man diese Kapitel aus der Analysis nicht lernen. Ich denke, dass dieser Text für Studierende im 2.Semester gut lesbar ist, und viele Ergänzungen bringt, für die in einer Vorlesung meist keine Zeit ist. Hamburg, im Juli 2016 1

Inhaltsverzeichnis 6 Vektorräume mit Skalarprodukt 4 6.1 Definition und elementare Eigenschaften 4 6.2 Orthonormalbasen 14 6.3 Matrizen Hermitescher Formen 18 6.4 Das Vektorprodukt im R 3 21 6.5 Sphärische Geometrie 25 6.6 Aufgaben 29 7 Eigenwerte 33 7.1 Beispiele und Definitionen 33 7.2 Das charakteristische Polynom 36 7.3 Diagonalisierung 42 7.4 Potenzen eines Endomorphismus 50 7.5 Das Minimalpolynom einer Matrix 56 7.6 Die Jordansche Normalform 59 7.7 Aufgaben 78 8 Das Tensorprodukt 82 8.1 Definition und Eigenschaften 82 8.2 Symmetrische und alternierende Tensoren 88 8.3 Tensoralgebra und äußere Algebra 93 8.4 Aufgaben 98 9 Endomorphismen von Vektorräumen mit Skalarprodukt 102 9.1 Orthogonale und unitäre Endomorphismen 102 9.2 Selbstadjungierte Endomorphismen 115 9.3 Hauptachsentransformation 122 9.4 Trägheitsgesetz von Sylvester 132 9.5 Aufgaben 142 2

10 Klassische Gruppen 145 10.1 Einiges zur Topologie im R n 145 10.2 Die allgemeine lineare Gruppe 151 10.3 Untergruppen von GL(n, R) 153 10.4 Die Struktur von GL(n, R) 155 10.5 Die Struktur von GL(n, C) 162 10.6 Die Quaternionengruppen 164 10.7 Klassische Gruppen als Mannigfaltigkeiten 171 10.8 Aufgaben 185 Literaturverzeichnis 189 Verzeichnis der Definitionen 190 3

6 Vektorräume mit Skalarprodukt 6.1 Definition und elementare Eigenschaften (6.1.1) Zur Motivation : Schon in Definition 1.4.3 hatten wir für beliebiges n N das kanonische Skalarprodukt im R n definiert durch x, y := x 1 y 1 +... + x n y n für x = t (x 1,..., x n ), y = t (y 1,..., y n ) R n. Zwei Vektoren x, y R n wird also ein Skalar x, y R zugeordnet. Mit Hilfe dieses kanonischen Skalarprodukts hatten wir die Norm eines Vektors x R n definiert als ( ) x := x, x, und für x, y R n hatten wir Orthogonalität definiert durch x y : x, y = 0. Mit diesem Beispiel beschäftigen wir uns noch in 6.1.10. Wir wollen aber allgemein Skalarprodukte auf möglicherweise unendlichdimensionalen Vektorräumen definieren. Man braucht so etwas a) in der Funktionalanalysis (Theorie der Funktionen mit Werten in R) und damit in der numerischen Mathematik, b) in der Physik, z.b. bei der mathematischen Formulierung der Quantentheorie. Es geschieht deshalb keineswegs (nur) aus Freude an allgemeinen, abstrakten Strukturen, was wir im Folgenden machen. Noch etwas: Sehen wir uns die obige Formel ( ) an, so sehen wir: Wenn wir die Norm eines Vektors x definieren wollen, müssen wir aus x, x die Quadratwurzel ziehen können. Wir betrachten daher nicht Vektorräume über beliebigen Körpern: Vereinbarung 6.1.2 : In 6 werden wir unter K stets den Körper R der reellen oder den Körper C der komplexen Zahlen verstehen. Für z K sei z das Konjugiert-Komplexe von z, also z = a bi für z = a + bi C mit a, b R, bzw. z = z für z R. 4

Für z K ist z der (reelle oder komplexe) Betrag von z. Für z K soll z > 0 stets bedeuten: z R z > 0. Entsprechend: z 0 : (z R z 0). Definition 6.1.3 : Sei V ein K Vektorraum (also ein Vektorraum über R oder C ). Eine Abbildung s : V V K heißt eine Sesquilinearfom (1 1 - fach linear) wenn für alle u, v, w V und 2 alle λ K gilt (H1) s(u + v, w) = s(u, w) + s(v, w), s(λu, w) = λs(u, w), d.h. s ist linear als Funktion des 1.Arguments, und (H1) s(u, v + w) = s(u, v) + s(u, w), s(u, λw) = λs(u, w), d.h. s ist als Funktion des 2.Arguments nicht so ganz linear. s heißt eine Hermitesche Form auf V, wenn zusätzlich für alle u, v V gilt (H2) s(u, v) = s(v, u), d.h. wenn man die beiden Argumente vertauscht, erhält man das Konjugiert-Komplexe. Bemerkung 6.1.4 : Sei s eine Hermitesche Form, dann folgt (H1) bereits aus (H1) und (H2) : Seien u, v, w V und λ K, dann gilt s(u, v + w) (H2) = s(v + w, u) (H1) = s(v, u) + s(w, u) = s(v, u) + s(w, u) (H2) = s(u, v) + s(u, w), s(u, λv) (H2) = s(λv, u) (H1) = λ s(v, u) = λ s(v, u) (H2) = λ s(u, v). Folgerung 6.1.5 : Ist s eine Hermitesche Form auf einem R-Vektorraum V, so lautet (H2) : u, v V : s(u, v) = s(v, u), 5

und daraus und aus (H1) folgt u, v V λ R : s(u, λv) = λ s(u, v). Man nennt s in diesem Fall deshalb eine symmetrische Bilinearform auf V. Bemerkung 6.1.6 : Man möchte, wie im Spezialfall des R n mit dem kanonischen Skalarprodukt, die Länge eines Vektors definieren durch v := s(v, v). Wurzeln kann man aber nur aus nichtnegativen, reellen Zahlen ziehen. Haben wir nun eine Hermitesche Form s auf einem C Vektorraum V, so gilt nach (H2) für v V immerhin aber das reicht uns nicht: s(v, v) = s(v, v), also s(v, v) R, Definition 6.1.7 : Sei V ein K Vektorraum und s eine Hermitesche Form auf V. Gilt (H 3 1 ) v V : s(v, v) 0, so heißt s positiv semidefinit. Gilt 2 (H4) v V \ {0} : s(v, v) > 0, so heißt s positiv definit. Bemerkung 6.1.8 : Jede positiv definite hermitesche Form ist positiv semidefinit, denn für 0 V und 0 K gilt 0 = 0 0, also nach (H1) : s(0, 0) = s(0 0, 0) = 0 s(0, 0) = 0. Definition 6.1.9 : Sei V ein K Vektorraum. Eine positiv definite Hermitesche Form s auf V heißt ein Skalarprodukt auf V, und (V, s) heißt, a) falls K = R ist, ein euklidischer, b) falls K = C ist, ein unitärer Vektorraum. Definition 6.1.10 : Sei n N, dann definieren wir für x = t (x 1,..., x n ), y = t (y 1,..., y n ) K n : x, y := n x j y j j=1 6

und nennen, das kanonische oder Standard-Skalarprodukt im K n. Man sieht, dass für, die Regeln (H1), (H2) erfüllt sind, und wegen x, x = n x j x j = j=1 n x j 2 j=1 auch (H4). - Es wird damit deutlich, warum man in der Definition von x, y ein über die y j setzen muss! Beispiel 6.1.11 : Seien a, b R, a < b und I[a, b] der C Vektorraum der integrierbaren Funktionen f auf dem Intervall [a, b] := { x R a x b }, also f : [a, b] C. Dann setzen wir s : I[a, b] I[a, b] C, s(f, g) := b a f(t) g(t) dt. s ist eine positiv semidefinite hermitesche Form, denn s(f, f) = b f(t) 2 dt 0. s ist aber nicht positiv definit, denn nehmen wir z.b. a f : [a, b] C, f(x) = { 1 für x = a 0 für x a, so ist f I[a, b], denn f ist eine Treppenfunktion, f 0, aber b f(t) 2 dt = 0, also s(f, f) = 0. a Was Sie unter einer integrierbaren Funktion zu verstehen haben, lernen Sie in der Analysis. Sie können darunter etwa Regelfunktionen verstehen, wie in [K1], aber Sie können auch andere Integralbegriffe zugrunde legen. Beispiel 6.1.12 : Der Vektorraum C[a, b] aller stetigen, komplexwertigen Funktionen ist ein Untervektorraum von I[a, b]. Damit ist auch s : C[a, b] C[a, b] C, 7

s(f, g) = b f(t) g(t) dt definiert, und s ist ein Skalarprodukt, denn sei f C[a, b], f 0, dann gibt es ein t 0 [a, b] mit f(t 0 ) 0, also h := f(t 0 ) 2 > 0. Auch t f(t) 2 ist stetig, mit Werten in R, und in der Analysis lernt man, dass es daher ein Intervall [c, d] mit t 0 [c, d] [a, b] gibt und f(t) 2 h 2 s(f, f) d c f(t) 2 für t [c, d], c < d, also h 2 dt = h (d c) > 0. 2 a h h 2 a c t 0 d b t Definition 6.1.13 : Sei V ein K Vektorraum mit einer positiv semidefiniten hermiteschen Form s. Für v V nennen wir die Norm von v. v := s(v, v) Cauchy-Schwarzsche Ungleichung 6.1.14 : Sei V ein K Vektorraum 8

mit positiv semidefiniter Hermitescher Form s. Dann gilt für alle v, w V : s(v, w) v w. Ist die Familie (v, w) linear abhängig, so gilt sogar das Gleichheitszeichen. Beweis : 1) Für alle λ K gilt, da s positiv semidefinit ist: 0 s(v λw, v λw) = s(v, v) λ s(w, v) λ s(v, w) + λλs(w, w), ( ) 0 s(v, v) λ s(v, w) λ s(v, w) + λ λ s(w, w). a) Gilt s(v, v) = s(w, w) = 0, so setzen wir λ := s(v, w) in ( ) ein : 0 s(v, w) s(v, w) s(v, w) s(v, w) = 2 s(v, w) 2, und wegen s(v, w) 2 0 folgt s(v, w) = 0. Da auch v = w = 0 ist, gilt in diesem Fall die Ungleichung. b) Sind s(v, v) und s(w, w) nicht beide Null, so ist eins von beiden positiv. Sei etwa s(w, w) > 0, dann setzen wir λ := s(v, w) s(w, w) in ( ) ein, und multiplizieren mit s(w, w) : 0 s(v, v)s(w, w) s(v, w)s(v, w) s(v, w)s(v, w) + s(v, w)s(v, w), also s(v, w) 2 s(v, v) s(w, w), und wir wissen: Wenn R + = { x R x 0 } ist, ist die Wurzelfunktion : R+ R +, x x monoton wachsend : 2) Ist (v, w) linear abhängig, so gilt s(v, w) v w. λ K : v = λw λ K : w = λv. Sei etwa v = λw mit λ K, also v 2 = s(v, v) = λλs(w, w) = λ 2 s(w, w) = λ 2 w 2, s(v, w) = λ s(w, w) = λ w 2, also s(v, w) = ( λ w ) w = v w. 9

Zusatz 6.1.15 : Sei V ein K Vektorraum mit Skalarprodukt s, und seien v, w V mit s(v, w) = v w, so ist die Familie (v, w) linear abhängig. Beweis : Sei λ := s(w, w) und µ := s(v, w), dann ist λ R, und s(λv + µw, λv + µw) = λλs(v, v) + µµs(w, w) + λµs(v, w) + λµs(w, v) = w 4 v 2 + s(v, w) 2 w 2 w 2 s(v, w) 2 w 2 s(v, w) 2 = w 2 ( w 2 v 2 + v 2 w 2 v 2 w 2 v 2 w 2 ) = 0, also λv + µw = 0, da s positiv definit ist. Also ist a) falls w = 0 ist: (v, w) linear abhängig, und b) falls w 0 ist: λ = w 2 0, also (v, w) linear abhängig. Satz 6.1.16 : Sei V ein K Vektorraum mit positiv semidefiniter Hermitescher Form s, und v := s(v, v) für v V. Dann gilt für alle v, w V und alle λ K : (N1 ) v 0 (N2) λ v = λ v (N3) v + w v + w (Dreiecksungleichung). Ist s sogar positiv definit, so gilt statt (N1 ) (N1) v 0 ( v = 0 v = 0 ). Beweis : (N1 ) folgt daraus, dass s(v, v) 0 ist. (N2) λ v = s(λv, λv) = λ λ s(v, v) = λ 2 s(v, v) = λ v. (N3) v + w 2 = s(v +w, v +w) = s(v, v) + s(v, w) + s(w, v) + s(w, w) = v 2 + w 2 + s(v, w) + s(v, w) = v 2 + w 2 + 2 Re s(v, w), und da für z C gilt : Re z z : v + w 2 v 2 + w 2 + 2 s(v, w), und nach Cauchy-Schwarz: v 2 + w 2 + 2 v w = ( v + w ) 2, also v + w v + w. 10

(N1) Ist s positiv definit, so gilt für v 0 : s(v, v) > 0, also v > 0. Definition 6.1.17 : Ein K Vektorraum V mit einer Abbildung : V R, die die Eigenschaften (N1) v V : ( v 0 ( v = 0 v = 0)), (N2) v V λ K : λv = λ v, (N3) v, w V : v + w v + w hat, heißt ein normierter K Vektorraum. Mit Satz 6.1.16 bekommen wir daher: Folgerung 6.1.18 : Jeder K Vektorraum V mit Skalarprodukt s wird ein normierter K Vektorraum, wenn man v := s(v, v) für v V setzt. Folgerung 6.1.19 : Sei V ein K Vektorraum mit positiv semidefiniter Hermitescher Form s und v = s(v, v) für v V. Dann gilt für alle v, w V : a) v + w 2 = v 2 + w 2 + s(v, w) + s(w, v) (Satz des Pythagoras), und b) v + w 2 + v w 2 = 2 ( v 2 + w 2 ) (Parallelogrammgleichung). Beweis als Übungsaufgabe (6.1). Bemerkung 6.1.20 : Nach Folgerung 6.1.18 wird jeder K Vektorraum V mit Skalarprodukt s ein normierter K Vektorraum, wenn man die Norm durch ( ) v := s(v, v) für v V 11

definiert. Man kann nun umgekehrt fragen: Sei V ein normierter K Vektorraum, gibt es dann auf V ein Skalarprodukt s, so dass ( ) gilt? Nach Folgerung 6.1.19 ist dann klar: Ist eine Norm auf V, die die Parallelogrammgleichung nicht erfüllt, so gibt es so ein s nicht. Ein Beispiel für einen normierten K Vektorraum, in dem die Parallelogrammgleichung nicht gilt, erhalten Sie als Übungsaufgabe (6.2). Wenn für die Parallelogrammgleichung gilt, dann gibt es so ein s, der Beweis benutzt Argumente aus der Analysis, siehe [ SG ]. Man braucht die Cauchy-Schwarzsche Ungleichung, um Winkel zwischen Vektoren zu definieren: Definition 6.1.22 : Sei V ein euklidischer Vektorraum, also ein R Vektorraum mit Skalarprodukt s. Seien v, w V \ {0}, dann gilt nach Cauchy- Schwarz: s(v, w) v w 1, und wegen s(v, w) R sogar s(v, w) v w [ 1, 1]. Also ist ϕ := arccos s(v, w) v w definiert, und es gilt ϕ [0, π]. ϕ heißt der Winkel zwischen den Vektoren v und w. Wir wollen in diesem Abschnitt keine analytische Geometrie treiben und uns deshalb nicht allgemein mit Winkeln beschäftigen. Wir sehen aber : ϕ = π 2 s(v, w) = 0, die Vektoren v und w stehen genau dann aufeinander senkrecht, wenn ihr Skalarprodukt 0 ist. s(v, w) = 0 gibt natürlich auch für einen C Vektorraum Sinn: Definition 6.1.23 : Sei V ein K Vektorraum mit Hermitescher Form s. Zwei Vektoren u, v V heißen zueinander senkrecht oder orthogonal, in Zeichen: u v, wenn s(u, v) = 0 ist. 12

Wir betrachten dazu noch einmal unser Beispiel 6.1.11: Im C Vektorraum I[a, b] der integrierbaren Funktionen f : [a, b] C, a, b R, a < b, mit s(f, g) = b a f(t) g(t) dt sei f a : [a, b] C, f a (t) : = dann gilt für alle g I[a, b] : { 1 für t = a 0 für t a, f a (t) g(t) = { g(a) für t = a 0 für t a, also s(f a, g) = 0, also f a g für alle g I[a, b], aber f a 0 Definition 6.1.24 : Eine Hermitesche Form s auf einem K Vektorraum V heißt nichtausgeartet, wenn es außer 0 keinen Vektor aus V gibt, der auf allen w V senkrecht steht, wenn also gilt (H3) v V : ( w V : s(v, w) = 0 = v = 0 ). Folgerung 6.1.25 : Sei V ein K Vektorraum mit Hermitescher Form s. Dann gilt: s positiv definit s nichtausgeartet und positiv semidefinit. Beweis : = : Sei s positiv definit und v V ein Vektor mit w V : s(v, w) = 0, dann gilt insbesondere s(v, v) = 0, also v = 0. Also ist s nichtausgeartet, und positiv semidefinit nach Folgerung 6.1.8. = : Ist s positiv semidefinit, so gilt für alle v V : s(v, v) 0, und falls v = 0 ist : s(v, v) = 0. 13

Ist nun v V mit s(v, v) = 0, so gilt nach Cauchy-Schwarz für alle w V : s(v, w) 2 v 2 w 2 = s(v, v) s(w, w) = 0, also s(v, w) = 0, und damit s(v, w) = 0, für alle w V. Ist nun s nichtausgeartet, so folgt daraus v = 0. Hermitesche Formen, die nicht positiv semidefinit, aber immerhin noch nichtausgeartet sind, kommen in der Physik (und zwar in der Relativitätstheorie) vor: Beispiel 6.1.26 : Für a = t (a 1, a 2, a 3, a 4 ), b = t (b 1, b 2, b 3, b 4 ) R 4 man 3 s(a, b) := a j b j a 4 b 4, j=1 setzt dann ist s eine nichtausgeartete symmetrische Bilinearform auf dem R 4, die nicht positiv semidefinit ist. Beweis : Dass (H1) und (H2) für s gelten, kann man leicht nachrechnen. Für a = (0, 0, 0, 1) gilt s(a, a) = 1 < 0, also gelten (H 3 1 ) und (H4) nicht. Es gilt aber (H3), denn sei a R4 und 2 b R 4 : s(a, b) = 0, dann gilt insbesondere für die kanonischen Basisvektoren e j, j 4, des R 4 : also a = 0. s(a, e j ) = 0 und damit a 1 = a 2 = a 3 = a 4 = 0, In der Relativitätstheorie interpretiert man hier die ersten drei Komponenten von a als Ort und a 4 als Zeit. 6.2 Orthonormalbasen Definition 6.2.1 : Sei V ein K Vektorraum mit Skalarprodukt und (v j ) j J 14

eine Familie von Vektoren aus V, J eine (nicht notwendig endliche) Menge. Dann heißt die Familie (v j ) j J a) ein Orthogonalsystem, wenn v j v k für alle j, k J mit j k ist, b) ein Orthonormalsystem, wenn sie ein Orthogonalsystem ist und zusätzlich v j = 1 für alle j J gilt, c) eine Orthogonalbasis, wenn sie ein Orthogonalsystem und eine Basis von V ist, d) eine Orthonormalbasis, wenn sie ein Orthonormalsystem und eine Basis von V ist. Beispiel 6.2.2 : Im K Vektorraum K n mit dem kanonischen Skalarprodukt, ist die kanonische Basis (e j ) j n eine Orthonormalbasis, denn es gilt für j, l n : e j = (δ kj ) k n, also e j, e l = n δ kj δ kl = δ lj = k=1 { 1 für j = l 0 für j l. Beispiel 6.2.3 : Im K Vektorraum K[X] aller Polynome mit Koeffizienten aus K wird durch s(f, g) := 1 1 f(t) g(t)dt ein Skalarprodukt definiert. Die Legendre-Polynome P n (X) := 1 2 n n! Dn (X 2 1) n für n N 0, wobei D die formale Ableitung eines Polynoms ist, also ( n ) n 1 D α j X j = (j + 1)α j+1 X j für α j K, j=0 j=0 sind Polynome vom Grad n, für jedes n N 0, und damit sieht man, dass sie eine Basis von K[X] bilden. (P n (X)) n N0 ist sogar eine Orthogonalbasis, denn mit Methoden aus der Analysis (partieller Integration) kann man zeigen: s(p n, P m ) = 1 P n (t) P m (t) dt = 0 für n m, 1 15

allerdings keine Orthonormalbasis, denn s(p n, P n ) = 2 2n + 1 Nimmt man statt (P n (X)) n N0 aber die Familie (Q n (X)) n N0, die durch 2n + 1 Q n (X) := P n (X) 2 definiert ist, so ist (Q n (X)) n N0. sogar eine Orthonormalbasis von K[X]. Bemerkung 6.2.4 : Orthonormalbasen sind sehr praktisch: Ist V ein K Vektorraum mit Skalarprodukt s und Orthonormalbasis (v j ) j n, n N, so hat jedes v V eine eindeutig bestimmte Darsllung v = n λ j v j mit λ j K, j=1 und man kann die λ j leicht berechnen: Es ist für k n: n s(v, v k ) = s( λ j v j, v k ) = also λ k = s(v, v k ). j=1 n λ j s(v j, v k ) = j=1 n λ j δ jk = λ k, j=1 Wie kann man sich nun zu einem gegebenem K Vektorraum V mit Skalarprodukt s eine Orthonormalbasis verschaffen? Der folgende Satz macht nicht nur eine Existenz-Aussage, sondern gibt auch ein Verfahren an, wie man so eine Basis schrittweise konstruieren kann. Man sollte daher den Beweis verstehen: (6.2.5) Orthonormalisierungssatz von J.Gram und Erhard Schmidt : Sei V ein K Vektorraum mit Skalarprodukt s und dim V = n N. Dann lässt sich jedes Orthonormalsystem (w 1,..., w m ) in V mit 0 m n ergänzen zu einer Orthonormalbasis (w 1,..., w m,..., w n ) von V. 16

Beweis durch Induktion nach k := n m : Induktionsanfang : Sei k = 0, dann ist n = m, und das Orthonormalsystem (w j ) j n ist bereits eine Basis, denn es besteht aus n Vektoren, und diese sind linear unabhängig: Aus n α j w j = 0 mit α j K folgt für k n : j=1 ( n ) 0 = s α j w j, w k = n n α j s(w j, w k ) = α j δ jk = α k. j=1 j=1 j=1 Hier ist der Satz also richtig; wir brauchen nichts zu ergänzen. Induktionsschluss : Sei k N 0, und für n m = k sei der Satz richtig. Sei nun n m = k + 1 N, dann ist m = n (k + 1) < n = dim V, für W := span(w j ) j m gilt dim W m < n, es gibt also einen Vektor v V mit v / span(w j ) j m. Wir setzen ṽ := m j=1 s(v, w j ) w j ( ṽ ist die Projektion von v nach W ). x 3 v w (In der Zeichnung x 2 ist W die (x 1, x 2 ) ṽ Ebene und V = R 3.) x 1 Der Vektor ṽ liegt in W, und w := v ṽ 17

steht auf allen Vektoren aus W senkrecht, denn für k m gilt ( m ) s(w, w k ) = s(v, w k ) s s(v, w j )w j, w k = s(v, w k ) = s(v, w k ) j=1 m s(v, w j ) s(w j, w k ) j=1 m s(v, w j ) δ jk j=1 = s(v, w k ) s(v, w k ) = 0. Wegen ṽ W, v / W ist w 0. Wir können w daher normieren : Wir setzen w m+1 := 1 w w, dann haben wir ein Orthonormalsystem (w 1,..., w m, w m+1 ) in V ; es ist n (m + 1) = k, und wenn der Satz für k richtig ist, kann man dieses Orthonormalsystem ergänzen zu einer Orthonormalbasis (w 1,..., w m, w m+1,..., w n ) von V. Bemerkung : Die für die praktische Rechnung bei der Konstruktion einer Orthonormalbasis wichtigen Schritte haben wir eingerahmt! Folgerung 6.2.6 : Jeder endlichdimensionale K Vektorraum V mit Skalarprodukt besitzt eine Orthonormalbasis. Beweis : Die leere Familie (w j ) j 0 ist ein Orthonormalsystem in V, man kann also den Orthonormalisierungssatz mit m := 0 verwenden. 6.3 Matrizen Hermitescher Formen Definition 6.3.1 : Sei V ein n dimensionaler K Vektorraum, n N, 18

B = (v 1,..., v n ) eine Basis von V, und s eine Hermitesche Form auf V, dann nennen wir M B (s) := (s(v k, v j )) (k,j) n n M(n n, K) die darstellende Matrix von s bezüglich der Basis B. Bemerkung 6.3.2 : Durch M B (s) ist s eindeutig festgelegt, denn seien v, w V, dann hat man zu B = (v 1,..., v n ) eindeutig bestimmte Vektoren x = t (x 1,..., x n ), y = t (y 1,..., y n ) K n mit Setzen wir v = n x k v k, w = k=1 ( n s(v, w) = s x k v k, k=1 wenn wir unter y den Vektor ) n y j v j = j=1 n y j v j, also j=1 n k=1 n x k s(v k, v j )y j. j=1 A := M B (s), so wird s(v, w) = t x A y, y := t (y 1,..., y n ) verstehen. Hier ist A nicht irgendeine Matrix aus M(n n, K) : Da s Hermitesch ist, gilt s(v k, v j ) = s(v j, v k ), für A = (a kj ) = M B (s) also a kj = a jk : Definition 6.3.3 : Eine Matrix A = (a kj ) M(n n, K) heißt Hermitesch, wenn a kj = a jk für alle j, k n, also ist. Ist K = R, so bedeutet das A = t A A = t A, 19

eine Matrix mit dieser Eigenschaft heißt symmetrisch. Folgerung 6.3.4 : Wir haben also bewiesen: Ist V ein K Vektorraum mit Basis B = (v 1,..., v n ), und s eine Hermitesche Form auf V, so ist die darstellende Matrix A := (s(v k, v j )) Hermitesch. Man sieht sofort, dass umgekehrt jede Hermitesche Matrix A = (a kj ) durch ( n ) n n s x k v k, y j v j := x k a kj y j k=1 j=1 eine hermitesche Form auf V definiert. k,j=1 Es wäre nun schön, wenn man der darstellenden Matrix M B (s) ansehen könnte, ob s nichtausgeartet oder sogar positiv definit ist. Satz 6.3.5 : Eine Hermitesche Form s auf einem endlichdimensionalen K Vektorraum V ist genau dann nichtausgeartet, wenn für die darstellende Matrix M B (s) bezüglich einer festen Basis B von V gilt det M B (s) 0. Beweis : Sei (v 1,..., v n ) eine Basis von V. Dann gilt: s ist ausgeartet v V \ {0} w V : s(v, w) = 0 v V \ {0} j n : s(v, v j ) = 0. und da v = n k=1 s ist ausgeartet α k v k mit (α 1,..., α n ) 0 ist, gilt: (α 1,..., α n ) 0 j n : n k=1 α k s(v k, v j ) = 0 Die Zeilenvektoren von (s(v k, v j )) sind linear abhängig det(s(v k, v j )) = 0. Zumindest bei R-Vektorräumen mit symmetrischer Bilinearform s kann man an der Matrix M B (s) auch ablesen, ob s positiv definit ist, das ist das Hauptminoren- oder Hurwitz-Kriterium, das wir aber erst später beweisen können. 20

Wir fragen uns, wie sich die darstellende Matrix M B (s) bei einem Basiswechsel verändert : (6.3.6) Transformationssatz für darstellende Matrizen Hermitescher Formen: Sei V ein n dimensionaler K Vektorraum mit Hermitescher Form s, n N, und seien A = (a 1,..., a n ), A = (a 1,..., a n) zwei Basen von V, dann hat man, wie in Bemerkung 4.4.16: n j n : a j = t kj a k mit der Transformationsmatrix k=1 MA A ( id V ) =: T = (t kj ) GL(n, K), also gilt ( n ) n j, l n : s(a j, a l ) = s t kj a k, t rl a r = n k=1 n t kj t rl s(a k, a r) = r=1 k=1 n k=1 und nach Definition des Matrizenprodukts heißt das r=1 n t kj s(a k, a r) t rl, r=1 M A (s) = t T M A (s) T, genauer: M A (s) = t M A A ( id V ) M A (s) M A A ( id V ). (6.3.7) Beachten Sie, dass die Transformationsformel für die Matrix einer Hermiteschen Form anders ist als die Transformationsformel für die Matrix linearer Abbildungen: Hat man einen Endomorphismus F : V V und zwei Basen A, (A) von V, sogilt nach 4.4.17 : M A A (F ) = T 1 M A A (F ) T mit T := M A A ( id V ), dieser kleine Unterschied wird uns noch beschäftigen! 6.4 Das Vektorprodukt im R 3 Schon in 1.6.3 hatten wir das Vektorprodukt im R 3 definiert. Dem ist nicht viel hinzuzufügen, da man das Vektorprodukt nicht in anderen Vektorräumen definieren kann. Aber Determinanten kannten wir damals noch nicht, und da 21

gibt es einige Zusammenhänge: (6.4.1) Zur Wiederholung : Seien a = t (a 1, a 2, a 3 ), b = t (b 1, b 2, b 3 ) R 3, dann war der Vektor ( ) a b := (det t a2 b 2 a 3 b 3 ( a1 b, det 1 a 3 b 3 ) ( a1 b, det 1 a 2 b 2 )) R 3 das Vektorprodukt von a und b. - Wir hatten das damals natürlich ohne Determinanten aufgeschrieben. Die Rechenregeln kennen Sie zum Teil: (6.4.2) Rechenregeln für das Vektorprodukt : Seien a, b, c R 3, λ R und, das kanonische Skalarprodukt im R 3. Dann gilt a) a b, c = det(a, b, c), wobei (a, b, c) die Matrix mit den Spaltenvektoren a, b, c ist, b) a b = (b a), c) a a = 0, d) a (b + c) = a b + a c, e) a (λb) = λ(a b), f) a, a b = b, a b = 0, g) a (b c) = a, c b a, b c Grassmann-Identität, h) a (b c) + b (c a) + c (a b) = 0 Jacobi-Identität, i) a b = 0 die Familie (a, b) ist linear abhängig. Beweis : a) Entwicklung von det a 1 b 1 c 1 a 2 b 2 c 2 a 3 b 3 c 3 nach der 3.Spalte ergibt die Behauptung. b), c ), f), i) folgen aus a) und daraus, dass det alternierend ist. d), e) folgen aus der Linearität von det als Funktion der 2.Spalte. g) Hier muss man einfach stumpfsinnig ausrechnen: a (b c) = a (b 2 c 3 b 3 c 2, b 3 c 1 b 1 c 3, b 1 c 2 b 2 c 1 ) = (a 2 (b 1 c 2 b 2 c 1 ) a 3 (b 3 c 1 b 1 c 3 ), a 1 (b 1 c 2 b 2 c 1 ) + a 3 (b 2 c 3 b 3 c 2 ), a 1 (b 3 c 1 b 1 c 3 ) a 2 (b 2 c 3 b 3 c 2 )) = ((a 1 c 1 + a 2 c 2 + a 3 c 3 )b 1 (a 1 b 1 + a 2 b 2 + a 3 b 3 )c 1, (a 1 c 1 + a 2 c 2 + a 3 c 3 )b 2 (a 1 b 1 + a 2 b 2 + a 3 b 3 )c 2, (a 1 c 1 + a 2 c 2 + a 3 c 3 )b 3 (a 1 b 1 + a 2 b 2 + a 3 b 3 )c 3 ) = a, c b a, b c. h) Nach g) gilt a (b c) + b (c a) + c (a b) = 22

a, c b a, b c + b, a c b, c a + c, b a c, a b = 0. i) folgt wieder aus (6.4.1) und den Regeln für Determinanten. Bemerkung 6.4.3 :Für das Vektorprodukt gilt also das Distributivgesetz (Regeln d),e)) und statt des Kommutativgesetzes die Regel b). Statt des Assoziativgesetzes hat man für drei Faktoren die Jacobi-Identität, Regel h). Ein Einselement in (R 3, ) wird man vergeblich suchen - wegen Regel c). Nach Definition 4.9.2 ist also (R 3, +,, ω) keine (assoziative) R Algebra. Man nennt einen Vektorraum mit einer Multiplikation, für die das Distributivgesetz und die Regeln c) und h) des vorigen Satzes gelten, eine Lie-Algebra. Satz 6.4.4: Für alle a, b, c, d R 3 gilt a b, c d = a, c b, d b, c a, d. Beweis : Nach der Grassmann-Identität (6.4.2) g) gilt a, c b b, c a = c (b a). Wir bilden auf beiden Seiten das Skalarprodukt mit d : a, c b, d b, c a, d = c (b a), d (6.4.2) a) = det(c, b a, d) = det(c, d, b a) (6.4.2) a) = c d, b a = a b, c d. Satz 6.4.5 : Für alle a, b R 3 gilt a, b 2 + a b 2 = a 2 b 2. Das ist eine genauere Aussage als die Cauchy-Schwarzsche Ungleichung, die nur a, b 2 a 2 b 2 liefert! Beweis : Setzen wir c := a, d := b in (6.4.4) ein, so erhalten wir a b, a b = a, a b, b b, a a, b, also 23

a b 2 + a, b 2 = a 2 b 2. (6.4.6) Geometrische Deutung des Vektorprodukts : Seien a, b R 3, a, b 0. Dann gilt (1) a b = a b sin ϕ, wobei ϕ der Winkel zwischen a und b ist, (2) a b a und a b b, (3) det(a, b, a b) 0.. Beweis : (1) a b 2 (6.4.5) = a 2 b 2 a, b 2 = a 2 b 2 (1 cos 2 ϕ) = a 2 b 2 sin 2 ϕ, ϕ [0, π], also sin ϕ [0, 1], und damit folgt die Behauptung. (2) a b, a (6.4.2) = det(a, b, a) = 0, entsprechend für b. (3) det(a, b, a b) (6.4.2) = a b, a b = a b 2 0. Ist (a, b) linear unabhängig, so weiß man damit: a b steht senkrecht auf der von a und b aufgespannten Ebene im R 3 und hat die Norm a b sin ϕ. (3) macht eine Aussage, in welche Richtung der Vektor a b zeigt. Man braucht dazu den Begriff der Orientierung einer Basis des R n : Definition 6.4.7 : Sei (b 1,..., b n ) eine Basis des R n. Sie heißt positiv orientiert, wenn für die Matrix mit den Spaltenvektoren b 1,..., b n gilt : det(b 1,..., b n ) > 0. Sei T diese Matrix, also t kj die k te Komponente von b j, so gilt j n : b j = n t kj e k, k=1 T = MK B ( id V ) ist also die in Bemerkung 4.4.16 definierte Transformationsmatrix von der Basis (b j ) j n zur kanonischen Basis (e k ) k n. (b j ) j n positiv orientiert bedeutet dann, dass (b j ) j n genauso orientiert ist wie die kanonische Basis. Speziell im R 3 kann man beweisen: Satz 6.4.8 : Eine Basis (b 1, b 2, b 3 ) des R 3 ist genau dann positiv orientiert, 24

wenn sie die Rechte-Hand-Regel erfüllt : Zeigt b 1 in die Richtung des Daumens, b 2 in die des Zeigefingers, so zeigt b 3 in die Richtung des Mittelfingers der rechten Hand. Die Regel (6.4.6)(3) sagt dann: Ist (a, b) linear unabhängig, so ist (a, b, a b) eine positiv orientierte Basis des R 3, erfüllt also die Rechte- Hand-Regel. 6.5 Sphärische Geometrie Sie ist für das weitere Verständnis der Linearen Algebra vielleicht nicht übermäßig wichtig, aber es gehört zur mathematischen Allgemeinbildung, dass man Entfernungen nicht nur anhand einer Wander- oder Autokarte, sondern auch insgesamt auf der Erdoberfläche, die man näherungsweise als Kugeloberfläche ansehen kann, ausrechnen kann. Wir nehmen zunächst mal die Kugel mit dem Radius 1 : Definition 6.5.1 : Ein sphärisches Dreieck ist eine positiv orientierte Basis (a, b, c) des R 3 mit a = b = c = 1. B c γ A a α β b C Als Seiten des Dreiecks (a, b, c) bezeichnet man die Winkel zwischen diesen Vektoren, im Bogenmaß gemessen, also A := arccos b, c, B := arccos a, c, 25

C := arccos a, b. Als Winkel zwischen diesen Seiten bezeichnet man die Winkel zwischen den durch (a, b), (b, c) bzw. (a, c) aufgespannten Ebenen, also die Winkel zwischen zwei Vektoren, die auf diesen Ebenen senkrecht stehen: α := arccos a c, a b a c a b, β := arccos γ := arccos b a, b c b a b c c b, c a c b c a Wie in der Geometrie in der Ebene sucht man nun Beziehungen zwischen A, B, C, α, β, γ, so dass man von diesen sechs Zahlen die restlichen ausrechnen kann, wenn man drei davon kennt. Unsere Regeln für das Vektorprodukt sind dabei sehr nützlich, z.b. bei Hilfssatz 6.5.2 : Das sphärische Dreieck (a, b, c) sei wie in 6.5.1 definiert. Dann gilt det(a, b, c) = sin α sin B sin C. Beweis : Seien zunächst a, b, c, d R 3 beliebig. Dann gilt nach der Grassmann-Identität 6.4.2 g) : (a b) (c d) = < a b, d > c < a b, c > d und nach Regel (6.4.2) a) ist das gleich... = det(a, b, d) c det(a, b, c) d. Also gilt für unser sphärisches Dreieck (a, b, c) : also (a b) (a c) = det(a, b, c) a wegen det(a, b, a) = 0, det(a, b, c) = det(a, b, c) a = det(a, b, c) a = (a b) (a c) (6.4.6)(1) = a b a c sin α (6.4.6)(1) = sin C sin B sin α, und wegen α, B, C [0, π], und da (a, b, c) positiv orientiert ist, folgt det(a, b, c) = sin C sin B sin α. 26,.

6.5.3 : Sinus - Satz : Im sphärischen Dreieck, mit den Bezeichnungen aus 6.5.1, gilt sin α sin A = sin β sin B = sin γ sin C. Beweis : Nach Hilfssatz 6.5.2 gilt sin α sin A = det(a, b, c) sin A sin B sin C, und das ändert sich nicht, wenn man a, b, c zyklisch vertauscht. Die folgenden beiden Sätze folgen aus den Rechenregeln für das Vektorprodukt : 6.5.4 : 1. Cosinus - Satz : Im sphärischen Dreieck gilt cos A = cos B cos C + sin B sin C cos α 6.5.5 : 2. Cosinus - Satz : Im sphärischen Dreieck gilt sin C cos B = sin B cos C cos α + sin A cos β. Beweis als Aufgabe (6.9). 6.5.6 : Entfernung auf der Erde : In erster Näherung kann man annehmen, dass die Erde eine Kugel mit dem Radius R = 6378km 27

N K P Ä ϕ λ M 0 S ist. Man gibt Punkte P auf dem Breitenkreis K auf der Erde durch zwei Koordinaten an, nämlich die (nördliche bzw. südliche) Breite ϕ, vom Äquator Ä aus gerechnet, und die (östliche bzw. westliche) Länge λ, gerechnet vom Nullmeridian M 0. Länge und Breite werden im Winkelmaß gemessen, z.b.: Berlin Madrid Luanda Länge 13,4 o ö.l. 3,8 o w.l. 3,3 o ö.l. Breite 52,5 o n.b. 40,4 o n.b. 8,9 o s.b. Zählt man südliche Breite und westliche Länge negativ, so ist 90 o ϕ 90 o und 180 o < λ 180 o. Die Entfernung zwischen zwei Punkten b, c auf der Erde erhält man durch Betrachtung des durch b, c und den Nordpol a gebildeten sphärischen Dreiecks, 28

C β A b a α B γ c Ä mit Hilfe des 1. Cosinus - Satzes: Hat b die Koordinaten (λ 1, ϕ 1 ) und c die Koordinaten (λ 2, ϕ 2 ), so ist B = 90 o ϕ 2, C = 90 o ϕ 1, also cos A = cos(90 o ϕ 2 ) cos(90 o ϕ 1 ) + sin(90 o ϕ 2 ) sin(90 o ϕ 1 ) cos(λ 2 λ 1 ) cos A = sin ϕ 1 sin ϕ 2 + cos ϕ 2 cos ϕ 1 cos(λ 2 λ 1 ). Daraus kann man A im Bogenmaß ausrechnen und muss das Ergebnis noch mit dem Erdradius multiplizieren; das ist dann die Entfernung zwischen den Punkten b und c auf der Erdoberfläche. (6.6) Aufgaben (6.1) Beweisen Sie die Folgerung 6.1.19 (Satz des Pythagoras und Parallelogrammgleichung). (6.2) Zeigen Sie, dass durch x := max { x j j 3 } für x = t (x 1, x 2, x 3 ) R 3 eine Norm auf R 3 nicht gilt. definiert ist, für die die Parallelogrammgleichung 29

(6.3) Sind die folgenden Abbildungen s : R 2 R 2 R a) bilinear, b) symmetrisch, und falls beides zutrifft, c) positiv semidefinit, d) ein Skalarprodukt? Für a = (a 1, a 2 ), b = (b 1, b 2 ) sei s(a, b) := α) a 1 b 2 a 2 b 1, β) 2a 1 b 1 +a 1 b 2 +a 2 b 1 +2a 2 b 2. Falls s ein Skalarprodukt ist, geben Sie zwei Vektoren v, w R 2 mit s(v, w) = 0 und s(v, v) = s(w, w) = 1. (6.4) Zeigen Sie, dass durch s(a, b) := a 1 b 1 +4a 2 b 2 +3a 3 b 3 +ia 1 b 2 ia 2 b 1 +a 1 b 3 +a 3 b 1 ia 2 b 3 +ia 3 b 2 für a = t (a 1, a 2, a 3 ), b = t (b 1, b 2, b 3 ) C 3 ein Skalarprodukt auf C 3 definiert ist. an (6.5) Sei V ein K Vektorraum mit nichtausgearteter Hermitescher Form s, K = R oder C. Zeigen Sie: a) Für jedes a V ist durch ϕ a : V K, ϕ a (x) := s(x, a) eine lineare Abbildung definiert, d.h. es ist ϕ a V. b) Ist V endlichdimensional, so ist ϕ : V V, ϕ(a) := ϕ a ein Semi-Isomorphismus von V auf V, d.h. ϕ ist bijektiv, und es gilt für alle a, b V, α K : ϕ(a + b) = ϕ(a) + ϕ(b), ϕ(α a) = α ϕ(a). c) Sei U ein Untervektorraum von V, dann setzt man U o := { λ V u U : λ(u) = 0 } und U := { v V u U : s(u, v) = 0 }. U heißt das orthogonale Komplement von U. Zeigen Sie : Ist V endlichdimensional, so gibt es einen Semi-Isomorphismus von U auf U o. (6.6) Sei V ein K Vektorraum mit Skalarprodukt s, K = R oder C, und U ein Untervektorraum von V. Dann hatten wir in Aufgabe (6.5) c) das orthogonale Komplement U von U definiert. Zeigen Sie, dass für 30

Untervektorräume U 1, U 2, U von V gilt: a) (U 1 + U 2 ) = U 1 U 2 und U 1 + U 2 (U 1 U 2 ) b) Sei dim V = n N 0, dann gilt dim U = n dim U, V = U U, (U ) = U und U 1 + U 2 = (U 1 U 2 ). (6.7) Sei K ein Körper, n N. Für eine Matrix A M(n n, K) nennt man n tr A := die Spur von A. Zeigen Sie: a jj j=1 a) tr : M(n n, K) K ist K linear. b) Für alle A, B M(n n, K) gilt tr (A B) = tr (B A), und falls B GL(n, K) ist, auch tr (B A B 1 ) = tr A. c) Sei K = R oder C, dann ist durch s(a, B) := tr (A t B) ein Skalarprodukt auf M(n n, K) definiert. d) Die Menge U der Diagonalmatrizen ist ein Untervektorraum von M(n n, C). Berechnen Sie das orthogonale Komplement U. (6.8) Sei V die Menge der beschränkten Folgen reeller Zahlen, also V = { (a n ) n N F(N, R) c R n N : a n c }. Zeigen Sie : a) V ist ein R Vektorraum. b) Durch s((a n ) n N, (b n ) n N ) := n=1 a n b n n 2 ist ein Skalarprodukt auf V definiert. c) Es gibt einen echten Untervektorraum U von V (also U V ) mit U = {0}. Elementare Kenntnisse über Folgen und Reihen müssen verwendet werden! (6.9) Sei (a, b, c) ein sphärisches Dreieck. Zeigen Sie, dass mit den Bezeichnungen aus Definition 6.5.1 gilt a) cos A = cos B cos C + sin B sin C cos α, b) sin C cos B = sin B cos C cos α + sin A cos β. 31

(6.10) Philadelphia und Peking liegen auf demselben Breitenkreis: 40 o n.b. Ihre Längen sind Philadelphia : 75 o w.l., Peking : 117 o ö.l. Wie groß ist die Strecke (in km, gerundet), die ein Flugzeug von Philadelphia nach Peking fliegt, wenn es a) längs des Breitenkreises, b) über den Nordpol, also längs der Meridiane, c) auf dem kürzesten Weg fliegt? d) Wie groß ist der Startwinkel α zum Breitenkreis in Philadelphia beim Flug auf der kürzesten Strecke? Gehen Sie von einer kugelförmigen Erde mit Radius 6378 km aus. 32

7 Eigenwerte 7.1 Beispiele und Definitionen Definition 7.1.1 : Sei K ein (beliebiger) Körper und V ein K Vektorraum. Sei F ein Endomorphismus von V, also F Hom K (V, V ). Ein Element λ K heißt ein Eigenwert von F, wenn es ein v V \ {0} gibt, so dass gilt F (v) = λv. Jedes von 0 verschiedene v V, das diese Gleichung erfüllt, heißt ein Eigenvektor von F zum Eigenwert λ. (7.1.2) Beachten Sie, dass 0 K ein Eigenwert sein kann, dass aber 0 V definitionsgemäß kein Eigenvektor ist! 7.1.3 Beispiele : Sei V := C (R) der R Vektorraum aller beliebig oft differenzierbaren Funktionen f : R R, und a) D : V V, D(f) := f die Differentiation. D ist R linear. Man fragt sich: Gibt es eine Funktion f C (R), deren Ableitung proportional zu f ist, für die also f = λ f mit einem λ R gilt? So eine Funktion kennen Sie: f(x) := e λx. Also ist jedes λ R ein Eigenwert von D. b) Auch D 2 : V V, D 2 (f) := f ist R linear. Für λ 0 sind die Funktionen f ± mit f ± (x) := e ± λx Eigenvektoren zum Eigenwert λ. Für λ < 0 sind g 1 und g 2, g 1 (x) := sin( λ x) und g 2 (x) := cos( λ x) Eigenvektoren zum Eigenwert λ. Wiederum: Jedes λ R ist ein Eigenwert von D 2. Bemerkung : In den letzten Beispielen war V unendlichdimensional. Wir wollen erst mal die Theorie für endlichdimensionale Vektorräume kennenlernen. Dazu das folgende Beispiel: Sei ( ) ( ) ( ) F : R 2 R 2 x1 1 0 x1, F :=, 0 1 x 2 33 x 2

dann sehen wir: F (e 1 ) = 1 e 1 : e 1 ist Eigenvektor zum Eigenwert 1, F (e 2 ) = 1 e 2 : e 2 ist Eigenvektor zum Eigenwert 1. Wenn die Matrix von F bezüglich einer festen Basis eine Diagonalmatrix ist, kann man die Eigenwerte besonders leicht ausrechnen : Definition 7.1.4 : Sei K ein Körper, V ein K Vektorraum, dim K V = n N und F ein Endomorphismus von V. F heißt diagonalisierbar, wenn es eine Basis von V gibt, die aus Eigenvektoren von F besteht. (7.1.5) Vorsicht: Wenn es eine Basis von V gibt, die aus Eigenvektoren von F besteht, heißt das nicht, dass jeder Vektor aus V ein Eigenvektor von F ist, denn eine Linearkombination von Eigenvektoren (zu verschiedenen Eigenwerten) ist i.a. kein Eigenvektor! Folgerung 7.1.6 : Ist dim K V = n N, so ist ein F End K (V ) = Hom K (V, V ) genau dann diagonalisierbar, wenn es eine Basis B = (v 1,..., v n ) von V gibt, so dass MB B (F ) eine Diagonalmatrix ist, also λ 1 0 MB B (F ) =... mit λ 1,..., λ n K. 0 λ n Beweis : M B B (F ) = λ 1 0... 0 λ n F (v j ) = λ j v j für alle j n. ist gleichbedeutend mit Hilfssatz 7.1.7 : Sei K ein Körper, V ein K Vektorraum und F End K V. Sind v 1,..., v m Eigenvektoren zu paarweise verschiedenen 34

Eigenwerten λ 1,..., λ m von F, so ist (v j ) j m linear unabhängig. Insbesondere: Ist dim K V = n N und hat F n paarweise verschiedene Eigenwerte λ 1,..., λ n, so ist F diagonalisierbar. Beweis durch Induktion nach m : Induktionsanfang : Ist m = 1, so ist (v j ) j 1 linear unabhängig wegen v 1 0. Induktionsschluss : Sei m N, m 2, und für m 1 sei der Satz richtig. Sei nun ( ) α 1 v 1 +... + α m v m = 0 mit α 1,..., α m K, dann gilt (1) wenn man ( ) mit λ m multipliziert: (2) wenn man F auf ( ) anwendet: λ m α 1 v 1 +... λ m α m v m = 0, α 1 λ 1 v 1 +... α m λ m v m = 0, also m 1 j=1 α j (λ j λ m ) v j = 0 und wenn der Satz für m 1 richtig ist, folgt wegen λ j λ m : und aus ( ) und v m 0 dann noch α 1 =... = α m 1 = 0, α m = 0. Also ist (v 1,..., v m ) linear unabhängig. Satz 7.1.8 : Sei V ein K Vektorraum mit dim k V = n N und F End K V. F ist genau dann diagonalisierbar, wenn es zur Matrix A = M A A (F ) bezüglich einer beliebigen Basis A von V eine Matrix S GL(n, K) gibt, so dass S 1 A S eine Diagonalmatrix ist. Beweis : = : Sei F diagonalisierbar. Dann gibt es nach Definition 7.1.4 eine Basis B von V, so dass B := M B B (F ) 35

eine Diagonalmatrix ist. Sei A = MA A (F ) die Matrix von F bezüglich der Basis A, dann gibt es nach Bemerkung 4.4.16 (angewendet auf den Spezialfall V = W ) eine Matrix S GL(n, K) mit M B B (F ) = S 1 M A A (F ) S. = : Sei S GL(n, K) und S 1 A S eine Diagonalmatrix, dann gehen wir von der Basis A = (a k ) k n über zur Basis B = (b j ) j n, die durch n b j := s kj a k mit (s kj ) = S k=1 definiert ist. Nach Bemerkung 4.4.16 ist dann S 1 A S die Matrix von F bezüglich B. Nach Folgerung 7.1.6 ist nun F diagonalisierbar. Definition 7.1.9 : Sei V ein K Vektorraum, F End K V und λ K. Dann heißt Eig(F, λ) := { v V F (v) = λ v } der Eigenraum von F bezüglich λ. Folgerung 7.1.10 : Sei V ein K Vektorraum, F End K V und λ K. Dann gilt a) Eig(F, λ) ist ein Untervektorraum von V. b) λ ist ein Eigenwert von F Eig(F, λ) {0}. c) Eig(F, λ) \ {0} ist die Menge der Eigenvektoren von F zu λ. d) Eig(F, λ) = ker (F λ id V ). e) Für λ 1, λ 2 K mit λ 1 λ 2 gilt Eig(F, λ 1 ) Eig(F, λ 2 ) = {0}. Beweis : a) - d) folgen unmittelbar aus Definition 7.1.8. e) Für v Eig(F, λ 1 ) Eig(F, λ 2 ) gilt F (v) = λ 1 v und F (v) = λ 2 v, also 0 = (λ 1 λ 2 )v, also v = 0 wegen λ 1 λ 2. 7.2 Das charakteristische Polynom Bemerkung 7.2.1 : Die Frage ist nun, wie bekommt man die Eigenwerte eines gegebenen F End K V, wenn dim K V = n N ist. Dann sind für ein λ K die Aussagen 36

(i) λ ist ein Eigenwert von F, (ii) det(f λ id V ) = 0 gleichbedeutend. Beweis : Es gilt: λ ist Eigenwert von F v V \ {0} : F (v) = λ v v V \ {0} : (F λ id V )(v) = 0 ker (F λ id V ) {0} F λ id V ist kein Automorphismus von V (5.4.3) det(f λ id V ) = 0. Bemerkung 7.2.2 : Im Gegensatz zur Gleichung F (v) = λ v, in der man λ, aber auch v, nicht kennt, haben wir nun eine Gleichung, in der λ als einzige Unbekannte vorkommt. λ ist also genau dann Eigenwert von F, wenn λ eine Nullstelle der Funktion P F (t) := det(f t id V ) ist. Nach Definition 5.4.1 rechnet man det(f t id V ) aus, indem man für F zu einer Basis A von V ( es ist egal, welche Basis man nimmt) die Matrix MA A (F t id V ) ausrechnet. Es ist MA A ( id V ) = E n, also MA A (t id V ) = t E n, wenn n = dim V ist. Ist A := MA A (F ), dann ist det(f t id V ) = det(a t E n ) a 11 t a 12 a 13... a 1n a 21 a 22 t a 23... a 2n = det a 31 a 32 a 33 t... a 3n.... a n1 a n2 a n3... a nn t eine Polynomfunktion von t. Besser betrachtet man das entsprechend definierte Polynom: Definition 7.2.3 : Sei K ein Körper und n N. a) Sei V ein K Vektorraum mit dim K V = n und F End K (V ), so heißt P F (X) := det(f X id V ) das charakteristische Polynom von F. 37

b) Ist A M(n n, K), so heißt λ ein Eigenwert von A, wenn es ein a K n \ {0} gibt mit A a = λ a, und P A (X) := det(a X E n ) heißt das charakteristische Polynom der Matrix A und a ein Eigenvektor von A zum Eigenwert λ. Bemerkungen 7.2.4 : 1) P A (X) ist also die Determinante der Matrix A X E n M(n n, K[X]), also eine Matrix mit Einträgen aus einem kommutativen Ring. Nach Definition 5.2.1 geht das. 2) Wenn man P A (X) nach der Leibniz-Formel (oder anders) ausrechnet, erhält man P A (X) = (a 11 X)... (a nn X) + g(x), wobei g(x) ein Polynom aus K[X] mit deg g(x) n 2 bzw. 0 ist, und ausmultiplizieren ergibt P A (X) = ( 1) n X n + (a 11 +... + a nn )( 1) n 1 X n 1 + n 2 k=0 α k X k, mit α k K, also ist P A (X) ein Polynom vom Grad n. Den Koeffizienten von X n 1 haben wir gerade ausgerechnet: Er ist n ( 1) n 1 tra mit tra := a kk, der Spur von A. Den Koeffizienten α 0 erhält man, indem man 0 für X einsetzt: k=1 α 0 = P A (0) = det(a 0 E n ) = det A. 3) Man erhält also die Eigenwerte λ von A, indem man die Nullstellen λ des charakteristischen Polynoms P A (X) = det(a X E n ) K[X] ermittelt. Da P A (X) ein Polynom vom Grad n ist, kann die Bestimmung der Nullstellen schwierig sein - wenn denn überhaupt Nullstellen existieren, was z.b. für K = R fraglich ist. 38

4) In 5.4 haben wir gesehen: Ist F End K V, so ist det(f X id V ) = det(a X E n ) mit A = M A A (F ) davon unabhängig, welche Basis A wir nehmen, wir erhalten in jedem Fall dieselbe Determinante: Ersetzen wir die Basis A durch die Basis B, so erhalten wir nach 4.4.17 : M B B (F ) =: B = S A S 1 mit S := M A B ( id V ) GL(n.K), und man sieht auch hier wie in 5.4.1 : det(b X E n ) = det(s A S 1 X S E n S 1 ) = det(s (A X E n ) S 1 ) = det S det(a X E n )(det S) 1 = det(a X E n ). Man kann das auch so formulieren: Definition 7.2.5 : Zwei Matrizen A, B M(n n, K) heißen ähnlich, wenn es ein S GL(n, K) gibt mit B = S A S 1. Dann haben ähnliche Matrizen also gleiche Eigenwerte. Folgerung 7.2.6 : 1) Hat man einen Eigenwert λ einer Matrix A M(n n, K) gefunden, so ist die Berechnung von Eigenvektoren v dazu einfach: (A λe n ) v = 0 ist ein lineares homogenes Gleichungssystem mit n Gleichungen in den n Unbekannten v 1,..., v n, und wegen det(a λ E n ) = 0 hat dieses Gleichungssystem nichttriviale Lösungen. 2) Hat man ein F End K V, dim K V = n N, und einen Eigenwert λ von F, und will man einen Eigenvektor v V zu λ bestimmen, so wählt man sich eine Basis A = (a 1,..., a n ) von V, bestimmt nach 1) einen Eigenvektor y = t (y 1,..., y n ) K n von v := A := M A A (F ), dann ist n y j a j ein Eigenvektor von F. j=1 Folgerung 7.2.7 : Ist dim V = n N und A die Matrix von F bezüglich 39

einer festen Basis A von V, so ist dim Eig(F, λ) die Dimension des Lösungsraums des linearen homogenen Gleichungssystems (A λ E n ) x = 0. Beispiel 7.2.8 : Sei A = 0 1 1 3 2 3 2 2 3 M(3 3, R), so ist das charakteristische Polynom von A : X 1 1 det(a X E 3 ) = det 3 2 X 3 2 2 3 X ( 2 X 3 = ( X) det 2 3 X ) ( 3 3 +1 det 2 3 X = X(2 + X)(3 X) 6X 9 + 3X + 6 + 6 4 2X = X 3 + X 2 + X 1. ) ( 3 2 X +1 det 2 2 Eine Nullstelle dieses Polynoms ist λ 1 = 1. Wenn man durch X 1 dividiert, erhält man X 3 + X 2 + X 1 = (X 1) ( X 2 + 1), dadurch erhält man als weitere Nullstellen λ 2 = 1 und λ 3 = 1. Wir haben alo P A (X) = (X 1) 2 (X + 1). 1 und 1 sind also die einzigen Eigenwerte von A. Wir wollen noch die Eigenvektoren zu diesen Eigenwerten bestimmen, also die Vektoren v R 3 \ {0} mit A v = ±1 v. Gesucht sind also die nichttrivialen Lösungen v R 3 der linearen homogenen Gleichungssysteme (A (±1) E 3 ) v = 0, 40 )

was mit den Methoden aus 4 kein Problem ist: a) Für λ 1,2 = 1 haben wir A 1 E 3 = 1 1 1 3 3 3 2 2 2. Wenn wir das auf Zeilenstufenform bringen, sehen wir: Rg(A 1E 3 ) = 1, also dim Eig(A, 1) = 3 1 = 2, und Elemente aus v Eig(A, 1) erhalten wir aus v 1 v 2 + v 3 = 0, also v 2, v 3 R beliebig, v 1 = v 2 + v 3. b) Für λ 3 = 1 haben wir 1 1 1 A + 1 E 3 = 3 1 3. 2 2 4 Wenn wir das auf Zeilenstufenform bringen, sehen wir : Rg(A + 1 E 3 ) = 2, also dim Eig(A, 1) = 3 2 = 1, und Vektoren v Eig(A, 1) erhalten wir aus v 1 v 2 + v 3 = 0 4v 2 + 6v 3 = 0, also v 3 R beliebig, v 2 = 3 2 v 3, v 1 = 1 2 v 3. Beispiel 7.2.9 : Sei α [0, 2π) und A := dann sind die Eigenwerte von A bzw. von ( cos α sin α sin α cos α ), f A : R 2 R 2, f A (x) := A x die Nullstellen von ( cos α X sin α P A (X) = det sin α cos α X ) 41

Nullstellen λ 1,2 erhalten wir aus = (cos α X) 2 +sin 2 α = X 2 2 cos α X+1. λ 1,2 = cos α ± cos 2 α 1, was nur für cos α = ±1, also α = 0 oder α = π, Lösungen in R ergibt. Das ist anschaulich klar: f A beschreibt eine Drehung um α, und nur für α = 0 oder π gibt es Geraden durch 0, die in sich selbst abgebildet werden. 7.3 Diagonalisierung Wir haben in Def.7.1.4 definiert, was ein diagonalisierbarer Endomorphismus von V ist, und Satz 7.1.7 war schon mal ein Kriterium für Diagonalisierbarkeit. Wir fassen das zusammen als Satz 7.3.1 : Sei V ein K Vektorraum, n N, dim K V = n und F End K V. Dann gilt: (1) Ist F diagonalisierbar, so gibt es λ 1,..., λ n K, so dass P F (X) = ( 1) n (X λ 1 )... (X λ n ) ist, d.h. das charakteristische Polynom von F zerfällt in Linearfaktoren. (2) Gibt es paarweise verschiedene λ 1,..., λ n K, so dass ist, so ist F diagonalisierbar. P F (X) = ( 1) n (X λ 1 )... (X λ n ) Beweis : (1) Ist F diagonalisierbar, so gibt es eine Basis B von V, so dass MB B (F ) eine Diagonalmatrix ist: λ 1 0 λ 1,..., λ n K : MB B (F ) =..., 0 λ n also ist P F (X) = (λ 1 X)... (λ n X). (2) In diesem Fall hat P F (X) n verschiedene Nullstellen λ 1,..., λ n, die die Eigenwerte von F sind, und zu diesen hat man Eigenvektoren v 1,..., v n. Nach Hilfssatz 7.1.7 ist B := (v 1,..., v n ) linear unabhängig, also eine Basis von V, und es ist M B B (F ) = λ 1 0... 0 λ n eine Diagonalmatrix. 42

Bemerkung 7.3.2 : Nach Satz 7.3.1 bleibt die Frage offen, ob F diagonalisierbar ist, wenn P F (X) ein Produkt von Linearfaktoren ist, von denen einige mehrfach vorkommen: Sei also P F (X) = ( 1) n (X λ 1 ) r1... (X λ k ) r k mit paarweise verschiedenen λ 1,..., λ k K, 1 r j n für j k und r 1 +... + r k = n. Den Exponenten r j des Faktors (X λ j ) nennen wir die Vielfachheit der Nullstelle λ j von P F (X); wir setzen µ(p F, λ j ) := r j. In 7.1.8 haben wir den Eigenraum Eig(F, λ j ) definiert: Hilfssatz 7.3.3 : Sei V ein endlichdimensionaler K Vektorraum, F End K V und λ ein Eigenwert von F, dann gilt 1 dim Eig(F, λ) µ(p F, λ). Beweis : Sei (v j ) j s eine Basis von Eig(F, λ). Da λ ein Eigenwert von F ist. ist 1 s = dim Eig(F, λ). Wir ergänzen (v j ) j s zu einer Basis A = (v 1,..., v s, v s+1,..., v n ) von V. Sei A die Matrix von F bezüglich B, dann wird λ 0... A := MA A (F ) = 0 λ + 0 A s Zeilen s Spalten, mit einer quadratischen Matrix A. Dabei bedeutet irgendetwas. Das charakteristische Polynom kann man damit ausrechnen, etwa indem man nach der 1. bis s ten Spalte entwickelt: P F (X) = det(a X E n ) = (λ X) s det(a X E n s ). 43

In det(a X E n s ) kann der Linearfaktor λ X vorkommen, jedenfalls ist Beispiel 7.3.4 : Sei µ(p F, λ) s = dim Eig(F, λ). A := ( 1 1 0 1 ( 1 X 1 P A (X) = det 0 1 X ) M(2 2, R), dann ist ) = (1 X) 2 = (X 1) 2, P A (X) zerfällt in Linearfaktoren, es ist µ(p A, 1) = 2. Andererseits ist Eig(A, 1) = Lös(A 1 E 2, 0) { = x R ( ) 2 0 1 0 0 ( x1 x 2 = { x R 2 x2 = 0 } = R e 1, also dim Eig(A, 1) = 1 < 2. ) = ( 0 0 ) } Nach dem folgenden Satz ist dieses A nicht diagonalisierbar: Satz 7.3.5 : Sei K ein Körper, V ein endlichdimensionaler K Vektorraum und F End K V. Dann sind folgende Aussagen gleichbedeutend: (1) F ist diagonalisierbar. (2) a) das charakteristische Polynom P F ist ein Produkt von Linearfaktoren, und b) für alle Eigenwerte λ von F gilt dim Eig (F, λ) = µ(p F, λ). (3) Sind λ 1,, λ k die paarweise verschiedenen Eigenwerte von F, so ist V = Eig(F, λ 1 )... Eig(F, λ k ). Beweis : (0) : Ist F diagonalisierbar, so haben wir eine Basis von V, die aus Eigenvektoren von F besteht. Seien λ 1,..., λ k die paarweise verschiedenen Eigenwerte von F, und für j k sei ( ) (v (j) 1,..., v (j) s j ) eine Basis von Eig(F, λ j ), 44

also s j = dim Eig(F, λ j ). Dann ist ( ) B := (v (1) 1,..., v (1) s 1,..., v (k) 1,..., v (k) s k ) linear unabhängig, denn aus k j=1 s j l j =1 µ (j) l j v (j) l j = 0 mit µ (j) l j K folgt s k j 1 j=1 l j =1 µ (j) l j v (j) l j } {{ } Eig(F, λ j ) = 0, und nach Hilfssatz 7.1.7 geht das wegen 1 0 nur, falls in den Klammern keine Eigenvektoren stehen, also gilt j k : s j l j =1 µ (j) l j v (j) l j = 0, und nach ( ) folgt j k l j s j : µ (j) l j = 0. Sei nun n := dim K V. (1) = (2) : Ist F diagonalisierbar, so haben wir eine Basis von V, die aus Eigenvektoren von F besteht. Ordnet man sie passend an, so ist es eine Basis B der Form aus ( ) aus (0). Dann ist n = s 1 +... + s k. Das charakteristische Polynom von F ist P F (X) = ( 1) n (X λ 1 ) r1... (X λ k ) r k, also gilt a) von (2), und für r j = µ(p F, λ j ) gilt nach 7.3.3 : s j r j, also n = s 1 +... + s k r1 +... + r k = deg P F (X) = n und hier gilt Gleichheit nur, falls s j = r j für alle j k gilt, also gilt b) von (2). (2) = (3) : Seien λ 1,..., λ k die verschiedenen Eigenwerte von F, dann gilt nach a) von (2) : P F (X) = ( 1) n (X λ 1 ) r1... (X λ k ) r k mit r 1,..., r k N, 45