MATHEMATIK II FÜR STUDIERENDE DER PHYSIK

Ähnliche Dokumente
LINEARE ALGEBRA II. Ernst Bönecke. Universität Hamburg

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte und Diagonalisierung

Lösungsskizzen zur Klausur zur Linearen Algebra II. Definitionen

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

Lineare Algebra II Lösungen der Klausur

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

3 Vektorräume abstrakt

Lineare Algebra für Physiker 11. Übungsblatt

7.2 Die adjungierte Abbildung

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

Lineare Algebra II (SS 13)

6 Eigenwerte und Eigenvektoren

3.7 Eigenwerte und Eigenvektoren

Musterlösungen zur Linearen Algebra II Übungsklausur

6 Eigenwerte und Eigenvektoren

1 Euklidische und unitäre Vektorräume

4.3 Reelle Skalarprodukte, Hermitesche Formen, Orthonormalbasen

6 Hauptachsentransformation

3 Bilinearform, Basen und Matrizen

2 Euklidische Vektorräume

7.3 Unitäre Operatoren

Kontrollfragen und Aufgaben zur 3. Konsultation

Diagonalisierbarkeit symmetrischer Matrizen

8 Eigenwerttheorie I 8. EIGENWERTTHEORIE I 139. Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet:

2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

1 Die Jordansche Normalform

Lineare Algebra und analytische Geometrie II

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen

Skalarprodukt, Norm & Metrik

Lineare Algebra I Lösungsvorschlag

Ferienkurs - Lineare Algebra. Hanna Schäfer. Merkinhalte

Euklidische und unitäre Vektorräume

Kapitel 11 Eigenwerte und Eigenvektoren

3 Bilinearformen und quadratische Formen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

44 Spektralzerlegung normaler Operatoren im endlichdimensionalen Fall

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

4 Lineare Abbildungen Basisdarstellungen

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

7 Lineare Abbildungen und Skalarprodukt

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Aufgaben zu Kapitel 20

Musterlösungen zur Linearen Algebra II Weihnachtszettel

4 Orthogonale Endormorphismen

Lineare Algebra II. Sommersemester Wolfgang Ebeling

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153

Lineare Algebra II 8. Übungsblatt

Lineare Algebra und analytische Geometrie II

Musterlösungen zur Linearen Algebra II Hauptklausur

10 Unitäre Vektorräume

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015

Karlsruher Institut für Technologie (KIT) WS 2012/13 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

Übungen zur Vorlesung Lineare Algebra

Lösung 13: Unitäre Vektorräume und normale Abbildungen

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2

Lineare Algebra I für Mathematiker Lösungen

Euklidische und unitäre Vektorräume

5 Lineare Algebra (Teil 3): Skalarprodukt

6. Normale Abbildungen

Mathematik für Physiker, Informatiker und Ingenieure

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren

4.2 Die adjungierte Abbildung

Basisprüfung. 18. August 2015

4.4 Hermitesche Formen

4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit

5 Diagonalisierbarkeit

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

9 Vektorräume mit Skalarprodukt

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Ausgewählte Lösungen zu den Übungsblättern 9-10

a) Ein Gruppenhomomorphismus von G nach H ist eine Abbildung Φ : G H, sodass für alle g 1, g 2 G die Gleichung Φ(g 1 g 2 ) = Φ(g 1 ) Φ(g 2 )

1 Darstellungsmatrizen

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

Technische Universität München

10.2 Linearkombinationen

Übungen zu Lineare Algebra und Geometrie 1

Trigonalisierung. Definition. 1) Sei F : V V linear, dim V = n. Dann heißt F trigonalisierbar, wenn es eine Basis B von V gibt sodass a 11 a 12..

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Verständnisfragen: Lineare Algebra und Analytische Geometrie I und II

1. Übungsblatt: Lineare Algebra II Abgabe: 24./ in den Übungsgruppen

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5

42 Orthogonalität Motivation Definition: Orthogonalität Beispiel

Lineare Algebra I Ferienblatt

Klausur HM I F 2004 HM I : 1

i) ii) iii) iv) i) ii) iii) iv) v) gilt (Cauchy-Schwarz-Ungleichung): Winkel zwischen zwei Vektoren : - Für schreibt man auch.

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008

Transkript:

- 87 - MATHEMATIK II FÜR STUDIERENDE DER PHYSIK 21 Vektorräume mit Skalarprodukt Wir halten uns hier im Wesentlichen an das Buch G.Fischer : Lineare Algebra, 14. Auflage, Kap. 5. 21.1 Definition und Beispiele (21.1.1) Zur Motivation : Vektoren im R 3 kann man nicht nur addieren und mit Skalaren multiplizieren, man kann auch ihr Skalarprodukt bilden: Für a = t (a 1, a 2, a 3 ), b = t (b 1, b 2, b 3 ) R 3 setzt man < a, b > := a 1 b 1 + a 2 b 2 + a 3 b 3. Das ist eine reelle Zahl. Man hat also eine Abbildung <, > : R 3 R 3 R, d.h. zwei Vektoren a, b R 3 wird der Skalar < a, b > R zugeordnet. Mit Hilfe des Skalarprodukts kann man die Länge (Norm) eines Vektors a R 3 definieren als a := < a, a >. Außerdem hängt das Skalarprodukt mit dem Winkel zwischen den Vektoren a und b zusammen : a und b stehen genau dann aufeinander senkrecht, wenn < a, b > = 0 ist.wir wollen das alles hier allgemeiner machen; man braucht in der Physik, z.b. in der Quantentheorie, Skalarprodukte auf unendlichdimensionalen C Vektorräumen, und auch in der Mathematik ist dieser Begriff nützlich, wie wir bei Fourierreihen sehen werden. 21.1.2 Vereinbarung : In 21 und 22 werden wir unter K stets den Körper R der reellen oder den Körper C der komplexen Zahlen verstehen. Für z K sei z das Konjugiert-Komplexe von z, also z = a bi für z = a + bi C mit a, b R, bzw. z = z für z R. Für z K ist z der (reelle oder komplexe) Betrag von z. Für z K soll z > 0 stets bedeuten: z R z > 0. Entsprechend: z 0 : (z R z 0). Definition 21.1.3 : Sei V ein K Vektorraum (also ein Vektorraum über R oder C ). Eine Abbildung s : V V K heißt eine hermitesche Form auf V, wenn für alle u, v, w V und alle λ K gilt

- 88 - (H1) s(u, v + w) = s(u, v) + s(u, w), s(u, λw) = λs(u, w), d.h. s ist linear als Funktion des 2.Arguments, und (H2) s(u, v) = s(v, u), d.h. wenn man die beiden Argumente vertauscht, erhält man das Konjugiert-Komplexe. Folgerung 21.1.4 : Ist s eine hermitesche Form auf einem K Vektorraum V, so gilt für alle u, v, w V und λ K : s(u + v, w) = s(u, w) + s(v, w), s(λu, v) = λ s(u, v). Beweis : s(u + v, w) (H2) = s(w, u + v) (H1) = s(w, u) + s(w, v) s = s(w, u) + s(w, v) = (u, w) + s(v, w), s(λu, v) (H2) = s(v, λu) (H1) = λ s(v, u) = λ s(v, u) (H2) = λ s(u, v). Als Funktion des 1.Arguments ist s also nicht so ganz linear. Für den Fall K = R ist aber λ = λ für alle λ K, und man erhält Folgerung 21.1.5 : Ist K = R und s eine hermitesche Form auf einem R Vektorraum V, so ist s bilinear und symmetrisch, d.h. (H2) lautet in diesem Fall v, w V : s(v, w) = s(w, v). Man spricht in diesem Fall von einer symmetrischen Bilinearform s. Definition 21.1.6 : Sei V ein K Vektorraum und s eine hermitesche Form auf V. Gilt (H 3 1 ) v V : s(v, v) 0, so heißt s positiv semidefinit. 2 Gilt (H4) v V \ {0} : s(v, v) > 0, so heißt s positiv definit. Jede positiv definite hermitesche Form ist positiv semidefinit, denn für 0 V und 0 K gilt 0 = 0 0, also nach (H1) : s(0, 0) = s(0, 0 0) = 0 s(0, 0) = 0. Definition 21.1.7 : Sei V ein K Vektorraum. Eine positiv definite hermitesche Form s : V V K heißt ein Skalarprodukt auf V. Ein R Vektorraum mit Skalarprodukt heit auch euklidischer, ein C Vektorraum mit Skalarprodukt unitärer Vektorraum.

- 89 - Nun die wesentlichen Beispiele für hermitesche Formen : Beispiel 21.1.8 : Sei n N, dann definiert man < a, b > := <, > : K n K n K, a j b j für a = t (a 1,..., a n ), b = t (b 1,..., b n ) K n. <, > ist eine positiv definite hermitesche Form auf K n, denn die Axiome (H1) und (H2) kann man leicht nachrechnen, und für a K n gilt < a, a > = a j a j = a j 2 0, und wenn a 0 ist, ist mindestens eins der a j 0, also < a, a > > 0. <, > ist also ein Skalarprodukt auf K n. Wir nennen <, > das kanonische Skalarprodukt im K n. Für K = R und n = 3 erhält man < a, b > = a 1 b 1 + a 2 b 2 + a 3 b 3. Beispiel 21.1.9 a : Seien a, b R, a < b und R[a, b] der C Vektorraum der Regelfunktionen s(f, g) := f : [a, b] C. Dann setzen wir s : R[a, b] R[a, b] C, 1 b a b a f(t) g(t) dt für f, g R[a, b]. s ist eine positiv semidefinite hermitesche Form, denn s(f, f) = 1 b a b a f(t) 2 dt 0. s ist aber nicht positiv definit, denn nehmen wir z.b. f : [a, b] C, f(x) = { 1 fr x = a 0 für x a, so ist f R[a, b], denn f ist eine Treppenfunktion, f 0, aber b f(t) 2 dt = 0, also s(f, f) = 0. a Beispiel 21.1.9 b : Auf C[a, b] ist durch

s(f, g) = - 90-1 b a b a f(t) g(t) d t sogar ein Skalarprodukt definiert, denn sei f C[a, b], f 0, dann gibt es ein t 0 [a, b] mit f(t 0 ) 0, also h := f(t 0 ) 2 > 0. Auch t f(t) 2 ist stetig, mit Werten in R, und, wie wir in 7.2.1 und 11.3.6 gesehen haben, gibt es ein Intervall [c, d], c < d, mit t 0 [c, d] [a, b] und f(t) 2 h 2 s(f, f) 1 b a für t [c, d], also d c h 2 d t = h (d c) > 0. 2(b a) Definition 21.1.10 : Sei V ein K Vektorraum mit einer positiv semidefiniten hermiteschen Form s. Für v V nennen wir die Norm (Länge) von v. v := s(v, v) 21.2 Die Cauchy-Schwarzsche Ungleichung Cauchy-Schwarzsche Ungleichung 21.2.1 : Sei V ein K Vektorraum mit positiv semidefiniter hermitescher Form s. Dann gilt für alle v, w V : s(v, w) v w. Ist die Familie (v, w) linear abhängig, so gilt sogar das Gleichheitszeichen. Beweis : 1) Für alle λ K gilt, da s positiv semidefinit ist: 0 s(v λw, v λw) (H1) = s(v, v) λ s(w, v) λ s(v, w) + λλs(w, w), ( ) 0 s(v, v) λ s(v, w) λ s(v, w) + λ λ s(w, w). a) Gilt s(v, v) = s(w, w) = 0, so setzen wir λ := s(v, w) in ( ) ein : 0 s(v, w) s(v, w) s(v, w) s(v, w) = 2 s(v, w) 2, und wegen s(v, w) 2 0 folgt s(v, w) = 0. Da auch v = w = 0 ist, gilt in diesem Fall die Ungleichung. b) Sind s(v, v) und s(w, w) nicht beide Null, so ist eins von beiden positiv. Sei etwa s(w, w) > 0, dann setzen wir λ := s(v, w) s(w, w) in ( ) ein, und multiplizieren mit s(w, w) : 0 s(v, v)s(w, w) s(v, w) s(v, w) s(v, w) s(v, w) + s(v, w) s(v, w), also s(v, w) 2 s(v, v) s(w, w), und da die Wurzelfunktion : [0, ) [0, ), x x monoton wachsend ist :

- 91 - s(v, w) v w. 2) Ist (v, w) linear abhängig, so haben wir Œ v = λw mit λ K, also v 2 = s(v, v) = λλs(w, w) = λ 2 s(w, w) = λ 2 w 2, s(v, w) = λs(w, w) = λ w 2, also s(v, w) = ( λ w ) w = v w. Zusatz 21.2.2 : Sei V ein K Vektorraum mit Skalarprodukt s, und seien v, w V mit s(v, w) = v w, so ist die Familie (v, w) linear abhängig. Beweis : Sei λ := s(w, w) und µ := s(v, w), dann ist λ R, und s(λv + µw, λv + µw) = λλs(v, v) + µµs(w, w) + λµ s(v, w) + µλs(w, v) = w 4 v 2 + s(v, w) 2 w 2 w 2 s(v, w) 2 w 2 s(v, w) 2 = w 2 ( w 2 v 2 + v 2 w 2 v 2 w 2 v 2 w 2 ) = 0, also λv + µw = 0, da s positiv definit ist. Also ist (v, w) linear abhängig, was für w = 0 trivial ist, und für w 0 ist λ 0. Satz 21.2.3 : Sei V ein K Vektorraum mit positiv semidefiniter hermitescher Form s, und v := s(v, v) für v V. Dann gilt für alle v, w V und alle λ K : (N1 ) v 0 (N2) λ v = λ v (N3) v + w v + w (Dreiecksungleichung). Ist s sogar positiv definit, so gilt statt (N1 ) (N1) v 0 ( v = 0 v = 0 ). Beweis : (N1 ) folgt daraus, dass s(v, v) 0 ist. (N2) λ v = s(λv, λv) = λ λ s(v, v) = λ 2 s(v, v) = λ v. (N3) v + w 2 = s(v+w, v+w) = s(v, v) + s(v, w) + s(w, v) + s(w, w) = v 2 + w 2 + s(v, w) + s(v, w) = v 2 + w 2 + 2 Re s(v, w), und da für z C gilt : Re z z : v+w 2 v 2 + w 2 + 2 s(v, w), und nach Cauchy-Schwarz:

- 92 - v 2 + w 2 + 2 v w = ( v + w ) 2, also v + w v + w. (N1) Ist s positiv definit, so gilt für v 0 : s(v, v) > 0, also v > 0. Folgerung 21.2.4 : Sei V ein K Vektorraum mit positiv semidefiniter hermitescher Form s und v = s(v, v) für v V. Dann gilt für alle v, w V : a) v + w 2 = v 2 + w 2 + s(v, w) + s(w, v) (Satz des Pythagoras), und b) v + w 2 + v w 2 = 2 ( v 2 + w 2 ) (Parallelogrammgleichung). Beweis durch Nachrechnen. Definition 21.2.5 : Ein K Vektorraum V mit einer Abbildung : V R, die die Eigenschaften (N1) v V \ {0} : v > 0 (N2) v V λ K : λ v = λ v (N3) v, w V : v + w v + w hat, heißt ein normierter K Vektorraum. Den Satz 21.2.3 kann man daher formulieren als Folgerung 21.2.6 : Jeder K Vektorraum V mit Skalarprodukt s wird ein normierter K Vektorraum, wenn man die Norm durch ( ) v := s(v, v) für v V definiert. Man kann nun umgekehrt fragen: Sei V ein normierter K Vektorraum, gibt es dann auf V ein Skalarprodukt s, so dass ( ) gilt? Nach Folgerung 21.2.4 ist dann klar: Ist eine Norm auf V, die die Parallelogrammgleichung nicht erfüllt, so gibt es so ein s nicht. Ein Beispiel für einen normierten K Vektorraum, in dem die Parallelogrammgleichung nicht gilt, erhalten Sie als Übungsaufgabe. Definition 21.2.7 : Sei V ein euklidischer Vektorraum, also ein R Vektorraum mit Skalarprodukt s. Seien v, w V \ {0}, dann gilt nach Cauchy- Schwarz: s(v, w) v w 1, und wegen s(v, w) R sogar s(v, w) v w [ 1, 1]. Also ist ϕ := arccos s(v, w) v w

- 93 - definiert, und es gilt ϕ [0, π]. ϕ heißt der Winkel zwischen den Vektoren v und w. Wir wollen hier keine analytische Geometrie treiben und uns deshalb nicht allgemein mit Winkeln beschäftigen. Wir sehen aber : ϕ = π 2 s(v, w) = 0, die Vektoren v und w stehen genau dann aufeinander senkrecht, wenn ihr Skalarprodukt 0 ist. s(v, w) = 0 gibt natürlich auch für einen C Vektorraum Sinn: Definition 21.2.8 : Sei V ein K Vektorraum mit hermitescher Form s. Zwei Vektoren u, v V heißen zueinander senkrecht oder orthogonal, in Zeichen: u v, wenn s(u, v) = 0 ist. Wir kehren zurück zu unserem Beispiel 21.1.9 a : Im C Vektorraum R[a, b] der Regelfunktionen f : [a, b] C, a, b R, a < b, mit s(f, g) = 1 b a b f a : [a, b] C, f a (t) := dann gilt für alle g R[a, b] : a f(t) g(t) dt sei { 1 fr t = a 0 für t a, f a (t) g(t) = { g(a) fr t = a 0 für t a s(f a, g) = 0, also, also f a g für alle g R[a, b]. Definition 21.2.9 : Eine hermitesche Form s auf einem K Vektorraum V heißt nichtausgeartet, wenn es außer 0 keinen Vektor aus V gibt, der auf allen w V senkrecht steht, wenn also gilt (H3) v V : ( w V : s(v, w) = 0 = v = 0 ). Folgerung 21.2.10 : Sei V ein K Vektorraum mit hermitescher Form s. Dann gilt: s positiv definit s nichtausgeartet und positiv semidefinit. Beweis : = : Sei s positiv definit und v V ein Vektor mit

dann gilt insbesondere - 94 - w V : s(v, w) = 0, s(v, v) = 0, also v = 0. Also ist s nichtausgeartet, und positiv semidefinit sowieso. = : Ist s positiv semidefinit, so gilt für alle v V : s(v, v) 0 und falls v = 0 ist : s(v, v) = 0. Ist nun v V mit s(v, v) = 0, so gilt nach Cauchy-Schwarz für alle w V : s(v, w) 2 v 2 w 2 = s(v, v) s(w, w) = 0, also s(v, w) = 0, und damit s(v, w) = 0, für alle w V. Ist nun s nichtausgeartet, so folgt daraus v = 0. Hermitesche Formen, die nicht positiv semidefinit, aber immerhin noch nichtausgeartet sind, kommen in der Physik (und zwar in der Relativitätstheorie) vor: Beispiel 21.2.11 : Für a = t (a 1, a 2, a 3, a 4 ), b = t (b 1, b 2, b 3, b 4 ) R 4 man 3 s(a, b) := a j b j a 4 b 4, setzt dann ist s eine nichtausgeartete symmetrische Bilinearform auf dem R 4, die nicht positiv semidefinit ist. Beweis : Dass (H1) und (H2) für s gelten, kann man leicht nachrechnen. Fr a = (0, 0, 0, 1) gilt s(a, a) = 1 < 0, also gelten (H 3 1 ) und (H4) nicht. Es gilt aber (H3), denn sei a R4 und 2 b R 4 : s(a, b) = 0, dann gilt insbesondere für die kanonischen Basisvektoren e j, j 4, des R 4 : s(a, e j ) = 0 und damit a 1 = a 2 = a 3 = a 4 = 0, also a = 0. In der Relativitätstheorie interpretiert man hier die ersten drei Komponenten von a als Ort und a 4 als Zeit.

- 95-21.3 Orthonormalbasen Definition 21.3.1 : Sei V ein K Vektorraum mit Skalarprodukt und (v j ) j J eine Familie von Vektoren aus V, J eine (nicht notwendig endliche) Menge. Dann heißt die Familie (v j ) j J a) ein Orthogonalsystem, wenn v j v k für alle j, k J mit j k ist, b) ein Orthonormalsystem, wenn sie ein Orthogonalsystem ist und zusätzlich v j = 1 für alle j J gilt, c) eine Orthogonalbasis, wenn sie ein Orthogonalsystem und eine Basis von V ist, d) eine Orthonormalbasis, wenn sie ein Orthonormalsystem und eine Basis von V ist. Beispiel 21.3.2 : Im K n mit dem kanonischen Skalarprodukt <, > ist die kanonische Basis (e j ) j n eine Orthonormalbasis, denn es gilt für j, l n : e j = (δ kj ) k n, also { 1 für j = l < e j, e l > = δ kj δ kl =. 0 für j l Beispiel 21.3.3 : Im R Vektorraum P(R) aller Polynomfunktionen von R nach R wird durch s(f, g) := 1 1 f(t) g(t) dt, ein Skalarprodukt definiert. Die in den Übungsaufgaben definierten Legendre-Polynome P n (x) := 1 2 n n! d n dx n (x2 1) n für n N 0, sind Polynomfunktionen vom Grad n, für jedes n N 0, und damit sieht man, dass sie eine Basis von P(R) bilden. (P n ) n N0 ist sogar eine Orthogonalbasis, denn als Übungsaufgabe zeigen Sie s(p n, P m ) = 1 P n (x) P m (x) dx = 0 für n m, 1 allerdings keine Orthonormalbasis, denn s(p n, P n ) = 2 2n + 1 Nimmt man statt (P n ) n N0 aber die Familie (Q n ) n N0, die durch 2n + 1 Q n (x) := P n (x) 2 definiert ist, so ist (Q n ) n N0 sogar eine Orthonormalbasis von P(R)..

- 96 - Wie kann man sich allgemein eine Orthonormalbasis verschaffen? (21.3.3) Orthonormalisierungssatz von Erhard Schmidt : Sei V ein K Vektorraum mit Skalarprodukt s und dim V = n N. Dann lässt sich jedes Orthonormalsystem (w 1,..., w m ) in V mit 0 m n ergänzen zu einer Orthonormalbasis (w 1,..., w m,..., w n ) von V. Beweis : In diesem Fall ist es wichtig, den Beweis zu verstehen, da man auf diese Weise auch praktisch Orthonormalbasen konstruieren bzw. Orthonormalsysteme zu Orthonormalbasen ergänzen kann. Die für die Praxis wichtigen Schritte rahmen wir ein. - Wir machen Induktion nach k := n m : Induktionsanfang : Sei k = 0, dann ist n = m, und das Orthonormalsystem (w j ) j n ist bereits eine Basis, denn es besteht aus n Vektoren, und diese sind linear unabhängig: Aus α j w j = 0 mit α j K folgt für k n : 0 = s ( w k, ) α j w j = α j s(w k, w j ) = α j δ kj = α k. Hier ist der Satz also richtig; wir brauchen nichts zu ergänzen. Induktionsschluss : Sei k N 0, und für n m = k sei der Satz richtig. Sei nun n m = k + 1 N, dann ist m = n (k + 1) < n, für W := span(w j ) j m gilt dim W m < n, es gibt also einen Vektor v V mit v / span(w j ) j m. Wir bilden m ṽ := s(w j, v) w j (die Projektion von v nach W ). Dieser Vektor ṽ liegt in W, und w := v ṽ steht auf allen Vektoren aus W senkrecht, denn für k m gilt ( ) m s(w k, w) = s(w k, v) s w k, s(w j, v)w j m = s(w k, v) s(w j, v) s(w k, w j )

- 97 - m = s(w k, v) s(w j, v) δ kj = s(w k, v) s(w k, v) = 0. Wegen ṽ W, v / W ist w 0. Wir können w daher normieren : Wir setzen 1 w m+1 := w w, dann haben wir ein Orthonormalsystem (w 1,..., w m, w m+1 ) in V ; es ist n (m + 1) = k, und da der Satz für k richtig ist, kann man dieses Orthonormalsystem ergänzen zu einer Orthonormalbasis (w 1,..., w m, w m+1,..., w n ) von V. Insbesondere folgt, da die leere Familie (w j ) j 0 = (w j ) j ein Orthonormalsystem ist : Folgerung 21.3.4 : Jeder endlichdimensionale K Vektorraum mit Skalarprodukt besitzt eine Orthonormalbasis. Wir bleiben noch bei endlichdimensionalen K Vektorräumen: 21.4 Matrizen hermitescher Formen Definition 21.4.1 : Sei V ein n dimensionaler K Vektorraum, n N, B = (v 1,..., v n ) eine Basis von V, dann gibt es zu v, w V eindeutig bestimmte Koordinatenvektoren x = x 1. x n, y = ( ) v = y 1. y n K n, die definiert sind durch x k v k, w = Ist nun s eine hermitesche Form auf V, so gilt ( ) s(v, w) = s x k v k, y j v j = y j v j. k, x k s(v k, v j ) y j. Wir können also jedes s(v, w) ausrechnen, wenn wir die Matrix M B (s) := (s(v k, v j )) (k,j) n n M(n n, K) kennen. M B (s) heit die darstellende Matrix von s bezüglich der Basis B. Mit den n 1 Matrizen x = x 1. x n und y = y 1. y n folgt dann

- 98 - s(v, w) = t x M B (s) y, wobei x und y die durch ( ) bestimmten Koordinatenvektoren von v bzw. w sind. Da s hermitesch ist, gilt nach (H2) s(v j, v k ) = s(v k, v j ), also t M B (s) = M B (s), wenn man fr eine Matrix A = (a kj ) definiert: A := (a kj ) : Definition 21.4.2 : Eine Matrix A M(n n, K) heißt hermitesch, wenn A = t A ist. Ist K = R, so bedeutet das A = t A, eine Matrix mit dieser Eigenschaft heißt symmetrisch. Folgerung 21.4.3 : Wir haben also bewiesen: Ist V ein K Vektorraum mit Basis B = (v 1,..., v n ), und s eine hermitesche Form auf V, so ist die darstellende Matrix A := (s(v k, v j )) hermitesch. Man sieht sofort, dass umgekehrt jede hermitesche Matrix A = (a kj ) durch ( ) s x k v k, y j v j := x k a kj y j eine hermitesche Form auf V definiert. k, Es wäre nun schön, wenn man der darstellenden Matrix M B (s) ansehen könnte, ob s nichtausgeartet oder sogar positiv definit ist. Leicht zu zeigen, aber nicht ganz so wichtig, ist Satz 21.4.4 : Eine hermitesche Form auf einem endlichdimensionalen K Vektorraum V ist genau dann nichtausgeartet, wenn für die darstellende Matrix M B (s) bezüglich einer festen Basis B von V gilt det M B (s) 0. Wichtig, auch demnächst für die Analysis, aber schwer zu beweisen, ist (21.4.5) Hauptminoren- oder Hurwitz-Kriterium : Eine hermitesche Form s auf einem endlichdimensionalen K Vektorraum V ist genau dann positiv definit, wenn für alle k n und für die darstellende Matrix A = M B (s) bezüglich einer festen Basis B von V gilt a 11... a 1k det.. a k1... a kk > 0. (21.4.6) Achtung: Hier muss man für alle k n die Unterdeterminanten bis zur k ten Zeile und Spalte von A bilden:

A = - 99 - a 11... a 1n... a 22... a n1 a nn und diese müssen alle > 0 sein. Z.B. ist s mit ( ) 1 0 M B (s) = 0 1, nicht positiv definit! Wir fragen uns, wie sich die darstellende Matrix M B (s) von s bei einem Basiswechsel verändert : 21.4.7 Transformationssatz für darstellende Matrizen hermitescher Formen : Sei V ein n dimensionaler K Vektorraum mit hermitescher Form s, n N, und seien A = (a 1,..., a n ), A = (a 1,..., a n) zwei Basen von V, dann hat man nach der Formel in 19.4.16 (Skript S.45): j n : a j = t kj a k mit der Transformationsmatrix TA A = T = (t kj) GL(n, K), also gilt ( ) j, l n : s(a j, a l ) = s t kj a k, t rl a r = = r=1 t kj t rl s(a k, a r) r=1 t kj s(a k, a r) t rl, r=1 und nach Definition des Matrizenprodukts heißt das M A (s) = M A (s) = t T M A (s) T, genauer: t T A A M A (s) T A A 21.5 Das Vektorprodukt im R 3 Definition 21.5.1 : Seien a = t (a 1, a 2, a 3 ), b = t (b 1, b 2, b 3 ) R 3, dann heißt der Vektor ( ) ( ) ( )) a b := (det t a2 b 2 a1 b, det 1 a1 b, det 1 R 3 a 3 b 3 a 3 b 3 a 2 b 2 das Vektorprodukt von a und b.

- 100 - Satz 21.5.2 : Sei <, > das kanonische Skalarprodukt im R 3, dann gilt für alle a, b, w R 3 : < a b, w > = det(a, b, w), wobei (a, b, w) die Matrix mit den Spaltenvektoren a, b, w ist. Beweis : Entwicklung von a 1 b 1 w 1 det a 2 b 2 w 2 a 3 b 3 w 3 nach der 3.Spalte ergibt die Behauptung. Wir wissen, dass die Determinante einer 2 2 Matrix bilinear und alternierend als Funktion der Spaltenvektoren ist. Deshalb folgt aus Definition 21.5.1 sofort: Folgerung 21.5.3 : Fr alle a, b, c R 3, λ R gilt (1) a a = 0. (2) a b = b a (Antikommutativität) (3) (λa) b = a (λb) = λ(a b) (4) (a + b) c = a c + b c (5) a (b + c) = a b + a c. Für das Vektorprodukt gilt also das Distributivgesetz (Regeln (4),(5)) und statt des Kommutativgesetzes die Regel (2). Statt des Assoziativgesetzes hat man die folgenden zwei Regeln für drei Faktoren: (21.5.4) Grassmann-Identität : Seien a, b, c R 3 und <, > das kanonische Skalarprodukt im R 3, dann ist a (b c) = < a, c > b < a, b > c. Beweis durch stumpfsinniges Nachrechnen: a (b c) = a (b 2 c 3 b 3 c 2, b 3 c 1 c 1 b 3, b 1 c 2 b 2 c 1 ) = (a 2 (b 1 c 2 b 2 c 1 ) a 3 (b 3 c 1 b 1 c 3 ), a 1 (b 1 c 2 b 2 c 1 ) + a 3 (b 2 c 3 b 3 c 2 ), a 1 (b 3 c 2 b 1 c 3 ) a 2 (b 2 c 3 b 3 c 2 )) = ((a 1 c 1 + a 2 c 2 + a 3 c 3 )b 1 (a 1 b 1 + a 2 b 2 + a 3 b 3 )c 1, (a 1 c 1 + a 2 c 2 + a 3 c 3 )b 2 (a 1 b 1 + a 2 b 2 + a 3 b 3 )c 2, (a 1 c 1 + a 2 c 2 + a 3 c 3 )b 3 (a 1 b 1 + a 2 b 2 + a 3 b 3 )c 3 ) = < a, c > b < a, b > c. (21.5.5) Jacobi-Identität : Für alle a, b, c R 3 gilt a (b c) + b (c a) + c (a b) = 0. Beweis : Nach (21.5.4) gilt a (b c) + b (c a) + c (a b) = < a, c > b < a, b > c+ < b, a > c < b, c > a+ < c, b > a < c, a > b = 0.

- 101 - Bemerkung 21.5.6 : Allgemein bezeichnet man einen K Vektorraum V, auf dem eine Multiplikation definiert ist, so dass für alle a, b, c V und λ K gilt (λa) b = a (λb) = λ(a b), (a + b) c = a c + b c, a (b + c) = a b + a c als eine K Algebra. Gilt zusätzlich das Assoziativgesetz a, b, c V : a (b c) = (a b) c, so nennt man V eine assoziative K Algebra. Beispiele dafür sind Hom K (V, V ) mit + und, oder M(n n, K) mit Matrizen-Addition und -Multiplikation. Gilt statt des Assoziativgesetzes für alle a, b, c V : a a = 0 und a (b c) + b (c a) + c (a b) = 0, so heißt V eine Lie-Algebra. R 3 mit + und Vektorprodukt ist also eine Lie-Algebra. Satz 21.5.7 : Für alle a, b, c, d R 3 gilt < a b, c d > = < a, c > < b, d > < b, c > < a, d >. Beweis : Nach der Grassmann-Identität (21.5.4) gilt < a, c > b < b, c > a = c (b a). Wir bilden auf beiden Seiten das Skalarprodukt mit d : < a, c > < b, d > < b, c > < a, d > = < c (b a), d > (21.5.2) = det(c, b a, d) = det(c, d, b a) (21.5.2) = < c d, b a > = < a b, c d >. Satz 21.5.8 : Für alle a, b R 3 gilt < a, b > 2 + a b 2 = a 2 b 2. Das ist eine genauere Aussage als die Cauchy-Schwarzsche Ungleichung, die nur < a, b > 2 a 2 b 2 aussagt! Beweis : Setzen wir c := a, d := b in Satz 21.5.7 ein, so erhalten wir < a b, a b > = < a, a > < b, b > < b, a > < a, b >, also a b 2 + < a, b > 2 = a 2 b 2. (21.5.9) Geometrische Deutung des Vektorprodukts : Seien a, b R 3, a, b 0. Dann gilt (1) a b = a b sin ϕ, wobei ϕ der Winkel zwischen a und b ist, (2) a b a und a b b, (3) det(a, b, a b) 0..

- 102 - Beweis : (1) a b 2 (21.5.8) = a 2 b 2 < a, b > 2 = a 2 b 2 (1 cos 2 ϕ) = a 2 b 2 sin 2 ϕ, ϕ [0, π], also sin ϕ [0, 1], und damit folgt die Behauptung. (2) < a b, a > (21.5.2) = det(a, b, a) = 0, entsprechend für b. (21.5.2) (3) det(a, b, a b) = < a b, a b > = a b 2 0. Ist (a, b) linear unabhängig, so weiß man damit: a b steht senkrecht auf der von a und b aufgespannten Ebene im R 3 und hat die Norm a b sin ϕ. (3) macht eine Aussage, in welche Richtung der Vektor a b zeigt. Man braucht dazu den Begriff der Orientierung einer Basis des R n : Definition 21.5.10 : Sei (b 1,..., b n ) eine Basis des R n. Sie heißt positiv orientiert, wenn für die Matrix mit den Spaltenvektoren b 1,..., b n gilt : det(b 1,..., b n ) > 0. Sei T diese Matrix, also t kj die k te Komponente von b j, so gilt j n : b j = t kj e k, T ist also die in Bemerkung 19.4.16 definierte Transformationsmatrix von der kanonischen Basis (e k ) k n zur Basis (b j ) j n. (b j ) j n positiv orientiert bedeutet dann, dass (b j ) j n genauso orientiert ist wie die kanonische Basis. Speziell im R 3 kann man beweisen: Satz 21.5.11 : Eine Basis (b 1, b 2, b 3 ) des R 3 ist genau dann positiv orientiert, wenn sie die Rechte-Hand-Regel erfüllt : Zeigt b 1 in die Richtung des Daumens, b 2 in die des Zeigefingers, so zeigt b 3 in die Richtung des Mittelfingers der rechten Hand. Die Regel (21.5.9)(3) sagt dann: Ist (a, b) linear unabhängig, so ist (a, b, a b) eine positiv orientierte Basis des R 3, erfüllt also die Rechte- Hand-Regel. - 22 Eigenwerte 22.1 Definition, diagonalisierbare Matrizen (22.1.1) Zur Motivation : Die Bestimmung von Eigenwerten linearer Abbildungen spielt in allen Gebieten der Physik und Technik eine große Rolle. Z.B.ist H ψ = E ψ, wobei H der Hamilton-Operator ist, der auf dem Raum der Wellenfunktionen ψ operiert, und man Energie-Eigenwerte E sucht, eine der grundlegenden Gleichungen der Quantentheorie. Wir können das Problem der Bestimmung von Eigenwerten in diesem Semester nur für endlichdimensionale Vektorräume behandeln. Der allgemeinere Fall (die mathematischen Grundlagen der Quantentheorie) kommt dann im 4.Semester.

- 103 - Definition 22.1.2 : Sei K ein Körper und V ein K Vektorraum. Sei F ein Endomorphismus von V, also F Hom K (V, V ). Ein λ K heißt ein Eigenwert von F, wenn es ein v V \ {0} gibt, so dass gilt F (v) = λv. Jedes von 0 verschiedene v V, das diese Gleichung erfüllt, heißt ein Eigenvektor von F zum Eigenwert λ. (22.1.3) Beachten Sie, dass 0 K ein Eigenwert sein kann, dass aber 0 V definitionsgemäß kein Eigenvektor ist! Hilfssatz und Definition 22.1.4 : Sei K ein Körper, V ein K Vektorraum, dim K V = n N und F Hom K (V, V ). Dann sind folgende Aussagen gleichbedeutend: (1) Es gibt eine Basis (b j ) j n von V aus Eigenvektoren von F. (2) Es gibt eine Basis B = (b j ) j n von V, so dass die gemäß (19.4.3) bezüglich B definierte Matrix von F, also MB B (F ), eine Diagonalmatrix ist : λ 1 0 MB B (F ) =... mit λ 1,..., λ n K. 0 λ n Wenn eine dieser Aussagen gilt, heißt F diagonalisierbar. Beweis : (1) = (2) : Sei (b j ) j n eine Basis aus Eigenvektoren von F, so gibt es λ 1,..., λ n K mit j n : F (b j ) = λ j b j, also hat MB B (F ) nach (19.4.3) die in (2) angegebene Form. (2) = (1) : Sei MB B (F ) die in (2) angegebene Matrix, dann gilt j n : F (b j ) = λ j b j, also sind die b j Eigenvektoren von F. (22.1.5) Beachten Sie: Dass man eine Basis von Eigenvektoren hat, bedeutet nicht, dass jeder Vektor aus V ein Eigenvektor ist, denn die Linearkombination von Eigenvektoren ist i.a. kein Eigenvektor! - Die Frage ist nun: Wann ist ein F Hom K (V, V ) diagonalisierbar? Eine hinreichende Bedingung gibt der folgende Hilfssatz an : Hilfssatz 22.1.6 : Sei K ein Körper und V ein K Vektorraum. Sind v 1,..., v m Eigenvektoren zu paarweise verschiedenen Eigenwerten λ 1,..., λ m von F Hom K (V, V ), so ist (v j ) j m linear unabhängig. Insbesondere: Ist dim K V = n N und hat F n paarweise verschiedene Eigenwerte λ 1,..., λ n, so ist F diagonalisierbar. Beweis durch Induktion nach m : Induktionsanfang : Ist m = 1, so ist (v j ) j 1 linear unabhängig wegen v 1 0.

- 104 - Induktionsschluss : Sei m N, m 2. Sei ( ) α 1 v 1 +... + α m v m = 0 mit α 1,..., α m K, dann gilt λ m α 1 v 1 +... λ m α m v m = 0 (( ) mit λ m multipliziert), α 1 λ 1 v 1 +... α m λ m v m = 0 (F auf ( ) angewendet), also m 1 α j (λ j λ m ) v j = 0 und wenn der Satz für m 1 richtig ist, folgt wegen λ j λ m : α 1 =... = α m 1 = 0, und aus ( ) und v m 0 dann noch nach Satz 19.1.10 : α m = 0. Ist dim V = n und hat F n paarweise verschiedene Eigenwerte, so hat man eine linear unabhängige Familie (v j ) j n von Eigenvektoren von F, die dann auch eine Basis von V ist. Nach Hilfssatz 22.1.4 ist F diagonalisierbar. Eine etwas andere Formulierung von Definition 22.1.4 liefert der Satz 22.1.7 : Sei V ein K Vektorraum, dim K V = n N und F Hom K (V, V ). F ist genau dann diagonalisierbar, wenn es zur Matrix A = M A A (F ) bezüglich einer beliebigen Basis A von V eine Matrix S GL(n, K) gibt, so dass S 1 A S eine Diagonalmatrix ist. Beweis : = : Sei F diagonalisierbar. Dann gibt es nach Definition 22.1.4 eine Basis B von V, so dass B := M B B (F ) eine Diagonalmatrix ist. Sei A = MA A (F ) die Matrix von F bezüglich der Basis A, dann gibt es nach Bemerkung 19.4.16 (angewendet auf den Spezialfall V = W ) eine Matrix S GL(n, K) mit M B B (F ) = S 1 M A A (F ) S. = : Sei S GL(n, K) und S 1 A S eine Diagonalmatrix, dann gehen wir von der Basis A = (a k ) k n über zur Basis B = (b j ) j n, die durch b j := s kj a k mit (s kj ) = S

- 105 - definiert ist. Nach Bemerkung 19.4.16 ist dann S 1 A S die Matrix von F bezüglich B. Nach Definition 22.1.4 (2) ist nun F diagonalisierbar. 22.2 Das charakteristische Polynom Bemerkung 22.2.1 : Die Frage ist nun, wie bekommt man die Eigenwerte eines gegebenen F Hom K (V, V ), wenn dim K V = n N ist. Dazu wählt man sich eine feste Basis A = (a k ) k n von V, dann hat man A := M A A (F ) und zu jedem x V gibt es einen Vektor a = x 1. x n K n mit Dann gilt für x V und λ K : x = x k a k. F (x) = λ x A a = λ a, denn F (x) = x k F (a k ) = x k a lk a l = λ x l a l k,l=1 l n : also : λ ist Eigenwert von F l=1 a lk x k = λ x l, x V \ {0} : F (x) = λ x a K n \ {0} : A a = λ a a K n \ {0} : (A λ E n )a = 0. Bei gegebener Matrix A ist (A λe n ) a = 0 ein lineares homogenes Gleichungssystem mit n Gleichungen in den n Unbekannten x 1,..., x n, und λ ist genau dann ein Eigenwert von F, wenn dieses Gleichungssystem eine nichttriviale Lösung hat. Nach Satz 19.6.5 gilt also: λ ist Eigenwert von F Rg (A λe n ) < n und nach Satz 19.6.12 und Folgerung 20.3.7 :... det(a λe n ) = 0. Hier hat man nun eine Gleichung mit der einen Unbekannten λ. Hierbei ist A λe n die Matrix bezüglich der Basis A von und nach Definition 20.4.2 ist F λ id V Hom K (V, V ), det(f λ id V ) = det(a λ E n ), wobei es nach Bemerkung 20.4.1 nicht darauf ankommt, welche Basis A man gewählt hat. Rechnet man sich die Determinante

det(a λ E n ) = det - 106 - a 11 λ a 12 a 13... a 1n a 21 a 22 λ a 23... a 2n a 31 a 32 a 33 λ... a 3n.... a n1 a n2 a n3... a nn λ aus, so sieht man, dass man eine Polynomfunktion der Form det(a λ E n ) = ( 1) n λ n + n 1 j=0 b j λ j hat, von der man die Nullstellen sucht, was für K = R und n > 2 Schwierigkeiten macht. Definition 22.2.2 : Sei K ein Körper und n N. a) Sei V ein K Vektorraum mit dim K V = n und F Hom K (V, V ), so heißt P F (x) := det(f x id V ) das charakteristische Polynom von F. b) Ist A M(n n, K), so heißt λ ein Eigenwert von A, wenn es ein a K n \ {0} gibt mit A a = λ a, und P A (x) := det(a x E n ) heißt das charakteristische Polynom der Matrix A. Im Fall K = R oder C (nur in diesem Fall hatten wir in 11.5.3 den Grad definiert) ist deg P F = deg P A = n. In Bemerkung 22.2.1 haben wir nun gezeigt: Folgerung 22.2.3 : Die Eigenwerte von F Hom K (V, V ) bzw. von A M(n n, K), n N, sind die Nullstellen des charakteristischen Polynoms P F bzw. P A. Definition 22.2.4 : Sei V ein K Vektorraum, F Hom K (V, V ) und λ K, dann heißt der Unterverktorraum der Eigenraum von F bezüglich λ. Eig(F, λ) := Ker(F λ id V ) Ein λ K ist also genau dann ein Eigenwert von F, wenn Eig(F, λ) {0} ist, und Eig(F, λ) \ {0} ist die Menge der Eigenvektoren von F zum Eigenwert λ. Folgerung 22.2.5 : Ist dim V = n N und A die Matrix von F bezüglich einer festen Basis A von V, so ist dim Eig(F, λ) die Dimension des Lösungsraums des linearen homogenen Gleichungssystems (A λ E n ) x = 0.

- 107 - Beispiel 22.2.6 : Sei A = 0 1 1 3 2 3 2 2 3 M(3 3, R), so ist das charakteristische Polynom von A : x 1 1 det(a x E 3 ) = det 3 2 x 3 2 2 3 x ( ) ( ) ( 2 x 3 3 3 3 2 x = ( x) det +1 det +1 det 2 3 x 2 3 x 2 2 = x(2 + x)(3 x) 6x 9 + 3x + 6 + 6 4 2x = x 3 + x 2 + x 1. Eine Nullstelle dieses Polynoms ist λ 1 = 1. Wenn man durch x 1 dividiert, erhält man ) x 3 + x 2 + x 1 = (x 1) ( x 2 + 1), dadurch erhält man als weitere Nullstellen λ 2 = 1 und λ 3 = 1. 1 und 1 sind also die einzigen Eigenwerte von A. Wir wollen noch die Eigenvektoren zu diesen Eigenwerten bestimmen, also die Vektoren v R 3 \ {0} mit A v = ±1 v. Gesucht sind also die nichttrivialen Lösungen v R 3 der linearen homogenen Gleichungssysteme (A (±1) E 3 ) v = 0, was mit den Methoden aus 19 kein Problem ist: a) Für λ 1,2 = 1 haben wir 1 1 1 A 1 E 3 = 3 3 3. 2 2 2 Wenn wir das auf Zeilenstufenform bringen, sehen wir: Rg (A 1E 3 ) = 1, also dim Eig(A, 1) = 3 1 = 2, und Elemente aus v Eig(A, 1) erhalten wir aus v 1 v 2 + v 3 = 0, also v 2, v 3 R beliebig, v 1 = v 2 v 3.

b) Für λ 3 = 1 haben wir A + 1 E 3 = - 108-1 1 1 3 1 3 2 2 4. Wenn wir das auf Zeilenstufenform bringen, sehen wir : Rg (A + 1 E 3 ) = 2, also dim Eig(A, 1) = 3 2 = 1, und Vektoren v Eig(A, 1) erhalten wir aus v 1 v 2 + v 3 = 0 4v 2 + 6v 3 = 0, also v 3 R beliebig, v 2 = 3 2 v 3, v 1 = 1 2 v 3. Bemerkung 22.2.7 : Sei dim K V = n N und F Hom K (V, V ) sei diagonalisierbar. Nach Definition 22.1.4 gibt es dann eine Basis B von V, so dass λ 1 0 B := MB B (F ) =... ist mit λ 1,..., λ n K, 0 λ n also det(f x id V ) = det(b x E n ) = n (x λ j ), also ist P F (x) ein Produkt von Linearfaktoren. Wie wir in Beispiel 22.2.6 gesehen haben, kann ein Linearfaktor mehrfach auftreten: Definition 22.2.8 : Sei K = R oder C und p : K K eine Polynomfunktion, p 0. Sei λ K. Es gibt ein eindeutig bestimmtes r N 0 und ein q P(K) mit q(λ) 0 und x K : p(x) = (x λ) r q(x). Dieses r heißt die Vielfachheit der Nullstelle λ in p, und wir schreiben r =: µ(p, λ). Beispiel 22.2.9 : Ist p : R R, p(x) = (x 3) 3 (x 1), so ist µ(p, 1) = 1, µ(p, 3) = 3, µ(p, λ) = 0 für λ / {1, 3}. Hilfssatz 22.2.10 : Sei V ein endlichdimensionaler K Vektorraum, F Hom K (V, V ) und λ K, dann gilt für das charakteristische Polynom P F (x) : µ(p F, λ) dim Eig(F, λ). Beweis : Sei (v j ) j r mit r 0 eine Basis von Eig(F, λ), dann können wir diese Basis nach dem Basisergänzungssatz 19.2.14 ergänzen zu einer Basis B = (v 1,..., v r, v r+1,..., v n ) von V. Sei A die Matrix von F bezüglich B, so ist

A = - 109 - λ 0... 0 λ + 0 A r Zeilen r Spalten, da F (v j ) = λ v j für j r gilt. Dabei bedeutet irgendetwas. Das charakteristische Polynom kann man damit ausrechnen, etwa indem man nach der 1. Spalte entwickelt: P F (x) = det(a x E n ) = (λ x) r det(a x E n r ). Daraus folgt µ(p F, λ) r = dim Eig(F, λ). Beispiel 22.2.11 : Sei V = R 2 und F : R 2 R 2, F ( x y ) := ( y 0 dann ist F Hom R (R 2, R 2 ). Bezüglich der kanonischen Basis (e 1, e 2 ) des R 2 hat F die Matrix ( ) 0 1 A =, 0 0 also ist das charakteristische Polynom von F : ( ) x 1 P F (x) = det = x 2 = (x 0) 2. 0 x Also ist µ(p F, 0) = 2 und µ(p F, λ) = 0 für λ 0. Andererseits ist Eig(F, 0) = Ker F = R e 1, also dim Eig(F, 0) = 1, also gilt in diesem Fall µ(p F, 0) > dim Eig(F, 0). F ist nicht diagonalisierbar, denn da 0 der einzige Eigenwert von F ist, würde es sonst eine Basis B von R 2 geben, so dass F bezüglich B die Matrix ( 0 ) 0 0 0 hätte, dann wäre aber F = 0. Allgemein gilt das folgende Kriterium für Diagonalisierbarkeit: Satz 22.2.12 : Sei K = R oder C, V ein endlichdimensionaler K Vektorraum und F Hom K (V, V ). Dann sind gleichbedeutend die Aussagen : (1) F ist diagonalisierbar, (2) a) das charakteristische Polynom P F ist ein Produkt von Linearfaktoren, und b) für alle Eigenwerte λ von F gilt dim Eig (F, λ) = µ(p F, λ). ),

- 110 - Beweis : Seien λ 1,..., λ k die paarweise verschiedenen Eigenwerte von F, und für j k sei (v (j) 1,..., v (j) s j ) eine Basis von Eig (F, λ j ), also s j = dim Eig(F, λ j ). Dann ist B := (v (1) 1,..., v (1) s 1, v (2) 1,..., v (2) s 2,..., v (k) 1,..., v (k) s k ) eine linear unabhängige Familie, denn sei ( ) k s j i=1 α ij v (j) i = 0 mit α ij K, dann gilt für w j := s j i=1 α ij v (j) i : w j = 0, oder w j ist Eigenvektor zu λ j. Nach ( ) gilt k 1 w j = 0. Nach Hilfssatz 22.1.6 sind nun Eigenvektoren zu paarweise verschiedenen Eigenwerten linear unabhängig, also folgt aus dieser Gleichung j k : w j = 0, und aus den Gleichungen s j i=1 α ij v (j) i = 0 für j k folgt dann j k i s j : α ij = 0. Sei nun n := dim V. (1) = (2) : Ist F diagonalisierbar, so gibt es eine Basis von V, die aus Eigenvektoren von F besteht. Ordnet man die Vektoren passend an, so ist es eine Basis der Form B. Dann ist n = s 1 +... + s k Hilfssatz 22.2.10 µ(p F, λ 1 ) +... + µ(p F, λ k ) n, da P F höchstens n Linearfaktoren hat wegen deg P F = n. Hier steht also überall das Gleichheitszeichen: P F zerfällt in Linearfaktoren, und für alle j k gilt s j = µ(p F, λ j ). (2) = (1) : Wenn a) und b) gelten, folgt s 1 +... + s k b) = µ(p F, λ 1 ) +... + µ(p F, λ k ) a) = n, also ist B nicht nur linear unabhängig, sondern sogar eine Basis von V, also F diagonalisierbar.

- 111 - (22.2.13) Praktisches Verfahren zur Diagonalisierung eines F Hom K (V, V ) : Sei V ein K Vektorraum, dim K V = n N, und A eine Basis von V. Sei F Hom K (V, V ), und A die Matrix von F bezüglich A. 1.Schritt : Man bestimmt das charakteristische Polynom P F von F und versucht, eine Linearfaktorzerlegung von P F zu finden (was für n 3 schwierig werden kann). Wenn man sicher ist, dass das nicht geht, ist F nicht diagonalisierbar, wegen Satz 22.2.12 (1). Wenn man eine Linearfaktorzerlegung angeben kann, kommt das zweite Hindernis : 2.Schritt : Man bestimmt für jeden Eigenwert λ von F die Dimension von Eig(F, λ), also die Dimension des Lösungsraums des linearen homogenen Gleichungssystems (A λ E n ) x = 0. Wenn dann für alle Eigenwerte λ µ(p F, λ) = dim Eig(F, λ) gilt, ist F nach Satz 22.2.12 diagonalisierbar, und man bestimmt Basen aller Eig(F, λ). Diese Eigenvektoren bilden zusammen eine Basis B von V, bezüglich der die Matrix B := MB B (F ) Diagonalform hat. Es gilt nach Bemerkung 19.4.16 : B = S 1 A S mit S := T B A GL(n, K). S ist also die Transformationsmatrix des Basiswechsels von Formel (19.4.17) gilt, wenn A = (a l ) l n, B = (b j ) j n ist : b j = s lj a l mit (s lj ) := S. l=1 B zu A. Nach Die Spaltenvektoren der Matrix S sind also die Koordinatenvektoren der neuen Basisvektoren b j bezüglich der gegebenen alten Basis A. Beispiel 22.2.14 : Sei F : R 3 R 3 gegeben durch x y + z F y := 3x 2y + 3z, z 2x 2y + 3z dann ist F linear, und die Matrix von F bezüglich der kanonischen Basis K = (e 1, e 2, e 3 ) des R 3 ist 0 1 1 A = 3 2 3, also (siehe Beispiel 22.2.6) 2 2 3 P F (x) = x 3 + x 2 + x 1 = (x 1) 2 (x + 1). Also ist P F ein Produkt von Linearfaktoren. 1 und 1 sind die einzigen Eigenwerte von F. Wie wir in Beispiel 22.2.6 gesehen haben, ist

dim Eig(F, 1) = 2, und dim Eig(F, 1) = 1, und Also ist B := - 112-1, 0 1 1 1 0 1 1 0 1 3 2 eine Basis von Eig(F, 1), eine Basis von Eig(F, 1)., 1 0 1, 1 3 2 eine Basis des R 3, die aus Eigenvektoren von F besteht. Mit der Transformationsmatrix 1 1 1 S := 1 0 3 0 1 2 und der Diagonalmatrix B = M B B (F ) = 1 0 0 0 1 0 0 0 1 gilt dann B = S 1 A S, was man zur Kontrolle nachrechnen sollte! 22.3 Orthogonale und unitäre Endomorphismen Sei V ein K Vektorraum mit einem Skalarprodukt s, dann ist also a für a V definiert. Unter den Elementen F Hom K (V, V ) interessiert man sich besonders für solche, die an der Norm nichts ändern, für die also a V : F (a) = a gilt: Definition 22.3.1 : Sei K = R oder C und V ein K Vektorraum mit Skalarprodukt s. Eine lineare Abbildung F Hom K (V, V ) heißt eine Isometrie (für K = R auch orthogonale, für K = C auch unitäre lineare Abbildung), wenn v, w V : s(f (v), F (w)) = s(v, w) gilt. Folgerung 22.3.2 : Ist V ein K Vektorraum mit Skalarprodukt s, die durch s definierte Norm und F Hom K (V, V ) eine Isometrie, so gilt a) v V : F (v) = v. b) Ist λ ein Eigenwert von F, so ist λ = 1. c) v, w V : (v w F (v) F (w)). d) F ist injektiv. e) Ist V endlichdimensional, so ist F sogar bijektiv, und F 1 ist wieder eine Isometrie.

- 113 - Beweis : a) und c) sind triviale Folgerungen aus Definition 22.3.1. b) Sei v 0 und λ K, und es gelte F (v) = λ v, dann folgt nach a) : v = F (v) = λ v = λ v und wegen v 0 : λ = 1. d) Sei v KerF, dann ist F (v) = 0, also 0 = F (v) a) = v, also v = 0. Nach Satz 19.3.4 ist F injektiv. e) Nach der Dimensionsformel (Satz 19.3.5) gilt dim F (V ) = dim V dim KerF d) = dim V, also F (V ) = V, und damit ist F sogar surjektiv. Also hat man die - ebenfalls lineare - Umkehrfunktion F 1 : V V, und es gilt v, w V : s(f 1 (v), F 1 (w)) = s(f (F 1 (v)), F (F 1 (w))) = s(v, w), also ist auch F 1 eine Isometrie. Definition 22.3.3 : Sei n N Eine Matrix a) A GL(n, R) heißt orthogonal, falls A 1 = t A, b) A GL(n, C) heißt unitär, falls A 1 = t A ist. Für jede orthogonale und jede unitäre Matrix A gilt dann A t A = E n, also det A det A = 1, det A 2 = 1, also det A = 1. Fr orthogonale Matrizen gibt es also nur die beiden Möglichkeiten det A = 1 oder det A = 1. Satz und Definition 22.3.4 : Die Mengen O(n) := { A GL(n, R) A 1 = t A }, SO(n) := { A O(n) det A = 1 } und U(n) := { A GL(n, C) A 1 = t A } sind bezüglich der Matrizenmultiplikation Gruppen. Sie heißen orthogonale, spezielle orthogonale bzw. unitäre Gruppe. Beweis : a) Für U(n) : Für A, B U(n) ist t (A B) = t (A B) = t B t A = B 1 A 1 = (A B) 1, also A B U(n), und ist eine Verknüpfung auf U(n). Das Assoziativgesetz gilt, da es in GL(n, C) gilt. Wegen

- 114 - t E n = E n ist E n U(n). Für A U(n) gilt auch t (A 1 ) = t ((A) 1 ) = ( t (A)) 1 = (A 1 ) 1, also A 1 U(n). Also ist U(n) eine Gruppe. b) Für O(n) geht das wie unter a), nur ohne. c) Aus dem Determinanten-Multiplikationssatz folgt, dass auch SO(n) eine Gruppe ist. Satz 22.3.5 : Sei V ein endlichdimensionaler K Vektorraum mit Skalarprodukt s und sei B = (v j ) j n eine Orthonormalbasis von V. Sei F Hom K (V, V ) und MB B (F ) die Matrix von F bezüglich B. Dann gilt für K = R : F ist orthogonal MB B (F ) ist orthogonal, für K = C : F ist unitär MB B (F ) ist unitär. Beweis für K = C (für K = R lasse man die Striche weg) : Da (v j ) j n eine Orthonormalbasis von V ist, gilt für k, j n : s(v k, v j ) = δ kj = { 0 fr k j 1 für k = j, also wenn F (v j ) = F n ( ) a kj v k ist mit A := M B B (F ) : unitär r, j n : s(v r, v j ) = s(f (v r ), F (v j )) r, j n : δ rj = a kr a lj s(v k, v l ) = k,l=1 k,l=1 a kr a lj δ kl = a kr a kj E n = t A A E n = A t A A 1 = t A A unitär. Dabei muss höchstens noch ( ) genauer begründet werden: = ist trivial, und = folgt aus der Linearität von F und daraus, dass s ein Skalarprodukt ist. Satz 22.3.6 : Ist F eine Isometrie eines endlichdimensionalen C Vektorraums V mit Skalarprodukt, so besitzt V eine Orthonormalbasis, die aus Eigenvektoren von F besteht. Beweis durch Induktion nach n := dim V : Für n = 0 können wir die leere Familie als Basis nehmen; dafr ist der Satz richtig. Für n 1 sei der Satz richtig. Sei nun dim C V = n. Für das charakteristische Polynom P F von F gilt P F P(C) und deg P F = n. Nach dem Fundamentalsatz der Algebra (Satz 11.5.7) zerfällt P F in Linearfaktoren, d.h. es gibt λ 1,..., λ n C mit P F (x) = ±(x λ 1 )... (x λ n ).

- 115 - Sei v 1 ein Eigenvektor zu λ 1. Dann ist v 1 0, und da auch Eigenvektor zu λ 1 ist, können wir v 1 = 1 annehmen. Sei W := { w V s(v 1, w) = 0 }, dann ist W ein Untervektorraum von V. Es gilt denn sei w W, dann gilt F (W ) W, 1 v 1 v 1 λ 1 s(f (w), v 1 ) = s(f (w), λ 1 v 1 ) = s(f (w), F (v 1 )) = s(w, v 1 ) = 0 und nach Folgerung 22.3.2 b) ist λ 1 = 1, also λ 1 0, also s(f (w), v 1 ) = 0, also F (w) W. Also haben wir die lineare Abbildung F W : W W, die wieder eine Isometrie ist, denn für w, w W gilt Nun ist s(f W (w), F W (w )) = s(f (w), F (w )) = s(w, w ). dim C W = n 1, denn nach dem Orthonormalisierungssatz 21.3.3 können wir (v 1 ) zu einer Orthonormalbasis (v 1, w 2,..., w n ) von V ergänzen, und (w 2,..., w n ) ist dann eine Basis von W. W besitzt nach Induktionsannahme eine Orthonormalbasis (v 2,..., v n ), die aus Eigenvektoren von F W, also aus Eigenvektoren von F, besteht. Wegen Cv 1 W ist dann (v 1,..., v n ) die gewünschte Basis von V. Folgerung 22.3.7 : Jede Isometrie eines endlichdimensionalen unitären Vektorraums V ist diagonalisierbar. Beweis : Das gilt nach Satz 22.3.6 und Definition 22.1.2. Folgerung 22.3.8 : Sei n N. Zu jedem A U(n) gibt es ein S U(n) mit λ 1 0 t S A S =..., 0 λ n wobei die λ j C sind mit λ j = 1 für j n. Beweis : Sei F : C n C n, F (x) := A x, dann ist A = M K K (F ), wobei K die kanonische Basis des C n ist. K ist eine Orthonormalbasis des C n mit dem kanonischen Skalarprodukt <, > also ist F ein unitärer Endomorphismus des C n nach Satz 22.3.5. Nach Satz 22.3.6 gibt es nun eine Orthonormalbasis ein

- 116 - B = (v 1,..., v n ) des C n mit <, >, die aus Eigenvektoren von F besteht : λ 1,..., λ n C j n : (F (v j ) = λ j v j λ j = 1 ), letzteres nach Folgerung 22.3.2 b). Also ist B := M B B (F ) = λ 1 0... 0 λ n, und nach der Formel für die Koordinatentransformation in 19.4.17 gilt M B B (F ) = S 1 M K K (F ) S, also B = S 1 A S, mit S := M B K(id V ) = T B K GL(n, C), also nach (19.4.16) : S = (s kj ) mit v j = s kj e k. Da sowohl B als auch K Orthonormalbasen von C n sind, gilt für r, j n : δ rj = < v r, v j > = < s lr e l, l=1 s kj e k > = s lr s kj < e l, e k > = s lr s kj δ lk = s kr s kj, also k,l=1 k,l=1 t S S = E n, also S 1 = t S, S U(n), B = t S A S. 22.4 Selbstadjungierte Endomorphismen Definition 22.4.1 : Sei V ein K Vektorraum mit Skalarprodukt s. Ein F Hom K (V, V ) heißt selbstadjungiert, wenn v, w V : s(f (v), w) = s(v, F (w)) gilt. Satz 22.4.2 : Sei V ein K Vektorraum mit Skalarprodukt s, dim K V = n N und B eine Orthonormalbasis von V. Dann gilt: F selbstadjungiert MB B (F ) ist symmetrisch ( für K = R ) bzw. MB B (F ) ist hermitesch ( für K = C ). Beweis : Sei B = (v 1,..., v n ) und A := M B B (F ), dann gilt

- 117 - k n : F (v k ) = F selbstadjungiert a jk v j, also : r=1 l, k n : s(f (v l ), v k ) = s(v l, F (v k )) l, k n : a jl s(v j, v k ) = a jk s(v l, v j ) r=1 l, k n : a jl δ jk = r=1 r=1 a jk δ lj r=1 l, k n : a kl = a lk A = t A A ist symmetrisch bzw. hermitesch. Hilfssatz 22.4.3 : Ist n N und A M(n n, K) symmetrisch bzw. hermitesch, so sind alle Eigenwerte von A reell. Beweis : Wir nehmen den K n mit dem kanonischen Skalarprodukt. Allgemein gilt für v = t (v 1,..., v n ), w = t (w 1,..., w n ) K n : ( ) < A v, w > = a kj v j, w = a kj v j w k = v, ( r=1 a kj w k ) j n k n und wenn A symmetrisch bzw. hermitesch ist: < A v, w > = < v, A w >, und wenn A v = λv ist, mit v 0, dann folgt k, = < v, t A w >, λ < v, v > = < λv, v > = < Av, v > = < v, Av > = < v, λv > = λ < v, v >, also λ = λ. Satz 22.4.4 : Sei V ein K Vektorraum mit Skalarprodukt, dim K V = n N, und sei F Hom K (V, V ) selbstadjungiert. Dann gilt für das charakteristische Polynom von F : n (λ 1,..., λ n ) R n : P F (x) = ( 1) n (x λ k ). Beweis : Für K = C wissen wir, dass das charakteristische Polynom ein Produkt von Linearfaktoren ist, und die Nullstellen von P F sind die Eigenwerte von F. Nach Hilfssatz 22.4.3 sind die λ k, k n, reell.

- 118 - Also ist die Behauptung richtig. Sei K = R. Dann wählen wir eine bezüglich s orthonormale Basis B von V. Dafür ist nach Satz 22.4.2 A := M B B (F ) eine symmetrische Matrix aus M(n n, R). Wegen R C ist A auch Element von M(n n, C), und als solche ist A hermitesch. A beschreibt also bezüglich der kanonischen Basis K des C n eine selbstadjungierte lineare Abbildung F C : C n C n mit M K K ( F C ) = A. Nach dem eben für C Bewiesenen gibt es λ 1,..., λ n R mit Nun ist für x R : n P FC (x) = ( 1) n (x λ k ). P FC (x) = det(a xe n ) = det(a xe n ) = P F (x), also haben wir mit λ 1,..., λ n R, wie behauptet. M(n n, C) M(n n, R) n P F (x) = ( 1) n (x λ k ), Bemerkung 22.4.5 : Der Kunstgriff bei Teil b) des Beweises von Satz 22.4.4 besteht, wenn man es genau betrachtet, darin, dass man die Matrix A = (a kj ) = M B B (F ) des Endomorphismus F des R Vektorraums V mit der Basis B = (v 1,..., v n ) auch auffassen kann als Matrix eines Endomorphismus der Komplexifizierung V C von V. Wir definieren V C als V C := C n, mit der kanonischen Basis (e 1,..., e n ). Dann ist aber λv auch für λ R und v V definiert, und V C ist ein R-Vektorraum, mit der Basis (e 1,..., e n, ie 1,..., ie n ) ; also ist dim R V C = 2n. Dann ist ϕ : V V C, ϕ( n α j v j ) := α j e j ein injektiver R Vektorraum-Homomorphismus. Wir können daher α j v j V mit α j e j V C r=1 identifizieren, dann { wird V V C, v j = e j V C und n } V C = α j v j α j C. r=1 r=1 Es ist dann (v 1,..., v n ) eine C Basis von V C, und man kann das Skalarprodukt s von V fortsetzen zu einem Skalarprodukt s C auf V C durch r=1 r=1

s C ( r=1-119 - ) α j v j, β k v k := α j β k s(v j, v k ). j, Zu F End R V hat man das durch F C : V C V C, F C (v j ) := a kj v k definierte F C End C V C, und es ist offenbar M B B (F C ) = M B B (F ) = A. Wegen A = t A = t A ist F C ein selbstadjungierter Endomorphismus von V C. Satz 22.4.6 : Sei V ein endlichdimensionaler K Vektorraum mit Skalarprodukt, und sei F Hom K (V, V ) selbstadjungiert. Dann besitzt V eine Orthonormalbasis, bestehend aus Eigenvektoren von F. Beweis durch Induktion nach n := dim V : Induktionsanfang : Für n = 0 ist der Satz trivial. Induktionsschluss : Sei n N, und für kleinere Dimension als n sei der Satz wahr.sei nun dim V = n. Nach Satz 22.4.4 haben wir eine Linearfaktorzerlegung des charakteristischen Polynoms von F : P F (x) = ( 1) n n (x λ k ) mit λ k R. Sei v 1 V mit v 1 = 1 ein Eigenvektor zu λ 1, dann setzen wir W := { w V s(v 1, w) = 0 }. Wie im Beweis von Satz 22.3.6 zeigt man: dim K W = n 1. Entscheidend ist nun, dass auch noch ( ) F (W ) W gilt, denn dann können wir auf F W : W W die Induktionsannahme anwenden: Es gibt eine Orthonormalbasis (v 2,..., v n ) von W, die aus Eigenvektoren von F W, also aus Eigenvektoren von F, besteht, und (v 1, v 2,..., v n ) ist dann die gewünschte Orthonormalbasis von V. Beweis von ( ) : Ist w W, so gilt s(v 1, F (w)) = s(f (v 1 ), w) = s(λ 1 v 1, w) = λ 1 s(v 1, w) = 0, also F (w) W.

- 120 - Folgerung 22.4.7 : Jeder selbstadjungierte Endomorphismus eines endlichdimensionalen euklidischen bzw. unitären Vektorraums ist diagonalisierbar. Beweis : Das folgt aus Satz 22.4.6 und Definition 22.1.2. Folgerung 22.4.8 : Ist A M(n n, K) eine symmetrische bzw. hermitesche Matrix, so gibt es eine orthogonale bzw. unitäre Matrix S, so dass λ 1 0 t S A S =... mit λ 1,..., λ n R ist. 0 λ n Der Beweis geht ähnlich wie der von Folgerung 22.3.9: Satz 22.4.6 sagt zunächst nur, dass es ein S GL(n, K) mit λ 1 0 S 1 A S =... 0 λ n gibt, aber S ist die Transformationsmatrix von der kanonischen Basis K des K n zu der nach Satz 22.4.6 existierenden Orthonormalbasis B = (v 1,..., v n ) des K n ; es gilt also v j = s kj e k, die Spaltenvektoren s j von S sind die v j. Sie bilden also eine Orthonormalbasis des K n mit <, >, es gilt j, l n : s kj s kl = δ jl, also t S S = E n, also gilt S 1 = t S, d.h. S ist orthogonal bzw. unitär. 22.5 Sylvesterscher Trägheitssatz Bemerkung 22.5.1 : Wir wollen das Ergebnis von Folgerung 22.4.8 über hermitesche Matrizen anwenden, um zu beweisen, dass man die in 21.4.1 definierte darstellende Matrix einer hermiteschen Form s, also M B (s) = (s(v k, v j )) (k,j) n n für B = (v j ) j n durch Übergang zu einer anderen Basis A auf Diagonalform bringen kann. Satz 22.5.2 : Sei s eine symmetrische Bilinearform (bzw. hermitesche Form) auf dem K Vektorraum V mit dim K V = n N, und A := M A (s) die darstellende Matrix von s bezüglich einer Basis A. Dann gibt es eine Basis B von V mit den Eigenschaften: (1) M B (s) ist eine Diagonalmatrix, d.h.

M B (s) = - 121 - λ 1 0... 0 λ n mit λ 1,..., λ n R. (2) Die Transformationsmatrix S des Basiswechsels von A nach B ist orthogonal (bzw. unitär). (3) Die Diagonalelemente λ 1,..., λ n von M B (s) sind die Eigenwerte von A. Beweis : A ist eine symmetrische (bzw. hermitesche) Matrix, also gibt es nach nach Folgerung 22.4.8 eine orthogonale (bzw. unitäre) Matrix S, so dass B := t S A S eine Diagonalmatrix ist. Sei A = (a k ) k n, dann setzen wir b j := s kj a k für j n, dann ist S die Transformationsmatrix TA B Transformationssatz 21.4.7 gilt also wegen t S = S 1 :, und nach dem M B (s) = t S M A (s) S, B = S 1 A S, also haben A und B die gleichen Eigenwerte, womit auch (3) bewiesen ist. Folgerung 22.5.3 : Eine symmetrische Bilinearform bzw. hermitesche Form s auf einem endlichdimensionalen K Vektorraum V ist genau dann positiv definit, wenn für eine Basis B von V alle Eigenwerte von M B (s) positiv sind. Beweis : Nach Satz 22.5.2 gibt es zur Basis B eine Basis A = (a k ) k n, so dass M A (s) und M B (s) gleiche Eigenwerte haben, und λ 1 0 M A =... = (s(a k, a j )) (k,j) n n 0 λ n ist, mit λ 1,... λ n R. Nun gilt: s positiv definit ( ) k n : s(a k, a k ) > 0 k n : λ k > 0. Bei ( ) ist = klar. = folgt so: Sei v = n α k a k V \ {0} beliebig, dann ist s(v, v) = α k α l s(a k, a l ) = k,l=1 k,l=1 α k α l δ kl λ k = α k 2 λ k > 0.