Kapitel 3 Quadratische Formen und symmetrische Matrizen

Ähnliche Dokumente
3.3 Klassifikation quadratischer Formen auf R n

Kapitel 3 Quadratische Formen und symmetrische Matrizen

Musterlösungen zur Linearen Algebra II Übungsklausur

Lineare Algebra II 11. Übungsblatt

6 Symmetrische Matrizen und quadratische Formen

Tutorium Mathematik II, M Lösungen

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

Mathematik für Anwender II

6 Eigenwerte und Eigenvektoren

Lineare Algebra und analytische Geometrie II

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

2.2 Eigenwerte und Eigenvektoren

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

6. Normale Abbildungen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2

6.5 Lineare Abhängigkeit, Basis und Dimension

Hauptachsentransformation: Eigenwerte und Eigenvektoren

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3

2.2 Kern und Bild; Basiswechsel

7.2 Die adjungierte Abbildung

4 Lineare Abbildungen Basisdarstellungen

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra für Physiker 11. Übungsblatt

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Vektorräume und Lineare Abbildungen

1 Euklidische und unitäre Vektorräume

5 Lineare Algebra (Teil 3): Skalarprodukt

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

Lineare Algebra II 8. Übungsblatt

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

Euklidische und unitäre Vektorräume

6 Hauptachsentransformation

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

7 Lineare Abbildungen und Skalarprodukt

10 Unitäre Vektorräume

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Ein Produkt ist Null, wenn einer der Faktoren gleich Null ist. Die beiden Eigenwerte sind demnach. λ 1 = 0, λ 2 = 2i. 1 i

Lineare Algebra und Numerische Mathematik für D-BAUG

4.4 Hermitesche Formen

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

6 Symmetrische und hermitesche Matrizen

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Technische Universität München Zentrum Mathematik. Übungsblatt 12

5.7 Lineare Abhängigkeit, Basis und Dimension

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

11 Eigenwerte und Eigenvektoren

Lineare Algebra und analytische Geometrie II

Kapitel VI. Euklidische Geometrie

Eigenwerte (Teschl/Teschl 14.2)

Aufgaben zu Kapitel 20

9 Vektorräume mit Skalarprodukt

Kapitel 2 Lineare Algebra II. 2.1 Lineare Abbildungen

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153

9. Übung zur Linearen Algebra II -

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

Lineare Algebra. 1 Lineare Abbildungen

Analytische Geometrie

Lineare Algebra und analytische Geometrie I

D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 011 Tom Ilmanen. Musterlösung 12. a ij = v i,av j (A ist symmetrisch) = Av i,v j

Prüfung Lineare Algebra 2

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF

Proseminar Lineare Algebra II, SS 11. Blatt

44 Spektralzerlegung normaler Operatoren im endlichdimensionalen Fall

Lina II - Aufgaben zur Vorbereitung für die Klausur (Teil 1) - Lösungen

Mathematik II Frühjahrssemester 2013

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n

Kapitel 5. Vektorräume mit Skalarprodukt

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 1 (SS 2011) Abgabetermin: Donnerstag, 21. April.

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung

43911: Lineare Algebra/Geometrie Prüfungstermin Herbst 2015 Lösungsvorschlag

und Unterdeterminante

und Unterdeterminante

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

D-CHAB Frühlingssemester 2018

++ + = 0 so erhält man eine quadratische Gleichung mit zwei Variablen dx+ey+f = 0 1.1

6.3 Hauptachsentransformation

1 Die Jordansche Normalform

1. Vektoralgebra 1.0 Einführung Vektoren Ein Vektor ist eine Größe, welche sowohl einen Zahlenwert (Betrag) als auch eine Richtung hat.

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Leitfaden 34. , dies ist eine reelle symmetrische Matrix, also diagonalisierbar.

Ausgewählte Lösungen zu den Übungsblättern 9-10

2 Euklidische Vektorräume

6 Symmetrische Matrizen und quadratische Formen

5.2 Rechnen mit Matrizen

Lineare Algebra und analytische Geometrie II

Musterlösung zur Serie 10

3 Vektorräume abstrakt

Steilkurs Lineare Algebra 1 einige wichtige Stationen

Transkript:

Kapitel 3 Quadratische Formen und symmetrische Matrizen 3.1 Skalarprodukte und Normen Das übliche Skalarprodukt für Vektoren aus dem R ist folgendermassen erklärt: ( ) ( ) x1 x v w = := x 1 x +y 1 y. y 1 y ( ) x Die Länge eines Vektors v =, die hier mit v notiert wird, ist nach dem Satz y von Pythagoras gegeben durch: v = x +y. Die geometrische Bedeutung des Skalarprodukts ist folgende: v w gibt die Länge der Projektion von v in Richtung von w, multipliziert mit der Länge von w an. Bezeichnet α den Winkel zwischen v und w, so gilt: v w = v w cosα. Also ist v w = 0 genau dann, wenn die Vektoren v und w senkrecht aufeinander stehen. Und es ergibt sich folgendes: 3.1 Satz (Cauchy-Schwarzsche Ungleichung) v w v w für alle v,w R. Gleichheit gilt genau dann, wenn v, w linear abhängig sind. Dieses Standardskalarprodukt ist das Vorbild für den folgenden Begriff: 3. Definition Ein Skalarprodukt (bzw. ein hermitesches Produkt) auf einem reellen (bzw. komplexen) Vektorraum V ist eine Abbildung :V V R (bzw. C) mit folgenden Eigenschaften: (i) v v R >0 für alle 0 v V; 0 0 = 0. (ii) u αv+βw = α u v +β u w für alle u,v,w V, α,β R (bzw. C). (iii) u v = v u für alle u,v V. Aus den Eigenschaften (ii) und (iii) folgt ausserdem: (iv) αv+βw u = α v u +β w u für alle u,v,w V, α,β R (bzw. C).

54 Kapitel 3. Quadratische Formen und symmetrische Matrizen Jedes Skalarprodukt auf V liefert auch einen Längenbegriff auf V, eine sogenannte Norm, nämlich v := v v für alle v V. Wegen der Eigenschaft (i) ist dieser Ausdruck wohldefiniert. 3.3 Beispiele 1. Das Standardskalarprodukt auf R n ist so erklärt: v 1 w 1 v w =.. = v n w n n v k w k. Die Eigenschaften (i)-(iii) sind erfüllt, wie man direkt nachrechnen kann. Die dazugehörige Länge ist die vertraute euklidische Länge: v = k=1 v 1 +...+v n für alle v V. Für n = 1 stimmt mit dem Betrag überein.. EineandereMöglichkeit, einskalarproduktaufr zuerklären,istzumbeispiel folgende: ( ) ( ) x1 x v w = = x y 1 y 1 x +3y 1 y. Auch hier sind ( die ) Rechenregeln (i)-(iii) erfüllt, und die zugehörige Norm x lautet hier = x y +3y. Man kann diese Art der Längenmessung so verstehen, dass wir die x- und die y-richtung jeweils neu skaliert haben. 3. Betrachten wir jetzt V = C als komplexen Vektorraum. Das hermitesche Standardprodukt ist folgendermassen definiert: z w := z w für z,w C. Die zugehörige Norm lautet für z = a+ib: z = zz = a +b = z. Hier stimmt also die Norm mit dem Betrag der komplexen Zahl überein. Zur Überprüfung der Eigenschaften: (i) v v = z > 0 für alle z 0. (ii) folgt durch Ausmultiplizieren (iii) v u = vu = v u = u v. 4. Entsprechend definiert man für V = C n z w := n z i w i und z = z 1 +...+ z n. k=1

3.1. Skalarprodukte und Normen 55 5. Sei V der Vektorraum der stetigen, reellwertigen Funktionen auf dem abgeschlossenen Intervall [a, b]. Dann definiert auch folgende Vorschrift ein Skalarprodukt: Die zugehörige Norm lautet: f g := b a b f(x)g(x)dx. f = a f (x)dx. Die Linearitätseigenschaft (ii) ergibt sich direkt aus der Linearität des Integrals und die Symmetrie (iii) ist offensichtlich. Für (i) ist es wichtig, dass es sich um stetige Funktionen handelt. Ist f C 0 [a,b], dann ist f eine stetige Funktion mit f (x) 0 für alle x. Eine nichtnegative, stetige Funktion kann nur dann als Integralwert Null liefern, wenn es sich um die Nullfunktion handelt. Sei jetzt V ein Vektorraum über R (oder C) mit fest gewähltem Skalarprodukt (bzw. hermiteschen Produkt). Man kann zeigen, dass auch hier die Cauchy-Schwarzsche Ungleichung gilt. 3.4 Satz (Cauchy-Schwarzsche Ungleichung) v w v w für alle v,w V. Gleichheit gilt genau dann, wenn v, w linear abhängig sind. In Anlehnung an die geometrische Bedeutung des Standardskalarprodukts des R und R 3 sagt man, zwei Vektoren u,v V seien senkrecht zueinander oder orthogonal, wenn v w = 0. Dafür gibt es auch die Notation v w. 3.5 Definition EineBasis(v 1,...,v n )vonv heisstorthonormalbasis,fallsv i v j für alle i j und v j = 1 für alle j. Das heisst anders ausgedrückt: v i v j = { 0 für i j 1 für i = j. Eine Orthonormalbasis liefert also ein rechtwinkliges Koordinatensystem. 3.6 Beispiele Standardbasis (e 1,...,e n ) für R n. ( ) ( Die Basis des R gebildet aus v 1 = 1 1 und v 1 = 1 1 1 ( ) ( ) Die Vektoren i 1 und 1 1 1 bilden eine Orthonormalbasis von C i mit dem Standardprodukt. ).

56 Kapitel 3. Quadratische Formen und symmetrische Matrizen Wenn man einen Vektor v V durch eine Orthonormalbasis ausdrücken möchte, muss man jeweils die Skalarprodukte von v mit den Basisvektoren bestimmen. Denn es gilt: 3.7 Bemerkung Ist (v 1,...,v n ) eine Orthonormalbasis von V, so gilt für jedes v V: n v = v j v v j. j=1 Das Skalarprodukt v j v gibt also jeweils die Projektion von v in Richtung von v j an. Beweis. Ist v = n k=1 α kv k, so gilt v j v = v j n k=1 α kv k = n k=1 α k v j v k = α j. Also stimmt v j v mit dem (eindeutig bestimmten) Koeffizienten α j überein. q.e.d. 3.8 Satz Jeder endlichdimensionale Vektorraum über R(oder C) mit Skalarprodukt (bzw. hermiteschem Produkt) hat eine Orthonormalbasis. Beweis. DazustartetmanmiteinerbeliebigenBasis(u 1,...,u n )vonv undkonstruiert daraus rekursiv mithilfe des Orthonormalisierungsverfahrens eine Orthonormalbasis (v 1,...,v n ), und zwar so, dass für k = 1,...,n gilt: lin(v 1,...,v k ) = lin(u 1,...,u k ). Den ersten Vektor v 1 wählt man parallel zu u 1, aber auf Länge 1 normiert, also v 1 := u 1. Um den zweiten Vektor v u 1 zu definieren, geht man aus von der Zerlegung von u in eine Komponente in Richtung von v 1 und eine Komponente w von u senkrecht zu v 1. Da v 1 u die Länge der Projektion von u auf v 1 bezeichnet, gilt: w = u v 1 u v 1. Nun wählt man v parallel zu w, aber auf Länge 1 normiert, also v := w. Der dritte Vektor v w 3 wird aus u 3 konstruiert, indem man zunächst die Projektionen auf v 1 und v abzieht und dann auf Länge 1 normiert, usw. Hier das Resultat: v 1 := u 1 u 1, v := u v 1 u v 1 u v 1 u v 1, und für k = 3,...,n v k := u k k 1 j=1 v j u k v j u k k 1 j=1 v j u k v j. Man kann direkt nachrechnen, dass (v 1,...,v n ) eine Orthonormalbasis ist. q.e.d. 3.9 Beispiel Sei V R 3 die Ebene, definiert durch die Gleichung x+3y z = 0, zusammen mit dem von R 3 geerbten Skalarprodukt. Die Vektoren u 1 = 1 0 und

3.. Hauptsatz über symmetrische Matrizen 57 u = 0 1 aus V sind linear unabhängig, stehen aber nicht senkrecht aufeinander, 3 denn u 1 u = 6. Das Orthonormalisierungsverfahren, angewendet auf (u 1,u ), liefert hier: v 1 = u 1 u 1 = 1 1. 5 Weiter ist v 1 u = 6 5 und daher u v 1 u v 1 = 1 5 v = 1 70 0 6 5. 3 6 5. Wir erhalten 3 Wie gewünscht, gelten v 1 v = 0 und v 1 = v = 1. Also ist (v 1,v ) eine Orthonormalbasis für die Ebene V. 3. Hauptsatz über symmetrische Matrizen In diesem Abschnitt geht es um symmetrische reelle Matrizen. Eine Matrix A heisst symmetrisch, wenn A = A t, das heisst a ij = a ji für alle i,j. Das Ziel ist es, den folgenden wichtigen Satz zu beweisen: 3.10 Hauptsatz Jede symmetrische reelle Matrix A M n n ist diagonalisierbar, und es gibt sogar eine Orthonormalbasis des R n aus Eigenvektoren von A. Anders gesagt: es gibteine invertierbare MatrixS mit S 1 = S t, so dasss t AS Diagonalform hat. Die von den Eigenvektoren aufgespannten Geraden nennt man Hauptachsen von A, und die Koordinatentransformation auf die Orthonormalbasis aus Eigenvektoren heisst deshalb auch Hauptachsentransformation. 3.11 Bemerkung Sind die Vektoren v 1,...,v n in R n linear unabhängig, so ist die aus den Spalten v 1,...,v n gebildete Matrix S bekanntlich invertierbar. Die Einträge der Produktmatrix S t S =: C geben die Skalarprodukte von Paaren von Vektoren an: c ij = v i v j für alle i,j. Also bilden die Vektoren v 1,...,v n genau dann eine Orthonormalbasis, wenn S t S = E ist, das heisst, wenn die Transponierte der Matrix S bereits ihre Inverse bildet. Eine solche Matrix S wird auch als orthogonal bezeichnet. Nun zunächst einige Beispiele zum Hauptsatz:

58 Kapitel 3. Quadratische Formen und symmetrische Matrizen ( ) 3.1 Beispiele 1. Die Matrix A = ist offenbar symmetrisch. Die Spur 5 dieser Matrix beträgt 7 und die Determinante ist 6. Die Eigenwerte von A sind also( λ 1 ) = 6 und λ = 1. Als ( zugehörige ) Eigenvektoren können wir wählen v 1 = 1 1 5 zu λ 1 und v = 1 5 zu λ 1. Die Vektoren v 1,v sind so gewählt, dass sie Länge 1 haben, und sie stehen tatsächlich senkrecht aufeinander, denn v 1 v = 0. ( ) 3. DieMatrixB = ist nicht symmetrisch. B ist zwar ebenfalls diagonalisierbar, aber nicht durch( eine ) Orthonormalbasis. ( ) Denn die Eigenrichtungen, 1 4 1 aufgespannt durch v 1 = und v 1 =, stehen nicht senkrecht aufeinander. 1 3. Die ebene Spiegelung an der Gerade g, die den Winkel ϕ zur x-achse bildet, wird beschrieben durch die Matrix ( ) cos(ϕ) sin(ϕ). sin(ϕ) cos(ϕ) Jede solche Matrix ist symmetrisch, und tatsächlich sind die Spiegelungsachse und die dazu senkrechte Gerade durch den Nullpunkt Eigenrichtungen der Spiegelung zu den Eigenwerten 1 bzw. 1. 4. Dagegen ist eine Drehmatrix nur dann symmetrisch, wenn es sich um eine Drehung um 180 0, also eine Punktspiegelung oder um die Identität handelt. Für den Beweis des Hauptsatzes benötigen wir folgende Aussagen: 3.13 Satz Sei A M n n (R) symmetrisch. Dann gilt: (i) Av w = v Aw für alle v,w R n. (ii) Eigenvektoren zu verschiedenen Eigenwerten von A sind zueinander orthogonal. (iii) Alle Eigenwerte von A sind reell, das heisst, das charakteristische Polynom von A hat nur reelle Nullstellen. Beweis. Zu (i): Wir können das Standardskalarprodukt auf R n auch in der Form v w = v t w schreiben, wobei mit das Matrizenprodukt gemeint ist. Daraus ergibt sich für alle v,w R n : Av w = (Av) t w = v t A t w = v t (Aw) = v Aw. Zu (ii): Angenommen, die Vektoren 0 v,w R n sind Eigenvektoren von A zu den Eigenwerten λ µ. Das heisst Av = λv und Aw = µw. Mit Aussage (i) erhalten wir Av w = λ v w = v Aw = µ v w. Da λ µ ist, muss also v w = 0 sein.

3.. Hauptsatz über symmetrische Matrizen 59 Zu (iii): Sei λ C eine Nullstelle des charakteristischen Polynoms p A. Dann gibt es in C n einen Eigenvektor v 0 von A zum Eigenwert λ. Nun berechnen wir das hermitesche Produkt von v mit Av und erhalten: v Av = v λv = λ v. Andererseits gilt, weil A nach Voraussetzung symmetrisch ist, folgendes: v Av = v t Av = v t A t v = Av t v = Av v = λ v. Weil v 0, folgt λ = λ, und das bedeutet, dass λ eine reelle Zahl ist. q.e.d. Nun sind alle Vorbereitungen gemacht, um den am Anfang des Abschnitts formulierten Hauptsatz per Induktion über n beweisen zu können. Beweis des Hauptsatzes: Im eindimensionalen Fall ist A = (λ) für ein λ R. Also hat A bereits Diagonalform, und die Basis (e 1 ) leistet das Gewünschte. Sei jetzt n > 1. Wie eben gezeigt, hat das charakteristische Polynom von A (mit Vielfachheit gezählt) n reelle Nullstellen. Wir wählen einen Eigenwert λ R und einen dazugehörigen Eigenvektor u R n aus und betrachten nun das sogenannte orthogonale Komplement von u in R n, die Menge u := {v R n v u} = {v R n u 1 v 1 +...+u n v n = 0}. Die Menge V := u ist ein linearer Unterraum von R n der Dimension n 1, denn es handelt sich um die Lösungsmenge einer homogenen linearen Gleichung. Für jedes v V gilt Av V, denn weil A symmetrisch ist, haben wir: Av u = v Au = v λu = λ v u = 0. Also definiert die Multiplikation mit der Matrix A eine lineare Transformation von V: L:V V, v Av. Wir wählen für V eine Orthonormalbasis (w 1,...,w n 1 ) (bezogen auf das von R n geerbteskalarprodukt)underhaltensoeineorthonormalbasisa = (u,w 1,...,w n 1 ) von R n. Die Matrix T, gebildet aus den Spalten u,w 1,...,w n 1, beschreibt den Basiswechsel von der kanonischen Basis zur Basis A, und es gilt: λ 0... 0 M A (L A ) = T 1 AT = 0. B,wobei B eine (n 1) (n 1)-Matrix ist. 0 Weil die Spalten von T eine Orthonormalbasis bilden, ist die Matrix T orthogonal, das heisst T 1 = T t. Weil A symmetrisch ist, gilt (T 1 AT) t = T t A t (T 1 ) t = T 1 AT und daher B t = B. Also können wir die Induktionsvoraussetzung auf B anwenden. Das heisst, nach Induktion gibt es eine Orthonormalbasis B = (v 1,...,v n 1 ) von V, die nur aus Eigenvektoren von L besteht. Fügen wir den Eigenvektor u hinzu, erhalten wir eine Orthonormalbasis (v 1,...,v n 1,u) von R n aus Eigenvektoren von A wie gewünscht. q.e.d.

60 Kapitel 3. Quadratische Formen und symmetrische Matrizen 3.3 Klassifikation quadratischer Formen auf R n Wir können den Hauptsatz über symmetrische Matrizen verwenden, um uns einen Überblick über die Lösungsmengen quadratischer Gleichungen in n Variablen zu verschaffen. Eine quadratische Gleichung in zwei Variablen x, y sieht so aus: c 1 x +c xy +c 3 y = c 4, (c 1,c,c 3,c 4 R vorgegeben). Zum Beispiel ist die Lösungsmenge der Gleichung x y + = 1 a b eine Ellipse, die die x-achse bei x = ±a und die y-achse bei y = ±b schneidet. Die Lösungsmenge der Gleichung xy = 1 dagegen ist eine Hyperbel. Wir wollen nun folgende Fragen beantworten: Kann man durch Wahl eines neuen Koordinatensystems jede quadratische Gleichung in eine möglichst einfache Form bringen? Wie lassen sich die möglichen Typen klassifizieren? Die linke Seite der quadratischen Gleichung fasst man zusammen zu einer sogenannten quadratischen Form. 3.14 Definition Unter einer quadratischen Form auf R n versteht man eine Abbildung nach R, die durch einen quadratischen Ausdruck in den Koordinaten gegeben ist, also: q:r n R, q(x 1,...,x n ) = α ij x i x j. i j Aus den Koeffizienten α ij können wir eine symmetrische Matrix A = (a ij ) i,j bilden, indem wir setzen: a ii = α ii für alle i und a ij = a ji = 1 α ij für alle i < j. Dann lässt sich die quadratische Form q so schreiben: q(v) = v t Av = v,av für v R n. Umgekehrt liefert jede symmetrische n n-matrix A (das heisst also eine Matrix mit a ij = a ji für alle i j) auf diese Art eine quadratische Form q A auf R n. Für n = heisst das konkreter: Die quadratische Form auf R, definiert durch q(x,y) = ax +bxy +cy, (a,b,c R), gehört zu der symmetrischen Matrix ( a 1 A := b ) 1 b c, denn q A (x,y) = (xy)a ( ) x = ax +bxy +cy. y

3.3. Klassifikation quadratischer Formen auf R n 61 Sei jetzt A eine reelle, symmetrische n n-matrix. Die zugehörige quadratische Form auf R n lautet dann q A :R n R, q A (v) := v t Av. Weil A symmetrisch ist, können wir zu einer Orthonormalbasis aus Eigenvektoren (v 1,...,v n ) übergehen. Bezeichnet T die entsprechende Transformationsmatrix, so ist λ 1... 0 T 1 AT =. 0.. 0, 0... λ n wobei λ 1,...,λ n die Eigenwerte von A sind. Da T orthogonal ist, erhalten wir Setzen wir für v = q A (Tv) = (Tv) t ATv = v t (T t AT)v = v t (T 1 AT)v. x 1. x n v 1,...,v n besteht, folgendes Resultat: ein, erhalten wir, weil die Matrix T aus den Spalten 3.15 Satz Sei q = q A :R n R die quadratische Form zur symmetrischen Matrix A. Sei weiter (v 1,...,v n ) eine Orthonormalbasis von R n aus Eigenvektoren von A zu den Eigenwerten λ 1... λ n. Dann gilt q(x 1 v 1 + +x n v n ) = λ 1 x 1 + +λ n x n. WirkönnenalsojedequadratischeFormaufR n beigeeigneterwahldeskoordinatensystems als Summe von gewichteten Quadraten schreiben. Kommen wir nun zu den Lösungsmengen quadratischer Gleichungen zurück. Schauen wir uns zunächst den Fall n = genauer an. 3.16 Satz Sei A eine invertierbare symmetrische -Matrix mit Eigenwerten λ 1 λ. Dann gibt es für die Lösungsmenge der quadratischen Gleichung q A (v) = 1 in R drei Möglichkeiten. Ist λ 1,λ < 0, so ist die Lösungsmenge leer. Sind beide Eigenwerte positiv, handelt es sich um eine Ellipse. Ist λ 1 > 0 und λ < 0, so ist die Lösungsmenge eine Hyperbel. Beweis. Wie eben gezeigt, lässt sich die Gleichung vereinfachen, indem man zu einer Orthonormalbasis v 1,v von R aus Eigenvektoren von A zu den Eigenwerten λ 1 λ übergeht. Bezogen auf die neuen Koordinaten x 1,x nimmt die quadratische Gleichung folgende Gestalt an: ( ) q(x 1 v 1 +x v ) = λ 1 x 1 +λ x = 1. Wenn λ 1,λ < 0, ist λ 1 x 1 + λ x 0 für alle x 1,x. Also hat die Gleichung ( ) in diesem Fall keine reellen Lösungen.

6 Kapitel 3. Quadratische Formen und symmetrische Matrizen Sind beide Eigenwerte λ 1 und λ positiv, handelt es sich bei ( ) um eine Ellipsengleichung. Die Lösungsmenge in R ist eine Ellipse mit Hauptachsen in Richtung von v 1 bzw. v, die die v 1 -Achse bei x 1 = ± 1 λ1 und die v -Achse bei x = ± 1 λ schneidet. Ist λ 1 > 0 und λ < 0, so handelt es sich um eine Hyperbel (in einem allgemeineren Sinn). Denn wir können schreiben λ 1 x 1 +λ x = ( λ 1 x 1 + λ x )( λ 1 x 1 λ x ) = 1. Die Lösungsmenge dieser Gleichung ist eine Hyperbel mit Asymptoten, gegeben λ durch die Gleichungen x = ± 1 x λ 1. Die Hyperbel schneidet die v 1 -Achse bei x 1 = ± 1 λ1. q.e.d. 3.17 Beispiele Beginnen wir mit der quadratischen Form q(x,y) = x + ( xy + y ). Die Eigenwerte der entsprechenden symmetrischen Matrix A = 1 sind λ 1 1 = 3 und λ = 1, und als dazugehörige Eigenvektoren der ( ) ( ) Länge 1 können wir wählen v 1 = 1 1 und v 1 = 1 1. Also ist 1 die Lösungsmenge der Gleichung q(x, y) = 1 eine Ellipse mit Hauptachsen in Richtung von v 1 bzw. v. Die Gleichung x + 4xy + 5y = 1 ( beschreibt ) eine Ellipse ( mit) Hauptachsen in Richtung der Vektoren v 1 = 1 1 5 und v = 1 5. Die Ellipse 1 schneidet die v 1 -Achse bei ± 1 6 und die v -Achse bei ±1. Die Gleichung 4x y = (x y)(x + y) = 1 beschreibt eine Hyperbel mit Asymptoten y = ±x. Das Verhältnis λ 1 λ = gibt die Steigung der Asymptoten an. Die Hyperbeläste schneiden die x-achse bei ± 1. Die klassische Hyperbel ist gegeben durch die Gleichung y = 1 oder äquivalent x dazu durch xy = 1. Diese Gleichung können wir auch in folgender Form schreiben xy = 1 4 ((x+y) (x y) ) = 1 (x 1 x ) = 1, wobeix 1 = 1 (x+y)undx = 1 (x y)diekoordinatenbezogenaufdiebasis ( ) ( ) aus Eigenvektoren v 1 = 1 1 und v 1 = 1 1 zu den Eigenwerten ± 1 1 angeben. Die entsprechende symmetrische Matrix ist hier A = ( 0 1 1 0 ). Es gilt x 1 = x genau dann, wenn y = 0, und x 1 = x genau dann, wenn x = 0. Die entsprechenden Geraden sind tatsächlich die Asymptoten der Hyperbel.

3.3. Klassifikation quadratischer Formen auf R n 63 3.18 Satz Sei jetzt A eine symmetrische 3 3-Matrix mit deta 0. Dann gibt es für die Lösungsmenge der quadratischen Gleichung q A (v) = 1 in R 3 insgesamt vier Möglichkeiten. 1. Sind alle Eigenwerte von A negativ, hat die Gleichung keine Lösungen in R 3.. Sind alle Eigenwerte von A positiv, handelt es sich um ein Ellipsoid. Die Eigenrichtungen geben die Hauptachsen und die Zahlen 1 λj jeweils den Halbachsenabschnitt an. 3. Sind zwei Eigenwerte positiv und einer negativ, so ist die Lösungsmenge ein einschaliges Hyperboloid. 4. Ist ein Eigenwert positiv und sind die zwei anderen negativ, so ist die Lösungsmenge ein zweischaliges Hyperboloid. Hierzu wiederum ein Beispiel. 3.19 Beispiel Sei q(x,y,z) = x +4xy y xz+4yz+z = 1 für x,y,z R. Die quadratische Form q ist gegeben durch die symmetrische Matrix A = 1 1. 1 Bestimmen wir nun die Eigenwerte von A, um den Typ der Lösungsmenge der Gleichung q(x, y, z) = 1 herauszufinden. Das charakteristische Polynom von A lautet: λ 1 p A (λ) = det(λe A) = λ+1 1 λ = (λ ) (λ+1)+8 (λ+1) 8(λ ). Durch Umformen erhält man p A (λ) = λ 3 3λ 9λ+7 = (λ 3)(λ 9) = (λ 3) (λ+3). Die Eigenwerte der Matrix A sind also 3 (doppelt) und 3 (einfach). Deshalb ist die Lösungsmenge der Gleichung q A (x,y,z) = 1 ein einschaliges Hyperboloid. 3.0 Definition Eine quadratische Form q auf einem Vektorraum V heisst positiv (bzw. negativ) definit, falls q(v) > 0 (bzw. q(v) < 0) für alle v 0. Die Form q heisst indefinit, falls q auf V sowohl positive als auch negative Werte (sowie den Wert 0) annimmt. Weil wir jede quadratische Form auf R n als Summe von gewichteten Quadraten schreiben können, gilt folgendes: 3.1 Bemerkung Sei A eine symmetrische n n-matrix. Die zugehörige quadratischeformq A aufr n istgenaudannpositiv(bzw.negativ)definit,wennalleeigenwerte von A positiv (bzw. negativ) sind. q A ist genau dannindefinit, wenn A mindestens einen positiven und einen negativen Eigenwert besitzt.

64 Kapitel 3. Quadratische Formen und symmetrische Matrizen Eine weitere Anwendung des Hauptsatzes über symmetrische Matrizen findet man in der Mechanik bei der Beschreibung der Drehbewegungen eines starren Körpers. Nehmen wir an, ein starrer Körper rotiere um eine (bewegliche) freie Achse, die durch den Schwerpunkt des Körpers geht. Der Vektor ω R 3 gebe mit seiner Richtung die momentane Richtung der Drehachse und mit seinem Betrag die Winkelgeschwindigkeit an. Die kinetische Energie der Bewegung erweist sich als quadratische Form der Winkelgeschwindigkeit. Deshalb gibt es eine symmetrische Matrix J M 3 3 (R), den sogenannten Trägheitstensor des starren Körpers, so dass: E = 1 wt Jw. Der Drehimpuls L R 3 der Bewegung ist gegeben durch L(t) = J ω(t). Ist ω ein Eigenvektor von J, so zeigen Drehimpuls und Rotationsachse in dieselbe Richtung. Das bedeutet, dass es dann keine Unwucht gibt. Weil der Trägheitstensor eine symmetrische Matrix ist, gibt es eine Basis des Raumes aus Eigenvektoren für J. Die Eigenrichtungen sind die sogenannten Hauptträgheitsachsen des starren Körpers. Wählt man Eigenvektoren als Basis, so wird aus dem Trägheitstensor eine Diagonalmatrix. In der Diagonalen stehen die Eigenwerte J 1,J,J 3, die jeweils die Trägheitsmomente bezüglich der gewählten Hauptträgheitsachsen angeben (und daher positive Zahlen sind). Denn in diesem Koordinatensystem nehmen die Gleichungen folgende Form an: L = J 1ω 1 J ω und E = 1 (J 1ω1 +J ω +J 3ω3 ). J 3 ω 3 Für eine Kugel ist J 1 = J = J 3, in diesem Fall ist jede beliebige Achse durch den Schwerpunkt eine Hauptträgheitsachse. Es gibt auch starre Körper, für die zwei der drei Eigenwerte zusammenfallen (zum Beispiel ein Bleistift). In diesem Fall ist die Hauptträgheitsachse zu dem einfachen Eigenwert eindeutig bestimmt, und alle dazu senkrechten Achsen durch den Schwerpunkt des Körpers sind Hauptträgheitsachsen für den doppelten Eigenwert. Ist der starre Körper zum Beispiel ein homogener Quader mit drei verschiedenen Seitenlängen, so sind alle Eigenwerte verschieden. Hier sind die Hauptträgheitsachsen gerade die drei Symmetrieachsen des Quaders. Stabil sind die Bewegungen um die Achse mit dem grössten und die Achse mit dem kleinsten Trägheitsmoment.