6 Symmetrische Matrizen und quadratische Formen

Ähnliche Dokumente
6 Symmetrische und hermitesche Matrizen

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische und hermitesche Matrizen

6 Symmetrische und hermitesche Matrizen

5 Eigenwerte und die Jordansche Normalform

6 Eigenwerte und Eigenvektoren

5 Eigenwerte und die Jordansche Normalform

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Höhere Mathematik II für die Fachrichtung Physik

6 Eigenwerte und Eigenvektoren

6. Übungsblatt zur Mathematik II für Inf, WInf

6 Symmetrische und hermitesche Matrizen

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Musterlösungen zur Linearen Algebra II Übungsklausur

Ausgewählte Lösungen zu den Übungsblättern 9-10

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Eigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( )

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

Lineare Algebra und Numerische Mathematik für D-BAUG

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF

Lineare Algebra für Ingenieure

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Tutorium Mathematik II, M Lösungen

Kapitel 5 : Eigenwerte und Eigenvektoren

Technische Universität Berlin Fakultät II Institut für Mathematik WS 03/04 Eppler, Richter, Scherfner, Seiler, Zorn 25.

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Musterlösungen zu den Übungen

Lineare Algebra und Numerische Mathematik für D-BAUG

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen der Aufgaben zu Kapitel 11

Eigenwerte (Teschl/Teschl 14.2)

Lineare Algebra II 11. Übungsblatt

Diagonalisierbarkeit symmetrischer Matrizen

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen

Institut für Analysis und Scientific Computing E. Weinmüller WS 2017

Institut für Analysis und Scientific Computing E. Weinmüller WS 2016

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Eigenwerte (Teschl/Teschl 14.2)

Institut für Analysis und Scientific Computing E. Weinmüller WS 2017

Lösungsskizzen zur Klausur

Musterlösung Serie 21

Probeprüfung Lineare Algebra I/II für D-MAVT

D-MATH, D-PHYS, D-CHAB Lineare Algebra II FS 14 Manfred Einsiedler. Musterlösung 8. i=1. w 2, w 2 w 2 =

Institut für Analysis und Scientific Computing E. Weinmüller WS 2017

Lineare Algebra II (NAWI) SS2014 Übungsblatt 1

Klausur zu. Lineare Algebra II. Viel Erfolg! Fachbereich Mathematik WS 2012/13 Dr. habil. Matthias Schneider. Bonus Note. Aufgabe

Serie a) Welche der folgenden Vektoren sind Eigenvektoren der Matrix 1 0 1? 0 1 1

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

4 Funktionenfolgen und normierte Räume

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops

Lineare Algebra I Lösungsvorschlag

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 12. Aufgabe Herbstsemester Dr. V. Gradinaru D. Devaud.

Klausurenkurs zum Staatsexamen (SS 2013): Lineare Algebra und analytische Geometrie 3 Lösungsvorschlag

Quadriken. Quadriken und Hauptachsentransformation. Lineare Algebra I, WS 10/11 Ingo Blechschmidt 13. März 2011

Klausur DI/LA F 2006 LA : 1

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen

Lineare Algebra II 8. Übungsblatt

6.3 Hauptachsentransformation

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren

40 Lokale Extrema und Taylor-Formel

6 Symmetrische und hermitesche Matrizen

1 Singulärwertzerlegung und Pseudoinverse

Musterlösungen zur Linearen Algebra II Hauptklausur

Klausur zur Vorlesung Lineare Algebra B im SS 2002 an der Universität Hannover

5.4 Hauptachsentransformation

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1.

5.4 Basis, Lineare Abhängigkeit

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung

10 Unitäre Vektorräume

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung

6 Metrische Klassifikation der Quadriken

fj 2 = f n f n+1. fj 2 = 0 2 = 0 = 0 1 = f 0 f 1. f 2 j = f n f n+1 +fn+1 = (f n +f n+1 )f n+1 = f n+2 f n+1 = f n+1 f (n+1)+1.

Lösungsskizzen zur Nachklausur

Probeklausur zu Mathematik 2 für Informatik

Kontrollfragen und Aufgaben zur 3. Konsultation

Einige Lösungsvorschläge für die Klausur zur Vorlesung

1 Analytische Geometrie und Grundlagen

9 Lineare Differentialgleichungen

2. Klausur zur Linearen Algebra II

Ein Produkt ist Null, wenn einer der Faktoren gleich Null ist. Die beiden Eigenwerte sind demnach. λ 1 = 0, λ 2 = 2i. 1 i

Proseminar Lineare Algebra II, SS 11. Blatt

Karlsruher Institut für Technologie (KIT) WS 2012/13 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning

6 Hauptachsentransformation

4 Funktionenfolgen und normierte Räume

Eigenwerte und Diagonalisierung

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

HM II Tutorium 7. Lucas Kunz. 5. Juni 2018

Mathematik I für MB/ME

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Fachhochschule München Fachbereich 03 FA WS 2006/07. Diplomvorprüfung in Mathematik I (Lineare Algebra) Fahrzeugtechnik

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015

1 Analytische Geometrie und Grundlagen

Musterlösung der Klausur zur linearen Algebra II

9. Übung zur Linearen Algebra II -

Transkript:

Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation Wir setzen jetzt das Beispiel der quadratischen Funktion f(x, y) = x + y xy x y + fort. Wir hatten bereits gesehen, dass wir u = (, ) als Koordinatenursprung nehmen sollten, und das dann f(x, y) = f(x +, y + ) = x + y xy ist. Wir haben bereits gesehen, dass die Berechnung der Hauptachsen die Bestimmung einer aus Eigenvektoren von A bestehenden Orthogonalbasis erfordert. Rechnen wir dies einmal für unsere quadratische Form f(x, y) = x +y xy durch. Das charakteristische Polynom wird zu ( ) A = = χ A (x) = x tr(a)x + det(a) = x x + 3 4 und die Eigenwerte sind damit λ = ± Die Berechnung von Eigenvektoren liefert also v = für λ = ( ) (, v = 3 4 = ±, also λ = und λ = 3. = x = y und für λ = 3 ) und normiert u = ( ), u = = x = y, ( ). Wir verwenden jetzt ein Koordinatensystem mit Ursprung in u = (, ) und den Koordinatenachsen u, u, die wir eben ausgerechnet haben. Ist dann S die Transformationsmatrix ( ) S :=, so entspricht der Punkt x im neuen Koordinatensystem dem Punkt Sx + u im alten Koordinatensystem, und wir haben mit f(x) = f(sx + u) nun f(x, y) = λ x + λ y = x + 3 y. 0-

Mathematik für Ingenieure II, SS 009 Dienstag 3.6 Damit haben wir die Hauptachsentransformation in diesem Beispiel durchgeführt. An der obigen Formel kann man auch noch die Radien der beiden Hauptachsen unserer Ellipse f(x, y) = ablesen. Es ist ja = x a + y b mit a := und b := 3 = 6 3 der kleinere Radius der Ellipse ist also b = 6/3 und der große ist a =. Damit haben wir zum einen die Hauptachsentransformation für die quadratische Funktion f(x, y) = x + y xy x y + durchgeführt und zum anderen die beiden Halbradien der durch f(x, y) = gegebenen Ellipse ausgerechnet. Letzterer geometrischer Aspekt spielt für uns keine große Rolle, das Entscheidende ist die Bestimmung des zur Hauptachsentransformation verwendeten Koordinatensystems. Wir wollen auch noch ein dreidimensionales Beispiel rechnen, bevor wir den Algorithmus im allgemeinen Fall angeben. Wir betrachten die quadratische Funktion f(x, y, z) = x + y + z xy + yz + x + y In der Vektordarstellung haben wir dann f(x) = (Ax) x + b x + c mit 0 A =, b = und c =. 0 0 Bestimmen wir erst einmal die Eigenwerte von A. Das charakteristische Polynom ergibt sich als x 0 χ A (x) = x 0 x = (x ) x 0 x x ( = (x ) x x + ) (x ) = x(x )(x ), und wir haben die drei Eigenwerte λ =, λ = und λ 3 = 0. Zunächst suchen wir einmal Eigenvektoren für die von Null verschiedenen Eigenwerte. Für λ = ist die Rechnung 0 0 0 0 0 0 0 0 also y = 0, x = z mit dem normierten Eigenvektor u = 0. 0 0 0 0 0 0-

Mathematik für Ingenieure II, SS 009 Dienstag 3.6 Für λ = haben wir 0 0 0 0 0 0 0 also y = z, x = ( /)y = z mit dem normierten Eigenvektor u =. Das Bild von A wird jetzt von den beiden Vektoren u, u aufgespannt, und wir müssen jetzt versuchen den Vektor b in eine Summe b = b + b zu zerlegen, bei der b im Bild von A liegt und b senkrecht auf diesem Bild ist. Man bezeichet b dann auch als die Projektion von b auf die Ebene Bild(A) = u, u. Wie kann man diese Projektion ausrechnen? Zur späteren Verwendung wollen wir hier gleich die Rechenmethode für das allgemeine Projektionsproblem angeben. Gegeben: Ein Teilraum U des R n und ein Vektor b R n. Gesucht: Eine Zerlegung b = b + b mit b U und b senkrecht auf U. Verfahren: Man führt die folgenden beiden Rechenschritte durch:. Berechne eine Orthormalbasis u,..., u m von U. Hierzu kann man zunächst irgendeine Basis von U bestimmen, und auf diese dann die Gram Schmidt Orthonormalisierung anwenden.. Die Projektion von b auf U ist dann der Vektor und b ergibt sich durch b := b b. b = (b u )u + + (b u m )u m, Dass dieses Verfahren funktioniert kann man leicht begründen, man setzt b zunächst mit Unbekannten λ,..., λ m als an, und rechnet b = λ u + + λ m u m b u = λ u u + λ u u + + λ m u m u = λ, da u u = u = und u u = = u m u = 0 ist. Damit ergibt sich λ = b u, und für die anderen Koeffizienten folgt dies ebenso. Kommen wir zur unserem Beispiel zurück. Wir projizieren wir den Vektor b auf die von u, u aufgespannte Ebene, d.h. nach dem eben beschriebenen Verfahren berechnen wir b u = und b u = ( ), 0-3

Mathematik für Ingenieure II, SS 009 Dienstag 3.6 und es wird b := (b u )u + (b u )u = u + (3 ) ( 4 )u = ( ) 4 ( +. ) 4 Wegen b b liegt b damit nicht im Bild von A, wir sind also im obigen Fall (). Die Zerlegung von b hat jetzt die Form ( + ) 4 b = b + b mit b := b b = ( + ) 4 ( +. ) 4 Für den Nullpunkt suchen wir einen Vektor u mit Au = b /. Zur Bestimmung von u müssen wir erfreulicherweise kein lineares Gleichungssystem mehr lösen, wir haben schon alle nötigen Daten beisammen. Die Vektoren u, u sind ja Eigenvektoren von A mit Au = λ u und Au = λ u, d.h. wir haben auch b = (b u )u + (b u )u = b u λ (λ u ) + b u λ (λ u ) = b u λ Au + b u = A Folglich können wir als Lösung von Au = b / beispielsweise u := ( b u u + b u ) u = λ λ ( u + ) 4 ( )u = verwenden. Mit u als Koordinatenursprung ist dann wegen f(u) = 3 ( 39) Au λ ( b u u + b u u λ λ ). (5 ) 6 ( ) 6 (3 + ) 6 auch f(x) = (Ax) x + b x + 3 ( 39). Jetzt kommen wir erst einmal nicht weiter, und müssen uns überlegen wie man in der Situation des Fall weitermacht. Da die Matrix A symmetrisch ist, haben wir für alle x R n und alle y Kern A stets (Ax) y = x (Ay) = 0, d.h. Bild und Kern von A stehen senkrecht aufeinander. Haben wir also f(x) = (Ax) x + b x + c mit b 0 senkrecht auf dem Bild von A, so ist auch Ab = 0. In anderen Worten ist b ein Eigenvektor zum Eigenwert 0 von A. Es gibt nun wieder eine orthogonale Matrix S mit D := S t AS = λ... λ n, 0-4

Mathematik für Ingenieure II, SS 009 Dienstag 3.6 wobei λ,..., λ n die Eigenwerte von A sind. Dabei numerieren wir die Eigenwerte von A so durch, dass die ersten r := rang A Eigenwerte von Null verschieden sind λ,..., λ r 0 während die hinteren n r Eigenwerte alle gleich Null sind λ r+ = = λ n = 0. Bei der Berechnung des zum Eigenwert 0 gehörenden Teils der aus Eigenvektoren von A bestehenden Orthonormalbasis des R n, hatten wir zuerst eine Basis v r+,..., v n dieses Eigenraums bestimmt, und auf diese dann das Gram Schmidtsche Orthonormalisierungsverfahren angewandt. Wegen Ab = 0, b 0 können wir die Basis dann mit v r+ = b wählen, und es wird u r+ = v r+ / v r+ = b/ b. Damit ist b = µu r+ mit µ := b. Es folgt f(x) := f(sx) = (ASx) (Sx) + b (Sx) + c = (S t ASx) x + (S t b) x + c für alle x R. Dabei gilt Se r+ = u r+, also auch Insgesamt ist somit S t b = µs t u r+ = µs u r+ = µe r+. f(x,..., x n ) = λ x + + λ r x r + µx r+ + c. = (Dx) x + (S t b) x + c Wenden wir dies einmal auf unser Beispiel an. Wir brauchen noch einen Eigenvektor zum Eigenwert 0, und hierfür können wir unseren schon berechneten Vektor b verwenden. Es ist b = 6 ( + 8 ) = 4 (3 + ) = 4 ( + ) = µ := b = ( + ) also wird u 3 = b b = und die endgültige orthogonale Matrix ist S = 0. Für die transformierte Funktion f(x) = f(sx + u) ist damit f(x, y, z) = x + y + ( + )z + 3 ( 39). Damit haben wir Beispiele für beide möglichen Fälle gesehen, und fassen unsere Ergebnisse jetzt in einem Satz zusammen. 0-5

Mathematik für Ingenieure II, SS 009 Dienstag 3.6 Satz 6.3 (Hauptachsentransformation quadratischer Funktionen) Seien A eine symmetrische n n Matrix, b R n und c R. Seien λ,..., λ n die mit algebraischer Vielfachheit aufgezählten Eigenwerte von A, wobei im Fall r := rang(a) < n die Numerierung mit λ,..., λ r 0 und λ r+ = = λ n = 0 erfolge. Dann existieren ein Punkt u R n und eine orthogonale n n Matrix S so, dass entweder f(sx + u) = λ x + + λ n x n + f(u) für alle x R n ist, oder es ist r < n und es existiert eine reelle Zahl µ > 0 mit für alle x R n. f(sx + u) = λ x + + λ r x r + µx r+ + f(u) Das Verfahren zur Berechnung der Hauptachsentransformation läuft wie folgt ab: Gegeben: Eine quadratische Funktion f(x) = (Ax) x+b x+c mit einer symmetrischen n n Matrix A, einem Vektor b R n und einer Zahl c R. Gesucht: Ein Koordinatenursprung u R n und eine Orthonormalbasis u,..., u n des R n so, dass die Formeln des Satz 3 gelten wenn S die orthogonale Matrix ist deren Spalten die Vektoren u,..., u n sind. Verfahren: Die Rechnung läuft in den folgenden Schritten ab.. Berechne die Eigenwerte λ,..., λ n von A aufgezählt entsprechend ihrer jeweiligen Vielfachheit. Die Numerierung erfolge so, dass λ,..., λ r 0 und λ r+ =... = λ n = 0 ist, wobei r := rang(a) der Rang von A ist. Dabei muss r nicht extra ausgerechnet werden, sondern ergibt sich durch Zählen der Eigenwerte ungleich Null.. Berechne für jeden der von Null verschiedenen Eigenwerte λ von A eine Orthonormalbasis des Eigenraums E λ (A). Dies geschieht wieder indem zuerst durch Lösen des homogenen linearen Gleichungssystems (A λ)x = 0 irgendeine Basis von E λ (A) berechnet wird, und dann auf diese die Gram Schmidt Orthonormalisierung angewandt wird. 3. Fasse die in Schritt () berechneten Orthonormalbasen zu einer Orthonormalbasis u,..., u r des Bildes von A zusammen. 4. Berechne b := (b u )u + + (b u r )u r und verwende u := als den Koordinatenursprung. ( b u λ u + + b u ) r u r λ r 0-6

Mathematik für Ingenieure II, SS 009 Dienstag 3.6 5. Ist r < n, so löse das homogene lineare Gleichungssystem Ax = 0 um eine Basis v,..., v n r des Kerns von A zu erhalten. Im Fall b b wähle die Basis mit v = b b und setze µ := b b. Weiter wende die Gram Schmidt Orthonormalisierung auf v,..., v n r an, und bezeichne die erhaltene Orthonormalbasis des Kerns von A mit u r+,..., u n. 6. Der Koordinatenursprung ist der in Schritt (4) berechnete Punkt u und die aus den Hauptachsen bestehende Orthonormalbasis entsteht durch Zusammensetzen der in den Schritten (3) und (5) berechneten Teilbasen, also u,..., u n. Im Fall b = b sind wir dann im ersten Fall von Satz 3 und für b b sind wir im zweiten Fall mit dem in (5) berechneten µ. 6.4 Definite Matrizen Definition 6.4: Sei A eine symmetrische n n Matrix. Dann heißt A. positiv definit wenn (Ax) x > 0 für alle 0 x R n ist,. negativ definit wenn (Ax) x < 0 für alle 0 x R n ist, 3. positiv semidefinit wenn (Ax) x 0 für alle x R n ist, 4. negativ semidefinit wenn (Ax) x 0 für alle x R n ist und 5. indefinit wenn A weder positiv semidefinit noch negativ semidefinit ist. Da die Gestalt der quadratischen Form (Ax) x nach Satz 3 nur von den Vorzeichen der Eigenwerte von A abhängt, erhalten wir den folgenden Satz: Satz 6.4 (Charakterisierung definiter Matrizen über Eigenwerte) Sei A eine symmetrische n n Matrix und bezeichne λ,..., λ s R die verschiedenen Eigenwerte von A. Dann ist A genau dann. positiv definit wenn λ,..., λ s > 0 ist,. negativ definit wenn λ,..., λ s < 0 ist, 3. positiv semidefinit wenn λ,..., λ s 0 ist und 4. negativ semidefinit wenn λ,..., λ s 0 ist. Hat A also zwei Eigenwerte mit verschiedenen Vorzeichen, so ist A indefinit. Zum Rechnen mit kleineren konkreten Matrizen kann Satz 4 etwas mühsam sein, da wir zu seiner Anwendung ja erst einmal die Eigenwerte von A ausrechnen müssen. Manchmal praktischer ist das folgende Kriterium zu dessen Anwendung man nur einige Determinanten ausrechnen muss: 0-7

Mathematik für Ingenieure II, SS 009 Dienstag 3.6 Satz 6.5 (Determinantenkriterium für positive Definitheit) Sei A = (a ij ) i,j n eine symmetrische n n Matrix. Dann ist A genau dann positiv definit, wenn gelten. a > 0, a a a a > 0, a a a 3 a a a 3 a 3 a 3 a 33 a a n > 0,... und..... > 0 a n a nn Beispielsweise haben wir damit für symmetrische Matrizen ( ) a b positiv definit a > 0 und ad b > 0. b d Rechnen wir einige Beispiele:. Sei. Sei A = ( 3 Dann ist a = > 0 aber det A = < 0, d.h. A ist nicht positiv definit. A := Diesmal haben wir a = > 0, 5 > 0, aber ). 5 3. 5 3 d.h. auch diese Matrix ist nicht positiv definit. 3. Schließlich sei A = Diesmal haben wir a = > 0, 5 = > 0 und d.h. die Matrix A ist positiv definit. 5 3 =. 5 3 0 0 0 0 4 = 0 0 0 0 = 4, = > 0, Für Rechnungen per Hand ist das Determinantenkriterium Satz 5 oft angenehmer. Bei numerischen Rechnungen am Computer ist dagegen meistens die Methode über Eigenwerte aus Satz 4 vorzuziehen, da es gute Algorithmen zur Berechnung von Eigenwerten gibt während die Berechnung von Determinanten in Bezug auf die Rundungsfehler der Fließkommaarithmetik oft problematisch ist. 0-8