46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46.1 Motivation Symmetrische Matrizen (a ij = a ji für alle i, j) kommen in der Praxis besonders häufig vor. Gibt es für sie spezielle Aussagen über Eigenwerte und Eigenvektoren? Wir hatten den Zusammenhang zwischen Diagonalisierbarkeit und linear unabhängigen Eigenvektoren kennengelernt. Spielt hier die Symmetrie von Matrizen eine besondere Rolle? 46. Satz: Eigenwerte und Eigenvektoren symmetrischer Matrizen Für eine symmetrische Matrix A IR n n gilt: a) A hat nur reelle Eigenwerte. b) Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal. Beweis: zu (a): Wir erinnern daran, dass für eine komplexe Zahl z = x + iy ihr Produkt mit der konjugiert komplexen Zahl z = x iy reell ist: z z = z = x + y IR. Die komplexe Konjugation von Vektoren und Matrizen wird komponentenweise definiert. Dann ist λ v T v = (λv) T v = (Av) T v = v T Ā T v = v T Av (da A reell und symmetrisch) = v T (λv) = λ v T v. Da v T v reell und ungleich 0 ist, folgt λ = λ, also λ IR. 145
zu (b): Es seien v 1, v Eigenvektoren von A zu verschiedenen Eigenwerten λ 1, λ. Dann gilt und damit λ 1 v T 1 v = (Av 1 ) T v = v T 1 A T v = v T 1 (Av ) (A symmetrisch) = λ v T 1 v Folglich sind v 1 und v orthogonal. 0 = (λ 1 λ ) v1 T v }{{}. 0 46.3 Beispiel ( ) 4 1 Wir betrachten die symmetrische Matrix A =. Wegen 1 11 0 = det(a λi) = 4 λ 1 1 11 λ = λ 15λ 100 besitzt A die beiden reellen Eigenwerte λ 1 = 0 und λ = 5. Eigenvektor zu λ 1 = 0: ( ) ( ) 16 1 x1 = 0 1 9 hat die Lösungen x 1 = 3s, x = 4s, s IR. ( ) 3 Also ist v 1 = ein Eigenvektor zu λ 1. 4 Eigenvektor zu λ = 5: x x ( ) ( ) 9 1 x1 = 0 1 16 hat die Lösungen x 1 = 4s, x = 3s, s IR. ( ) 4 Also ist v = ein Eigenvektor zu λ. 3 Wegen v 1 v = 3 4 4 3 sind die Eigenvektoren orthogonal. 146
Bemerkung: Es gilt auch: Ist λ ein Eigenwert der Vielfachheit k, so hat λ auch einen k-dimensionalen Eigenraum. Diese Eigenschaft und die Eigenschaften aus Satz 46. stellen insgesamt sicher, dass IR n eine Basis aus Eigenvektoren von A besitzt. Es handelt sich sogar um eine Orthogonalbasis. Da sich aus einer Orthogonalbasis eine Orthonormalbasis herstellen lässt, ist eine symmetrische Matrix nicht nur stets diagonalisierbar, sondern die Diagonalisierung ist sogar stets durch eine orthogonale Matrix möglich. 46.4 Satz: Hauptachsentransformation, Spektraldarstellung Es sei A IR n n symmetrisch. Dann ist A = QΛQ T eine Diagonalisierung von A, wobei λ 1 0... 0 Λ = diag(λ 1,..., λ n ) = 0 λ..... 0 0... 0 λ n die Diagonalmatrix aus den (reellen) Eigenwerten von A ist und Q eine orthogonale Matrix ist, deren Spaltenvektoren orthonormale Eigenvektoren von A sind. Beweis: Da A symmetrisch ist, gibt es eine Basis von IR n aus orthonormalen Eigenvektoren von A. Nach Satz 45.1 kann daraus eine Diagonalisierung von A konstruiert werden: D = P 1 AP, wobei die invertierbare Matrix P aus den Eigenvektoren von A gebildet wird und D die Diagonalmatrix der zugehörigen Eigenwerte ist, also D = Λ. Wegen der Orthonormalität der Eigenvektoren ist P = Q dann eine orthogonale Matrix, und es folgt A = QΛQ 1, also wegen Q 1 = Q T die behauptete Darstellung. 147
Bemerkungen: 1. Die Diagonalisierung durch eine orthogonale Matrix bedeutet, die durch die Matrix A beschriebene Abbildung von Vektoren in einem neuen Koordinatensystem zu beschreiben (orthogonale Matrix Wechsel des Orthonormalsystems!). Au = QΛQ 1 u u Q 1 u ΛQ 1 u QΛQ 1 u Vektor in Standardbasis Vektor in neuer Basis aus orthonormalen Eigenvektoren von A Abbildung darauf angewendet, Vektor noch immer in Eigenvektorbasis ausgedrückt Rücktransformiert in Standardbasis Die Basisvektoren der neuen Basis sind die orthonormalen Eigenvektoren von A. In dieser neuen Basis ist die Gestalt der Abbildung besonders einfach, da sie hier durch die Diagonalmatrix Λ gegeben ist. Deswegen nennt man die Basisvektorrichtungen auch Hauptachsenrichtungen von A. Geometrisch bedeutet dies, dass unabhängig voneinander in jeder Hauptachsenrichtung eine Streckung mit dem jeweiligen Eigenwert als Streckungsfaktor erfolgt (einschließlich Richtungsumkehr für negative Eigenwerte).. A lässt sich auch schreiben als A = λ 1 v 1 v T 1 +... + λ nv n v T n. In dieser Darstellung erkennt man sofort, dass λ k die Eigenwerte und v k die zugehörigen Eigenvektoren sind, denn Av k = n i=1 λ i v i v T i v k }{{} =0 für i k = λ k v k. 148
46.5 Beispiel ( ) 4 1 Wir wollen A = diagonalisieren. Wir benutzen die Eigenwerte und 1 11 ( ) 3/5 Eigenvektoren aus Beispiel 46.3, normieren letztere aber zu w 1 =, w = 4/5 ( ) 4/5. 3/5 Damit finden wir die orthogonale Matrix Q = ( 3/5 ) 4/5 4/5 3/5 und berechnen ( ) ( ) ( ) 3 4 4 1 3 4 wie zu erwarten war. Q T AQ = 1 5 4 3 1 11 4 3 = 1 ( ) ( ) 60 80 3 4 = 1 5 0 15 4 3 5 ( ) 0 0 = 0 5 = diag(λ 1, λ ), ( 500 0 ) 0 15 149
Anwendung auf einen Vektor u: Au e v 1 p 1 ue 1 0p 1 p v 5p u u e 1, e v 1, v p 1, p 0p 1, 5p Au gegebener Vektor Standardbasisvektoren e 1 = (1, 0) T, e = (0, 1) T orthonormale Basisvektoren von A Projektionen von u auf Hauptachsenrichtungen (entsprechen Darstellung von u bezüglich der Basis {v 1, v }) Ergebnis der Anwendung der Diagonalmatrix resultierender Vektor 46.6 Anwendung von Funktionen auf symmetrische Matrizen Satz 45.15 über die Eigenwerte von Potenzen einer Matrix motiviert die folgenden Überlegungen: 150
Ist p(x) = a m x m +... + a 1 x + a 0 ein Polynom m-ten Grades, so kann man dieses direkt auf n n-matrizen anwenden: p(a) = a m A m +... + a 1 A + a 0 I. Aus Satz 45.15 folgt, dass alle A k, k = 0,..., m, dieselben Eigenvektoren wie A besitzen und die zugehörigen Eigenwerte die entsprechenden Potenzen der Eigenwerte von A sind. Ist damit λ ein Eigenwert zum Eigenvektor v von A, so gilt auch p(a)v = p(λ)v. Ist dabei A eine symmetrische Matrix, so kann sie dargestellt werden als entsprechend gilt auch A = λ 1 v 1 v T 1 +... + λ nv n v T n ; p(a) = p(λ 1 )v 1 v T 1 +... + p(λ n)v n v T n. Über Potenzreihen (vgl. MfI 1) überträgt sich dieses Vorgehen auf beliebige analytische Funktionen f : IR IR (also solche, die durch Potenzreihen darstellbar sind). Man hat dann allgemein für eine solche Funktion f. f(a) = f(λ 1 )v 1 v T 1 +... + f(λ n )v n v T n Sofern die Funktion auch für komplexe Argumente definiert ist, kann eine entsprechende Verallgemeinerung sogar für nichtsymmetrische diagonalisierbare Matrizen angegeben werden (wird hier nicht weiter behandelt). Beispiel: Für A = ( ) 0 a = 1 a 0 ( 1 1 1 1 ) ( a ) ( 0 1 ) 1 0 a 1 1 haben wir exp(a) = 1 ( 1 1 1 1 ) ( e a 0 0 e a ) ( ) ( 1 1 e a +e a = 1 1 e a +e a e a +e a e a +e a ). 151