6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f, und v heißt Eigenvektor (EV) von f. Spricht man von Eigenwerten bzw. Eigenvektoren einer Matrix A K n n, so meint man die Eigenwerte/Eigenvektoren der durch A induzierten Abbildung f A (v) = Av. Zu einem gegebenen Eigenwert λ heißt U = {v V f(v) = λv} Eigenraum zum Eigenwert λ, und man schreibt U = Eig(f, λ) bzw. U = Eig(A, λ). Beispiel 6.2. Satz 6.3. Der Eigenraum Eig(f, λ) einer linearen Abbildung f : V V zu einem Eigenwert λ K ist ein Untervektorraum von V. 47
Satz 6.4. (i) Eine Zahl λ ist Eigenwert einer Matrix A, genau dann, wenn det(a λ E n ) = 0. (ii) Der Ausdruck det(a λe n ) ist ein Polynom in λ und heißt charakteristisches Polynom von A und wird mit χ A (λ) = det(a λe n ) bezeichnet. (iii) Es gilt χ A (λ) = ( λ) n +Spur(A)( λ) n 1 + +det(a). Hier bei ist die Spur einer Matrix Spur(A) = n i=1 a ii die Summe ihrer Diagonalelemente. Beispiel 6.5. Definition 6.6. In der Zerlegung χ A (λ) = r k=1 (λ λ k) m k des charakteristischen Polynoms in Linearfaktoren (in C, alternativ in lineare und quadratische Faktoren in R) sind λ k die Eigenwerte von A, und m k ist die algebraische Vielfachheit des Eigenwerts λ k. Satz 6.7. Es sei A K n n eine Matrix mit dem Eigenwert λ. (i) Der Eigenraum Eig(A, λ) ist die Lösungsmenge des linearen Gleichungssystems (A λe n )x = 0. Das heißt, der Eigenraum ist der Kern der Abbildung f A λen. (ii) Die Dimension des Eigenraums Eig(A, λ) ist q = Dim(Eig(A, λ) = n Rang(A λe n ). Die Zahl q heißt geometrische Vielfachheit des Eigenwerts λ. 48
6.2 Basiswechsel und Diagonalisierbarkeit Beispiel 6.8. Satz 6.9. (i) Die geometrische Vielfachheit eines Eigenwert ist immer kleiner gleich seiner algebraischen Vielfachheit. (ii) Sind λ 1,..., λ r verschiedene Eigenwerte einer Matrix A und v 1,..., v r zugehörige Eigenvektoren, so ist die Menge {v 1,..., v r } linear unabhängig. Beispiel 6.10. 6.2 Basiswechsel und Diagonalisierbarkeit Definition 6.11. Zwei Matrizen A, B K n n Matrix T existiert, so dass heißen ähnlich, wenn einer reguläre AT = T B, bzw. A = T BT 1, bzw. B = T 1 AT. Satz 6.12. Zueinander ähnliche Matrizen haben das gleiche charakteristische Polynom, und damit die gleichen Eigenwerte. Satz 6.13. Ist A die Darstellungsmatrix einer linearen Abbildung f : K n K n in der kanonischen Basis E n = (e 1, e 2,..., e n ), so ist die Matrix B 1 AB die Darstellungsmatrix von f in der Basis B = (b 1, b 2,..., b n ). Mit der Schreibweise B = (b 1, b 2,..., b n ) ist einerseits die geordnete Basis mit den Vektoren b 1,..., b n, und andererseits die Matrix mit den Spalten b 1,..., b n gemeint. 49
Beispiel 6.14. Definition 6.15. Eine Matrix A K n n heißt diagonalisierbar, wenn es eine Matrix B K n n gibt, so dass B 1 AB eine Diagonalmatrix ist, d.h., wenn diese Matrix nur auf der Diagonalen Einträge ungleich Null hat (a ij = 0 für i j). Satz 6.16. (i) Eine Matrix A ist diagonalisierbar, genau dann, wenn eine Basis des K n aus Eigenvektoren von A existiert. Die Matrix B ist dann die Matrix, die entsteht, wenn man als Spalten die Basisvektoren nimmt (vgl. Satz 6.13). (ii) Es existiert eine Basis aus Eigenvektoren von A, wenn die geometrische Vielfachheit jedes Eigenwerts gleich seiner algebraischen Vielfachheit ist. Beispiel 6.17. Definition 6.18. Eine Matrix A C n n heißt hermitesch, wenn Ā = A (d.h. a ij = ā ji für i j) ist. Eine Matrix A R n n heißt symmetrisch, wenn A = A ist (d.h. reelle hermitesche Matrizen sind symmetrisch). Satz 6.19. (i) Hermitesche Matrizen besitzen nur reelle Eigenwerte. (ii) Aus a) folgt, dass das charakteristische Polynom einer reellen symmetrischen Matrix in Linearfaktoren zerlegt werden kann. (iii) Sind λ, µ zwei verschiedene Eigenwerte einer symmetrischen Matrix, so sind die zugehörigen Eigenvektoren zueinander senkrecht. 50
6.3 Definitheit von Matrizen Satz 6.20. Ist A R n n symmetrisch, so existiert eine Orthonormalbasis B, so dass die Darstellungsmatrix BAB 1 der Abbildung f A bezüglich der Basis B eine Diagonalmatrix ist. Ist B eine Orthonormalbasis, so ist B 1 = B. Beispiel 6.21. Bemerkung 6.22 (Vgl. Aufgaben V 9.3, S 9.6a)). Es sei A K n n eine Matrix, D = diag(d 1, d 2,..., d n ) K n n sei eine Diagonalmatrix, und B K n n sei invertierbar, so dass A = BDB 1 gilt. Für natürliche Zahlen k N ist die k-te Potenz einer Matrix definiert als A k = k i=1 A = A A A, und A0 = E n. Damit kann man Matrizen in Polynome und in Potenzreihen einsetzen. Insbesondere ist exp(a) = 1 k=0 k! Ak. (i) Für jedes k N gilt: A k = BD k B 1. (ii) Für jedes k N gilt: D k = diag(d k 1, d k 2,..., d k n). (iii) Es ist exp(a) = B diag(e d 1, e d 2,..., e dn ) B 1. 6.3 Definitheit von Matrizen Definition 6.23. Eine Matrix A K n n heißt positiv semidefinit, wenn für alle Vektoren x K n gilt x Ax 0, positiv definit, wenn für alle Vektoren x K n, x 0 gilt x Ax > 0, negativ semidefinit, wenn für alle Vektoren x K n gilt x Ax 0 (d.h. wenn A positiv semidefinit ist), negativ definit, wenn für alle Vektoren x K n, x 0 gilt x Ax > 0 (d.h. wenn A positiv definit ist). Die obigen Definitionen können jeweils auf eine Teilmenge des K n eingeschränkt werden: Eine Matrix A heißt z.b. positiv definit über einer Menge M R n, wenn die obige Bedingung für alle x M gilt. 51
Beispiel 6.24. Satz 6.25. Eine reelle symmetrische Matrix ist positiv definit, genau dann, wenn alle ihre Eigenwerte positiv sind, und positiv semidefinit, wenn alle Eigenwerte größer gleich Null sind. Beispiel 6.26. Satz 6.27. Eine reelle symmetrische Matrix A R n n ist positiv definit, wenn alle Hauptabschnittsdeterminenten a 11... a 1k D k = det.. > 0 a k1... a kk positiv sind (für alle k {1, 2,..., n}). Beispiel 6.28. 52