8 Eigenwerte und Eigenvektoren

Ähnliche Dokumente
29.2 Lineare Differentialgleichungssysteme mit konstanten Koeffizienten Wir betrachten das homogene System. y = A y, t R, (1)

5 Vektorräume. (V1) für alle x, y V : x + y = y + x; (V2) für alle x, y, z V : (x + y) + z = x + (y + z);

5 Diagonalisierbarkeit

8 Eigenwerttheorie I 8. EIGENWERTTHEORIE I 139. Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet:

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren

Eigenwerte und Diagonalisierung

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

5.2 Diagonalisierbarkeit und Trigonalisierung

Heinrich Heine-Universität Düsseldorf Sommersemester Lineare Algebra 1. Vierzehnte & Fünfzehnte Woche,

7.3 Unitäre Operatoren

6.3 Eigenwerte. γ ist Eigenwert von T [T] B B γi ist nicht invertierbar.

Lineare Algebra II 6. Übungsblatt

Lineare Algebra: Determinanten und Eigenwerte

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG

Lineare Algebra und analytische Geometrie I

Lineare Differentialgleichungen

Berechnung der Determinante

Kapitel 11 Eigenwerte und Eigenvektoren

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit.

Ausgewählte Lösungen zu den Übungsblättern 9-10

Lineare Algebra I für Mathematiker Lösungen

29 Lineare Algebra 2 (SS 2009) 4.9. Das charakteristische Polynom sei Produkt von linearen Polynomen.

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

6 Eigenwerte und Eigenvektoren

Lineare Algebra und analytische Geometrie I

Mathematik I. Vorlesung 16. Eigentheorie

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

6 Eigenwerte und Eigenvektoren

Übungen zum Ferienkurs Ferienkurs Lineare Algebra für Physiker WiSe 2017/18 Blatt 3 - Lösung

Lineare Algebra und Numerische Mathematik für D-BAUG

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lineare Algebra I. Prof. Dr. Daniel Roggenkamp Vorlesung -

7.2 Die adjungierte Abbildung

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen

Serie a) Welche der folgenden Vektoren sind Eigenvektoren der Matrix 1 0 1? 0 1 1

Anleitung zu Blatt 4 Differentialgleichungen I für Studierende der Ingenieurwissenschaften

Rückblick auf die letzte Vorlesung

2.11 Eigenwerte und Diagonalisierbarkeit

Übungen zur Vorlesung Lineare Algebra II, SoSe 2016, Blatt 1

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Satz. Wie wirkt sich ein Basiswechsel auf die Darstellungsmatrix einer linearen Abbildung F : V n V n aus?

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Diagonalisierbarkeit symmetrischer Matrizen

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

9 Lineare Algebra 2 (SS 2009)

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF

Lineare Algebra und Numerische Mathematik für D-BAUG. Serie 13

1 Darstellungsmatrizen

Eigenwerte (Teschl/Teschl 14.2)

Musterlösungen zur Linearen Algebra II Übungsklausur

3.7 Eigenwerte und Eigenvektoren

Aufgaben zu Kapitel 18

Lineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1.

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2

3.3 Das charakteristische Polynom

6 Lineare Abbildungen

Klausur zur Vorlesung Lineare Algebra und Geometrie I

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert

und Unterdeterminante

und Unterdeterminante

Tutorium Mathematik II M WM

Mathematik für Physiker, Informatiker und Ingenieure

Eigenwerte und Eigenvektoren

Unter einem reellen inneren Produktraum verstehen wir einen Vektorraum V über

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5

Höhere Mathematik II für die Fachrichtung Physik

1. Übungsblatt: Lineare Algebra II Abgabe: 24./ in den Übungsgruppen

Wiederholungsserie II

23. Die Jordan sche Normalform

Eigenwerttheorie. Martin Gubisch Lineare Algebra I WS 2007/2008

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

4 Funktionenfolgen und normierte Räume

6. Lineare DGL-Systeme erster Ordnung

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y.

Trigonalisierung. Definition. 1) Sei F : V V linear, dim V = n. Dann heißt F trigonalisierbar, wenn es eine Basis B von V gibt sodass a 11 a 12..

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Lineare Algebra II Lösungen der Klausur

Technische Universität Berlin Fakultät II Institut für Mathematik WS 03/04 Eppler, Richter, Scherfner, Seiler, Zorn 25.

y hom (x) = C e p(x) dx

1. Hausübung ( )

3 Systeme linearer Gleichungen

45 Eigenwerte und Eigenvektoren

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

4 Funktionenfolgen und normierte Räume

Lineare Algebra II, Lösungshinweise Blatt 9

Transkript:

8 Eigenwerte und Eigenvektoren In Kapitel 6 haben wir gesehen, dass für die Darstellungsmatrizen einer linearen Abbildung h bzgl der Basen B, B folgende Beziehung gilt: A(h, B, B = A B B A(h, B, B (AB B In Def 642 haben wir zwei n n Matrizen A, A ähnlich, wenn es eine reguläre Matrix P gibt, mit A = P AP In diesem Kapitel wollen wir untersuchen, unter welchen Bedingungen eine Matrix zu einer Diagonalmatrix ähnlich ist; also unter welchen Bedingungen es eine Basis B gibt, bezüglich derer eine lineare Abbildung h eine Diagonaldarstellung besitzt Wir werden in diesem Kapitel immer quadratische n n Matrizen über einem Körper K betrachten, wenn nichts anderes explizit vereinbart wird Definition 8: Sei A eine n n Matrix und sei λ ein Skalar ( K Wenn es einen vom Nullvektor verschiedenen Spaltenvektor x gibt, sodass Ax = λx, dann ist λ ein Eigenwert der Matrix A und x ein zum Eigenwert λ gehöriger Eigenvektor Das Spektrum von A, geschrieben σ(a, ist die Menge der Eigenwerte von A Satz 82: Ein Skalar λ ist ein Eigenwert der Matrix A genau dann, wenn A λi n = 0 Korollar: Ähnliche Matrizen haben dieselben Eigenwerte Schreiben wir A = (a ij, so sehen wir, dass offensichtlich a λ a 2 a n a 2 a 22 λ a 2n A λi n = a n a n2 a nn λ ein Polynom vom Grad n in λ ist Definition 83: Das Polynom A λi n vom Grad n in der Variablen λ heisst das charakteristische Polynom der Matrix A, geschrieben als c A (λ Unter der charakteristischen Gleichung von A verstehen wir die Gleichung c A (λ = A λi n = 0 Somit könnten wir Satz 82 auch folgendermassen ausdrücken: Die Eigenwerte von A sind die Nullstellen des charakteristischen Polynoms von A Ist der Grundkörper etwa 0

K = C (oder ein anderer algebraisch abgeschlossener Körper, so hat jedes univariate Polynom mit Koeffizienten in K auch (mindestens eine Lösung in K Insbesondere sieht man daraus, dass jede Matrix einen Eigenwert hat Weiters lässt sich das charakteristische Polynom über einem algebraisch abgeschlossenen Körper in n Linearfaktoren zerlegen, also c A (λ = ( n (λ λ r (λ λ 2 r2 (λ λ k r k, ( wobei λ,,λ k die Eigenwerte von A sind und r + r k = n Definition 84: Die Exponenten r,,r k in der Gleichung ( heissen die zu den Eigenwerten λ,,λ k von A gehörigen algebraischen Vielfachheiten Beispiel 85: (a Wir betrachten die Matrix ( 0 A = 0 in Mat 2 2 (R Das charakteristische Polynom von A ist c A (λ = A λi 2 = λ λ = λ2 + = (λ + i(λ i Über dem Körper R hat also A keinen Eigenwert Aber natürlich können wir die Matrix A auch über dem Grundkörper C betrachten, und dann hat A die Eigenwerte ±i, jeden mit algebraischer Vielfachheit (b Wir betrachten die Matrix 3 B = 7 5 6 6 2 in Mat 3 3 (R Das charakteristische Polynom von B ist 3 λ c B (λ = B λi 3 = 7 5 λ 6 6 2 λ = (λ + 22 (λ 4 B hat also die reellen Eigenwerte 2 und 4, und zwar mit den algebraischen Vielfachheiten 2 bzw Lemma 86: Sei A Mat n n (K und sei λ ein Eigenwert von A Dann ist die Menge (von Spaltenvektoren E A,λ = {x Mat n (K Ax = λx} (also die Menge der zu A und λ gehörigen Eigenvektoren zusammen mit dem Nullvektor ein linearer Unterraum von Mat n (K Definition 87: Seien A und λ wie in Lemma 86 Der lineare Raum E A,λ heisst der zu A und λ gehörige Eigenraum dim(e A,λ heisst die geometrische Vielfachheit des Eigenwertes λ Ist A aus dem Kontext klar, so schreiben wir statt E A,λ auch einfach E λ 02

Beispiel 88: Sei B die 3 3 Matrix aus Beispiel 85(b Der Eigenraum zum Eigenvektor -2, also E B, 2 = E 2 besteht aus den Lösungen des SLG x 0 7 7 x 2 = 0 6 6 0 x 3 0 Man prüft leicht nach, dass E 2 = span((,, 0 T Die geometrische Vielfachheit des Eigenwertes 2 ist also und somit kleiner als die algebraische Vielfachheit Der Eigenraum zum Eigenwert 4, also E 4, besteht aus den Lösungen des SLG Man prüft leicht nach, dass 7 7 6 6 6 x x 2 x 3 0 = 0 0 E 4 = span((0,, T Die geometrische Vielfachheit des Eigenwertes 4 ist also und somit gleich wie die algebraische Vielfachheit Wir führen einige dieser Berechnungen in Maple 95 aus: > with(linear Algebra: > A := Matrix([[-3,,-],[-7,5,-],[-6,6,-2]]; 3 A := 7 5 6 6 2 > Eigenvalues(A; 4 2 2 > CharacteristicPolynomial(A,x; x 3 2x 6 > factor(%; (x 4(x + 2 2 > Eigenvectors(A; 4 2, 2 0 0 0 0 0 Dabei ist die i-te Spalte des zweiten Teils des Ergebnisses ein Element des Eigenraums des i-ten Eigenwertes im ersten Teil des Ergebnisses, und diese Vektoren zusammen spannen den jeweiligen Eigenraum auf 03

Satz 89: Sind λ, λ 2 zwei verschiedene Eigenwerte von A, dann gilt E λ E λ2 = {0} Wir wissen aus Kapitel 6, dass sich jede lineare Abbildung zwischen endlichdimensionalen Vektorräumen darstellen lässt als Multiplikation mit einer Matrix (Darstellungsmatrix Andererseits ist natürlich jede Abbildung der Form x Ax linear Dieser Zusammenhang führt auf natürliche Weise zum Begriff des Eigenwertes einer linearen Abbildung Definition 80: Sei V ein linearer Teilraum von W Sei f : V W eine lineare Abbildung und sei λ ein Skalar im Grundkörper K Wenn es einen Vektor x V \ {0} gibt mit f(x = λx, dann ist λ ein Eigenwert von f und x ein zum Eigenwert λ gehöriger Eigenvektor Das Spektrum von f, geschrieben σ(f, ist die Menge der Eigenwerte von f Beispiel 8: (a Sei f die lineare Abbildung f : R 3 R 3 (x, y, z (y + z, x + z, x + y Bezüglich der natürlichen geordneten Basis von R 3 hat f die Darstellungsmatrix 0 A = 0 0 Die Matrix A hat das charakteristische Polynom c A (λ = (λ + 2 (λ 2 Somit hat A und daher auch f die Eigenwerte - und 2, und zwar mit algebraischer Vielfachheit 2 bzw Bezüglich der geordneten Basis B = ( (,,, (,, 0, (, 0, 0 hat f die Darstellungsmatrix 2 2 A = 0 0 0 0 Die Matrix A hat das charakteristische Polynom c A (λ = (λ + 2 (λ 2 Die Eigenwerte von A und A stimmen also überein (b Sei Diff(R, R der Vektorraum aller differentierbaren reellen Funktionen (über R Die Differentiationsabbildung D : Diff(R, R Fun(R, R 04

ist linear Ein Eigenvektor von D ist eine von der Nullfunktion verschiedene differentierbare Funktion f(x, sodass für ein λ R gilt: D(f = λf Aus der Analysis und der Theorie der Differentialgleichung ergibt sich, dass die Eigenvektoren von D die Funktionen der Form f(x = ke λx sind Die lineare Abbildung Diff hat also unendlich viele Eigenwerte λ R \ {0} Satz 82: Sei f : V V eine lineare Abbildung, seien λ,,λ k verschiedene Eigenwerte von f und sei für jedes i {,, k} der Vektor x i ein Eigenvektor zum Eigenwert λ i Dann sind die Vektoren x,,x k linear unabhängig Definition 83: Die lineare Abbildung f : V V auf einem endlichdimensionalen Vektorraum V heisst diagonalisierbar, wenn es eine geordnete Basis (v,,v n von V gibt, bezüglich derer die Darstellungsmatrix von f eine Diagonalmatrix ist Ebenso nennen wir eine quadratische Matrix A diagonalisierbar, wenn sie ähnlich ist zu einer Diagonalmatrix Satz 84: (a Eine lineare Abbildung f : V V auf einem endlichdimensionalen Vektorraum V ist diagonalisierbar gdw V eine Basis besitzt, welche aus Eigenvektoren von f besteht (b Eine quadratische n n Matrix A ist diagonalisierbar gdw sie n linear unabhängige Eigenvektoren besitzt Beweis: (a Laut Definition ist f diagonalisierbar gdw (v,,v n gibt, sodass f(v = λ v f(v 2 = λ 2 v 2 f(v n = λ n v n es eine geordnete Basis Das ist offensichtlich genau dann der Fall, wenn die λ i Eigenwerte mit zugehörigen Eigenvektoren v i sind (b Wir interpretieren die Matrix A als Darstellungsmatrix der linearen Abbildung f A : K n K n x Ax Die Matrix A ist diagonalisierbar gdw es eine reguläre Matrix P und eine Diagonalmatrix D gibt, sodass A = P DP Diese Matrix P ist natürlich eine Basistransformationsmatrix Das ist also der Fall gdw die lineare Abbildung f A diagonalisierbar ist, also (wegen (a gdw es eine geordnete Basis (v,,v n von K n und λ,,λ n gibt, sodass Av i = f A (v i = λ i v i für alle i Das aber heisst nichts anderes als dass A n linear unabhängige Eigenvektoren besitzt Bemerkung: Laut Definition ist A diagonalisierbar gdw es eine invertierbare Matrix P und eine Diagonalmatrix D gibt, sodass A = P DP A und D haben dieselben Eigenwerte Sei D = λ 0 0 λ n 05

Die kanonische Basis von K n ist eine Basis aus Eigenvektoren von D: De i = λ i e i Die Vektoren P e,,p e n sind Eigenvektoren von A, denn A(P e i = P DP(P e i = P De i = P λ i e i = λ i (P e i Ausserdem sind die Vektoren P e,,p e n linear unabhängig, denn 0 = µ i (P e i = P ( µ i e i µ i e i = 0 m i = 0 i Somit gibt es n linear unabhängige Eigenvektoren von A Umgekehrt seien x,,x n linear unabhängig und λ,,λ n so, dass Ax i = λ i x i für alle i gilt Sei P die (Basistransformations- Matrix, für welche gilt Dann gilt für D := PAP : e i = Px i i De i = PAP e i = λ i e i i Also ist A ähnlich zur Diagonalmatrix λ 0 D =, 0 λ n und somit diagonalisierbar Beispiel: Sei A = ( 2 0 die Darstellungsmatrix einer linearen Abbildung von R 2 nach R 2 A ist diagonalisierbar, denn für ( ( ( 0 0 P =, P =, D = 0 0 2 gilt A = P DP Die Diagonalmatrix D hat offensichtlich die Eigenwerte und 2, und das sind wegen der Ähnlichkeit auch die Eigenwerte von A (, 0 T ist ein Eigenvektor von D zum Eigenwert, und P (, 0 T = (0, T ist ein Eigenvektor von A zum Eigenwert (0, T ist ein Eigenvektor von D zum Eigenwert 2, und ist ein Eigenvektor von A zum Eigenwert 2 P (0, T = (, T Nun wollen wir zeigen, dass eine lineare Abbildung f : V V bzw die zugehörige Matrix diagonalisierbar ist genau dann, wenn für jeden Eigenwert die algebraische und 06

die geometrische Vielfachheit übereinstimmen Dazu brauchen wir zunächst einige Vorbereitung Satz 85: Sei f : V V eine lineare Abbildung auf dem n-dimensionalen Vektorraum V Seien λ,,λ k die verschiedenen Eigenwerte von f, und d,,d k die zugehörigen geometrischen Vielfachheiten Dann gilt d + + d k n ( In ( gilt die Gleichheit gdw f diagonalisierbar ist Satz 86: Für jeden Eigenwert λ einer linearen Abbildung f : V V auf einem endlichdimensionalen Vektorraum V ist die algebraische Vielfachheit mindestens so gross wie die geometrische Viellfachheit Satz 87: Sei f : V V eine lineare Abbildung auf dem endlichdimensionalen Vektorraum V Die folgenden Aussagen sind äquivalent: (i f ist diagonalisierbar; (ii für jeden Eigenwert λ von f ist die geometrische Vielfachheit gleich der algebraischen Vielfachheit Wir haben also nun ein Kriterium für die Diagonalisierbarkeit einer linearen Abbildung bzw einer Matrix A (welche ja einer linearen Abbildung entspricht Wie aber bestimmt man eine invertierbare Matrix P, sodass P AP eine Diagonalmatrix ist? Satz 88: Sei A eine diagonalisierbare n n Matrix Seien λ,,λ n die Eigenwerte von A (dabei komme in dieser Liste jeder Eigenwert so oft vor, wie seine algebraische Vielfachheit beträgt, und seien p,,p n K n so, dass für jeden Index i der Vektor p i ein Eigenvektor zum Eigenwert λ i ist, und dass die Vektoren p,, p n überdies eine Basis von K n bilden Sei P diejenige n n Matrix, deren i-te Spalte p i ist Dann gilt λ 0 P λ 2 AP = 0 λ n Beispiel 89: Wir betrachten die Matrix 3 3 A = 3 5 3 6 6 4 Das charakteristische Polynom von A ist c A (λ = (λ 4(λ + 2 2 Die Matrix A hat also den Eigenwert 4 mit algebraischer Vielfachheit und den Eigenwert -2 mit algebraischer Vielfachheit 2 So wie im Satz 88 seien also λ = 4, λ 2 = 2, λ 3 = 2 07

Als Eigenvektoren wählen wir (so wie im Satz 88 angegeben p =, p 2 =, p 3 = 0 2 0 Dann gilt für die Matrix P = (p, p 2, p 3 P AP = 4 0 0 0 2 0 0 0 2 Wir erreichen also die Diagonalisierung mittels einer Matrix, deren Spalten eine Basis von C 3 sind bestehend aus Eigenvektoren von A Einige Anwendungsbeispiele: Beispiel 820 (Äquilibrium in einem System: Wir betrachten die Entwicklung der Arbeitslosigkeit in einer Volkswirtschaft Dazu nehmen wir an, dass 75% der Personen, welche am Beginn eines Jahres arbeitslos sind, im Laufe dieses Jahres Arbeit finden, und dass 5% der Personen, welche am Beginn eines Jahres Arbeit haben, im Laufe dieses Jahres arbeitslos werden Wir betrachten die Entwicklung der Arbeitslosenrate über die Jahre hinweg Am Beginn der Studie, also am Ende des 0-ten Jahres, sei L 0 der Anteil der Bevölkerung, welche keine Arbeit hat, und M 0 = L 0 der Anteil der Bevölkerung mit Arbeit In analoger Weise für die Folgejahre Also L i Anteil der Arbeitslosen am Ende des i-ten Jahres M i Anteil der Arbeitenden am Ende des i-ten Jahres Der Übergang von einem Jahr zum nächsten drückt sich also aus als ( ( ( Li+ Li = 4 20 3 9 M i+ M 4 20 i }{{} Ausgehend von den Startwerten gilt dann für ein Jahr k: Wegen ( lim 4 3 k 4 20 9 20 ( Lk M k k = lim k ( = 4 3 4 U 20 9 20 ( + 5 6 k ( L0 M 0 5 k 5 k 5 5 5 k 5 + 5 k = 6 ( 5 5 gilt also ( ( ( ( Lk L0 M k = 6 5 k 6 5 5 M 0 6 Dieses System konvergiert also unabhängig von den Ausgangswerten L 0, M 0 zu einem Äquilibrium Wie aber sind haben wir oben die k-te Potenz der Übergangsmatrix berechnen können? Diese Überlegung wollen wir nun nachholen Hat man einmal die Vermutung für die 08

Formel von U k, so lässt sich die Korrektheit mittels Induktion leicht nachweisen Wie aber kommt man zu dieser Vermutung? Die Eigenwerte von U sind die Nullstellen des charakteristischen Polynoms c U (λ = ( 4 λ(9 20 λ 3 = (5λ (λ = 0 80 Die Eigenwerte sind also λ = und λ 5 2 = Zugehörige Eigenvektoren sind etwa v = (, T und v 2 = (, 5 T Wegen Satz 88 bewirkt also die Matrix P = (v, v 2 eine Ähnlichkeitstranformation in eine Diagonalmatrix, nämlich ( 5 ( ( 5 = 6 20 5 9 5 }{{}}{{}}{{} P U P ( 0 5 0 Somit können wir für beliebiges k N die k-te Potenz der Übergangsmatrix U einfach berechnen: ( k U k 0 = P 5 P 0 ( ( ( = 0 5 5 k 6 5 0 ( + = 5 6 5 k 5 k 5 5 5 k 5 + 5 k Beispiel 82 (Fibonacci-Zahlen: Leonardo von Pisa (75 250, besser bekannt als Fibonacci (Sohn des Bonaccio, filius Bonacii betrachtete die rekursive Folge a 0 = 0, a =, und a n+2 = a n+ + a n für n 0 Mittels der Hilfsfolge (b n n, definiert als b n := a n, können wir das Bildungsgesetz der Fibonacci-Folge auch schreiben als ein System von Differenzengleichungen der Form ( ( ( ( an+2 an+ + b = n+ an+ = b n+2 a n+ 0 b n+ }{{} A Wir bestimmen die Eigenwerte von A: c A (λ = λ 2 λ, also λ = 2 ( + 5, λ 2 = 2 ( 5 Zugehörige Eivenvektoren sind zu λ : ( λ 2, zu λ 2 : ( λ 09

Mittels der Matrix P bestehend aus diesen Eigenvektoren, also ( P =, P = λ 2 λ λ 2 λ ( λ λ 2, können wir also A diagonalisieren: ( P λ 0 AP = 0 λ 2 Die Potenzen A n der Matrix A sind also leicht berechenbar Wir benutzen dazu noch den Zusammenhang λ λ 2 = Für beliebiges n N gilt also: ( ( ( A n λ n = 0 λ λ 2 λ λ 2 λ 0 λ n 2 λ 2 ( λ n+ 2 λ n+ λ n 2 λn λ 2 λ λ n 2 λn λ2 n λ n = Aus den Anfangswerten b = a 0 = 0 und a = ergibt sich somit ( ( ( ( an+ = A n a = A n λ n+ 2 λ n+ = b n+ b 0 λ 2 λ λ n 2, λn und schliesslich a n = (λ n 2 λ n λ 2 λ = (( 2 n + 5 n ( 5 n 5 Somit haben wir eine explizite Formel für die Fibonacci-Folge ermittelt Beispiel 822 (Systeme gewöhnlicher Differentialgleichungen mit konstanten Koeffizienten: Seien y (t,,y n (t differenzierbare Funktionen von R nach R, bzw von C nach C Wir schreiben diese Funktionen als Vektor y (t y(t =, y n (t y(t ist also eine Funktion von R nach R n, bzw von C nach C n Die Ableitung y (t = dy (t von y nach t ist komponentenweise definiert als dt y y (t (t = y n (t Für eine gegebene Matrix A in Mat n n (R bzw in Mat n n (C ist y (t = Ay(t ( ein homogenes System linearer gewöhnlicher Differentialgleichungen (hslgdg mit konstanten Koeffizienten Eine Lösung dieses Systems ist 0

eine differenzierbare Funktion, welche ( erfüllt Die Menge aller Lösungen eines solchen hslgdg ist ein linearer Teilraum des Vektorraums aller differenzierbaren Funktionen von R nach R n, bzw von C nach C n Man kann zeigen, dass dieser Lösungsraum die Dimension n hat Eine Basis (ϕ (t,,ϕ n (t des Lösungsraumes nennt man auch ein Fundamentalsystem des hslgdg ( Es gilt die folgende Beziehung: n Lösungen (ϕ,,ϕ n von ( bilden ein Fundamentalsystem det(ϕ (t 0,,ϕ n (t 0 0 für ein t 0 Hat nun die Matrix A den Eigenwert λ mit zugehörigem Eigenvektor x, dann ist eine Lösung des hslgdg (, denn ϕ(t = xe λt ϕ (t = λxe λt = Axe λt = Aϕ(t Tatsächlich gilt folgender Zusammenhang (der typischerweise in Vorlesungen zu Differentialgleichungen bewiesen wird: Satz: Besitzt die Matrix A eine Basis von Eigenvektoren x,,x n zu den Eigenwerten λ,,λ n C, so bilden die Funktionen ϕ k (t = x k e λ kt für k n ein Fundamentalsystem des hslgdg ( Konkret betrachten wir das Differentialgleichungssystem y (t = y(t }{{} A Die Matrix A hat das charakteristische Polynom c A (λ = λ 2 (λ 3 Der Eigenwert λ = λ 2 = 0 hat also die algebraische Vielfachheit 2, der Eigenwert λ 3 = 3 hat die algebraische Vielfachheit Eigenvektoren x i zu den Eigenwerten λ i sind x = 0, x 2 =, x 3 = 0 Diese Eigenvektoren (x, x 2, x 3 bilden offensichtlich eine Basis von R 3 Wegen des obigen Satzen erhalten wir daraus das folgende Fundamentalsystem für den Lösungsraum: ϕ (t = 0 e 0t = 0, ϕ 2 (t = e 0t =, ϕ 3 (t = e 3t 0 0

Die allgemeine Lösung des Differentialgleichungssystems lautet also y (t a + b + ce 3t y(t = y 2 (t = a ϕ (t + b ϕ 2 (t + c ϕ 3 (t = b + ce 3t, y 3 (t a + ce 3t wobei a, b, c beliebige Konstante sind Solche homogenen Systeme linearer gewöhnlicher Differentialgleichungen mit konstanten Koeffizienten lassen sich also vollständig lösen mittels Methoden der linearen Algebra Wir betrachten noch ein zweites konkretes Differentialgleichungssystem, nämlich ( ( ( y (t 2 y (t y 2(t = y 2 (t Die Koeffizientenmatrix dieses Systems hat die Eigenwerte λ = i, λ 2 = i mit den zugehörigen Eigenvektoren ( ( x = i, x 2 = + i 2 2 2 2 Als Fundamentalsystem für den Lösungsraum können wir also etwa wählen ( ( ϕ (t = i e it, ϕ 2 (t = + i e it 2 2 2 2 Natürlich ist dann auch (ψ (t, ψ 2 (t = ( i 2 ϕ (t + i 2 ϕ 2(t, 2 ϕ (t + 2 ϕ 2(t ein Fundamentalsystem, welches wir unter Verwendung der Zusammenhänge e it = cost + i sin t cost = (e it + e it 2 e it bzw = cost i sin t sin t = (e i it e it 2 auch schreiben können als ( ( sin t cost ψ (t = cost + sin t, ψ 2 (t = cost + sin t 2 2 2 2 Somit hat die allgemeine Lösung des Differentialgleichungssystems die Gestalt ( ( y (t a sin t + b cost = a y 2 (t (sin t cos t + b, (sin t + cost 2 2 wobei a, b beliebige Konstante sind 2

Das Minimalpolynom einer Matrix Im Vektorraum Mat n n (K sei für alle i, j n die Matrix E ij so, dass sie überall 0 enthält, ausser in der i-ten Zeile und j-ten Spalte, wo der Eintrag ist Die Menge {E ij i, j n} ist offensichtlich linear unabhängig und spannt ausserdem den ganzen Raum Mat n n (K auf Der Vektorraum der n n Matrizen hat also die Dimension n 2 Das bedeutet auch, dass jede Menge von n 2 + Matrizen oder mehr linear abhängig ist Insbesondere ist für eine beliebige n n Matrix A die Menge der Potenzen {A 0 = I n, A, A 2,,A n } = {A k 0 k n} linear abhängig, dh es gibt ein Polynom vom Grad n 2 p(x = a 0 + a x + + a n 2x n2 K[x], sodass p(a = 0 Analog gilt das natürlich auch für jede lineare Abbildung f Hom K (V, V, wobei V ein Vektorraum der Dimension n ist; denn nach Satz 634 ist Hom K (V, V = Mat n n (K Diese Schranke für die lineare Abhängigkeit der Potenzen einer quadratischen Matrix kann aber deutlich verbessert werden Es gibt nämlich ein Polynom p(x vom Grad höchstens n, sodass p(a = 0 Dieser Satz geht zurück auf Cayley (Arthur Cayley, 82 895 und Hamilton (William R Hamilton, 805 865 Satz 823 (Cayley-Hamilton: Jede quadratische Matrix A ist Nullstelle ihres charakteristischen Polynoms, also c A (A = 0 Ein vom Nullpolynom verschiedenes Polynom p(x heisst monisch, wenn sein führender Koeffizient, also der Koeffizient des höchsten Terms x k in p, ist Satz 824: Sei k der kleinste Grad eines Polynoms, welches A als Nullstelle hat Dann gibt es genau ein monisches Polynom m(x vom Grad k, also von der Form m(x = x k + m k x k + + m 0, welches A als Nullstelle hat Definition 825: Sei A Mat n n (K Das eindeutig bestimmte monische Polynom kleinsten Grades m A (x mit m A (A = 0 heisst das Minimalpolynom der Matrix A Satz 826: Ist p(x ein Polynom mit p(a = 0, dann teilt das Minimalpolynom m A (x das Polynom p(x Korollar: Das Minimalpolynom m A (x ist ein Teiler des charakteristischen Polynoms c A (x Satz 827: Das Minimalpolynom m A (x und das charakteristische Polynom c A (x haben dieselben Nullstellen in K Beispiel 828: (a Das charakteristische Polynom der Matrix 0 A = 0 2 0 3 3

ist c A (x = (x 2 3 Sowohl A 2I 3 als auch (A 2I 3 2 sind verschieden von der Nullmatrix Somit ist das charakteristische Polynom gleich dem Minimalpolynom, m A (x = c A (x (b Das charakteristische Polynom der Matrix 5 6 6 B = 4 2 3 6 4 ist c B (x = (x (x 2 2 Wegen Satz 827 ist das Minimalpolynom von B entweder (x (x 2 oder (x (x 2 2 Es gilt (A I(A 2I = 0, also ist m B (x = (x (x 2 Satz 829: Eine quadratische Matrix ist invertierbar genau dann, wenn der konstante Term in ihrem charakteristischen Polynom verschieden von 0 ist Beispiel 830: Die Matrix A = 0 0 0 hat das charakteristische Polynom c A (x = (x 3 Aus dem Satz von Cayley-Hamilton sehen wir also 0 = (A I 3 3 = A 3 3A 2 + 3A I 3, und weiter Also gilt für die inverse Matrix A(A 2 3A + 3I 3 = I 3 0 A = A 2 3A + 3I 3 = 0 0 0 4