Exkurs: Ableitung von Polynomen über K

Ähnliche Dokumente
I (u +v)+w = u +(v +w) II u +v = v +u III Es existiert ein 0 V, s. d. 0+v = v IV Es existiert ein v V, s. d. v +v = 0

Anwendung: Teilbarkeitsregeln im Dezimalsystem

Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit.

Wiederholung: lineare Abbildungen

Eigenwerte und Diagonalisierung

Lineare Algebra für Physiker 11. Übungsblatt

x y f : R 2 R 3, Es gilt: Bild f = y : wobei x,y R Kern f = 0 (wird auf der nächsten Folie besprochen)

x y f : R 2 R 3, Es gilt: Bild f = y : wobei x,y R Kern f = 0 (wird auf der nächsten Folie besprochen)

Lineare Algebra: Determinanten und Eigenwerte

x 2 + y 2 = f x y = λ

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

Ausgewählte Lösungen zu den Übungsblättern 9-10

Musterlösung der Klausur zur linearen Algebra II

23. Die Jordan sche Normalform

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

Mengenlehre: Mächtigkeit (Ordnung) einer Menge

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Lineare Algebra II Lösungen zu ausgewählten Aufgaben

7.2 Die adjungierte Abbildung

5 Diagonalisierbarkeit

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y.

29.2 Lineare Differentialgleichungssysteme mit konstanten Koeffizienten Wir betrachten das homogene System. y = A y, t R, (1)

Erweiterte Koordinaten

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Lineare Algebra II 3. Übungsblatt

Vektorräume und lineare Abbildungen

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung

Lineare Algebra und analytische Geometrie II

Lineare Algebra II 6. Übungsblatt

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Lineare Hülle. span(a) := λ i v i : so dass k N, λ i R und v i A.

2.11 Eigenwerte und Diagonalisierbarkeit

6 Eigenwerte und Eigenvektoren

Kapitel 11 Eigenwerte und Eigenvektoren

Rückblick auf die letzte Vorlesung

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Lösung 7: Bilinearformen

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

Lineare Algebra und analytische Geometrie I

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

Mathematik für Physiker, Informatiker und Ingenieure

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

6.3 Eigenwerte. γ ist Eigenwert von T [T] B B γi ist nicht invertierbar.

Übungen zu Einführung in die Lineare Algebra und Geometrie

3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform

6. Normale Abbildungen

D-Math/Phys Lineare Algebra II FS 2017 Dr. Meike Akveld. Clicker Fragen

Steilkurs Lineare Algebra 1 einige wichtige Stationen

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Proseminar Lineare Algebra II, SS 11. Blatt

Lineare Algebra und analytische Geometrie I

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 5

Quadratische Matrizen

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

1 Die Jordansche Normalform

Lösungsskizze zur Wiederholungsserie

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Satz 7. A sei eine Teilmenge des nichttrivialen Vektorraums (V,+, ). Dann sind die folgende Aussagen äquivalent.

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

Einführung in die Algebra

LINEARE ALGEBRA II. FÜR PHYSIKER

Übungen zu Einführung in die Lineare Algebra und Geometrie

6 Hauptachsentransformation

Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie-

4.4 Hermitesche Formen

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG

2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015

und Unterdeterminante

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

Satz 7. A sei eine nichtleere Teilmenge des nichttrivialen Vektorraums (V, +, ). Dann sind die folgende Aussagen äquivalent.

Musterlösungen zur Linearen Algebra II Weihnachtszettel

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Lineare Algebra und analytische Geometrie I

Affine Geometrie (Einfachere, konstruktive Version)

Mathematische Erfrischungen III - Vektoren und Matrizen

6.1 Komplexe Funktionen

Exkurs: Klassifikation orthogonaler 2 2-Matrizen.

Differentialgleichungen für Ingenieure WS 06/07

= k 0+k 0 ( ). Wir addieren (0 k) zu den Seiten der Gleichung ( ): 0 = k 0.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

9 Lineare Algebra 2 (SS 2009)

Diagonalisieren. Nikolai Nowaczyk Lars Wallenborn

Der Fundamentalsatz der Algebra. 1 Motivation

Übungen zur Linearen Algebra 1

45 Eigenwerte und Eigenvektoren

2.5 Gauß-Jordan-Verfahren

D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 011 Tom Ilmanen. Musterlösung 12. a ij = v i,av j (A ist symmetrisch) = Av i,v j

Eigenwerte und Eigenvektoren

Lineare Algebra und Analytische Geometrie I für die Fachrichtung Informatik

Transkript:

Exkurs: Ableitung von Polynomen über K Aus Ana I oder sogar aus der Schule wissen wir, was die Ableitung einer reell- oder komplexwertigen Funktion f ist. Wir wissen auch, dass ein R- oder C-Polynom im Wesentlichen dasselbe wie eine Funktion ist (Ein Polynom i a ix i definiert immer eine Funktion f (z) = a i z i. Wir haben letztes Mal gesehen, dass es für einige K mehrere Polynome gibt, die einer Funktion entsprechen.) und dass die Ableitung eines solchen Polynoms auch ein Polynom ist. Was tun wir aber wenn unseres Polynom ein K-Polynom ist? Def. Sei P = i>0 a ix i K[x]. Wir definieren P durch P = i>1 ia ix i 1 = i>0 (i + 1)a i+1x i (wobei x 0 gleich 1 gesetzt wird). Bsp. Sei K = R und P = x 3 + 2x + 19. Dann ist P = 3x 2 + 2. Was ist übrigens i? In R bzw. C es ist klar, was i ist. In einem beliebigen Körper K definieren wir i := 1 +... + 1. Z.B. in Z }{{} 3 ist i Stück 5 = 1 + 1 + 1 + 1 + 1 = 2. Eigentlich ist eine formal bessere Formel in der Definition des Polynoms P = ( i+1 ) i>0 l=1 a i+1x i. Bemerkung. Für K = R oder K = C fällt die Definition oben mit der Ableitung im Sinne Analysis I bzw. der Schule überein.

Rechnen Sie selbst aus in Z 2 Leiten Sie bitte f = x 3 + x 2 x + 2 ab. Jetzt nehmen wir an, dass K = Z 3 ist. Leiten Sie das gleiche Polynom f = x 3 + x 2 x + 2 ab. Antwort. x 1 (oder x + 2)

Ableitung ist eine lineare Abbildung. Wir wissen, dass die Polynome K einen Vektorraum (bzgl. + und Multiplizieren mit Konstanten) bilden. Lemma 5. Die Abbildung von K[x] nach K[x], die einem Polynom f dessen Ableitung zuordnet, ist linear. Beweis ist eine einfache Übung, bitte selber machen.

Leibnitz-Regel für die Ableitung Lemma 6. Für zwei beliebige Polynome P,Q K gilt: (PQ) = P Q + PQ. Beweisidee. Man benutze die Definition der Ableitung P = i>0 (i + 1)a i+1x i und des Produkts von Polynomen, um direkt die Koeffizienten der Polynome (PQ), P Q + PQ auszurechnen und zu beweisen, dass sie gleich sind. Das ist möglich, aber technisch nicht trivial Sie können das zu Hause ausprobieren. In unserem Beweis benutzen wir zweimal Linearität der Ableitung (Lemma 5) und reduzieren damit den Beweis zur Aussage, dass für die Monome, d.h. für die Polynome der Form P = x k und Q = x m. Für die Monomen ist das Lemma rechnerisch einfach verifizierbar.

Lemma 6. Für zwei beliebige Polynome P, Q K gilt: (PQ) = P Q + PQ. Beweis. Wir betrachten zwei Abbildungen A : K[x] K[x], B : K[x] K[x] definiert durch A(P) = (PQ), B(P) = P Q + PQ. Unseres Ziel ist zu zeigen, dass diese zwei Abbildungen zusammenfallen. (D.h., wir fixieren Q und beweisen die Aussage für jedes festes Q). Die Abbildungen A und B sind linear: z.b. wenn wir A(P 1 + P 2 ) nehmen, bekommen wir A(P 1 +P 2 ) = ((P 1 +P 2 )Q) Rechenregeln = (P 1 Q+P 2 Q) Weil Ableitung linear ist = (P 1 Q) +(P 2 Q) = A(P 1 )+A(P 2 ). (Beweis der Linearitätseigenschaften für A(λ P), B(P 1 + P 2 ), B(λ P) sind analog.) Da die Abbildungen A, B linear sind, genügt es, wenn wir die Gleichung A = B nur für Basiselemente, also für die Monome P = x k beweisen. Jetzt beweisen wir also dass für jedes Monom x k gilt: A(x k ) = B(x k ). Zu zeigen ist, dass (für jedes Q) (x k Q) = (x k ) Q + x k Q.

Jetzt beweisen wir also dass für jedes Monom x k gilt: A(x k ) = B(x k ). Zu zeigen ist dass (für jedes Q) (x k Q) = (x k ) Q + x k Q. Dazu wiederholen wir die Argumentation: Wir betrachten die Abbildungen à : K[x] K[x] und B : K[x] K[x], definiert durch Ã(Q) = (x k Q), B(Q) = (x k ) Q + x k Q. Die Abbildungen Ã, B sind linear. Deswegen genügt es, wenn wir die Gleichung à = B nur für Basiselemente, also für die Monome Q = x m beweisen. Also: Um das Lemma 6 zu beweisen, reicht es, wenn wir es nur für Monome P = x k und Q = x m beweisen. Beweis für P = x k und Q = x m : Für k > 0,m > 0 gilt: (x k x m ) = (x k+m ) = (k + m)x k+m 1 ist gleich (x k ) x m + x k (x m ) = kx k 1 x m + mx k x m 1 = (k + m)x k+m 1 wie wir es wollen. Für k = 0 (Der Fall m = 0 ist analog.) gilt: (x 0 x m ) = (x m ) und (x 0 ) x m + x 0 (x m ) = (x m ).

Wiederholung Satz 8 (Jordansche Normalform) Sei K ein Körper, sei V ein endlichdimensionaler K-Vektorraum und sei φ : V V ein Endomorphismus, dessen Minimalpolynom in Linearfaktoren zerfällt. Dann existiert eine Basis von V, so dass die Matrix von φ eine Jordan-Matrix ist. Diese Jordansche Normalform ist bis auf Reihenfolge der Jordanblöcke eindeutig. Wiederholung: Jordan-Matrizen sind die Matrizen der Form ¼ ¼ J k 1 λ 1 λ 1 λ 1 J km λm, wobei Jλ k die folgende k k-matrix ist λ 1 λ

Wiederholung Beobachtung Sei P K[x] ein Polynom, A Mat(n, n, K), B GL(n, K). Dann gilt: P(B 1 AB) = B 1 P(A)B. Beobachtung ¼ Für eineblock-diagonale Matrix M = A 1 ¼ P(M) = P(A 1 ) A m, wobei A i eine k i k i -Matrix ist, ist P(A m).

Sei J ein k k Jordan Block über C mit Eigenwert λ, d.h. J = Jλ k. Dann gilt: ¼ P(J) = P(λ) 1 1! P (λ) 1 2! P (2) (λ) 1 n! P (n) (λ) 1 2! P (2) (λ) P(λ) 1 1! P (λ) P(λ) j te Ableitung des Polynoms P ist., wobei P (j) die (Z.B. für das Polynom P = z 3 ist P = 3z 2, P (2) = 6z, P (3) = 6, P (4) = P (5) =... = 0. Allgemein: Für ein Polynom P = m k=0 a kx k C[x] ist P = m k=1 k a kx k 1 C[x] ( ). Das war im Wesentlichen eine Hausaufgabe: In der Tat, da die Ableitung eine lineare Abbildung von C[x] auf C[x] ist, genügt es, die Formel für Monome (d.h. für Polynome der Form x k ) zu prüfen, und Sie haben diese zu Hause ausgerechnet.

Analytische Funktionen von Matrizen Sei a 0,a 1,...,a k,... C eine Folge, f (z) = a 0 + a 1 z + a 2 z 2 +... + a k z k +... = k=0 a kz k die entsprechende analytische Funktion und A eine Matrix. Wir betrachten die Folge von Matrizen(partielle Summen): a 0 Id, a 0 Id + a 1 A,..., a 0 Id + a 1 A + a 2 A 2 +... + a m A m = m k=0 a k A k := P m (A),... Wir sagen, dass die Folge konvergiert, falls sie komponentenweise konvergiert, d.h., für jede i,j n konvergieren die (i,j) Einträge von Matrizen a 0 Id, a 0 Id + a 1 A,..., P m (A). Def. Falls die Folge konvergiert, setzen wir m f (A) = lim a k A k. m k=0 (Falls für irgendwelche i,j die Folge divergiert, ist f (A) nicht definiert.) Bemerkung: Für Polynomen m k=0 a k A k gilt: m k=0 a k (B 1 AB) k = B ( 1 m k=0 a k A k) B. Wir werden bald sehen: f (B 1 AB) = B 1 f (A)B. Dies bedeutet, dass die Definition nicht von der Wahl der Basis abhängt (wir also in Wirklichkeit analytische Funktionen von Endomorphismen definiert haben).

Natürliche Fragen Unten ist f = k=0 a kz k stets eine analytische Funktionund A eine n n-matrix. 1. Für welche A existiert f (A)? (d.h. für welche A konvergiert die Reihe a 0 Id, a 0 Id + a 1 A,..., komponentenweise) 2. Wie kann man f (A) ausrechnen? Bemerkung. Es ist fast hoffnungslos, bereits für 3 3-Matrizen einfache analytische Funktionen von Matrizen, z.b. e A, nach Definition auszurechnen. 3. Wozu sollte man analytische Funktionen von Matrizen ausrechnen? Bemerkung. In dem Kurs gew. Differentialgleichungen werden analytische Funktionen von linearen Abbildungen auch behandelt(sogar für Banach-Räume), teilweise parallel zu linearen Algebra. Das bedeutet, dass sie für Differentialgleichungenund deswegen auch alle Naturwissenschaften wichtig sind.

Satz 9 Angenommen, alle Eigenwerte von A Mat(n,n, C) liegen im Konvergenzkreis von f. Dann gilt: f (A) ist definiert. Satz 9 beantwortet die erste Frage: wann f (A) definiert ist. Satz 10 (Spektralsatz) Seien λ 1,...,λ m verschiedene Eigenwerte von A Mat(n,n, C), k 1,...,k m ihre algebraische Vielfachheiten (k 1 +... + k m = n). Angenommen, der Konvergenzradius von f ist größer als max λ i. Dann gilt: Es gibt n Matrizen Z λ1,1,...,z λ1,k 1,Z λ2,1,...,z λ2,k 2,...,Z λm,1,...,z λm,k m Mat(n,n, C), die nur von A abhängen, so dass für jede analytische Funktion f gilt: ist f (A) definiert, so ist f (A) = m ( ) i=1 f (λi )Z λi,1 +... + f (k i 1) (λ i )Z λi,k i ( ) In Worten. Für jede Matrix A gibt es n Matrizen Z λi,j, sodass jede analytische Funktion f (A) mit genügend großem Konvergenzradius die Linearkombination ( ) ist. Bemerkung. Die Matrizen Z λi,j hängen nicht von f ab, nur von A. Satz 10 beantwortet die zweite Frage und gibt uns eine effektive Methode, die Matrix f (A) auszurechnen.

Beweis der Sätze 9/10. Beweisstrategie: Wir zeigen zuerst, dass es genügt, die Sätze nur für Jordan-Blöcke zu beweisenund dann die Formeln für die Blöcke zu prüfen. Wir benutzen die folgende Aussage aus Ana I: Konvergieren die Folgen α 0,...,α k,...; β 0,...,β k,... gegen α bzw. β, so konwergiert die Folge C 1 α i + C 2 β i gegen C 1 α + C 2 β. Ist f (B 1 AB) definiert, dann ist f (A) auch definiert. In der Tat, für jedes Polynom P k = a 0 +... + a k z k ist P k (A) = BP k (B 1 AB)B 1. Also sind die Einträge von P k (A) lineare Ausdrücke in den Einträgen von P k (B 1 AB) mit konstanten Koeffizienten, die von B kommen. Falls alle Einträge von P k (B 1 AB) für k konvergieren, konvergieren deswegen auch die Einträge von P k (A) = BP k (B 1 AB)B 1, und zwar gegen Bf (B 1 AB)B 1. Deswegen genügt es, die Sätze 9, 10 für Jordan-Matrizen zu beweisen.

Da für eine Block-diagonale Matrix M = ¼ A i eine k i k i -Matrix ist, P n (M) = ¼ P n(a 1 ) A 1 A m P n(a m), wobei gilt, genügt es, die Sätze 9, 10 für die einzelnen Jordan-Blöcke zu beweisen.

Beweis für Jordan-Blöcke: Ausrechnen Wie wir es ¼ oben erklärt haben, ist P 1 n(λ) 1! P n (λ) 1 2! P n (2) (λ) 1 k! P n (k) (λ) P n (J k λ ) = 1 2! P n (2) (λ) P 1 n(λ) 1! P n (λ) P n(λ) Falls λ im Konvergenzkreis von f liegt, konvergiert P n (λ) gegen f (λ). Folglich konvergieren die Diagonalelemente gegen f (λ). Falls λ im Konvergenzkreis von f liegt, konvergiert P n(λ) gegen f (λ), folglich konvergieren die (i,i + 1) Einträge gegen 1 1! f (λ), u.s.w. Satz 9 ist bewiesen. Wir sehen, dass f (J) eine Linearkombination der Matrizen ¼ 0 1 0 D i := 0 1 (die nicht von f abhängen)mit den Koeffizienten 1 i! f (i) (λ) ist. Satz 10 ist bewiesen. 0

Folgerung (Rechnenregeln für analytische Funktionen von Matrizen) Es gilt: 1. Af (A) = f (A)A (falls f (A) definiert ist). 2. Sei h = f + g. Dann gilt h(a) = f (A) + g(a) (falls h(a),f (A) definiert sind.) 3. Sei h = fg. Dann gilt h(a) = f (A)g(A) (falls definiert) 4. Sei h(z) = f (g(z)). Dann gilt h(a) = f (g(a)) (falls definiert) 5. Sei f (λ) 0 für jeden Eigenwert λ von A, h = 1/f. Dann h(a) = (f (A)) 1. Beweis. Benutzen Sie Satz 10 oder die Definition. Z.B. in (1) sei g(z) = zf (z) = f (z)z. Dann ist g(a) = Af (A) = f (A)A.

Anwendung: die Exponentialabbildung von Matrizen Die gewöhnliche Exponentialfunktion e x in der Analysis ist durch jede der beiden folgenden Eigenschaften charakterisiert: 1. Als Lösung der Differentialgleichung y = y mit der Anfangsbedingung y(0) = 1, 2. Als (überall konvergente) Potenzreihe e x = k=0 xk k!. Wir betrachten jetzt e A, wobei A eine Matrix ist, und zeigen, dass Sie die beiden Eigenschaften hat. Nach Def. von f (A) ist e A := k=0 1 k! Ak.

e J, wobei J = J k λ ein Jordan-Block ist Im Beweis ¼ der Sätze 9, 10 haben wir gezeigt, dass f (λ) 1 1! f (λ) 1 2! f (2) (λ) 1 n! f (n) (λ) f (J) = 1 2! f (2) (λ) f (λ) 1 1! f (λ) f (λ) Da für f (z) = e z auch f (j) (z) = e z gilt, ist f (j) (λ) = e λ und deswegen ¼ 1 1 1! 1 2! 1 n! e J = e λ 1 1 1! 1

¼ Für eine Jordan-Matrix M = J 1, wobei J i := J k i λ i ein k i k i -Jordanblock ist, ist e M = Insbesondere gilt: det(e M ) = e trace(m) (beide Seiten sind gleich e È i k iλ i ). ¼ e J 1 J m e Jm.

Satz 11 Die Exponentialabbildung hat die folgenden Eigenschaften: (Unten sind A,B stets n n-matrizen über C.) (1) e A konvergiert für jede Matrix A. (2) Die Zuordnung A e A ist eine C Abbildung (sogar reell analytisch) (als Abbildung von }{{} C n2 auf sich selbst.) =Mat(n,n,C) (3) Es gilt e A+B = e A e B, falls AB = BA (dies ist das Exponentialgesetz) (4) e A ist stets invertierbar, und es gilt (e A ) 1 = e A sowie det(e A ) = e trace(a) (5) Die Abbildung t e ta ist bzgl. t differenzierbar mit e 0 A = Id und d et A dt = Ae ta. Beweis (1): Da der Konvergenzradius der e z -Funktion unendlich ist, ist e A für alle A Mat(n,n, C) nach Satz 9 definiert. Beweis (2): Weil die Einträge von e A konvergente Reihen von Einträgen von A sind.

Beweis (3): Die Gleichung AB = BA impliziert die binomische Formel (A + B) 2 = A 2 + AB + BA + B 2 = A 2 + 2AB + B 2, allgemein (A + B) n = ( n nk ) ( nk ) k=0 A k B n k, wobei = n! k!(n k)!. Es folgt e A+B = n=0 1 n! = n=0 1 n n! k=0 = = n=0 (A + B)n ( nk ) A k B n k n 1 n=0 k=0 k!(n k)! Ak B n k n k+l=n 1 k!l! Ak B l symmetrisch bzgl. A, B = e B+A.

Beweis (4): Setze A := B. Offensichtich, AB = BA(= B 2 ). Dann folgt nach Teil (3): Id = e 0 = e A A = e A e A, also e A = ( e A) 1. Die Gleichung det(e A ) = e trace(a) bekommt man sofort, wenn A eine Jordan-Matrix ist, wie wir vor dem Satz ausgerechet haben. In diesem Fall stehen auf der Diagonale von e A die Werte e λ i, wobei λ i die Eigenwerte sind. e trace(a) ist ebenfalls Produkt von Exponentialfunktionen von Eigenwerten (mit Vielfachheiten). Da det und trace nicht von Wahl der Basis abhängen, gilt die Gleichung det(e A ) = e trace(a) für alle A. Beweis (5): Hier rechnet man mit gliedweiser Differentiation folgendes aus: d dt (et A ) = = k=1 d dt k 1=m = A m=0 d dt k=0 1 k! tk A k = 1 k! k tk 1 A k 1 m! tm A m. k=0 d dt 1 k! tk A k

Anwendung: Lösen von linearen Differentialgleichungssystemen mit konstanten Koeffizienten Für eine gegebene n n-matrix A wird ein Vektor u = dessen Einträge u i Funktionen von x sind, s.d. ( ) u (x) = Au ¼ ¼ u 1 (x) u 1 (x) d.h., = A. u n (x). u n(x) ¼ u 1 (x). u n(x) gesucht, Bsp. Für n = 1 ist ( ) die bekannte Gleichung u (x) = au(x), und deren Lösung ist u(x) = C e ax wobei C eine Konstante ist. ( ) ist eine äußerst wichtige Gleichung in Physik und kommt selbstverständlich im Kurs über gewöhnliche Differentialgleichungen vor. Nach Satz 11 löst u(x) := e Ax C ( ) diese Gleichung, wobei C ein (konstanter) Vektor ist. Nach dem Satz von Picard-Lindelöf (kommt noch im Kurs gewöhnliche Differentialgleichungen) haben alle Lösungen von ( ) die Form ( ).

Reelle Jordan-Form In den meisten bis jetzt bewiesenen Aussagen über Jordan-Formen haben wir stets vorausgesetzt, dass das charakteristische Polynom in Linearfaktoren zerfällt. Diese Bedingung ist für K = C immer erfüllt. Im Fall K = R gibt es Matrizen deren charakteristische Polynome nicht in Linearfaktoren zerfallen Beispiele haben wir bereits in Vorl. 1 gesehen. Kann man dies überwinden? Antwort ist Ja, und das ist unseres nächstes Ziel.

Komplexifizieren von R-Vektorräumen und deren Endomorphismen Sei V ein Vektorraum über R. Wir betrachten V C := { u + iv u,v V }. }{{} Formale Summe (Mengenteoretisch ist V C = V V. Wir schreiben nur die Elemente von V V, also Paare (u,v) V V, als u + iv.) Auf V C definieren wir Addition und Muptiplikation MIT ELEMENTEN VON C: u + iv + u + iv = (u + u ) + i(v + v ). Für α + iβ C definieren wir (α + iβ)(u + iv) = (αu βv) + i(αv + βu).

V C ist ein C-Vektorraum. Lemma 7. Sei V ein Vektorraum über R. Dann gilt: V C ist ein Vektorraum über C. Die Operationen Addition und Multiplikation mit Elementen von K = C sind wohldefiniert. Um das Lemma zu beweisen, müssen wir die Axiome I VIII as der Definition eines Vektorraums überprüfen. I Für alle u, v, w V C gilt (u + v) + w = u + (v + w) II Für alle u, v V C gilt u + v = v + u III Es existiert ein 0 V C, so dass für alle v V C gilt 0 + v = v IV Für jedes v V C existiert ein v V C, so dass gilt v + v = 0 V Für alle λ, µ C und v V C gilt (λµ)v = λ(µv) VI Für alle λ, µ C und v V C gilt (λ + µ)v = λv + µv VII Für alle λ C und u, v V C gilt λ(u + v) = λu + λv VIII Für alle v V C gilt (1 + i 0) v = v

x + iy + x + iy = (x + x ) + i(y + y ). Für α + iβ C wir definieren (α + iβ)(x + iy) = (αx βy) + i(αx + βy). I Für alle u, v, w V C gilt (x + y) + w = u + (v + w) II Für alle u, v V C gilt u + v = v + u III Es existiert ein 0 V C, so dass für alle v V C gilt 0 + v = v IV Für jedes v V C existiert ein v V C, so dass gilt v + v = 0 V Für alle λ, µ C und v V C gilt (λµ)v = λ(µv) VI Für alle λ, µ C und v V C gilt (λ + µ)v = λv + µv VII Für alle λ C und u, v V C gilt λ(u + v) = λu + λv VIII Für alle v V C gilt (1 + i 0) v = v I, II, VIII sind offensichtlich. Das 0- Element in V C ist das Element 0 + i 0. Das Element x + i ( y) (Umgangssprachlich: x iy) ist das additive Inverse zu x +iy. V,VI,VII kann man nach der Definition überprüfen, ähnlich wie wir es in der Einführung der komplexen Zahlen in Vorl. 17 LA I gemacht haben, wo wir ähnliche Eigenschaften für das Addieren/Multiplizieren von komplexen Zahlen bewiesen haben.

Bsp: Komplexifizieren von V = R 3 gibt C 3 Die Menge V C ist die Menge x 1 x 2 x 3 + i y 1 y 2 y 3 ¼Die Operationen ¼ ¼ ¼und + sind ¼¼ wie oben ¼ definiert: ¼ x 1 + i y 1 + x 1 + i y 1 (α + iβ) x 1 + i y 1 = x 2 x 3 y 2 y 3 x 2 x 3 y 2 y 3 x 2 x 3 y 2 y 3 x k,y k R. x 1α y 1 β x 2 α y 2 β x 3 α y 3 β ¼ + i x 1β + y 1 α x 2 β + y 2 α. x 3 β + y 3 α Ich behaupte, dass V C zu C 3 isomorph ist: In der Tat, man kann den Isomorphismus ¼¼ ¼ explizit ¼ angeben: x 1 + i y 1 = x 1 + iy 1 f x 2 x 3 y 2 y 3 x 2 + iy 2. x 3 + iy 3 Man überlege, dass die Abbildung f wohldefiniert ist, linear ist, und die Operationen ¼¼ erhält: ¼ z.b. ¼ ¼ ¼ x 1 + i y 1 = x 1α y 1 β + i x 1β + y 1 α = f (α + iβ)(x 1 + iy 1 ) (α + ıβ) x 2 x 3 y 2 y 3 x 2 α y 2 β x 3 α y 3 β x 2 β + y 2 α x 3 β + y 3 α (α + iβ)(x 2 + iy 2 ). (α + iβ)(x 3 + iy 3 )

Basis von V C Was ist die Dimension von V C? Sei (b 1,...,b n ) eine Basis von V. Kann man mit Hilfe von (b 1,...,b n ) eine Basis konstrurieren? Ja! (b 1 + i 0,b 2 + i 0,...,b n + i 0) ist eine Basis in V C! Bsp. Wir haben¼gesehen, ¼ ¼ dass ¼ für V = R 3 gilt V C = C 3. Für die Standard-Basis 1 0, 0 1, 0 0 ist die komplizifizierte Basis 0 0 1 ¼¼ ¼ ¼ ¼ = 1 + i 0, 0 + i 0, 0 + i 0 1 0 0 0 + i 0 0 + i 0 1 + i 0 0 + i 0 0 + i 0. 1 + i 0 Warum ist (b 1 + i 0,b 2 + i 0,...,b n + i 0) eine Basis? Weil sie linear unabhändigt ist: Ist 0 + i 0 = (α 1 + iβ 1 )(b 1 + i 0) +... + (α n + iβ n )(b n + i 0) = (α 1 b 1 +... + α n b n ) + i(b 1 β 1 +... + b n β n ), so ist α 1 b 1 +... + α n b n = 0 (und deswegen α i = 0) und (b 1 β 1 +... + b n β n ) = 0 (und deswegen β i = 0). Weil sie erzeugend ist: Wir bekommen ein beliebiges Element α 1 b 1 +... + α n b }{{} n +i (β 1 b 1 +... + β n b n ) }{{} u v Linearkombination (mit komplexen Koeffizienten): α 1 b 1 +... + α n b }{{} n u +i (β 1 b 1 +... + β n b n ) }{{} v als die folgende = (α 1 +iβ 1 )b 1 +...+(α n +iβ n )b n.

Komplexifizieren von linearen Abbildungen Sei φ : V V ein Endomorphismus eines R- Vektorraums V (der Dimenension n). Kann man damit einen Endomorphismus φ C : V C V C ( kanonisch ) konstruieren? Ja! Wir definieren φ C (u + iv) = φ(u) + iφ(v). Wohldefinierheit ist offensichtlich. Linearität ist einfach zu zeigen: φ C (u + iv + u + iv ) = φ C (u + u + i(v + v )) = φ(u + u ) + iφ(v + v ) = φ(u) + φ(u ) + i(φ(u) + iφ(u )) = φ C (u + iv) + φ C (u + iv ). φ C ((α + iβ)(u + iv)) = φ C ((αv βu) + i(αu + βv)) = αφ(v) βφ(u) + i(αu + βv) = (α + iβ)(φ(u) + iφ(v)) = (α + iβ)φ C (u + iv). Wähle eine Basis (b 1,...,b n ) in V. Betrachte die entsprechende Basis (b 1 + i 0,b 2 + i 0,...,b n + i 0) in V C. Was ist die Matrix von φ C bzgl. dieser Basis? Antwort. Dieselbe wie die Matrix von φ in der Basis (b 1,...,b n ): Um die Matrix zu definieren, brauchen wir nur die Koordinaten der Bilder der Basisvektoren, und diese sind in den Basen (b 1,...,b n ) und (b 1 + i 0,b 2 + i 0,...,b n + i 0) gleich (wenn wir die Zahlen α + i 0 C und α R identifizieren).

Anwendung: ( Beste Form einer reellen n n Matrix A, die über komplexen Zahlen diagonalisierbar ist. Satz 12. Sei φ : V V ein Endomorphismus eines R-Vektorraums V. Angenommen φ C ist diagonalisierbar. (Z.B. hat das charakteristisches Polynom n verschiedene Eigenwerte). Dann gibt es eine Basis in V, ¼sodass die Matrixvon φ in dieser Basis die Block-diagonale Form A 1 A m hat, wobei jedes A j eine (1 1) Matrix (λ j ), oder eine (2 2) Matrix der Form α j β j β j α j ist, wobei β 0. Bemerkung. Die Eigenwerte von dieser Matrix sind λ i,α + iβ.

Beweisstrategie: würde bereits in Vorl. 17 benutzt. Wir finden eine Basis (b 1 + ia 1,...,b n + ia n ) in V C, sodass die Matrix von φ C diagonal ist. Dann konstruieren wir mit Hilfe der Basisvektoren b i + ia i die REEL- LEN Basisvektoren und bekommen die Aussage. Analogie: Folgerung B aus dem Hauptsatz der Algebra (Vorl. 17 LA I) Jedes P R[x], Grad(P) > 0, kann man in ein Produkt von linearen und quadratischen Faktoren zerlegen. Beweis wiederholen: 1. Man kann P als Polynom über C auffassen und dann in ein Produkt von linearen Faktoren zerlegen: P = (λ 1 x)...(λ n x)a. 2. Ist λ 1 keine reelle Nullstelle, so ist λ 1 auch eine Nullstelle (Weil P(λ 1 ) = P( λ 1 )). Da Q 2 := (λ 1 x)( λ 1 x) ein (quadratisches) Polynom über R ist, ist P = Q 2 P n 2, wobei P n 2 R[x] mit Grad(P n 2 ) = n 2. Dann liefert eine Induktion nach n die Aussage.

Hilfsaussage vor Beweis von Satz 12 Wir zeigen zuerst die folgende Aussage: Sei A Mat(n,n, R) und v + iu C n (wobei u,v R n ) ein Eigenvektor zum Eigenwert µ = α + i β. Dann ist auch v iu (= V konjugiert ) ein Eigenvektor zum Eigenwert µ(=α i β). Beweis. Wir konjugieren die Gleichung Av = µv: Wir bekommen Av = µv A V = µ V. Rechnenregeln; siehe Vorl. 17 = Ā V = µ V Weil A reell ist =

Beweis von Satz 12. Wir konstruieren eine Basis von R n. Die Anzahl von reellen Eigenwerten, mit Vielfachheiten gezählt, sei m {0,...,n}. Die ersten m Vektoren b 1,...,b m von unserer Basis seien die zugehörigen Eigenvektoren. Wir können Sie reell wählen, denn um Sie zu finden müssen wir die Gleichung Av = λ i v lösen. Die Anzahl von linear unabhängigen Eigenvektoren ist n rk(a λ i Id) und ist deswegen unabhängig davon, ob wir die Matrix A als die Matrix von φ oder von φ C betrachten. Für jedes Paar von komplex-konjugierten nicht reellen Eigenwerten µ j = α j + i β j, µ j = α j i β j (wobei β j 0) betrachten wir sowohl die Basis-Eigenvektoren V j := v j + i u j Eig µi zu µ i als auch die konjugierten Vektoren V j := v j i u j. Nach der Hilfsaussage ist V j ein Eigenvektor zu µ j = α j i β j. Wir nehmen dann die Vektoren v j,u j in unser Tupel auf.

Wir bekommen dann ein n Tupel von Vektoren: Die ersten m Vektoren sind Eigenvektoren zu reellen Eigenwerten. Dann kommen die Paare v m+1,u m+1,...,v m+ n m,u 2 m+ n m. Die Anzahl der Vektoren in unserem 2 Tupel ist n, weil wir n komplexe linear unbahängige Eigenvektoren haben und von jedem reellen Eigenwert ein Vektor in unser Tupel kommt und von jedem Paar von komplex-konjugierten Eigenwerten µ, µ zwei Vektoren in unser Tupel kommen. Das Tupel ist eine Basis: Wir müssen nur lineare Unabhängigkeit zeigen. Sei k 1 b 1 +... + k m b m + r m+1 v m+1 s m+1 u m+1 +... = 0. ( ) Wir merken an, dass jedes rv su = reeller Anteil von ( (r + i s)(v + i u) ) ( ) (Ausrechnen: (r + i s)(v + i u) = rv su + i (ru + sv)). Das heißt, der reelle Anteil von( ) ist gleich dem reellen Anteil von(k 1 b 1 +...+k m b m +(r m+1 +i s m+1 )(v m+1 +i u m+1 )+...). Das ist aber eine Linearkombination über C von Basisvektoren aus C n. Dann ist sie trivial und folglich k j = 0, s j = 0, r j = 0, womit das Tupel (b 1,...,b m,v m+1,u m+1,...,v m+ n m 2,u m+ n m 2 ) eine Basis ist.

Wie sieht die Matrix von φ in dieser Basis aus? Um es herauszufinden, müssen wir laut LA I Ab j bzw. Av j und Au j als Linearkombination von (b 1,...,b m,v m+1,u m+1,...,v m+ n m,u 2 m+ n m ) darstellen. Die Koeffizienten 2 sind dann die Einträge der entsprechenden Spalte. Da Ab j = λ j b j, sind die ersten m Spalten gleich λ j e j, wie wir es wollen. Wir werden jetzt Av j und Au j betrachten.

Dazu benutzen wir, dass v = 1 2 ((v + i u) + (v i u)) = 1 2 (V + V) und u = 1 2 i ((v + i u) (v i u)) = 1 2 (V V). Dann ist Av = 1 weil Eigenvektoren nach Konstruction 2A((v + i u) + (v i u)) = 1 2 ((α + i β)(v + i u) + (α + i β)(v i u)) = αv βu. Also ist die entsprechende Spalte der Matrix von f A in der Basis ¼ (b 1,...,b m,v m+1,u m+1,...,v m+ n m 2,u m+ n m ) gleich 2 0. α β. 0 wie wir es wollen. Analog gilt: Au = 1 weil Eigenvektoren 2i A((v + i u) (v i u)) = 1 2i ((α + i β)(v + i u) (α + i β)(v i u)) = βv + αu. Also ist die entsprechende Spalte der Matrix von f A in der Basis (b 1,...,b m,v m+1,u m+1,...,v m+ n m 2 wollen.,u m+ n m ) gleich 2 ¼ 0. β α. 0 wie wir es