4 Letzte Themen der linearen Algebra

Ähnliche Dokumente
7 Lineare Gleichungssysteme und Determinanten. Lineare Gleichungssysteme Gauß-Algorithmus Anwendungen Determinanten

7 Lineare Gleichungssysteme und Determinanten

$Id: det.tex,v /01/13 14:27:14 hk Exp $ 8.2 Definition und Grundeigenschaften der Determinante D 2. oder A = D r

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 13. Übung: Woche vom (Lin.Alg.

3 Determinanten, Eigenwerte, Normalformen

Heinrich Heine-Universität Düsseldorf Sommersemester Lineare Algebra 1. Vierzehnte & Fünfzehnte Woche,

5.2 Rechnen mit Matrizen

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y.

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

Determinanten. I. Permutationen

Determinanten. I. Permutationen

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Eigenwerte und Diagonalisierung

a 21 a 22 a 21 a 22 = a 11a 22 a 21 a 12. Nun zur Denition und Berechnung von n n-determinanten: ( ) a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 A =

8. Elemente der linearen Algebra 8.5 Quadratische Matrizen und Determinanten

5.2 Rechnen mit Matrizen

Die Determinante ist nur für beliebige quadratische Matrizen (n = m) definiert: a 11 a 12 a a 1n a 21 a 22. det. a nn.

Matrizen, Determinanten, lineare Gleichungssysteme

Kapitel 11 Eigenwerte und Eigenvektoren

Klausurenkurs zum Staatsexamen (SS 2013): Lineare Algebra und analytische Geometrie 3 Lösungsvorschlag

8.2 Invertierbare Matrizen

Wirtschafts- und Finanzmathematik

4 Determinanten. 4.1 Eigenschaften der Determinante. ME Lineare Algebra HT

Diagonalisierbarkeit symmetrischer Matrizen

Wir lernen nun einen ganz wichtigen Ring kennen, den Polynomring: γ i = α j β k.

Definition 1 Sei π ein Element aus der symmetrischen Gruppe S n der Permutationen aller natürlichen Zahlen von 1 bis n.

14 Determinanten. 70 II. Lineare Gleichungssysteme. a b c d

Wir verallgemeinern jetzt den Begriff bilinear zu multilinear. Unser Ziel ist dabei insbesondere die Einführung der sogenannten Determinante.

Lineare Algebra 1. Roger Burkhardt

Lineare Algebra I Lösungsvorschlag

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

Kapitel 4. Determinante. Josef Leydold Mathematik für VW WS 2017/18 4 Determinante 1 / 24

6.2 Rechnen mit Matrizen

6 Hauptachsentransformation

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

4. Übungsblatt zur Mathematik II für Inf, WInf

36 2 Lineare Algebra

Ausgewählte Lösungen zu den Übungsblättern 9-10

$Id: det.tex,v /12/19 13:21:08 hk Exp $ A = 1 3

Mathematik für Physiker, Informatiker und Ingenieure

4 Lineare Algebra (Teil 2): Quadratische Matrizen

1 Darstellungsmatrizen

5.4 Basis, Lineare Abhängigkeit

Die Determinante einer Matrix

Definition Sei R ein kommutativer Ring mit multiplikativ neutralem Element 1. Eine Abbildung D : R (n,n) R heißt n-linear, wenn gilt

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

6 Determinanten Pink: Lineare Algebra HS 2014 Seite 66

9.2 Invertierbare Matrizen

Theoretische Fragen zu ausgewählten Themen in Lineare Algebra

Berechnung der Determinante

5 Lineare Gleichungssysteme und Determinanten

Karlsruher Institut für Technologie (KIT) WS 2012/13 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Lineare Algebra I Zusammenfassung

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Eigenwerte (Teschl/Teschl 14.2)

a 1 a 1 A = a n . det = λ det a i

Lösung 13: Unitäre Vektorräume und normale Abbildungen

8.2 Invertierbare Matrizen

Lineare Algebra und analytische Geometrie I

2.5 Smith-Normalform für Matrizen über Euklidischen Ringen

1 Matrizenrechnung zweiter Teil

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

Lineare Algebra II Lösungen der Klausur

Determinanten - II. Falls n = 1, gibt es offenbar nur die identische Permutation, und für eine 1 1 Matrix A = (a) gilt det A = a.

3 Matrizenrechnung. 3. November

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit.

4.13. Permutationen. Definition. Eine Permutation der Elementen {1,..., n} ist eine bijektive Abbildung

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,...

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

$Id: det.tex,v /01/08 13:59:24 hk Exp $ A = 1 3

Serie Sei V ein Vektorraum. Man nennt eine lineare Abbildung P : V V eine Projektion, falls P 2 = P gilt. Zeigen Sie:

3 Lineare Algebra Vektorräume

Höhere Mathematik II für die Fachrichtung Physik

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v.

Lineare Algebra und Numerische Mathematik für D-BAUG

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008

7 Determinanten. f i : Mat n n (K) K. j=1 ( 1)i+j a ij D(A ij )

3 Lineare Gleichungssysteme

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v.

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

4 Funktionenfolgen und normierte Räume

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q:

$Id: det.tex,v /12/19 17:07:55 hk Exp $ $Id: linabb.tex,v /01/15 07:43:52 hk Exp $ c 11 c 1n. c n1 c nn. b n1 b nn ...

3.7 Eigenwerte und Eigenvektoren

8 Eigenwerttheorie I 8. EIGENWERTTHEORIE I 139. Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet:

6 Eigenwerte und Eigenvektoren

Ferienkurs Mathematik für Physiker I Skript Teil 3 ( )

Probeklausur Lineare Algebra 1 Achten Sie auf vollständige, saubere und schlüssige Argumentation! 100 Punkte sind 100%. Inhaltsverzeichnis

Lösung zu Serie Bestimme die Jordansche Normalform und eine zugehörige Basiswechselmatrix der folgenden reellen Matrizen: A := B :=

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Transkript:

4 Letzte Themen der linearen Algebra 4.1 Ergänzungen zum Matrizenkalkül Sind A, B Matrizen über Ã, für die das Produkt AB erklärt ist, so gilt (AB) T = B T A T. Mit C = AB gilt c ij = k a ik b kj c T ij = c ji = k a jk b ki = k b T ik at kj = (BT A T ) ij. Eine ähnliche Formel gilt für die Inverse des Produkts zweier regulärer Matrizen A, B Ã n n : (AB) 1 = B 1 A 1, wegen (AB)(B 1 A 1 ) = A(B 1 B)A 1 = E n. Für eine reguläre Matrix A Ã n n ist es gleichgültig, ob man zuerst transponiert und dann invertiert oder umgekehrt: (A 1 ) T = (A T ) 1 wegen (A 1 ) T A T = (AA 1 ) T = E n, also ist A T die Inverse von (A 1 ) T. Wir schreiben daher auch manchmal A T anstatt (A 1 ) T oder (A T ) 1. 4.2 Permutationen Eine Permutation π ist eine bijektive Abbildung der Menge {1,..., n} auf sich selbst. Statt π(i) = a i {1,...,n} schreiben wir kürzer (a 1, a 2,...,a n ). Beispielsweise wird die Permutation π(1) = 2, π(2) = 3, π(3) = 1 kurz (2, 3, 1) geschrieben. Die Anzahl der Permutationen bestimmen wir, indem wir uns vorstellen, dass wir die Zahlen 1,...,n auf n Fächer verteilen, die ebenfalls mit 1,...,n nummeriert sind. Wir haben n Möglichkeiten, in das erste Fach eine Zahl zu legen. Danach bleiben nur n 1 Möglichkeiten, das zweite Fach zu besetzen. Insgesamt gibt es also n! = 1 2... n Permutationen der Menge 1,...,n. Die Vertauschung zweier benachbarter Fächer nennen wir eine elementare Permutation. Jede Permutation lässt sich durch eine Folge elementarer Permutationen aus der Identität (1, 2,...,n) erzeugen. Wir bringen als erstes das Element a 1 an die erste Position und verfahren mit den folgenden Elementen genauso. Beispielsweise erzeugen wir (2, 4, 1, 3) durch (1, 2, 3, 4) (2, 1, 3, 4) (2, 1, 4, 3) (2, 4, 1, 3). Die Anzahl der Fehlstellen einer Permutation π ist F(π) = {(i, j) : i < j und π(i) > π(j) für 1 i < j n} Wie immer bezeichnen wir mit M die Kardinalität der Menge M. Die Anzahl der Fehlstellen der Identität (1, 2,...,n) ist Null, die Anzahl der Fehlstellen der Permutation (n, n 1,...,1) ist n(n 1). 1 2 Das Signum oder Vorzeichen einer Permutation π ist { 1 falls F(π) gerade sign (π) = 1 falls F(π) ungerade. 20

Wir nennen eine Permutation gerade, wenn sign (π) = 1, andernfalls ungerade. Jede Permutation lässt sich auf vielfältige Weise durch Hintereinanderschaltung von einfachen Permutationen, bei denen nur π(i) und π(j) vertauscht werden, erzeugen. Es ist interessant und zunächst gar nicht offensichtlich, dass man bei einer geraden Permutation immer eine gerade Zahl von einfachen Permutationen benötigt, um sie zu erzeugen. Jede einfache Permutation lässt sich nur durch eine ungerade Zahl von elementaren Permutationen erzeugen. Bei einer elementaren Permutation ändert sich die Anzahl der Fehlstellen um ±1, gleiches gilt demnach auch für eine einfache Permutation. 4.3 Determinanten Die Determinante ist eine Abbildung det : à n n Ã. Historisch gesehen hat es verschiedene äquivalente Definitionen gegeben. Wir wählen hier die Leibnizsche Definition aus, mit der man die Determinante unmittelbar berechnen kann. Wir definieren die Determinante durch (4.1) det A = π n sign(π) a i π(i). i=1 In jedem einzelnen Summanden kommt aus jeder Zeile und jeder Spalte der Matrix nur ein Element vor. Bei n = 2 gibt es nur zwei Permutationen, nämlich die Identität mit positivem Signum und die Vertauschung von 1 und 2 mit negativem Signum. Daher gilt für A = (a ij ) 1 i,j 2 deta = a 11 a 22 a 12 a 21. Für n = 3 haben wir die drei einfachen Permutationen mit negativem Signum (1, 3, 2), (3, 2, 1), (2, 1, 3), die übrigen haben Signum 1, nämlich (1, 2, 3), (2, 3, 1), (3, 1, 2). Für eine (3 3)-Matrix gilt daher deta = a 11 a 22 a 33 + a 12 a 23 a 31 + a 13 a 21 a 32 a 11 a 23 a 32 a 13 a 22 a 31 a 12 a 21 a 33. Es gilt offenbar dete n = 1. Für eine rechte obere (oder linke untere) Dreiecksmatrix R = (r ij ) gilt (4.2) detr = Das ist leicht einzusehen, weil nur Permutationen mit π(1) = 1 nichtverschwindende Werte liefern können. Bei π(2) ist es ähnlich: π(2) = 1 ist durch π(1) schon vergeben, bleibt also nur π(2) = 2, um etwas Nichtverschwindendes zu erreichen. Für eine (n n)-matrix A bezeichnen wir mit A ij à (n 1) (n 1) die Matrix, die aus A durch Streichen der i-ten Zeile und der j-ten Spalte hervorgeht. Satz 4.1 (Entwicklungssatz von Laplace) Die Determinante einer Matrix A à n n lässt sich mit den folgenden Formeln nach einer Zeile oder einer Spalte entwickeln n i=1 r ii deta = ( 1) i+j a ij deta ij (Entwicklung nach der i-ten Zeile) deta = ( 1) i+j a ij deta ij i=1 (Entwicklung nach der j-ten Spalte). 21

Ein richtiger Satz ist das eigentlich nicht: Man stellt in der Leibnizschen Definition der Determinante nur fest, in welchen Summanden das Element a ij vorkommt. Der Rechenaufwand zur Berechnung der Determinante nach der Laplace-Formel ist genauso gewaltig wie nach der Definition. Für n = 3 erhalten wir bei Entwicklung nach der ersten Spalte ( ) ( ) ( ) a22 a deta =a 11 det 23 a12 a a a 32 a 21 det 13 a12 a + a 33 a 32 a 31 det 13 33 a 22 a 23 =a 11 (a 22 a 33 a 32 a 23 ) a 21 (a 12 a 33 a 32 a 13 ) + a 31 (a 12 a 23 a 22 a 13 ). Sind a 1,...,a n à n,1 die Spaltenvektoren von A, so schreiben wir A = (a 1 a 2... a n ) Satz 4.2 Die Determinante ist eine alternierende Multilinearform in den Spalten von A. Das heißt: (a) Ist b à n,1 ein beliebiger Spaltenvektor, so gilt det(a 1... a i 1 a i + b a i+1...) = deta + det(a 1... a i 1 b a i+1...). (b) Für α à gilt det(a 1... a i 1 αa i a i+1...) = α deta. (c) Besitzt A zwei identische Spalten, so gilt deta = 0. Beweis: (a) In der Definition der Determinante (4.1) kommt in jedem Summanden genau ein Element der i-ten Spalte vor. Wenn also die i-te Spalte durch a i +b ersetzt wird, ist dieses Element von der Form a ij + b j und kann mit dem Distributivgesetz auseinandergezogen werden. (b) Wird die i-te Spalte durch αa i ersetzt, erscheint in jedem Summanden von (4.1) ein αa ij an Stelle von a ij. Dieses α kann daher aus der Summe ausgeklammert werden. (c) Wir verwenden Induktion über n. Für n = 2 ist die Behauptung richtig. Denn wenn A à 2 2 zwei identische Spalten besitzt, verschwindet ihre Determinante. Für den Schluss n n + 1 entwickeln wir die Determinante mit Satz 4.1 nach der ersten Zeile. Enthält A 1,l die beiden identischen Spalten, so verschwindet ihre Determinante nach Induktionsvoraussetzung. Sind l, l die beiden identischen Spalten, so besitzen ( 1) l+1 deta l,1 und ( 1) l +1 deta l,1 entgegengesetztes Vorzeichen. Bemerkung 4.3 Die Determinante ist ebenso eine alternierende Multilinearform in den Zeilen der Matrix. Die Aussagen (a)-(c) im letzten Satz bleiben richtig, wenn man das Wort Spalte durch Zeile ersetzt. Die Beweise sind genauso einfach. Bemerkung 4.4 In einer alternierenden Multilinearform wechselt das Vorzeichen, wenn die Komponenten vertauscht werden. Entsteht A aus A durch Vertauschung zweier Zeilen oder Spalten, so gilt deta = deta. Zu beweisen brauchen wir dieses Prinzip nur für eine alternierende Multilinearform a(v 1, v 2 ) in zwei Komponenten. Es gilt 0 = a(v 1 + v 2, v 1 + v 2 ) = a(v 1 + v 2, v 1 ) + a(v 1 + v 2, v 2 ) = a(v 1, v 1 ) + a(v 2, v 1 ) + a(v 1, v 2 ) + a(v 2, v 2 ) = a(v 2, v 1 ) + a(v 1, v 2 ) Man beachte, dass bei αa das α in jeder Zeile erscheint, daher detαa = α n det A. Satz 4.5 (Multiplikationssatz für Determinanten) Für (n n)-matrizen A, B gilt det AB = det A det B. 22

Beweis: Seien A = (a ik ), B = (b kj ), C = (c ij ) mit c ij = n k=1 a ikb kj. Mit der Definition der Determinante gilt dann det AB = π sign (π)c 1 π(1)... c n π(n) = π = π = ( sign (π) sign (π) 1 j 1,...,j n n j 1 =1 1 j 1,...,j n n a 1 j1 b j1 π(1) ) (... j n=1 a 1 jn b jn π(n) a 1 j1...a n jn b j1 π(1)...b jn π(n) [ ] a 1 j1... a n jn sign(π)b j1 π(1)...b jn π(n) Den Ausdruck in den eckigen Klammern können wir interpretieren als die Determinante der Matrix, die in der ersten Zeile die Zeile j 1 von B, in der zweiten Zeile die Zeile j 2 von B besitzt, oder allgemein: In der i-ten Zeile steht die Zeile j i. Bezeichnen wir diese Matrix mit B(j 1,...,j n ), so ist det AB = 1 j 1,...,j n n π a 1 j1...a n jn det B(j 1,...,j n ). Nach Bemerkung 4.3 verschwindet B(j 1,...,j n ) höchstens dann nicht, wenn die Zeilen paarweise verschieden sind. Daher brauchen wir die Summe nur über alle Permutationen der Zahlen 1,...,n zu erstrecken detab = a 1 π(1)...a n π(n) detb(π(1),..., π(n)). π Die Matrix B(π(1),..., π(n)) geht aus einer Permutation der Zeilen von B hervor. Aus Bemerkung 4.4 wissen wir, dass detb(π(1),..., π(n)) = signπ detb. ) Damit det AB = π a 1 π(1)...a n π(n) sign π det B. = deta detb. Korollar 4.6 Für eine reguläre Matrix gilt Beweis: Nach der Multiplikationsformel gilt deta 1 = 1 deta. 1 = det E n = det(aa 1 ) = det A det A 1. Die beiden bisher vorgestellten Möglichkeiten zur Berechnung der Determinante, nämlich die Definition und der Entwicklungssatz von Laplace, benötigen n! Summanden und kommen ab n 4 kaum noch in Frage. Stattdessen lässt sich die Determinante sehr einfach aus dem Gaußschen Eliminationsverfahren bestimmen. Wir hatten dort die Matrix A durch eine Folge von Umformungen auf eine rechte obere Dreiecksmatrix gebracht. Genauer gibt es Permutationsmatrizen P k und Eliminationsmatrizen G k für k = 1,...,n 1 mit (4.3) R = G n 1 P n 1...G 1 P 1 A 23

mit einer rechten oberen Dreiecksmatrix R. Mit der Matrix P k wird die k-te Zeile mit einer anderen Zeile vertauscht oder es ist P k = E n, wenn keine Vertauschung notwendig ist. Die Anzahl der echten Vertauschungen sei l. G k ist ein Produkt von Matrizen G ik,α, um die k-te Spalte zu eliminieren. Die G i,k,α sind linke untere Dreiecksmatrizen mit lauter Einser in der Hauptdiagonalen, daher det G k = 1. Aus dem Multiplikationssatz für Determinanten und (4.3) folgt daher n (4.4) deta = ( 1) l detr = ( 1) l r ii. Wir fassen die wichtigsten Eigenschaften der Determinante zusammen: Satz 4.7 (a) Eine Matrix ist genau dann regulär, wenn det A 0. (b) Es gilt det A = det A T. (c) Ist à =, so deta = deta. (d) Entsteht A aus A, indem zwei Zeilen oder zwei Spalten von A vertauscht werden, so gilt det A = det A. Beweis: (a) folgt aus (4.4). (b) folgt aus (4.3), indem man diese Formel transponiert. (c) Das beweist man direkt aus der Definition. i=1 4.4 Adjunkte und Cramersche Regeln Sei A à n n. Wie im vorigen Abschnitt bezeichnen wir mit A ij die Matrix in à (n 1) (n 1), die aus der Matrix A hervorgeht, wenn wir die i-te Zeile und j-te Spalte streichen. Das Element â ij = ( 1) i+j deta ji heißt (i, j)-ter Komplementärwert der Matrix A (A ji ist kein Schreibfehler!). Die Matrix  = â 11. â n1 Heißt Komplementärmatrix oder Adjunkte zu A.... â 1n.... â nn Lemma 4.8 Es gilt det A ÂA = A =... = deta E n. det A Beweis: Aus der Definition der â jk erhalten wir a ij â jk = ( 1) j+k a ij det A kj = det A, wobei A aus A hervorgeht, indem die k-te Zeile von A durch die i-te Zeile von A ersetzt wird. Das folgt aus dem Laplaceschen Entwicklungssatz 4.1. Falls k = i, so wurde an der Matrix nichts verändert und es gilt deta = deta. Andernfalls besitzt A zwei gleiche Zeilen und ihre Determinante verschwindet nach Bemerkung 4.3. 24

Satz 4.9 (Cramersche Regeln) Sei A Ã n n regulär. (a) Für die Inverse von A gilt A 1 = Â det A. (b) Für die Lösung des linearen Gleichungssystems Ax = b gilt x i = det(a 1... a i 1 b a i+1... a n ). deta Beweis: (a) Das folgt aus dem vorigen Lemma wegen det A 0. (b) Es gilt Der i-te Eintrag von Âb ist x = A 1 b = â ij b j = Âb deta. ( 1) i+j b j deta ji und die letzte Summe ist gleich der behaupteten Determinante nach dem Laplaceschen Entwicklungssatz. Die Cramerschen Regeln dienen theoretischen Zwecken, weil sie erlauben, die Inverse und die Lösung eines LGS geschlossen hinzuschreiben. Für n > 2 sind sie aber viel zu aufwendig. Für n = 2 bekommt man für die Inverse eine Formel, die man auswendig können sollte, ( ) 1 a b = Â ( ) c d det A = 1 d b. ad bc c a 4.5 Das Eigenwertproblem und die Jordansche Normalform Ähnliche Matrizen Zwei Matrizen A, B Ã n n heißen ähnlich, wenn es eine reguläre Matrix T Ã n n gibt mit (4.5) A = T 1 BT. Ähnlichkeit ist eine Äquivalenzrelation auf dem Raum der (n n)-matrizen. Wegen A = E n AE n ist A zu sich selber ähnlich. In der Definition (4.5) wurde implizit die Symmetrie der Ähnlichkeit vorausgesetzt. Wir können aber in (4.5) nach B auflösen, B = TAT 1, also ist auch B zu A ähnlich. Ist A zu B und B zu C ähnlich, so A = T 1 BT, B = T 1 CT Nullstellen von Polynomen Sei A = T 1 T 1 CT T = (T T) 1 C(T T). p(x) = a n x n +... + a 1 x + a 0, a i, a n 0 ein Polynom vom Grad n. Wir sagen, q besitzt in x 0 eine Nullstelle der Vielfachheit k, wenn es ein Polynom q vom Grade n k gibt mit (4.6) p(x) = (x x 0 ) k q(x). Der Fundamentalsatz der Algebra besagt, dass die Summe der Vielfachheiten der Nullstellen gerade n ergibt. Im Reellen ist dieser Satz nicht richtig, wie das Polynom p(x) = x 2 + 1 beweist, das im Reellen keine Nullstellen besitzt. In (4.6) können wir aufgrund dieses Fundamentalsatzes auch die n k Nullstellen von q ausklammern. Sind x 1,...,x n die Nullstellen von p, die hier nicht alle verschieden sein müssen, so können wir schreiben (4.7) p(x) = a n (x x 1 )...(x x n ). 25

Das Eigenwertproblem Wir betrachten Eigenwertprobleme nur über dem Körper. Wenn eine Matrix reellwertig ist, ist sie auch eine Matrix über. Sei A n n. λ heißt Eigenwert von A, wenn Ax = λx für ein x n \ {0}. x ist dann Eigenvektor zu λ. Insbesondere ist U = span {x} ein invarianter Raum, d.h. AU U. λ ist genau dann Eigenwert, wenn die Matrix A λe n singulär ist und damit das charakteristische Polynom von A φ(µ) = det(a µe n ) in λ eine Nullstelle besitzt. Die Größe σ(λ) = Vielfachheit der Nullstelle λ in φ heißt algebraische Vielfachheit von λ. Nach dem im vorigen Abschnitt Gesagten ist die Summe der algebraischen Vielfachheiten der Eigenwerte n. Der Vektorraum heißt Eigenraum zu λ. Ferner heißt L(λ) = {x n : Ax = λx} ρ(λ) = diml(λ) geometrische Vielfachheit von λ. ρ(λ) ist die Zahl der linear unabhängigen Eigenvektoren zu λ. Satz 4.10 (a) Ist p(µ) ein Polynom und gilt Ax = λx für ein x 0, so besitzt p(a) ebenfalls den Eigenvektor x zum Eigenwert p(λ). (b) λ ist genau dann Eigenwert von A, wenn λ Eigenwert von A ist. Insbesondere: Ist die Matrix A reellwertig, so ist mit einem komplexen Eigenwert λ von A auch λ Eigenwert von A. (c) A und A T besitzen die gleichen Eigenwerte. (d) Die Determinante von A stimmt mit dem Produkt aller Eigenwerte von A überein. (e) Ähnliche Matrizen besitzen das gleiche charakteristische Polynom, also auch die gleichen Eigenwerte. Wenn B = T 1 AT und A besitzt den Eigenwert λ mit Eigenvektor x, so besitzt B den Eigenwert λ mit Eigenvektor T 1 x. Beweis: (a) Aus Ax = λx folgt A k x = λ k x und p(a)x = a m A m x +... + a 0 x = p(λ)x. (b) Nach Satz 4.7(b) gilt det(a λe n ) = det(a λe n ). (c) Das folgt aus 4.7(c) (d) In φ(µ) = det(a µe n ) = ( 1) n (µ λ 1 )...(µ λ n ) (vergleiche (4.7) setze man µ = 0. (e) Mit dem Determinantenmultiplikationssatz folgt det(b λe n ) = det(t 1 AT λe n ) = det ( T 1 (A λe n )T ) = dett 1 det(a λe n )det T = det(a λe n ). Ferner gilt BT 1 x = T 1 Ax = T 1 (λx) = λt 1 x. 26

Beispiel 4.11 Das Jordan-Kästchen der Länge ν zum Eigenwert λ ist definiert durch λ 1 0...... (4.8) C ν (λ) =... 1 ν ν. 0 λ Wegen det(c ν (µ) λe n ) = (µ λ) ν ist λ Eigenwert mit σ(λ) = ν, aber x = e 1 ist einziger Eigenvektor von C ν, also ρ(λ) = 1. Damit ist gezeigt, dass algebraische und geometrische Vielfachheit nicht übereinstimmen müssen. Es gilt aber ρ(λ) σ(λ). Die Jordansche Normalform Es sei an die Definition des Jordan-Kästchens C ν (λ) in (4.8) erinnert. Satz 4.12 Sei A n n, λ 1,...,λ k seien die Eigenwerte von A mit geometrischen bzw. algebraischen Vielfachheiten ρ(λ i ) und σ(λ i ). Zu jedem λ i gibt es Zahlen ν (i) 1,...,ν(i) ρ(λ i ) mit σ(λ i ) = ν (i) 1 +... + ν (i) ρ(λ i ) und eine reguläre Matrix T n n mit J = T 1 AT, C (1) ν (λ 1 ) 1... 0 C (1) ν (λ 1 ) ρ(λ J = 1 ) C (2) ν (λ 2 ) 1. 0.. C ν (k) (λ k ) ρ(λ k ) J ist bis auf die Reihenfolge der Jordan-Kästchen eindeutig bestimmt. Beweis: Den Beweis ist sehr aufwändig. Diagonalisierbare Matrizen Eine Matrix heißt diagonalisierbar, wenn für alle Eigenwerte λ i gilt ρ(λ i ) = σ(λ i ). Wenn man dann mehrfache Eigenwerte auch mehrfach zählt, folgt wegen ν (i) j = 1, λ 1 0 J =.... 0 λ n Anders ausgedrückt: Im diagonalisierbaren Fall gibt es eine Basis aus Eigenvektoren {x 1,...,x n } und die Matrix T hat die Gestalt T = (x 1... x n ). 27

Beispiel 4.13 Wir bestimmen die Eigenwerte und Eigenvektoren der Matrix 1 2 1 A = 1 2 2. 0 0 2 Wir berechnen das charakteristische Polynom 1 λ 2 1 det(a λe 3 ) = det 1 2 λ 2 0 0 2 λ = (1 λ)(2 λ) 2 1 2(2 λ) = (2 λ) ( (1 λ)(2 λ) 2 ) = (2 λ)(2 3λ + λ 2 2) = (2 λ)λ(λ 3). Wir haben also die drei einfachen Eigenwerte λ 1 = 2, λ 2 = 0, λ 3 = 3. Die Kernvektoren von A λ i E 3 bestimmen wir mit dem Gauß-Algorithmus. 1 2 1 1 2 1 A 2E 3 = 1 0 2 0 2 3. 0 0 0 0 0 0 Die ersten beiden Spaltenvektoren spannen das Bild auf. Wir setzen daher x 3 = 1 und erhalten aus (A 2E 3 )x = 0 für die anderen Komponenten x 2 = 3 2, x 1 = 2. Man kann hier noch die Probe machen: 4 2 Ax = 3 = 2 3/2. 2 1 1 2 1 A 0E 3 = 1 2 2 1 2 1 0 0 1 1 2 1 0 0 1. 0 0 2 0 0 2 0 0 0 Hier spannen die Spalten 1 und 3 das Bild auf. Wir setzen daher x 2 = 1 und erhalten x 3 = 0 und x 1 = 2. Die Probe kann man leicht im Kopf durchführen. 2 2 1 2 2 1 2 2 1 A 3E 3 = 1 1 2 0 0 5/2 0 0 5/2. 0 0 1 0 0 1 0 0 0 Wie zuvor setzen wir x 2 = 1 und erhalten x 3 = 0, x 1 = 1. Insgesamt erhalten wir eine Basis aus Eigenvektoren 2 2 1 T = 3/2 1 1 1 0 0 und es gilt 2 0 0 0 0 0 = T 1 AT. 0 0 3 28