1 Zum Aufwärmen 1.1 Notationen In diesem Teil der Vorlesung bezeichnen wir Körper mit K, Matrizen mit Buchstaben A,B,..., Vektoren mit u,v,w,... und Skalare mit λ,µ,... Die Menge der m n Matrizen bezeichnen wir mit K (m,n). Die Menge K n ist die Menge der Spaltenvektoren. Die Einheitsmatrix der Größe n n ist I n. Abbildungen (ob linear oder nicht) bezeichnen wir mit φ,ψ,ϕ,..., also genauso wie Skalare, das sollte aber nicht zu Missverständnissen führen. Wenn wir zwei Abbildungen ϕ 1 : A B und ϕ 2 : B C haben, dann ist ϕ 2 ϕ 1 : A B diejenige Abbildung, die dem Element x A das Element ϕ 2 (ϕ 1 (a)) zuordnet. Abbildungen werden also von rechts nach links abgearbeitet. Basen sind hier stets als geordnete Basen zu interpretieren. Die kanonische Basis von K n bezeichnen wir mit E n. Den Körper mit p Elementen (p prim) bezeichnen wir mit F p (modulo p Arithmetik). 1.2 Lineare Abbildungen und Matrizen Wenn V = K n und W = K m und A K (m,n), so ist durch x Ax eine lineare Abbildung K m K n definiert. Wir bezeichnen diese Abbildung mit ϕ A. Dann gilt: Satz 1.1. Seien V = K n, W = K m, U = K l. Ferner sei A K (m,n) und B K (l,m). Dann gilt ϕ B ϕ A (x) = B A x, d.h. die Hintereinanderausführung der zu A und B gehörenden linearen Abbildungen entspricht der Matrixmultiplikation. Definition 1.2. Eine Matrix A K (n,n) heißt invertierbar, wenn es B K (n,n) gibt mit B A = I n. Bezeichnung: B = A 1. Bemerkung 1.3. ϕ A 1 = (ϕ A ) 1. Proposition 1.4. A A 1 = I n. Beweis. ϕ A 1 ϕ A = ϕ A ϕ A 1 weil die Inverse einer Abbildung sowohl rechtsals auch links-invers ist. 1.3 Darstellungsmatrizen Die Frage ist nun, ob Matrizen auch etwas mit linearen Abbildungen zu tun haben, wenn wir abstrakte Vektorräume haben und nicht konkret den K n und K m. Die Antwort ist ein klares ja, allerdings ist diese Darstellung basisabhängig. 1
Sei V ein Vektorraum der Dimension n mit einer Basis B = (b 1,...,b n ) (also eine geordenete Basis), so hat jeder Vektor v V eine eindeutige Darstellung Der Vektor v = [v] B := n b i λ i i=1 λ 1.. λ n heißt der Darstellungsvektor von v bezüglich der Basis B. Definition 1.5. Sei ϕ : V W eine lineare Abbildung zwischen zwei K- Vektorräumen V und W. Es sei B = (b 1,...,b n ) eine Basis von V und C = (c 1,...c m ) eine Basis von W. Dann heißt die m n-matrix [ϕ] B C := (α i,j ) i=1,...,m,j=1,...n die Darstellungsmatrix von ϕ bezüglich der Basen B und C, wobei die α i,j gegeben sind durch m ϕ(b j ) = c i α i,j. i=1 Satz 1.6. Sei ϕ : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Dabei sei B = (b 1,...,b n ) eine Basis von V und C = (c 1,...c m ) eine Basis von W. Dann gilt [ϕ(v)] C = [ϕ] B C [v] B. Beweis. Nachrechnen! Satz 1.7. Seien B = (b 1,...,b n ), C = (c 1,...,c p und D = (d 1,...,m) Basen von drei K-Vektorräumen U,V und W. Ferner seien ϕ : U V und ψ : V W zwei lineare Abbildungen. Dann gilt Beweis. Nachrechnen [ψ ϕ] B D = [ψ] C D [ϕ] B C. Das hat einige schöne Konsequenzen, beispielsweise Korollar 1.8 (Basiswechsel). Sei ϕ : V W eine lineare Abbildung. Ferner seien B und B zwei Basen von V, und C und C seien zwei Basen von W. Dann gilt [ϕ] B C = [id W ] C C [ϕ] B C [id V] B B. Korollar 1.9. Sei ϕ : V V eine lineare Abbildung, und seien B und C zwei (endliche) Basen von V. Dann gilt wobei P = [id] B C. [ϕ] B B = P 1 [ϕ] C C P, 2
Beweis. Beachten Sie, dass [id] C B [id]b C = [id]b B = I gilt, also [id]c B = ([id]b C ) 1. Beispiel 1.10. Vorlesung! 1.4 Lineare Gleichungsysteme Definition 1.11. Sei A K (m,n) Eine Gleichung der Form A x = b heißt lineares Gleichungssystem. Gilt b = 0, so nennen wir dieses Gleichungssystem homogen, sonst inhomogen. Bemerkung 1.12. Ein homogenes lineares Gleichungssytem hat immer eine Lösung, nämlich x = 0 (wobei 0 K n ). Ein inhomogenes System kann lösbar sein, oder auch nicht. Die Lösungen eines linearen Gleichungssystems sind in der Regel nicht eindeutig. Beispiel 1.13. Vorlesung! Satz 1.14. Die Lösungsmenge eines homogenen linearen Gleichungssystems wie in Definition 1.11 ist ein Unterraum von K n, nämlich genau der Kern der linearen Abbildung ϕ A : K n K m mit ϕ A (x) = A x. Die Dimension ist n dim(bild(ϕ A )). Sie haben bereits gelernt, dass man jede Matrix durch elementare Zeilenumformungen in zeilenreduzierte Form bringen kann: Definition 1.15. Eine Matrix A = (α i,j ) i=1,...,m,j=1...,n heißt zeilenreduziert, wenn es Zahlen 1 j 1 <... < j r n gibt mit α i,j = 0 für i > r. α i,ji 0 für i = 1,...,r. α i,j = 0 für j < j i. Die hier auftretende Zahl r ist der (Zeilen-)Rang von A. Wir nennen die Matrixinzeilenreduzierter Normalform,wennzusätzlichα k,ji = 0fürk < i gilt sowie α i,ji = 1 für i = 1,...,r. Definition 1.16. Zwei Matrizen A und B heißen zeilenäquivalent, wenn sie durch eine Folge elementarer Zeilenumformungen auseinander hervorgehen. Satz 1.17. Jede Matrix A ist zu einer Matrix B in zeilenreduzierter Form zeilenäquivalent. Dabei gilt: A x = 0 und B x = 0 haben dieselben Lösungsmengen. Jede Matrix ist zu genau einer Matrix in zeilenreduzierter Normalform zeilenäquivalent. 3
Bemerkung 1.18. Die Lösungen von Bx = 0 kann man leicht angeben, wenn B zeilenreduziert ist. Die Variablen x i mit i / {j 1,...,j r } kann man frei wählen (freie Variablen), die Variablen x j1,...x jr sind dann bestimmt. Bemerkung 1.19. Der Vektorraum, der von den Zeilen einer Matrix aufgespannt wird, ändert sich durch elementare Zeilenumformungen nicht. Die Dimension dieses Vektorraums ist der Rang der Matrix. Nun zeigen Sätze 1.14 und 1.17, dass sich die Dimension des Bildes der zugehörigen linearen Abbildung ϕ A nicht ändert. Das Bild der linearen Abbildung ist aber genau der Vektorraum, der von den Spalten der Matrix aufgespannt wird. Wir nennen die Dimension dieses Vektorraumes den Spaltenrang von A. Wir halten fest: Proposition 1.20. Für zwei zeilenäquivalente Matrizen A und B gilt, dass sie identische Zeilenräume haben. Die Dimensionen der Spaltenräume sind ebenfalls gleich (und man nennt dies den Spaltenrang der Matrix). Wir behaupten nicht, dass die Spaltenräume gleich sind: Die Spaltenräume ändern sich bei elementaren Zeilenumformungen, nicht aber ihre Dimension. Man erkennt an einer zeilenreduzierten Matrix, bestehend aus genau r Zeilen 0, sofort, dass der Spaltenraum die Dimension r hat, also gleich dem (Zeilen-) Rang der Matrix ist. Satz 1.21. Für jede Matrix A K (m,n) gilt Zeilenrang gleich Spaltenrang. Wir sprechen dann einfach vom Rang der Matrix, Rang(A). Korollar 1.22. Die Dimension des Lösungsraumes eines homogenen linearen Gleichungssystems wie in Definition 1.11 ist n Rang(A). Bleibt die Frage, wie es im inhomogenen Fall aussieht. Sicherlich ist die Lösungsmenge in dem Fall kein Unterraum mehr (weil ja der Nullvektor keine Lösung ist). Es gilt aber: Satz 1.23. Sei Ax = b ein inhomogenes lineares Gleichungsystem, und sei x 0 eine Lösung. Ferner sei U = {x K n : Ax = 0} (also die Lösungsmenge des zugehörigen homogenen Gleichungssystems). Dann gilt {x K n : Ax = b} = U +x 0, wobei U +x 0 = {u+x 0 : u U}. (1) Definition 1.24. Sei V ein K-Vektorraum. Eine Teilmenge A V heißt ein affiner Unterraum von V, wenn es einen linearen Unterraum U V und einen Vektor x 0 gibt mit A = U +x 0 (wie in in (1)). Bleibt die Frage, wie wir eine Matrix in zeilenreduzierte (Normal)form bringen können: (0.) Setze i = 1. Die Zeilen der Matrix A seien a 1,...,a m. 4
(1.) Suche die erste Spalte j in A, die einen Eintrag α k,j 0 mit k i hat. Sonst STOP, es ist nichts mehr zu tun. Diese Spalte sei j i (2.) Durch Zeilenvertauschung erreiche α i,ji 0. (3.) Ersetze die Zeilen a k mit k > i in A durch a k α k,j i α i,ji a i. (4.) Die so erhaltene Matrix nennen wir nun A, wir erhöhen i um 1 (wenn schon i = m gilt: STOP) und gehen zu (1.). Man nennt dieses Verfahren die Gauß-Elimination. Wenn wir es etwas modifizieren, um eine Matrix in zeilenreduzierter Normalform zu erhalten, sprechen wir vom Gauss-Jordan-Verfahren. Wir müssen dann den Schritt (3.) auch für k < i durchführen und abschließend die Zeile i durch α i,ji dividieren. Satz 1.25. Mit Hilfe des oben beschriebenen Verfahrens kann man zu jeder Matrix A in endlich vielen Schritten eine zeilenäquivalente Matrix B in zeilenreduzierter Form finden. Beweis. Der entscheidende Schritt ist (3.) (man nennt dies auch einen Pivotschritt): Nach dem Pivotschritt gilt α k,ji = 0 für alle k > i. Es gilt sogar α k,j = 0 für alle k > i und j j i. Deshalb muss beim nächsten Aufruf von (3.) eine Spalte mit einem Index echt größer als j i gewählt werden, es gilt also j i+1 > j i. Deshalb bricht das Verfahren auch nach endlich vielen Schritten ab, und offensichtlich ist die Matrix dann in zeilenreduzierter Form. Wenn wir Ax = b lösen wollen, so wenden wir Gauß-Elimination auf die erweiterte Matrix (A b) an: Proposition 1.26. Seien A,A K (m,n) und b,b K m. Wenn (A b) zeilenäquivalent zu (A b ) ist, so haben Ax = b und Ax = b dieselben Lösungen. Beispiel 1.27. Vorlesung! Wir wollen uns noch einmal zeilenäquivalente Matrizen A und B anschauen. In Proposition 1.20 haben wir bereits notiert, dass A und B dann dieselben Zeilenräume haben. Sie sind nach Definition genau dann zeilenäquivalent, wenn es eine Folge elementarer Zeilenumformungen gibt, die wir auf A anwenden, um B zu erhalten. Da elementare Zeilenumformungen nichts anderes sind als Multiplikationen von links mit Elementarmatrizen, erhalten wir also eine Folge von Elementarmatrizen P 1,...,P s mit B = P s P 1 A. Es gibt also eine invertierbare Matrix P mit B = P A. Umgekehrt nehmen wir an, dass A und B denselben Zeilenraum erzeugen. Dann muss es eine (offenbar invertierbare) Matrix P geben mit B = P A. Dieses P selber ist das Produkt 5
von Elementarmatrizen: Um das zu sehen, wende auf P Gauss-Elimination an. Weil P vollen Rang hat, ist die einzige zeilenreduzierte Matrix, zu der P zeilenäquivalent ist, I, wir können also I aus P durch elementare Zeilenumformungen erhalten und umgekehrt, also ist P selber Produkt von Elementarmatrizen. Satz 1.28. Für je zwei Matrizen A,B K (m,n) sind die folgenden Aussagen äquivalent: (i) A und B sind zeilenäquivalent. (ii) Es gibt eine invertierbare Matrix P K (m,m) mit A = P B. (iii) Die Zeilenräume von A und B sind gleich. Beweis. Diskussion vor dem Satz. Satz 1.29. Seien P K (n,n). Dann sind äquivalent: (i) P ist invertierbar. (ii) P ist Produkt von Elementarmatrizen. (iii) Px = 0 hat genau eine Lösung. (iv) Px = b hat genau eine Lösung für ein b. (v) Px = b hat genau eine Lösung für alle b. (vi) P ist zeilenäquivalent zu I n. Beweis. Man zeigt leicht die Äquivalenz aller Aussagen zu (vi). Bleibt die Frage, wie wir P 1 finden. Dazu betrachten wir für ein gegebenes A Paare (P A ) mit der Eigenschaft P A = A. (2) Wenn wir beide Seiten mit einer Elementarmatrix Q multiplizieren, gilt weiterhin (QP )A = QA. Wenn wir mit dem Paar (I A) beginnen und wenn B = P s P 1 A gilt, so hat auch das Paar (P s P 1 B) die Eigenschaft (2). Um also P zu finden, beginnen wir mit dem Paar (I,A) und wenden auf die Matrix links stets dieselbe elementare Zeilenumformung an wie auf die rechte Matrix, bis wir ein Paar (P,B) erhalten, bei dem B zeilenreduziert ist. Dann gilt B = P A. Beispiel 1.30. Vorlesung! Wir können daraus ein sehr schönes Verfahren zum Invertieren einer quadratischen Matrix extrahieren. Sei dazu A K (n,n) und betrachte (I n A). Wende nun auf die linke und rechte Seite jeweils dieselben elementaren Zeilenumformungen an, bis auf der rechten Seite I n steht. Sollte das nicht möglich sein, war die Matrix nicht invertierbar, andernfalls steht dann links A 1. 6
Beispiel 1.31. Vorlesung! Korollar 1.32. Ist A eine untere Dreiecksmatrix und invertierbar, dann ist auch A 1 eine untere Dreiecksmatrix. Korollar 1.33 (LR-Zerlegung). Kann eine invertierbare Matrix A ohne Zeilenvertauschungen durch elementare Zeilenumformungen in eine obere Dreiecksmatrix transformiert werden, so gibt es eine untere Dreiecksmatrix L mit Diagonaleinträgen 1 sowie eine obere Dreiecksmatrix R mit LR = A. Beweis. P s P 1 A = R, wobei R zeilenreduziert ist (also obere Dreiecksmatrix), und die P i untere Dreiecksmatrizen sind: Weil wir ohne Zeilenvertauschungen auskommen, können wir als Pivotelemente stets die Diagonaleinträge wählen und dann Vielfache von Zeile i von den Zeilen k mit k > i abziehen. Diese Umformungen entsprechen Multiplikationen mit unteren Dreiecksmatrizen und Diagonaleinträgen 1. Auch die P 1 i Diagonaleinträgen 1, also A = P 1 1 P 1 P 1 1 P 1 s. sind untere Dreiecksmatrizen mit s R. Die untere Dreiecksmatrix L ist 7