1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen

Ähnliche Dokumente
37 Gauß-Algorithmus und lineare Gleichungssysteme

Lineare Abbildungen. i=0 c ix i n. K n K m

Lineare Algebra I Zusammenfassung

Lineare Gleichungssysteme - Grundlagen

Lineare Algebra I (WS 13/14)

2.2 Kern und Bild; Basiswechsel

Lineare Gleichungssysteme

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

( ) Lineare Gleichungssysteme

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Matrizen, Determinanten, lineare Gleichungssysteme

Kap 5: Rang, Koordinatentransformationen

Lineare Algebra I: Eine Landkarte

9.2 Invertierbare Matrizen

Lineare Abbildungen und Darstellungsmatrizen

Vektorräume und Rang einer Matrix

4. Vektorräume und Gleichungssysteme

Lineare Gleichungssysteme

Technische Universität München Zentrum Mathematik. Übungsblatt 7

2 Die Dimension eines Vektorraums

(Allgemeine) Vektorräume (Teschl/Teschl 9)

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

3.4 Der Gaußsche Algorithmus

Rang und Inverses einer Matrix

[UV2] bedeutet Abgeschlossenheit bezüglich der Addition, [UV3] ist die Abgeschlossenheit bzgl. der Skalarmultiplikation. Bezeichnung U V.

45 Eigenwerte und Eigenvektoren

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

4 Affine Koordinatensysteme

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A

Lineare Gleichungssysteme

Lösung Semesterendprüfung (Nachprüfung)

4.13. Permutationen. Definition. Eine Permutation der Elementen {1,..., n} ist eine bijektive Abbildung

KLAUSUR ZUR LINEAREN ALGEBRA I 22. Februar 2008

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

Euklidische und unitäre Vektorräume

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7

4 Lineare Algebra (Teil 2): Quadratische Matrizen

Lineare Abbildungen und Gleichungssysteme

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

9 Vektorräume mit Skalarprodukt

Kapitel 11. Bilinearformen über beliebigen Bilinearformen

Eigenwerte und Diagonalisierung

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:

Sesqui- und Bilinearformen

:= 1. Der affine Unterraum Γ heißt Punkt, Gerade, Ebene oder Hyperebene, wenn dim K dim K

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Übungen zur Linearen Algebra 1

Übungen zu Einführung in die Lineare Algebra und Geometrie

II. Lineare Gleichungssysteme. 10 Matrizen und Vektoren. 52 II. Lineare Gleichungssysteme

x LINEARE GLEICHUNGSSYSTEME In diesem Paragraph beginnen wir mit einer elementaren Behandlung linearer Gleichungssysteme Bevor wir versuchen eine allg

6 Eigenwerte und Eigenvektoren

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2.

Die Dimension eines Vektorraumes

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Quadratische Matrizen

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger

Lineare Gleichungssysteme

6. Übungsblatt zur Mathematik I für Maschinenbau

Lineare Gleichungssysteme

Kapitel 15. Lösung linearer Gleichungssysteme

Mathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11

Allgemeines Gleichungssystem mit zwei Gleichungen und zwei Variablen. Der erste Index bezeichnet die Nummer der Zeile, der zweite die der Spalte.

Serie 10: Inverse Matrix und Determinante

Lösung Test 1 (Nachprüfung)

Gegeben sei eine Menge V sowie die Verknüpfung der Addition und die skalare Multiplikation der Elemente von V mit reellen Zahlen.

Lineare Algebra. I. Vektorräume. U. Stammbach. Professor an der ETH-Zürich

Es wurde in der Vorlesung gezeigt, daß man die Matrixgleichung Ax=b auch in der Form

6 Hauptachsentransformation

Copyright, Page 1 of 5 Die Determinante

Mathematik für Wirtschaftswissenschaftler im WS 2013/14 Lösungen zu den Übungsaufgaben (Vortragsübung) Blatt 7

Kapitel 17. Determinanten

Lineare Gleichungssysteme

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

2 Die Darstellung linearer Abbildungen durch Matrizen

Lineare Algebra und analytische Geometrie I

Lineare Algebra I Klausur. Klausur - Musterlösung

Kapitel III. Lineare Abbildungen

4.4. Rang und Inversion einer Matrix

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014

V DETERMINANTEN In diesem Kapitel entwickeln wir die Theorie der Determinanten Die folgenden Beispiele sollen die Einfuhrung dieses Begries motivieren

Lösungen zum 3. Aufgabenblatt

1 0 1, V 3 = M, und λ A = λa

Lösungen Serie 6 (Vektorräume, Skalarprodukt)

Lineare Algebra und analytische Geometrie I (Unterrichtsfach) Lösungsvorschlag

Aufgaben zu Kapitel 14

Definition Sei V ein Vektorraum, und seien v 1,..., v n V. Dann heißt eine Linearkombination. n λ i = 1. mit. v = v i λ i.

Übungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung.

Inverse Matrix. 1-E Ma 1 Lubov Vassilevskaya

Mathematik II für Bauwesen. Ivan Izmestiev

Lineare Algebra II, Lösungshinweise Blatt 9

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.

Lineare Algebra und analytische Geometrie I

2 Einführung in die lineare Algebra

Anhang A. Etwas affine Geometrie. A.1 Die affine Hülle

Lineare Algebra und Numerische Mathematik für D-BAUG

Transkript:

1 Zum Aufwärmen 1.1 Notationen In diesem Teil der Vorlesung bezeichnen wir Körper mit K, Matrizen mit Buchstaben A,B,..., Vektoren mit u,v,w,... und Skalare mit λ,µ,... Die Menge der m n Matrizen bezeichnen wir mit K (m,n). Die Menge K n ist die Menge der Spaltenvektoren. Die Einheitsmatrix der Größe n n ist I n. Abbildungen (ob linear oder nicht) bezeichnen wir mit φ,ψ,ϕ,..., also genauso wie Skalare, das sollte aber nicht zu Missverständnissen führen. Wenn wir zwei Abbildungen ϕ 1 : A B und ϕ 2 : B C haben, dann ist ϕ 2 ϕ 1 : A B diejenige Abbildung, die dem Element x A das Element ϕ 2 (ϕ 1 (a)) zuordnet. Abbildungen werden also von rechts nach links abgearbeitet. Basen sind hier stets als geordnete Basen zu interpretieren. Die kanonische Basis von K n bezeichnen wir mit E n. Den Körper mit p Elementen (p prim) bezeichnen wir mit F p (modulo p Arithmetik). 1.2 Lineare Abbildungen und Matrizen Wenn V = K n und W = K m und A K (m,n), so ist durch x Ax eine lineare Abbildung K m K n definiert. Wir bezeichnen diese Abbildung mit ϕ A. Dann gilt: Satz 1.1. Seien V = K n, W = K m, U = K l. Ferner sei A K (m,n) und B K (l,m). Dann gilt ϕ B ϕ A (x) = B A x, d.h. die Hintereinanderausführung der zu A und B gehörenden linearen Abbildungen entspricht der Matrixmultiplikation. Definition 1.2. Eine Matrix A K (n,n) heißt invertierbar, wenn es B K (n,n) gibt mit B A = I n. Bezeichnung: B = A 1. Bemerkung 1.3. ϕ A 1 = (ϕ A ) 1. Proposition 1.4. A A 1 = I n. Beweis. ϕ A 1 ϕ A = ϕ A ϕ A 1 weil die Inverse einer Abbildung sowohl rechtsals auch links-invers ist. 1.3 Darstellungsmatrizen Die Frage ist nun, ob Matrizen auch etwas mit linearen Abbildungen zu tun haben, wenn wir abstrakte Vektorräume haben und nicht konkret den K n und K m. Die Antwort ist ein klares ja, allerdings ist diese Darstellung basisabhängig. 1

Sei V ein Vektorraum der Dimension n mit einer Basis B = (b 1,...,b n ) (also eine geordenete Basis), so hat jeder Vektor v V eine eindeutige Darstellung Der Vektor v = [v] B := n b i λ i i=1 λ 1.. λ n heißt der Darstellungsvektor von v bezüglich der Basis B. Definition 1.5. Sei ϕ : V W eine lineare Abbildung zwischen zwei K- Vektorräumen V und W. Es sei B = (b 1,...,b n ) eine Basis von V und C = (c 1,...c m ) eine Basis von W. Dann heißt die m n-matrix [ϕ] B C := (α i,j ) i=1,...,m,j=1,...n die Darstellungsmatrix von ϕ bezüglich der Basen B und C, wobei die α i,j gegeben sind durch m ϕ(b j ) = c i α i,j. i=1 Satz 1.6. Sei ϕ : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Dabei sei B = (b 1,...,b n ) eine Basis von V und C = (c 1,...c m ) eine Basis von W. Dann gilt [ϕ(v)] C = [ϕ] B C [v] B. Beweis. Nachrechnen! Satz 1.7. Seien B = (b 1,...,b n ), C = (c 1,...,c p und D = (d 1,...,m) Basen von drei K-Vektorräumen U,V und W. Ferner seien ϕ : U V und ψ : V W zwei lineare Abbildungen. Dann gilt Beweis. Nachrechnen [ψ ϕ] B D = [ψ] C D [ϕ] B C. Das hat einige schöne Konsequenzen, beispielsweise Korollar 1.8 (Basiswechsel). Sei ϕ : V W eine lineare Abbildung. Ferner seien B und B zwei Basen von V, und C und C seien zwei Basen von W. Dann gilt [ϕ] B C = [id W ] C C [ϕ] B C [id V] B B. Korollar 1.9. Sei ϕ : V V eine lineare Abbildung, und seien B und C zwei (endliche) Basen von V. Dann gilt wobei P = [id] B C. [ϕ] B B = P 1 [ϕ] C C P, 2

Beweis. Beachten Sie, dass [id] C B [id]b C = [id]b B = I gilt, also [id]c B = ([id]b C ) 1. Beispiel 1.10. Vorlesung! 1.4 Lineare Gleichungsysteme Definition 1.11. Sei A K (m,n) Eine Gleichung der Form A x = b heißt lineares Gleichungssystem. Gilt b = 0, so nennen wir dieses Gleichungssystem homogen, sonst inhomogen. Bemerkung 1.12. Ein homogenes lineares Gleichungssytem hat immer eine Lösung, nämlich x = 0 (wobei 0 K n ). Ein inhomogenes System kann lösbar sein, oder auch nicht. Die Lösungen eines linearen Gleichungssystems sind in der Regel nicht eindeutig. Beispiel 1.13. Vorlesung! Satz 1.14. Die Lösungsmenge eines homogenen linearen Gleichungssystems wie in Definition 1.11 ist ein Unterraum von K n, nämlich genau der Kern der linearen Abbildung ϕ A : K n K m mit ϕ A (x) = A x. Die Dimension ist n dim(bild(ϕ A )). Sie haben bereits gelernt, dass man jede Matrix durch elementare Zeilenumformungen in zeilenreduzierte Form bringen kann: Definition 1.15. Eine Matrix A = (α i,j ) i=1,...,m,j=1...,n heißt zeilenreduziert, wenn es Zahlen 1 j 1 <... < j r n gibt mit α i,j = 0 für i > r. α i,ji 0 für i = 1,...,r. α i,j = 0 für j < j i. Die hier auftretende Zahl r ist der (Zeilen-)Rang von A. Wir nennen die Matrixinzeilenreduzierter Normalform,wennzusätzlichα k,ji = 0fürk < i gilt sowie α i,ji = 1 für i = 1,...,r. Definition 1.16. Zwei Matrizen A und B heißen zeilenäquivalent, wenn sie durch eine Folge elementarer Zeilenumformungen auseinander hervorgehen. Satz 1.17. Jede Matrix A ist zu einer Matrix B in zeilenreduzierter Form zeilenäquivalent. Dabei gilt: A x = 0 und B x = 0 haben dieselben Lösungsmengen. Jede Matrix ist zu genau einer Matrix in zeilenreduzierter Normalform zeilenäquivalent. 3

Bemerkung 1.18. Die Lösungen von Bx = 0 kann man leicht angeben, wenn B zeilenreduziert ist. Die Variablen x i mit i / {j 1,...,j r } kann man frei wählen (freie Variablen), die Variablen x j1,...x jr sind dann bestimmt. Bemerkung 1.19. Der Vektorraum, der von den Zeilen einer Matrix aufgespannt wird, ändert sich durch elementare Zeilenumformungen nicht. Die Dimension dieses Vektorraums ist der Rang der Matrix. Nun zeigen Sätze 1.14 und 1.17, dass sich die Dimension des Bildes der zugehörigen linearen Abbildung ϕ A nicht ändert. Das Bild der linearen Abbildung ist aber genau der Vektorraum, der von den Spalten der Matrix aufgespannt wird. Wir nennen die Dimension dieses Vektorraumes den Spaltenrang von A. Wir halten fest: Proposition 1.20. Für zwei zeilenäquivalente Matrizen A und B gilt, dass sie identische Zeilenräume haben. Die Dimensionen der Spaltenräume sind ebenfalls gleich (und man nennt dies den Spaltenrang der Matrix). Wir behaupten nicht, dass die Spaltenräume gleich sind: Die Spaltenräume ändern sich bei elementaren Zeilenumformungen, nicht aber ihre Dimension. Man erkennt an einer zeilenreduzierten Matrix, bestehend aus genau r Zeilen 0, sofort, dass der Spaltenraum die Dimension r hat, also gleich dem (Zeilen-) Rang der Matrix ist. Satz 1.21. Für jede Matrix A K (m,n) gilt Zeilenrang gleich Spaltenrang. Wir sprechen dann einfach vom Rang der Matrix, Rang(A). Korollar 1.22. Die Dimension des Lösungsraumes eines homogenen linearen Gleichungssystems wie in Definition 1.11 ist n Rang(A). Bleibt die Frage, wie es im inhomogenen Fall aussieht. Sicherlich ist die Lösungsmenge in dem Fall kein Unterraum mehr (weil ja der Nullvektor keine Lösung ist). Es gilt aber: Satz 1.23. Sei Ax = b ein inhomogenes lineares Gleichungsystem, und sei x 0 eine Lösung. Ferner sei U = {x K n : Ax = 0} (also die Lösungsmenge des zugehörigen homogenen Gleichungssystems). Dann gilt {x K n : Ax = b} = U +x 0, wobei U +x 0 = {u+x 0 : u U}. (1) Definition 1.24. Sei V ein K-Vektorraum. Eine Teilmenge A V heißt ein affiner Unterraum von V, wenn es einen linearen Unterraum U V und einen Vektor x 0 gibt mit A = U +x 0 (wie in in (1)). Bleibt die Frage, wie wir eine Matrix in zeilenreduzierte (Normal)form bringen können: (0.) Setze i = 1. Die Zeilen der Matrix A seien a 1,...,a m. 4

(1.) Suche die erste Spalte j in A, die einen Eintrag α k,j 0 mit k i hat. Sonst STOP, es ist nichts mehr zu tun. Diese Spalte sei j i (2.) Durch Zeilenvertauschung erreiche α i,ji 0. (3.) Ersetze die Zeilen a k mit k > i in A durch a k α k,j i α i,ji a i. (4.) Die so erhaltene Matrix nennen wir nun A, wir erhöhen i um 1 (wenn schon i = m gilt: STOP) und gehen zu (1.). Man nennt dieses Verfahren die Gauß-Elimination. Wenn wir es etwas modifizieren, um eine Matrix in zeilenreduzierter Normalform zu erhalten, sprechen wir vom Gauss-Jordan-Verfahren. Wir müssen dann den Schritt (3.) auch für k < i durchführen und abschließend die Zeile i durch α i,ji dividieren. Satz 1.25. Mit Hilfe des oben beschriebenen Verfahrens kann man zu jeder Matrix A in endlich vielen Schritten eine zeilenäquivalente Matrix B in zeilenreduzierter Form finden. Beweis. Der entscheidende Schritt ist (3.) (man nennt dies auch einen Pivotschritt): Nach dem Pivotschritt gilt α k,ji = 0 für alle k > i. Es gilt sogar α k,j = 0 für alle k > i und j j i. Deshalb muss beim nächsten Aufruf von (3.) eine Spalte mit einem Index echt größer als j i gewählt werden, es gilt also j i+1 > j i. Deshalb bricht das Verfahren auch nach endlich vielen Schritten ab, und offensichtlich ist die Matrix dann in zeilenreduzierter Form. Wenn wir Ax = b lösen wollen, so wenden wir Gauß-Elimination auf die erweiterte Matrix (A b) an: Proposition 1.26. Seien A,A K (m,n) und b,b K m. Wenn (A b) zeilenäquivalent zu (A b ) ist, so haben Ax = b und Ax = b dieselben Lösungen. Beispiel 1.27. Vorlesung! Wir wollen uns noch einmal zeilenäquivalente Matrizen A und B anschauen. In Proposition 1.20 haben wir bereits notiert, dass A und B dann dieselben Zeilenräume haben. Sie sind nach Definition genau dann zeilenäquivalent, wenn es eine Folge elementarer Zeilenumformungen gibt, die wir auf A anwenden, um B zu erhalten. Da elementare Zeilenumformungen nichts anderes sind als Multiplikationen von links mit Elementarmatrizen, erhalten wir also eine Folge von Elementarmatrizen P 1,...,P s mit B = P s P 1 A. Es gibt also eine invertierbare Matrix P mit B = P A. Umgekehrt nehmen wir an, dass A und B denselben Zeilenraum erzeugen. Dann muss es eine (offenbar invertierbare) Matrix P geben mit B = P A. Dieses P selber ist das Produkt 5

von Elementarmatrizen: Um das zu sehen, wende auf P Gauss-Elimination an. Weil P vollen Rang hat, ist die einzige zeilenreduzierte Matrix, zu der P zeilenäquivalent ist, I, wir können also I aus P durch elementare Zeilenumformungen erhalten und umgekehrt, also ist P selber Produkt von Elementarmatrizen. Satz 1.28. Für je zwei Matrizen A,B K (m,n) sind die folgenden Aussagen äquivalent: (i) A und B sind zeilenäquivalent. (ii) Es gibt eine invertierbare Matrix P K (m,m) mit A = P B. (iii) Die Zeilenräume von A und B sind gleich. Beweis. Diskussion vor dem Satz. Satz 1.29. Seien P K (n,n). Dann sind äquivalent: (i) P ist invertierbar. (ii) P ist Produkt von Elementarmatrizen. (iii) Px = 0 hat genau eine Lösung. (iv) Px = b hat genau eine Lösung für ein b. (v) Px = b hat genau eine Lösung für alle b. (vi) P ist zeilenäquivalent zu I n. Beweis. Man zeigt leicht die Äquivalenz aller Aussagen zu (vi). Bleibt die Frage, wie wir P 1 finden. Dazu betrachten wir für ein gegebenes A Paare (P A ) mit der Eigenschaft P A = A. (2) Wenn wir beide Seiten mit einer Elementarmatrix Q multiplizieren, gilt weiterhin (QP )A = QA. Wenn wir mit dem Paar (I A) beginnen und wenn B = P s P 1 A gilt, so hat auch das Paar (P s P 1 B) die Eigenschaft (2). Um also P zu finden, beginnen wir mit dem Paar (I,A) und wenden auf die Matrix links stets dieselbe elementare Zeilenumformung an wie auf die rechte Matrix, bis wir ein Paar (P,B) erhalten, bei dem B zeilenreduziert ist. Dann gilt B = P A. Beispiel 1.30. Vorlesung! Wir können daraus ein sehr schönes Verfahren zum Invertieren einer quadratischen Matrix extrahieren. Sei dazu A K (n,n) und betrachte (I n A). Wende nun auf die linke und rechte Seite jeweils dieselben elementaren Zeilenumformungen an, bis auf der rechten Seite I n steht. Sollte das nicht möglich sein, war die Matrix nicht invertierbar, andernfalls steht dann links A 1. 6

Beispiel 1.31. Vorlesung! Korollar 1.32. Ist A eine untere Dreiecksmatrix und invertierbar, dann ist auch A 1 eine untere Dreiecksmatrix. Korollar 1.33 (LR-Zerlegung). Kann eine invertierbare Matrix A ohne Zeilenvertauschungen durch elementare Zeilenumformungen in eine obere Dreiecksmatrix transformiert werden, so gibt es eine untere Dreiecksmatrix L mit Diagonaleinträgen 1 sowie eine obere Dreiecksmatrix R mit LR = A. Beweis. P s P 1 A = R, wobei R zeilenreduziert ist (also obere Dreiecksmatrix), und die P i untere Dreiecksmatrizen sind: Weil wir ohne Zeilenvertauschungen auskommen, können wir als Pivotelemente stets die Diagonaleinträge wählen und dann Vielfache von Zeile i von den Zeilen k mit k > i abziehen. Diese Umformungen entsprechen Multiplikationen mit unteren Dreiecksmatrizen und Diagonaleinträgen 1. Auch die P 1 i Diagonaleinträgen 1, also A = P 1 1 P 1 P 1 1 P 1 s. sind untere Dreiecksmatrizen mit s R. Die untere Dreiecksmatrix L ist 7