Mathematik für Informatiker 1

Größe: px
Ab Seite anzeigen:

Download "Mathematik für Informatiker 1"

Transkript

1 Mathematik für Informatiker Vorlesungsskriptum Wintersemester 20/202 Gabriele Kern-Isberner Bernhard Steffen Oliver Rüthing unter Mitwirkung von Sibylle Hess und Timo Stöcker Fakultät für Informatik Technische Universität Dortmund 20

2 2 Mathematik für Informatiker I Teil II Lineare Algebra Der zweite Teil des Skriptes zur Mathematik für Informatiker I ist der Linearen Algebra gewidmet und beschäftigt sich mit Strukturen in Vektorräumen, wobei die Begriffe Vektor und Matrix Schlüsselkonzepte darstellen Vektoren und Matrizen tauchen in vielen Anwendungen auf, Vektoren oft als Tupel, mit denen Objekte beschrieben werden, Matrizen als Schemata, die Zusammenhänge darstellen, zb zur Beschreibung der Abhängigkeiten von Variablen in linearen Gleichungssystemen Die Rolle der Homomorphismen als strukturerhaltende Abbildungen zwischen Vektorräumen wird von den linearen Abbildungen übernommen Eines der wichtigsten Resultate dieses zweiten Teils ist die Ausarbeitung der sehr engen Beziehung zwischen Matrizen und linearen Abbildungen, so dass man unter gewissen Rahmenbedingungen diese beiden Konzepte eindeutig aufeinander abbilden und damit wichtige Definitionen wie Rang, Invertierbarkeit etc übertragen kann Wir schließen diesen Teil mit einer skizzenhaften Betrachtung von Anwendungen der linearen Algebra in der Informatik Disclaimer Version: Dies ist Version 0 des Skriptes, in dem noch Fehler enthalten sein können, insbesondere Druckfehler und falsche Referenzen Über entsprechende Hinweise freuen wir uns Disclaimer Literatur: Inhalte und Aufbau dieses Skriptes orientieren sich stark an [3] außerdem wurden die Literaturquellen [] und [2] verwendet (s Literaturverzeichnis am Ende des Skriptes) Danksagung: Wir möchten den engagierten studentischen Hilfskräften danken, ohne deren Unterstützung Folien und Skript zu dieser Vorlesung kaum erstellt worden wären Diana Howey hat sich insbesondere um die Folien verdient gemacht Sibylle Hess hat ganz wesentlich am Skript mitgearbeitet und auch eigene Texte (insbesondere in den Kapiteln 2 und 3) beigesteuert, um die Inhalte besser verständlich zu machen Timo Stöcker und Sibylle Hess haben das Eigenfaces- Beispiel in Kapitel 3 für Vorlesung und Skript aufbereitet

3 Inhaltsverzeichnis 0 Vektorräume 5 0 Definition und Geometrie von Vektoren 5 02 Teilräume 4 03 Linearkombinationen und Erzeugendensysteme 8 04 Lineare Abhängigkeiten und lineare Unabhängigkeiten Basis und Dimension 26 Lineare Gleichungssysteme 38 Definitionen und Beispiele 38 2 Das Gau sche Eliminationsverfahren 4 3 Invertieren von Matrizen 50 2 Lineare Abbildungen und Matrizen 54 2 Lineare Abbildungen Matrix einer linearen Abbildung Dimensionssatz und Homomorphiesatz 7 24 Hauptsatz über lineare Gleichungssysteme Algebra der linearen Abbildungen 87 3 Determinanten und Eigenwerte 97 3

4 INHALTSVERZEICHNIS 4 3 Determinanten Eigenwerte Anwendung: Eigenfaces 5 33 Gesichtserkennung Beispiel 8

5 Kapitel 0 Vektorräume Vektorräume bilden eine zentrale Struktur in der linearen Algebra Ihre Struktur erlaubt es, die Elemente eines Vektorraums mit denen eines Körpers zu multiplizieren oder untereinander zu addieren Damit die Addition und die Multiplikation auf intuitive Weise erfolgen kann, werden einige Regeln zur Rechenweise in Vektorräumen eingeführt So stellt zum Beispiel in einem R-Vektorraum die Distributivität bezgl des Körpers ua sicher, dass v + v = 2 v ist (und nicht etwa 3 v o Ä) für ein beliebiges Element v des R-Vektorraums Es gibt geometrisch anschauliche Beispiele eines Vektorraums, wie zb die euklidische Ebene, aber auch abstraktere Strukturen wie den Vektorraum der linearen Abbildungen oder kurios anmutende Strukturen wie den Vektorraum aller magischen Quadrate In der Informatik finden Vektorräume der anschaulichen Art Anwendung zur Wegebestimmung, wie es z Bsp für einen Roboter, der Regale einräumen soll, notwendig ist, aber auch abstraktere Formen der Vektorräume finden Anwendung, wie z Bsp in der linearen Codierungstheorie 0 Definition und Geometrie von Vektoren Die folgende Definition führt Vektorräume über Körpern formal ein Definition 0 (K-Vektorraum) Es sei (K, +, ) ein Körper Ein K-Vektorraum ist eine Menge V zusammen mit Abbildungen + : V V V ( v, w) v + w (Addition) : K V V (s, v) s v (skalare Mult) für die die folgenden Regeln gelten: (i) (V, +) ist eine kommutative Gruppe Das neutrale Element der Addition ist der Nullvektor 0 Das inverse Element zu v wird mit v bezeichnet 5

6 KAPITEL 0 VEKTORRÄUME 6 (ii) v = v für alle v V (Dabei bezeichnet das Einselement des Körpers K) (iii) (s s ) v = s (s v) für alle s, s K, v V (iv) (s + s ) v = (s v) + (s v) (Distributivität bezgl K) (v) s ( v + w) = (s v) + (s w) (Distributivität bezgl V ) für alle s, s K, v V für alle s K, v, w V Die Elemente v V heißen Vektoren Bitte beachten Sie: Die Symbole + und werden üblicherweise sowohl für Addition und Multiplikation im Körper K als auch für Addition und Skalarmultiplikation für den Vektorraum V verwendet! Das Multiplikationssymbol wird oft auch weggelassen, dh anstelle von s v schreibt man auch s v Bemerkung: Ist (V, +, ) kein Körper, sondern nur ein Ring mit Eins, so spricht man statt von einem K-Vektorraum von einem K-Modul Beispiel 0 Eines der wichtigsten Beispiele ist der Vektorraum K n der n-dimensionalen Spaltenvektoren x x 2 x = x n mit x,, x n K Addition und Skalarmultiplikation werden hier wie folgt definiert: x y x + y x s x x 2 + y 2 = x 2 + y 2, s x 2 = s x 2 x n y n x n + y n x n s x n Wir weisen nach, dass (K n, +, ) ein K-Vektorraum ist: (i) zz: (K n, +) ist kommutative Gruppe: Kommutativität x + y = y + x, da die Addition in K kommutativ ist Assoziativität ( x + y) + z = x + ( y + z), da die Addition in K assoziativ ist 0 0 = ist der Nullvektor 0

7 KAPITEL 0 VEKTORRÄUME 7 Inverse Elemente Zu x = (ii) x = x x n x x n ist x = = x x n x = x n der inverse Vektor x x n = v für alle x K n (iii) folgt aus der Assoziativität der Multiplikation in K (iv), (v) folgen aus der Distributivität in K Für K = R und n = 2 kann man sich den Vektorraum R 2 als Ebene mit üblicher Vektoraddition und skalarer Multiplikation vorstellen Entsprechend kann man den Vektorraum R 3 mit dem dreidimensionalen Raum assoziieren Abbildung 0 illustriert die Addition und Streckung von Vektoren in der Ebene 2 Seien m, n N Ein Schema der Form a a 2 a m a 2 a 22 a 2m A = a n a n2 a nm mit a ij K heißt Matrix, genauer n m-matrix über K Dabei ist n die Anzahl der Zeilen und m die Anzahl der Spalten Die Menge aller n m-matrizen über K wird mit K n m bezeichnet Eine n -Matrix ist nichts anderes als ein n-dimensionaler Spaltenvektor: K n = K n Seien A, B K n m n m-matrizen, A = (a ij ), B = (b ij ) Wir definieren eine Verknüpfung (Addition) + auf K n m wie folgt: A + B := (a ij + b ij ), dh Matrixelemente auf derselben Position werden addiert Weiterhin definieren wir die skalare Multiplikation wie folgt: Für s K und A = (a ij ) K n m sei (s A) := (s a ij ), dh alle Matrixelemente werden mit dem Skalar s multipliziert Die Menge K n m der n m Matrizen über K ist mit der Matrixaddition und der Skalarmultiplikation ein K-Vektorraum 3 Es sei M eine beliebige Menge und K ein beliebiger Körper Dann wird die Menge K M der Abbildungen von M nach K mit der folgenden Addition und Skalarmultiplikation zu einem Vektorraum: Für f, g K M und s K definieren wir (f + g)(x) := f(x) + g(x) für alle x M, (s f)(x) := s f(x) für alle x M Der Nullvektor dieses Vektorraums ist die Nullabbildung, dh x 0 für alle x M Das Inverse zu f ist die Abbildung f mit ( f)(x) := f(x)

8 KAPITEL 0 VEKTORRÄUME 8 x 2 +y 2 x + y y 2 y 3 2 x x 2 x y x x +y Abbildung 0: Addition und Streckung von Vektoren in der Ebene 4 Die Menge { 0} ist ein K-Vektorraum Lemma 02 (Rechenregeln in Vektorräumen) Es sei (K, +, ) ein Körper und (V, +, ) ein K-Vektorraum Dann gilt: (i) 0 v = 0 für alle v V (ii) s 0 = 0 für alle s K (iii) Für s K und v V gilt: s v = 0 (s = 0 v = 0) (iv) ( s) v = (s v) für alle s K, v V, dh das Inverse zum Vektor s v ist der Vektor ( s) v Beweis: (i) 0 v = (0 + 0) v = 0 v + 0 v 0 v 0 v = 0 für alle v V (ii) s 0 = s ( 0 + 0) = s 0 + s 0 s 0 = 0 für alle s K s 0 (iii) Seien s K und v V Sei s v = 0 Wir müssen zeigen, dass s = 0 oder v = 0 ist Ist s = 0, so sind wir fertig

9 KAPITEL 0 VEKTORRÄUME 9 Betrachten wir nun den Fall, dass s 0 ist Dann gibt es ein s K, und es gilt: Klar wegen (i) und (ii) 0 = s v s 0 = s (s v) wegen (ii) = (s s) v = v = v (iv) Seien s K, v V Wir müssen zeigen, dass ( s) v das (additive) Inverse zu s v in K ist ( s) v + s v = ( s + s) v = 0 v = 0 Matrizen spielen eine große Rolle in der linearen Algebra Für sie ist auch eine innere Multiplikation, dh eine Multiplikation von Matrizen definiert Definition 03 (Matrixmultiplikation) Es seien l, m, n N und A = (a ik ) K n m, B = (b kj ) K m l Dann ist das Produkt A B K n l wie folgt definiert: (A B) ij := a i b j + a i2 b 2j + + a in b nj = m a ik b kj k= Es muss also gelten: Spaltenzahl der linken Matrix = Zeilenzahl der rechten Matrix Abb 2 illustriert die Multiplikation zweier Matrizen aus K n m und K m l Wenn l = m = n ist, dann lassen sich je zwei Matrizen derselben Art (also aus K n n ) miteinander multiplizieren Satz 04 (Ring der n n Matrizen) Die Menge K n n der n n Matrizen über einem Körper K bilden zusammen mit der oben definierten Addition und Multiplikation einen nicht-kommutativen Ring mit Einselement E n = 0 0

10 KAPITEL 0 VEKTORRÄUME 0 a a 2 a m a 2 a 22 a 2m a n a n2 a nm m n b b 2 b l b 2 b 22 b 2l b m b m2 b ml l m c c 2 c l c 2 c 22 c 2l c n c n2 c nl a 2 b 2 a 22 b 22 a 2m b m l m Abbildung 02: Veranschaulichung der Matrixmultiplikation Source

11 KAPITEL 0 VEKTORRÄUME Beweis: (K n n, +) ist eine kommutative Gruppe, da sich die Eigenschaften der Addition von dem Körper K auf die Addition von Matrizen übertragen Das neutrale Element ist dementsprechend die Nullmatrix, di eine Matrix, die nur Nullen als Einträge hat Wir zeigen hier als Beispiel die Kommutativität, die anderen Eigenschaften kann man in ähnlicher Weise nachrechnen Sei A, B K n n, A = (a ij ), B = (b ij ), dann gilt: A + B = (a ij + b ij ) = (b ij + a ij ) = B + A Die Matrixmultiplikation ist assoziativ, da für A, B, C K n n, A = (a ij ), B = (b ij ), C = (c ij ) gilt: ((A B) C) ij = = = = = n (A B) ik c kj k= n n ( a il b lk ) c kj k= n l= k= l= n l= k= l= n a il b lk c kj (Assoziativität bzgl + und Distributivität in K) n a il b lk c kj (Kommutativität bzgl + in K) n n a il ( b lk c kj ) (Distributivität in K) k= = (A (B C)) ij } {{ } (B C) lj Die Matrixmultiplikation ist allerdings nicht kommutativ, zb ist ( ) ( ) ( ) = ( ) 6 = 7 2 ( ) ( ) ( ) = ( ) 0 5 =, 22 3 die beiden Multiplikationen haben also unterschiedliche Ergebnisse Einselement ist die Matrix 0 E n =, 0 die nur Einsen in der Diagonale hat und ansonsten mit Nullen besetzt ist, dh { E n, falls i = j = (e ij ) mit e ij = 0, sonst

12 KAPITEL 0 VEKTORRÄUME 2 Wir zeigen nun, dass E n das neutrale Element bzgl der Matrixmultiplikation ist Für eine beliebige Matrix A = (a ij ) K n n gilt: A E n = (a ik )(e kj ) = ( n a ik e kj ) k= = (a ij e jj ) = (a ij ) Ebenso zeigt man, dass E n A = (e ik )(a kj ) = (a ij ) ist Beachten Sie, dass i, j und k Laufindizes sind, deren Benennung geeignet angepasst werden kann Manchmal benötigt man Matrizen in einer umgedrehten Form, dh mit vertauschten Zeilen und Spalten: a a 2 a m a a 2 a n a 2 a 22 a 2m T ransponierung A = A t a 2 a 22 a n2 = a n a n2 a nm a m a 2m a nm A t heißt transponierte Matrix von A Ist A K n m, so ist A t K m n Bemerkung: ( Nicht ) alle Matrizen aus K n n sind invertierbar (beispielsweise ist 3 2 die Matrix K nicht invertierbar) Invertierbare Matrizen werden auch reguläre Matrizen genannt Vektoren aus K n lassen sich nicht einfach miteinander multiplizieren, da das Format nicht passt (Spaltenzahl =, aber Zeilenzahl = n) Durch Transponierung kann man jedoch erreichen, dass die Formate zueinander passen x 2 Definition 05 (Skalarprodukt) Seien x =, y = y 2 Kn x n y n Dann ist das Skalarprodukt auf K n x x y := x t y = x y + + x n y n K Beispiel 02 Betrachte die Vektoren (im R 2 ) ( ) ( ) 2 u =, v =, x = 0 ( 2 2), y = ( 0 2) y Es ist u v = 2 x y = 4 u y = 0 v x = 4

13 KAPITEL 0 VEKTORRÄUME 3 v 2 Definition 06 (Länge von Vektoren) Die Länge eines Vektors v = v n R n ist definiert als v = v 2 + v v2 n v Es ist also v = v v Seien x, y R n, sei ( x, y) der Winkel zwischen diesen Vektoren Man kann zeigen, dass x y = x y cos ( x, y) Aus dieser Relation folgt eine geometrische Veranschaulichung Der Wert eines Skalarprodukts x y beträgt die Länge der Projektion des Vektors, der die Länge x y hat und den Winkel ( x, y) mit der x-achse einschließt, auf die x-achse Sei Θ dieser Winkel, dann ergibt sich folgendes Bild: a b Θ cos Θ a b cos Θ Aus dieser Beziehung ergibt sich folgendes Lemma: Lemma 07 Seien x, y R n Vektoren Stehen x, y aufeinander senkrecht, so gilt x y = 0 cos ( x, y) = x y x y Wegen der Beziehung zum Cosinus wird das Skalarprodukt in Anwendungen (zb Information Retrieval, Suchmaschinen) oft als Ähnlichkeitsmaß verwendet Beispiel 03 Betrachte die Vektoren ( ) ( ) 2 u =, v =, x = 0 ( ) 2, y = 2 ( ) 0 2

14 KAPITEL 0 VEKTORRÄUME 4 aus Beispiel 7 Es ist u = 2, v = 2, x = 2 2, y = 2 u v = 2 cos ( u, v) = 2 x y = 4 cos ( x, y) = 2 u y = 0 cos ( u, y) = 0 orthogonal v x = 4 cos ( v, x) = vollkommen ähnlich! 02 Teilräume Definition 02 (Teilräume, Untervektorräume) Es seien (K, +, ) ein Körper und (V, +, ) ein K-Vektorraum Sei U V eine Teilmenge von V U heißt Teilraum oder Untervektorraum von V, wenn es die folgenden Bedingungen erfüllt: (i) U, (ii) v, w U ( v + w) U, (iii) s K, v U (s v) U Satz 022 Ein Teilraum U eines K-Vektorraumes (V, +, ) zusammen mit der Einschränkung der Addition + U U und Skalarmultiplikation K U auf U ist selbst wieder ein K-Vektorraum Beweis: Sei U ein Teilraum von V Bedingungen (ii)-(v) von Definition 0 gelten für alle v V, also auch für alle v U Bleibt noch (i) zu zeigen, dh (U, +) ist eine kommutative Gruppe, und die Wohldefiniertheit der Abbildungen +, Letzteres bedeutet: v, w U v + w U s K, v U s v U Dies aber sind gerade die Bedingungen (ii), (iii) von Def 02 Wir zeigen nun, dass (U, +) eine kommutative Gruppe ist + ist assoziativ und kommutativ in V, also auch in U Wir müssen noch zeigen Für v U ist auch v U: Das ist klar, denn wegen (iii) v = ( v) Lemma02 = ( ) v U 0 U: Wegen (i) ist U, also gibt es einen Vektor v U Dann ist aber auch v U, und daher auch 0 = v + ( v) = v v U

15 KAPITEL 0 VEKTORRÄUME 5 Korollar 023 (Teilräume und Nullvektor) Zu jedem Teilraum gehört der Nullvektor 0 Beweis: Jeder Teilraum U ist nichtleer, enthält also einen Vektor v U Damit ist auch 0 v = 0 U Lemma 024 (Charakterisierung von Teilräumen) Es sei (V, +, ) ein K- Vektorraum Eine nichtleere Teilmenge U V ist genau dann ein Teilraum von V, wenn die folgende Bedingung erfüllt ist: s K, v, w U ((s v) + w) U Beweis: Seien (V, +, ) ein K-Vektorraum, U V und U Zz: U ist ein Teilraum s K, v, w U : ((s v) + w) U Sei U ein Teilraum, s K und v, w U zz: ((s v) + w) U Nach Def 06 gilt (s v) U, und daher nach Def 06 ((s v)+ w) U Sei U V, U, und für alle s K, v, w U gilt ((s v) + w) U zz: U erfüllt die Bedingungen (i), (ii), (iii) von Def 02 zu (i): U nach Voraussetzung zu (ii): Sei v, w U Dann gilt nach den Voraussetzungen zu (iii): Sei s K, v U Dann ist da nach Korollar U ist ( v + w) = (( v) + w) U (s v) = (s v) + 0 U, Beispiel 02 Geraden im R 2 /R 3 : Jede durch den Ursprung verlaufende Gerade im R 2 /R 3 ist ein Untervektorraum des (R 2 /R 3, +, ) 2 Ebenen im R 3 : Es sei M R 3 die Menge M = { (x, y, z) R 3 z = x + y } M ist ein Untervektorraum des (R 3, +, ) Alle Ebenen des R 3, die durch den Ursprung verlaufen, sind Untervektorräume des (R 3, +, )

16 KAPITEL 0 VEKTORRÄUME 6 3 Sei A K n m eine n m-matrix Sei N(A) K m die Menge N(A) = { x K m A x = 0 } Dann ist N(A) ein Teilvektorraum von (K m, +, ) und heißt Nullraum der Matrix A Diesen kann man sich auch geometrisch veranschaulichen Schauen wir uns hierzu allgemein eine Matrix A = (a ij ) K n m und die Zeilenvektoren a i t = ( a i a i2 a in ) an Dann gilt: m a a 2 a m x k= a 2 a 22 a 2m x 2 a m kx k a x 0 = k= a 2kx k = a 2 x = 0 m a n a n2 a nm x m k= a nkx k a n x 0 a i x = 0 i n, wobei das Skalarprodukt ist Das bedeutet, dass die Vektoren der Menge N(A) genau die Vektoren sind, die auf allen Zeilenvektoren der Matrix senkrecht stehen Zur Illustration schauen wir uns zum Beispiel die Matrix ( ) 2 3 A = mit den Zeilenvektoren a = 2 3 und a 2 = 4 6 an Dann ergibt sich das 2 in Abbildung 03 dargestellte Bild, wobei der Nullraum eine Ebene ähnlich zu der hier angedeuteten roten Fläche bildet, die sich aber natürlich ins Unendliche weiter erstreckt Satz 025 Jeder Vektorraum V enthält auf jeden Fall die trivialen Untervektorräume V (also sich selbst) und den Nullvektorraum { 0} Wir diskutieren als nächstes Teilräume, die aus anderen Teilräumen durch Schnittbildung und Addition entstehen Lemma 026 Es seien (V, +, ) ein K-Vektorraum und U, U 2 zwei Teilräume von V Dann sind auch U U 2 und U + U 2 := { u + u 2 u U und u 2 U 2 } Teilräume von V Beweis: Seien U, U 2 Teilräume von V Dann ist 0 U U 2 (nach Korollar 023), also U U 2, und auch U + U 2, da 0 = U + U 2

17 KAPITEL 0 VEKTORRÄUME 7 a 2 a Abbildung 03: Nullraum einer Matrix zz: U U 2 ist ein Teilraum von V Sei s K, v, w U U 2 Dann gilt sowohl v, w U als auch v, w U 2 Nach Lemma 024 gilt dann ((s v) + w) U U 2, folglich ist nach demselben Lemma U U 2 ein Teilraum 2 zz: U + U 2 ist ein Teilraum von V Sei s K, seien u + u 2, v + v 2 U + U 2 (mit u, v U, u 2, v 2 U 2 ) Dann ist (s ( u + u 2 )) + ( v + v 2 ) = ((s u ) + (s u 2 )) + ( v + v 2 ) = ((s u ) + v ) + ((s u 2 ) + v 2 ) U + U 2 }{{}}{{} U U 2 Bemerkung: Ist I eine beliebige Indexmenge und ist für alle i I die Menge U i ein Teilraum von V, so ist auch i I U i ein Teilraum von V Es sei nun V ein K-Vektorraum Für v V definieren wir v := {s v s K} Dann ist v ein Teilraum von V Man nennt ihn den von v erzeugten Teilraum Beispiel 022 (Geraden im R 2 ): Im R-Vektorraum R 2 kann man sich den von einem Vektor ( x y) 0 erzeugten Teilraum als die Punkte auf der eindeutigen Geraden durch den Nullpunkt und den Punkt ( x y) vorstellen Sind v und v 2 zwei Vektoren in V, so ist (nach Lemma 026) auch v + v 2 = {s v + s 2 v 2 s, s 2 K}

18 KAPITEL 0 VEKTORRÄUME 8 auch ein Teilraum Solche Teilräume wollen wir uns im Folgenden näher anschauen 03 Linearkombinationen und Erzeugendensysteme Eine wichtige Rolle im Zusammenhang mit Vektor- und Teilräumen spielen Linearkombinationen von Vektoren Das sind neue Vektoren, die durch Skalarmultiplikation und Vektoraddition aus gegebenen Vektoren entstehen Wir hatten gerade gesehen, dass solche sog Linearkombinationen bei der Erzeugung von Teilräumen auftreten Mit Hilfe von Linearkombinationen kann man einen Teilraum also von innen heraus erzeugen Definition 03 (Linearkombinationen, Erzeugnisse) Es sei (V, +, ) ein K- Vektorraum mit Vektoren v,, v n V Dann heißt der Vektor v V eine Linearkombination der Vektoren { v,, v n }, wenn es s,, s n K gibt mit v = s v + + s n v n Ist M V eine Teilmenge von V, so definieren wir das Erzeugnis von M als { n } M := s i v i n N, s i K und v i M für i =,, n, i= wobei der leeren Summe der Nullvektor entspricht: = 0 Lemma 032 Es sei (V, +, ) ein K-Vektorraum und M V eine beliebige Teilmenge von V Dann ist das Erzeugnis M von M ein Teilraum von V Beweis: Sei (V, +, ) ein K-Vektorraum und sei M V zz: M ist ein Teilraum von V Wir benutzen wieder Lemma 024 M ist nicht leer, da auf jeden Fall 0 = M Seien s K, v, w M, dh v = s v + + s n v n, w = t w + + t n w n,

19 KAPITEL 0 VEKTORRÄUME 9 für v, v n, w w n M und n, m N Dann ist s v + w = s (s v + + s n v n ) + t w + + t n w n = (s s ) v + + (s s n ) v n + t w + + t n w n < M > Also ist M ein Teilraum von V M heißt auch der von M erzeugte Teilraum von V Die Menge M heißt Erzeugendensystem von M Lemma 033 M ist der kleinste Teilraum (bezüglich Mengeninklusion) von V, der M enthält Beweis: Sei M V Wir müssen zeigen: Wenn U ein Teilraum von V ist mit M U, dann ist auch M U Sei U ein Teilraum von V mit M U M besteht aus allen Linearkombinationen von Vektoren aus M, wir müssen also zeigen, dass alle solche Linearkombinationen in U liegen Seien also v,, v n M, s,, s n K Wegen M U sind dann auch alle v,, v n U, folglich sind s v,, s n v n U und daher s v + + s n v n U nach Definition des Teilraumes Daher ist M U Demnach macht es Sinn, als Erzeugnis der leeren Menge den trivialen Teilraum von V, der nur aus dem Nullvektor besteht, zu definieren, also := { 0} Definition 034 (Endlich erzeugter (Unter)Vektorraum) Es sei (V, +, ) ein K-Vektorraum und U V ein Untervektorraum Gibt es eine endliche Menge M V, also M = { v, v n } mit n N, sodass U = M, so sagen wir, dass U endlich erzeugt ist Wir schreiben auch M = { v,, v n } = v,, v n { n } = s i v i s i K für i =,, n i= Beispiel 03 Ein erzeugter Teilraum im R 2 : Es sei V = R 2 und M = {( ) (, ) (, )} ( 0 Dann ist M = R 2, denn ein beliebiger Vektor x ) y R 2 kann wie folgt als Linearkombination der Elemente von M geschrieben werden: ( ) ( ) ( ) ( ) x = x + (y x) + (y x) y 0 Damit ist {( ) (, ) (, )} 0 also ein Erzeugendensystem des Vektorraums R 2 und R 2 ist folglich endlich erzeugt Bereits die kleinere Menge {( ( ), )} 0

20 KAPITEL 0 VEKTORRÄUME 20 ist ein Erzeugendensystem von R 2, da ein beliebiger Vektor ( ) x y R 2 geschrieben werden kann als ( ) ( ) ( ) x = y + (x y) y 0 2 Das Standard-Erzeugendensystem des K n : Wir betrachten den K-Vektorraum K n Für i =,, n sei e i der Vektor, dessen i-ter Eintrag ist und alle anderen Einträge 0, dh 0 0 e i = i ( e i ) j = 0 0 { falls j = i, 0 sonst Der Vektor e i heißt i-ter Einheitsvektor Dann ist { e,, e n } ein Erzeugendensystem von K n, also K n = e,, e n, denn x x n = x e + + x n e n für alle x,, x n K Folglich ist der Vektorraum K n endlich erzeugt Die Beispiele illustrieren, dass ein Vektorraum kompakt durch ein Erzeugendensystem dargestellt werden kann Wenn wir diese Darstellung nun möglichst klein erhalten wollen, müssen wir Erzeugendensysteme minimieren Dies führt uns zu der Idee der Basis als minimales Erzeugendensystem Idee der Basis: Mit Hilfe von Erzeugendensysteme lassen sich (Unter)Vektorräume leicht kompakt repräsentieren, sie enthalten offenbar alle wichtigen Informationen über den Vektorraum Wie kann man diese Art der Repräsentation von Vektorräumen optimieren? Minimalität: Kein Vektor in dem optimalen Erzeugendensystem ist überflüssig Unabhängigkeit: Die Vektoren im optimalen Erzeugendensystem sind (irgendwie) unabhängig voneinander Eindeutigkeit: Jeder Vektor des erzeugten Vektorraumes hat genau eine Darstellung als Linearkombination der Vektoren des Erzeugendensystems Definition 035 (Basis) Es sei (V, +, ) ein K-Vektorraum Eine Teilmenge M V heißt Basis von V, wenn sich jedes v V eindeutig als Linearkombination von paarweise verschiedenen Vektoren aus M schreiben lässt Außerdem definieren wir, dass die leere Menge eine Basis des trivialen K-Vektorraums { 0} ist

21 KAPITEL 0 VEKTORRÄUME 2 Insbesondere ist jede Basis von V auch ein Erzeugendensystem von V Zunächst einmal charakterisieren wir endliche Basen, die für viele Beispiele und Anwendungen wichtig sind: Satz 036 Es sei (V, +, ) ein K-Vektorraum Die endliche Teilmenge { v,, v n } V ist eine Basis von V genau dann, wenn v,, v n paarweise verschieden sind und es zu jedem u V genau ein n-tupel (x,, x n ) t K n gibt mit u = x v + + x n v n Beweis: Sei { v,, v n } V, { v,, v n } ist eine Basis von V Def jedes v V lässt sich eindeutig als Linearkombination von paarweise verschiedenen v i { v,, v n } schreiben Wir müssen jetzt noch zeigen, dass dies äquivalent ist zu v,, v n sind paarweise verschieden, und es gibt zu jedem v V genau ein n-tupel (x,, x n ) t K n mit v = x v + + x n v n { v,, v n } sei eine Basis von V Dann sind v,, v n paarweise verschieden, da falls v i = v j, für i und j, i < j n gilt, dass v := v i = v i = v j, und damit wäre die Eindeutigkeit der Darstellung von v verletzt Sei v V Dann lässt sich v eindeutig darstellen in der Form v = x v + + x n v n, wobei einige x i = 0 sein können Damit ist das Tupel (x,, x n ) t K n ebenfalls eindeutig bestimmt Diese Richtung ist trivial Beispiel 032 Einheitsvektoren im K n : Die Menge der Einheitsvektoren { e,, e n } ist eine Basis des K-Vektorraums K n 2 Nicht jedes Erzeugendensystem ist eine Basis: Wie wir weiter oben beobachtet haben, gilt ( ) (, ) (, 0) = R 2 Die Menge {( ) (, ) (, )} 0 ist jedoch keine Basis von R 2, denn ( ) ( ( ) ( = ) 0) und andererseits ( ) = ( ) + 0 ( ) 2 ( ) 0

22 KAPITEL 0 VEKTORRÄUME 22 3 Der Nullvektor und Basen: Der Nullvektor 0 kann nie Element einer Basis sein, denn 0 0 = 0 = 0, so dass also die Darstellung des Nullvektors nicht eindeutig sein kann 4 Eine Basis des R 2 : Die Menge {( ( ), ( 0)} ist Basis von R 2, denn für x ) y R 2 gilt ( ( ( x = y + (x y) y) ) 0) Gilt auch ( ) ( ( x = a + b y ) 0) für a, b R, so muss x = a + b und y = a gelten Daraus folgt aber a = y und b = x y, so dass die Koeffizienten der Darstellung also eindeutig sind 5 Der R-Vektorraum R 2 hat unendlich viele Basen: Zum Beispiel ist die Menge { e, c e 2 } für alle c R\{0} eine Basis von R 2 04 Lineare Abhängigkeiten und lineare Unabhängigkeiten Bei der Idee eines optimalen Erzeugendensystems (also einer Basis) sollte auch die Idee der Unabhängigkeit umgesetzt werden Das wollen wir nun konkretisieren Definition 04 (Lineare Unabhängigkeit) Es sei (V, +, ) ein K-Vektorraum Eine Teilmenge M V heißt linear unabhängig, wenn für jedes v M gilt, dass M \ {v} M Die Teilmenge M heißt linear abhängig, wenn M nicht linear unabhängig ist, das heißt M ist linear abhängig v M : M \ { v} = M Beispiel 04 Die leere Menge ist linear unabhängig 2 Ist 0 M, so ist M linear abhängig, da M \ { 0} = M 3 Die Menge {( ) (, ) (, )} 0 ist linear abhängig, weil M = R 2, aber auch schon M \ {( )} = R 2 Lemma 042 Es sei V ein K-Vektorraum und M V Die folgenden Aussagen sind äquivalent: (i) M ist linear abhängig (ii) Es gibt ein v M mit v M \ { v}

23 KAPITEL 0 VEKTORRÄUME 23 Beweis: (i) (ii) Sei M V eine linear abhängige Teilmenge von V Dann gibt es ein v M mit M \ { v} = M Wegen M M und v M gilt dann auch v M M = M \ { v} (ii) (i) Sei v M mit v M \ { v} Dann gibt es s i K und v i M \ { v}, i n mit n v = s i v i (04) Wir zeigen nun, dass i= M \ { v} = M (042) ist Nach Definition ist M dann linear abhängig zz: Gleichung 042 gilt Wegen M \ { v} M ist auch M \ { v} M Sei umgekehrt w M, dh w = m t j w j (3) j= mit t j K, w j M, j m Ist keines der w j gleich v, so ist w M \{ v}, und wir sind fertig Andernfalls ist v = w j für ein j, obda v = w Mit 04 und 3 können wir dann schreiben: w = t v + i= m t j w j j=2 n m = t ( s i v i ) + t j w j = i= Insgesamt gilt damit 042 } {{ } M\{ v} j=2 n m (t s i ) v i + t j w j M \ { v} j=2 }{{} M\{ v} Das Lemma sagt also aus, dass es in einer linear abhängigen Teilmenge M ein Element gibt, das als Linearkombination der anderen Elemente aus M geschrieben werden kann Beispiel 042 Es sei V = R 3 und M :=, 0, 0,

24 KAPITEL 0 VEKTORRÄUME 24 Dann ist M linear abhängig, da Es gilt auch und = ,, ,, , 0, Man beachte jedoch, dass /, 0, Welche Folgerung können wir aus dem letzten Beispiel ziehen? Bemerkung: Bei einer linear abhängigen Menge M muss nicht jedes Element v M in dem von den übrigen erzeugten Teilraum liegen Lemma 043 Es sei V ein K-Vektorraum und M V Die folgenden Aussagen sind äquivalent: (i) M ist linear abhängig (ii) Es gibt paarweise verschiedene Vektoren v,, v n M mit zugehörigen Skalaren s,, s n K, die nicht alle Null sind, mit s v + + s n v n = 0 Beweis: Wir zeigen zunächst (i) (ii) M sei linear abhängig Nach Lemma 042 gibt es ein v M mit v M \ { v } Fall : M \ { v } = Dann ist v = { 0 }, also v = 0 Wähle (zb) s = K, dann ist s v = 0 = 0 Fall 2: M \{ v } Dann gibt es paarweise verschiedene v 2,, v n M \{ v } und s,, s n K mit v = s 2 v s n v n

25 KAPITEL 0 VEKTORRÄUME 25 Dann ist aber v + s 2 v s n v n = 0, wobei v, v 2,, v n paarweise verschieden sind und zumindest der Koeffizient von v von 0 verschieden ist ( 0) Es bleibt noch zu zeigen, dass (ii) (i) gilt Nach Voraussetzung gibt es (paarweise verschiedene) Vektoren v,, v n M und Skalare s,, s n K, nicht alle gleich 0, mit s v + + s n v n = 0 Mindestens eines der s i ist 0, sei dies obda s Dann ist s v = s 2 v 2 s n v n s (s v )= s (s 2 v 2 ) s (s n v n ) v = v = (s s ) v = (s s 2) v 2 (s s n) v n v v 2,, v n M \ { v } Also ist M linear abhängig Als unmittelbare Folgerung aus Lemma 043 erhalten wir das nächste Korollar Korollar 044 Es sei V ein K-Vektorraum und M V Die folgenden Aussagen sind äquivalent: (i) M ist linear unabhängig (ii) Für beliebige paarweise verschiedene Vektoren v,, v n M und beliebige Skalare s,, s n K gilt: s v + + s n v n = 0 s = = s n = 0 (043) Beweis: Dieses Korollar ergibt sich aus Lemma 043 durch Negation von (i) und (ii) unter Beachtung der logischen Äquivalenz A B gdw A B Negation von (i), Lem 043: M ist linear unabhängig Negation von (ii), Lem 043: ( v,, v n M paarweise verschieden, s,, s n K, nicht alle s i = 0: s v + + s n v n = 0) v,, v n M paarweise verschieden, s,, s n K, nicht alle s i = 0: s v + + s n v n 0 v,, v n M paarweise verschieden, s,, s n K : s v + + s n v n = 0 s i = 0 für alle i mit i n

26 KAPITEL 0 VEKTORRÄUME 26 Bedingung 043 liefert eine sehr häufig verwandte Methode, um lineare Unabhängigkeit nachzuweisen Bemerkung: Die Implikation in Teil (ii) des obigen Korollars ist eigentlich eine Äquivalenz Aus diesem Korollar kann man nun wiederum ein weiteres ableiten Korollar 045 Teilmengen linear unabhängiger Mengen sind selbst wieder linear unabhängig Dieses Korollar gilt jedoch nicht für linear abhängige Mengen, was sich leicht anhand eines Gegenbeispiels verdeutlichen lässt Beispiel 043 Es sei V = R 3 und M =, 2, 3 V 3 5 Um festzustellen, ob M linear abhängig ist, müssen wir nach Lemma 043 überprüfen, ob es Skalare x, x 2, x 3 R gibt mit (x, x 2, x 3 ) (0, 0, 0), so dass x 0 + x x 3 3 = gilt Dies ist zb für (x, x 2, x 3 ) = (, 2, ) der Fall Also ist M linear abhängig Allerdings ist jede der Teilmengen M =, M 2 = 2 und M 3 = 3 linear unabhängig Basis und Dimension Wir bringen nun die Begriffe Vektorraumbasis und lineare Unabhängigkeit zusammen und verbinden diese au?erdem mit dem Begriff der Minimalität Wir werden auch sehen, dass eine Vektorraumbasis optimal ist in Bezug auf maximale Ausschöpfung Satz 05 (Charakterisierung von Basen) Es sei (V, +, ) ein K-Vektorraum und M V Dann sind die folgenden Aussagen äquivalent: (i) M ist Basis von V

27 KAPITEL 0 VEKTORRÄUME 27 (ii) M ist linear unabhängiges Erzeugendensystem von V (iii) M ist inklusionsminimales Erzeugendensystem von V, dh M = V und M \ { u} V für alle u M Wenn man einen Vektor wegnimmt, erhält man kein Erzeugendensystem mehr (iv) M ist eine inklusionsmaximale linear unabhängige Teilmenge von V, dh M ist linear unabhängig, aber M { v} ist für jedes v V \ M linear abhängig Wenn man einen Vektor hinzunimmt, erhält man keine linear unabhängige Menge mehr Beweis: Wir beweisen den Satz mit folgendem Ringschluss: (i) (ii) (iii) (iv) (i) (i) (ii) Sei M eine Basis von V Dann ist M auch ein Erzeugendensystem von V nach Definition 035 Wir müssen noch zeigen, dass M linear unabhängig ist Wir benutzen dazu Korollar 044 bzw Bedingung (4) Seien also v,, v n M, paarweise verschieden, mit s,, s n K, so dass s v + + s n v n = 0 = 0 v v n Wegen der Eindeutigkeit der Darstellung ist dann s = = s n = 0 Damit ist (4) erfüllt, und also gilt (ii) (ii) (iii) Sei M ein linear unabhängiges Erzeugendensystem von V Wir müssen zeigen: M ist inklusionsminimales Erzeugendensystem, dh es gibt keine echte Teilmenge M M, die auch V erzeugt, dh M \{ u} V = M für alle u M Das ist aber gerade die Defnition der linearen Unabhängigkeit Damit ist M inklusionsminimales Erzeugendensystem (iii) (iv) Es gelte M = V und M \ { u} V für alle u MDamit ist M linear unabhängig Noch zz: M { v} ist für jedes v V \ M linear abhängig Sei v V \ M Dann ist da v V und M V Also ist V = M M { v} V, M = M { v} = V, und damit ist M { v} linear abhängig (iv) (i) Sei M inklusionsmaximale linear unabhängige Teilmenge von V Wir müssen zeigen, dass M eine Basis von V ist Wir zeigen zunächst, dass M ein Erzeugendensystem von V ist, dh dass jeder Vektor v aus V als Linearkombination von endlich vielen Vektoren aus M geschrieben werden

28 KAPITEL 0 VEKTORRÄUME 28 kann Für v M ist das klar Sei nun v / M Da M inklusionsmaximale linear unabhängige Teilmenge von V ist und M M { v} ist, muss M {v} linear abhängig sein Also gibt es v,, v n M und s, s,, s n K, nicht alle gleich 0, mit s v + s v + + s n v n = 0 Da M linear unabhängig ist, muss insbesondere s 0 sein Also gilt s v=s v + + s n v n v =( s) s v + + ( s) s n v n Also ist v M und daher M = V Es bleibt, die Eindeutigkeit der Darstellung als Linearkombination zu zeigen Sei v V, und nehmen wir an, es gilt v = s v + + s n v n = t w + + t m w m (05) mit s,, s n, t,, t m K, v,, v n, w,, w m M Wir betrachten die beteiligten Vektoren gemeinsam: { v,, v n, w,, w m } = { u,, u q } M mit q n + m (es können Vektoren v i und w j identisch sein, für i n, j m) Dann können wir schreiben v = s u + + s q u q = t u + + t q u q, indem wir die Darstellungen von 05 übernehmen und für zusätzliche Vektoren u i die zugehörigen Skalare (s i bzw t i ) gleich 0 setzen Durch Subtraktion erhält man 0 = (s t ) u + + (s q t q) u q Da { u,, u q } M und M linear unabhängig ist, gilt s i = t i für alle i, i q, und damit sind die obigen Darstellungen in 05 identisch Wir haben bislang nur an speziellen Beispielen gesehen, dass Basen von Vektorräumen tatsächlich existieren können Der folgende Satz belegt, dass das kein Zufall ist Satz 052 (Existenz von Basen) Jeder endlich erzeugte K-Vektorraum besitzt eine Basis Beweis: Sei M ein Erzeugendensystem von V Solange es (rekursiv) einen Vektor v M gibt, so dass M \ v = V ist, entferne diesen Da M endlich ist, sind wir in endlich vielen Schritten fertig und erhalten ein inklusionsminimales Erzeugendensystem von V, also eine Basis nach Satz 05 Aus dem Beweis ergibt sich sofort das folgende Korollar:

29 KAPITEL 0 VEKTORRÄUME 29 Korollar 053 Jedes endliche Erzeugendensystem eines Vektorraums enthält eine Basis Wir wenden uns jetzt dem Problem zu, für einen endlich erzeugten Vektorraum eine Basis aus einem Erzeugendensystem heraus zu konstruieren Das Verfahren beruht auf dem folgenden Lemma Lemma 054 Es sei V ein K-Vektorraum und v,, v n V (i) Für i j und s K gilt v,, v j,, v n = v,, v j + s v i,, v n (ii) Für i {,, n} und t K\{0} gilt v,, v i,, v n = v,, t v i,, v n (iii) v,, v n = v,, v n, 0 Beweis: Um jeweils zu zeigen, dass beide Vektorräume identisch sind, muss man zeigen, dass jeder Vektor des einen Erzeugendensystems sich auch als Linearkombination des anderen Erzeugendensystems schreiben l?sst F?r die unver?nderten Vektoren v k ist das klar Wir m?ssen uns also nur die Vektoren an der ge?nderten Stelle anschauen zu (i) Sei s K Die Teilmengenrelation gilt, da v j = ( v j + s v i ) s v i v,, v j + s v i,, v n als Linearkombination der Vektoren v j + s v i und v i ist Die andere Teilmengenrelation gilt, da ist, und somit gilt die Gleichheit zu (ii) Klar, da v i = t t v i zu (iii) Wegen 0 v,, v n gilt v j + s v i v,, v j,, v n v,, v n v,, v n, 0 v,, v n Wir wenden Lemma 054 an, um Erzeugendensysteme so zu modifizieren, dass linear abhängige Teile auf Nullvektoren reduziert werden, so dass die Basisvektoren (als Nicht-Nullvektoren) direkt abgelesen werden können

30 KAPITEL 0 VEKTORRÄUME 30 Beispiel 05 Es sei K = R und V :=, 3, 6 }{{} =: v 5 }{{} =: v 2 }{{} =: v 3 Wegen Lemma 054 ist dann V = v, v 2 v, v 3 = v, v 2 v, v 3 v =, 0 2, 0 5 }{{} 4 }{{} 0 }{{} =: v =: v 2 =: v 3 Wir halten jetzt v fest und machen mit v 2, v 3 nach Lemma 054 weiter: V = v, 2 v 2, v v =,, =, (wegen Lemma 054 (iii)) 2 Da die letzten beiden Vektoren linear unabhängig sind, bilden sie also eine Basis von V Vektorraumbasen haben zwei charakteristische Eigenschaften: sie sind linear unabhängig, und sie bilden ein Erzeugendensystem Wir haben oben gezeigt, dass man mit Hilfe von Lemma 054 aus jedem endlichen Erzeugendensystem eines Vektorraums V eine Basis von V erhalten kann Der folgende Satz stellt die umgekehrte Vorgehensweise zur Findung einer Basis dar linear unabhängige Teilmengen lassen sich zur Basis ergänzen Satz 055 (Basisergänzungssatz) Es sei V ein endlich erzeugter K-Vektorraum mit endlichem Erzeugendensystem E V, also V = E Weiterhin sei M V linear unabhängig Dann gibt es eine Teilmenge E E, so dass M E eine Basis von V ist

31 KAPITEL 0 VEKTORRÄUME 3 Beweis: Seien V = E mit E V, E endlich und M V, M linear unabhängig Es ist M M E V = E, also M E = V Dh, durch Hinzunahme von Vektoren aus E kann man aus M ein Erzeugendensystem gewinnen Sei E E eine inklusionsminimale Menge mit E M = V (dh (E \ { v}) M V für alle v E ) Dann ist E M eine Basis von V, denn: E M ist wegen E M = V ein Erzeugendensystem von V Wir müssen nur noch zeigen, dass E M linear unabhängig ist Seien dazu v,, v m E und w,, w n M mit Zz ist s v + + s m v m + t w + + t n w n = 0 s = = s m = t = = t n = 0 Wir schauen uns zunächst die s i an Ist eines der s i 0, so gilt (nach Umstellung) m n s i v i + s k v k + t l w l = 0 v i = k=,k i m k=,k i E \ { v i } M l= (s i s k ) v k n l= (s i t l ) w l also E M = E \ { v i } M, das aber verletzt die Minimalität von E Also muss gelten s = = s m = 0 Dann ist aber t w + + t n w n = 0 Aus der linearen Unabhängigkeit von M folgt t = = t n = 0 Damit sind alle Koeffizienten s i und t j gleich 0, und folglich ist E M linear unabhängig Beispiel 052 Wir betrachten das Erzeugendensystem { ( ) ( ) ( ) ( ) } E :=,,, des R-Vektorraums R 2 2 (Raum der reellen 2 2-Matrizen) Die Menge { ( ) ( ) } 0 0 M :=, 0 0 ist linear unabhängig Wir bilden wie im Beweis zu Satz 055 die Menge M E und reduzieren dann den Anteil aus E, bis wir ein linear unabhängiges Erzeugendensystem M E mit E E erhalten Es ist ( ) ( ) ( ) 0 0 = M E () }{{}}{{} M E () ( ) 0 0 mit E () = E \, also ist M E = M E 0 () Weiterhin ist ( ) ( ) ( ) = M E (2) }{{}}{{} M E (2)

32 KAPITEL 0 VEKTORRÄUME 32 mit E (2) = E () \ ( ) 0 0, also ist M E 0 () = M E (2) Die Menge B = M E (2) ist linear unabhängig, denn: Sei ( ) ( ) = s so muss gelten = ( ) ( ) ( ) ( ) =,,, }{{}}{{} M E (2) ( ) ( ) ( ) s 2 + s s ( ) s + s 3 s 2 + s 4, s 2 s s +s 3 =0 s 2 +s 4 =0 s 2 =0 s =0 Hieraus folgt sofort Damit ist B eine Basis s = s 2 = s 3 = s 4 = 0 Man beachte jedoch, dass die Menge { ( ) ( ) B 0 0 :=, 0 0, ( ) ( ) } 0 0 0, zwar M enthält, aber keine Basis von R 2 2 ist, da diese Menge linear abhängig ist (der erste Vektor ist die Summe der beiden letzten Vektoren) Wir fassen noch einmal die Ergebnisse bisher zusammen: Korollar 056 Jeder Vektorraum besitzt eine Basis 2 In jedem Erzeugendensystem eines Vektorraumes ist eine Basis enthalten 3 Jede linear unabhängige Menge lässt sich zu einer Basis ergänzen Das folgende Korollar verdeutlicht noch einmal die Optimalität von Basen: Korollar 057 Die folgenden Aussagen für eine Teilmenge B eines Vektorraumes V sind äquivalent: B ist eine Basis von V

33 KAPITEL 0 VEKTORRÄUME 33 2 B ist eine minimale Erzeugendenmenge 3 B ist eine maximal 2 linear unabhängige Menge Wir haben gesehen, dass Basen als minimale Erzeugendensysteme optimale (und platzsparende) Darstellungen der Information in einem Vektorraum sind Wir wollen nun diese Minimalität zahlenmäßig erfassen und fragen: Wie groß ist eine Basis? Kann die Größe der Basis in Abhängigkeit von den gewählten Vektoren variieren? Ziel des Folgenden ist es zu zeigen, dass alle Basen eines Vektorraums dieselbe Kardinalität besitzen, die dann die Dimension des Vektorraums genannt wird Dazu müssen wir unsere vorherigen Überlegungen noch stärker präzisieren Satz 058 (Austauschsatz von Steinitz) Es sei V ein K-Vektorraum und { v,, v n } Basis von V Ferner sei I eine beliebige Indexmenge und { u i i I} eine weitere Basis von V Dann gibt es zu jedem i {,, n} ein j i I, so dass { v,, v i, u ji, v i+,, v n } eine Basis von V ist Dh, jedes Element einer Basis lässt sich durch ein geeignetes Element einer anderen Basis ersetzen Beweis: Sei B = { v,, v n } eine Basis von V, und sei { u i i I} eine weitere Basis von V Sei i {,, n} Dann ist die Menge Ḃ = { v, v i, v i+, v n } zwar linear unabhängig, aber kein Erzeugendensystem von V (siehe Satz 05) Folglich kann V = u i i I keine Teilmenge von Ḃ sein, dh es gibt ein j i I mit u ji / Ḃ Wir zeigen, dass B = { v,, v i, u ji, v i+,, v n } eine Basis von V ist Zunächst zur linearen Unabhängigkeit: Sei s v + + s i v i + t u ji + s i+ v i+ + + s n v n = 0 mit s,, s i, s i+,, s n, t K Wegen u ji / v,, v i, v i+,, v n muss t = 0 sein Aus der linearen Unabhängigkeit von { v,, v i, v i+,, v n } folgt weiter s = = s i = s i+ = s n = 0 Also ist B linear unabhängig Da { v,, v n } ein Erzeugendensystem von V ist, kann man nach Satz 055 B mit Vektoren aus { v,, v n } zu einer Basis ergänzen, dh es gibt eine Teilmenge E { v,, v n }, so dass B E eine Basis von V ist Ist v i / E, so ist B E = B, und also ist B eine Basis von bezgl Mengeninklusion 2 siehe Fußnote

34 KAPITEL 0 VEKTORRÄUME 34 V Anderenfalls ist v i E Dann ist B E = { v,, v n, u ji } eine Basis Da schon { v,, v n } eine Basis und damit inklusionsmaximal linear unabhängig ist, muss u ji { v,, v n } sein (insbesondere u ji = v i ), dh B = B Der folgende Satz enthält das wichtigste Resultat zum Begriff der Dimension: Satz 059 Es sei V ein K-Vektorraum und B = { v,, v n } eine Basis von V mit n paarweise verschiedenen Elementen, dh B = n Dann gilt: (i) Ist B eine beliebige Basis von V, so ist B = n (ii) Ist M V linear unabhängig, so ist M n (iii) Ist M V linear unabhängig und M = n, so ist M Basis von V Beweis: Sei B = { v,, v n } eine Basis von V, B = n zu (i) Sei B eine beliebige Basis von V Wir ersetzen nun nach dem Austauschsatz von Steinitz 058 sukzessive die Vektoren v,, v n B durch Vektoren u j,, u jn B, so dass { u j,, u ji, v i+,, v n } eine Basis von V ist ( i n) Dann gilt, dass { u j,, u jn } B }{{} =:B eine Basis von V ist, und damit auch eine inklusionsmaximal linear unabhängige Menge nach Satz 05 Deshalb kann B keine zusätzlichen Vektoren zu B enthalten, da sonst B linear abhängig und somit keine Basis wäre, also B = B und damit B = n zu (ii) Ist M V linear unabhängig, so kann man M nach Satz 055 zu einer Basis B ergänzen Diese enthält nach (i) genau n paarweise verschiedene Vektoren und somit gilt für M B : M B = n zu (iii) Argumentation wie im Beweis zu (ii) Definition 050 (Dimension eines Vektorraums) Wenn der Vektorraum V eine endliche Basis besitzt, so wird die Anzahl n der Vektoren der Basis die Dimension von V genannt: dim V = n Besitzt ein Vektorraum V keine endliche Basis, so ist seine Dimension unendlich, also dim V = Man sagt dann auch, dass V unendlich dimensional ist

35 KAPITEL 0 VEKTORRÄUME 35 Beispiel 053 Die Dimension des K-Vektorraums K n ist n, da beispielsweise die Menge der Einheitsvektoren { e,, e n } eine Basis von K n bildet 2 Es sei K = R und V :=, 3, 6 5 Wie in Beispiel 05 schon gezeigt wurde, ist 0 V =, 2 mit dim V = 2 Bemerkung: Es folgt aus Korollar 053, dass jeder endlich erzeugte Vektorraum auch endlich dimensional ist Beispiel 054 (Matrizen) Die Dimension des K-Vektorraums aller m n Matrizen K m n ist m n Eine Basis von K m n ist die Menge {E ij i m und j n}, wobei E ij die m n Matrix bezeichnet, deren Eintrag in der i-ten Zeile und j-ten Spalte eine Eins ist und die sonst nur Null-Einträge hat Korollar 05 Ist V ein endlich dimensionaler K-Vektorraum und U ein Teilraum von V, dann ist auch U endlich dimensional, und es gilt dim U dim V Ist dim U = dim V, so ist U = V Beweis: Folgt aus Satz 059 Satz 052 (Dimensionsformel für Teilräume) Es sei V ein endlich dimensionaler K-Vektorraum und U, U 2 seien Teilräume von V Dann ist dim U + dim U 2 = dim(u + U 2 ) + dim(u U 2 ) Beweis: Sei V ein endlich dimensionaler K-Vektorraum, und seien U, U 2 Teilräume von V Insbesondere sind dann U und U 2 auch endlich dimensional Sei B = { u,, u d } eine Basis von U U 2 B lässt sich nach Satz 055 zu Basen von U bzw U 2 erweitern: B = { u,, u d, v,, v m } Basis von U, B 2 = { u,, u d, w,, w n } Basis von U 2

36 KAPITEL 0 VEKTORRÄUME 36 Insbesondere haben wir also Wir zeigen noch dim U U 2 = d, dim U = d + m, dim U 2 = d + n dim U + dim U 2 = d + m + d + n = dim(u U 2 ) + m + n + d dim(u + U 2 ) = m + n + d, damit ist die Behauptung dann gezeigt Die Menge C = { u,, u d, v,, v m, w,, w n } hat d + m + n (paarweise verschiedene) Elemente Es ist C U U 2 und auch C U + U 2, da jedes Element aus C in U oder U 2 liegt Wir zeigen: (i) C = U + U 2, dh C erzeugt U + U 2 (ii) C ist linear unabhängig zu(i) Sei x U + U 2, also x = x + x 2, x U, x 2 U 2 Da B eine Basis von U ist, gibt es s,, s d, r,, r m K mit x = d m s i u i + r j v j, i= j= ebenso gibt es s,, s d, t,, t n K mit Insgesamt ist dann d m x 2 = s i u i + t k v j i= k= d m n x + x 2 = (s i + s i) u i + r j v j + t k w k i= j= k= C also ist U + U 2 C, und wegen C U + U 2 dann auch U + U 2 = C zu (ii) Seien s,, s d, r,, r m, t,, t n K mit d m n s i u i + r j v j + t k w k = 0 (052) i= j= k=

37 KAPITEL 0 VEKTORRÄUME 37 Dann ist y := d m s i u i + r j v j i= j= } {{ } U n = t k w k k= } {{ } U 2 U U 2 (053) Da B eine Basis von U U 2 ist, gibt es (eindeutig bestimmte) s,, s d mit d y = s i u i, also ist d s i u i + i= Da B 2 linear unabhängig ist, folgt i= n t k w k = 0 k= s = = s d = t = = t n = 0, insbesondere ist damit y = 0, dh aus Gleichung 053 folgt d m s i u i + r j v j = 0 i= Da B linear unabhängig ist, folgt j= s = = s d = r = = r m = 0 Insgesamt müssen alle Koeffizienten in 052 gleich 0 sein, und damit ist C linear unabhängig Aus (i) und (ii) folgt, dass C eine Basis von U + U 2 ist, also dim U + U 2 = C = d + m + n Beispiel 055 Es sei V ein dreidimensionaler K-Vektorraum, und U U 2 seien zwei verschiedene Teilräume von V mit dim U = dim U 2 = 2 Dann muss dim(u U 2 ) = gelten, denn für dim(u + U 2 ) kommen nur 2 oder 3 in Betracht Wäre dim(u + U 2 ) = 2 = dim U i für i =, 2, dann wäre U = U + U 2 = U 2 nach Korollar 05, da U, U 2 Teilräume von U + U 2 sind, im Widerspruch zur Voraussetzung (U U 2 ) Also muss dim(u + U 2 ) = 3 sein Mit der Dimensionsformel folgt die Behauptung

38 Kapitel Lineare Gleichungssysteme Definitionen und Beispiele Es sei im Folgenden immer (K, +, ) ein Körper (zb Q, R, C, Z 2, Z 3 ), dh, man kann normal rechnen Definition (Lineares Gleichungssystem) Ein lineares Gleichungssystem mit n Gleichungen und m Variablen hat die Form: a, x + a,2 x a,m x m = b a 2, x + a 2,2 x a 2,m x m = b 2 a n, x + a n,2 x a n,m x m = b n () Die a ij heißen Koeffizienten und die b i heißen rechte Seiten, mit a ij, b i K Gesucht sind dann Werte x, x 2,, x m K, die () erfüllen Die Lösungsmenge des linearen Gleichungssystems () ist die Menge L := { (x, x 2,, x m ) t K m x, x 2,, x m erfüllen } Definition 2 (Koeffizientenmatrix) Die Koeffizientenmatrix des linearen Gleichungssystems () über K ist die Matrix a a 2 a m a 2 a 22 a 2m A = Kn m a n a n2 a nm Mit x = (x, x 2,, x m ) t K m und b = (b,, b n ) t K n können wir dann () auch in der Form A x = b 38

39 KAPITEL LINEARE GLEICHUNGSSYSTEME 39 schreiben, mit Lösungsmenge L = { x K m A x = } b Definition 3 (Erweiterte Koeffizientenmatrix) Die erweiterte Matrix des linearen Gleichungssystems () ist die Matrix a a 2 a m b (A, a 2 a 22 a 2m b 2 b) := Kn (m+) a n a n2 a mm b n Beispiel Beispiel (mit genau einer Lösung): Es sei folgendes lineares Gleichungssystem über Q gegeben I 2x + 2y = 2 II y + z = 4 z III x + z = z (2) Dann gilt: Einsetzen in I liefert: II y = 4 z III x = z und damit folgt: 2( z) + 2(4 z) = 2 2 2z + 8 2z = 2 4z + 0 = 2 4z = 2 z = 3 II y = 4 3 = III x = 3 = 2 Das lineare Gleichungssystem hat also genau eine Lösung, nämlich L = {( 2,, 3) t } Q 3 In Matrix-Schreibweise hat dieses Gleichungssystem die Form x 2 0 y = 4, } 0 {{ z }}{{} }{{} A x b 2 Beispiel (mit keiner Lösung): Das lineare Gleichungssystem über Q x + x 2 + x 3 = 0 x + x 2 + x 3 = besitzt offensichtlich keine Lösung: L =

40 KAPITEL LINEARE GLEICHUNGSSYSTEME 40 3 Beispiel (mit mehreren Lösungen): Wir berechnen nun die Lösung zu folgendem linearen Gleichungssystem über R I x + 2x 2 + x 4 = II x + 2x 2 + 2x 3 + 3x 4 = 5 III 2x + 4x 2 + 3x 4 = 5 IV 3x 3 + 2x 4 = 3 (3) Aus IV folgt nach Subtraktion von 2x 4 Einsetzen von IV in II liefert: 3x 3 = 3 2x 4 3 IV x 3 = 2 3 x 4 x + 2x 2 + 2( 2 3 x 4) + 3x 4 = 5 x + 2x x 4 + 3x 4 = 5 2 x + 2x x 4 = 3 Wir erhalten ein neues Gleichungssystem und subtrahieren Mit IV gilt dann I x + 2x 2 + x 4 = II x + 2x x 4 = 3 III 2x + 4x 2 + 3x 4 = 5 I -II : 2 3 x 4 = 2 x 4 = 3 x 3 = 2 = Durch Einsetzen von x 4 = 3 erhalten wir wieder ein neues Gleichungssystem: I x + 2x 2 = 2 II x + 2x 2 = 2 III 2x + 4x 2 = 4 Aus allen drei Gleichungen folgt nun x = 2 2x 2 Das Gleichungssystem besitzt also mehrere Lösungen, L = {( 2 2x 2, x 2,, 3) t x 2 R}, also zb die Lösungen x = 2, x 2 = 0, x 3 =, x 4 = 3 oder x = 0, x 2 =, x 3 =, x 4 = 3 Lineare Gleichungssysteme gehören zu den einfachsten Formen, um Zusammenhänge in Systemen zu beschreiben Man findet sie zb in der linearen Optimierung ( wirtschaftswissenschaftliche Anwendungen)

41 KAPITEL LINEARE GLEICHUNGSSYSTEME 4 Beispiel 2 Anwendung von linearen Gleichungssystemen in der Informatikvorlesung Eingebettete Systeme (Prof Marwedel): Sog Petri-Netze zur Modellierung der Bewegungen von Thalys-Zügen zwischen Köln, Amsterdam, Brüssel und Paris Matrix zur Abbildung der Transitionen zwischen den Stationen (Knoten) Belegung der Stationen mit Zügen liefert für jede Transition eine lineare Gleichung mit konstantem Ergebnis (0) ( Invariante!) Insgesamt entsteht ein lineares Gleichungssystem, wobei Lösungen in {0, }(!) gesucht werden 2 Das Gau sche Eliminationsverfahren Grundlegend für die systematische Lösung linearer Gleichungssysteme ist das folgende einfache Lemma Lemma 2 Die Lösungsmenge eines linearen Gleichungssystems über K ändert sich nicht, wenn man (i) zwei Gleichungen vertauscht, (ii) das c-fache einer Gleichung zu einer anderen addiert (c K) (iii) eine Gleichung mit c K \ {0} multipliziert Beweis: zu (i) Sei A x = b ein lineares Gleichungssystem, seien a t i die Zeilenvektoren von A, dh für i n muss a t i x = b i gelten Dann verletzt das Vertauschen zweier Gleichungen diese Bedingung nicht zu (ii) Wir addieren das c-fache der j-ten Gleichung zur i-ten Gleichung und beobachten das Lösungsverhalten: a t i x + c at j x = b i + c b j, a t j x = b j a t i x = b i, a t j x = b j Durch die Umformung haben sich die Lösungen also nicht verändert zu (iii) Da c 0 ist, kann die Multiplikation mit c wieder rückgängig gemacht werden, sodass sich die Lösungsmenge nicht ändert Der Gauß sche Algorithmus (auch Gauß sches Eliminationsverfahren ( genannt) benutzt die Operationen aus Lemma 2 sukzessive, um ein gegebenes lineares

42 KAPITEL LINEARE GLEICHUNGSSYSTEME 42 Gleichungssystem in ein anderes mit derselben Lösungsmenge(!) zu überführen, bei dem man die Lösung direkt ablesen kann Definition 22 (Äquivalenz von lin Gleichungssystemen) Zwei lineare Gleichungssysteme heißen äquivalent, wenn ihre Lösungsmengen identisch sind Man nutzt also wieder eine Invarianten-Eigenschaft aus, um ein Problem zu vereinfachen Beispiel 2 Wir wenden nun den Gauß schen Algorithmus an, um das folgende Gleichungssystem zu lösen: I 3x 3 +2x 4 =3 II x +2x 2 +2x 3 +3x 4 =5 III 2x +4x 2 +3x 4 =5 IV x +2x 2 +x 4 = Wir vertauschen die und 4 Zeile und erhalten das Beispiel-Gleichungssystem (3): IV=I x +2x 2 +x 4 = II x +2x 2 +2x 3 +3x 4 =5 III 2x +4x 2 +3x 4 =5 I=IV 3x 3 +2x 4 =3 Die erste Zeile lassen wir nun stehen und eliminieren mit dieser alle Vorkommnisse der Variable x in den Zeilen darunter durch geeignete Subtraktion (also Operation (ii) in Lemma 2) I x +2x 2 +x 4 = II -I =II 2x 3 +2x 4 = 4 2III -I =III x 4 =3 IV 3x 3 +2x 4 =3 Dieses Schema führen wir nun mit der 2 Zeile fort und eliminieren alle Vorkommnisse der Variable x 3 in den Zeilen darunter Danach können wir durch sukzessives Einsetzen der Ergebnisse von unten nach oben die Lösungsmenge bestimmen I x +2x 2 +x 4 = x = 2 2x 2 2 II =II x 3 +x 4 =2 x 3 = III x 4 =3 x 4 = 3 3II -IV =IV x 4 =3 x 4 = 3 Somit erhalten wir die Lösungsmenge L = {( 2 2x 2, x 2,, 3) x 2 R}

43 KAPITEL LINEARE GLEICHUNGSSYSTEME 43 Die in Lemma 2 genannten System-Umformungen wirken sich auch auf die Matrizen A bzw (A, b) des Gleichungssystems aus bzw lassen sich durch Matrix-Umformungen realisieren: Definition 23 (Elementare Zeilenumformungen) Elementare Zeilenumformungen auf Matrizen aus K n m sind Abbildungen der folgenden Form (für k, l n): (i) V k,l : K m n K m n : Vertausche k-te und l-te Zeile" (ii) A k,l (c) : K m n K m n für c K: Addiere das c-fache der k-ten Zeile zur l-ten Zeile" (iii) M k (c) : K m n K m n für c K \ {0}: Multipliziere die k-te Zeile mit c" Durch elementare Zeilenumformungen kann man eine beliebige m n Matrix auf sogenannte Stufenform bringen Definition 24 (Stufenform) Eine Matrix A K m n hat Stufenform, wenn sie wie folgt aussieht: Die Stufenform hat also die folgenden charakteristischen Eigenschaften: Jede Stufe beginnt mit einer, davor stehen nur Nullen In jeder Zeile beginnt eine neue Stufe, oder die Zeile enthält nur Nullen Insbesondere sind alle Einträge unterhalb der letzten Stufe 0 In den Spaltenvektoren der Stufen stehen Einheitsvektoren Satz 25 Jede Matrix A K m n kann man durch elementare Zeilenumformungen auf Stufenform bringen Beweis: Wir führen den Beweis durch Induktion über die Zahl n der Zeilen n = : Hier ist A = (a, a 2,, a m ) Sind alle a j = 0, so hat A bereits Stufenform Anderenfalls gibt es ein (erstes) a j, das verschieden ist von 0 Sei j der Index dieses ersten a j, dh j = min{j a j 0} Mit der Umformung M (a j ) erhält man aus A die Matrix (0,, 0,, ) mit an der j -ten Stelle und diese Matrix hat Stufenform

44 KAPITEL LINEARE GLEICHUNGSSYSTEME 44 Induktionsvoraussetzung: Wir nehmen nun an, dass die Behauptung des Satzes für n bewiesen ist, dh dass man alle Matrizen aus K n m auf Stufenform bringen kann n n + : Sei A K (n+) m eine Matrix mit n + Zeilen Sind alle Einträge von A gleich 0, so hat A bereits Stufenform Anderenfalls suchen wir die erste Spalte, die Einträge 0 hat: sei also j = min{j i : a ij 0} und i = min{i a ij 0} a ij Wir führen jetzt an dieser Matrix mehrere elementare Zeilenumformungen durch: Durch M i (a i j ) erhalten wir an der Stelle (i, j ) eine Durch A i,k( a kj ) für k i erhält man in der Spalte j an allen Positionen ungleich (i, j ) eine 0 Durch V i, erhält man schließlich eine Matrix der folgenden Form (2) Aus den unteren n Zeilen dieser Matrix (Zeilen 2 bis n + ) erhält man die Matrix B K n m Nach Induktionsannahme kann man B durch elementare Zeilenumformungen auf Stufenform bringen Schließlich können die Einträge in der ersten Zeile der Matrix (2), die oberhalb der Stufen stehen, durch geeignete A k, (c)- Operationen auf 0 gebracht werden Insgesamt hat man damit A in eine Stufenform gebracht Wir wenden nun den Satz und das im Beweis beschriebene Verfahren auf das Beispiel 2 und ein Beispiel über einem endlichen Körper an

45 KAPITEL LINEARE GLEICHUNGSSYSTEME 45 Beispiel 22 Ausgangsmatrix von Beispiel 2: V, A,2( ), A,3( 2) A 4,3(), A 4,2(), A 4,() M 2( 2 ), A 2,4( 3 2 ) Die entstandene Matrix ist in Stufenform: Wir betrachten das folgende lineare Gleichungssystem mit Koeffizienten aus Z 5 : x 3 = 4 3x + x 2 + x 3 = 2 x + 4x 2 = 4 Wir leiten daraus die erweiterte Matrix (A, b) ab und bringen sie auf Stufenform V, A,2(2) A 3,2() Die entstandene Matrix hat Stufenform, aus ihr lässt sich sofort die (eindeutige) Lösung ablesen x = 3 x 2 = 4 x 3 = 4 Satz 26 Jede elementare Zeilenumformung (und damit jede Folge von elementaren Zeilenumformungen) an einer Matrix A K n m ist Ergebnis einer Multiplikation von links mit einer regulären Matrix U K n n

46 KAPITEL LINEARE GLEICHUNGSSYSTEME 46 Für jeden Typ der elementaren Zeilenumformungen aus Definition 23 wollen wir die entsprechende reguläre Matrix U K n n angeben Sei E ij diejenige Matrix aus K n n, die überall mit Nullen besetzt ist bis auf die Position (i, j), an der sie eine hat (i) Hier sieht die Matrix U wie folgt aus: dh (u ij ) = für i = j {k, l} 0 für i = j {k, l} für i = k, j = l und für i = l, j = k 0 sonst Für i, j, k, l n gilt damit folgt U U = E n U = E n E kk E ll + E lk + E kl { (0) k j E ij E kl = E il k = j (ii) Für die Addition des c-fachen der k-ten Zeile zur l-ten Zeile erhalten wir als Matrix U also U = E n + c E lk mit (U ) = E n c E lk

47 KAPITEL LINEARE GLEICHUNGSSYSTEME 47 (iii) Für die Multiplikation der k-ten Zeile mit c erhalten wir als Matrix U also U = E n + (c ) E kk mit (U ) = E n + (c ) E kk Beispiel 23 Beispiel zu (i) V k,l : Wir vertauschen die 2 und 4 Zeile einer Beispielmatrix V 2, Das gleiche Ergebnis erhält man bei der Multiplikation von links mit der Matrix U } 0 {{ 0 } U 2 Beispiel zu (ii) A k,l (c) : Wir addieren das 2-fache der Zeile zur 3 Zeile A,3(2) Wir können aber auch unsere Beispielmatrix von links mit der Matrix U mutiplizieren } 0 0 {{ } U 3 Beispiel zu (iii) M k (c): Wir multiplizieren die 2 Zeile unserer Beispielmatrix mit M 2( )

48 KAPITEL LINEARE GLEICHUNGSSYSTEME 48 Oder man multipliziert von links mit der Matrix U } 0 0 {{ } U Wir wenden nun Satz 26 auf die erweiterte Matrix (A, b) K n (m+) eines linearen Gleichungssystems an und nehmen an, dass die Stufen in den Spalten j j 2 j r auftreten Die Spalte j i, i =,, r, ist also die Spalte, in der die i-te Zeile den ersten Eintrag ungleich Null - genau genommen gleich - enthält Wir unterscheiden nun zwei Fälle Fall : j r = m +, dh, die r-te Gleichung des umgeformten linearen Gleichungssystems lautet 0x + 0x x n =, so dass das Gleichungssystem offenbar keine Lösung besitzt In diesem Fall ist also L = Fall 2: j r m Das umgeformte Gleichungssystem lautet also: x j + x j2 + x jr + m a j=j + j j 2,,j r m a j=j 2+ j j 3,,j r m j=j r+ j x j = a,m+ 2 j x j = a 2,m+ a r j x j = a r,m+ 0 = 0 0 = 0 Alle x i außer x j,, x jr sind frei wählbar; aus deren Wahl ergeben sich dann

49 KAPITEL LINEARE GLEICHUNGSSYSTEME 49 die restlichen x j,, x jr durch einfache Umstellung: x j := a,m+ x j2 := a 2,m+ x jr := a r,m+ m a j x j j=j + j j 2,,j r m a2 j x j j=j 2+ j j 3,,j r m j=j r+ a r j x j Damit haben wir also eine vollständige Beschreibung der Lösungsmenge des linearen Gleichungssystems Aus der konstruktiven Beschreibung der Lösungsmenge sehen wir sofort, dass das Gleichungssystem genau dann eindeutig lösbar ist, wenn keine x i mehr frei wählbar sind, sondern die Lösungen durch die (umgeformten) rechten Seiten eindeutig bestimmt werden Das ist genau dann der Fall, wenn {j,, j r } = {,, m} ist Insbesondere ist dann r = m Da es höchstens so viele Stufen wie Zeilen gibt, erhalten wir also das folgende Korollar: Korollar 27 Falls das lineare Gleichungssystem () eine eindeutige Lösung besitzt, so gilt m n Beweis: Falls das lineare Gleichungssystem () eine eindeutige Lösung besitzt, so gilt {j,, j r } = {,, m} r = m, r n m n Definition 28 (Homogene lineare Gleichungssysteme) Das lineare Gleichungssystem () heißt homogen, wenn b = b 2 = = b n = 0 Ein homogenes lineares Gleichungssystem hat immer eine Lösung, nämlich x = x 2 = = x m = 0 Diese Lösung (x,, x n ) t = 0 heißt triviale Lösung Satz 29 Ist n = m und hat das homogene lineare Gleichungssystem a x + a 2 x a n x n = 0 a 2 x + a 22 x a 2n x n = 0 a n x + a n2 x a nn x n = 0 nur die triviale Lösung, so hat () für jede rechte Seite b,, b n eine eindeutig bestimmte Lösung

50 KAPITEL LINEARE GLEICHUNGSSYSTEME 50 Beweis: Wir betrachten die erweiterte Matrix (A, 0) des homogenen Gleichungssystems Da dieses eindeutig lösbar ist, muss sich (A, 0) durch elementare Zeilenumformungen in die folgende Stufenform bringen lassen: (beachte n = m) Wendet man dieselben Zeilenumformungen auf die Matrix (A, b) für ein beliebiges b K n an, so erhält man die Matrix 0 0 b 0 0 b b n Die eindeutige Lösung des zugehörigen Gleichungssystems lässt sich sofort daraus ablesen x = b, x 2 = b 2,, x n = b n 3 Invertieren von Matrizen Im letzten Abschnitt haben wir gesehen, wie man lineare Gleichungssysteme A x = b algorithmisch löst und dabei gleichzeitig Aussagen über die allgemeine Lösbarkeit solcher Gleichungssysteme erhält Von zentraler Bedeutung waren dabei elementare Zeilenumformungen, die man auch durch Multiplikation (von links) mit regulären, dh invertierbaren Matrizen realisieren kann Die Lösbarkeit homogener Gleichungssysteme ist fundamental für die Lösbarkeit ganzer Klassen von Gleichungssystemen In diesem Abschnitt wollen wir zeigen, wie man durch eine Erweiterung der Anwendung des Gauß-Algorithmus gleichzeitig Lösungen für beliebige rechte Seiten erhalten (bzw vorbereiten) und das Inverse einer regulären Matrix berechnen kann Um ein Gleichungssystem A x = b, A K n m zu lösen, haben wir den Gauß-Algorithmus auf die Matrix (A, b) angewendet Wollen wir danach ein System A x = c lösen, müssen wir den Algorithmus mit der Matrix (A, c) wiederholen Um diesen Aufwand zu reduzieren, lösen wir nun Gleichungssysteme mit einer generischen rechten Seite, dh wir wenden den Gauß-Algorithmus auf die Matrix (A, E n ) K n (m+n) an Sei U die Umformungsmatrix, die der Folge elementarer Zeilenumformungen, um A in Stufenform zu bringen, entspricht Durch dieselben Umformungen wird die Einheitsmatrix zur Matrix U E n = U, also zur Umformungsmatrix selbst Die Matrix E n nimmt bei der Modifizierung also die Informationen der Zeilenumformungen auf Konkret passiert bei den Zeilenumformungen der Matrix (A, E n ) folgendes:

51 KAPITEL LINEARE GLEICHUNGSSYSTEME 5 Wir formen A und damit (A, E n ) auf Stufenform um und erhalten eine Matrix (B, C) Diese Umformung von (A, E n ) nach (B, C) entspricht einer Multiplikation von links mit einer (regulären) Umformungsmatrix U K n n, also B = U A und C = U E n = U B hat also Stufenform und C ist die Umformungsmatrix Für beliebige rechte Seiten b des Gleichungssystems A x = b kann man nun die Informationen zur Umformung in Stufenform folgendermaßen ausnutzen: A x = b U }{{ A } x = U b, B dh x ist genau dann eine Lösung von A x = b wenn x eine Lösung von B x = U b ist Dabei ist B in Stufenform, bzw entspricht E n wenn A regulär ist, und somit lässt sich das letztere Gleichungssystem einfach lösen Beispiel 3 (beliebige rechte Seite) Wir betrachten nun das (eindeutig lösbare) Gleichungssystem aus Beispiel 2 mit einer beliebigen anderen rechten Seite 2x + 2y = y + z = 2 (3) x + z = 3 Also ist A = 0, 2 b = 4 0 Wir stellen die Stufenform zur Koeffizientenmatrix A her V 0, A,3( 2) 0 0 A2,3( 2) M 3( 4 ) A 3,2( ) A 3,( ) } 0 {{ } =B=U A

52 KAPITEL LINEARE GLEICHUNGSSYSTEME 52 wobei U die Umformungsmatrix ist: U = }{{}}{{}}{{} A 3,( ) A 3,2( ) M 3( 4 ) }{{}}{{}}{{} A 2,3( 2) A,3( 2) V,3 /4 /2 /2 = /4 /2 /2 /4 /2 /2 = Wir erhalten also als vereinfachtes Gleichungssystem A x = b U A }{{} =B=E 3 x = U b x = U b, und müssen nur noch U b berechnen, um die Lösung für x zu erhalten U 2 = = /4 = /4 9/4 Lösung des linearen Gleichungssystems 3 ist also x = 3 4, y = 4, z = 9 4 Dieselbe Idee nämlich die Betrachtung der Matrix (A, E n ) anstelle von A kann man auch benutzen, um das Inverse von (regulären) Matrizen auszurechnen Sei A x = b ein Gleichungssystem mit regulärer Matrix A K n n Dann ist A x = b genau dann, wenn x = A b, das Gleichungssystem ist also eindeutig lösbar Durch Anwendung des Gauß-Algorithmus erhält man aus der Matrix (A, E n ) die Matrix (E n, U) mit E n = B = U A,

53 KAPITEL LINEARE GLEICHUNGSSYSTEME 53 also ist U = A Wir erhalten damit den folgenden Satz: Satz 3 Sei A K n n eine reguläre quadratische Matrix Dann ist A x = b eindeutig lösbar, und man erhält das Inverse A, indem man dieselben Zeilenumformungen auf die Einheitsmatrix in derselben Reihenfolge anwendet Beispiel 32 (Invertierung) Das Gleichungssystem 2x + 2y = 2 y + z = 4 x + z = ist eindeutig lösbar (siehe Beispiel 2) Hier ist A = 0, 2 b = 4 0 Das Inverse zu A entspricht der Umformungsmatrix U, die wir bereits in Beispiel 3 bestimmt haben Wir können das Inverse aber auch bei der Umformung von A mitbestimmen A,3( 2) M V,3 A2,3( 2) A 3,2( ) A 3,( ) /4 /2 /2 0 0 /4 /2 /2 0 0 /4 /2 /2 Die Umformungsmatrix steht nun in dem abgetrennten, hinteren Bereich der Matrix

54 Kapitel 2 Lineare Abbildungen und Matrizen 2 Lineare Abbildungen Homomorphismen sind strukturerhaltende Abbildungen, dh Abbildungen, die mit den Verknüpfungen auf Mengen verträglich sind Vektorraumhomomorphismen werden auch lineare Abbildungen genannt; sie sind mit der Addition von Vektoren und mit der Skalarmultiplikation verträglich Definition 2 (Lineare Abbildungen, Vektorraumhomomorphismus) Es seien V und W zwei K-Vektorräume und ϕ : V W eine Abbildung Dann heißt ϕ linear oder Vektorraumhomomorphismus, falls die folgenden Bedingungen gelten: und ϕ( v + v ) = ϕ( v) + ϕ( v ) ϕ(s v) = s ϕ( v) für alle v, v V (Additivität) für alle s K und v V (Homogenität) Aus der Homogenität folgt sofort eine zentrale Eigenschaft linearer Abbildungen Nullvektoren werden unter Vektorraumhomomorphismen wieder auf Nullvektoren abgebildet: Satz 22 Sind V und W zwei K-Vektorräume und ist ϕ : V W eine lineare Abbildung, so ist ϕ( 0) = 0 Beweis: Es gilt: ϕ( 0) = ϕ(0 0) = 0 ϕ( 0) = 0 Vektorraumhomomorphismen/Lineare Abbildungen lassen sich auch durch eine 54

55 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 55 Bedingung charakterisieren: Satz 23 (Charakterisierung linearer Abbildungen) Es seien V und W zwei K-Vektorräume und ϕ : V W eine Abbildung Die Abbildung ϕ ist genau dann linear, wenn ϕ(s v + v ) = s ϕ( v) + ϕ( v ) für alle s K und v, v V (2) Beweis: Seien v, v V, s K Sei ϕ linear Dann ist ϕ(s v + v ) = ϕ(s v) + ϕ( v ) (Additivität) = s ϕ( v) + ϕ( v ) Homogenität Es gelte Gleichung 2 Wir zeigen die Additivität: ϕ( v + v ) = ϕ( v + v ) = ϕ( v) + ϕ( v ) = ϕ( v) + ϕ( v ), und die Homogenität: ϕ(s v) = ϕ(s v + 0) = s ϕ( v) + ϕ( 0) = s ϕ( v) Um eine Abbildung auf Linearität zu untersuchen, können wir also zwei verschiedene Tests durchführen Wenn der Nullvektor nicht auf den Nullvektor abgebildet wird, ist die Abbildung keinesfalls linear Andernfalls gilt es, Bedingung (2) zu überprüfen Wir betrachten dazu nun ein paar Beispiele Beispiel 2 Es sei V ein K-Vektorraum und c K ein Skalar Dann ist die Abbildung linear Denn für alle s K und v, v V ϕ c : V V v c v ϕ c (s v + v ) = c (s v + v ) = s (c v) + c v = s ϕ c ( v) + ϕ c ( v )

56 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 56 2 (Nullabbildung): Sind V und W zwei K-Vektorräume, dann ist die Abbildung ϕ : V W v 0 für alle v V linear, denn es ist ϕ = ϕ c für c = 0 Die Nullabbildung ist also ein Vektorraumhomomorphismus 3 (Differenzierbare Funktionen): Es sei V der R-Vektorraum aller differenzierbaren Funktionen von R nach R, also V := { f : R R f ist differenzierbar } R R, und f bezeichne die Ableitung der Funktion f V Dann ist die durch f f definierte Abbildung von V nach R R linear Dies folgt sofort aus den bekannten Ableitungsregeln (Faktorregel und Summenregel) für Funktionen Ein besonders wichtiges Beispiel für eine lineare Abbildung wird durch den folgenden Satz gegeben: Satz 24 Sei A K m n eine Matrix Definiere ϕ A durch Jede solche Abbildung ϕ A ist linear ϕ A : K n K m, x A x Der Beweis folgt sofort aus den Rechenregeln für Matrizen Wir werden später sehen, dass alle linearen Abbildungen zwischen Vektorräumen K m und K n diese Form haben, also durch Matrizen darstellbar sind Dementsprechend muss auch die folgende Eigenschaft von Homomorphismen gelten: Schaltet man zwei lineare Abbildungen (geeignet) hintereinander, so erhält man wieder eine lineare Abbildung Die Komposition von zwei linearen Abbildungen entspricht dann nämlich der Multiplikation zweier Matrizen, was wiederum eine Matrix, also eine lineare Abbildung, zum Ergebnis hat Lemma 25 Es seien U, V und W drei K-Vektorräume Sind ϕ : U V und ψ : V W lineare Abbildungen, so ist die Hintereinanderausführung ebenfalls eine lineare Abbildung ψ ϕ : U W v ψ(ϕ( v))

57 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 57 Beweis: Seien v, w V und s K Wir benutzen Satz 23, um die Linearität nachzuweisen ψ ϕ (s v + w) = ψ(ϕ(s v + w)) = ψ(s ϕ( v) + ϕ( w)) = s ψ(ϕ( v)) + ψ(ϕ( w)) = s ψ ϕ( v) + ψ ϕ( w) Satz 26 Es seien V und W zwei K-Vektorräume, { v,, v n } V sei eine Basis von V, und w,, w n W seien n Vektoren in W Dann gibt es genau eine lineare Abbildung ϕ : V W mit ϕ( v i ) = w i für i =,, n (22) Beweis: Seien { v,, v n }, w,, w n wie angegeben Zunächst definieren wir ϕ : V W wie folgt: Jedes v V lässt sich eindeutig als Linearkombination der Basisvektoren v,, v n darstellen, dh es gibt eindeutig bestimmte Skalare s,, s n K mit v = s v + + s n v n Definiere dann ϕ( v) = s w + + s n w n Für die Basisvvektoren v i selbst gilt v i = 0 v v i + v i + 0 v i v n, also ϕ( v i ) = w i = w i, daher ist (22) erfüllt Wir müssen noch zeigen, dass ϕ linear ist, und verwenden dazu Satz 23 Seien also u, v V, und r K Dann gilt u = s v + + s n v n, v = t v + + t n v n ϕ(r u + v) = ϕ(r (s v + + s n v n ) + t v + + t n v n ) = ϕ((rs + t ) v + + (rs n + t n ) v n ) = (rs + t ) w + + (rs n + t n ) w n = r(s w + + s n w n ) + t w + + t n w n = rϕ( u) + ϕ( v) Es bleibt die Eindeutigkeit von ϕ zu zeigen Sei dazu ϕ eine beliebige lineare Abbildung, die (22) erfüllt Dann gilt für den beliebig gewählten Vektor v,

58 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 58 dass ϕ ( v) = ϕ (t v + + t n v n ) = t ϕ ( v ) + + t n ϕ ( v n ) = t w + + t n w n = ϕ( v), also ϕ = ϕ Damit ist ϕ durch (22) eindeutig bestimmt Beispiel 22 (im R 2 ) Wir betrachten den R-Vektorraum R 2 mit der Basis { e, e 2 } Eine lineare Abbildung ϕ : R 2 R 2 ist dann eindeutig durch die Bilder w := ϕ( e ) und w 2 := ϕ( e 2 ) gegeben Für einen beliebigen Vektor v = ( s s 2 ) = s e + s 2 e 2 R 2 gilt dann ϕ( v) = s w + s 2 w 2 Sei zb w = ( ) und w2 = ( 0 2), dann gilt ϕ( v) = s w + s 2 w 2 ( ) ( ) 0 = s + s 2 2 ( ) s = s + 2s 2 Korollar 27 Jede lineare Abbildung ϕ : K n K m ist von der Form ϕ = ϕ A für eine Matrix A K m n, wobei ϕ A wie in Satz 24 definiert ist Die Matrix A heißt auch darstellende Matrix von ϕ Beweis: Sei ϕ : K n K m eine lineare Abbildung, sei { e,, e n } die Standardbasis von K n Dann ist ϕ( e i ) K m für alle i, i n, wir können also schreiben Wir setzen Dann ist ϕ( e i ) = A = a i a mi K m, i n a a n K m n a m a mn ϕ A ( e i ) = A e i = a i a mi = ϕ( e i ) für i n ϕ A und ϕ stimmen also auf den Standardbasisvektoren überein Nach Satz 26 gilt dann ϕ A = ϕ Damit haben wir alle linearen Abbildungen zwischen Vektorräumen K n und K m bestimmt Um diese Erkenntnis für lineare Abbildungen zwischen allgemeinen

59 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 59 Vektorräumen ausnutzen zu könnnen, müssen wir Homomorphismen zwischen allgemeinen Vektorräumen einerseits und den Standardräumen K n andererseits untersuchen Das Ziel ist, eine lineare Abbildung ϕ : V W in eine Hintereinanderschaltung linearer Abbildungen ϕ : V ϕ K n ϕ2 K m ϕ3 W (23) zu zerlegen ϕ 2 muss dann ein Homomorphismus ϕ A sein, während ϕ und ϕ 2 die Aufgabe haben, V bzw W zu klassifizieren Zu diesem Zweck sind die Eigenschaften Injektivität und Surjektivität nötig Lineare Abbildungen können injektiv, surjektiv und auch bijektiv sein: Definition 28 (Monomorphismus, Epimorphismus, Isomorphismus) Wir betrachten Homomorphismen zwischen beliebigen K-Vektorräumen V, W (i) Ein injektiver Vektorraumhomomorphismus heißt (Vektorraum-) Monomorphismus (ii) Ein surjektiver Vektorraumhomomorphismus heißt (Vektorraum-) Epimorphismus (iii) Ein bijektiver Vektorraumhomomorphismus heißt (Vektorraum-) Isomorphismus Definition 29 (Isomorphie) Zwei K-Vektorräume V und W heißen isomorph (in Zeichen V = W ), falls es einen Vektorraumisomorphismus ϕ : V W gibt Wenn zwei Vektorräume V und W isomorph sind, dann haben beide Vektorräume die gleiche Struktur, lediglich die Benennumg ihrer Elemente ist ggf verschieden Man könnte also sagen, dass die Vektorräume einander entsprechen Ein Vektorraumisomorphismus bildet aufgrund der Bijektivität jedes Element eindeutig auf eines des Bildbereiches ab und andersherum, was man einer Umbenennung der Elemente gleichsetzen kann Die Linearität des Isomorphismus sorgt wiederum dafür, dass die Struktur der Operationen zwischen den Elementen erhalten bleibt Dh, es ist egal, ob wir eine Berechnung in V oder in W durchführen, es kommt das bis auf die Benennung eindeutig bestimmte Ergebnis heraus Satz 20 (Eigenschaften von Isomorphismen) Es seien U, V und W drei K-Vektorräume (i) Ist ϕ : U V ein Isomorphismus, so ist auch die Umkehrabbildung ϕ : V U ein Isomorphismus (ii) Sind ϕ : U V und ψ : V W Isomorphismen, so ist auch die Hintereinanderausführung ψ ϕ : U W ein Isomorphismus (iii) Die Isomorphie = ist eine Äquivalenzrelation auf der Menge der K- Vektorräume

60 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 60 Beweis: zu (i): Sei ϕ : U V ein Isomorphismus, dh ϕ ist linear und bijektiv Dann ist ϕ : V U definiert und ebenfalls bijektiv Wir müssen noch zeigen, dass ϕ linear ist Seien v, v 2 V Dann gibt es eindeutige u, u 2 U mit ϕ( u i ) = v i, also auch ϕ ( v i ) = u i, i =, 2 Sei s K ϕ (s v + v 2 ) = ϕ (s ϕ( u ) + ϕ( u 2 )) nach Satz 23 ist dann ϕ linear = ϕ (ϕ(s u ) + ϕ( u 2 )) = ϕ (ϕ(s u + u 2 )) = s u + u 2 = s ϕ ( v ) + ϕ ( v 2 ) zu (ii): Dies folgt sofort mit Lemma 25, da die Hintereinanderausführung bijektiver Abbildung auch wieder bijektiv ist zu (iii): V = W genau dann, wenn es einen Isomorphismus ϕ : V W gibt Insbesondere ist die identische Abbildung id V : V V, v v, ein Isomorphismus, damit ist V = V, und = ist reflexiv Mit (i) folgt aus V = W auch W = V, also die Symmetrie von = Wegen (ii) schließlich ist = transitiv, dh aus U = V und V = W folgt U = W Damit sind die Eigenschaften einer Äquivalenzrelation (s Definition 320, Teil I) gezeigt Die Isomorphierelation = liefert also als Äquivalenzrelation eine passende Methode, um Vektorräume zu klassifizieren Die Frage lautet insbesondere, wie viele Äquivalenzklassen von Vektorräumen existieren, wie viele Möglichkeiten es also gibt, eine Vektorraumstruktur zu bilden Ebenfalls interessant wäre es zu wissen, welche Vektorräume z Bsp isomorph zu den Standardräumen K n sind, da uns diese Räume bereits vertraut sind und ihre Eigenschaften eingehend untersucht wurden Gibt es auch noch andere Möglichkeiten, einen Vektorraum aus den Elementen des K n zu bilden? Wir beantworten im Folgenden diese Frage und betrachten hierzu die Funktion c B Sei V ein K-Vektorraum der Dimension n, sei B = { v,, v n } V eine Basis von V Wir wollen im Folgenden immer voraussetzen, dass durch die Nummerierung i =,, n eine Reihenfolge der Basiselemente v,, v n von B festgelegt ist Aus der Definition von Basen folgt, dass es zu jedem Vektor v V eindeutige Koeffizienten s,, s n K gibt mit v = s v + + s n v n Wegen der Festlegung der Reihenfolge können wir dem Vektor v V diese

61 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 6 Koeffizienten eindeutig zuordnen und erhalten eine Abbildung c B : V K n, v = s v + + s n v n s s n (24) Satz 2 Die in (24) definierte Abbildung c B : V K n ist ein Isomorphismus mit Umkehrabbildung c B : Kn V, s s n v = s v + + s n v n Beweis: Seien B und c B festgelegt wie angegeben Seien v, w V, s K Seien s,, s n, t,, t n die (eindeutigen) Koeffizienten mit v = s v + + s n v n w = t v + + t n w n Wir zeigen zunächst, dass c B eine lineare Abbildung ist: Es ist also s v + w = (ss + t ) v + + (ss n + t n ) v n, c B (s v + w) = ss + t ss n + t n s = s + s n c B ist injektiv, denn sei c B ( v) = c B ( w), dh s s n = t t n c B ist auch surjektiv, denn zu jedem V mit c B ( v) = s s n Umkehrabbildung c B t t n = s c B ( v) + c B ( w) s = t,, s n = t n v = w s s n K n gibt es v = s v + +s n v n K n, c B ist also ein Isomorphismus Es ist klar, dass die ist wie angegeben Wir haben also mit c B einen Isomorphismus von beliebigen n-dimensionalen Vektorräumen auf den K n gefunden Das bedeutet, dass jeder denkbare n-

62 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 62 dimensionale Vektorraum die gleiche Struktur hat wie der K n, und es folgt damit das folgende Korollar Korollar 22 Jeder n-dimensionale Vektorraum ist isomorph zu K n Daraus ergibt sich sofort der folgende Satz: Satz 23 Je zwei endlich dimensionale K-Vektorräume derselben Dimension n sind isomorph Beweis: Seien V, V 2 K-Vektorräume mit dim V = dim V 2 = n Seien B, B 2 Basen von V bzw V 2 mit festgelegter Reihenfolge Dann sind c B : V K n, c B 2 : K n V 2 Isomorphismen nach Satz 2, also ist auch c B c B 2 : V V 2 nach Satz 20 ein Isomorphismus, und folglich sind V und V 2 isomorph Die K-Vektorräume der Dimension n bilden also eine Isomorphie-Äquivalenzklasse mit dem bekanntesten Vertreter K n 22 Matrix einer linearen Abbildung Wir setzen unsere Überlegungen zur Charakterisierung beliebiger linearer Abbildungen ϕ : V W (V, W endlich dimensionale K-Vektorräume) fort Nach Satz 26 ist ϕ eindeutig bestimmt durch die Bilder auf einer Basis von V Ganz ähnlich wie im Beweis von Korollar 27 kann ϕ in Abhängigkeit von den gewählten Basen durch eine Matrix beschrieben werden Dies wollen wir uns im Folgenden genauer anschauen Sei dim V = n mit Basis B = { v,, v n }, dim W = m mit Basis B = { w,, w m }, wobei wir wie üblich sowohl für B als auch für B die Reihenfolge der Elemente festlegen (sonst muss man alle Permutationen der Reihenfolge betrachten) Dann ist nach Satz 26 ϕ durch die Angabe von ϕ( v j ) W für j =,, n vollständig bestimmt Der Vektor ϕ( v j ) W lässt sich eindeutig in der Basis B ausdrücken: ϕ( v j ) = a j w + + a mj w m m = a ij w i für j =,, n, i= wobei a ij K für i =,, m und j =,, n, dh (a ij ) K m n Wir erhalten also eine Matrix, deren j-te Spalte die Koeffizienten für die Berechnung von

63 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 63 ϕ( v j ) in Abhängigkeit von den Basisvektoren w i angibt ( j n, i m): a a j a n (a ij ) = a m a mj a mn Wir halten dies in der folgenden Definition fest Definition 22 (Matrix einer linearen Abbildung) Seien V, W endlich dimensionale K-Vektorräume, dim V = n mit Basis B = ( v,, v n ) und dim W = m mit Basis B = ( w,, w m ), sei ϕ : V W eine lineare Abbildung Die durch m ϕ( v j ) = a ij w i für i =,, m, j =,, n, (22) i= definierte Matrix (a ij ) K m n heißt Matrix von ϕ bezüglich der Basen B und B, in Zeichen B [ϕ] B = (a ij ) K m n Beispiel 22 Es sei A K m n und ϕ A : K n K m die zugehörige lineare Abbildung mit ϕ A ( x) = A x Es seien B = ( e,, e n ) die Standardbasis von K n und B = ( e,, e m) die Standardbasis von K m Dann ist a j ϕ A ( e j ) = A e j = m = a ij e i für j =,, n a i= mj Folglich ist also B [ϕ A] B = A 2 Sei V = R 3, W = R 2 mit den Basen 0 B = v =, v 2 = 0, v 3 = 0 als Basis von V und B = { ( ( 0 w =, w 0) 2 = )} als Basis von W Sei ϕ : V W definiert durch ( ϕ( v ) = = w ) + w 2 ( ) ϕ( v 2 ) = = w w 2 ( 0 ϕ( v 3 ) = = 0 w ) + w 2 Dann ist B [ϕ] B = ( ) 0 0

64 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 64 Wir haben also eine Matrix A := B [ϕ] B, die bezgl der gewählten Basen B und B die lineare Abbildung ϕ : V W in Matrixform kodiert und damit wiederum eine lineare Abbildung ϕ A : K n K m definiert ϕ A ist ein geeigneter Kandidat für den Homomorphismus ϕ 2 zur Zerlegung von ϕ in (23) Um diese Zerlegung mit ϕ A herzustellen, brauchen wir geeignete Isomorphismen von V nach K n und von W nach K m, die insbesondere die Beziehung von ϕ A zu ϕ definieren Wir erinnern uns dazu an die Abbildungen c B aus (24) Es gilt V = K n und W = K m dank der Isomorphismen c B : V K n, v = s v + + s n v n c B : W K m, w = t w + + t m w m s s n t t m c B übersetzt also einen Vektor v V in seine Darstellung im K n bezgl der Basis B Auf diese Darstellung können wir nun die Abbildung ϕ A anwenden und erhalten eine Abbidung ϕ A c B : V K m, V K n K m, A = B [ϕ] B Diese Abbildung ist insbesondere linear, da die Komposition linearer Abbildungen wiederum linear ist (25) Ebenso gilt für eine lineare Abbildung ϕ : V W, dass c B ϕ : V K m eine lineare Abbildung von V nach K m ist Wir wollen im Folgenden c B ϕ mit Hilfe der Matrix B [ϕ] B beschreiben Satz 222 Es seien V und W zwei K-Vektorräume, B = { v,, v n } eine Basis von V und B = { w,, w m } eine Basis von W Sei weiterhin ϕ : V W eine lineare Abbildung, und sei A := B [ϕ] B Dann gilt Das Abbildungsdiagramm 2 ist also kommutativ c B ϕ = ϕ A c B (222) Beweis: Nach Definition gilt B [ϕ] B = (a ij ) K m n mit ϕ( v j ) = a j w + + a mj w m für j =,, n, also c B ϕ( v j ) = c B (ϕ( v j )) = a j a mj

65 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 65 V ϕ W c B c B K n ϕ A K m c B ϕ = ϕ A c B Abbildung 2: Kommutatives Abbildungsdiagramm zu Satz 222 Weiterhin ist also auch 0 c B ( v j ) = 0 Für alle Basisvektoren gilt dann j -te Zeile 0 ϕ A c B ( v j ) = (a ij ) = 0 c B ϕ( v j ) = ϕ A c B ( v j ) a j a mj Da sowohl c B ϕ( v j ) als auch ϕ A c B ( v j ) lineare Abbildungen sind, muss nach Satz 26 gelten c B ϕ = ϕ A c B Mit diesem Satz erhalten wir nun unsere gewünschte Zerlegung von ϕ Wir wenden das Inverse von c B (s Satz 2) auf beide Seiten von Gleichung (222) an, und erhalten c B ϕ = ϕ A c B ϕ = c B ϕ A c B Das bedeutet insbesondere, dass alle linearen Abbildungen zwischen zwei endlich dimensionalen Vektorräumen V und W mit fest gewählten Basen eindeutig durch eine Abbildungsmatrix beschrieben sind Die Menge aller linearen Abbildungen von V nach W entspricht damit der Menge aller Matrizen A K m n, wenn dim V = n und dim W = m gilt

66 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 66 Beispiel 222 Sei ϕ definiert wie in Beispiel 2 Sei Dann ist c B ( v) = s s 2 s 3 v = s v + s 2 v 2 + s 3 v 3 = s + s s = s + s 2 s + s 3 s 2 + s 3 und c B (ϕ( v)) = c B (s ϕ( v ) + s 2 ϕ( v 2 ) + s 3 ϕ( v 3 )) = c B (s ( w + w 2 ) + s 2 ( w ) + s 3 ( w 2 )) = c B ((s + s 2 ) w + (s + s 3 ) w 2 ) ( ) s + s = 2 s + s 3 ( ) 0 B [ϕ] B c B ( v) = s s 0 2 s 3 ( ) s + s = 2, s + s 3 also c B (ϕ( v)) = B [ϕ] B c B ( v) Das folgende Korollar zeigt, dass die Matrixmultiplikation durch die Kompatibilität mit der Hintereinanderschaltung linearer Abbildungen motiviert ist: Korollar 223 Es seien U, V und W drei endlich-dimensionale K-Vektorräume und ϕ : U V und ψ : V W lineare Abbildungen Ist B Basis von U, B Basis von V und B Basis von W, so gilt B [ψ ϕ] B = B [ψ] B B [ϕ] B Beweis: Seien B = { u,, u n } Basis von U B = { v,, v m } Basis von V B = { w,, w l } Basis von W, seien B [ϕ] B = A = (a ij ) K m n und B [ψ] B = C = (c ki ) K l m, dh m ϕ( u j ) = a ij v i i= l ψ( v i ) = c ki w k k=

67 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 67 Durch Hintereinanderschaltung erhält man ψ ϕ( u j ) = ψ(ϕ( u j )) m = ψ( a ij v i ) = i= m a ij ψ( v i ) i= m l = a ij ( c ki w k ) = i= k= l m ( c ki a ij ) w k k= i= } {{ } (C A) kj also ( B [ψ ϕ] B ) kj = (C A) kj, insgesamt also die Behauptung Beispiel 223 Wir setzen Beispiel 222 fort und kombinieren nun ϕ : R 3 R 2 mit ψ : R 2 R 2, ( ( ψ( w ) = ψ = = w 0) ) + w 2 ( ) ( ) 0 2 ψ( w 2 ) = ψ = = 2 w w 2 (sowohl für Definition- als auch für Bildbereich von ψ betrachten wir dieselbe Basis B ) Dann ist also ( ) 2 B [ψ] B = 2 Für die Hintereinanderausführung erhalten wir also ψ ϕ : R 3 ϕ R 2 ψ R 2 ψ ϕ( v ) = ψ( w + w 2 ) = ψ( w ) + ψ( w 2 ) = 3 w + 3 w 2, ψ ϕ( v 2 ) = ψ( w ) = w + w 2, ψ ϕ( v 3 ) = ψ( w 2 ) = 2 w + 2 w 2, ( ) 3 2 B [ψ ϕ] B = 3 2 ( ) ( ) 2 0 = 2 0 = B [ψ] B B [ϕ] B

68 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 68 Man kann die Assoziativität der Matrixmultiplikation durch Ausrechnen zeigen, eleganter folgt das mit diesem Korollar: Korollar 224 Die Matrixmultiplikation ist assoziativ, dh für A K m n, B K n p und C K p q gilt (A B) C = A (B C) Dies folgt leicht durch Betrachtung der zugehörigen linearen Abbildungen ϕ A, ϕ B, ϕ C aus Satz 223, da die Hintereinanderschaltung von Abbildungen assoziativ ist Im Folgenden wollen wir uns nicht auf die lineare Abbildung selbst konzentrieren, sondern die Darstellung von Vektoren bezgl unterschiedlicher Basen (desselben Vektorraums) untersuchen Sei also V ein K-Vektorraum mit dim V = n und id V : V V die identische Abbildung Definition 225 (Basiswechselmatrix) Sei V ein K-Vektorraum mit Basen B = ( v,, v n ) und B = ( w,, w n ) Dann heißt die Matrix Basiswechselmatrix Q = (q ij ) := B [id V ] B Jeder Vektor v V lässt sich sowohl bzgl B als auch bzgl B eindeutig darstellen: das heißt v = c B ( v) = n s i v i und v = i= s s n n s i w i, i= und c B ( v) = Mit Hilfe der Basiswechselmatrix Q = (q ij ) lässt sich die eine Darstellung leicht aus der anderen gewinnen: Lemma 226 Die Voraussetzungen und Notationen seien wie in Definition 225 Für jeden Vektor v V gilt dann c B ( v) = Q c B ( v), und insbesondere erhält man für jeden Basisvektor v j die folgende Darstellung: v j = n q ij w i i= s s n Beweis: Für v V ist nach Satz 222 c B ( v) = c B (id V ( v)) = c B id V ( v) = Q c B ( v)

69 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 69 Ist v = v j B, so ist c B ( v j ) = Q c B ( v j ) = Q 0 0 = q j q nj, j-te Zeile dh v j = n i= q ij w i Wir können nun die Abbildung id V auch bezgl iterierter Basiswechsel betrachten: B B B B B B Mit Satz 223 gilt dann (wegen id V id V = id V ) B [id V ] B B[id V ] B = B [id V ] B = E n und B[id V ] B B [id V ] B = B [id V ] B = E n, wobei E n K n n die n n Einheitsmatrix ist Folglich ist B [id V ] B = Q die zu Q := B [id V ] B inverse Matrix Satz 227 Sei V ein K-Vektorraum der Dimension n, seien B, B Basen von V Dann ist die Basiswechselmatrix Q = B [id V ] B invertierbar, die inverse Matrix ist Q = B [id V ] B Schließlich untersuchen wir nun, wie sich Basiswechsel auf die Matrizen linearer Abbildungen auswirken: Satz 228 Es seien V und W zwei endlich-dimensionale K-Vektorräume und ϕ : V W eine lineare Abbildung Weiter seien B und B Basen von V und C und C Basen von W Dann ist C [ϕ] B = C [id W ] C C[ϕ] B B[id V ] B Beweis: Wir können ϕ auch in der Form ϕ = id W ϕ id V schreiben und erhalten dann mit Korollar 223 direkt C [ϕ] B = C [id W ϕ id V ] B = C [id W ] C C [ϕ] B B [id V ] B

70 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 70 Beispiel 224 Wir betrachten den Vektorraum V = R 2 mit den Basen {( ( {( ( 0 B = { e, e 2 } =, und B 0) )} = { w, w 2 } =, 2) )} Es sei ϕ : V V die durch ϕ( e ) = ( ) und ϕ( e 2 ) = ( ) definierte lineare Abbildung Dann ist für beliebige Vektoren (( )) x ϕ = x x ϕ( e ) + x 2 ϕ( e 2 ) = 2 Wegen und ist Mit Satz 228 ist dann ϕ( e ) = ϕ( e 2 ) = ( ) 3 = 4 3 e e 2 3 B[ϕ] B = ( ) 2 3 = 2 3 e + 3 e 2 3 ( B [ϕ] B = B [id V ] B B[ϕ] B B[id V ] B mit B [id V ] B = ( B [id V ] B ) Man sieht sofort, dass ( ) B[id V ] B = 2 ist, daraus erhält man durch Invertieren ( ) ( ) M 2( /3) 0 0 also ist Insgesamt ist also B [id V ] B = B [ϕ] B = ( 3 = A,2( 2) A 2,( ) ( ) = ( ) ( 3 ( 3 x x x + 3 x 2 ( ) ( ) ) ) ( ) ( ) ) ( ) ( ) 0 = 2 0 )

71 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 7 23 Dimensionssatz und Homomorphiesatz Auch bei Vektorraumhomomorphismen sind Kern und Bild besonders interessant: Definition 23 (Kern und Bild einer linearen Abbildung) Es seien V und W zwei K-Vektorräume und ϕ : V W eine lineare Abbildung Dann ist Kern(ϕ) := { v V ϕ( v) = 0 } V Bild(ϕ) := { ϕ( v) v V } = ϕ(v ) W Beispiel 23 Wir betrachten den R-Vektorraum V = W = R 2 und die lineare Abbildung ϕ : V W mit (( ( ) ( ) ( x x y x ϕ := = y)) y x y) Dann gilt (( ( x 0 ϕ = y)) 0) { x y = 0 y x = 0 also ist Kern(ϕ) = x = y, {( ) } { x R 2 x = y = x y ( ) x R} = ( ) Für die Bildvektoren ( a b ) R 2 gilt ( ) ( ) a x y = b y x für x, y R { a = x y b = y x a = b, also { ( a Bild(ϕ) = b) } ( R 2 b = a = ) Abbildung 22 veranschaulicht Bild und Kern in der euklidischen Ebene Satz 232 Es seien V und W zwei K-Vektorräume und ϕ : V W eine lineare Abbildung Dann gilt: (i) Kern(ϕ) ist Teilraum von V und Kern(ϕ) = { 0} ϕ injektiv (Monomorphismus)

72 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 72 Kern(ϕ) Bild(ϕ) Abbildung 22: Bild und Kern aus Beispiel 23 (ii) Bild(ϕ) ist Teilraum von W und Bild(ϕ) = W ϕ surjektiv (Epimorphismus) Ist V = v,, v n, so ist Bild(ϕ) = ϕ( v ),, ϕ( v n ) (23) Beweis: zu (i): Wegen ϕ( 0) = 0 ist 0 Kern(ϕ), also Kern(ϕ) Seien s K, v, w Kern(ϕ) Dann ist ϕ(s v + w) = s ϕ( v) + ϕ( w) = s = 0, also auch s v + w Kern(ϕ) Wegen Lemma 024 ist Kern(ϕ) also ein Teilraum von V Wir müssen noch zeigen, dass gilt ϕ injektiv Kern(ϕ) = { 0} Ist ϕ injektiv, so kann es höchstens einen Vektor v mit ϕ( v) = 0 geben, und das ist der Nullvektor, also Kern(ϕ) = { 0} Sei Kern(ϕ) = { 0} Seien v, v 2 V mit ϕ( v ) = ϕ( v 2 ) 0 = ϕ( v ) ϕ( v 2 ) = ϕ( v v 2 ),

73 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 73 also v v 2 Kern(ϕ) = { 0} und daher Also ist ϕ injektiv v v 2 = 0 v = v 2 zu (ii): Wegen ϕ( 0) = 0 ist 0 Bild(ϕ), also Bild(ϕ) Seien s K, w, w 2 Bild(ϕ) Dann gibt es v, v 2 V mit w = ϕ( v ), w 2 = ϕ( v 2 ), und daher ist s w + w 2 = s ϕ( v ) + ϕ( v 2 ) = ϕ(s v + v }{{} 2 ) Bild(ϕ) V Nach Lemma 024 ist damit Bild(ϕ) ein Teilraum von W Die Äquivalenzaussage gilt allgemein für Abbildungen und folgt direkt aus der Definition für Surjektivität Es bleibt also noch Eigenschaft (23) zu zeigen Sei V = v,, v n, sei w Bild(ϕ) Dann gibt es v V mit w = ϕ( v) Für v gibt es s,, s n K mit v = s v + +s n v n w = ϕ( v) = s ϕ( v )+ +s n ϕ( v n ) Jedes w Bild(ϕ) lässt sich also als Linearkombination der ϕ( v i ) darstellen Damit ist Bild(ϕ) = ϕ( v ),, ϕ( v n ) Bemerkung: Um das Bild einer linearen Abbildung zu bestimmen, kann Eigenschaft (23) sehr hilfreich sein Insbesondere dann ist das der Fall, wenn die lineare Abbildung durch eine Matrix definiert ist, dh ϕ A : R n R m, x A x mit A K m n In diesem Fall können wir als Basis des R n die Standardbasis { e,, e n } wählen und erhalten für i n: a a n ϕ A ( e i ) = A e i = 0 a m a mn 0 = a i a mi i-te Zeile Das Bild von ϕ A wird also von den Spaltenvektoren aus A erzeugt Satz 233 (Dimensionssatz für Homomorphismen) Ist V endlich-dimensional, so ist dim V = dim Kern(ϕ) + dim Bild(ϕ)

74 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 74 Beweis: Sei dim V = n Mit Satz 232 sind Kern(ϕ) und Bild(ϕ) Teilräume von V mit dim Kern(ϕ) = d n (nach Korollar 05) Sei { v,, v d } eine Basis von Kern(ϕ), die wir nach Satz 055 zu einer Basis { v,, v d, v d+,, v n } von V erweitern können Weiterhin ist nach Korollar 05 und nach (23) Bild(ϕ) = ϕ( v ),, ϕ( v n ) = 0,, 0, ϕ( v d+ ),, ϕ( v n ) = ϕ( v d+ ),, ϕ( v n ) Wir müssen nun nur noch zeigen, dass B = {ϕ( v d+ ),, ϕ( v n )} Bild(ϕ) linear unabhängig ist, dann ist und insgesamt Sei also dim Bild(ϕ) = n d dim V = n = d + (n d) 0 = = dim Kern(ϕ) + dim Bild(ϕ) n i=d+ mit s d+,, s n K Folglich ist also n i=d+ n i=d+ s i v i = s i ϕ( v i ) = ϕ( n i=d+ s i v i ) s i v i Kern(ϕ) = v,, v d, d t j v j 0 = j= d t j v j + j= n ( s i ) v i i=d+ Da v,, v n Basisvektoren und daher linear unabhängig sind, folgt t = = t d = s d+ = = s n = 0 Damit folgt auch die lineare Unabhängigkeit von B Definition 234 Es seien V und W zwei K-Vektorräume und ϕ : V W eine lineare Abbildung Der Rang von ϕ ist die Dimension von Bild(ϕ), also Rang(ϕ) := dim Bild(ϕ) Satz 235 Es seien V und W zwei K-Vektorräume und ϕ : V W eine lineare Abbildung Ist V endlich dimensional, so gilt: (i) ϕ surjektiv Rang(ϕ) = dim W (ii) ϕ injektiv Rang(ϕ) = dim V (iii) Ist dim V = dim W, so gilt: ϕ surjektiv ϕ injektiv

75 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 75 Beweis: Sei ϕ : V W eine lineare Abbildung, sei dim V = n (i) folgt sofort mit Satz 232 zu (ii): Ebenfalls mit Satz 232 folgt: ϕ injektiv Kern(ϕ) = { 0} dim Kern(ϕ) = 0, wegen des Dimensionssatzes ist das äquivalent zu dim V = dim Bild(ϕ) = Rang(ϕ) zu (iii): Sei dim V = dim W ϕ injektiv (ii) Rang(ϕ) = dim V = dim W (i) ϕ surjektiv Beispiel 232 (lineare Gleichungssysteme) Es sei A eine m n Matrix über dem Körper K, also A K m n, und Dann ist ϕ A : K n K m, x A x Kern(ϕ A ) = { x K n A x = 0} die Lösungsmenge des duch die Matrix A gegebenen homogenen linearen Gleichungssystems A x = 0 Nach dem Dimensionssatz 233 gilt dim Kern(ϕ A ) = n Rang(ϕ A ) Für b K m ist die Lösungsmenge { x K n A x = b} des (inhomogenen) linearen Gleichungssystems A x = b das Urbild des Vektors b unter der Abbildung ϕ A, also { x K n A x = b } = ϕ A ( b) Kombiniert man eine lineare Abbildung mit Isomorphismen, so ändert sich ihr Rang nicht Satz 236 Seien U, V, W, Y K-Vektorräume, sei ϕ : V W eine lineare Abbildung, seien ϕ : U V und ϕ 2 : W Y Isomorphismen Dann ist Rang(ϕ) = Rang(ϕ ϕ ) = Rang(ϕ 2 ϕ)

76 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 76 Beweis: Seien U, V, W, Y K-Vektrorräume, ϕ : U V, ϕ 2 : W Y Isomorphismen, ϕ : V W eine lineare Abbildung Wir zeigen Rang(ϕ) = Rang(ϕ ϕ ): Es ist w Bild(ϕ ϕ ) u U : w = ϕ ϕ ( u) = ϕ(ϕ ( u)) v V, v = ϕ ( u) : w = ϕ( v) w Bild(ϕ), also Bild(ϕ ϕ ) = Bild(ϕ) und daher Rang(ϕ) = Rang(ϕ ϕ ) Wir zeigen Rang(ϕ) = Rang(ϕ 2 ϕ): Wenn {ϕ( v ),, ϕ( v n )} eine Basis von Bild(ϕ) ist, so ist {ϕ 2 (ϕ( v )),, ϕ 2 (ϕ( v n ))} eine Basis von Bild(ϕ 2 ϕ) (da ϕ 2 Isomorphismus), dh dim Bild(ϕ) = dim Bild(ϕ 2 ϕ) und daher Rang(ϕ) = Rang(ϕ 2 ϕ) Bei Gruppen haben wir Restklassen und Faktorgruppen kennengelernt, solche Strukturen gibt es auch bei Vektorräumen: Definition 237 (Nebenklasse) Ist U ein Teilraum des K-Vektorraums V und v 0 V, dann sei v 0 + U := { v 0 + u u U } Man nennt v 0 + U auch die Nebenklasse oder Restklasse von v 0 nach U Beispiel 233 Sei V = R 2, dann ist { ( ) U = s s R} 2 ein Teilraum von V Für v 0 = ( 2 0 ) R2 entspricht die Nebenklasse von v 0 nach U der Menge {( ( ) 2 v 0 + U = + s s R}, 0) 2 siehe Abb 23 Nebenklassen entstehen zb durch Bildung von Urbildern linearer Abbildungen: Satz 238 Es seien V und W zwei K-Vektorräume, ϕ : V W eine lineare Abbildung Weiter seien v 0 V und w W mit ϕ( v 0 ) = w Dann ist ϕ ( w) = v 0 + Kern(ϕ)

77 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN y U v v 0 + U x Abbildung 23: Die Nebenklasse von v 0 nach U aus Beispiel 233 Beweis: Sei ϕ : V W linear, seien v 0 V, w W mit ϕ( v 0 ) = w Sei u ϕ ( w) = { v V ϕ( v) = w}, also ϕ( u) = w Dann ist dh ϕ( v 0 u) = ϕ( v 0 ) ϕ( u) = w w = 0, v := v 0 u Kern ϕ u = v 0 + v mit v Kern ϕ u v 0 + Kern ϕ Daher ist ϕ ( w) v 0 + Kern ϕ Umgekehrt gilt für jedes u = v 0 + v v 0 + Kern ϕ : ϕ( u) = ϕ( v 0 + v) also auch v 0 + Kern ϕ ϕ ( w) = ϕ( v 0 ) + ϕ( v) = ϕ( v 0 ) = w, }{{} = 0 ( ) 2 6 Beispiel 234 Sei A = K Für die lineare Abbildung ϕ A : R 2 R 2, x A x gilt dann ( ( ) 2 6 Bild(ϕ) =, ) 3 ( ) 2 =, {( ( ) ( } x Kern(ϕ) = R y) x = 0 3 y) ( 3 = ) ( ( 4 2 Für w = ist ϕ 2) 0) ( w), und damit gilt (s Abb 24) (( )) ϕ 4 = 2 {( ) 2 + s 0 ( ) 3 s R}

78 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 78 y Bild(ϕ) 3 2 Kern(ϕ) ϕ ( w) x Abbildung 24: Nebenklassen aus Urbildern linearer Abbildungen 2 y 2 2 x U Abbildung 25: Der R 2 als Partition von Nebenklassen nach U Lemma 239 Die Menge der Nebenklassen eines Teilraums U des K-Vektorraums V bildet eine Partitionierung der Menge V Beweis: Wir definieren auf V eine Relation U durch v U v 2 v v 2 U U ist eine Äquivalenzrelation (Beweis als Übungsaufgabe), die Menge der Äquivalenzklassen bildet also eine Partitionierung von V Jede Äquivalenzklasse [ v 0 ] U entspricht einer Nebenklasse v 0 + U, denn: v [ v 0 ] U v U v 0 v v 0 U v v 0 + U Beispiel 235 Für V = R 2 und U := Kern(ϕ) aus Beispiel 234 folgt mit Lemma 239 V = v 0 + U v 0 R { 2 ( ) 3 = v 0 + s v 0 R 2, s R} V besteht also aus lauter Nebenklassen nach U, wie in Abb 25 angedeutet, und für jeden Vektor w V ist die Nebenklasse, die w enthält, eindeutig bestimmt (s Abb 26)

79 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 79 2 y w 2 2 x w + U U Abbildung 26: Jeder Vektor des R 2 ist Element genau einer Nebenklasse nach U Satz 230 (Restklassenraum, Faktorraum, Quotientenraum) Es seien V ein K-Vektorraum und U ein Teilraum von V Weiter sei V/U := { v + U v V } die Menge der Nebenklassen nach U Für v, w V und s K definiert man ( v + U) + ( w + U) := ( v + w) + U und s ( v + U) := (s v) + U, damit wird V/U ein K-Vektorraum V/U wird Restklassenraum, Quotientenraum oder Faktorraum von V nach U genannt Beweis: Im Wesentlichen ist die Wohldefiniertheit der Addition und der Skalarmultiplikation zu zeigen, dh die Unabhängigkeit des Ergebnisses von den gewählten Restklassenvertretern Es darf nicht passieren, dass einem Funktionsargument der für Vektorräume definierten Abbildungen + und mehrere Funktionswerte zugeordnet werden Die Eigenschaften des Vektorraums für V/U ergeben sich dann aus den Eigenschaften des Vektorraums für V Der Nullvektor in V/U entspricht dabei der Restklasse 0 + U = U Zur Wohldefiniertheit müssen wir folgendes zeigen: (i) Gilt v + U = v 2 + U und w + U = w 2 + U, dann ist auch ( v + w ) + U = ( v 2 + w 2 ) + U (ii) Gilt v + U = v 2 + U und ist s K, so gilt auch (s v ) + U = (s v 2 ) + U Wir benutzen dazu die im Beweis von Lemma 239 definierte Äquivalenzrelation U, dh v + U = v 2 + U [ v ] U = [ v 2 ] U v v 2 U

80 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 80 zu (i): Sei v + U = v 2 + U und w + U = w 2 + U v v 2 U und w w 2 U ( v v 2 ) + ( w w 2 ) U }{{} =( v + w ) ( v 2+ w 2) zu (ii): Sei v + U = v 2 + U, sei s K ( v + w ) + U = ( v 2 + w 2 ) + U v v 2 U s v s v 2 = s( v v 2 ) U s v + U = s v 2 + U Lemma 23 Es seien V ein K-Vektorraum, U ein Teilraum von V und V/U der Faktorraum von V nach U Die Abbildung π : V V/U mit π( v) := v + U ist ein Epimorphismus mit Kern(π) = U Beweis: Sei V ein K-Vektorraum, U ein Teilraum von V und V/U der Faktorraum von V nach U Sei π : V V/U mit π( v) := v + U Zz (i) π ist Homomorphismus (ii) π ist surjektiv (iii) Kern(π) = U zu (i) : Seien v, v, v 2 V, s K π( v + v 2 ) = ( v + v 2 ) + U = ( v + U) + ( v 2 + U) = π( v ) + π( v 2 ) π(s v) = (s v) + U = s( v + U) = s π( v) zu (ii) : zu (iii): Zu jedem v + U V/U ist v wegen π( v) = v + U ein Urbild Der Nullvektor in V/U ist die Restklasse 0 + U = U Dann ist v Kern(π) π( v) = U v + U = U v U, also Kern(π) = U

81 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 8 Satz 232 (Homomorphiesatz für Vektorräume) Es seien V und W zwei K-Vektorräume und ϕ : V W eine lineare Abbildung Dann ist die Abbildung Φ : V/ Kern(ϕ) Bild(ϕ) mit ein Isomorphismus Φ( v + Kern(ϕ)) := ϕ( v) Beweis: Seien V, W K-Vektorräume, ϕ : V W linear Φ : V/ Kern(ϕ) Bild(ϕ) sei definiert durch Es ist zu zeigen: Φ( v + Kern(ϕ)) = ϕ( v) (i) Φ ist wohldefiniert (ii) Φ linear (iii) Φ injektiv (iv) Φ surjektiv zu (i) : Seien v, v 2 V mit v + Kern(ϕ) = v 2 + Kern(ϕ) dh ϕ( v ) = ϕ( v 2 ) zu (ii) : Seien v, v 2 V, s K Zz Φ( v + Kern(ϕ)) = Φ( v 2 + Kern(ϕ)), v + Kern(ϕ) = v 2 + Kern(ϕ) v v 2 Kern(ϕ) ϕ( v ) ϕ( v 2 ) = ϕ( v v 2 ) = 0 ϕ( v ) = ϕ( v 2 ) Φ(s ( v + Kern(ϕ)) + ( v 2 + Kern(ϕ))) = Φ((s v + v 2 ) + Kern(ϕ)) = ϕ(s v + v 2 ) = s ϕ( v ) + ϕ( v 2 ) = s Φ( v + Kern(ϕ)) + Φ( v 2 + Kern(ϕ)) zu (iii): Seien v, v 2 V mit Φ( v + Kern(ϕ)) = Φ( v 2 + Kern(ϕ)) Also ist Φ injektiv ϕ( v ) = ϕ( v 2 ) wie unter (ii) v + Kern(ϕ) = v 2 + Kern(ϕ)

82 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 82 zu (iv): Sei w Bild(ϕ), dh es gibt v V mit w = ϕ( v) Dann ist auch w = Φ( v + Kern(ϕ)), v + Kern(ϕ) V/ Kern(ϕ), also ist Φ surjektiv Daraus folgt sofort: Korollar 233 Es seien V und W zwei K-Vektorräume und ϕ : V W eine lineare Abbildung Dann ist V/ Kern(ϕ) = Bild(ϕ) 24 Hauptsatz über lineare Gleichungssysteme Um den Rang einer Matrix zu definieren, nutzen wir die Verbindung zwischen Matrizen und linearen Abbildungen Definition 24 (Rang einer Matrix) Zu einer n m Matrix A über dem Körper K, also A K n m, betrachten wir die zugehörige lineare Abbildung ϕ A : K m K n, x A x Dann ist der Rang der Matrix A definiert als Rang(A) := Rang(ϕ A ) = dim Bild(ϕ A ) Die Rangbegriffe von Matrizen und linearen Abbildungen sind voll miteinander kompatibel Satz 242 Es seien V und W zwei K-Vektorräume, B = { v,, v n } eine Basis von V und B = { w,, w m } eine Basis von W Für eine lineare Abbildung ϕ : V W gilt dann Rang(ϕ) = Rang( B [ϕ] B ) Beweis: Seien V, W K-Vektorräume mit Basen B (von V ) und B (von W ); sei ϕ : V W linear Sei A = B [ϕ] B Nach Satz 222 gilt c B ϕ = ϕ A c B mit den beiden Isomorphismen c B, c B Nach Satz 236 ist dann Rang(ϕ) = Rang(c B ϕ) = Rang(ϕ A c B ) = Rang(ϕ A ) = Rang(A) = Rang( B [ϕ] B )

83 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 83 Insbesondere ist der Rang der Matrizen B [ϕ] B unabhängig von der Wahl der speziellen Basen B, B Im Folgenden sei A eine n m Matrix über dem Körper K, also A = a a m a n a nm a n K n m Definition 243 (Spaltenraum) Der Spaltenraum SR(A) ist der Teilvektorraum von K n, der durch die Spalten von A erzeugt wird, also a a 2 a m SR(A) :=,,, a n2 a nm Definition 244 (Zeilenraum) Der Zeilenraum ZR(A) ist der Teilvektorraum von K m, der durch die Zeilen von A erzeugt wird, also ZR(A) := (a,, a m ), (a 2,, a 2m ),, (a n,, a nm ) Elementare Spaltenumformungen lassen sich analog zu elementaren Zeilenumformungen definieren (vgl Kapitel 2) Satz 245 (Charakterisierung des Rangs einer Matrix) Es sei A eine n m Matrix über dem Körper K Dann gilt: (i) Rang(A) = dim SR(A), dh, der Rang von A ist die Dimension ihres Spaltenraumes (ii) Der Rang von A ändert sich durch elementare Spaltenumformungen nicht (iii) Der Rang von A ändert sich durch elementare Zeilenumformungen nicht Beweis: zu (i): Es ist Rang(A) = Rang(ϕ A ) = dim Bild(ϕ A ), wobei ϕ A : K m K n, x A x und a a m A = a n a nm

84 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 84 ist Sei { e,, e m } die Standardbasis von K m Dann ist also Rang(A) = dim SR(A) (ii) ist klar mit Lemma 054 Bild(ϕ A ) = ϕ A ( e ),, ϕ A ( e m ) = A e,, A e m a =,, a n = SR(A), a m a nm zu (iii): Die Matrix A gehe aus A durch elementare Zeilenumformungen hervor Dann ist nach Satz 2 Nach Satz 233 gilt dann Kern(ϕ A ) = { x K m A x = 0} = { x K m A x = 0} = Kern(ϕ A ) Rang(A) = m dim Kern(ϕ A ) = m dim Kern(ϕ A ) = Rang(A ) Satz 246 Es sei A eine n m Matrix über dem Körper K Dann gilt: (i) Man kann A durch elementare Zeilen- und Spaltenumformungen auf die Form (24) mit r Einsen auf der Hauptdiagonalen bringen Insbesondere erhält man dadurch Rang(A) = r (ii) Rang(A) = dim(sr(a)) = dim(zr(a)) Beweis:

85 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 85 Abbildung 27: Stufenmatrix zu (i): Nach Satz 25 kann man A durch elementare Zeilenumformungen auf Stufenform (Abb 27) bringen Links oben beginnend kann man dann durch elementare Spaltenumformungen die Einsen auf den Stufen dazu benutzen, alle Einträge derselben Zeile zu Null zu machen; die folgenden Stufen werden dadurch nicht berührt Schließlich sind alle Spalten entweder Einheits- oder Nullvektoren Durch Vertauschung der Spalten erhält man schließlich die Form (24) zu (ii): Da der Rang der Matrix A sich nach Satz 245 weder durch elementare Zeilen- noch durch elementare Spaltenumformungen ändert, hat die Matrix A denselben Rang wie die Matrix A in (24), und dieser ist gerade die Dimension ihres Spaltenraumes, also r : dim A = r = dim SR(A ), wobei r die Anzahl der Stufen ist Auch der Zeilenraum ZR(A) von A hat die Dimension r, da ZR(A) sich unter elementaren Zeilenoperationen nicht verändert und damit gleich dem der Stufenform ist; hier sind die r von Null verschiedenen Zeilenvektoren linear unabhängig Insgesamt also r = dim SR(A ) = dim SR(A) = Rang(A) = dim ZR(A) Beispiel 24 Wir wollen nun Satz 246 anwenden und den Rang einer Matrix dadurch berechnen, dass wir sie durch elementare Zeilen- und Spaltenumformungen auf die Form (24) bringen, von der man dann den Rang leicht ablesen kann A,2( 2), A,3( 3) Rang = Rang s Folien = Rang = 3

86 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 86 Damit können wir nun direkt Aussagen über Lösbarkeit und Lösungsmenge linearer Gleichungssysteme machen Satz 247 (Hauptsatz über homogene lineare Gleichungssysteme) Es sei A K n m (i) Die Lösungsmenge L := { x K m A x = 0} des homogenen linearen Gleichungssystems A x = 0 ist ein Teilraum von K m mit dim L = m Rang(A) (ii) Insbesondere ist A x = 0 genau dann eindeutig lösbar, wenn Rang(A) = m ist Beweis: Sei A K n m zu (i): Es ist L = { x K m A x = 0} = { x K m ϕ A ( x) = 0} = Kern(ϕ A ) Wobei ϕ A : K m K n die bekannte Abbildung ist Nach dem Dimensionssatz 233 gilt: also dh m = dim Kern(ϕ A ) + dim Bild(ϕ A ), m = dim L + Rang(A), dim L = m Rang(A) zu (ii): A x = 0 ist genau dann eindeutig lösbar, wenn L = { 0}, also dim L = 0 ist Wegen (i) ist das äquivalent mit Rang(A) = m Satz 248 (Hauptsatz über inhomogene lin Gleichungssysteme) Es sei A K n m, sei b K m (i) Das inhomogene lineare Gleichungssystem A x = b ist genau dann lösbar, wenn Rang(A) = Rang([A, b]), wobei [A, b] die erweiterte Matrix des linearen Gleichungssystems A x = b ist (ii) Ist v 0 K m mit A v 0 = b eine Lösung des Gleichungssystems, so kann die Lösungsmenge L b := { x K m A x = b} geschrieben werden als L b = v 0 + L = { v 0 + w K m w L} Insbesondere ist das inhomogene lin Gleichungssystem A x = b genau dann eindeutig lösbar, wenn Rang(A) = m und L b 0 ist

87 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 87 Beweis: zu (i): A x = b ist genau dann lösbar, wenn b Bild(ϕ A ) = SR(A) ist Dies ist äquivalent zu SR(A) = SR([A, b]), und dies wiederum zu dim SR(A) = dim SR([A, b]), also Rang(A) = Rang([A, b]) mit Satz 245 zu (ii): Sei v 0 K m mit A v 0 = b Ist x L, dh A x = 0, so gilt A ( v 0 + x) = A v 0 + A x = b + 0 = b, also v 0 + x L b Folglich gilt v 0 + L L b Umgekehrt gilt für ein beliebiges v L b : A ( v v 0 ) = A v A v 0 = b b = 0, dh v v 0 L und daher v v 0 + L Also ist auch L b v 0 + L 25 Algebra der linearen Abbildungen Definition 25 (Hom(V, W ), Endomorphismen) Es seien V und W zwei K-Vektorräume Dann bezeichnen wir die Menge der linearen Abbildungen von V nach W mit Hom(V, W ) := {ϕ : V W ϕ linear} Im Spezialfall V = W bezeichnen wir eine lineare Abbildung von V nach V auch als Endomorphismus und setzen End(V ) := {ϕ : V V ϕ linear} Satz 252 Es seien V und W zwei K-Vektorräume (i) Die Menge Hom(V, W ) bildet einen Teilraum des K-Vektorraums Abb(V, W ) aller Abbildungen von V nach W (ii) Ist dim V = n und dim W = m, so ist Hom(V, W ) = K m n Insbesondere ist dim Hom(V, W ) = m n Beweis:

88 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 88 zu (i): Wir müssen zunächst zeigen, dass Abb(V, W ) ein K-Vektorraum ist Dazu definieren wir wie vom Funktionenraum bekannt (Beispiel 0(3)) für f, g Abb(V, W ) und s K: (f + g)( v) := f( v) + g( v) (s f)( v) := s f( v) für alle v V Für diese Operationen müssen wir jetzt die Eigenschaften aus Definition 0 nachweisen Wir zeigen hier aber nur exemplarisch, wie man die Distributivgesetze nachweisen kann, die anderen Eigenschaften kann man ebenso nachrechnen Sei f Abb(V, W ) und s, s K Dann gilt: ((s + s ) f)( v) = (s + s ) f( v) = s f( v) + s f( v) = (s f)( v) + (s f)( v) für alle v V, also ist (s + s ) f = (s f) + (s f) Ebenso gilt für f, g Abb(V, W ) und s K, dass (s (f + g))( v) = s (f + g)( v) = s (f( v) + g( v)) = s f( v) + s g( v) = (s f)( v) + (s g)( v) für alle v V, und damit ist s (f + g) = (s f) + (s g) Das neutrale Element in Abb(V, W ) ist wie im Funktionenraum die Nullabbildung Φ 0 : V W, Φ 0 ( v) = 0 Das negative Element zu f Abb(V, W ) ist die Abbildung f : V W, ( f)( v) = f( v) Damit gilt insgesamt, dass Abb(V, W ) ein K-Vektorraum ist Wir zeigen nun mit Lemma 024, dass Hom(V, W ) ein Teilraum von Abb(V, W ) ist Hom(V, W ) ist eine nichtleere Teilmenge von Abb(V, W ), da z Bsp Φ 0 Hom(V, W ) Seien s K, ϕ, ψ Hom(V, W ), dann gilt für v, w V, r K (s ϕ + ψ)(r v + w) = s ϕ(r v + w) + ψ(r v + w) = s (rϕ( v) + ϕ( w)) + rψ( v) + ψ( w) = sr ϕ( v) + sϕ( w) + rψ( v) + ψ( w) = r (s ϕ( v) + ψ( v)) + s ϕ( w) + ψ( w) = r ((s ϕ + ψ)( v)) + (s ϕ + ψ)( w) Die Abbildung s ϕ + ψ ist also linear und damit ist s ϕ + ψ Hom(V, W ), und Hom(V, W ) ist damit ein Teilraum von Abb(V, W ) zu (ii): Seien dim V = n, dim W = m, B = { v,, v n } eine Basis von V und B = { w,, w m } eine Basis von W Wir definieren Φ : Hom(V, W ) K m n, ϕ B [ϕ] B Wir zeigen im Folgenden, dass Φ ein Isomorphismus ist Dafür ist es nützlich, sich noch einmal die Eigenschaften von B [ϕ] B in Erinnerung zu rufen Satz

89 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN liefert hier die wichtigen Zusammenhänge Sei ϕ Hom(V, W ), A := B [ϕ] B, dann gilt Ist insbesondere v = v i B, dann ist ϕ( v) = (c B ϕ A c B )( v) = c B (ϕ A(c B ( v))) = c B (A c B( v)) 0 0 c B ( v i ) = 0 0 }{{} =: e i und damit gelten die folgenden Gleichungen i te Zeile, ϕ( v i ) = c B (A e i), (25) c B (ϕ( v i )) = A e i (252) Wir zeigen nun die Linearität von Φ Seien dafür ϕ, ψ Hom(V, W ) und r K Dann ist Φ(r ϕ + ψ) = B [r ϕ + ψ] B, es ist also zu zeigen: B [r ϕ + ψ] B = r B [ϕ] B + B [ψ] B Wir weisen diese Gleichung nun für die Spaltenvektoren der Matrizen nach Es gilt B [r ϕ + ψ] B e i = c B ((r ϕ + ψ)( v i )) 252 = c B (r ϕ( v i ) + ψ( v i )) = r c B (ϕ( v i )) + c B (ψ( v i )) = r B [ϕ] B e i + B [ψ] B e i 25 = (r B [ϕ] B + B [ψ] B ) e i Damit ist B [r ϕ + ψ] B = r B [ϕ] B + B [ψ] B und die Linearität von Φ ist gezeigt Es fehlt noch die Bijektivität Φ ist injektiv: Seien ϕ, ψ Hom(V, W ) mit A := Φ(ϕ) = Φ(ψ) =: B, dann gilt für i {,, n} ϕ( v i ) (25) = c B (A e i) = c B (B e i) (25) = ψ( v i ), und damit ist ϕ = ψ nach Satz 26 Φ ist surjektiv: Sei A = (a ij ) K n m Dann gibt es nach Satz 26 eine lineare Abbildung ϕ Hom(V, W ), definiert durch ϕ( v i ) = m i= a ij w i Für ϕ gilt dann Φ(ϕ) = B [ϕ] B = A

90 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 90 Insgesamt ist also Φ ein Isomorphismus und dim Hom(V, W ) = dim Kern(Φ) + dim Bild(Φ) = 0 + dim K n m = n m nach dem Dimensionssatz für Homomorphismen (Satz 233) Satz 253 Es sei V ein K-Vektorraum Die Menge der Endomorphismen End(V ) bildet mit der Addition und der Multiplikation einen Ring mit Eins (ϕ + ψ)( v) := ϕ( v) + ψ( v) für ϕ, ψ End(V ), v V (ϕ ψ)( v) := ϕ(ψ( v)) für ϕ, ψ End(V ), v V Beweis: Sei V ein K-Vektorraum Wir müssen zeigen, dass (i) (End(V ), +) eine abelsche Gruppe ist, (ii) (End(V ), ) ein Monoid ist, (iii) die Distributivgesetze gelten (i) gilt, da End(V ) nach Satz 252 ein Vektorraum ist zu (ii): Für ϕ, ψ End(V ) ist ϕ ψ End(V ) nach Lemma 25, daher ist (End(V ), ) abgeschlossen, also : End(V ) End(V ) End(V ) Nach Beispiel 85, Teil I ist (V V = {f : V V }, ) ein Monoid Da End(V ) V V und die Identitätsfunktion id V linear ist, das neutrale Element aus V V in End(V ) also enthalten ist, ist (End(V ), ) ebenfalls ein Monoid zu (iii): Seien ϕ, ψ, µ End(V ), v V, dann gilt und (ϕ (ψ + µ))( v) = ϕ((ψ + µ)( v)) = ϕ(ψ( v) + µ( v)) = ϕ(ψ( v)) + ϕ(µ( v)) = (ϕ ψ)( v) + (ϕ µ)( v), ((ϕ + ψ) µ)( v) = (ϕ + ψ)(µ( v)) = ϕ(µ( v)) + ψ(µ( v)) = (ϕ µ)( v) + (ψ µ)( v) Es gilt also ϕ (ψ + µ) = (ϕ ψ) + (ϕ µ) und (ϕ + ψ) µ = (ϕ µ) + (ψ µ), womit die Distributivgesetze gezeigt wären

91 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 9 Satz 254 Ist dim V = n und B eine Basis von V, dann ist µ B : End(V ) K n n ϕ B [ϕ] B ein Ring-Isomorphismus, dh, µ B ist bijektiv mit µ B (ϕ + ψ) = µ B (ϕ) + µ B (ψ) und µ B (ϕ ψ) = µ B (ϕ) µ B (ψ) für ϕ, ψ End(V ) Beweis: Sei dim V = n, B eine Basis von V und µ B wie angegeben Dann entspricht µ B dem Isomorphismus Φ aus dem Beweis von Satz 252 mit V = W und B = B und ist somit bijektiv und linear Damit müssen wir noch zeigen, dass µ B (ϕ ψ) = µ B (ϕ) µ B (ψ) gilt, und dies ist gegeben durch µ B (ϕ ψ) = B [ϕ ψ] B = B [ϕ] B B[ψ] B nach Satz 223 Definition 255 (K-Algebra) Es sei K ein Körper Ein Ring R mit Eins, der gleichzeitig ein K-Vektorraum ist (mit derselben Addition wie im Ring), so dass außerdem noch s (a b) = (s a) b = a (s b) für alle s K, a, b R (253) gilt, heißt eine K-Algebra (mit Eins) Endomorphismenringe und Matrizenringe sind also K-Algebren Satz 256 (Automorphismen, volle lineare Gruppe) (i) Ist V ein K-Vektorraum, so ist GL(V ) := {ϕ End(V ) ϕ ist bijektiv} zusammen mit der Verknüpfung von Abbildungen eine Gruppe, genannt die volle lineare Gruppe (engl: general linear group) Die Elemente von GL(V ) heißen auch Automorphismen (ii) Für n N ist GL(n, K) := {A K n n A invertierbar}, mit der Matrixmultiplikation eine Gruppe, die Gruppe der regulären n n Matrizen

92 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 92 Beweis: Sei V ein K-Vektorraum zu (i): Wir können GL(V ) auch schreiben als GL(V ) = {ϕ : V V ϕ Isomorphismus} Zz: (GL(V ), ) ist eine Gruppe GL(V ) ist unter der Verknüpfung abgeschlossen, da die Komposition von Isomorphismen wieder ein Isomorphismus ist (Satz 20) Da GL(V ) End(V ) und (End(V ), ) ein Monoid ist, überträgt sich die Eigenschaft der Assoziativität auf (GL(V ), ) Die Identitätsfunktion id V ist bijektiv und daher ist id V GL(V ) wieder das neutrale Element Bleibt noch die Existenz der inversen Elemente zu zeigen Sei ϕ GL(V ), dann ist ϕ GL(V ) nach Satz 20, und es gilt Das Inverse zu ϕ ist also ϕ ϕ ϕ = id V = ϕ ϕ zu (ii): Nach Satz 04 bildet die Menge der n n Matrizen mit der für Matrizen definierten Addition und Multiplikation einen Ring Die Matrixmultiplikation in GL(n, K) ist abgeschlossen, da für A, B GL(n, K) die Matrix A B wieder invertierbar ist mit (A B) = B A Die Matrix E n ist invertierbar und somit auch in GL(n, K) das neutrale Element Inverse Elemente existieren, denn für A GL(n, K) gilt Somit ist (GL(n, K), ) eine Gruppe A A = E n = A A Lemma 257 Sind V ein K-Vektorraum mit dim V = n und B eine Basis von V, so ist µ G B : GL(V ) GL(n, K) ϕ B [ϕ] B ein Isomorphismus von Gruppen, das heißt µ G B ist bijektiv und µ G B(ϕ ψ) = µ G B(ϕ) µ G B(ψ) für ϕ, ψ GL(V ) (254) Beweis: Seien V ein K-Vektorraum mit dim V = n, B eine Basis von V und µ G B wie angegeben µg B ist die Einschränkung des Ring-Isomorphismus µ B aus Satz 254, wir zeigen zunächst, dass µ G B wohldefiniert ist Sei dazu ϕ GL(V ) Wir müssen zeigen, dass µ G B (ϕ) = B[ϕ] B GL(n, K) ist Es gilt E n = B [id V ] B = B [ϕ ϕ ] B = B [ϕ] B B[ϕ ] B = B [ϕ ϕ] B = B [ϕ ] B B[ϕ] B

93 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 93 B[ϕ] B ist also invertierbar mit B [ϕ] B = B [ϕ ] B und daher µ G B (ϕ) GL(n, K) Somit ist µ G B als Einschränkung eines Ring-Isomorphismus zumindest injektiv, und Gleichung (254) gilt µ G B ist auch surjektiv, denn für A GL(K, n) ist ϕ := µ B (A) End(V ) und es gilt µ B (A) µ B (A ) = µ B (A A ) = µ B (E n) = id V = µ B (A A) = µ B (A ) µ B (A) Damit ist ϕ GL(V ), und mit µ G B (ϕ) = A ist die Surjektivität gezeigt Daraus folgt insgesamt die Behauptung Korollar 258 Es seien V ein K-Vektorraum mit dim V = n, ϕ End(V ) und A K n n Dann gilt ϕ GL(V ) Rang(ϕ) = n und A GL(n, K) Rang(A) = n Beweis: Sei V ein K-Vektorraum mit dim V = n, ϕ End(V ) und A K n n Dann gilt ϕ GL(V ) ϕ : V V Isomorphismus Rang(ϕ) = dim V = n, wobei die letzte Äquivalenzaussage aus Satz 235 folgt Sei nun B eine Basis von V, µ B der Ring-Isomorphismus aus Satz 254 und µ G B der Gruppenisomorphismus aus Lemma 257 Dann gilt einerseits und andererseits A GL(n, K) Rang(A) = n µ B (A) =: ϕ GL(V ) existiert, B[ϕ] B = A Rang(A) = Rang( B [ϕ] B ) 242 = Rang(ϕ) = n, für ϕ := ν B (A), also B[ϕ] B = A gilt: Rang(ϕ) = Rang( B [ϕ] B ) = n ϕ GL(V ) µ B (ϕ) ist definiert, und µ B (ϕ) = B [ϕ] B = A GL(n, K) Mit Satz 248 folgt dann:

94 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 94 Korollar 259 Es sei A K n n, sei b K n Das lineare Gleichungssystem A x = b ist genau dann eindeutig lösbar, wenn A invertierbar, also A GL(n, K) ist Beweis: Für A K n n und b K n gilt mit Satz 248: Das Gleichungssystem A x = b ist eindeutig lösbar Aus Satz 258 folgt nun Rang(A) = n und L b = { x K n A x = b} Rang(A) = n A GL(n, K), und für A GL(V ) gilt für das inhomogene Gleichungssystem x A x = b = A b L b und somit folgt insgesamt die Behauptung Bemerkung: Ist V ein K-Vektorraum mit dim V >, so ist GL(V ) nicht kommutativ Ist dim V =, so ist (GL(V ), ) isomorph zu (GL(, K), ) Sei B eine Basis von V und µ G B der Gruppenisomorphismus aus Korollar 257 Die Matrizen A GL(, K) können wir schreiben als A = (a) für a K \ {0}, denn Rang((a)) = a 0 Für zwei Matrizen (a), (b) GL(, K), a, b K \ {0} gilt (a) (b) = (a b) = (b a) = (b) (a), (GL(, K), ) ist also kommutativ Ebenso gilt für ϕ, ϕ 2 GL(V ) ϕ ϕ 2 = µ G B (µ G B (ϕ ϕ 2 )) = µ G B (µ G B (ϕ ) µ G B(ϕ 2 )) = µ G B (µ G B (ϕ 2 ) µ G B(ϕ )) = µ G B (µ G B (ϕ 2 ϕ )) = ϕ 2 ϕ, womit gezeigt wäre, dass GL(V ) für dim V = kommutativ ist Ist dim V >, so ist dies nicht mehr gegeben, wie das folgende Beispiel zeigt Beispiel 25 Wir definieren ( ) ϕ : R 2 R 2 x, ϕ = y ϕ 2 : R 2 R 2, ( ) x ϕ 2 = y ( ) x + y = y ( ) x = x + y ( ) 0 }{{} =:A ( ) 0 }{{} =:A 2 ( ) x, y ( x y)

95 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 95 Dann sind ϕ, ϕ 2 GL(R 2 ) und A, A 2 GL(2, R), aber nicht kommutativ, denn es gilt ( ) ( ) ( ) x x 2x + y (ϕ ϕ 2 ) = ϕ y = x + y x + y ( ( ) ( ) x x + y x + y (ϕ 2 ϕ ) = ϕ y) 2 = y x + 2y und damit gilt ϕ ϕ 2 ϕ 2 ϕ Ebenso gilt ( ) ( ) ( ) 0 2 A A 2 = = 0 ( ) ( ) ( ) 0 A 2 A = = 0 2 und damit ist A A 2 A 2 A Aus Kapitel 2 wissen wir: Es sei A GL(n, K) Bringt man die n 2n Matrix (A, E n ) durch elementare Zeilenoperationen auf Stufenform, so erhält man eine n 2n Matrix der Form (E n, U), wobei U = A ist Ist A nicht regulär, so lässt sich die Matrix (A, E n ) durch elementare Zeilenoperationen nicht in diese Form bringen Jede elementare Zeilenoperation entspricht der Multiplikation mit einer regulären Matrix von links (Satz 24) Diese Matrizen werden auch Elementarmatrizen genannt Definition 250 (Elementarmatrizen) Es sei n N, i, j {,, n} mit i j und s K\{0} Die Elementarmatrix V i,j GL(n, K) entsteht aus der Einheitsmatrix E n durch Vertauschen der i-ten und j-ten Zeile 2 Die Elementarmatrix M i (s) GL(n, K) entsteht aus der Einheitsmatrix E n durch Multiplikation der i-ten Zeile mit s 3 Die Elementarmatrix A i,j (s) GL(n, K) entsteht aus der Einheitsmatrix E n durch Addition des s-fachen der i-ten Zeile zur j-ten Zeile Diese Matrizen sind gerade die im Zusammenhang mit Satz 24 behandelten Matrizen Lemma 25 Die inverse Matrix einer Elementarmatrix ist selbst eine Elementarmatrix Beweis: Die Elementarmatrizen entsprechen den Umformungsmatrizen U aus dem Beweis von Satz 26 Wieder sei E ij K n n die Matrix, die an der

96 KAPITEL 2 LINEARE ABBILDUNGEN UND MATRIZEN 96 Position (i, j) eine hat und sonst nur mit Nullen besetzt ist Dann wurde gezeigt, dass für U = V i,j das Inverse ist Für U = M i (s) ist und für U = A i,j (s) ist U = U = V i,j U = E n + (s ) E ii = M i (s ) U = E n s E ij = A i,j ( s) Die jeweiligen Inversen entsprechen also wieder Elementarmatrizen Da die Umformungsmatrix einer regulären Matrix das Inverse der Matrix ist und diese Umformungsmatrix als Produkt von Elementarmatrizen entsteht, folgt sofort: Satz 252 Jede Matrix A GL(n, K) ist ein Produkt von Elementarmatrizen

97 Kapitel 3 Determinanten und Eigenwerte 3 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen, also A K n n für ein n N: a a 2 a n A = a n a n2 a nn Für n > bezeichnet Ǎij ( i, j n) die (n ) (n )-Matrix, die aus A durch Streichen der i-ten Zeile und j-ten Spalte entsteht: a a 2 a,j a,j+ a n Ǎ ij = a i, a i,2 a i,j a i,j+ a i,n a i+, a i+,2 a i+,j a i+,j+ a i+,n a n a n2 a n,j a n,j+ a nn Ǎ ij wird auch Streichungsmatrix genannt Definition 3 (Determinanten, rekursiv definiert) Sei A K n n Für n =, also A = (a ), ist a die Determinante von A Schreibweise: det(a) = a Für n > : n det(a) := ( ) i+ a i det(ǎi) i= 97

98 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 98 Ǎ ij bezeichnet dabei eine Streichungsmatrix Beispiel 3 Für n = 2 liefert die Definition ( ) a a det 2 = a a 2 a det(ǎ) a 2 det(ǎ2) = a a 22 a 2 a 2 22 Für n = 3 entsprechend det a a 2 a 3 a 2 a 22 a 23 = a det(ǎ) a 2 det(ǎ2) + a 3 det(ǎ3) a 3 a 32 a 33 = a (a 22 a 33 a 32 a 23 ) a 2 (a 2 a 33 a 32 a 3 ) + a 3 (a 2 a 23 a 22 a 3 ) Bemerkung: Statt det(a) schreibt man oft A oder auch a a 2 a n a 2 a 22 a 2n a n a n2 a nn Wenn v,, v n die Spalten der Matrix A K n n sind, dann schreibt man auch det( v,, v n ) := det(a) Satz 32 (Entwicklung von det(a) nach einer Zeile oder Spalte) Sei A K n n Dann ist det(a) = n j= ( )i+j a ij det(ǎij) für jedes i {,, n} (Entwicklung nach der i-ten Zeile), 2 det(a) = n i= ( )i+j a ij det(ǎij) für jedes j {,, n} (Entwicklung nach der j-ten Spalte) Beweis: Diesen Satz kann man bei sorgfältiger Umindizierung durch Induktion beweisen Wir illustrieren die Vorgehensweise für den Fall n = 3 und setzen voraus, dass bzw 2 für n =, 2 gelten Sei also A = a a 2 a 3 a 2 a 22 a 23 a 3 a 32 a 33

99 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 99 zu : Nach Definition ist a det(a) = a 22 a 23 a 32 a 33 a 2 a 2 a 3 a 32 a 33 + a 3 a 2 a 3 a 22 a 23 IV = a n=2 a 22 a 23 a 32 a 33 a 2(a 2 a 33 a 3 a 32 ) + a 3 (a 2 a 23 a 3 a 22 ) a = a 22 a 23 a 32 a 33 a 2(a 2 a 33 a 3 a 23 ) + a 3 (a 2 a 32 a 3 a 32 ) a = a 22 a 23 a 32 a 33 a 2 a 2 a 23 a 3 a 33 + a 3 a 2 a 22 a 3 a 32 = a det(ǎ) a 2 det(ǎ2) + a 3 det(ǎ3), das ist die Entwicklung nach der ersten Zeile zu 2: Wir wollen hier zeigen, dass wir det(a) auch nach der 2 Spalte entwickeln können (wieder unter geeigneter Benutzung der Induktionsvoraussetzung) Wieder ist det(a) = a (a 22 a 33 a 32 a 23 ) a 2 (a 2 a 33 a 3 a 32 ) + a 3 (a 2 a 23 a 3 a 22 ) = a 2 (a 2 a 33 a 23 a 3 ) + a 22 (a a 33 a 3 a 3 ) a 32 (a a 23 a 2 a 3 ) a = a 2 a 23 2 a 3 a 33 + a 22 a a 3 a 3 a 33 a 32 a a 3 a 2 a 23 = ( ) +2 det(ǎ2) + ( ) 2+2 det(ǎ22) + ( ) 3+2 det(ǎ32) dies ist die Entwicklung nach der 2 Spalte Definition 3 benutzt die Definition nach der Spalte Nach diesem Satz kann man Determinanten auch nach jeder anderen Zeile oder Spalte entwickeln und erhält denselben Wert Beispiel 32 Beispiel (n = 3): Für n = 3 bekommt man als Entwicklung von A nach der zweiten Zeile det(a) = ( ) 3 a 2 det(ǎ2) + ( ) 4 a 22 det(ǎ22) + ( ) 5 a 23 det(ǎ23) = a 2 (a 2 a 33 a 32 a 3 ) + a 22 (a a 33 a 3 a 3 ) a 23 (a a 32 a 3 a 2 ) Dies steht im Einklang mit der ursprünglichen Definition, wie man leicht nachrechnet Korollar 33 Zu A K n n sei A t die transponierte Matrix Dann gilt det(a) = det(a t ) Beweis: durch vollständige Induktion nach n: n = : Es ist (a ) = (a ) t, also det(a) = det(a t )

100 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 00 Induktionsvoraussetzung: Sei die Behauptung bewiesen für alle (n ) (n ) Matrizen n n : Sei nun A K n n Wir entwickeln A t nach der ersten Zeile und A nach der ersten Spalte, wobei die zugehörigen Vektoren nach der Definition der transponierten Matrix identisch sind: n det(a) = ( ) i+ a i det(ǎi) det(a t ) = i= n ( ) i+ a i det((ǎt ) i ) i= Nun ist (Ǎt ) i = (Ǎi) t, und nach Induktionsvoraussetzung gilt: Folglich det(a) = det(a t ) det(ǎt ) i = det(ǎi) t = det(ǎi) Satz 34 Sei A K n n mit Spalten v,, v n, sei s K sowie w K n Dann gilt für beliebige i, j {,, n} mit i j det( v,, v i,, v n ) + det( v,, v i, w, v i+,, v n ) = det( v,, v i, v i + w, v i+,, v n ) 2 det( v,, s v i,, v n ) = s det( v,, v i,, v n ) 3 det( v,, v i,, v j,, v n ) = det( v,, v j,, v i,, v n ) Beweis: Sei A = ( v,, v n ) K n n, seien s K und w K n zu () : Sei B = ( v,, v i, w, v i+,, v n ), C = ( v,, v i, v i + w, v i+,, v n ) Wir entwickeln alle Determinanten nach der i-ten Spalte, wobei v i = v i v ni, w = w w n sind: det(c) = n ( ) j+i (v ji + w j ) det(čji) j= Nun ist Čji = Ǎji = ˇB ji für alle j =,, n, da sich A, B, C nur in der i-ten Spalte unterscheiden und diese in den Streichungsmatrizen vollständig gestrichen ist Damit folgt n n det(c) = ( ) j+i v ji det(ǎji) + ( ) j+i w j det( ˇB ji ) j= = det(a) + det(b) j=

101 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 0 zu (2) : Dies folgt analog zu () mit Hilfe der Entwicklung nach der i-ten Spalte und aus der Distributivität der Skalarmultiplikation zu (3) : Dies folgt durch zweifache Anwendung von Satz 32 auf die entstehenden Streichungsmatrizen Wir illustrieren die Vorgehensweise für den Fall n = 3: a a 2 a 3 Sei A = a 2 a 22 a 23, det A ist wie oben bereits (mehrfach) berechnet a 3 a 32 a 33 Nun vertauschen wir erste und zweite Spalte: a 2 a a 3 a 22 a 2 a 23 a 32 a 3 a 33 = a 2 a 2 a 23 a 3 a 33 a 22 a a 3 a 3 a 33 + a 32 a a 3 a 2 a 23 = a 2 (a 2 a 33 a 3 a 23 ) a 22 (a a 33 a 3 a 3 ) + a 32 (a a 23 a 2 a 3 ) Wir beobachten hier, dass die nach zweimaliger Anwendung des Satzes 32 entstehenden Determinanten der Rest streichungsmatrizen dieselben sind, wie bei der ursprünglichen Matrix (in diesem Fall sind dies einfach a 3, a 23, a 33 ), dass sich aber die Vorzeichen der entsprechenden Koeffizienten umgedreht haben; in diesem speziellen Fall sieht man das noch einfacher, wenn man die Determinante mit den vertauschten Spalten nach der zweiten Spalte entwickelt Es ist also det a 2 a a 3 a 22 a 2 a 23 = det a a 2 a 3 a 2 a 22 a 23 a 32 a 3 a 33 a 3 a 32 a 33 Bemerkung: Wegen der Eigenschaften und 2 ist die Determinante det( v,, v n ) in jeder Komponente v i linear Man nennt det daher Multilinearform Wegen 3 heißt det auch alternierende Multilinearform Korollar 35 Sei A K n n mit Spalten v,, v n, sei s K Dann gilt: det( v,, v i,, v n ) = 0 falls v i = 0 2 Ist v i = v j für i j, so ist det( v,, v i,, v j,, v n ) = 0 3 det( v,, v i,, v n ) = det( v,, v i + s v j,, v n ) falls i j 4 Sind v,, v n linear abhängig, dann gilt det( v,, v n ) = 0 Beweis: zu () : Ist v i = 0, so zeigt die Entwicklung nach der i-ten Spalte, dass det( v,, v i,, v n ) = 0 ist

102 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 02 zu (2) : Sei v i = v j für i j: Wegen Satz 34 ist det( v,, v i,, v j,, v n ) = det( v,, v j,, v i,, v n ), andererseits det( v,, v j,, v i,, v n ) = det( v,, v i,, v j,, v n ), da ja v i = v j Das ist nur möglich, wenn det( v,, v i,, v j,, v n ) = 0 zu (3) : Nach Satz 34 ist i-te Pos det( v,, v i + s v j,, v n ) = det( v,, v i,, v n ) + s det( v,, v j,, v n ) i-te Pos = det( v,, v i,, v n ), da det( v,, v j,, v n ) = 0, weil in dieser Matrix an zwei verschiedenen Positionen der Vektor v j enthalten ist (vgl (2)) zu (4) : Seien v,, v n linear abhängig Dann lässt sich ein Vektor als Linearkombination der anderen Vektoren schreiben, sei dies obda v, also n v = s i v i i=2 Dann ist det( v,, v n ) = det( = n i=2 = 0, n s i v i, v 2,, v n ) i=2 s i det( v i, v 2,, v n ) }{{} =0 da in allen Matrizen ein Vektor an zwei verschiedenen Stellen vorkommt Satz 34 und Korollar 35 behandeln (auch) Veränderungen der Determinante bei elementaren Spaltenumformungen Wegen det(a) = det(a t ) gelten die gleichen Aussagen auch für elementare Zeilenumformungen, dh wir erhalten das folgende Korollar: Korollar 36 Entsteht A aus A durch eine elementare Zeilenumformung V k,l, so gilt: det(a ) = det(a) Entsteht A aus A durch eine elementare Zeilenumformung M k (c), so gilt: det(a ) = c det(a) Entsteht A aus A durch eine elementare Zeilenumformung A k,l (c), so gilt: det(a ) = det(a) Das letzte Korollar besagt insbesondere, dass sich die Determinante einer Matrix aus ihrer Stufenform berechnen lässt (und umgekehrt)

103 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 03 Stufenform-Matrizen haben eine besonders einfache Form, sie sind insbesondere obere Dreiecksmatrizen Eine Matrix A K n n ist eine obere Dreiecksmatrix, wenn alle Einträge unterhalb der Diagonalen 0 sind Die Determinanten solcher Matrizen lassen sich leicht berechnen Lemma 37 Ist A K n n eine obere Dreiecksmatrix, also a a 2 a,n a n 0 a 22 a 2,n a 2n A =, an,n 0 0 a nn dann gilt det(a) = a a 22 a nn Beweis: Sei A K n n eine obere Dreiecksmatrix, also a a 2 a,n a n 0 a 22 a 2,n a 2n A = 0 an,n a nn Wir beweisen das Lemma durch Induktion nach n: n = : Hier ist A = (a ) und det A = a, wie gefordert Induktionsvoraussetzung: Das Lemma sei bewiesen für alle oberen (n ) (n )-Dreiecksmatrizen n n: Sei A eine obere n n-dreiecksmatrix Durch Entwicklung nach der ersten Spalte erhalten wir det(a) = a det Ǎ,da alle anderen Einträge in der ersten Spalte 0 sind Ǎ ist eine obere (n ) (n )-Matrix, und nach Induktionsvoraussetzung gilt daher: det(ǎ) = a 22,, a nn Insgesamt folgt damit det(a) = a a 22 a nn Beispiel 33 Es sei K = R und A :=

104 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 04 Wir subtrahieren das 2 -fache der ersten von der zweiten Zeile und das 3 2 -fache der ersten von der dritten Das ergibt die Matrix A := mit det(a) = det(a ) (wegen Korollar 35) Vertauschung von Zeile 2 und 3 ändert das Vorzeichen: det(a) = det(a ) = Nach Lemma 37 gilt: det(a) = ( ) 2 ( 3) 4 = 24 Durch den Vergleich der Determinanten von A und ihrer Stufenform erhalten wir den folgenden wichtigen Satz: Satz 38 Sei A K n n Dann ist A regulär genau dann, wenn det(a) 0 Beweis: Sei A K n n Durch elementare Zeilenumformungen kann man A auf Stufenform B bringen, wobei der Rang von A erhalten bleibt (s Satz 245) und der Wert der Determinante mit ( ) oder einem Skalar s 0 multipliziert wird Es gilt also Rang(A) = Rang(B) und det(a) 0 det(b) 0 Ist Rang(A) = n (genau dann ist A regulär, s Korollar 258, so ist B = E n mit det(b) = 0, also auch det(a) 0 Ist Rang(A) < n, so enthält B eine Nullzeile, und damit ist det(b) = 0 Insgesamt folgt damit die Behauptung Dh, um zu bestimmen, ob eine Matrix invertierbar ist, müssen wir nur ihre Determinante ausrechnen Im Folgenden wollen wir zeigen, dass sich die Inverse einer regulären Matrix mit Hilfe der Determinante bestimmen lässt Satz 39 (Determinantenmultiplikation) Für beliebige A, B K n n gilt det(a B) = det(a) det(b) Beweis: Seien A, B K n n Ist eine von beiden nicht regulär, so ist auch A B nicht regulär, und nach Satz 38 gilt: det(a B) = 0 = det(a) det(b)

105 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 05 Sind beide Matrizen A, B regulär, so sind sie nach Satz 252 Produkt aus Elementarmatrizen, so dass man die Behauptung nur für den Fall zeigen muss, dass A Elementarmatrix ist Der allgemeine Fall ergibt sich dann durch iterierte Anwendung Für die Elementarmatrizen V ij, M i (s), A ij (s) GL(n, K) (s Def 250) gilt: det(v ij ) = det(m i (s)) = s det(a i,j (s)) = Wir betrachten nun det(a B) für den Fall, dass A eine Elementarmatrix ist, und beachten, dass Multiplikation von links mit Elementarmatrizen elementaren Zeilenumformungen entspricht det(v ij B) = det(b) = ( ) det(b) = det(v ij ) det(b) det(m i (s) B) = s det(b) det(a ij (s) B) = det(b) = det M i (s) det(b) = det(b) = det(a ij (s)) det(b) Hat eine n n-matrix A den Rang n, dann ist A (nach Korollar 258) invertierbar, dh, es existiert eine n n-matrix A mit Daraus folgt: det(a) det(a ) = det(a A ) = det(e n ) = Korollar 30 Sei A K n n Dann ist Beispiel 34 Sei det(a ) = A := det(a) ( ) Dann gilt offenbar det(a) = 2 und det(a k ) = 2 k für alle k N 0 Invers zu A ist die Matrix ( ) A = 2 2 mit 2 2 det(a ) = 2 = det(a)

106 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 06 Definition 3 (Komplementärmatrix) Sei A K n n und B = (β ij ) mit β ij = ( ) i+j det(ǎji) definiert Dann heißt B Komplementärmatrix zu A ( ) Beispiel 35 Wir berechnen zu A = B = (β ij ): die Komplementärmatrix β = ( ) 2 det( ) = β 2 = ( ) 3 det( ) = β 2 = ( ) 3 det( ) = β 22 = ( ) 4 det( ) =, also B = ( ) Satz 32 Sei A K n n, und sei B die Komplementärmatrix zu A Dann gilt: A B = det(a)e n Ist A regulär, so ist A = det(a) B Beweis: Sei A = (a ij ) K n n, sei B die Komplementärmatrix zu A Die Matrix A B hat Einträge der Form n k= a ikβ kj (an der Stelle (i, j)), genauer n a ik β kj = k= = n a ik ( ) k+j det(ǎjk) k= n ( ) j+k a ik det(ǎjk) k= Für i = j ist dies n ( ) i+k a ik det(ǎik) = det(a) k= (Entwicklung nach der i-ten Zeile) Für i j ist dies die Determinante einer Matrix, die aus A durch Ersetzen der j-ten Zeile durch die i-te Zeile entstanden ist Diese Determinante ist aber nach Satz 35 (2) gleich Null Damit ist A B = det(a) E n

107 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 07 Ist A regulär, so ist det(a) 0, dh wir können det(a) dh A = det(a) B A ( det(a) B) = det(a) A B = det(a) det(a) E n = E n, Beispiel 36 Wir berechnen die Inverse zur Matrix A = 32: A = 2 ( ) = ( ) bilden Wir erhalten dieses Ergebnis stimmt mit der oben angegebenen Inversen überein, ( ) mit Satz Satz 33 (Cramersche Regel) Sei A = ( a,, a n ) K n n eine reguläre Matrix mit den Spaltenvektoren a i Dann hat das lineare Gleichungssystem A x = b die Lösung x i = det(a) det( a,, a i, b, a i+,, a n ), i =,, n Beweis: Sei A = ( a,, a n ) GL(n, K), sei B die Komplementärmatrix zu A Dann ist dh für {a,, n} gilt: x i = = = A x = b x = A b det(a) det(a) n β ik b k k= = det(a) B b, n ( ) i+k b k det(ǎki) k= det(a) det( a,, a i, b, a i+,, a n ) Satz 34 Sei V ein endlichdimensionaler Vektorraum und ϕ: V V ein Endomorphismus Seien B, B zwei Basen von V Dann gilt: det( B [ϕ] B ) = det( B [ϕ] B ), dh, die Determinante der darstellenden Matrix von ϕ ist unabhängig von der Wahl von B

108 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 08 Beweis: Sei dim V = n, sei ϕ : V V ein Endomorphismus Seien B, B zwei Basen von V Mit Satz 228 ist B [ϕ] B = A B [ϕ] B A mit einer regulären Basiswechselmatrix A Dann ist det( B [ϕ] B ) = det(a) det( B [ϕ] B ) det(a ) = det(a) det(a) det( B[ϕ] B ) = det( B [ϕ] B ) 32 Eigenwerte Sei im folgenden V = K n (für n 0) ein Vektorraum über K und sei A K n n Definition 32 (Eigenwert,Eigenraum) Ein Skalar λ K heißt Eigenwert von A, wenn es ein v V, v 0 gibt mit A v = λ v Ein Vektor v V, v 0 mit A v = λ v heißt ein Eigenvektor zum Eigenwert λ Die Menge V λ := { v V A v = λ v} heißt Eigenraum zum Eigenwert λ Die Menge σ(a) = {λ K λ Eigenwert von A} heißt Spektrum von A Eigenwerte reduzieren also die komplexe Matrixmultiplikation auf eine Skalarmultiplikation (für gewisse Vektoren) Wie kann man den Eigenraum zu einem Eigenvektor λ bestimmen? Seien dim V = n, v V ein Eigenvektor zum Eigenwert λ Dann gilt A v = λ v A v λ v = 0 A v λ E n v = 0 (A λ E n ) v = 0 v Kern(ϕ A λ En ) V λ = Kern(ϕ A λen ) Insbesondere folgt daraus, dass V λ ein Untervektorraum von V ist Die Eigenvektoren zu λ sind genau die von Null verschiedenen Vektoren in V λ Die Existenz von Eigenvektoren zu λ hängt von der Lösbarkeit des lineare Gleichungssystems (A λe n ) v = 0 ab, und hierfür wiederum ist det(a λe n ) entscheidend Definition 322 (Charakteristisches Polynom) Sei V endlichdimensional Dann heißt χ A (λ) := det(a λ E n ) das charakteristische Polynom von A Satz 323 Sei dim V = n <, sei A K n n Dann gilt für λ K:

109 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 09 λ ist Eigenwert von A det(a λe n ) = 0 Beweis: Seien dim V = n <, A K n n Dann gilt: λ K ist Eigenwert von A v V \ { 0} : v Kern(ϕ A λen ) (A λe n ) v = 0 ist nicht eindeutig lösbar A λe n ist nicht regulär det(a λe n ) = 0 Bemerkung: χ A (λ) ist ein Polynom vom Grad n Es gilt für A = (α ij ): χ A (λ) = ( ) n (λ n n α ii λ n + ± det(a)) i= 2 Es gibt höchstens n Werte λ i K mit det(a λ i E n ) = 0, weil das charakteristische Polynom det(a λe n ) höchstens n Nullstellen hat 3 A hat höchstens n verschiedene Eigenwerte Beispiel A = Wir berechnen nun die Eigenwerte und die zugehörigen Eigenräume von A Es gibt im Grunde 3 Schritte, die wir zur Berechnung durchführen müssen Bestimmung des charakteristischen Polynoms: χ A = det(a λe 3 ) λ 2 4 = det λ λ = λ 3 + 6λ 2 λ Berechnung der Nullstellen von χ A (λ): χ A (λ) = 0 λ 3 + 6λ 2 λ + 6 = 0 Durch Ausprobieren erhält man eine Nullstelle λ = Polynomdivision und p q Formel liefern λ 2 = 2, λ 3 = 3 Die Menge aller Eigenwerte von A (das Spektrum) ist also σ(a) = {, 2, 3}

110 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 0 3 Berechnung von Kern(ϕ A λie 3 ), i =, 2, 3: λ = : (A E 3 ) v = v 0 0 v 2 = v 3 Wir lösen dazu das folgende Gleichungssystem V 0 0 0, A,2(), A,3(2) A2,3( ) v = 0 v 2 = 2v 3 Die Menge der Eigenvektoren zu λ ist v 3 = v 3 2 v 3 v 3 K \ {0} V λ = 2 λ 2 = 2 : (A 2 E 3 ) v = v v 2 v 3 = 0 Wir lösen dazu das folgende Gleichungssystem V 0 0, A,2(2), A,3(2) A2,3( 3 4 ) v = v 2 v 3 = 0 Die Menge der Eigenvektoren zu λ 2 ist v 2 v 2 = v v 2 K \ {0} V λ 2 = 0

111 KAPITEL 3 DETERMINANTEN UND EIGENWERTE λ 3 = 3 : (A 3 E 3 ) v = v 2 0 v 2 = v 3 Wir lösen dazu das folgende Gleichungssystem V 2 0 0, A,2(3), A,3(2) A2,3( 2 ) v = 2v 3 v 2 = v 3 Die Menge der Eigenvektoren zu λ 2 ist 2v v 3 = v 3 v 3 K \ {0} V λ 3 = v 3 Sei ϕ : V V ein Endomorphismus, dim V = n Wir beschäftigen uns im Folgenden mit der Frage Gibt es eine Basis B, so dass B [ϕ] B eine möglichst einfache Form hat? Dazu betrachten wir zunächst ein Beispiel zu der aus Beispiel 32 bekannten Matrix Beispiel 322 A = Das Spektrum von A ist die Menge σ(a) = {, 2, 3} Die Eigenräume lauten V = 0 2 2, 0, V 2 = 0, V 3 = 2 0 Da 2, linear unabhängig sind, gibt es eine Basis des R 3, die nur aus Eigenvektoren von A besteht 0 2 B = 2,, 0

112 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 2 Für diese Basis gilt (unter Beachtung der Reihenfolge der Basisvektoren): ( 0 ) ( 0 ) ( ) ( 2 ) A 2 = ( 0 ) ( 0 ) ( ) ( 2 ) A = ( ) ( 0 ) ( ) ( 2 ) A = B [ϕ A ] B = Bezgl dieser Basis hat A also Diagonalgestalt Sei B 3 die Standardbasis des R 3, dann ist B[ϕ A ] B = B [id R 3] B3 A B3 [id R 3] B 0 2 B 3 [id R 3] B = 2 B [id R 3] B3 = B3 [id R 3] B = Was wir im Beispiel gesehen haben, lässt sich auf viele Matrizen des K n n anwenden Wir untersuchen nun die Eigenschaften und Charakteristika der Matrizen, die sich in Diagonalform bringen lassen Hierbei spielen Eigenvektoren eine große Rolle Definition 324 Eine Matrix A K n n heißt diagonalisierbar, wenn es eine reguläre Matrix S gibt, so dass SAS eine Diagonalmatrix ist Satz 325 Für A K n n sind äquivalent: (i) A ist diagonalisierbar (ii) es gibt in V eine Basis aus Eigenvektoren von A (iii) χ A (λ) = k i= (λ i λ) ni mit k N, λ i K und dim V λi = n i für i k Beweis: Sei B n = { e,, e n } die Standardbasis des K n (i) (ii) A ist diagonalisierbar reguläre Matrix S, so dass λ 0 S AS = 0 λ n mit λ i K, i n S ist regulär, daher sind die Spaltenvektoren von S linear unabhängig Wir können daher als Basis B definieren: s s 2 s n B =,,, s n }{{} =: s s n2 }{{} =: s 2 s nn }{{} =: s n

113 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 3 Dann ist id K n( s i ) = s i e + s 2i e s ni e n für i n, und damit s s n s 2 s 2n B n [id K n] B = = S s n s n Also ist womit gilt, dass B[ϕ A ] B = Bn [id K n] B A Bn [id K n] B = S A S λ 0 =, 0 λ n ϕ A ( s i ) = A s i = 0 s s i + λ i s i + 0 s i s n = λ i s i s i B ist also Eigenvektor zum Eigenwert λ i von A (ii) (iii) Sei B = { b,, b n } eine Basis aus Eigenvektoren zu A Dann ist A b i = 0 b + + λ i b i b n λ 0 B [ϕ A ] B = 0 λ n B [ϕ A ] B = B [id K n] Bn A Bn [id Kn] B }{{}}{{} =:S =:S χ A (λ) = det(a λe n ) = det(s (A λe n )S) = det(s AS λe n ) λ λ 0 = det( ) 0 λ n λ k = (λ i λ) ni, i= wobei Vielfachheiten zusammengefasst werden Seien dim V λi = m i, V λi = b i,, b imi mit b ij B, j m i

114 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 4 Für b B gilt A b = λ i b, wenn b { bi,, b imi } und A b λ i b sonst Damit hat die Darstellugsmatrix bzgl B die Form λ 0 λ i } B[ϕ A ] B = genau m i-mal λ i 0 λn Daraus folgt χ A (λ) = det und m i = n i λ λ 0 λ i λ = λi λ 0 λn λ k (λ i λ) ni (iii) (i) Sei χ A (λ) = k i= (λ i λ) ni mit k N, λ i K und dim V λi = n i für i k Da dim V λi = n i ist, existiert eine Basis B i = { b i,, b ini } von V λi Wenn wir zeigen können, dass B = k i= eine Basis von V ist, so hat ϕ A bezgl der Basis Diagonalgestalt und wir sind fertig Es ist χ A (λ) ein Polynom vom Grad n, daher ist B i k n i = n, i= dh wenn die n Vektoren aus B linear unabhängig sind, ist B eine Basis von V Seien r i,, r ini, i k in K mit Dann gilt n j= n k r j bj + + r kj bkj = 0 }{{} =: v V λ 0 = v + + v k j= v = v 2 v k }{{} =: v k V λk A v = λ v = λ ( v 2 v k ) = λ 2 v 2 λ k v k 0 = (λ λ 2 ) v (λ λ k ) v k i=

115 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 5 Also sind v 2,, v k linear abhängig Auf gleiche Art und Weise kann man nun zeigen, dass v 3,, v k linear abhängig sind, usw, bis wir die Aussage v k ist linear abhängig erhalten Daraus folgt n k v k = 0 = r kj bkj j= Die Vektoren b kj sind linear unabhängig für j n k, also gilt r kj = 0 für j n k Da nach unserer Schlussfolgerung auch gelten muss, dass v k, v k linear abhängig sind, gilt nun auch v k = s v k = 0 und wiederum folgt, dass r k j = 0 ist für j n k Per Induktion folgt schliesslich, dass alle Koeffizienten Null sein müssen, und damit ist B eine Basis Beispiel 323 Die Matrix A = aus dem obigen Beispiel ist diagonalisierbar: Die Matrix A = ( = ) ist über R nicht diagonalisierbar, weil ( λ χ A (λ) = det λ ) = λ 2 + keine Nullstellen hat, A also keine Eigenwerte bzw Eigenvektoren hat 33 Anwendung: Eigenfaces 33 Gesichtserkennung Das Problem, das wir uns in diesem Abschnitt anschauen, besteht darin, die relevanten Informationen zur Repräsentation einer Klasse/Menge von bekannten Objekten automatisch aus Beispieldaten zu ermitteln Also aus einer Menge von Bildern zu lernen, was ein Gesicht darstellt Dieser Abschnitt orientiert sich an dem Artikel Eigenfaces for recognition und der Vorlesung Computervision von Prof Dr-Ing Gernot A Fink

116 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 6 Um dies mit einem Rechner erfassen zu können, werden die Bilder als Vektoren des R n aufgefasst, wobei n der Anzahl an Pixeln in den Bildern entspricht Auf Facebook haben die Profilbilder 80 Pixel in x-richtung und meist zwischen 20 und 240 Pixel in y-richtung Somit haben die entsprechenden Vektorräume Dimensionen zwischen 2600 und Für die Gesichtserkennung gehen wir davon aus, dass wir M Beispielbilder mit einer festen Auflösung von x y = n haben Bilder in anderen Auflösungen müssen dann entsprechend vergrößert, verkleinert oder ausgeschnitten werden Die Bilder sollten bezüglich Helligkeit und Kontrast normalisiert worden sein Damit wollen wir uns hier aber nicht befassen, sondern mit der Gesichtserkennung bei ausreichend guten Bildern Für Interessierte sei auf die Vorlesung Computervision von Prof Dr Fink verwiesen Die Bilder sind nun zu Punkten Γ,, Γ M im hochdimensionalem Vektorraum R n abstrahiert Das Ziel ist dann eine vernünftige Repräsentation der Punktwolke (= Menge der gegebenen Bilder) im Raum der Bilder (= alle möglichen Bilder einer festen Auflösung) zu finden Vernünftige Repräsentation heißt dabei, dass wir damit ein Ähnlichkeitsmaß definieren können, um neue Auftreten von Gesichtern zu erkennen oder zu finden Somit bekommen wir einen Unterraum des Vektorraums aller Bilder Die Hoffnung ist, dass der Raum der Gesichtsbilder ein kleiner Unterraum des Raumes aller Bilder ist Als Ansatz zur Repräsentation des Unterraums wird hier der Schwerpunkt (= Durchschnittsvektor Ψ := M M i= Γ i) der Beispiele als zentrales Element und für die Beschreibung der Abweichungen (Φ i := Γ i Ψ) vom Schwerpunkt die Kovarianzmatrix (C := M M i= Φ iφ t i ) der Unterschiede verwendet Die Kovarianzmatrix enthält Informationen über die Streuung und über die Zusammenhänge der Vektoren Ein Eintrag c ij ist das Produkt der Abweichungen von Pixel i und Pixel j zu dem Durchschnittsbild gemittelt über alle Beispielbilder Ein Wert nahe Null bedeutet, dass durchschnittlich keine gleichzeitige Abweichung der Pixel i und j festzustellen ist Ein hoher positiver Wert bedeutet, dass durchschnittlich die Pixel i und j in die gleiche Richtung (beide positiv oder beide negativ) vom Durchschnittsbild abweichen Ein hoher negativer Wert bedeutet, dass durchschnittlich die Pixel i und j in entgegengesetzte Richtungen (einer positiv und einer negativ) vom Durchschnittsbild abweichen Die Beschreibung der Kovarianzmatrix soll an dieser Stelle genügen Die Kovarianzmatrix begegnet dem Informatikstudenten dann in Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker wieder Die Hauptkomponenten der Kovarianzmatrix (= ihre Eigenvektoren u i ) spannen den gesuchten Unterraum auf Allerdings können wir die Eigenvektoren nicht direkt aus der Matrix C berechnen, da diese die Größe n n hat und somit für typische Bildgrößen viel zu groß ist, um effiziente Berechnungen damit durchzuführen Eine andere Darstellungsmöglichkeit der Matrix C wird uns aber weiterhelfen Man erkennt aus der Formel für C, dass sich die Kovarianzmatrix als Produkt

117 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 7 von Matrizen darstellen lässt: C = AA t mit A := M [Φ,, Φ M ] Betrachten wir nun statt der Matrix C die Matrix L := A t A und berechnen deren Eigenvektoren v i Diese Matrix hat nur noch Größe M M statt n n Da M n, also die Zahl der Beispielbilder meist wesentlich kleiner als die Pixelzahl ist, kommen wir wieder in den Bereich des sinnvoll Berechenbaren Was bringt es uns, die Eigenwerte und Eigenvektoren von L statt von C zu berechnen? Antwort: Aus den Eigenvektoren von L lassen sich die Eigenvektoren von C ableiten: Für einen Eigenvektor v von L zum Eigenwert λ gilt: L v = λ v A t A v = λ v AA t A v = Aλ v AA }{{} t A v = λa v C Somit ist u := A v ein Eigenvektor von C zum Eigenwert λ Wir können also die Eigenvektoren von C berechnen, indem wir den Umweg über die wesentlich kleinere Matrix L machen Die Eigenwert- und Eigenvektorberechnung liefert maximal M verschiedene Eigenwerte Da C eine Kovarianzmatrix ist, ist sie insbesondere positiv semi-definit und symmetrisch, dh x t A x 0 für alle x R n und A = A t Daraus folgt, dass alle Eigenwerte 0 sind Die zusammengehörenden Eigenvektoren und Eigenwerte werden dann nach Größe der Eigenwerte absteigend sortiert Das heißt, die Eigenvektoren zu den größten Eigenwerten sind am wichtigsten Jeder Trainingsvektor kann durch eine Linearkombination der Eigenvektoren wiederhergestellt werden Andere Vektoren (Bilder) können approximiert werden Die k größten Eigenwert/Eigenvektorpaare (λ i, u i ) werden dann als Repräsentation des Gesichtsraumes angesehen Die Wahl von k ist subjektiv Ein Anhaltspunkt ist allerdings die Größe der Eigenwerte: Ist ein Eigenwert um mehrere Zehnerpotenzen kleiner als der größte Eigenwert, so kann er ausgeschlossen werden Um nun zu testen, ob ein gegebenes Bild Γ neu ebenfalls ein Gesicht zeigt, wird das neue Bild auf den Unterraum projiziert: ω i = u t i(γ neu Ψ) für i =,, k Dadurch hat man einen Vektor Ω neu = [ω,, ω k ] t mit Gewichten für die gewählten Eigenvektoren Die Trainingsdaten Γ,, Γ M werden ebenfalls auf den Unterraum projiziert und ergeben die Gewichtsvektoren Ω,, Ω M Um zu entscheiden, ob Γ neu ein Gesicht ist, wird Ω neu dann mit dem über alle Trainingsdaten gemittelten Gewichtsvektor ˆΩ := M M i= Ω i verglichen Dies geschieht im einfachsten Fall mit dem euklidischen Abstand: ε := Ω neu ˆΩ

118 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 8 Wenn nun ε unterhalb eines zu wählenden Grenzwertes liegt, dann wurde ein Gesicht erkannt 332 Beispiel Gegeben sind zwölf schwarz/weiß-bilder von Prominenten in einer Auflösung von = 4952 Pixel Abbildung 3 zeigt diese mit der jeweiligen Benennung Γ,, Γ 2 Γ Γ 2 Γ 3 Γ 4 Γ 5 Γ 6 Γ 7 Γ 8 Γ 9 Γ 0 Γ Γ 2 Lizenzen der Bilder: Alan Rickman von David Shankbone: CC BY-SA 30, Anthony Hopkins von Elena Torre: CC BY-SA 20, Bettina Zimmermann von Siebbi: CC BY 30, Johnny Depp von Vanessa Lua: CC BY-SA 20, John Travolta von Roland Godefroy: CC BY 30, Julia Roberts von David Shankbone: CC BY 30, Kate Winslet von Andrea Raffin: CC BY-SA 30, Katharina Wackernagel von Siebbi: CC BY 30, Madonna von David Shankbone: CC BY-SA 30, Mel Brooks von Towpilot: CC BY-SA 30, Patrick Stewart von urbantog: CC BY-SA 30, Paula Schramm: gemeinfrei Abbildung 3: Übersicht über die Trainingsdaten Das Durchschnittsbild Ψ := 2 2 i= Γ i ist in Abbildung 32 dargestellt Von diesem Durchschnittsbild ausgehend werden die Unterschiede Φ i := Γ i Ψ berechnet Die Φ i haben keine sinnvolle Darstellung als Bilder, da sie auch negative Werte enthalten

119 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 9 Abbildung 32: Durchschnittsbild Ψ Die Kovarianzmatrix C := 2 2 i= Φ iφ t i = AAt mit A = 2 [Φ,, Φ 2 ] hat die Größe , also Einträge Diese Größenordnung eignet sich nicht dazu, um effizient die Eigenvektoren zu berechnen Daher wird der oben beschriebene Umweg eingeschlagen und die Matrix C gar nicht explizit berechnet Betrachte stattdessen die Matrix L := A t A Diese Matrix hat nur noch die Größe 2 2 = 44 und kann daher auch abgedruckt werden: L = Von der Matrix L werden dann die Eigenvektoren v i und Eigenwerte λ i berechnet Die Berechnungen wurden von dem Programm Octave übernommen Die Multiplikation mit der Matrix A ergibt dann die gesuchten Eigenvektoren u i = A v i Wegen der Eigenschaften der Kovarianzmatrix C (symmetrisch, positiv semi definit) weiß man, dass alle Eigenwerte nicht negative reelle Zahlen sind, für genauere Information verweisen wir zb auf [2, Pareigis] Die Abbildung 33 zeigt eine Übersicht über die Eigenvektoren, die jeweils zum Durchschnittsbild addiert wurden Zusätzlich sind dort die Eigenwerte angegeben Wir wählen hier die ersten elf Eigenvektoren als Repräsentation des Gesichtsraumes, da sich von dem elften auf den zwölften Eigenwert ein verhältnismäßig großer Sprung in den Eigenwerten zeigt Als Beispieltests gibt es zwei bereits vorhandene Prominente in Abbildung 34 Die ermittelten euklidischen Abstände ε neu = und ε neu2 = vermitteln in diesem Beispiel aber kaum Ähnlickeit Um bessere Resultate zu erzielen sind Vorverarbeitungen der Bilder oder biometrische Fotos nötig

120 KAPITEL 3 DETERMINANTEN UND EIGENWERTE 20 u + Ψ, λ = u 2 + Ψ, λ 2 = u 3 + Ψ, λ 3 = u 4 + Ψ, λ 4 = u 5 + Ψ, λ 5 = u 6 + Ψ, λ 6 = u 7 + Ψ, λ 7 = u 8 + Ψ, λ 8 = u 9 + Ψ, λ 9 = u 0 + Ψ, λ 0 = u + Ψ, λ = u 2 + Ψ, λ 2 = 426 Abbildung 33: Eigenvektoren + Durchschnittsbild Γ neu Γ neu2 Lizenzen der Bilder: Alan Rickman von Justin Hoch: CC BY 20 Patrick Stewart von David Shankbone: CC BY 30 Abbildung 34: Zwei Testfälle

Übersicht Kapitel 9. Vektorräume

Übersicht Kapitel 9. Vektorräume Vektorräume Definition und Geometrie von Vektoren Übersicht Kapitel 9 Vektorräume 9.1 Definition und Geometrie von Vektoren 9.2 Teilräume 9.3 Linearkombinationen und Erzeugendensysteme 9.4 Lineare Abhängigkeiten

Mehr

Mathematik für Informatiker 1 Wintersemester 2013/14 Übungsblatt 12

Mathematik für Informatiker 1 Wintersemester 2013/14 Übungsblatt 12 Dipl.Inf. Malte Isberner Dr. Oliver Rüthing Dipl.Inf. Melanie Schmidt Dr. Hubert Wagner Übungen zur Vorlesung Mathematik für Informatiker 1 Wintersemester 2013/14 Übungsblatt 12 Die Lösungshinweise dienen

Mehr

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit 3 Lineare Algebra (Teil : Lineare Unabhängigkeit 3. Der Vektorraum R n Die Menge R n aller n-dimensionalen Spalten a reeller Zahlen a,..., a n R bildet bezüglich der Addition a b a + b a + b. +. :=. (53

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

2.3 Basis und Dimension

2.3 Basis und Dimension Lineare Algebra I WS 205/6 c Rudolf Scharlau 65 2.3 Basis und Dimension In diesem zentralen Abschnitt werden einige für die gesamte Lineare Algebra fundamentale Grundbegriffe eingeführt: Lineare Abhängigkeit

Mehr

technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller

technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 4.3 und 4.4

Mehr

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition)

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition) Vektorräume In vielen physikalischen Betrachtungen treten Größen auf, die nicht nur durch ihren Zahlenwert charakterisiert werden, sondern auch durch ihre Richtung Man nennt sie vektorielle Größen im Gegensatz

Mehr

Mathematik für Anwender I

Mathematik für Anwender I Prof. Dr. H. Brenner Osnabrück WS 2011/2012 Mathematik für Anwender I Vorlesung 7 Die Lösungsmenge eines homogenen linearen Gleichungssystems in n Variablen über einem Körper K ist ein Untervektorraum

Mehr

Mathematik für Physiker, Informatiker und Ingenieure

Mathematik für Physiker, Informatiker und Ingenieure Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel V SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de

Mehr

1 Linearkombinationen

1 Linearkombinationen Matthias Tischler Karolina Stoiber Ferienkurs Lineare Algebra für Physiker WS 14/15 A 1 Linearkombinationen Unter einer Linearkombination versteht man in der linearen Algebra einen Vektor, der sich durch

Mehr

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }. 154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =

Mehr

Kapitel 3 Lineare Algebra

Kapitel 3 Lineare Algebra Kapitel 3 Lineare Algebra Inhaltsverzeichnis VEKTOREN... 3 VEKTORRÄUME... 3 LINEARE UNABHÄNGIGKEIT UND BASEN... 4 MATRIZEN... 6 RECHNEN MIT MATRIZEN... 6 INVERTIERBARE MATRIZEN... 6 RANG EINER MATRIX UND

Mehr

Vektorräume. Kapitel Definition und Beispiele

Vektorräume. Kapitel Definition und Beispiele Kapitel 3 Vektorräume 3.1 Definition und Beispiele Sei (V,,0) eine abelsche Gruppe, und sei (K, +,, 0, 1) ein Körper. Beachten Sie, dass V und K zunächst nichts miteinander zu tun haben, deshalb sollte

Mehr

In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa. Unterraum,

In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa. Unterraum, 2 Vektorräume In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa Unterraum, Linearkombination, lineare Unabhängigkeit und Erzeugendensystem.

Mehr

Kapitel 13. Lineare Gleichungssysteme und Basen

Kapitel 13. Lineare Gleichungssysteme und Basen Kapitel 13. Lineare Gleichungssysteme und Basen Matrixform des Rangsatzes Satz. Sei A eine m n-matrix mit den Spalten v 1, v 2,..., v n. A habe den Rang r. Dann ist die Lösungsmenge L := x 1 x 2. x n x

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

Ausgewählte Lösungen zu den Übungsblättern 4-5

Ausgewählte Lösungen zu den Übungsblättern 4-5 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

Lösungen zur Mathematik für Informatiker I

Lösungen zur Mathematik für Informatiker I Lösungen zur Mathematik für Informatiker I Wintersemester 00/03 Prof Dr H Lenzing Blatt 7 Sei M Ihre Matrikelnummer mit den Ziffern m, m, m 3, m 4, m 5, m 6, m 7 Aufgabe 6 ( Bonuspunkt): Wir betrachten

Mehr

4.1. Vektorräume und lineare Abbildungen

4.1. Vektorräume und lineare Abbildungen 4.1. Vektorräume und lineare Abbildungen Mengen von Abbildungen Für beliebige Mengen X und Y bezeichnet Y X die Menge aller Abbildungen von X nach Y (Reihenfolge beachten!) Die Bezeichnungsweise erklärt

Mehr

Lineare Algebra I Zusammenfassung

Lineare Algebra I Zusammenfassung Prof. Dr. Urs Hartl WiSe 10/11 Lineare Algebra I Zusammenfassung 1 Vektorräume 1.1 Mengen und Abbildungen injektive, surjektive, bijektive Abbildungen 1.2 Gruppen 1.3 Körper 1.4 Vektorräume Definition

Mehr

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $ Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit

Mehr

6.2 Basen. Wintersemester 2013/2014. Definition Seien V ein K-Vektorraum, n N 0 und v 1,..., v n V. (a) Man nennt

6.2 Basen. Wintersemester 2013/2014. Definition Seien V ein K-Vektorraum, n N 0 und v 1,..., v n V. (a) Man nennt Universität Konstanz Fachbereich Mathematik und Statistik Wintersemester 213/214 Markus Schweighofer Lineare Algebra I 6.2 Basen Definition 6.2.1. Seien V ein K-Vektorraum, n N und v 1,..., v n V. (a)

Mehr

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2 Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Lineare Algebra I (WS 13/14)

Lineare Algebra I (WS 13/14) Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 05.11.2013 Alexander Lytchak 1 / 14 Linearkombinationen Definition Es sei V ein reeller Vektorraum. Es sei (v i ) i

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 25 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 8 Aufgabe 8 Basen für Bild und Kern Gegeben sind die beiden 2 Matrizen:

Mehr

Einführung in die Mathematik für Informatiker

Einführung in die Mathematik für Informatiker Einführung in die Mathematik für Informatiker Prof. Dr. www.math.tu-dresden.de/ baumann 21.11.2016 6. Vorlesung aufgespannter Untervektorraum Span(T ), Linearkombinationen von Vektoren Lineare Unabhängigkeit

Mehr

Kapitel II. Vektoren und Matrizen

Kapitel II. Vektoren und Matrizen Kapitel II. Vektoren und Matrizen Vektorräume A Körper Auf der Menge R der reellen Zahlen hat man zwei Verknüpfungen: Addition: R R R(a, b) a + b Multiplikation: R R R(a, b) a b (Der Malpunkt wird oft

Mehr

Kapitel II. Vektorräume. Inhalt: 7. Vektorräume 8. Basis und Dimension 9. Direkte Summen und Faktorräume

Kapitel II. Vektorräume. Inhalt: 7. Vektorräume 8. Basis und Dimension 9. Direkte Summen und Faktorräume Kapitel II. Vektorräume Inhalt: 7. Vektorräume 8. Basis und Dimension 9. Direkte Summen und Faktorräume Die fundamentale Struktur in den meisten Untersuchungen der Linearen Algebra bildet der Vektorraum.

Mehr

35 Matrixschreibweise für lineare Abbildungen

35 Matrixschreibweise für lineare Abbildungen 35 Matrixschreibweise für lineare Abbildungen 35 Motivation Wir haben gesehen, dass lineare Abbildungen sich durch ihre Wirkung auf die Basisvektoren ausdrücken lassen Mithilfe von Matrizen können wir

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Wintersemester 2014/15 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax

Mehr

3 Systeme linearer Gleichungen

3 Systeme linearer Gleichungen 3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

Kapitel 6: Matrixrechnung (Kurzeinführung in die Lineare Algebra)

Kapitel 6: Matrixrechnung (Kurzeinführung in die Lineare Algebra) Kapitel 6: Matrixrechnung (Kurzeinführung in die Lineare Algebra) Matrix: (Plural: Matrizen) Vielfältige Anwendungen in der Physik: - Lösung von linearen Gleichungsystemen - Beschreibung von Drehungen

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

Grundlegende Definitionen aus HM I

Grundlegende Definitionen aus HM I Grundlegende Definitionen aus HM I Lucas Kunz. März 206 Inhaltsverzeichnis Vektorraum 2 2 Untervektorraum 2 Lineare Abhängigkeit 2 4 Lineare Hülle und Basis 5 Skalarprodukt 6 Norm 7 Lineare Abbildungen

Mehr

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7 Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7 Timo Stöcker Erstsemestereinführung Informatik TU Dortmund 22. März 2011 Heute Themen Lineare Gleichungssysteme Matrizen Timo Stöcker https://fsinfo.cs.tu-dortmund.de/studis/ese/vorkurse/mathe

Mehr

Gegeben sei eine Menge V sowie die Verknüpfung der Addition und die skalare Multiplikation der Elemente von V mit reellen Zahlen.

Gegeben sei eine Menge V sowie die Verknüpfung der Addition und die skalare Multiplikation der Elemente von V mit reellen Zahlen. 1. Der Vektorraumbegriff...1 2. Unterräume...2. Lineare Abhängigkeit/ Unabhängigkeit... 4. Erzeugendensystem... 5. Dimension...4 6. Austauschlemma...5 7. Linearität von Abbildungen...6 8. Kern und Bild

Mehr

8 Lineare Abbildungen und Matrizen

8 Lineare Abbildungen und Matrizen 8 Lineare Abbildungen und Matrizen 8.1 Lineare Abbildungen Wir beschäftigen uns nun mit Abbildungen zwischen linearen Räumen. Von besonderem Interesse sind Abbildungen, die die Struktur der linearen Räume

Mehr

Mathematik für Anwender I

Mathematik für Anwender I Prof Dr H Brenner Osnabrück WS 2011/2012 Mathematik für Anwender I Vorlesung 11 Rang von Matrizen Definition 111 Es sei K ein Körper und sei M eine m n-matrix über K Dann nennt man die Dimension des von

Mehr

Vektorräume. Stefan Ruzika. 24. April Mathematisches Institut Universität Koblenz-Landau Campus Koblenz

Vektorräume. Stefan Ruzika. 24. April Mathematisches Institut Universität Koblenz-Landau Campus Koblenz Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz 24. April 2016 Stefan Ruzika 3: Vektorräume 24. April 2016 1 / 20 Gliederung 1 Schulstoff 2 Körper 3 Vektorräume Erinnerung:

Mehr

5.7 Lineare Abhängigkeit, Basis und Dimension

5.7 Lineare Abhängigkeit, Basis und Dimension 8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n

Mehr

Die lineare Hülle. heißt der Vektor. Linearkombination der Vektoren v i mit Koeffizienten α i. Direkt aus (12.6) folgt

Die lineare Hülle. heißt der Vektor. Linearkombination der Vektoren v i mit Koeffizienten α i. Direkt aus (12.6) folgt Eine Menge v +U mit einem Untervektorraum U nennt man auch eine Nebenklasse des Untervektorraumes U. Sie entsteht, wenn man die Translation τ v auf die Menge U anwendet. Ausdrücke der Form αu + βv, auch

Mehr

2.5 Gauß-Jordan-Verfahren

2.5 Gauß-Jordan-Verfahren 2.5 Gauß-Jordan-Verfahren Definition 2.5.1 Sei A K (m,n). Dann heißt A in zeilenreduzierter Normalform, wenn gilt: [Z1] Der erste Eintrag 0 in jeder Zeile 0 ist 1. [Z2] Jede Spalte, die eine 1 nach [Z1]

Mehr

Lösungen der Aufgaben zu Abschnitt 5.4

Lösungen der Aufgaben zu Abschnitt 5.4 A Filler: Elementare Lineare Algebra Lösungen zu Abschnitt 54 Lösungen der Aufgaben zu Abschnitt 54 B ist linear unabhängig, wenn die Vektorgleichung ( ) ( ) ( ) ( ) 456 λ + λ + λ = bzw das LGS λ +4λ +λ

Mehr

L5 Matrizen I: Allgemeine Theorie

L5 Matrizen I: Allgemeine Theorie L5 Matrizen I: Allgemeine Theorie Matrix: (Plural: Matrizen) Vielfältige Anwendungen in der Physik: - Lösung von linearen Gleichungsystemen - Beschreibung von Drehungen - Beschreibung von Lorenz-Transformationen

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Mathematik I. Vorlesung 12. Lineare Abbildungen

Mathematik I. Vorlesung 12. Lineare Abbildungen Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 12 Lineare Abbildungen Definition 12.1. Es sei K ein Körper und es seien V und W K-Vektorräume. Eine Abbildung heißt lineare Abbildung,

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,

Mehr

Lineare Algebra I. Christian Ebert & Fritz Hamm. Gruppen & Körper. Vektorraum, Basis & Dimension. Lineare Algebra I. 18.

Lineare Algebra I. Christian Ebert & Fritz Hamm. Gruppen & Körper. Vektorraum, Basis & Dimension. Lineare Algebra I. 18. 18. November 2011 Wozu das alles? Bedeutung von Termen Vektoren in R n Ähnlichkeiten zwischen Termbedeutungen Skalarprodukt/Norm/Metrik in R n Komposition von Termbedeutungen Operationen auf/abbildungen

Mehr

LINEARE ALGEBRA II. FÜR PHYSIKER

LINEARE ALGEBRA II. FÜR PHYSIKER LINEARE ALGEBRA II FÜR PHYSIKER BÁLINT FARKAS 4 Rechnen mit Matrizen In diesem Kapitel werden wir zunächst die so genannten elementaren Umformungen studieren, die es ermöglichen eine Matrix auf besonders

Mehr

Aufgaben zur linearen Algebra und analytischen Geometrie I

Aufgaben zur linearen Algebra und analytischen Geometrie I Aufgaben zur linearen Algebra und analytischen Geometrie I Es werden folgende Themen behandelt:. Formale und logische Grundlagen 2. Algebraische Grundlagen 3. Vektorräume und LGS 4. Homomorphismen und

Mehr

Der Rangsatz für lineare Abbildungen

Der Rangsatz für lineare Abbildungen Der Rangsatz für lineare Abbildungen Satz Sei f : V W eine lineare Abbildung Dann gilt dim V = dim Kern(f) + dim Bild(f), also gleichbedeutend dim Kern(f) = dim V rg(f) Da uns in der Regel bei gegebenem

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

Beispiele 1. Gegeben ist das lineare System. x+4y +3z = 1 2x+5y +9z = 14 x 3y 2z = 5. Die erweiterte Matrix ist

Beispiele 1. Gegeben ist das lineare System. x+4y +3z = 1 2x+5y +9z = 14 x 3y 2z = 5. Die erweiterte Matrix ist 127 Die Schritte des Gauß-Algorithmus sind nun die Folgenden: 1. Wir bestimmen die am weitesten links stehende Spalte, die Einträge 0 enthält. 2. Ist die oberste Zahl der in Schritt 1 gefundenen Spalte

Mehr

4. Vektorräume und Gleichungssysteme

4. Vektorräume und Gleichungssysteme technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof Dr H Brenner Osnabrück WS 2015/2016 Lineare Algebra und analytische Geometrie I Vorlesung 12 Wege entstehen dadurch, dass man sie geht Franz Kafka Invertierbare Matrizen Definition 121 Es sei K ein

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof. Dr. H. Brenner Osnabrück WS 2015/2016 Lineare Algebra und analytische Geometrie I Vorlesung 8 Dimensionstheorie Ein endlich erzeugter Vektorraum hat im Allgemeinen ganz unterschiedliche Basen. Wenn

Mehr

β 1 x :=., und b :=. K n β m

β 1 x :=., und b :=. K n β m 44 Lineare Gleichungssysteme, Notations Betrachte das lineare Gleichungssystem ( ) Sei A = (α ij ) i=,,m j=,n α x + α x + + α n x n = β α x + α x + + α n x n = β α m x + α m x + + α mn x n = β m die Koeffizientenmatrix

Mehr

i) ii) iii) iv) i) ii) iii) iv) v) gilt (Cauchy-Schwarz-Ungleichung): Winkel zwischen zwei Vektoren : - Für schreibt man auch.

i) ii) iii) iv) i) ii) iii) iv) v) gilt (Cauchy-Schwarz-Ungleichung): Winkel zwischen zwei Vektoren : - Für schreibt man auch. Abbildungen Rechnen Matrizen Rechnen Vektoren Äquivalenzrelation Addition: Skalarmultiplikation: Skalarprodukt: Länge eines Vektors: Vektorprodukt (im ): i ii i ii v) gilt (Cauchy-Schwarz-Ungleichung):

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

Lineare Algebra I. - 9.Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß. Korrektur: 2. Klausurtermin:

Lineare Algebra I. - 9.Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß. Korrektur: 2. Klausurtermin: Lineare Algebra I - 9.Vorlesung - rof. Dr. Daniel Roggenkamp & Falko Gauß Korrektur: 2. Klausurtermin: 09.02.2017 Linearkombination von Vektoren lineare Hülle Erzeugendensystem S lineare Unabhängigkeit

Mehr

3. Übungsblatt zur Lineare Algebra I für Physiker

3. Übungsblatt zur Lineare Algebra I für Physiker Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte

Mehr

5. Matrizen und Determinanten

5. Matrizen und Determinanten technische universität dortmund Dortmund, im Januar 01 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 1 und Matrizen und

Mehr

1. Vektoralgebra 1.0 Einführung Vektoren Ein Vektor ist eine Größe, welche sowohl einen Zahlenwert (Betrag) als auch eine Richtung hat.

1. Vektoralgebra 1.0 Einführung Vektoren Ein Vektor ist eine Größe, welche sowohl einen Zahlenwert (Betrag) als auch eine Richtung hat. 1. Vektoralgebra 1.0 Einführung Vektoren Ein Vektor ist eine Größe, welche sowohl einen Zahlenwert (Betrag) als auch eine Richtung hat. übliche Beispiele: Ort r = r( x; y; z; t ) Kraft F Geschwindigkeit

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Lineare Algebra. 1 Lineare Abbildungen

Lineare Algebra. 1 Lineare Abbildungen Lineare Algebra Die lineare Algebra ist ein Teilgebiet der Mathematik, welches u. A. zur Beschreibung geometrischer Abbildungen und diverser Prozesse und zum Lösen linearer Gleichungssysteme mit Hilfe

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof. Dr. H. Brenner Osnabrück WS 2015/2016 Lineare Algebra und analytische Geometrie I Vorlesung 6 Vektorräume Die Addition von zwei Pfeilen a und b, ein typisches Beispiel für Vektoren. Der zentrale

Mehr

Mathematik für Anwender I

Mathematik für Anwender I Prof. Dr. H. Brenner Osnabrück WS 2011/2012 Mathematik für Anwender I Vorlesung 9 Lineare Abbildungen Definition 9.1. Es sei K ein Körper und es seien V und W Vektorräume über K. Eine Abbildung ϕ : V W

Mehr

02. Vektorräume und Untervektorräume

02. Vektorräume und Untervektorräume 02. Vektorräume und Untervektorräume Wir kommen nun zur eigentlichen Definition eines K-Vektorraums. Dabei ist K ein Körper (bei uns meist R oder C). Informell ist ein K-Vektorraum eine Menge V, auf der

Mehr

1 Transponieren, Diagonal- und Dreiecksmatrizen

1 Transponieren, Diagonal- und Dreiecksmatrizen Technische Universität München Thomas Reifenberger Ferienkurs Lineare Algebra für Physiker Vorlesung Mittwoch WS 2008/09 1 Transponieren, Diagonal- und Dreiecksmatrizen Definition 11 Transponierte Matrix

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof Dr H Brenner Osnabrück WS 205/206 Lineare Algebra und analytische Geometrie I Vorlesung 9 Basiswechsel Wir wissen bereits, dass in einem endlichdimensionalen Vektorraum je zwei Basen die gleiche Länge

Mehr

5 Die Allgemeine Lineare Gruppe

5 Die Allgemeine Lineare Gruppe 5 Die Allgemeine Lineare Gruppe Gegeben sei eine nicht leere Menge G und eine Abbildung (Verknüpfung) : G G G, (a, b) a b( a mal b ) Das Bild a b von (a, b) heißt Produkt von a und b. Andere gebräuchliche

Mehr

Mathematische Erfrischungen III - Vektoren und Matrizen

Mathematische Erfrischungen III - Vektoren und Matrizen Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen

Mehr

L2. Vektorräume. Physikalische Größen lassen sich einteilen in: 1) Skalare: vollständig bestimmt durch Angabe einer. Beispiele:

L2. Vektorräume. Physikalische Größen lassen sich einteilen in: 1) Skalare: vollständig bestimmt durch Angabe einer. Beispiele: L2. Vektorräume Physikalische Größen lassen sich einteilen in: 1) Skalare: vollständig bestimmt durch Angabe einer Beispiele: 2) Vektoren: vollständig bestimmt durch Angabe einer und einer Beispiele: Übliche

Mehr

Prüfung Lineare Algebra , B := ( ), C := 1 1 0

Prüfung Lineare Algebra , B := ( ), C := 1 1 0 1. Es seien 1 0 2 0 0 1 3 0 A :=, B := ( 1 2 3 4 ), C := 1 1 0 0 1 0. 0 0 0 1 0 0 1 0 0 0 0 Welche der folgenden Aussagen ist richtig? A. A und C haben Stufenform, B nicht. B. A und B haben Stufenform,

Mehr

2 Matrizenrechnung und Lineare Gleichungssysteme

2 Matrizenrechnung und Lineare Gleichungssysteme Technische Universität München Florian Ettlinger Ferienkurs Lineare Algebra Vorlesung Dienstag WS 2011/12 2 Matrizenrechnung und Lineare Gleichungssysteme 2.1 Matrizenrechnung 2.1.1 Einführung Vor der

Mehr

Vektorräume und Lineare Abbildungen

Vektorräume und Lineare Abbildungen Vektorräume und Lineare Abbildungen Patricia Doll, Selmar Binder, Lukas Bischoff, Claude Denier ETHZ D-MATL SS 07 11.04.2007 1 Vektorräume 1.1 Definition des Vektorraumes (VR) 1.1.1 Grundoperationen Um

Mehr

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte Mathematik I Matrizen In diesem Kapitel werden wir lernen was Matrizen sind und wie man mit Matrizen rechnet. Matrizen ermöglichen eine kompakte Darstellungsform vieler mathematischer Strukturen. Zum Darstellung

Mehr

4 Matrizenrechnung. Beide Operationen geschehen also koeffizientenweise. Daher übertragen sich die Rechenregeln von K(m n, k).

4 Matrizenrechnung. Beide Operationen geschehen also koeffizientenweise. Daher übertragen sich die Rechenregeln von K(m n, k). 4 Matrizenrechnung Der Vektorraum der m n Matrizen über K Sei K ein Körper und m, n N\{0} A sei eine m n Matrix über K: a a 2 a n a 2 a 22 a 2n A = = (a ij) mit a ij K a m a m2 a mn Die a ij heißen die

Mehr

Kapitel 16. Invertierbare Matrizen

Kapitel 16. Invertierbare Matrizen Kapitel 16. Invertierbare Matrizen Die drei Schritte des Gauß-Algorithmus Bringe erweiterte Matrix [A b] des Gleichungssystems A x auf Zeilenstufenform [A b ]. Das System A x = b ist genau dann lösbar,

Mehr

2.2 Lineare Gleichungssysteme

2.2 Lineare Gleichungssysteme Lineare Algebra I WS 2015/16 c Rudolf Scharlau 55 22 Lineare Gleichungssysteme Das Lösen von Gleichungen (ganz unterschiedlichen Typs und unterschiedlichen Schwierigkeitsgrades) gehört zu den Grundproblemen

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof. Dr. H. Brenner Osnabrück WS 0/06 Lineare Algebra und analytische Geometrie I Vorlesung... und ein guter Lehrer kann auch einem schlechten Schüler was beibringen Beziehung zwischen Eigenräumen Wir

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

2.2 Lineare Gleichungssysteme (LGS)

2.2 Lineare Gleichungssysteme (LGS) 2.2 Lineare Gleichungssysteme (LGS) Definition 2.2.. Ein LGS über einem Körper K von m Gleichungen in n Unbekannten x,..., x n ist ein Gleichungssystem der Form a x + a 2 x 2 +... + a n x n = b a 2 x +

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN

TECHNISCHE UNIVERSITÄT MÜNCHEN TECHNISCHE UNIVERSITÄT MÜNCHEN Zentrum Mathematik PROF. DR.DR. JÜRGEN RICHTER-GEBERT, VANESSA KRUMMECK, MICHAEL PRÄHOFER Höhere Mathematik für Informatiker I Wintersemester 3/ Aufgabenblatt 6. Januar Präsenzaufgaben

Mehr

Der Kern einer Matrix

Der Kern einer Matrix Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis

Mehr

9 Lineare Gleichungssysteme

9 Lineare Gleichungssysteme 9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

5 Lineare Gleichungssysteme und Determinanten

5 Lineare Gleichungssysteme und Determinanten 5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von

Mehr

Kap 1: VEKTORRÄUME. (c) (λµ) v = λ (µ v) (b) λ (v + w) = (λ v) + (λ w) (d) 1 v = v

Kap 1: VEKTORRÄUME. (c) (λµ) v = λ (µ v) (b) λ (v + w) = (λ v) + (λ w) (d) 1 v = v Kap 1: VEKTORRÄUME Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung ϕ : I X, i ϕ(i) = x i, wobei die Menge I in diesem Zusammenhang auch Indexmenge genannt wird. Man schreibt vereinfacht

Mehr

Prüfung EM1 28. Jänner 2008 A :=

Prüfung EM1 28. Jänner 2008 A := 1. Die Menge der Eigenwerte der Matrix ist Prüfung EM1 28. Jänner 2008 A := ( 0 1 ) 0 1 A. {1, 0} B. { 1} C. {0} D. {0, 1, 1} E. {0, 1} 2. Es seien V ein n-dimensionaler reeller Vektorraum, ein Skalarprodukt

Mehr

Vektoren und Matrizen

Vektoren und Matrizen Universität Basel Wirtschaftswissenschaftliches Zentrum Vektoren und Matrizen Dr. Thomas Zehrt Inhalt: 1. Vektoren (a) Einführung (b) Linearkombinationen (c) Länge eines Vektors (d) Skalarprodukt (e) Geraden

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

1 Matrizen und Vektoren

1 Matrizen und Vektoren Matthias Tischler Karolina Stoiber Ferienkurs Lineare Algebra für Physiker WS 14/15 A 1 Matrizen und Vektoren Definition 1.1 (Matrizen) Ein rechteckiges Zahlenschema aus m mal n Elementen eines Körpers

Mehr