Teil I. Lineare Algebra und Analytische Geometrie. Vorlesung Wintersemester 1999/2000

Ähnliche Dokumente
Lineare Algebra I Zusammenfassung

9.2 Invertierbare Matrizen

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

37 Gauß-Algorithmus und lineare Gleichungssysteme

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

Übungen zu Einführung in die Lineare Algebra und Geometrie

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Leitfaden Lineare Algebra: Determinanten

4 Lineare Algebra (Teil 2): Quadratische Matrizen

Matrizen, Determinanten, lineare Gleichungssysteme

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung

Copyright, Page 1 of 5 Die Determinante

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

Vorlesung bzw. 23. Januar Determinanten 1. Cramersche Regel

Eigenwerte und Diagonalisierung

45 Eigenwerte und Eigenvektoren

Proseminar Lineare Algebra II, SS 11. Blatt

4.13. Permutationen. Definition. Eine Permutation der Elementen {1,..., n} ist eine bijektive Abbildung

Zahlen und metrische Räume

(Allgemeine) Vektorräume (Teschl/Teschl 9)

Lineare Algebra. Teil III. Inhaltsangabe

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

4 Vorlesung: Matrix und Determinante

II. Lineare Gleichungssysteme. 10 Matrizen und Vektoren. 52 II. Lineare Gleichungssysteme

1.3 Gruppen. Algebra I 9. April 2008 c Rudolf Scharlau,

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

3.6 Eigenwerte und Eigenvektoren

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Lineare Algebra II 6. Übungsblatt

Kapitel III. Lineare Abbildungen

Mathematische Strukturen

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2.

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Lineare Algebra II, Lösungshinweise Blatt 9

Quadratische Matrizen

6 Eigenwerte und Eigenvektoren

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls

Kap 5: Rang, Koordinatentransformationen

3.3 Eigenwerte und Eigenräume, Diagonalisierung

Lineare Gleichungssysteme - Grundlagen

( ) Lineare Gleichungssysteme

Lineare Algebra I (WS 13/14)

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7

Lineare Abbildungen und Darstellungsmatrizen

6 Hauptachsentransformation

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.

Lineare Algebra - alles was man wissen muß

Mathematische Erfrischungen III - Vektoren und Matrizen

Lineare Algebra. I. Vektorräume. U. Stammbach. Professor an der ETH-Zürich

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Diagonalisieren. Nikolai Nowaczyk Lars Wallenborn

MC-Serie 11: Eigenwerte

2 Die Dimension eines Vektorraums

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle

7 Die Determinante einer Matrix

Weitere Eigenschaften

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

Allgemeines Gleichungssystem mit zwei Gleichungen und zwei Variablen. Der erste Index bezeichnet die Nummer der Zeile, der zweite die der Spalte.

4 Affine Koordinatensysteme

Lösung (die Geraden laufen parallel) oder unendlich viele Lösungen.

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

Vorkurs: Mathematik für Informatiker

Matrizen und Determinanten

PRÜFUNG AUS ALGEBRA UND DISKRETE MATHEMATIK F. INF. U. WINF.

Kapitel 11. Bilinearformen über beliebigen Bilinearformen

00. Einiges zum Vektorraum R n

Mathematik 1. Inhaltsverzeichnis. Prof. Dr. K. Melzer.

1 Mengen und Abbildungen

Lineare Abbildungen. i=0 c ix i n. K n K m

40 Lokale Extrema und Taylor-Formel

Übungen zur Linearen Algebra 1

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Lineare Algebra und analytische Geometrie II

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

Euklidische und unitäre Vektorräume

Kapitel 17. Determinanten

Lineare Gleichungssysteme

4.4. Rang und Inversion einer Matrix

Outline. 1 Vektoren im Raum. 2 Komponenten und Koordinaten. 3 Skalarprodukt. 4 Vektorprodukt. 5 Analytische Geometrie. 6 Lineare Räume, Gruppentheorie

Lineare Algebra und analytische Geometrie I (Unterrichtsfach) Lösungsvorschlag

Lineare Algebra und Geometrie für LehramtskandidatInnen. Andreas Čap

2.1 Eigenschaften und Beispiele von Gruppen Untergruppen Homomorphismen... 25

LINEARE ALGEBRA I, WS 2010/11. NOTIZEN ZUR VORLESUNG.

Kapitel VI. Euklidische Geometrie

Kapitel V. Determinanten

Vektorräume und Lineare Abbildungen

Addition, Subtraktion und Multiplikation von komplexen Zahlen z 1 = (a 1, b 1 ) und z 2 = (a 2, b 2 ):

Lineare Abhängigkeit

x y f : R 2 R 3, Es gilt: Bild f = y : wobei x,y R Kern f = 0 (wird auf der nächsten Folie besprochen)

4. Vektorräume und Gleichungssysteme

4.1 Definition. Gegeben: Relation f X Y f heißt Funktion (Abbildung) von X nach Y, wenn. = y 1. = y 2. xfy 1. xfy 2

Transkript:

Teil I Lineare Algebra und Analytische Geometrie Vorlesung Wintersemester 999/2 Volker Mehrmann Übung/Seminar: Matthias Pester Uwe Schrader Andreas Steinbrecher

Lineare Algebra und Analytische Geometrie I Vorlesung TU Chemnitz Volker Mehrmann, Chemnitz Rh 4/64, Tel: 53 8367 email: mehrmann@mathematiktu-chemnitzde Übung/Seminar: Matthias Pester, Rh 4/67, Tel: 53 2656 Uwe Schrader, Rh 4/6, Tel: 53 278 Andreas Steinbrecher, Rh 4/62, Tel: 53 3953

2 Organisatorische Details: Vorlesung: Vermittlung des Stoffes Seminar: Nutzung von mathematischer Software lernen, in Mathematik zu reden und anderen zu erklären wichtige Inhalte, die sonst nicht im Stoff vorkommen Beweistechniken Übung: Diskussion und Besprechung der Übungsaufgaben Mathematik lernt man am besten durch selbermachen

Kapitel Motivation In diesem Grundkurs Lineare Algebra beschäftigen wir uns mit einem Themenkreis, der einige wesentliche Gesichtspunkte der Mathematik umfasst Er liefert die Sprache und das Handwerkszeug für viele Bereiche der Mathematik, aber auch inzwischen aller Ingenieurwissenschaften, Naturwissenschaften, Wirtschaftswissenschaften, Informatik die Grundlage für die abstrakte moderne Mathematik, die in der Lage ist, abstrahiert von einem realen Problem Fortschritte im mathematischen Kalkül zu schaffen, aber dann auch diese wiederum auf die Praxis anzuwenden Ein einfaches Beispiel aus der Wirtschaft: Beispiel Ein Betrieb produziert zwei Produkte P, P 2 Produkt P i kostet a i DM an Rohstoffen und b i DM an Arbeitslohn Damit kann ein Gewinn von q i erzielt werden, für i =, 2 Insgesamt stehen a DM an Kapital und b Arbeitslohneinheiten zur Verfügung Jedes denkbare Produktionsprogramm ist von der Form x Einheiten von P und x 2 Einheiten von P 2 Man kann geometrisch jedes Produktionsprogramm als Zahlenpaar x, x 2 darstellen Es sind natürlich nur solche Produktionsprogramme erlaubt, die man mit den vorhandenen Ressourcen auch erzielen kann, dh, a x + a 2 x 2 a, b x + b 2 x 2 b 3

4 Ziel der Aufgabe ist die Gewinnmaximierung, dh, man sucht ein Maximum der Funktion Φ(x, x 2 ) = q x + q 2 x 2 Wie kann man dieses Maximum finden? Beobachtung: Wenn q x +q 2 x 2 = y ist, so hat man den Gewinn y Für feste y i sind das parallele Geraden Verschiebt man also diese Parallelen, bis man an die Ecke mit dem maximalen y kommt, so hat man das Problem gelöst = Lineare Programmierung, Allgemeine Theorie linearer Gleichungen und Ungleichungen Ein Beispiel aus der Mechanik Beispiel 2 Gleichgewichtslage Eine Masse m sei mit Hilfe von Federn im dreidimensionalen Raum aufgehängt Das Gleichgewicht sei im Punkt (x, y, z) = (,, ) Ist das Gleichgewicht stabil? Um das zu entscheiden, betrachten wir V, die Veränderung der potentiellen Energie, wenn m von (,, ) aus in einen anderen Punkt ( x, ỹ, z) gebracht wird Abhängig von den Größen der Federkonstanten ergibt sich zb V = a x 2 a xy + a 2 xz + a 3 y 2 a 4 yz + a 5 z 2, V = x 2 4xy + 2xz + 3y 2 2yz + 4z 2

5 Durch quadratische Ergänzung bekommen wir V = (x 2y + z) 2 y 2 + 2yz + 3z 2 = (x 2y + z) 2 (y z) 2 + 4z 2 Wir erhalten lauter Quadrate, aber eines davon mit negativem Vorzeichen Damit kann V < sein, zb für (x, y, z) = (2,, ) Damit ist das Gleichgewicht für diese Federkonstanten instabil = Polynomielle Gleichungen, Summen von Quadraten Beispiele: siehe C Blatter, Lineare Algebra für Ingenieure, Mechaniker und Naturwissenschaftler, VDI Verlag, Zürich, 989 Man kann noch viele weitere Beispiele anführen, und wir werden noch viele im Text haben, aber die Beispiele sind für uns die Motivation, nicht das Ziel Wir wollen eine allgemeine Theorie entwickeln, die nicht nur für ein spezielles Problem, sondern für viele Probleme gleichermaßen anwendbar ist Dazu brauchen wir eine abstrakte Sprache, (Lineare) Algebra, und einen mathematischen Kalkül Damit werden wir dann sofort loslegen und das wird teilweise sehr losgelöst sein von irgendwelchen konkreten Objekten Aber wir werden immer wieder Beispiele und reale Objekte betrachten, und unsere Theorie darauf anwenden

Kapitel Mathematische Strukturen Wir wollen zuerst ein paar Grundlagen mathematischer Strukturen einführen und uns etwas vertraut damit machen Definition Ein kommutativer Ring mit Eins-Element (R, +, ) ist eine Menge R mit zwei Operationen (a, b) a + b ( Addition ) und (a, b) a b ( Multiplikation ), für die folgende Gesetze gelten: Add (Ass +) (a + b) + c = a + (b + c) a, b, c, R (Assoziativgesetz), (Komm +) a + b = b + a a, b R (Kommutativgesetz), (Null) ein R mit + a = a + = a a R (Existenz eines Null-Elements), (Inv +) a R a R mit a + a = (Existenz eines inversen Elements, wir schreiben a anstatt a ), Mult (Ass ) (a b) c = a (b c) a, b, c R (Assoziativgesetz), (Komm ) a b = b a a, b R (Kommutativgesetz), (Eins) R mit a = a = a a R (Existenz eines Eins-Elements), (Distr) (a + b) c = a c + b c a, b, c R (Distributivgesetz) Definition 2 (i) Es sei R ein kommutativer Ring mit Eins-Element und r R Dann heißt r invertierbar, falls es ein r R mit r r = gibt Wir schreiben dann r oder für r r (ii) Ein kommutativer Ring mit Eins-Element heißt Körper, wenn und zusätzlich das weitere Gesetz gilt: (Inv ) Jedes Element r R mit r ist invertierbar 6

7 Beispiel 3 Bekannte Mengen N = {, 2, 3, } die natürlichen Zahlen, N = N {}, Z = {, 2,,,, 2, } die ganzen Zahlen, { } a Q = b a Z, b N die rationalen Zahlen, R die reellen Zahlen Mit der bekannten Addition und Multiplikation sind Z, Q, R kommutative Ringe mit Eins-Element und Q, R sind sogar Körper N, N passen nicht in diese Definitionen Warum nicht? Welche Gesetze gelten nicht? Beispiel 4 Der kleinste Körper F 2 F 2 = ({, }, +, ), wobei + und wie folgt definiert sind: + Die Multiplikation ist die übliche Die Addition geht modulo 2, das heißt, man nimmt die übliche Addition und verwendet immer den ganzzahligen Rest nach Division durch 2 als Ergebnis: + + + + + = (6 : 2 = 3 Rest ), + + = (3 : 2 = Rest ) Kann es Körper mit weniger als 2 Elementen geben? Beispiel 5 Sei V = {v = a + 2 b a, b Q}, v + v 2 = (a + 2 b ) + (a 2 + 2 b 2 ) = (a + a 2 ) + 2 (b + b 2 ), v v 2 = (a + 2 b ) (a 2 + 2 b 2 ) = a a 2 + 2 a b 2 + 2 a 2 b + 2b b 2 = (a a 2 + 2b b 2 ) + 2 (a b 2 + a 2 b ) Ist {V, +, } ein Körper (oder nur ein Ring )? v = a + 2 b = a 2 b a 2 2b = a 2 a 2 2b 2 2 b a 2 2b 2 Da 2 Q, ist a 2 2b 2 für alle v V, v Damit ist v {V, +, } ist ein Körper! V v V, v

8 Beispiel 6 Komplexe Zahlen Sei C = {z = a+ib a, b R}, wobei i = die imaginäre Einheit ist, mit den Operationen z + z 2 = (a + ib ) + (a 2 + ib 2 ) = (a + a 2 ) + i(b + b 2 ), z z 2 = (a + ib ) (a 2 + ib 2 ) = (a a 2 b b 2 ) + i(a b 2 + b a 2 ) Für z = a + ib heißt a Realteil und b Imaginärteil von z Null-Element = + i (, ) Eins-Element = + i (, ) imaginäre Einheit i = + i (, ) Die konjugiert komplexe Zahl zu z = a + ib ist die Zahl z = a ib C ist ein Körper, denn das inverse Element zu z ist z = a + ib = da a 2 + b 2 > für (a, b) (, ) a ib (a + ib)(a ib) = z z z = a ib a 2 + b = 2 a a 2 + b i b 2 a 2 + b C, 2 Übung: Andere Darstellung komplexer Zahlen: z = re iϕ = r(cos ϕ + i sin ϕ)

9 Mengen und Abbildungen Symbole: Element N Teilmenge N Z Durchschnitt N N = N Vereinigung N N = N \ Mengendifferenz N \ N = {} kartesisches Produkt R R R = R 3 = {(a, b, c) a, b, c R} Definition 7 Seien X, Y zwei Mengen Eine Abbildung f von X nach Y, f : X Y, ist eine Vorschrift, die jedem x X genau ein Element y = f(x) Y zuordnet Für die Zuordnung einzelner Elemente schreiben wir x y Beispiel 8 Sei X = Y = R a) f : X Y x x 3 b) f : X { Y, x x, x > Beispiel 9 Euklidische Norm oder Euklidische Länge X = R R R = R 3, Y = R 2 : X Y (x, y, z) x 2 + y 2 + z 2

Definition (a) Sei A eine Menge Dann ist Id A : A A a a die Identitätsabbildung (b) Seien X, Y Mengen und A X, B Y Sei f : X Y eine Abbildung Dann heißt f(a) = Bild(A) := {f(x) x A} die Bildmenge von A und f (B) := {x f(x) B} das Urbild von B Beispiel Definition 2 Eine Abbildung f : X Y heißt injektiv, wenn keine zwei Elemente von X auf dasselbe Element in Y abgebildet werden Sie heißt surjektiv oder Abbildung auf Y, wenn jedes y Y von der Form f(x) ist Sie heißt bijektiv, wenn sie injektiv und surjektiv ist

Beispiel 3 a) Sei X = Y = R Ist f(x) = x 2 injektiv, surjektiv? Ist f(x) = 2x + 3 injektiv, surjektiv? b) Sei X = Y = R + = {x R x } Ist f(x) = x 2 injektiv, surjektiv? Merke! Zu einer Abbildung gehören immer die Mengen, auf denen sie operiert Definition 4 Sind f : X Y und g : Y Z Abbildungen, so ist die zusammengesetzte Abbildung g f definiert durch g f : X Z x g(f(x)) Ist f bijektiv, so heißt die Abbildung f : Y X, für die f f = Id X, die Umkehrabbildung von f Beispiel 5 X = [, π ], Y = [, ], Z = [, ], f : X Y 2 x sin x, g : Y X y y g f : X Z x sin x, f : Y Z x arcsin x, g : Z Y z z Definition 6 Seien X, Y Mengen, A X, f : X Y Dann heißt f A : A Y a f(a) die Einschränkung von f auf A Beispiel 7 Y = X = R, A = [, π ], f : X Y 2 x sin x f ist nicht injektiv, aber f A ist injektiv

Kapitel 2 Matrizen Definition 2 Sei {R, +, } ein kommutativer Ring mit Eins-Element und n, m N Ein Feld A = [a ij ] = a a 2 a m a 2 a 22 a 2m a n a n2 a nm mit a ij R, i =,, n, j =,, m, heißt n m-matrix mit Koeffizienten in R oder (n m-) Matrix über R Dabei gelten folgende Bezeichnungen: R n,m : Menge aller n m-matrizen über R, a ij : der i, j-te Koeffizient oder Eintrag, [a i,, a im ] : die i-te Zeile von A (das ist eine m-matrix), a j a nj : die j-te Spalte von A (das ist eine n -Matrix), : die Nullmatrix, dh, die Matrix in R n,m, bei der alle Einträge sind, I n : die Einheitsmatrix in R n,n, dh, die Matrix mit den Einträgen δ ij = {, i = j, sonst, I n =, 2

3 E ij : die Matrix in R n,m, die in der Position (i, j) den Eintrag und in allen anderen Postionen den Eintrag hat, zb E = Operationen mit Matrizen Addition von Matrizen Wir können Matrizen gleicher Größe addieren: + : (R n,m R n,m ) R n,m (A, B) A + B = C = [c ij ], c ij = a ij + b ij, i =,, n, j =,, m Eigenschaften der Matrizenaddition: Seien A, B, C R n,m, A = [a ij ], B = [b ij ], C = [c ij ] und setze à = [ a ij] Dann gilt: (Ass +) (A + B) + C = A + (B + C), (Komm +) A + B = B + A, (Null) A + = + A = A, (Inv +) A + à = à + A = Skalarmultiplikation Wir können Matrizen mit Elementen aus R multiplizieren : (R n,m R) R n,m (A, r) r A = [r a ij ] Eigenschaften der Skalarmultiplikation: Seien A, B R n,m, r, s R Dann gilt: a) (r s)a = r(sa), b) (r + s)a = ra + sa, c) r(a + B) = ra + rb, d) A = A, e) A + ( )A =, f) A = n m a ij E ij i= j=

4 Multiplikation von Matrizen Sei A = [a ij ] R n,m, B = [b ij ] R m,s Setze A B = C = [c ij ] R n,s, c ij = m Technik: k= a ik b kj b b m b j b mj b s b ms a a m [a i a im ] c ij a n a nm Im folgenden lassen wir den Multiplikationspunkt meistens weg Eigenschaften der Matrizenmultiplikation: Lemma 22 Seien A = [a ij ] R n,m, Ã = [ã ij ] R n,m, B = [b ij ] R m,s, B = [ b ij ] R m,s, C = [c ij ] R s,t, r R Dann gilt: a) (Ass ) (A B) C = A (B C), b) (Distr ) (A + Ã)B = AB + ÃB, c) (Distr 2) A(B + B) = AB + A B, d) (I n, I m ) I n A = AI m = A, e) (r A)B = r(ab) = A(rB) Beweis: a) Sei D = [d ij ] = (A B) C, D = [ dij ] = A (B C) Es gilt ( s m ) d ij = a ik b kl c lj l= k= = s m (a ik b kl ) c lj! Distributivität in R l= k= = s m a ik (b kl c lj ) = l= k= ( m s ) a ik b kl c lj k= l= = d ij b)-e) Übung!

5 Definition 23 Eine Matrix A R n,n heißt invertierbar, wenn es ein à Rn,n gibt mit ÃA = Aà = I n Man schreibt dann à = A, die inverse Matrix von A Lemma 24 Seien A, B R n,n invertierbar Dann ist AB invertierbar und es gilt (AB) = B A Beweis: (AB)(B A ) = A(BB )A = AI n A = AA = I n, (B A )(AB) = B (A A)B = B I n B = B B = I n Lemma 25 Falls A R n,n invertierbar ist, gibt es genau eine Inverse von A Beweis: Angenommen, es gibt zwei verschiedene Matrizen B, B, so dass AB = I n, A B = I n, BA = I n, BA = In = AB A B = A(B B) = = BA }{{}(B B) = B = I n = B B = = B = B Beispiel 26 [ a b A = c d ], A = ad bc [ d b c a ] A ist invertierbar genau dann, wenn ad bc Bemerkung 27 a) Nicht alle Matrizen in R n,n sind invertierbar, siehe Beispiel 26, zb [ 2 2 ]

6 b) Die Matrizenmultiplikation ist ia nicht kommutativ ZB [ ] [ ] 2 2 [ ] [ ] 2 2 = = [ ], 2 [ ] c) Aus A B = folgt nicht A = oder B =, zb [ 2 2 ] [ ] = [ ] Definition 28 Sei A = [a ij ] R n,m Dann heißt die Matrix B = [b ij ] R m,n mit b ij = a ji, i =,, n, j =,, m, die transponierte Matrix zu A Wir schreiben B = A T Eigenschaften der Transponierten: Lemma 29 Seien A, Ã Rn,m, B R m,s, r R Dann gilt a) (A + Ã)T = A T + ÃT, b) (ra) T = ra T, c) (AB) T = B T A T, d) (A T ) T = A e) Falls n = m und A invertierbar, so gilt (A ) T = (A T ) Beweis: a), b), d) sind offensichtlich c) Sei A B = C = [c ij ] mit c ij = m a ik b kj und A T = [a ij], B T = [b ij], C T = [c ij] Es gilt k= c ij = c ji = = = m a jk b ki k= m a kj b ik k= m b ik a kj k= = C T = B T A T e) A A = I n = (A A) T = I T n = I n = A T (A ) T = I n = (A ) T = (A T ), da die Inverse nach Lemma 25 eindeutig ist

7 Spezielle Klassen von Matrizen Definition 2 Sei A R n,n a) A heißt symmetrisch, falls A = A T b) A heißt obere Dreiecksmatrix, falls a ij = i = 2,, n, j =,, i c) A heißt untere Dreiecksmatrix, falls A T obere Dreiecksmatrix ist d) A heißt Diagonalmatrix, falls A obere und untere Dreiecksmatrix ist e) A heißt Permutationsmatrix, falls in jeder Zeile und in jeder Spalte genau ein Eintrag ist und alle anderen Einträge sind Definition 2 a) Eine additive Gruppe {G, +} ist eine Menge G mit einer Operation +, die bezüglich der Operation + abgeschlossen ist, und für die die Gesetze (Ass +), (Null) und (Inv +) aus der Definition gelten Falls auch noch (Komm +) gilt, so heißt {G, +} kommutative additive Gruppe b) Eine multiplikative Gruppe {G, } ist eine Menge G mit einer Operation, die bezüglich der Operation abgeschlossen ist, für die die Gesetze (Ass ) und (Eins) aus Definition gelten und in der jedes Element g G invertierbar ist Falls auch noch (Komm ) gilt, so heißt {G, } kommutative multiplikative Gruppe Korollar 22 R n,m ist bezüglich der Matrizenaddition eine kommutative additive Gruppe Beweis: Siehe Eigenschaften der Matrizenaddition Korollar 23 Die Menge GL n (R) der invertierbaren Matrizen in R n,n ist bezüglich der Matrixmultiplikation eine (nicht kommutative) multiplikative Gruppe Beweis: Das Einselement ist I n Der Rest ist bereits bewiesen, siehe Eigenschaften der Matrizenmultiplikation Korollar 24 a) Die Menge der invertierbaren oberen Dreiecksmatrizen in R n,n ist bezüglich der Matrixmultiplikation eine (nicht kommutative) multiplikative Gruppe (Analog für untere Dreiecksmatrizen) b) Die Menge der nichtsingulären Diagonalmatrizen bildet eine kommutative multiplikative Gruppe

8 Beweis: a) Es seien A = [a ij ], B = [b ij ] invertierbare obere Dreiecksmatrizen in R n,n Wir müssen zunächst beweisen, dass A B wieder eine obere Dreiecksmatrix ist Sei C = A B = [c ij ] Für i > j gilt n c ij = a ik b kj = k= j k= a ik b kj (da b kj = für k > j) = (da a ik = für i > k) Die Gültigkeit von (Ass ) und (Eins) ist klar Nun müssen wir noch zeigen, dass A eine obere Dreiecksmatrix ist (Existenz ist klar nach Voraussetzung) Wie bekommen wir A? Wir suchen C = [c ij ], so dass AC = I, dh, für alle j =,, n a a n a nn c j c nj = δ j δ nj (δ ij = {, i = j, sonst ) a nn c nj = δ nj = c nj = δ nj a nn, a n,n c n,j + a n,n c nj = δ n,j = c n,j = a n,n (δ n,j a n,n c nj ), Für j =,, n : c nj = δ nj a nn, c ij = a ii δ ij n k=i+ a ik c kj, i = n,, (25) Formel für die Inverse einer oberen Dreiecksmatrix (Rückwärts-Einsetzen) Die Existenz von A liefert a ii, i =,, n

9 Zeigen nun per Induktion, rückwärts, dass C obere Dreiecksmatrix ist Sei j < n Dann: IA: c nj = δ nj a nn = IV: Für l mit j + 2 l n sei c kj = für k = l,, n IS: c l,j = ( ) n δ l,j a l,k c kj a l,l k=l = δ l,j a l,l = b) Abgeschlossenheit des Produktes, (Ass ) und (Eins) sind klar Seien A = [a ij ], B = [b ij ] Diagonalmatrizen C = A existiert nach Voraussetzung Aus Formel (25) folgt c ij = δ ij /a ii, i, j =,, n Also ist C Diagonalmatrix Weiterhin gilt A B = diag(a b,, a nn b nn ) = diag(b a,, b nn a nn ) = B A Bemerkung 26 In (25) haben wir eine Formel für die Inverse einer invertierbaren oberen Dreiecksmatrix erhalten, die auch gleich einen rekursiven Algorithmus liefert Analoges gilt natürlich für untere Dreiecksmatrizen Beispiel: A = 2 2 A = 2 4 2 Übung: Allgemeine Formel für die Inverse von Block-Dreiecksmatrizen Es sei A = [ A A 2 A 22 ] k n k k n k A, A 22 seien invertierbar Zeige: A = A A A 2 A 22 A 22 k n k k n k

2 Satz 27 Die Menge der Permutationsmatrizen in R n,n bildet eine multiplikative Gruppe Ist A R n,n eine Permutationsmatrix, so gilt A = A T Beweis: Seien A = [a ij ], B = [b ij ] R n,n Permutationsmatrizen, C = A B = [c ij ] mit n c ij = a ik b kj = [a i,, a in ] k= b j b nj Da es nur genau ein Element a ik gibt, welches von verschieden (nämlich = ) ist, und genau ein Element b kj, welches von verschieden (= ) ist, so gibt es in jeder Zeile und in jeder Spalte von C genau ein von Null verschiedenes Element (= ), nämlich dort, wo a ik = b kj = ist Sei A A T = C = [c ij ] Dann gilt: n c ij = a ik a jk = δ ij k=

Kapitel 3 Die Treppennormalform und der Gauß sche Algorithmus Wir haben bereits gesehen, wie wir die Inverse von Dreiecksmatrizen berechnen können Wir würden auch gerne für volle Matrizen solche Formeln haben, aber das geht nicht so einfach Um dies zu erreichen, versuchen wir, die Matrix erst auf eine Dreiecksform zu bringen, und zwar durch Multiplikation mit Matrizen, deren Inverse wir leicht berechnen können Diese sogenannten Elementarmatrizen führen elementare Operationen aus: Vertauschung zweier Zeilen (Spalten), Multiplikation einer Zeile (Spalte) mit einem Skalar, Addition eines Vielfachen einer Zeile zu einer anderen Zeile Es sei P ij R n,n für i < j n die Permutationsmatrix P ij := i j i j Ist A R n,m, so werden durch die Multiplikation P ij A die Zeilen i und j in A vertauscht Beachte: P ij = P T ij = P ij 2

22 Es sei M i (λ) R n,n für i n, λ R\{} die Matrix M i (λ) := λ i i Ist A R n,m, so wird durch die Multiplikation M i (λ)a die i-te Zeile von A mit λ multipliziert Beachte: M i (λ) = M i ( λ ) Es sei G ij (λ) R n,n für i < j n, λ R die Matrix G ij (λ) := λ i j i j Es sei A R n,m Durch die Multiplikation G ij (λ)a wird das λ-fache der i-ten Zeile von A zur j-ten Zeile addiert Durch die Multiplikation G T ij(λ)a wird das λ-fache der j-ten Zeile zur i-ten Zeile von A addiert Beachte: [G ij (λ)] = G ij ( λ)

23 Satz 3 Sei K ein Körper, A K n,m Dann gibt es Elementarmatrizen S,, S t K n,n, so dass S t S A in Treppennormalform ist, dh, S t S A = Insbesondere, falls n = m und A invertierbar ist, so ist S t S A = I, dh, A = S t S oder A = S St Beweis: Den Beweis führen wir konstruktiv mit Hilfe des Gauß schen Algorithmus Ist A die Null-Matrix, dann setzen wir t =, S = I n und sind fertig Nun sei A von der Null-Matrix verschieden Sei j die erste Spalte von A () := A = [ a () ] ij, die nicht aus lauter Nullen besteht, und sei a () i,j das erste Element in der j -ten Spalte, welches nicht ist Bilde à () := M a () i,j P,i A () = ã () 2,j ã () n,j j = [ ã () ] i,j Multipliziere von links mit G,n ( ã () n,j ) G,2 ( ã () 2,j ) So gilt mit S := G,n ( ã () n,j ) G,2 ( ã () ) 2,j M a () i,j P,i S A () = A (2) j Setze A (2) = [ a (2) ] ij, i = 2,, n, j = j +,, m (das heißt, wir behalten die Indizes aus der großen Matrix in der kleineren bei) Für k = 2,, s seien die Matrizen S k rekursiv definiert durch S k = [ Ik Sk ],

24 S k A (k) = A (k+), wobei S k analog zu S konstruiert wird: Sk entsteht, indem ich die erste Spalte j k von A (k) finde, die nicht aus lauter Nullen besteht, und das erste Element a (k) i k,j k der j k -ten Spalte, welches ungleich ist Dann ist wobei S k = G k,n ( ã (k) n,j k ) Gk,k+ ( ã (k) Ã (k) := M k a (k) i k,j k P k,ik A (k) = [ ã (k) ij ) k+,j Mk k ] a (k) i k,j k P k,ik, Beachte: Wenn A (k) die Null-Matrix ist, ist nichts mehr zu tun, und wir setzen s = k Nach höchstens min{n, m} Schritten bricht dieser Prozess ab Dann folgt, dass R = R () = [ r () ] ij := S s S 2 S A () = j j 2 j 3 j s (32) Ist s =, dann haben wir die Treppennormalform bereits erreicht Ist s >, bleiben nur noch die über den Einsen auszuräumen Dazu bilden wir für k = 2,, s rekursiv ( ) ( ) S s+k = G T (k ),k r,j k G T (k ) k,k r k,j k, R (k) := S s+k R (k ) =: [ r (k) ] ij Setze t = s + s Aus der Konstruktion folgt dann, dass R (s) = S t S A in Treppennormalform ist Definition 33 Die Positionen der Einsen in der Treppennormalform heißen Pivotpositionen

25 Beispiel 34 2 3 2 2 2 j = 2 ( ) M 2 3 2 2 2 2 2 G,3 ( 2) 2 3 2 2 G,2 ( 2) 2 3 2 2 ( ) M 2 2 3 2 2 G 2,3 () G T 2,3( 2) 3 2 2 2 2 ( ) G T,2 2 ( ) G T 3 2 2 2 Korollar 35 Falls A K n,n invertierbar ist, so reicht es, den Gauß schen Algorithmus bis zur Form (32) auszuführen Dann ist R eine obere Dreiecksmatrix und es gilt A = S Ss R Weiterhin gilt, dass S Ss die Form P L hat, wobei P eine Permutationsmatrix und L eine invertierbare untere Dreiecksmatrix ist Beweis: Falls A invertierbar ist, so hat (32) die Form R = = [r ij], welches eine obere Dreiecksmatrix mit Einsen auf der Hauptdiagonale ist R = S s S A = A = S S s R Wir schauen uns nun die S i näher an Jedes S i hat die Form S i = s i,i s i+,i s n,i P i,ji mit j i i

26 Also folgt, dass S s S = s n,n s n,n s n,n P n,jn s n 2,n 2 s n,n 2 s n,n 2 P n 2,jn 2 s 22 s 32 s n,2 P 2,j2 s s 2 s 3 s n, P,j mit j i i für alle j =,, n Es gilt aber, dass durch die Multiplikation mit P n,jn in s n 2,n 2 s n,n 2 s n,n 2 höchstens die letzten beiden Zeilen vertauscht werden, also kann ich schreiben P n,jn s n 2,n 2 s n,n 2 s n,n 2 = s n 2,n 2 s n,n 2 s n,n 2 P n,jn (Durch die Multiplikation AP ij werden die Spalten i und j in A vertauscht) Analog gilt P k,jk s l,l s l+,l s n,l = s l,l s l+,l s n,l P k,jk für k = 2,, n, l =,, k

27 Es folgt per Induktion, dass S s S = s n,n s n,n s n,n s n 2,n 2 s n,n 2 s n,n 2 s 22 s 32 s n2 s s 2 s n, P n,j n P,j die Form L P hat, wobei L eine untere Dreiecksmatrix (vgl Korollar 24) und P eine Permutationsmatrix (vgl Satz 27) ist Also ist S Ss = P L = P L Korollar 36 Es sei K ein Körper und A, B K n,m in Treppennormalform Falls es eine invertierbare Matrix Z K n,n mit A = ZB gibt, so gilt A = B, dh, die Treppennormalform ist invariant unter Multiplikation mit nichtsingulären Matrizen von links Beweis: Es seien a i, b i, i =,, m, die Spalten von A, B Weiterhin seien (, j ),, (s, j s ) die Pivotpositionen von B Wir zeigen mit vollständiger Induktion über r, r s: Es gilt Z = [ Ir Z n r ], wobei Z n r invertierbar ist, und die ersten j r+ Spalten von A und B stimmen überein (Wir setzen j s+ := m + ) IA: Es gilt b k = für k j Da A = Z B, gilt auch a k =, k j Weiter ist b j = [,,, ] T, und da Z invertierbar ist, ist auch a j Da A in TNF ist, folgt, dass auch a j = [,,, ] T Weiterhin folgt, dass Z = Z n Damit ist auch a k = b k, k = j +,, j 2 IV: Die Aussage gelte für ein r, r s

28 IS: Wir betrachten die Pivotposition (r +, j r+ ) Da B in TNF ist, folgt b jr+ = r+ Wegen a jr+ = Zb jr+ und der Invertierbarkeit von Z n r folgt wie in der Induktionsannahme a jr+ = b jr+ und Z = Z n (r+) r n r r n r, und die ersten j r+2 Spalten von A und B sind gleich

Kapitel 4 Der Rang einer Matrix und die Lösung linearer Gleichungssysteme Mit Hilfe des Gauß schen Algorithmus lassen sich nicht nur die Inversen von Matrizen bestimmen, sondern auch die Lösung von linearen Gleichungssystemen Dabei hat der Gauß sche Algorithmus gewisse Nachteile auf dem Rechner (in endlicher Arithmetik), aber er ist eines der schnellsten Verfahren zur Lösung dieses zentralen Problems der linearen Algebra (und der Praxis in fast allen Anwendungen) Bevor wir zu linearen Gleichungssystemen kommen, wollen wir noch eine wichtige Größe einführen Definition 4 Die Anzahl s der Zeilen mit Pivotelementen (dh, der Zeilen, die nicht gleich sind) in der Treppennormalform einer Matrix A K n,m heißt Rang von A, wir schreiben Rang (A) = s Satz 42 Sei K ein Körper und A K n,m Dann gilt: () Es gibt nichtsinguläre Matrizen Q K n,n und Z K m,m, so dass r QAZ = E ii = i= [ Ir genau dann, wenn Rang (A) = r (2) Rang (A) = Rang (A T ) (3) Ist A = B C mit B K n,s und C K s,m, so gilt Rang (A) Rang (B), Rang (A) Rang (C) ] (4) Falls Q K n,n und Z K m,m invertierbar sind, so gilt Rang (A) = Rang (QAZ) 29

3 (5) Es gibt Matrizen B K n,s, C K s,m, so dass A = BC genau dann, wenn Rang (A) s (6) Für quadratische Matrizen A K n,n sind folgende Aussagen äquivalent Beweis: i) A ist invertierbar ii) Es gibt ein B K n,n mit A B = I iii) Es gibt ein B K n,n mit B A = I iv) Rang (A) = n v) Rang (A T ) = n (3a) Wir zeigen zunächst nur die erste Ungleichung von (3) Sei Q eine Matrix, so dass QB in TNF ist, QB = r B, mit Rang (B) = r B Wenn wir QA = QB C bilden, so folgt, dass QB C höchstens r B Zeilen hat, die nicht Null sind, dh, in der TNF von A sind höchstens r B Zeilen von Null verschieden, dh, Rang (A) Rang (B) () Sei Rang (A) = r Dann gibt es eine nichtsinguläre Matrix Q, so dass QA in Treppennormalform mit r Pivots ist: QA = r Betrachte (QA) T = A T Q T Dann gibt es eine Permutation P, so dass P A T Q T die Form r [ ] P A T Q T Ir = =: V n r r m r

[ ] Ir hat Setze Y = Es folgt, dass Y P A V I T Q T = [ n r ] Ir ergibt sich QAZ = [ Ir ] 3 Mit Z = P T Y T Für die Umkehrung zeigen wir zunächst eine Folgerung aus (3a) Es sei Z K m,m eine invertierbare Matrix Dann gilt wegen (3a) Rang (A) = Rang (AZZ ) Rang (AZ) Rang (A), folglich gilt überall das Gleichheitszeichen, und somit gilt: Ist Z K m,m eine invertierbare Matrix, dann ist Rang (A) = Rang (AZ) Es seien[ nun also ] Q K n,n und Z K m,m invertierbare Matrizen, so dass Ir QAZ = Wegen des gerade Bewiesenen ist dann r = Rang (QAZ) = Rang (QA) Nach Korollar 36 folgt Rang (A) = r (2) Folgt direkt aus () (3b) Die zweite Ungleichung von (3) folgt unter Verwendung von (2) und (3a) (4) Rang (QAZ) = Rang (AZ) = Rang (Z T A T ) = Rang (A T ) = Rang (A) (5) Sei A = BC, B K n,s, C K s,m, so folgt aus (3), dass Rang (A) Rang (C) s, da C natürlich höchstens Rang s haben kann Für die Umkehrung verwenden wir (): Ist r[ s der ] Rang von A, dann gibt es Ir nichtsinguläre Matrizen Q, Z, so dass QAZ = Wir schreiben [ Ir ] [ Ir = n s ] [ Ir m ] s = B C Es folgt, dass A = Q B CZ =: BC }{{}}{{} B C die gewünschte Zerlegung ist (6) (i) = (ii), (i) = (iii) laut Definition der Invertierbarkeit (iv) (v) wegen (2) (ii) = (iv) wegen (3), analog (iii) = (iv) (iv) = (i), denn nach () gibt es bei Rang (A) = n invertierbare Matrizen Q und Z mit A = QIZ = QZ, also ist A invertierbar

32 Bemerkung 43 Eine Zerlegung A = B C mit A K n,m, B K n,r, C K r,m, wobei r = Rang (A), nennt man im allgemeinen Vollrangzerlegung Diese Zerlegung spielt eine große Rolle bei der Lösung von Optimierungsproblemen Das Lösen von Gleichungen ist eine der wichtigsten Anwendungen der linearen Algebra Insbesondere führen fast alle wissenschaftlich-technischen Probleme im Endeffekt auf die Lösung linearer Gleichungssysteme Heutzutage sind Systeme mit bis zu Gleichungen und Unbekannten lösbar (Autoindustrie, Flugtechnik, Optimierung, ) Definition 44 (i) Ein lineares Gleichungssystem über K hat die Form Ax = b (45) mit A = [a ij ] K n,m, b = [b i ] K n,, x = [x j ] K m, Das sind n Gleichungen in m Unbekannten: a x + + a m x m = b a n x + + a nm x m = b n (46) (ii) Jedes x K m,, welches (45) erfüllt, heißt Lösung des linearen Gleichungssystems (45) (iii) Die Menge aller Lösungen des linearen Gleichungssystems (45) heißt Lösungsmenge von (45) Die Lösungsmenge von (45) ist also eine Teilmenge von K m, (iv) Falls b =, so heißt das Gleichungssystem homogen Zu jedem Gleichungssystem der Form (45) gibt es das zugeordnete homogene System Ax = (47) Lemma 48 Ist x eine Lösung von Ax = b und Z die Menge aller Lösungen des zugeordneten homogenen Systems Ax =, so ist L = {x + z z Z} (49) die Lösungsmenge von Ax = b Beweis: Sei z Z, so gilt A(x + z) = Ax + Az = b + = b Umgekehrt: Ist x eine Lösung von Ax = b, dann müssen wir ein z Z finden, so dass x = x + z ist Wir zeigen, dass z = x x diese Anforderung erfüllt, denn es ist Lösung des homogenen Systems: A( x x) = A x Ax = b b =

33 Äquivalente Umformungen Lemma 4 Ist T R n,n T Ax = T b identisch invertierbar, so sind die Lösungsmengen von Ax = b und Beweis: Sei x Lösung von Ax = b dann gilt T Ax = T b Also ist x auch Lösung von T Ax = T b Umgekehrt sei y eine Lösung von (T A)x = T b, dh (T A)y = T b, also auch und T (T A)y = T (T b) Ay = b, womit die Behauptung bewiesen ist Wir können also nach Lemma 4 die Matrix A R n,m auf TNF bringen, ohne die Lösungsmenge zu ändern T Ax = x = b bn = T b Es gibt eine Umordnung der Komponenten von x, welche durch eine Permutationsmatrix gegeben ist, so dass unser Gleichungssystem die Form T} AP {{ }}{{} P x = C y y y r y r+ y m = b br br+ bn = T b }{{} d (4) hat (vgl Satz 42, ()) Dabei ist y = [y,, y m ] = P x, C = T AP, d = T b

34 Wie sieht die Permutationsmatrix aus? P = Lemma 42 Das Gleichungssystem Ax = b hat mindestens eine Lösung, genau dann wenn Rang A = Rang [A, b] (43) Beweis: Nach Lemma 4 reicht es, die Aussage für das Gleichungssystem (4) zu zeigen, denn Rang C = Rang A und Rang [C, d] = Rang [A, b] Falls Rang (C) = Rang [C, d], so ist b r+ = b m = und damit ist [y,, y m ] = [ b, b r,,, ] eine Lösung (Es kann noch mehr Lösungen geben) Falls Rang (A) < Rang [A, b], so ist eines der b r+,, b m nicht gleich und damit hat das System keine Lösung Lemma 44 Ein Verfahren zur Lösung des Gleichungssystems Ax = b () Sei A = [A, b] die erweiterte Koeffizientenmatrix Transformiere A und A auf TNF B und B (2) Ist Rang (A) < Rang(A ), so besitzt das Gleichungssystem keine Lösung (3) Ist r = Rang (A) = Rang (A ), so bilde das assoziierte Gleichungssystem Cy = d mit C = QAP, y = P x, d = Qb

35 Eine spezielle Lösung ist ỹ = d d r (45) (4) Bestimme alle Lösungen des homogenen Systems Cy = durch Rückwärtseinsetzen ŷ = m j=r+ m j=r+ y r+ y m c j y j c rj y j Die Lösungsmenge ist: für beliebige y r+,, y m K (46) L = { x = P y y = ỹ + ŷ, ỹ wie in (45), ŷ wie in (46) } (47) Wir können also folgende Übersicht über die Lösbarkeit des linearen Gleichungssystems Ax = b, A K n,m, b K n,, x K m, gewinnen Sei r = Rang (A), r = Rang ([A, b]) Tabelle 48 r < r r = m = r r = r < m keine Lösung genau eine Lösung viele Lösungen, Lösungsmenge x = P ỹ L Beispiel 49 K = Q x + 2 x 2 + 2 x 3 + x 4 = x 2 + 3 x 4 = x + 3 x 3 + = 2 2 x + 3 x 2 + 5 x 3 + 4 x 4 = 3 x + x 2 + 3 x 3 + 3 x 4 = 2 A = 2 2 3 3 2 3 5 4 3 3, x = x x 2 x 3 x 4, b = 2 3 2

36 Gauß scher Algorithmus [A, b] 2 2 3 2 2 2 2 2 3 5 5 5 2 2 3 5 2 5 3 5 5 3 5 Es gilt: Rang (A) = Rang ([A, b]) Deshalb gibt es Lösungen Es ist keine Permutation notwendig: x =, ˆx = 5x 4 3x 4 5x 4 x 4 L = x Q 4 : x = + x 4 5 3 5 x 4 Q

Kapitel 5 Die Determinante Wir haben bereits eine wichtige (Funktion) Größe kennengelernt, den Rang einer Matrix Jetzt wollen wir eine weitere Funktion betrachten Definition 5 Eine Permutation der Zahlen {,, n} ist eine bijektive Abbildung σ : {,, n} {,, n} Die Menge aller Permutationen von {,, n} {,, n} bezeichnen wir mit S n Sei v = 2 und P σ eine Permutationsmatrix, so ist P σ v = w = n σ(i) = w i, i =,, n w w 2 w n und gibt eine Permutation an Für n = 3 gibt es folgende Permutationen: 23 23 32 32 23 32 Satz 52 Die Anzahl der möglichen Permutationen von {,, n} ist n! = 2 (n ) n Beweis: Vollständige Induktion IA: Für n = gibt es nur eine Permutation! = IV: Die Behauptung sei richtig für n = k 37

38 IS: Sei n = k +, dann können wir für jede Permutation von {,, k}, wovon es k! Stück gibt, die Zahl k + an jede beliebige Stelle setzen, also gibt es (k + ) (k!) = (k + )! Permutationen Definition 53 Das Signum einer Permutation ist definiert durch sgn (σ) = {, bei gerader, bei ungerader } Anzahl von Paaren (i, j) mit i > j und σ(i) < σ(j) Beispiel 54 {, 2, 3, 4, 5}, σ = 3 5 4 2, σ 2 = 3 4 5 2 σ : i 2 3 4 5 σ(i) 3 5 4 2 σ 2 : i 2 3 4 5 σ(i) 3 4 5 2 4 Paare 3 Paare sgn (σ ) = sgn (σ 2 ) = Definition 55 Sei R ein kommutativer Ring mit Eins und A = [a ij ] R n,n Dann heißt det(a) = sgn (σ)a,σ() a n,σ(n) (56) σ S n die Determinante von A Dies ist eine Abbildung det : R n,n R : A det(a) Beispiel 57 A = [a ij ] R 3,3, (Regel von Sarrus) σ = 2 3 σ 3 = 2 3 σ 5 = 3 2 σ 2 = 3 2 σ 4 = 2 3 σ 6 = 3 2 sgn (σ ) = sgn (σ 3 ) = sgn (σ 5 ) = sgn (σ 2 ) = sgn (σ 4 ) = sgn (σ 6 ) = det(a) = a a 22 a 33 + a 2 a 23 a 3 + a 3 a 2 a 32 a a 23 a 32 a 2 a 2 a 33 a 3 a 22 a 3

39 oder für A = [ a a 2 a 2 a 22 ] R 2,2 σ = 2 σ 2 = 2 sgn σ = sgn σ 2 = det(a) = a a 22 a 2 a 2 Lemma 58 Sei A R n,n i) Ist A obere oder untere Dreiecksmatrix, so ist det(a) = a a n,n ii) Hat A eine Zeile oder Spalte von Nullen, so ist det(a) = iii) Die Determinante einer Permutationsmatrix ist gleich dem Signum der zugehörigen Permutation Beweis: i) Sei σ S n, σ 2 n, so gibt es ein i mit i > σ(i) Also gilt für eine obere Dreiecksmatrix a,σ() a n,σ(n) =, da a i,σ(i) = Also bleibt nur det(a) = sgn ( 2 3 n) }{{} =, da Paare a a nn = a a nn Für untere Dreiecksmatrizen gilt der Beweis analog ii) Falls A eine Nullzeile hat, so gilt a k,l =, l =,, n, also ist in jedem der Produkte a,σ() a n,σ(n) mindestens ein Faktor gleich Für Nullspalten gilt das analog iii) Es gibt natürlich nur ein Produkt, welches ungleich Null ist; das ist a,σ() a n,σ(n) Alle anderen sind und damit folgt die Behauptung Beispiel 59 Die Determinanten der Elementarmatrizen P ij, M i (λ), G ij (λ) sind: det P ij =, det M i (λ) = λ, det G ij (λ) =

4 Rechenregeln mit Determinanten Lemma 5 Sei A = [a ij ] K n,n, K Körper (a) Hat A zwei gleiche Zeilen, so ist det A = (b) Die Multiplikation einer Zeile von A mit λ K führt zur Multiplikation der Determinante mit λ det (M j (λ) A) = λ det A = det (M j (λ)) det A (5) (c) Wenn ich das Vielfache einer Zeile zu einer anderen addiere, so ändert sich die Determinante nicht det(g ij (λ) A) = det A = det (G ij (λ)) det A (52) det(g ij(λ) A) = det A = det ( G ij(λ) ) det A (d) Wenn ich zwei Zeilen von A vertausche, so erhalte ich das Negative der Determinante det(p ij A) = det A = det P ij det A (53) Beweis: Wir verwenden die Notation: n a ij = a j a nj i= (a) Da A zwei gleiche Zeilen hat, gibt es ein Indexpaar i, i mit a i,j = a i,j j =,, n Für jedes σ S n setze σ(l) l i, i σ (l) = σ(i) l = i σ(i ) l = i Dann ist σ S n und sgn (σ) = sgn (σ ), aber n a l,σ(l) = n det A = ( n ) sgn (σ) a l,σ(l) σ S n l= = ( n ) sgn (σ ) a l,σ (l) σ S n l= = ( n ) sgn (σ ) a l,σ (l) σ S n l= = det A Somit gilt det(a) =, da det(a) K l= a l,σ (l) l=

4 (b) Sei à = M j (λ) A = [ã li ] Dann gilt: ã li = Also det à = { ali, l j λa li, l = j sgn (σ)ã,σ() ã n,σ(n) σ S n = ( n ) sgn (σ) ã l,σ(l) σ S n l= = n sgn (σ) a l,σ(l) ã j,σ(j) σ S n l= }{{} l j λa j,σ(j) = λ n sgn (σ) a l,σ(l) = λ det A σ S n l= { als, l j (c) Sei à = G ij (λ)a = [ã ls ] Dann gilt: ã ls = a ls + λa is, l = j det à = ( n ) sgn (σ) ã l,σ(l) σ S n l= = n sgn (σ) a l,σ(l) (a j,σ(j) + λa i,σ(j) ) σ S n = l= l j n sgn (σ) a l,σ(l) n + λ sgn (σ) a l,σ(l) a i,σ(j) σ S n l= σ S n = det A + λ det Â, wobei  zwei gleiche Zeilen hat und nach (a) folgt det  =, also det à = det A = det A det G ij(λ) }{{} Der Beweis für G ij(λ) erfolgt analog l= l j (d) P ij = = G ij ()G ij( )G ij ()M j ( ),

42 denn [ ] [ ] [ ] [ ] = [ ] [ ] = [ ] Also folgt: det(p ij A) = det [ G ij ()G ij( )G ij ()M j ( )A ] = det [G ij ()M j ( )A] = det [M j ( )A] = det A Satz 54 Sei K ein Körper mit A, B K n,n, so gilt (a) det(a B) = det A det B, (b) det A = det A Beweis: (a) Nach Satz 3 (TNF) läßt sich A als Produkt von Elementarmatrizen und einer Matrix in TNF schreiben, dh, A = S St Ã, wobei à entweder die Einheitsmatrix ist, oder mindestens eine Nullzeile hat, falls Rang (A) < n Falls à eine Nullzeile hat, so hat auch S t S A B = ÃB eine Nullzeile Wegen det A = ±λ det à gilt für den Fall, daß Ã eine Nullzeile hat, det à = = det A = det ÃB = det AB Wir können uns also auf den Fall det A beschränken, dh, à = I n Dann ist det A det B = det(s St ) det B = det S det St det B, det AB = det(s St B) = det S det St det B (b) Mit A = S St à gilt det(a ) = det(s St Ã) = { det S t = = { det S t = det A det S det S { det(s t S ), à = I, sonst,

43 Beispiel 55 det 2 3 4 2 3 4 5 3 4 5 6 4 5 6 7 2 3 4 = 2 3 4 det 3 2 5 2 4 5 2 3 5 3 7 4 2 4 = 24 det = ( 2 2 3 4 2 3 2 2 3 4 3 2 3 4 3 2 9 4 ) ( ) ( ) 2 3 3 24 det 4 2 3 4 2 3 2 3 2 3 =, Beispiel 56 det a b c d e f g h i da drei gleiche Zeilen = aei + bfg + cdh ceg afh bdi Definition 57 Sei A R n,n Dann heißt die Matrix A(s, t) R n,n, die durch das Streichen der s-ten Zeile und der t-ten Spalte von A entsteht, Minor von A Man bilde die Matrix B = [b ij ] mit b ij = ( ) i+j det A(j, i), i, j =,, n B heißt Adjungierte von A und wird als adj (A) bezeichnet Satz 58 Für eine Matrix A R n,n, ihre Determinante und ihre Adjungierte gilt: det(a) I = A adj (A) = adj (A) A Beweis: Sei B = [b ij ] = adj(a) A }{{} =[c ij ] b ij = = n c ik a kj k= n ( ) i+k det A(k, i) a kj k= Nun gilt aber det A(k, i) = ( ) k+i det Ãk,i, wobei à k,i = a a,i a,i+ a n a k, a k,i a k,i+ a k,n a k a k,i a k,i+ a kn a k+, a k+,i a k+,i+ a k+,n a n a n,i a n,i+ a nn,

44 denn durch (k[ ) Zeilenvertauschungen ] und (i ) Spaltenvertauschungen kann man Ãki auf die Form bringen und dafür gibt die Übung A(k, i) det Ãk,i = ( ) i +k det [ A(k, i) ] Also folgt = ( ) i+k det A(k, i) b ij = n ( ) i+k det A(k, i)a kj k= = n ( ) i+k ( ) i+k det Ãk,ia kj k= a a,i a,i+ a n n = det a k a k,i a kj a k,i+ a kn k= a n a n,i a n,i+ a nn a a,i a j a,i+ a n = det a n a n,i a nj a n,i+ a nn {, i j = det A, i = j = δ ij det A (s Übung) Der Beweis für die andere Aussage A adj (A) = det A I ist analog Korollar 59 Sei A K n,n und det A in K so ist A invertierbar und es gilt (a) A = adj (A) (52) det A (b) n det A = ( ) i+j a ij det A(i, j) (52) j= ( Laplace-Entwicklung der Determinante nach der i-ten Zeile), (c) n det A = ( ) i+j a ij det A(i, j) (522) i= ( Laplace-Entwicklung der Determinante nach der j-ten Spalte)

45 Beweis: (a) Klar aus Satz 58, denn falls existiert, so existiert det A A = adj (A) det A (b) Folgt aus A adj A = det A I (c) Für beliebiges j gilt nach Satz 58 n det A δ jj = ( ) j+k det A(k, j)a k,j k= Beispiel 523 det 2 3 4 5 6 7 8 9 + + + + + = (+) det nicht invertierbar det 2 3 2 3 4 3 4 6 invertierbar +2 ( ) det +3 (+) det [ 5 6 8 9 [ 4 6 7 9 [ 4 5 7 8 = (45 48) 2 (36 42) + 3 (32 35) = 3 + 2 9 = = (+) det [ 3 4 4 6 [ ] 2 4 +2( ) det 3 6 [ ] 2 3 +3(+) det 3 4 = 2 + 3 = Korollar 524 Cramer sche Regel (nur von theoretischem Wert, nie auf Rechner anwenden für große n) Sei K ein Körper, A K n,n, b K n, und Rang A = Rang [A, b] = n Dann ist die Lösung des Gleichungssystems Ax = b ] ] ] ]

46 gegeben durch also x = A b = adj (A) b (525) det A x i = det[a,, a i, b, a i+,, a n ], i =,, n (526) det A Man muß also, um x zu berechnen, n + Determinanten berechnen Das geht viel billiger mit dem Gauß schen Algorithmus (Man berechnet übrigens in der Praxis Determinanten auch mit dem Gauß schen Algorithmus) Beispiel 527 2 2 2 2 x x 2 x 3 x 4 = det det 2 2 2 2 2 2 = det 2 2 2 det 2 2 = 2 (4 ) (4 + 2 ) = 2, = 2 det 2 2 det = 2 (4 + 2 ) (4 ) =, 2 2 det 2 2 2 = 2 det 2 2 det = 2 (4 2 2) (2 2 ) =, 2 det 2 2 2 = 2 det 2 2 det 2 = 2 (4 + 2) (2 + ) = 2,

47 det A = 2 det 2 2 2 = 2 (8 2 2) 3 = 5, det 2 2 x = 2 5 5 5 2 5, Probe: 2 2 2 2 2 5 5 5 2 5 = 5 5 5 5 5 = Mit Gauß: 2 2 2 2 Rückwärts einsetzen: x 4 = 2, 5 ( x 3 = 3 2 ) 2 4 3 5 = 3 ( x 2 = 2 ) 3 2 5 = 2 ( ) x = 2 5 = 2 5 2 3 2 2 2 2 2 3 2 4 2 3 3 5 4 2 4 4 3 3 5 = 5, = 5, 2 3 2 2 4 3 2 3 2 Man kann natürlich auch andere Matrixfunktionen außer der Determinante betrachten Eine für einige Anwendungen in der Kombinatorik wichtige Funktion ist die Permanente einer Matrix per (A) = n a j,σ(j) (528) σ S n j= Man läßt also einfach die Vorzeichen weg und erhält das Ergebnis wie bei der Determinante Beispiel 529 per 2 3 2 3 2 3 = 6 + 6 + 6 + 6 + 6 + 6 = 36

Kapitel 6 Eigenwerte von Matrizen Neben Rang und Determinante einer Matrix gibt es noch weitere wichtige Größen, die eine Rolle bei Matrizen spielen Dazu gehören das charakteristische Polynom und dessen Nullstellen, die Eigenwerte der Matrix Wir haben schon in den Übungen die Menge der Polynome eingeführt: { n } P = a i x i a i R, wobei R ein Ring ist i= Definition 6 Sei A R n,n, R ein kommutativer Ring mit Eins-Element Dann heißt das Polynom P A (λ) = det(λi n A) (62) das charakteristische Polynom von A Warum ist das überhaupt ein Polynom? P A (λ) = det(λi n A) = n sgn (σ) (λδ j,σ(j) a j,σ(j) ) σ S n j= ist eine Summe von Produkten von Termen der Form (λδ j,σ(j) a j,σ(j) ) und damit ein Polynom Es ist klar, dass einer dieser Terme die Form n (λ a jj ) hat, dies ist ein Polynom vom Grad n Somit kann man P A (λ) schreiben als n P A (λ) = (λ a jj ) + n sgn (σ) (λδ j,σ(j) a j,σ(j) ) j= j= σ Sn σ 2 n In jedem Term des zweiten Summanden gibt es mindestens zwei Faktoren, die kein λ enthalten Damit ist der Grad des zweiten Summanden höchstens n 2 Es folgt n P A (λ) = λ n a jj λ n + q(λ) j= mit q(λ) vom Grad n 2 48 j=

49 Definition 63 Sei A R n,n, R ein kommutativer Ring mit Eins-Element Dann heißt die Summe n tr (A) = spur (A) = a jj (64) j= die Spur der Matrix A (Englisch: trace) Damit folgt P A (λ) = λ n tr (A)λ n + q(λ) mit grad (q) n 2 Man hat also zu jeder Matrix ein Polynom Umgekehrt kann man auch zu jedem Polynom vom Grad n mit führendem Term λ n eine Matrix konstruieren, die dieses als charakteristisches Polynom hat Lemma 65 Sei p(λ) = λ n + a λ n + + a n λ + a n, so ist p(λ) charakteristisches Polynom von A p = a n a 2 a Beweis: mittels vollständiger Induktion: IA: Für n =, dh p(λ) = λ + a, gilt mit A p = [ a ] P Ap (λ) = det(λi A p ) = λ + a = p(λ) (66) IV: Für Polynome kleineren Grades als n sei die Behauptung bewiesen IS: λ a n det(λi n A p ) = det λ a2 λ + a λ a a n n λ a n 2 = λ det + det λ a 2 λ a 2 λ + a }{{} λ + a nach IV = λ (λ n + a λ n 2 + + a n 2 λ + a n ) + ( ) (n )+ a n det λ λ } {{ } n 2

5 = λ n + a λ n + a n 2 λ 2 + a n λ + ( ) 2n 2 a n = p(λ) Definition 67 Die zu einem Polynom p(λ) konstruierte Matrix aus (66) heißt Begleitmatrix zu p(λ) Definition 68 Sei K ein Körper und seien A, B K n,n A und B heißen ähnlich, falls es ein invertierbares Z K n,n gibt, so dass A = Z BZ Satz 69 Wenn zwei Matrizen A, B K n,n ähnlich sind, so besitzen sie das gleiche charakteristische Polynom Beweis: Sei A = Z BZ, dann ist det(λi A) = det(λi Z BZ) = det ( Z (λzz B)Z ) Satz 54 = det Z det(λi B) det Z Satz 54 = det ( Z Z ) det(λi B) = det(λi B) Die Umkehrung von Satz 69 gilt nicht immer (aber wenn das charakteristische Polynom in Linearfaktoren zerfällt, vgl Satz 32) Ein fundamentaler Satz der linearen Algebra ist der folgende Satz von Cayley und Hamilton Satz 6 Satz von Cayley und Hamilton Sei K ein Körper und A K n,n mit dem charakteristischen Polynom P A (λ) Dann erfüllt A die Gleichung = P A (A) = A n + a A n + + a n A + a n I n (6) Beweis: Betrachte die Matrix adj (λi A) Alle Einträge sind Polynome vom Grad n, es sind Minoren von λi A Wir können also adj (λi A) schreiben als adj (λi A) = n i= B i λ i mit B i K n,n

5 Nach Satz 58 folgt ( n ) (λi A)adj (λi A) = (λi A) B i λ i = P A (λ)i = n B i λ i+ i= } {{ } n i= B i λ i mit P A (λ) = λ n + a λ n + + a n λ + a n i= n AB i λ i = i= Der Koeffizientenvergleich (für gleiche Potenzen von λ) ergibt P A (λ) P A (λ) λ n : A n B n = I = A n B n = A n λ n : A n B n 2 AB n = a I = A n B n 2 A n B n = a A n λ : A B AB = a n I = AB A 2 B = a n A λ : AB = a n I = AB = a n I Addieren ergibt A n + a A n + + a n A + a n I = Definition 62 Sei K ein Körper und sei A K n,n Falls u K n,, u, und λ K die Gleichung Au = λu (63) erfüllen, so heißt u Eigenvektor von A zum zugehörigen Eigenwert λ Da Eigenvektoren immer sind, folgt aus λ u = λ 2 u, dass λ = λ 2 Der Eigenwert zu u ist also eindeutig Satz 64 Zu A K n,n gibt es einen Eigenvektor u mit Eigenwert λ genau dann, wenn λ Nullstelle des charakteristischen Polynoms P A (λ) ist Beweis: P A (λ) = det(λi A) = das homogene Gleichungssystem (λi A)u = hat mindestens eine nichttriviale Lösung u K n,, u mit λu = Au

52 Beispiel 65 Eigenwerte und Eigenvektoren von A K 2,2 [ ] λ a a det(λi A) = det 2 a 2 λ a 22 = λ 2 (a + a 22 ) }{{} spur (A) λ,2 = Eigenvektoren spur (A) 2 ± 2 spur (A) 2 4 det(a) λ + a a 22 a 2 a 2 }{{} det(a) = [ λ a a 2 a 2 λ a 22 [ λ2 a a 2 a 2 λ 2 a 22 ] [ x x 2 ] [ y y 2 ] ] = = Eigenwerte in der Technik f, f, f 2 - Federkonstanten Bewegungsgleichungen im Gleichgewicht m d 2 x dt 2 = f x + f(x 2 x ) m 2 d 2 x 2 dt 2 = f 2 x 2 f(x 2 x ) Führe Geschwindigkeiten v = dx dt, v 2 = dx 2 dt ein Dann gilt dv dt dv 2 dt dx dt dx 2 dt = m ( f x + f(x 2 x )) = f + f m x + f m x 2, = m 2 ( f 2 x 2 f(x 2 x )) = f m 2 x f + f 2 m 2 x 2, = v, = v 2

53 y := x x 2 v v 2 = dy dt = Ay = Ansatz: y = e λt z wobei z C 4 m f m m 2 f +f f m 2 f+f 2 y dy dt = λeλt z = Ae λt z e λt = λz = Az = (λi A)z = = λ ist Eigenwert und z Eigenvektor Die Eigenwerte λ sind die Eigenfrequenzen des Systems Konkret wählen wir f = f 2 = f =, m = m 2 = und erhalten: A = 2 2 det(λi A) = det = λ det λ λ 2 λ 2 λ λ λ 2 λ det = λ(λ 3 + 2λ) ( 4 + 2λ 2 ) λ 2 2 λ = λ 4 + 4λ 2 + 3 = ω 2 + 4ω + 3 mit ω = λ 2 ω = 4 ± 6 2 2 ω =, ω 2 = 3, = 4 ± 4 2 = 2 ±, λ,2 = ±i, λ 3,4 = ± 3i

Kapitel 7 Vektorräume Definition 7 Sei K ein Körper Ein Tripel (V, +, ) K, bestehend aus einer Menge V, einer Abbildung + (Addition) und einer Abbildung (skalare Multiplikation), + : V V V (x, y) x + y, : K V V (λ, x) λ x, heißt K-Vektorraum, falls folgende Axiome erfüllt sind (i) x, y, z V : (x + y) + z = x + (y + z) Ass + in V (ii) x, y V : x + y = y + x Komm + in V (iii) V : x V : + x = x = x + Null in V (iv) x V y V : y + x = Add-Inv in V (v) λ, µ K, x V : λ (µ x) = (λ µ)x Ass der Skalarmult (vi) x V : x = x Eins der Skalarmult (vii) λ K, x, y V : λ(x + y) = λx + λy Distr (viii) λ, µ K, x V : (λ + µ)x = λx + µx Distr V muss also eine kommutative Gruppe bezüglich + sein Beispiel 72 a) K = C, V = C n = {(x,, x n ) x i C} b) K = R, V = C([, ], R) = {f : [, ] R f stetig } c) K = R, V = C d) K = R, V = {} e) K = F 2, V = F n 2 f) K = R, V = R n,m 54

55 Korollar 73 (a) In einem Vektorraum gibt es genau ein V (b) Das additive Inverse ist eindeutig (c) v =, v V (d) λ =, λ K (e) ( λ)v = λv = λ( v), λ K, v V Beweis: (a) Angenommen,,, so folgt nach Axiomen (ii), (iii) = + = + = (b) Wenn a + x = und b + x = gilt, so folgt a = a + (iii) = a + (b + x) = a + (x + b) (ii) = (a + x) + b (i) = + b = b (iii) (c) v = ( + ) v = v + v (viii) = v + v v = v (d) λ (iii) = λ( + ) (vii) = λ + λ = λ = (e) λv + ( λ)v = (λ λ)v = v =, λv + λ( v) = λ(v v) = λ = Definition 74 Sei V ein K-Vektorraum und U V Dann heißt U Untervektorraum von V (kurz: Unterraum), falls U abgeschlossen bezüglich + und ist und selbst ein Vektorraum Beispiel 75 a) V = C([, +], R), U = C ([, +], R) =: {f C([, ], R) f differenzierbar in [, ]} b) V = R 4, U = R 3 = {(x, y, z, ) x, y, z R}

56 Definition 76 Seien V, V 2 Vektorräume über einem Körper K Dann bezeichnen wir eine Abbildung f : V V 2, die folgende Axiome erfüllt, (i) f(v + w) = f(v) + f(w), v, w V, (ii) f(λv) = λf(v), v V, λ K, als Vektorraum-Homomorphismus, K-lineare Abbildung oder auch lineare Transformation Ist f auch noch bijektiv, so heißt f Vektorraum-Isomorphismus Falls V = V 2, so heißt ein Homomorphismus Automorphismus Endomorphismus und ein Isomorphismus Zwei Vektorräume V, V 2 heißen isomorph, falls es einen Isomorphismus f : V V 2 gibt, V = V2 Korollar 77 (a) Ist f : V V 2 ein Vektorraumhomomorphismus, so gilt f() = und f( v) = f(v), v V (b) Ein Vektorraumhomomorphismus f : V V 2 ist ein Isomorphismus genau dann, wenn es einen Homomorphismus g : V 2 V gibt mit (f g)(v 2 ) = v 2 und (g f)(v ) = v, v V, v 2 V 2 Beweis: (a) f() = f( ) = f() = f( v) = ( )f(v) = f(v) v V (b) Sei f bijektiv und sei g = f die zu f inverse Abbildung Seien v, w V, mit v = g(ṽ), w = g( w), ṽ, w V 2, ṽ = f(v), w = f(w) und λ K Dann gilt g(ṽ + w) g(λṽ) = g(f(v) + f(w)) = g(f(v + w)) = (g f)(v + w) = v + w = g(ṽ) + g( w), = g(λf(v)) = g(f(λv)) = (g f)(λv) = λv = λ g(ṽ) g ist ein Homomorphismus Die Umkehrung ist klar

57 Beispiel 78 (a) R 2 = R 2, = C, R 2 = {(x, y) x, y R}, R 2, = Isomorphismen: f : R 2 R 2, [ x (x, y) y (b) V = R n,, A R n,n, {[ x y ] x, y R ] g : R 2 C (x, y) x + iy }, C = {x + iy x, y R} A : V V x Ax, A(x + y) = Ax + Ay, A(λx) = λax A beschreibt einen Isomorphismus (Automorphismus) genau dann, wenn A existiert c) V = R n,, W = R m,, B R m,n, B : V W x Bx B ist ein Isomorphismus genau dann, wenn m = n und B existiert Korollar 79 Bei einem Isomorphismus ist das einzige Element, welches auf abgebildet wird Beweis: folgt aus der Bijektivität Beispiel 7 V = {} f : V V v v ist ein Isomorphismus (Automorphismus) Sind Vektorräume isomorph, so unterscheiden wir sie im allgemeinen nicht mehr, z B R n = R n,

Kapitel 8 Basen und Dimension von Vektorräumen Sei V ein Vektorraum über einem Körper K und seien v,, v r V und λ,, λ r K Man nennt die Summe r λ j v j V j= (8) eine Linearkombination der Vektoren v,, v r Definition 82 Sei V ein Vektorraum über K und seien v,, v r V Die Menge L(v,, v r ) : = {λ v + + λ r v r λ i K, i =,, r} V (83) heißt die lineare Hülle von v,, v r oder das Erzeugnis von v,, v r Spezialfall ist, dass die lineare Hülle der leeren Menge der Nullvektor aus V ist, L( ) := {} Korollar 84 Seien v,, v r V, so ist L(v,, v r ) ein Untervektorraum von V Beweis: Wir müssen zeigen, dass es ein Vektorraum ist überprüfen Hier nur exemplarisch Dazu müssen wir die Axiome r λ j v j + r µ j v j = r (λ j + µ j )v j L(v,, v r ), j= ( j= ) j= r λ λ j v j = r (λλ j )v j L(v,, v r ) j= j= Definition 85 Sei V ein Vektorraum über K Eine Menge von r Vektoren v,, v r V heißt linear unabhängig, wenn gilt r λ j v j = λ j =, j =,, r j= ist linear unabhängig 58

59 Korollar 86 Vektoren v,, v r V sind genau dann linear unabhängig, wenn keines der v i, i =,, r, als Linearkombination der übrigen geschrieben werden kann Beweis: Seien v,, v r linear unabhängig Angenommen, es gäbe ein j mit v j = r λ i v i i= i j Dann gilt mit λ j = ( ) r λ i v i = i= Dies ist ein Widerspruch Für die Umkehrung sei keines der v i Linearkombination der anderen Angenommen, v,, v r wären linear abhängig Dann gibt es λ,, λ r K und mindestens ein λ i, so dass = r λ j v j = r λ j v j + λ i v i j= j= j i λ i v i = r j= j i ( λj λ i ) vj Dies ist ein Widerspruch Definition 87 Sei V ein Vektorraum über einem Körper K Eine Menge {v,, v n } V von Vektoren heißt Basis von V, wenn a) v,, v n linear unabhängig sind, b) L(v,, v n ) = V Lemma 88 Sei {v,, v n } eine Basis von V Dann gibt es zu jedem v V genau ein Element λ λ n Kn, = K n, so dass v = λ v + + λ n v n (89)