2.5 Gauß-Jordan-Verfahren

Ähnliche Dokumente
Einführung in die Vektor- und Matrizenrechnung. Matrizen

Lösungen zum 3. Aufgabenblatt

2 Die Darstellung linearer Abbildungen durch Matrizen

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Kapitel 15. Lösung linearer Gleichungssysteme

Lineare Gleichungssysteme

Lineare Algebra - alles was man wissen muß

Elemente der Analysis II

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

3.3 Eigenwerte und Eigenräume, Diagonalisierung

Mathematik 1. Inhaltsverzeichnis. Prof. Dr. K. Melzer.

Übungen zum Ferienkurs Lineare Algebra WS 14/15

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

Lineare Gleichungssysteme

Vorlesung bzw. 23. Januar Determinanten 1. Cramersche Regel

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme

11. Primfaktorzerlegungen

Leitfaden Lineare Algebra: Determinanten

KAPITEL 0. Einführung

Erinnerung/Zusammenfassung zu Abbildungsmatrizen

1 Lineare Gleichungssysteme

Kapitel 4. Euklidische Ringe und die Jordansche Normalform. 4.1 Euklidische Ringe

7 Die Determinante einer Matrix

0, v 6 = , v 4 = span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

Lineare Algebra (Mathe I) für Wirtschaftsinformatiker; Zusammenfassung

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u.

Einführung in die Algebra

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

7 Rechnen mit Polynomen

Gleichungen - Aufgabenstellung und Lösungsstrategien

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Beispiel vor dem Beweis:

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

Lineare Gleichungssysteme

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik

Eigenwerte und Eigenvektoren von Matrizen

Wie kann man beweisen, dass (H, ) eine Gruppe ist?

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

Übungsaufgaben LAAG I. für Lehramtsstudenten GS, MS, BS

A Matrix-Algebra. A.1 Definition und elementare Operationen

ax 2 + bx + c = 0, (4.1)

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Bestimmung einer ersten

2.1 Codes: einige Grundbegriffe

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Lineare Gleichungssysteme und Gauß'scher Algorithmus

Projektive Moduln. Lemma/Definition 1.1. Folgende Aussagen für einen R-Modul P sind äquivalent: (i) P erfüllt folgende Liftungseigenschaft:

11 Normalformen von Matrizen

Minimale Darstellungen, Kommutator- und Fixräume, projektive Geometrie

Algorithmen II Vorlesung am

Definition 27 Affiner Raum über Vektorraum V

Invariantentheorie. Vorlesung 5. Invariantenringe zu Untergruppen

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Algebraische Kurven. Vorlesung 26. Die Schnittmultiplizität

Technische Informatik - Eine Einführung

OPERATIONS-RESEARCH (OR)

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Inhaltsverzeichnis 1 Lineare Gleichungssysteme I

Optimalitätskriterien

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt

GF(2 2 ) Beispiel eines Erweiterungskörpers (1)

4. Übungsblatt Matrikelnr.:

Mathematik-Dossier. Die lineare Funktion

Numerisches Programmieren

TECHNISCHE UNIVERSITÄT MÜNCHEN. Abzählbarkeit, Injektivität, Sürjektivität und Bijektivität

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

2: Zahlentheorie / Restklassen 2.1: Modulare Arithmetik

Beispiel zur Lösung eines Gleichungssystems : 6 y + z = x + 3 y 3 z = x 3 y =

Beispiel Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) =

Statistische Methoden

Vorlesung. 1 Zahlentheorie in Z. Leitfaden. 1.1 Teilbarkeit. Angela Holtmann. Algebra und Zahlentheorie. (natürliche Zahlen ohne die Null)

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

lineare-algeba.wxmx 1 / 7 Mathematik in wxmaxima Haftendorn Dez 2010

Mathematische Grundlagen Kurseinheit 1: Grundlagen

3. LINEARE GLEICHUNGSSYSTEME

Matrixalgebra. mit einer Einführung in lineare Modelle. Stefan Lang Institut für Statistik Ludwigstrasse 33

Karlsruher Institut für Technologie Institut für Algebra und Geometrie

Mathematische Grundlagen der Kryptographie. 1. Ganze Zahlen 2. Kongruenzen und Restklassenringe. Stefan Brandstädter Jennifer Karstens

Kapitel 15: Differentialgleichungen

Lenstras Algorithmus für Faktorisierung

(2) (x x x 2 n)(y y y 2 n) = z z z 2 n

Lineare Algebra für Informatiker TUM Sommersemester 2011 Dozent: Christian Pötzsche

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg

BONUS MALUS SYSTEME UND MARKOV KETTEN

Umsetzung von DEA in Excel

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x y = x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775,

Der Zwei-Quadrate-Satz von Fermat

Rekursionen. Georg Anegg 25. November Methoden und Techniken an Beispielen erklärt

Wortproblem für kontextfreie Grammatiken

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

Einführung in die Kodierungstheorie

Vorwort. Günter M. Gramlich. Lineare Algebra. Eine Einführung ISBN: Weitere Informationen oder Bestellungen unter

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

3.1. Die komplexen Zahlen

Institut für Informatik. Rheinische Friedrich-Wilhelms-Universität Bonn

Einführung in die Mathematik für Volks- und Betriebswirte

Einführung in die Tensorrechnung

6 Lösung linearer Gleichungssysteme I: LR-Zerlegung und Verwandte

Transkript:

2.5 Gauß-Jordan-Verfahren Definition 2.5.1 Sei A K (m,n). Dann heißt A in zeilenreduzierter Normalform, wenn gilt: [Z1] Der erste Eintrag 0 in jeder Zeile 0 ist 1. [Z2] Jede Spalte, die eine 1 nach [Z1] enthält, hat alle anderen Einträge = 0. [Z3] Keine Nullzeile steht oberhalb einer Zeile 0. [Z4] Die Zeilen 1,...r seien die Zeilen 0. Die 1-Einträge nach [Z1] treten an den Positionen (1,j 1 ),...,(r,j r ) auf. Dann gilt j 1 < j 2 <... < j r. Satz 2.5.2 Jede Matrix A ist zeilenäquivalent zu einer Matrix in zeilenreduzierter Normalform. Beweis Wir wollen diesen Satz algorithmisch beweisen, d.h. wir wollen ein Verfahren angeben, wie man A in zeilenreduzierte Form bringen kann. Das hier angegebene Verfahren heißt der Gauß-Jordan Algorithmus. Zunächst wollen wir erklären, was ein Pivotschritt ist. Sei dazu A = (α i,j ) eine beliebige m n-matrix, α r,s 0. Dann sei P r,s die Hintereinanderausführung folgender elementarer Zeilenumformungen: E r,i ( α i,s α r,s ), i = 1,...,m, i r. 38

sowie abschließend E r ( 1 α r,s ). Dadurch wird aus der s-ten Spalte von B 0 0. 0 1 0. 0 wobei der Eintrag 1 an der r-ten Position steht. Nun zum Verfahren: Wir setzen r = 1 und verfahren mit der Matrix A wie folgt: Suche die erste Spalte j r α 1,jr. α m,jr so, dass nicht alle α r,jr,...,α m,jr gleich 0 sind. Sonst STOP, der Algorithmus terminiert. Durch Zeilenvertauschungen erreicht man α r,jr 0. Dann pivotisiere P r,jr. Die so erhaltene Matrix nennen wir jetzt A und setzen r auf r + 1. Nun wiederholen wir den oben beschriebenen Schritt. Das Verfahren terminiert, weil j r < j r+1 gilt. Die Anzahl Zeilen 0 in einer Matrix, die zeilenreduziert ist, nennt man den Rang r der Matrix. Es ist zunächst nicht klar, ob der Rang eine Invariante unter Zeilenäquivalenz ist (das ist zwar der Fall, erfordert aber einigen Aufwand, es zu beweisen; wir können den Beweis erst führen, wenn wir einiges über Vektorräume wissen). Wenn A in zeilenreduzierter Normalform mit r Zeilen 0 ist, dann können die n r Variablen x i, die zu den Spalten i j 1,...j r gehören, frei gewählt werden. Wir sagen auch, das System hat n r Freiheitsgrade! 39

2.6 Gauß-Verfahren Zum Lösen von linearen Gleichungssystemen genügt es, die Matrix in zeilenreduzierte Form zu bringen. Dazu ist es nicht nötig, dass die Einträge über den Pivots an den Stellen (i,j r ) alle 0 sind, und der (i,j r )-Eintrag muss auch nicht auf 1 normiert werden. Definition 2.6.1 Eine Matrix A K (m,n) heißt zeilenreduziert, wenn gilt: [ZR1] Keine Nullzeile steht oberhalb einer Zeile 0, d.h. die ersten r Zeilen seien die Zeilen 0. [ZR1] Wenn der erste Eintrag 0 in Zeile i in der Spalte j i auftritt, so gilt j 1 < j 2... < j r. Man kann eine Matrix offenbar mit weniger Aufwand in zeilenreduzierte Form als in zeilenreduzierte Normalform bringen. Wir verwenden dazu ein ähnliches Verfahren wie zuvor, wobei wir den Schritt P r,s durch die Hintereinanderausführung von E r,i ( α i,s α r,s ), i = r +1,...,m, ersetzen. Wir nennen dieses Verfahren das Gauß-Verfahren Bemerkung 2.6.2 (1.) Man kommt beim Gauß-Verfahren ohne die Umformungen [E1] aus. (2.) Wir werden später sehen, dass jede Matrix zu genau einer Matrix in zeilenreduzierter Normalform zeilenäquivalent ist. Das ist der Grund, warum man von einer Normalform spricht. Es gibt verschiedene zeilenreduzierte Matrizen, die zeilenäquivalent sind. (3.) Das(einfachere) Gauß-Verfahren ist ausreichend, wenn man lineare Gleichungssysteme lösen möchte. (4.) Es sei noch einmal darauf hingewiesen, dass das Gauß- und das Gauß- Jordan-Verfahren über allen Körpern funktioniert. Es funktioniert i.a. nicht, wenn man Gleichungen über Ringen lösen möchte. 40

2.7 Lösungsmengen linearer Gleichungssysteme Wir wollen hier einige einfache Folgerungen notieren, die aus der Tatsache folgen, dass jede Matrix in zeilenreduzierte Form gebracht werden kann. Die Sätze sind aber noch etwas unbefriedigend, weil wir nicht zeigen können, dass der Rang einer Matrix (vgl. Abschnitt 2.5) vernünftig definiert ist. Satz 2.7.1 Sei A K (m,n) mit m < n. Dann hat das lineare Gleichungssystem Ax = 0 mindestens eine Lösung x 0. Beweis Nach Umformung von A in zeilenreduzierte Form gibt es mindestens einen Freiheitsgrad, weil r < n gilt. Dabei ist r die Anzahl der Zeilen 0. Satz 2.7.2 Sei A K (n,n). Dann gilt: Ax = 0 hat nur die triviale Lösung A ist zeilenäquivalent zu I. Beweis : klar. : Angenommen, A ist zu einer Matrix in zeilenreduzierter Form äquivalent, die r < n Zeilen 0 hat. Dann hat A aber eine Lösung x 0, Widerspruch zur Annahme. Inhomogene Systeme Ax = b lassen sich im Prinzip genauso lösen wie homogene Systeme: Die Umformungen, die auf die Zeilen von A K (m,n) angewendet werden, wendet man auch auf b an. Genauer: Satz 2.7.3 Das lineare Gleichungssystem Ax = b hat dieselbe Lösungsmenge wie A x = b, wenn die erweiterte Matrix (A b ) durch elementare Zeilenumformungen aus (A b) hervorgeht. Wenn man die Matrix (A b) in zeilenreduzierte Form (A b ) gebracht hat, kann man also schnell erkennen, ob das System überhaupt eine Lösung hat: Es hat genau dann eine Lösung, wenn die Matrix A genauso viele Zeilen 0 hat wie die Matrix (A b ). Wenn diese Zahl r ist, so hat das inhomogene System, ähnlich wie im homogenen Fall, genau n r Freiheitsgrade. 41

2.8 Matrixmultiplikation Wir wollen jetzt ein etwas vertieftes Verständnis von elementaren Zeilenumformungen sowie von Satz 2.7.2 bekommen. Dazu müssen wir eine Multiplikation auf der Menge der Matrizen einführen, die zunächst sehr künstlich wirkt: Definition 2.8.1 (Matrizenmultiplikation) Sei A K (m,n), B K (n,p), A = (α i,j ) und B = (β i,j ). Dann ist C := A B eine m p-matrix (γ i,j ) mit n γ i,j := α i,k β k,j. k=1 Achtung: Man kann nicht alle Matrizen miteinander multiplizieren. Die Größen der Matrizen müssen zueinander passen! Jetzt wird klar, dass die Notation Ax = b sinnvoll ist. Es handelt sich hier um eine Matrixgleichung α 1,1... α 1,n x 1 β 1... =.. α m,1... α m,n x n β m Die Matrizenmultiplikation ist eine binäre Verknüpfung. Diese Verknüpfung ist sicherlich nicht kommutativ, weil ja evtl. das Produkt AB definiert ist, nicht aberba.aber selbst, wenn sowohl ABalsauchBAerklärtsind(wenn also sowohl A als auch B in K (n,n) liegen), kann AB BA gelten: ( 1 0 0 0 )( ) 0 1 = 0 0 aber ( )( ) 0 1 1 0 = 0 0 0 0 ( 0 1 0 0 ) ( ) 0 0 0 0 Das Beispiel zeigt auch, dass das Produkt von zwei Matrizen 0 sein kann. Man kann zeigen, dass das Produkt von Matrizen assoziativ ist. Wir können auch noch eine (komponentenweise) Addition von Matrizen einführen: 42

Definition 2.8.2 (Matrizenaddition) Sei A K (m,n), B K (m,n), A = (α i,j ) und B = (β i,j ). Dann ist C := A+B eine m n-matrix (γ i,j ) mit γ i,j := α i,j +β i,j. Man kann nun zeigen: Satz 2.8.3 Die Matrizen (K (n,n),+,,0,i)bildeneinenim allgemeinennichtkommutativen Ring mit neutralem Element I. Beweis (Skizze) Nicht trivial ist nur die Assoziativität der Multipliklation, die man aber nachrechnen kann. Wir wollen nun zeigen, dass elementare Zeilenumformungen von A nichts anderes bedeuten als die Multiplikation der Matrix A von links mit einer sogenannten Elementarmatrix. Definition 2.8.4 Elementarmatrizen sind diejenigen quadratischen Matrizen, die aus I durch eine elementare Zeilenumformung hervorgehen. Es gibt drei Typen von Elementarmatrizen (γ i,j ): E r (γ) = (γ i,j ) mit 0 wenn i j γ i,j = 1 wenn i = j, i r γ wenn i = j = r E s,r (γ) = (γ i,j ) mit r s und γ wenn i = r, j = s γ i,j = 1 wenn i = j 0 sonst 43

E s,r = (γ i,j ) mit r s und 1 wenn i = j, i r,s γ i,j = 1 wenn (i,j) = (r,s) oder (s,r) 0 sonst Überlegen wir uns das für E s,r (γ) = (γ i,j ). Wir betrachten den (i,j)-eintrag von E s,r A. Es gilt α i,j = (E s,r A) i,j α i,j = n γ i,k α k,j k=1 Für i r gilt offenbar α i,j = α i,j. Für i = r erhalten wir α r,j = γα s,j +α r,j. Lemma 2.8.5 (1.) E r (γ) E r (γ 1 ) = E r (γ 1 ) E r (γ) = I (2.) E s,r (γ) E s,r ( γ) = E s,r ( γ) E s,r (γ) = I (3.) E r,s E r,s = I d.h. zu jeder Elementarmatrix E gibt es eine Elementarmatrix E mit EE = E E = I. Aus naheliegenden Gründen wird E mit E 1 bezeichnet. Satz 2.8.6 Seien A,B K (m,n). Dann ist B zeilenäquivalent zu A genau dann wenn es ein Produkt P von Elementarmatrizen gibt mit A = PB, P K (n,n). Wir haben für quadratische Matrizen gesehen, dass A zu I zeilenäquivalent sein kann, d.h. I = PA, wobei z.b. P = E 1...E r, wobei die E i Elementarmatrizen sind. Dann gilt I = P A I = E 1 E r A E 1 1 = E 2 E r A... =... E 1 r E 1 r 1...E 1 1 = A E 1 r E 1 r 1...E 1 2 = AE 1... =... I = AP 44

Wir bezeichnen E 1 r E 1 r 1...E 1 1 als P 1. Danngilt für zeilenäquivalente Matrizen PB = A und B = P 1 A. Definition 2.8.7 Wir nennen A K (n,n) invertierbar wenn es eine Matrix B gibt mit AB = I. Satz 2.8.8 Beweis : klar A K (n,n) invertierbar A zeilenäquivalent zu I. : Angenommen, A ist nicht zu I zeilenäquivalent, aber invertierbar, z.b. AB = I. Dann hat eine zeilenreduzierte Normalform von A eine Nullzeile, ist also nicht invertierbar. Es gibt also ein Produkt P von Elementarmatrizen so, dass PA nicht invertierbar ist, aber P und A sind invertierbar. Dann ist aber (PA)(BP 1 ) = I, also ist PA doch invertierbar. Korollar 2.8.9 A ist invertierbar A ist Produkt von Elementarmatrizen. Wenn AB = I, dann ist auch BA = I. Ferner gibt es nur eine Matrix B mit AB = I. Beweis Das A genau dann invertierbar ist wenn es ein Produkt von Elementarmatrizen ist, folgt aus Satz 2.8.6 und 2.8.8. Wenn AB = I und A das Produkt von Elementarmatrizen ist, dann gilt nach den Bemerkungen vor Satz 2.8.8 auch BA = I. Beachten Sie bitte, dass diese Vertauschbarkeit nur gilt, weil A Produkt von Elementarmatrizen ist. Nun zur Eindeutigkeit: AB = BA = I und AB = I. Dann gilt B = B(AB ) = (BA)B = B. Wir können dieses Korollar direkt in einen Algorithmus zur Bestimmung der Inversen von A umsetzen (siehe Vorlesung). Der folgende Satz fasst noch einmal zusammen, was für lineare Gleichungssysteme Ax = b und die Invertierbarkeit von A gilt. 45

Satz 2.8.10 Sei A K (n,n). Dann sind die folgenden Aussagen äquivalent: (1.) A ist invertierbar. (2.) Ax = 0 hat genau eine Lösung. (3.) Ax = b hat für ein b genau eine Lösung. (4.) Ax = b hat für jedes b genau eine Lösung. (5.) A ist zeilenäquivalent zu I. Beweis Die Äquivalenz von(1.),(2.), und(5.) folgt aus Satz 2.8.8. Wenn wir die inhomogenen Systeme in (3.) und (4.) umformen, erhalten wir A x = b für eine zeilenreduzierte Normalform A. Wenn diese Matrix eine Nullzeile hat, dann hat das System A x = b mehr als eine Lösung (weil nämlich eine Variable frei gewählt werden kann), oder aber keine Lösung (wenn die Nullzeile zu einer Gleichung 0x 1 +0x 2 +...+0x n = β 0 gehört). Das heißt aber, dass A x = b nur dann eindeutig lösbar ist, wenn A = I. Das liefert (1.) (3.) sowie (1.) (4.) 2.9 Zusammenfassung Sie haben gelernt, wie man lineare Gleichungssysteme löst. Das ist eines der wesentlichen Ziele der Vorlesung! Sie sollen lineare Gleichungssysteme über beliebigen Körpern lösen können. Die theoretische Behandlung von linearen Gleichungssystemen ist noch etwas unbefriedigend, weil der Rang noch nicht eindeutig definiert werden konnte. Unbefriedigend ist auch noch, dass wir nicht wissen, ob jede Matrix zu genau einer Matrix in zeilenreduzierter Normalform äquivalent ist. Neben R und Q sollten Sie nun auch in den endlichen Körper F p sowie den komplexen Zahlen C rechnen können. Machen Sie sich mit der modularen Arithmetik vertraut. 46

Sie können Matrizen invertieren. Sie können Matrizen miteinander multiplizieren und haben verstanden, das elementare Zeilenumformungen Matrizenmultiplikation von links mit Elementarmatrizen sind. 47

Kapitel 3 Vektorräume 3.1 Definition und Beispiele Definition 3.1.1 Sei (V,, 0) eine Menge, auf der eine Verknüpfung definiert ist, die ein Element 0 enthält und die folgende Eigenschaften hat: [G1] u (v w) = (u v) w u,v,w V. [G2] u v = v u u,v V. [G3] Es gibt ein Element 0 V mit der Eigenschaft v 0 = v V (neutrales Element). v [G4] Zu jedem v V gibt es ein Element w V mit v w = 0. Bezeichnung für dieses Element w = v (inverses Element). Sei (K,+,,0,1)einKörper,undsei eineabbildung V K V (Skalarmultiplikation). Das Element (v, λ) schreiben wir naheliegenderweise als v λ (v V,λ K). Es gelte [S1] v 1 = v v V. [S2] v (λ 1 λ 2 ) = (v λ 1 ) λ 2 v V,λ 1,λ 2 K. [S3] (v 1 v 2 ) λ = (v 1 λ) (v 2 λ) v 1,v 2 V,λ K. 48

[S4] v (λ 1 +λ 2 ) = (v λ 1 )+(v λ 2 ) v V,λ 1,λ 2 K. Dann heißt V ein K-Vektorraum. Die Elemente aus V heißen Vektoren, die Elemente aus K Skalare. Wir werden Skalare meistens mit griechischen Buchstaben bezeichnen, Vektoren mit lateinischen Buchstaben. Beachten Sie, dass wir die Skalare von rechts an die Vektoren multiplizieren. Beispiel 3.1.2 (1.) Der in dieser Vorlesung wohl wichtigste Vektorraum ist x 1 x 2 K n := {. : x 1,...,x n K} x n die Menge aller n-tupel von Elementen aus K. Nun ist das zunächst nur eine Menge, auf der keine Verknüpfung definiert ist. Das kann aber leicht nachgeholt werden: x 1 y 1 x 1 +y 1 x 2. y 2. := x 2 +y 2. x n y n x n +y n sowie x 1 x 1 λ x 2 x 2 λ λ :=.. x n λ x n Man muss jetzt nachrechnen, dass die Menge K n mit diesen Verknüpfungen wirklich zu einem Vektorraum wird. Das ist sehr einfach! (2.) Die Menge K (m,n) der m n-matrizen ist ebenfalls ein K-Vektorraum: Die Addition von Matrizen wurde bereits erklärt, die Skalarmultiplikation ist α 1,1 α 1,n α 1,1 λ α 1,n λ.. λ =.. α m,1 α m,n α m,1 λ α m,n λ 49

Als Vektorraum betrachtet sind K mn und K (m,n) fast identisch. Das werden wir später präzisieren. (3.) Wir bezeichnen mit K[x] := { m c i x i : c i K,m N} i=0 die Menge aller Polynome über K. Beachten Sie, dass m hier nicht fest gewählt ist. Ist f = m i c i x i, so heißt max{i : c i 0} der Grad des Polynoms f. Das Nullpolynom (alle c i = 0) hat demnach keinen Grad; manchmal sagt man, das Nullpolynom habe den Grad. Zwei Polynome m i=0 c ix i und n i=0 d ix i heißen gleich, wenn sie denselben Grad gr haben und c i = d i für alle i gr gilt. Wir können K[x] zu einem K-Vektorraum machen: m c i x i i=0 n d i x i = i=0 m (c i +d i )x i i=0 sowie m c i x i λ = i=0 m (c i λ)x i. Bemerkung zur Addition: Wenn wir m i=0 c ix i und n i=0 d ix i mit n < m addieren wollen, so setzen wir einfach c i = 0 für m i > n. Als K-Vektorraum können wir K[x] auch wie folgt erklären: Dieser Vektorraum besteht aus allen Tupeln i=0 (c 0,c 1,c 2,...) wobei c i 0 für nur endlich viele i gilt (alle abbrechenden Folgen). Wir haben also keine echten Folgen mit unendlich vielen Einträgen 0. Sie können aber auch den Vektorraum aller nicht abbrechenden Folgen (c 0,c 1,c 2,...) 50

definieren. Dieser Vektorraum wird mit K[[x]] bezeichnet, eine intuitive Notation dafür wäre etwa K[[x]] = { c i x i : c i K} i=0 Hier muss man aber aufpassen: Wir haben nur eine formale Summe f = i=0 c ix i und wir setzen für x nichts ein, d.h. wir werten f nicht an irgendeiner Stelle x aus. Das können wir ja auch nicht, denn unendliche Summen gibt es bei uns in der linearen Algebra nicht! Das geht nur in der Analysis, wo man Begriffe wie Konvergenz kennt. Wenn wir uns aber auf Polynome, d.h. K[x] beschränken, so können wir sehr wohl für x etwas einsetzen, nämlich z.b. irgendwelche Elemente aus K. So können wir aus jedem Polynom auch eine Abbildung K K machen. Polynome sind aber nicht dieselben Objekte wie solche Polynomabbildungen, weil zu verschiedenen Polynomen dieselben Abbildungen gehören können: Beispiel 3.1.3 Das Polynom f = x 2 +x F 2 [x] liefert bei Einsetzung der Elemente aus F 2 stets den Wert 0, aber f ist nicht das Nullpolynom. 4. Sei S eine beliebige Menge. Die Menge Abb(S;K) = {f : f ist Abbildung S K} ist ein K-Vektorraum. Die Addition auf Abb(S; K) ist und die Skalarmultiplikation f g : S K s f(s)+g(s) f λ : S K s f(s) λ Lemma 3.1.4 In einem K-Vektorraum gilt für alle v V: 1. v 0 = 0 2. v 1 = v 51

3. v λ = 0 v = 0 oder λ = 0 4. v ( 1) = v Wir wollen in diesem Kapitel abschließend noch den Begriff der Linearkombination definieren: Definition 3.1.5 Sei V ein K-Vektorraum, und sei S V. Dann heißt ein Vektor v eine Linearkombination von Vektoren aus S, wenn es v 1,...,v n S und Skalare λ 1,...λ n gibt mit v = n v i λ i. i=1 52