2 Die Algebra der Matrizen

Ähnliche Dokumente
Matrizen. Spezialfälle. Eine m nmatrix ist ein rechteckiges Zahlenschema mit. m Zeilen und n Spalten der Form. A = (a ij ) =

3 Matrizenrechnung. 3. November

Mathematische Erfrischungen III - Vektoren und Matrizen

Mathematik I Herbstsemester 2014 Kapitel 8: Lineare Algebra 8.1 Reelle Matrizen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A

Matrizen, Determinanten, lineare Gleichungssysteme

1 Matrizenrechnung zweiter Teil

Zusammenfassung zum Thema Vektor- und Matrizenrechnung

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle

Vektoren und Matrizen

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Zusammenfassung Mathe III. Themenschwerpunkt 3: Analytische Geometrie / lineare Algebra (ean) 1. Rechenregeln mit Vektoren

5 Lineare Algebra (Teil 3): Skalarprodukt

II. Lineare Gleichungssysteme. 10 Matrizen und Vektoren. 52 II. Lineare Gleichungssysteme

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2.

Mathematik LK 12 M1, 4. Kursarbeit Matrizen und Stochastik Lösung )

Analytische Geometrie, Vektorund Matrixrechnung

1. Vektoralgebra 1.0 Einführung Vektoren Ein Vektor ist eine Größe, welche sowohl einen Zahlenwert (Betrag) als auch eine Richtung hat.

Serie 10: Inverse Matrix und Determinante

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014

1 Vektoren, Vektorräume, Abstände: 2D

Lineare Algebra. Gymnasium Immensee SPF PAM. Bettina Bieri

Brückenkurs Mathematik

Matrizen. Jörn Loviscach. Versionsstand: 12. April 2010, 19:00 Die nummerierten Felder sind absichtlich leer, zum Ausfüllen in der Vorlesung.

Lineare Algebra I (WS 13/14)

8 Lineare Abbildungen und Matrizen

Lineare Algebra. I. Vektorräume. U. Stammbach. Professor an der ETH-Zürich

Einführung in die Vektor- und Matrizenrechnung. Matrizen

MLAN1 1 MATRIZEN 1 0 = A T =

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7

Definition von R n. Parallelverschiebungen in R n. Definition 8.1 Unter dem Raum R n (n N) versteht man das kartesische Produkt R R... R (n-mal), d.h.

2.2 Kollineare und koplanare Vektoren

Grundsätzliches Rechnen mit Matrizen Anwendungen. Matrizenrechnung. Fakultät Grundlagen. Juli 2015

2.4 Matrizen und Lineare Abbildungen

2.9 Die komplexen Zahlen

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1

Definition, Rechenoperationen, Lineares Gleichungssystem

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

4 Vorlesung: Matrix und Determinante

Lineare Algebra 1. . a n1 a n2 a n3 a nm

10.2 Linearkombinationen

Mathematik für Chemische Technologie 2

4 Lineare Abbildungen und Matrizen

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

Vektoren, Vektorräume

00. Einiges zum Vektorraum R n

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

36 2 Lineare Algebra

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Matrizen und Drehungen

2.2 Lineare Gleichungssysteme (LGS)

Übungen zu Einführung in die Lineare Algebra und Geometrie

9.2 Invertierbare Matrizen

Matrizen und Determinanten

Kapitel VI. Euklidische Geometrie

Definition, Rechenoperationen, Lineares Gleichungssystem

Übungen zu Einführung in die Lineare Algebra und Geometrie

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

8.2 Invertierbare Matrizen

Mathematik 2 für ET. Vektoren in R n und C n. Addition von Vektoren Multiplikation von Vektor und Skalar. Der Nullvektor 0 =

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Didaktik der Analysis und der Analytischen Geometrie/ Linearen Algebra

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K).

Komplexe Zahlen. (a, b) + (c, d) := (a + c, b + d) (a, b) (c, d) := (a c b d, a d + b c)

Lineare Algebra: Determinanten und Eigenwerte

1 Transponieren, Diagonal- und Dreiecksmatrizen

10. Teil: Elemente der Linearen Algebra

37 Gauß-Algorithmus und lineare Gleichungssysteme

4 Lineare Algebra (Teil 2): Quadratische Matrizen

Tutorium Mathematik II, M Lösungen

1 Vektorrechnung als Teil der Linearen Algebra - Einleitung

Tutorium: Diskrete Mathematik. Matrizen

Kapitel 3. Transformationen

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Vorkurs Mathematik B

Lineare Algebra: Theorie und Anwendungen

Kapitel 3: Geometrische Transformationen

Komplexe Zahlen. Axel Schüler, Leipzig Juli 2003

D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 011 Tom Ilmanen. Musterlösung 12. a ij = v i,av j (A ist symmetrisch) = Av i,v j

2.3 Lineare Abbildungen und Matrizen

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition)

Viele wichtige Operationen können als lineare Abbildungen interpretiert werden. Beispielsweise beschreibt die lineare Abbildung

Länge, Skalarprodukt, Geradengleichungen

Lineare Algebra und Numerische Mathematik für D-BAUG. Serie 6

7 Lineare Gleichungssysteme

1 Vorlesungen: und Vektor Rechnung: 1.Teil

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

( ) Lineare Gleichungssysteme

3.6 Einführung in die Vektorrechnung

Der Kern einer Matrix

Proseminar Lineare Algebra II, SS 11. Blatt

Euklidische und unitäre Vektorräume

3.6 Eigenwerte und Eigenvektoren

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix

Lineare Algebra - alles was man wissen muß

Transkript:

Die Algebra der Matrizen Ein Hauptziel der Vorlesung zur Linearen Algebra besteht darin, Aussagen über die Lösungsmenge linearer Gleichungssysteme zu machen Etwa ob das Gleichungssystem x y + z 1 x + y z 1 3x 3y + 3z 1 eine Lösung hat Dabei ist es natürlich unerheblich, wie wir die Variablen nennen, sie sind in gewisser Weise nur Platzhalter Wesentlich ist nur das System der Koeffizienten auf der linken Seite der Gleichungen, und die Werte auf der rechten Seite Solche Systeme von Koeffizienten und rechten Seiten schreiben wir als rechteckige Systeme von Zahlen, sogenannte Matrizen Mit Matrizen lässt sich hervorragend rechnen und auf diese Weise die Lösungen des Gleichungssystemes gestimmen 1 Was sind Matrizen? In diesem ganzen Abschnitt 1 sei R ein kommutativer Ring mit Einselement 1 Definition 11: Seien m und n positive ganze Zahlen Eine Matrix A mit m Zeilen und n Spalten, oder kurz eine m n Matrix, über R ist ein rechteckiges Schema von Elementen von R der Form a 11 a 1 a 1n a 1 a a n A a m1 a m a mn Das Element a ij in der i-ten Zeile und j-ten Spalte von A nennen wir oft auch das (i, j)-te Element von A 1 Die Menge der m n Matrizen über R bezeichnen wir mit Mat m n (R) oder wenn R aus dem Kontext klar ist einfach mit Mat m n Elemente a Mat 1 n oder b Mat m 1 heissen Vektoren a ist ein Zeilenvektor, b ist ein Spaltenvektor m n heisst die Dimension der Matrix A Oft bezeichnen wir eine Matrix A wie in der Definition einfach als (a ij ) m n Beispiel 1: Wir betrachten Matrizen über R (i) Die 3 3 Matrix 1 1 1 A 3 3 3 3 3 1 Streng formal könnten wir eine m n Matrix definieren als eine Funktion A : {1,, m} {1,,n} R Das Element a ij ist dann einfach A(i, j) Wir werden aber im folgenden dennoch die eher informalen Begriffe aus Definition 11 verwenden 41

kann auch geschrieben werden als A (a ij ) 3 3 mit a ij i j (ii) Die variable 3 3 Matrix x x x B 0 x x 0 0 x kann auch geschrieben werden als B (b ij ) 3 3 mit { x falls i j b ij 0 sonst (iii) Die n n Matrix 1 0 0 0 e 1 0 0 C e e 1 0 e n 1 e n e n 3 1 kann auch geschrieben werden als C (c ij ) n n mit { e i j falls i j c ij 0 sonst (iv) Das Kroneckersymbol δ ij (für i, j N) ist definiert als { 1 falls i j δ ij 0 sonst Die Matrix I m ( δ ij )m m 1 0 0 0 1 0 Mat m m 0 0 1 heisst die (m m)-identitäts- oder Einheitsmatrix Bisher ist Mat m n (R) nur eine Menge Um sie zu einer Algebra zu machen, definieren wir Operationen + und für Matrizen und auch eine Skalarmultiplikation mit Elementen aus R Elemente auf dem zugrundeliegenden Körper (hier R) heissen auch Skalare Definition 13: Seien A (a ij ) und B (b ij ) in Mat m n (R) Die Summe A + B der Matrizen A und B ist die Matrix C (c ij ) Mat m n (R) mit i, j : c ij a ij + b ij Beispiel 14: In Mat (Q) gilt etwa ( ) ( ) 1 0 1 + 1 0 Satz 15: In Mat m n (R) gilt: 4 ( ) 0 1

(i) + ist kommutativ, also A, B : A + B B + A (ii) + ist assoziativ, also A, B, C : A + (B + C) (A + B) + C Wegen Satz 15(ii) schreiben wir einfach A+B+C statt A+(B+C) oder (A+B)+C Satz und Definition 16: Sei N (n i,j ) Mat m n mit n ij 0 für alle i, j Dann gilt für alle m n Matrizen A: A + N A N ist die einzige Matrix in Mat m n mit dieser Eigenschaft N heisst die m n Nullmatrix, auch geschrieben als 0 m n oder einfach 0 Satz und Definition 17: In Mat m n gibt es für jede Matrix A (a ij ) eine eindeutig bestimmte Matrix B (b ij ), sodass A + B 0 m n Für diese Matrix B gilt: i, j : b ij a i,j B heisst die additive Inverse von A, und wir schreiben sie auch als A Ebenso wie bei Zahlen schreiben wir meist A B statt A+( B) Die binäre Operation heisst Subtraktion Definition 18: Sei A (a ij ) m n eine Matrix über R und λ R Das Skalarprodukt von A und λ, λa, ist definiert wie folgt: λa : (λa ij ) m n Satz 19: Seien A, B Mat m n und λ, µ R Dann gilt: (i) λ(a + B) λa + λb, (ii) (λ + µ)a λa + µa, (iii) λ(µa) (λµ)a, (iv) ( 1)A A, (v) 0A 0 m n Definition 110: Seien A (a ij ) Mat m n und B (b jk ) Mat n p Das Produkt A B von A und B ist die Matrix C (c ik ) Mat m p mit i, k : c ik n a ij b jk j1 Die Operation heisst Multiplikation Ebenso wie bei Zahlen schreiben wir ein Produkt A B oft einfach als AB Man beachte, dass Matrizen A und B nur dann multipliziert werden können, wenn A soviele Spalten hat wie B Zeilen hat Insbesondere folgt aus der Multiplizierbarkeit von A und B nicht, dass auch B und A multipliziert werden können Beispiel 111: Seien A und B die folgenden Matrizen über R: ( ) 0 0 1 0 A, B 1 3 1 1 1 43

A und B können multipliziert werden (A hat soviele Spalten wie B Zeilen hat), und wir erhalten dabei die folgende Matrix: ( ) ( ) 0 + 1 1 + 0 1 0 0 + 1 + 0 1 1 AB + 3 1 + 1 1 0 + 3 + 1 1 8 7 In diesem speziellen Fall können wir auch B und A (in dieser Reihenfolge) multiplizieren, erhalten dabei aber die folgende 3 3 Matrix: 0 + 0 1 + 0 3 0 + 0 1 0 0 BA 1 0 + 1 1 + 3 1 0 + 1 4 7 1 0 + 1 1 1 + 1 3 1 0 + 1 1 4 1 Beispiel 11: Für die Matrizen ( ) 0 1 A, B 0 0 erhalten wir die Produkte AB 0 und BA A ( ) 1 0 0 0 Satz 113: Die Multiplikation von Matrizen ist assoziativ, falls sie überhaupt definiert ist Also für m, n, p, q N gilt: A Mat m n, B Mat n p, C Mat p q : A(BC) (AB)C Wegen Satz 113 schreiben wir einfach ABC statt A(BC) oder (AB)C Weiters schreiben wir A n statt AA A (n mal) Dabei ist A 0 I (das neutrale Element bzgl der Matrizenmultiplikation, wie wir gleich sehen werden) Satz 114: Die Matrizenmultiplikation ist distributiv bzgl der Matrizenaddition Also wenn die folgenden Summen und Produkte definiert sind, dann gilt A(B + C) AB + AC, (A + B)C AC + BC Die Skalarmultiplikation kann in ein Matrizenprodukt hineingezogen werden Satz 115: Ist das Produkt AB definiert, dann gilt für alle λ R: λ(ab) (λa)b A(λB) Definition 116: Eine Matrix A heisst quadratisch, wenn sie gleich viele Zeilen wie Spalten hat, also wenn A Mat n n für ein n N Satz und Definition 117: Sei I n (δ i,j ) Mat n n wie in Beispiel 1(iv) Dann gilt für alle n n Matrizen A: A I n I n A A I n ist die einzige Matrix in Mat n n mit dieser Eigenschaft I n heisst die (n n)-einheitsmatrix oder Identitätsmatrix Ist n aus dem Kontext klar, so schreiben wir statt I n auch einfach I 44

Aus den obigen Sätzen können wir sehen, dass Mat n n (R) ein Ring mit Einselement ist Dieser Ring ist aber nicht kommutativ und er enthält Nullteiler (vgl Beispiel 11) Satz 118: Die Menge der quadratischen Matrizen Mat n n mit den Operationen + und bildet einen Ring Dieser Ring ist nicht kommutativ und enthält Nullteiler Definition 119: Wir sagen, dass die beiden Matrizen A und B kommutieren, wenn gilt AB BA Beispiel 10: Nicht nur ist Mat n n nicht-kommutativ und enthält Nullteiler Es treten auch noch andere (etwa in Zahlenbereichen) ungewöhnliche Eigenschaften auf Ist etwa R ein Körper, so gilt für jeden Skalar λ R ( ) ( ) 0 λ 0 λ λ 1 0 λ 1 0 I I hat also unendlich viele Quadratwurzeln, falls R ein unendlicher Körper ist In I n steht an jeder Position in der Diagonale 1, und an jeder Position ausserhalb der Diagonale 0 Solche speziellen Matrizen, welche nur in der Diagonale von 0 verschieden sind, spielen in der Linearen Algebra eine wichtige Rolle Definition 11: Eine quadratische Matrix D (d ij ) n n heisst Diagonalmatrix, wenn d ij 0 für alle i j Definition 1: Ist A eine m n Matrix, dann ist die Transponierte A T von A die n m Matrix, deren (i, j)-tes Element das (j, i)-te Element von A ist Ist also A (a ij ) m n, dann ist A T (a ji ) n m Satz 13: Wenn die jeweiligen Summen und Produkte definiert sind, dann gilt (i) (A T ) T A, (A + B) T A T + B T, (λa) T λa T, (AB) T B T A T (ii) (A(B + C)) T B T A T + C T A T (ii) (A n ) T (A T ) n für alle n N Definition 14: Eine quadratische Matrix A ist symmetrisch, wenn A A T Eine quadratische Matrix A ist schiefsymmetrisch, wenn A A T Satz 15: Für jede quadratische Matrix A gilt: (i) A + A T ist symmetrisch, (ii) A A T ist schiefsymmetrisch, (iii) A kann auf eindeutige Weise ausgedrückt werden als Summe einer symmetrischen und einer schiefsymmetrischen Matrix 45

Einige Anwendungen von Matrizen Analytische Geometrie Die analytische Geometrie ist ein Teilgebiet der Geometrie, das algebraische Hilfsmittel (vor allem aus der linearen Algebra) zur Lösung geometrischer Probleme bereitstellt Sie ermöglicht es in vielen Fällen, geometrische Aufgabenstellungen rein rechnerisch zu lösen, ohne die Anschauung zu Hilfe zu nehmen Geometrie, die ihre Sätze ohne Bezug zu einem Zahlensystem begründet, entweder aus der Anschauung heraus oder auf einer axiomatischen Grundlage, wird demgegenüber als synthetische Geometrie bezeichnet In der Physik und anderen Naturwissenschaften werden Verfahren der analytischen Geometrie eingesetzt, etwa bei der Beschreibung von Planetenbahnen Ursprünglich befasste sich die analytische Geometrie nur mit Fragestellungen der ebenen und der räumlichen (euklidischen) Geometrie Analytische Geometrie im allgemeinen Sinn beschreibt affine Räume beliebiger Dimension über beliebigen Körpern Entscheidendes Hilfsmittel der analytischen Geometrie ist ein Koordinatensystem In der Praxis verwendet man meist ein kartesisches Koordinatensystem Für manche einfachen Fragestellungen, etwa die Bestimmung von Geradenschnittpunkten, die Untersuchung von Geraden auf Parallelität oder die Berechnung von Teilverhältnissen würde allerdings schon ein schiefwinkliges Koordinatensystem ausreichen Unverzichtbar ist ein kartesisches Koordinatensystem, wenn Abstände oder Winkel berechnet werden sollen Ein Punkt wird beschrieben durch zwei oder mehr reelle Zahlen (Koordinaten) Gleichwertig verwendet man den so genannten Ortsvektor des Punktes, das ist der Verbindungsvektor des Ursprungs des Koordinatensystems mit dem gegebenen Punkt; die Koordinaten dieses Vektors (meist untereinander geschrieben) stimmen mit den Punktkoordinaten (meist nebeneinander notiert) überein Kompliziertere geometrische Gebilde wie Geraden, Ebenen, Kreise, Kugeln usw werden als Punktmengen aufgefasst und durch Gleichungen beschrieben Dabei kann es sich um Koordinatengleichungen oder um Parametergleichungen handeln Wir betrachten die Rotation des Koordinatensystems um den Winkel ϑ gegen den Uhrzeigersinn Sei P (x, y) ein Punkt im ersten Quadranten der Ebene Sei r der Abstand des Punktes P vom Ursprung, und sei α der von der Verbindungslinie OP und der x-achse eingeschlossene Winkel Wir berechnen die Koordinaten (x, y ) des Punktes P im neuen (um den Winkel ϑ gedrehten) Koordinatensystem Es gilt Im neuen Koordinatensystem haben wir x r cos α, y r sin α x r cos(α ϑ) r cosαcos ϑ + r sin α sin ϑ x cosϑ + y sin ϑ, y r sin(α ϑ) r sin α cosϑ r cos α sin ϑ y cosϑ x sin ϑ Diese Gleichungen, welche die Koordinaten x, y im neuen Koordinatensystem ausdrücken in Termini der Koordinaten x, y des alten Koordinatensystems und des Winkels ϑ, können mittels Matrizenschreibweise geschrieben werden als ( ) ( ) ( ) x cosϑ sin ϑ x sin ϑ cosϑ y aus Wikipedia y 46

x P x r y y α ϑ ϑ Figure 1: Rotation des Koordinatensystems um ϑ Die Matrix R ϑ ( ) cosϑ sin ϑ sin ϑ cosϑ heisst Rotationsmatrix um den Winkel ϑ Sie hat die Eigenschaft R ϑ R T ϑ I R T ϑ R ϑ Damit ist sie ein Beispiel für eine sogenannte orthogonale Matrix Definition 1: Eine n n Matrix A heisst orthogonal, wenn AA T I n A T A Nehmen wir nun an, dass wir zwei Rotationen hintereinander ausführen wollen Zunächst werden die Koordinaten (x, y) transformiert in (x, y ) durch Rotation um den Winkel ϑ, und anschliessend wird (x, y ) transformiert in (x, y ) durch Rotation um ϕ Es ergibt sich also ( ) ( ) ( ) x cos ϕ sin ϕ x y ( sin ϕ cosϕ ) ( ( ) cos ϕ sin ϕ cosϑ sin ϑ x sin ϕ cosϕ sin ϑ cosϑ) y y ( ) cos(ϕ + ϑ) sin(ϕ + x sin(ϕ + ϑ) cos(ϕ + ϑ))( y Die Hintereinanderausführung von Rotationen kann also beschrieben werden durch das Produkt der betreffenden Rotationsmatrizen Dabei spielt die Reihenfolge keine Rolle, Rotationsmatrizen kommutieren also wechselseitig, dh R ϑ R ϕ R ϑ+ϕ R ϕ R ϑ, wie sich leicht mittels der trigonometrischen Additionstheoreme nachweisen lässt Beispiel : Wir betrachten etwa die durch die Gleichung x y 1 47

beschriebene Hyperbel Wenn wir diese Hyperbel um π/4 (also 45 ) rotieren, wie sieht dann die Gleichung der rotierten Hyperbel aus? Dazu beobachten wir zunächst, dass die Rotation der Hyperbel um π/4 gleichbedeutend ist mit der Rotation des Koordinatensystems um π/4, es gilt also ( ) ( ) x x R π/4 y Wenn wir nun unter Ausnutzung der Beziehung y R π/4 R π/4 R π/4 R π/4 R 0 I die obige Gleichung mit R π/4 multiplizieren, so erhalten wir ( ) ( ) ( ) x x 1 1 (x ) R y π/4 y 1 1 y also x 1 x + 1 y, y 1 x + 1 y Die Gleichung x y 1 wird also transformiert in die neue Gleichung ( 1 x + 1 ) ( y 1 x + 1 ) y 1, also in x y 1 Systeme linearer Gleichungen Definition 3: Unter einem System von m linearen Gleichungen in den n Variablen x 1,,x n (über R) verstehen wir eine Liste von Gleichungen der Form a 11 x 1 + a 1 x + + a 1n x n b 1 a 1 x 1 + a x + + a n x n b a m1 x 1 + a m x + + a mn x n b m wobei die a ij und b i in R sind Dieses System lässt sich kurz und prägnant schreiben als wobei A x b, A (a ij ) m n, x (x 1,,x n ) T, b (b 1,,b m ) T Die m n Matrix A heisst die Koeffizientenmatrix des Systems, der Vektor b heisst die rechte Seite des Systems Das Gleichungssystem heisst homogen, wenn die rechte Seite der Nullvektor ist Fügen wir zur Koeffizientenmatrix A die rechte Seite b als weitere Spalte hinzu, so erhalten wir die erweiterte Matrix A b Mat m (n+1) des Gleichungssystems Satz 4: Wenn das lineare Gleichungssystem Ax b über R mehr als eine Lösung hat, dann hat es unendlich viele Lösungen 48