Lineare Algebra Mathematical Engineering

Größe: px
Ab Seite anzeigen:

Download "Lineare Algebra Mathematical Engineering"

Transkript

1 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Universität der Bundeswehr München Lineare Algebra Mathematical Engineering Vorlesungsskript Univ. Prof. Dr. sc. math. Joachim Gwinner

2 ME Lineare Algebra HT 28 2 Inhaltsverzeichnis Gaußsche Elimination 3. Einleitung Ein Zahlenbeispiel für die Gaußsche Elimination Matrixschreibweise und Matrixmultiplikation Gaußsches Eliminationsverfahren = Faktorisierung in Dreiecksmatrizen Zeilenaustausch, Inverse und Transponierte Allgemeine Theorie der Vektorrräume mit Anwendung auf lineare Gleichungssysteme Vektorräume, Unterräume, lineare Abbildungen Lösung von m Gleichungen in n Unbekannten Lineare Unabhängigkeit, Basis und Dimension Die vier fundamentalen Unterräume Paare von Unterräumen Vektorräume mit Skalarprodukt 6 3. Der Begriff des Euklidischen Vektorraums Orthogonalität Projektion auf Gerade, Ungleichung von Schwarz Ausgleichsrechnung und Projektion auf Unterräume Orthonormale Basen, orthogonale Matrizen und QR - Faktorisierung Erweiterung ins Komplexe

3 ME Lineare Algebra HT 28 3 Gaußsche Elimination. Einleitung Woher kommen lineare Gleichungssysteme? Beispiele! Z.B.Mechanik: Kräfte-Gleichgewicht eines Fachwerkes, Elektrotechnik: Netzwerke mit Knoten- und Maschenregel nach Kirchhoff; Messtechnik: Bestimmung von Parametern in einem physikalischem Modell. Zentrales Problem der linearen Algebra: Lösung linearer Gleichungssysteme LGS wichtigster und einfachster Fall: Anzahl der Unbekannten = Anzahl der Gleichungen = n Es gibt 2 Methoden:. Cramersche Regel: exakte Formel siehe später: Unbekannte sind Quotienten von zwei n n Determinanten; praktikabel nur für kleine n 3; insbesondere bei Parametern. 2. Elimination: Idee: Subtrahiere Vielfache der. Gleichung im LGS so von den anderen Gleichungen, dass in diesen Gleichungen die erste Unbekannte wegfällt. Bleibt ein kleineres LGS von n Gleichungen in n Unbekannten. Der Prozess wird so lange wiederholt, bis eine Gleichung in einer Unbekannten übrigbleibt, die sofort aufgelöst werden kann. Dann geht man einfach rückwärts und findet die anderen Unbekannten in umgekehrter Reihenfolge ausführlicher in $.2. Mit dieser einfachen Eliminationstechnik sind folgende tieferliegende Aspekte verbunden, die wir in dieser Vorlesung zu diskutieren haben: Die Eliminationsmethode liefert Faktorisierung der Koeffizientenmatrix in ein Produkt einer linken/unteren Dreiecks- und einer rechten/oberen Dreiecksmatrix. Motivation für Vektor - und Matrix - Kalkül 2 Manchmal bricht die Eliminationsmethode zusammen! Grund? Theorie der Lösbarkeit linearer Gleichungssysteme 3 Matrizen definieren lineare Abbildungen zwischen Vektorräumen Allgemeine Theorie der Vektorräume

4 ME Lineare Algebra HT Ein Zahlenbeispiel für die Gaußsche Elimination Hier n = 3 2u + v + w = 4u + v = 2. 2u + 2v + w = 7 Unbekannte: u, v, w. Schritt: Subtrahiere Vielfache der. Gleichung von den beiden anderen so, dass in den beiden letzten Gleichungen u eliminiert wird. Also Einzelschritte: a Subtrahiere das 2-fache von der 2. Gleichung b Subtrahiere das - -fache von der 3. Gleichung Dies liefert folgendes äquivalentes Gleichungssystem 2u + v + w = v 2w = 4 3v + 2w = 8 Dabei heißt Koeffizient 2 der ersten Unbekannten in der ersten Gleichung Pivot in diesem ersten Eliminationsschritt. 2. Schritt: Ignoriere. Gleichung; es bleiben 2 Gleichungen mit 2 Unbekannten v, w. Jetzt ist mit dem Pivot =- die Unbekannte v in der dritten Gleichung zu eliminieren. Damit nächster Eizelschritt: c Subtrahiere das -3-fache der 2. Gleichung von der 3. Gleichung. Eliminationsprozess in der Vorwärtsrichtung fertig mit dem vereinfachten System 2u + v + w = v 2w = 4.2 4w = 4 Rücksubstitution liefert w =, v = 2, u =. Also Gauß-Algorithmus für beliebiges n in der Zusammenfassung: Als Pivots werden die Nichtnull-Einträge auf der Diagonalen während des Lösungsprozesses bezeichnet. Dieser Lösungsprozess ist ein Eliminationsprozess aus Eliminationseinzelschritten, mit denen schrittweise die Spalten unterhalb des Pivots durch Subtraktion geeigneter Vielfacher der Pivotzeile = Zeile die das Pivot enthält zu Null gemacht werden.. Rücksubstitution liefert die Lösung in umgekehrter Reihenfolge.

5 ME Lineare Algebra HT 28 5 Wann bricht der Algorithmus vorzeitig ab? Im obigen Beispiel Pivots = 2,, alle ; kein Abbrechen. Falls jedoch einer der auftretenden Einträge auf der Diagonalen im voraus nicht bekannt =, Stopp im Eliminationsprozess. Evtl. Abhilfe durch Vertauschen der Gleichungen. Falls dies nicht hilft alle Koeffizienten der betreffenden Variablen = endgültiger Zusammenbruch der Methode unvermeidbar, da das Gleichungssystem nicht lösbar ist oder viele Lösungen hat..3 Matrixschreibweise und Matrixmultiplikation Für größere Gleichungssysteme ist obige Ausführlichkeit nicht praktikabel. Zur vereinfachten Schreibweise Vektoren und Matrizen: Im obigen Beispiel drei unterschiedliche Typen von Größen: Unbekannte u, v, w Rechte Seiten, 2, 7 9 Koeffizienten einer davon = auf der linken Seite Zunächst Die rechten Seiten, die inhomogenen Terme in den Gleichungen werden in Vektorschreibweise zusammengefasst zu b = 2 7 oft hervorgehobene Schreibweise b, b, b dies ist ein 3-dimensionaler Spaltenvektor. Wir bezeichnen hier Vektoren durch kleine lateinische Buchstaben. Grundlegende Operationen: Addition zweier Vektoren Multiplikation eines Vektors mit einem Skalar Achtung: Nur Vektoren gleicher Dimension können addiert werden! Auch die 3 Unbekannten können wir durch einen Vektor darstellen: u Unbekannte x = v ; Lösung ist x = 2 w

6 ME Lineare Algebra HT 28 6 Koeffizientenmatrix im obigen Beispiel für die Gaußsche Elimination: 2 A = 4 quadratische Matrix, 2 2 Matrizen bezeichnen wir durch großse lateinische Buchstaben. Andere Beispiele für nichtquadratische Matrizen: B = C = Matrizen n-dimensionale Spaltenvektoren sind n -Matrizen. n-dimensionale Zeilenvektoren sind n-matrizen. Einträge von Matrizen nennt man Elemente. Einträge von Vektoren nennt man Komponenten manchmal auch Koordinaten. Die obigen Operationen für Vektoren, nämlich Addition und skalare Multiplikation, werden auf Matrizen erweitert. Auch bei Matrizen werden skalare Multiplikationen und Additionen elementweise durchgeführt. Beispiele: 2B = und B + C = Multiplikation von Matrix und Vektor: Wir wollen die oben eingeführte Matrix- und Vektornotation einsetzen und im Beispiel das lineare Gleichungssystem. wie folgt umschreiben Ax = b oder mit den obigen Daten ausgeschrieben 2 u 4 v 2 2 w = Die Matrix-Vektor-Multiplikation Ax wird genauso definiert, dass das ursprüngliche LGS. reproduziert wird. Also muss die erste Komponente 2 7.

7 ME Lineare Algebra HT 28 7 des Produkts Ax entstehen durch Multiplikation der ersten Zeile von A in den Spaltenvektor x : 2 u v w = 2u + v + w.3 Analog liefert 2., bzw. 3. Zeile von A die 2., bzw. 3. Komponente von Ax. Also 2u +v +w Ax = 4u +v ein 3-dimensionaler Spaltenvektor, 2u +2v +w wird gleichgesetzt mit dem Spaltenvektor b gleicher Dimension d.h. entsprechende Komponenten stimmen überein. Somit gilt Ax = b LGS.. Obige Gleichung.3 ist grundlegend für alle Matrixmultiplikationen! Ein Zeilenvektor und ein Spaltenvektor gleicher Dimension liefert eine Zahl: das innere Produkt, Skalarprodukt dieser Vektoren Beispiel: 2 2 = = m. a. W. mit anderen Worten Produkt einer n- Matrix Zeilenvektor und einer n -Matrix Spaltenvektor ist eine -Matrix Skalar. Bei der Multiplikation einer mehrzeiligen Matrix und eines Vektors sind für jede Zeile diese inneren Produkte zu bilden: Beispiel: = = Die Rechnung zeigt: Das Produkt Ax ist eine LinearKombination der Spalten von A, wobei jede Spalte von A durch die jeweilige Komponente von x gewichtet wird. 2 7

8 ME Lineare Algebra HT 28 8 Im obigen Beispiel: = = Allgemeine Formel für das Produkt Ax? Dazu verwenden wir folgende Bezeichnung für die Einträge von A und x: a ij = Eintrag von A in der i-ten Zeile und j-ten Spalte Bei einer m n-matrix A läuft Index i von bis m, Index j von bis n. Kurz: A = a ij i=,...,m;j=,...,n ; x = x k k=,...,n Ein Index, z. B. k reicht aus für Vektor x, d.h. x k bezeichnet k-te Komponente. Damit ist in Summenschreibweise n Ax i = a ij x j i =,..., m j= In dieser Summe werden für die i-te Zeile von A alle Einträge mit der jeweiligen Komponente von x multipliziert. Beachte: Wieder ist die Dimension der Zeilenvektoren von A =Anzahl der Spalten = Dimension des Spaltenvektors x; eine m n-matrix lässt sich mit einem n-dimensionalen Spaltenvektor multiplizieren. Folgerung: Die durch eine Matrix A definierte Abbildung x Ax ist linear, d.h. Ax + y = Ax + Ay, Aαx = αax für alle Vektoren x, y, Skalare α. Wir merken an, daß wir denselben Buchstaben Symbol A für zunächst zwei verschiedene Objekte verwenden: Matrix und lineare Abbildung. Aber jede lineare Abbildung in endlichdimensionalen Vektorräumen, siehe später lässt sich auch durch eine Matrix darstellen. Also lassen sich die beiden Objekte identifizieren. Beispiel: Lineare Abbildung der Spiegelung an einer Koordinatenachse 2 7

9 ME Lineare Algebra HT 28 9 Die Matrixform eines Eliminationseinzelschrittes: Im Beispiel in $.2: erster Einzelschritt a [Subtrahiere das 2-fache der ersten Gleichung von der zweiten Gleichung] Auf der rechten Seite wird das 2-fache der. Komponenten von b subtrahiert von der 2. Komponenten von b. Dies lässt sich auch erreichen, indem wir b mit folgender elementarer Matrix E multiplizieren: denn Eb = E = = die ersten und dritten Komponenten bleiben gleich wegen der speziellen Gestalt der ersten und dritten Zeile von E. Die neue Komponente hat den richtigen Wert 4, der nach dem ersten Eliminationsschritt auftritt. Um Gleichheit aufrechtzuhalten, müssen wir dieselbe Operation auf beide Seiten von Ax = b anwenden, also Vektor Ax von links mit Matrix E multiplizieren: EAx = Eb Neues LGS ist einfacher wegen der Null, die unterhalb des ersten Pivots geschaffen wurde und äquivalent zum ursprünglichen LGS Addiere das 2-fache der. Gleichung zur 2. Gleichung. Das neue LGS hat die gleiche Lösung. Einführung der Matrix-Multiplikation 4 7 i Aus der Gaußschen Elimination bekannt: die ursprüngliche Koeffizientenmatix A sowie Matrix nach dem Eliminationseinzelschritt a [nicht die Matrix nach Einzelschritten a und b] und Matrix E, die den Einzelschritt ausführt. Damit sollte im Beispiel von $.2 für E = 2, A =

10 ME Lineare Algebra HT 28 gelten EA = d.h.. und 3. Zeile von A unverändert in EA, während das 2-fache der. Zeile subtrahiert wurde von der 2. Zeile. Damit ist Matrixmultiplikation konsistent mit den Zeilenoperationen des Eliminationsschrittes a. Gleichungssystem nach Eliminationsschritt schreibt sich entweder als EAx = Eb oder als EAx = Eb. Die neue Matrix EA ist so konstruiert, dass beide Gleichungen übereinstimmen, daher sind Klammern überflüssig; es gilt EAx = Eb. ii Weitere Anforderungen an Matrix-Multiplikation: Konsistenz mit der alten Definition; d.h. ist B eine Matrix mit einer einzigen Spalte x, so sollte A B = A x sein. Dies führt weiter: Besteht die Matrix B aus mehreren Spalten, z.b. x, x 2, x 3, so sollten die Spalten von A B gerade Ax, Ax 2, Ax 3 sein. Damit ist Matrix-Multiplikation klar: Arbeite das Matrix-Produkt AB spaltenweise mit den Spalten von B ab! Zum Beispiel mit den obigen Daten: erste Spalte von E A = E mal erste Spalte von A entsprechend für die anderen Spalten. = 2 2 iii Dritter Zugang nach Operationen mit den Zeilen bzw. Spalten mit den einzelnen Einträgen von AB. Nur eine mögliche Regel: AB ij = inneres Produkt der i-ten Zeile von A und der j-ten Spalte von B. Konsequenz: Anzahl der Spalten von A = Anzahl der Zeilen von B. Beispiel:,

11 ME Lineare Algebra HT Matrix 4 2-Matrix 3 2-Matrix b a a 2 a 3 a b 2 4 b a 2 a 22 a 23 a 2 b b a 3 a 32 a 33 a 3 b 32 = 34 AB b 4 b Nach ii: Wie bei der Matrix-Vektor-Multiplikation ist jede Spalte von AB eine Kombination der Spalten von A, die mit den Einträgen von B gewichtet werden. Nach i: Jede Zeile von AB ist eine Kombination der Zeilen von B, die mit den Einträgen von A gewichtet werden. Zahlenbeispiel: zunächst elementweise nach iii: = = jetzt spaltenweise nach ii: Nimm x als eine der 3 Spalten von B, berechne Ax durch Matrix-Vektormultiplikation Dabei ist Ax = Linearkombination der Spalten von A, wobei jede Spalte von A durch die entsprechende Komponente von x gewichtet wird und erhalte so die 3 Spalten von AB: = = = 7 4, = = = 8, = schließlich zeilenweise nach i: Um die Zeilen von AB zu erhalten, kombiniere linear die Zeilen von B wie bei der Elimination:,

12 ME Lineare Algebra HT = = 7, = = 4 8. Zusammenfassung der Matrix-Multiplikation i i-te Zeile von AB = i-te Zeile von A mal B ii j-te Spalte von AB = A mal j-te Spalte von B iii AB ij = i-te Zeile von A mal j-te Spalte von B Passen die Dimensionen von den Matrizen A, B, C und D, so gelten folgende Rechengesetze: Distributivgesetze: AB + C = AB + AC; B + CD = BD + CD Assoziativgesetz: ABC = ABC Beweis des Assoziativgesetzes elementweise: Seien A = a ij, B = b jk, C = c kl mit i =,..., p; j =,..., q; k =,..., r; l =,..., s. Dann AB ik = j BC jl = k a ij b jk, b jk c kl. Also mit Vertauschung der Additionen über j und k ABC il = a ij BC jl = a ij b jk c kl j j k = a ij b jk c kl = a ij b jk ckl j k k j = AB ik c kl = ABC. il k

13 ME Lineare Algebra HT 28 3 Bemerkung zu algebraische Strukturen: Die n n-matrizen bilden bezüglich elementweiser Addition + eine kommutative Gruppe und wegen des Assoziativgesetzes bezüglich der Matrixmultiplikation eine Halbgruppe. Da zudem die Distributivgesetze gelten, bilden die n n-matrizen bezüglich + und einen Ring. Achtung: Matrixprodukt ist nicht kommutativ, i.a. AB BA. Z.B. wie oben in $.2 zum Eliminations-Einzelschritt a [Subtrahiere das 2-fache der. Gleichung von der 2. Gleichung] E = 2, analog zu c G = 3 [subtrahiere das -3-fache der 2. Glg. von der 3. Glg.] Dann ist wie im Eliminationsverfahren GE = 2 [in die 3. Glg. geht über die 2. Glg. die. Glg ein!] 6 3 dagegen EG = 2 3 [3. Glg. ist unabhängig von der. Glg.!] Wichtige n n-matrix, die mit jeder n n-matrix kommutiert: Einheitsmatrix Identität I auf Hauptdiagonale, sonst Um klarzumachen IA = AI = A, betrachte i-te Zeile von IA = i-te Zeile von I A = als Kombination der Zeilen von A i-te Zeile von A und betrachte j-te Spalte von AI = A j-te Spalte von I = als Kombination der Spalten von A j-te Spalte von A..4 Gaußsches Eliminationsverfahren = Faktorisierung in Dreiecksmatrizen Nochmals unser Gleichungssystem Ax = b. in $.2, d.h. 2 u 4 v = w 7

14 ME Lineare Algebra HT 28 4 Die 3 Eliminationseinzelschritte a Subtrahiere das 2-fache der. Gleichung von der 2. Gleichung b Subtrahiere das --fache der. Gleichung von der 3. Gleichung c Subtrahiere das -3-fache der 2. Gleichung von der 3. Gleichung führten auf das einfachere äquivalente System.2, Rx = u v w = 4 4 = c Neue Koeffizientenmatrix R ist eine obere rechte Dreiecksmatrix; alle Einträge links der Hauptdiagonalen sind. Beziehung zwischen A und R? Der Einzelschritt a wird durch die obige Matrix E geliefert, die wir jetzt mit E 2 bezeichnen: die 2. Zeile bzw. Gleichung wird durch ein Vielfaches der. Zeile bzw. Gleichung abgeändert und sie produziert eine als 2, -Eintrag der Koeffizienten-Matrix. Also zu b und zu c gehören E 3 = E 2 = 2 und E 32 = 3 Diese heißen Elementarmatrizen, die allgemein für i > j wie folgt zu bilden sind: Wird das l ij -fache der j-ten Gleichung von der i-ten Gleichung subtrahiert, so ersetze nur in der Identität I die Null in der i-ten Zeile und j-ten Spalte durch l ij und erhalte so E ij. Alle diese Elementarmatrizen sind untere linke Dreiecksmatrizen mit en auf der Hauptdiagonalen. Die 3 Matrixoperationen, die A in R überführen, sind also E 32 E 3 E 2 A = R,.4

15 ME Lineare Algebra HT 28 5 entsprechend für die inhomogenen Terme in unserem Beispiel ist als Übung nachzurechnen E 32 E 3 E 2 = E 32 E 3 E 2 b = c Jetzt zur wichtigeren Frage nach der Umkehrung: Wie kommt man von R zurück zu A? Wie lassen sich die Einzel-Schritte im Gaußschen Verfahren umkehren invertieren? Nicht schwierig für einen Einzelschritt, z.b. a: Anstelle der Subtraktion, addiere das 2-fache der. Gleichung zur 2. Gleichung nicht: das 2-fache der 2. Gleichung zur 2. Gleichung. Also wird die Elementarmatrix E 2 invertiert durch eine andere Elementarmatrix mit +2 an der Stelle, wo zuvor 2 stand: Es gilt: E 2 = 2.7 E 2 E 2 = I, E 2 E 2 = I.8 Jede Matrix ist jeweils die Inverse der anderen. Genauso für b und c: Inversion durch Wiederaufaddieren, was in b und c subtrahiert wurde; also E 3 = und E 32 = 3. Jetzt wollen wir den ganzen Prozess in einem umkehren, um sofort von R zurück zu A kommen. Beachte: Schritt c war der letzte Einzelschritt von A nach R, muss daher als erster invertiert werden, wenn wir in umgekehrter Richtung gehen. Dies ist eine allgemeine Regel der Invertierung: Die Inversen kommen in der

16 ME Lineare Algebra HT 28 6 Reihenfolge, die der ursprünglichen Folge der Matrixoperationen entgegengesetzt ist. Also nach der Inversen zu c die Inverse zu b und dann Inverse zu a, damit Inversion von.4: A = E2 E 3 E 32 R..9 Zur Kontrolle setze R = E 32 E 3 E 2 A ein, dann fressen sich die Produkte wie E32 E 32 auf. Jetzt können wir die Matrix L berechnen, die R auf A zurückführt. L muss das Produkt der 3 Matrizen sein, die die Einzelschritte umkehren; sie steckt schon in.9, L = E2 E3 E32, so dass A = LR. Die Matrix L ist der Schlüssel zur Gaußschen Elimination. In unserem Beispiel L = 2 3 = 2 3 Klar: L ist eine untere linke Dreiecksmatrix mit en auf Hauptdiagonale. Noch mehr: Die Einträge links der Hauptdiagonalen sind genau die Faktoren 2, und 3 der einzelnen Eliminationseinzelschritte! Die Elementarmatrizen werden so hintereinander multipliziert, dass ihr Produkt gleich aus den Einträgen der einzelnen Elementarmatrizen abgelesen werden kann. D.h. allgemein: Sei l ij die Größe, mit der die Zeile j multipliziert wird bei der Subtraktion von Zeile i, um als i, j-eintrag zu erzeugen, Dann ist l ij = der i, j-eintrag von L für i > j. Die Faktoren l ij passen also genau in die Matrix L, die R auf A zurückführt. Achtung: Dies ist nicht so beim Produkt E 32 E 3 E 2 in.6; hier tritt Auslöschung auf und daher 5 als 3,-Eintrag]. Übung: Multipliziere Matrix in.6 mit L, um zu zeigen, dass diese Matrix = L. Obige Überlegungen sind unabhängig von der Größe des Gleichungssystems: Stecke die Faktoren in die Matrix L und erhalte die Faktorisierung A = LR mit linker Dreiecksmatrix L und rechter Dreiecksmatrix R. Zusammenfassung: Die Matrix R entsteht zeilenweise im Eliminationsverfahren und enthält die Zahlen nach der Elimination. Jede Zeile von R entsteht aus einer Zeile von

17 ME Lineare Algebra HT 28 7 A durch Subtraktion von Vielfachen von zuvor entstandenen Zeilen von R: Zeile i von R = Zeile i von A l i mal Zeile von R l i2 mal Zeile 2 von R... l ii mal Zeile i von R Das Produkt LR addiert jene Vielfache zurück und stellt die ursprüngliche Matrix A wieder her: Zeile i von A = l i mal Zeile von R +l i2 mal Zeile 2 von R l ii mal Zeile i von R + mal Zeile i von R Beispiel: für LR = A = Zur 3. Zeilen von L: der Zeilenvektor Elimination subtrahiert -mal -te Zeile von der 3. Zeile und -mal 2-te Zeile von der 3. Zeile, liefert die Einträge,, 6, 4, die in R eingehen. Um diese Schritte umzukehren, addiere die. und die 2. Zeile zu der 3. Zeile von R; dies ist die Matrixoperation links, die die Zeilen abarbeitet. 4. Zeile genauso. Einzige Voraussetzung: Alle Einträge auf der Hauptdiagonalen während des Verfahrens Hauptdiagonale der Koeffizientenmatrix sind. Dies sind die Pivots vgl. Zusammenfassung in $.2. Matrix-Beschreibung der Gaußschen Elimination im folgenden Satz. Solange keine -Einträge auf der Hauptdiagonalen auftreten, liefert das Gaußsches Eliminationsverfahren die Faktorisierung A = LR mit linker Dreiecksmatrix L und rechten Dreiecksmatrix R. Auf der Hauptdiagonalen von L stehen lauter en; die Elemente von L, die links der Hauptdiagonale stehen sind die Faktoren l ij, mit der die Zeile j multipliziert wird bei der Subtraktion von der Zeile i während der Elimination.

18 ME Lineare Algebra HT 28 8 R ist die Koeffizientenmatrix, die nach der Elimination und vor der Rücksubstitution auftritt; ihre Hauptdiagonaleinträge sind die Pivots. Praktischer Vorteil der LR-Faktorisierung: Wozu L speichern? Es reicht doch R, um die Lösung x aus Rx = c zu bekommen! Ist A = LR bekannt, so löse statt Ax = b die zwei Dreiecks-Systeme Lc = b Vorwärtssubstitution 2 Rx = c Rückwärtssubstitution sind äquivalent, denn multipliziere 2 mit L : LRx = Lc Ax = b. Beispiel: zu und 2 mit obigen Matrizen L und R. Vorwärtssubstitution erfordert wesentlich weniger Aufwand bei großen Dimensionen als Elimination, Die LR-Faktorisierung ist von Vorteil bei mehreren rechten Seiten b Matrizengleichung AX = B oder bei iterativ berechneten rechten Seiten b, wie z. Bsp. in der inversen Iteration nach Wielandt zur Eigenwertberechnung oder im vereinfachten Newton-Verfahren zur Lösung nichtlinearer Gleichungssysteme. Bemerkungen Obige Faktorisierung ist unsymmetrisch ȧuf der Hauptdiagonalen von L, bzw. von R stehen en, bzw. Pivots. Abhilfe: Faktorisiere R = R alt aus Diagonalmatrix mit den Pivots als Einträge d i = r ii i =,..., n. d d 2 R alt = DRneu =... d n r 2 /d r 3 /d... r 23 /d Damit A = LDRneu, wobei L linke Dreiecksmatrix und Rneu obere rechte Dreiecksmatrix, beide mit en auf der Hauptdiagonalen, und D Diagonalmatrix der Pivots. 2 Es gibt eine gewisse Willkür bei der Reihenfolge der Reihenoperationen bei der Elimination; jedoch sicher eingeschränkt, denn eine zufällige Reihenfolge der Reihenoperationen könnte leicht die zuvor erzeugten Nullen zerstören. Bei der Faktorisierung gibt es keine Willkür.

19 ME Lineare Algebra HT 28 9 Satz.2 über die Eindeutigkeit der Faktorisierung Sei A = L D R und A = L 2 D 2 R 2, wobei die L s linke -Matrizen mit en auf Hauptdiagonale, die R s rechte -Matrizen mit en auf Hauptdiagonale, und die D s Diagonalmatrizen mit allen Hauptdiagonalelementen. Dann gilt L = L 2, D = D 2 und R = R 2 d.h. die LDR-Faktorisierung ist eindeutig durch A festgelegt. Beweis: Nach Voraussetzungen gilt * L D R = L 2 D 2 R 2 Beachte L hat dieselbe Gestalt wie L linke -M, auf Hauptdiagonale; denn beide sind Produkt von Elementarmatrizen. Genauso [tausche Spalten und Zeilen!] ist R2 existiert rechte obere -M. wie R 2. Offensichtlich ist Inverse D zu D wieder Diagonalmatrix: d d 2... d n = /d /d 2... /d n Multipliziere * von links mit L und D, von rechts mit R 2, damit folgt R R 2 = D L L 2D 2 Produkt von 2 rechten linken -Matrizen ist eine rechte linke -Matrix mit Hauptdiagonalelementen gleich, also wieder von der gleichen Gestalt. Die einzige Matrix, die zugleich rechte -Matrix, als auch linke -Matrix mit en auf der Hauptdiagonale ist I. Also R R 2 = I. Multiplikation mit R 2 liefert R = R 2 Weiters D L L 2 D 2 = I, also L L 2 = D D2, dies ist zugleich eine linke -Matrix. mit en auf Hauptdiagonale und eine Diagonalmatrix, folglich = I. Also: L L 2 = I, und D D2 = I, dies liefert L 2 = L und D = D 2 q.e.d..5 Zeilenaustausch, Inverse und Transponierte Jetzt behandeln wir den Fall von -Einträgen auf der Hauptdiagonalen. Zum Beispiel gleich am Anfang 2 u b = 3 4 v b 2

20 ME Lineare Algebra HT 28 2 Schwierigkeit: Mit keinem Vielfachen der. Gleichung lässt sich der Koeffizient 3 zu Null machen. Abhilfe: Tausche die beiden Gleichungen aus: u v = b2 b Unbekannte u und v werden nicht vertauscht In Matrixschreibweise erzeugt die Permutationsmatrix den Zeilenaustausch; denn P A = P = = und es gilt die Äquivalenz Ax = b P Ax = P b, denn nochmalige Multiplikation mit P stellt ursprüngliche Koeffizienten-Matrix A wieder her, d.h. P P = I, P = P. Schwierigkeit kann aber nicht immer behoben werden, hierzu Beispiel: A = d 6 c 7 8 wieder Hauptdiagonalelement, hier a 22 = Schwierigkeit ist abhängig von c. Fallunterscheidung! Ist c =, Schwierigkeit nicht behebbar, A heißt singulär Ist c, vertausche Zeilen 2 und 4, wird erreicht durch die Permutationsmatrix P 24 =

21 ME Lineare Algebra HT 28 2 Insbesondere ist P 24 I = P 24, d.h. P 24 entsteht aus der Einheitsmatrix durch Vertauschen der Zeilen 2 und 4. Allgemein: Permutationsmatrix P kl ist die Einheitsmatrix mit Zeilen k und l vertauscht; die Multiplikation P kl A erzeugt genau diesen Zeilenaustausch in A. Sei c und setze Eliminationsverfahren fort mit P 24 A = c 7 8 d d = ist eine behebbare Schwierigkeit, denn Vertauschen der 3. und der jetzt 4. Zeile liefert 5 als Pivot und Ax = b P 34 P 24 Ax = P 34 P 24 b, d.h. die ursprüngliche Reihenfolge der Gleichungen war lediglich ungünstig. Ist d, so kann d als 3. Pivot gewählt werden. Allerdings falls d = 5 ergibt sich Schwierigkeit für den 4. Pivot und Matrix A ist singulär, denn die jetzt 3. und 4. Gleichung haben die gleichen Koeffizienten,, 5, 6. Also keine Lösung, falls zugehörige rechte Seite verschieden; andererseits, falls die beiden Gleichungen übereinstimmen, dann 3 unabhängige Gleichungen in 4 Unbekannten und unendlich viele Lösungen. Zurück zum nichtsingulären Fall und zur LR-Faktorisierung. Wie zuvor erhalten wir rechte -Matrix R. Jedoch zerstören i.a. die Permutationsmatrizen die linke -Matrix L., d.h. bei Zeilenaustausch ist i.a. A LR. Um dennoch eine Faktorisierung zu erhalten, denken wir uns alle erforderlichen Zeilenaustauschschritte vor dem Eliminationsverfahren durchgeführt., d.h. wir ersetzen jetzt A durch P A, wobei P = Produkt der einzelnen Permutationsmatrizen P kl, und P ist wieder eine Permutationsmatrix. In der Matrix P A sind die Zeilen so angeordnet, dass während des Gaußschen Eliminationsverfahrens die Pivots auf der Hauptdiagonale liegen und zu P A gibt es daher eine LR-Faktorisierung wie gehabt. Beispiel ohne erforderliche Permutation trotz Hauptdiagonalelement a 22 = A =

22 ME Lineare Algebra HT Satz.3 Im nichtsingulären Fall gibt es eine Permutationsmatrix P, die die Zeilen von A so umordnet, dass P A sich mit Pivots faktorisieren lässt: P A = LR oder P A = LDR. In diesem Fall besitzt Ax = b eine eindeutige Lösung, die sich durch Elimination mit Zeilenaustausch berechnet. Im singulären Fall kann dagegen keine Umordnung Pivots erzeugen. Bemerkung: Eine Permutationsmatrix P hat dieselben Zeilen wie I; einfachster Fall P = I kein Austausch; sonst mindestens 2 Zeilen vertauscht. Mit anderen Worten: P hat in jeder Zeile und jeder Spalte genau einen Eintrag,dieser =. Beispiele für die Inverse: nur für quadratische Matrizen definiert! i Wenn die Elementarmatrix E das Vielfache einer Zeile von einer anderen subtrahiert, dann addiert E dieses Vielfache zurück. = a b = ; a b. ii Wenn die Permutationsmatrix P zwei Zeilen austauscht, dann tauscht P diese wieder zurück; also P = P : = iii Wenn die Diagonalmatrix D nur Hauptdiagonalelemente d,..., d n besitzt, dann ist D Diagonalmatrix mit den Hauptdiagonalelementen /d,..., /d n : Jetzt allgemeine d d 2 = /d. /d 2.

23 ME Lineare Algebra HT Definition. Eine n n-matrix A heißt invertierbar, wenn es eine n n-matrix B gibt, so dass AB = I und BA = I. B heißt Inverse zu A, bezeichnet durch B = A also AA = I und A A = I. Dies sind alles quadratische Matrizen gleicher Dimension! Definition sinnvoll wegen Eindeutigkeit von A : Gilt BA = I und AC = I, d.h. B ist Links-Inverse, C ist Rechts-Inverse zu A, dann ist B = C Denn wegen Assoziativgesetz BAC }{{} = BA }{{}C I I B C Zudem ist klar aus obiger Definition: A = A. Wenn A und B invertierbar, ist keine Aussage über A + B möglich vgl. in IR : a + b, falls a + b ; dagegen bereits für n = 2 ist I + P 2 I = nicht invertierbar! Die Matrix-Multiplikation zweier invertierbarer Matrizen gleicher Dimension ergibt invertierbare Matrix und es gilt AB = B A.2 vgl. frühere Bemerkung über Umkehrung von Folge von Matrixoperationen. Nachweis der Inversen-Eigenschaft: Analog gilt ABB A = ABB A = AIA = AA = I B A AB = B A AB = I ABC = C B A Wann ist A invertierbar? Lineare Algebra kennt mehrere verschiedene, aber äquivalente Tests. Hier als Test Gaußsche Elimination mit Zeilenaustausch:

24 ME Lineare Algebra HT Im nichtsingulärem Fall liefert Elimination obere rechte -Matrix R dies reicht zur Lösung von Ax = b, da dafür A nicht benötigt wird Jetzt erzeugen wir auch Nullen oberhalb rechts der Hauptdiagonalen durch Subtraktion von Vielfachen der Pivotzeile von Zeilen darüber, d.h. durch Multiplikation mit Elementarmatrizen E ij jetzt mit i < j. Dies ist die Gauß - Jordan - Methode [hierzu Zahlenbeispiel später]. Damit wird A reduziert auf Diagonalmatrix mit den Pivots auf der Hauptdiagonalen, also mit j > i Eij P kl E ji A = D, die sofort invertiert werden kann. Also: D E ij P kl E ij A = I [in praxi wird dieses Produkt nicht ausgerechnet!] Produkt in... invertierbar, da jeder Faktor invertierbar. Also... = A und... = A; A invertierbar. Damit gezeigt: Eine nichtsinguläre Matrix d.h. mit Pivots ist invertierbar. Umkehrung gilt auch: Jede invertierbare Matrix ist nichtsingulär. Dazu wird der Beweis indirekt geführt. Sei A singuläre n n-matrix, betrachte Gleichungssystem Ax = b. Nach k Eliminationsschritten k < n erhalten wir in der k + -ten Spalte nur -Einträge auf und unterhalb der Hauptdiagonalen. In den verbleibenden n k Gleichungen fehlt also eine Unbekannte, und das Gleichungssystem ist nicht beliebige b lösbar. Andererseits, wäre A invertierbar, dann hätte man stets die Lösung x = A b. q.e.d. Berechnung von A mit Gauß-Jordan: Anstelle von AA = I; löse spaltenweise Ax j = e j, wobei e j = j-te Spalte von I; d.h. Gleichungssystem mit n rechten Seiten e j. Beispiel:

25 ME Lineare Algebra HT Ae e 2 e 3 = jetzt weiter }{{} R 2 }{{} D 2 2 }{{} I /2 /2 2 } {{ } A Beispiel für Inverse mit LR-Faktorisierung: Ax = e j Lc j = e j, Rx j = c j A = R {}}{ } {{ } L Lc j = Rx j = c j = x j = 2 C = c j = A = x j = 2 /2 /2 2 Die Transponierte: Um Spaltenvektoren von Zeilenvektoren unterscheiden zu können, verwenden wir das Transponiertzeichen T.

26 ME Lineare Algebra HT Beispiel: c = c c 2 ; c T = c, c 2 oder c = c, c 2 T. Definition.2 Die Transponierte A T zu einer m n-matrix A ist die gestürzte Matrix, d.h. elementweise AT ij = A ji oder spaltenweise, bzw. zeilenweise ã T für A = ã, ã 2,..., ã n ist A T ã T = 2., für A = a T a T 2. ã T n ist AT = a, a 2,..., a m. a T m Also ist A T eine n m-matrix. Klar: A + B T = A T + B T Eigenschaften: i Für eine m n-matrix A und eine n p-matrix B gilt AB T = B T A T wieder Umkehr der Operationen!.3 ii Für eine invertierbare n n-matrix A gilt A T = A T.4 Beweis zu i: Sei A = ã,..., ã j,..., ã n, B = b,..., b l,..., b p. [ Dann ist AB m p-matrix, AB T p m-matrix und ] es gilt für l =,..., p Zeile l von AB T = [ Spalte l von AB] T = [ Linearkombination der Spalten ã j j =,..., n von A gewichtet mit den n Einträgen der l-ten Spalten b l von B] T = Linearkombination der Zeilen ã T j j =,..., n von A T gewichtet mit den n Einträgen der l-ten Zeile b T l von B T = Zeile l von B T A T Beweis zu ii

27 ME Lineare Algebra HT Sei A invertierbar, also AA = I und A A = I Nehme Transponierte, wende.3 an und I T = I, also A T A T = I und A T A T = I, d.h. A T invertierbar und A T = A T, also.4. Wichtige spezielle Klasse von Matrizen: Definition.3 Eine n n-matrix A heißt symmetrisch, wenn A T = A notwendig quadratisch [Achtung: Eine symmetrische Matrix braucht nicht invertierbar zu sein, z.b. A = aus lauter en!]

28 ME Lineare Algebra HT Allgemeine Theorie der Vektorrräume mit Anwendung auf lineare Gleichungssysteme 2. Vektorräume, Unterräume, lineare Abbildungen Die Vektorrechnung mit reellen, bzw. komplexen Spaltenvektoren oder mit Zeilenvektoren motiviert den Begriff eines allgemeinen Vektorraumes oder linearen Raumes, in dem sich die grundlegenden Operationen der Addition zweier Vektoren und der Multiplikation eines Vektors mit einem Skalar durchführen lassen. Die axiomatische Einführung eines Vektorraumes verwendet zur präzisen Kurzschreibweise die sogenannten Quantoren es existiert, es gibt genau ein, für alle. Definition 2. V, +, ; IK heißt Vektorraum über IK = IR oder über IK = IC als Skalarbereich, falls die Operationen + : V V V, x, y V V x + y V und : IK V V, α, y IK V α y V folgenden Axiomen genügen x, y, z V : α, β IK : x + y = y + x x = x x + y + z = x + y + z α β x = α β x : x + = x α x + y = α x + α y x : x + x = α + β x = α x + β x Im Folgenden lassen wir den Multiplikationspunkt für die Multiplikation von Vektoren mit Skalaren einfach weg. Weitere Beispiele von Vektorräume: IR n k, der Raum aller reellen n k-matrizen. Hier sind die Vektoren Matrizen, -Element ist diw -Matrix. Der Raum ist nahezu gleich IR n k später genauer, lediglich werden die Elemente in einem rechteckigen Schema angeordnet, anstatt untereinander als Spaltenvektor. 2 IR IN ist der Raum aller reellen Zahlenfolgen x = {x k } k IN Addition und skalare Multiplikation erfolgen gliedweise. -Element ist die -Folge. 3 IR, ist der Raum aller reellwertigen Funktionen x = {xt} t, auf dem Intervall, = {t IR < t < }, Addition und skalare Multiplikation werden punktweise durchgeführt: t, : x + yt = xt + yt ; αxt = αxt.

29 ME Lineare Algebra HT Element ist die -Funktion. Die letzten zwei Räume haben unendliche Dimension vgl. mit der späteren Definition der Dimension in 2.3. Definition 2.2 Seien V Vektorraum über IK, U V. Dann heißt U Unterraum, falls i U bezüglich Addition abgeschlossen ist, d.h. x, y U : x + y U oder kurz U + U U, ii U bezüglich skalarer Multiplikation abgeschlossen ist, d.h. x U, α IK : αx U oder kurz IKU U. Damit ist U selbst wieder ein Vektorraum, wie leicht zu zeigen ist, z.b. U : x U da U, wähle α =. Dann x = U. Kleinster Unterraum: U = {}; größter Unterraum: U = V. Im IR 3 alle weiteren möglichen Unterräume: Geraden durch und Ebenen durch. In der Analysis kennen wir die folgende Hierarchie von Funktionenräumen z. Bsp. auf T =, als Unterräume: P N = Raum der Polynome vom Höchstgrad N C T = Raum der unendlich oft stetig differenzierbaren Funktionen auf T CT = Raum der stetigen Funktionen auf T enthalten in IR T, dem Raum aller reellwertigen Funktionen auf T. Definition 2.3 Seien V, W Vektorräume über IK. Dann heißt L : V W lineare Abbildung oder linearer Operator, falls i x, y V : Lx + y = Lx + Ly W, ii x V, α IK : Lαx = αlx W.

30 ME Lineare Algebra HT 28 3 Beispiele von Operatoren in Funktionenräumen auf z. Bsp. T =, : L = d t dt Differentiationsoperator, Lxt = xs ds Integrationssoperator; lx = xs ds ist wegen W = IK ein lineares Funktional oder kurz eine Linearform. Kehren wir zur endlichdimensionalen linearen Algebra zurück. Jetzt Unterräume zu allgemeinen linearen Gleichungssystemen mit einer konkreten Koeffizientenmatrix Zahlenbeispiel: u v = b b 2 b 3 mehr Gleichungen als Unbekannte, wohl nur für gewisse rechte Seiten lösbar: eine dünne Teilmenge in IR 3. Struktur der Menge der erreichbaren Vektoren b? b b 2 b 3 = u v Einfache Beschreibung der Lösbarkeit: Ax = b ist genau dann lösbar, wenn b sich linear aus den Spalten von A kombinieren läßt.. Zugang zum Verständnis von Ax = b Spaltenraum zu A = Menge aller Linearkombinationen der Spalten von A bei m n-matrix: = {Ax x IK n } IK m ist ein Unterraum. 4 4

31 ME Lineare Algebra HT 28 3 Bei obigem Zahlenbeispiel: Ebene durch im IR 3 aufgespannt von den Vektoren 5 2 und [Vergleiche mit! Dort m = n. Ist A nicht singulär, dann fällt der Spaltenraum mit IK m = IK n zusammen.] Jetzt A beliebig rechteckig, singulär zugelassen: {} Spaltenraum IK m 2. Zugang zum Verständnis von Ax = b : Nullraum zu A = {x IK n Ax = IK m } IK n ist wieder ein Unterraum. Im obigen Zahlenbeispiel u v = 4 4 u =, v = ; also Nullraum zu A = {}. Andere Situation für: 3. Spalte =. Spalte + 2. Spalte; B = Spaltenraum ändert sich nicht! u 4 4 v = w und damit allen skalaren Vielfachen 4 4 Nullraum zu B = ist also eine Gerade durch. α besitzt nichttriviale Lösung α α α = α IR = IR

32 ME Lineare Algebra HT Lösung von m Gleichungen in n Unbekannten Zunächst Beispiel ohne rechte Seite A = a = ist. Pivot; Elimination Die Elemente der 2. Spalte die unter 3 liegen sind Null, kein Zeilenaustausch bringt Pivot. [Im quadratischen Fall wäre hier Stopp des in beschriebenen Eliminationverfahrens, A wäre singulär.] Jetzt setzen wir fort und vereinfachen einfach die nächste Spalte R = Wegen in der Pivotstelle in der 4. Spalte ist das Eliminationsverfahren beendet. Erhalten: rechte Matrix R in Stufenform, Staffelform, die Pivots sind nicht mehr notwendig auf Hauptdiagonalen wie bei quadratischen Matrizen. Typisches Beispiel einer Stufen -Matrix im Fall: R = wobei Pivots ; * beliebige Einträge = oder. Allgemeiner Aufbau einer rechten Stufen-Matrix: i Zuerst kommen die Nichtnull-Zeilen sonst Zeilenaustausch und die Pivots sind die ersten Einträge in diesen Zeilen ii Unterhalb jedes Pivots steht eine Nullspalte durch Elimination iii Jedes Pivot liegt rechts zu dem Pivot der Zeile darüber; dies erzeugt die Stufenform.

33 ME Lineare Algebra HT Dabei sind wie im quadratischen Fall die Eliminationseinzelschritte beschrieben durch Elementarmatrizen. [Subtrahiere Vielfaches der Pivotzeile von betreffender Zeile! Inverse: Addiere Vielfaches der Pivotzeile zurück!] Diese Vielfachen werden wieder in stets quadratischer! m m-matrix L eingetragen. Im Beispiel A = = LR = Im Allgemeinen ist Zeilenaustausch, d.h. eine Permutationsmatrix erforderlich. Keine Ausgrenzung des singulären Falles: Gibt es kein Pivot in einer Spalte, wird zur nächsten Spalte weitergegangen. Satz 2. Zu jeder m n-matrix A gehören eine m m-permutationsmatrix P, eine linke m m Dreiecksmatrix L mit en auf Hauptdiagonalen und eine rechte gestufte gestaffelte m n Matrix R, so daß P A = LR. 2 Jetzt Lösung des homogenen LGS Ax = Rx =, denn Zeilenoperationen haben keine Auswirkung auf die Nullen in rechter Seite! Im Beispiel Rx = u v w y = Es gibt 2 Gruppen der Unbekannten: Basisvariable gehören zu Spalten mit Pivots, freie Variable gehören zu Spalten ohne Pivots; um die allgemeine Lösung zu Rx = [ Ax = ] zu finden, ordne den freien Variablen beliebige Werte zu; dann sind Basisvariable vollständig bestimmt und berechnen sich durch Rücksubstitution aus den freien Variablen. Hier im Beispiel 3w + y = w = y/3 u + 3v + 3w + 2y = u = 3v y.

34 ME Lineare Algebra HT Also allgemeine Lösung x = 3v y v y/3 y = v 3 + y /3, d.h. Nullraum = Menge der Linearkombinationen der speziellen Lösungen 3 und /3 2-dimensionaler Unterraum IR4 geometrisch: Ebene aufgespannt von diesen zwei Vektoren. Betrachte den Fall n > m: d.h. mehr Spalten Unbekannte als Zeilen Gleichungen. Dann gibt es höchstens m Pivots und daher mindestens n m >, also freie Variable. Folgerung: Jedes homogene LGS Ax = mit mehr Unbekannten als Gleichungen n > m besitzt eine nichttriviale Lösung, d.h. eine Lösung von der trivialen Lösung x = verschieden. 3 Schließlich Lösung des inhomogenen LGS Ax = b b P Ax = P b mit P A = LR nach Gaußscher Elimination Rx = c und Lc = P b. Im Beispiel: Mit L = Berechnung von c aus Lc = b ausführlich: c c 2 c 3 = c 2c + c 2 c + 2c 2 + c 3 = b b 2 b 3. c = b c 2 = b 2 2c = b 2 2b c 3 = b 3 + c 2c 2 = b 3 + b 2b 2 2b = 5b 2b 2 + b 3

35 ME Lineare Algebra HT oder kürzer im Matrix-Schema:. b 2. b 2. b. b 2 2b 2. b 3 2. b 3 + b. b. b 2 2b. b 3 + b 2b 2 2b }{{} = 5b 2b 2 + b 3 Dann ist Rx = c zu lösen, hier * 3 u v w y = b b 2 2b b 3 + b 2b 2 2b }{{} b 3 2b 2 + 5b In * ist linke Seite der 3. Gleichung =. Daher: Das LGS Ax = b ist konsistent lösbar, nur falls 5b 2b 2 + b 3 = gilt. d.h.: Menge der erreichbaren Vektoren b ist echt enthalten in IR 3 auch bei mehr Unbekannten als Gleichungen! Wir wissen: Ax = b lösbar b Spaltenraum zu A. Im Beispiel aufgespannt von den 4 Spalten von A nicht R: , 6, 9, Diese 4 Spalten erzeugen nur eine Ebene im IR 3, denn Spalte 2 = 3 mal Spalte ; Spalte 4 = mal Spalte + mal Spalte 3; 3 die abhängigen Spalten 2 und 4 sind genau die Spalten ohne Pivots. Also Spaltenraum = α + β α, β IR

36 ME Lineare Algebra HT Äquivalente Beschreibung dieser Ebene aus * {b IR 3 5b 2b 2 + b 3 = } Diese Gleichung ist Bedingung für die Lösbarkeit. Geometrisch: Vektor 5, 2, T steht senkrecht zu jedem Spaltenvektor, daher zum ganzen Spaltenraum. Vorgehen zur Lösung von Ax = b: Sei b Spaltenraum. Berechne die allgemeine Lösung x zu Ax = b wie folgt. Ordne den freien Variablen beliebige Werte als Parameter zu, bestimme dann die Basisvariable durch Rücksubstitution. Zum Beispiel b =, 5, 5 T, also Ax = b lautet u v w y = 5 5 Elimination formt dies um zu u v w y = 3 Wie gewünscht: 3. Gleichung ist =, und die anderen Gleichungen geben 3w + y = 3 w = /3 y; u + 3v + 3w + 2y = u = 2 3v y Also allgemeine Lösung x = u v w y = 2 + v 3 + y /3 Vergleiche mit der allgemeinen Lösung des homogenen Systems! Ax = Einziger Unterschied: Addition des Vektors 2,,, T ist in der allgemeinen Lösung mit v = y = enthalten. In der Tat -2-mal. Spalte von A+ -mal 3. Spalte = rechte Seite b. Also ist dieser Vektor eine spezielle Lösung, eine Partikulärlösung zu Ax = b.

37 ME Lineare Algebra HT Im Beispiel geometrisch: Menge der Lösungen = Ebene in IR 4, parallel zu Nullraum von A, verschoben um den Vektor der speziellen Lösung also kein Unterraum wegen b. Zusammenfassung: Durch Elementaroperationen und Zeilenaustausch werde die m n-matrix A auf eine rechte Stufen-Matrix R reduziert und die Faktorisierung P A = LR erhalten. Dabei bestehe R aus r Nichtnullzeilen und aus den letzten m r Nullzeilen. Als Pivot wird jeweils der erste Eintrag in den Nichtnullzeilen gewählt. Dann gibt es r Basisvariablen und n r freie Variablen, die den Spalten von R mit, bzw. ohne Pivots entsprechen. Der Nullraum von A hat diese n r freie Variablen als unabhängige Parameter. Gilt r = n, dann gibt es keine freie Parameter und der Nullraum enthält nur den Nullvektor, d.h. Ax = besitzt nur die triviale Lösung. Lösungen zu Ax = b existieren für jede beliebige rechte Seite dann und nur dann, wenn r = m ist. In diesem Fall besitzt R keine Nullzeilen und Rx = c mit Lc = P b wird gelöst durch Rücksubstitution. Falls dagegen r < m gilt, ist die Anzahl der Nullzeilen m r >, und es gibt m r Bedingungen an b für die Lösbarkeit von Ax = b. Falls eine spezielle Lösung zu Ax = b existiert, ergibt sich hieraus jede andere Lösung zu Ax = b durch Addition eines Vektors aus dem Nullraum von A. In diesem Fall gilt: Allgemeine Lösung = spezielle Lösung + allgemeine Lösung zu Ax = des zu Ax = b homogenen Systems. Bemerkung: Auch hier kein Spaltenaustausch, d.h. Umbenennung der Unbekannten. Keine weiteren Eliminationen wie bei der Gauß-Jordan-Methode um Nullen oberhalb der Pivots zu erzeugen. Dieser zusätzliche Aufwand ist weder erforderlich für Faktorisierung P A = LR noch zur Gleichungslösung. 2.3 Lineare Unabhängigkeit, Basis und Dimension Lineare Unabhängigkeit Wie obiges Beispiel zeigt, geben die Zahlen m und n ein unvollständiges Bild der Lösungsstruktur linearer Gleichungssysteme: Statt m = 3 treten nur 2 Nichtnull-Zeilen in R auf; statt n = 4 degeneriert der Spaltenraum zu einer 2-dimensionalen Ebene.

38 ME Lineare Algebra HT Definition 2.4 Rang r einer Matrix A = Anzahl der Pivots im Eliminationsprozeß = Anzahl der Nichtnull-Zeilen in R = Siehe unten Anzahl der echt unabhängigen Zeilen in A Dazu benötigt: Begriff der linearen Unabhängigkeit. Gegeben Vektoren v...., v k ; k betrachte zu γ j IK die Linearkombination γ j v j ; diese ist sicher =, falls alle γ j =. Gibt es noch andere, d.h. nichttriviale Linearkombinationen des Null-Vektors? Definition 2.5 Gegeben seien Vektoren v...., v k in einem Vektorraum V über IK. Ist jede nichttriviale Linearkombination der v,..., v k mit Linearkoeffizienten γ,..., γ k IK vom Null-Vektor verschieden, d.h. j= k γ j v j =, γ j IK γ j = für j =,..., k; j= dann heißen die Vektoren v,..., v k linear unabhängig. Andernfalls heißen sie linear abhängig mindestens einer von ihnen ist eine Linearkombination der anderen. Beispiele A = Spalten sind linear abhängig: denn Linearkombination mit Gewichten 3,,, liefert -Spalte. Zeilen sind linear abhängig: denn 3. Zeile = 2-mal 2. Zeile - 5-mal. Zeile vgl. Bedingung für b zur Lösbarkeit von Ax = b anderes Beispiel: B = 3 2

39 ME Lineare Algebra HT Alle drei Spalten von B sind linear unabhängig. Die Spalten einer rechten -Matrix sind linear unabhängig, sofern alle Hauptdiagonalelemente. Betrachte homogenes Gleichungssystem für die Linearkoeffizienten; löse danach auf mit Rücksubstition! Genauso alle Zeilenvektoren von B linear unabhängig, denn aus γ 3,, + γ 2,, + γ 3,, 2 =,, folgt 3γ =, γ 2 = ; 2γ 3 = Erweiterung auf Stufenmatrizen: z.b. oben R = Die Nichtnull-Zeilen sind linear unabhängig; hier. und 2. Zeile. Spalten und 3 sind linear unabhängig, jedoch keine Menge aus drei Spalten. Allgemein: Die r Nichtnullzeilen, sowie die r Spalten, die Pivots enthalten, sind bei einer Stufen-Matrix linear unabhängig. Test auf lineare UnAbhängigkeit von Vektoren v,..., v k IK m : Bilde Matrix A IK m k aus den k Spalten v,..., v k ; löse homogenes Gleichungssystem Ax = ; linear abhängig es existiert mindestens eine nichttriviale Lösung x es existiert eine freie Variable Rang r < k linear unabhängig Nullraum = {} Rang r = k Spezialfall: Seien v,..., v k IK m, es gelte k > m. Da die Anzahl der Pivots der Anzahl der Zeilen = m < k, existiert mindestens eine nicht triviale Lösung. Also: Folgerung: Eine Menge von k Vektoren im IK m ist bei k > m stets linear abhängig. Basen und Dimension Definition 2.6 Besteht ein Vektorraum V insbesondere ein Unterraum V aus allen Linearkombinationen spezieller Vektoren w,..., w l, dann spannen diese Vektoren w,..., w l, diesen Vektorraum V auf, mit anderen Worten V = {γ w γ l w l γ,..., γ l IK} 2.5

40 ME Lineare Algebra HT 28 4 oder kurz l V = IK w j. j= Bemerkung: Linearkoeffizienten γ j in 2.5 brauchen nicht eindeutig zu sein; aufspannende Menge kann groß sein, ein w j = zugelassen. Beispiele i Sei A IK m n. Spaltenraum aufgespannt von n Spalten IK m IK m Zeilenraum aufgespannt von m Zeilen IK n IK n ii Die Koordinatenvektoren im IR n : e =.,..., en = spannen IR n auf; denn für beliebigen Vektor x = x x 2. x n. 2.6 n IRn ist x = x k e k. 2.7 k= Analog spannen diese Koordinatenvektoren den Vektorraum IC n auf. Zudem sind die Koordinatenvektoren e,..., e n linear unabhängig [Test führt auf homogenes LGS Ix = x =.] Daher ist keiner der Vektoren e k in 2.7 überflüssig. Definition 2.7 Eine Menge von Vektoren in Vektorraum V, die linear unabhängig ist, 2 den Vektorraum V aufgespannt heißt Basis von V. Bei einer Basis {w,..., w l } sind Linearkoeffizienten in 2.5 eindeutig. Denn l l sei v = β j w j = γ j w j, dann = β j γ j w j, lineare Unabhängigkeit j= j= j der w j β j γ j = j =,..., l

41 ME Lineare Algebra HT 28 4 Bemerkung: Jedoch ist eine Basis in einem Vektorraum nicht eindeutig bestimmt. Beispiel: Spaltenraum zur gestuften Matrix R: R = mehrere Möglichkeiten einer Basis! spezielle Wahl: Spalten, die die Pivots enthalten, sind eine Basis des Spaltenraums von R. Definition 2.8 In einem Vektorraum V über IK sei {v,..., v n } eine Basis und v V beliebig fixiert. Dann heißen die eindeutig bestimmten Koeffizienten α,..., α n IK in der Darstellung v = Vektors v bezüglich der Basis {v,..., v n }. n ν= α ν v ν die Koordinaten des Beispiel: In V = IR 3 sei die Menge B = {u, v, w} mit u =,, T, v =,, T, w =,, T gegeben. Hieraus berechnet sich A := wobei hier in einem Zahlenschema die Dreiecksmatrizen L und R ohne die überflüssigen Nullen stehen. Wegen Rang A = 3 ist B eine Basis. Ist x = 2, 4, T, dann ist als Übung zu rechnen x = u 2v + 3w. Also sind die Koeffizienten, 2, 3 die Koordinaten von x bezüglich B. Wenn nicht eine Basis eindeutig festgelegt ist, so doch die Anzahl der Vektoren in Basis, denn es gilt folgender Satz. Satz 2.2 Seien {v,..., v n } und {w,... w m } beides Basen für denselben Vektorraum V über IK. Dann gilt n = m. Indirekter Beweis: Es gelte n m, sage o.b.d.a. n < m. Da die v i eine Basis bilden, läßt sich hieraus jedes w j linear kombinieren: n w j = a j v a nj v n = a ij v i, mit a ij IK für j =,..., m. i=

42 ME Lineare Algebra HT Die Koeffizienten a ij sind unbekannt, aber wir wissen: Matrix A := a ij ist n m mit n < m. siehe obige Folgerung m nichttriviale Lösung x in IK m zu Ax =, d.h. a ij x j = i =,, n. Hieraus erhalten wir m m x j w j = j= n x j j= i= j= m n n m a ij v i = x j a ij v i = a ij x j v i = j= i= i= j= eine nichttriviale Linearkombination der Null in V aus den w j. Damit sind die w j linear abhängig, was im Widerspruch zu einer Basis steht! q.e.d. Definition 2.9 Die Anzahl der Vektoren in einer Basis für einen Vektorraum V heißt Dimension von V ; in Zeichen dim V. Beispiele: dim {} = ; dim IR n = n und dim IC n = n, betrachte obige Basis aus Koordinatenvektoren. Nach wie vor sprechen wir von einem n-dimensionalen Spaltenvektor x, d.h. x besteht aus n Komponenten oder kurz x IR n bzw. x IC n. Ein solcher Vektor x spannt einen -dimensionalen Unterraum auf. Mit obigem Satz gilt: In einem Unterraum der Dimension k können nicht mehr als k Vektoren linear unabhängig sein, und es können nicht weniger als k Vektoren den Raum aufspannen. Mit anderen Worten: eine Basis ist eine maximale linear unabhängige Menge von Vektoren. Eine linear unabhängige Menge kann durch evtl. Hinzufügen weiterer Vektoren zu einer Basis erweitert werden; aus einer aufspannenden Menge kann durch eventuelles Streichen von Vektoren eine Basis erzeugt werden. Isomorphismen Definition 2. Seien V, W Vektorräume über IK. Eine lineare Abbildung J : V W heißt ein Isomorphismus, wenn es eine lineare Abbildung H : W V gibt mit H J = I V = Identität auf V und J H = I W = Identität auf W. Existiert ein Isomorphismus, heißen die Vektorräume V und W isomorph, geschrieben V = W. Dieser Abschnitt kann beim ersten Lesen überschlagen werden

4 Determinanten. 4.1 Eigenschaften der Determinante. ME Lineare Algebra HT

4 Determinanten. 4.1 Eigenschaften der Determinante. ME Lineare Algebra HT ME Lineare Algebra HT 2008 86 4 Determinanten 4. Eigenschaften der Determinante Anstatt die Determinante als eine Funktion IC n n IC durch eine explizite Formel zu definieren, bringen wir zunächst eine

Mehr

Ausgewählte Lösungen zu den Übungsblättern 4-5

Ausgewählte Lösungen zu den Übungsblättern 4-5 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom Übungsaufgaben 11. Übung: Woche vom 9. 1.-13. 1. 2017 (Numerik): Heft Ü 1: 12.28.a,b; 12.29.b,c (jeweils mit Fehlerabschätzung); 6.26; 6.27.a (auch mit Lagrange-Interpolationspolynom); 6.25; 6.28 (auch

Mehr

Höhere Mathematik I (LRT) = Mathematik I (BAU)

Höhere Mathematik I (LRT) = Mathematik I (BAU) Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Universität der Bundeswehr München Höhere Mathematik I LRT = Mathematik I BAU Vorlesungsskript Univ. Prof. Dr. sc. math.

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n Kapitel Vektorräume Josef Leydold Mathematik für VW WS 07/8 Vektorräume / 4 Reeller Vektorraum Die Menge aller Vektoren x mit n Komponenten bezeichnen wir mit x R n =. : x i R, i n x n und wird als n-dimensionaler

Mehr

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41

Kapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41 Kapitel 3 Vektorräume Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41 Reeller Vektorraum Die Menge aller Vektoren x mit n Komponenten bezeichnen wir mit R n = x 1. x n : x i R, 1 i n und

Mehr

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit 3 Lineare Algebra (Teil : Lineare Unabhängigkeit 3. Der Vektorraum R n Die Menge R n aller n-dimensionalen Spalten a reeller Zahlen a,..., a n R bildet bezüglich der Addition a b a + b a + b. +. :=. (53

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 15. April 2018 1/46 Die Dimension eines Vektorraums Satz 2.27 (Basisergänzungssatz) Sei V ein Vektorraum über einem Körper K. Weiter seien v 1,...,

Mehr

1 Transponieren, Diagonal- und Dreiecksmatrizen

1 Transponieren, Diagonal- und Dreiecksmatrizen Technische Universität München Thomas Reifenberger Ferienkurs Lineare Algebra für Physiker Vorlesung Mittwoch WS 2008/09 1 Transponieren, Diagonal- und Dreiecksmatrizen Definition 11 Transponierte Matrix

Mehr

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49 Kapitel 2 Matrixalgebra Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49 Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS.

Mehr

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2 Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete

Mehr

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49 Kapitel 2 Matrixalgebra Josef Leydold Mathematik für VW WS 207/8 2 Matrixalgebra / 49 Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS.

Mehr

Matrixalgebra. Kapitel 2. Ein sehr einfaches Leontief-Modell. Matrix. Ein sehr einfaches Leontief-Modell. Vektor. Spezielle Matrizen I

Matrixalgebra. Kapitel 2. Ein sehr einfaches Leontief-Modell. Matrix. Ein sehr einfaches Leontief-Modell. Vektor. Spezielle Matrizen I Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS Kapitel 2 Matrixalgebra Technologiematrix und wöchentliche Nachfrage (in Werteinheiten):

Mehr

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Lineare Gleichungssysteme und Matrizen

Lineare Gleichungssysteme und Matrizen Kapitel 11 Lineare Gleichungssysteme und Matrizen Ein lineares Gleichungssystem (lgs) mit m linearen Gleichungen in den n Unbekannten x 1, x 2,..., x n hat die Gestalt: Mit a 11 x 1 + a 12 x 2 + a 13 x

Mehr

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v.

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v. Teil I Lineare Algebra I Vorlesung Sommersemester 2011 Olga Holtz MA 378 Sprechstunde Fr 14-16 und nv holtz@mathtu-berlinde Sadegh Jokar MA 373 Sprechstunde, Do 12-14 und nv jokar@mathtu-berlinde Kapitel

Mehr

Lineare Gleichungssysteme - Grundlagen

Lineare Gleichungssysteme - Grundlagen Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente

Mehr

3 Systeme linearer Gleichungen

3 Systeme linearer Gleichungen 3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +

Mehr

Beispiele 1. Gegeben ist das lineare System. x+4y +3z = 1 2x+5y +9z = 14 x 3y 2z = 5. Die erweiterte Matrix ist

Beispiele 1. Gegeben ist das lineare System. x+4y +3z = 1 2x+5y +9z = 14 x 3y 2z = 5. Die erweiterte Matrix ist 127 Die Schritte des Gauß-Algorithmus sind nun die Folgenden: 1. Wir bestimmen die am weitesten links stehende Spalte, die Einträge 0 enthält. 2. Ist die oberste Zahl der in Schritt 1 gefundenen Spalte

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Tutorium: Analysis und Lineare Algebra

Tutorium: Analysis und Lineare Algebra Tutorium: Analysis und Lineare Algebra Vorbereitung der Bonusklausur am 14052018 (Teil 1) 7 Mai 2018 Steven Köhler mathe@stevenkoehlerde mathestevenkoehlerde 2 c 2018 Steven Köhler 7 Mai 2018 Matrizen

Mehr

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 5 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

Kapitel 15 Lineare Gleichungssysteme

Kapitel 15 Lineare Gleichungssysteme Kapitel 15 Lineare Gleichungssysteme Kapitel 15 Lineare Gleichungssysteme Mathematischer Vorkurs TU Dortmund Seite 1 / 27 Kapitel 15 Lineare Gleichungssysteme Definition 15.1 (Lineares Gleichungssystem

Mehr

3 Matrizen und Lineare Gleichungssysteme

3 Matrizen und Lineare Gleichungssysteme 3 Matrizen und LGS Pink: Lineare Algebra HS 2014 Seite 38 3 Matrizen und Lineare Gleichungssysteme 3.1 Definitionen Sei K ein Körper, und seien m,n,l natürliche Zahlen. Definition: Eine Matrix mit m Zeilen

Mehr

Lösung Serie 11: Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung

Lösung Serie 11: Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung D-MATH/D-PHYS Lineare Algebra I HS 06 Dr. Meike Akveld Lösung Serie : Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung. Um zu zeigen, dass es sich bei den gegebenen Vektoren um Basen handelt,

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6

1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6 Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik Dr. Thomas Zehrt Vektorräume und Rang einer Matrix Inhaltsverzeichnis Lineare Unabhängigkeit. Äquivalente Definition.............................

Mehr

3 Lineare Algebra Vektorräume

3 Lineare Algebra Vektorräume 3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +

Mehr

1 Einführung Gleichungen und 2 Unbekannte Gleichungen und 3 Unbekannte... 4

1 Einführung Gleichungen und 2 Unbekannte Gleichungen und 3 Unbekannte... 4 Wirtschaftswissenschaftliches Zentrum 3 Universität Basel Mathematik 2 Dr Thomas Zehrt Lineare Gleichungssysteme Inhaltsverzeichnis Einführung 2 2 Gleichungen und 2 Unbekannte 2 2 3 Gleichungen und 3 Unbekannte

Mehr

7 Matrizen über R und C

7 Matrizen über R und C Mathematik für Physiker I, WS 06/07 Montag 9 $Id: matrixtex,v 7 06//9 :58: hk Exp $ 7 Matrizen über R und C 7 Addition und Multiplikation von Matrizen In der letzten Sitzung haben wir begonnen uns mit

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen 1 Zum Aufwärmen 1.1 Notationen In diesem Teil der Vorlesung bezeichnen wir Körper mit K, Matrizen mit Buchstaben A,B,..., Vektoren mit u,v,w,... und Skalare mit λ,µ,... Die Menge der m n Matrizen bezeichnen

Mehr

Kapitel 16. Invertierbare Matrizen

Kapitel 16. Invertierbare Matrizen Kapitel 16. Invertierbare Matrizen Die drei Schritte des Gauß-Algorithmus Bringe erweiterte Matrix [A b] des Gleichungssystems A x auf Zeilenstufenform [A b ]. Das System A x = b ist genau dann lösbar,

Mehr

3 Lineare Gleichungssysteme

3 Lineare Gleichungssysteme 3 Lineare Gleichungssysteme 3 Fortsetzung des Matrizenkalküls Als erstes beweisen wir einen einfachen Satz über den Rang von Matrizenprodukten Satz 3 (a) Für Matrizen A : Ã l m, B : Ã m n gilt rang AB

Mehr

Lineare Algebra 1. Roger Burkhardt

Lineare Algebra 1. Roger Burkhardt Lineare Algebra 1 Roger Burkhardt roger.burkhardt@fhnw.ch Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 2 Rechenoperationen und Gesetze Gleichheit

Mehr

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

9 Lineare Gleichungssysteme

9 Lineare Gleichungssysteme 9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

5.7 Lineare Abhängigkeit, Basis und Dimension

5.7 Lineare Abhängigkeit, Basis und Dimension 8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n

Mehr

Grundlegende Definitionen aus HM I

Grundlegende Definitionen aus HM I Grundlegende Definitionen aus HM I Lucas Kunz. März 206 Inhaltsverzeichnis Vektorraum 2 2 Untervektorraum 2 Lineare Abhängigkeit 2 4 Lineare Hülle und Basis 5 Skalarprodukt 6 Norm 7 Lineare Abbildungen

Mehr

5 Lineare Gleichungssysteme und Determinanten

5 Lineare Gleichungssysteme und Determinanten 5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor) Matrizenrechnung. Matrizen Matrizen sind bereits im Kapitel Lineare Gleichungssysteme aufgetreten. Unter einer (m n) -Matrix A verstehen wir ein rechteckiges Zahlenschema mit m Zeilen und n Spalten. Der.

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Vektoren und Matrizen

Vektoren und Matrizen Universität Basel Wirtschaftswissenschaftliches Zentrum Vektoren und Matrizen Dr. Thomas Zehrt Inhalt: 1. Vektoren (a) Einführung (b) Linearkombinationen (c) Länge eines Vektors (d) Skalarprodukt (e) Geraden

Mehr

HM II Tutorium 5. Lucas Kunz. 22. Mai 2018

HM II Tutorium 5. Lucas Kunz. 22. Mai 2018 HM II Tutorium 5 Lucas Kunz 22. Mai 2018 Inhaltsverzeichnis 1 Theorie 2 1.1 Wiederholung Lineare Gleichungsysteme................... 2 1.2 Wiederholung: Kern einer Abbildung..................... 3 1.3

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

Kapitel 3 Lineare Algebra

Kapitel 3 Lineare Algebra Kapitel 3 Lineare Algebra Inhaltsverzeichnis VEKTOREN... 3 VEKTORRÄUME... 3 LINEARE UNABHÄNGIGKEIT UND BASEN... 4 MATRIZEN... 6 RECHNEN MIT MATRIZEN... 6 INVERTIERBARE MATRIZEN... 6 RANG EINER MATRIX UND

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Basiswissen Matrizen

Basiswissen Matrizen Basiswissen Matrizen Mathematik GK 32 Definition (Die Matrix) Eine Matrix A mit m Zeilen und n Spalten heißt m x n Matrix: a a 2 a 4 A a 2 a 22 a 24 a 4 a 42 a 44 Definition 2 (Die Addition von Matrizen)

Mehr

Der Kern einer Matrix

Der Kern einer Matrix Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis

Mehr

3. Übungsblatt zur Lineare Algebra I für Physiker

3. Übungsblatt zur Lineare Algebra I für Physiker Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof Dr H Brenner Osnabrück WS 2015/2016 Lineare Algebra und analytische Geometrie I Vorlesung 12 Wege entstehen dadurch, dass man sie geht Franz Kafka Invertierbare Matrizen Definition 121 Es sei K ein

Mehr

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Kapitel 3 Lineare Gleichungssysteme 3.1. Einleitung Beispiel 1 3 Kinder haben eingekauft. Franz hat 4 Lakritzen, 2 Schokoriegel und 5 Kaugummis

Mehr

Lineare Algebra 1. Roger Burkhardt

Lineare Algebra 1. Roger Burkhardt Lineare Algebra 1 Roger Burkhardt roger.burkhardt@fhnw.ch Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 1 Einführung Lineare Gleichungen Definition

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 5 Aufgabe 5.1 Kommutierende Matrizen In der Vorlesung und vergangenen

Mehr

Matrixoperationen. Einige spezielle Matrizen: Nullmatrix: n-te Einheitsmatrix: E n := 0 d. TU Dresden, WS 2013/14 Mathematik für Informatiker Folie 1

Matrixoperationen. Einige spezielle Matrizen: Nullmatrix: n-te Einheitsmatrix: E n := 0 d. TU Dresden, WS 2013/14 Mathematik für Informatiker Folie 1 Matrixoperationen Einige spezielle Matrizen: 0 0... 0 Nullmatrix:....... 0 0... 0 1 0... 0 0 1... 0 n-te Einheitsmatrix: E n :=....... 0 0... 1 d 1 0... 0 0 d 2... 0 Diagonalmatrix: diag(d 1,..., d n)

Mehr

Tutorium: Analysis und Lineare Algebra

Tutorium: Analysis und Lineare Algebra Tutorium: Analysis und Lineare Algebra Vorbereitung der Bonusklausur am 14.5.218 (Teil 2) 9. Mai 218 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 218 Steven Köhler 9. Mai 218 3 c 218

Mehr

Lineare Gleichungssystem

Lineare Gleichungssystem Lineare Gleichungssystem 8. Juli 07 Inhaltsverzeichnis Einleitung Der Gauß-Algorithmus 4 3 Lösbarkeit von Gleichungssystemen 6 Einleitung Wir haben uns bisher hauptsächlich mit dem Finden von Nullstellen

Mehr

2 Matrizenrechnung und Lineare Gleichungssysteme

2 Matrizenrechnung und Lineare Gleichungssysteme Technische Universität München Florian Ettlinger Ferienkurs Lineare Algebra Vorlesung Dienstag WS 2011/12 2 Matrizenrechnung und Lineare Gleichungssysteme 2.1 Matrizenrechnung 2.1.1 Einführung Vor der

Mehr

05. Lineare Gleichungssysteme

05. Lineare Gleichungssysteme 05 Lineare Gleichungssysteme Wir betrachten ein System von m Gleichungen in n Unbestimmten (Unbekannten) x 1,, x n von der Form a 11 x 1 + a 12 x 2 + a 13 x 3 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + a

Mehr

LINEARE ALGEBRA II. FÜR PHYSIKER

LINEARE ALGEBRA II. FÜR PHYSIKER LINEARE ALGEBRA II FÜR PHYSIKER BÁLINT FARKAS 4 Rechnen mit Matrizen In diesem Kapitel werden wir zunächst die so genannten elementaren Umformungen studieren, die es ermöglichen eine Matrix auf besonders

Mehr

Lineare Algebra I für Mathematiker Lösungen

Lineare Algebra I für Mathematiker Lösungen Lineare Algebra I für Mathematiker Lösungen Anonymous 24. April 2016 Aufgabe 1 Beantworten Sie bitte die folgenden Fragen. Jeder Vektorraum hat mindestens ein Element. Q ist ein R-Vektorraum (mit der Multiplikation

Mehr

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem

Mehr

Vorlesung Mathematik für Ingenieure 1 (Wintersemester 2008/09)

Vorlesung Mathematik für Ingenieure 1 (Wintersemester 2008/09) Vorlesung Mathematik für Ingenieure Wintersemester 8/9 Kapitel 4: Matrizen, lineare Abbildungen und Gleichungssysteme Volker Kaibel Otto-von-Guericke Universität Magdeburg Version vom 5. November 8 Page-Rank

Mehr

I) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n

I) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y1 = a11x1+ a12x2 + a13x3 y2 = a21x1+ a22x2 + a23x3... Koeffizienten a ij i - te Gleichung (Zeile), i

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 11 1. Juni 2010 Rechenregeln für Determinanten Satz 62. (Determinanten von Dreiecksmatrizen) Es sei A eine obere oder untere n n-dreiecksmatrix.

Mehr

= 9 10 k = 10

= 9 10 k = 10 2 Die Reihe für Dezimalzahlen 1 r = r 0 +r 1 10 +r 1 2 100 + = r k 10 k, wobei r k {0,,9} für k N, konvergiert, da r k 10 k 9 10 k für alle k N und ( 1 ) k 9 10 k 9 = 9 = 10 1 1 = 10 10 k=0 k=0 aufgrund

Mehr

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 10

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 10 D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler Lösungen Serie 10 1. Für a 1 : 1 1 0, a 2 : 1 1, a 3 : 1 1 1, b : 2 2 2 1 und A : (a 1, a 2, a 3 ) gelten welche der folgenden Aussagen? (a) det(a)

Mehr

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte Mathematik I Matrizen In diesem Kapitel werden wir lernen was Matrizen sind und wie man mit Matrizen rechnet. Matrizen ermöglichen eine kompakte Darstellungsform vieler mathematischer Strukturen. Zum Darstellung

Mehr

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2.

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2. Definition Die rechteckige Anordnung von m n Elementen a ij in m Zeilen und n Spalten heißt m n- Matrix. Gewöhnlich handelt es sich bei den Elementen a ij der Matrix um reelle Zahlen. Man nennt das Paar

Mehr

6 Lineare Algebra. 6.1 Einführung

6 Lineare Algebra. 6.1 Einführung 6 Lineare Algebra 6.1 Einführung Die lineare Algebra ist für die Wirtschaftswissenschaften von zentraler Bedeutung. Einerseits liefert sie die theoretischen und praktischen Grundlagen für das Lösen linearer

Mehr

Kapitel 14 Lineare Gleichungssysteme

Kapitel 14 Lineare Gleichungssysteme Kapitel 4 Lineare Gleichungssysteme Kapitel 4 Lineare Gleichungssysteme Mathematischer Vorkurs TU Dortmund Seite 83 / 246 Kapitel 4 Lineare Gleichungssysteme Definition 4. (Lineares Gleichungssystem LGS)

Mehr

a ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen

a ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y 1 = a 11 x 1 + a 12 x 2 + a 13 x3 y 2 = a 21 x 1 + a 22 x 2 + a 23 x3... Koeffizienten a ij i - te Gleichung

Mehr

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,...

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,... Cramersche Regel Satz 2.4. Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei A j := (a,...,a j,b,a j+,...,a n ) also die Matrix, die entsteht, wenn in A die j-spalte durch den

Mehr

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }. 154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =

Mehr

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q:

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q: Lineare Algebra D-MATH, HS 214 Prof Richard Pink Serie 5 1 [Aufgabe] Invertieren Sie folgende Matrizen über Q: 1 a) 1 1 1 1 1 2 1 1 1 b) 1 2 1 1 1 1 2 1 1 1 1 2 1 2 3 1 c) 1 3 3 2 2 1 5 3 1 2 6 1 [Lösung]

Mehr

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 14: Ferienserie

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 14: Ferienserie D-MAVT Lineare Algebra I HS 7 Prof. Dr. N. Hungerbühler Lösungen Serie 4: Ferienserie . Finden Sie ein Erzeugendensystem des Lösungsraums L R 5 des Systems x + x x 3 + 3x 4 x 5 = 3x x + 4x 3 x 4 + 5x 5

Mehr

Diagonalisierbarkeit symmetrischer Matrizen

Diagonalisierbarkeit symmetrischer Matrizen ¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren

Mehr

Blockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 :

Blockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 : Blockmatrizen Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 : 2 1 3 1 1 0 1 0 1 0 0 2 1 1 11 1 1 4 0 1 0 1 0 1 4 1 0 2 1 0 1 0 1 0 3 1 2 1 = 2 4 3 5 11 1 1 4 0 1 0 1 0 1 5 1 2 1 2 4 3 5

Mehr

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n Universität Stuttgart Physik und ihre Didaktik PD Dr Holger Cartarius Matrizen Matrizen: Ein rechteckiges Zahlenschema der Form a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A a m,1 a m,2 a m,n (a) nennt man eine

Mehr

35 Matrixschreibweise für lineare Abbildungen

35 Matrixschreibweise für lineare Abbildungen 35 Matrixschreibweise für lineare Abbildungen 35 Motivation Wir haben gesehen, dass lineare Abbildungen sich durch ihre Wirkung auf die Basisvektoren ausdrücken lassen Mithilfe von Matrizen können wir

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Wir befassen uns anschließend mit der Lösung im allgemeinen nichthomogener linearer Gleichungssysteme in zweifacher Hinsicht. Wir studieren einmal den begrifflichen Aspekt, d.h.

Mehr

Lineare Algebra. Gymnasium Immensee SPF PAM. Bettina Bieri

Lineare Algebra. Gymnasium Immensee SPF PAM. Bettina Bieri Lineare Algebra Gymnasium Immensee SPF PAM Bettina Bieri 6. Oktober 2011 Inhaltsverzeichnis 1 Matrizen 1 1.1 Einleitung............................. 1 1.2 Der Begriff Matrix........................ 1 1.2.1

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 6. Aufgabe 6.1. Dr. V. Gradinaru K. Imeri. Herbstsemester 2018.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 6. Aufgabe 6.1. Dr. V. Gradinaru K. Imeri. Herbstsemester 2018. Dr. V. Gradinaru K. Imeri Herbstsemester 8 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie 6 Aufgabe 6. Multiple Choice: Online abzugeben. 6.a) (i) Welche der folgenden

Mehr

5.2 Rechnen mit Matrizen

5.2 Rechnen mit Matrizen 52 Rechnen mit Matrizen 52 Rechnen mit Matrizen 97 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij

Mehr

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle 2. Matrixalgebra Warum Beschäftigung mit Matrixalgebra? Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle bequeme mathematische

Mehr

5.4 Basis, Lineare Abhängigkeit

5.4 Basis, Lineare Abhängigkeit die allgemeine Lösung des homogenen Systems. Wieder ist 2 0 L i = L h + 0 1 Wir fassen noch einmal zusammen: Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbekannten hat n Rang(A)

Mehr

3 Invertierbare Matrizen Die Inverse einer (2 2)-Matrix Eigenschaften invertierbarer Matrizen... 18

3 Invertierbare Matrizen Die Inverse einer (2 2)-Matrix Eigenschaften invertierbarer Matrizen... 18 Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik 2 Dr. Thomas Zehrt Vektoren und Matrizen Inhaltsverzeichnis Vektoren(Wiederholung bzw. Selbststudium 2. Linearkombinationen..............................

Mehr

Lösbarkeit linearer Gleichungssysteme

Lösbarkeit linearer Gleichungssysteme Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn

Mehr

3 Lineare Gleichungssysteme

3 Lineare Gleichungssysteme Lineare Gleichungssysteme Wir wissen bereits, dass ein lineares Gleichungssystem genau dann eindeutig lösbar ist, wenn die zugehörige Matrix regulär ist. In diesem Kapitel lernen wir unterschiedliche Verfahren

Mehr