Höhere Mathematik I (LRT) = Mathematik I (BAU)
|
|
- Adolph Schmitz
- vor 7 Jahren
- Abrufe
Transkript
1 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Universität der Bundeswehr München Höhere Mathematik I LRT = Mathematik I BAU Vorlesungsskript Univ. Prof. Dr. sc. math. Joachim Gwinner
2 Inhaltsverzeichnis Gaußsche Elimination 3. Einleitung Ein Beispiel für die Gaußsche Elimination Matrixschreibweise und Matrixmultiplikation Gaußsche Elimination = Faktorisierung in Dreiecksmatrizen. 2.5 Zeilenaustausch, Inverse und Transponierte Allgemeine Vektorräume; Theorie linearer Gleichungssysteme Vektorräume und Unterräume Lösung von m Gleichungen in n Unbekannten Lineare Unabhängigkeit, Basis und Dimension Fundamentale Unterräume Schnitt und Summe von Unterräumen Orthogonalität, Ausgleichsrechnung Skalarprodukt in einem Vektoraum Projektion auf Gerade, Ungleichung von Schwarz Fehlerquadratlösung, Ausgleichsrechnung Orthonormale Basen, orthogonale Matrizen und Gram-Schmidtsche Orthogonalisierung Determinanten Begriff und Eigenschaften der Determinante Formeln für die Determinante Anwendungen der Determinante Eigenwerte, Eigenvektoren, Hauptvektoren Das Eigenwertproblem, das charakteristische Polynom, die charakteristische Gleichung Der Eigenraum, Diagonalisierbarkeit Die Schur-Normalform und Hauptvektoren Wichtige Klassen von Matrizen 6 6. Symmetrische Matrizen, positiv definite Matrizen Hermitesche, unitäre, normale Matrizen
3 Lineare Algebra Gaußsche Elimination. Einleitung Zentrales Problem der linearen Algebra als Teil der Höheren Mathematik: Lösung linearer Gleichungssysteme LGS; einfachster Fall: Anzahl der Unbekannten = Anzahl der Gleichungen = n. Es gibt 2 Methoden: Cramersche Regel: exakte Formel: Unbekannte berechnen sich als Quotienten von zwei n n Determinanten werden später besprochen; praktikabel nur für kleine n 3, insbesondere bei Parametern. 2 Elimination: Idee: Vielfache der. Gleichung im LGS werden von den anderen Gleichungen so subtrahiert, dass in diesen Gleichungen die erste Unbekannte wegfällt. Bleibt ein kleineres System von n Gleichungen in n Unbekannten. Der Prozess wird so lange wiederholt, bis eine Gleichung in einer Unbekannten übrigbleibt, die sofort aufgelöst werden kann. Dann geht man einfach rückwärts und findet die anderen Unbekannten in umgekehrter Reihenfolge ausführlicher in Abschnitt.2. Mit dieser einfachen Eliminationstechnik kommen wir auf folgende tieferliegende Aspekte, die wir in dieser Vorlesung behandeln werden: Die Eliminationsmethode liefert eine Faktorisierung der Koeffizientenmatrix in ein Produkt einer linken/unteren Dreiecks- und einer rechten/oberen Dreiecksmatrix. Motivation für Vektor - und Matrix - Kalkül 2 Manchmal bricht die Eliminationsmethode zusammen! Grund? Theorie der Lösbarkeit linearer Gleichungssysteme 3
4 .2 Ein Beispiel für die Gaußsche Elimination Hier n = 3 2u + v + w = 4u + v = 2. 2u + 2v + w = 7 Unbekannte: u, v, w. Schritt: Subtrahiere Vielfache der. Gleichung von den beiden anderen so, dass in den beiden letzten Gleichungen u eliminiert wird. Also a Subtrahiere das 2-fache von der 2. Gleichung b Subtrahiere das - -fache von der 3. Gleichung Dies liefert folgendes äquivalentes Gleichungssystem 2u + v + w = v 2w = 4 3v + 2w = 8 Hierbei heißt der Koeffizient 2 der ersten Unbekannten in der ersten Gleichung Pivot in diesem ersten Eliminationsschritt. 2. Schritt: Ignoriere. Gleichung; es bleiben 2 Gleichungen mit 2 Unbekannten v, w. Jetzt ist mit dem Pivot = - die Unbekannte v in der dritten Gleichung zu eliminieren. Also c Subtrahiere das -3-fache der 2. Gleichung von der 3. Gleichung. Eliminationsprozess in der Vorwärtsrichtung fertig mit dem vereinfachten System 2u + v + w = v 2w = 4 4w = 4 Rücksubstitution liefert w =, v = 2, u =. Also Gauß-Algorithmus für beliebiges n: Eliminationsprozess heißt schrittweises Zunull Machen der Spalten unterhalb des Pivots durch Subtraktion geeigneter Vielfacher der Pivotgleichung. Rücksubstitution liefert Lösung in umgekehrter Reihenfolge. 4
5 Wann bricht der Algorithmus vorzeitig ab? Im obigen Beispiel Pivots = 2,, alle ; kein Abbrechen. Falls jedoch einer der auftretenden Pivots im voraus nicht bekannt =, Stopp im Eliminationsprozess. Evtl. Abhilfe durch Vertauschen der Gleichungen. Falls dies nicht hilft alle Koeffizienten der betreffenden Variablen = endgültiger Zusammenbruch der Methode unvermeidbar, da das Gleichungssystem nicht lösbar ist oder viele Lösungen hat..3 Matrixschreibweise und Matrixmultiplikation Für größere Gleichungssysteme ist obige Ausführlichkeit nicht praktikabel. Zur vereinfachten Schreibweise verwenden wir Vektoren und Matrizen: Im obigen Beispiel drei unterschiedliche Typen von Größen: Unbekannte u, v, w Rechte Seiten, 2, 7 9 Koeffizienten einer davon = auf der linken Seite Zunächst werden die rechten Seiten, die inhomogenen Terme in den Gleichungen in Vektorschreibweise zusammengefasst zu b = 2 7 dies ist ein 3-dimensionaler Spaltenvektor. Grundlegende Operationen: Addition zweier Vektoren,hervorgehobene Schreibweise b, b, b; Multiplikation eines Vektors mit einem Skalar z.b. ist 2b der Vektor gleicher Richtung wie b, aber doppelter Länge; 2b zeigt in entgegengesetzte Richtung, also 2b = 2 4 4, 2b =
6 Auch die Addition von Vektoren wird in jeder Komponente für sich durchgeführt; zum Beispiel mit c = 4 ist b + c = = Nur Vektoren gleicher Dimension können addiert werden c ist 3-dimensional trotz der Null! Auch die 3 Unbekannten können wir durch einen Vektor darstellen: Unbekannte x = u v w ; Lösung ist x = Koeffizientenmatrix im obigen Beispiel für die Gaußsche Elimination: A = Andere Beispiele für Matrizen: B = C = 2 8 quadratische Matrix, Matrizen n-dimensionale Spaltenvektoren sind n -Matrizen. n-dimensionale Zeilenvektoren sind n-matrizen. Einträge von Matrizen nennt man Elemente. Einträge von Vektoren nennt man Komponenten manchmal auch Koordinaten. Die obigen Operationen für Vektoren, nämlich Addition und skalare Multiplikation, werden auf Matrizen erweitert. Auch bei Matrizen werden skalare Multiplikationen und Additionen elementweise durchgeführt. Beispiel: 6
7 B + C = Multiplikation von Matrix und Vektor: Wir wollen die oben eingeführte Matrix- und Vektornotation einsetzen und im Beispiel das lineare Gleichungssystem. wie folgt umschreiben Ax = b oder mit den obigen Daten ausgeschrieben u v w = Die Matrix-Vektor-Multiplikation Ax wird genauso definiert, dass das ursprüngliche System. reproduziert wird. Also muss die erste Komponente des Produkts Ax entstehen durch Multiplikation der ersten Zeile von A in den Spaltenvektor x : 2 u v w. 2 7 = 2u + v + w.2 Analog liefert 2., bzw. 3. Zeile von A die 2., bzw. 3. Komponente von Ax. Also 2u +v +w Ax = 4u +v ein 3-dimensionaler Spaltenvektor, 2u +2v +w wird gleichgesetzt mit dem Spaltenvektor b gleicher Dimension d.h. entsprechende Komponenten stimmen überein. Somit ist in der Tat Ax = b., ein System aus 3 Gleichungen. Obige Gleichung in.2 ist grundlegend für alle Matrixmultiplikationen! Ausgegangen wird von einem Zeilenvektor und einem Spaltenvektor gleicher Dimension, geliefert wird eine Zahl: das innere Produkt, Skalarprodukt dieser Vektoren. 7
8 Beispiel: = = 7 Produkt einer n- Matrix Zeilenvektor und einer n -Matrix Spaltenvektor ist eine -Matrix Zahl. Bei der Multiplikation einer mehrzeiligen Matrix und eines Vektors sind für jede Zeile diese inneren Produkte zu bilden: Beispiel: = = Die Rechnung zeigt: Das Produkt Ax ist eine Linearkombination der Spalten von A, wobei jede Spalte von A durch die jeweilige Komponente von x gewichtet wird. Im obigen Beispiel: Ax = = = Wie lautet allgemeine Formel für das Produkt Ax? Dazu verwenden wir folgende Bezeichnung für die Einträge von A und x: a ij = Eintrag von A in der i-ten Zeile und j-ten Spalte d.h.. Index gibt Zeilennummer, 2. Index Spaltennummer z. B. a 23 = Bei einer m n-matrix A läuft Index i von bis m, Index j von bis n. Kurz: A = a ij i=,...,m;j=,...,n ; x = x k k=,...,n Ein Index, z. B. k reicht aus für Vektor x, d.h. x k bezeichnet k-te Komponente
9 Damit ist in Summenschreibweise n Ax i = a ij x j i =,..., m j= In dieser Summe werden für die i-te Zeile von A alle Einträge mit der jeweiligen Komponente von x multipliziert. Beachte: Wieder ist die Dimension der Zeilenvektoren von A =Anzahl der Spalten = Dimension des Spaltenvektors x; eine m n-matrix lässt sich mit einem n-dimensionalen Spaltenvektor multiplizieren. Die Matrixform eines Eliminationsschrittes: Im Beispiel: erster Einzelschritt a Auf der rechten Seite wird das 2-fache der. Komponenten von b subtrahiert von der 2. Komponenten von b. Dies lässt sich auch erreichen - so behaupten wir -, indem wir b mit folgender elementarer Matrix E multiplizieren: In der Tat Eb = E = = die ersten und dritten Komponenten bleiben gleich wegen der speziellen Gestalt der ersten und dritten Zeile von E. Die neue Komponente hat den richtigen Wert 4, der in 2 nach dem ersten Eliminationsschritt auftritt. Um Gleichheit aufrechtzuhalten, müssen wir dieselbe Operation auf beide Seiten von Ax = b anwenden, also Vektor Ax von links mit Matrix E multiplizieren: EAx = Eb Matrix-Multiplikation 4 7 i Aus der Gaußschen Elimination bekannt: die ursprüngliche Koeffizientenmatix A sowie Matrix nach dem Eliminationseinzelschritt a und Matrix E, die den Einzelschritt ausführt. Damit sollte im Beispiel für 2 E = 2, A =
10 gelten EA = d.h.. und 3. Zeile von A unverändert in EA, während das 2-fache der. Zeile subtrahiert wurde von der 2. Zeile. Damit ist Matrixmultiplikation konsistent mit den Zeilenoperationen des Eliminationsschrittes a. Gleichungssystem nach Eliminationsschritt schreibt sich entweder als EAx = Eb oder als EAx = Eb. Da neue Matrix EA so konstruiert, dass beide Gleichungen übereinstimmen, sind Klammern überflüssig; es gilt EAx = Eb. ii Weitere Anforderungen an Matrix-Multiplikation: Konsistenz Verträglichkeit mit der alten Definition; d.h. ist B eine Matrix mit einer einzigen Spalte x, so sollte A B = A x sein. Dies führt weiter: Besteht die Matrix B aus mehreren Spalten, z.b. x, x 2, x 3, so sollten hoffentlich die Spalten von A B gerade Ax, Ax 2, Ax 3 sein. Damit ist Matrix-Multiplikation klar: Arbeite das Matrix-Produkt AB spaltenweise mit den Spalten von B ab! Zum Beispiel mit den obigen Daten: erste Spalte von E A = E mal erste Spalte von A entsprechend für die anderen Spalten. = 2 2 iii Dritter Zugang mit den einzelnen Einträgen von AB. Nur eine mögliche Regel: AB ij = inneres Produkt der i-ten Zeile von A und der j-ten Spalte von B. Konsequenz: Anzahl der Spalten von A = Anzahl der Zeilen von B. Wir fassen zusammen:// i: Jede Zeile von AB ist eine Kombination der Zeilen von B, die mit den Einträgen von A gewichtet werden. ii: Wie bei der Matrix-Vektor-Multiplikation ist jede Spalte von AB eine Kombination der Spalten von A, die mit den Einträgen von B gewichtet,
11 werden. Zahlenbeispiel: zunächst elementweise nach iii: A B AB = = jetzt spaltenweise nach ii: Ax mit x eine der 3 Spalten von B, Ax = Linearkombination der Spalten von A, wobei jede Spalte von A durch die entsprechende Komponente von x gewichtet wird = = = , = = schließlich zeilenweise nach i: Um die Zeilen von AB zu erhalten, kombiniere linear die Zeilen von B wie bei der Elimination = = 7 4 8,, = = 7, = = 4 8. Zusammenfassung: i i-te Zeile von AB = i-te Zeile von A mal B ii j-te Spalte von AB = A mal j-te Spalte von B iii AB ij = i-te Zeile von A mal j-te Spalte von B
12 Passen die Dimensionen von den Matrizen A, B, C und D, so gelten Distributivgesetze: AB + C = AB + AC; B + CD = BD + CD Assoziativgesetz: ABC = ABC Achtung: Matrixprodukt ist nicht kommutativ, i.a. AB BA. Z.B. wie oben zum Eliminations-Einzelschritt zu a E = 2, analog zu c F = 3 Dann wie im Eliminationsverfahren F E = 2 [in die 3. Glg. geht über die 2. Glg. die. Glg ein!] 6 3 dagegen EF = 2 3 [die 3. Glg. ist unabhängig von der. Glg.!] Wichtige n n-matrix, die mit jeder n n-matrix kommutiert: Einheitsmatrix Identität I auf Hauptdiagonale, sonst Es gilt IA = AI = A..4 Gaußsche Elimination = Faktorisierung in Dreiecksmatrizen Nochmals unser Gleichungssystem Ax = b, d.h. 2 u 4 v = 2 2 w Die 3 Eliminationseinzelschritte 2 7 a Subtrahiere das 2-fache der. Gleichung von der 2. Gleichung b Subtrahiere das --fache der. Gleichung von der 3. Gleichung 2
13 c Subtrahiere das -3-fache der 2. Gleichung von der 3. Gleichung führten auf das einfachere äquivalente System Rx = u v w = 4 4 = c.3 Neue Koeffizientenmatrix R ist eine obere rechte Dreiecksmatrix; alle Einträge links der Hauptdiagonalen sind. Beziehung zwischen A und R? Der Einzelschritt a wird durch die obige Matrix E geliefert, die wir jetzt mit E 2 bezeichnen: die 2. Zeile bzw. Gleichung wird durch ein Vielfaches der. Zeile bzw. Gleichung abgeändert und sie produziert eine als 2, -Eintrag der Koeffizienten-Matrix. Also zu b und zu c gehören E 3 = E 2 = 2 und E 32 = 3 Diese heißen Elementarmatrizen, die allgemein folgendermaßen zu bilden sind: Wird das l ij -fache der j-ten Gleichung von der i-ten Gleichung subtrahiert, so ersetze nur in der Identität I die Null in der i-ten Zeile und j-ten Spalte durch l ij und erhalte so E ij. Alle diese Elementarmatrizen sind untere linke Dreiecksmatrizen mit en auf der Hauptdiagonalen. Die 3 Matrixoperationen, die A in R überführen, sind also entsprechend für die inhomogenen Terme E 32 E 3 E 2 A = R,.4 E 32 E 3 E 2 b = c..5 3
14 In unserem Beispiel ist E 32 E 3 E 2 = Jetzt zur wichtigeren Frage nach der Umkehrung: Wie kommt man von R zurück zu A? Wie lassen sich die Einzel-Schritte im Gaußschen Verfahren umkehren invertieren? Nicht schwierig für einen Einzelschritt, z.b. a: Anstelle der Subtraktion, addiere das 2-fache der. Gleichung zur 2. Gleichung Also wird die Elementarmatrix E 2 invertiert durch eine andere Elementarmatrix mit +2 an der Stelle, wo zuvor 2 stand: Es gilt: E 2 = 2 E 2 E 2 = I, E 2 E 2 = I.7 Jede Matrix ist jeweils die Inverse der anderen. Genauso für b und c: Inversion durch Wiederaufaddieren, was in b und c subtrahiert wurde; also E 3 = und E 32 = 3. Jetzt wollen wir den ganzen Prozess in einem umkehren, um sofort von R zurück zu A kommen. Beachte: Schritt c war der letzte Einzelschritt von A nach R, muss daher als erster invertiert werden, wenn wir in umgekehrter Richtung gehen. Dies ist eine allgemeine Regel: Die Inversen kommen in der Reihenfolge, die der ursprünglichen Folge der Matrixoperationen entgegengesetzt ist. Also nach der Inversen zu c die Inverse zu b und dann Inverse zu a, damit Inversion von.4 A = E2 E 3 E 32 R.8 4
15 Zur Kontrolle setze R = E 32 E 3 E 2 A ein, dann fressen sich die Produkte wie E32 E 32 auf. Jetzt können wir die Matrix L berechnen, die R auf A zurückführt. L muss das Produkt der 3 Matrizen sein, die die Einzelschritte umkehren; sie steckt schon in.8 L = E2 E3 E32, so dass A = LR.9 Die Matrix L ist der Schlüssel zur Gaußschen Elimination. L ist eine untere linke Dreiecksmatrix mit en auf Hauptdiagonale. Noch mehr: Die Einträge links der Hauptdiagonalen sind genau die Faktoren 2, und 3 der einzelnen Eliminationseinzelschritte! Die Elementarmatrizen werden so hintereinander multipliziert, dass ihr Produkt gleich aus den Einträgen der einzelnen Elementarmatrizen abgelesen werden kann. D.h. sei allgemein l ij die Größe, mit der die Zeile j multipliziert wird bei der Subtraktion von Zeile i, um als i, j-eintrag zu erzeugen, dann ist l ij = der i, j-eintrag von L für i > j Achtung: Dies ist nicht so beim Produkt E 32 E 3 E 2 in.6. Übung: Multipliziere Matrix in.6 mit L, um zu zeigen, dass diese Matrix = L. Obige Überlegungen unabhängig von der Größe des Gleichungssystems: Stecke die Faktoren in die Matrix L und erhalte die Faktorisierung A = LR mit linker Dreiecksmatrix L und rechter Dreiecksmatrix R. Zusammenfassung: Die Matrix R entsteht zeilenweise im Eliminationsverfahren und enthält die Zahlen nach der Elimination. Jede Zeile von R entsteht aus einer Zeile von A durch Subtraktion von Vielfachen von zuvor entstandenen Zeilen von R: Zeile i von R = Zeile i von A l i mal Zeile von R l i2 mal Zeile 2 von R +... l ii mal Zeile i von R 5
16 Das Produkt LR addiert jene Vielfache zurück und stellt die ursprüngliche Matrix A wieder her: Zeile i von A = l i mal Zeile von R +l i2 mal Zeile 2 von R l ii mal Zeile i von R + mal Zeile i von R Beispiel: für LR = A = Einzige Voraussetzung: Alle Einträge auf der Hauptdiagonalen während des Verfahrens Hauptdiagonale der Koeffizientenmatrix sind. Matrix-Beschreibung der Gaußschen Elimination im folgenden Satz. Solange keine -Einträge auf der Hauptdiagonalen auftreten, lässt sich Matrix A schreiben als ein Produkt einer linken Dreiecksmatrix L und einer rechten Dreiecksmatrix R, d.h. A = LR. Auf der Hauptdiagonalen von L stehen lauter en; die Elemente von L, die links der Hauptdiagonale stehen sind die Faktoren l ij, mit der die Zeile j multipliziert wird bei der Subtraktion von der Zeile i während der Elimination. R ist die Koeffizientenmatrix, die nach der Elimination und vor der Rücksubstitution auftritt; ihre Hauptdiagonaleinträge sind die Pivots. Praktischer Vorteil der LR-Faktorisierung: Wozu L speichern? Es reicht doch R, um die Lösung x aus Rx = c zu bekommen! Ist A = LR bekannt, so löse statt Ax = b die zwei Dreiecks-Systeme Lc = b Vorwärtssubstitution 2 Rx = c Rückwärtssubstitution in der Tat äquivalent, denn multipliziere 2 mit L : LRx = Lc Ax = b. Vorwärtssubstitution erfordert wesentlich weniger Rechenaufwand bei großen Dimensionen als Elimination, also LR-Faktorisierung von Vorteil bei z.b. mehreren rechten Seiten b. 6
17 .5 Zeilenaustausch, Inverse und Transponierte Jetzt behandeln wir den Fall von -Einträgen auf der Hauptdiagonalen. Zum Beispiel gleich am Anfang 2 u b = 3 4 v [Schwierigkeit: Mit keinem Vielfachen der. Gleichung lässt sich der Koeffizient 3 zu Null machen.] Abhilfe: Tausche die beiden Gleichungen aus: u v = b2 b b 2 Unbekannte u und v werden nicht vertauscht In Matrixschreibweise erzeugt die Permutationsmatrix P = den Zeilenaustausch; denn P A = = und es gilt die Äquivalenz Ax = b P Ax = P b, denn nochmalige Multiplikation mit P stellt ursprüngliche Koeffizienten-Matrix A wieder her, d.h. P P = I, P = P Schwierigkeit kann aber nicht immer behoben werden, hierzu Beispiel: A = d 6 c 7 8 wieder Hauptdiagonalelement, hier a 22 = Die Schwierigkeit bei der Elimination ist jedoch abhängig von c. Ist c =, Schwierigkeit nicht behebbar, A heißt singulär. 7
18 Ist c, vertausche Zeilen 2 und 4, wird erreicht durch die Permutationsmatrix P 24 = Insbesondere ist P 24 I = P 24, d.h. P 24 entsteht aus der Einheitsmatrix durch Vertauschen der Zeilen 2 und 4. Allgemein: Permutationsmatrix P kl ist die Einheitsmatrix mit Zeilen k und l vertauscht; die Multiplikation P kl A erzeugt genau diesen Zeilenaustausch in A. Sei c und setze Eliminationsverfahren fort. d = ist eine behebbare Schwierigkeit, denn Vertauschen der 3. und der jetzt 4. Zeile liefert 5 als Pivot und Ax = b P 34 P 24 Ax = P 34 P 24 b, d.h. die ursprüngliche Reihenfolge der Gleichungen war lediglich ungünstig. Ist d, so kann d als 3. Pivot gewählt werden. Allerdings falls d = 5 [Schwierigkeit für den 4. Pivot], ist Matrix A singulär, denn die jetzt 3. und 4. Gleichung haben die gleichen Koeffizienten,, 5, 6. Also keine Lösung, falls zugehörige rechte Seite verschieden; andererseits, falls die beiden Gleichungen übereinstimmen, dann 3 unabhängige Gleichungen in 4 Unbekannten und unendlich viele Lösungen. Zurück zum nichtsingulären Fall und zur LR-Faktorisierung. Wie zuvor erhalten wir rechte Dreiecksmtrix R. Jedoch zerstören i.a. die Permutationsmatrizen die linke Dreiecksmatrix L., d.h. bei Zeilenaustausch ist i.a. A LR. Um dennoch eine Faktorisierung zu erhalten, denken wir uns alle erforderlichen Zeilenaustauschschritte vor dem Eliminationsverfahren durchgeführt, d.h. Wir ersetzen jetzt A durch P A, wobei P = Produkt der einzelnen Permutationsmatrizen P kl, d.h. P ist wieder eine Permutationsmatrix. In der Matrix P A sind die Zeilen so angeordnet, dass während des Gaußschen Eliminationsverfahrens die Pivots auf der Hauptdiagonale liegen und zu P A gibt es daher eine LR-Faktorisierung wie gehabt. Satz.2 Im nichtsingulären Fall gibt es eine Permutationsmatrix P, die die Zeilen von A so umordnet, dass P A sich mit Pivots faktorisieren lässt: P A = LR. 8
19 In diesem Fall besitzt Ax = b eine eindeutige Lösung, die durch Elimination mit Zeilenaustausch gefunden wird. Im singulären Fall kann dagegen keine Umordnung Pivots erzeugen. Bemerkung: Eine Permutationsmatrix P hat dieselben Zeilen wie I; einfachster Fall P = I kein Austausch; sonst mindestens 2 Zeilen vertauscht. M.a.W.: P hat in jeder Zeile und jeder Spalte genau einen Eintrag, dieser =. Beispiele für die Inverse: nur für quadratische Matrizen definiert! i Wenn die Elementarmatrix E das Vielfache einer Zeile von einer anderen subtrahiert, dann addiert E dieses Vielfache zurück. = ; a a b b =. ii Wenn die Permutationsmatrix P zwei Zeilen austauscht, dann tauscht P diese wieder zurück; also P = P : =. iii Wenn die Diagonalmatrix D nur Hauptdiagonalelemente d,..., d n besitzt, dann ist D Diagonalmatrix mit den Hauptdiagonalelementen /d,..., /d n : d /d =. d 2 /d 2 Jetzt allgemeine Definition. Eine n n-matrix A heißt invertierbar, wenn es eine n n-matrix B gibt, so dass AB = I und BA = I. B heißt Inverse zu A, bezeichnet durch B = A ; also AA = I und A A = I. [dabei alles quadratische Matrizen gleicher Dimension!] 9
20 klar: A = A. Wenn A und B invertierbar, keine Aussage über A + B, [vgl. in IR : a + b?]; jedoch für AB AB = B A. vgl. frühere Bemerkung über Umkehrung von Folge von Matrixoperationen. [Beweis: Nachweis der Inversen-Eigenschaft: Analog gilt ABB A = ABB A = AIA = AA = I B A AB = B A AB = I] ABC = C B A Wann ist A invertierbar? Lineare Algebra: mehrere verschiedene, aber äquivalente Tests. Hier Test mit Gaußscher Elimination. Sei Zeilenaustausch zugelassen. Im nichtsingulärem Fall liefert Elimination obere rechte Dreiecksmatrix R dies reicht zur Lösung von Ax = b, da dafür A nicht benötigt wird Jetzt erzeugen wir auch Nullen oberhalb rechts der Hauptdiagonalen durch Subtraktion von Vielfachen der Pivotzeile von Zeilen darüber, d.h. durch Multiplikation mit Elementarmatrizen E ij jetzt mit i < j. Dies ist die Gauß - Jordan - Methode. Damit wird A reduziert auf Diagonalmatrix mit den Pivots auf der Hauptdiagonalen, die sofort invertiert werden kann. Also: D E ij P kl E ij A = I [in praxi wird dieses Produkt nicht ausgerechnet!] Produkt in invertierbar, da jeder Faktor invertierbar. Also... = A und... = A; A invertierbar. Damit gezeigt: Eine nichtsinguläre quadratische Matrix d.h. mit Pivots ist invertierbar. Umkehrung gilt auch: Jede invertierbare Matrix ist nichtsingulär. Berechnung von A mit Gauß-Jordan: Anstelle von AA = I; löse spaltenweise Ax j = e j, wobei e j = j-te Spalte von I; d.h. Gleichungssystem mit n rechten Seiten e j. 2
21 Beispiel: Ae e 2 e 3 = jetzt weiter }{{} R 2 }{{} D 2 2 Die Transponierte: }{{} I /2 /2 2 } {{ } A Allgemeiner: Um Spaltenvektoren Spaltenmatrizen von Zeilenvektoren Zeilenmatrizen unterscheiden zu können, verwenden wir das Transponiertzeichen T. Beispiel: c = c c 2 ; c T = c c 2. Definition.2 Die Transponierte A T zu einer m n-matrix A ist die gestürzte Matrix, d.h. A T ij = A ji, 2
22 d.h. spaltenweise, bzw. zeilenweise für A = ã, ã 2,..., ã n ist A T = ã T ã T 2., für A = a T a T 2. a T m ã T n ist AT = a, a 2,..., a m. Also ist A T eine n m-matrix. Klar: A + B T = A T + B T Eigenschaften: i Für eine m n-matrix A und eine n p-matrix B gilt AB T = B T A T wieder Umkehr der Operationen!.2 ii Für eine invertierbare n n-matrix A gilt A T = A T.3 Beweis zu i: Sei A = ã,..., ã j,..., ã n, B = b,..., b l,..., b p. [ Dann ist AB m p-matrix, AB T p m-matrix und ] es gilt für l =,..., p Zeile l von AB T = [ Spalte l von AB] T = [ Linearkombination der Spalten ã j j =,..., n von A gewichtet mit den n Einträgen der l-ten Spalten b l von B] T = Linearkombination der Zeilen ã T j j =,..., n von A T gewichtet mit den n Einträgen der l-ten Zeile b T l von B T = Zeile l von B T A T Beispiel: AB = =
23 B T A T = = Beweis zu ii Sei A invertierbar, also AA = I und A A = I Nehme Transponierte, wende.2 an und I T = I, also A T A T = I und A T A T = I, d.h. A T invertierbar und A T = A T, also.3. Wichtige spezielle Klasse von Matrizen: Definition.3 Eine n n-matrix A heißt symmetrisch, wenn A T = A notwendig quadratisch [Achtung: Eine symmetrische Matrix braucht nicht invertierbar zu sein, z.b. A =!] 23
24 2 Allgemeine Vektorräume; Theorie linearer Gleichungssysteme 2. Vektorräume und Unterräume Die Vektorrechnung mit reellen, bzw. komplexen Spaltenvektoren oder mit Zeilenvektoren motiviert die axiomatische Einführung eines Vektorraumes oder linearen Raumes. Diese verwendet zur präzisen Kurzschreibweise die sogenannten Quantoren es existiert, es existiert genau ein, für alle. Definition 2. Eine Menge V mit den Operationen + Vektoraddition und Multiplikation mit Skalaren heißt Vektorraum über dem Zahlenkörper IK = IR oder IK = IC als Skalarbereich, falls folgende Rechenregeln Axiome gelten: x, y, z V : α, β IK : x + y = y + x x = x x + y + z = x + y + z α β x = α β x : x + = x α x + y = α x + α y x : x + x = α + β x = α x + β x Da wir im Folgenden Elemente von V Vektoren und Elemente von IK Skalare durch ihre Schreibweise unterscheiden, können wir den Multiplikationspunkt für die Multiplikation von Vektoren mit Skalaren einfach weglassen. Zum Begriff eines Vektorräumes - weitere Beispiele : IR n k, der Raum der reellen n k-matrizen z.b. 3 2-Matrizen. Hier sind die Vektoren Matrizen, -Element ist -Matrix usf. Der Raum ist nahezu gleich IR n k im Beispiel IR 6, lediglich werden die Elemente in einem rechteckigen Schema angeordnet, anstatt untereinander als Spaltenvektor. 2 P IN ist der Raum der reellen Polynome p = pt bis zur Ordnung N. Addition und Multiplikation mit Skalaren werden punktweise durchgeführt. -Element ist das -Polynom gegeben durch t =, t. 24
25 Definition 2.2 Ist V Vektorraum über IK und ist U V. Dann heißt U Unterraum, falls i U bezüglich Addition abgeschlossen ist, d.h. x, y U : x + y U oder kurz U + U U, ii U bezüglich Multiplikation mit Skalaren abgeschlossen ist, d.h. x U, α IK : αx U oder kurz IKU U. Kleinster Unterraum: U = {}; größter Unterraum: U = V. Im IR 3 alle möglichen Unterräume: {}, IR 3, außerdem Ebenen durch, Geraden durch. Als weitere Beispiele Unterräume zu allgemeinen linearen Gleichungssystemen Die einfache Beschreibung der Lösbarkeit: Ax = b ist genau dann lösbar, wenn b sich linear aus den Spalten von A kombinieren läßt. führt auf folgenden. Zugang zum Verständnis von Ax = b Spaltenraum zu A = Menge aller Linearkombinationen der Spalten von A bei m n-matrix: = {Ax x IK n } IK m ist ein Unterraum. 2. Zugang zum Verständnis von Ax = b : Nullraum zu A = {x IK n Ax = IK m } IK n. Wieder ein Unterraum. 2.2 Lösung von m Gleichungen in n Unbekannten Zunächst Beispiel ohne rechte Seite Typisches Beispiel einer Stufen -Matrix im Fall: 25
26 R = wobei Pivots ; * beliebige Einträge = oder. Allgemeiner Aufbau einer rechten Stufen-Matrix: i Zuerst kommen die Nichtnull-Zeilen sonst Zeilenaustausch und die Pivots sind die ersten Einträge in diesen Zeilen ii Unterhalb jedes Pivots steht eine Nullspalte durch Elimination iii Jedes Pivot liegt rechts zu dem Pivot der Zeile darüber; dies erzeugt die Stufenform. Wie im quadratischen Fall Eliminationseinzelschritte beschrieben durch Elementarmatrizen [Subtrahiere Vielfaches der Pivotzeile von betreffender Zeile! Inverse: Addiere Vielfaches der Pivotzeile zurück!] Einträge der Vielfachen in quadratischer m m-matrix L. Im Allgemeinen ist Zeilenaustausch, d.h. eine Permutationsmatrix erforderlich. Keine Ausgrenzung des singulären Falles: Gibt es kein Pivot in einer Spalte, wird zur nächsten Spalte weitergegangen. Satz 2. Zu jeder m n-matrix A gehören eine m m-permutationsmatrix P, eine linke m m Dreiecksmatrix L mit en auf Hauptdiagonalen und eine rechte gestufte gestaffelte m n Matrix R, so daß P A = LR. 2 Jetzt Lösung des homogenen Systems Ax = Rx = Es gibt 2 Gruppen der Unbekannten: Basisvariable gehören zu Spalten mit Pivots, freie Variable gehören zu Spalten ohne Pivots; um die allgemeine Lösung zu Rx = zu finden, ordne den freien Variablen beliebige Werte zu; dann sind Basisvariable vollständig bestimmt und berechnen sich durch Rücksubstitution aus den freien Variablen. 26
27 Betrachte den Fall n > m: d.h. mehr Spalten Unbekannte als Zeilen Gleichungen. Dann gibt es höchstens m Pivots und daher mindestens n m >, also freie Variable. Folgerung: Jedes homogene System Ax = mit mehr Unbekannten als Gleichungen n > m besitzt eine nichttriviale Lösung, d.h. eine Lösung von der trivialen Lösung x = verschieden. 3 Schließlich Lösung des inhomogenen Systems Ax = b b P Ax = P b mit P A = LR nach Gaußscher Elimination Rx = c wobei c = L P b. Sei b Spaltenraum. Berechne die Lösungen zu Ax = b wie folgt: Ordne den freien Variablen beliebige Werte zu, dann bestimme die Basisvariable durch Rücksubstitution. Zusammenfassung: Durch Elementaroperationen und Zeilenaustausch werde die m n-matrix A auf eine rechte Stufen-Matrix R reduziert und die Faktorisierung P A = LR erhalten. Dabei bestehe R aus r Nichtnullzeilen und aus den letzten m r Nullzeilen. Als Pivot wird jeweils der erste Eintrag in den Nichtnullzeilen gewählt. Dann gibt es r Basisvariablen und n r freie Variablen, die den Spalten von R mit, bzw. ohne Pivots entsprechen. Der Nullraum von A hat diese n r freie Variablen als unabhängige Parameter. Gilt r = n, dann gibt es keine freie Parameter und der Nullraum enthält nur den Nullvektor, d.h. Ax = besitzt nur die triviale Lösung. Lösungen zu Ax = b existieren für jede beliebige rechte Seite dann und nur dann, wenn r = m ist. In diesem Fall besitzt R keine Nullzeilen und Rx = c mit Lc = P b wird gelöst durch Rücksubstitution. Falls dagegen r < m gilt, ist die Anzahl der Nullzeilen m r >, und es gibt m r Bedingungen an b für die Lösbarkeit von Ax = b. Falls eine spezielle Lösung zu Ax = b existiert, ergibt sich hieraus jede andere Lösung zu Ax = b durch Addition eines Vektors aus dem Nullraum von A. In diesem Fall gilt: Allgemeine Lösung = spezielle Lösung + allgemeine Lösung zu Ax = des zu Ax = b homogenen Systems. 27
28 2.3 Lineare Unabhängigkeit, Basis und Dimension Definition 2.3 Rang r einer Matrix A = Anzahl der Pivots im Eliminationsprozeß = Anzahl der Nichtnull-Zeilen in R = Siehe unten Anzahl der unabhängigen Zeilen in A Definition 2.4 Gegeben seien Vektoren v...., v k in einem Vektorraum V über IK. Ist jede nichttriviale Linearkombination der v,..., v k mit Linearkoeffizienten γ,..., γ k IK vom Null-Vektor verschieden, d.h. k γ j v j =, γ j IK γ j = für j =,..., k; j= dann heißen die Vektoren v,..., v k linear unabhängig. Andernfalls heißen sie linear abhängig mindestens einer von ihnen ist eine Linearkombination der anderen. Betrachte allgemein Stufenmatrizen: Die r Nichtnullzeilen, sowie die r Spalten, die Pivots enthalten, sind bei einer Stufen-Matrix linear unabhängig. Test auf lineare UnAbhängigkeit von Vektoren v,..., v k IK m : Bilde Matrix A IK m k aus den k Spalten v,..., v k ; löse homogenes Gleichungssystem Ax = ; linear abhängig es existiert mindestens eine nichttriviale Lösung es existiert eine freie Variable Rang r < k linear unabhängig Nullraum = {} Rang = k Spezialfall: Seien v,..., v k IK m, es gelte k > m. Da die Anzahl der Pivots der Anzahl der Zeilen = m < k, existiert mindestens eine nicht triviale Lösung. Also: Folgerung: Eine Menge von k Vektoren im IK m ist bei k > m stets linear abhängig. Definition 2.5 Besteht ein Vektorraum V insbesondere ein Unterraum V aus allen Linearkombinationen spezieller Vektoren w,..., w l, dann spannen diese Vektoren w,..., w l, diesen Vektorraum V auf, mit anderen Worten V = {γ w γ l w l γ,..., γ l IK} 2. 28
29 oder kurz l V = IK w j. j= Bemerkung: Linearkoeffizienten γ j in 2. brauchen nicht eindeutig zu sein; aufspannende Menge kann groß sein, ein w j = zugelassen. Beispiele i Sei A IK m n. Spaltenraum aufgespannt von n Spalten IK m IK m Zeilenraum aufgespannt von m Zeilen IK n IK n ii Die Koordinatenvektoren im IR n : e =.,..., e n = spannen IR n auf; denn für beliebigen Vektor x = x x 2. x n. n IRn ist x = x i e i. 2.2 i= Definition 2.6 Eine Menge von Vektoren in Vektorraum V, die linear unabhängig ist, 2 den Vektorraum V aufgespannt heißt Basis von V. Bei einer Basis {w,..., w l } sind Linearkoeffizienten in 2. eindeutig. Bemerkung: Jedoch ist eine Basis in einem Vektorraum nicht eindeutig bestimmt. Beispiel: Spaltenraum zur gestuften Matrix R: mehrere Möglichkeiten einer Basis! spezielle Wahl: Spalten, die die Pivots enthalten, sind eine Basis des Spaltenraums von R. 29
30 Satz 2.2 Seien v,..., v m und w,... w n beides Basen für denselben Vektorraum V. Dann gilt m = n. Definition 2.7 Die Anzahl der Vektoren in einer Basis für einen Vektorraum V heißt Dimension von V ; in Zeichen dim V. Beispiele: dim {} = Nach wie vor sprechen wir von einem n-dimensionalen Spaltenvektor x, d.h. x besteht aus n Komponenten oder kurz x IR n bzw. x IC n. Ein solcher Vektor x spannt einen -dimensionalen Unterraum auf. Mit obigem Satz gilt: In einem Unterraum der Dimension k können nicht mehr als k Vektoren linear unabhängig sein, und es können nicht weniger als k Vektoren den Raum aufspannen. Mit anderen Worten: Eine Basis ist eine maximale linear unabhängige Menge von Vektoren. Eine linear unabhängige Menge kann durch evtl. Hinzufügen weiterer Vektoren zu einer Basis erweitert werden; aus einer aufspannenden Menge kann durch eventuelles Streichen von Vektoren eine Basis erzeugt werden. 2.4 Fundamentale Unterräume 2 Darstellungen für Unterräume vgl. Beispiele aus 2.2: Parameterdarstellung oder Gleichungsdarstellung. Jede Matrix A IK m n definiert die Abbildung x IK n Ax IK m. Diese Abbildung ist linear, d.h. x, x IK n, α K Ax + x = Ax + Ax ; Aαx = αax Zu einer Matrix A IK m n und der dadurch gegebenen linearen Abbildung A führen wir folgende Bezeichnungen ein: N A = {x IK n Ax = IK m} IK n Nullraum, Kern der linearen Abbildung A BA = {b IK m b = Ax, x IK n } IK m Spaltenraum, Bild der linearen Abbildung A 3
31 . Der Zeilenraum von A = BA T Zunächst Zeilenraum von R = Stufenmatrix zu A aus Eliminationsprozeß ist einfach: dim BR T = r mit Basis aus r Nichtnull-Zeilen. Satz: Die Zeilenräume von A und R sind gleich, haben daher gleiche Dimension r und gleiche Basis. Konstruktion einer Basis: Einfach die r Nichtnull-Zeilen von R nehmen, anstatt r der m Zeilen von A auszuwählen! 2. Der Nullraum von A, N A IK n Elimination mit rechter Seite = führt auf Ax = Rx =. Also N A = N R; von den m Gleichungen in Ax = sind nur r unabhängig. Diese sind durch die Auswahl von r linear unabhängigen Zeilen von A oder einfacher durch die r Nichtnull-Zeilen von R gegeben. Folgerung: dim N A = n r Konstruktion einer Basis in N A: Vereinfache Ax = zu Rx =. Dazu gehören n r freie Variable, die den Spalten von R ohne Pivots entsprechen. Dann setze abwechselnd eine der freien Variablen auf, die anderen Variablen zu und löse Rx = mit Rücksubstitution nach den restlichen Basisvariablen auf. Die so erzeugten n r Vektoren sind eine Basis in N A. Bezeichnung: dim Kern = Defekt 3. Der Spaltenraum von A, in Zeichen BA Beachte: Spaltenraum von A Spaltenraum von R! Konstruktion einer Basis in BA: Eine Basis in BA wird aus jenen r Spalten von A gebildet, die den Spalten von R entsprechen, die die Pivots enthalten. Folgerungen: dim BA = r, Anzahl linear unabhängiger Spalten = Anzahl linear unabhängiger Zeilen. Einer der wichtigsten Sätze der linearen Algebra: dim BA = r = dim BA T Spaltenrang = Zeilenrang 3
32 Speziell für quadratische Matrizen: Falls die Zeilen linear unabhängig sind, sind auch die Spalten linear unabhängig und umgekehrt. Rangkriterien für die Lösbarkeit linearer Gleichungssysteme Ax = b. Sei wieder A m n-matrix. Stets Rang A = r min{m, n} Bezeichnung: A, b sei die um b erweiterte Matrix A, d.h. die Matrix, die durch Hinzufügen von b als n + ter Spalte entsteht. Satz 2.3 I Existenz Ax = b besitzt für ein b IK m mindestens eine Lösung x IK n Rang A = Rang A, b Insbesondere lösbar für jedes b IK m Rang A = m n II Eindeutigkeit Ax = b besitzt für jedes b IK m A = n m höchstens eine Lösung x Rang Im Spezialfall einer quadratischen Matrix A m = n gilt: Existenz für jede rechte Seite Eindeutigkeit der Lösung 32
33 Übersicht über die Lösung linearer Gleichungssysteme 33
34 2.5 Schnitt und Summe von Unterräumen Zu einem Paar U, U 2 von Unterräumen z.b. Spaltenräume, Nullräume von Matrizen eines selben Vektorraumes bilden wir einen neuen Unterraum. Analog lassen sich Unterräume aus mehr als 2 Unterräume bilden.. Der Schnitt Satz 2.4 Sind U und U 2 beides Unterräume eines Vektorraumes, dann auch ihr Schnitt U U 2. Beispiele: i Im Raum der reellen n n-matrizen V = IR n n sei U =: L der Unterraum der linken Dreiecksmatrizen und U 2 =: R der Unterraum der rechten Dreiecksmatrizen. Dann ist L R = D Unterraum der Diagonalmatrizen ii Seien U k = N A k IR n für k =, 2 wobei A k IR m k n feste Matrizen. Dann ist U U 2 = {x IR n A x = und A 2 x = } mit C = = {x IR n A A 2 A A 2 IR m +m 2 n x = } = {x IR n Cx = } Nehmen wir anstelle des Schnittes die Vereinigung, so erhalten wir i.a. keinen Unterraum; z.b. x x U = { x IR}, U 2 = { x IR}, x + = 2 U U 2 Stattdessen betrachten wir 2. Die Summe Satz 2.5 Sind U und U 2 beides Unterräume eines Vektorraumes, dann auch ihre Summe U + U 2 = {x = x + x 2 x U, x 2 U 2 } 34
35 Beispiele: i U = L, U 2 = R wie oben, dann L + R = IR n n Darstellung nicht eindeutig! Hauptdiagonale läßt sich unterschiedlich aufteilen! ii U i = BA i = {y IK m y = A i x i für ein x i IK n i } für A i m n i Matrix i =, 2 Dann x U + U 2 = {y = A x + A 2 x 2 = A, A 2 x IK n und x 2 IK n 2 } und = BQ mit Q = A A 2 vom Typ m n + n 2 x 2 dim U +U 2 dim U + dim U 2 U und U 2 können sich überlappen! Aber es gilt dim U + U 2 = Rang Q 2.3 U und U 2 seien durch Basen {u,..., u n }, bzw. {w,..., w n2 } gegeben. Bilde: Q = u,..., u n, w,..., w n2, also m n + n 2 -Matrix, Man kann zeigen: dim U U 2 = dim N Q = DefektQ Die Dimensionsformel Gilt A = u,..., u n, A 2 = w,..., w n2, dann folgt aus 2.3 und 2.4 dim U + U 2 + dim U U 2 = Rang Q + Defekt Q Nach 2.4 Rang + Defekt = Anzahl Spalten hier für Q = n + n 2 Zudem dim U = n, dim U 2 = n 2 dim U + U 2 + dim U U 2 = dim U + dim U Beispiel: U = L, W = R wie oben; L + R = IR n n, L R = D; also n 2 + n = nn + + nn
36 3 Orthogonalität, Ausgleichsrechnung 3. Skalarprodukt in einem Vektoraum Neben Addition und Multiplikation mit Skalaren jetzt weitere algebraische Operation: inneres Produkt oder Skalarprodukt mit Anwendungen z.b. in der Längenmessung oder Winkelmessung. Zuerst reeller Fall. Definition 3. Sei V Vektorraum über IR. Eine Abbildung x, y V V x y IR heißt inneres Produkt auf V, falls x, y, z V ; λ IR gilt I x y = y x Symmetrie II λx + y z = λx z + y z Linearität III x x > falls x positive Definitheit Man nennt x := x x die euklidische Norm oder den Betrag, die Länge von x. Im IR n lassen sich verschiedene innere Produkte einführen. Hierzu sei {a,..., a n } eine beliebige Basis im IR n. n n Dann setze zu beliebigen x = ξ k a k, y = η k a k IR n als inneres Produkt k= k= n x y = ξ k η k. k= I - II einfach nachzuweisen entsprechende Rechengesetze im Körper IR n zu III: stets gilt x x = ξk 2 ; k= n Sei x x = ξk 2 = ξk 2 = k =,..., n k= ξ k = k =,..., n x = Standardfall kanonischer Fall : Wir wählen die Standardbasis, d.h. seien a k := e k k =,..., n die Koordinatenvektoren im IR n. Dann ist für beliebige x y x = n. = x k e k und y =. = n y k e k k= k= x n y n 36
37 n x y := x k y k = x T y 3. k= n und x x =: x 2 = x 2 k Pythagoras. k= Jetzt komplexer Fall. Betrachten wir den Vektorraum IC n über IC als Skalarbereich, d.h. den Raum aller Spaltenvektoren mit n komplexen Komponenten. Wie lässt sich hier ein Skalarprodukt einführen, das möglichst die obigen Rechenregeln I - III erfüllt? Weil es in IC keine Ordnung gibt und daher für z IC die Ungleichung z 2 sinnlos ist, muss die Definition der Norm von Vektoren und daher die Definition des Skalarproduktes modifiziert werden. Definition 3.2 Sei V Vektorraum über IC. Eine Abbildung x, y V V x, y IC heißt Skalarprodukt auf V, falls x, y, z V ; λ IC gilt SP x, λ y + z = λ x, y + x, z Linearität im 2. Argument, SP2 x, y = y, x Antisymmetrie, SP3 x, x > falls x positive Definitheit. Wegen SP2 ist x, x IR, man kann sogar aus SP und SP3 schließen auf x, x. Aus SP und SP2 folgt, daß das Skalarprodukt.,. antilinear im ersten Argument ist: αx + βy, z = z, αx + βy = α z, x + β z, y = α x, z + β y, z. Im IC n lassen sich genauso verschiedene innere Produkte einführen. Hierzu sei {a,..., a n } eine beliebige Basis im IC n. n n Dann setze zu beliebigen x = ξ k a k, y = η k a k IC n als Skalarprodukt k= k= n x, y := ξ k η k. k= Im Standardfall kanonischer Fall mit der Basis der Koordinatenvektoren wird das Skalarprodukt x, y = n k= x k y k = x T y IC für x, y IC n. 37
38 Wir führen als Kurzschreibweise für die konjugierte Transponierte * oder auch gebräuchlich H für Hermitesche Transponierte allgemein für Matrizen ein: A = A mit Einträgen A kl = A lk. Damit ist i Skalarprodukt x, y = x y; ii Norm x = x x 2 iii AB = B A Achtung! Der suggeriert wie der Malpunkt eine kommutative Operation! Bei der nichtkommutativen Matrizenmultiplikation haben wir den Malpunkt weggelassen. Im Unterschied zum Malpunkt bei der Multiplikation/beim inneren Produkt wirkt in A wie T in A T nur auf das vorstehende Objekt. Die Operation mit 2 Objekten A und B in A B kommt nur durch die übliche Matrizenmultiplikation zu Stande. Daher setzen wir stets oben analog zu T wie in x y = x T y im reellen Fall und schreiben speziell für Vektoren z w im allgemeineren komplexen Fall. Definition 3.3 In einem Vektorraum V mit Skalarprodukt über dem Zahlenkörper IK = IR oder IK = IC als Skalarbereich heißen Vektoren x, y V orthogonal, in Zeichen x y, genau dann wenn x y = falls IK = IR ; x, y = falls IK = IC. Beispiele: x y = für alle y V x x = x 2 = x = und Umkehrung ist trivial Die Koordinatenvektoren e j in IR n und in IC n sind paarweise orthogonal und haben Norm =, Orthonormalbasis, vgl. später. Zusammenhang mit linearer Unabhängigkeit: Sind die Vektoren v,..., v N V alle und paarweise orthogonal, dann sind sie linear unabhängig. Erweiterung auf Unterräume: 38
39 Definition 3.4 Zwei Unterräume U, W eines Vektorraumes mit Skalarprodukt heißen orthogonal, in Zeichen U W, falls für alle u U, w W gilt u w. Beispiel: Betrachte im Anschauungsraum IR 3 alle möglichen Unterräume: Gerade, Ebene durch, {}, IR 3. Zwei Ebenen können nicht zueinander orthogonal sein! Anwendung auf fundamentale Unterräume einer Matrix: Sei A eine reelle IK = IR oder allgemeiner komplexe IK = IC m n-matrix. Dann sind Nullraum N A, konjugiert komplexer Zeilenraum BA IK n ; Spaltenraum BA IK m. Im folgenden verwenden wir die kanonische Darstellung, d.h. für 2 Spaltenvektoren x, y ist x, y = x y. Dann kann man zeigen : N A BA. Beispiel: A = R = 4 Nur 2. Variable ist Basisvariable, alle anderen sind frei. Löse Rx = und erhalte setze abwechselnd eine der freien Variablen = als eine Basis für N A die 3 Vektoren, 4 und sind zu Für die Dimensionen gilt: dim N A+ dim BA T = n r + r = 3 + = 4 Es gilt noch mehr: Jeder Vektor, der orthogonal zu 4, d. h. orthogonal zu BAT, liegt in N A; 4 und 2 8. jeder Vektor, der orthogonal zu, 4, und, d.h. zu N A 39
40 ist linear abhängig von 4, d.h. liegt in BAT. Um dies kurz auszudrücken, brauchen wir folgende Definition. Definition 3.5 Sei U ein Unterraum in einem Vektorraum V mit Skalarprodukt. Dann ist das orthogonale Komplement U von U geschrieben U ortho die Teilmenge aller Vektoren orthogonal zu U, also U = {v V v u u U}. U ist selbst wieder Unterraum; klar ist {} = V, V = {} und es gilt U + U 2 = U U Zurück zu den fundamentalen Unterräumen, sei A eine komplexe m n Matrix, wir verwenden die kanonische Darstellung. Dann gilt der Satz 3. Fundamentalsatz der linearen Algebra N A = BA ; BA = N A. Beachte zwei Unterräume U und W können orthogonal sein, ohne orthogonales Komplement des jeweils anderen zu sein. Z. B. im Anschauungsraum IR 3 können zwei Geraden durch orthogonal sein, sind jedoch nie orthogonales Komplement voneinander. Dazu sind ihre Dimensionen zu klein! Addieren sich Dimensionen der Unterräume zur Dimension des Raumes, dann erhalten wir orthogonale Komplemente wie oben bei N A und BA. Folgerung : Sind U und W Unterräume des IK n, dann sind äquivalent i W = U ; ii U = W ; iii U W und dim U+ dim W = n. 4
41 Dann ist IK n = U W, d.h. x IK n u U, w W : x = u + w. Folgerung 2: Im IK n gilt für Unterräume U, U, U 2 Weitere Beispiele zur Orthogonalität: U = U; 3.3 U U 2 = U + U Anschauungsraum V = IR 3 kanonisch x y = x T y x x 2 -Ebene und x x 3 -Ebene enthalten e, können daher nicht orthogonal sein! 2. Sei V = IR 2 2 A B := A B A 22 B 22. Es ist D = {Diagonalmatrizen} R = {rechte Dreieckmatrizen mit auf Hauptdiagonale} L = {linke Dreieckmatrizen mit auf Hauptdiagonale} Hierzu orthogonales Komplement Analog in V = IC N N A, B := N k,l= D R, D L, D = R + L. D = R + L = R L. A kl B kl ; A F = N k,l= 3. Fundamentale Unterräume zu einer festen Matrix kanonischer Fall x, y = x y A kl 2 2 Frobenius-Norm. A = i i + i i i R = 4 i i + i ; r =
42 N A hat als eine Basis, i Zeilenraum von A = Zeilenraum von R BA = BR, also BA aufgespannt von entnommen aus R! i i i In der Tat: i i i, + i i i i ; denn einfach i + i = und + i i + i = i i + i =. Umgekehrt sei z BA oder i i i z z 2 z 3 iz iz iz 3 = Rz = z N A. Also BA = N A. 3.2 Projektion auf Gerade, Ungleichung von Schwarz In einem Vektorraum V über IR mit Skalarprodukt seien gegeben: a V \{}, b V mit b IRa Gerade aufgespannt durch a Gesucht: Projektion p = βa des Punktes b auf IRa; β =? 2 Zugänge: Analytisch: Gleichung βa = b nicht lösbar, stattdessen minimiere Fehlerfunktion, kurz F β := βa b 2 Min! 42
43 Geometrisch: Projektion durch Lot von b auf IRa, d.h. b βa a a b βa = β = a b a a Minimaler Wert der Fehlerfunktion: F min = a a b a 2 b2 a a 2 a a a b2 = b b a a. + b b Also ist die Projektion p des Punktes b auf IRa gegeben durch mit dem Abstandsquadrat p = a b a a a 3.5 F min = a b a a a b 2 = b ba a a b2 a a Zähler in 3.6: b ba a a b 2 wegen a a > oder b ba a a b Ungleichung von Cauchy-Schwarz-Buniakowsky: Für beliebige a, b V ist a b a b 3.7 Hierbei gilt = in 3.7 F min = b IRa. 3.7 erlaubt Definition des Winkels a, b := arc cos a b a b. Folgerung: x = x x ist eine Norm, d.h. erfüllt für beliebige x, y V, α IR i αx = α x ii x = x = iii x + y x + y denn iii x + y 2 x + y 2 x, y x y x y x, y
44 3.3 Fehlerquadratlösung, Ausgleichsrechnung Gegeben sei Gleichungssystem Ax = b mit reeller m n-matrix A, aber mit b BA Spaltenraum zu A, also unlösbar, inkonsistent. Gaußsche Elimination versagt zunächst. Ausweg: Fehlerfunktion F x = Ax b 2 Min! Statt Analysis gleich geometrischer Zugang zur Fehlerquadratlösung ˆx im Vektorraum IR n mit kanonischem Skalarprodukt: Fehlervektor f = Aˆx b BA = {y IR m y = Ax, x IR n }. Also Ax T Aˆx b = x T [A T Aˆx A T b] = x IR n A T Aˆx A T b =. Satz 3.2 Fehlerquadratmethode Die Fehlerquadrat-Lösung ˆx eines inkonsistenten Gleichungssystems Ax = b mit m Gleichungen in n Unbekannten erfüllt die Normalengleichungen A T Aˆx = A T b. 3.8 Sind die Spalten von A linear unabhängig, dann ist A T A invertierbar, es gilt ˆx = A T A A T b 3.9 und die Projektion p von b auf den Spaltenraum von A ist gegeben durch p = Aˆx = AA T A A T b. 3. Die Projektionsmatrix Π := AA T A A T hat die beiden Eigenschaften a Π 2 = Π Π = Π, idempotent b Π T = Π, symmetrisch. Umgekehrt stellt jede Matrix Π mit diesen beiden Eigenschaften eine Projektion auf den Spaltenraum von Π dar. 44
45 3.4 Orthonormale Basen, orthogonale Matrizen und Gram-Schmidtsche Orthogonalisierung Definition 3.6 Eine Basis {q,..., q n } im Vektorraum IR n mit kanonischem Skalarprodukt heißt orthonormal, falls q T i q j = δ ij Kronecker-Symbol = {, falls i j Orthogonalität, falls i = j Normierung Sind die n Spalten in A IR m n orthonormal, gilt A T A = I oder A T A = I. 3. In diesem Fall vereinfacht sich die Fehlerquadratmethode in 3.3 zu p = AA T b = a,..., a n = n k= ˆx = A T b, Π = AA T 3.2 a T ḅ. a T nb = at b a a T n b a n Projektion von b auf IRa k 3.3 Definition 3.7 Eine quadratische Matrix Q IR n n mit orthonormalen Spalten q,..., q n heißt orthogonal treffender wäre orthonormal. Folgerung : Für eine orthogonale Matrix Q gilt Q T Q = I, QQ T = I, Q T = Q. 3.4 Somit ist mit Q auch Q T orthogonal. Beispiel: Rotation gegen den Uhrzeigersinn um Winkel ϑ im IR 2 Skizze mit den Elementardefinitionen! gegeben durch cos ϑ sin ϑ Q ϑ =. sin ϑ cos ϑ cos ϑ sin ϑ Q ϑ = Q ϑ = = Q T ϑ sin ϑ cos ϑ 45
46 dreht um Winkel ϑ zurück. Trigonometrische Funktionen des negativen Winkels! 2 Jede Permutationsmatrix P ist orthogonal, denn Spalten sind Einheitsvektoren und orthogonal, da die en an verschiedenen Plätzen in den Spalten stehen. Folgerung 2: Sei Q orthogonale Matrix. Dann gilt für alle x, y IR n Qx T Qy = x T y ; Qx = x. 3.5 Jetzt Methode zur Erzeugung orthonormaler Basen: Orthogonalisierungsverfahren von Gram-Schmidt Zunächst gegeben: {a, b} linear unabhängig. 2 Setze f := a. Gesucht f 2 so dass f 2 f und IRf j = IRa + IRb. Lösung vgl. 3.2: b p a, wobei p = Projektion von b auf IRa. Daher mit 3.5 f 2 := b p = b at b a T a a = b f T b f T f f. Sei jetzt c weiterer linear unabhängiger Vektor. Lösung genauso: Subtrahiere von c die Komponenten von c in den Richtungen f und f 2, die zuvor festgelegt wurden : j= f 3 := c f T c f T f f f T 2 c f T 2 f 2 f 2 kann nicht werden, da sonst c IRa + IRb, d.h. {a, b, c} linear abhängig! Schließlich Normierung: q = f f, q 2 = f 2 f 2, q 3 = f 3 f 3. Satz 3.3 Jede Menge {a,..., a n } linear unabhängiger Vektoren im IR m, allgemein in einem Vektorraum über IR mit Skalarprodukt kann nach Gram- Schmidt wie folgt orthogonalisiert werden. Setze zuerst f := a und dann im k-ten Schritt k = 2,..., n f k = a k f a k f... f k a k f k. 3.6 f f f k f k 46
Lineare Algebra Mathematical Engineering
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Universität der Bundeswehr München Lineare Algebra Mathematical Engineering Vorlesungsskript Univ. Prof. Dr. sc. math.
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom
Übungsaufgaben 11. Übung: Woche vom 9. 1.-13. 1. 2017 (Numerik): Heft Ü 1: 12.28.a,b; 12.29.b,c (jeweils mit Fehlerabschätzung); 6.26; 6.27.a (auch mit Lagrange-Interpolationspolynom); 6.25; 6.28 (auch
MehrMatrizen, Determinanten, lineare Gleichungssysteme
Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n
MehrAusgewählte Lösungen zu den Übungsblättern 4-5
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit
MehrMathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018
(Analysis und lineare Algebra) im Sommersemester 2018 15. April 2018 1/46 Die Dimension eines Vektorraums Satz 2.27 (Basisergänzungssatz) Sei V ein Vektorraum über einem Körper K. Weiter seien v 1,...,
Mehr3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
MehrBC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2
Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete
MehrKapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41. : x i R, 1 i n x n
Kapitel Vektorräume Josef Leydold Mathematik für VW WS 07/8 Vektorräume / 4 Reeller Vektorraum Die Menge aller Vektoren x mit n Komponenten bezeichnen wir mit x R n =. : x i R, i n x n und wird als n-dimensionaler
MehrKapitel 3. Vektorräume. Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41
Kapitel 3 Vektorräume Josef Leydold Mathematik für VW WS 2017/18 3 Vektorräume 1 / 41 Reeller Vektorraum Die Menge aller Vektoren x mit n Komponenten bezeichnen wir mit R n = x 1. x n : x i R, 1 i n und
Mehr1 Transponieren, Diagonal- und Dreiecksmatrizen
Technische Universität München Thomas Reifenberger Ferienkurs Lineare Algebra für Physiker Vorlesung Mittwoch WS 2008/09 1 Transponieren, Diagonal- und Dreiecksmatrizen Definition 11 Transponierte Matrix
Mehr1 Matrizenrechnung zweiter Teil
MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten
Mehr3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit
3 Lineare Algebra (Teil : Lineare Unabhängigkeit 3. Der Vektorraum R n Die Menge R n aller n-dimensionalen Spalten a reeller Zahlen a,..., a n R bildet bezüglich der Addition a b a + b a + b. +. :=. (53
MehrDiagonalisierbarkeit symmetrischer Matrizen
¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren
MehrKapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49
Kapitel 2 Matrixalgebra Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49 Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS.
MehrInhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015
Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler
MehrKapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49
Kapitel 2 Matrixalgebra Josef Leydold Mathematik für VW WS 207/8 2 Matrixalgebra / 49 Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS.
MehrMatrixalgebra. Kapitel 2. Ein sehr einfaches Leontief-Modell. Matrix. Ein sehr einfaches Leontief-Modell. Vektor. Spezielle Matrizen I
Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS Kapitel 2 Matrixalgebra Technologiematrix und wöchentliche Nachfrage (in Werteinheiten):
MehrKapitel 3 Lineare Algebra
Kapitel 3 Lineare Algebra Inhaltsverzeichnis VEKTOREN... 3 VEKTORRÄUME... 3 LINEARE UNABHÄNGIGKEIT UND BASEN... 4 MATRIZEN... 6 RECHNEN MIT MATRIZEN... 6 INVERTIERBARE MATRIZEN... 6 RANG EINER MATRIX UND
Mehr9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrLineare Gleichungssysteme - Grundlagen
Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente
Mehr1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema
1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und
Mehr4 Determinanten. 4.1 Eigenschaften der Determinante. ME Lineare Algebra HT
ME Lineare Algebra HT 2008 86 4 Determinanten 4. Eigenschaften der Determinante Anstatt die Determinante als eine Funktion IC n n IC durch eine explizite Formel zu definieren, bringen wir zunächst eine
Mehr3 Systeme linearer Gleichungen
3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +
MehrLineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v
Mehr1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen
1 Zum Aufwärmen 1.1 Notationen In diesem Teil der Vorlesung bezeichnen wir Körper mit K, Matrizen mit Buchstaben A,B,..., Vektoren mit u,v,w,... und Skalare mit λ,µ,... Die Menge der m n Matrizen bezeichnen
Mehr12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen
12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn
Mehr10.2 Linearkombinationen
147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition
MehrBesteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)
Matrizenrechnung. Matrizen Matrizen sind bereits im Kapitel Lineare Gleichungssysteme aufgetreten. Unter einer (m n) -Matrix A verstehen wir ein rechteckiges Zahlenschema mit m Zeilen und n Spalten. Der.
MehrVektoren und Matrizen
Universität Basel Wirtschaftswissenschaftliches Zentrum Vektoren und Matrizen Dr. Thomas Zehrt Inhalt: 1. Vektoren (a) Einführung (b) Linearkombinationen (c) Länge eines Vektors (d) Skalarprodukt (e) Geraden
MehrLineare Algebra. Teil III. Inhaltsangabe
Teil III Lineare Algebra Inhaltsangabe 3 Lineare Algebra 22 3.1 Einführung.......................... 22 3.2 Matrizen und Vektoren.................... 23 3.3 Spezielle Matrizen...................... 24
MehrUniversität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n
Universität Stuttgart Physik und ihre Didaktik PD Dr Holger Cartarius Matrizen Matrizen: Ein rechteckiges Zahlenschema der Form a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A a m,1 a m,2 a m,n (a) nennt man eine
MehrLineare Algebra I für Mathematiker Lösungen
Lineare Algebra I für Mathematiker Lösungen Anonymous 24. April 2016 Aufgabe 1 Beantworten Sie bitte die folgenden Fragen. Jeder Vektorraum hat mindestens ein Element. Q ist ein R-Vektorraum (mit der Multiplikation
Mehr5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit
ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem
MehrLösungen zur Prüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende
MehrDer Kern einer Matrix
Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis
Mehr, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.
154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =
Mehr3 Lineare Gleichungssysteme
3 Lineare Gleichungssysteme 3 Fortsetzung des Matrizenkalküls Als erstes beweisen wir einen einfachen Satz über den Rang von Matrizenprodukten Satz 3 (a) Für Matrizen A : Ã l m, B : Ã m n gilt rang AB
MehrMatrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle
2. Matrixalgebra Warum Beschäftigung mit Matrixalgebra? Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle bequeme mathematische
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,
MehrHilfsblätter Lineare Algebra
Hilfsblätter Lineare Algebra Sebastian Suchanek unter Mithilfe von Klaus Flittner Matthias Staab c 2002 by Sebastian Suchanek Printed with L A TEX Inhaltsverzeichnis 1 Vektoren 1 11 Norm 1 12 Addition,
MehrTutorium: Analysis und Lineare Algebra
Tutorium: Analysis und Lineare Algebra Vorbereitung der Bonusklausur am 14052018 (Teil 1) 7 Mai 2018 Steven Köhler mathe@stevenkoehlerde mathestevenkoehlerde 2 c 2018 Steven Köhler 7 Mai 2018 Matrizen
MehrTeil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v.
Teil I Lineare Algebra I Vorlesung Sommersemester 2011 Olga Holtz MA 378 Sprechstunde Fr 14-16 und nv holtz@mathtu-berlinde Sadegh Jokar MA 373 Sprechstunde, Do 12-14 und nv jokar@mathtu-berlinde Kapitel
MehrBeispiele 1. Gegeben ist das lineare System. x+4y +3z = 1 2x+5y +9z = 14 x 3y 2z = 5. Die erweiterte Matrix ist
127 Die Schritte des Gauß-Algorithmus sind nun die Folgenden: 1. Wir bestimmen die am weitesten links stehende Spalte, die Einträge 0 enthält. 2. Ist die oberste Zahl der in Schritt 1 gefundenen Spalte
MehrMischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.
Kapitel 5 Lineare Algebra 5 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
MehrMischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.
Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen
Mehr1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6
Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik Dr. Thomas Zehrt Vektorräume und Rang einer Matrix Inhaltsverzeichnis Lineare Unabhängigkeit. Äquivalente Definition.............................
Mehr1 Einführung Gleichungen und 2 Unbekannte Gleichungen und 3 Unbekannte... 4
Wirtschaftswissenschaftliches Zentrum 3 Universität Basel Mathematik 2 Dr Thomas Zehrt Lineare Gleichungssysteme Inhaltsverzeichnis Einführung 2 2 Gleichungen und 2 Unbekannte 2 2 3 Gleichungen und 3 Unbekannte
Mehr9 Lineare Gleichungssysteme
9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der
Mehr8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrKapitel 16. Invertierbare Matrizen
Kapitel 16. Invertierbare Matrizen Die drei Schritte des Gauß-Algorithmus Bringe erweiterte Matrix [A b] des Gleichungssystems A x auf Zeilenstufenform [A b ]. Das System A x = b ist genau dann lösbar,
Mehr3 Matrizen und Lineare Gleichungssysteme
3 Matrizen und LGS Pink: Lineare Algebra HS 2014 Seite 38 3 Matrizen und Lineare Gleichungssysteme 3.1 Definitionen Sei K ein Körper, und seien m,n,l natürliche Zahlen. Definition: Eine Matrix mit m Zeilen
MehrMatrixoperationen. Einige spezielle Matrizen: Nullmatrix: n-te Einheitsmatrix: E n := 0 d. TU Dresden, WS 2013/14 Mathematik für Informatiker Folie 1
Matrixoperationen Einige spezielle Matrizen: 0 0... 0 Nullmatrix:....... 0 0... 0 1 0... 0 0 1... 0 n-te Einheitsmatrix: E n :=....... 0 0... 1 d 1 0... 0 0 d 2... 0 Diagonalmatrix: diag(d 1,..., d n)
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
MehrTutorium: Analysis und Lineare Algebra
Tutorium: Analysis und Lineare Algebra Vorbereitung der Bonusklausur am 14.5.218 (Teil 2) 9. Mai 218 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 218 Steven Köhler 9. Mai 218 3 c 218
MehrLineare Algebra und analytische Geometrie I
Prof Dr H Brenner Osnabrück WS 2015/2016 Lineare Algebra und analytische Geometrie I Vorlesung 12 Wege entstehen dadurch, dass man sie geht Franz Kafka Invertierbare Matrizen Definition 121 Es sei K ein
Mehrbzw. eine obere Dreiecksmatrix die Gestalt (U: upper)
bzw. eine obere Dreiecksmatrix die Gestalt (U: upper) U = u 11 u 12 u 1n 1 u nn 0 u 22 u 2n 1 u 2n 0......... 0 0 u n 1n 1 u n 1n 0 0 0 u nn Eine nicht notwendig quadratische Matrix A = (a ij ) heißt obere
Mehr35 Matrixschreibweise für lineare Abbildungen
35 Matrixschreibweise für lineare Abbildungen 35 Motivation Wir haben gesehen, dass lineare Abbildungen sich durch ihre Wirkung auf die Basisvektoren ausdrücken lassen Mithilfe von Matrizen können wir
Mehr4 Lineare Algebra (Teil 2): Quadratische Matrizen
4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,
MehrLineare Algebra 1. Roger Burkhardt
Lineare Algebra 1 Roger Burkhardt roger.burkhardt@fhnw.ch Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 2 Rechenoperationen und Gesetze Gleichheit
MehrLineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
MehrBeispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A
133 e 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 2. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 Schritte des
Mehra 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:
Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag
MehrVektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition)
Vektorräume In vielen physikalischen Betrachtungen treten Größen auf, die nicht nur durch ihren Zahlenwert charakterisiert werden, sondern auch durch ihre Richtung Man nennt sie vektorielle Größen im Gegensatz
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
MehrProf. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1
Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Kapitel 3 Lineare Gleichungssysteme 3.1. Einleitung Beispiel 1 3 Kinder haben eingekauft. Franz hat 4 Lakritzen, 2 Schokoriegel und 5 Kaugummis
MehrKapitel 15 Lineare Gleichungssysteme
Kapitel 15 Lineare Gleichungssysteme Kapitel 15 Lineare Gleichungssysteme Mathematischer Vorkurs TU Dortmund Seite 1 / 27 Kapitel 15 Lineare Gleichungssysteme Definition 15.1 (Lineares Gleichungssystem
MehrD-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 14: Ferienserie
D-MAVT Lineare Algebra I HS 7 Prof. Dr. N. Hungerbühler Lösungen Serie 4: Ferienserie . Finden Sie ein Erzeugendensystem des Lösungsraums L R 5 des Systems x + x x 3 + 3x 4 x 5 = 3x x + 4x 3 x 4 + 5x 5
Mehr2 Matrizenrechnung und Lineare Gleichungssysteme
Technische Universität München Florian Ettlinger Ferienkurs Lineare Algebra Vorlesung Dienstag WS 2011/12 2 Matrizenrechnung und Lineare Gleichungssysteme 2.1 Matrizenrechnung 2.1.1 Einführung Vor der
MehrGrundlegende Definitionen aus HM I
Grundlegende Definitionen aus HM I Lucas Kunz. März 206 Inhaltsverzeichnis Vektorraum 2 2 Untervektorraum 2 Lineare Abhängigkeit 2 4 Lineare Hülle und Basis 5 Skalarprodukt 6 Norm 7 Lineare Abbildungen
MehrSpezielle Matrixformen
Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß
MehrBrückenkurs Mathematik. Mittwoch Freitag
Brückenkurs Mathematik Mittwoch 5.10. - Freitag 14.10.2016 Vorlesung 4 Dreiecke, Vektoren, Matrizen, lineare Gleichungssysteme Kai Rothe Technische Universität Hamburg-Harburg Montag 10.10.2016 0 Brückenkurs
Mehr= 9 10 k = 10
2 Die Reihe für Dezimalzahlen 1 r = r 0 +r 1 10 +r 1 2 100 + = r k 10 k, wobei r k {0,,9} für k N, konvergiert, da r k 10 k 9 10 k für alle k N und ( 1 ) k 9 10 k 9 = 9 = 10 1 1 = 10 10 k=0 k=0 aufgrund
MehrMusterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen
Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können
MehrHM II Tutorium 5. Lucas Kunz. 22. Mai 2018
HM II Tutorium 5 Lucas Kunz 22. Mai 2018 Inhaltsverzeichnis 1 Theorie 2 1.1 Wiederholung Lineare Gleichungsysteme................... 2 1.2 Wiederholung: Kern einer Abbildung..................... 3 1.3
Mehr3 Lineare Algebra Vektorräume
3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +
MehrMatrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle
2. Matrixalgebra Warum Beschäftigung mit Matrixalgebra? Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle bequeme mathematische
MehrLösbarkeit linearer Gleichungssysteme
Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn
Mehr6 Lineare Algebra. 6.1 Einführung
6 Lineare Algebra 6.1 Einführung Die lineare Algebra ist für die Wirtschaftswissenschaften von zentraler Bedeutung. Einerseits liefert sie die theoretischen und praktischen Grundlagen für das Lösen linearer
MehrLineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
MehrI) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n
I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y1 = a11x1+ a12x2 + a13x3 y2 = a21x1+ a22x2 + a23x3... Koeffizienten a ij i - te Gleichung (Zeile), i
Mehr8 Euklidische und unitäre Vektorräume. Skalarprodukte Orthogonalität Matrizen
8 Euklidische und unitäre Vektorräume Skalarprodukte Orthogonalität Matrizen 8 Euklidische und unitäre Vektorräume Skalarprodukte Orthogonalität Matrizen In diesem Kapitel werden nur endlich dimensionale
MehrKlausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2
MehrLösung Serie 11: Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung
D-MATH/D-PHYS Lineare Algebra I HS 06 Dr. Meike Akveld Lösung Serie : Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung. Um zu zeigen, dass es sich bei den gegebenen Vektoren um Basen handelt,
Mehr4. Vektorräume und Gleichungssysteme
technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P. Grohs T. Welti F. Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 5 Aufgabe 5.1 Kommutierende Matrizen In der Vorlesung und vergangenen
Mehr5 Lineare Gleichungssysteme und Determinanten
5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrKapitel 1. Matrizen und lineare Gleichungssysteme. 1.1 Matrizenkalkül (Vektorraum M(n,m); Matrixmultiplikation;
Kapitel 1 Matrizen und lineare Gleichungssysteme 11 Matrizenkalkül (Vektorraum M(n,m; Matrixmultiplikation; Transposition; Spalten- und Zeilenvektoren Matrizen sind im Prinzip schon bei der schematischen
Mehr3 Invertierbare Matrizen Die Inverse einer (2 2)-Matrix Eigenschaften invertierbarer Matrizen... 18
Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik 2 Dr. Thomas Zehrt Vektoren und Matrizen Inhaltsverzeichnis Vektoren(Wiederholung bzw. Selbststudium 2. Linearkombinationen..............................
Mehr3. Übungsblatt zur Lineare Algebra I für Physiker
Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte
Mehra ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen
I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y 1 = a 11 x 1 + a 12 x 2 + a 13 x3 y 2 = a 21 x 1 + a 22 x 2 + a 23 x3... Koeffizienten a ij i - te Gleichung
Mehr7 Matrizen über R und C
Mathematik für Physiker I, WS 06/07 Montag 9 $Id: matrixtex,v 7 06//9 :58: hk Exp $ 7 Matrizen über R und C 7 Addition und Multiplikation von Matrizen In der letzten Sitzung haben wir begonnen uns mit
Mehr(Allgemeine) Vektorräume (Teschl/Teschl 9)
(Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:
MehrVorlesung Mathematik für Ingenieure 1 (Wintersemester 2008/09)
Vorlesung Mathematik für Ingenieure Wintersemester 8/9 Kapitel 4: Matrizen, lineare Abbildungen und Gleichungssysteme Volker Kaibel Otto-von-Guericke Universität Magdeburg Version vom 5. November 8 Page-Rank
MehrKapitel 1. Vektoren und Matrizen. 1.1 Vektoren
Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren
Mehr