Kurzskript. Niklas Polk

Ähnliche Dokumente
Vektorräume und Lineare Abbildungen

8.2 Invertierbare Matrizen

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

Lineare Algebra - Zusammenfassung

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lineare Algebra Zusammenfassung

Lineare Algebra und Numerische Mathematik für D-BAUG

Eigenwerte (Teschl/Teschl 14.2)

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

Lineare Algebra und Numerische Mathematik D-BAUG. Winter 2013 Prof. H.-R. Künsch. , a R. det(a) = 0 a = 1.

Lineare Algebra für Ingenieure

Singuläre Matrix: nicht invertierbar Det(A)=0

5.4 Basis, Lineare Abhängigkeit

Lineare Algebra II 11. Übungsblatt

9.2 Invertierbare Matrizen

3 Lineare Algebra Vektorräume

Prof. Steinwart Höhere Mathematik I/II Musterlösung A =

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren

3 Matrizenrechnung. 3. November

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Matrizen, Determinanten, lineare Gleichungssysteme

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

Proseminar Lineare Algebra II, SS 11. Blatt

1 Matrizenrechnung zweiter Teil

10.2 Linearkombinationen

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9

A w w f f B w f w f A B w f w w A B A B A B. z = a 2 + b 2 =: r. c+id = ac+bd. 2 c 2 +d 2. z 2. z n = z. z = r cos(x) + ir sin(x) = reix

A w w f f B w f w f A B w f w w A B A B A B. z = a 2 + b 2 =: r. c+id = ac+bd. 2 c 2 +d 2. z 2. z n = z. z = r cos(x) + ir sin(x) = reix

Lineare Algebra I/II. Gioele Zardini 2. Juni 2017

Lineare Algebra I/II. Gioele Zardini July 13, 2016

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Berechnung der Determinante

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

Kapitel 4. Determinante. Josef Leydold Mathematik für VW WS 2017/18 4 Determinante 1 / 24

1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6

Hilfsblätter Lineare Algebra

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2018/2019

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

8.2 Invertierbare Matrizen

Probeprüfung Lineare Algebra I/II für D-MAVT

6 Eigenwerte und Eigenvektoren

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

43911: Lineare Algebra/Geometrie Prüfungstermin Frühjahr 2015 Lösungsvorschlag

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Kapitel 3 Lineare Algebra

Lineare Algebra Zusammenfassung

Lineare Algebra I für Mathematiker Lösungen

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Lineare Algebra und Numerische Mathematik für D-BAUG

4 Lineare Abbildungen Basisdarstellungen

8. Elemente der linearen Algebra 8.5 Quadratische Matrizen und Determinanten

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 29. April 2011

Lineare Algebra I/II. Gioele Zardini 10. Juni 2018

Matthias Dzung. Gleichungssystem. Matrizen

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3

Probeklausur zu Mathematik 2 für Informatik

und Unterdeterminante

und Unterdeterminante

Analytische Geometrie

Determinante und Inverse

Merke Spaltenvektoren: Bild der Basisvektoren. Matrix Sei A : R n R m linear. Die Basisvektoren e 1 =

Grundlegende Definitionen aus HM I

3 Lineare Gleichungssysteme

Kapitel 5 : Eigenwerte und Eigenvektoren

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

1 Darstellungsmatrizen

Ausgewählte Lösungen zu den Übungsblättern 9-10

Aufgabe I.1 (4 Punkte) Gegeben seien die Matrix H := und die Menge L := {A R 4 4 A HA = H} Zeigen Sie:

Theoretische Fragen zu ausgewählten Themen in Lineare Algebra

I) MATRIZEN. 1) Speichern geometrischer Daten: Punkte, Vektoren. j - te Variable (Spalte), j = 1,2,3,..., n

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Eigenwerte und Diagonalisierung

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops

Lösbarkeit linearer Gleichungssysteme

Serie 8: Online-Test

a ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra II 8. Übungsblatt

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 13. Übung: Woche vom (Lin.Alg.

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

3.6 Eigenwerte und Eigenvektoren

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 6. Aufgabe 6.1. Dr. V. Gradinaru K. Imeri. Herbstsemester 2018.

Basisprüfung. 18. August 2015

Transkript:

Kurzskript Niklas Polk Inhaltsverzeichnis 1 Lineare Gleichungssysteme 4 11 Schreibweisen 4 12 Vorgehen 4 13 Mögliche Lösungen 5 14 Homogene LGS: Ax = b, b = 0 5 15 Geometrische Interpretation 5 16 LR-Zerlegung 5 2 Matrizen 6 21 Schreibweise 6 22 Addition (m n + m n = m n) 7 23 Multiplikation (m n n p = m p) 7 24 Transponierte ((m n) T = n m) 7 25 Inverse ((n n) 1 = n n) 7 26 Rechenregeln 8 27 Orthogonale Matrizen (n n) 8 3 Determinante (det(n n) = α) 8 31 Berechnung 8 32 Eigenschaften bzgl Berechnung 9 33 Rechenregeln 9 34 Determinante, Fläche und Volumen 9 4 Zusammenhang LGS, Invertierbarkeit, Determinante (n n) 10 5 Vektorräume 10 51 Unterräume 10 52 lineare Unabhängigkeit 11 53 Erzeugendensystem 11 6 Koordinaten 11 1

7 Lineare Abbildungen (V n W m ) 11 71 Lineare Abbildungen und Matrizen 12 72 Bild und Kern einer Matrix 12 73 Lineare Abbildungen und Skalarprodukt 13 74 Lineare Selbstabbildungen 13 75 Zusammensetzung von Lin Abb 13 8 Normierte Vektorräume 13 81 Norm (vgl: Länge) (a a ) 13 82 Wichtige Normen 14 83 Konvergenz 14 84 Skalarprodukt (vgl: Winkel) (x, y (x, y)) 14 85 Wichtige Skalarprodukte 15 86 Skalarprodukt komplexer VR 15 9 Orthogonalisieren 15 10 Koordinatentransformation (Basiswechsel) 15 11 Eigenwertproblem 16 111 Berechnung 16 12 Diagonalisieren 17 121 Einfachheit 17 122 Eigenbasen 17 123 Diagonalisieren von Matrizen 17 124 Eigenwertproblem symmetrischer Matrizen 18 13 Folgerungen aus dem EW-Problem 18 131 Berechnung von y = A k x 18 132 Matrixexponentialfunktion 18 133 Matrixnormen 18 1331 2-Norm A 2 18 1332 Matrixnorm der Inversen 19 14 Anwendungen zum EW-Problem 19 141 Quadratische Form 19 142 Hauptachsentransformation 19 143 Kegelschnitte 19 144 Lokale Extrema 20 15 Systeme homogener Differentialgleichungen mit Konstanten Koeffizienten 20 151 Systeme 1 Ordnung 20 1511 Allgemeine Lösung 21 2

1512 Anfangswertproblem 21 152 Systeme 2 Ordnung 21 1521 Allgemeine Lösung 22 1522 Anfangsbedingungen 22 153 Rückführung in ein System 1 Ordnung 22 154 Inhomogene lineare Systeme 23 155 Komplexe Lösungen 23 16 Disclaimer 23 3

1 Lineare Gleichungssysteme 11 Schreibweisen Ausgeschrieben Erweiterte Matrix A = a 11 x 1 +a 12 x 2 + +a 1n x n = b 1 a 21 x 1 +a 22 x 2 + +a 2n x n = b 2 a m1 x 1 +a m2 x 2 + +a mn x n = b m a 11 a 12 a 1n a 21 a 22 a 2n a m1 a m2 a mn Matrixschreibweise Ax = b, mit, x = x 1 x 2 x n, b = b 1 b 2 b n x 1 x 2 x n a 11 a 12 a 1n b 1 a 21 a 22 a 2n b 2 a m1 a m2 a mn b m 12 Vorgehen Gauss Algorithmus: 1 Gleichungssystem als erweiterte Matrix schreiben 2 Tabelle durch Äquivalenzumformung in Dreiecksform/Zeilenstufenform bringen Zeilen vertauschen Vielfaches einer Zeile zu einer anderen hinzufügen/abziehen Zeile multiplizieren mit einer Zahl 0 3 Lösung(smenge) durch Rückwärtseinsetzen bestimmen Definition: Rang(A) = r: Anzahl Pivots/von Null verschiedener Zeilen nach vollständigem Gaussen maximale Anzahl linear unabhängiger Spalten von A maximale Anzahl linear unabhängiger Zeilen von A 4

13 Mögliche Lösungen eine oder unendlich viele Lösungen (r = m oder wenn r < m alle Verträglichkeitsbedingungen erfüllt) genau eine Lösung wenn r = n n r freie Parameter wenn r < n (unendlich viele Lösungen) keine Lösung niemals zb genau 4 Lösungen 14 Homogene LGS: Ax = b, b = 0 immer triviale Lösung x = 0 nichttriviale Lösung genau wenn r < n 15 Geometrische Interpretation a 1 x 1 + a 2 x 2 + + a n x n = b stellt geometrisch dar: n = 2: Gerade in der Ebene n = 3: Ebene im Raum n beliebig: Hyperebene im Allgemeinen Lösungsmenge eines LGS stellt Schnittmenge der Hyperebenen dar 16 LR-Zerlegung Alternative zum Gaussen (lösen von Ax = b) Schritt 1: Schreibe Matrix A und die Einheitsmatrix nebeneinander (wie beim Berechnen der Inversen) Gausse bis zur Zeilenstufenform (Pivots müssen nicht 1 sein!) Bei der Einheitsmatrix werden nur Vertauschungen mitgemacht Dort wo bei der Zeilenstufenform Nullen stehen würden, schreibt man die erforderliche Rechenoperation hinein um die jeweilige Null zu erzeugen (siehe Beispiel aus Übung) Alles rechts der Diagonale (inkl Diagonale) des Endschemas ist R (Rest mit Nullen auffüllen) 5

Alles links der Diagonale (exkl Diagonale) des Endschemas ist L (Diagonale mit Einsen auffüllen, Rest mit Nullen) Die vertauschte Einheitsmatrix ist P Es gilt: LR = P A und wir definieren Rx = c, also P Ax = LRx = Lc = P b Schritt 2: Löse Lc = P b durch vorwärtseinsetzen Schritt 3: Löse Rx = c durch rückwärtseinsetzen Determinante mit LR: det(a) = det(p ) det(r) = 1 AnzahlZeilenvertauschungen det(r) R Diagonal! 2 Matrizen 21 Schreibweise m n-matrix (m Zeilen (zuerst), n Spalten (später)) A = Zeilenstruktur: A wird geschrieben als A = a [1] a [2] a [n], a [i] sind die Zeilen von A ya = y 1 a [1] + + y n a [n] (Linearkombination, y: Zeilenvektor) Spaltenstruktur: A wird geschrieben als A = (a (1), a (2),, a (n) ), a (i) sind die Spalten von A Ax = x 1 a (1) + + x n a (n) (Linearkombination, x: Spaltenvektor) Diagonalmatrix: D = diag(d 11, d 22,, d nn ) = Einheits/Identitätsmatrix I = diag(1, 1) a 11 a 12 a 1n a 21 a 22 a 2n a m1 a m2 a mn d 11 0 0 0 d 22 0 0 0 d nn 6

22 Addition (m n + m n = m n) Jeweils gleiche Elemente addieren (Bsp: A+B = C: Element c ij = a ij +b ij ) ( ) ( ) ( ) a11 a A = 12 b11 b, B = 12 a11 + b C = A + B = 11 a 12 + b 12 a 21 a 22 b 21 b 22 a 21 + b 21 a 22 + b 22 23 Multiplikation (m n n p = m p) Bsp: Produkt von A und B ist AB, Element AB ij ist das Produkt der Zeile i von Matrix A und der Spalte j von Matrix B ( ) ( a11 a A = 12 b11 b, B = 12 a 21 a 22 b 21 b 22 ) AB = 24 Transponierte ((m n) T = n m) ( a11 b 11 + a 12 b 21 ) Zeilen und Spalten vertauschen (Bsp: A Transponieren: Element A T ij = A ji) a 11 a 12 a 13 a 11 a 21 a 31 A = a 21 a 22 a 23, A T = a 12 a 22 a 32 a 31 a 32 a 33 a 13 a 23 a 33 A ist symmetrisch A T = A A ist anti-/schiefsymmetrisch A T = A 25 Inverse ((n n) 1 = n n) Definition: A 1 A = I Berechnen mit Gauss-Jordan (Am Beispiel merken!) 1 erweiterte Matrix (mit I links) aufschreiben 2 bis Zeilenstufenform gaussen 3 in jeder Zeile durch Pivots teilen, sodass danach alle Pivots= 1 4 Zeilen voneinander abziehen (mit der untersten angefangen) sodass am Ende links I steht 5 die Matrix die danach rechts steht ist die Inverse 7

26 Rechenregeln Addition und Multiplikation Transponierte Inverse A + B = B + A (A T ) T = A A 1 A = I n A + B + C = A + (B + C) (A + B) T = A T + B T (A 1 ) 1 = A (AB)C = A(BC) (AB) T = B T A T (AB) 1 = B 1 A 1 (A + B)C = AC + BC In T = I n I n invertierbar, In 1 = I n A(C + D) = AC + AD α(a + B) = αa + αb (A T ) 1 = (A 1 ) T α(βa) = (αβ)a Achtung: AB BA 27 Orthogonale Matrizen (n n) Definition: A T A = I A T = A 1 Seien A und B orthogonal: A beschreibt eine längentreue Abbildung Spalten- und Zeilenvektoren von A sind normiert (Betrag = 1) und senkrecht aufeinander (Skalarprodukt = 0) A 1 ist orthogonal AB ist orthogonal I n ist orthogonal 3 Determinante (det(n n) = α) 31 Berechnung ( a11 a 1 1 : A = (a) det(a) = a 2 2 : A = 12 a 21 a 22 ) det(a) = a 11 a 22 a 12 a 21 Bei grösseren Matrizen nach Zeile oder Spalte entwickeln: weise jedem Element der Matrix wie folgt ein Vorzeichen zu suche (wenn vorhanden) die Spalte oder Zeile mit den meisten Nullen aus, fange mit dem ersten Element an, streiche dessen Zeile und Spalte + a 11 a 12 + a 13 a 21 + a 22 a 23 + a 31 a 32 + a 33 8

berechne die Determinante der so entstandenen Untermatrix (falls diese immernoch zu gross ist, beginne wieder mit Schritt 1) multipliziere die Determinante der Untermatrix mit dem Element nach dem sie entwickelt wurde und dem Vorzeichen das diesem Element zugewiesen wurde addiere alle Ergebnisse für die Elemente um die Determinante für die gesamte Matrix zu erhalten 32 Eigenschaften bzgl Berechnung wenn man bei A zwei Zeilen vertauscht ändert die Determinante ihr Vorzeichen wird in A ein vielfaches einer Zeile zu einer anderen addiert, bleibt die Determinante unverändert wird in A eine Zeile mit einer Konstanten multipliziert, dann vervielfacht sich die Determinante um diesen Faktor die Determinante einer Dreiecksmatrix ist das Produkt der Diagonalelemente sind zwei Zeilen linear abhängig, ist die Determinante Null gibt es eine Nullzeile ist die Determinante Null Alles was hier über Zeilen geschrieben wurde gilt ebenfalls für Spalten! 33 Rechenregeln det(a T ) = det(a) ( ) A B für eine Matrix M = 0 C det(ab) = det(a) det(b) ist det(m) = det(a) det(c) det(a 1 ) = 1 det(a) 34 Determinante, Fläche und Volumen 2 2: det(a) =Fläche des Parallelogramms das die Vektoren von A aufspannen 1 2det(A) = Dreiecksfläche 3 3: det(a) =Volumen des Parallelepipeds das die Vektoren von A aufspannen 1 6det(A) = Pyramidenvolumen 9

4 Zusammenhang LGS, Invertierbarkeit, Determinante (n n) alle Aussagen auf einer Seite der Tabelle sind äquivalent, man kann von einer auf alle anderen schliessen! det(a) 0 det(a) = 0 A invertierbar/regulär A nicht invertierbar/singulär Rang(A) = n (Matrix hat vollen Rang) min 2 Zeilen oder Spalten lin abh Ax = b für jedes b lösbar Ax = b entweder keine oder Ax = b eindeutig bestimmt unendlich viele Lösungen Ax = 0 nur triviale Lösung x = 0 Ax = 0 unendlich viele Lösungen 5 Vektorräume Ein reeller Vektorraum V ist eine Menge von Objekten (Vektoren), für die gilt (a, b, c beliebige Vektoren aus V und α, β beliebige reelle Zahlen): Addition ist definiert und es gilt: 1 a + b = b + a 2 (a + b) + c = a + (b + c) 3 Es gibt einen Nullvektor 0 (nur Name) für den gilt ( ) 0 a + 0 = a (muss nicht sein) 0 4 zu jedem Vektor a gibt es einen entgegengesetzten Vektor a, mit a + ( a) = 0 Multiplikation mit reellen Zahlen ist definiert und es gilt: 1 α(βa) = (αβ)a 2 (α + β)a = αa + βa, α(a + b) = αa + αb 3 1a = a 51 Unterräume Eine nichtleere Teilmenge U von V heisst Unterraum von V, falls: a, b U a + b U a U, α eine Zahl αa U 10

Ausserdem sind - V selbst - {0} (Menge nur mit Nullvektor, nicht leere Menge) - U 1 U 2 - U 1 + U 2 Unterräume von V 52 lineare Unabhängigkeit Vektoren v 1, v 2,, v n sind linear unabhängig: n x i v i = 0 hat nur triviale Lösung x = 0 i=1 sonst linear abhängig 53 Erzeugendensystem Jeder Vektor von V kann als Linearkombination der Vektoren a (1), a (2),, a (k) von V dargestellt werden (V = span { a (1), a (2),, a (k)} ) { a (1), a (2),, a (k)} heisst Erzeugendensystem von V Hat V n Dimensionen (dim(v ) = n): mehr als n Vektoren sind lin abh weniger als n Vektoren sind nicht erzeugend n Vektoren sind lin unabh genau dann wenn sie erzeugend sind: man nennt sie dann Basis von V (verschiedene Basen von V bestehen aus gleich vielen Vektoren) 6 Koordinaten Hat V die Basis B = { b (1),, b (n)}, kann jeder Vektor x V eindeutig dargestellt werden als x = n x i b (i) die Koeffizienten x i heissen Koordinaten von x bez der i=1 Basis B Koordinaten hängen also von der gewählten Basis ab!! 7 Lineare Abbildungen (V n W m ) Eine Abbildung F : x V y = F(x) W heisst lineare Abbildung vom endlichdimensionalen Vektorraum V in den endlichdimensionalen Vektorraum W, falls 11

1 F(x + y) = F(x) + F(y) für alle x, y V 2 F(αx) = αf(x) für alle Zahlen α und alle x V gilt (Als erster Test eignet sich F(0 x) = 0 F(x) = F(0 V ) = 0 W, wobei 0 V und 0 W die entsprechenden Nullvektoren sind) - affin lineare Abbildung: x Ax + a - Kontraktion: F(x) F(y) c x y, c < 1 71 Lineare Abbildungen und Matrizen Jede m x n-matrix A beschreibt eine lineare Abbildung von einem n-dimensionalen in einen m-dimensionalen Vektorraum (und umgekehrt!) (Finde die Matrix die die Abbildung beschreibt, und du hast gezeigt dass sie linear ist!) Hierbei gilt: F(b (j) ) = a (i) wobei b (1), b (2), b (n) eine Basis von V ist A = (a (1), a (2),, a (n) ); y = Ax 72 Bild und Kern einer Matrix Kern(A) = {x V n Ax = 0} (einfach LGS lösen!) Bild(A) = {y W m Es gibt ein x V n, so dass y = Ax} (= n dim(kern(a)) Spalten aus der Ursprungsmatrix die linunabh sind) Es gilt: 1 b Bild(A) Ax = b lösbar 2 Bild(A) = span { a (1),, a (n)} 3 x Kern(A) x ist Lösung von Ax = 0 4 Kern(A) ist Unterraum von V n 5 Bild(A) ist Unterraum von W m 6 dim(bild(a)) + dim(kern(a)) = n (Spaltenanzahl der Matrix) 7 dim(bild(a)) = dim(bild(a T )) = r (Rang der Matrix) 12

73 Lineare Abbildungen und Skalarprodukt Bild(A) und Kern(A T ) spannen W m auf Bild(A) steht senkrecht auf Kern(A T ) dim(bild(a)) + dim(kern(a T )) = dim(w m ) = m Ax = b genau dann lösbar, wenn b senkrecht auf allen Lösungen des adjungierten LGS A T y = 0 steht 74 Lineare Selbstabbildungen i eine lineare Abbildung F : x V n x = Ax V n ist genau dann umkehrbar, wenn A regulär ist ii Ist F : x x = Ax umkehrbar, so ist F 1 linear und F 1 wird durch die Matrix A 1 beschrieben F 1 : x x = A 1 x iii Ist F umkehrbar, so gilt F 1 F = F F 1 = I Dabei ist I die Identität dh I : x V n x V n 75 Zusammensetzung von Lin Abb ist auch linear F : x V n Ax V m, G : y V m By V p G F : x BAx 8 Normierte Vektorräume 81 Norm (vgl: Länge) (a a ) Weist jedem Vektor a aus V eine reelle Zahl a zu 1 (a) Für jeden Vektor a V gilt a 0, (b) aus a = 0 folgt a = 0 2 Für jeden Vektor a V und für jede Zahl α gilt: αa = α a 3 Für alle Vektoren a, b V gilt: a + b a + b (Dreiecksungleichung) 13

82 Wichtige Normen 1 L p -Normen: x p := p n i=1 x i p : L 1 -Norm: x 1 := x 1 + x 2 + + x n L 2 -Norm (oder euklidische Norm): x 2 := x 1 2 + x 2 2 + + x n L -Norm (oder Maximumnorm): x := max( x 1, x 2, x n ) 2 Normen auf C([a, b]) (Auswahl) Maximumsnorm: f L := max { f(x) : a x b} p-norm (1 p ): f L p := ( b a f(x) p dx) 1 p 83 Konvergenz x y ist ein Mass für den Abstand zwischen x und y Daraus leiten wir ab: Seien v und die Folge (v n ) beide im normierten VR V (v n ) konvergiert gegen v, falls: lim v n v = 0, man schreibt lim v n = v n n 84 Skalarprodukt (vgl: Winkel) (x, y (x, y)) Weist jedem Paar von Vektoren x, y eine reelle Zahl (x, y) zu 1 linear im zweiten Faktor: (a) (x, y (1) + y (2) ) = (x, y (1) ) + (x, y (2) ) (b) (x, αy) = α(x, y), für α R 2 symmetrisch: (x, y) = (y, x) 3 positiv definit: (a) (x, x) 0 (b) aus (x, x) = 0 folgt x = 0 x und y sind orthogonal (oder senkrecht aufeinander), falls (x, y) = 0 Orthogonale Vektoren sind linear unabhängig! Weitere Eigenschaften des Skalarprodukts: Projektion von x auf y ist der Vektor (y,x) (y,y) y (x, y) 2 (x, x)(y, y) (Schwarzsche Ungleichung) 14

x := (x, x) ist die vom Skalarprodukt induzierte Norm Polarisationsidentität: (x, y) = 1 4 ( x 2 + y 2 x 2 y 2 ) sind x und y senkrecht aufeinander: x + y 2 = x y 2 = x 2 + y 2 (Satz von Pythagoras) 85 Wichtige Skalarprodukte 1 Auf C([a, b]): f, g := b a f(t)g(t)dt 2 Für zwei Vektoren x, y R n : x, y := x T y 86 Skalarprodukt komplexer VR Alles gleich, nur dass Symmetrie (x, y) = (y, x) (der Strich bedeutet komplex konjugiert,a + bi = a bi) 9 Orthogonalisieren In einem reellen k-dimensionalen Vektorraum bilden k paarweise orthogonale Einheitsvektoren eine Basis (eine sog orthonormale Basis) Um aus einer gegebenen Basis b 1, b 2,, b k eine orthonormale Basis e 1, e 2,, e k zu konstruieren (die den selben Vektorraum aufspannt) benutzt man das Schmidtsche Orthogonalisierungsverfahren: 1 e 1 := b 1 b 1 (ersten Vektor b 1 auf Länge 1 normieren) 2 e n (n > 1) ausgehend von vorherigen konstruieren: (a) e n = b n n 1 i=1 (b n, e i )e i (Vektor e n senkrecht auf allen anderen) (b) e n = e n e n (e n normieren) 10 Koordinatentransformation (Basiswechsel) Gegeben: zwei verschiedene Basen B = (b 1,, b n ) und B = (b 1,, b 2 ) zum selben Vektorraum V n der Vektor v, bzw [v] B und [v] B, dargestellt in diesen jeweiligen Basen die lineare Abbildung F, bzw [F] B und [F] B, dargestellt in diesen jeweiligen Basen Dann gilt: 15

i [v] B = T [v] B ; T = ([b 1 ] B,, [b n ] B ) und wird Übergangsmatrix genannt ii [v] B = S[v] B ; S = ([b 1 ] B,, [b n] B ) und S 1 = T iii [F] B = T [F] B T 1 11 Eigenwertproblem Sei A eine n n-matrix, die die Abbildung F : x C n beschreibt: Ax C n i) Eine Zahl λ C heisst Eigenwert der Matrix A, falls es einen Vektor x C n gibt, x 0, so dass Ax = λx gilt ii) Ist λ C Eigenwert der Matrix A, so heisst jeder Vektor x C n, x 0, für den Ax = λx gilt, Eigenvektor der Matrix A zum Eigenwert λ Konkret: Ax = λx Der Eigenvektor x wird durch Multiplikation mit der Matrix A einfach mit seinem Eigenwert λ multipliziert, also gestreckt bzw gestaucht aber nicht gedreht! 111 Berechnung Um die Eigenwerte von A zu berechnen, löse det(a λi n ) = 0 (man nennt diese Gleichung charakteristisches Polynom von A; P A (λ)) nach λ auf Algebraische Vielfachheit des Eigenwerts λ gibt an wie oft der Faktor λ λ in der Linearfaktorzerlegung des charakteristischen Polynoms enthalten ist Jede quadratische n n-matrix hat mindestens einen und höchstens n Eigenwerte Jede quadratische n n-matrix hat genau n Eigenwerte, gewichtet mit ihren algebraischen Vielfachheiten Für jede reelle Matrix sind die Koeffitzienten von P (λ) reell, und die Eigenwerte entweder reell oder in konjugiert komplexen Paaren Um die Eigenvektoren zu berechnen, löse (A λi n )x = 0 nach x auf (man sollte also zuerst den Eigenwert haben um den zugehörigen Eigenvektor berechnen zu können!) Die Menge der Lösungen heisst Eigenraum von A zum Eigenwert λ (E λ ) Die Dimension von E λ heisst geometrische Vielfachheit von λ 16

Eigenvektoren verschiedener EW einer Matrix sind immer linear unabhängig Es gilt: 1 geometrische Vielfachheit von λ algebraische Vielfachheit von λ 12 Diagonalisieren 121 Einfachheit Eine quadratische Matrix heisst i) einfach, wenn jeder Eigenwert die algebraische (und daher geometrische) Vfh 1 hat ii) halbeinfach, wenn für jeden Eigenwert gilt algebraische Vfh=geometrische Vfh Man erkennt leicht, dass jede einfache Matrix auch halbeinfach ist 122 Eigenbasen Eine Basis von Eigenvektoren einer Matrix A nennt man Eigenbasis zur Matrix A 123 Diagonalisieren von Matrizen Eine quadratische Matrix A heisst diagonalisierbar, falls es eine reguläre Matrix T gibt, so dass die Matrix D := T 1 AT eine Diagonalmatrix ist Bilden die Vektoren u (1), u (2),, u (n) eine Eigenbasis zu A, dann ist ein T = (u (1), u (2),, u (n) ) In der Diagonalen von D stehen die Eigenwerte von A (die Reihenfolge ist die der zugeh Eigenvektoren in T) Folgende Aussagen sind äquivalent: Matrix A ist diagonalisierbar Matrix A ist halbeinfach Matrix A besitzt eine Eigenbasis 17

124 Eigenwertproblem symmetrischer Matrizen Wenn A eine reelle, symmetrische Matrix ist, dann sind alle Eigenwerte von A reell stehen Eigenvektoren verschiedener Eigenwerte senkrecht aufeinander ist A halbeinfach (somit diagonalisierbar) gibt es eine orthonormale (Spalten paarweise senkrecht aufeinander und normiert) Eigenbasis zu A (bei EV mit gleichem EW Schmidt sches Orthog) gibt es eine orthogonale Matrix T, die A diagonalisiert mit D = T T AT = diag {EW (A)} (T orthogonal: T 1 = T T ) 13 Folgerungen aus dem EW-Problem 131 Berechnung von y = A k x 1 EW und EV von A bestimmen T und D, sodass T 1 AT = D (diagonalisieren) 2 Lineares Gleichungssystem T z = x nach z auflösen (zb Gaussen) 3 D k berechnen, dann w := D k z 4 Berechne y = T w Bemerkung: Wenn A symmetrisch; wähle T orthogonal T 1 = T T A k = T D k T T (schneller, Schritt 2 entfällt) 132 Matrixexponentialfunktion Wenn A halbeinfach (diagonalisierbar): e A = T e D T 1, mit e D = diag(e λ 1, e λn ) 133 Matrixnormen 1331 2-Norm A 2 1 A quadratisch: A 2 = µ max, wobei µ max der grösste Eigenwert von A T A ist 2 Q orthogonal: Q 2 = 1 3 A symmetrisch: A 2 = max i λ i, wobei λ max der betragsmässig grösste EW von A ist 18

1332 Matrixnorm der Inversen 1 A invertierbar: A 1 2 = 1 µ min,, wobei µ min der kleinste Eigenwert von A T A ist 2 A symmetrisch: A 1 2 = 1 min i λ i, wobei λ min der betragsmässig kleinste EW von A ist 14 Anwendungen zum EW-Problem Sei A R n n symmetrisch 141 Quadratische Form q A (x) = x T Ax = n i,j=1 a ij x i x j heisst quadratische Form Beispiel R 2 : q(x) = ax ( 2 1 + bx ) 1x 2 + cx 2 2 ist eine quadratische Form, denn a q(x) = x T b Ax mit A = 2 b 2 c 142 Hauptachsentransformation 1 A diagonalisieren T, D 2 T orthogonalisieren T T AT = D 3 y = T T x definieren x = T y, weil T orthogonal 4 in quadratische Form einsetzen q A (x) = x T Ax = y T Dy = n d i yi 2 In q D gibt es keine gemischten Terme mehr, dies heisst Normalform 143 Kegelschnitte Die Menge Q = { x R n x T Ax + a T x + b = 0 }, (a R n, b R) heisst Kegelschnitt/Quadrik Ziel: Herausfinden um welche Art Kegelschnitt es sich bei Q handelt, indem wir x T Ax + a T x + b durch Hauptachsentransformation und Translation in Normalform bringen i=1 19

x 2 + y2 a 2 x 2 y2 a 2 x 2 + y2 a 2 Rang(A) = 2 Rang(A) = 1 b 2 1 = 0 Ellipse/Kreis x 2 cy = 0 Parabel 1 = 0 Hyperbel x 2 a 2 = 0 paralleles Geradenpaar b 2 + 1 = 0 leere Menge x 2 + a 2 = 0 leere Menge b 2 x 2 + b 2 y 2 = 0 Punkt x 2 = 0 Gerade x 2 b 2 y 2 = 0 sich schneidendes Geradenpaar 144 Lokale Extrema A positiv definit alle EW von A > 0 q A (x) > 0 x 0 A negativ definit alle EW von A < 0 q A (x) < 0 x 0 A indefinit positive und negative EW q A (x) nimmt positive und negative Werte an Hurwitz Kriterium: a 11 a 1i Sei A = (a ij ), dann gilt: A positiv definit det > 0 i a i1 a ii Sei f : R n R eine Funktion a R n heisst kritischer Punkt von f, falls grad f(a) = 0 Die Hessesche Matrix von f in a ist ( 2 ) f(a) H f (a) = x i x j 1 H f (a) positiv definit a lokales Minimum 2 H f (a) negativ definit a lokales Maximum 3 H f (a) indefinit a Sattelpunkt 15 Systeme homogener Differentialgleichungen mit Konstanten Koeffizienten 151 Systeme 1 Ordnung y 1 = a 11 y 1 + a 12 y 2 + a 13 y 3 + + a 1n y n y 2 = a 21 y 1 + a 22 y 2 + a 23 y 3 + + a 2n y n y n = a n1 y 1 + a n2 y 2 + a n3 y 3 + + a nn y n i,j 20

1511 Allgemeine Lösung y 1 1 y = Ay, mit y y 2 =,y = y n y 1 y 2 y n und A = a 11 a 12 a 1n a 21 a 22 a 2n a n1 a n2 a nn 2 Eigenwertproblem lösen: Eigenwerte λ 1, λ 2,, λ k und zugehörige Eigenvektoren u (1), u (2),, u (n) (A sollte halbeinfach sein! (alg = geom Vfh)) 3 T = (u (1), u (2),, u (n) ) und D = diag(λ 1, λ 2,, λ k ) aufstellen (wenn Anfangswertproblem und A symmetrisch: T orthogonal wählen!) D = T 1 AT 4 setze y = T z y = T z in y = Ay ein: z = Dz, da D diagonal ist hat das System jetzt die Form z i = λ iz i es wurde entkoppelt 5 z i = λ i z i hat die bekannte Lösung z i = c i e λ ix, wobei c i ein freier Parameter ist 6 Setze z zurück in y = T z ein: y = c 1 e λ 1x u (1) + c 2 e λ 2x u (2) + + c n e λnx u (n) (allgemeine Lösung) 1512 Anfangswertproblem Oft hat man noch eine Anfangsbedingung y(0) = y 0 (Vektor) gegeben, mit der man die Koeffizienten c i bestimmen kann: 1 y(0) = T z(0) = y 0 2 x = 0 in die allgemeine Lösung für z eingesetzt: z i (0) = c i bzw z(0) = c (als Vektoren) 3 Lineares Gleichungssystem T c = y 0 (2 in 1 eingesetzt) lösen (entweder Gaussen oder wenn T orthogonal: c = T T y 0 ) 152 Systeme 2 Ordnung y 1 = a 11 y 1 + a 12 y 2 + a 13 y 3 + + a 1n y n y 2 = a 21 y 1 + a 22 y 2 + a 23 y 3 + + a 2n y n y n = a n1 y 1 + a n2 y 2 + a n3 y 3 + + a nn y n 21

1521 Allgemeine Lösung y 1 1 y = Ay, mit y y 2 =,y = y n y 1 y 2 y n und A = a 11 a 12 a 1n a 21 a 22 a 2n a n1 a n2 a nn 2 Eigenwertproblem lösen: Eigenwerte λ 1, λ 2,, λ k und zugehörige Eigenvektoren u (1), u (2),, u (n) (A sollte halbeinfach sein! (alg = geom Vfh)) 3 setze y = T z y = T z in y = Ay ein: z = Dz, da D diagonal ist hat das System jetzt die Form z i = λ iz i es wurde entkoppelt 4 setze ω i := λ i z + ωi 2 z = 0 (harmonischer Oszillator) 5 z + ω 2 i z = 0 hat die bekannte Lösung z i = a i cos(ω i x) + b i sin(ω i x), wobei a i und b i freie Parameter sind (harmonische Schwingung mit Frequenz ω i ) 6 Setze z zurück in y = T z ein: y = [a 1 cos(ω 1 x) + b 1 sin(ω 1 x)]u (1) + [a 2 cos(ω 2 x) + b 2 sin(ω 2 x)]u (2) + + [a n cos(ω n x) + b n sin(ω n x)]u (n) (allgemeine Lösung) 1522 Anfangsbedingungen Oft hat man die Anfangsbedingungen y(0) = y 0 und y (0) = y 0 (Vektoren) mit denen man die freien Parameter a i und b i bestimmen kann (meist in Anwendungen: Anfangsgeschwindigkeit= 0 y (0) = 0) 1 y(0) = T z(0) = y 0 und y (0) = T z (0) = y 0 2 x = 0 in die allgemeine Lösung für z eingesetzt: z i (0) = a i bzw z(0) = a (als Vektoren) z i (0) = ω ib i bzw z (0) = b mit b i = ω i b i (als Vektoren) 3 Lineare Gleichungssysteme T a = y 0 und T b = y (0) (2 in 1 eingesetzt) lösen (entweder Gaussen oder wenn T orthogonal: a = T T y 0 und b = T T y 0 ) 4 b i = ω i b i nach b i auflösen 153 Rückführung in ein System 1 Ordnung Man benutzt eine Substitution um eine LDG höherer Ordnung in ein System 1 Ordnung Rückzuführen (funktioniert auch analog bei Systemen höherer Ordnung und mit variablen Koeffizienten): 22

1 lineare Differentialgleichung n-ter Ordnung mit konstanten oder variablen Koeffizienten a i (konstant) oder a i (x) (variabel) y (n) = a 0 y + a 1 y + a 2 y + + a n 1 y (n 1) 2 Substitution: y 0 = y y 1 = y y 2 = y y n 1 = y (n 1) 3 Lösen wie System 1 Ordnung = y 0 y 1 y n 2 y n 1 4 Lösung für y 0 ist die gesuchte Funktion y 154 Inhomogene lineare Systeme = Y = AY + B (I) (Inhomogenes System wegen B!) Y = AY (II) (zugehöriges homogenes System) 1 Lösung des homogenen Systems (II) bestimmen: S h = {Y : Y löst (II)} ist ein n-dimensionaler VR allgemeine homogene Lösung 0 1 0 0 0 0 0 1 0 0 0 0 0 0 1 a 0 a 1 a 2 a 3 a n 1 2 eine beliebige Lösung des inhomogenen Systems (I) bestimmen: S p = {Y : Y löst (I)} partikuläre Lösung 3 Gesamtlösung S I = S h + S p (allgemeine homogene + partikuläre Lösung) 155 Komplexe Lösungen Man kann jedes Paar komplex konjugierter Lösungen φ(x), φ(x) durch ein reelles Paar Re(φ(x)) und Im(φ(x)) ersetzen (Nur wenn A reell!!) Hinweis: e ix = cos(x) + isin(x) und e ix = cos(x) isin(x) 16 Ausgleichsrechnung Ax c = r, A R m n (Fehlergleichungen), r, c R m nach x auflösen, sodass r 2 = Ax c 2 minimal wird Meistens ist Ax = c ein überbestimmtes System, man interpretiert dann r als Messfehler-Vektor y 0 y 1 y n 2 y n 1 23

161 Methode der kleinsten Quadrate Ansatz: r 2 = Ax c 2 ist minimal, wenn er auf den von den Spalten von A aufgespannten Raum (Bild(A)) senkrecht steht und Null, wenn c Bild(A) Lösung: Löse das System A T Ax = A T c (Normalengleichungen) nach x auf 162 QR-Zerlegung Da die Normalengleichungen zu numerisch ungenauen Lösungen führen können, kann man alternativ die QR-Zerlegung benutzen Anstatz: Man zerlegt A R m n, m n: A = QR Q R m m und orthogonal (längentreu) ( ) R0 R =, wobei R 0 0 R n n eine obere Dreiecksmatrix ist Wenn Rang(A) = n R 0 regulär! Lösung: Man erhält R = Q T A und definiert d := Q T c Seien R 0 und d 0 die oberen n Zeilen von R bzw d: R 0 x = d 0 durch Rückwärtseinsetzen nach x lösen r 2 = d 1 2, wobei d 1 die unteren m n Zeilen von d sind Bestimmung der QR-Zerlegung (Givens-Rotation): Q T setzt sich aus dem Produkt von Givens-Matrizen G(i, j, φ) zusammen G(i, j, φ) beschreibt eine Drehung in der Ebene, die durch die Achsen i, j aufgespannt wird G(i, j, φ) hat folgende Elemente: j, j: cos(φ) j, i: sin(φ) i, j: sin(φ) i, i: cos(φ) Rest der Diagonalen: 1 Rest der Matrix: 0 24

multipliziere A mit G(i, j, φ) um das Element der Zeile i und Spalte j von A zu eliminieren wähle φ so, dass in der Matrix G(i, j, φ)a das Element i, j verschwindet Multipliziere A so lange mit Givens-Matrizen, bis man die gewünschte Form von R erreicht ist! 17 Disclaimer Hab mir das natürlich nicht alles selbst ausgedacht, kommt fast alles von den Vorlesungsfolien oder Lineare Algebra von Nipp und Stoffer Da könnt ihr auch nachschauen wenn etwas unklar ist, oder ihr einen Fehler gefunden habt (ja, auch ich bin nicht perfekt ;) ) Ansonsten viel Erfolg, Niklas 25