Lineare Algebra Zusammenfassung Gruppen, Körper, Vektorräume Gruppen Def.: Eine Gruppe (G, )besteht aus einer nicht-leeren Menge G und einer Verknüpfung zwischen Elementen dieser Gruppe. Folgende Eigenschaften müssen gelten: 1) Abgeschlossenheit: Das Ergebnis der Verknüpfung muss wieder in der Menge liegen. 2) Assoziativität: 3) Neutrales Element: 4) Inverses Element: Die Gruppe heißt abelsche Gruppe wenn zusätzlich gilt: 5) Kommutativität: Wenn (U, ) eine Gruppe ist und gilt ist U eine Untergruppe von G. Ring Def.: Ein Ring (R,+,*) besteht aus einer nicht-leeren Menge auf der 2 Verknüpfungen + und * definiert sind. Folgende Eigenschaften müssen gelten: 1) (R,+) ist eine abelsche Gruppe e=0 2) (R \ {0},*) ist keine Gruppe es gilt lediglich: a) Abgeschlossenheit: b) Assoziativität: 3) Distributivität: Der Ring heißt kommutativer Ringe wenn zusätzlich gilt: (R \ {0},*) Kommutativität: Der Ringe heißt Ring Eins-Element wenn zusätzlich gilt: Körper (R \ {0},*) Eins-Element: Def.: Ein Körper (K,+,*) besteht aus einer nicht-leeren Menge auf der 2 Verknüpfungen + und * definiert sind. Folgende Eigenschaften müssen gelten: 1) (K,+) ist eine abelsche Gruppe e=0 2) (K \ {0},*) ist eine abelsche Gruppe e=1 3) Distributivität: 4) Das Null-Element der Addition und das Eins-Element der Multiplikation müssen verschieden sein. Lukas Brunner
Bemerkung: Falls nicht anders definiert ist ein Körper Kommutativ. Vektorraum Ein Vektorraum besteht aus einer abelschen Gruppe (H, ) deren Elemente man Vektoren nennt, einem (Skalar-)Körper (K,+,*) aus Skalaren (Zahlen) und einer Skalaren Multiplikation von Elementen aus K Elementen aus H. Folgende Eigenschaften müssen gelten: 1) Abgeschlossenheit: H H 2) Assoziativität: H 3) Distributivität: H H Algebra Eine Algebra A über einem Körper K ist ein Vektorraum in neben der Addition von Vektoren auch noch eine Multiplikation definiert ist. Es muss zusätzlich gelten: 1) Abgeschlossenheit: 2) Assoziativität: Matrizen (nxm) Matrix: Rechenregeln: 1) Elementweise Übereinstimmung 2) Elementweise Addition 3) Multiplikation einer Zahl 4) Multiplikation 2er Matrizen 5) Null-Element 6) Eins-Element Eigenschaften: Spur (Summe der Diagonalelemente) Determinante Rang (Anzahl der linear unabhängigen Zeilen oder Spalten) ist nxm Matrix und n<m Lukas Brunner 2
Spezielle Matrizen: Singuläre Matrix (Determinante ist Nullnicht invertierbar) Nilpotente Matrix (Determinante ist ab einer bestimmten Potenz Null) Diagonalmatrix (Nur die Diagonalelemente sind ungleich Null) Transponierte Matrix (Spiegelung um die Hauptdiagonale) Symmetrische Matrix (Invariant gegen Spiegelungen) Antisymmetrische Matrix Orthogonale Matrix (Transponierte Matrix gleich Invertierte Matrix) Komplex konjugierte Matrix, o Für rein reelle Matrizen gilt: o Für rein imaginäre Matrizen gilt: Herisch konjugierte Matrix (Transponierte und komplex konjugierte Matrix) Herische Matrix Unitäre Matrix Determinanten Determinanten werden verwendet zum überprüfen der linearen Unabhängigkeit von Vektoren bestimmen des Rangs einer Matrix Berechnen der inversen Matrix Flächen- und Volumsberechnungen Lösen von linearen Gleichungssystemen Variablentransformationen in mehrdimensionalen Integralen (Jacobi-Determinante) Eigenschaften wenn min. 1 Zeile oder Spalte nur Nullen enthält. wenn min. 2 Zeilen oder Spalten gleich oder proportional sind. Lukas Brunner 3
Wenn 1 Zeile oder Spalte einer Konstanten multipliziert wird, wird die ganze Determinante der Konstanten multipliziert. Wenn 2 Zeilen oder Spalten vertauscht werden wechselt die Determinante das Vorzeichen. Die Determinante bleibt gleich wenn Zeilen und Spalten vertauscht werden. ( Transponieren) Die Determinante bleibt gleich wenn zu 1 Zeile oder Spalte ein Vielfaches einer anderen Zeile oder Spalte addiert wird. Wenn sich 2 Determinanten nur in 1 Zeile oder Spalte unterscheiden so ist ihre Summe gleich dem Wert der Determinante die durch Gliedweise Addition der entsprechenden Zeile oder Spalte entsteht. Durch Entwicklung nach j-ter Spalte ergibt sich die Summe der Determinanten zu und wieder in Matrixschreibweise Berechnung von Determinanten: Leibniz-Formel: Symmetrische Gruppe von n Elementen ist eine Permutation; es gibt n! Permutationen Vorzeichen (bei zyklischer Vertauschung positiv, sonst negtaiv) Regel von Sarrus: Ist eine Veranschaulichung zum berechnen von 3x3 Matrizen, bei der die ersten beiden Spalten hinter der Matrix nochmals angeschrieben werden wodurch sich 3 Haupt- und 3 Nebendiagonalen ergeben. Laplace Entwicklung: Entwicklung nach einer Zeile oder Spalte. Die Determinante ergibt sich zu (für i-te Zeile) Wobei für gilt (Vorsicht auf die Vorzeichen) Lukas Brunner 4
ist eine (n-1)x(n-1) Matrix (Minor von ) Matrizen zum lösen von linearen Gleichungssystemen der Form: Durch zusammenfassen der zu einer (nxn) Matrix und der sowie der zu Vektoren und erhält man das Gleichungssystem zu Wenn zu eine Inverse Matrix existiert lässt sich ausdrücken durch Gauß sches Eliminationsverfahren: Die und lassen sich als (nxn+1) Matrix (erweiterte Koeffizientenmatrix) anschreiben. Diese Matrix kann man auf untere Dreiecksform bringen indem man (für i>1) (für die i-te Zeile) i-te Zeile Minus 1. Zeile mal i-ter Zeile dividiert durch Analog für i>2 usw. Man erhält die Matrix zu Daraus erhalt man aus der letzten Zeile für Analog für die (n-1)-te Zeile für usw. Lösungstypen: Punktlösung Widerspruch Lösungsschar (n-r) frei wählbaren Parametern Lukas Brunner 5
Cramer sche Regel: Man betrachtet ebenfalls die erweiterte Koeffizientenmatrix und berechnet sich aus ihr (n+1) Determinanten. Die Hauptdeterminante D ergibt sich der Koeffizentenmatrix : Die restlichen n Determinanten die letze Spalte von. ergeben sich jeweils durch ersetzen der i-ten Spalte durch Wenn die Hauptdeterminante ( ) ergibt sich eine Punktlösung zu Wenn und zumindest ein besitzt das Gleichungssystem keine Lösung. Für und alle ist die Lösungsmenge entweder leer oder eine unendliche Punktmenge (Gerade, Ebene). Vektorräume Jeder Vektorraum besitzt eine Basis. (Zorn sches Lemma) Eine Basis stellt eine größte linear unabhängige Teilmenge eines VR dar. Die Anzahl der Basiselemente ist die Dimension des Vektorraumes. Jeder VR {0} hat mindestens 2 Untervektorräume ({0}, V). Eine Teilmenge heißt UVR wenn gilt Skalarprodukt Das Skalarprodukt ist eine Verknüpfung zwischen 2 Vektoren und der Form Es muss gelten (auch im komplexen) = Positive Definitheit Ein Vektorraum auf dem ein Skalarprodukt den obigen Eigenschaften definiert ist heißt euklidischer Vektorraum (unitärer VR im komplexen). Mit Hilfe des Skalarprodukts lassen sich die Begriffe Länge (Norm) und orthogonalität einführen. Aus der orthogonalität folgt Lukas Brunner 6
lineare Unabhängigkeit. Für eine Menge von normierten orthogonalen (=orthonormalen) Vektoren gilt: Wenn eine solche Menge eine Basis bildet, wird sie ausgezeichnete Basis oder orthonormalbasis genannt. ( kanonische Basis) Gram-Schmidt-Verfahren Das Gram-Schmidt-Verfahren wird verwendet um aus n linear unabhängigen Vektoren eine Orthonormalbasis zu konstruieren. Normierung von wobei die Norm Entfernen des Anteils in Richtung aus über das Skalarprodukt definiert ist: Normierung von Entfernen der Anteile in Richtung und aus usw. Analytische Geometrie Eine Gerade im 2 ist geben durch: 2 Punkte (Ortsvektoren) A,B o o 1 Punkt A und 1 Richtungsvektor 1 Punkt A und 1 Normalvektor Eine Ebene im 3 ist gegeben durch 3 Punkte A,B,C 1 Punkt A und 2 Richtungsvektoren und 1 Punkt A und 1 Normalvektor Der Normalabstand eines Punktes P von einer Ebene E (A, ist gegeben durch bzw. Lineare Abbildungen Eine Abbildung XY X,Y K-VR heißt linear wenn gilt Lukas Brunner 7
Oder zusammengefasst Lineare Algebra-Zusammenfassung Additivität Homogenität Zusätzlich müssen X und Y denselben Skalarkörper K besitzen. Bemerkungen: Morphismen: o Homomorphismus: ist ein H. wenn es eine lineare Abb. ist. o Isomorphismus: ist ein I. wenn es ein H. ist und bijektiv ist. o Endomorphismus: ist ein E. wenn es ein H. ist und VV abbildet. o Automorphismus: ist ein A. Wenn es ein E. und ein I. ist. Bei einer linearen Abbildung muss der Nullvektor immer auf den Nullvektor abgebildet werden. ist also im streng mathematischen Sinn keine lineare Abbildung. Fasst man alle linearen Abbildungen eines K-VRs V wieder in einem K-VR W zusammen so erhält man den VR der Homomorphismen von V in W. Die Hintereinanderausführung von 2 linearen Abb. ist wieder linear. U,V,W K-VRs: so gilt Wenn zu einer linearen Abb. eine Umkehrabbildung existiert ist diese ebenfalls linear. Die Menge ist linear wird Kern von genannt. (Menge der Elemente aus V die in W auf null abgebildet werden) Die Menge wird Bild von genannt (Menge der Elemente in W auf die durch ein Element aus V abgebildet wird (oder auch mehrere Elemente)) Die Abbildung ist Umkehrbar wenn sie bijektiv ist. Dazu muss gelten, dass sie o injektiv (eindeutig): Speziell: nur 0 darf auf 0 abgebildet werden) o surjektiv: muss V auf ganz W abbilden. ist. Dimensionsformel: für ist linear und. Lineare Abbildungen durch Matrizen Zu jeder linearen Abb. existiert eine nxm Matrix dass gilt und Jeder n-dimensionale K-VR V ist zu isomorph. Eine Abbildung heißt Isomorphismus wenn sie linear und bijektiv (umkehrbar) ist. Bei einer geordneten Basis ist die Reihenfolge der Elemente wichtig. Lukas Brunner 8
Sei V ein K-VR und B eine geordnete Basis von V. Dann kann man jedes Element als Spaltenvektor bezüglich der Basis B schreiben. Seien V und W K-VRs geordneten Basen und sowie eine lineare Abb. Offensichtlich gilt: für sowie für. Die Koordinatenvektoren sind über nxm Darstellungsmatrix verknüpft. Wenn beschreibt den Übergang von d.h. den Übergang der Koordinatendarstellung bezüglich der Basis B zu Koordinatendarstellung bezüglich der Basis C. Eine nxn Matrix ist zu einer nxn Matrix ähnlich, wenn es eine invertierbare nxn Matrix gibt, sodass gilt Ähnliche Matrizen besitzen dieselbe Spur und dieselbe Determinante. Bei Hintereinanderausführung von 2 linearen Abb. und gilt für die Darstellungsmatrix von (wenn und sowie U,V,W K-VRs geordneten Basen B,C,D Basistransformationsformel: V sei ein K-VR, B,C zwei geordnete Basen von V und eine lineare Abbildung. (=Endomorphismus) Dann gilt für sowie und für Daraus folgt der obigen Definition für Ähnlichkeit, dass 2 Darstellungsmatrizen einer linearen Abb. bezüglich 2 verschiedener Basen zueinander ähnlich sind. Da kann man versuchen eine Darstellungsmatrix in eine möglichst einfach Form zu bringen Diagonalform diese ergibt sich zu Eigenwertprobleme für Matrizen Aus der obigen Überlegung stellt sich die Frage wie man zur intertierbaren Matrix die zu kommt transformiert. Es sei V ein K-VR zur Basis B und sowie eine lineare Abb. und so eine nxn Matrix. Dann kann man eine allgemeine Basistransformation vornehmen zu Und für gilt in der (noch nicht bekannten) Basis C Lukas Brunner 9
Um in Diagonalform zu bringen wird angenommen das man die Basis C so wählen kann das gilt Anschaulich bedeutet das, dass die Vektoren von der Matrix in sich selbst abgebildet werden sollen. (sie sollen nur gestreckt oder gestaucht, nicht aber gedreht werden) Für Vektoren, die diese Bedingung erfüllen muss Diagonalform annehmen. (Nicht- Diagonalelemente würden zu einer Abhängigkeit mindestens einer Komponente von von zwei Komponenten von ergeben und so eine Drehung bewirken) Es muss n linear unabhängige Vektoren geben welche die Eigenwertgleichung erfüllen. Wenn sein soll, muss sein. Säkulargleichung Lukas Brunner 10