Kriterien für Invertierbarkeit einer Matrix Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls (i) für jede Basis, die Bildvektoren auch eine Basis, bilden; (intuitiv gesprochen: A darf nicht aus linear unabhängigen Vektoren linear abhängige machen.) (ii) aus folgt, dass. [d.h. der 'Kern' oder 'Nullraum' der Matrix, also die Menge aller Elemente, die auf Null abgebildet werden, ist 'trivial' (enthält nur den Nullvektor)] Falls Standardbasis benutzt wird, folgt aus (i) ferner: (iii) ist invertierbar, falls die Spaltenvektoren von eine Basis bilden; denn diese Spaltenvektoren sind die Bildvektoren der Standardbasis: [Nächste Frage: wie wissen wir, ob Spaltenvektoren eine Basis bilden? Siehe L6.1] Begründung für (i): surjektiv: injektiv: bijektiv: Begründung für (i) : Annahme: ist eine Basis. Dann ist surjektiv [das ganze V liegt im Bild v. A, ], denn sein Bild,, enthält eine Basis v. V, nämlich und somit das ganze V. Ferner ist auch injektiv [jeder Bildvektor entspricht maximal einem Argument]. Denn ansonsten gäbe es zwei verschiedene Vektoren und mit demselben Bild, d.h. Linearitität Letzte Gl. steht im Widerspruch zur linearen Unabhängigkeit der Basisvektoren Fazit: A ist surjektiv und injektiv, somit bijektiv, somit invertierbar.
Begründung für (i) : Annahme: ist bijektiv. Dann ist jeder Vektor das Bild eines Vektors : ist vollständig. Ferner: sind linear unabhängig. Ansonsten würde eine nicht-triviale Linearkombination existieren, die Null liefert, Linearitität also im Widerspruch zur Injektivität, denn es gilt auch Fazit: ist vollständig und linear unabhängig, somit eine Basis. Begründung für (ii): analoge Argumente, Selbststudium! L6 Determinanten 'Determinante' ist eine Abbildung der Form: Motivation: 1. Invertierbarkeit von A Spaltenvektoren von A bilden Basis 2. Diagonalisierung von A: Finde eine Transformation T, so dass = diagonal Startpunkt für Diagonalisierung: 3. Jakobi-Determinante bei Variablen-Transformation in Integralen: In allen Fällen spielt die 'Determinante' einer Matrix eine zentrale Rolle. Vorschau: L6 Determinanten L7 Diagonalisierung
Einfaches Kriterium dafür, ob Spaltenvektoren eine Basis bilden: 1 x 1 Systeme: trivial Spaltenvektoren 2 x 2 Matrix: bilden eine Basis, falls und nicht Vektoren sind parallel, falls Definition: "Determinante" einer 2x2 Matrix: Merkregel: Fazit: existiert falls 3x3 Matrizen: Die Spaltenvektoren sind linear unabhängig, falls sie nicht in einer Ebene liegen, d.h., falls ihr Spatprodukt ungleich 0 ist. Spatprodukt = Volumen des Parallelepipeds Parallelepiped Definition: "Determinante" einer 3x3 Matrix: Hier: Levi-Civita det A 0 Spaltenvektoren sind linear unabhängig
Explizit: 'Merkregel des Sarrus', gilt nur für 3x3 Determinanten: + für Produktbildung links oben nach rechts unten: - für Produktbildung links unten nach rechts oben: Anmerkung: Indizes in (1) haben folgende Struktur: - für feste Reihenfolge 123 der zweiten (unteren) Indizes, - durchlaufen die ersten (oberen) Indizes alle möglichen Reihenfolgen ('alle Permutationen'), 123, 231, 312 und 132, 213, 321 - mit Vorzeichen = für gerade ungerade Anzahl v. 'Transpositionen' relativ zu 123 Permutationen (Vertauschung der n Zahlen 1,2,3,..., n) 'Transposition': nur zwei Elemente werden vertauscht. Jede Permutation P lässt sich schreiben als Folge von 'Transpositionen' sign P = "Vorzeichen der Permutation" für gerade ungerade Anzahl v. Transpositionen Beispiel: Alle Permutationen von 123: Permutation P: Anzahl Transpositionen: sign P : Allgemeine Notation: steht für steht für
Def: Determinante einer nxn Matrix: Sei 'Leibniz-Regel' Summe über alle n! Permutationen der natürlichen Folge 'Laplace-Entwicklung' (ohne Beweis): Entwicklung einer Det. nach Zeile i oder Spalte j Die Determinante von Entwicklung nach Spalte j: lässt sich auch wie folgt berechnen: Elemente von Spaltenvektor j, mit j = 1,..., n beliebig, aber fest (d.h. hier keine Summenkonvention!) Entwicklung nach Zeile i: Elemente von Reihenvektor i, mit i = 1,..., n beliebig, aber fest Def.: "Kofaktor" zu Def: 'Unterdeterminante' oder 'Minor': =Determinante der (n-1)x(n-1) Matrix, die aus A durch Streichen der i-ten Zeile und j-ten Spalte entsteht Beispiel: 3x3 Determinante, entwickelt nach Spalte j=1: [wir halten hier den Spaltenindex fest] Trick: wähle Zeile oder Spalte mit möglichst vielen Nullen, das beschleunigt die Berechnung der Determinanten erheblich!
Eigenschaften von Determinanten Im Folgenden sei Spaltenvektor j Notation: (i) Diagonalmatrix Für gilt nur der erste Term in Leibniz-Regel ist ungleich Null [vergleiche 2x2 Matrix, Gl. (b.5), 3x3 Matrix, Gl. (d.2)] Für Einheitsmatrix: (ii) Transponierte Es gilt: Beweisidee: Für gegebene Permutation P: sei (5) & (3) enthalten, nach Ausführen der Summe über alle Permutationen P, genau dieselben Terme mit denselben Vorzeichen, sind also gleich. [Selber nachrechnen für 3x3 Fall!] Konsequenz: alle Aussagen für Determinanten, die im folgenden für Spaltenvektoren einer Matrix gemacht werden, gelten auch für Zeilenvektoren einer Matrix.
(iii) "Multilinearität": linear für jede Spalte [und für jede Zeile, wegen (i.6] Sei j-te Stelle j-te Stelle Beweisidee: nach (f.1) enthält jeder der n! Summanden in det A genau einen Faktor aus jeder Spalte [bzw. jeder Zeile] von A. Für jeden solchen Faktor gilt Linearität: Explizit für 3x3: Multilinearität impliziert: 'Homogenität' da jede der n Spalten einen Faktor liefert.
(iv) Antisymmetrie (Vorzeichenwechsel) bei Vertauschen von Spalten: Beweisidee: die rechte Seite liefert genau dieselben n! Terme wie die Linke, aber benötigt für jeden Term eine ungerade Anzahl Transposition mehr oder weniger, sodass sign(p) in jedem Term ein umkehrtes Vorzeichen hat. Explizit für 3x3: Antisymmetrie impliziert: sind zwei Spalten oder zwei Zeilen gleich, ist Beweis: (1) mit i = j: [Anwendung in QM: Pauli-Prinzip für Fermionen!] Konsequenz (iv)1: addiert man zu einer Spalte (Zeile) die mit einer Zahl multiplizierten Glieder einer anderen Spalte (Zeile), ändert sich die Determinante nicht: Also ändern die beim Gauß-Algorithmus benutzten Manipulationen die Det. nicht! zwei gleiche Spalten: Konsequenz (iv)2: Entwicklung der Determinante v. A nach Spalte i nach Laplace-Regel: Spalte i Spalte j Spaltenvektor an Position i Betrachte nun (B hat zwei gleiche Spalten!) Spaltenvektor an Position i
(v) Satz: Existenz und Konstruktion der Inversen: Existenz: existiert genau dann, wenn 'Cramer-Regel': Die inverse Matrix ist explizit gegeben durch: (Beachte Anordnung der Indizes: ik links, aber ki rechts!) Beweis: berechne Matrixelemente von (analog für ): Laplace-Entwicklung falls denn falls denn (vi) Konsequenzen von det(a) = 0: existiert nicht Spaltenvektoren v. sind nicht linear unabhängig und bilden keine Basis f. Reihenvektoren Nullraum v. i (vi) Multiplikationstheorem: (Beweis: siehe Lineare Algebra Vorlesung) ist nicht-trivial, d.h. es exitiert mit (vii) Determinante der Inversen: Beweis:
Determinanten von unitären und orthogonalen Matrizen Allgemein: (L6i.2) Für unitäre Matrizen: Beweis: Beispiel: Für orthogonale Matrizen: Beweis: analog zu (3), aber mit Beispiel: Orthogonale Matrizen mit bilden eine Untergruppe von O(n): 'spezielle orthogonale Gruppe': SO(n) ist 'Untergruppe' von O(n), also geschlossen: denn falls gilt auch: SO(3)-Matrizen beschreiben 'Drehungen' im Euklidischen Raum. Alle anderen Matrizen in O(3), d.h. alle mit, beinhalten auch Spiegelungen. Beispiel: Spiegelung in Unitäre Matrizen mit bilden eine Untergruppe von U(n): 'spezielle unitäre Gruppe': Anwendung SU(2): QM-Theorie des Drehimpuls
Zusammenfassung: L6 Determinanten Determinante: diagnostiziert lin. Unabhängigkeit d. Spaltenvektoren einer nxn-matrix Leibniz-Regel: Laplace-Regel: (j fest) (i fest) (hier keine Summenkonvention!) 2x2: 3x3: Kofaktor: Unterdeterminante: (streiche Zeile i, Spalte j aus A, bilde dann die Determinante) Diagonalmatrix: Transponierte: Multilinearität: j-te Stelle j-te Stelle Antisymmetrie: Vorzeichenwechsel beim Vertauschen v. zwei Zeilen oder zwei Spalten. Zwei gleiche Spalten oder Zeilen: Konstruktion des Inversen: A invertierbar Spaltenvektoren v. A sind lin. unabhängig Multiplikationstheorem: Det. des Inversen