Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität, Vorzeichenwechseln beim Vertausch v. Zeilen oder Spalten, Null bei zwei gleichen Zeilen oder Spalten, Multiplikationstheorem, Inverse existiert, mit Def: Orthogonale Matrix: oder, äquivalent: Eigenschaft: Eigenwerte und Eigenvektoren Anwendungen in der Physik, insbesondere für die Bestimmung der charakteristische Schwingungen eines Systems, z.b. - Bestimmung der Normalmoden von gekoppelten harmonischen Oszillatoren - Bestimmung der Eigenzuständen und Eigenenergien eines Quantensystems Die quadratische Matrix vermittelt eine lineare Abbildung: Definition: Eigenvektor, Eigenwert Ein (nicht-null) Vektor heißt "Eigenvektor" (EV) von falls (also ) heißt der "Eigenwert" (EW) von zugehörig zum Eigenvektor Eine Gleichung der Form (3) heißt "Eigenwertgleichung".
Oft wird der Zusammenhang zwischen und mit einen Index angedeutet, und nennt man den Eigenvektor oder Beispiel 1: Nullmatrix Jeder beliebige Vektor ist EV der Nullmatrix, mit EW Beispiel 2: Einheitsmatrix Jeder beliebige Vektor ist EV der Einheitsmatrix, mit EW Beispiel 3: Diagonalmatrix (nur Diagonalmatrixelemente sind ungleich 0) Betrachte kanonische Basis von : Spaltenvektor: j-te Stelle Dann: Also: j-te Stelle Diagonalmatrizen haben kanonische Basisvektoren und Diagonalmatrixelemente als dazugehörige EW. als EV
Diagonalisieren einer Matrix Angenommen, ein Satz von n linear unabhängigen EV (also eine Basis für ) ist bekannt, mit EW also: Betrachte Matrix, deren Spaltenvektoren durch diese EV gegeben sind: Dann: Eigenvektor j Spalte j von A(v1,..., vj,... vn) = A vj Diagonalmatrix Das Inverse v. existiert, da per Annahme eine Basis bilden Man sagt: " ist ähnlich zu " ("Äquivalenzrelation") falls derartiges existiert. heißt diagonalisierbar, falls ähnlich einer Diagonalmatrix ist. (Bedingungen für Diagonalisierbarkeit: siehe Vorlesung Lineare Algebra ) Bestimmung der Eigenvektoren und Eigenwerte Sei mit EV und EW Also:
Dann ist die Matrix nicht invertierbar. Denn: wäre invertierbar, dann würde aus (48.6) folgen: im Widerspruch zu (1) Laut (31.1) ist eine Matrix genau dann nicht invertierbar, wenn ihre Determinante Null ist: (4) ist eine notwendige und hinreichende Bedingung an alle EW von, somit nützlich für deren Bestimmung! Def: "charakteristisches Polynom der Matrix ": [siehe Gl. (4) unten] Laut (48.4) liefern die Nullstellen von die Eigenwerte von ist ein EW von ist ein Polynom n-ten Grades [höchste Potenz v. ist, kommend von beim Berechnen v. (1) ] Fundamentalsatz der Algebra: (Doktorarbeit v. Gauss (1799)! Siehe Lin. Alg. Vorlesung) Ein Polynom n-ten Grades hat genau n (möglicherweise komplexe) Nullstellen. Die Nullstellen müssen nicht alle verschieden sein. Sind zwei Nullstellen gleich, heißen sie "entartet". Rezept zur Bestimmung von EW: Berechne, finde dessen Nullstellen!
Beispiel 4: Finde EW und EV von Bestimme zunächst EW, via Nullstellen des charakteristischen Polynoms: Die zwei EW sind durch die zwei Lösungen der quadratischen Gleichung (3) gegeben: Allgemein: die quadratischen Gleichung hat zwei Lösungen, gegeben durch: Check: Fortsetzung Beispiel 4: Bestimmung der EV: Eigenwertgleichung: Setze EW in EW-Gleichung (1) ein, löse resultierendes lineares Gl-System nach : j=1: EV zu Lösung von (2): z.b. (oder alle Vielfache) (Zeilenvektoren sind offensichtlich linear abhängig) Check: erfüllt (3) die EW-Gl. (1)? j=2: EV zu Lösung von (4): z.b. (oder alle Vielfache) (Zeilenvektoren sind offensichtlich linear abhängig) Check: erfüllt (6) die EW-Gl. (1)?
Zusammenfassend: hat EV hat EV Konstruiere nun die Matrizen und, die diagonalisieren! EV als Spalten: Allgemein gilt für das Inverse einer 2x2-Matrix (siehe Inverse von Check: Check (48.1): Beispiel 5: 3x3 Matrix Finde EW und EV der Matrix Charakteristisches Polynom: Entwicklung nach Spalte 1 liefert sofort: Nullstellen sind offensichtlich: Eigenwertgleichung: Setze EW in EW-Gleichung (4) ein, löse resultierendes lineares Gl-System nach : j=1: EV zu Lösung: (oder Vielfache davon)
j=2: EV zu Lösung: (oder Vielfache davon) j=3: EV zu Lösung: (oder Vielfache davon) EV als Spalten: via (31.3), oder durch Ausprobieren! Check: Check (48.1): Entarteter Unterraum Def: hat das charakteristische Polynom eine -fache Nullstelle bei, dann kommt derselbe Eigenwert mal vor und wird er "m-fach entartet" genannt. Falls m linear unabhängige EV mit demselben EW existieren, bilden sie eine Basis für einen m-dimensionalen "Eigenraum": Jeder Vektor in diesem Eigenraum ist ebenfalls ein EV mit EW : Check:
Bemerkung: Diagonalisieren nicht immer möglich: Beispiel 6: Charakt. Polynom: Nullstellen sind komplex: Diagonalisieren im Reellen nicht möglich (wohl aber im Komplexen). Beispiel 7: Charakt. Polynom: Doppelte Nullstelle: Nur ein Eigenvektor (statt zwei): ist nicht diagonalisierbar, da das zwei linear unabhängige EW erfordern würde! Kriterien dafür, dass diagonalisierbar ist: siehe Lin. Algebra Vorlesung Zur Kenntnisnahme: falls nicht diagonalisierbar ist, was kommt dem am nächsten? Die "Jordan-Normalform": Die einzigen nicht-diagonalelemente liegen direkt über der Diagonale, und sind gleich 1. Die Diagonalelemente direkt links und direkt unter einer solchen 1 sind gleich. z.b.:
Diagonalisieren symmetrischer Matrizen Def: (oder ) ist symmetrisch, falls Satz: Für symmetrische Matrix sind die EV zu verschiedenen EW orthogonal. Beweis: und seien zwei verschiedene EW, mit zugehörigen EV und : Transposition von (4): Linksmultiplikation: Falls Satz: Für eine symmetrische reelle Matrix sind alle EW reell. Sei eine komplexe Lösung von, mit komplexen EV Dann gilt: Komplex konjugieren: ist reell: Also ist ein EW von mit EV Laut Argumentation auf Seite M59 gilt Gl. (59.9) auch hier: explizit als Skalarprodukt: (Zahl größer als Null) streng >, da ist reel.
Satz: Symmetrische reelle Matrizen sind diagonalisierbar Beweisidee: Man zeigt, dass immer n linear unabhängige Eigenvektoren existieren (Details: Lineare Algebra Vorlesung), und argumentiert dann wie auf Seite M47. Folgerung von mit (Spaltenvektoren sind die EV) Wir wissen bereits von (58.2): EV zu verschiedenen EW sind orthogonal. Ferner: EV in einem entarteten Unterraum (d.h. mit gleichem EW, siehe 56.3) können paarweise orthogonal gewählt werden: Sei d.h. entartet mit aber (linear unabhängig, d.h., nicht parallel) Ziehe von dessen Projektion auf ab: Per Konstruktion: Check: Ferner ist, laut (56.5), ebenfalls ein EV mit EW. Wiederholtes Anwenden dieser Konstruktion ("Gram-Schmidt- Orthogonalisierungsverfahren") liefert eine Orthogonalbasis für. Durch Normieren derer Basisvektoren erhält man eine Orthonormalbasis für Dasselbe Verfahren kann für alle EW wiederholt werden.
Fazit: für eine symmetrische, reelle Matrix können die n EV so gewählt werden, dass sie eine Orthonormalbasis für bilden: Diese Wahl macht das Diagonalisieren von besonders einfach: Wir wissen bereits: EV als Spalten vektoren: Eigenvektor j Das Inverse von ist die Matrix, deren Zeilenvektoren durch diese EV gegeben ist: Eigenvektor j Denn: Fazit: Diagonalisierung einer symmetrischen, reellen Matrix: sei ein Satz von orthonormierten EV der Matrix mit zugehörigen EW. wird durch folgende "Ähnlichkeitstransformation" "diagonalisiert": EV als Zeilenvektoren EV als Spalten-
Bemerkung: laut (62.2) & (62.3), gilt: S ist eine orthogonale Matrix, beschreibt also eine "Drehung"! Fazit: die Diagonalisierung von symmetrischen reellen Matrizen ist durch Drehungen erreichbar: mit Bemerkung: symmetrische Matrizen (oder deren Verallgemeinerung im Komplexen, "hermitesche Matrizen", mit ) finden in der Physik sehr viele Anwendungen: - kleine Schwingungen um Gleichgewichtslage: EV liefern "Normalmoden", EW deren charakteristische Frequenzen. - Quantenmechanik: Observablen werden durch "hermitesche Operatoren", salopp gesagt, "hermitesche Matrizen", beschrieben. Eigenwerte des Hamilton-Operators (Energie-Operators) liefern die "Eigenenergien" eines Quantensystems