und Unterdeterminante

Ähnliche Dokumente
1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

45 Eigenwerte und Eigenvektoren

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls

Eigenwerte und Diagonalisierung

6 Eigenwerte und Eigenvektoren

MC-Serie 11: Eigenwerte

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

3.6 Eigenwerte und Eigenvektoren

Lineare Algebra. Teil III. Inhaltsangabe

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Euklidische und unitäre Vektorräume

Diagonalisieren. Nikolai Nowaczyk Lars Wallenborn

6 Hauptachsentransformation

Proseminar Lineare Algebra II, SS 11. Blatt

Musterlösungen zur Linearen Algebra II Übungsklausur

Tutorium Mathematik II, M Lösungen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

4 Lineare Algebra (Teil 2): Quadratische Matrizen

Lösungsskizzen zur Klausur

Lineare Algebra II 6. Übungsblatt

Vektorräume und Rang einer Matrix

Erweiterte Koordinaten

1.9 Eigenwerte und Eigenvektoren

Skript zur Vorlesung. Lineare Algebra. Prof. Dr.-Ing. Katina Warendorf. 2. Oktober 2014

9 Vektorräume mit Skalarprodukt

Matrizen, Determinanten, lineare Gleichungssysteme

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

4.4. Rang und Inversion einer Matrix

3.3 Eigenwerte und Eigenräume, Diagonalisierung

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

Mat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?

Kapitel 18. Aufgaben. Verständnisfragen

Übungen zur Linearen Algebra 1

Zusammenfassung Mathe III. Themenschwerpunkt 3: Analytische Geometrie / lineare Algebra (ean) 1. Rechenregeln mit Vektoren

Serie 10: Inverse Matrix und Determinante

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.

37 Gauß-Algorithmus und lineare Gleichungssysteme

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

Lineare Algebra Zusammenfassung

Lineare Algebra II 5. Übungsblatt

A Matrix-Algebra. A.1 Definition und elementare Operationen

Musterlösungen zur Linearen Algebra II Blatt 5

Mathematische Erfrischungen III - Vektoren und Matrizen

Skalarprodukte (Teschl/Teschl Kap. 13)

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger

9.2 Invertierbare Matrizen

Lineare Algebra und Numerische Mathematik für D-BAUG

40 Lokale Extrema und Taylor-Formel

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Inverse Matrix. 1-E Ma 1 Lubov Vassilevskaya

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2.

(Allgemeine) Vektorräume (Teschl/Teschl 9)

5 Eigenwerte und die Jordansche Normalform

Übungen zu Einführung in die Lineare Algebra und Geometrie

6.3 Hauptachsentransformation

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Mathematik II Frühjahrssemester 2013

Sesqui- und Bilinearformen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

x,y A = t xay v i,v j A = e i,e j t PAP

Fachhochschule Nordwestschweiz (FHNW) Hochschule Technik Lösungen Serie 10 (Lineare Abbildungen)

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einleitung 19. Teil I Einführung 23. Kapitel 1 Motivation 25

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

Eigenwerte und Eigenvektoren

Komplexe Zahlen. Kapitel Definitionen

Grundsätzliches Rechnen mit Matrizen Anwendungen. Matrizenrechnung. Fakultät Grundlagen. Juli 2015

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 11 (WS 2010/2011) Abgabetermin: Donnerstag, 20. Januar.

Lineare Algebra und analytische Geometrie

Ein Beispiel für eine lineare Abbildung

4 Vorlesung: Matrix und Determinante

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

Homogenität Assoziativgesetz A (B 1 + B 2 ) = A B 1 + A B 2 Distributivgesetz 1 (A 1 + A 2 ) B = A 1 B + A 2 B Distributivgesetz 2

Aufgabe 1. Sei A Mat(n n, R) mit Eigenwert 3. Dann gilt: Eig(A, 3) = Kern(A + 3E n ).

Vektoren und Matrizen

Spezialgebiet Mathematik(Christian Behon ) 1. Matrizen. Kapitel 1 Definitionen und Herleitung von Matrizen. Kapitel 2 Matrizenoperation

Lineare Algebra II, Lösungshinweise Blatt 9

8 Lineare Abbildungen

Mathematik III für Ingenieure

Mathematik II. (für Informatiker, ET und IK) Oliver Ernst. Sommersemester Professur Numerische Mathematik

Stichwortliste zur Vorlesung. Lineare Algebra II. Gabriela Weitze-Schmithüsen. Saarbrücken, Sommersemester 2016

KLAUSUR ZUR LINEAREN ALGEBRA I 22. Februar 2008

Übungsaufgaben zur Linearen Algebra II. 1.) Lösen Sie das folgende lineare Gleichungssystem mit der Cramerschen Regel.

3.3 Klassifikation quadratischer Formen auf R n

( ) Lineare Gleichungssysteme

Transkript:

Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität, Vorzeichenwechseln beim Vertausch v. Zeilen oder Spalten, Null bei zwei gleichen Zeilen oder Spalten, Multiplikationstheorem, Inverse existiert, mit Def: Orthogonale Matrix: oder, äquivalent: Eigenschaft: Eigenwerte und Eigenvektoren Anwendungen in der Physik, insbesondere für die Bestimmung der charakteristische Schwingungen eines Systems, z.b. - Bestimmung der Normalmoden von gekoppelten harmonischen Oszillatoren - Bestimmung der Eigenzuständen und Eigenenergien eines Quantensystems Die quadratische Matrix vermittelt eine lineare Abbildung: Definition: Eigenvektor, Eigenwert Ein (nicht-null) Vektor heißt "Eigenvektor" (EV) von falls (also ) heißt der "Eigenwert" (EW) von zugehörig zum Eigenvektor Eine Gleichung der Form (3) heißt "Eigenwertgleichung".

Oft wird der Zusammenhang zwischen und mit einen Index angedeutet, und nennt man den Eigenvektor oder Beispiel 1: Nullmatrix Jeder beliebige Vektor ist EV der Nullmatrix, mit EW Beispiel 2: Einheitsmatrix Jeder beliebige Vektor ist EV der Einheitsmatrix, mit EW Beispiel 3: Diagonalmatrix (nur Diagonalmatrixelemente sind ungleich 0) Betrachte kanonische Basis von : Spaltenvektor: j-te Stelle Dann: Also: j-te Stelle Diagonalmatrizen haben kanonische Basisvektoren und Diagonalmatrixelemente als dazugehörige EW. als EV

Diagonalisieren einer Matrix Angenommen, ein Satz von n linear unabhängigen EV (also eine Basis für ) ist bekannt, mit EW also: Betrachte Matrix, deren Spaltenvektoren durch diese EV gegeben sind: Dann: Eigenvektor j Spalte j von A(v1,..., vj,... vn) = A vj Diagonalmatrix Das Inverse v. existiert, da per Annahme eine Basis bilden Man sagt: " ist ähnlich zu " ("Äquivalenzrelation") falls derartiges existiert. heißt diagonalisierbar, falls ähnlich einer Diagonalmatrix ist. (Bedingungen für Diagonalisierbarkeit: siehe Vorlesung Lineare Algebra ) Bestimmung der Eigenvektoren und Eigenwerte Sei mit EV und EW Also:

Dann ist die Matrix nicht invertierbar. Denn: wäre invertierbar, dann würde aus (48.6) folgen: im Widerspruch zu (1) Laut (31.1) ist eine Matrix genau dann nicht invertierbar, wenn ihre Determinante Null ist: (4) ist eine notwendige und hinreichende Bedingung an alle EW von, somit nützlich für deren Bestimmung! Def: "charakteristisches Polynom der Matrix ": [siehe Gl. (4) unten] Laut (48.4) liefern die Nullstellen von die Eigenwerte von ist ein EW von ist ein Polynom n-ten Grades [höchste Potenz v. ist, kommend von beim Berechnen v. (1) ] Fundamentalsatz der Algebra: (Doktorarbeit v. Gauss (1799)! Siehe Lin. Alg. Vorlesung) Ein Polynom n-ten Grades hat genau n (möglicherweise komplexe) Nullstellen. Die Nullstellen müssen nicht alle verschieden sein. Sind zwei Nullstellen gleich, heißen sie "entartet". Rezept zur Bestimmung von EW: Berechne, finde dessen Nullstellen!

Beispiel 4: Finde EW und EV von Bestimme zunächst EW, via Nullstellen des charakteristischen Polynoms: Die zwei EW sind durch die zwei Lösungen der quadratischen Gleichung (3) gegeben: Allgemein: die quadratischen Gleichung hat zwei Lösungen, gegeben durch: Check: Fortsetzung Beispiel 4: Bestimmung der EV: Eigenwertgleichung: Setze EW in EW-Gleichung (1) ein, löse resultierendes lineares Gl-System nach : j=1: EV zu Lösung von (2): z.b. (oder alle Vielfache) (Zeilenvektoren sind offensichtlich linear abhängig) Check: erfüllt (3) die EW-Gl. (1)? j=2: EV zu Lösung von (4): z.b. (oder alle Vielfache) (Zeilenvektoren sind offensichtlich linear abhängig) Check: erfüllt (6) die EW-Gl. (1)?

Zusammenfassend: hat EV hat EV Konstruiere nun die Matrizen und, die diagonalisieren! EV als Spalten: Allgemein gilt für das Inverse einer 2x2-Matrix (siehe Inverse von Check: Check (48.1): Beispiel 5: 3x3 Matrix Finde EW und EV der Matrix Charakteristisches Polynom: Entwicklung nach Spalte 1 liefert sofort: Nullstellen sind offensichtlich: Eigenwertgleichung: Setze EW in EW-Gleichung (4) ein, löse resultierendes lineares Gl-System nach : j=1: EV zu Lösung: (oder Vielfache davon)

j=2: EV zu Lösung: (oder Vielfache davon) j=3: EV zu Lösung: (oder Vielfache davon) EV als Spalten: via (31.3), oder durch Ausprobieren! Check: Check (48.1): Entarteter Unterraum Def: hat das charakteristische Polynom eine -fache Nullstelle bei, dann kommt derselbe Eigenwert mal vor und wird er "m-fach entartet" genannt. Falls m linear unabhängige EV mit demselben EW existieren, bilden sie eine Basis für einen m-dimensionalen "Eigenraum": Jeder Vektor in diesem Eigenraum ist ebenfalls ein EV mit EW : Check:

Bemerkung: Diagonalisieren nicht immer möglich: Beispiel 6: Charakt. Polynom: Nullstellen sind komplex: Diagonalisieren im Reellen nicht möglich (wohl aber im Komplexen). Beispiel 7: Charakt. Polynom: Doppelte Nullstelle: Nur ein Eigenvektor (statt zwei): ist nicht diagonalisierbar, da das zwei linear unabhängige EW erfordern würde! Kriterien dafür, dass diagonalisierbar ist: siehe Lin. Algebra Vorlesung Zur Kenntnisnahme: falls nicht diagonalisierbar ist, was kommt dem am nächsten? Die "Jordan-Normalform": Die einzigen nicht-diagonalelemente liegen direkt über der Diagonale, und sind gleich 1. Die Diagonalelemente direkt links und direkt unter einer solchen 1 sind gleich. z.b.:

Diagonalisieren symmetrischer Matrizen Def: (oder ) ist symmetrisch, falls Satz: Für symmetrische Matrix sind die EV zu verschiedenen EW orthogonal. Beweis: und seien zwei verschiedene EW, mit zugehörigen EV und : Transposition von (4): Linksmultiplikation: Falls Satz: Für eine symmetrische reelle Matrix sind alle EW reell. Sei eine komplexe Lösung von, mit komplexen EV Dann gilt: Komplex konjugieren: ist reell: Also ist ein EW von mit EV Laut Argumentation auf Seite M59 gilt Gl. (59.9) auch hier: explizit als Skalarprodukt: (Zahl größer als Null) streng >, da ist reel.

Satz: Symmetrische reelle Matrizen sind diagonalisierbar Beweisidee: Man zeigt, dass immer n linear unabhängige Eigenvektoren existieren (Details: Lineare Algebra Vorlesung), und argumentiert dann wie auf Seite M47. Folgerung von mit (Spaltenvektoren sind die EV) Wir wissen bereits von (58.2): EV zu verschiedenen EW sind orthogonal. Ferner: EV in einem entarteten Unterraum (d.h. mit gleichem EW, siehe 56.3) können paarweise orthogonal gewählt werden: Sei d.h. entartet mit aber (linear unabhängig, d.h., nicht parallel) Ziehe von dessen Projektion auf ab: Per Konstruktion: Check: Ferner ist, laut (56.5), ebenfalls ein EV mit EW. Wiederholtes Anwenden dieser Konstruktion ("Gram-Schmidt- Orthogonalisierungsverfahren") liefert eine Orthogonalbasis für. Durch Normieren derer Basisvektoren erhält man eine Orthonormalbasis für Dasselbe Verfahren kann für alle EW wiederholt werden.

Fazit: für eine symmetrische, reelle Matrix können die n EV so gewählt werden, dass sie eine Orthonormalbasis für bilden: Diese Wahl macht das Diagonalisieren von besonders einfach: Wir wissen bereits: EV als Spalten vektoren: Eigenvektor j Das Inverse von ist die Matrix, deren Zeilenvektoren durch diese EV gegeben ist: Eigenvektor j Denn: Fazit: Diagonalisierung einer symmetrischen, reellen Matrix: sei ein Satz von orthonormierten EV der Matrix mit zugehörigen EW. wird durch folgende "Ähnlichkeitstransformation" "diagonalisiert": EV als Zeilenvektoren EV als Spalten-

Bemerkung: laut (62.2) & (62.3), gilt: S ist eine orthogonale Matrix, beschreibt also eine "Drehung"! Fazit: die Diagonalisierung von symmetrischen reellen Matrizen ist durch Drehungen erreichbar: mit Bemerkung: symmetrische Matrizen (oder deren Verallgemeinerung im Komplexen, "hermitesche Matrizen", mit ) finden in der Physik sehr viele Anwendungen: - kleine Schwingungen um Gleichgewichtslage: EV liefern "Normalmoden", EW deren charakteristische Frequenzen. - Quantenmechanik: Observablen werden durch "hermitesche Operatoren", salopp gesagt, "hermitesche Matrizen", beschrieben. Eigenwerte des Hamilton-Operators (Energie-Operators) liefern die "Eigenenergien" eines Quantensystems