6. Normale Abbildungen

Ähnliche Dokumente
2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

4 Lineare Abbildungen und Matrizen

Prüfung Lineare Algebra 2

6 Hauptachsentransformation

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Lineare Algebra und analytische Geometrie II

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

Lineare Algebra II 8. Übungsblatt

Aufgabe 1. Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = 1). Es gilt det(λa) = (λ) n det(a).

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Euklidische und unitäre Vektorräume

Lineare Algebra I (WS 13/14)

4 Lineare Abbildungen Basisdarstellungen

D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 011 Tom Ilmanen. Musterlösung 12. a ij = v i,av j (A ist symmetrisch) = Av i,v j

4 Lineare Abbildungen und Matrizen

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

Lineare Algebra: Determinanten und Eigenwerte

Ferienkurs - Lineare Algebra. Hanna Schäfer. Merkinhalte

11.2 Orthogonalität. Wintersemester 2013/2014

β 1 x :=., und b :=. K n β m

1 Euklidische und unitäre Vektorräume

Eigenwerte und Diagonalisierung

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

3 Bilinearformen und quadratische Formen

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153

6 Symmetrische und hermitesche Matrizen

Lineare Abbildungen und Darstellungsmatrizen

Wiederholung: lineare Abbildungen

Modulteilprüfung Geometrie (BaM-GS, L3M-RF)

Einführung in die Mathematik für Informatiker

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

KLAUSUR ZUR LINEAREN ALGEBRA I 22. Februar 2008

Proseminar Lineare Algebra II, SS 11. Blatt

6 Eigenwerte und Eigenvektoren

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Vektorräume und Lineare Abbildungen

44 Orthogonale Matrizen

Skalarprodukt, Norm & Metrik

Leitfaden 34. , dies ist eine reelle symmetrische Matrix, also diagonalisierbar.

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

9 Vektorräume mit Skalarprodukt

Kapitel 5. Vektorräume mit Skalarprodukt

Bild, Faser, Kern. Stefan Ruzika. 23. Mai Mathematisches Institut Universität Koblenz-Landau Campus Koblenz

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

Lineare Algebra und Analytische Geometrie I für die Fachrichtung Informatik

Aufgaben zu Kapitel 20

Klausur HM I H 2005 HM I : 1

Lineare Algebra und analytische Geometrie II

70 IV. ENDLICH-DIMENSIONALE VEKTORRÄUME

Übungen zu Lineare Algebra und Geometrie 1

Ausgewählte Lösungen zu den Übungsblättern 4-5

Musterlösungen zur Linearen Algebra II Weihnachtszettel

Definition 1.2. Eine kontinuierliche Gruppe mit einer endlichen Menge an Parametern heißt endliche kontinuierliche Gruppe. x cosξ sinξ y sinξ cosξ

Lineare Algebra I Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß

Kapitel VI. Euklidische Geometrie

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

Lineare Abbildungen - I

2 Euklidische Vektorräume

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

10.2 Linearkombinationen

Lineare Abbildungen. i=0 c ix i n. K n K m

MAT Lineare Algebra, SS 07 Prof. Joachim Rosenthal Lösung zu Übungsblatt 7

Bonusmaterial Euklidische und unitäre Vektorräume Geometrie in höheren Dimensionen

r i w i (siehe (3.7)). r i v, w i = 0.

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG

, Uhr Dr. Thorsten Weist. Name Vorname Matrikelnummer. Geburtsort Geburtsdatum Studiengang

Definitionen. b) Was bedeutet V ist die direkte Summe von U und W? V ist direkte Summe aus U und W, falls V = U + W und U W = {0}.

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Lineare Abbildungen. Heinrich Voss. Hamburg University of Technology Department of Mathematics. Lineare Abbildungen p.

5 Lineare Abbildungen

Lineare Algebra I Zusammenfassung

Musterlösungen zur Linearen Algebra II Übungsklausur

Summen und direkte Summen

Kapitel III. Lineare Abbildungen

Technische Universität München

3.5 Duale Vektorräume und Abbildungen

2.2 Kern und Bild; Basiswechsel

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung

i) ii) iii) iv) i) ii) iii) iv) v) gilt (Cauchy-Schwarz-Ungleichung): Winkel zwischen zwei Vektoren : - Für schreibt man auch.

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

Kap 5: Rang, Koordinatentransformationen

8. Elemente der linearen Algebra 8.5 Quadratische Matrizen und Determinanten

x 2 + y 2 = f x y = λ

Tutorium Mathematik II, M Lösungen

Übungen zu Lineare Algebra und Geometrie für LAK

Musterlösung zur Klausur Lineare Algebra II für Lehramt

5.7 Lineare Abhängigkeit, Basis und Dimension

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

5 Lineare Algebra (Teil 3): Skalarprodukt

Tutorium 7. Definition. Sei V ein C-Vektorraum. Eine Abbildung, : V V C heißt komplexes Skalarprodukt : det F k > 0 mit F k := (f i,j ) C k k

Lineare Algebra und analytische Geometrie II

Serie 10: Inverse Matrix und Determinante

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 8 (SS 2011) Abgabetermin: Donnerstag, 9. Juni.

x y f : R 2 R 3, Es gilt: Bild f = y : wobei x,y R Kern f = 0 (wird auf der nächsten Folie besprochen)

Klausurvorbereitungsblatt Lineare Algebra

Transkript:

SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische Norm ist definiert durch x x, x Zwei Vektoren x, y V heißen orthogonal, falls x, y 0 (x y) Man sagt, dass die Vektoren e 1,,e n eine Orthonormalbasis in V bilden falls { 1 falls i j e i, e j, also falls e i 1, e i e j für i j 0 sonst Das Standardskalarprodukt in C n (oder R n ) ist definiert durch: x, y x i y i Eine Orthonormalbasis ist tatsächlich eine Basis Die Koordinaten bzgl einer Orthonormalbasis sind leicht zu bestimmen! Den folgenden Satz haben wir auch schon mal gesehen, jetzt aber nochmal als Wiederholung: Satz 611 Sei e 1,,e n eine Orthonormalbasis von V a) Ist x V mit x n x je j, dann gilt x i x, e i also x x, e j e j b) Zwei Vektoren x, y V sind genau dann gleich, wenn für alle z V die Gleichheit x, z y,z gilt Dies ist weiter äquivalent zu x, e i y, e i für i 1,,n c) Ist L : V K eine Linearform, dann existiert genau ein z V mit Beweis a) Es gilt: L(x) x, z für alle z V x, e i x j e j, e i x i b) Seien x, y V Es reicht x y zu zeigen, falls x, e i y, e i gilt für alle i 1,,n Dies folgt aber aus a): Schreibe x x j e j und y y j e j Wegen a) gilt x j x, e j und y j y,e j, also nach der Voraussetzung folgt x y auch c) Setze y i : L(e i ) Dann gilt L(x) x i L(e i ) n x i y i x i e i, y j e j x, y Satz 612 Sei : U V eine lineare Abbildung und L {e 1,,e n }, L {f 1,,f m } Orthonormalbasen in U bzw in V a) Ist, (α ij ), dann gilt α ij e j, f i b) Für S : U V linear gilt S genau dann, wenn Sx,y x, y für alle x, y V

2 SKALARPRODUKE steht der Koordinaten- Beweis a) Folgt einfach aus den Definitionen: in der j-te Spalte von vektor von e j Diese Koordinaten sind eben α ij e i, f j b) Folgt aus dem obigen Satz b) 62 Adjungierte einer linearen Abbildung Der Vektorraum aller linearen Abbildungen von U nach V wird mit L (U, V ) bezeichnet Satz 621 Sei L (U, V ) Es gibt dann genau eine lineare Abbildung : V U mit Ist, so gilt x, y x, y für alle x U, y V M L,L A : A Die Abbildung heißt die adjungierte Abbildung von, und die Matrix A ist die adjungierte der Matrix A Beweis Definiere die Linearform L y : V K, L y (x) : x, y Wegen Satz 611 c) existiert einen eindeutigen Vektor z V mit L y (x) x, z Setze y z Aus der Eindeutigkeit bekommt man, dass linear sein muss Nämlich: sind y 1, y 2 V und λ K, so ist L y1+λy 2 (x) x, y 1 + λy 2 x,y 1 + λ x, y 2 L y1 (x) + λl y2 (x) x, y 1 + x, λ y 2 Beispiel 1 Sei 2 Sei 0 1 So gilt A 1 0 0 1 So gilt A 0 0 0 1 A 1 0 0 0 1 0 3 Sei cos ϕ sinϕ So gilt A cos ϕ sin( ϕ) A 1 sinϕ cos ϕ sin( ϕ) cos ϕ 4 Sei gegeben durch der Diagonalmatrix λ 1 0 0 0 0 0 0 λ n (bzgl einer Orthonormalbasis) Dann die Matrix von ist λ 1 0 0 A 0 0 0 0 λ n 63 Eigenschaften der adjungierten Abbildung und der adjungierten Matrix Im Folgenden werden wir Satz 612 b) ganz oft benutzen 0 Für die Identität I : U U gilt I I Für die Nullabbildung 0 : U V gilt 0 : V U die Nullabbildung

SKALARPRODUKE 3 Beweis Es gelten: und x, I y Ix,y x, y, x, o y 0x, y 0 x,0y Daraus folgt die Behauptung 1 Für : V V gilt Beweis Seien u, v V Dann gilt: u,v u, v v, u v, u u, v 2 Für S, L (U, V ), λ K gilt (S + λ) S + λ Beweis Seien u, v V Dann gilt: (S + λ)u, v Su + λu, v u, S v + λ u, v u, (S + λ )v 3 Für S L (U, V ), L (V,W) gilt (S) S Beweis Seien u U, w W Dann gilt: Su, w Su, w u, S w 4 Für L (U, V ) gilt Kern (Bild ) Beweis Sei u Kern, und sei v Bild Dann gilt u,v u, v 0, also u (Bild ) Ist umgekehrt u (Bild ), so gilt Daraus folgt u 0, dh u Kern 5 Es gilt 0 u, v und somit u,v 0 für alle v V Rang( ) Rang() Beweis Sei A eine Matrix von So ist A eine Matrix von Daraus folgt die Behauptung, denn: Rang() Rang(A) Rang(A ) Rang(A ) Rang( ) 6 Für : V V gilt det() det( ) Beweis Bemerke zunächst, dass für eine beliebige quadratische Matrix gilt det(b) det(b) Diese folgt aus der Definition der Determinante (siehe 413) Sei also A eine Matrix von bzgl einer Orthonormalbasis Dann gilt det() det(a) det(a ) det(a ) det(a ) det( ) 7 Für : V V und λ K gilt de Äquivalenz: λ σ() λ σ( )

4 SKALARPRODUKE Beweis Die Behauptung folgt aus den folgenden Äquivalenzen: λ σ() det( λi) 0 det( λi) 0 λ σ( ) 64 Normale Abbildungen Definition Eine Abbildung : V V heißt normal, falls gilt Beispiel 1 Die Abbildung gegeben durch die Matrix 0 1 0 0 ist nicht normal 2 Die Abbildung gegeben durch die Matrix ( 0 ) 1 1 0 ist normal 3 Ist, oder, oder 1 so ist normal Bemerkung Sei die Matrix von bzgl einer Orthonormalbasis Dann ist A, und somit ist genau dann normal, falls A AA gilt Matrizen mit dieser Eigenschaft heißen auch normal Satz 641 Sei : V V eine lineare Abbildung, so dass eine Orthonormalbasis aus Eigenvektoren von in V existiert Dann ist normal Beweis Sei L eine Orthonormalbasis in V aus Eigenvektoren von, dann λ 1 0 0 λ 1 0 0 A : 0 0, L,L und M 0 0 A 0 0 λ n 0 0 λ n Daraus folgt Satz 642 Ist normal und x V, so gilt Beweis Es gilt AA A A und somit x x x 2 x, x x, x x, x x, x x 2 Satz 643 Sei normal Ist e V und λ K mit e λe so gilt dh e λe, Kern( λi) Kern( λi)

SKALARPRODUKE 5 Beweis Bemerke zunächts das Folgende Ist normal, so ist für jedes λ K auch die Abbildung λi normal Denn es gilt ( λi) ( λi) ( λi)( λi) (λ+λ) +λ λi ( λi)( λi) ( λi)( λi) Nun für e und λ wie in der Behauptung gilt wegen Satz 642: also e λe 0 ( λi)e ( λi) e, Satz 644 Sei normal, und seien e V, λ K mit e λe Setze W : {e} { x V : x, e 0 } Dann ist W invariant unter und, dh es gelten: Beweis Sei w W, also w, e 0 Es gilt wir haben hier Satz 643 benutzt (W) W und (W) W e, w e, w λ e, w 0, dh w W e, w e, w λ e, w 0, dh w W, Hauptsatz 645 Sei V ein komplexer, endlichdimensionaler (prä-)hilbertraum Für : V V linear sind die folgenden Aussagen äquivalent: (i) Es gibt eine Basis in V die aus Eigenvektoren von besteht (ii) Die Abbildung ist normal, dh Beweis Die Implikation (i) (ii) haben wir im Satz 641 gesehen Nun zur Implikation (ii) (i): Wir beweisen mit vollständiger Induktion nach n dim(v ) Der Fall n 1 is klar: jede Abbildung ist normal und (i) ist auch trivialerweise erfüllt Sei also die Aussage für n 1 richtig für jede normale Abbildung auf W mit Dimension dim(w) n Sei e n+1 ein Eigenvektor für : V V, welcher wegen K C existiert (siehe Korollar 542) Wir können natürlich e n+1 umnormieren und somit e n+1 1 erreichen Sei W {e n+1 } und setze S : W ( eingeschränk auf W) So ist, wegen Satz 644, auch die Abbildung S : W W normal Da dim(w) existiert also nach Induktionsvoraussetzung eine Orthonormalbasis e 1,,e n in W aus Eigenvektoren von S (also von ) Diese zusammen mit e n+1 haben die gewünschten Eigenschaften 65 Unitäre und orthogonale lineare Abbildungen Definition Sei : V V linear, das das Skalarprodukt erhält, also mit So heißt a) im Falle K C unitär; b) im Falle K R orthogonal v,u u, v für alle u, v V Entscheidend wird das folgende rick, genannt Polarisierung, das das Skalarprodukt mithilfe der Norm(-Quadrat) bestimmt: x, y 1 ( Für K R gilt: x + y 2 x y 2) 4 Für K C gilt: x, y 1 4 ( x + y 2 x y 2 i x iy 2 + i x + iy 2) (Dies haben wir schon gesehen, siehe 210)

6 SKALARPRODUKE Hauptsatz Sei V komplexer (n-dimensionaler) Hilbertraum Für : V V sind die folgenden Aussagen äquivalent: (i) ist unitär (ii) ist isometrisch, dh erhält die Längen von Vektoren, genauer : v v gilt für alle v V (iii) is invertierbar mit 1 (iv) ist normal mit σ() { λ : λ 1 } (v) transformiert Orthonormalbasen in Orthonormalbasen (vi) Für jede Orthonormalbasis L in V, bilden die Spalten der Matrix eine Orthonormalbasis in C n (vii) Es gibt ein Orthonormalbasis L in V, so dass die Spalten der Matrix eine Orthonormalbasis in C n bilden Beweis (i) (ii): Falls das Skalarprodukt erhält, ist es auch isometrisch: x x, x, x, x x 2 (ii) (iii): Ist isometrisch, so ist injektiv, denn x 0 impliziert x x 0, also x 0 Wegen der Dimensionsformel ist auch surjektiv, also ist invertierbar Wegen Polarisierung gilt x, y x, y x, y Aus Satz 612 b) folgt x x für jedes x V, also 1 (iii) (iv): Es gilt 1 I 1, also ist normal Nach Satz 645 gibt es eine Orthonormalbasis L, so dass A diagonal wird; auf der Diagonale stehen die Eigenwerte λ 1,,λ n Die Abbildung hat einerseits die Matrix anderseits Daraus folgt λ i λ 1 i A A A,, also die Behauptung 1 A 1 (iv) (i): Sei L {e 1,,e n } eine Orthonormalbasis aus Eigenvektoren von So ist, wegen Satz 643, x,y x, e i y,e i x, e i y, e i λ i x, e i λ i y, e i x, e i y, e i x, y (i) (v): Sei L {e 1,,e n } eine Orthonormalbasis in V Dann gilt { 1 falls i j e i, e j e i, e j 0 falls i j, also e 1,,e n ist eine Orthonormalbasis in V (v) (vi): Sei L {e 1,,e n } eine Orthonormalbasis in V Nach Voraussetzung bilden e 1,,e n eine Orthonormalbasis in V, deren Koordinatenvektoren in den Spalten von stehen (vi) (vii) ist klar (vii) (iii): Sei L eine Orthonormalbasis in V, so dass die Spalten von eine Orthonormalbasis f 1,,f n in C n bilden In Spaltenvektornotation ist also Somit gilt in Zeilenvektornotation: (f 1, f 2,,f n ) f 1 f n

SKALARPRODUKE 7 Daraus bekommen wir f 1 f n Dh I, also (iii) folgt (f 1, f 2,,f n ) f 1, f 1 f 1, f 2 f 1, f n f n, f 1 f n, f 2 f n, f n I n n Bemerkung Im Falle K R betrachte die Drehung ϕ um Winkel ϕ in R 2 mit matrix cos ϕ sinϕ A ϕ sinϕ cos ϕ Betrachte die folgende Aussage: (iv ) Es gibt eine Orthonormalbasis L in in V, so dass die Matrix von hat die Block-Form: 1 0 0 0 1 1 0, 0 1 ϕ1 0 0 0 ϕk Dann gilt: orthogonal (i) (ii) (iii) (iv ) (v) (vi) (vii), wobei ϕ i mπ für m Z, und wobei in (vi) und in (vii) C n durch R n ersetzt werden muss