C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

Ähnliche Dokumente
Exkurs: Klassifikation orthogonaler 2 2-Matrizen.

Gerade, Strecke, Halbgerade, Winkel (in (R n,, ))

Lineare Algebra: Determinanten und Eigenwerte

Abschnitt: (symmetrische) Bilinearformen

4 Orthogonale Endormorphismen

6. Normale Abbildungen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

7 Lineare Abbildungen und Skalarprodukt

Lineare Algebra und analytische Geometrie II

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

1 Analytische Geometrie und Grundlagen

EXKURS: MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

SWS-Kongruenzsatz. A B = d(a,b) = A B und A C = d(a,c) ) = A C. Dann ist das Winkelmaß BAC = arccos

Lineare Algebra und Numerische Mathematik für D-BAUG

Klausur zur Vorlesung Lineare Algebra B im SS 2002 an der Universität Hannover

Mathematik für Anwender II

Lineare Algebra und Numerische Mathematik für D-BAUG

Drehung um einen Punkt um Winkel α.

Abschnitt: Diagonalisierung von Endomorphismen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

x y f : R 2 R 3, Es gilt: Bild f = y : wobei x,y R Kern f = 0 (wird auf der nächsten Folie besprochen)

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Plan für Heute/Morgen

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

4 Lineare Abbildungen Basisdarstellungen

Kapitel VI. Euklidische Geometrie

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

5 Lineare Algebra (Teil 3): Skalarprodukt

T := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass

13. Lineare Algebra und Koordinatenwechsel.

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Wiederholung. Lemma 16 Ist A symmetrisch, so gibt eine eine orthogonale Matrix O, s.d. O 1 AO diagonal ist.

Probeklausur zu Mathematik 2 für Informatik

1 Vektoren, Vektorräume, Abstände: 2D

Aufgabe 1. Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = 1). Es gilt det(λa) = (λ) n det(a).

In diesem Kurs werde ich eine andere Methode wählen: ich schlage R 2 bzw. R 3 als Modelle für die Ebene bzw. den Raum vor, und untersuche sie.

6. Übungsblatt zur Mathematik II für Inf, WInf

Abschnitt: Diagonalisierung von Endomorphismen

13. Vorlesung. Lineare Algebra und Koordinatenwechsel.

Heinrich Heine-Universität Düsseldorf Sommersemester Lineare Algebra 1. Vierzehnte & Fünfzehnte Woche,

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Lösbarkeit linearer Gleichungssysteme

x y f : R 2 R 3, Es gilt: Bild f = y : wobei x,y R Kern f = 0 (wird auf der nächsten Folie besprochen)

Proseminar Lineare Algebra II, SS 11. Blatt

Eine Affinität α eines euklidischen Raumes heißt eine Bewegung, wenn sie Abstände (und damit auch Winkel) erhält, wenn also für alle Punkte X, Y gilt:

Affine Eigenschaften ( stets K = R)

Lineare Algebra II Lösungen der Klausur

1 Euklidische und unitäre Vektorräume

Affine Hülle. x x 1 ist lineare Kombination der Vektoren x 2 x 1,x 3 x 1,...,x k x 1. Tatsächlich, in diesem Fall ist λ 1 = 1 λ 2 λ 3...

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6

Eigenwerte und Diagonalisierung

MAT Lineare Algebra, SS 07 Prof. Joachim Rosenthal Lösung zu Übungsblatt 7

Neues Thema: abstrakte Algebra: Gruppen- und Körpertheorie

Brückenkurs Mathematik

Wiederholung und Plan:

Analytische Geometrie

D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 011 Tom Ilmanen. Musterlösung 12. a ij = v i,av j (A ist symmetrisch) = Av i,v j

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 3 (SS 2011) Abgabetermin: Donnerstag, 5. Mai.

Determinante und Inverse

13. ABBILDUNGEN EUKLIDISCHEN VEKTORRÄUMEN

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

Affine Geometrie (Einfachere, konstruktive Version)

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Lineare Transformationen und Determinanten. 10-E Ma 1 Lubov Vassilevskaya

1. Hausübung ( )

Untersuchen Sie, ob die folgenden Abbildungen linear oder nicht linear sind. x y

Tutorium Mathematik II, M Lösungen

Wichtige Kenntnisse der Linearen Algebra

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 6

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren

KLAUSUR. Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.:

Übungen zum Ferienkurs Ferienkurs Lineare Algebra für Physiker WiSe 2017/18 Blatt 3 - Lösung

Lösungsskizzen zur Klausur zur Linearen Algebra II. Definitionen

Klausur zu. Lineare Algebra II. Viel Erfolg! Fachbereich Mathematik WS 2012/13 Dr. habil. Matthias Schneider. Bonus Note. Aufgabe

Diagonalisierbarkeit symmetrischer Matrizen

1 Analytische Geometrie und Grundlagen

Vektoren und Matrizen

Brückenkurs Mathematik. Mittwoch Freitag

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Mathematik I für MB und ME

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen

8 Eigenwerttheorie I 8. EIGENWERTTHEORIE I 139. Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet:

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lineare Algebra II 8. Übungsblatt

Mathematik I für MB/ME

Einige Lösungsvorschläge für die Klausur zur Vorlesung

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y.

Vektorprodukt. Institut für Mathematik Humboldt-Universität zu Berlin & &

Klausur HM I H 2005 HM I : 1

Erweiterte Koordinaten

Eigenwerttheorie. Martin Gubisch Lineare Algebra I WS 2007/2008

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 1 (SS 2011) Abgabetermin: Donnerstag, 21. April.

Transkript:

1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition des Skalarprodukts v,v 0 gilt. Ferner gilt: v > 0 für v 0 und für v = 0 ist v = 0. Bemerkung Auf der Ebene bzw. im Raum ist die Länge eines Vektors im Sinne der Definition oben die übliche Länge. Tatsächlich, wir betrachten eine kartesische Basis (u, v) in der Ebene (die Vektoren u, v sind zueinander D C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w = yv = y w Bilinearität x u + y v,x u + y v = o 90 x u, x u + x u,y v + y v,x u + y v,y v X-achse }{{}}{{}}{{}}{{} =x 2 =0 =0 =y 2 Y-achse A u 1 xu = x B = x 2 + y 2 Pythagoras = Die übliche Länge (weil alle Winkel im Parallelogramm π/2 sind).

Rechnen Sie selbst: berechnen Sie die Länge von v in (R 2,, standard ) v = ( ) 3 4 Antwort. v = 3 4, 3 4 = 3 3 + 4 4 = 9 + 16 = 5.

Der Winkel Def. Sei (V,, ) ein Euklidscher ( Vektorraum. ) Für je zwei Vektoren u 0,v 0 heißt die Zahl arccos u,v u v [0,π] der Winkel zwischen u und v. Bemerkung Um zu zeigen, dass der Winkel zwischen u und v wohldefiniert ist, werden wir gleich die Cauchy-Schwarz-Ungleichung zeigen: 1 u,v u v 1, d.h. u,v u v. Um Winkel zu definieren, brauchen wir deswegen die Funktion cos. In der Schule haben wir aber cos mit Hilfe eines Winkels definiert; also befinden wir uns in einer logischen Schleife. In der Analysis-Vorlesung wird die Funktion cos (und deswegen auch arccos) rein analytisch, also ohne Bezug zur Schulgeometrie eingeführt; so werden wir die Schleife verlassen

Bemerkung In der Ebene/Im Raum ist der Winkel im Sinne der Definition oben der übliche Winkel Wiederholung Schulgeometrie: In der Ebene/Im Raum ist alpha u, v = u v cos(alpha). Also ist cos(alpha) = u, v u v. A B B v u

Rechnen Sie bitte selbst: Im R 2 mit dem Standardskalarprodukt berechne man den Winkel zwischen ( ) den Vektoren ( ) 0 1 u = und v =. 2 1 Lösung. cos(α) = Ö 0 2,, 0 2 0 2 1 1 Dann ist α = arccos( 1 2 ) = 45., 1 1 1 = 2 4 2 = 1 2. 1

Rechnen Sie bitte selbst: Im R 2 mit dem Standardskalarprodukt berechne man den Winkel zwischen ( ) den Vektoren ( ) 3 4 u = und v =. 4 3 Lösung. cos(α) = 3, 4 4 3 u v = 3 4+4 3 u v = 0 u v = 0. Dann ist α = arccos(0) = 90. Bemerkung. Wie ich bereits angekündigt habe: die Vektoren sind genau dann orthogonal (im Sinne der Definition in Vorl. 15, in welcher wir das Lot definiert haben), wenn der Winkel zwischen Vektoren gleich 90 ist.

Cauchy-Schwarz-Ungleichung Lemma 32 (Cauchy-Schwarz-Ungleichung) u, v u v (für alle u,v aus dem Euklidschen Vektorraum (V,, ). Ferner gilt: u, v = u v g.d.w. die Vektoren linear abhängig sind. Beweis. Ist v = 0, so sind beide Seiten gleich Null. Sei v 0. Sind die Vektoren linear abhängig, so ist u = λv, und u,v = λv,v = λ v 2 = λv v. Angenommen, die Vektoren sind linear unabhängig. Für alle t R gilt u + tv,u + tv Linearität = u,u + tv + t v,u + tv Linearität u,u + t u,v + t v,u }{{} 2t u, v wegen Symmetrie +t 2 v,v = u 2 }{{} c = + 2 u,v t + t 2 v 2. }{{}}{{} b a Dies ist ein quadratisches Polynom in t. Es hat keine Nullstelle, da u + tv,u + tv gleich Null sein kann nur falls u = tv, also falls u,v linear abhängig sind, was wir oben explizit ausgeschlossen haben. Da das Polynom keine Nullstelle hat, ist die Diskriminante negativ, also D = ( b 2) 2 ac = u,v 2 v 2 u 2 < 0. Dann ist u,v < v u.

Einige schulgeometrische Aussagen Folgerung: Dreiecksungleichung: Sei, ein Skalarprodukt auf V. Dann gilt für alle u,v V: u + v u + v. u v u+v Beweis. ( u + v ) 2 Wie im Beweis Lem. 32 = u + v,u + v = u 2 + 2 u,v + v 2 ( u + v ) 2 Wie im Beweis Lem. 32 u + v,u + v = u 2 + 2 u v + v 2. Da nach Lemma 32 u,v u v, ist ( u + v ) 2 ( u + v ) 2 und deswegen u + v u + v.

u u-v u+v v Parallelogrammgleichung: Für alle u, v V gilt: u + v 2 + u v 2 = 2( u 2 + v 2 ). Beweis. u + v 2 + u v 2 = u + v, u + v + u v, u v = u, u + 2 u, v + v, v + u, u 2 u, v + v, v = }{{} =2 v,u 2 ( u, u + v, v ) = 2( u 2 + v 2 ).

Kosinussatz Kosinussatz Im Dreieck auf dem Bild c alpha a b ist a 2 = b 2 + c 2 2 b c cos(alpha). Beweis: a + b = c, also a = c b. Dann ist a 2 = a, a = c b, c b = c, c 2 b, c + b, b = b 2 + c 2 2 b c cos(alpha).

Mit Hilfe der Bilinearität des Skalarprodukts kann man mehrere schulgeometrische Aufgaben lösen (Bsp: Thales) Z.Z. Im Dreieck auf dem Bild ist der Winkel alpha gleich 90. Satz von Thales u alpha b v a a 624 v. C. - 546 v. C. Beweis. Man betrachte die Vektoren a, b wie auf dem Bild. Wir zeigen, dass a + b, a }{{} b = 0. Wegen Bilinearität und Symmetrie ist }{{} u v a + b, a b = a, a + b, a a, b }{{} b, b = a, a b, b = a 2 b 2 = 0. Dann ist arccos =0, Symmetrie ( u, v u v ) = arccos(0) = 90. v

Def. Ein Endomorphismus f : V V eines Euklidschen Vektorraums (V,, ) heißt orthogonal, falls für alle u, v V gilt: u, v = f (u), f (v). Bemerkung Orthogonale Abbildungen erhalten die Längen und die Winkel, d.h. für alle u, v V gilt: f (u) = u und die Winkel zwischen u und v sowie zwischen f (u) und f (v) sind gleich. Tatsächlich, f (u) Def. = f (u), f (u) Def. = u, u Def. = u ; Der Winkel ( zwischen ) f (u) und ( f (v) ist ) nach Definition arccos f (u),f (v) Def. f (u) f (v) = arccos u,v u v und somit gleich dem Winkel zwischen u und v.

Satz 36 Sei f ein Endomorphismus eines Euklidschen Vektorraums (V,, ), so dass für jedes v V gilt: f (v) = v. Dann gilt: f ist eine orthogonale Abbildung In Worten: Längenerhaltende lineare Abbildungen sind orthogonal Beweis. Z.z.: für beliebige Vektoren u, v gilt: u, v = f (u), f (v). Wir rechnen f (u + v) 2 zweimal aus. 1. Weg: wir haben f (u + v) 2 = f (u + v),f (u + v) Linearität = f (u) + f (v),f (u) + f (v) Bilinearität Symmetrie = f (u),f (u) + 2 f (u),f (v) + f (v),f (v) = f (u) 2 + 2 f (u),f (v) + f (v) 2 Voraussetzungen = u 2 + 2 f (u),f (v) + v 2 2. Weg f (u + v) 2 auszurechnen: f (u + v) 2 = u + v 2 = u + v,u + v Linearität = u + v,u + v Bilinearität Symmetrie = u,u + 2 u,v + v,v = u 2 + 2 u,v + v 2. Also, u 2 + 2 f (u),f (v) + v 2 = u 2 + 2 u,v + v 2, daraus folgt 2 f (u),f (v) = 2 u,v,

Satz 37 Man betrachte R n mit dem Standard-Skalarprodukt. Sei A Mat(n,n). Dann gilt: f A ist genau dann orthogonal, falls A t = A 1. Def. Solche Matrizen A Mat(n,n) (s.d. A t A = Id) heißen orthogonale Matrizen Beweis =: Angenommen A t = A 1. Dann gilt: f A (x),f A (y) = Ax,Ay = (Ax) t (Ay) = x t A t Ay = x t Idy = x t y = x,y. Also ist f A orthogonal. Beweis = : Angenommmen Ax, Ay = x, y. Dann ist (Ax) t Ay = x t A t Ay = σ At A(x,y). Da (Ax) t Ay = x,y = σ Id (x,y), ist A t A = Id.

Folgerung A Sind A,B Mat(n,n) orthogonal, so sind A 1, AB auch orthogonal. Beweis. Wir zeigen dass A 1 orthogonal ist. Nach Definition ist A 1 = A t. Z.z.: (A t ) t = (A t ) 1,d.h. (A t ) t A t = Id. Aber (A t ) t A t = AA t = AA 1 = Id, also ist A 1 auch eine orthogonale Matrix. Wir zeigen dass AB orthogonal ist. (AB) t AB = B t A t AB = B t A } 1 {{ A } B = B t B = B 1 B = Id, also Id (AB) t = (AB) 1. Folgerung B Die Determinante einer orthogonalen Matrix ist ±1 Beweis. det(a t A) = det(id) = 1. Aber Satz 19 det(a t A) = det(a t )det(a) deswegen det(a) = ±1. Satz 22 = det(a) 2. Also, det(a) 2 = 1, und

Bedeutung von AA t = Id. Lemma 33 A Mat(n,n) ist genau dann orthogonal, wenn das Standard-Skalarprodukt der i ten Zeile mit der j ten Zeile gleich 1, falls i = j. 0, falls i j Wir werden benutzen: Eine (n n)-matrix ist genau dann gleich Id, falls deren (i,j)-element gleich 1, falls i = j. 0, falls i j ¼a 11... a 1n ½ ¼a 11... a n1 ½ Beweis des Lemmas: AA t =..... a n1... a nn.. a 1n... a nn Nach der Rechenregel für das Produkt von Matrizen (Satz 14) ist das (i,j)-element von AA t gleich dem Standard-Skalarprodukt der i ten Zeile von A mit der j ten Spalte von A t, die gleich der j ten Zeile von A ist. Also ist AA t genau dann gleich Id, wenn das Standard-Skalarprodukt der i ten Zeile mit der j ten Zeile gleich 1, falls i = j ist. 0, falls i j Folgerung A Mat(n,n) ist genau dann orthogonal, wenn das Standard-Skalarprodukt der i ten Spalte mit der j ten Spalte gleich 1, falls i = j. 0, falls i j Tatsächlich, nach obiger Folgerung ist A t auch orthogonal.

Anwendung des Lemmas 33 in R 2 Bsp. Die Matrix A = cos(α) sin(α) cos(α) sin(α) cos(α) sin(α) cos(α) sin(α) cos 2 (α) + sin 2 (α) cos(α) sin(α) sin(α) cos(α) sin(α) cos(α) sin(α) cos(α) = cos(α) sin(α) + sin(α) cos(α) cos 2 (α) + sin 2 (α) dass det(a) = cos 2 (α) + sin 2 (α) = 1. ist orthogonal. In der Tat, A t A = = 1 0 0 1. Man bemerke, Bsp. Die Matrix A = cos(α) sin(α) sin(α) cos(α) ist ebenfalls orthogonal. In der Tat, A t A = cos(α) sin(α) cos(α) sin(α) sin(α) cos(α) sin(α) cos(α) = cos 2 (α) + sin 2 (α) cos(α) sin(α) sin(α) cos(α) = 1 0 0 1. cos(α) sin(α) sin(α) cos(α) cos 2 (α) + sin 2 (α) Man bemerke, dass det(a) = cos 2 (α) sin 2 (α) = 1. Wir zeigen jetzt, dass jede 2 2 Orthogonalmatrix ist wie in den Bsp. oben ist.

Lemma 34. Es gilt: (a) Jede 2 2 Orthogonalmatrix A mit det(a) = 1 hat das Aussehen cos(α) sin(α), wobei α R. Ist sin(α) 0, so hat die Matrix sin(α) cos(α) keine Eigenvektoren. (b) Jede 2 2 Orthogonalmatrix A mit det(a) = 1 hat das Aussehen cos(α) sin(α) sin(α) cos(α), wobei α R. Diese Matrix hat die Eigenwerte 1 und 1. Bemerkung. Die Bedingung det(a) = ±1 in Lemma 34 ist keine Beschränkung: nach Folgerung B aus Satz 37 ist die Determinante einer Orthogonalmatrix gleich ±1.

Beweis. Sei A = a b c d orthogonal. Dann gilt nach Definition von Orthogonalmatrizen: A t A = a c a b = a 2 + c 2 ab + cd b d c d ab + cd b 2 + d 2 Da nach Definition von Orthogonalmatrizen muss A t A = 1 0 0 1 sein, die Zahlen a,b,c,d erfüllen somit die Bedingungen a 2 + c 2 = 1, b 2 + d 2 = 1, ab + cd = 0. ( ) Aufgrund der ersten Gleichung a 2 + c 2 = 1 gibt es eine Zahl θ mit a = cos(θ), c = sin(θ). In der Tat, setze θ = arccos(a) (wohldefiniert, denn a 1 und der Definitionsbereich der Funktion arccos ist [ 1,1]). Dann gilt selbstverständlich a = cos(θ). Außerdem gilt: Schulformel; wird in Analysis noch einmal erklärt sin(θ) = sin(arccos(a)) = 1 a2, deswegen ist sin 2 (θ) = 1 a 2 und wegen a 2 + c 2 = 1 bekommen wir sin 2 (θ) = c 2. Daraus folgt, dass sin(θ) = c ist (was wir wollen), oder dass sin(θ) = c ist. Im zweiten Fall ersetzen wir θ durch θ: die Bedingung (a,c) mit a²+ c² =1 a = cos(θ) wird dadurch nicht beeinträchtigt (weil cos( θ) = cos(θ) ist). Die Bedingung arccos(a) 1-Kreis sin(θ) = c wird nach Umbenennung θ θ die gewünschte Bedingung sin(θ) = c. Analog (aus b 2 + d 2 = 1) folgern wir, dass φ mit b = cos(φ),d = sin(φ).

Wir setzen a = cos(θ),c = sin(θ), b = cos(φ),d = sin(φ) in die dritte der Gleichungen ( ) ein: 0 = ab + cd = cos(θ)cos(φ) + sin(θ)sin(φ) Schulformel = cos(θ φ); daraus folgt dass (o.b.d.a) θ φ = ±90 ist. Falls θ φ = +90 ist, also φ = 90 θ, dann ist A = a b c d = cos(θ) cos(90 θ) sin(θ) sin(90 θ) = cos(θ) sin(θ) sin(θ) cos(θ). Wir sehen, dass die Matrix A wie in Fall (b) von Lemma 34 ist! Falls θ φ = 90 ist, also φ = 90 θ, dann ist A = a b c d = cos(θ) cos( 90 θ) sin(θ) sin( 90 θ) = cos(θ) sin(θ) sin(θ) cos(θ). Wir sehen, dass die Matrix A wie in Fall (a) (mit α = θ) von Lemma 34 ist!

Also, die Ortogonalmatrix A hat das Aussehen cos(α) sin(α) sin(α) cos(α) (Fall (a)) oder cos(α) sin(α) sin(α) cos(α) (Fall (b)). Jetzt wollen wir die Eigenwerte ermitteln. Im Fall (a) gilt: det(a t Id) = t 2 2cos(α)t + 1. Da Diskriminant D = cos(α) 2 1 < 0 für sin(α) 0. Also fur sin(α) 0 hat das Polynom keine Nullstelle, daher hat A keine Eigenwerte. Falls sin(α) = 0, hat die Matrix das Aussehen 1 0 ± 0 1 ; dann ist ±1 der einzige Eigenwert, und alle Vektoren v 0 von R 2 sind Eigenvektoren. Im Fall (b) gilt: det(a t Id) = t 2 1; dann sind die Eigenwerte 1, 1.

Orthogonale Matrix mit det = 1 entspricht einer Drehung Wir betrachten die Matrix A = cos(α) sin(α) sin(α) cos(α) aus Fall (a) von Lemma 34. Diese Matrix entspricht der Drehung (mit Winkel α) um den 0 Punkt des Koordinatensystems: In der Tat, die Multiplikation mit der Matrix A dreht die Basisvektoren (und deswegen auch alle Vektoren) um den Winkel α:

Orthogonale Matrix mit det = 1 entspricht einer Spiegelung Wir ermitteln zuerst die Eigenvektoren von A = cos(α) sin(α) sin(α). cos(α) Der Eigenvektor zu 1 ist u := sin(α) 1 cos(α) für α 2πk, k Z und 1 + cos(α) sin(α) = 1 0 für α = 2πk. (In der Tat, cos(α) sin(α) sin(α) sin(α) cos(α) 1 cos(α) = sin(α) 1 cos(α) ). Der Eigenvektor zu 1 ist v := cos(α) 1 sin(α) für α 2πk, k Z und 0 1 für α = 2πk. Man bemerke, dass u zu v orthogonal ist (sodass wir eine orthonormierte Basis bekommen, wenn wir sie normieren). In dieser Basis ( 1 v v, 1 u u) ist die Matrix der Abbildung gleich 1 0 0 1, und die Abbildung ist die Spiegelung bzgl. der Geraden mit dem Richtungsvektor u -v u v

Bemerkung. Es ist einfach zu verstehen, ob eine gegebene orthogonale (2 2) Matrix einer Drehung oder der Verkettung einer Drehung mit einer Spiegelung entspricht. In der Tat (wie oben einmal berechnet wurde), det cos(α) sin(α) sin(α) cos(α) = cos(α) 2 + sin(α) 2 = 1. det cos(α) sin(α) sin(α) cos(α) = 1. Also, wenn det(a) = 1 (wobei A eine 2 2 orthogonale Matrix), dann ist A die Matrix einer Drehung; wenn det(a) = 1, dann entspricht A einer Spiegelung. Bsp. Die Matrix 0 1 1 0 ist orthogonal; det(a) = 1. Dann muss sie die Matrix einer Spiegelung sein, und es ist so: Die Matrix 0 1 1 0 ist die Matrix der Spiegelung bzgl. der Gerade auf dem Bild. e =f(e ) 2 1 e =f(e ) 1 2

Folgerung. Verkettung von zwei Spiegelungen ist eine Drehung. Beweis. Die Multiplikation von zwei orthogonalen Matrizen ist orthogonal; die Determinante davon ist (det der ersten Matrix) (det der ersten Matrix)= ( 1) ( 1) = 1