LINEARE ALGEBRA II. Ernst Bönecke. Universität Hamburg

Größe: px
Ab Seite anzeigen:

Download "LINEARE ALGEBRA II. Ernst Bönecke. Universität Hamburg"

Transkript

1 LINEARE ALGEBRA II Ernst Bönecke Universität Hamburg Juli 2016

2 V O R W O R T Auch der zweite Teil beginnt mit Themen, die schon aus der Schule bekannt sein dürften: Skalarprodukt und Vektorprodukt im R 3. Es wird aber schnell allgemeiner: Eigenwerte, orthogonale und unitäre Gruppen sind eher kein Schulstoff. Das Tensorprodukt wird von vielen Studierenden oft als abstrakt empfunden. Dem Text liegt in den Paragraphen 6, 7, 8 und 9 das Buch [Fi] von G.Fischer zugrunde. 6 ist ergänzt durch einen Abschnitt über sphärische Geometrie, nach dem Buch [Ko] von M.Koecher. Der Paragraph 10 über klassische Gruppen ist eine Zusammenstellung aus den Büchern [HN] von J.Hilgert/K.-H.Neeb, [Hei] von W.Hein und einem Vorlesungstext [Ja] von J.C.Jantzen. Vorausgesetzt werden die Paragraphen 1 bis 5 aus der Linearen Algebra I. Erst in 10 werden Kenntnisse aus Topologie und Analysis vorausgesetzt, wie man sie etwa bei O.Forster, Analysis 2 und 3 ( [Fo2], [Fo3] ), findet. Die benutzten Begriffe stehen zwar in 10, aber ohne weitere Beispiele und Übungsaufgaben kann man diese Kapitel aus der Analysis nicht lernen. Ich denke, dass dieser Text für Studierende im 2.Semester gut lesbar ist, und viele Ergänzungen bringt, für die in einer Vorlesung meist keine Zeit ist. Hamburg, im Juli

3 Inhaltsverzeichnis 6 Vektorräume mit Skalarprodukt Definition und elementare Eigenschaften Orthonormalbasen Matrizen Hermitescher Formen Das Vektorprodukt im R Sphärische Geometrie Aufgaben 29 7 Eigenwerte Beispiele und Definitionen Das charakteristische Polynom Diagonalisierung Potenzen eines Endomorphismus Das Minimalpolynom einer Matrix Die Jordansche Normalform Aufgaben 78 8 Das Tensorprodukt Definition und Eigenschaften Symmetrische und alternierende Tensoren Tensoralgebra und äußere Algebra Aufgaben 98 9 Endomorphismen von Vektorräumen mit Skalarprodukt Orthogonale und unitäre Endomorphismen Selbstadjungierte Endomorphismen Hauptachsentransformation Trägheitsgesetz von Sylvester Aufgaben 142 2

4 10 Klassische Gruppen Einiges zur Topologie im R n Die allgemeine lineare Gruppe Untergruppen von GL(n, R) Die Struktur von GL(n, R) Die Struktur von GL(n, C) Die Quaternionengruppen Klassische Gruppen als Mannigfaltigkeiten Aufgaben 185 Literaturverzeichnis 189 Verzeichnis der Definitionen 190 3

5 6 Vektorräume mit Skalarprodukt 6.1 Definition und elementare Eigenschaften (6.1.1) Zur Motivation : Schon in Definition hatten wir für beliebiges n N das kanonische Skalarprodukt im R n definiert durch x, y := x 1 y x n y n für x = t (x 1,..., x n ), y = t (y 1,..., y n ) R n. Zwei Vektoren x, y R n wird also ein Skalar x, y R zugeordnet. Mit Hilfe dieses kanonischen Skalarprodukts hatten wir die Norm eines Vektors x R n definiert als ( ) x := x, x, und für x, y R n hatten wir Orthogonalität definiert durch x y : x, y = 0. Mit diesem Beispiel beschäftigen wir uns noch in Wir wollen aber allgemein Skalarprodukte auf möglicherweise unendlichdimensionalen Vektorräumen definieren. Man braucht so etwas a) in der Funktionalanalysis (Theorie der Funktionen mit Werten in R) und damit in der numerischen Mathematik, b) in der Physik, z.b. bei der mathematischen Formulierung der Quantentheorie. Es geschieht deshalb keineswegs (nur) aus Freude an allgemeinen, abstrakten Strukturen, was wir im Folgenden machen. Noch etwas: Sehen wir uns die obige Formel ( ) an, so sehen wir: Wenn wir die Norm eines Vektors x definieren wollen, müssen wir aus x, x die Quadratwurzel ziehen können. Wir betrachten daher nicht Vektorräume über beliebigen Körpern: Vereinbarung : In 6 werden wir unter K stets den Körper R der reellen oder den Körper C der komplexen Zahlen verstehen. Für z K sei z das Konjugiert-Komplexe von z, also z = a bi für z = a + bi C mit a, b R, bzw. z = z für z R. 4

6 Für z K ist z der (reelle oder komplexe) Betrag von z. Für z K soll z > 0 stets bedeuten: z R z > 0. Entsprechend: z 0 : (z R z 0). Definition : Sei V ein K Vektorraum (also ein Vektorraum über R oder C ). Eine Abbildung s : V V K heißt eine Sesquilinearfom (1 1 - fach linear) wenn für alle u, v, w V und 2 alle λ K gilt (H1) s(u + v, w) = s(u, w) + s(v, w), s(λu, w) = λs(u, w), d.h. s ist linear als Funktion des 1.Arguments, und (H1) s(u, v + w) = s(u, v) + s(u, w), s(u, λw) = λs(u, w), d.h. s ist als Funktion des 2.Arguments nicht so ganz linear. s heißt eine Hermitesche Form auf V, wenn zusätzlich für alle u, v V gilt (H2) s(u, v) = s(v, u), d.h. wenn man die beiden Argumente vertauscht, erhält man das Konjugiert-Komplexe. Bemerkung : Sei s eine Hermitesche Form, dann folgt (H1) bereits aus (H1) und (H2) : Seien u, v, w V und λ K, dann gilt s(u, v + w) (H2) = s(v + w, u) (H1) = s(v, u) + s(w, u) = s(v, u) + s(w, u) (H2) = s(u, v) + s(u, w), s(u, λv) (H2) = s(λv, u) (H1) = λ s(v, u) = λ s(v, u) (H2) = λ s(u, v). Folgerung : Ist s eine Hermitesche Form auf einem R-Vektorraum V, so lautet (H2) : u, v V : s(u, v) = s(v, u), 5

7 und daraus und aus (H1) folgt u, v V λ R : s(u, λv) = λ s(u, v). Man nennt s in diesem Fall deshalb eine symmetrische Bilinearform auf V. Bemerkung : Man möchte, wie im Spezialfall des R n mit dem kanonischen Skalarprodukt, die Länge eines Vektors definieren durch v := s(v, v). Wurzeln kann man aber nur aus nichtnegativen, reellen Zahlen ziehen. Haben wir nun eine Hermitesche Form s auf einem C Vektorraum V, so gilt nach (H2) für v V immerhin aber das reicht uns nicht: s(v, v) = s(v, v), also s(v, v) R, Definition : Sei V ein K Vektorraum und s eine Hermitesche Form auf V. Gilt (H 3 1 ) v V : s(v, v) 0, so heißt s positiv semidefinit. Gilt 2 (H4) v V \ {0} : s(v, v) > 0, so heißt s positiv definit. Bemerkung : Jede positiv definite hermitesche Form ist positiv semidefinit, denn für 0 V und 0 K gilt 0 = 0 0, also nach (H1) : s(0, 0) = s(0 0, 0) = 0 s(0, 0) = 0. Definition : Sei V ein K Vektorraum. Eine positiv definite Hermitesche Form s auf V heißt ein Skalarprodukt auf V, und (V, s) heißt, a) falls K = R ist, ein euklidischer, b) falls K = C ist, ein unitärer Vektorraum. Definition : Sei n N, dann definieren wir für x = t (x 1,..., x n ), y = t (y 1,..., y n ) K n : x, y := n x j y j j=1 6

8 und nennen, das kanonische oder Standard-Skalarprodukt im K n. Man sieht, dass für, die Regeln (H1), (H2) erfüllt sind, und wegen x, x = n x j x j = j=1 n x j 2 j=1 auch (H4). - Es wird damit deutlich, warum man in der Definition von x, y ein über die y j setzen muss! Beispiel : Seien a, b R, a < b und I[a, b] der C Vektorraum der integrierbaren Funktionen f auf dem Intervall [a, b] := { x R a x b }, also f : [a, b] C. Dann setzen wir s : I[a, b] I[a, b] C, s(f, g) := b a f(t) g(t) dt. s ist eine positiv semidefinite hermitesche Form, denn s(f, f) = b f(t) 2 dt 0. s ist aber nicht positiv definit, denn nehmen wir z.b. a f : [a, b] C, f(x) = { 1 für x = a 0 für x a, so ist f I[a, b], denn f ist eine Treppenfunktion, f 0, aber b f(t) 2 dt = 0, also s(f, f) = 0. a Was Sie unter einer integrierbaren Funktion zu verstehen haben, lernen Sie in der Analysis. Sie können darunter etwa Regelfunktionen verstehen, wie in [K1], aber Sie können auch andere Integralbegriffe zugrunde legen. Beispiel : Der Vektorraum C[a, b] aller stetigen, komplexwertigen Funktionen ist ein Untervektorraum von I[a, b]. Damit ist auch s : C[a, b] C[a, b] C, 7

9 s(f, g) = b f(t) g(t) dt definiert, und s ist ein Skalarprodukt, denn sei f C[a, b], f 0, dann gibt es ein t 0 [a, b] mit f(t 0 ) 0, also h := f(t 0 ) 2 > 0. Auch t f(t) 2 ist stetig, mit Werten in R, und in der Analysis lernt man, dass es daher ein Intervall [c, d] mit t 0 [c, d] [a, b] gibt und f(t) 2 h 2 s(f, f) d c f(t) 2 für t [c, d], c < d, also h 2 dt = h (d c) > 0. 2 a h h 2 a c t 0 d b t Definition : Sei V ein K Vektorraum mit einer positiv semidefiniten hermiteschen Form s. Für v V nennen wir die Norm von v. v := s(v, v) Cauchy-Schwarzsche Ungleichung : Sei V ein K Vektorraum 8

10 mit positiv semidefiniter Hermitescher Form s. Dann gilt für alle v, w V : s(v, w) v w. Ist die Familie (v, w) linear abhängig, so gilt sogar das Gleichheitszeichen. Beweis : 1) Für alle λ K gilt, da s positiv semidefinit ist: 0 s(v λw, v λw) = s(v, v) λ s(w, v) λ s(v, w) + λλs(w, w), ( ) 0 s(v, v) λ s(v, w) λ s(v, w) + λ λ s(w, w). a) Gilt s(v, v) = s(w, w) = 0, so setzen wir λ := s(v, w) in ( ) ein : 0 s(v, w) s(v, w) s(v, w) s(v, w) = 2 s(v, w) 2, und wegen s(v, w) 2 0 folgt s(v, w) = 0. Da auch v = w = 0 ist, gilt in diesem Fall die Ungleichung. b) Sind s(v, v) und s(w, w) nicht beide Null, so ist eins von beiden positiv. Sei etwa s(w, w) > 0, dann setzen wir λ := s(v, w) s(w, w) in ( ) ein, und multiplizieren mit s(w, w) : 0 s(v, v)s(w, w) s(v, w)s(v, w) s(v, w)s(v, w) + s(v, w)s(v, w), also s(v, w) 2 s(v, v) s(w, w), und wir wissen: Wenn R + = { x R x 0 } ist, ist die Wurzelfunktion : R+ R +, x x monoton wachsend : 2) Ist (v, w) linear abhängig, so gilt s(v, w) v w. λ K : v = λw λ K : w = λv. Sei etwa v = λw mit λ K, also v 2 = s(v, v) = λλs(w, w) = λ 2 s(w, w) = λ 2 w 2, s(v, w) = λ s(w, w) = λ w 2, also s(v, w) = ( λ w ) w = v w. 9

11 Zusatz : Sei V ein K Vektorraum mit Skalarprodukt s, und seien v, w V mit s(v, w) = v w, so ist die Familie (v, w) linear abhängig. Beweis : Sei λ := s(w, w) und µ := s(v, w), dann ist λ R, und s(λv + µw, λv + µw) = λλs(v, v) + µµs(w, w) + λµs(v, w) + λµs(w, v) = w 4 v 2 + s(v, w) 2 w 2 w 2 s(v, w) 2 w 2 s(v, w) 2 = w 2 ( w 2 v 2 + v 2 w 2 v 2 w 2 v 2 w 2 ) = 0, also λv + µw = 0, da s positiv definit ist. Also ist a) falls w = 0 ist: (v, w) linear abhängig, und b) falls w 0 ist: λ = w 2 0, also (v, w) linear abhängig. Satz : Sei V ein K Vektorraum mit positiv semidefiniter Hermitescher Form s, und v := s(v, v) für v V. Dann gilt für alle v, w V und alle λ K : (N1 ) v 0 (N2) λ v = λ v (N3) v + w v + w (Dreiecksungleichung). Ist s sogar positiv definit, so gilt statt (N1 ) (N1) v 0 ( v = 0 v = 0 ). Beweis : (N1 ) folgt daraus, dass s(v, v) 0 ist. (N2) λ v = s(λv, λv) = λ λ s(v, v) = λ 2 s(v, v) = λ v. (N3) v + w 2 = s(v +w, v +w) = s(v, v) + s(v, w) + s(w, v) + s(w, w) = v 2 + w 2 + s(v, w) + s(v, w) = v 2 + w Re s(v, w), und da für z C gilt : Re z z : v + w 2 v 2 + w s(v, w), und nach Cauchy-Schwarz: v 2 + w v w = ( v + w ) 2, also v + w v + w. 10

12 (N1) Ist s positiv definit, so gilt für v 0 : s(v, v) > 0, also v > 0. Definition : Ein K Vektorraum V mit einer Abbildung : V R, die die Eigenschaften (N1) v V : ( v 0 ( v = 0 v = 0)), (N2) v V λ K : λv = λ v, (N3) v, w V : v + w v + w hat, heißt ein normierter K Vektorraum. Mit Satz bekommen wir daher: Folgerung : Jeder K Vektorraum V mit Skalarprodukt s wird ein normierter K Vektorraum, wenn man v := s(v, v) für v V setzt. Folgerung : Sei V ein K Vektorraum mit positiv semidefiniter Hermitescher Form s und v = s(v, v) für v V. Dann gilt für alle v, w V : a) v + w 2 = v 2 + w 2 + s(v, w) + s(w, v) (Satz des Pythagoras), und b) v + w 2 + v w 2 = 2 ( v 2 + w 2 ) (Parallelogrammgleichung). Beweis als Übungsaufgabe (6.1). Bemerkung : Nach Folgerung wird jeder K Vektorraum V mit Skalarprodukt s ein normierter K Vektorraum, wenn man die Norm durch ( ) v := s(v, v) für v V 11

13 definiert. Man kann nun umgekehrt fragen: Sei V ein normierter K Vektorraum, gibt es dann auf V ein Skalarprodukt s, so dass ( ) gilt? Nach Folgerung ist dann klar: Ist eine Norm auf V, die die Parallelogrammgleichung nicht erfüllt, so gibt es so ein s nicht. Ein Beispiel für einen normierten K Vektorraum, in dem die Parallelogrammgleichung nicht gilt, erhalten Sie als Übungsaufgabe (6.2). Wenn für die Parallelogrammgleichung gilt, dann gibt es so ein s, der Beweis benutzt Argumente aus der Analysis, siehe [ SG ]. Man braucht die Cauchy-Schwarzsche Ungleichung, um Winkel zwischen Vektoren zu definieren: Definition : Sei V ein euklidischer Vektorraum, also ein R Vektorraum mit Skalarprodukt s. Seien v, w V \ {0}, dann gilt nach Cauchy- Schwarz: s(v, w) v w 1, und wegen s(v, w) R sogar s(v, w) v w [ 1, 1]. Also ist ϕ := arccos s(v, w) v w definiert, und es gilt ϕ [0, π]. ϕ heißt der Winkel zwischen den Vektoren v und w. Wir wollen in diesem Abschnitt keine analytische Geometrie treiben und uns deshalb nicht allgemein mit Winkeln beschäftigen. Wir sehen aber : ϕ = π 2 s(v, w) = 0, die Vektoren v und w stehen genau dann aufeinander senkrecht, wenn ihr Skalarprodukt 0 ist. s(v, w) = 0 gibt natürlich auch für einen C Vektorraum Sinn: Definition : Sei V ein K Vektorraum mit Hermitescher Form s. Zwei Vektoren u, v V heißen zueinander senkrecht oder orthogonal, in Zeichen: u v, wenn s(u, v) = 0 ist. 12

14 Wir betrachten dazu noch einmal unser Beispiel : Im C Vektorraum I[a, b] der integrierbaren Funktionen f : [a, b] C, a, b R, a < b, mit s(f, g) = b a f(t) g(t) dt sei f a : [a, b] C, f a (t) : = dann gilt für alle g I[a, b] : { 1 für t = a 0 für t a, f a (t) g(t) = { g(a) für t = a 0 für t a, also s(f a, g) = 0, also f a g für alle g I[a, b], aber f a 0 Definition : Eine Hermitesche Form s auf einem K Vektorraum V heißt nichtausgeartet, wenn es außer 0 keinen Vektor aus V gibt, der auf allen w V senkrecht steht, wenn also gilt (H3) v V : ( w V : s(v, w) = 0 = v = 0 ). Folgerung : Sei V ein K Vektorraum mit Hermitescher Form s. Dann gilt: s positiv definit s nichtausgeartet und positiv semidefinit. Beweis : = : Sei s positiv definit und v V ein Vektor mit w V : s(v, w) = 0, dann gilt insbesondere s(v, v) = 0, also v = 0. Also ist s nichtausgeartet, und positiv semidefinit nach Folgerung = : Ist s positiv semidefinit, so gilt für alle v V : s(v, v) 0, und falls v = 0 ist : s(v, v) = 0. 13

15 Ist nun v V mit s(v, v) = 0, so gilt nach Cauchy-Schwarz für alle w V : s(v, w) 2 v 2 w 2 = s(v, v) s(w, w) = 0, also s(v, w) = 0, und damit s(v, w) = 0, für alle w V. Ist nun s nichtausgeartet, so folgt daraus v = 0. Hermitesche Formen, die nicht positiv semidefinit, aber immerhin noch nichtausgeartet sind, kommen in der Physik (und zwar in der Relativitätstheorie) vor: Beispiel : Für a = t (a 1, a 2, a 3, a 4 ), b = t (b 1, b 2, b 3, b 4 ) R 4 man 3 s(a, b) := a j b j a 4 b 4, j=1 setzt dann ist s eine nichtausgeartete symmetrische Bilinearform auf dem R 4, die nicht positiv semidefinit ist. Beweis : Dass (H1) und (H2) für s gelten, kann man leicht nachrechnen. Für a = (0, 0, 0, 1) gilt s(a, a) = 1 < 0, also gelten (H 3 1 ) und (H4) nicht. Es gilt aber (H3), denn sei a R4 und 2 b R 4 : s(a, b) = 0, dann gilt insbesondere für die kanonischen Basisvektoren e j, j 4, des R 4 : also a = 0. s(a, e j ) = 0 und damit a 1 = a 2 = a 3 = a 4 = 0, In der Relativitätstheorie interpretiert man hier die ersten drei Komponenten von a als Ort und a 4 als Zeit. 6.2 Orthonormalbasen Definition : Sei V ein K Vektorraum mit Skalarprodukt und (v j ) j J 14

16 eine Familie von Vektoren aus V, J eine (nicht notwendig endliche) Menge. Dann heißt die Familie (v j ) j J a) ein Orthogonalsystem, wenn v j v k für alle j, k J mit j k ist, b) ein Orthonormalsystem, wenn sie ein Orthogonalsystem ist und zusätzlich v j = 1 für alle j J gilt, c) eine Orthogonalbasis, wenn sie ein Orthogonalsystem und eine Basis von V ist, d) eine Orthonormalbasis, wenn sie ein Orthonormalsystem und eine Basis von V ist. Beispiel : Im K Vektorraum K n mit dem kanonischen Skalarprodukt, ist die kanonische Basis (e j ) j n eine Orthonormalbasis, denn es gilt für j, l n : e j = (δ kj ) k n, also e j, e l = n δ kj δ kl = δ lj = k=1 { 1 für j = l 0 für j l. Beispiel : Im K Vektorraum K[X] aller Polynome mit Koeffizienten aus K wird durch s(f, g) := 1 1 f(t) g(t)dt ein Skalarprodukt definiert. Die Legendre-Polynome P n (X) := 1 2 n n! Dn (X 2 1) n für n N 0, wobei D die formale Ableitung eines Polynoms ist, also ( n ) n 1 D α j X j = (j + 1)α j+1 X j für α j K, j=0 j=0 sind Polynome vom Grad n, für jedes n N 0, und damit sieht man, dass sie eine Basis von K[X] bilden. (P n (X)) n N0 ist sogar eine Orthogonalbasis, denn mit Methoden aus der Analysis (partieller Integration) kann man zeigen: s(p n, P m ) = 1 P n (t) P m (t) dt = 0 für n m, 1 15

17 allerdings keine Orthonormalbasis, denn s(p n, P n ) = 2 2n + 1 Nimmt man statt (P n (X)) n N0 aber die Familie (Q n (X)) n N0, die durch 2n + 1 Q n (X) := P n (X) 2 definiert ist, so ist (Q n (X)) n N0. sogar eine Orthonormalbasis von K[X]. Bemerkung : Orthonormalbasen sind sehr praktisch: Ist V ein K Vektorraum mit Skalarprodukt s und Orthonormalbasis (v j ) j n, n N, so hat jedes v V eine eindeutig bestimmte Darsllung v = n λ j v j mit λ j K, j=1 und man kann die λ j leicht berechnen: Es ist für k n: n s(v, v k ) = s( λ j v j, v k ) = also λ k = s(v, v k ). j=1 n λ j s(v j, v k ) = j=1 n λ j δ jk = λ k, j=1 Wie kann man sich nun zu einem gegebenem K Vektorraum V mit Skalarprodukt s eine Orthonormalbasis verschaffen? Der folgende Satz macht nicht nur eine Existenz-Aussage, sondern gibt auch ein Verfahren an, wie man so eine Basis schrittweise konstruieren kann. Man sollte daher den Beweis verstehen: (6.2.5) Orthonormalisierungssatz von J.Gram und Erhard Schmidt : Sei V ein K Vektorraum mit Skalarprodukt s und dim V = n N. Dann lässt sich jedes Orthonormalsystem (w 1,..., w m ) in V mit 0 m n ergänzen zu einer Orthonormalbasis (w 1,..., w m,..., w n ) von V. 16

18 Beweis durch Induktion nach k := n m : Induktionsanfang : Sei k = 0, dann ist n = m, und das Orthonormalsystem (w j ) j n ist bereits eine Basis, denn es besteht aus n Vektoren, und diese sind linear unabhängig: Aus n α j w j = 0 mit α j K folgt für k n : j=1 ( n ) 0 = s α j w j, w k = n n α j s(w j, w k ) = α j δ jk = α k. j=1 j=1 j=1 Hier ist der Satz also richtig; wir brauchen nichts zu ergänzen. Induktionsschluss : Sei k N 0, und für n m = k sei der Satz richtig. Sei nun n m = k + 1 N, dann ist m = n (k + 1) < n = dim V, für W := span(w j ) j m gilt dim W m < n, es gibt also einen Vektor v V mit v / span(w j ) j m. Wir setzen ṽ := m j=1 s(v, w j ) w j ( ṽ ist die Projektion von v nach W ). x 3 v w (In der Zeichnung x 2 ist W die (x 1, x 2 ) ṽ Ebene und V = R 3.) x 1 Der Vektor ṽ liegt in W, und w := v ṽ 17

19 steht auf allen Vektoren aus W senkrecht, denn für k m gilt ( m ) s(w, w k ) = s(v, w k ) s s(v, w j )w j, w k = s(v, w k ) = s(v, w k ) j=1 m s(v, w j ) s(w j, w k ) j=1 m s(v, w j ) δ jk j=1 = s(v, w k ) s(v, w k ) = 0. Wegen ṽ W, v / W ist w 0. Wir können w daher normieren : Wir setzen w m+1 := 1 w w, dann haben wir ein Orthonormalsystem (w 1,..., w m, w m+1 ) in V ; es ist n (m + 1) = k, und wenn der Satz für k richtig ist, kann man dieses Orthonormalsystem ergänzen zu einer Orthonormalbasis (w 1,..., w m, w m+1,..., w n ) von V. Bemerkung : Die für die praktische Rechnung bei der Konstruktion einer Orthonormalbasis wichtigen Schritte haben wir eingerahmt! Folgerung : Jeder endlichdimensionale K Vektorraum V mit Skalarprodukt besitzt eine Orthonormalbasis. Beweis : Die leere Familie (w j ) j 0 ist ein Orthonormalsystem in V, man kann also den Orthonormalisierungssatz mit m := 0 verwenden. 6.3 Matrizen Hermitescher Formen Definition : Sei V ein n dimensionaler K Vektorraum, n N, 18

20 B = (v 1,..., v n ) eine Basis von V, und s eine Hermitesche Form auf V, dann nennen wir M B (s) := (s(v k, v j )) (k,j) n n M(n n, K) die darstellende Matrix von s bezüglich der Basis B. Bemerkung : Durch M B (s) ist s eindeutig festgelegt, denn seien v, w V, dann hat man zu B = (v 1,..., v n ) eindeutig bestimmte Vektoren x = t (x 1,..., x n ), y = t (y 1,..., y n ) K n mit Setzen wir v = n x k v k, w = k=1 ( n s(v, w) = s x k v k, k=1 wenn wir unter y den Vektor ) n y j v j = j=1 n y j v j, also j=1 n k=1 n x k s(v k, v j )y j. j=1 A := M B (s), so wird s(v, w) = t x A y, y := t (y 1,..., y n ) verstehen. Hier ist A nicht irgendeine Matrix aus M(n n, K) : Da s Hermitesch ist, gilt s(v k, v j ) = s(v j, v k ), für A = (a kj ) = M B (s) also a kj = a jk : Definition : Eine Matrix A = (a kj ) M(n n, K) heißt Hermitesch, wenn a kj = a jk für alle j, k n, also ist. Ist K = R, so bedeutet das A = t A A = t A, 19

21 eine Matrix mit dieser Eigenschaft heißt symmetrisch. Folgerung : Wir haben also bewiesen: Ist V ein K Vektorraum mit Basis B = (v 1,..., v n ), und s eine Hermitesche Form auf V, so ist die darstellende Matrix A := (s(v k, v j )) Hermitesch. Man sieht sofort, dass umgekehrt jede Hermitesche Matrix A = (a kj ) durch ( n ) n n s x k v k, y j v j := x k a kj y j k=1 j=1 eine hermitesche Form auf V definiert. k,j=1 Es wäre nun schön, wenn man der darstellenden Matrix M B (s) ansehen könnte, ob s nichtausgeartet oder sogar positiv definit ist. Satz : Eine Hermitesche Form s auf einem endlichdimensionalen K Vektorraum V ist genau dann nichtausgeartet, wenn für die darstellende Matrix M B (s) bezüglich einer festen Basis B von V gilt det M B (s) 0. Beweis : Sei (v 1,..., v n ) eine Basis von V. Dann gilt: s ist ausgeartet v V \ {0} w V : s(v, w) = 0 v V \ {0} j n : s(v, v j ) = 0. und da v = n k=1 s ist ausgeartet α k v k mit (α 1,..., α n ) 0 ist, gilt: (α 1,..., α n ) 0 j n : n k=1 α k s(v k, v j ) = 0 Die Zeilenvektoren von (s(v k, v j )) sind linear abhängig det(s(v k, v j )) = 0. Zumindest bei R-Vektorräumen mit symmetrischer Bilinearform s kann man an der Matrix M B (s) auch ablesen, ob s positiv definit ist, das ist das Hauptminoren- oder Hurwitz-Kriterium, das wir aber erst später beweisen können. 20

22 Wir fragen uns, wie sich die darstellende Matrix M B (s) bei einem Basiswechsel verändert : (6.3.6) Transformationssatz für darstellende Matrizen Hermitescher Formen: Sei V ein n dimensionaler K Vektorraum mit Hermitescher Form s, n N, und seien A = (a 1,..., a n ), A = (a 1,..., a n) zwei Basen von V, dann hat man, wie in Bemerkung : n j n : a j = t kj a k mit der Transformationsmatrix k=1 MA A ( id V ) =: T = (t kj ) GL(n, K), also gilt ( n ) n j, l n : s(a j, a l ) = s t kj a k, t rl a r = n k=1 n t kj t rl s(a k, a r) = r=1 k=1 n k=1 und nach Definition des Matrizenprodukts heißt das r=1 n t kj s(a k, a r) t rl, r=1 M A (s) = t T M A (s) T, genauer: M A (s) = t M A A ( id V ) M A (s) M A A ( id V ). (6.3.7) Beachten Sie, dass die Transformationsformel für die Matrix einer Hermiteschen Form anders ist als die Transformationsformel für die Matrix linearer Abbildungen: Hat man einen Endomorphismus F : V V und zwei Basen A, (A) von V, sogilt nach : M A A (F ) = T 1 M A A (F ) T mit T := M A A ( id V ), dieser kleine Unterschied wird uns noch beschäftigen! 6.4 Das Vektorprodukt im R 3 Schon in hatten wir das Vektorprodukt im R 3 definiert. Dem ist nicht viel hinzuzufügen, da man das Vektorprodukt nicht in anderen Vektorräumen definieren kann. Aber Determinanten kannten wir damals noch nicht, und da 21

23 gibt es einige Zusammenhänge: (6.4.1) Zur Wiederholung : Seien a = t (a 1, a 2, a 3 ), b = t (b 1, b 2, b 3 ) R 3, dann war der Vektor ( ) a b := (det t a2 b 2 a 3 b 3 ( a1 b, det 1 a 3 b 3 ) ( a1 b, det 1 a 2 b 2 )) R 3 das Vektorprodukt von a und b. - Wir hatten das damals natürlich ohne Determinanten aufgeschrieben. Die Rechenregeln kennen Sie zum Teil: (6.4.2) Rechenregeln für das Vektorprodukt : Seien a, b, c R 3, λ R und, das kanonische Skalarprodukt im R 3. Dann gilt a) a b, c = det(a, b, c), wobei (a, b, c) die Matrix mit den Spaltenvektoren a, b, c ist, b) a b = (b a), c) a a = 0, d) a (b + c) = a b + a c, e) a (λb) = λ(a b), f) a, a b = b, a b = 0, g) a (b c) = a, c b a, b c Grassmann-Identität, h) a (b c) + b (c a) + c (a b) = 0 Jacobi-Identität, i) a b = 0 die Familie (a, b) ist linear abhängig. Beweis : a) Entwicklung von det a 1 b 1 c 1 a 2 b 2 c 2 a 3 b 3 c 3 nach der 3.Spalte ergibt die Behauptung. b), c ), f), i) folgen aus a) und daraus, dass det alternierend ist. d), e) folgen aus der Linearität von det als Funktion der 2.Spalte. g) Hier muss man einfach stumpfsinnig ausrechnen: a (b c) = a (b 2 c 3 b 3 c 2, b 3 c 1 b 1 c 3, b 1 c 2 b 2 c 1 ) = (a 2 (b 1 c 2 b 2 c 1 ) a 3 (b 3 c 1 b 1 c 3 ), a 1 (b 1 c 2 b 2 c 1 ) + a 3 (b 2 c 3 b 3 c 2 ), a 1 (b 3 c 1 b 1 c 3 ) a 2 (b 2 c 3 b 3 c 2 )) = ((a 1 c 1 + a 2 c 2 + a 3 c 3 )b 1 (a 1 b 1 + a 2 b 2 + a 3 b 3 )c 1, (a 1 c 1 + a 2 c 2 + a 3 c 3 )b 2 (a 1 b 1 + a 2 b 2 + a 3 b 3 )c 2, (a 1 c 1 + a 2 c 2 + a 3 c 3 )b 3 (a 1 b 1 + a 2 b 2 + a 3 b 3 )c 3 ) = a, c b a, b c. h) Nach g) gilt a (b c) + b (c a) + c (a b) = 22

24 a, c b a, b c + b, a c b, c a + c, b a c, a b = 0. i) folgt wieder aus (6.4.1) und den Regeln für Determinanten. Bemerkung :Für das Vektorprodukt gilt also das Distributivgesetz (Regeln d),e)) und statt des Kommutativgesetzes die Regel b). Statt des Assoziativgesetzes hat man für drei Faktoren die Jacobi-Identität, Regel h). Ein Einselement in (R 3, ) wird man vergeblich suchen - wegen Regel c). Nach Definition ist also (R 3, +,, ω) keine (assoziative) R Algebra. Man nennt einen Vektorraum mit einer Multiplikation, für die das Distributivgesetz und die Regeln c) und h) des vorigen Satzes gelten, eine Lie-Algebra. Satz 6.4.4: Für alle a, b, c, d R 3 gilt a b, c d = a, c b, d b, c a, d. Beweis : Nach der Grassmann-Identität (6.4.2) g) gilt a, c b b, c a = c (b a). Wir bilden auf beiden Seiten das Skalarprodukt mit d : a, c b, d b, c a, d = c (b a), d (6.4.2) a) = det(c, b a, d) = det(c, d, b a) (6.4.2) a) = c d, b a = a b, c d. Satz : Für alle a, b R 3 gilt a, b 2 + a b 2 = a 2 b 2. Das ist eine genauere Aussage als die Cauchy-Schwarzsche Ungleichung, die nur a, b 2 a 2 b 2 liefert! Beweis : Setzen wir c := a, d := b in (6.4.4) ein, so erhalten wir a b, a b = a, a b, b b, a a, b, also 23

25 a b 2 + a, b 2 = a 2 b 2. (6.4.6) Geometrische Deutung des Vektorprodukts : Seien a, b R 3, a, b 0. Dann gilt (1) a b = a b sin ϕ, wobei ϕ der Winkel zwischen a und b ist, (2) a b a und a b b, (3) det(a, b, a b) 0.. Beweis : (1) a b 2 (6.4.5) = a 2 b 2 a, b 2 = a 2 b 2 (1 cos 2 ϕ) = a 2 b 2 sin 2 ϕ, ϕ [0, π], also sin ϕ [0, 1], und damit folgt die Behauptung. (2) a b, a (6.4.2) = det(a, b, a) = 0, entsprechend für b. (3) det(a, b, a b) (6.4.2) = a b, a b = a b 2 0. Ist (a, b) linear unabhängig, so weiß man damit: a b steht senkrecht auf der von a und b aufgespannten Ebene im R 3 und hat die Norm a b sin ϕ. (3) macht eine Aussage, in welche Richtung der Vektor a b zeigt. Man braucht dazu den Begriff der Orientierung einer Basis des R n : Definition : Sei (b 1,..., b n ) eine Basis des R n. Sie heißt positiv orientiert, wenn für die Matrix mit den Spaltenvektoren b 1,..., b n gilt : det(b 1,..., b n ) > 0. Sei T diese Matrix, also t kj die k te Komponente von b j, so gilt j n : b j = n t kj e k, k=1 T = MK B ( id V ) ist also die in Bemerkung definierte Transformationsmatrix von der Basis (b j ) j n zur kanonischen Basis (e k ) k n. (b j ) j n positiv orientiert bedeutet dann, dass (b j ) j n genauso orientiert ist wie die kanonische Basis. Speziell im R 3 kann man beweisen: Satz : Eine Basis (b 1, b 2, b 3 ) des R 3 ist genau dann positiv orientiert, 24

26 wenn sie die Rechte-Hand-Regel erfüllt : Zeigt b 1 in die Richtung des Daumens, b 2 in die des Zeigefingers, so zeigt b 3 in die Richtung des Mittelfingers der rechten Hand. Die Regel (6.4.6)(3) sagt dann: Ist (a, b) linear unabhängig, so ist (a, b, a b) eine positiv orientierte Basis des R 3, erfüllt also die Rechte- Hand-Regel. 6.5 Sphärische Geometrie Sie ist für das weitere Verständnis der Linearen Algebra vielleicht nicht übermäßig wichtig, aber es gehört zur mathematischen Allgemeinbildung, dass man Entfernungen nicht nur anhand einer Wander- oder Autokarte, sondern auch insgesamt auf der Erdoberfläche, die man näherungsweise als Kugeloberfläche ansehen kann, ausrechnen kann. Wir nehmen zunächst mal die Kugel mit dem Radius 1 : Definition : Ein sphärisches Dreieck ist eine positiv orientierte Basis (a, b, c) des R 3 mit a = b = c = 1. B c γ A a α β b C Als Seiten des Dreiecks (a, b, c) bezeichnet man die Winkel zwischen diesen Vektoren, im Bogenmaß gemessen, also A := arccos b, c, B := arccos a, c, 25

27 C := arccos a, b. Als Winkel zwischen diesen Seiten bezeichnet man die Winkel zwischen den durch (a, b), (b, c) bzw. (a, c) aufgespannten Ebenen, also die Winkel zwischen zwei Vektoren, die auf diesen Ebenen senkrecht stehen: α := arccos a c, a b a c a b, β := arccos γ := arccos b a, b c b a b c c b, c a c b c a Wie in der Geometrie in der Ebene sucht man nun Beziehungen zwischen A, B, C, α, β, γ, so dass man von diesen sechs Zahlen die restlichen ausrechnen kann, wenn man drei davon kennt. Unsere Regeln für das Vektorprodukt sind dabei sehr nützlich, z.b. bei Hilfssatz : Das sphärische Dreieck (a, b, c) sei wie in definiert. Dann gilt det(a, b, c) = sin α sin B sin C. Beweis : Seien zunächst a, b, c, d R 3 beliebig. Dann gilt nach der Grassmann-Identität g) : (a b) (c d) = < a b, d > c < a b, c > d und nach Regel (6.4.2) a) ist das gleich... = det(a, b, d) c det(a, b, c) d. Also gilt für unser sphärisches Dreieck (a, b, c) : also (a b) (a c) = det(a, b, c) a wegen det(a, b, a) = 0, det(a, b, c) = det(a, b, c) a = det(a, b, c) a = (a b) (a c) (6.4.6)(1) = a b a c sin α (6.4.6)(1) = sin C sin B sin α, und wegen α, B, C [0, π], und da (a, b, c) positiv orientiert ist, folgt det(a, b, c) = sin C sin B sin α. 26,.

28 6.5.3 : Sinus - Satz : Im sphärischen Dreieck, mit den Bezeichnungen aus 6.5.1, gilt sin α sin A = sin β sin B = sin γ sin C. Beweis : Nach Hilfssatz gilt sin α sin A = det(a, b, c) sin A sin B sin C, und das ändert sich nicht, wenn man a, b, c zyklisch vertauscht. Die folgenden beiden Sätze folgen aus den Rechenregeln für das Vektorprodukt : : 1. Cosinus - Satz : Im sphärischen Dreieck gilt cos A = cos B cos C + sin B sin C cos α : 2. Cosinus - Satz : Im sphärischen Dreieck gilt sin C cos B = sin B cos C cos α + sin A cos β. Beweis als Aufgabe (6.9) : Entfernung auf der Erde : In erster Näherung kann man annehmen, dass die Erde eine Kugel mit dem Radius R = 6378km 27

29 N K P Ä ϕ λ M 0 S ist. Man gibt Punkte P auf dem Breitenkreis K auf der Erde durch zwei Koordinaten an, nämlich die (nördliche bzw. südliche) Breite ϕ, vom Äquator Ä aus gerechnet, und die (östliche bzw. westliche) Länge λ, gerechnet vom Nullmeridian M 0. Länge und Breite werden im Winkelmaß gemessen, z.b.: Berlin Madrid Luanda Länge 13,4 o ö.l. 3,8 o w.l. 3,3 o ö.l. Breite 52,5 o n.b. 40,4 o n.b. 8,9 o s.b. Zählt man südliche Breite und westliche Länge negativ, so ist 90 o ϕ 90 o und 180 o < λ 180 o. Die Entfernung zwischen zwei Punkten b, c auf der Erde erhält man durch Betrachtung des durch b, c und den Nordpol a gebildeten sphärischen Dreiecks, 28

30 C β A b a α B γ c Ä mit Hilfe des 1. Cosinus - Satzes: Hat b die Koordinaten (λ 1, ϕ 1 ) und c die Koordinaten (λ 2, ϕ 2 ), so ist B = 90 o ϕ 2, C = 90 o ϕ 1, also cos A = cos(90 o ϕ 2 ) cos(90 o ϕ 1 ) + sin(90 o ϕ 2 ) sin(90 o ϕ 1 ) cos(λ 2 λ 1 ) cos A = sin ϕ 1 sin ϕ 2 + cos ϕ 2 cos ϕ 1 cos(λ 2 λ 1 ). Daraus kann man A im Bogenmaß ausrechnen und muss das Ergebnis noch mit dem Erdradius multiplizieren; das ist dann die Entfernung zwischen den Punkten b und c auf der Erdoberfläche. (6.6) Aufgaben (6.1) Beweisen Sie die Folgerung (Satz des Pythagoras und Parallelogrammgleichung). (6.2) Zeigen Sie, dass durch x := max { x j j 3 } für x = t (x 1, x 2, x 3 ) R 3 eine Norm auf R 3 nicht gilt. definiert ist, für die die Parallelogrammgleichung 29

31 (6.3) Sind die folgenden Abbildungen s : R 2 R 2 R a) bilinear, b) symmetrisch, und falls beides zutrifft, c) positiv semidefinit, d) ein Skalarprodukt? Für a = (a 1, a 2 ), b = (b 1, b 2 ) sei s(a, b) := α) a 1 b 2 a 2 b 1, β) 2a 1 b 1 +a 1 b 2 +a 2 b 1 +2a 2 b 2. Falls s ein Skalarprodukt ist, geben Sie zwei Vektoren v, w R 2 mit s(v, w) = 0 und s(v, v) = s(w, w) = 1. (6.4) Zeigen Sie, dass durch s(a, b) := a 1 b 1 +4a 2 b 2 +3a 3 b 3 +ia 1 b 2 ia 2 b 1 +a 1 b 3 +a 3 b 1 ia 2 b 3 +ia 3 b 2 für a = t (a 1, a 2, a 3 ), b = t (b 1, b 2, b 3 ) C 3 ein Skalarprodukt auf C 3 definiert ist. an (6.5) Sei V ein K Vektorraum mit nichtausgearteter Hermitescher Form s, K = R oder C. Zeigen Sie: a) Für jedes a V ist durch ϕ a : V K, ϕ a (x) := s(x, a) eine lineare Abbildung definiert, d.h. es ist ϕ a V. b) Ist V endlichdimensional, so ist ϕ : V V, ϕ(a) := ϕ a ein Semi-Isomorphismus von V auf V, d.h. ϕ ist bijektiv, und es gilt für alle a, b V, α K : ϕ(a + b) = ϕ(a) + ϕ(b), ϕ(α a) = α ϕ(a). c) Sei U ein Untervektorraum von V, dann setzt man U o := { λ V u U : λ(u) = 0 } und U := { v V u U : s(u, v) = 0 }. U heißt das orthogonale Komplement von U. Zeigen Sie : Ist V endlichdimensional, so gibt es einen Semi-Isomorphismus von U auf U o. (6.6) Sei V ein K Vektorraum mit Skalarprodukt s, K = R oder C, und U ein Untervektorraum von V. Dann hatten wir in Aufgabe (6.5) c) das orthogonale Komplement U von U definiert. Zeigen Sie, dass für 30

32 Untervektorräume U 1, U 2, U von V gilt: a) (U 1 + U 2 ) = U 1 U 2 und U 1 + U 2 (U 1 U 2 ) b) Sei dim V = n N 0, dann gilt dim U = n dim U, V = U U, (U ) = U und U 1 + U 2 = (U 1 U 2 ). (6.7) Sei K ein Körper, n N. Für eine Matrix A M(n n, K) nennt man n tr A := die Spur von A. Zeigen Sie: a jj j=1 a) tr : M(n n, K) K ist K linear. b) Für alle A, B M(n n, K) gilt tr (A B) = tr (B A), und falls B GL(n, K) ist, auch tr (B A B 1 ) = tr A. c) Sei K = R oder C, dann ist durch s(a, B) := tr (A t B) ein Skalarprodukt auf M(n n, K) definiert. d) Die Menge U der Diagonalmatrizen ist ein Untervektorraum von M(n n, C). Berechnen Sie das orthogonale Komplement U. (6.8) Sei V die Menge der beschränkten Folgen reeller Zahlen, also V = { (a n ) n N F(N, R) c R n N : a n c }. Zeigen Sie : a) V ist ein R Vektorraum. b) Durch s((a n ) n N, (b n ) n N ) := n=1 a n b n n 2 ist ein Skalarprodukt auf V definiert. c) Es gibt einen echten Untervektorraum U von V (also U V ) mit U = {0}. Elementare Kenntnisse über Folgen und Reihen müssen verwendet werden! (6.9) Sei (a, b, c) ein sphärisches Dreieck. Zeigen Sie, dass mit den Bezeichnungen aus Definition gilt a) cos A = cos B cos C + sin B sin C cos α, b) sin C cos B = sin B cos C cos α + sin A cos β. 31

33 (6.10) Philadelphia und Peking liegen auf demselben Breitenkreis: 40 o n.b. Ihre Längen sind Philadelphia : 75 o w.l., Peking : 117 o ö.l. Wie groß ist die Strecke (in km, gerundet), die ein Flugzeug von Philadelphia nach Peking fliegt, wenn es a) längs des Breitenkreises, b) über den Nordpol, also längs der Meridiane, c) auf dem kürzesten Weg fliegt? d) Wie groß ist der Startwinkel α zum Breitenkreis in Philadelphia beim Flug auf der kürzesten Strecke? Gehen Sie von einer kugelförmigen Erde mit Radius 6378 km aus. 32

34 7 Eigenwerte 7.1 Beispiele und Definitionen Definition : Sei K ein (beliebiger) Körper und V ein K Vektorraum. Sei F ein Endomorphismus von V, also F Hom K (V, V ). Ein Element λ K heißt ein Eigenwert von F, wenn es ein v V \ {0} gibt, so dass gilt F (v) = λv. Jedes von 0 verschiedene v V, das diese Gleichung erfüllt, heißt ein Eigenvektor von F zum Eigenwert λ. (7.1.2) Beachten Sie, dass 0 K ein Eigenwert sein kann, dass aber 0 V definitionsgemäß kein Eigenvektor ist! Beispiele : Sei V := C (R) der R Vektorraum aller beliebig oft differenzierbaren Funktionen f : R R, und a) D : V V, D(f) := f die Differentiation. D ist R linear. Man fragt sich: Gibt es eine Funktion f C (R), deren Ableitung proportional zu f ist, für die also f = λ f mit einem λ R gilt? So eine Funktion kennen Sie: f(x) := e λx. Also ist jedes λ R ein Eigenwert von D. b) Auch D 2 : V V, D 2 (f) := f ist R linear. Für λ 0 sind die Funktionen f ± mit f ± (x) := e ± λx Eigenvektoren zum Eigenwert λ. Für λ < 0 sind g 1 und g 2, g 1 (x) := sin( λ x) und g 2 (x) := cos( λ x) Eigenvektoren zum Eigenwert λ. Wiederum: Jedes λ R ist ein Eigenwert von D 2. Bemerkung : In den letzten Beispielen war V unendlichdimensional. Wir wollen erst mal die Theorie für endlichdimensionale Vektorräume kennenlernen. Dazu das folgende Beispiel: Sei ( ) ( ) ( ) F : R 2 R 2 x1 1 0 x1, F :=, 0 1 x 2 33 x 2

35 dann sehen wir: F (e 1 ) = 1 e 1 : e 1 ist Eigenvektor zum Eigenwert 1, F (e 2 ) = 1 e 2 : e 2 ist Eigenvektor zum Eigenwert 1. Wenn die Matrix von F bezüglich einer festen Basis eine Diagonalmatrix ist, kann man die Eigenwerte besonders leicht ausrechnen : Definition : Sei K ein Körper, V ein K Vektorraum, dim K V = n N und F ein Endomorphismus von V. F heißt diagonalisierbar, wenn es eine Basis von V gibt, die aus Eigenvektoren von F besteht. (7.1.5) Vorsicht: Wenn es eine Basis von V gibt, die aus Eigenvektoren von F besteht, heißt das nicht, dass jeder Vektor aus V ein Eigenvektor von F ist, denn eine Linearkombination von Eigenvektoren (zu verschiedenen Eigenwerten) ist i.a. kein Eigenvektor! Folgerung : Ist dim K V = n N, so ist ein F End K (V ) = Hom K (V, V ) genau dann diagonalisierbar, wenn es eine Basis B = (v 1,..., v n ) von V gibt, so dass MB B (F ) eine Diagonalmatrix ist, also λ 1 0 MB B (F ) =... mit λ 1,..., λ n K. 0 λ n Beweis : M B B (F ) = λ λ n F (v j ) = λ j v j für alle j n. ist gleichbedeutend mit Hilfssatz : Sei K ein Körper, V ein K Vektorraum und F End K V. Sind v 1,..., v m Eigenvektoren zu paarweise verschiedenen 34

36 Eigenwerten λ 1,..., λ m von F, so ist (v j ) j m linear unabhängig. Insbesondere: Ist dim K V = n N und hat F n paarweise verschiedene Eigenwerte λ 1,..., λ n, so ist F diagonalisierbar. Beweis durch Induktion nach m : Induktionsanfang : Ist m = 1, so ist (v j ) j 1 linear unabhängig wegen v 1 0. Induktionsschluss : Sei m N, m 2, und für m 1 sei der Satz richtig. Sei nun ( ) α 1 v α m v m = 0 mit α 1,..., α m K, dann gilt (1) wenn man ( ) mit λ m multipliziert: (2) wenn man F auf ( ) anwendet: λ m α 1 v λ m α m v m = 0, α 1 λ 1 v α m λ m v m = 0, also m 1 j=1 α j (λ j λ m ) v j = 0 und wenn der Satz für m 1 richtig ist, folgt wegen λ j λ m : und aus ( ) und v m 0 dann noch α 1 =... = α m 1 = 0, α m = 0. Also ist (v 1,..., v m ) linear unabhängig. Satz : Sei V ein K Vektorraum mit dim k V = n N und F End K V. F ist genau dann diagonalisierbar, wenn es zur Matrix A = M A A (F ) bezüglich einer beliebigen Basis A von V eine Matrix S GL(n, K) gibt, so dass S 1 A S eine Diagonalmatrix ist. Beweis : = : Sei F diagonalisierbar. Dann gibt es nach Definition eine Basis B von V, so dass B := M B B (F ) 35

37 eine Diagonalmatrix ist. Sei A = MA A (F ) die Matrix von F bezüglich der Basis A, dann gibt es nach Bemerkung (angewendet auf den Spezialfall V = W ) eine Matrix S GL(n, K) mit M B B (F ) = S 1 M A A (F ) S. = : Sei S GL(n, K) und S 1 A S eine Diagonalmatrix, dann gehen wir von der Basis A = (a k ) k n über zur Basis B = (b j ) j n, die durch n b j := s kj a k mit (s kj ) = S k=1 definiert ist. Nach Bemerkung ist dann S 1 A S die Matrix von F bezüglich B. Nach Folgerung ist nun F diagonalisierbar. Definition : Sei V ein K Vektorraum, F End K V und λ K. Dann heißt Eig(F, λ) := { v V F (v) = λ v } der Eigenraum von F bezüglich λ. Folgerung : Sei V ein K Vektorraum, F End K V und λ K. Dann gilt a) Eig(F, λ) ist ein Untervektorraum von V. b) λ ist ein Eigenwert von F Eig(F, λ) {0}. c) Eig(F, λ) \ {0} ist die Menge der Eigenvektoren von F zu λ. d) Eig(F, λ) = ker (F λ id V ). e) Für λ 1, λ 2 K mit λ 1 λ 2 gilt Eig(F, λ 1 ) Eig(F, λ 2 ) = {0}. Beweis : a) - d) folgen unmittelbar aus Definition e) Für v Eig(F, λ 1 ) Eig(F, λ 2 ) gilt F (v) = λ 1 v und F (v) = λ 2 v, also 0 = (λ 1 λ 2 )v, also v = 0 wegen λ 1 λ Das charakteristische Polynom Bemerkung : Die Frage ist nun, wie bekommt man die Eigenwerte eines gegebenen F End K V, wenn dim K V = n N ist. Dann sind für ein λ K die Aussagen 36

38 (i) λ ist ein Eigenwert von F, (ii) det(f λ id V ) = 0 gleichbedeutend. Beweis : Es gilt: λ ist Eigenwert von F v V \ {0} : F (v) = λ v v V \ {0} : (F λ id V )(v) = 0 ker (F λ id V ) {0} F λ id V ist kein Automorphismus von V (5.4.3) det(f λ id V ) = 0. Bemerkung : Im Gegensatz zur Gleichung F (v) = λ v, in der man λ, aber auch v, nicht kennt, haben wir nun eine Gleichung, in der λ als einzige Unbekannte vorkommt. λ ist also genau dann Eigenwert von F, wenn λ eine Nullstelle der Funktion P F (t) := det(f t id V ) ist. Nach Definition rechnet man det(f t id V ) aus, indem man für F zu einer Basis A von V ( es ist egal, welche Basis man nimmt) die Matrix MA A (F t id V ) ausrechnet. Es ist MA A ( id V ) = E n, also MA A (t id V ) = t E n, wenn n = dim V ist. Ist A := MA A (F ), dann ist det(f t id V ) = det(a t E n ) a 11 t a 12 a a 1n a 21 a 22 t a a 2n = det a 31 a 32 a 33 t... a 3n.... a n1 a n2 a n3... a nn t eine Polynomfunktion von t. Besser betrachtet man das entsprechend definierte Polynom: Definition : Sei K ein Körper und n N. a) Sei V ein K Vektorraum mit dim K V = n und F End K (V ), so heißt P F (X) := det(f X id V ) das charakteristische Polynom von F. 37

39 b) Ist A M(n n, K), so heißt λ ein Eigenwert von A, wenn es ein a K n \ {0} gibt mit A a = λ a, und P A (X) := det(a X E n ) heißt das charakteristische Polynom der Matrix A und a ein Eigenvektor von A zum Eigenwert λ. Bemerkungen : 1) P A (X) ist also die Determinante der Matrix A X E n M(n n, K[X]), also eine Matrix mit Einträgen aus einem kommutativen Ring. Nach Definition geht das. 2) Wenn man P A (X) nach der Leibniz-Formel (oder anders) ausrechnet, erhält man P A (X) = (a 11 X)... (a nn X) + g(x), wobei g(x) ein Polynom aus K[X] mit deg g(x) n 2 bzw. 0 ist, und ausmultiplizieren ergibt P A (X) = ( 1) n X n + (a a nn )( 1) n 1 X n 1 + n 2 k=0 α k X k, mit α k K, also ist P A (X) ein Polynom vom Grad n. Den Koeffizienten von X n 1 haben wir gerade ausgerechnet: Er ist n ( 1) n 1 tra mit tra := a kk, der Spur von A. Den Koeffizienten α 0 erhält man, indem man 0 für X einsetzt: k=1 α 0 = P A (0) = det(a 0 E n ) = det A. 3) Man erhält also die Eigenwerte λ von A, indem man die Nullstellen λ des charakteristischen Polynoms P A (X) = det(a X E n ) K[X] ermittelt. Da P A (X) ein Polynom vom Grad n ist, kann die Bestimmung der Nullstellen schwierig sein - wenn denn überhaupt Nullstellen existieren, was z.b. für K = R fraglich ist. 38

40 4) In 5.4 haben wir gesehen: Ist F End K V, so ist det(f X id V ) = det(a X E n ) mit A = M A A (F ) davon unabhängig, welche Basis A wir nehmen, wir erhalten in jedem Fall dieselbe Determinante: Ersetzen wir die Basis A durch die Basis B, so erhalten wir nach : M B B (F ) =: B = S A S 1 mit S := M A B ( id V ) GL(n.K), und man sieht auch hier wie in : det(b X E n ) = det(s A S 1 X S E n S 1 ) = det(s (A X E n ) S 1 ) = det S det(a X E n )(det S) 1 = det(a X E n ). Man kann das auch so formulieren: Definition : Zwei Matrizen A, B M(n n, K) heißen ähnlich, wenn es ein S GL(n, K) gibt mit B = S A S 1. Dann haben ähnliche Matrizen also gleiche Eigenwerte. Folgerung : 1) Hat man einen Eigenwert λ einer Matrix A M(n n, K) gefunden, so ist die Berechnung von Eigenvektoren v dazu einfach: (A λe n ) v = 0 ist ein lineares homogenes Gleichungssystem mit n Gleichungen in den n Unbekannten v 1,..., v n, und wegen det(a λ E n ) = 0 hat dieses Gleichungssystem nichttriviale Lösungen. 2) Hat man ein F End K V, dim K V = n N, und einen Eigenwert λ von F, und will man einen Eigenvektor v V zu λ bestimmen, so wählt man sich eine Basis A = (a 1,..., a n ) von V, bestimmt nach 1) einen Eigenvektor y = t (y 1,..., y n ) K n von v := A := M A A (F ), dann ist n y j a j ein Eigenvektor von F. j=1 Folgerung : Ist dim V = n N und A die Matrix von F bezüglich 39

41 einer festen Basis A von V, so ist dim Eig(F, λ) die Dimension des Lösungsraums des linearen homogenen Gleichungssystems (A λ E n ) x = 0. Beispiel : Sei A = M(3 3, R), so ist das charakteristische Polynom von A : X 1 1 det(a X E 3 ) = det 3 2 X X ( 2 X 3 = ( X) det 2 3 X ) ( det 2 3 X = X(2 + X)(3 X) 6X 9 + 3X X = X 3 + X 2 + X 1. ) ( 3 2 X +1 det 2 2 Eine Nullstelle dieses Polynoms ist λ 1 = 1. Wenn man durch X 1 dividiert, erhält man X 3 + X 2 + X 1 = (X 1) ( X 2 + 1), dadurch erhält man als weitere Nullstellen λ 2 = 1 und λ 3 = 1. Wir haben alo P A (X) = (X 1) 2 (X + 1). 1 und 1 sind also die einzigen Eigenwerte von A. Wir wollen noch die Eigenvektoren zu diesen Eigenwerten bestimmen, also die Vektoren v R 3 \ {0} mit A v = ±1 v. Gesucht sind also die nichttrivialen Lösungen v R 3 der linearen homogenen Gleichungssysteme (A (±1) E 3 ) v = 0, 40 )

42 was mit den Methoden aus 4 kein Problem ist: a) Für λ 1,2 = 1 haben wir A 1 E 3 = Wenn wir das auf Zeilenstufenform bringen, sehen wir: Rg(A 1E 3 ) = 1, also dim Eig(A, 1) = 3 1 = 2, und Elemente aus v Eig(A, 1) erhalten wir aus v 1 v 2 + v 3 = 0, also v 2, v 3 R beliebig, v 1 = v 2 + v 3. b) Für λ 3 = 1 haben wir A + 1 E 3 = Wenn wir das auf Zeilenstufenform bringen, sehen wir : Rg(A + 1 E 3 ) = 2, also dim Eig(A, 1) = 3 2 = 1, und Vektoren v Eig(A, 1) erhalten wir aus v 1 v 2 + v 3 = 0 4v 2 + 6v 3 = 0, also v 3 R beliebig, v 2 = 3 2 v 3, v 1 = 1 2 v 3. Beispiel : Sei α [0, 2π) und A := dann sind die Eigenwerte von A bzw. von ( cos α sin α sin α cos α ), f A : R 2 R 2, f A (x) := A x die Nullstellen von ( cos α X sin α P A (X) = det sin α cos α X ) 41

43 Nullstellen λ 1,2 erhalten wir aus = (cos α X) 2 +sin 2 α = X 2 2 cos α X+1. λ 1,2 = cos α ± cos 2 α 1, was nur für cos α = ±1, also α = 0 oder α = π, Lösungen in R ergibt. Das ist anschaulich klar: f A beschreibt eine Drehung um α, und nur für α = 0 oder π gibt es Geraden durch 0, die in sich selbst abgebildet werden. 7.3 Diagonalisierung Wir haben in Def definiert, was ein diagonalisierbarer Endomorphismus von V ist, und Satz war schon mal ein Kriterium für Diagonalisierbarkeit. Wir fassen das zusammen als Satz : Sei V ein K Vektorraum, n N, dim K V = n und F End K V. Dann gilt: (1) Ist F diagonalisierbar, so gibt es λ 1,..., λ n K, so dass P F (X) = ( 1) n (X λ 1 )... (X λ n ) ist, d.h. das charakteristische Polynom von F zerfällt in Linearfaktoren. (2) Gibt es paarweise verschiedene λ 1,..., λ n K, so dass ist, so ist F diagonalisierbar. P F (X) = ( 1) n (X λ 1 )... (X λ n ) Beweis : (1) Ist F diagonalisierbar, so gibt es eine Basis B von V, so dass MB B (F ) eine Diagonalmatrix ist: λ 1 0 λ 1,..., λ n K : MB B (F ) =..., 0 λ n also ist P F (X) = (λ 1 X)... (λ n X). (2) In diesem Fall hat P F (X) n verschiedene Nullstellen λ 1,..., λ n, die die Eigenwerte von F sind, und zu diesen hat man Eigenvektoren v 1,..., v n. Nach Hilfssatz ist B := (v 1,..., v n ) linear unabhängig, also eine Basis von V, und es ist M B B (F ) = λ λ n eine Diagonalmatrix. 42

44 Bemerkung : Nach Satz bleibt die Frage offen, ob F diagonalisierbar ist, wenn P F (X) ein Produkt von Linearfaktoren ist, von denen einige mehrfach vorkommen: Sei also P F (X) = ( 1) n (X λ 1 ) r1... (X λ k ) r k mit paarweise verschiedenen λ 1,..., λ k K, 1 r j n für j k und r r k = n. Den Exponenten r j des Faktors (X λ j ) nennen wir die Vielfachheit der Nullstelle λ j von P F (X); wir setzen µ(p F, λ j ) := r j. In haben wir den Eigenraum Eig(F, λ j ) definiert: Hilfssatz : Sei V ein endlichdimensionaler K Vektorraum, F End K V und λ ein Eigenwert von F, dann gilt 1 dim Eig(F, λ) µ(p F, λ). Beweis : Sei (v j ) j s eine Basis von Eig(F, λ). Da λ ein Eigenwert von F ist. ist 1 s = dim Eig(F, λ). Wir ergänzen (v j ) j s zu einer Basis A = (v 1,..., v s, v s+1,..., v n ) von V. Sei A die Matrix von F bezüglich B, dann wird λ 0... A := MA A (F ) = 0 λ + 0 A s Zeilen s Spalten, mit einer quadratischen Matrix A. Dabei bedeutet irgendetwas. Das charakteristische Polynom kann man damit ausrechnen, etwa indem man nach der 1. bis s ten Spalte entwickelt: P F (X) = det(a X E n ) = (λ X) s det(a X E n s ). 43

45 In det(a X E n s ) kann der Linearfaktor λ X vorkommen, jedenfalls ist Beispiel : Sei µ(p F, λ) s = dim Eig(F, λ). A := ( ( 1 X 1 P A (X) = det 0 1 X ) M(2 2, R), dann ist ) = (1 X) 2 = (X 1) 2, P A (X) zerfällt in Linearfaktoren, es ist µ(p A, 1) = 2. Andererseits ist Eig(A, 1) = Lös(A 1 E 2, 0) { = x R ( ) ( x1 x 2 = { x R 2 x2 = 0 } = R e 1, also dim Eig(A, 1) = 1 < 2. ) = ( 0 0 ) } Nach dem folgenden Satz ist dieses A nicht diagonalisierbar: Satz : Sei K ein Körper, V ein endlichdimensionaler K Vektorraum und F End K V. Dann sind folgende Aussagen gleichbedeutend: (1) F ist diagonalisierbar. (2) a) das charakteristische Polynom P F ist ein Produkt von Linearfaktoren, und b) für alle Eigenwerte λ von F gilt dim Eig (F, λ) = µ(p F, λ). (3) Sind λ 1,, λ k die paarweise verschiedenen Eigenwerte von F, so ist V = Eig(F, λ 1 )... Eig(F, λ k ). Beweis : (0) : Ist F diagonalisierbar, so haben wir eine Basis von V, die aus Eigenvektoren von F besteht. Seien λ 1,..., λ k die paarweise verschiedenen Eigenwerte von F, und für j k sei ( ) (v (j) 1,..., v (j) s j ) eine Basis von Eig(F, λ j ), 44

46 also s j = dim Eig(F, λ j ). Dann ist ( ) B := (v (1) 1,..., v (1) s 1,..., v (k) 1,..., v (k) s k ) linear unabhängig, denn aus k j=1 s j l j =1 µ (j) l j v (j) l j = 0 mit µ (j) l j K folgt s k j 1 j=1 l j =1 µ (j) l j v (j) l j } {{ } Eig(F, λ j ) = 0, und nach Hilfssatz geht das wegen 1 0 nur, falls in den Klammern keine Eigenvektoren stehen, also gilt j k : s j l j =1 µ (j) l j v (j) l j = 0, und nach ( ) folgt j k l j s j : µ (j) l j = 0. Sei nun n := dim K V. (1) = (2) : Ist F diagonalisierbar, so haben wir eine Basis von V, die aus Eigenvektoren von F besteht. Ordnet man sie passend an, so ist es eine Basis B der Form aus ( ) aus (0). Dann ist n = s s k. Das charakteristische Polynom von F ist P F (X) = ( 1) n (X λ 1 ) r1... (X λ k ) r k, also gilt a) von (2), und für r j = µ(p F, λ j ) gilt nach : s j r j, also n = s s k r r k = deg P F (X) = n und hier gilt Gleichheit nur, falls s j = r j für alle j k gilt, also gilt b) von (2). (2) = (3) : Seien λ 1,..., λ k die verschiedenen Eigenwerte von F, dann gilt nach a) von (2) : P F (X) = ( 1) n (X λ 1 ) r1... (X λ k ) r k mit r 1,..., r k N, 45

MATHEMATIK II FÜR STUDIERENDE DER PHYSIK

MATHEMATIK II FÜR STUDIERENDE DER PHYSIK - 87 - MATHEMATIK II FÜR STUDIERENDE DER PHYSIK 21 Vektorräume mit Skalarprodukt Wir halten uns hier im Wesentlichen an das Buch G.Fischer : Lineare Algebra, 14. Auflage, Kap. 5. 21.1 Definition und Beispiele

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

Lösungsskizzen zur Klausur zur Linearen Algebra II. Definitionen

Lösungsskizzen zur Klausur zur Linearen Algebra II. Definitionen Technische Universität Berlin Sommersemester 2008 Institut für Mathematik 18 Juli 2008 Prof Dr Stefan Felsner Andrea Hoffkamp Lösungsskizzen zur Klausur zur Linearen Algebra II Aufgabe 1 (1+1+1 Punkte)

Mehr

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung Prof. Dr. B. Hanke Dr. J. Bowden Lineare Algebra 2 (SS ) Blatt : Musterlösung Aufgabe. Es sei C (R) der R-Vektorraum der unendlich oft differenzierbaren Funktionen auf R und : C (R) C (R), f f die Abbildung,

Mehr

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse

Mehr

1 Euklidische und unitäre Vektorräume

1 Euklidische und unitäre Vektorräume 1 Euklidische und unitäre Vektorräume In diesem Abschnitt betrachten wir reelle und komplexe Vektorräume mit Skalarprodukt. Dieses erlaubt uns die Länge eines Vektors zu definieren und (im Fall eines reellen

Mehr

Diagonalisierbarkeit symmetrischer Matrizen

Diagonalisierbarkeit symmetrischer Matrizen ¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren

Mehr

1 Die Jordansche Normalform

1 Die Jordansche Normalform Matthias Tischler Karolina Stoiber Ferienkurs Lineare Algebra für Physiker WS 4/5 A Die Jordansche Normalform Vierter Tag (9.03.205) Im Zusammenhang mit der Lösung komplexer Differentialgleichungssysteme

Mehr

Skalarprodukt, Norm & Metrik

Skalarprodukt, Norm & Metrik Skalarprodukt, Norm & Metrik Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz 11. Mai 2016 Stefan Ruzika 5: Skalarprodukt, Norm & Metrik 11. Mai 2016 1 / 13 Gliederung 1

Mehr

3 Vektorräume abstrakt

3 Vektorräume abstrakt Mathematik I für inf/swt Wintersemester / Seite 7 Vektorräume abstrakt Lineare Unabhängigkeit Definition: Sei V Vektorraum W V Dann heißt W := LH(W := Menge aller Linearkombinationen aus W die lineare

Mehr

Lineare Algebra II Lösungen der Klausur

Lineare Algebra II Lösungen der Klausur Prof Dr K Doerk 673 Jens Mandavid Christian Sevenheck Lineare Algebra II Lösungen der Klausur (a Diese Aussage ist richtig, sie stimmt nämlich für k = Sei nämlich n N beliebig und bezeichne N die Menge

Mehr

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2 Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete

Mehr

4.3 Reelle Skalarprodukte, Hermitesche Formen, Orthonormalbasen

4.3 Reelle Skalarprodukte, Hermitesche Formen, Orthonormalbasen 196 KAPITEL 4. VEKTORRÄUME MIT SKALARPRODUKT 4. Reelle Skalarprodukte, Hermitesche Formen, Orthonormalbasen In diesem Abschnitt betrachten wir Vektorräume über IR und über C. Ziel ist es, in solchen Vektorräumen

Mehr

Verständnisfragen: Lineare Algebra und Analytische Geometrie I und II

Verständnisfragen: Lineare Algebra und Analytische Geometrie I und II Verständnisfragen: Lineare Algebra und Analytische Geometrie I und II Matrizen, lineare Gleichungssysteme Wie kommt man von einem linearen Gleichungssystem zu einer Matrix? Was ist die Zeilenstufenform?

Mehr

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit

Mehr

3 Bilinearform, Basen und Matrizen

3 Bilinearform, Basen und Matrizen Lineare Algebra II 2. Oktober 2013 Mitschrift der Vorlesung Lineare Algebra II im SS 2013 bei Prof. Peter Littelmann von Dario Antweiler an der Universität zu Köln. Kann Fehler enthalten. Veröentlicht

Mehr

7.2 Die adjungierte Abbildung

7.2 Die adjungierte Abbildung 7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

7 Lineare Abbildungen und Skalarprodukt

7 Lineare Abbildungen und Skalarprodukt Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u

Mehr

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ)) Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 18 Vielfachheiten und diagonalisierbare Abbildungen Satz 18.1. Es sei K ein Körper und es sei V ein endlichdimensionaler K- Vektorraum.

Mehr

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Technische Universität München Department of Physics Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Freitag, 16.03.2012 Sascha Frölich Ferienkurs Lin. Alg. -

Mehr

Lineare Algebra II (SS 13)

Lineare Algebra II (SS 13) Lineare Algebra II (SS 13) Bernhard Hanke Universität Augsburg 03.07.2013 Bernhard Hanke 1 / 16 Selbstadjungierte Endomorphismen und der Spektralsatz Definition Es sei (V,, ) ein euklidischer oder unitärer

Mehr

3.7 Eigenwerte und Eigenvektoren

3.7 Eigenwerte und Eigenvektoren 3.7. EIGENWERTE UND EIGENVEKTOREN 123 3.7 Eigenwerte und Eigenvektoren Wir wollen jetzt lineare Endomorphismen durch Matrizen besonders übersichtlicher Gestalt (u.a. mit möglichst vielen Nullen) beschreiben,

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

Musterlösungen zur Linearen Algebra II Hauptklausur

Musterlösungen zur Linearen Algebra II Hauptklausur Musterlösungen zur Linearen Algebra II Hauptklausur Aufgabe. Q ist unitär genau dann, wenn gilt Q Q = I n. Daraus folgt, dass a) und c) richtig sind. Die -Matrix A := (i) zeigt, dass i.a. A A t, d.h. b)

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016, Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren

Mehr

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich Henning Krause Lineare Algebra Julia Sauter SS 27 Klausur 2.9.27 mit Lösungsvorschlag Jan Geuenich Aufgabe (4 Punkte: Sei n N und seien A und B zwei (n n-matrizen über einem Körper K. Wahr Falsch (a Es

Mehr

10 Unitäre Vektorräume

10 Unitäre Vektorräume 10 Unitäre Vektorräume Pink: Lineare Algebra 2014/15 Seite 98 10 Unitäre Vektorräume Die Theorie komplexer Vektorräume mit Skalarprodukt folgt denselben Linien wie die Theorie reeller Vektorräume mit Skalarprodukt;

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Kontrollfragen und Aufgaben zur 3. Konsultation

Kontrollfragen und Aufgaben zur 3. Konsultation 1 Technische Universität Ilmenau Fakultät für Mathematik und Naturwissenschaften Institut für Mathematik Prof. Dr. Michael Stiebitz Kontrollfragen und Aufgaben zur 3. Konsultation Termin: Ort: Determinante

Mehr

Musterlösungen zur Linearen Algebra II Übungsklausur

Musterlösungen zur Linearen Algebra II Übungsklausur Musterlösungen zur Linearen Algebra II Übungsklausur Aufgabe. Sei A R 3 3. Welche der folgenden Aussagen sind richtig? a Ist det(a =, dann ist A eine orthogonale Matrix. b Ist A eine orthogonale Matrix,

Mehr

2 Euklidische Vektorräume

2 Euklidische Vektorräume Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

8 Eigenwerttheorie I 8. EIGENWERTTHEORIE I 139. Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet:

8 Eigenwerttheorie I 8. EIGENWERTTHEORIE I 139. Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet: 8. EIGENWERTTHEORIE I 139 8 Eigenwerttheorie I Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet: K[x] = Abb[N, K] = {P ; P = a n x n + a n 1 x n 1 + + a 0 ; a

Mehr

Aufgaben zu Kapitel 20

Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008 KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008 MUSTERLÖSUNG Name: Studiengang: Aufgabe 1 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter die Aufgabenstellung

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom Übungsaufgaben 11. Übung: Woche vom 9. 1.-13. 1. 2017 (Numerik): Heft Ü 1: 12.28.a,b; 12.29.b,c (jeweils mit Fehlerabschätzung); 6.26; 6.27.a (auch mit Lagrange-Interpolationspolynom); 6.25; 6.28 (auch

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Euklidische und unitäre Vektorräume In allgemeinen Vektorräumen gibt es keine Möglichkeit der Längenmessung von Vektoren und der Winkelmessung zwischen zwei Vektoren. Dafür ist eine zusätzliche Struktur

Mehr

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem

Mehr

Basisprüfung. 18. August 2015

Basisprüfung. 18. August 2015 Lineare Algebra I/II D-MATH, HS 4/FS 5 Prof Richard Pink Basisprüfung 8 August 25 [6 Punkte] Betrachte den reellen Vektorraum R 3 zusammen mit dem Standardskalarprodukt, und die Vektoren 9 3 v := 6, v

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=

Mehr

Kapitel 5. Vektorräume mit Skalarprodukt

Kapitel 5. Vektorräume mit Skalarprodukt Kapitel 5 Vektorräume mit Skalarprodukt 119 120 Kapitel V: Vektorräume mit Skalarprodukt 5.1 Elementare Eigenschaften des Skalarprodukts Dienstag, 20. April 04 Wollen wir in einem Vektorraum wie in der

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

1. Übungsblatt: Lineare Algebra II Abgabe: 24./ in den Übungsgruppen

1. Übungsblatt: Lineare Algebra II Abgabe: 24./ in den Übungsgruppen Hannover, den 0. April 2006. Übungsblatt: Lineare Algebra II Abgabe: 24./25.4.2006 in den Übungsgruppen ( ) 2 5 a) Zeigen Sie, dass A = und B = 2 ( 7 6 invertierbare Matrix T an mit T AT = B. b) Zeigen

Mehr

Lineare Algebra für Physiker 11. Übungsblatt

Lineare Algebra für Physiker 11. Übungsblatt Lineare Algebra für Physiker 11. Übungsblatt Fachbereich Mathematik SS 01 Prof. Dr. Matthias Schneider./. Juli 01 Dr. Silke Horn Dipl.-Math. Dominik Kremer Gruppenübung Aufgabe G1 (Minitest) (a) Welche

Mehr

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153 3.3. SKALARPRODUKTE 153 Hierzu müssen wir noch die Eindeutigkeit (Unabhängigkeit von der Wahl der Basis bzw. des Koordinatensystems) zeigen. Sei hierzu β eine Bilinearform und q die entsprechende quadratische

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

Lineare Algebra I Lösungsvorschlag

Lineare Algebra I Lösungsvorschlag Aufgabe Lineare Algebra I Lösungsvorschlag Wir bezeichnen mit a, a 2, a 3 Q 4 die Spalten der Matrix A. Es ist 7 a + 2a 2 = 7 4 = 7a 3, und wir sehen im l A = a, a 2, a 3 = a, a 2. Da die Vektoren a und

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 42 Normale Endomorphismen Nach Satz 34.1 besitzt eine Isometrie über C eine Orthonormalbasis aus Eigenvektoren

Mehr

Übungen zur Vorlesung Lineare Algebra II, SoSe 2016, Blatt 1

Übungen zur Vorlesung Lineare Algebra II, SoSe 2016, Blatt 1 Übungen zur Vorlesung Lineare Algebra II, SoSe 216, Blatt 1 Mündliche Aufgaben Die Aufgaben aus diesem Blatt bestehen zu einem großen Teil aus den Aufgaben von Blatt 13 der LA1. Sie dienen vor allem der

Mehr

Wiederholungsserie II

Wiederholungsserie II Lineare Algebra II D-MATH, FS 205 Prof. Richard Pink Wiederholungsserie II. Zeige durch Kopfrechnen, dass die folgende reelle Matrix invertierbar ist: 205 2344 234 990 A := 224 423 990 3026 230 204 9095

Mehr

8 Euklidische und unitäre Vektorräume. Skalarprodukte Orthogonalität Matrizen

8 Euklidische und unitäre Vektorräume. Skalarprodukte Orthogonalität Matrizen 8 Euklidische und unitäre Vektorräume Skalarprodukte Orthogonalität Matrizen 8 Euklidische und unitäre Vektorräume Skalarprodukte Orthogonalität Matrizen In diesem Kapitel werden nur endlich dimensionale

Mehr

7.3 Unitäre Operatoren

7.3 Unitäre Operatoren Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 205): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2 2

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015 sskizzen der Klausur zur Linearen Algebra im Herbst 5 Aufgabe I. Es sei (G, ) eine Gruppe mit neutralem Element e und M {x G x x e}. Zeigen Sie: (a) Ist G kommutativ, so ist M eine Untergruppe von G. (b)

Mehr

Lineare Algebra I für Mathematiker Lösungen

Lineare Algebra I für Mathematiker Lösungen Lineare Algebra I für Mathematiker Lösungen Anonymous 24. April 2016 Aufgabe 1 Beantworten Sie bitte die folgenden Fragen. Jeder Vektorraum hat mindestens ein Element. Q ist ein R-Vektorraum (mit der Multiplikation

Mehr

Übungen zur Vorlesung Lineare Algebra

Übungen zur Vorlesung Lineare Algebra Übungen zur Vorlesung Lineare Algebra Institut für Reine Mathematik WS 2009/10 & SS 2010 Kapitel 1. Vektorräume Was ist ein Vektorraum? Sei X und K ein Körper. Wie macht man Abb (X, K) zu einem K -Vektorraum?

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit

4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit 4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit Definition 4.41. Eine Familie F linearer Operatoren heißt vertauschbar oder kommutierend, wenn für je zwei Operatoren U,T in F gilt: UT = TU.

Mehr

Lineare Algebra II 6. Übungsblatt

Lineare Algebra II 6. Übungsblatt Lineare Algebra II 6 Übungsblatt Fachbereich Mathematik SS 2011 Prof Dr Kollross 18/19 Mai 2011 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minimalpolynom) Bestimmen Sie das Minimalpolynom der

Mehr

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23 Kapitel 5 Eigenwerte 5. Definition und Beispiele Wir sehen uns ein System dreier schwingender Kugeln der Massen m, m und m 3 an, die durch Federn aneinander gekoppelt sein sollen. m k m k 3 m 3 x ( t x

Mehr

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen Fachbereich Mathematik/Informatik 6. Juni 0 Prof. Dr. H. Brenner Mathematik für Anwender II Testklausur mit Lösungen Aufgabe. Definiere die folgenden (kursiv gedruckten) Begriffe. () Ein Skalarprodukt

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops 15. DETERMINANTEN 1 Für n Vektoren b 1,..., b n im R n definiert man ihre Determinante det(b 1,..., b n ) Anschaulich gilt det(b 1,..., b n ) = Orientierung der Vektoren b 1,..., b n Volumen des von den

Mehr

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen Hannover, den 7. Februar 2002 Aufgabe. Übungsblatt: Lineare Algebra II Abgabe: 8./9.4.2002 in den Übungsgruppen (2, 2, 3 Punkte) Der Vektorraum V = C[, ] sei mit dem üblichen Skalarprodukt f, g = f(t)g(t)

Mehr

3 Definition: 1. Übungsblatt zur Vorlesung Lineare Algebra I. im WS 2003/2004 bei Prof. Dr. S. Goette

3 Definition: 1. Übungsblatt zur Vorlesung Lineare Algebra I. im WS 2003/2004 bei Prof. Dr. S. Goette 1. Übungsblatt zur Vorlesung Abgabe Donnerstag, den 30.10.03 1 Finden 2 Sei Sie reelle Zahlen a, b, c, so dass a (2, 3, 1) + b (1, 2, 2) + c (2, 5, 3) = (3, 7, 5). (V,, ) ein euklidischer Vektorraum. Zeigen

Mehr

Lineare Algebra 2. Lösung zu Aufgabe 7.2:

Lineare Algebra 2. Lösung zu Aufgabe 7.2: Technische Universität Dortmund Sommersemester 2017 Fakultät für Mathematik Übungsblatt 7 Prof. Dr. Detlev Hoffmann 15. Juni 2017 Marco Sobiech/ Nico Lorenz Lineare Algebra 2 Lösung zu Aufgabe 7.1: (a)

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

Wichtige Kenntnisse der Linearen Algebra

Wichtige Kenntnisse der Linearen Algebra Wichtige Kenntnisse der Linearen Algebra In Kapitel 3 der Vorlesung werden wir sehen (und in Kapitel 6 vertiefen, dass zur Beschreibung von Quantensystemen mathematische Begriffe aus dem Gebiet der Linearen

Mehr

Mathematische Erfrischungen III - Vektoren und Matrizen

Mathematische Erfrischungen III - Vektoren und Matrizen Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen

Mehr

2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren

2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren 2 ÄHNLICHKEIT VON MATRIZEN, EIGENWERTE UND EIGENVEKTOREN 1 19. Mai 2000 2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren Motivation. Es seien: V ein K-Vektorraum mit dim V = n < und F End V, Φ,

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 34 Die Diagonalisierbarkeit von Isometrien im Komplexen Satz 34.1. Es sei V ein endlichdimensionaler C-Vektorraum

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

Lineare Algebra für PhysikerInnen

Lineare Algebra für PhysikerInnen Universität Wien, SS 2015 Lineare Algebra für PhysikerInnen Beispiele für Multiple-Choice-Fragen Punkteschlüssel: [Typ 1 aus 4] und [Typ 3 aus 4]... 0.8 Punkte [Typ 2 aus 4]... 1 Punkt Bei der schriftlichen

Mehr

Analytische Geometrie

Analytische Geometrie 21 Vorlesungen über Analytische Geometrie für Lehramtstudierende der Schulformen Grund-, Mittel- und Realschule Jens Jordan Universität Würzburg, Wintersemster 2015/16 Hier kommt noch ein schönes Bildchen

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum

Mehr

Musterlösungen zur Linearen Algebra II Weihnachtszettel

Musterlösungen zur Linearen Algebra II Weihnachtszettel Musterlösungen zur Linearen Algebra II Weihnachtszettel Aufgabe. Welche der folgenden Matrizen 3 0 0 A = 0 4, B = 3, C = 0 0 0 6 0 0 0 sind über R und welche über C diagonalisierbar? Bestimmen Sie dazu

Mehr

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }. 154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =

Mehr

4 Funktionenfolgen und normierte Räume

4 Funktionenfolgen und normierte Räume $Id: norm.tex,v 1.57 2018/06/08 16:27:08 hk Exp $ $Id: jordan.tex,v 1.34 2018/07/12 20:08:29 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Am Ende der letzten Sitzung hatten wir zwei

Mehr

9 Vektorräume mit Skalarprodukt

9 Vektorräume mit Skalarprodukt 9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden

Mehr

4 Lineare Abbildungen und Matrizen

4 Lineare Abbildungen und Matrizen Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt

Mehr

35 Matrixschreibweise für lineare Abbildungen

35 Matrixschreibweise für lineare Abbildungen 35 Matrixschreibweise für lineare Abbildungen 35 Motivation Wir haben gesehen, dass lineare Abbildungen sich durch ihre Wirkung auf die Basisvektoren ausdrücken lassen Mithilfe von Matrizen können wir

Mehr

5 Diagonalisierbarkeit

5 Diagonalisierbarkeit 5 Diagonalisierbarkeit Sei V ein K Vektorraum mit einer Basis B = (v 1,..., v n ) Wiederholung aus 2: Sei f : V V K linear. Stelle f(v j ) für j = 1,..., n dar in der Form a 1j Das n Tupel a j =. a nj

Mehr

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen. Definition: Lineare Abbildung Lineare Abbildungen Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen. 8.1 Definition: Lineare Abbildung Eine Funktion f : V Ñ W zwischen

Mehr

Technische Universität München

Technische Universität München Technische Universität München Michael Schreier Ferienkurs Lineare Algebra für Physiker Vorlesung Montag WS 2008/09 1 komplexe Zahlen Viele Probleme in der Mathematik oder Physik lassen sich nicht oder

Mehr

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung Zurück Stand 4.. 6 Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung Im Allgemeinen werden Vektoren durch Multiplikation mit einer Matrix gestreckt und um einen bestimmten Winkel gedreht. Es gibt jedoch

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG Aufgabe 1 Es sei K ein Körper, V ein K-Vektorraum, und seien v 1,..., v n V (n N). (a) Definieren Sie, wann die endliche Familie v 1,...,

Mehr

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen 12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr