MATHEMATIK II FÜR STUDIERENDE DER PHYSIK

Größe: px
Ab Seite anzeigen:

Download "MATHEMATIK II FÜR STUDIERENDE DER PHYSIK"

Transkript

1 MATHEMATIK II FÜR STUDIERENDE DER PHYSIK 21 Vektorräume mit Skalarprodukt Wir halten uns hier im Wesentlichen an das Buch G.Fischer : Lineare Algebra, 14. Auflage, Kap Definition und Beispiele (21.1.1) Zur Motivation : Vektoren im R 3 kann man nicht nur addieren und mit Skalaren multiplizieren, man kann auch ihr Skalarprodukt bilden: Für a = t (a 1, a 2, a 3 ), b = t (b 1, b 2, b 3 ) R 3 setzt man < a, b > := a 1 b 1 + a 2 b 2 + a 3 b 3. Das ist eine reelle Zahl. Man hat also eine Abbildung <, > : R 3 R 3 R, d.h. zwei Vektoren a, b R 3 wird der Skalar < a, b > R zugeordnet. Mit Hilfe des Skalarprodukts kann man die Länge (Norm) eines Vektors a R 3 definieren als a := < a, a >. Außerdem hängt das Skalarprodukt mit dem Winkel zwischen den Vektoren a und b zusammen : a und b stehen genau dann aufeinander senkrecht, wenn < a, b > = 0 ist.wir wollen das alles hier allgemeiner machen; man braucht in der Physik, z.b. in der Quantentheorie, Skalarprodukte auf unendlichdimensionalen C Vektorräumen, und auch in der Mathematik ist dieser Begriff nützlich, wie wir bei Fourierreihen sehen werden Vereinbarung : In 21 und 22 werden wir unter K stets den Körper R der reellen oder den Körper C der komplexen Zahlen verstehen. Für z K sei z das Konjugiert-Komplexe von z, also z = a bi für z = a + bi C mit a, b R, bzw. z = z für z R. Für z K ist z der (reelle oder komplexe) Betrag von z. Für z K soll z > 0 stets bedeuten: z R z > 0. Entsprechend: z 0 : (z R z 0). Definition : Sei V ein K Vektorraum (also ein Vektorraum über R oder C ). Eine Abbildung s : V V K heißt eine hermitesche Form auf V, wenn für alle u, v, w V und alle λ K gilt

2 (H1) s(u, v + w) = s(u, v) + s(u, w), s(u, λw) = λs(u, w), d.h. s ist linear als Funktion des 2.Arguments, und (H2) s(u, v) = s(v, u), d.h. wenn man die beiden Argumente vertauscht, erhält man das Konjugiert-Komplexe. Folgerung : Ist s eine hermitesche Form auf einem K Vektorraum V, so gilt für alle u, v, w V und λ K : s(u + v, w) = s(u, w) + s(v, w), s(λu, v) = λ s(u, v). Beweis : s(u + v, w) (H2) = s(w, u + v) (H1) = s(w, u) + s(w, v) s = s(w, u) + s(w, v) = (u, w) + s(v, w), s(λu, v) (H2) = s(v, λu) (H1) = λ s(v, u) = λ s(v, u) (H2) = λ s(u, v). Als Funktion des 1.Arguments ist s also nicht so ganz linear. Für den Fall K = R ist aber λ = λ für alle λ K, und man erhält Folgerung : Ist K = R und s eine hermitesche Form auf einem R Vektorraum V, so ist s bilinear und symmetrisch, d.h. (H2) lautet in diesem Fall v, w V : s(v, w) = s(w, v). Man spricht in diesem Fall von einer symmetrischen Bilinearform s. Definition : Sei V ein K Vektorraum und s eine hermitesche Form auf V. Gilt (H 3 1 ) v V : s(v, v) 0, so heißt s positiv semidefinit. 2 Gilt (H4) v V \ {0} : s(v, v) > 0, so heißt s positiv definit. Jede positiv definite hermitesche Form ist positiv semidefinit, denn für 0 V und 0 K gilt 0 = 0 0, also nach (H1) : s(0, 0) = s(0, 0 0) = 0 s(0, 0) = 0. Definition : Sei V ein K Vektorraum. Eine positiv definite hermitesche Form s : V V K heißt ein Skalarprodukt auf V. Ein R Vektorraum mit Skalarprodukt heit auch euklidischer, ein C Vektorraum mit Skalarprodukt unitärer Vektorraum.

3 Nun die wesentlichen Beispiele für hermitesche Formen : Beispiel : Sei n N, dann definiert man < a, b > := <, > : K n K n K, a j b j für a = t (a 1,..., a n ), b = t (b 1,..., b n ) K n. <, > ist eine positiv definite hermitesche Form auf K n, denn die Axiome (H1) und (H2) kann man leicht nachrechnen, und für a K n gilt < a, a > = a j a j = a j 2 0, und wenn a 0 ist, ist mindestens eins der a j 0, also < a, a > > 0. <, > ist also ein Skalarprodukt auf K n. Wir nennen <, > das kanonische Skalarprodukt im K n. Für K = R und n = 3 erhält man < a, b > = a 1 b 1 + a 2 b 2 + a 3 b 3. Beispiel a : Seien a, b R, a < b und R[a, b] der C Vektorraum der Regelfunktionen s(f, g) := f : [a, b] C. Dann setzen wir s : R[a, b] R[a, b] C, 1 b a b a f(t) g(t) dt für f, g R[a, b]. s ist eine positiv semidefinite hermitesche Form, denn s(f, f) = 1 b a b a f(t) 2 dt 0. s ist aber nicht positiv definit, denn nehmen wir z.b. f : [a, b] C, f(x) = { 1 fr x = a 0 für x a, so ist f R[a, b], denn f ist eine Treppenfunktion, f 0, aber b f(t) 2 dt = 0, also s(f, f) = 0. a Beispiel b : Auf C[a, b] ist durch

4 s(f, g) = b a b a f(t) g(t) d t sogar ein Skalarprodukt definiert, denn sei f C[a, b], f 0, dann gibt es ein t 0 [a, b] mit f(t 0 ) 0, also h := f(t 0 ) 2 > 0. Auch t f(t) 2 ist stetig, mit Werten in R, und, wie wir in und gesehen haben, gibt es ein Intervall [c, d], c < d, mit t 0 [c, d] [a, b] und f(t) 2 h 2 s(f, f) 1 b a für t [c, d], also d c h 2 d t = h (d c) > 0. 2(b a) Definition : Sei V ein K Vektorraum mit einer positiv semidefiniten hermiteschen Form s. Für v V nennen wir die Norm (Länge) von v. v := s(v, v) 21.2 Die Cauchy-Schwarzsche Ungleichung Cauchy-Schwarzsche Ungleichung : Sei V ein K Vektorraum mit positiv semidefiniter hermitescher Form s. Dann gilt für alle v, w V : s(v, w) v w. Ist die Familie (v, w) linear abhängig, so gilt sogar das Gleichheitszeichen. Beweis : 1) Für alle λ K gilt, da s positiv semidefinit ist: 0 s(v λw, v λw) (H1) = s(v, v) λ s(w, v) λ s(v, w) + λλs(w, w), ( ) 0 s(v, v) λ s(v, w) λ s(v, w) + λ λ s(w, w). a) Gilt s(v, v) = s(w, w) = 0, so setzen wir λ := s(v, w) in ( ) ein : 0 s(v, w) s(v, w) s(v, w) s(v, w) = 2 s(v, w) 2, und wegen s(v, w) 2 0 folgt s(v, w) = 0. Da auch v = w = 0 ist, gilt in diesem Fall die Ungleichung. b) Sind s(v, v) und s(w, w) nicht beide Null, so ist eins von beiden positiv. Sei etwa s(w, w) > 0, dann setzen wir λ := s(v, w) s(w, w) in ( ) ein, und multiplizieren mit s(w, w) : 0 s(v, v)s(w, w) s(v, w) s(v, w) s(v, w) s(v, w) + s(v, w) s(v, w), also s(v, w) 2 s(v, v) s(w, w), und da die Wurzelfunktion : [0, ) [0, ), x x monoton wachsend ist :

5 s(v, w) v w. 2) Ist (v, w) linear abhängig, so haben wir Œ v = λw mit λ K, also v 2 = s(v, v) = λλs(w, w) = λ 2 s(w, w) = λ 2 w 2, s(v, w) = λs(w, w) = λ w 2, also s(v, w) = ( λ w ) w = v w. Zusatz : Sei V ein K Vektorraum mit Skalarprodukt s, und seien v, w V mit s(v, w) = v w, so ist die Familie (v, w) linear abhängig. Beweis : Sei λ := s(w, w) und µ := s(v, w), dann ist λ R, und s(λv + µw, λv + µw) = λλs(v, v) + µµs(w, w) + λµ s(v, w) + µλs(w, v) = w 4 v 2 + s(v, w) 2 w 2 w 2 s(v, w) 2 w 2 s(v, w) 2 = w 2 ( w 2 v 2 + v 2 w 2 v 2 w 2 v 2 w 2 ) = 0, also λv + µw = 0, da s positiv definit ist. Also ist (v, w) linear abhängig, was für w = 0 trivial ist, und für w 0 ist λ 0. Satz : Sei V ein K Vektorraum mit positiv semidefiniter hermitescher Form s, und v := s(v, v) für v V. Dann gilt für alle v, w V und alle λ K : (N1 ) v 0 (N2) λ v = λ v (N3) v + w v + w (Dreiecksungleichung). Ist s sogar positiv definit, so gilt statt (N1 ) (N1) v 0 ( v = 0 v = 0 ). Beweis : (N1 ) folgt daraus, dass s(v, v) 0 ist. (N2) λ v = s(λv, λv) = λ λ s(v, v) = λ 2 s(v, v) = λ v. (N3) v + w 2 = s(v+w, v+w) = s(v, v) + s(v, w) + s(w, v) + s(w, w) = v 2 + w 2 + s(v, w) + s(v, w) = v 2 + w Re s(v, w), und da für z C gilt : Re z z : v+w 2 v 2 + w s(v, w), und nach Cauchy-Schwarz:

6 v 2 + w v w = ( v + w ) 2, also v + w v + w. (N1) Ist s positiv definit, so gilt für v 0 : s(v, v) > 0, also v > 0. Folgerung : Sei V ein K Vektorraum mit positiv semidefiniter hermitescher Form s und v = s(v, v) für v V. Dann gilt für alle v, w V : a) v + w 2 = v 2 + w 2 + s(v, w) + s(w, v) (Satz des Pythagoras), und b) v + w 2 + v w 2 = 2 ( v 2 + w 2 ) (Parallelogrammgleichung). Beweis durch Nachrechnen. Definition : Ein K Vektorraum V mit einer Abbildung : V R, die die Eigenschaften (N1) v V \ {0} : v > 0 (N2) v V λ K : λ v = λ v (N3) v, w V : v + w v + w hat, heißt ein normierter K Vektorraum. Den Satz kann man daher formulieren als Folgerung : Jeder K Vektorraum V mit Skalarprodukt s wird ein normierter K Vektorraum, wenn man die Norm durch ( ) v := s(v, v) für v V definiert. Man kann nun umgekehrt fragen: Sei V ein normierter K Vektorraum, gibt es dann auf V ein Skalarprodukt s, so dass ( ) gilt? Nach Folgerung ist dann klar: Ist eine Norm auf V, die die Parallelogrammgleichung nicht erfüllt, so gibt es so ein s nicht. Ein Beispiel für einen normierten K Vektorraum, in dem die Parallelogrammgleichung nicht gilt, erhalten Sie als Übungsaufgabe. Definition : Sei V ein euklidischer Vektorraum, also ein R Vektorraum mit Skalarprodukt s. Seien v, w V \ {0}, dann gilt nach Cauchy- Schwarz: s(v, w) v w 1, und wegen s(v, w) R sogar s(v, w) v w [ 1, 1]. Also ist ϕ := arccos s(v, w) v w

7 definiert, und es gilt ϕ [0, π]. ϕ heißt der Winkel zwischen den Vektoren v und w. Wir wollen hier keine analytische Geometrie treiben und uns deshalb nicht allgemein mit Winkeln beschäftigen. Wir sehen aber : ϕ = π 2 s(v, w) = 0, die Vektoren v und w stehen genau dann aufeinander senkrecht, wenn ihr Skalarprodukt 0 ist. s(v, w) = 0 gibt natürlich auch für einen C Vektorraum Sinn: Definition : Sei V ein K Vektorraum mit hermitescher Form s. Zwei Vektoren u, v V heißen zueinander senkrecht oder orthogonal, in Zeichen: u v, wenn s(u, v) = 0 ist. Wir kehren zurück zu unserem Beispiel a : Im C Vektorraum R[a, b] der Regelfunktionen f : [a, b] C, a, b R, a < b, mit s(f, g) = 1 b a b f a : [a, b] C, f a (t) := dann gilt für alle g R[a, b] : a f(t) g(t) dt sei { 1 fr t = a 0 für t a, f a (t) g(t) = { g(a) fr t = a 0 für t a s(f a, g) = 0, also, also f a g für alle g R[a, b]. Definition : Eine hermitesche Form s auf einem K Vektorraum V heißt nichtausgeartet, wenn es außer 0 keinen Vektor aus V gibt, der auf allen w V senkrecht steht, wenn also gilt (H3) v V : ( w V : s(v, w) = 0 = v = 0 ). Folgerung : Sei V ein K Vektorraum mit hermitescher Form s. Dann gilt: s positiv definit s nichtausgeartet und positiv semidefinit. Beweis : = : Sei s positiv definit und v V ein Vektor mit

8 dann gilt insbesondere w V : s(v, w) = 0, s(v, v) = 0, also v = 0. Also ist s nichtausgeartet, und positiv semidefinit sowieso. = : Ist s positiv semidefinit, so gilt für alle v V : s(v, v) 0 und falls v = 0 ist : s(v, v) = 0. Ist nun v V mit s(v, v) = 0, so gilt nach Cauchy-Schwarz für alle w V : s(v, w) 2 v 2 w 2 = s(v, v) s(w, w) = 0, also s(v, w) = 0, und damit s(v, w) = 0, für alle w V. Ist nun s nichtausgeartet, so folgt daraus v = 0. Hermitesche Formen, die nicht positiv semidefinit, aber immerhin noch nichtausgeartet sind, kommen in der Physik (und zwar in der Relativitätstheorie) vor: Beispiel : Für a = t (a 1, a 2, a 3, a 4 ), b = t (b 1, b 2, b 3, b 4 ) R 4 man 3 s(a, b) := a j b j a 4 b 4, setzt dann ist s eine nichtausgeartete symmetrische Bilinearform auf dem R 4, die nicht positiv semidefinit ist. Beweis : Dass (H1) und (H2) für s gelten, kann man leicht nachrechnen. Fr a = (0, 0, 0, 1) gilt s(a, a) = 1 < 0, also gelten (H 3 1 ) und (H4) nicht. Es gilt aber (H3), denn sei a R4 und 2 b R 4 : s(a, b) = 0, dann gilt insbesondere für die kanonischen Basisvektoren e j, j 4, des R 4 : s(a, e j ) = 0 und damit a 1 = a 2 = a 3 = a 4 = 0, also a = 0. In der Relativitätstheorie interpretiert man hier die ersten drei Komponenten von a als Ort und a 4 als Zeit.

9 Orthonormalbasen Definition : Sei V ein K Vektorraum mit Skalarprodukt und (v j ) j J eine Familie von Vektoren aus V, J eine (nicht notwendig endliche) Menge. Dann heißt die Familie (v j ) j J a) ein Orthogonalsystem, wenn v j v k für alle j, k J mit j k ist, b) ein Orthonormalsystem, wenn sie ein Orthogonalsystem ist und zusätzlich v j = 1 für alle j J gilt, c) eine Orthogonalbasis, wenn sie ein Orthogonalsystem und eine Basis von V ist, d) eine Orthonormalbasis, wenn sie ein Orthonormalsystem und eine Basis von V ist. Beispiel : Im K n mit dem kanonischen Skalarprodukt <, > ist die kanonische Basis (e j ) j n eine Orthonormalbasis, denn es gilt für j, l n : e j = (δ kj ) k n, also { 1 für j = l < e j, e l > = δ kj δ kl =. 0 für j l Beispiel : Im R Vektorraum P(R) aller Polynomfunktionen von R nach R wird durch s(f, g) := 1 1 f(t) g(t) dt, ein Skalarprodukt definiert. Die in den Übungsaufgaben definierten Legendre-Polynome P n (x) := 1 2 n n! d n dx n (x2 1) n für n N 0, sind Polynomfunktionen vom Grad n, für jedes n N 0, und damit sieht man, dass sie eine Basis von P(R) bilden. (P n ) n N0 ist sogar eine Orthogonalbasis, denn als Übungsaufgabe zeigen Sie s(p n, P m ) = 1 P n (x) P m (x) dx = 0 für n m, 1 allerdings keine Orthonormalbasis, denn s(p n, P n ) = 2 2n + 1 Nimmt man statt (P n ) n N0 aber die Familie (Q n ) n N0, die durch 2n + 1 Q n (x) := P n (x) 2 definiert ist, so ist (Q n ) n N0 sogar eine Orthonormalbasis von P(R)..

10 Wie kann man sich allgemein eine Orthonormalbasis verschaffen? (21.3.3) Orthonormalisierungssatz von Erhard Schmidt : Sei V ein K Vektorraum mit Skalarprodukt s und dim V = n N. Dann lässt sich jedes Orthonormalsystem (w 1,..., w m ) in V mit 0 m n ergänzen zu einer Orthonormalbasis (w 1,..., w m,..., w n ) von V. Beweis : In diesem Fall ist es wichtig, den Beweis zu verstehen, da man auf diese Weise auch praktisch Orthonormalbasen konstruieren bzw. Orthonormalsysteme zu Orthonormalbasen ergänzen kann. Die für die Praxis wichtigen Schritte rahmen wir ein. - Wir machen Induktion nach k := n m : Induktionsanfang : Sei k = 0, dann ist n = m, und das Orthonormalsystem (w j ) j n ist bereits eine Basis, denn es besteht aus n Vektoren, und diese sind linear unabhängig: Aus α j w j = 0 mit α j K folgt für k n : 0 = s ( w k, ) α j w j = α j s(w k, w j ) = α j δ kj = α k. Hier ist der Satz also richtig; wir brauchen nichts zu ergänzen. Induktionsschluss : Sei k N 0, und für n m = k sei der Satz richtig. Sei nun n m = k + 1 N, dann ist m = n (k + 1) < n, für W := span(w j ) j m gilt dim W m < n, es gibt also einen Vektor v V mit v / span(w j ) j m. Wir bilden m ṽ := s(w j, v) w j (die Projektion von v nach W ). Dieser Vektor ṽ liegt in W, und w := v ṽ steht auf allen Vektoren aus W senkrecht, denn für k m gilt ( ) m s(w k, w) = s(w k, v) s w k, s(w j, v)w j m = s(w k, v) s(w j, v) s(w k, w j )

11 m = s(w k, v) s(w j, v) δ kj = s(w k, v) s(w k, v) = 0. Wegen ṽ W, v / W ist w 0. Wir können w daher normieren : Wir setzen 1 w m+1 := w w, dann haben wir ein Orthonormalsystem (w 1,..., w m, w m+1 ) in V ; es ist n (m + 1) = k, und da der Satz für k richtig ist, kann man dieses Orthonormalsystem ergänzen zu einer Orthonormalbasis (w 1,..., w m, w m+1,..., w n ) von V. Insbesondere folgt, da die leere Familie (w j ) j 0 = (w j ) j ein Orthonormalsystem ist : Folgerung : Jeder endlichdimensionale K Vektorraum mit Skalarprodukt besitzt eine Orthonormalbasis. Wir bleiben noch bei endlichdimensionalen K Vektorräumen: 21.4 Matrizen hermitescher Formen Definition : Sei V ein n dimensionaler K Vektorraum, n N, B = (v 1,..., v n ) eine Basis von V, dann gibt es zu v, w V eindeutig bestimmte Koordinatenvektoren x = x 1. x n, y = ( ) v = y 1. y n K n, die definiert sind durch x k v k, w = Ist nun s eine hermitesche Form auf V, so gilt ( ) s(v, w) = s x k v k, y j v j = y j v j. k, x k s(v k, v j ) y j. Wir können also jedes s(v, w) ausrechnen, wenn wir die Matrix M B (s) := (s(v k, v j )) (k,j) n n M(n n, K) kennen. M B (s) heit die darstellende Matrix von s bezüglich der Basis B. Mit den n 1 Matrizen x = x 1. x n und y = y 1. y n folgt dann

12 s(v, w) = t x M B (s) y, wobei x und y die durch ( ) bestimmten Koordinatenvektoren von v bzw. w sind. Da s hermitesch ist, gilt nach (H2) s(v j, v k ) = s(v k, v j ), also t M B (s) = M B (s), wenn man fr eine Matrix A = (a kj ) definiert: A := (a kj ) : Definition : Eine Matrix A M(n n, K) heißt hermitesch, wenn A = t A ist. Ist K = R, so bedeutet das A = t A, eine Matrix mit dieser Eigenschaft heißt symmetrisch. Folgerung : Wir haben also bewiesen: Ist V ein K Vektorraum mit Basis B = (v 1,..., v n ), und s eine hermitesche Form auf V, so ist die darstellende Matrix A := (s(v k, v j )) hermitesch. Man sieht sofort, dass umgekehrt jede hermitesche Matrix A = (a kj ) durch ( ) s x k v k, y j v j := x k a kj y j eine hermitesche Form auf V definiert. k, Es wäre nun schön, wenn man der darstellenden Matrix M B (s) ansehen könnte, ob s nichtausgeartet oder sogar positiv definit ist. Leicht zu zeigen, aber nicht ganz so wichtig, ist Satz : Eine hermitesche Form auf einem endlichdimensionalen K Vektorraum V ist genau dann nichtausgeartet, wenn für die darstellende Matrix M B (s) bezüglich einer festen Basis B von V gilt det M B (s) 0. Wichtig, auch demnächst für die Analysis, aber schwer zu beweisen, ist (21.4.5) Hauptminoren- oder Hurwitz-Kriterium : Eine hermitesche Form s auf einem endlichdimensionalen K Vektorraum V ist genau dann positiv definit, wenn für alle k n und für die darstellende Matrix A = M B (s) bezüglich einer festen Basis B von V gilt a a 1k det.. a k1... a kk > 0. (21.4.6) Achtung: Hier muss man für alle k n die Unterdeterminanten bis zur k ten Zeile und Spalte von A bilden:

13 A = a a 1n... a a n1 a nn und diese müssen alle > 0 sein. Z.B. ist s mit ( ) 1 0 M B (s) = 0 1, nicht positiv definit! Wir fragen uns, wie sich die darstellende Matrix M B (s) von s bei einem Basiswechsel verändert : Transformationssatz für darstellende Matrizen hermitescher Formen : Sei V ein n dimensionaler K Vektorraum mit hermitescher Form s, n N, und seien A = (a 1,..., a n ), A = (a 1,..., a n) zwei Basen von V, dann hat man nach der Formel in (Skript S.45): j n : a j = t kj a k mit der Transformationsmatrix TA A = T = (t kj) GL(n, K), also gilt ( ) j, l n : s(a j, a l ) = s t kj a k, t rl a r = = r=1 t kj t rl s(a k, a r) r=1 t kj s(a k, a r) t rl, r=1 und nach Definition des Matrizenprodukts heißt das M A (s) = M A (s) = t T M A (s) T, genauer: t T A A M A (s) T A A 21.5 Das Vektorprodukt im R 3 Definition : Seien a = t (a 1, a 2, a 3 ), b = t (b 1, b 2, b 3 ) R 3, dann heißt der Vektor ( ) ( ) ( )) a b := (det t a2 b 2 a1 b, det 1 a1 b, det 1 R 3 a 3 b 3 a 3 b 3 a 2 b 2 das Vektorprodukt von a und b.

14 Satz : Sei <, > das kanonische Skalarprodukt im R 3, dann gilt für alle a, b, w R 3 : < a b, w > = det(a, b, w), wobei (a, b, w) die Matrix mit den Spaltenvektoren a, b, w ist. Beweis : Entwicklung von a 1 b 1 w 1 det a 2 b 2 w 2 a 3 b 3 w 3 nach der 3.Spalte ergibt die Behauptung. Wir wissen, dass die Determinante einer 2 2 Matrix bilinear und alternierend als Funktion der Spaltenvektoren ist. Deshalb folgt aus Definition sofort: Folgerung : Fr alle a, b, c R 3, λ R gilt (1) a a = 0. (2) a b = b a (Antikommutativität) (3) (λa) b = a (λb) = λ(a b) (4) (a + b) c = a c + b c (5) a (b + c) = a b + a c. Für das Vektorprodukt gilt also das Distributivgesetz (Regeln (4),(5)) und statt des Kommutativgesetzes die Regel (2). Statt des Assoziativgesetzes hat man die folgenden zwei Regeln für drei Faktoren: (21.5.4) Grassmann-Identität : Seien a, b, c R 3 und <, > das kanonische Skalarprodukt im R 3, dann ist a (b c) = < a, c > b < a, b > c. Beweis durch stumpfsinniges Nachrechnen: a (b c) = a (b 2 c 3 b 3 c 2, b 3 c 1 c 1 b 3, b 1 c 2 b 2 c 1 ) = (a 2 (b 1 c 2 b 2 c 1 ) a 3 (b 3 c 1 b 1 c 3 ), a 1 (b 1 c 2 b 2 c 1 ) + a 3 (b 2 c 3 b 3 c 2 ), a 1 (b 3 c 2 b 1 c 3 ) a 2 (b 2 c 3 b 3 c 2 )) = ((a 1 c 1 + a 2 c 2 + a 3 c 3 )b 1 (a 1 b 1 + a 2 b 2 + a 3 b 3 )c 1, (a 1 c 1 + a 2 c 2 + a 3 c 3 )b 2 (a 1 b 1 + a 2 b 2 + a 3 b 3 )c 2, (a 1 c 1 + a 2 c 2 + a 3 c 3 )b 3 (a 1 b 1 + a 2 b 2 + a 3 b 3 )c 3 ) = < a, c > b < a, b > c. (21.5.5) Jacobi-Identität : Für alle a, b, c R 3 gilt a (b c) + b (c a) + c (a b) = 0. Beweis : Nach (21.5.4) gilt a (b c) + b (c a) + c (a b) = < a, c > b < a, b > c+ < b, a > c < b, c > a+ < c, b > a < c, a > b = 0.

15 Bemerkung : Allgemein bezeichnet man einen K Vektorraum V, auf dem eine Multiplikation definiert ist, so dass für alle a, b, c V und λ K gilt (λa) b = a (λb) = λ(a b), (a + b) c = a c + b c, a (b + c) = a b + a c als eine K Algebra. Gilt zusätzlich das Assoziativgesetz a, b, c V : a (b c) = (a b) c, so nennt man V eine assoziative K Algebra. Beispiele dafür sind Hom K (V, V ) mit + und, oder M(n n, K) mit Matrizen-Addition und -Multiplikation. Gilt statt des Assoziativgesetzes für alle a, b, c V : a a = 0 und a (b c) + b (c a) + c (a b) = 0, so heißt V eine Lie-Algebra. R 3 mit + und Vektorprodukt ist also eine Lie-Algebra. Satz : Für alle a, b, c, d R 3 gilt < a b, c d > = < a, c > < b, d > < b, c > < a, d >. Beweis : Nach der Grassmann-Identität (21.5.4) gilt < a, c > b < b, c > a = c (b a). Wir bilden auf beiden Seiten das Skalarprodukt mit d : < a, c > < b, d > < b, c > < a, d > = < c (b a), d > (21.5.2) = det(c, b a, d) = det(c, d, b a) (21.5.2) = < c d, b a > = < a b, c d >. Satz : Für alle a, b R 3 gilt < a, b > 2 + a b 2 = a 2 b 2. Das ist eine genauere Aussage als die Cauchy-Schwarzsche Ungleichung, die nur < a, b > 2 a 2 b 2 aussagt! Beweis : Setzen wir c := a, d := b in Satz ein, so erhalten wir < a b, a b > = < a, a > < b, b > < b, a > < a, b >, also a b 2 + < a, b > 2 = a 2 b 2. (21.5.9) Geometrische Deutung des Vektorprodukts : Seien a, b R 3, a, b 0. Dann gilt (1) a b = a b sin ϕ, wobei ϕ der Winkel zwischen a und b ist, (2) a b a und a b b, (3) det(a, b, a b) 0..

16 Beweis : (1) a b 2 (21.5.8) = a 2 b 2 < a, b > 2 = a 2 b 2 (1 cos 2 ϕ) = a 2 b 2 sin 2 ϕ, ϕ [0, π], also sin ϕ [0, 1], und damit folgt die Behauptung. (2) < a b, a > (21.5.2) = det(a, b, a) = 0, entsprechend für b. (21.5.2) (3) det(a, b, a b) = < a b, a b > = a b 2 0. Ist (a, b) linear unabhängig, so weiß man damit: a b steht senkrecht auf der von a und b aufgespannten Ebene im R 3 und hat die Norm a b sin ϕ. (3) macht eine Aussage, in welche Richtung der Vektor a b zeigt. Man braucht dazu den Begriff der Orientierung einer Basis des R n : Definition : Sei (b 1,..., b n ) eine Basis des R n. Sie heißt positiv orientiert, wenn für die Matrix mit den Spaltenvektoren b 1,..., b n gilt : det(b 1,..., b n ) > 0. Sei T diese Matrix, also t kj die k te Komponente von b j, so gilt j n : b j = t kj e k, T ist also die in Bemerkung definierte Transformationsmatrix von der kanonischen Basis (e k ) k n zur Basis (b j ) j n. (b j ) j n positiv orientiert bedeutet dann, dass (b j ) j n genauso orientiert ist wie die kanonische Basis. Speziell im R 3 kann man beweisen: Satz : Eine Basis (b 1, b 2, b 3 ) des R 3 ist genau dann positiv orientiert, wenn sie die Rechte-Hand-Regel erfüllt : Zeigt b 1 in die Richtung des Daumens, b 2 in die des Zeigefingers, so zeigt b 3 in die Richtung des Mittelfingers der rechten Hand. Die Regel (21.5.9)(3) sagt dann: Ist (a, b) linear unabhängig, so ist (a, b, a b) eine positiv orientierte Basis des R 3, erfüllt also die Rechte- Hand-Regel Eigenwerte 22.1 Definition, diagonalisierbare Matrizen (22.1.1) Zur Motivation : Die Bestimmung von Eigenwerten linearer Abbildungen spielt in allen Gebieten der Physik und Technik eine große Rolle. Z.B.ist H ψ = E ψ, wobei H der Hamilton-Operator ist, der auf dem Raum der Wellenfunktionen ψ operiert, und man Energie-Eigenwerte E sucht, eine der grundlegenden Gleichungen der Quantentheorie. Wir können das Problem der Bestimmung von Eigenwerten in diesem Semester nur für endlichdimensionale Vektorräume behandeln. Der allgemeinere Fall (die mathematischen Grundlagen der Quantentheorie) kommt dann im 4.Semester.

17 Definition : Sei K ein Körper und V ein K Vektorraum. Sei F ein Endomorphismus von V, also F Hom K (V, V ). Ein λ K heißt ein Eigenwert von F, wenn es ein v V \ {0} gibt, so dass gilt F (v) = λv. Jedes von 0 verschiedene v V, das diese Gleichung erfüllt, heißt ein Eigenvektor von F zum Eigenwert λ. (22.1.3) Beachten Sie, dass 0 K ein Eigenwert sein kann, dass aber 0 V definitionsgemäß kein Eigenvektor ist! Hilfssatz und Definition : Sei K ein Körper, V ein K Vektorraum, dim K V = n N und F Hom K (V, V ). Dann sind folgende Aussagen gleichbedeutend: (1) Es gibt eine Basis (b j ) j n von V aus Eigenvektoren von F. (2) Es gibt eine Basis B = (b j ) j n von V, so dass die gemäß (19.4.3) bezüglich B definierte Matrix von F, also MB B (F ), eine Diagonalmatrix ist : λ 1 0 MB B (F ) =... mit λ 1,..., λ n K. 0 λ n Wenn eine dieser Aussagen gilt, heißt F diagonalisierbar. Beweis : (1) = (2) : Sei (b j ) j n eine Basis aus Eigenvektoren von F, so gibt es λ 1,..., λ n K mit j n : F (b j ) = λ j b j, also hat MB B (F ) nach (19.4.3) die in (2) angegebene Form. (2) = (1) : Sei MB B (F ) die in (2) angegebene Matrix, dann gilt j n : F (b j ) = λ j b j, also sind die b j Eigenvektoren von F. (22.1.5) Beachten Sie: Dass man eine Basis von Eigenvektoren hat, bedeutet nicht, dass jeder Vektor aus V ein Eigenvektor ist, denn die Linearkombination von Eigenvektoren ist i.a. kein Eigenvektor! - Die Frage ist nun: Wann ist ein F Hom K (V, V ) diagonalisierbar? Eine hinreichende Bedingung gibt der folgende Hilfssatz an : Hilfssatz : Sei K ein Körper und V ein K Vektorraum. Sind v 1,..., v m Eigenvektoren zu paarweise verschiedenen Eigenwerten λ 1,..., λ m von F Hom K (V, V ), so ist (v j ) j m linear unabhängig. Insbesondere: Ist dim K V = n N und hat F n paarweise verschiedene Eigenwerte λ 1,..., λ n, so ist F diagonalisierbar. Beweis durch Induktion nach m : Induktionsanfang : Ist m = 1, so ist (v j ) j 1 linear unabhängig wegen v 1 0.

18 Induktionsschluss : Sei m N, m 2. Sei ( ) α 1 v α m v m = 0 mit α 1,..., α m K, dann gilt λ m α 1 v λ m α m v m = 0 (( ) mit λ m multipliziert), α 1 λ 1 v α m λ m v m = 0 (F auf ( ) angewendet), also m 1 α j (λ j λ m ) v j = 0 und wenn der Satz für m 1 richtig ist, folgt wegen λ j λ m : α 1 =... = α m 1 = 0, und aus ( ) und v m 0 dann noch nach Satz : α m = 0. Ist dim V = n und hat F n paarweise verschiedene Eigenwerte, so hat man eine linear unabhängige Familie (v j ) j n von Eigenvektoren von F, die dann auch eine Basis von V ist. Nach Hilfssatz ist F diagonalisierbar. Eine etwas andere Formulierung von Definition liefert der Satz : Sei V ein K Vektorraum, dim K V = n N und F Hom K (V, V ). F ist genau dann diagonalisierbar, wenn es zur Matrix A = M A A (F ) bezüglich einer beliebigen Basis A von V eine Matrix S GL(n, K) gibt, so dass S 1 A S eine Diagonalmatrix ist. Beweis : = : Sei F diagonalisierbar. Dann gibt es nach Definition eine Basis B von V, so dass B := M B B (F ) eine Diagonalmatrix ist. Sei A = MA A (F ) die Matrix von F bezüglich der Basis A, dann gibt es nach Bemerkung (angewendet auf den Spezialfall V = W ) eine Matrix S GL(n, K) mit M B B (F ) = S 1 M A A (F ) S. = : Sei S GL(n, K) und S 1 A S eine Diagonalmatrix, dann gehen wir von der Basis A = (a k ) k n über zur Basis B = (b j ) j n, die durch b j := s kj a k mit (s kj ) = S

19 definiert ist. Nach Bemerkung ist dann S 1 A S die Matrix von F bezüglich B. Nach Definition (2) ist nun F diagonalisierbar Das charakteristische Polynom Bemerkung : Die Frage ist nun, wie bekommt man die Eigenwerte eines gegebenen F Hom K (V, V ), wenn dim K V = n N ist. Dazu wählt man sich eine feste Basis A = (a k ) k n von V, dann hat man A := M A A (F ) und zu jedem x V gibt es einen Vektor a = x 1. x n K n mit Dann gilt für x V und λ K : x = x k a k. F (x) = λ x A a = λ a, denn F (x) = x k F (a k ) = x k a lk a l = λ x l a l k,l=1 l n : also : λ ist Eigenwert von F l=1 a lk x k = λ x l, x V \ {0} : F (x) = λ x a K n \ {0} : A a = λ a a K n \ {0} : (A λ E n )a = 0. Bei gegebener Matrix A ist (A λe n ) a = 0 ein lineares homogenes Gleichungssystem mit n Gleichungen in den n Unbekannten x 1,..., x n, und λ ist genau dann ein Eigenwert von F, wenn dieses Gleichungssystem eine nichttriviale Lösung hat. Nach Satz gilt also: λ ist Eigenwert von F Rg (A λe n ) < n und nach Satz und Folgerung :... det(a λe n ) = 0. Hier hat man nun eine Gleichung mit der einen Unbekannten λ. Hierbei ist A λe n die Matrix bezüglich der Basis A von und nach Definition ist F λ id V Hom K (V, V ), det(f λ id V ) = det(a λ E n ), wobei es nach Bemerkung nicht darauf ankommt, welche Basis A man gewählt hat. Rechnet man sich die Determinante

20 det(a λ E n ) = det a 11 λ a 12 a a 1n a 21 a 22 λ a a 2n a 31 a 32 a 33 λ... a 3n.... a n1 a n2 a n3... a nn λ aus, so sieht man, dass man eine Polynomfunktion der Form det(a λ E n ) = ( 1) n λ n + n 1 j=0 b j λ j hat, von der man die Nullstellen sucht, was für K = R und n > 2 Schwierigkeiten macht. Definition : Sei K ein Körper und n N. a) Sei V ein K Vektorraum mit dim K V = n und F Hom K (V, V ), so heißt P F (x) := det(f x id V ) das charakteristische Polynom von F. b) Ist A M(n n, K), so heißt λ ein Eigenwert von A, wenn es ein a K n \ {0} gibt mit A a = λ a, und P A (x) := det(a x E n ) heißt das charakteristische Polynom der Matrix A. Im Fall K = R oder C (nur in diesem Fall hatten wir in den Grad definiert) ist deg P F = deg P A = n. In Bemerkung haben wir nun gezeigt: Folgerung : Die Eigenwerte von F Hom K (V, V ) bzw. von A M(n n, K), n N, sind die Nullstellen des charakteristischen Polynoms P F bzw. P A. Definition : Sei V ein K Vektorraum, F Hom K (V, V ) und λ K, dann heißt der Unterverktorraum der Eigenraum von F bezüglich λ. Eig(F, λ) := Ker(F λ id V ) Ein λ K ist also genau dann ein Eigenwert von F, wenn Eig(F, λ) {0} ist, und Eig(F, λ) \ {0} ist die Menge der Eigenvektoren von F zum Eigenwert λ. Folgerung : Ist dim V = n N und A die Matrix von F bezüglich einer festen Basis A von V, so ist dim Eig(F, λ) die Dimension des Lösungsraums des linearen homogenen Gleichungssystems (A λ E n ) x = 0.

21 Beispiel : Sei A = M(3 3, R), so ist das charakteristische Polynom von A : x 1 1 det(a x E 3 ) = det 3 2 x x ( ) ( ) ( 2 x x = ( x) det +1 det +1 det 2 3 x 2 3 x 2 2 = x(2 + x)(3 x) 6x 9 + 3x x = x 3 + x 2 + x 1. Eine Nullstelle dieses Polynoms ist λ 1 = 1. Wenn man durch x 1 dividiert, erhält man ) x 3 + x 2 + x 1 = (x 1) ( x 2 + 1), dadurch erhält man als weitere Nullstellen λ 2 = 1 und λ 3 = 1. 1 und 1 sind also die einzigen Eigenwerte von A. Wir wollen noch die Eigenvektoren zu diesen Eigenwerten bestimmen, also die Vektoren v R 3 \ {0} mit A v = ±1 v. Gesucht sind also die nichttrivialen Lösungen v R 3 der linearen homogenen Gleichungssysteme (A (±1) E 3 ) v = 0, was mit den Methoden aus 19 kein Problem ist: a) Für λ 1,2 = 1 haben wir A 1 E 3 = Wenn wir das auf Zeilenstufenform bringen, sehen wir: Rg (A 1E 3 ) = 1, also dim Eig(A, 1) = 3 1 = 2, und Elemente aus v Eig(A, 1) erhalten wir aus v 1 v 2 + v 3 = 0, also v 2, v 3 R beliebig, v 1 = v 2 v 3.

22 b) Für λ 3 = 1 haben wir A + 1 E 3 = Wenn wir das auf Zeilenstufenform bringen, sehen wir : Rg (A + 1 E 3 ) = 2, also dim Eig(A, 1) = 3 2 = 1, und Vektoren v Eig(A, 1) erhalten wir aus v 1 v 2 + v 3 = 0 4v 2 + 6v 3 = 0, also v 3 R beliebig, v 2 = 3 2 v 3, v 1 = 1 2 v 3. Bemerkung : Sei dim K V = n N und F Hom K (V, V ) sei diagonalisierbar. Nach Definition gibt es dann eine Basis B von V, so dass λ 1 0 B := MB B (F ) =... ist mit λ 1,..., λ n K, 0 λ n also det(f x id V ) = det(b x E n ) = n (x λ j ), also ist P F (x) ein Produkt von Linearfaktoren. Wie wir in Beispiel gesehen haben, kann ein Linearfaktor mehrfach auftreten: Definition : Sei K = R oder C und p : K K eine Polynomfunktion, p 0. Sei λ K. Es gibt ein eindeutig bestimmtes r N 0 und ein q P(K) mit q(λ) 0 und x K : p(x) = (x λ) r q(x). Dieses r heißt die Vielfachheit der Nullstelle λ in p, und wir schreiben r =: µ(p, λ). Beispiel : Ist p : R R, p(x) = (x 3) 3 (x 1), so ist µ(p, 1) = 1, µ(p, 3) = 3, µ(p, λ) = 0 für λ / {1, 3}. Hilfssatz : Sei V ein endlichdimensionaler K Vektorraum, F Hom K (V, V ) und λ K, dann gilt für das charakteristische Polynom P F (x) : µ(p F, λ) dim Eig(F, λ). Beweis : Sei (v j ) j r mit r 0 eine Basis von Eig(F, λ), dann können wir diese Basis nach dem Basisergänzungssatz ergänzen zu einer Basis B = (v 1,..., v r, v r+1,..., v n ) von V. Sei A die Matrix von F bezüglich B, so ist

23 A = λ λ + 0 A r Zeilen r Spalten, da F (v j ) = λ v j für j r gilt. Dabei bedeutet irgendetwas. Das charakteristische Polynom kann man damit ausrechnen, etwa indem man nach der 1. Spalte entwickelt: P F (x) = det(a x E n ) = (λ x) r det(a x E n r ). Daraus folgt µ(p F, λ) r = dim Eig(F, λ). Beispiel : Sei V = R 2 und F : R 2 R 2, F ( x y ) := ( y 0 dann ist F Hom R (R 2, R 2 ). Bezüglich der kanonischen Basis (e 1, e 2 ) des R 2 hat F die Matrix ( ) 0 1 A =, 0 0 also ist das charakteristische Polynom von F : ( ) x 1 P F (x) = det = x 2 = (x 0) 2. 0 x Also ist µ(p F, 0) = 2 und µ(p F, λ) = 0 für λ 0. Andererseits ist Eig(F, 0) = Ker F = R e 1, also dim Eig(F, 0) = 1, also gilt in diesem Fall µ(p F, 0) > dim Eig(F, 0). F ist nicht diagonalisierbar, denn da 0 der einzige Eigenwert von F ist, würde es sonst eine Basis B von R 2 geben, so dass F bezüglich B die Matrix ( 0 ) hätte, dann wäre aber F = 0. Allgemein gilt das folgende Kriterium für Diagonalisierbarkeit: Satz : Sei K = R oder C, V ein endlichdimensionaler K Vektorraum und F Hom K (V, V ). Dann sind gleichbedeutend die Aussagen : (1) F ist diagonalisierbar, (2) a) das charakteristische Polynom P F ist ein Produkt von Linearfaktoren, und b) für alle Eigenwerte λ von F gilt dim Eig (F, λ) = µ(p F, λ). ),

24 Beweis : Seien λ 1,..., λ k die paarweise verschiedenen Eigenwerte von F, und für j k sei (v (j) 1,..., v (j) s j ) eine Basis von Eig (F, λ j ), also s j = dim Eig(F, λ j ). Dann ist B := (v (1) 1,..., v (1) s 1, v (2) 1,..., v (2) s 2,..., v (k) 1,..., v (k) s k ) eine linear unabhängige Familie, denn sei ( ) k s j i=1 α ij v (j) i = 0 mit α ij K, dann gilt für w j := s j i=1 α ij v (j) i : w j = 0, oder w j ist Eigenvektor zu λ j. Nach ( ) gilt k 1 w j = 0. Nach Hilfssatz sind nun Eigenvektoren zu paarweise verschiedenen Eigenwerten linear unabhängig, also folgt aus dieser Gleichung j k : w j = 0, und aus den Gleichungen s j i=1 α ij v (j) i = 0 für j k folgt dann j k i s j : α ij = 0. Sei nun n := dim V. (1) = (2) : Ist F diagonalisierbar, so gibt es eine Basis von V, die aus Eigenvektoren von F besteht. Ordnet man die Vektoren passend an, so ist es eine Basis der Form B. Dann ist n = s s k Hilfssatz µ(p F, λ 1 ) µ(p F, λ k ) n, da P F höchstens n Linearfaktoren hat wegen deg P F = n. Hier steht also überall das Gleichheitszeichen: P F zerfällt in Linearfaktoren, und für alle j k gilt s j = µ(p F, λ j ). (2) = (1) : Wenn a) und b) gelten, folgt s s k b) = µ(p F, λ 1 ) µ(p F, λ k ) a) = n, also ist B nicht nur linear unabhängig, sondern sogar eine Basis von V, also F diagonalisierbar.

25 ( ) Praktisches Verfahren zur Diagonalisierung eines F Hom K (V, V ) : Sei V ein K Vektorraum, dim K V = n N, und A eine Basis von V. Sei F Hom K (V, V ), und A die Matrix von F bezüglich A. 1.Schritt : Man bestimmt das charakteristische Polynom P F von F und versucht, eine Linearfaktorzerlegung von P F zu finden (was für n 3 schwierig werden kann). Wenn man sicher ist, dass das nicht geht, ist F nicht diagonalisierbar, wegen Satz (1). Wenn man eine Linearfaktorzerlegung angeben kann, kommt das zweite Hindernis : 2.Schritt : Man bestimmt für jeden Eigenwert λ von F die Dimension von Eig(F, λ), also die Dimension des Lösungsraums des linearen homogenen Gleichungssystems (A λ E n ) x = 0. Wenn dann für alle Eigenwerte λ µ(p F, λ) = dim Eig(F, λ) gilt, ist F nach Satz diagonalisierbar, und man bestimmt Basen aller Eig(F, λ). Diese Eigenvektoren bilden zusammen eine Basis B von V, bezüglich der die Matrix B := MB B (F ) Diagonalform hat. Es gilt nach Bemerkung : B = S 1 A S mit S := T B A GL(n, K). S ist also die Transformationsmatrix des Basiswechsels von Formel ( ) gilt, wenn A = (a l ) l n, B = (b j ) j n ist : b j = s lj a l mit (s lj ) := S. l=1 B zu A. Nach Die Spaltenvektoren der Matrix S sind also die Koordinatenvektoren der neuen Basisvektoren b j bezüglich der gegebenen alten Basis A. Beispiel : Sei F : R 3 R 3 gegeben durch x y + z F y := 3x 2y + 3z, z 2x 2y + 3z dann ist F linear, und die Matrix von F bezüglich der kanonischen Basis K = (e 1, e 2, e 3 ) des R 3 ist A = 3 2 3, also (siehe Beispiel ) P F (x) = x 3 + x 2 + x 1 = (x 1) 2 (x + 1). Also ist P F ein Produkt von Linearfaktoren. 1 und 1 sind die einzigen Eigenwerte von F. Wie wir in Beispiel gesehen haben, ist

26 dim Eig(F, 1) = 2, und dim Eig(F, 1) = 1, und Also ist B := , eine Basis von Eig(F, 1), eine Basis von Eig(F, 1)., 1 0 1, eine Basis des R 3, die aus Eigenvektoren von F besteht. Mit der Transformationsmatrix S := und der Diagonalmatrix B = M B B (F ) = gilt dann B = S 1 A S, was man zur Kontrolle nachrechnen sollte! 22.3 Orthogonale und unitäre Endomorphismen Sei V ein K Vektorraum mit einem Skalarprodukt s, dann ist also a für a V definiert. Unter den Elementen F Hom K (V, V ) interessiert man sich besonders für solche, die an der Norm nichts ändern, für die also a V : F (a) = a gilt: Definition : Sei K = R oder C und V ein K Vektorraum mit Skalarprodukt s. Eine lineare Abbildung F Hom K (V, V ) heißt eine Isometrie (für K = R auch orthogonale, für K = C auch unitäre lineare Abbildung), wenn v, w V : s(f (v), F (w)) = s(v, w) gilt. Folgerung : Ist V ein K Vektorraum mit Skalarprodukt s, die durch s definierte Norm und F Hom K (V, V ) eine Isometrie, so gilt a) v V : F (v) = v. b) Ist λ ein Eigenwert von F, so ist λ = 1. c) v, w V : (v w F (v) F (w)). d) F ist injektiv. e) Ist V endlichdimensional, so ist F sogar bijektiv, und F 1 ist wieder eine Isometrie.

27 Beweis : a) und c) sind triviale Folgerungen aus Definition b) Sei v 0 und λ K, und es gelte F (v) = λ v, dann folgt nach a) : v = F (v) = λ v = λ v und wegen v 0 : λ = 1. d) Sei v KerF, dann ist F (v) = 0, also 0 = F (v) a) = v, also v = 0. Nach Satz ist F injektiv. e) Nach der Dimensionsformel (Satz ) gilt dim F (V ) = dim V dim KerF d) = dim V, also F (V ) = V, und damit ist F sogar surjektiv. Also hat man die - ebenfalls lineare - Umkehrfunktion F 1 : V V, und es gilt v, w V : s(f 1 (v), F 1 (w)) = s(f (F 1 (v)), F (F 1 (w))) = s(v, w), also ist auch F 1 eine Isometrie. Definition : Sei n N Eine Matrix a) A GL(n, R) heißt orthogonal, falls A 1 = t A, b) A GL(n, C) heißt unitär, falls A 1 = t A ist. Für jede orthogonale und jede unitäre Matrix A gilt dann A t A = E n, also det A det A = 1, det A 2 = 1, also det A = 1. Fr orthogonale Matrizen gibt es also nur die beiden Möglichkeiten det A = 1 oder det A = 1. Satz und Definition : Die Mengen O(n) := { A GL(n, R) A 1 = t A }, SO(n) := { A O(n) det A = 1 } und U(n) := { A GL(n, C) A 1 = t A } sind bezüglich der Matrizenmultiplikation Gruppen. Sie heißen orthogonale, spezielle orthogonale bzw. unitäre Gruppe. Beweis : a) Für U(n) : Für A, B U(n) ist t (A B) = t (A B) = t B t A = B 1 A 1 = (A B) 1, also A B U(n), und ist eine Verknüpfung auf U(n). Das Assoziativgesetz gilt, da es in GL(n, C) gilt. Wegen

28 t E n = E n ist E n U(n). Für A U(n) gilt auch t (A 1 ) = t ((A) 1 ) = ( t (A)) 1 = (A 1 ) 1, also A 1 U(n). Also ist U(n) eine Gruppe. b) Für O(n) geht das wie unter a), nur ohne. c) Aus dem Determinanten-Multiplikationssatz folgt, dass auch SO(n) eine Gruppe ist. Satz : Sei V ein endlichdimensionaler K Vektorraum mit Skalarprodukt s und sei B = (v j ) j n eine Orthonormalbasis von V. Sei F Hom K (V, V ) und MB B (F ) die Matrix von F bezüglich B. Dann gilt für K = R : F ist orthogonal MB B (F ) ist orthogonal, für K = C : F ist unitär MB B (F ) ist unitär. Beweis für K = C (für K = R lasse man die Striche weg) : Da (v j ) j n eine Orthonormalbasis von V ist, gilt für k, j n : s(v k, v j ) = δ kj = { 0 fr k j 1 für k = j, also wenn F (v j ) = F n ( ) a kj v k ist mit A := M B B (F ) : unitär r, j n : s(v r, v j ) = s(f (v r ), F (v j )) r, j n : δ rj = a kr a lj s(v k, v l ) = k,l=1 k,l=1 a kr a lj δ kl = a kr a kj E n = t A A E n = A t A A 1 = t A A unitär. Dabei muss höchstens noch ( ) genauer begründet werden: = ist trivial, und = folgt aus der Linearität von F und daraus, dass s ein Skalarprodukt ist. Satz : Ist F eine Isometrie eines endlichdimensionalen C Vektorraums V mit Skalarprodukt, so besitzt V eine Orthonormalbasis, die aus Eigenvektoren von F besteht. Beweis durch Induktion nach n := dim V : Für n = 0 können wir die leere Familie als Basis nehmen; dafr ist der Satz richtig. Für n 1 sei der Satz richtig. Sei nun dim C V = n. Für das charakteristische Polynom P F von F gilt P F P(C) und deg P F = n. Nach dem Fundamentalsatz der Algebra (Satz ) zerfällt P F in Linearfaktoren, d.h. es gibt λ 1,..., λ n C mit P F (x) = ±(x λ 1 )... (x λ n ).

29 Sei v 1 ein Eigenvektor zu λ 1. Dann ist v 1 0, und da auch Eigenvektor zu λ 1 ist, können wir v 1 = 1 annehmen. Sei W := { w V s(v 1, w) = 0 }, dann ist W ein Untervektorraum von V. Es gilt denn sei w W, dann gilt F (W ) W, 1 v 1 v 1 λ 1 s(f (w), v 1 ) = s(f (w), λ 1 v 1 ) = s(f (w), F (v 1 )) = s(w, v 1 ) = 0 und nach Folgerung b) ist λ 1 = 1, also λ 1 0, also s(f (w), v 1 ) = 0, also F (w) W. Also haben wir die lineare Abbildung F W : W W, die wieder eine Isometrie ist, denn für w, w W gilt Nun ist s(f W (w), F W (w )) = s(f (w), F (w )) = s(w, w ). dim C W = n 1, denn nach dem Orthonormalisierungssatz können wir (v 1 ) zu einer Orthonormalbasis (v 1, w 2,..., w n ) von V ergänzen, und (w 2,..., w n ) ist dann eine Basis von W. W besitzt nach Induktionsannahme eine Orthonormalbasis (v 2,..., v n ), die aus Eigenvektoren von F W, also aus Eigenvektoren von F, besteht. Wegen Cv 1 W ist dann (v 1,..., v n ) die gewünschte Basis von V. Folgerung : Jede Isometrie eines endlichdimensionalen unitären Vektorraums V ist diagonalisierbar. Beweis : Das gilt nach Satz und Definition Folgerung : Sei n N. Zu jedem A U(n) gibt es ein S U(n) mit λ 1 0 t S A S =..., 0 λ n wobei die λ j C sind mit λ j = 1 für j n. Beweis : Sei F : C n C n, F (x) := A x, dann ist A = M K K (F ), wobei K die kanonische Basis des C n ist. K ist eine Orthonormalbasis des C n mit dem kanonischen Skalarprodukt <, > also ist F ein unitärer Endomorphismus des C n nach Satz Nach Satz gibt es nun eine Orthonormalbasis ein

30 B = (v 1,..., v n ) des C n mit <, >, die aus Eigenvektoren von F besteht : λ 1,..., λ n C j n : (F (v j ) = λ j v j λ j = 1 ), letzteres nach Folgerung b). Also ist B := M B B (F ) = λ λ n, und nach der Formel für die Koordinatentransformation in gilt M B B (F ) = S 1 M K K (F ) S, also B = S 1 A S, mit S := M B K(id V ) = T B K GL(n, C), also nach ( ) : S = (s kj ) mit v j = s kj e k. Da sowohl B als auch K Orthonormalbasen von C n sind, gilt für r, j n : δ rj = < v r, v j > = < s lr e l, l=1 s kj e k > = s lr s kj < e l, e k > = s lr s kj δ lk = s kr s kj, also k,l=1 k,l=1 t S S = E n, also S 1 = t S, S U(n), B = t S A S Selbstadjungierte Endomorphismen Definition : Sei V ein K Vektorraum mit Skalarprodukt s. Ein F Hom K (V, V ) heißt selbstadjungiert, wenn v, w V : s(f (v), w) = s(v, F (w)) gilt. Satz : Sei V ein K Vektorraum mit Skalarprodukt s, dim K V = n N und B eine Orthonormalbasis von V. Dann gilt: F selbstadjungiert MB B (F ) ist symmetrisch ( für K = R ) bzw. MB B (F ) ist hermitesch ( für K = C ). Beweis : Sei B = (v 1,..., v n ) und A := M B B (F ), dann gilt

31 k n : F (v k ) = F selbstadjungiert a jk v j, also : r=1 l, k n : s(f (v l ), v k ) = s(v l, F (v k )) l, k n : a jl s(v j, v k ) = a jk s(v l, v j ) r=1 l, k n : a jl δ jk = r=1 r=1 a jk δ lj r=1 l, k n : a kl = a lk A = t A A ist symmetrisch bzw. hermitesch. Hilfssatz : Ist n N und A M(n n, K) symmetrisch bzw. hermitesch, so sind alle Eigenwerte von A reell. Beweis : Wir nehmen den K n mit dem kanonischen Skalarprodukt. Allgemein gilt für v = t (v 1,..., v n ), w = t (w 1,..., w n ) K n : ( ) < A v, w > = a kj v j, w = a kj v j w k = v, ( r=1 a kj w k ) j n k n und wenn A symmetrisch bzw. hermitesch ist: < A v, w > = < v, A w >, und wenn A v = λv ist, mit v 0, dann folgt k, = < v, t A w >, λ < v, v > = < λv, v > = < Av, v > = < v, Av > = < v, λv > = λ < v, v >, also λ = λ. Satz : Sei V ein K Vektorraum mit Skalarprodukt, dim K V = n N, und sei F Hom K (V, V ) selbstadjungiert. Dann gilt für das charakteristische Polynom von F : n (λ 1,..., λ n ) R n : P F (x) = ( 1) n (x λ k ). Beweis : Für K = C wissen wir, dass das charakteristische Polynom ein Produkt von Linearfaktoren ist, und die Nullstellen von P F sind die Eigenwerte von F. Nach Hilfssatz sind die λ k, k n, reell.

32 Also ist die Behauptung richtig. Sei K = R. Dann wählen wir eine bezüglich s orthonormale Basis B von V. Dafür ist nach Satz A := M B B (F ) eine symmetrische Matrix aus M(n n, R). Wegen R C ist A auch Element von M(n n, C), und als solche ist A hermitesch. A beschreibt also bezüglich der kanonischen Basis K des C n eine selbstadjungierte lineare Abbildung F C : C n C n mit M K K ( F C ) = A. Nach dem eben für C Bewiesenen gibt es λ 1,..., λ n R mit Nun ist für x R : n P FC (x) = ( 1) n (x λ k ). P FC (x) = det(a xe n ) = det(a xe n ) = P F (x), also haben wir mit λ 1,..., λ n R, wie behauptet. M(n n, C) M(n n, R) n P F (x) = ( 1) n (x λ k ), Bemerkung : Der Kunstgriff bei Teil b) des Beweises von Satz besteht, wenn man es genau betrachtet, darin, dass man die Matrix A = (a kj ) = M B B (F ) des Endomorphismus F des R Vektorraums V mit der Basis B = (v 1,..., v n ) auch auffassen kann als Matrix eines Endomorphismus der Komplexifizierung V C von V. Wir definieren V C als V C := C n, mit der kanonischen Basis (e 1,..., e n ). Dann ist aber λv auch für λ R und v V definiert, und V C ist ein R-Vektorraum, mit der Basis (e 1,..., e n, ie 1,..., ie n ) ; also ist dim R V C = 2n. Dann ist ϕ : V V C, ϕ( n α j v j ) := α j e j ein injektiver R Vektorraum-Homomorphismus. Wir können daher α j v j V mit α j e j V C r=1 identifizieren, dann { wird V V C, v j = e j V C und n } V C = α j v j α j C. r=1 r=1 Es ist dann (v 1,..., v n ) eine C Basis von V C, und man kann das Skalarprodukt s von V fortsetzen zu einem Skalarprodukt s C auf V C durch r=1 r=1

33 s C ( r= ) α j v j, β k v k := α j β k s(v j, v k ). j, Zu F End R V hat man das durch F C : V C V C, F C (v j ) := a kj v k definierte F C End C V C, und es ist offenbar M B B (F C ) = M B B (F ) = A. Wegen A = t A = t A ist F C ein selbstadjungierter Endomorphismus von V C. Satz : Sei V ein endlichdimensionaler K Vektorraum mit Skalarprodukt, und sei F Hom K (V, V ) selbstadjungiert. Dann besitzt V eine Orthonormalbasis, bestehend aus Eigenvektoren von F. Beweis durch Induktion nach n := dim V : Induktionsanfang : Für n = 0 ist der Satz trivial. Induktionsschluss : Sei n N, und für kleinere Dimension als n sei der Satz wahr.sei nun dim V = n. Nach Satz haben wir eine Linearfaktorzerlegung des charakteristischen Polynoms von F : P F (x) = ( 1) n n (x λ k ) mit λ k R. Sei v 1 V mit v 1 = 1 ein Eigenvektor zu λ 1, dann setzen wir W := { w V s(v 1, w) = 0 }. Wie im Beweis von Satz zeigt man: dim K W = n 1. Entscheidend ist nun, dass auch noch ( ) F (W ) W gilt, denn dann können wir auf F W : W W die Induktionsannahme anwenden: Es gibt eine Orthonormalbasis (v 2,..., v n ) von W, die aus Eigenvektoren von F W, also aus Eigenvektoren von F, besteht, und (v 1, v 2,..., v n ) ist dann die gewünschte Orthonormalbasis von V. Beweis von ( ) : Ist w W, so gilt s(v 1, F (w)) = s(f (v 1 ), w) = s(λ 1 v 1, w) = λ 1 s(v 1, w) = 0, also F (w) W.

34 Folgerung : Jeder selbstadjungierte Endomorphismus eines endlichdimensionalen euklidischen bzw. unitären Vektorraums ist diagonalisierbar. Beweis : Das folgt aus Satz und Definition Folgerung : Ist A M(n n, K) eine symmetrische bzw. hermitesche Matrix, so gibt es eine orthogonale bzw. unitäre Matrix S, so dass λ 1 0 t S A S =... mit λ 1,..., λ n R ist. 0 λ n Der Beweis geht ähnlich wie der von Folgerung : Satz sagt zunächst nur, dass es ein S GL(n, K) mit λ 1 0 S 1 A S =... 0 λ n gibt, aber S ist die Transformationsmatrix von der kanonischen Basis K des K n zu der nach Satz existierenden Orthonormalbasis B = (v 1,..., v n ) des K n ; es gilt also v j = s kj e k, die Spaltenvektoren s j von S sind die v j. Sie bilden also eine Orthonormalbasis des K n mit <, >, es gilt j, l n : s kj s kl = δ jl, also t S S = E n, also gilt S 1 = t S, d.h. S ist orthogonal bzw. unitär Sylvesterscher Trägheitssatz Bemerkung : Wir wollen das Ergebnis von Folgerung über hermitesche Matrizen anwenden, um zu beweisen, dass man die in definierte darstellende Matrix einer hermiteschen Form s, also M B (s) = (s(v k, v j )) (k,j) n n für B = (v j ) j n durch Übergang zu einer anderen Basis A auf Diagonalform bringen kann. Satz : Sei s eine symmetrische Bilinearform (bzw. hermitesche Form) auf dem K Vektorraum V mit dim K V = n N, und A := M A (s) die darstellende Matrix von s bezüglich einer Basis A. Dann gibt es eine Basis B von V mit den Eigenschaften: (1) M B (s) ist eine Diagonalmatrix, d.h.

35 M B (s) = λ λ n mit λ 1,..., λ n R. (2) Die Transformationsmatrix S des Basiswechsels von A nach B ist orthogonal (bzw. unitär). (3) Die Diagonalelemente λ 1,..., λ n von M B (s) sind die Eigenwerte von A. Beweis : A ist eine symmetrische (bzw. hermitesche) Matrix, also gibt es nach nach Folgerung eine orthogonale (bzw. unitäre) Matrix S, so dass B := t S A S eine Diagonalmatrix ist. Sei A = (a k ) k n, dann setzen wir b j := s kj a k für j n, dann ist S die Transformationsmatrix TA B Transformationssatz gilt also wegen t S = S 1 :, und nach dem M B (s) = t S M A (s) S, B = S 1 A S, also haben A und B die gleichen Eigenwerte, womit auch (3) bewiesen ist. Folgerung : Eine symmetrische Bilinearform bzw. hermitesche Form s auf einem endlichdimensionalen K Vektorraum V ist genau dann positiv definit, wenn für eine Basis B von V alle Eigenwerte von M B (s) positiv sind. Beweis : Nach Satz gibt es zur Basis B eine Basis A = (a k ) k n, so dass M A (s) und M B (s) gleiche Eigenwerte haben, und λ 1 0 M A =... = (s(a k, a j )) (k,j) n n 0 λ n ist, mit λ 1,... λ n R. Nun gilt: s positiv definit ( ) k n : s(a k, a k ) > 0 k n : λ k > 0. Bei ( ) ist = klar. = folgt so: Sei v = n α k a k V \ {0} beliebig, dann ist s(v, v) = α k α l s(a k, a l ) = k,l=1 k,l=1 α k α l δ kl λ k = α k 2 λ k > 0.

LINEARE ALGEBRA II. Ernst Bönecke. Universität Hamburg

LINEARE ALGEBRA II. Ernst Bönecke. Universität Hamburg LINEARE ALGEBRA II Ernst Bönecke Universität Hamburg Juli 2016 V O R W O R T Auch der zweite Teil beginnt mit Themen, die schon aus der Schule bekannt sein dürften: Skalarprodukt und Vektorprodukt im R

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Lösungsskizzen zur Klausur zur Linearen Algebra II. Definitionen

Lösungsskizzen zur Klausur zur Linearen Algebra II. Definitionen Technische Universität Berlin Sommersemester 2008 Institut für Mathematik 18 Juli 2008 Prof Dr Stefan Felsner Andrea Hoffkamp Lösungsskizzen zur Klausur zur Linearen Algebra II Aufgabe 1 (1+1+1 Punkte)

Mehr

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2 Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete

Mehr

Lineare Algebra II Lösungen der Klausur

Lineare Algebra II Lösungen der Klausur Prof Dr K Doerk 673 Jens Mandavid Christian Sevenheck Lineare Algebra II Lösungen der Klausur (a Diese Aussage ist richtig, sie stimmt nämlich für k = Sei nämlich n N beliebig und bezeichne N die Menge

Mehr

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung Prof. Dr. B. Hanke Dr. J. Bowden Lineare Algebra 2 (SS ) Blatt : Musterlösung Aufgabe. Es sei C (R) der R-Vektorraum der unendlich oft differenzierbaren Funktionen auf R und : C (R) C (R), f f die Abbildung,

Mehr

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016, Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren

Mehr

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit

Mehr

3 Vektorräume abstrakt

3 Vektorräume abstrakt Mathematik I für inf/swt Wintersemester / Seite 7 Vektorräume abstrakt Lineare Unabhängigkeit Definition: Sei V Vektorraum W V Dann heißt W := LH(W := Menge aller Linearkombinationen aus W die lineare

Mehr

Lineare Algebra für Physiker 11. Übungsblatt

Lineare Algebra für Physiker 11. Übungsblatt Lineare Algebra für Physiker 11. Übungsblatt Fachbereich Mathematik SS 01 Prof. Dr. Matthias Schneider./. Juli 01 Dr. Silke Horn Dipl.-Math. Dominik Kremer Gruppenübung Aufgabe G1 (Minitest) (a) Welche

Mehr

7.2 Die adjungierte Abbildung

7.2 Die adjungierte Abbildung 7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

Lineare Algebra II (SS 13)

Lineare Algebra II (SS 13) Lineare Algebra II (SS 13) Bernhard Hanke Universität Augsburg 03.07.2013 Bernhard Hanke 1 / 16 Selbstadjungierte Endomorphismen und der Spektralsatz Definition Es sei (V,, ) ein euklidischer oder unitärer

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

3.7 Eigenwerte und Eigenvektoren

3.7 Eigenwerte und Eigenvektoren 3.7. EIGENWERTE UND EIGENVEKTOREN 123 3.7 Eigenwerte und Eigenvektoren Wir wollen jetzt lineare Endomorphismen durch Matrizen besonders übersichtlicher Gestalt (u.a. mit möglichst vielen Nullen) beschreiben,

Mehr

Musterlösungen zur Linearen Algebra II Übungsklausur

Musterlösungen zur Linearen Algebra II Übungsklausur Musterlösungen zur Linearen Algebra II Übungsklausur Aufgabe. Sei A R 3 3. Welche der folgenden Aussagen sind richtig? a Ist det(a =, dann ist A eine orthogonale Matrix. b Ist A eine orthogonale Matrix,

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

1 Euklidische und unitäre Vektorräume

1 Euklidische und unitäre Vektorräume 1 Euklidische und unitäre Vektorräume In diesem Abschnitt betrachten wir reelle und komplexe Vektorräume mit Skalarprodukt. Dieses erlaubt uns die Länge eines Vektors zu definieren und (im Fall eines reellen

Mehr

4.3 Reelle Skalarprodukte, Hermitesche Formen, Orthonormalbasen

4.3 Reelle Skalarprodukte, Hermitesche Formen, Orthonormalbasen 196 KAPITEL 4. VEKTORRÄUME MIT SKALARPRODUKT 4. Reelle Skalarprodukte, Hermitesche Formen, Orthonormalbasen In diesem Abschnitt betrachten wir Vektorräume über IR und über C. Ziel ist es, in solchen Vektorräumen

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

3 Bilinearform, Basen und Matrizen

3 Bilinearform, Basen und Matrizen Lineare Algebra II 2. Oktober 2013 Mitschrift der Vorlesung Lineare Algebra II im SS 2013 bei Prof. Peter Littelmann von Dario Antweiler an der Universität zu Köln. Kann Fehler enthalten. Veröentlicht

Mehr

2 Euklidische Vektorräume

2 Euklidische Vektorräume Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,

Mehr

7.3 Unitäre Operatoren

7.3 Unitäre Operatoren Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren

Mehr

Kontrollfragen und Aufgaben zur 3. Konsultation

Kontrollfragen und Aufgaben zur 3. Konsultation 1 Technische Universität Ilmenau Fakultät für Mathematik und Naturwissenschaften Institut für Mathematik Prof. Dr. Michael Stiebitz Kontrollfragen und Aufgaben zur 3. Konsultation Termin: Ort: Determinante

Mehr

Diagonalisierbarkeit symmetrischer Matrizen

Diagonalisierbarkeit symmetrischer Matrizen ¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren

Mehr

8 Eigenwerttheorie I 8. EIGENWERTTHEORIE I 139. Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet:

8 Eigenwerttheorie I 8. EIGENWERTTHEORIE I 139. Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet: 8. EIGENWERTTHEORIE I 139 8 Eigenwerttheorie I Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet: K[x] = Abb[N, K] = {P ; P = a n x n + a n 1 x n 1 + + a 0 ; a

Mehr

2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren

2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren 2 ÄHNLICHKEIT VON MATRIZEN, EIGENWERTE UND EIGENVEKTOREN 1 19. Mai 2000 2 Ähnlichkeit von Matrizen, Eigenwerte und Eigenvektoren Motivation. Es seien: V ein K-Vektorraum mit dim V = n < und F End V, Φ,

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

1 Die Jordansche Normalform

1 Die Jordansche Normalform Matthias Tischler Karolina Stoiber Ferienkurs Lineare Algebra für Physiker WS 4/5 A Die Jordansche Normalform Vierter Tag (9.03.205) Im Zusammenhang mit der Lösung komplexer Differentialgleichungssysteme

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 42 Normale Endomorphismen Nach Satz 34.1 besitzt eine Isometrie über C eine Orthonormalbasis aus Eigenvektoren

Mehr

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Technische Universität München Department of Physics Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Freitag, 16.03.2012 Sascha Frölich Ferienkurs Lin. Alg. -

Mehr

Skalarprodukt, Norm & Metrik

Skalarprodukt, Norm & Metrik Skalarprodukt, Norm & Metrik Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz 11. Mai 2016 Stefan Ruzika 5: Skalarprodukt, Norm & Metrik 11. Mai 2016 1 / 13 Gliederung 1

Mehr

Lineare Algebra I Lösungsvorschlag

Lineare Algebra I Lösungsvorschlag Aufgabe Lineare Algebra I Lösungsvorschlag Wir bezeichnen mit a, a 2, a 3 Q 4 die Spalten der Matrix A. Es ist 7 a + 2a 2 = 7 4 = 7a 3, und wir sehen im l A = a, a 2, a 3 = a, a 2. Da die Vektoren a und

Mehr

Ferienkurs - Lineare Algebra. Hanna Schäfer. Merkinhalte

Ferienkurs - Lineare Algebra. Hanna Schäfer. Merkinhalte Technische Universität München, Fakultät für Physik Ferienkurs - ineare Algebra Hanna Schäfer 03. März 04 0. inearität. f : M N, x : y = f(x) Merkinhalte. f(x + λy) = f(x) + λf(y), x, y V, λ K 3. ineare

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Euklidische und unitäre Vektorräume In allgemeinen Vektorräumen gibt es keine Möglichkeit der Längenmessung von Vektoren und der Winkelmessung zwischen zwei Vektoren. Dafür ist eine zusätzliche Struktur

Mehr

Kapitel 11 Eigenwerte und Eigenvektoren

Kapitel 11 Eigenwerte und Eigenvektoren Kapitel Eigenwerte und Eigenvektoren. Problem der Diagonalisierbarkeit Es sei wieder K gleich R oder. Eine n n)-matrix A mit Koeffizienten aus K wird als diagonalisierbar bezeichnet, wenn es eine invertierbare

Mehr

3 Bilinearformen und quadratische Formen

3 Bilinearformen und quadratische Formen 3 Bilinearformen und quadratische Formen Sei V ein R Vektorraum. Definition: Eine Bilinearform auf V ist eine Abbildung s : V V R, welche linear in beiden Variablen ist, d.h.: Für u, v, w V und λ, µ R

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

44 Spektralzerlegung normaler Operatoren im endlichdimensionalen Fall

44 Spektralzerlegung normaler Operatoren im endlichdimensionalen Fall 44 Spektralzerlegung normaler Operatoren im endlichdimensionalen Fall 44 1 Zusammenfassung Dieser Paragraf richtet sich im Aufbau weitgehend nach 42, um den Zerlegungssatz (44.7) analog zum Satz über die

Mehr

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ)) Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 18 Vielfachheiten und diagonalisierbare Abbildungen Satz 18.1. Es sei K ein Körper und es sei V ein endlichdimensionaler K- Vektorraum.

Mehr

4 Lineare Abbildungen Basisdarstellungen

4 Lineare Abbildungen Basisdarstellungen 4 Lineare Abbildungen Basisdarstellungen (4.1) Seien V,W endlich dimensionale K-Vektorräume, und sei T : V W linear. Sei {v 1,...,v } Basis von V und {w 1,...,w M } Basis von W. Sei T (v j ) = M a kj w

Mehr

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen. Definition: Lineare Abbildung Lineare Abbildungen Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen. 8.1 Definition: Lineare Abbildung Eine Funktion f : V Ñ W zwischen

Mehr

7 Lineare Abbildungen und Skalarprodukt

7 Lineare Abbildungen und Skalarprodukt Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=

Mehr

Aufgaben zu Kapitel 20

Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v

Mehr

Musterlösungen zur Linearen Algebra II Weihnachtszettel

Musterlösungen zur Linearen Algebra II Weihnachtszettel Musterlösungen zur Linearen Algebra II Weihnachtszettel Aufgabe. Welche der folgenden Matrizen 3 0 0 A = 0 4, B = 3, C = 0 0 0 6 0 0 0 sind über R und welche über C diagonalisierbar? Bestimmen Sie dazu

Mehr

4 Orthogonale Endormorphismen

4 Orthogonale Endormorphismen 4 Orthogonale Endormorphismen Frage: Bei welchen Abbildungen R R bzw. R 3 R 3 bleibt der Abstand zwischen zwei Punkten erhalten? Für α R setzen wir cosα sin α D(α) = und S(α) := sin α cosα ( cos α sin

Mehr

Lineare Algebra II. Sommersemester Wolfgang Ebeling

Lineare Algebra II. Sommersemester Wolfgang Ebeling Lineare Algebra II Sommersemester 2006 Wolfgang Ebeling 1 c Wolfgang Ebeling Institut für Mathematik Universität Hannover Postfach 6009 30060 Hannover E-mail: ebeling@mathuni-hannoverde 1 Euklidische und

Mehr

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153 3.3. SKALARPRODUKTE 153 Hierzu müssen wir noch die Eindeutigkeit (Unabhängigkeit von der Wahl der Basis bzw. des Koordinatensystems) zeigen. Sei hierzu β eine Bilinearform und q die entsprechende quadratische

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 34 Die Diagonalisierbarkeit von Isometrien im Komplexen Satz 34.1. Es sei V ein endlichdimensionaler C-Vektorraum

Mehr

Musterlösungen zur Linearen Algebra II Hauptklausur

Musterlösungen zur Linearen Algebra II Hauptklausur Musterlösungen zur Linearen Algebra II Hauptklausur Aufgabe. Q ist unitär genau dann, wenn gilt Q Q = I n. Daraus folgt, dass a) und c) richtig sind. Die -Matrix A := (i) zeigt, dass i.a. A A t, d.h. b)

Mehr

10 Unitäre Vektorräume

10 Unitäre Vektorräume 10 Unitäre Vektorräume Pink: Lineare Algebra 2014/15 Seite 98 10 Unitäre Vektorräume Die Theorie komplexer Vektorräume mit Skalarprodukt folgt denselben Linien wie die Theorie reeller Vektorräume mit Skalarprodukt;

Mehr

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23 Kapitel 5 Eigenwerte 5. Definition und Beispiele Wir sehen uns ein System dreier schwingender Kugeln der Massen m, m und m 3 an, die durch Federn aneinander gekoppelt sein sollen. m k m k 3 m 3 x ( t x

Mehr

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015 sskizzen der Klausur zur Linearen Algebra im Herbst 5 Aufgabe I. Es sei (G, ) eine Gruppe mit neutralem Element e und M {x G x x e}. Zeigen Sie: (a) Ist G kommutativ, so ist M eine Untergruppe von G. (b)

Mehr

Karlsruher Institut für Technologie (KIT) WS 2012/13 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning

Karlsruher Institut für Technologie (KIT) WS 2012/13 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning Karlsruher Institut für Technologie (KIT) WS 22/3 Institut für Analysis 28..23 Prof. Dr. Tobias Lamm Dr. Patrick Breuning Höhere Mathematik I für die Fachrichtung Physik 4. Übungsblatt (letztes Blatt)

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Übungen zur Vorlesung Lineare Algebra

Übungen zur Vorlesung Lineare Algebra Übungen zur Vorlesung Lineare Algebra Institut für Reine Mathematik WS 2009/10 & SS 2010 Kapitel 1. Vektorräume Was ist ein Vektorraum? Sei X und K ein Körper. Wie macht man Abb (X, K) zu einem K -Vektorraum?

Mehr

Lösung 13: Unitäre Vektorräume und normale Abbildungen

Lösung 13: Unitäre Vektorräume und normale Abbildungen D-MATH Lineare Algebra II FS 2017 Dr. Meike Akveld Lösung 13: Unitäre Vektorräume und normale Abbildungen 1. a) Im Folgenden sei γ : V V C die Abbildung γ(v, w) v + w 2 v w 2 i v + iw 2 + i v iw 2. : Wir

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom Übungsaufgaben 11. Übung: Woche vom 9. 1.-13. 1. 2017 (Numerik): Heft Ü 1: 12.28.a,b; 12.29.b,c (jeweils mit Fehlerabschätzung); 6.26; 6.27.a (auch mit Lagrange-Interpolationspolynom); 6.25; 6.28 (auch

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG

KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG Aufgabe 1 Es sei K ein Körper, V ein K-Vektorraum, und seien v 1,..., v n V (n N). (a) Definieren Sie, wann die endliche Familie v 1,...,

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 25): Lineare Algebra und analytische Geometrie 2 2. (Frühjahr 29, Thema 3, Aufgabe 3) Gegeben sei die reelle 3 3 Matrix 4 2 A = 2 7 2 R 3 3. 2 2 a)

Mehr

Lineare Algebra I für Mathematiker Lösungen

Lineare Algebra I für Mathematiker Lösungen Lineare Algebra I für Mathematiker Lösungen Anonymous 24. April 2016 Aufgabe 1 Beantworten Sie bitte die folgenden Fragen. Jeder Vektorraum hat mindestens ein Element. Q ist ein R-Vektorraum (mit der Multiplikation

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

6. Normale Abbildungen

6. Normale Abbildungen SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische

Mehr

Mathematik für Physiker, Informatiker und Ingenieure

Mathematik für Physiker, Informatiker und Ingenieure Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel V SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

4.2 Die adjungierte Abbildung

4.2 Die adjungierte Abbildung 4.2. DIE ADJUNGIERTE ABBILDUNG 177 4.2 Die adjungierte Abbildung Die Vektorräume dieses Paragraphen seien sämtlich euklidisch, die Norm kommt jetzt also vom inneren Produkt her, v = v v. Zu f Hom R (V,

Mehr

Basisprüfung. 18. August 2015

Basisprüfung. 18. August 2015 Lineare Algebra I/II D-MATH, HS 4/FS 5 Prof Richard Pink Basisprüfung 8 August 25 [6 Punkte] Betrachte den reellen Vektorraum R 3 zusammen mit dem Standardskalarprodukt, und die Vektoren 9 3 v := 6, v

Mehr

4.4 Hermitesche Formen

4.4 Hermitesche Formen 44 Hermitesche Formen Wie üblich bezeichnen wir das komplex konjugierte Element von ζ = a + bi C (a, b R) mit ζ = a bi Definition 441 Sei V ein C-Vektorraum Eine hermitesche Form (HF) auf V ist eine Abbildung

Mehr

4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit

4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit 4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit Definition 4.41. Eine Familie F linearer Operatoren heißt vertauschbar oder kommutierend, wenn für je zwei Operatoren U,T in F gilt: UT = TU.

Mehr

5 Diagonalisierbarkeit

5 Diagonalisierbarkeit 5 Diagonalisierbarkeit Sei V ein K Vektorraum mit einer Basis B = (v 1,..., v n ) Wiederholung aus 2: Sei f : V V K linear. Stelle f(v j ) für j = 1,..., n dar in der Form a 1j Das n Tupel a j =. a nj

Mehr

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich Henning Krause Lineare Algebra Julia Sauter SS 27 Klausur 2.9.27 mit Lösungsvorschlag Jan Geuenich Aufgabe (4 Punkte: Sei n N und seien A und B zwei (n n-matrizen über einem Körper K. Wahr Falsch (a Es

Mehr

9 Vektorräume mit Skalarprodukt

9 Vektorräume mit Skalarprodukt 9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden

Mehr

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

a) Ein Gruppenhomomorphismus von G nach H ist eine Abbildung Φ : G H, sodass für alle g 1, g 2 G die Gleichung Φ(g 1 g 2 ) = Φ(g 1 ) Φ(g 2 )

a) Ein Gruppenhomomorphismus von G nach H ist eine Abbildung Φ : G H, sodass für alle g 1, g 2 G die Gleichung Φ(g 1 g 2 ) = Φ(g 1 ) Φ(g 2 ) I. (4 Punkte) Es seien (G, ) eine Gruppe mit neutralem Element e G und (H, ) eine weitere Gruppe. a) Geben Sie die Definition eines Gruppenhomomorphismus Φ : G H an und beweisen Sie, dass für solch einen

Mehr

1 Darstellungsmatrizen

1 Darstellungsmatrizen Matthias Tischler Karolina Stoiber Ferienkurs Lineare Algebra für Physiker WS 14/15 A 1 Darstellungsmatrizen Vereinbarungen für dieses Kapitel: K Körper V und W endlich-dimensionale K-Vektorräume B = {v

Mehr

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }. 154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =

Mehr

Technische Universität München

Technische Universität München Technische Universität München Michael Schreier Ferienkurs Lineare Algebra für Physiker Vorlesung Montag WS 2008/09 1 komplexe Zahlen Viele Probleme in der Mathematik oder Physik lassen sich nicht oder

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

Übungen zu Lineare Algebra und Geometrie 1

Übungen zu Lineare Algebra und Geometrie 1 Übungen zu Lineare Algebra und Geometrie 1 Hermann Schichl Andreas Čap Sommersemester 218 Wiederholung grundlegender Begriffe (1) Bestimmen Sie Kern und Bild der linearen Abbildung f : R 3 R 3, die gegeben

Mehr

Trigonalisierung. Definition. 1) Sei F : V V linear, dim V = n. Dann heißt F trigonalisierbar, wenn es eine Basis B von V gibt sodass a 11 a 12..

Trigonalisierung. Definition. 1) Sei F : V V linear, dim V = n. Dann heißt F trigonalisierbar, wenn es eine Basis B von V gibt sodass a 11 a 12.. Trigonalisierung Sei F : V V linear und dim V = n. Wir beschäftigen uns jetzt mit der Frage, ob es eine Basis B von V gibt, sodass M B (F ) eine Dreiecksmatrix ist. Definition. ) Sei F : V V linear, dim

Mehr

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β

Mehr

Verständnisfragen: Lineare Algebra und Analytische Geometrie I und II

Verständnisfragen: Lineare Algebra und Analytische Geometrie I und II Verständnisfragen: Lineare Algebra und Analytische Geometrie I und II Matrizen, lineare Gleichungssysteme Wie kommt man von einem linearen Gleichungssystem zu einer Matrix? Was ist die Zeilenstufenform?

Mehr

1. Übungsblatt: Lineare Algebra II Abgabe: 24./ in den Übungsgruppen

1. Übungsblatt: Lineare Algebra II Abgabe: 24./ in den Übungsgruppen Hannover, den 0. April 2006. Übungsblatt: Lineare Algebra II Abgabe: 24./25.4.2006 in den Übungsgruppen ( ) 2 5 a) Zeigen Sie, dass A = und B = 2 ( 7 6 invertierbare Matrix T an mit T AT = B. b) Zeigen

Mehr

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops 15. DETERMINANTEN 1 Für n Vektoren b 1,..., b n im R n definiert man ihre Determinante det(b 1,..., b n ) Anschaulich gilt det(b 1,..., b n ) = Orientierung der Vektoren b 1,..., b n Volumen des von den

Mehr

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum

Mehr

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung

Mehr

42 Orthogonalität Motivation Definition: Orthogonalität Beispiel

42 Orthogonalität Motivation Definition: Orthogonalität Beispiel 4 Orthogonalität 4. Motivation Im euklidischen Raum ist das euklidische Produkt zweier Vektoren u, v IR n gleich, wenn die Vektoren orthogonal zueinander sind. Für beliebige Vektoren lässt sich sogar der

Mehr

Lineare Algebra I Ferienblatt

Lineare Algebra I Ferienblatt Wintersemester 09/0 Prof. Dr. Frank-Olaf Schreyer Dr. Janko Boehm Lineare Algebra I Ferienblatt. Sei, das Euklidische Skalarprodukt auf R. Das Kreuzprodukt a b von Vektoren a, b R ist durch die Formel

Mehr

Klausur HM I F 2004 HM I : 1

Klausur HM I F 2004 HM I : 1 Klausur HM I F 004 HM I : Aufgabe (5 Punkte): Für welche n gilt die folgende Aussage? ( n ) det n! n 0 (n )! () Führen Sie den Beweis mit Hilfe der vollständigen Induktion. Lösung: Beweis per Induktion

Mehr

i) ii) iii) iv) i) ii) iii) iv) v) gilt (Cauchy-Schwarz-Ungleichung): Winkel zwischen zwei Vektoren : - Für schreibt man auch.

i) ii) iii) iv) i) ii) iii) iv) v) gilt (Cauchy-Schwarz-Ungleichung): Winkel zwischen zwei Vektoren : - Für schreibt man auch. Abbildungen Rechnen Matrizen Rechnen Vektoren Äquivalenzrelation Addition: Skalarmultiplikation: Skalarprodukt: Länge eines Vektors: Vektorprodukt (im ): i ii i ii v) gilt (Cauchy-Schwarz-Ungleichung):

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008 KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008 MUSTERLÖSUNG Name: Studiengang: Aufgabe 1 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter die Aufgabenstellung

Mehr