1 Mengen und Abbildungen

Größe: px
Ab Seite anzeigen:

Download "1 Mengen und Abbildungen"

Transkript

1 1 MENGEN UND ABBILDUNGEN 1 1 Mengen und Abbildungen Wir starten mit einigen einführenden Definitionen und Ergebnissen aus der Theorie der Mengen und Abbildungen, die nicht nur Grundlage der Linearen Algebra sondern der gesamten Mathematik sind Unsere Darstellung gründet auf den von G Cantor geprägten (sog naiven) Mengenbegriff Eine Menge M ist eine Zusammenfassung von unterscheidbaren Objekten Ein solches Objekt x heißt Element der Menge M (Schreibweise: x M; ist x nicht Element von M, so schreiben wir x M) Definition 11 Es seien A, B Mengen 1 A heißt Teilmenge von B, falls für jedes x A auch x B gilt (Schreibweise: A B) 2 A und B heißen gleich (Schreibweise A = B), falls A B und B A 3 Die Menge B \ A := {x : x B und x A} heißt Differenz von B und A Ist A B, so heißt A c := C B (A) := B \ A Komplement von A (bzgl B) 4 Die Menge ohne Elemente heißt leere Menge (Schreibweise: ) 5 Die Menge A B := {x : x A oder x B} heißt Vereinigung von A und B 6 Die Menge A B := {x : x A und x B} heißt Schnitt von A und B Definition 12 Es seien A und B Mengen Dann heißt A B := {(a, b) : a A, b B}, also die Menge der geordneten Paare von Elementen aus A und B, das Produkt oder die Produktmenge von A und B Beispiel 13 Ist A = {1, 2} und B = {3}, so ist A B = {(1, 3), (2, 3)} Man beachte, dass A B nicht mit B A übereinstimmt, da (a, b) = (ã, b) genau dann gilt, wenn a = ã und b = b

2 1 MENGEN UND ABBILDUNGEN 2 Satz 14 Es seien A 1, A 2, A 3 Mengen Dann gilt 1 A 1 A 2 = A 2 A 1, A 1 A 2 = A 2 A 1 2 A 1 (A 2 A 3 ) = (A 1 A 2 ) A 3, A 1 (A 2 A 3 ) = (A 1 A 2 ) A 3 Wir schreiben deshalb auch kurz A 1 A 2 A 3 3 A 1 (A 2 A 3 ) = (A 1 A 2 ) (A 1 A 3 ), A 1 (A 2 A 3 ) = (A 1 A 2 ) (A 1 A 3 ) Beweis 1 und 2 folgen sofort aus Definition 12 Wir beweisen die erste Aussage von 3 : Dazu sei Dann ist x A 1 und x A 2 A 3 x A 1 (A 2 A 3 ) 1 Fall: x A 1 und x A 2 Dann ist x A 1 A 2, also auch x (A 1 A 2 ) (A 1 A 3 ) 2 Fall: x A 1 und x A 3 Dann ist x A 1 A 3, also auch x (A 1 A 2 ) (A 1 A 3 ) Also ist in jedem Fall x (A 1 A 2 ) (A 1 A 3 ) Damit gilt A 1 (A 2 A 3 ) (A 1 A 2 ) (A 1 A 3 ) : Umgekehrt sei x (A 1 A 2 ) (A 1 A 3 ) Dann ist x A 1 A 2 oder x A 1 A 3 In beiden Fällen ist dann x A 1 (A 2 A 3 ) Also folgt (A 1 A 2 ) (A 1 A 3 ) A 1 (A 2 A 3 ) Die zweite Aussage von 3 als [Ü] Satz 15 (Regeln von de Morgan) Es seien A 1, A 2 Mengen, und es sei B eine Menge mit A 1 B und A 2 B Dann gilt 1 C B (A 1 A 2 ) = C B (A 1 ) C B (A 2 ) 2 C B (A 1 A 2 ) = C B (A 1 ) C B (A 2 ) Beweis 1 : Es sei x C B (A 1 A 2 ) Dann ist x B und x A 1 A 2, also x B und x A 1 sowie x A 2 Damit ist x C B (A 1 ) und x C B (A 2 ), d h x C B (A 1 ) C B (A 2 )

3 1 MENGEN UND ABBILDUNGEN 3 : Es sei x C B (A 1 ) C B (A 2 ) Dann ist x C B (A 1 ) und x C B (A 2 ) Also ist x B und x A 1 sowie x A 2 Dann ist x B und x A 1 A 2, also x C B (A 1 A 2 ) 2 [Ü] Definition 16 Es seien X und Y Mengen Eine Teilmenge R von X Y heißt Relation (zwischen X und Y ) Ist speziell X = Y, so heißt R Relation in X Eine Relation R zwischen X und Y heißt Abbildung (von X nach Y ) bzw Funktion (von X nach Y ) falls gilt: a) Für alle x X existiert ein y Y mit (x, y) R und b) Sind (x, y) R und (x, ỹ) R so gilt y = ỹ Bemerkung und Definition 17 Ist R eine Abbildung von X und Y, so ist jedem Wert x X genau ein Wert f(x) mit (x, f(x)) R zugeordnet Wir identifizieren R dann auch mit dieser Zuordnungsvorschrift f und schreiben f : X Y oder x f(x) Weiter heißt X der Definitionsbereich (von f) und W (f) := {f(x) : x X} = {y Y : x X mit y = f(x)} Wertebereich (von f) Ferner setzen wir für B Y f 1 (B) := {x X : f(x) B} (f 1 (B) heißt Urbild von B unter f) und für A X f(a) := {f(x) : x A} = {y Y : x A mit y = f(x)} (f(a) heißt Bild von A unter f) Zwei Abbildungen f 1 : X 1 Y und f 2 : X 2 Y heißen gleich falls X 1 = X 2 und f 1 (x) = f 2 (x) für alle x X 1 (= X 2 ) gilt Ist f : X Y und ist X 0 X, so heißt f X0 : X 0 Y, definiert durch f X0 (x) := f(x) für alle x X 0, Einschränkung von f auf X 0 Satz 18 Es seien X, Y Mengen und f : X Y Dann gilt für A 1, A 2 X und B 1, B 2 Y 1 f(a 1 A 2 ) = f(a 1 ) f(a 2 ), 2 f 1 (B 1 B 2 ) = f 1 (B 1 ) f 1 (B 2 ), 3 f(a 1 A 2 ) f(a 1 ) f(a 2 ),

4 1 MENGEN UND ABBILDUNGEN 4 4 f 1 (B 1 B 2 ) = f 1 (B 1 ) f 1 (B 2 ) Beweis 1 : Es sei y f(a 1 A 2 ) Dann existiert ein x A 1 A 2 mit f(x) = y Ist x A 1, so ist y = f(x) f(a 1 ) f(a 1 ) f(a 2 ) Entsprechend ist y f(a 2 ) f(a 1 ) f(a 2 ) im Falle x A 2 : Nach Definition gilt f(a 1 ) f(a 1 A 2 ) und f(a 2 ) f(a 1 A 2 ) also f(a 1 ) f(a 2 ) f(a 1 A 2 ) 2 : Es sei x f 1 (B 1 B 2 ) Dann ist f(x) B 1 B 2 Ist f(x) B 1, so ist x f 1 (B 1 ) also auch x f 1 (B 1 ) f 1 (B 2 ) Entsprechend ist x f 1 (B 2 ) f 1 (B 1 ) f 1 (B 2 ), falls f(x) B 2 : Nach Definition gilt f 1 (B 1 ) f 1 (B 1 B 2 ) und f 1 (B 2 ) f 1 (B 1 B 2 ), also f 1 (B 1 ) f 1 (B 2 ) f 1 (B 1 B 2 ) 3 Es sei y f(a 1 A 2 ) Dann existiert ein x A 1 A 2 mit f(x) = y Da x A 1 und x A 2 ist, folgt y f(a 1 ) f(a 2 ) 4 [Ü] Beispiel 19 Es seien und N := {1, 2, 3, } = {natürliche Zahlen} Z := {ganze Zahlen} = {0, ±1, ±2, } Weiter seien X = Y = Z und f : Z Z definiert durch { x, falls x 0 f(x) := x, falls x < 0 Dann gilt W (f) = N 0 := N {0} Weiter ist etwa f 1 ({1,, n}) = f 1 ({1,, n} { 1, 2, 3, }) = { n,, 1, 1,, n} und f 1 ({ 1, 2, 3, }) = sowie f(n) = N = f(z {0}) Ist f : N 0 N 0 definiert durch f(x) := x (x N 0 ), so ist zwar f(x) = f(x) für alle x N 0, aber f f Es gilt aber f N0 = f

5 1 MENGEN UND ABBILDUNGEN 5 Definition 110 Es seien X, Y Mengen Eine Abbildung f : X Y heißt 1 surjetiv (oder Abbildung von X auf Y ), falls W (f) = Y ist, 2 injektiv (oder eineindeutige Abbildung), falls für alle y W (f) die Menge f 1 ({y}) einelementig ist (d h sind x 1, x 2 X mit f(x 1 ) = f(x 2 ), so ist x 1 = x 2 ), 3 bijektiv, falls f injektiv und surjektiv ist Beispiel 111 Es seien f und f wie im B 19 Dann ist f weder surjektiv noch injektiv (es gilt f 1 ({(n}) = {n, n} für alle n N); f ist bijektiv Definition 112 Es seien X, Y, Z Mengen und f : X Y sowie g : Y Z Abbildungen Dann heißt g f : X Z, definiert durch (g f)(x) := g(f(x)) (x X) Verknüpfung von g und f (oder Hintereinanderausführung von f und g) Satz 113 Es seien X, Y, Z, U Mengen und f : X Y, g : Y Z und h : Z U Abbildungen Dann gilt h (g f) = (h g) f Beweis Es gilt h (g f) : X U und (h g) f : X U Weiter gilt für x X (h (g f))(x) = h((g f)(x)) = h(g(f(x))) = (h g)(f(x)) = = ((h g) f)(x) Definition 114 Es sei I eine Menge, und es seien A α Mengen für alle α I (I nennt man dann Indexmenge ) Dann heißt A α := {x : x A α für ein α I} α I Vereinigung der Mengen A α (über α I) Weiter heißt A α := {x : x A α für alle α I} α I

6 1 MENGEN UND ABBILDUNGEN 6 Durchschnitt der Mengen A α (über α I) Ist speziell I endlich, so kann man ohne Einschränkung I = {1,, n} annehmen Wir schreiben dann auch und A 1 A n = A 1 A n = n A j := n A j := j {1,,n} j {1,,n} Oft betrachtet man auch Vereinigungen und Durchschnitte von Mengensystemen, die nicht indiziert sind: Ist F ein System von Mengen (d h eine Menge von Mengen), so setzt man A := {A : A F} := {x : x A für ein A F} A F A j A j und A F A := {A : A F} := {x : x A für alle A F} Beispiel 115 Es sei I = N und A n := {k/n : k Z} (n N) Dann ist n N A n = n N {k/n : k Z} = Q wobei Q := {rationale Zahlen} und n N A n = A 1 = Z Definition 116 Es sei I eine Menge und es seien A α Mengen für alle α I Dann heißt A α : f(α) A α für alle α I} α I A α := {f : I α I Produkt der Mengen A α Ist f α I A α, so schreiben wir auch f α := f(α) und (f α ) α I für f Gilt A α = A für alle α I, so setzt man A I := α I A

7 2 GRUPPEN UND KÖRPER 7 Ist I endlich, so kann man ohne Einschränkung I = {1,, n} betrachten Dann schreiben wir (a 1,, a n ) := (a j ) j {1,,n} und n A 1 A n := A j := Ein (a 1,, a n ) n A j heißt n-tupel j {1,,n} Ist A j = A für j = 1,, n, so setzen wir A j = {(a 1,, a n ) : a j A j für j = 1,, n} n A n := A {1,,n} = A Beispiel 117 Es sei A j = N für j = 1,, n Dann ist n N n = N = {(a 1,, a n ) : a j N für j = 1,, n} die Menge aller n-tupel aus natürlichen Zahlen Bemerkung und Definition 118 Sind X, Y Mengen und ist f : X Y injektiv, so ist f : X W (f) bijektiv Wir definieren f 1 (y) := x (y W (f)) wobei y = f(x) Die Abbildung f 1 : W (f) X heißt Umkehrabbildung von f Es gilt dann f 1 f : X X und (f 1 f)(x) = x für alle x X, d h f 1 f = id X, wobei id X : X X, definiert durch id X (x) := x (x X), die sog identische Abbildung auf X bezeichnet Genauso gilt f f 1 = id W (f) Außerdem ist f 1 : W (f) X bijektiv 2 Gruppen und Körper In diesem Abschnitt beschäftigen wir uns mit Grundbegriffen der Algebra Dies hat zunächst einmal das Ziel, die Bühne zu bereiten für die Einführung des zentralen Begriffs der Linearen Algebra (nämlich des linearen Raumes) Später werden wir nochmal auf die hier dargestellten Dinge zurückkommen

8 2 GRUPPEN UND KÖRPER 8 Definition 21 Es sei G eine Menge, und es sei : G G G eine Abbildung Dann heißt (G, ) eine Gruppe, falls gilt (G1) (Assoziativgesetz): Für alle a, b, c G ist a (b c) = (a b) c (G2) (Existenz eine (Rechts-) Einselements bzw neutralen Elements): Es existiert eine e G mit a e = a (a G) (G3) (Existenz eines (rechts-) inversen Elements): Für alle a G existiert ein b G mit a b = e Ferner heißt (G, ) abelsche (oder kommutative) Gruppe, falls zudem gilt (G4) (Kommutativgesetz): Für alle a, b G gilt a b = b a Satz 22 Es sei (G, ) eine Gruppe Dann gilt: 1 Es existiert nur ein e G mit a e = a für alle a G und dieses erfüllt dann auch e a = a für alle a G 2 Zu jedem a G existiert nur ein b G mit a b = e und dieses b erfüllt auch b a = e Wir setzen a 1 := b Beweis α) Wir zeigen zunächst die letzte Aussage Dazu sei a G gegeben Weiter sei b ein nach (G3) existierendes rechtsinverses Element zu a (bzgl e) Dann gilt b (a b) = b e = b Ist c ein rechtsinverses Element zu b, d h b c = e, so folgt e = b c = (b (a b)) c G1 = (b a) (b c) = = (b a) e G2 = b a

9 2 GRUPPEN UND KÖRPER 9 Also ist b auch, linksinverses Element zu a β) Es sei a G Dann gilt mit α) Also ist e auch ein Linkseinselement e a = (a b) a G1 = a (b a) = a e G2 = a γ) Ist ẽ ein weiteres Rechtseinselement, d h ist a ẽ = a für alle a G, so ist insbesondere e ẽ = e Also folgt e = e ẽ β) = ẽ δ) Es sei nun b G ein weiteres rechtsinverses Element zu a (neben b aus Aussage 2) Dann gilt a b = e und damit b G2 G1 α) β) = b e = b (a b) = (b a) b = e b = b, d h b = b Beispiel 23 Es sei M eine Menge, und es sei S(M) := {f : M M, f bijektiv} sowie wie in Definition 112 (Hintereinanderausführung) Dann ist (S(M), ) eine Gruppe (Denn: Mit f, g S(M) ist auch f g S(M) ([Ü]); Axiom (G1) folgt aus Satz 113; das neutrale Element e ist offenbar e = id M und (G3) folgt aus B/D 118, da W (f) = M für alle f S(M)) Die Funktionen f S(M) heißen Permutationen (von M) und (S(M), ) heißt Permutationsgruppe (von M) Ist speziell M = {1,, n} für ein n N, so heißt S n := S({1,, n}) symmetrische Gruppe von Grad n Ein f S n schreibt man oft in der Form ( ) n f = f(1) f(2) f(3) f(n) Man kann leicht zeigen ([Ü]): S 1, S 2 sind abelsch, S n ist für n 3 nicht abelsch; für n = 3 betrachte man etwa ( ) ( ) f = und g =

10 2 GRUPPEN UND KÖRPER 10 Definition 24 Gegeben seien eine Menge K mit mindestens zwei Elementen und zwei Abbildungen + : K K K (+ heißt Addition) und : K K K ( heißt Multiplikation) Dann heißt (K, +, ) ein Körper, falls gilt (A) (K, +) ist eine abelsche Gruppe (wobei das neutrale Element mit 0 bezeichnet wird) (M) (K\{0}, ) ist eine abelsche Gruppe (wobei das neutrale Element mit 1 bezeichnet wird) (D) (Distributivgesetze): Für alle a, b, c K gilt a (b + c) = (a b) + (a c) und (a + b) c = (a c) + (b c) Für a, b, c, d K schreiben wir kurz ab statt a b und ab + cd statt (ab) + (cd) (Punktrechnung vor Strichrechung) Ist a K, so schreiben wir a für das inverse Element bzgl + Außerdem setzen wir b a := b + ( a) für a, b K und b/a := b a 1 für b K, a K \ {0}, wobei a 1 das inverse Element von a bzgl bezeichnet Satz 25 Es sei (K, +, ) ein Körper Dann gilt 1 Für alle a K gilt a 0 = 0 a = 0 (Hieraus folgt insbesondere auch, daß a(bc) = (ab)c und ab = ba sowie a1 = a für alle a, b, c K gilt) 2 Sind a, b K mit a b = 0, so ist a = 0 oder b = 0 3 Für alle a, b K gilt (ab) = ( a)b = a( b) (wir schreiben dann: ab) Beweis 1 Es sei a K Dann gilt und damit a0 = a(0 + 0) = a0 + a0 0 = a0 (a0) = (a0 + a0) (a0) = a0 + (a0 (a0)) = a0 Entsprechend sieht man, dass 0a = 0 gilt 2 Es seien a, b K mit a b = 0 Ist b = 0, so sind wir fertig Ist b 0, so folgt mit 1 also a = 0 a = a1 = a(b/b) = (ab)/b = 0/b = 0, 3 [Ü]

11 2 GRUPPEN UND KÖRPER 11 Beispiel 26 1 Wir betrachten Q := {p/q : p Z, q N} mit der üblichen Addition + und Multiplikation Dann ist (Q, +, ) ein Körper( Analysis) 2 Gleiches gilt für (R, +, ) wobei R = {reelle Zahlen} ( Analysis) 3 Gleiches gilt für (C, +, ) wobei C = {komplexe Zahlen} ( Analysis) 4 Es sei K = {0, 1} mit folgender Addition und Multiplikation (d h = = 0, = = 1, 0 0 = 0 1 = 1 0 = 0, 1 1 = 1) Dann ist (K, +, ) ein Körper (der sog Binärkörper) ([Ü])

12 3 DIE DEFINITION LINEARER RÄUME 12 3 Die Definition linearer Räume Einen der zentralen Punkte der Linearen Algebra stellt die Theorie linearer Gleichungssysteme dar Bevor wir darauf zu sprechen kommen wollen wir eine geeignete Sprache hierfür entwickeln Ausgangspunkt und Mittelpunkt zugleich ist der Begriff des linearen Raumes (oder Vektorraumes) Definition 31 Es seien K = (K, +, ) ein Körper und V eine Menge Ferner seien zwei Abbildungen + : V V V (genannt Addition) und : K V V (genannt Skalarmultiplikation) gegeben Dann heißt V = (V, +, ) ein linearer Raum (über K) bzw Vektorraum über K bzw K-Vektorraum, falls gilt: (AV) (V, +) ist eine abelsche Gruppe (Das neutrale Element wird dabei wieder mit 0 (oder 0 V ) und das inverse Element von x V wieder mit x bezeichnet) (M1) Für alle λ, µ K und alle x V gilt λ (µ x) = (λ µ) x (M2) Ist 1 das neutrale Element von (K \ {0}, ), so gilt für alle x V 1 x = x (D1) Für alle λ K und alle x, y V gilt λ (x + y) = λ x + λ y (D2) Für alle λ, µ K und alle x V gilt (λ + µ) x = λ x + µ x Die Elemente von V heißen hierbei Vektoren und die Elemente aus K heißen Skalare Man beachte, dass Addition und Multiplikation sowohl in K als auch in V mit + und bezeichnet werden, obwohl es sich um verschiedene Operationen handelt! Außerdem schreiben wir wieder kurz λx statt λ x Wir stellen zunächst einige Rechenregeln zusammen, die sich aus D 31 ergeben Satz 32 Es sei V ein linearer Raum über K Dann gilt 1 Für alle x V, λ K ist 0x = 0 und λ0 = 0 2 Sind λ K und x V so, dass λ x = 0, so folgt λ = 0 oder x = 0 3 Für alle λ K und x V ist (λx) = λ( x) = ( λ)x(=: λx)

13 3 DIE DEFINITION LINEARER RÄUME 13 Beweis Es seien x V und λ K gegeben 1 Nach (D2) und (D1) gilt und Also folgt und 0x + 0x = (0 + 0)x = 0x λ0 + λ0 = λ(0 + 0) = λ0 0 = 0x (0x) = (0x + 0x) (0x) = 0x + (0x (0x)) = 0x 0 = λ0 (λ0) = (λ0 + λ0) (λ0) = λ0 + (λ0 (λ0)) = λ0 2 Es gelte λx = 0 Ist λ = 0, so sind wir fertig Es sei also λ 0 Dann gilt nach 1 und (M2), (M1) ( ) 1 x = 1 x = λ λ x = 1 λ (λx) = 1 λ 0 = 0 3 Nach 1 und (D2) bzw (D1) gilt und 0 = 0x = (λ + ( λ))x = λx + ( λ)x 0 = λ0 = λ(x + ( x)) = λx + λ( x) Da das inverse Element bzgl + eindeutig bestimmt ist, gilt also (λx) = ( λ)x = λ( x) Beispiel 33 1 Es sei K ein Körper Dann ist für n N K n := K {1,,n} = {(x 1,, x n ) : x j K für j = 1,, n} mit + : K n K n K n definiert durch x + y = (x 1,, x n ) + (y 1,, y n ) := (x 1 + y 1,, x n + y n ) für x = (x 1,, x n ), y = (y 1,, y n ) K n und : K K n K n, definiert durch λ x = λ (x 1,, x 1 ) := (λx 1,, λx n ) für x = (x 1,, x n ) K n und λ K, ein linearer Raum über dem Körper K (Denn:

14 3 DIE DEFINITION LINEARER RÄUME 14 1 Behauptung: (AV) gilt, d h (K n, +) ist eine abelsche Gruppe (G1) : Es seien x, y, z K n Dann gilt (x + y) + z = [(x 1,, x n ) + (y 1,, y n )] + (z 1,, z n ) = = (x 1 + y 1,, x n + y n ) + (z 1,, z n ) = = ((x 1 + y 1 ) + z 1,, (x n + y n ) + z n ) = (x 1 + (y 1 + z 1 ),, x n + (y n + z n )) = (x 1,, x n ) + [(y 1,, y n ) + (z 1,, z n )] = x + (y + z) (G4): Es seien x = (x 1,, x n ), y = (y 1,, y n ) K n Dann gilt x + y = (x 1 + y 1,, x n + y n ) = (y 1 + x 1,, y n + x n ) = y + x (G2): Mit 0 := 0 V := (0, 0) K n gilt für alle x = (x 1,, x n ) X x + 0 = (x 1,, x n ) + (0,, 0) = (x 1 + 0,, x n + 0) = (x 1,, x n ) = x (G3): Es sei x = (x 1,, x n ) K n Dann gilt für y := ( x 1,, x n ) K n x + y = (x 1, x n ) + ( x 1,, x n ) = (x 1 x 1,, x n x n ) = (0,, 0) = 0 2 Behauptung: (M1) gilt Dazu seien λ, µ K und x = (x 1,, x n ) K n Dann gilt λ (µ x) = λ (µx 1,, µx n ) = (λ(µx 1 ),, λ(µx n )) = = ((λµ)x 1,, (λµ)x n ) = (λµ)(x 1,, x n ) 3 Behauptung: (M2) gilt Es sei x = (x 1,, x n ) K n Dann gilt 1 x = 1 (x 1,, x n ) = (1x 1,, 1x n ) = (x 1,, x n ) 4 Behauptung: (D1) gilt Es seien λ K und x, y K n Dann gilt λ(x + y) = λ((x 1,, x n ) + (y 1,, y n )) = λ(x 1 + y 1,, x n + y n ) = = (λ(x 1 + y 1 ),, λ(x n + y n )) = (λx 1 + λy 1,, λx n + λy n ) = = λ(x 1,, x n ) + λ(y 1,, y n ) = λx + λy 5 Behauptung: (D2) gilt Beweis analog zu 4) Insbesondere ergibt sich damit zusammen mit B 26: a) Q n = (Q n, +, ) ist linearer Raum über Q,

15 3 DIE DEFINITION LINEARER RÄUME 15 b) R n = (R n, +, ) ist linearer Raum über R, c) C n = (C n, +, ) ist linearer Raum über C Da weiter aus D 21 sofort folgt, dass ein linearer Raum über K auch ein linearer Raum über K für jeden Körper K K ist, ist damit auch R n linearer Raum über Q und C n linearer Raum über R und Q Veranschaulichung im Falle R 2 : x = (x 1, x 2 ), y = (y 1, y 2 ) R 2, λ R 2 Es sei X eine Menge und K ein Körper Wir definieren für f, g K X und λ K (f + g)(x) := f(x) + g(x) (λf)(x) := λ f(x) (x X) Dann ist (K X, +, ) ein linearer Raum über K (Beweis wie oben im Spezialfall X = {1,, n})

16 4 UNTERRÄUME 16 4 Unterräume Wir betrachten jetzt bestimmte Teilmengen von linearen Räumen Definition 41 Es sei V ein linearer Raum über K, und es sei U V nichtleer Dann heißt U (linearer) Unterraum (oder (linearer) Teilraum oder Untervektorraum) von V, falls (U, + U U, K U ) ein linearer Raum ist Wir schreiben dann wieder + für + U U und für K U Äußerst nützlich zum Nachweis der Unterraum-Eigenschaft ist Satz 42 Es seien V ein linearer Raum über K und U V nichtleer Dann gilt: U ist Unterraum von V genau dann, wenn die folgenden Bedingungen erfüllt sind: a) Für alle x, y U ist x + y U, b) Für alle λ K, x U ist λx U Beweis Die Bedingungen a) und b) bedeuten gerade, dass + U U : U U U und K U : K U U gilt, d h Addition und Skalarmultiplikation führen nicht aus U heraus 1 : Ist U V ein Unterraum, so gelten a) und b) nach D41 und D31 2 : Nach D31 gelten (G 1) und (G 4) für die Addition sowie (M 1), (M 2) und (D 1), (D 2) auch in U Es bleiben noch (G 2) und (G 3) aus (AV) zu zeigen Ist y U, so gilt 0 = 0 y U nach S321 und b), also ist 0 U neutrales Element bzgl + Ist x U, so ist x = (1x) = ( 1)x U nach S323 und b) Klar ist dann x + ( x) = 0, also existiert zu x ein inverses Element bzgl + Beispiel 43 1 Ist V ein beliebiger linearer Raum über K, so sind U = V und U = {0} Unterräume von V Der Raum {0} heißt Nullraum (von V ) 2 Es sei V = R n und a = (a 1,, a n ) R n fest Dann ist U a := {(x 1,, x n ) R n : ein Unterraum von R n (Denn: Sind x, y U a und ist λ R, so gilt a k (x k + y k ) = k=1 a k x k + k=1 a k x k = 0} k=1 a k y k = = 0 k=1

17 4 UNTERRÄUME 17 und a k (λx j ) = λ a k x k = λ0 = 0 k=1 k=1 Nach S42 ist U ein Unterraum von R n ) 3 Es sei V = R R (= {f : R R}) Wir betrachten für n N 0 und a 0,, a n R die Funktion P : R R (d h P V ) mit P (x) = a ν x ν (x R) ν=0 Eine solche Funktion heißt Polynomfunktion (in R) oder kurz Polynom (in R) Weiter setzen wir Π := Π R := {Polynome in R} Dann ist Π ein Unterraum von R R (Denn: Sind P, Q Π und ist λ R so existieren a 0,, a n R und b 0,, b m R mit P (x) = a ν x ν und Q(x) = ν=0 m b ν x ν (x R) ν=0 Ohne Einschränkung sei n m Dann gilt für alle x R (P + Q)(x) = a ν x ν + ν=0 m b ν x ν = ν=0 (a ν + b ν )x ν, wobei b ν := 0 für ν = m + 1,, n im Falle m < n gesetzt ist Also ist P + Q ein Polynom in R Weiter gilt (λp )(x) = λ a ν x ν = ν=0 ν=0 (λa ν )x ν, d h λp ist ein Polynom in R Nach S42 ist Π ein Unterraum von R R ) Polynome in C sind genau wie oben definiert indem man überall R durch C ersetzt (für die Variable schreibt man dann üblicherweise z statt x) Dann ist ein Unterraum von C C ν=0 Π := Π C := {Polynome in C} Satz 44 Ist F = ein System von Unterräumen eines linearen Raumes V über K, so ist U := W ein Unterraum von V W F

18 4 UNTERRÄUME 18 Beweis Zunächst ist 0 W für alle W F, also 0 U Es seien x, y U und λ K gegeben Dann gilt x, y W für alle W F, also nach S42 auch x + y W und λx W für alle W F Dies bedeutet wiederum x + y U und λx U Nach S42 ist U ein Unterraum von V Der Satz besagt, dass jeder Durchschnitt von Unterräumen wieder ein Unterraum ist Wie man leicht sieht, ist i a die Vereinigung von Unterräumen kein Unterraum Wir werden nun einer beliebigen Teilmenge M V einen kleinsten Unterraum zuordnen, der M enthält Definition 45 Es sei M eine Teilmenge eines linearen Raumes V über K Dann heißt mit F := F M := {U : U Unterraum von V, U M} < M > (:= span (M) := lin span (M) := LH(M)) := die lineare Hülle von M 2 Sind U 1,, U n Unterräume von V, so heißt U j :=< n U j > Summe der U 1,, U n Gilt zusätzlich U j n U k = {0} für alle j = 1,, n, so heißt direkte Summe der U 1,, U n n U j := k=1 k j U j U F U Bemerkung 46 Da V M ein Unterraum von V ist, wird der Durchschnitt in der D45 stets über eine nichtleere Menge gebildet Weiter gilt nach S44, dass < M > ein Unterraum von V ist Damit sind auch n U j und n U j Unterräume von V Ausserdem folgt aus der Definition sofort, dass für jeden Unterraum Ũ M gilt Ũ < M > (d h < M > ist der kleinste Unterraum, der M enthält) Schließlich sei bemerkt, dass U 1 + U 2 = U 1 U 2 genau dann gilt, wenn U 1 U 2 = {0} ist Unser Ziel ist es nun, eine explizitere Darstellung für < M > bzw U j zu finden

19 4 UNTERRÄUME 19 Definition 47 Es sei V ein linearer Raum über K Sind x 1,, x n V, so heißt x V eine Linearkombination der Vektoren x 1,, x n, falls λ 1,, λ n K existieren mit x = λ j x j Satz 48 Es sei V ein linearer Raum über K Dann gilt 1 Ist M V, M, so ist x < M > genau dann, wenn ein n N und x 1,, x n M sowie λ 1,, λ n K existieren mit x = λ j x j (d h < M >= {Linearkombinationen aus Vektoren aus M}) 2 Sind U 1,, U n Unterräume von V, so ist x n U j genau dann, wenn u j U j (j = 1,, n) existieren mit x = Weiter gilt: die Summe ist direkt, d h u j U j = n U j, genau dann, wenn diese Darstellung für jedes x n U j eindeutig ist (d h sind ũ j U j (j = 1,, n) mit x = n ũ j, so gilt u j = ũ j für j = 1,, n) Beweis 1 Es sei U := { λ j x j : x 1,, x n M, λ 1,, λ n K, n N} Dann ist zu zeigen: < M >= U : Wir zeigen < M > U Da M U ist, genügt es nach B46 zu zeigen, dass U ein Unterraum von V ist Es seien also x, y U und λ K gegeben Dann existieren x 1,, x n M, λ 1,, λ n K mit x = λ j x j und x n+1,, x m M, λ n+1,, λ m K mit y = m j=n+1 λ j x j

20 4 UNTERRÄUME 20 Also gilt m m x + y = λ j x j + λ j x j = λ j x j U j=n+1 und λx = λ λ j x j = (λλ j )x j U Nach S42 ist U ein Unterraum von V : Es sei x U Dann existieren x 1,, x n M, λ 1,, λ n K mit x = n λ j x j Da {x 1,, x n } M < M > gilt, und da < M > ein Unterraum von V ist, ist auch x = n λ j x j < M > 2 Es sei U := { u j : u j U j für j = 1,, n} Dann ist zu zeigen: n U j = U : Wir zeigen n U j U Dazu genügt es nach B46 zu zeigen: U ist ein Unterraum von V (man beachte, dass nach Definition U j U für j = 1,, n gilt ) Es seien also x, y U und λ K gegeben Dann existieren u j, v j U j für j = 1,, n mit x = u j und y = v j Also gilt x + y = (da u j + v j U j für j = 1,, n) und λx = (u j + v j ) U λu j U (da λu j U j für j = 1,, n) Nach S42 ist U ein Unterraum von V : Wir zeigen n U j U Dazu sei x U Dann gilt x = n u j für gewisse u j U j (j = 1,, n) Da {u 1,, u n } n U j < n U j >= n U j gilt, und da n U j ein Unterraum von V ist, gilt auch n u j n U j

21 4 UNTERRÄUME 21 3 :Es sei x = n u j = n ũ j, wobei u j, ũ j U j für j = 1,, n Dann gilt 0 = Es sei j {1,, n} Dann gilt nach 2 U j ũ j u j = (u j ũ j ) u k ũ k k=1 k j U k, also ist ũ j u j = 0 nach D45, d h u j = ũ j Da j {1,, n} beliebig war, folgt die Behauptung :[Ü] k=1 k j Bemerkung 49 Ein besonderer einfacher und wichtiger Spezialfall ist gegeben durch M = {x 1,, x n } V (d h M ist endlich) Dann ist < x 1,, x n >:= < {x 1,, x n } >= { λ j x j : λ j K für j = 1,, n} Beispiel Es sei V = R 2 und x 1 = (1, 0), x 2 = (1, 1), x 3 = (0, 1) R 2 Dann gilt U 1 =< x 1 > = {λx 1 : λ R} = {(λ, 0) : λ R} U 2 =< x 2 > = {λx 2 : λ R} = {(λ, λ) : λ R} U 3 =< x 3 > = {λx 3 : λ R} = {(0, λ) : λ R} < x 1, x 2 > = {λ 1 x 1 + λ 2 x 2 : λ 1, λ 2 R} = R 2 = < x 1, x 3 >=< x 2, x 3 > Weiter ist U 1 + U 2 =< U 1 U 2 >= R 2 = U 1 + U 3 = U 2 + U 3 und U 1 U 2 = {0} = U 1 U 3 = U 2 U 3, also U 1 U 2 = U 1 U 3 = U 2 U 3 = R 2 Aber: U 1 (U 2 + U 3 ) = U 1 R 2 = U 1 {0}, d h R 2 = U 2 + U 2 + U 3, aber die Summe ist nicht direkt

22 4 UNTERRÄUME 22 2 Es sei Π = Π C (oder Π R ) wie in B43 Dann gilt wobei und Π g := { Π = Π g Π u, a ν z 2ν : a ν C, ν = 1,, n ; n N} ν=0 m Π u := { b ν z 2ν+1 : b ν C, ν = 1,, m ; m N} ν=0 Π g ist die Menge der geraden und Π u die Menge der ungeraden Polynome (Denn: Man sieht leicht, dass Π g und Π u Unterräume sind, und dass Π g + Π u = Π gilt Es sei P Π u Π g Dann gilt mit gewissen a ν C für ν = 0,, n und b ν C für ν = 0,, m Dann gilt für alle z C m P (z) = a ν z 2ν = b ν z 2ν+1 ν=0 ν=0 und m P (z) = a ν z 2ν = a ν ( 1) 2ν z 2ν = P ( z) ν=0 ν=0 m m P (z) = b ν z 2ν+1 = a ν ( 1) 2ν+1 z 2ν+1 = P ( z) ν=0 ν=0 also 2P (z) = 0 und damit P (z) = 0 Folglich ist P = 0 Π ) Definition 411 Es sei V ein linearer Raum über K 1 Ist I so nennen wir ein (x α ) α I V I eine Familie in V Die Familie (x α ) α I heißt endlich, falls I endlich ist Ist J I, J, so heißt (x α ) α J eine Teilfamilie von (x α ) α I 2 Eine Familie (x α ) α I in V heißt Erzeugendensystem von V, falls < x α : α I >= V (wobei < x α : α I >:=< {x α : α I} >) 3 Der Raum V heißt endlich erzeugt (oder endlich-dimensional), falls ein endliches Erzeugendensystem von V existiert, d h falls Vektoren x 1,, x n V existieren mit < x 1,, x n >= V Anderenfalls heißt V unendlich erzeugt (oder unendlichdimensional)

23 5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 23 Beispiel Es seien n N und K ein Körper Dann ist V = K n endlichdimensional Es gilt nämlich etwa wobei e j = (δ j1,, δ jn ) K n mit K n =< e 1,, e n > δ jk := { 1, falls j = k 0, sonst, d h e 1 = (1, 0,, 0), e 2 = (0, 1, 0,, 0),, e n = (0,, 0, 1) (Beachte: Ist x = (λ 1,, λ n ) K n, so gilt x = n λ je j ) 2 Der Raum Π aus B433 ist nicht endlich-dimensional (Denn: Angenommen es existieren Polynome P 1,, P n mit P j 0 und < P 1,, P n >= Π Dann ist m j P j (z) = a jν z ν für gewisse a jν C (oder R) und gwisse m 1,, m n N 0 Wir setzen Dann existieren λ 1,, λ n C mit N := max{m 1,, m n } ( N 0 ) z N+1 = λ j P j (z) =: N a ν z ν ν=0 Für z 0 folgt 1 = N a ν z ν N 1 ν=0 und für z > max{1, N max 0 ν N a ν } ergibt sich also ein Widerspruch) N 1 = a ν /z N+1 ν 0 N 1 N a ν z N+1 ν a ν / z < 1, Lineare Unabhängigkeit, Basis und Dimensionen Wir starten mit einem weiteren zentralen Begriff der Linearen Algebra Definition 51 Es sei V ein linearer Raum über K 1 Sind x 1,, x n V, so heißt (x 1,, x n ) linear abhängig, falls λ 1,, λ n K existieren mit λ j 0 für ein j {1,, n} und λ j x j = 0 j=0

24 5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 24 Anderenfalls heißt (x 1,, x n ) linear unabhängig Man sagt auch x 1,, x n sind linear abhängig bzw x 1,, x n sind linear unabhängig 2 Eine Familie (x α ) α I in V heißt linear unabhängig, falls jede endliche Teilfamilie linear unabhängig ist V linear un- Bemerkung 52 1 Aus D51 ergibt sich sofort, dass x 1,, x n abhängig genau dann sind, wenn gilt: Sind λ 1,, λ n K mit λ j x j = 0, j=0 so ist λ 1 = = λ n = 0 2 Ein Element x V ist linear unabhängig genau dann, wenn x 0 ist 3 Ist n 2, so sind x 1,, x n V genau dann linear abhängig, wenn ein j 0 {1,, n} und µ j K (j {1,, n} \ {j 0 }) existieren mit x j0 = µ j x j j j 0 (Denn: : Sind x 1,, x n linear abhängig, so existieren λ 1,, λ n K mit λ j0 0 für ein j 0 {1,, n} und 0 = n λ j x j Also folgt x j0 = j j 0 ( λ ) j x j λ j0 : Ist umgekehrt x j0 = n µ j x j für ein j 0 {1,, n} und µ j K (j j j 0 {1,, n} \ {j 0 }), so ist mit λ j := µ j (j j 0 ) und λ j0 := 1 0 = λ j x j ) Beispiel 53 1 Es sei V = K n Dann sind e 1,, e n linear unabhängig in K n (Denn: Sind λ 1,, λ n K mit (0,, 0) = 0 = λ j e j = (λ 1,, λ n ), so gilt λ j = 0 für j = 1,, n) 2 Es sei V = Π und für n N 0 sei E n Π definiert durch E n (z) = z n (z C)

25 5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 25 Dann ist (E 0,, E n ) linear unabhängig in Π für alle n N 0 (Denn: Es seien λ 0,, λ n C mit 0 = λ j z j = λ j E j (z) (z C) j=0 Angenommen, es existiert ein j {0,, n} mit λ j 0 Wir setzen dann j=0 m := max{j {0,, n} : λ j 0} Ist m = 0, so ist 0 = λ 0 0, also Widerspruch Ist m > 0, so folgt m 1 ( z m = λ ) j z j (z C) λ m j=0 Dies führt auf den gleichen Widerspruch wie in B412) Hieraus folgt auch, dass (E n ) n N0 linear unabhängig in Π ist Außerdem gilt offenbar Π =< E n : n N 0 > Satz 54 Es sei V ein linearer Raum über K und es seien x 1,, x n V Dann sind aquivalent: a) x 1,, x n sind linear unabhängig b) Zu jedem x < x 1,, x n > existieren eindeutig bestimmte λ 1,, λ n K (d h es existiert genau ein (λ 1,, λ n ) K n ) mit x = λ j x j Beweis 1 a) b): Es sei x < x 1,, x n > Dann existieren λ 1,, λ n K mit x = λ j x j Es sei x = n µ j x j mit µ 1,, µ n K Dann ist 0 = (λ j µ j )x j Da x 1,, x n linear unabhängig sind, folgt λ j µ j = 0, d h λ j = µ j für j = 1,, n 2 b) a): Angenommen x 1,, x n sind linear abhängig Dann existiert ein (λ 1,, λ n ) K n \ {0} mit 0 = n λ j x j Also lässt sich 0 darstellen als im Widerspruch zu b) 0 = λ j x j = 0x j

26 5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 26 Definition 55 Es sei V ein linearer Raum über K Eine Familie (x α ) α I in V heißt (algebraische) Basis von V, falls (x α ) α I ein linear unabhängiges Erzeugendensystem von V ist Für V = {0} bezeichnen wir als Basis Wir werden uns im folgenden i w auf die Untersuchung endlich-dimensionaler linearer Räume beschränken Algebraische Basen spielen in unendlich-dimensionalen Räumen i a keine so wichtige Rolle Bemerkung 56 Aus S54 folgt sofort: Sind x 1,, x n V, so sind äquivalent: a) (x 1,, x n ) ist eine Basis von V b) Jedes x V besitzt genau eine Darstellung x = n λ j x j mit λ 1,, λ n K Beispiel 57 Es sei V = K n, wobei K ein Körper ist (vgl B412) Dann ist (e 1,, e n ) eine Basis von K n (B412 und B53) Diese Basis nennen wir im folgenden Standardbasis oder kanonische Basis von K n Dieses Standardbeispiel zeigt, dass in K n eine Basis aus n Elementen existiert Wir wollen uns nun allgemeiner folgenden Fragen zuwenden: 1 Existiert in jedem (endlich-dimensionalen) linearen Raum eine Basis? 2 Haben je 2 Basen eines (endlich-dimensionalen) linearen Raumes die gleiche Anzahl von Elementen? Wir beweisen zunächst den Satz 58 (Basisauswahlsatz) Es seien V {0} ein linearer Raum über K und (x 1,, x m ) ein endliches Erzeugendensystem von V Dann existiert eine Teilfamilie von (x 1,, x m ), die eine Basis von V ist Beweis Wir setzen J := {j {1,, m} : x j < x 1,, x j 1 >} (mit < x 1,, x 0 >:=< >= {0}) 1 Wir zeigen < x j : j J >= V Angenommen, < x j : j J > V Dann existiert wegen < x 1,, x m >= V ein k {1,, m}\j mit x k < x j : j J > (sonst würde gelten {x 1,, x n } < x j : j J >, also auch V =< x 1,, x n > < x j : j J >)

27 5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 27 Wir setzen k 0 := min{k {1,, m} \ J : x k < x j : j J >}( {1,, m} \ J) Dann ist < x 1,, x k0 1 > < x j : j J >, also x k0 < x 1,, x k0 1 > Nach Definition ist also k 0 J Widerspruch! 2 Wir zeigen (x j ) j J ist linear unabhängig Angenommen nicht Dann existieren λ j K (j J), λ j 0 für ein j, mit 0 = j J λ j x j Für j 0 := max{j : λ j 0} gilt x j0 = j J j<j 0 ( λ ) j x j < x 1,, x j0 1 > λ j0 im Widerspruch zur Definition von J Satz 59 Es sei V ein endlich-dimensionaler linearer Raum über K Dann existiert eine (endliche) Basis von V Beweis Da V (ohne Einschränkung {0}) endlich-dimensional ist, existiert ein endliches Erzeugendensystem von V Nach S58 existiert damit auch eine endliche Basis von V Die Aussage von S59 bleibt auch für beliebige lineare Räume richtig Der Beweis basiert auf einer Anwendung des Auswahlaxioms, worauf wir nicht weiter eingehen wollen Wir wenden uns der zweiten der oben angesprochenen Fragen zu Dazu beweisen wir zunächst folgendes Hilfsresultat Satz 510 Es sei V ein linearer Raum über K, und es sei (x 1,, x n ) eine Basis von V Ist x = n λ j x j V mit λ k 0 für ein k {1,, n}, so ist auch (x 1,, x k 1, x, x k+1,, x n ) eine Basis von V Beweis 1 Wir zeigen: Für M := {x 1,, x n, x} \ {x k } gilt < M >= V Dazu sei y V gegeben Dann existieren µ 1,, µ n K mit y = 1 λ k x n j k λ j λ k x j und daher y = = µ k λ k x µ j x j = µ k λ k x j k j k (µ j µ kλ j λ k )x j, n µ k λ j λ k x j + µ j x j Wegen λ k 0 ist x k = µ j x j j k

28 5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 28 also y < M > Da y V beliebig war, ist < M >= V 2 Es seien µ 1,, µ n K mit 0 = µ k x + j k µ j x j Dann gilt mit x = n λ j x j µ k λ k x k + j k(µ k λ j + µ j )x j = 0 Da x 1,, x n linear unabhängig sind, folgt µ k λ k = 0 und µ k λ j + µ j = 0 für j = 1,, n, j k Mit λ k 0 ergibt sich µ k = 0, also auch µ j = 0 für alle j {1,, n} Hiermit gilt der zentrale Satz 511 (Steinitz scher Austauschsatz) Es sei V {0} ein linearer Raum über K, und es sei (x 1,, x n ) eine Basis von V Ferner sei (y 1,, y m ) linear unabhängig in V Dann ist m n, und es existieren n m Elemente aus {x 1,, x n }, die zusammen mit y 1,, y m eine Basis bilden, d h es existieren j 1,, j n m {1,, n} so, dass (y 1,, y m, x j1, x jn m ) eine Basis von V ist, oder es ist n = m und (y 1,, y m ) ist eine Basis von V Beweis Wir zeigen folgende Aussage A m für alle m N (A m ): Existiert eine linear unabhängige Familie (y 1,, y m ) in V, so ist m n Außerdem existieren im Falle m < n zu jeder solchen Familie j 1,, j n m {1,, n} so, dass (y 1,, y m, x j1,, x jn m ) eine Basis von V bildet, und im Falle m = n ist (y 1,, y m ) eine Basis von V 1 Induktionsanfang: Für m = 1 ist natürlich m n Ist y 0, so gilt y = n λ j x j mit λ k 0 für ein k {1,, n} Dann ist (y, x 1,, x k 1, x k+1,, x n ) nach S510 eine Basis von V 2 Induktionsschritt von m auf m + 1: (A m ) gelte für ein m N Zu zeigen ist: (A m+1 ) gilt Existiert keine Familie (y 1,, y m+1 ) in V, die linear unabhängig ist, so ist nichts zu zeigen Es sei also (y 1,, y m+1 ) in V linear unabhängig Dann ist auch (y 1,, y m ) in V linear unabhängig Nach Induktionsvoraussetzung ist m n Angenommen, es ist m = n Dann ist (y 1,, y m ) eine Basis von V und damit ist y m+1 < y 1,, y m > im Widerspruch zur linearen Unabhängigkeit von (y 1,, y m+1 ) Also ist m < n, d

29 5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 29 h m + 1 n und es existieren j 1,, j n m so, dass (y 1,, y m, x j1,, x jn m ) eine Basis von V bilden Insbesondere ist y m+1 = m ν=1 n m λ ν y ν + µ k x jk für gewisse λ 1,, λ m, µ 1,, µ n m K Da (y 1,, y m+1 ) linear unabhängig ist, ist µ k 0 für ein k {1,, n m} Nach S510 ist dann k=1 (y 1,, y m+1, x j1,, x jk 1, x jk+1,, x jn m ) eine Basis von V der gesuchten Form (Man beachte, dass die Basis n m 1 = n (m + 1) Elemente aus {x 1,, x n } enthält) Beispiel 512 Es sei V = R 3, und es sei (x 1, x 2, x 3 ) = (e 1, e 2, e 3 ) die kanonische Basis in V Ferner seien 1 1 y 1 = 2, y 2 = Dann sind y 1, y 2 linear unabhängig in V Nach S511 existiert ein j {1, 2, 3}, so dass (y 1, y 2, x j ) eine Basis von V ist Es gilt hier: (y 1, y 2, x 1 ) und (y 1, y 2, x 3 ) sind Basen von V, aber (y 1, y 2, x 2 ) ist keine Basis von V Als wichtige Konsequenz aus S511 erhalten wir Bemerkung und Definition 513 Es sei V ein linearer Raum über K Ist V endlichdimensional, so hat jede Basis die gleiche Anzahl n von Elementen (Denn: Ist V = {0}, so ist die einzige Basis von V Es sei also V {0} Nach S59 besitzt V eine endliche Basis (x 1,, x n ) Nun sei (y j ) j J eine weitere Basis von V Dann ist J endlich, denn anderenfalls würden endliche, linear unabhängige Teilfamilien von (y j ) j J beliebiger Länge existieren, insbesondere also mit mehr als n Elementen im Widerspruch zu S511 Also hat wieder nach S511 einerseits (y j ) j J höchstens n Elemente und andererseits auch mindestens n Elemente, denn die linear unabhängige Familie (x 1,, x n ) kann nicht mehr Elemente haben als die Basis (y j ) j J ) Die Zahl dim(v ) := n heißt Dimension von V, und V heißt n-dimensional

30 5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 30 Beispiel Es sei V = K n wie in B412 Dann ist nach B57 dim(v ) = n 2 Es sei V = C Dann ist C ein linearer Raum über C und ein linearer Raum über R Nach 1 ist C über C 1-dimensional Wie man leicht sieht ist (1, i) eine Basis von C als linearem Raum über R Also ist C über R 2-dimensional Satz 515 Es sei V ein n-dimensionaler linearer Raum über K, und es seien x 1,, x n V Dann sind folgende Aussagen äquivalent: a) (x 1,, x n ) ist eine Basis von V b) (x 1,, x n ) ist ein Erzeugendensystem von V c) (x 1,, x n ) ist linear unabhängig Beweis 1 a) b) und a) c) sind klar 2 b) a): Nach dem Basisauswahlsatz (S58) existiert ein J {1,, n} so, dass (x j ) j J eine Basis von V ist Dann ist nach S513 J = n, also J = {1,, n} 3 c) a): Es existiert eine Basis aus n Elementen Nach dem Austauschsatz (S511) folgt aus c), dass (x 1,, x n ) eine Basis von V ist Im Basisauswahlsatz hatten wir gesehen, dass jedes Erzeugendensystem zu einer Basis ausgedünnt werden kann Andererseits gilt auch Satz 516 (Basisergänzungssatz) Es sei V ein endlich-dimensionaler linearer Raum über K Ist (y 1,, y m ) linear unabhängig in V, so existiert eine Basis von V, die (y 1,, y m ) als Teilfamilie enthält Beweis Es existiert eine Basis (x 1,, x n ) von V Also ist nach S511 m n, und es existiert eine Basis von V, die (y 1,, y m ) enthält Satz 517 Es sei V ein endlich-dimensionaler linearer Raum über K, und es sei U V ein Unterraum Dann gilt 1 U ist endlich-dimensional mit dim(u) dim(v ) 2 Ist dim(u) = dim(v ), so ist U = V Beweis 1 Angenommen, U ist unendlich-dimensional Dann existiert eine Folge (x j ) j N in U mit x 1 0 und x j < x 1,, x j 1 > für j 2 (Denn: Es ist U {0}, also existiert ein x 1 U \ {0} Sind x 1,, x j 1 wie oben

31 5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 31 konstruiert, so existiert, da < x 1,, x j 1 > U ist, ein x j U\ < x 1,, x j 1 > Induktiv ergibt sich (x j ) j N ) Wie im Beweisschritt 2 zu S58 sieht man, dass (x 1,, x j ) für alle j N linear unabhängig in U, also auch in V, ist Dies widerspricht S511, nachdem jede linear unabhängige Familie in V höchstens dim(v ) Elemente enthält Ist (x 1,, x m ) eine Basis von U, so ist (x 1,, x m ) linear unabhängig in U und in V, d h es gilt dim(u) = m dim(v ) nach S511 2 Ist dim(u) = dim(v ) = n, so existiert eine Basis (x 1,, x n ) von U Also ist wieder (x 1,, x n ) linear unabhängig in U und in V Nach S515 ist (x 1,, x n ) eine Basis von V, also V =< x 1,, x n >= U Satz 518 (Dimensionsformel für Unterräume) Es seien U, W Unterräume eines endlich-dimensionalen linearen Raumes V über K Dann gilt dim(u + W ) + dim(u W ) = dim(u) + dim(w ) Beweis Es sei k := dim(u), l := dim(w ) Nach S44 ist U W ein Unterraum von V mit m := dim(u W ) min(k, l) nach S517 Es sei B = (x 1,, x m ) (bzw B = ) eine Basis von U W Diese sei gemäß S516 durch Vektoren u m+1,, u k U zu einer Basis von U (falls k > m) und durch w m+1,, w l W (falls l > m) zu einer Basis von W ergänzt Es genügt zu zeigen: M := (x 1,, x m, u m+1,, u k, w m+1,, w l ) ist linear unabhängig in U + W (Denn dann ist M auch eine Basis von U + W nach Konstruktion, und damit ist dim(u + W ) = m + (k m) + (l m) = k + l m wie behauptet) Es sei also (mit := 0) m k l 0 = α j x j + β j u j + γ j w j für gewisse α j, β j, γ j K Dann ist j=m+1 j=m+1 ( ) m k l x := α j x j + β j u j = γ j w j U W j=m+1 j=m+1 Da (x 1,, x m ) eine Basis von U W ist, gilt auch m m x = α j x j = j =1 α j x j + k β j u j j=m+1

32 5 LINEARE UNABHÄNGIGKEIT, BASIS UND DIMENSIONEN 32 mit gewissen α j K Da (x 1,, x m, u m+1,, u k ) eine Basis von U ist folgt nach B56 β j = 0 (j = m+1,, k) (und α j = α j (j = 1,, m)) Die lineare Unabhängigkeit von (x 1,, x m, w m+1,, w l ) liefert mit ( ) wiederum α j = 0 (j = 1,, m) und γ j = 0 (j = m + 1,, l) Folgerung 519 Unter den Voraussetzungen von S518 ergibt sich sofort: Es ist U + W = U W genau dann, wenn dim(u + W ) = dim(u) + dim(w ) (Denn: Ist U + W direkt, so ist U W = {0}, also dim(u W ) = 0 Ist umgekehrt die Formel richtig, so ist dim(u W ) = 0, also U W = {0} und damit U + W = U W ) Weiter ergibt sich induktiv: Sind U 1,, U m Unterräume von V, so gilt U U m = U 1 U m genau dann, wenn m dim = U j m dim(u j ) Beweis [Ü] Zum Abschluss beweisen wir noch Satz 520 Es sei V ein endlich-dimensionaler linearer Raum über K, und es sei U V ein Unterraum Dann existiert ein Unterraum W V mit V = U W Beweis Ohne Einschränkung sei U V und U {0} (sonst ist W = {0} bzw W = V geeignet) U ist als Unterraum von V endlich-dimensional (S517) Ist (u 1,, u m ) eine Basis von U, so existiert nach S516 eine Basis (u 1,, u m, w 1,, w l ) von V Dann gilt für W =< w 1,, w l > die Behauptung (Denn: Nach Konstruktion ist U + W = V Außerdem gilt dim(u + W ) = m + l = dim(u) + dim(w ), also U + W = U W )

33 6 LINEARE ABBILDUNGEN 33 6 Lineare Abbildungen Bisher haben wir uns beschränkt auf die Untersuchung einzelner linearer Räume Lebendig und die Theorie erst so richtig dadurch, dass Beziehungen zwischen verschiedenen Räumen hergestellt werden Entscheidend sind dabei lineare Abbildungen Definition 61 Es seien V, W lineare Räume über einem (gemeinsamen) Körper K Eine Abbildung T : V W heißt linear (oder auch (linearer) Operator), falls gilt und a) Für alle v 1, v 2 V ist b) Für alle v V, λ K ist T (v 1 + v 2 ) = T (v 1 ) + T (v 2 ) T (λv) = λt (v) Ist T linear, so schreibt man auch kurz T v statt T (v) Weiter setzen wir L(V, W ) := {T : V W linear} und L(V ) := L(V, V ) Ist speziell W = K, so heißt T ein lineares Funktional (auf V ) und V := L(V, K) heißt Dualraum von V Bemerkung 62 1 Ist T L(V, W ), so gilt für λ 1,, λ n K, v 1,, v n V T λ j v j = λ j T (v j ) (folgt per Induktion aus D61) 2 Ist T L(V, W ), so gilt stets T (0) = 0 (denn T (0) = T (0 + 0) = T (0) + T (0), also T (0) = 0) 3 Sind v 1,, v n in V linear abhängig, so sind T v 1,, T v n in W linear abhängig (Denn: Ist 0 = λ j v j für gewisse λ j K (j = 1,, n), wobei λ j 0 für ein j, so ist 0 = T (0) = T λ j v j = λ j T v j,

34 6 LINEARE ABBILDUNGEN 34 also sind T v 1,, T v n linear abhängig) Entsprechend gilt damit: Sind T v 1,, T v n linear unabhängig, so sind auch v 1,, v n linear unabhängig Man beachte aber: Aus v 1,, v n linear unabhängig folgt ia nicht, dass T v 1,, T v n linear unabhängig sind! (Beispiel: T : V W, T (v) 0 (v V )) Beispiel 63 Es sei K ein Körper, und es sei V = K n Ferner sei a = (a 1,, a n ) K n Wir definieren T : K n K durch T v = T (x 1,, x n ) := a k x k (v = (x 1,, x n ) K n ) k=1 Dann ist T linear, d h T ist ein lineares Funktional ([Ü]) Allgemeiner gilt: Sind A 1,, A m K n, so ist T : K n K m, definiert durch T v := (T 1 v,, T m v) (v K n ) ebenfalls linear Dabei ist T j wie oben mit A j anstelle von a (j = 1,, m) definiert, d h ist A j = (a (j) 1,, a(j) n ), so gilt T j (v) = T j (x 1,, x n ) := (Denn: Sind v 1, v 2 K n, so gilt k=1 a (j) k x k (v = (x 1,, x n ) K n ) T (v 1 + v 2 ) = (T 1 (v 1 + v 2 ),, T m (v 1 + v 2 )) = (T 1 v 1 + T 1 v 2,, T m v 1 + T m v 2 ) Entsprechend sieht man = (T 1 v 1,, T m v 1 ) + (T 1, v 2,, T m v 2 ) = T v 1 + T v 2 T (λv) = λt v für λ K, v K n ) Ist etwa K = R, n = 2, m = 3 sowie A 1 = (1, 2), A 2 = (3, 0), A 3 = ( 2, 3) so ist T : R 2 R 3 mit linear T (x 1, x 2 ) = (x 1 2x 2, 3x 1, 3x 2 2x 1 ) ((x 1, x 2 ) R 2 ) Wir versehen jetzt in natürlicher Weise L(V, W ) mit einer Vektorraumstruktur

35 6 LINEARE ABBILDUNGEN 35 Satz 64 Es seien V, W lineare Räume über K Für T, S L(V, W ) sei T + S : V W definiert durch (T + S)(v) := T (v) + S(v) (v V ) Ferner sei für λ K die Abbildung λ T : V W definiert durch (λ T )(v) := λ(t v) (v V ) Dann gilt + : L(V, W ) L(V, W ) L(V, W ) sowie : K L(V, W ) L(V, W ) und (L(V, W ), +, ) ist ein linearer Raum über K Ist U ein weiterer linearer Raum über K, und ist T L(V, W ) sowie S L(U, V ), so ist T S L(U, W ) Beweis 1 S + T L(V, W ) und λt L(V, W ): Bedingungen aus D61 prüfen (L(V, W ), +, ) linearer Raum: Vektorraumaxiome überprüfen 2 Für u 1, u 2 U gilt (T S)(u 1 + u 2 ) = T (S(u 1 + u 2 )) = T (Su 1 + Su 2 ) = Ist u U und λ K, so gilt weiterhin = T (Su 1 ) + T (Su 2 ) = (T S)(u 1 ) + (T S)(u 2 ) (T S)(λu) = T (S(λu)) = T (λ(su)) = λt (S(u)) = = λ(t S)(u) Damit ist S T : V U linear Definition 65 Es seien V, W lineare Räume über K, und es sei T L(V, W ) Ist T : V W bijektiv, so heißt T Isomorphismus Existiert ein Isomorphismus T : V W, so heißen V und W isomorph Ein Isomorphismus T : V V heißt auch Automorphismus (auf V ) Wir setzen Aut(V ) := {T : V V : T Automorphismus auf V } Sind zwei Räume isomorph, so sind sie bzgl der linearen Struktur als gleich anzusehen Satz 66 Es seien V, W lineare Räume über K, und es sei T : V W ein Isomorphismus Dann ist auch T 1 : W V ein Isomorphismus Ist U ein weiterer linearer Raum über K, und ist S : U V ein Isomorphismus, so ist auch T S : U V ein Isomorphismus Insbesondere ist also (Aut(V ), ) eine Gruppe

36 6 LINEARE ABBILDUNGEN 36 Beweis 1 Nach B/D118 ist T 1 : W V bijektiv Es bleibt zu zeigen: T 1 ist linear Dazu seien w 1, w 2 W gegeben Dann existieren v 1, v 2 V mit T (v j ) = w j (j = 1, 2) Also folgt T 1 (w 1 + w 2 ) = T 1 (T (v 1 ) + T (v 2 )) = T 1 (T (v 1 + v 2 )) = = v 1 + v 2 = T 1 (w 1 ) + T 1 (w 2 ) Entsprechend sieht man T 1 (λw) = λt 1 (w) für w W, λ K 2 Mit T und S ist auch T S bijektiv Außerdem ist T S linear nach S64 Satz 67 Es sei V ein n-dimensionaler Vektorraum über K Dann ist V isomorph zu K n Beweis Es sei (v 1,, v n ) eine Basis von V Wir definieren T : V K n durch T (v) = T λ j v j := (λ 1,, λ n ) v = λ j v j V (Beachte: T ist wohldefiniert, da die Darstellung v = ist!) Dann ist T L(V, K n ) Denn: Sind v = n λ j v j und w = n µ j v j V, so gilt n λ j v j nach B56 eindeutig T (v + w) = T λ j v j + µ j v j = T (λ j + µ j )v j = = (λ 1 + µ 1,, λ n + µ n ) = (λ 1,, λ n ) + (µ 1,, µ n ) = T (v) + T (w) Ist λ K, so gilt zudem T (λv) = T λ λ j v j = T (λλ j )v j = (λλ 1,, λλ n ) = = λ(λ 1,, λ n ) = λt (v) Außerdem ist T bijektiv Denn: Ist w = (λ 1,, λ n ) K n, so ist T (v) = w für v = n λ jv j, also v T 1 ({w}), d h T ist surjektiv Ist ṽ T 1 ({w}), d h T (ṽ) = w = (λ 1,, λ n ), so gilt ṽ = n λ jv j = v d h T ist injektiv

37 7 KERN UND BILD 37 Bemerkung und Definition 68 Nach S67 stimmt jeder n-dimensionale Vektorraum über K hinsichtlich seiner linearen Struktur mit dem Modellraum K n überein Mittels der Abbildung T aus dem Beweis zu S67 lassen sich sämtliche Aussagen über die lineare Struktur von K n auf V übertragen Die Abbildung T nennt man Koordinatenabbildung (bzgl (v 1, v n )) Man beachte, dass T wesentlich von der in V gewählten Basis abhängt Die Umkehrabbildung T 1 heißt kanonischer Basisisomorphismus Beispiel 69 Es sei Π n :=< E 0,, E n > (= {Polynome vom Grad n}) Π Dann ist (E 0,, E n ) mit E ν (z) = z ν eine Basis von Π n (vgl B53) Nach S67 ist Π n isomorph zu C n+1, wobei die Koordinatenabbildung bzgl (v 1,, v n+1 ), v j = E j+1 gegeben ist durch für P (z) = n ν=0 a ν z ν = n+1 7 Kern und Bild Es geht sofort los T (P ) = (λ 1,, λ n+1 ) λ j v j mit λ j := a j+1 (j = 1,, n + 1) Definition 71 Es seien V, W lineare Räume über K, und es sei T L(V, W ) Dann heißen der Kern von T und das Bild von T Kern(T ) := T 1 ({0}) Bild(T ) := W (T ) = T (V ) Es gelten folgende einfache Eigenschaften Satz 72 Es sei T L(V, W ) Dann gilt 1 Kern(T ) ist ein Unterraum von V 2 Bild(T ) ist ein Unterraum von W 3 T ist genau dann injektiv, wenn Kern(T ) = {0} ist 4 Ist W endlich-dimensional, so ist T genau dann surjektiv, wenn gilt dim(bild(t )) = dim W

38 7 KERN UND BILD 38 Beweis 1 Zunächst ist Kern(T ) da 0 Kern(T ) (B62) Sind v 1, v 2 Kern(T ) und λ 1, λ 2 K, so gilt T (λ 1 v 1 + λ 2 v 2 ) = λ 1 T (v 1 ) + λ 2 T (v 2 ) = 0, also auch λ 1 v 1 + λ 2 v 2 Kern(T ) 2 Aus T (0) = 0 folgt 0 Bild(T ) Sind w 1, w 2 Bild(T ), λ 1, λ 2 K, so existieren v 1, v 2 V mit T (v j ) = w j (j = 1, 2) Also gilt λ 1 w 1 + λ 2 w 2 = T (λ 1 v 1 + λ 2 v 2 ) Bild(T ) 3 : Ist T injektiv, so ist insbesondere T 1 ({0}) höchstens einpunktig Aus T (0) = 0 folgt Kern(T ) = T 1 ({0}) = {0} : Es seien v 1, v 2 V mit T (v 1 ) = T (v 2 ) Dann ist 0 = T (v 1 ) T (v 2 ) = T (v 1 v 2 ), also v 1 v 2 = 0, d h v 1 = v 2 4 folgt sofort aus S517 und 2; ist klar Beispiel 73 (vgl 63) Es sei V = R n, W = R, und für ein (a 1,, a n ) R n \ {0} sei T (v) = T (x 1,, x n ) = a j x j (v = (x 1,, x n ) R n ) Dann ist Kern(T ) = U a aus B43 Ist etwa n = 2 und a = (1, 1), so ist U a = Kern(T ) = {(x 1, x 2 ) R 2 : x 1 = x 2 } Weiter gilt Bild (T ) = R, da a j 0 für ein j {1,, n}, und damit ist T (e j ) = a j 0, d h Bild(T ) {0} (Dann ist schon Bild(T ) = R) Eine zentrale Aussage über den Zusammenhang der Größe von Kern und Bild in endlich-dimensionalem Fall liefert Satz 74 (Dimensionsformel für lineare Abbildungen) Es seien V und W lineare Räume über K, wobei V endlich-dimensional sei Ist T L(V, W ), so ist Bild(T ) endlich-dimensional, und es gilt dim(kern(t )) + dim(bild(t )) = dim V

39 7 KERN UND BILD 39 Beweis 1 Wir zeigen zunächst die Behauptung für den Spezialfall, dass T injektiv ist, also dann dim(bild(t )) = dim(v ) Es sei (v 1,, v n ) eine Basis von V Es genügt, zu zeigen (T v 1,, T v n ) ist eine Basis von T (V ) = Bild(T ) Zunächst gilt < T v 1,, T v n >= Bild(T ) (Denn: Da Bild(T ) ein Unterraum von W ist, ist < T v 1,, T v n > Bild(T ) Ist w T (V ), d h w = T (v) für ein v V, so existieren λ 1,, λ n K mit v = n λ j v j Also ist w = T (v) = n λ j T v j < T v 1,, T v n >) ( ) Sind λ 1,, λ n K mit 0 = n λ j T v j, so ist 0 = T λ j v j, also n λ j v j Kern(T ) Aus Kern(T ) = {0} folgt n j=0 λ jv j = 0, also λ 1 = = λ n = 0, d h T v 1,, T v n sind linear unabhängig 2 Nun sei T L(V, W ) beliebig Nach S72 ist Kern(T ) ein Unterraum von V Also existiert nach S520 ein Unterraum U von V mit Kern(T ) U = V Wir zeigen: T (U) = Bild(T ) T (U) Bild(T )(= T (V )) ist klar Es sei w Bild(T ), d h w = T (v) für ein v V Dann existieren u 1 Kern(T ), und u 2 U mit v = u 1 + u 2, also w = T (v) = T (u 1 + u 2 ) = T (u 1 ) + T (u 2 ) = T (u 2 ) T (U) Damit ist Bild(T ) T (U) Wie man leicht sieht, ist T U : U V injektiv ([Ü]) Also folgt aus 1 Hieraus folgt dann mit F519 dim(u) = dim(t (U)) (= dim(bild(t ))) dim V = dim(kern(t )) + dim(u) = dim(kern(t )) + dim(bild(t )) Satz 75 Es seinen V, W endlichdimensionale lineare Räume mit dim(v ) = dim(w ) Ist T L(V, W ) so sind äquivalent: a) T ist injektiv, b) T ist surjektiv, c) T ist bijektiv

40 8 MATRIZEN 40 Beweis 1 a) b): Nach S72 ist Kern(T ) = {0} Also dim(kern(t )) = 0 Damit ist nach S74 dim(bild(t )) = dim(v ) = dim(w ), also ist T surjektiv nach S72 2 b) c): Nach Voraussetzung ist dim(bild(t )) = dim W = dim V, also nach S74 dim(kern(t )) = 0, d h Kern(T ) = {0} Nach S74 ist T injektiv, also bijektiv 3 c) a): Nach Definition richtig Bemerkung 76 1 Aus S75 ergibt sich insbesonderre folgendes angenehme Kriterium für den Nachweis der Bijektivität von T L(V, W ): Ist dim(v ) = dim(w ), und ist Kern(T ) = {0}, so ist T L(V, W ) ein Isomorphismus 2 Aus der Dimensionsformel (S74) ergeben sich wichtige Eigenschaften über die (Nicht-) Existenz linearer Abbildungen Es gilt nämlich: (i) Ist dim(v ) > dim(w ), so existiert kein injektives T L(V, W ) (ii) Ist dim(w ) > dim(v ), so existiert kein surjektives T L(V, W ) (Denn: Es sei T L(V, W ) (i) Aus S74 folgt dim(kern(t )) = dim V dim(bild(t )) dim V dim W > 0, also ist T nicht injektiv (ii) Aus S74 folgt dim(bild(t )) = dim(v ) dim(kern(t )) dim(v ) < dim(w ) also ist T nicht surjektiv) 8 Matrizen Der folgende Satz zeigt insbesondere, dass lineare Abbildungen durch Angabe der Werte auf einer Basis festgelegt sind Satz 81 Es seien V, W lineare Räume über K, und es seien (v 1,, v n ) eine Basis von V sowie u 1,, u n W beliebig Dann existiert genau ein T L(V, W ) mit T (v j ) = u j (j = 1,, n) Beweis 1 Existenz: Es sei v V Dann existieren eindeutig bestimmte λ 1,, λ n K mit v = λ j v j

41 8 MATRIZEN 41 Wir definieren T : U W durch T (v) := λ j u j (v V ) Dann ist T linear und es gilt T (v j ) = u j (j = 1,, n) 2 Eindeutigkeit: Ist T : V W eine weitere lineare Abbildung mit T (v j ) = u j für j = 1,, n, so gilt für jedes v V, v = n λ jv j : T (v) = T λ j v j = λ j T (vj ) = λ j u j = T (v), also T = T Bemerkung 82 Es sei (unter den Voraussetzungen von S81) W endlich-dimensional mit Basis (w 1,, w m ) Ferner sei T die Abbildung aus S81 Dann existieren eindeutig bestimmte (a 11,, a m1 ),, (a 1n,, a mn ) K m mit m u k = T (v k ) = a jk w j (k = 1,, n) (1) Fasst man die Vektoren a (1) = (a 11,, a m1 ),, a (n) = (a 1n,, a mn ) K m in n Spalten zusammen, so entsteht folgendes Schema: A = a 11 a 1n a m1 a mn =: (a jk),,m k=1,,n =: (a jk ) Definition 83 Sind n, m N und sind a jk K für j = 1,, m, k = 1,, n, so heißt ein Schema A = (a jk ) der obigen Form eine (m n)-matrix (mit Einträgen in K) Ist m = n, so heißt A quadratische Matrix Weiter setzen wir K m n := {A : A ist (m n) Matrix mit Einträgen in K} Ist T wie in B82, so heißt die zugehörige Matrix A die (Koordinaten-) Matrix von T bzgl (v 1,, v n ) und (w 1,, w m ) Dabei sei betont, dass A nicht nur von T, sondern i a auch von der speziellen Wahl von (v 1,, v n ) und (w 1,, w m ) abhängt!

42 8 MATRIZEN 42 Beispiel 84 Es sei V = W = R 2 und es sei T L(R 2, R 2 ) definiert durch T (x 1, x 2 ) = (x 1, x 2 ) ((x 1, x 2 ) R 2 ) Ist v 1 = w 1 = (1, 0) = e 1, v 2 = w 2 = (0, 1) = e 2, so ist ( ) 1 0 A = 0 1 (denn e 1 = T (e 1 ) = 1 e 1 +0 e 2, e 2 = T (e 2 ) = 0 e 1 +( 1)e 2 ) Ist aber w 2 = (0, 1), so ist ( ) 1 0 A = 0 1 (denn: T (e 2 ) = e 2 = 0 e w 2 ) Satz 85 Es seien V, W lineare Räume über K, und es seien N := (v 1,, v n ) bzw M := (w 1,, w m ) Basen von V bzw W Dann ist ϕ = ϕ M,N : L(V, W ) K m n, definiert durch wobei A wie in B82, bijektiv ϕ(t ) := ϕ M,N (T ) := A (T L(V, W )), Beweis 1 Nach B82 ist ϕ : L(V, W ) K m n wohldefiniert (beachte: A ist durch T und M, N eindeutig festgelegt) 2 ϕ ist injektiv, denn ist A = ϕ(t ) = ϕ(s) für T, S L(V, W ), so gilt nach B82 (mit A = (a jk )): T (v k ) = m a jk w j = S(v k ) (k = 1,, n) Aus der Eindeutigkeitsaussage von S81 folgt T = S 3 ϕ ist surjektiv, denn ist A = (a jk ) K m n, so existiert nach S81 ein T L(V, W ) mit T (v k ) = u k := m a jk w j (k = 1,, n) Also ist ϕ(t ) = A

43 8 MATRIZEN 43 Definition 86 Es sei K ein Körper 1 Für A, B K m n, A = (a jk ), B = (b jk ), definieren wir A + B = (a jk + b jk ) = a 11 + b 11 a 1n + b 1n 2 Für A = (a jk ) K m n, λ K definieren wir λa := (λa jk ) = a m1 + b m1 a mn + b mn λa 11 λa 1m λa m1 λa mn 3 Für A = (a jk ) K m n, B = (b jk ) K n p definieren wir A B K m p durch A B := (c jk ),,m k=1,,p mit c jk = a jν b νk (j = 1,, m, k = 1,, p) ν=1 Satz 87 Mit den Bezeichnungen aus S85 und D86 gilt 1 K m n ist ein linearer Raum über K 2 Die Abbildung ϕ : L(V, W ) K m n ist ein Isomorphismus, d h L(V, W ) und K m n sind isomorph Beweis 1 Entweder direkt nachrechnen oder durch Anwendung von B332 (Beachte im zweiten Fall: K m n = K {1,,m} {1,,n}, denn A = (a jk ) K m n ist eine Schreibweise für die Abbildung f : {1,, m} {1,, n} K, f(j, k) = a jk (j = 1,, m, k = 1,, n)) 2 Nach S85 genügt es, zu zeigen: ϕ ist linear Dazu seien T, S L(V, W ) und λ K Dann gilt mit ϕ(t ) = A = (a jk ), ϕ(s) = B = (b jk ),

44 8 MATRIZEN 44 und N = (v 1,, v n ), M = (w 1,, w m ) (T + S)(v k ) = T (v k ) + S(v k ) = = m a jk w j + m b jk w j (a jk + b jk )w j (k = 1,, n) also ist A+B = (a jk +b jk ) die Matrix von T +S bzgl M, N, d h ϕ(t +S) = A+B = ϕ(t ) + ϕ(s) Entsprechend sieht man, dass λa die Matrix von λt bzgl M, N, also ϕ(λt ) = λa = λϕ(t ) ist Der Satz besagt also, dass man L(V, W ) von der linearen Struktur her mit K m n, identifizieren kann, d h um lineare Abbildungen auf endlich-dimensionalen Räumen zu studieren, reicht es, Matrizen zu untersuchen Dabei zeigt sich, dass sich nicht nur die lineare Struktur überträgt Es gilt nämlich Satz 88 Es seien V, W, U endlich-dimensionale lineare Räume über K mit Basen N = (v 1,, v n ), M = (w 1,, w m ) sowie P = (u 1,, u p ) Sind T L(V, W ) bzw S T (U, V ) mit Matrix A bzgl M, N bzw Matrix B bzgl N, P, so ist A B die Matrix von T S bzgl M, P, d h ϕ M,P (T S) = A B = ϕ M,N (T ) ϕ N,P (S) Beweis Es seien Dann gilt A =: (a jk ) K m n und B =: (b jk ) K n p A B = ( ν=1 a jν b νk ),,m k=1,,p Außerdem ist und T v ν = Su k = m a jν w j (ν = 1,, n) b νk v ν (k = 1,, p), ν=1

45 8 MATRIZEN 45 also (T S)(u k ) = T (Su k ) = b νk T v ν = m = w j ( a jν b νk ), ν=1 m b νk ν=1 ν=1 a jν w j = d h AB ist die Matrix von T S bzgl M und P Vereinbarung: Wir schreiben ab jetzt Vektoren in K p, wobei p N, als Spaltenvektoren, d h K p = x 1 x p : x j K für j = 1,, p Dann entspricht K p der Menge der (p 1)-Matrizen K p 1 Ist C = (c jk ) K m n und ist x = x 1 Kn = K n 1, so setzen wir x n C x := C x 1 x n = c 1k x k k=1 c mk x k k=1 K m = K m 1 Bemerkung und Definition 89 Es sei K ein Körper und V = K n, W = K m Weiter seien N = (e 1,, e n ) bzw M = (e 1,, e m ) die kanonischen Basen (vgl B412 und B57) Ist T L(V, W ) und A = (a jk ) die Matrix von T bzgl der kanonischen Basen, d h A = ϕ M,N (T ), so gilt 0 T (e k ) = also die k-te Spalte von A m a jk e j = m a jk 0 1 = 0 0 a 1k a mk,

46 8 MATRIZEN 46 Damit erhält man allgemein für x = x 1 x n Kn T (x) = T x 1 x n = T = ( ) x k e k = k=1 k=1 x k a 1k a mk x k T (e k ) = k=1 = a 1k x k k=1 a mk x k k=1 = A x 1 x n, also T (x) = A x Ist umgekehrt eine Matrix A K m n gegeben, so ist durch T (x) := Ax (x K n ) ein T = T A L(K n, K m ) definiert mit zugehöriger Matrix A bzgl der kanonischen Basen, d h A = ϕ M,N (T A ) So lassen sich Eigenschaften von T auf A und von A auf T übertragen Man setzt etwa Bild(A) := Bild(T ) und Kern(A) := Kern(T ) Bild(A) heißt Bild von A und Kern(A) heißt Kern von A Ist S L(K p, K n ), und ist B die Matrix von S bzgl der kanonischen Basen, so gilt also nach S88 auch (T S)(x) = (A B)x (x K p ) Es ist daher günstig, Rechenreglen für die Matrixmultiplikation zur Verfügung zu haben Satz 810 Es sei K ein Körper 1 Für A K m n, B K n p und λ, µ K gilt (λa)(µb) = (λ µ)(ab)

47 8 MATRIZEN 47 2 Für A K m n, B K n p, C K p r gilt (AB)C = A(BC) 3 Für A K m n, B, C K n p gilt A(B + C) = AB + AC 4 Für A, B K m n, C K n p gilt (A + B)C = AC + BC Beweis [Ü] Bemerkung 811 Man beachte, dass für A K m n, B K n p zwar AB, i a aber nicht BA definiert ist Außerdem gilt auch in dem Fall, dass BA definiert ist (nämlich p = m), i a nicht AB = BA! Betrachten wir etwa A, B R 2 2 mit ) ) A = ( , B = ( , so gilt ) ) AB = ( ) ( = ( und ) ) BA = ( ) ( = ( AB Wir kommen jetzt zu einer wichtigen Kenngröße allgemeiner Matrizen Definition 812 Es sei A = (a jk ) K m n Dann heißt Rg(A) := dim(bild(a)) der Rang von A Weiter seien a (1),, a (n) die Spalten von A, d h a (k) = a 1k a mk (k = 1,, n)

48 8 MATRIZEN 48 sowie A 1,, A m die Zeilen von A, d h A j = (a j1,, a jn ) (j = 1,, m) Dann heißen Srg(A) := dim < a (1),, a (n) > der Spaltenrang von A und Zrg(A) := dim < A 1,, A m > der Zeilenrang von A Bemerkung 813 Nach B89 gilt Rg(A) = Srg(A), denn Bild(A) = Bild(T ) =< T (e 1 ),, T (e n ) > und T (e k ) = a (k) (k = 1,, n) Also ist Rg(A) = dim(bild(a)) = dim < a (1),, a (n) >= Srg(A) Unser Ziel ist es nun, zu zeigen, dass auch Rg(A) = Zrg(A) gilt Dazu brauchen wir den Begriff der Transponierten einer Matrix, der von allgemeiner Bedeutung ist Definition 814 Es sei A = (a jk ) K m n Dann heißt die Matrix A T K n m, definiert durch = (b jk ) die Transponierte von A Für x = x 1 x m b jk := a kj (j = 1,, n, k = 1,, m) Km 1 ist insbesondere damit d h x T ist x als Zeilenvektor x T = (x 1,, x m ) K 1 m, Wir stellen einige elementare Eigenschaften zusammen Satz Für A, B K m n gilt (A + B) T = A T + B T 2 Für A K m n gilt (A T ) T = A 3 Für A K m n, B K n p gilt (AB) T = B T A T

49 8 MATRIZEN 49 Beweis 1 und 2 sind klar 3 Ist A = (a jk ), B = (b jk ), so gilt ( ) T ( ) ( ) (AB) T = a jν b νk = a kν b νj = b νj a kν = B T A T Es glt nun folgender zentrale Satz ν=1 ν=1 ν=1 Satz 816 Ist A K m n, so gilt Rg(A) = Rg(A T ) Beweis Es sei A = (a jk ), und es seien die Spalten von A sowie a (k) = a 1k a mk (k = 1,, n) A j = (a j1,, a jn ) (j = 1,, m) die Zeilen von A Dann sind A T j (j = 1,, m) die Spalten von AT Es sei U :=< A T 1,, A T m > K n Dann ist s := dim(u) = Rg(A T ) nach B813 Es sei (u 1,, u s ) eine Basis von U Dann existieren c jν K mit A j = s c jν u T ν (j = 1,, m), ν=1 d h mit u T ν = (u ν1,, u νn ) (ν = 1,, s) gilt (a j1,, a jn ) = s c jν (u ν1,, u νn ) (j = 1,, m) ν=1 Vergleich der einzelnen Komponenten ergibt a jk = s c jν u νk (j = 1,, m; k = 1,, n) ν=1

50 8 MATRIZEN 50 d h a 1k a mk = s ν=1 u νk c 1ν c mν (k = 1,, n) Mit c ν := c 1ν (ν = 1,, s) c mν gilt also Damit ist s a (k) = u νk c ν (k = 1,, n) ν=1 Bild(A) =< a (1),, a (n) > < c 1,, c s >, also (nach dem Basisauswahlsatz) Rg(A) = dim(bild(a)) s = Rg(A T ) Aus A = (A T ) T ergibt sich durch die gleiche Argumentation Rg(A T ) Rg((A T ) T ) = Rg(A), also insgesamt die Behauptung Hieraus ergibt sich sofort Folgerung 817 Ist A K m n, so gilt Rg(A) = Srg(A) = Zrg(A) (Denn: Es gilt offenbar Zrg(A) = Srg(A T ) Nach B813 und S816 ist Zrg(A) = Srg(A T ) = Rg(A T ) = Rg(A), also mit B813: Rg(A) = Srg(A) = Zrg(A) ) Eine wichtige Aussage über den Rang des Produktes liefert

51 8 MATRIZEN 51 Satz 818 Sind A K m n und B K n p, so gilt Rg(AB) min(rg(a), Rg(B)) Beweis Wir setzen T (x) := Ax (x K n ), S(x) := Bx (x K p ) Dann gilt nach S88 bzw BD89 Aus Bild(T S) Bild(T ) folgt (T S)(x) = ABx (x K p ) Rg(AB) = dim(bild(t S)) dim(bild(t )) = Rg(A) Weiter ist mit S816 durch die gleiche Argumentation also insgesamt Rg(AB) = Rg((AB) T ) = Rg(B T A T ) Rg(B T ) = Rg(B) Rg(AB) min(rg(a), Rg(B)) Bemerkung und Definition 819 Für p N heißt E := E p := (δ jk ) j,k=1,,p = (p-reihige) Einheitsmatrix Es gilt damit für A K m n AE n = A und E m A = A Definition 820 Es sei A K n n Dann heißt A invertierbar falls eine Matrix B K n n mit AB = E n existiert Satz 821 Es sei A K n n Ist A invertierbar, so existiert genau ein B K n n mit AB = E n Außerdem gilt CA = E n genau dann, wenn B = C ist

52 8 MATRIZEN 52 Beweis 1 Es sei B K n n so, dass AB = E Wir betrachten T, S L(K n ) mit T (x) := A x, S(x) := B x (x K n ) (Es gilt nach BD89: ϕ(t ) = A, ϕ(s) = B, wobei ϕ = ϕ M,M und M die kanonische Basis in K n sind) Dann gilt nach S88: AB ist Matrix von T S (bzgl kanonischer Basen), also nach B89 (T S)(x) = ABx = Ex = x (x K n ) d h T S = id K n Damit ist T surjektiv und nach S75 auch bijektiv Also ist S = T 1 und damit ist B Matrix zu T 1, d h ϕ(t 1 ) = B Insbesondere folgt für jedes B mit A B = E genauso B = ϕ(t 1 ), also B = B 2 Aus T T 1 = id K n = T 1 T folgt BA = ϕ(t 1 )ϕ(t ) = ϕ(t 1 T ) = ϕ(id K n) = E 3 Ist C K n n mit CA = E, so ist nach 1 und 2, angewandt auf (C, A) statt (A, B), auch AC = E, also ist C = B nach 1 Definition 822 Ist A K n n invertierbar, so heißt die (nach S821 eindeutig bestimmte) Matrix B mit AB = E Inverse zu A Wir schreiben B =: A 1 ( ) 1 1 Beispiel 823 Es sei A R 2 2 mit A = Dann gilt 0 1 ( ) ( ) ( ) ( = = E, also A 1 = ) Satz 824 Es seien A, B K n n invertierbar Dann gilt 1 A 1 ist invertierbar mit (A 1 ) 1 = A 2 AB ist invertierbar mit (AB) 1 = B 1 A 1 3 Ist λ K \ {0}, so ist λa invertierbar mit (λa) 1 = λ 1 A 1 Beweis 1 Nach S821 ist AA 1 = E = A 1 A, also ist nach Definition A 1 invertierbar mit (A 1 ) 1 = A 2 Es gilt (AB)(B 1 A 1 ) = A(BB 1 )A 1 = AEA 1 = AA 1 = E, also ist nach Definition AB invertierbar mit (AB) 1 = B 1 A 1 3 Es gilt (λa)( 1 λ A 1 ) = (λ 1 λ )(AA 1 ) = E, also ist λa invertierbar mit (λa) 1 = λ 1 A 1

53 8 MATRIZEN 53 Bemerkung 825 Aus S810 und S824 folgt, dass die Menge GL n = GL n (K) := {A K n n : A invertierbar} mit der Matrixmultiplikation als Verknüpfung eine Gruppe bildet (mit E als neutralem Element) GL n ist für n 2 i a nicht kommutativ Der folgende Satz ist i w eine Neuformulierung von S75 Satz 826 Es sei A K n n Dann sind äquivalent: a) A ist invertierbar, b) Rg(A) = n, c) Kern(A) = {0} Beweis Es sei T L(K n ) mit T (x) = Ax (x K n ) 1 a) b): Ist A invertierbar, so gilt (vgl Beweis zu S821): T ist bijektiv Also ist T insbesondere surjektiv und damit Rg(A) = dim(bild(a)) = dim Bild(T ) = n 2 b) c): Ist Rg(A) = dim(bild(t )) = n, so gilt nach der Dimensionsformel für lineare Abbildungen dim(kern(t )) = n dim(bild(t )) = 0, also Kern(T ) = Kern(A) = {0} 3 c a): Ist Kern(T ) = Kern(A) = {0}, so ist T injektiv also auch bijektiv nach S75 Ist S = T 1, so gilt für die Matrix B von S (bzgl der kanonischen Basen) AB = ϕ(t )ϕ(t 1 ) = ϕ(t T 1 ) = ϕ(id K n) = E, also ist A invertierbar Satz 827 Es sei A K n n invertierbar Dann gilt für B K n p und C K m n Rg(AB) = Rg(B) und Rg(CA) = Rg(C) Beweis Aus S818 folgt und Rg(B) = Rg(A 1 (AB)) Rg(AB) Rg(B) Rg(C) = Rg((CA)A 1 ) Rg(CA) Rg(C)

54 9 LINEARE GLEICHUNGSSYSTEME 54 9 Lineare Gleichungssysteme Wir kommen nun zu einem der Kernthemen der linearen Algebra, den linearen Gleichungssystemen Wir werden sehen, dass für eine systematische Behandlung solcher Systeme die in den ersten Abschnitten dargestellten Begriffe und Ergebnisse sehr nützlich sind Definition 91 Es sei K ein Körper (wobei wir jetzt meist K = R oder K = C betrachten), und es seien a jk K, b j K (j = 1,, m; k = 1, n) Dann heißt das System von Gleichungen a 11 x a 1n x n = a 21 x a 2n x n = a 1k x k = b 1 a 2k x k = b 2 k=1 k=1 a m1 x a mn x n = n a mk x k n=1 = b m (LGS) ein lineares Gleichungssystem (LGS) (in den Unbekannten x 1,, x n ) Ein Vektor x = x 1 x n Kn, für den (LGS) erfüllt ist, heißt Lösung des LGS Das LGS heißt homogen, falls b j = 0 für j = 1,, m gilt; ansonsten heißt es inhomogen Die Verbindung zu dem bisherigen Inhalt der Vorlesung ist offensichtlich Ist A = (a jk ), b = (b 1,, b m ) T und x = (x 1,, x n ) T, so lässt sich (LGS) auch schreiben als a 11 a 1n x 1 = b 1, a m1 a mn x n b m oder kurz als Ax = b Die Matrix A heißt (Koeffizienten-) Matrix des LGS Die (m (n + 1)) Matrix (A b) mit a 11 a 1n b 1 (A b) = heißt erweiterte Koeffizientenmatrix des LGS a mn a mn b m

55 9 LINEARE GLEICHUNGSSYSTEME 55 Ein erstes Lösbarkeitskriterium liefert Satz 92 Es seien A = (a jk ) K m n und b K m Dann sind aquivalent: a) Ax = b ist lösbar (d h es existiert ein x K n mit Ax = b), b) b < a (1),, a (n) >, wobei a (k) die Spalten von A sind, c) Rg(A) = Rg(A b) Beweis 1 die Äquivalenz von a) und b) ergibt sofort daraus, dass man Ax = b auch schreiben kann als x k a (k) = b k=1 2 b) c): Ist b < a (1),, a (n) >, so ist < a (1),, a (n) >=< a (1),, a (n), b >, also Rg(A) = dim(< a (1),, a (n) >) = dim(< a (1),, a (n), b >) = Rg(A b) 3 c) b): Da < a (1),, a (n) > < a (1),, a (n), b > gilt, folgt aus dim(< a (1),, a (n) >) = dim(< a (1),, a (n), b >) bereits < a (1),, a (n) >=< a (1),, a (n), b > nach S517, also ist b < a (1),, a (n) > Beispiel 93 Wir betrachten das LGS 3x 1 + x 2 + 2x 3 = 6 x 1 + 2x 2 + 3x 3 = 6 2x 1 + 3x 2 + x 3 = 6 also Ax = x 1 x 2 x 3 = = b

56 9 LINEARE GLEICHUNGSSYSTEME 56 Dann gilt also b < 3 1, b = 6 = , x = >, und eine Lösung ist gegeben durch x 1 x 2 x 3 = Wir wollen zunächst einige allgemeine Aussagen über die Struktur der Lösungsmenge eines LGS machen Satz 94 Es seien A K m n und b K m Wir setzen Lös(A, b) := {x K n : Ax = b} (Lös(A, b) heißt Lösungsmenge des LGS) Dann gilt 1 Lös(A, 0) ist ein Unterraum von K n mit dim(lös(a, 0)) = n RgA 2 Ist Lös(A, b), und ist y Lös(A, b), so ist Lös(A, b) = y + Lös(A, 0) := {y + x : x Lös(A, 0)} (= {y + x : Ax = 0}) Beweis 1 Es gilt Lös(A, 0) = Kern(A) = Kern(T ), wobei T (x) = Ax (x K n ) Also ist nach S72 Lös(A, 0) ein Unterraum von K n (Insbesondere ist stets 0 Lös(A, 0)!) Aus der Dimensionsformel für lineare Abbildungen (S74) folgt weiter dim(lös(a, 0)) = dim(kern(a)) = n dim(bild(a)) = n Rg(A) 2 : Es sei z Lös(A, b) Dann gilt für x := z y: Ax = A(z y) = Az Ay = b b = 0,

57 9 LINEARE GLEICHUNGSSYSTEME 57 also x Lös(A, 0) und z = y + x, d h z y + Lös(A, 0) 3 : Ist z y + Lös(A, 0), d h es existiert ein x Lös(A, 0) mit z = y + x, so gilt Az = A(y + x) = Ay + Ax = Ay = b, also z Lös(A, b) Die Aussage 2 besagt anschaulich folgendes: Ist y eine spezielle Lösung des inhomogenen Systems Ax = b, so ergeben sich alle Lösungen z durch z = y + x, wobei x die Lösungen des homogenen Systems durchläuft, d h ist r := Rg(A) < n, und ist (v 1,, v n r ) eine Basis von Lös(A, 0), so ist n r Lös(A, b) = {y + λ ν v ν : λ ν K für ν = 1,, n r} ν=1 Ist r = n, so ist Lös(A, 0) = {0} und Lös(A, b) = {y} Satz 95 Es sei A K m n Dann gilt 1 Ax = b ist für alle b K m genau dann lösbar, wenn Rg(A) = m ist 2 Ax = b hat für alle b K m höchstens eine Lösung genau dann, wenn Rg(A) = n ist 3 Ax = b ist für alle b K m eindeutig lösbar genau dann, wenn Rg(A) = n = m (insbesondere also n = m ) gilt In diesem Fall ist die eindeutig bestimmte Lösung x = A 1 b Beweis 1 Ax = b ist nach S92 genau dann für alle b K m lösbar, wenn K m =< a (1),, a (n) >= Bild(A) Da Bild(A) stets ein Unterraum von K m ist, ist dies (S517) wiederum äquivalent zu Rg(A) = dim(bild(a)) = dim(k m ) = m 2 Nach S941 ist Lös(A, 0) = {0} genau dann, wenn Rg(A) = n ist Nach S942 ist dies genau dann der Fall, wenn Lös(A, b) höchstens einpunktig ist 3 Nach 1 und 2 ist Ax = b eindeutig lösbar für alle b K m genau dann, wenn Rg(A) = n = m gilt Gilt nun Rg(A) = n = m, so ist A K n n invertierbar nach S826 Ist b K m, so gilt für x = A 1 b Ax = AA 1 b = b, d h Lös(A, b) = {A 1 b}

58 10 DER GAUSS SCHE ALGORITHMUS 58 Definition 96 Es seien A, Ã Km n und b, b K m Dann heißen die LGS e Ax = b und Ãx = b äquivalent, falls gilt Lös(A, b) = Lös(Ã, b) Satz 97 Ist C K m m invertierbar, und sind A K m n sowie b K m, so ist Ax = b äquivalent zu CAx = Cb Beweis Ist x Lös(A, b), so gilt CAx = Cb Ist umgekehrt x Lös(CA, Cb), so ist Ax = (C 1 C)Ax = C 1 (CAx) = C 1 (Cb) = b also x Lös(A, b) Wir haben uns bisher beschränkt auf Strukturaussagen über die Lösungsmenge von Gleichungssystemen Es drängt sich nun die interesannte Frage auf, wie man an Lösungen herankommt 10 Der Gauß sche Algorithmus Definition 101 Es sei A K m n 1 Unter den elementaren Zeilenoperationen (oder elementaren Zeilenumformungen) verstehen wir die Operationen Z j Z k : Vertauschen der Zeilen j und k Z j + λz k : Addition des λ-fachen der k-ten Zeile zur j-ten Zeile (λ K; j k) λz j : Multiplikation der j-ten Zeile mit λ K \ {0} 2 Die elementaren Spaltenoperationen S j S k, S j +λs k, λs j sind analog mit Spalte statt Zeile definiert Beispiel 102 Es sei A =

59 10 DER GAUSS SCHE ALGORITHMUS 59 Dann läßt sich A etwa folgendermaßen mittels elementarer Zeilenoperationen transformieren: Z 1 Z Z 3 Z 1 Z 3 2Z 2 ( 1 4 )Z Die elementaren Zeilen- (Spalten-) Operationen lassen sich jeweils durch eine Matrixmultiplikation beschreiben: Definition 103 Es sei m N Wir schetzen für j, k = 1,, m E (j,k) := (e νµ ) ν,µ=1,,m mit e νµ := 1 falls (ν, µ) = (j, k) und e νµ := 0 sonst, d h E (j,k) = j te Zeile k-te Spalte

60 10 DER GAUSS SCHE ALGORITHMUS 60 Dann heißen für j, k = 1,, m und λ K die Matrizen P (j,k) := E E (j,j) E (k,k) + E (j,k) + E (k,j) = j k F (j,k) (λ) := E + λe (j,k) = λ (j k) sowie F (j) (λ) := E + (λ 1)E (j,j) = λ j (λ 0) j (m m)-elementarmatrizen

61 10 DER GAUSS SCHE ALGORITHMUS 61 Satz 104 Es sei A K m n Dann gilt: Die elementaren Zeilenumformungen lassen sich wie folgt beschreiben A A A Z j Z k Z j+λz k λz j P (j,k) A F (j,k) (λ) A F (j) (λ) A Entsprechend gilt für die elementaren Spaltenumformungen A A A S j S k S j+λs k λs j A P (k,j) A F (k,j) (λ) A F (j) (λ) Beweis Wir beschränken uns auf Zeilenoperationen Es gilt für j, k = 1,, m a 11 a 1n a j1 a jn E (j,k) A = 0 a k1 a kn a m1 a mn a k1 a kn A k j te Zeile = 0 0 = 0, = d h E (j,k) A schneidet aus A die k-te Zeile A k aus und setzt diese in die j-te Zeile Hieraus ergibt sich die Behauptung durch Nachrechnen Wichtig für das folgende ist weiter Satz 105 Die Elementarmatrizen sind invertierbar, und es gilt (P (j,k) ) 1 = P (j,k), (F (j,k) (λ)) 1 = F (j,k) ( λ) (j k)

62 10 DER GAUSS SCHE ALGORITHMUS 62 sowie (F (j) (λ)) 1 = F (j) (1/λ) (λ 0) Beweis Es gilt P (j,k) P (j,k) = E, F (j,k) (λ)f (j,k) ( λ) = E und F (j) (λ)f (j) (1/λ) = E Folgerung 106 Es seien A, Ã Km n und b, b K m Ist die Matrix (Ã b) K m (n+1) durch elementare Zeilenoperationen aus (A b) entstanden, so sind die Gleichungssysteme Ax = b und Ãx = b äquivalent (Denn: Dies ergibt sich durch Kombination von S97, S104 und S 105 und S8242 Man beachte dabei, dass C(A b) = (CA Cb) gilt) Wir betrachten zunächst Gleichungssysteme Ax = b mit invertierbarer Matrix A K n n und b K n Nach S95 ist die (eindeutig bestimmte) Lösung gegeben durch x = A 1 b Allerdings erweist sich die Berechnung von A 1 als i a sehr aufwendig Das im folgenden dargestellte Verfahren ist weniger rechenintensiv und hat zudem den Vorteil, dass es leicht modifiziert für allgemeine Matrizen A K m n anwendbar ist Satz 107 Es seien A K n n und b K n mit Rg(A) = n (d h A ist invertierbar) Dann lässt sich (A b) durch elementare Zeilenoperationen in eine Matrix (R c) überführen, wobei R K n n eine obere Dreiecksmatirx ist, d h R hat die Form r 11 r 1n 0 R =, 0 0 r nn (also r jk = 0 für j > k) und r jj 0 für j = 1,, n Insbesondere sind die Systeme Ax = b und Rx = c äquivalent Beweis Zunächst können wir durch eventuelles Vertauschen zweier Zeilen erreichen, dass (A b)

63 10 DER GAUSS SCHE ALGORITHMUS 63 übergeht in (Ã b) mit ã 11 0 (Beachte: wäre a j1 = 0 für j = 1,, n, so wäre Rg (A) < n) Nun subtrahieren wir das ãj1 ã 11 -fache der ersten Zeile von (Ã b) von der j-ten Zeile von (Ã b) (j = 2,, n) Dann entsteht eine Matrix (A 1 b 1 ) der Form (A 1 b 1 ) = a (1) 11 a (1) 1n b (1) 1 0 a (1) 22 a (1) 2n b (1) 2 0 a (1) n2 a (1) nn b (1) n, d h der erste Eintrag a (1) j1 der j-ten Zeile ist 0 für j = 2,, n (und a(1) 11 0) Nun verfahren wir entsprechend mit der ((n 1) n)-matrix (B 1 d 1 ) := a (1) 22 a (1) 2n b (1) 2 a (1) n2 a (1) nn b (1) n anstelle von (A b) Dabei ist wichtig, dass nach S827 und S104/5 Rg (A 1 ) = Rg (A) = n gilt Damit ist Rg (B 1 ) = n 1 (wäre Rg (B 1 ) < n 1, so wäre eine Zeile von B 1 Linearkombination der restlichen, was dann auch für A 1 gelten würde) Es entsteht nach diesem Umformen eine Matrix (A 2 b 2 ) der Form (A 2 b 2 ) = a (1) 11 a (1) 1n b (1) 1 0 a (2) 22 a (2) 2n b (2) 2 0 a (2) 33 a (2) 3n b (2) a (2) n3 a (2) nn b (2) n mit a (2) 22 0 und a (2) j1 = 0 für j = 2,, n sowie a (2) j2 = 0 für j = 3,, n So fortfahrend erhalten wir eine Kette von Matrizen (A m b m ) der Form 0 (A m b m ) = m (m = 1,, n 1) wobei die Einträge nicht verschwinden Dabei ist (A m b m ) aus (A 0 b 0 ) := (A b) durch elementare Zeilenumformungen (der Form Z j Z k und Z j + λz k ) entstanden

64 10 DER GAUSS SCHE ALGORITHMUS 64 Für m = n 1 ist (A n 1 b n 1 ) = =: (R c) mit R = (r jk ), c = (c 1,, c n ) T und r jk = 0 für j > k und k = 1,, n 1 sowie r jj 0 für j = 1,, n Nach F106 ist Rx = c äquivalent zu Ax = b Bemerkung 108 Das im Beweis dargestellte Verfahren zur Berechnung von (R c) aus (A b) heißt Gauß- Verfahren oder Gauß- Algorithmus Hat man das LGS Ax = b durch das Gauß-Verfahren in das äquivalente System Rx = c überführt, so läss t sich die Lösung x = A 1 b = R 1 c leicht berechnen: Die Lösung x = (x 1,, x n ) T K n erfüllt r 11 r 1n x 1 0 r 22 r 2n x 2 c 2 Rx = = 0 0 r nn x n c 1 c n = c genau dann, wenn und x j = 1 r jj (c j k=j+1 x n = c n /r nn r jk x k ) (j = n 1, n 2,, 1), d h x lässt sich sukzessive von hinten nach vorne berechnen, da x j nur von den dann bekannten Größen r jk, c j und x j+1,, x n abhängt! Jetzt endlich ein Beispiel 109 Wir betrachten das LGS 3x 1 + x 2 3x 3 = 8 6x 1 + 5x 3 = 11, 3x 1 + 5x 2 7x 3 = 20

65 10 DER GAUSS SCHE ALGORITHMUS 65 also (A b) = (A 0 b 0 ) = Schritt (Z 2 + 2Z 1 ; Z 3 Z 1 ): (A 1 b 1 ) = , 2 Schritt (Z 3 2Z 2 ): (R c) = (A 2 b 2 ) = Damit ist x 3 = c 3 = 1 r 33 ( x 2 = 1 c 2 r 22 ( x 1 = 1 c 1 r 11 ) 3 r 2k x k k=3 ) 3 r 1k x k k=2 = 1 r 22 (5 ( 1)( 1)) = 4 2 = 2 = 1 r 11 (8 (1 2 3 ( 1))) = 3 3 = 1, also x = x 1 x 2 x 3 = Bemerkung In S107 hatten wir vorausgesetzt, dass A vollen Rang hat, also invertierbar ist Was passiert, wenn die (quadratische) Matrix A nicht invertierbar ist? Dann wird das Gauß sche Verfahren in einem der Iterationsschritte zusammenbrechen, und zwar an dem Punkt, an dem eine Zeile mit einem nichtverschwindenen Eintrag eingewechselt werden muß oder spätestens damit, dass r nn = 0 ist Also: wenn das Verfahren bis zum letzten Schritt funktioniert, muß A notwendig vollen Rang gehabt haben 2 Eine Erweiterung der Gauß-Algorithmus führt auch auf ein Verfahren zur Berechnug von A 1 :

66 10 DER GAUSS SCHE ALGORITHMUS 66 Wir betrachten die Matrix (A E n ) K n (2n) Führt man die Schritte des Gauß- Algorithmus wie im Beweis zu S 107 beschrieben mit (A E n ) statt (A b) aus (also mit rechter Seite E n ), so wird (A E n ) übergeführt in eine Matrix (R C) K n (2n) mit oberer Dreiecksmatrix R = (r jk ) und r jj 0 für j = 1,, n Durch weitere elementare Zeilenoperationen der Form Z j + λz k und λz j kann (R C) übergeführt werden in (E n B) Dabei gilt dann B = A 1 (Denn: Ist b (k) die k-te Spalte von B, und ist e (k) der k-te Einheitsvektor in K n so gilt nach Konstruktion Ax = e (k) genau dann, wenn x = E n x = b (k), d h Ab (k) = e (k) für k = 1,, n bzw AB = E n ist) Dies zeigt auch, das jede invertierbare Matrix A ein Produkt aus Elementarmatrizen ist (Denn es ist E n = Z A, wobei Z ein Produkt aus Elementarmatrizen ist Also ist nach S105 auch A = Z 1 Produkt aus Elementarmatrizen) Bemerkung 1011 Wir betrachten die Iterationsschritte des Gauß schen Algorithmus noch einmal etwas näher Dabei untersuchen wir anstelle der erweiterten Matrix (A b) nur die (n n)-matrix A Zunächst sei A so, dass im Gauß schen Verfahren keine Zeilenvertauschungen vorgenommen werden müssen Dann lässt sich der erste Schritt folgendermaßen formalisieren A 1 = L 1 A(= L 1 A 0 ) wobei A 1 wie im Beweis zu S107 und l L 1 = l n mit = F (n,1) ( l n1 ) F (2,1) ( l 21 ) = E + ( l j1 ) E (j,1) j=2 l j1 = a j1 = a (0) j1 a 11 Allgemeiner gilt für m = 1,, n 1 a (0) 11 (j = 2,, n) A m = L m A m 1

67 10 DER GAUSS SCHE ALGORITHMUS 67 wobei A m 1, A m wie im Beweis zu S107 und L m = 0 1 l m+1,m l n,m 0 1 = F (n,m) ( l n,m ) F (m+1,m) ( l m+1,n ) = E + ( l jm )E (j,m) mit j=m+1 l jm = a(m 1) jm a (m 1) mm (j = m + 1,, n) (Matrizen dieser Form heißen Frobenius-Matrizen Wir setzen zur Abkürzung L n,m := {L K n n : L = E + Also ergibt sich insgesamt j=m+1 λ j E (j,m), λ j K für j = m + 1,, n} ) L n 1 L n 2 L 2 L 1 A = A n 1 = R Weiter sieht man mit S105: Die Matrix L m ist invertierbar mit L 1 m = 0 1 l m+1,m l n,m 0 1 = F (m+1,m) (l m+1,m ) F (n,m) (l n,m ) = E + l jm E (j,m) j=m+1

68 10 DER GAUSS SCHE ALGORITHMUS 68 Damit folgt A = L 1 1 L 1 2 L 1 n 1 R, d h mit der unteren Dreiecksmatrix ist L := L 1 1 L 1 n 1 = l 21 1 l 32 0 l n1 l n2 l n,n 1 1 A = LR Eine solche Zerlegung von A hat den Vorteil, dass die Lösung eines LGS Ax = b für b R n durch Lösen der beiden Gleichungssysteme und Ly = b Rx = y berechnet werden kann Hierbei haben beide Koeffizientenmatrizen Dreiecksgestalt, d h die Gleichungssysteme können rekursiv (vgl B 108) gelöst werden Dies ist insbesondere dann von Vorteil, wenn Ax = b für verschiedene rechte Seiten b gelöst werden muss Man kann zeigen ([Ü]), dass eine solche Zerlegung für invertierbare Matrizen stets eindeutig ist, d h ist L n := {L = (l jk ) K n n : l jk = 0 für j < k, l jj = 1 für j = 1,, n}, so existieren höchstens ein L L n sowie eine obere Dreiecksmatrix R = (r jk ) mit r jj 0 (j = 1,, n) und A = LR Man nennt diese Zerlegung dann LR-Zerlegung von A Ist A so, dass im Gauß schen Algorithmus Zeilen vertauscht werden müssen, so sieht man wie oben: Es existieren Frobenius-Matrizen L 1,, L n 1 und Vertauschungsmatrizen P (1,k 1),, P (n 1,k n 1)

69 10 DER GAUSS SCHE ALGORITHMUS 69 mit k m m (wobei P (m,km) = E, falls im m-ten Schritt keine Vertauschung vorgenommen wurde) und so, dass L n 1 P (n 1,k n 1) L n 2 P (n 2,k n 2) L 1 P (1,k 1) A = R Man kann zeigen ([Ü]), dass für jede Frobenius Matrix F L n,m und j, k > m eine Frobenius-Matrix F L n,m existiert mit P (j,k) F = F P (j,k) Also folgt, dass mit gewissen Frobenius-Matrizen L m L n,m (m = 1,, n 1) gilt L n 1 L 1 P (n 1,k n 1) P (1,k 1) A = R Mit P := P (n 1,k n 1) P (1,k 1) und L := ( L n 1 L 1 ) 1 = 1 1 L 1 L n 1 gilt dann P A = LR Hierbei ist P (eine sog Permutationsmatrix) invertierbar, und L L n wieder eine untere Dreiecksmatrix Ähnlich wie oben kann die Lösung von Ax = b für beliebiges b K n durch Lösen der Systeme und berechnet werden Ly = P b Rx = y Der folgende Satz liefert eine Charakterisierung der Matrizen, für die die LR-Zerlegung existiert Satz 1012 Es sei A = (a jk ) GL n (K) Genau dann existiert die LR-Zerlegung von A, wenn die Matrizen für r = 1,, n invertierbar sind A (r) := (a jk ) j,k=1,,r K r r

70 10 DER GAUSS SCHE ALGORITHMUS 70 Beweis : Ist A = LR die LR-Zerlegung, so schreiben wir diese in Blockform (die Bedeutung der Blöcke ergibt sich aus A (r) K r r ) ( ) ( A (r) B (r) L (r) 0 = C (r) D (r) = L (r) 21 L (r) 22 ( L (r) R (r) L (r) R (r) 12 ) ( R (r) R (r) 12 0 R (r) 22 ) L (r) 21 R(r) L (r) 21 R(r) 12 + L(r) 22 R(r) 22 Es folgt A (r) = L (r) R (r) Da L (r) und R (r) invertierbar sind, ist auch A (r) invertierbar : (Induktion nach n) Der Fall n = 1 ist klar Es sei A K (n+1) (n+1) so, dass A (r) invertierbar ist für r = 1,, n + 1 Dann gilt nach Induktionsvoraussetzung ( ) ( ) A (n) b L (n) R (n) b A = = a T α a T α mit gewissen a, b K n, α K und einer oberen Dreiecksmatrix R (n) mit r (n) jj 0 sowie einer Matrix L (n) L n Also folgt ( ) ( ) (L (n) ) 1 0 R (n) b A = 0 T 1 a T α mit b = (L (n) ) 1 b und (L (n) ) 1 L n (man beachte: L n ist eine Gruppe ([Ü])) Durch elementare Zeilenoperationen der Form Z j + λz k lässt sich die Matrix auf der rechten Seite in eine obere Dreiecksmatrix R mit r jj 0 überführen Also existiert nach B1011 eine Matrix L L n+1 mit ( ) (L L (n) ) 1 0 A = R 0 T 1 Da L n+1 eine Gruppe ist, gilt für die untere Dreiecksmatrix ( ) L (n) 0 L := L 1 L n+1 0 T 1 = ) die Zerlegung A = LR Bisher haben wir uns lediglich mit einer Lösungsmethode für lineare Gleichungssysteme mit invertierbarer Koeffizientenmatrix A beschäftigt Wir werden jetzt auf Gleichungssysteme mit beliebiger Matrix A eingehen Definition 1013 Es sei B = (b jk ) K m n, und es sei r {1,, min(n, m)} Man sagt, die Matrix B hat Zeilenstufenform (mit r Stufen), wenn es Spaltenindizes k 1,, k r {1,, n} mit folgenden Eigenschaften gibt:

71 10 DER GAUSS SCHE ALGORITHMUS 71 a) k j k j+1 für j = 1,, r 1 b) b j,kj 0 für j = 1,, r c) b jk = 0 für j = r + 1,, m; k = 1,, n und für j = 1,, r; k < k j d h B hat die Form 0 0 b 1,k1 0 0 b 2, k B = 0 0 b r,kr Satz 1014 Ist B = (b jk ) K m n eine Matrix in Zeilenstufenform mit r Stufen, so ist Rg(B) = r Beweis Sind B 1, B r die ersten r Zeilen von B, so gilt Rg(B) = Zrg(B) = dim < B 1, B r > r Wir zeigen B 1, B r sind linear unabhängig (dann ist Rg(B) = Zrg(B) = r) Dazu seien λ 1,, λ r K so, dass d h Insbesondere gilt r λ ν B ν = 0 T, ν=1 r λ ν b νk = 0 für k = 1,, n ν=1 r λ ν b ν,kj = 0 für j = 1,, r ν=1 Für j = 1 ergibt sich (da b ν,k1 = 0 für ν > 1) r 0 = λ ν b ν,k1 = λ 1 b ν,k1, ν=1

72 10 DER GAUSS SCHE ALGORITHMUS 72 also λ 1 = 0 Hieraus folgt für j = 2 r 0 = λ ν b ν,k2 = λ 2 b ν,k2, ν=2 also λ 2 = 0 So fortfahrend ergibt sich λ 1 = λ 2 = = λ r = 0, also sind B 1,, B r linear unabhängig Satz 1015 Jede Matrix A K m n, A 0, lässt sich durch elementare Zeilenumformungen in eine Matrix B K m n transformieren, die Zeilenstufenform (mit Rg(A) Stufen) hat Beweis Da A 0 ist, existiert ein kleinster Spaltenindex k 1 mit a (k 1) 0 Ist etwa a jk1 0, so vertauschen wir die erste mit der j-ten Zeile (diesen Eintrag nennen wir b 1k1 ) Durch Umformungen der Form Z j + λz 1 können wir dann A transformieren in die Form 0 0 b 1,k1 0 A Ist A 1 K (m 1) (n k1) die Nullmatrix, so sind wir fertig Ist A 1 0, so wird die gleiche Prozedur auf A 1 angewandt Nach endlich vielen Schritten landet man bei einer Matrix B in Zeilenstufenform Folgerung 1016 Ist A K m n, A 0 und ist b K m, so lässt sich (A b) durch elementare Zeilenumformungen in eine Matrix (A b ) transformieren, die Zeilenstufenform hat Die LGS e Ax = b und A x = b sind nach F 106 äquivalent Ist 0 0 a 1,k 1 c 1 0 a 2,k 2 c 2 0 (A b ) = 0 a r,k r c r 0 c r c m

73 10 DER GAUSS SCHE ALGORITHMUS 73 mit a j,k j 0 für j = 1,, r, so ist A x = b (bzw Ax = b) genau dann lösbar, wenn c r+1 = = c m = 0 gilt (In diesem Fall ist Rg(A ) = Rg(A b ) anderenfalls ist Rg(A ) = r < Rg(A b )) Bemerkung 1017 Wie kann man im Falle c r+1 = = c m = 0 das System lösen? Durch geeignetes Vertauschen von Spalten lässt sich (die um die letzten m r, nur aus Nullen bestehenden Zeilen verkleinerte Matrix) in die Form (A c) = a 11 a 1r a 1n c 1 0 a 22 a 2r a 2n c a rr a rn mit a jj 0 für j = 1,, r bringen Wir berechnen die Lösungen y von A y = c Die Lösungen x von A x = b (bzw Ax = b) ergeben sich dann durch Rückvertauschen der Variablen y 1,, y n Nach S94 haben wir eine spezielle Lösung y (0) der inhomogenen Gleichung und eine Basis von Lös (A, 0) zu berechnen c r 1 Berechnung einer speziellen Lösung y (0) von A y = c Mit y (0) = (y 1,, y n ) T setzen wir y r+1 = = y n = 0 Dann kann man die y 1,, y r von hinten nach vorne wie in B108 berechnen (mit R = a 11 a 1r a rr und rechter Seite c = (c 1,, c r ) T ) 2 Berechnung einer Basis von Lös (A, 0): O E können wir n > r annehmen (sonst ist Lös(A, 0) = {0}) Wir setzen A = (R S) mit R = a 11 a 1r 0 a rr und S = a 1,r+1 a 1n a r,r+1 a rn Schreiben wir y = (y 1,, y n ) T K n als (u, v) T mit u = (y 1,, y r ) T und v = (y r+1,, y n ) T, so ist Lös (A, 0) = {y : A y = 0} = {(u, v) K r K n r : Ru = Sv}

74 10 DER GAUSS SCHE ALGORITHMUS 74 (denn: A y A ( u v) = Ru + Sv) Für v = e (k) (= k-ter Einheitsvektor in K n r ) berechnen wir die Lösung u (k) von Ru = Sv = Se (k) = a 1,k+r a r,k+r (k = 1,, n r) nach dem Verfahren aus B108 Dann ist y (1),, y (n r) mit ( ) u y (k) (k) := (k = 1,, n r) e (k) eine Basis von Lös (A, 0) (denn y (1),, y (n 1) sind linear unabhängig nach Konstruktion und dim(a, 0) = n r) Beispiel 1018 Wir betrachten das LGS Ax = x 1 x 2 x 3 x 4 4 = 1 1 = b Dann ist (A b) = Z 2 2Z 1 Z 3 +Z 1 Z Z = (A b ) Vertauschen der 4 und 2 Spalte (und Weglassen der letzten Zeile) ergibt ( ) (A c) = = (R S c) also die gewünschte Form Eine spezielle Lösung y (0) der inhomogenen Gleichung ergibt sich mit y 3 = y 4 = 0 aus ( ) ( ) ( ) ( ) y1 1 1 y1 4 R = =, y 2 y 2

75 10 DER GAUSS SCHE ALGORITHMUS 75 also y 2 = 3, y 1 = 1, und damit y (0) = Eine Basis (y (1), y (2) ) von Lös (A, 0) erhält man aus ( ) ( ) ( 1 1 y1 2 Ru = = y 2 ) = Se (1) und ( 1 1 ) ( y1 ) ( 2 ) Ru = 0 3 y 2 = 0 = Se (2) Man berechnet y (1) = und y (2) = Also ist Lös (A, c) = y (0) + Lös (A, 0) = λ µ , λ, µ R Durch Rückvertauschen der Variablen erhält man 1 1 Lös (A, b) = Lös (A, b 0 0 ) = + λ µ , λ, µ R

76 11 DETERMINANTEN Determinanten Bevor wir zu einem weiteren zentralen Begriff der Linearen Algebra, nämlich der Determinante einer Matrix, kommen, befassen wir uns vorbereitend noch einmal etwas genauer mit der Symmetrischen Gruppe S n, d h der Menge aller bijektiven Abbildungen auf {1,, n} mit der Hintereinanderausführung als Verknüpfung (siehe B 23) Definition 111 Es sei n 2 Ein σ S n heißt Transposition (der Elemente j und k aus {1,, n}), falls j k und σ(j) = k sowie σ(m) = m für alle m {1,, n} \ {j, k} Wir schreiben dann σ =: [j, k] Es gilt dabei [j, k] = [k, j] und [j, k] 1 = [j, k] Satz 112 Es sein n N Dann gilt 1 S n = n! 2 Für n 2 ist jedes σ S n darstellbar als Produkt (bzgl ) aus höchstens n Transpositionen Beweis 1 Induktionsanfang n = 1: Es ist S 1 = {id {1} } = 1 2 Induktionsschritt n n + 1: Es gilt S n+1 = wobei A j := {σ S n+1 : σ(j) = n+1} und die Zerlegung disjunktiv ist Jedem σ A j entspricht in eineindeutiger Weise ein τ S n (nämlich τ mit τ(k) := σ(k) für k < j und τ(k) := σ(k + 1) für k j) Nach Induktionsvoraussetzung ist also und damit n+1 A j, A j = S n = n! (j = 1,, n + 1) n+1 S n+1 = A j = (n + 1)! 2 Ist σ = id, so gilt σ = [1, 2] [1, 2] Ist σ id, so existiert ein kleinstes j 1 {1,, n} mit σ(j 1 ) = k 1 j 1 Für σ 1 := [j 1, k 1 ] σ folgt dann σ 1 (j) = j für j j 1 Im Falle σ 1 = id gilt σ = [j 1, k 1 ] und wir sind fertig Ist σ 1 id, so existiert ein kleinstes j 2 {1,, n} mit k 2 = σ 1 (j 2 ) j 2 (dabei ist j 2 > j 1 ) Wir betrachten σ 2 := [j 2, k 2 ] σ 1

77 11 DETERMINANTEN 77 Dann ist σ 2 (j) = j für j j 2 So fortfahrend gelangen wir nach m n 1 Schritten zu einer Darstellung Da [j, k] 1 = [j, k] gilt, ist σ m = [j m, k m ] [j 1, k 2 ] σ = id σ = [j 1, k 1 ] [j m, k m ] Beispiel 113 Es sei σ = ( ) Dann gilt d h σ 1 = [1, 4] σ = σ 2 = [2, 3] σ 1 = σ 3 = [3, 4] σ 2 = σ 4 = [4, 5] σ 3 = ( ( ( ( ) ) ) ) = id id = σ 4 = [4, 5] [3, 4] [2, 3] [1, 4] σ also σ = [1, 4] [2, 3] [3, 4] [4, 5] Definition 114 Es sei σ S n 1 Jedes Paar (j, k) {1,, n} 2 mit j < k und σ(j) > σ(k) heißt Inversion (oder Verstellung) von σ 2 Ist I(σ) die Anzahl der Inversionen von σ, so heißt σ gerade (bzw ungerade) falls I(σ) gerade (bzw ungerade), ist Die Zahl heißt Signum (oder Vorzeichen) von σ sign(σ) := ( 1) I(σ)

78 11 DETERMINANTEN 78 Bemerkung Für jedes σ S n gilt sign(σ) = 1 j<k n σ(k) σ(j) k j (Denn: Es ist (σ(k) σ(j)) = j<k = j<k σ(j)<σ(k) j<k σ(j)<σ(k) (σ(k) σ(j)) (σ(k) σ(j)) j<k σ(j)>σ(k) j<k σ(j)>σ(k) (σ(k) σ(j)) σ(k) σ(j) ( 1) I(σ) = ( 1) I(σ) j<k σ(k) σ(j) = ( 1) I(σ) j<k(k j), wobei bei der letzten Gleichheit zu beachten ist, dass aufgrund der Bijektivität von σ beide Produkte die gleichen Faktoren enthalten) 2 Ist σ = [j, k] eine Transposition, so ist σ ungerade, d h sign(σ) = 1 (Denn: o E sei j < k Dann hat σ genau die Inversionen (j, j + 1),, (j, k) und (j + 1, k),, (k 1, k), d h I(σ) = 2(k j) 1 ist ungerade) Von zentraler Bedeutung ist nun Satz Es seien σ, τ S n Dann gilt sign(σ τ) = sign(σ) sign(τ) 2 Ist σ S n Produkt aus m Transposition, so ist sign(σ) = ( 1) m

79 11 DETERMINANTEN 79 Beweis σ(τ(k)) σ(τ(j)) 1 Mit β kj := τ(k) τ(j) sign(σ τ) = = für j k gilt nach B1151 j<k j<k = sign(τ) β jk =β kj = sign(τ) = sign(τ) σ(τ(k)) σ(τ(j)) k j σ(τ(k)) σ(τ(j)) τ(k) τ(j) j<k τ(j)<τ(k) j<k τ(j)<τ(k) = sign(τ) τ(j)<τ(k) j<k β kj β kj = j<k j<k τ(j)>τ(k) j>k τ(j)<τ(k) τ(k) τ(j) k j β kj β kj σ(τ(k)) σ(τ(j)) τ(k) τ(j) σ(k) σ(j) k j = sign(τ) sign(σ) wobei die vorletzte Gleichheit aus der Bijektivität von τ folgt 2 Folgt auch 1 und B1152 Definition 117 Es sei K ein Körper Eine Abbildung d : K n n K heißt Determinatnenabbildung, falls folgende Bedingungen gelten: a) d ist linear in jeder Zeile, d h sind j {1,, n}, A = A 1 Kn n und b K n, λ, µ K, so gilt d A 1 λa j + µb T = λ d(a) + µ d A 1 b Ṭ A 1, A n A n b) d(a) = 0, falls zwei Zeilen von A übereinstimmen, d) d(e) = 1

80 11 DETERMINANTEN 80 Bemerkung 118 Ist d eine Determinantenabbildung, so gilt für A = A 1 A n Kn n und λ K sowie j k d A 1 A j + λa k A n ( ) = d F (j,k) (λ) A = d(a) (d h Addition eines Vielfachen einer Zeile zu einer anderen Zeile ändert d nicht) und d(p (j,k) A) = d(a) (d h Vertauschen zweier Zeilen bewirkt Vertauschung des Vorzeichens) (Denn: o E sei j < k Dann gilt d A 1 A j + λa k A k = d(a) + λd A 1 A k A k = d(a) A n A n

81 11 DETERMINANTEN 81 und 0 = d A 1 A j + A k A k + A j = d A 1 A j A k + A j + d A 1 A k A k + A j A n = d(a) + d A 1 A k A j A n = d(a) + d(p (j,k) A) ) A n A n Der folgende Satz ist grundlegend für die Theorie der Determinanten Satz 119 Es seien K ein Körper und n N Dann existiert genau eine Determinatenabbildung det : K n n K, und es gilt für A = (a jk ) K n n : det A = σ S n sign(σ)a 1,σ(1) a n,σ(n) (2) Beweis 1 Existenz: Es sei d : K n n K definiert durch d(a) := σ S n sign(σ) a 1,σ(1) a n,σ(n) (A = (a jk ) K n n ) Wir zeigen, dass d die Bedingungen aud D117 erfüllt: Es seinen A, b = (b 1,, b n ) T, λ, µ wie D117 a) Dann gilt σ S n sign(σ)a 1,σ(1) a j 1,σ(j 1) (λa j,σ(j) + µb σ(j) )a j+1,σ(j+1) a n,σ(n) = λ σ S n sign(σ) a 1,σ(1) a j,σ(j) a n,σ(n) + + µ σ S n sign(σ) a 1,σ(1) b σ(j) a n,σ(n)

82 11 DETERMINANTEN 82 Dies ist nichts anderes als die Bedingung D117 a) für d Es sei nun A = A 1 A n Kn n mit A j = A k für ein Paar (j, k) mit j < k Es gilt mit τ := [j, k] nach S116 und B1152 sign(σ τ) = sign(σ) für alle σ S n also d(a) = sign(σ)a 1,σ(1) a n,σ(n) = σ S n sign(σ)a 1,σ(1) a j,σ(j) a k,σ(k) a n,σ(n) + σ Sn σgerade σ Sn σgerade sign(σ)a 1,σ(τ(1)) a j,σ(τ(j)) a k,σ(τ(k)) a n,σ(τ(n)) (Man beachte: Durch σ σ τ ist eine bijektive Abbildung zwischen {σ S n : σ gerade} und {σ S n : σ ungerade} gegeben) Weiter gilt a j,σ(τ(j)) = a j,σ(k) = a k,σ(k) und a k,σ(τ(k)) = a k,σ(j) = a j,σ(j) sowie a m,σ(τ(m)) = a m,σ(m) für m j, k Also ist der erste Summand das Negative des zweiten, d h d(a) = 0 Ist A = E = (δ jk ) so ist von der Summe d(e) = σ S n sign(σ)δ 1,σ(1) δ n,σ(n) nur der Summand für σ = id nicht 0 und dieser hat den Wert 1, also d(e) = 1 2 Eindeutigkeit: Es seien d 1 und d 2 Determinantenabbildungen, und es sei A K n n, wobei o E A 0 Wir zeigen: d 1 (A) = d 2 (A) Dazu sei B eine gemäß S1015 aus A durch elementare Zeilenumformungen (der Form Z j Z k und Z j + λz k ) entstandene Matrix in Zeilenstufenform Nach B 118 gilt d i (B) = ( 1) m d i (A) (i = 1, 2) wobei m die Anzahl der Zielenvertauschungen beim Übergang von A nach B bezeichnet Also genügt es, zu zeigen: Es sei B = B 1 = (b jk) d 1 (B) = d 2 (B) B n 1 Fall: Rg(B) < n Dann ist B n = 0 Durch Addition von B 1 zu B n = 0 entsteht eine Matrix B (1) mit det i (B (1) ) = det i (B) (i = 1, 2) und mit zwei gleichen Zeilen Also ist d 1 (B) = d 2 (B) = 0

83 11 DETERMINANTEN 83 2 Fall: Rg(B) = n Dann ist b jj 0 für j = 1,, n Für B (1) := B 1 /b 11 B n /b nn gilt dann b (1) jj = 1 (1 j n) und nach D117 a) d i (B (1) ) = d i (B)/ =: (b(1) jk ) n b jj (i = 1, 2) Durch weitere elementare Zeilenumformungen der Form Z j +λz k (Addition des ( b (1) jn )- fachen der letzten Zeile zur j-ten Zeile für j = 1,, n 1 u s w; vgl B1010) lässt sich B (1) in die Einheitsmatrix E transformieren Nach B118 gilt dann d i (B (1) ) = d i (E) = 1 Also gilt insgesamt d i (B) = n b jj d i (B (1) ) = n b jj (i = 1, 2), also insbesondere d 1 (B) = d 2 (B) Beispiel 1110 Für n = 2 gilt S 2 = {id, σ}, wobei σ = [2, 1], also det A = det ( a11 a 12 a 21 a 22 ) = = sign(id)a 1,id(1) a 2,id(1) + sign(σ)a 1,σ(1) a 2,σ(2) = a 11 a 22 a 12 a 21 Weiter überlegt man sich leicht, dass für n = 3 gilt a 11 a 12 a 13 det(a) = det a 21 a 22 a 23 a 31 a 32 a 33 = a 11 a 22 a 33 + a 12 a 23 a 31 + a 13 a 21 a 32 a 31 a 22 a 13 a 32 a 23 a 11 a 33 a 21 a 12 Bemerkung Aus der Formel (2) ergibt sich insbesondere für alle A K n n det(a) = det(a T )

84 11 DETERMINANTEN 84 (Denn: Ist A T = (b jk ) = (a kj ), so gilt, da sign(σ) = sign(σ 1 ) nach S116, det A = σ S n sign(σ)a 1,σ(1) a n,σ(n) = σ S n sign(σ 1 )a σ 1 (σ(1)),σ(1) a σ 1 (σ(n)),σ(n) = τ S n sign(τ)a τ(1),1 a τ(n),n = τ S n sign(τ)b 1,τ(1) b n,τ(n) = det A T ) 2 Aus dem Beweis zu S 119 ergibt sich auch folgende Charakterisierung der Invertierbarkeit einer Matrix: Ist A K n n, so gilt A invertierbar det(a) 0 (Denn: Ist B wie im Beweisteil 2 zu S119 so gilt Rg(A) = Rg(B) und nach dem Beweisteil 2 damit ( 1) m n b jj 0, falls Rg(A) = n det A = ( 1) m det B = ) 0 falls Rg(A) < n Eine zentrale Eigenschaft der Determinantenabbildung liefert Satz 1112 Es seien A, B K n n Dann gilt det(ab) = det(a) det(b) Beweis 1 Fall: Rg(B) < n Dann ist Rg(AB) < n nach S 818, also det(a) det(b) = 0 = det(ab) nach B Fall: Rg(B) = n Dann ist det(b) 0 nach B Wir betrachten d : K n n K mit d(a) := det(ab) det B (A K n n ) Wir zeigen: d ist eine Determinantenabbildung, also d = det nach S 119 Dies ist die Behauptung

85 11 DETERMINANTEN 85 Es sei A = (a jk ) = A 1 A n und b Kn, λ, µ K Dann gilt d A 1 λa j + µb T A n = 1 det B det A 1 λa j + µb T A n B = = 1 det B det A 1 B λa j B + µb T B A n B = = 1 det B λ det A 1 B A j B A n B + µ det A 1 B b T B A n B = λd(a) + µd A 1 b Ṭ A n, also ist a) aus D 117 erfüllt Gilt A j = A k für j < k, so ist A j B = A k B, d h zwei Zeilen von AB stimmen überein Also ist d(a) = 1 det B det(ab) = 0 Ist schließlich A = E, so ist AB = B, also d(e) = 1 Wir ergänzen diesen Abschnitt durch eine zumindest theoretisch nützliche Formel für die Berechnung von Determinanten

86 11 DETERMINANTEN 86 Definition 1113 Es seien A = (a jk ) K n n, wobei n > 1, und j, k {1,, n} Die Matrix S jk (A) K (n 1) (n 1), die aus A durch Streichen der j-ten Zeile und der k-ten Spalte entsteht heißt Streichungsmatrix (bzgl (j, k)) von A (Ist etwa A = , so ist S 23 (A) = ( ) ) Satz 1114 (Laplace scher Entwicklungssatz) Es sei A = (a jk ) K n n Dann gilt für k = 1,, n det A = a jk ( 1) j+k det(s jk (A)) (3) ( Entwicklung nach der k-ten Spalte ) und für j = 1,, n det A = a jk ( 1) j+k det(s jk (A)) (4) k=1 ( Entwicklung nach der j-ten Zeile ) Beweis Wir zeigen (4) Die Formel (3) ergibt sich damit aus det(a) = det(a T ) Es sei A jk K n n die Matrix, die aus A durch Ersetzen der j-ten Zeile A j durch e T k und Ersetzen der k-ten Spalte a (k) durch e j entsteht, d h a 11 0 a 1n A jk = j a n1 0 a mn Behauptung: Es gilt k a jk det A jk = det A k=1

87 11 DETERMINANTEN 87 (Denn: Ist A jk Kn n die Matrix, in der die j-te Zeile A j durch e T k ersetzt ist, so läßt sich A jk aus A jk durch Zeilenoperationen vom Typ (Z ν + λz µ ) gewinnen (man addiere zur i-ten Zeile von A jk das ( a ik)-fache der j-ten Zeile von A jk (i j)) Also gilt nach B118 det A jk = det A jk Schreibt man A j = D117 a) det A = a jk det(a jk ) = k=1 n k=1 a jk det(a jk ) ) k=1 a jk e T k, so ergibt sich aus Durch (k 1) Vertauschungen (falls k > 1) benachbarter Spalten erhalten wir aus A jk eine Matrix B jk K n n, in der die (m + 1)-te Spalte die m-te Spalte von A jk ist (m < k), und deren erste Spalte die k-te Spalte e j von A jk ist Also ist nach B 118 (mit Spalten statt Zeilen ; man beachte dabei: aus B11111 folgt, dass die Eigenschaften aus D117 und B118 auch mit Spalte statt Zeile gelten) det A jk = ( 1) k 1 det B jk Entsprechend erhält man durch j 1 (falls j > 1) Vertauschungen von Zeilen aus B jk eine Matrix C jk mit det(b jk ) = ( 1) j 1 det(c jk ), wobei C jk von der Form C jk = =: (d µν ) µ,ν=1,,n S jk (A) 0 ist Hierfür gilt det(c jk ) = σ S n sign(σ)d 1,σ(1) = σ Sn σ(1)=1 = sign(σ) d 11 τ S n 1 sign(τ) n 1 µ=1 n µ=2 n µ=2 d µ,σ(µ) d µ,σ(µ) d µ+1,τ(µ)+1 = det(s jk (A)) (Man beachte: Jedem σ S n mit σ(1) = 1 entspricht genau ein τ S n 1, nämlich τ mit τ(µ) := σ(µ + 1) 1, und es gilt dabei sign(σ) = sign(τ)) Also gilt insgesamt det A = a jk det A jk = a jk ( 1) (j 1)+(k 1) det(c jk ) = k=1 k=1 a jk ( 1) j+k det(s jk (A)) k=1

88 11 DETERMINANTEN 88 Beispiel 1115 Es sei A = Dann gilt (Entwicklung nach der 2 Zeile): det A = 4 a 2k ( 1) 2+k det(s 2k (A)) = k= = 4 ( 1) det det = = 4( ) + 1( ) = 18 Bemerkung 1116 Determinanten können auch dazu verwandt werden, die Lösung x = A 1 b eines LGS Ax = b mit invertierbarer Matrix A K n n darzustellen: Sind a (k) die Spalten von A, so gilt x k = 1 det(a) det(a(1),, a (k 1), b, a (k+1),, a (n) ) (k = 1,, n) (Denn: Für x = (x 1,, x n ) T gilt x ν a (ν) = b ν=1 Also folgt mit D117 a) (und B11111) det(a (1),, a (k 1), b, a (k+1),, a (n) ) = = det(a (1),, a (k 1), x ν a (ν), a (k+1),, a (n) ) = = ν=1 x ν det(a (1),, a (k 1), a (ν), a (k+1),, a (n) ) = x k det(a) ) ν=1 Darüber hinaus lässt sich auch die Inverse A 1 durch Determinanten darstellen: Ist A 1 =: (a ( 1) jk ), so gilt (siehe [Ü]) a ( 1) jk = 1 det A ( 1)j+k det(s kj (A)) (j, k = 1, n)

89 12 EIGENWERTE Eigenwerte Ein wesentliches Anliegen der Linearen Algebra besteht darin, Aussagen über das Abbildungsverhalten linearer Selbstabbildungen T (d h T L(V )) zu machen Besonders einfach ist die Wirkung von T auf ein v V, wenn T v lediglich eine Streckung von v bewirkt, d h T v = λv für ein λ K gilt Dies führt auf Definition 121 Es sei V ein linearer Raum über K, und es sei T L(V )(= L(V, V )) Ein λ K heißt Eigenwert von T, falls ein v V, v 0, existiert mit T v = λv (bzw (T λi)(v) = 0), wobei I := id V Ist λ Eigenwert von T, so heißt Kern(T λi) Eigenraum (von T ) zu λ und jedes v Kern(T λi) heißt Eigenvektor (von T ) zu λ Indem wir A K n n wieder mit T L(K n ) mit T x = Ax (x K n ) identifizieren (siehe B/D89) können wir damit auch von Eigenwert von A bzw Eigenraum oder Eigenvektor von A reden Offenbar ist λ genau dann Eigenwert von A, wenn das LGS (A λe)x = 0 eine Lösung x 0 hat, also genau dann, wenn det(a λe) = 0 ist (B 1111) Beispiel Es sei A = ( ) Dann sind ±1 Eigenwerte von A (denn ( ) ( ) 1 1 A = 1 und 0 0 ( ) 0 A = 1 ( ) 0 = 1 1 ( ) 0 ) 1 2 Es sei A = ( ) Dann gilt det(a λe) = det ( λ 1 1 λ ) = λ Also: Ist K = R, so ist det(a λe) 0 für alle λ R, d h A hat keinen Eigenwert Ist andererseits K = C, so gilt det(a λe) = 0 für λ = ±i, d h λ 1,2 = ±i sind Eigenwerte von A

90 12 EIGENWERTE 90 Insbesondere zeigt das Beispiel, dass nicht jede Matrix A R 2 2 einen Eigenwert besitzt! Wir betrachten jetzt oft K = R oder K = C In diesem Fall schreiben wir K =: K wobei dann K {R, C} Satz 123 Es sei A K n n Dann ist P : K K, definiert durch P (λ) := P A (λ) := det(a λe) (λ K), ein Polynom vom Grad n (mit höchstem Koeffizient ( 1) n ) Beweis Es gilt A λe = (ã jk ) mit ã jk = Also folgt aus (2) mit gewissen α ν K det(a λe) = Da in jedem Summanden von { ajj λ, falls j = k a jk, falls j k σ S n sign(σ)ã 1,σ(1) ã n,σ(n) = = (a 11 λ) (a nn λ) + σ Sn σ id n 1 = ( 1) n λ n + sign(σ)ã 1,σ(1) ã n,σ(n) ã 1,σ(1) ã n,σ(n) α ν λ ν + ν=0 σ Sn σ id ã 1,σ(1) ã n,σ(n) Faktoren der Art (a jj λ) σ S n\{id} höchstens (n 1)-mal auftauchen, ist insgesamt mit gewissen β ν K n 1 P (λ) = det(a λe) = ( 1) n λ n + β ν λ ν ν=0 Bemerkung und Definition 124 Es sei A K n n Dann sind die Eigenwerte von A genau die Nullstellen des Polynoms P A Das Polynom P A Π n heißt charaktristisches Polynom von A Definition 125 Es seien A, B K n Dann heißen A und B ähnlich, falls eine invertierbare Matrix C K n n existiert mit Damit gilt: B = C 1 AC

91 12 EIGENWERTE 91 Satz 126 Sind A, B K n n ähnlich, so ist P A = P B Beweis Es sei C GL n (K) mit B = C 1 AC Dann gilt für λ K B λe = C 1 AC C 1 (λe)c = C 1 (A λe)c, also mit S 1112 (man beachte: det(c 1 ) det(c) = det(c 1 C) = det(e) = 1) P B (λ) = det(b λe) = det(c 1 ) det(a λe) det(c) = = det(a λe) = P A (λ) (λ K) Satz 127 (Basistransformationssatz) Es sei V ein endlich-dimensionaler linearer Raum über K, und es sei T L(V ) Ferner seien M und N Basen von V, und es seinen A bzw B die Matrizen von T bzgl M, M bzw N, N, d h A = ϕ M (T ), B = ϕ N (T ), wobei ϕ M := ϕ M,M wie in S85 Ist C = ϕ M,N (I), so gilt Insbesondere sind A und B ähnlich B = C 1 AC Beweis Zunächst gilt nach S88 E = ϕ M,M (I) = ϕ M,N (I) ϕ N,M (I) = C ϕ N,M (I) d h C 1 = ϕ N,M (I) Also gilt wieder nach S88 B = ϕ N (T ) = ϕ N,N (I T I) = ϕ N,M (I) ϕ M,M (T ) ϕ M,N (I) = C 1 AC Definition 128 Es seien V ein n-dimensionaler linearer Raum über K und T L(V ) Ist M eine Basis von V, so heißt das Polynom vom Grad n P := P T := P ϕm (T ) charakteristisches Polynom von T (Wichtig: Nach S126 und S127 ist P T unabhängig von der Wahl von M!)

92 12 EIGENWERTE 92 Satz 129 Mit den Bezeichnungen aus D 128 sind für λ K äquivalent a) λ ist Eigenwert von T, b) λ ist Eigenwert von ϕ M (T ), c) P T (λ) = 0 Beweis 1 Ist ψ M : V K n die Koordinatenabbildung bzgl M (vgl B/D68) und A := ϕ M (T ), so gilt Ax = (ψ M T ψ 1 M )x (x Kn ) (Denn: Für k = 1,, n gilt ψ M (v k ) = e k bzw ψ 1 M (e k) = v k Nach der Definition der Koordinatenmatrix A = (a jk ) gilt damit für k = 1,, n (ψ M T ψ 1 M )e k = ψ M (T v k ) = ψ M ( = a jk ψ M (v j ) = a jk v j ) = a jk e j = a 1k a nk = Ae k Da x Ax und ψ M T ψ 1 M linear auf Kn sind, folgt die Behauptung mit S81) 2 a) b): Ist T v = λv für ein v K \ {0}, so gilt für x = ψ M (v) K n \ {0} nach 1 Ax = Aψ M (v) = ψ M (T v) = ψ M (λv) = λψ M (v) = λx b) a): Ist Ax = λx für ein x 0, so gilt für v = ψ 1 M (x) V \ {0} nach 1 T v = T ψ 1 M (x) = ψ 1Ax = ψ 1(λx) = λψ 1(x) = λv, M also ist λ Eigenwert von T 3 Die Äquivalenz von b) und c) ergibt sich sofort aus D/B124 und D128 M M In B 122 hatten wir gesehen, dass für gerades n lineare Abbildungen ( auf R n i ) a 0 1 keine Eigenwerte besitzen (man setze für n = 2 etwa T x = Ax mit A = ) 1 0 Unter Verwendung des Fundamentalsatzes der Algebra bzw des Zwischenwertsatzes aus der Analysis können wir jedoch folgendes wichtige Ergebnis beweisen Satz 1210 Es sei V linearer Raum über K mit dim(v ) = n N, und es sei T L(V ) 1 Ist K = C, so hat T mindestens einen Eigenwert 2 Ist K = R, und ist n ungerade, so hat T mindestens einen Eigenwert

93 12 EIGENWERTE 93 Beweis 1 Nach dem Fundamentalsatz der Algebra gilt: Ist P Π C mit P (z) = n a n 0 (d h deg(p ) = n), so existieren z 1,, z n C mit P (z) = a n n (z z k ) (z C), k=1 ν=0 a ν z ν und d h P zerfällt in Linearfaktoren Insbesondere hat P also Nullstellen (in C) Wendet man dies auf P = P T an, so ergibt sich 1 aus S129 (man beachte, dass a n = ( 1) n 0 nach S 123) 2 Ist P = P T so ist nach S 123 P (x) = a ν x ν (x R) ν=0 mit a n = 1 (da n ungerade) Also gilt für x 0 d h es existiert ein R > 0 mit P (x) < xn 2 n 1 P (x) x n = 1 + a ν x ν n 1 (x ± ), ν=0 < 0 für x > R und P (x) > xn 2 > 0 für x < R Nach dem Zwischenwertsatz für stetige Funktionen (siehe Analysis) existiert ein λ R mit P (λ) = 0 Also ist λ nach S 129 Eigenwert von T Zum Abschluss dieses Abschnitts wollen wir eine Charakterisierung diagonalisierbarer linearer Abbildungen herleiten Dazu beweisen wir zunächst: Satz 1211 Es sei V ein linearer Raum über K, und es es T L(V ) Ferner seien λ 1,, λ m Eigenwerte von T mit λ j λ k für k j 1 Sind v 1,, v m V \ {0} zugehörige Eigenvektoren (d h T v j = λ j v j (j = 1,, m)), so sind v 1,, v m linear unabhängig 2 Die Summe der zugehörigen Eigenräume ist direkt, d h m Kern(T λ j I) = m Kern(T λ j I) (j = 1,, m) Beweis 1 Angenommen, v 1,, v m sind linear abhängig Nach dem Beweisschritt 2 zu S58 existiert k := min{j {1,, m} : v j < v 1,, v j 1 >}

94 12 EIGENWERTE 94 (mit < >= {0}), und es gilt k 2 und v 1,, v k 1 sind linear unabhängig Sind β 1,, β k 1 K so, dass so folgt k 1 v k = β j v j, k 1 k 1 T v k = T β j v j = β j λ j ν j Also ergibt sich k 1 k 1 k 1 0 = λ k v k T v k = β j λ k v j β j λ j v j = β j (λ k λ j )v j Da v 1,, v k 1 linear unabhängig sind, folgt β j (λ k λ j ) = 0 für j = 1,, k 1, also nach Voraussetzung β j = 0 für j = 1,, k 1 und damit v k = 0, im Widerspruch zur Voraussetzung 2 Wir zeigen: Die Summe ist direkt Dazu sei U j := Kern(T λ j I) (j = 1,, m) und u U j k j U k Dann gilt T (u) = λ j u und u = k j u k mit u k U k (k = 1,, m; k j) Angenommen, es ist u 0 Dann ist I = {k j : u k 0} und u j = k I u k Da T (u k ) = λ k u k für k I gilt, widerspricht dies 1 Also ist u = 0 und damit ist Summe direkt Wir wenden uns dem Problem der Diagonalisierbarkeit linearer Abbildungen zu Worum geht es dabei? Angenommen, T L(V ) ist so, dass eine Basis (v 1,, v n ) aus Eigenvektoren existiert Dann ist das Abbildungsverhalten von T sehr übersichtlich: Es gilt nämlich mit T v k = λ k v k für alle v V ( ) ) T (v) = T β k v k = β k T v k = β k λ k v k (v = β k v k k=1 λ Ist A = 0 k=1 k=1 0 0 λ n obige Eigenschaft für (v 1,, v n ) = (e 1,, e n ) (denn es gilt T (e k ) = Ae k = λ k e k für k = 1,, n) k=1 K n n, so hat T L(K n ) mit T x = Ax offenbar

95 12 EIGENWERTE 95 Definition Eine Matrix D = (d jk ) K n n heißt Diagonalmatrix, falls λ 1,, λ n K existieren mit { } λk, falls j = k d jk = = λ k δ jk, 0, falls j k d h D = λ λ λ n Wir schreiben dann D =: diag(λ 1,, λ n ) 2 Ist V ein linearer Raum über K, so heißt T L(V ) diagonalisierbar falls eine Basis von V aus Eigenvektoren existiert Ist A K n n, so heißt A diagonalisierbar, falls x Ax L(K n ) diagonalisierbar ist Es gilt dann: Satz 1213 Es sei V ein n-dimensionaler linearer Raum über K, und es sei T L(V ) Dann sind äquivalent: a) T ist diagonalisierbar b) Es existiert eine Basis M von V so, dass ϕ M (T ) eine Diagonalmatrix ist c) Es ist V = m Kern(T λ j I), wobei λ 1,, λ m die paarweise verschiedenen Eigenwerte von T sind d) Es ist dim(v ) = m dim(kern(t λ j I)), wobei λ 1,, λ m wie in c) Beweis a) b): Ist M = (v 1,, v n ) eine Basis aus Eigenvektoren von T, so existieren µ 1,, µ n K mit T v k = µ k v k (k = 1,, n) Also gilt nach Definiton von ϕ M (T ) = A = (a jk ): { } µk, falls j = k a jk = (= µ k δ jk ), 0, sonst d h ϕ M (T ) = diag(µ 1,, µ n ) b) a): Existiert eine Basis M = (v 1,, v n ) von V mit A = ϕ M (T ) = diag(µ 1,, µ n ), so gilt für k = 1,, n T (v k ) = a jk v j = µ k v k j=n

96 12 EIGENWERTE 96 (wobei A = (a jk )) Also sind v 1,, v n Eigenvektoren a) c): Nach Voraussetzung existiert eine Basis M = (v 1,, v n ) aus Eigenvektoren mit zugehörigen Eigenwerten µ 1,, µ n Also gilt für jedes v V, v = n β k v k, v = β k v k = k=1 m k:µ k =λ j β k v k m Kern(T λ j I) (Man beachte dabei: T ( β k v k ) = β k T v k = λ j β k v k, k:µ k =λ j k:µ k =λ j k:µ k =λ j d h β k v k Kern(T λ j I)) k:µ k =λ j Also ist V = m Kern(T λ j I) Nach S12112 ist die Summe direkt c) d): Ergibt sich sofort aus F 519 d) a): Es gelte dim V = m dim(kern(t λ j I)) Wir wählen Basen (v (j) 1,, v(j) d j ) von U j := Kern(T λ j I) Dann ist n = m d j, d h M := (v (1) 1,, v(1) d 1,, v (m) 1,, v (m) d m ) besteht aus n Elementen Wir zeigen: M ist linear unabhängig (dann ist M auch Basis von V nach S 515, also eine Basis aus Eigenvektoren) Es seien also α (j) k K für k = 1,, d j ; j = 1,, m mit wobei u j = muss, also d j k=1 0 = d m j k=1 α (j) k v(j) k = α (j) k v(j) k U j Aus S12112 folgt, dass u j = 0 für j = 1,, m gelten d j k=1 m u j α (j) k v(j) k = 0 (j = 1,, m) Da (v (j) 1,, v(j) d j ) für j = 1,, m linear unabhängig sind, folgt α (j) k = 0, für k = 1,, d j und j = 1,, m, d h M ist linear unabhängig k=1

97 12 EIGENWERTE 97 Bemerkung Insbesondere folgt aus S 1213 (oder auch schon aus S 1211), dass ein T L(V ) sicher dann diagonalisierbar ist, wenn n = dim(v ) paarweise verschiedene Eigenwerte existieren Dies ist jedoch nicht notwendig für die Diagonalisierbarkeit (etwa T = id K n hat nur den Eigenwert λ = 1, ist aber diagonalisierbar, denn die kanonische Basis ist eine Basis aus Eigenvektoren) 2 Notwendig für die Diagonaliserbarkeit ist natürlich, dass zumindest ein Eigenwert existiert Dies ist jedoch nicht hinreichend (Man betrachte etwa T L(R 2 ) mit T x = Ax := ( ) (x1 x 2 ) ( x = ( x1 x 2 ) R 2 ) Dann gilt ( 1 λ 1 ) P T (λ) = P A (λ) = det(a λe) = det d h λ = 1 ist einziger Eigenwert von A Es gilt 0 1 λ = (1 λ) 2, 0 = (T I)x = (A E)x = ( ) (x1 ) x 2 genau dann, wenn x 2 = 0 ist, d h Kern(T I) = Kern(A E) = R {0}, also dim(kern(t I)) = 1 < 2 = dim(v ) Nach S 1213 ist also T nicht diagonalisierbar) 3 Eine Matrix A K n n ist diagonalisierbar genau dann, wenn ein C GL n (K) und λ 1,, λ n K existieren mit C 1 AC = diag(λ 1,, λ n ) (Denn: Ist A diagonalisierbar, so existiert nach S1213 eine Basis M von K n so, dass die Matrix von x Ax bzgl M eine Diagonalmatrix ist Nach S 127 existiert dann ein C wie behauptet (man beachte dabei: A ist die Matrix von x Ax bzgl der kanonischen Basis) Existiert umgekehrt ein solches C, so ist diag(λ 1,, λ n ) die Matrix von x Ax bzgl (Ce 1,, Ce n ), denn es gilt ACe k = Cdiag(λ 1,, λ n )e k = Cλ k e k = λ k Ce k für k = 1,, n)

98 12 EIGENWERTE 98 Definition 1215 Es sei V ein endlich-dimensionaler linearer Raum über K, und es sei T L(V ) Ist λ K Eigenwert von T, so heißt dim(kern(t λ I)) geometrische Vielfachheit von λ (Nach S 1213 ist T genau dann diagonalisierbar, wenn die Summe der geometrischen Vierfachheiten aller Eigenwerte = dim(v ) ist)

99 13 SKALARPRODUKTE UND NORMEN Skalarprodukte und Normen Ist x = ( x 1 ) x 2 R 2, so ist nach dem Satz von Pythagoras bekanntlich der Abstand von 0 zu x (bzw die Länge des Vektors x) gegeben durch x := x x2 2 = x T x Entsprechend gilt für x = (x 1, x 2, x 3 ) T R 3 x = x x2 2 + x2 3 = x T x Weiterhin kann man sich überlegen, dass der Winkel α zwischen x und y in R 2 \ {0} gegeben ist durch ( x T ) y α = arccos, x y wobei man < x, y >:= x T y als Skalarprodukt von x und y bezeichnet Um Analysis oder Geometrie in allgmeineren linearen Räumen treiben zu können, brauchen wir Abstände, Normen oder Skalarprodukte in diesen Räumen Definition 131 Es sei V ein linearer Raum über K Eine Abbildung <, >: V V K heißt Skalarprodukt (auf V ) (oder inneres Produkt (auf V )), falls folgende Bedingungen gelten: (S1) < x, x > 0 für alle x V und < x, x >= 0 gilt genau dann wenn x = 0 ist, (S2) < x, y >= < y, x > für alle x, y V, (S3) x < x, y > ist linear für alle y V (d h für alle y V, x 1, x 2 V, λ 1, λ 2 K gilt < λ 1 x 1 + λ 2 x 2, y >= λ 1 < x 1, y > +λ 2 < x 2, y > ) Einen linearen Raum mit Skalarprodukt (V, <, >) nennt man unitären Raum Im Falle K = R spricht man auch von einem euklidischen Raum Bemerkung Für z C bedeutet z 0, daß z reell und nichtnegativ ist, d h auch im Falle K = C ist < x, x > stets reell (und 0) 2 in (S2) bedeutet komplexe Konjugation, d h ist z = x + iy mit x, y R, so ist z = x iy Ist K = R, so ist als (S2) als < x, y >=< y, x > (x, y V ) zu lesen 3 Aus (S2) und (S3) folgt, daß y < x, y > konjugiert-linear ist, d h für λ 1, λ 2 K und y 1, y 2 V gilt (und dies für alle x V ) < x, λ 1 y 1 + λ 2 y 2 >= λ 1 < x, y 1 > +λ 2 < x, y 2 >

100 13 SKALARPRODUKTE UND NORMEN 100 (denn: < x, λ 1 y 1 + λ 2 y 2 > = < λ 1 y 1 + λ 2 y 2, x > = = λ 1 < y 1, x > +λ 2 < y 2, x > = λ 1 < y 1, x > + λ 2 < y 2, x > = λ 2 < x, y 1 > +λ 2 < x, y 2 >) Beispiel Es sei V = K n und <, >: K n K n K definiert durch < x, y >:= x T y = x j y j (x = (x 1,, x n ) T, y = (y 1,, y n ) T K n ) (wobei y := (y 1,, y n )) Dann ist <, > ein Skalarprodukt auf K n, das auch als kanonisches Skalarprodukt bezeichnet wird ([Ü]) 2 Es sei [a, b] R ein kompaktes Intervall Wir setzen C[a, b] := C([a, b], K) := {f : [a, b] K : f stetig auf [a, b]} Dann ist C[a, b] ein Unterraum von K [a,b] = {f : [a, b] K}, also ein linearer Raum über K (In der Analysis zeigt man: Sind f, g : [a, b] K stetig und λ K, so sind auch f + g und λf stetig auf [a, b]) Wir definieren <, >: C[a, b] C[a, b] K durch < f, g >:= b a f(t)g(t)dt (f, g C[a, b]) Dann ist <, > ein Skalarprodukt auf C[a, b] (Denn: (S 2) und (S 3) ergeben sich aus bekannten Rechenregeln für Integrale ( Analysis) Da f(t)f(t) = f(t) 2 0 für alle t [a, b] ist, ist < f, f > 0 ( Analysis) Wichtig, und nicht so klar, ist, dass aus f 0 schon < f, f >> 0 folgt) Definition 134 Es sei V ein linearer Raum über K Eine Abbildung : V R heißt Norm (auf V ), falls die folgenden Bedingungen gelten: (N1) x 0 für alle x V, und es gilt x = 0 genau dann, wenn x = 0 ist, (N2) λx = λ x für alle x V, λ K, (N3) (Dreiecksungleichung) x + y x + y für alle x, y V (V, ) heißt dann ein normierter Raum Der folgende Satz zeigt, dass jedes Skalarprodukt eine Norm induziert:

101 13 SKALARPRODUKTE UND NORMEN 101 Satz 135 Es sei (V, <, >) ein unitärer Raum über K Wir setzen für x V Dann gilt: 1 Für alle x, y V ist x := < x, x > x + y 2 = x 2 + y 2 + < x, y > + < y, x > 2 (Cauchy-Schwarz sche Ungleichung) Für alle x, y V gilt < x, y > x y 3 ist eine Norm auf V, die sog induzierte Norm auf V Beweis 1 Für x, y V gilt x + y 2 = < x + y, x + y >=< x, x > + < x, y > + < y, x > + < y, y >= = x 2 + y 2 + < x, y > + < y, x > 2 Ist y = 0, so ist < x, y >=< x, 0 >= 0, also die Behauptung trivial Es sei also y 0 Für alle λ K gilt nach 1, (S1), (S 3) sowie B < x λy, x λy >= x 2 + λy 2 + < x, λy > + < λy, x > = x 2 + λλ < y, y > λ < x, y > λ < y, x > Für λ :=< x, y > / y 2 =< x, y > / < y, y > ergibt sich 0 x 2 + < x, y > < x, y >/ y 2 < x, y > < x, y > / y 2 < x, y >< y, x > / y 2 also (da < y, y >> 0) < x, y > 2 =< x, y > < x, y > =< x, y >< y, x > x 2 y 2 = ( x y ) 2 3 (N1) ergibt sich sofort aus (S1) Sind x V, λ K, so gilt λx =< λx, λx > 1/2 = (λλ < x, x >) 1/2 = λ x, also (N2) Schließlich gilt für x, y V nach 1 und 2 x + y 2 x 2 + y x y = ( x + y ) 2, also (N3)

102 13 SKALARPRODUKTE UND NORMEN 102 Beispiel Es sei V = K n und <, > das kanonische Skalarprodukt Dann ist nach S 135 x 2 := x := x T x = x j 2 (x = (x 1,, x n ) T K n ) eine Norm auf K n (im Falle K = R heißt 2 euklidische Norm) Die Cauchy- Schwarz sche Ungleichung lautet hier x j y j x j 2 y j 2 (x 1,, x n, y 1,, y n K) Weitere wichtige Normen auf K n sind x := max x j (x = (x 1,, x n ) T K n ),,n und x 1 := x j (x = (x 1,, x n ) T K n ) (das, 1 Normen auf K n sind, ergibt sich leicht aus Eigenschaften des Betrages auf K) 2 Es sei V = C[a, b] mit <, > aus B 1332 Dann ist nach S 135 b f 2 := f := f(t) 2 dt (f C[a, b]) eine Norm auf C[a, b] Weitere wichtige Normen auf C[a, b] sind a f := sup f(t) t [a,b] (f C[a, b]) und b f 1 := f(t) dt a (f C[a, b]) (das f, f 1 Normen auf C[a, b] sind folgt aus Standardergebnissen der Analysis) Bemerkung 137 Aus S 1351 ergeben sich leicht folgende Indentitäten, die in jedem unitären Raum für die induzierte Norm gelten: 1 (Parallelogrammidentität) x + y 2 + x y 2 = 2( x 2 + y 2 )

103 14 ORTHOGONALITÄT (Polarisierungsidentität) < x, y >= 1 4 ( x + y 2 x y 2 ), falls K = R 1 4 ( x + y 2 x y 2 + i x + iy 2 i x iy 2 ), falls K = C (Denn: Nach S 1351 gilt (beachte: y = y ) x + y 2 + x y 2 = 2 x y 2 + < x, y > + < y, x > + < x, y > + < y, x > und im Falle K = R = 2 x y 2 x + y 2 x y 2 = < x, y > + < y, x > < x, y > < y, x >= Im Falle K = C gilt wieder mit S 1351 = 2 < x, y > +2 < y, x >= 4 < x, y > x + y 2 x y 2 + i x + iy 2 i x iy 2 = = 2 < x, y > +2 < y, x > +2i < x, iy > +2i < iy, x > = 2 < x, y > +2 < y, x > +2 < x, y > 2 < y, x >= 4 < x, y >) Hieraus folgt, dass z B auf K n die Normen und 1 (für n 2) nicht von einem Skalarprodukt herrühren (Denn: und 2( e e 2 2 ) = 4 2 = e 1 + e e 1 e 2 2 2( e e 2 2 1) = 4 8 = e 1 + e e 1 e 2 2 1) 14 Orthogonalität Zu Beginn des Abschnittes 13 hatten wir bemerkt, dass der Winkel zwischen zwei Vektoren x, y R 2 gegeben ist durch ( x T ) y α = arccos ( [0, π]) x y (man beachte: x T y x y [ 1, 1] nach der Cauchy-Schwarz schen Ungleichung) Insbesondere gilt α = π/2 ( ˆ= 90 Grad) für x T y = 0, d h ist x T y = 0, so stehen x und y senkrecht aufeinander

104 14 ORTHOGONALITÄT 104 Definition 141 Es sei V = (V, <, >) ein unitärer Raum Ferner seien x, y V und M, N V 1 x, y heißen orthogonal (oder senkrecht zueinander), falls < x, y >= 0 ist Wir schreiben dann x y 2 x heißt orthogonal zu M (oder senkrecht stehend auf M), falls x y für alle y M Wir schreiben dann x M 3 M und N heißen orthogonal (oder senkrecht zueinander), falls x y für alle x M, y N Wir schreiben dann M N 4 Die Menge heißt orthogonales Komplement von M M := {x V : x y für alle y M} Beispiel Ist V = K n mit kanonischen Skalarprodukt, so sind die kanonischen Basisvektoren e 1,, e n paarweise orthogonal (denn < e j, e k > 2 = e T j e k = δ jk (j, k = 1,, n)) 2 Es sei V = (C[ π, π], C) Dann sind die Funktionen e ik (k Z), d h t e ikt (t [ π, π], k Z) paarweise orthogonal (Denn: Die Funktion e ik ist 2π-periodisch Also gilt für k j ( Analysis) < e ij, e ik > = = π π π π e ijt e ikt dt = e i(j k)t dt = π π e ijt e ikt dt 1 i(j k) ei(j k)t π t= π = 0 ) Enstprechend sind in V = (C[ π, π], R) die Funktionen cos(k ) sin(k ) (t [ π, π], k N 0 ) paarweise orthogonal (d h cos(k ) cos(j ), sin(k ) sin(j ) für k j und sin(k ) cos(k ) für alle k N 0 ) 3 Es sei V = R n mit kanonischem Skalarprodukt Für ein a = (a 1,, a n ) T R n \{0} sei M := M a := {λa : λ R} =< a >

105 14 ORTHOGONALITÄT 105 Dann ist M = {x R n : λa x für alle λ R n } = = {x = (x 1,, x n ) T : λ a j x j = 0 für alle λ R} = {x = (x 1,, x n ) T : a j x j = 0} = {a} =: U a mit U a aus B 432 Insbesondere ist mit obigen Bezeichnungen a U a Der folgende Satz ist eine Verallgemeinerung des klassischen Pythagoras Satz 143 (Pythagoras) Es sei V ein unitärer Raum, und es seien x, y V Sind x, y orthogonal, so gilt x + y 2 = x 2 + y 2 (wobei =<, > 1/2 die induzierte Norm) Beweis Der Beweis ergibt sich sofort aus S 1351 und < x, y >=< y, x >= 0 Bemerkung 144 Aus S 1351 folgt auch, dass x + y 2 = x 2 + y 2 genau dann gilt, wenn < x, y > + < y, x >=< x, y > +< x, y > = 2 Re < x, y >= 0 ist Also ist im Falle K = R die Bedingung x y auch notwendig Wir stellen einige Eigenschaften des orthogonalen Komplements zusammen Satz 145 Es seien M, N V, wobei V ein unitärer Raum ist Dann gilt 1 M ist ein Unterraum von V 2 M M (:= (M ) ) 3 Aus M N folgt N M 4 M =< M > 5 M M {0} 6 Ist M ein Unterraum, so ist die Summe M +M direkt, d h M +M = M M

106 14 ORTHOGONALITÄT 106 Beweis 1 Es seien x 1, x 2 M und λ 1, λ 2 K Dann gilt für alle y M < λ 1 x 1 + λ 2 x 2, y >= λ 1 < x 1, y > +λ 2 < x 2, y >= 0, d h λ 1 x 1 + λ 2 x 2 M Also ist M ein Unterraum nach S 42 2 Ist y M, so gilt für alle x M nach Definition x y Also ist wieder nach Definition y (M ) 3 Es sei M N Ist x N, so gilt x y für alle y N, also auch x y für alle y M, und damit ist x M 4 Aus 3 folgt < M > M Ist umgekehrt x M, so gilt x y für alle y M Ist z < M >, so existieren λ 1,, λ n K, y 1,, y n M mit z = gilt < z, x >= λ j < y j, x >= 0, n λ j y j Also d h x z Da z < M > beliebig war, gilt x < M > 5 Ist x M M, so gilt x y für alle y M, also insbesondere für y = x Folglich ist < x, x >= 0 und damit x = 0 nach (S1) 6 Folgt sofort aus 5 Definition 146 Es sei V = (V, <, >) ein unitärer Raum, und es sei I sowie (x α ) α I ( V I ) eine Familie von Vektoren aus V 1 (x α ) α I heißt Orthogonalsystem (OGS), falls x α x β für alle α, β I, α β 2 (x α ) α I heißt Orthnormalsystem (ONS), falls (x α ) α I ein Orthogonalsystem ist mit x α = 1 für alle α I 3 (x α ) α I heißt Orthonormalbasis (ONB), falls (x α ) α I ein Orthonormalsystem und eine Basis ist Bemerkung Ist (x α ) α I ein OGS mit x α 0 für alle α I, so ist (x α / x α ) α I ein ONS (wobei x/λ := λ 1 x für x V, λ K) { 1, α = β 2 (x α ) α I ist genau dann ein ONS, wenn < x α, x β >= δ αβ := 0, α β gilt 3 Ist (x α ) α I ein OGS, so gilt für alle endlichen J I: j J x j 2 = j J x j 2 (5) (allgemeiner Satz von Pythagoras)

107 14 ORTHOGONALITÄT 107 Beispiel 148 (vgl B 142) 1 Ist V = K n, so ist (e 1,, e n ) eine ONB in V 2 Ist V = (C[ π, π], C) so ist (e ik ) k Z ein OGS in V In V = (C[ π, π], R) ist (cos( ), sin( ), cos(2 ), sin(2 ), ) ein OGS Satz 149 Es sei V ein unitärer Raum, und es sei (x α ) α I ein OGS in V Ist x α 0 für alle α I, so ist (x α ) α I linear unabhängig Beweis Es sei J I endlich und es seien λ j K (j J) mit 0 = j J λ j x j Nach dem Satz von Pythagoras (5) ist 0 = λ j x j 2 = λ j 2 x j 2 j J j J Aus x j 2 > 0 (j J) folgt λ j 2 = 0, d h λ j = 0 für alle j J Ist (x 1,, x n ) eine Basis eines (beliebigen) linearen Raumes V, so hat bekanntlich jedes x V eine eindeutige Darstellung x = n λ j x j Ist V unitär und (x 1,, x n ) eine ONB, so lassen sich die Koeffizienten λ j dabei explizit angeben Satz 1410 Es sei V ein unitärer Raum, und es sei (x 1,, x n ) eine ONB von V Dann gilt für jedes x V x = und die sog Parseval sche Gleichung: x 2 = < x, x j > x j (6) < x, x j > 2 (7) Beweis Da (x 1,, x n ) eine Basis von V ist, existieren λ 1,, λ n K mit x = λ j x j

108 14 ORTHOGONALITÄT 108 Also folgt für k = 1,, n < x, x k > = < λ j x j, x k >= λ j < x j, x k >= = λ j δ jk = λ k Weiter gilt nach dem Satz Pythagoras (5) x 2 = < x, x j > x j 2 = < x, x j > 2 x j 2 = < x, x j > 2 In der Darstellungsformel (6) liegt einer der wesentlichen Vorteile einer ONB gegenüber einer beliebigen Basis Der folgende Satz gibt ein Verfahren an, nach dem man aus einer Basis eines unitären Raumes eine ONB konstruieren kann Satz 1411 (Schmidt sches Orthogonalisierungsverfahren) Es sei V ein (nicht notwendig endlich-dimensionaler) unitärer Raum Sind x 1,, x n linear unabhängig in V, so ist durch y 1 := x 1, k 1 y k := x k ν=1 für k = 2,, n ein OGS (y 1,, y n ) in V definiert mit < x k, y ν > y ν 2 y ν (8) span(y 1,, y k ) = span(x 1,, x k ) für k = 1,, n Beweis Wir zeigen per Induktion nach m( n): Durch (8) ist ein OGS (y 1,, y m ) definiert mit span(y 1,, y m ) = span(x 1,, x m ) m = 1: Für y 1 := x 1 gilt: (y 1 ) ist ein OGS mit span(x 1 ) = span(y 1 ) m m + 1: Nach Induktionsvoraussetzung ist durch (8) ein OGS (y 1,, y m ) definiert mit span(y 1,, y m ) = span(x 1,, x m ) Insbesondere ist y k 0 für k = 1,, m (da dim span(y 1,, y m ) = dim span(x 1,, x m ) = m) Damit können wir y m+1 := x m+1 setzen Es gilt dann für k = 1,, m m ν=1 < y m+1, y k > = < x m+1, y k > < x m+1, y ν > y ν 2 y ν m ν=1 < x m+1, y ν > y ν 2 < y ν, y k > = < x m+1, y k > < x m+1, y k >= 0,

109 14 ORTHOGONALITÄT 109 also ist, da (y 1,, y m ) ein OGS ist, auch (y 1,, y m+1 ) ein OGS Aus der Definition von y m+1 folgt x m+1 span(y 1,, y m+1 ) Da span(y 1,, y m ) = span(x 1,, x m ) gilt ist deshalb span(x 1,, x m+1 ) span(y 1,, y m+1 ) Andererseits ist nach Definition y m+1 span(x m+1, y 1,, y m ) = span(x 1,, x m+1 ), also auch span(y 1,, y m+1 ) span(x 1,, x m+1 ) Folgerung 1412 Unter den Voraussetzungen von S 1411 gilt: Ist u j := y j y j j = 1,, n, so ist (u 1,, u n ) ein ONS in V mit span(x 1,, x k ) = span(u 1,, u k ) für k = 1,, n Weiterhin gilt: Ist V n-dimensional, so ist (u 1,, u n ) eine ONB von V Insbesondere hat also jeder endlich-dimensionale unitäre Raum V {0} eine ONB Denn: Nach S 1411 ist (y 1,, y n ) ein OGS mit y k 0 für k = 1,, n, also folgt die erste Behauptung aus B 1471 Nach S1411 gilt dabei span(x 1,, x k ) = span(u 1,, u k ) für k = 1,, n Ist V endlich-dimensional mit dim(v ) = n, so ist (x 1,, x n ) eine Basis von V, also ist auch (u 1,, u n ) eine Basis von V (beachte: span(u 1, u n ) = span(x 1,, x n )) für Beispiel 1413 Es sei V = R 2, und es seien x 1 = ( ) 4 2, x2 = ( 1 3) Dann ist nach S 1411 durch ( ) 4 y 1 := x 1 = 2 und y 2 := x 2 < x 2, y 1 > y 1 2 y 1 ( ) (4)( ) 1 (1, 3) 2 4 = 3 ( ) ( ) 1 = 1 ( ) ( ) 4 1 = ein OGS in R 2 und durch ( ) ( ( ) y1 y 1, y = 5, y 2 1 ( ))

110 14 ORTHOGONALITÄT 110 eine ONB vom R 2 gegeben Mit U :=< x 1 >=< y 1 > gilt hier weiterhin und R 2 =< y 1 > + < y 2 >= U U Allgemeiner gilt: U = {y 1 } =< y 2 > Satz 1414 Es sei V ein unitärer Raum, und es sei U V ein endlich-dimensionaler Unterraum Dann gilt 1 V = U U, 2 U = U Beweis 1 Nach S 1456 genügt es, zu zeigen: V U + U O E sei U {0}, also n := dim(u) > 0 Nach F 1412 existiert eine ONB (u 1,, u n ) von U Es sei x V gegeben Wir setzen u := < x, u j > u j U Es genügt, zu zeigen: x u U (dann ist x = u + (x u) U + U ) Es gilt für k = 1,, n < x u, u k > = < x, u k > < u, u k >= = < x, u k > < x, u j >< u j, u k > = < x, u k > < x, u k >= 0 also x u {u 1,, u n } = span(u 1,, u n ) = U 2 Nach S 1452 ist U U Es sei x U Nach 1 existieren u U, v U mit Dann gilt x = u + v v = x u U + U = U Nach S1455 ist v = 0 und damit x = u U Also ist auch U U Bemerkung 1415 Die Aussage des S 1414 wird i a falsch, wenn man auf die Voraussetzung dim(u) < verzichtet Mit Hilfe des Weierstraß schen Approximationssatzes ( Analysis) kann man zeigen, daß etwa für V = C[a, b] (mit dem Skalarprodukt aus B 1332) und den Unterraum gilt: U = {0}, also U U = U V U := {P [a,b] : P Polynom}

111 15 PROJEKTIONEN Projektionen Im vorigen Abschnitt haben wir gesehen, daß für einen unitären Raum V und einen endlich- dimensionalen Unterraum U stets V = U U gilt In S 520 hatten wir gezeigt, daß für einen endlich-dimensionalen linearen Raum und einen Unterraum U stets ein Unterraum W existiert mit V = U W Wir betrachten zunächst wieder allgemeine lineare Räume Definition 151 Es sei V ein linearer Raum über K, und es seien U, W Unterräume von V so, dass V = U W gilt Dann heißt P := P U,W : V V, definiert durch P (v) := P U,W (v) := u (v V ), wobei v = u + w mit u U, w W, Projektion auf U (längs W ) Bemerkung 152 Ist P = P U,W wie in D 151, so gilt, wie man leicht sieht: 1 P L(V ) 2 Bild(P ) = U, 3 Kern(P ) = W, 4 P 2 (:= P P ) = P Umgekehrt kann man zeigen ([Ü]): Ist T L(V ) mit T = T 2, so gilt T = P Bild(T ),Kern(T ), d h T ist Projektion auf Bild(T ) längs Kern(T ) Beispiel 153 Es sei V = R 2 Dann ist ( ) 1 V =< > < 0 ( ) 1 >= U W 1 Hier ist P = P U,W gegeben durch ( x1 ) ( x1 x 2 = 0 ) ( 1 1 = 0 0 ) ( x1 ) P x 2 x 2 Definition 154 Es sei V ein unitärer Raum, und es sei U V ein Unterraum mit V = U U Dann heißt P U := P U,U orthogonale Projektion (von V ) auf U: Der folgende Satz verdeutlicht die Relevanz orthogonaler Projektionen für die Approximation in unitären Räumen

112 15 PROJEKTIONEN 112 Satz 155 (Projktionssatz) Es sei V ein unitärer Raum, und es sei U V ein Unterraum mit V = U U Dann gilt für alle x V x P U x = dist(x, U) := inf x y, y U und für alle y U, y P U x, ist x y > dist(x, U) (d h P U x ist die eindeutig bestimmte Lösung des Problems Minimiere den Abstand x y über alle y U ) Beweis Es sei x V Dann gilt x = u + w = P U (x) + w mit u U, v U, also x P U x = w U Für alle y U gilt damit nach dem Satz von Pythagoras (beachte P U x y U) x y 2 = x P U x + P U x y 2 = x P U x 2 + P U x y 2 x P U x 2, also x P U x = inf x y und für y P Ux gilt P U x y 2 > 0, also x y > y U x P U x In Verallgemeinerung von S 1410 gilt Satz 156 Es sei V ein unitärer Raum, und es sei U V ein (endlich-dimensionaler) Unterraum mit ONB (u 1,, u m ) Dann gilt für alle x V P U x = m < x, u j > u j und es gilt die sog Bessel sche Ungleichung m < x, u j > 2 x 2 Beweis Es sei x V Aus dem Beweis zu S ergibt sich, dass für gilt u := m < x, u j > u j U x u U

113 15 PROJEKTIONEN 113 Also ist x = u + (x u) mit u U und x u U Aus der Eindeutigkeit dieser Darstellung folgt u = P U x Weiter gilt < x, u j >=< u, u j > + < x u, u j >=< u, u j > (j = 1,, m) und damit nach der Parseval schen Gleichung (7) und dem Satz von Pythagoras (5) m m < x, u j > 2 = < u, u j > 2 = u 2 u 2 + x u 2 = x 2 Hiermit erhält man eine kompakte Darstellung im Schmidt schen Orthogonalisierungsverfahren: Folgerung 157 Mit den Voraussetzungen und Bezeichnungen von S 1411 gilt y k = x k P Uk 1 (x k ) (k = 2,, n), wobei U k 1 := span(x 1,, x k 1 ) = span(y 1,, y k 1 ) Denn: Nach S 1411 ist mit u ν := y ν / y ν k 1 k 1 y k = x k < x k, y ν / y ν > (y ν / y ν ) = x k < x k, u ν > u ν ν=1 ν=1 Da (u 1,, u k 1 ) eine ONB vom U k 1 ist, folgt die Darstellung aus S 156 Beispiel 158 Es sei V = (C[ π, π], C) mit dem Skalarprodukt aus B 1332 Für n N sei U n := span(e ik, k = n,, 0,, n) Dann ist ( 1 2π e ik )k= n,,n eine ONB von U n (vgl B 142) Für jedes f (C[ π, π]), C) ist mit S n (t) := P Un (f)(t) = a k = 1 2π π π = k= n k= n < f, eik 2π > eikt 2π a k e ikt f(s)e iks ds = 1 2π π π (t [ π, π]) f(s)e iks ds

114 15 PROJEKTIONEN 114 (S n heißt n-te Teilsumme der Fourier-Reihe und 156 k= S n f 2 T f 2 (T U n ) a k e ik von f) Es gilt nach S 155 und π π f(t) 2 dt = f 2 S n 2 = = k= n < f, eik 2π > 2 = 2π k= n a k 2 Bemerkung 159 Wir betrachten nochmals unter den Voraussetzungen von S 155 das Optimierungsproblem minimiere x y über y U Nach S 155 ist x := P U x die eindeutig bestimmte Lösung In S 156 haben wir gesehen, daß x sehr einfach zu bestimmen ist, wenn eine ONB von U gegeben ist Was lässt sich über die Berechnung von x sagen, wenn lediglich irgendeine Basis (u 1,, u m ) von U gegeben ist? Es gilt (siehe Beweis zu S 155 und S156): x ist charakterisiert durch also (sog Normalengleichungen) bzw x x = x P U x U, x x u j (j = 1,, m) < x, u j >=< x, u j > (j = 1,, m) Wir suchen α 1,, α m K so, daß x = m α k u k, d h Mit der Matrix < x, u j >= k=1 m α k < u k, u j > (j = 1,, m) k=1 B = (b jk ) = (< u k, u j >) K m m (B T heißt Gram sche Matrix (von (u 1,, u m )) ist also (α 1,, α m ) Lösung des LGS α 1 < x, u 1 > B = α m < x, u m >

115 15 PROJEKTIONEN 115 Aus obigen Überlegungen folgt, dass das System genau eine Lösung hat, also ist stets B invertierbar Beispiel 1510 Es sei V = R 4 (mit kanonischem Skalarprodukt), und es seien x = (3, 3, 0, 3) T sowie U = span(u 1, u 2 ), wobei u 1 := (1, 0, 1, 1) T, u 2 := (0, 2, 1, 2) T Dann gilt ( ) ( ) < u1, u 1 > < u 2, u 1 > 3 3 B = = < u 1, u 2 > < u 2, u 2 > 3 9 Also ist das LGS ( ) ( ) ( ) ( 3 3 α1 < x, u1 > 6 = = 3 9 α 2 < x, u 2 > 12 zu lösen Es gilt ( ) ( ) α1 1 =, α 2 1 also ist 1 P U x = x 2 = 1 u 1 + ( 1)u 2 = 2 3 ) Bemerkung 1511 Allgemein gilt für V = K n und linear unabhängige u 1,, u m K n mit U := span(u 1,, u m ) und A := (u 1,, u m ) (d h die u j sind die Spalten von A ) A T A = (u j T u k ) j,k = (< u k, u j >) j,k, wobei B := (b jk ) falls B = (b jk ), und u T 1 x A T x = u n T x = d h die Normalengleichungen haben hier die Form < x, u 1 > < x, u m > A T A α = A T x (x = m α k u k minimiert x y 2 = k=1 Quadrate Approximation an x) n x j y j 2 über alle y U; sog kleinste-

116 16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN Selbstadjungierte und normale Operatoren Wir betrachten im folgenden spezielle Klassen linearer Abbildungen auf unitären Räumen Soweit möglich wollen wir wieder die Fälle K = R und K = C einheitlich behandeln Vorbereitend zeigen wir Satz 161 Es sei (V, <, >) ein endlich-dimensionaler unitärer Raum Ist ϕ V = L(V, K), so existiert genau ein y V mit ϕ =<, y > (d h ϕ(x) =< x, y > für alle x V ) Also ist V = {<, y >: y V } Beweis 1 Existenz: Es sei (x 1,, x n ) eine ONB von V (existiert nach F 1412) Dann gilt für x V nach S 1410 x = < x, x j > x j, also ϕ(x) = ϕ( < x, x j > x j ) = < x, x j > ϕ(x j ) = = < x, ϕ(x j )x j >, d h mit y := n ϕ(x j )x j gilt ϕ =<, y > 2 Eindeutigkeit: Es seien y 1, y 2 V mit <, y 1 >= ϕ =<, y 2 > Dann gilt für alle x V also insbesondere 0 =< x, y 1 > < x, y 2 >=< x, y 1 y 2 >, 0 =< y 1 y 2, y 1 y 2 >= y 1 y 2 2 Damit ist y 1 = y 2 3 Nach (S3) ist <, y > V für alle y V, also gilt V = {<, y >: y V } nach 1 Damit ist folgende Definition möglich

117 16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 117 Definition 162 Es seien (V, <, >=<, > V ) und (W, <, >=<, > W ) endlichdimensionale unitäre Räume, und es sei T L(V, W ) Für w W ist <, w > T V Also existiert nach S 161 genau ein u V mit <, w > T =<, u > Wir setzen Damit gilt für alle v V, w W T w := u < T v, w >=< v, T w > Die Abbildung T : W V heißt Adjungierte von T Satz 163 Mit den Bezeichnungen aus D 162 gilt 1 T L(W, V ) 2 T := (T ) = T 3 Für µ K ist (µt ) = µt 4 Für S L(V, W ) ist (S + T ) = S + T 5 Ist (U, <, >=<, > U ) ein weiterer endlich-dimensionaler unitärer Raum und ist S L(U, V ), so ist (T S) = S T Beweis 1 Es seien w 1, w 2 W und λ 1, λ 2 K Dann gilt für alle v V < T v, λ 1 w 1 + λ 2 w 2 > = λ 1 < T v, w 1 > + λ 2 < T v, w 2 > = λ 1 < v, T w 1 > + λ 2 < v, T w 2 > = < v, λ 1 T w 1 + λ 2 T w 2 > Also erfüllt u := λ 1 T w 1 + λ 2 T w 2 die Bedingung aus D 162 für w = λ 1 w 1 + λ 2 w 2 und damit ist T (λ 1 w 1 + λ 2 w 2 ) = λ 1 T w 1 + λ 2 T w 2 2 Nach D 162 (angewandt auf T und T ) gilt für alle v V, w W also insbesondere für v V < T v, w > = < v, T w >= < T w, v > = = < w, T v > =< T v, w >, < T v T v, w >= 0 für w = T v T v Damit ist T v T v = 0, d h T v = T v (Beweis von 3, 4, 5 als [Ü])

118 16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 118 Beispiel 164 Es sei T : R 3 R 2 mit ( T (x 1, x 2, x 3 ) := (3x 2 + x 3, 2x 1 ) = Dann gilt für (y 1, y 2 ) R 2, (x 1, x 2, x 3 ) R 3 ) x 1 x 2 x 3 =: A x 1 x 2 x 3 < (x 1, x 2, x 3 ), T (y 1, y 2 ) > = < T (x 1, x 2, x 3 ), (y 1, y 2 ) > = 3x 2 y 1 + x 3 y 1 + 2x 1 y 2 = < (x 1, x 2, x 3 ), (2y 2, 3y 1, y 1 ) > d h nach Definition T (y 1, y 2 ) = (2y 2, 3y 1, y 1 ) = ( y1 y 2 ) = A T ( y1 y 2 ) Allgemeiner gilt Bemerkung und Definition 165 Es seien V, W, T wie in D 162 Weiter seien N = (v 1,, v n ) bzw M = (w 1,, w m ) ONB von V bzw W Ist A = (a jk ) = ϕ M,N (T ) die Matrix von T bzgl M, N, und setzt man A := (a kj ) k=1,,n,,,m (A = A T ist die konjungierte Transponierte von A), so ist A = ϕ N,M (T ) d h A ist die Matrix von T bzgl N, M Ist K = R, so ist dabei A = A T (Denn: Es sei B = (b kj ) k=1,,n,,,m = ϕ N,M (T ) Dann gilt für j = 1,, m; k = 1,, n a jk = m a νk < w ν, w j >=< ν=1 = < v k, T w j >=< v k, m a νk w ν, w j >=< T v k, w j > ν=1 b νj v ν >= ν=1 b νj < v k, v ν >= b kj bzw b kj = a jk Also ist B = A T = A Ist insbesondere V = W und N = M eine ONB sowie T L(V ), so gilt T = T genau dann, wenn A = A ist ν=1

119 16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 119 Definition Es sei (V, <, >) ein endlich-dimensionaler unitärer Raum Eine Abbildung T L(V ) heißt selbstadjungiert (oder hermitesch) falls T = T gilt (d h < T v 1, v 2 >=< v 1, T v 2 > für alle v 1, v 2 V ) Weiter heißt T unitär diagonalisierbar, falls eine ONB von V aus Eigenvektoren existiert 2 Eine Matrix A K n n heißt hermitesch, falls A = A gilt (d h falls x Ax L(K n ), wobei K n mit dem kanonischen Skalarprodukt versehen ist, hermitesch ist; vgl B/D 165) Im Falle K = R heißt A mit A = A = A T auch symmetrisch Satz 167 Es sei (V, <, >) ein endlich-dimensionaler unitärer Raum Ist T L(V ) selbstadjungiert, so gilt 1 T hat einen Eigenwert 2 Alle Eigenwerte von T sind reell 3 Sind λ 1, λ 2 Eigenwerte mit λ 1 λ 2 und sind v 1, v 2 zugehörige Eigenvektoren, so sind v 1, v 2 orthogonal Beweis 1 Es sei M = (v 1,, v n ) eine ONB von V (existiert nach F 1412) Ist A = ϕ M (T ), so ist A = A nach B/D 165, d h A ist hermitesch 2 Es sei λ K ein Eigenwert von T (falls existent) Ist v 0 Eigenvektor zu λ, so gilt λ < v, v >=< λv, v >=< T v, v >=< v, T v >=< v, λv >= λ < v, v > also λ = λ (da < v, v > 0), d h λ R 3 Ist K = C, so hat T einen Eigenwert nach S 1210 Es sei also K = R und es sei A = ϕ M (T ) R n n C n n Dann hat A (als Matrix in C n n ) einen Eigenwert λ (wende S 1210 auf z Az L(C n ) an) Nach 2 ist λ R, da A hermitesch ist Es existiert ein z C n \ {0} mit Az = λz Ist z = x + iy mit x, y R n, so folgt Ax + iay = A(x + iy) = Az = λz = λx + iλy, also (Vergleich von Real- und Imaginärteil, wobei man beachte, dass A und λ reell sind) Ax = λx und Ay = λy Aus z 0 folgt x 0 oder y 0 Also hat auch x Ax L(R n ) den Eigenwert λ Damit hat auch T den Eigenwert λ (S 129) und es gilt 1 4 Es seien λ 1, λ 2 Eigenwerte mit zugehörigen Eigenvektoren v 1, v 2 Dann gilt (beachte λ 2 reell) λ 1 < v 1, v 2 > = < λ 1 v 1, v 2 >=< T v 1, v 2 >=< v 1, T v 2 >= = < v 1, λ 2 v 2 >= λ 2 < v 1, v 2 >

120 16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 120 Aus λ 1 λ 2 folgt < v 1, v 2 >= 0, also v 1, v 2 orthogonal Damit können wir folgenden zentralen Satz der Linearen Algebra beweisen Satz 168 (Spektralsatz für selbstadjungierte Operatoren; Hauptachsentransformation) Es sei (V, <, >) ein endlich-dimensionaler unitärer Raum, und es sei T L(V ) selbstadjungiert Dann existiert eine ONB von V aus Eigenvektoren von T, d h T ist unitär diagonalisierbar Beweis Wir beweisen die Behauptung durch Induktion nach n = dim(v ) Für n = 1 ist die Behauptung offenbar erfüllt Es sei V ein (n+1)-dimensionaler unitärer Raum, und es sei T L(V ) selbstadjungiert Dann hat T nach S 167 einen (reellen) Eigenwert λ Es sei u ein Eigenvektor zu λ mit u = 1 und U := span(u) Wir betrachten S := T U (d h S ist die Einschränkung von T auf das orthogonale Komplement von U) Dann ist S L(U, V ) Wir zeigen: S(U ) U (also S L(U )) (Denn: Es sei v U Dann gilt also Sv = T v U ) Weiter gilt für v 1, v 2 U < u, T v >=< T u, v >=< λu, v >= λ < u, v >= 0, < Sv 1, v 2 >=< T v 1, v 2 >=< v 1, T v 2 >=< v 1, Sv 2 > also ist S selbstadjungiert Da dim(u ) = n ist, existiert nach Induktionsvoraussetzung eine ONB (u 1,, u n ) von U aus Eigenvektoren von S Dann sind u 1,, u n natürlich auch Eigenvektoren von T Also ist (u 1,, u n, u) eine ONB von V aus Eigenvektoren von T Bemerkung Unter den Voraussetzungen von S 168 seien λ 1,, λ m die paarweise verschiedenen Eigenwerte von T, und es sei (v 1,, v n ) eine ONB aus Eigenvektoren Wir setzen {v 1,, v n } = m {u (j) 1,, u(j) k j }, wobei u (j) 1,, u(j) k j die Eigenvektoren zu λ j sind (j = 1,, m) Dann ist (u (j) 1,, u(j) k j )

121 16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 121 eine ONB von U j := Kern(T λ j I) Also gilt für alle v V nach S 1410 und S 156 ( und damit Hierbei gilt m T (v) = T l=1 < v, v l > v l ) = k m j = T < v, u (j) µ > u (j) µ = = = P Uj µ=1 k m j µ=1 m λ j P Uj (v), < v, u (j) µ > T u (j) µ = T = m k j λ j µ=1 < v, u (j) µ > u (j) µ m λ j P Uj (9) = I und P Uj P Uk = δ jk P Uk (j, k = 1,, m)([ü]) Die Darstellung (9) heißt Spektralzerlegung von T 2 Ist (V, <, >) ein endlich-dimensionaler unitärer Raum, so sind für beliebiges T L(V ) die linearen Abbildungen T T und T T selbstadjungiert (denn (T T ) = T T = T T und entsprechend für T T ) 3 Im Falle K = R ist die Selbstadjungiertheit von T auch notwendig für die unitäre Diagonalisierbarkeit (Denn: Es sei T so, dass eine ONB M = (v 1,, v n ) aus Eigenvektoren von T (zu den Eigenwerten λ 1,, λ n R) existiert Dann ist A = ϕ M (T ) = diag(λ 1,, λ n ) Also ist nach D/B 165 auch (beachte λ j R) ϕ M (T ) = A = (diag(λ 1,, λ n )) = diag(λ 1,, λ n ) = A = ϕ M (T ) d h es gilt T = T ) Im Gegensatz dazu gibt es im Falle K = C weitere unitär diagonalisierbare lineare Abbildungen, wie wir im folgenden sehen werden Definition 1610 Es sei (V, <, >) ein endlich-dimensionaler unitärer Raum über K Ein T L(V ) heißt normal, falls gilt T T = T T Entsprechend heißt eine Matrix A K n n normal, falls AA = A A gilt, d h, falls x Ax L(K n ) normal ist, wobei K n mit dem kanonischen Skalarprodukt versehen ist

122 16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 122 Bemerkung 1611 Offenbar ist jede selbstadjungierte lineare Abbildung (bzw jede hermitesche Matrix) normal Die Umkehrung gilt aber nicht So ist etwa A = ( ) nicht hermitesch, aber normal, da, AA = AA T = ( ( = ) ( ) ( ) ( ) 13 0 = 0 13 ) = A T A = A A Der folgende Satz gibt eine Charakterisierung normaler Operatoren Satz 1612 Es sei (V, <, >) ein endlich-dimensionaler unitärer Raum Ein T L(V ) ist genau dann normal, wenn für alle v V gilt T v = T v Beim Beweis verwenden wir Satz 1613 Es sei (V, <, >) ein endlich-dimensionaler unitärer Raum, und es sei T L(V ) mit < T v, v >= 0 (v V ) Ist K = C, oder ist K = R und T selbstadjungiert, so ist T = 0 Beweis 1 Es sei K = C Dann gilt für u, w V < T u, w > = 1 [< T (u + w), u + w > < T (u w), u w > 4 +i < T (u + iw), u + iw > i < T (u iw), u iw >] Also ist nach Voraussetzung < T u, w >= 0, d h insbesondere < T u, T u >= 0 und damit T u = 0

123 16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN Ist K = R und T selbstdajungiert, so gilt für u, w V und damit ist < T w, u >=< w, T u >=< T u, w > < T u, w >= 1 [< T (u + w), u + w > < T (u w), u w >] 4 Nach Voraussetzung ist wieder < T u, w >= 0 also insbesondere < T u, T u >= 0 und damit T u = 0 Beweis zu Satz 1612 Es gilt mit S 1613 (man beachte, dass T T T T selbstadjungiert ist): T normal T T T T = 0 < (T T T T )v, v >= 0 (v V ) < T T v, v >=< T T v, v > (v V ) < T v, T v >=< T v, T v > (v V ) T v 2 = T v 2 (v V ) Hieraus ergibt sich Satz 1614 Es sei (V, <, >) ein endlich-dimensionaler unitärer Raum, und es sei T L(V ) normal Ist v V ein Eigenvektor zum Eigenwert λ von T, so ist v auch ein Eigenvektor zum Eigenwert λ von T Beweis Da T normal ist, ist auch T λi normal (denn Nach S 1612 gilt (T λi)(t λi) = (T λi)(t λi) = = T T λt λt + λ 2 I = T T λt λt + λ 2 I = (T λi)(t λi) = (T λi) (T λi) ) 0 = (T λi)v = (T λi) v = (T λi)v, d h v ist Eigenvektor zum Eigenwert λ Damit kommen wir zur Charakterisierung unitär diagonalisierbarer Operatoren im komplexen Fall

124 16 SELBSTADJUNGIERTE UND NORMALE OPERATOREN 124 Satz 1615 (Spektralsatz für normale komplexe Operatoren) Es sei V ein endlichdimensionaler unitärer Raum über C und es sei T L(V ) Genau dann existiert eine ONB aus Eigenvektoren von T, wenn T normal ist Beweis : Es sei M eine ONB aus Eigenvektoren von T Dann ist D = ϕ M (T ) eine Diagonalmatrix Nach B/D 165 ist D = D = ϕ M (T ) und damit gilt ϕ M (T T ) = ϕ M (T )ϕ M (T ) = DD = DD = ϕ M (T T ) Da ϕ M injektiv ist, folgt T T = T T, also ist T normal : Der Beweis verläuft vollkommen analog zum Beweis von S 168, wenn wir folgendes zeigen können: Es sei λ ein Eigenwert von T (existiert, da K = C) mit zugehörigem Eigenvektor u (mit u = 1), und es sei U := span(u) Dann ist S := T U L(U ) und S ist normal Denn: Es sei v U Dann gilt mit S 1614 < Sv, u >=< T v, u >=< v, T u >=< v, λu >= λ < v, u >= 0, also ist Sv U, d h S(U ) U und damit S L(U ) Wieder sei v U Dann gilt entsprechend also T v U, d h T (U ) U Nun seien v 1, v 2 U Dann ist < u, T v >=< T u, v >= λ < u, v >= 0, < Sv 1, v 2 >=< T v 1, v 2 >=< v 1, T v 2 > Da T v 2 U gilt, ist T v 2 = S v 2 nach Definition von S, d h S = T U Also folgt S S = (T U ) (T U ) = (T U ) (T U ) = S S, d h S ist normal Beispiel 1616 Es sei A = ( ) (vgl B 1611) Dann ist ( 2 λ 3 P (λ) = det(a λe) = 3 2 λ ) = (2 λ) = 0

125 17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 125 für λ 1,2 = 2 ± 3i Man berechnet, dass und ist Es gilt also ist (i, 1) T Eigenvektor zu λ 1 = 2 + 3i ( i, 1) T Eigenvektor zu λ 2 = 2 3i (i, 1) ( i 1 ) = i( i) + 1 = 0, ( 1 2 (i, 1) T, 1 2 ( i, 1) T ) eine ONB aus Eigenvektoren in C 2 Bemerkung 1617 Wie in B 169 sieht man: Ist K = C, und ist T L(V ) normal, so gilt nach S 1615 T = m λ j P Uj, wobei λ 1,, λ m die paarweise verschiedenen Eigenwerte von T und U j := Kern(T λ j I) (j = 1,, m), die zugehörigen Eigenräume sind Wieder gilt wie in B 169 dabei: m P Uj = I und P Uj P Uk = δ jk P Uj Man beachte, dass hierbei (im Gegensatz zur Situation in B 169) die λ j i a nicht-reell sind 17 Unitäre Operatoren und QR-Zerlegung Wir betrachten jetzt eine weitere wichtige Klasse linearer Abbildungen auf unitären Räumen Definition 171 Es sei (V, <, >) ein unitärer Raum Ein T L(V ) heißt unitär (oder isometrisch oder Isometrie), falls gilt T v = v für alle v V Im Falle K = R heißt T dann auch orthogonal Eine Matrix A K n n heißt unitär (bzw orthogonal für K = R), falls x Ax L(K n ) (mit kanonischem Skalarprodukt) unitär ist

126 17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 126 Beispiel Es sei (v 1,, v n ) eine ONB von V, und es seien λ 1,, λ n K mit λ j = 1 für j = 1,, n Dann ist T L(V ) mit T (v k ) = λ k v k (k = 1,, n), d h T (v) = T < v, v j > v j = < v, v j > λ j v j (v V ), unitär (Denn: Für v V gilt nach (7) T v 2 = < v, v j > λ j 2 = < v, v j > 2 = v 2 ) Insbesondere ist A = diag(λ 1,, λ n ) K n n mit λ j = 1 für j = 1,, n unitär 2 (Spiegelungen) Es sei a V mit a = 1 Wir betrachten S = S a : V V mit S a (v) := v 2 < v, a > a (v V ) Dann gilt 1 S a (a) = a, S a (b) = b für alle b < a >, 2 S 2 a = S a S a = I, 3 S a v = v für alle v V (d h S a ist unitär) (Denn: Es gilt V =< a > < a > nach S 1414, d h jedes v V hat genau eine Darstellung Daraus folgt v = λa + b mit λ K, b a S a (v) = λa + b 2 < λa + b, a > a = = λa + b 2λ < a, a > a 2λ < b, a > a = λa + b }{{}}{{} =1 =0 (d h S a ist Spiegelung an < a > ) Hieraus ergeben sich sofort 1 und 2 Außerdem gilt mit dem Satz von Pythagoras: S a (v) 2 = λa + b 2 = λ 2 a 2 + b 2 = λ 2 a 2 + b 2 = v 2 Also ist S a unitär) Im Falle V = K n ist (da aa T x = a(a T x) = a T x a = x T a a) Q a := E 2aa T = E 2aa die Matrix von S a bzgl der kanonischen Basis; Q a ist also unitär Außerdem ist Q a auch hermitesch, denn Q a = (E 2aa ) = E 2(aa ) = = E 2a a = E 2aa = Q a

127 17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 127 Matrizen der Form Q a heißen Householder-Matrizen Wir stellen im folgenden Satz verschiedene Charakterisierungen unitärer Abbildungen zusammen Satz 173 Es sei (V, <, >) ein endlich-dimensionaler unitärer Raum, und es sei T L(V ) Dann sind folgende Aussagen äquivalent a) T ist unitär, b) < T v 1, T v 2 >=< v 1, v 2 > für alle v 1, v 2 V, c) T T = I, d) Ist (v 1,, v n ) eine ONB von V, so ist (T v 1,, T v n ) eine ONB von V, e) Es existiert eine ONB (v 1,, v n ) von V so, dass (T v 1,, T v n ) eine ONB von V ist, f) T ist bijektiv mit T 1 = T, g) T ist unitär Beweis 1 a) b): Ist K = R, so folgt aus der Polarisierungsidentität (B 137) < T v 1, T v 2 > = 1 4 ( T v 1 + T v 2 2 T v 1 T v 2 2 ) = = 1 4 ( T (v 1 + v 2 ) 2 T (v 1 v 2 ) 2 ) = = 1 4 ( v 1 + v 2 2 v 1 v 2 2 ) =< v 1, v 2 > Eine entsprechende Rechnung liefert die Behauptung im Fall K = C 2 b) c): Für alle v 1, v 2 V gilt (nach Definition von T ) < ((T T ) I)v 1, v 2 > = < (T T )v 1, v 2 > < v 1, v 2 >= = < T v 1, T v 2 > < v 1, v 2 >= 0, also insbesondere für v 2 = (T T I)v 1 Hieraus folgt (T T I)v 1 2 = 0, d h (T T I)v 1 = v 1 bzw T T = I 3 c) d): Es sei (v 1,, v n ) eine ONB von V Dann gilt für j, k {1,, n} 4 d) e) ist klar (F 1412) < T v j, T v k >=< v j, (T T )v k >=< v j, v k >= δ jk

128 17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG e) a): Es sei (v 1,, v n ) eine ONB von V so, dass (T v 1,, T v n ) ebenfalls eine ONB ist Für v V gilt dann mit Pythagoras und (7) T v 2 = T ( = < v, v j > v j ) 2 = < v, v j > 2 = v 2 < v, v j > T v j 2 Damit sind a) bis e) äquivalent 6 c) f): Ist T T = I, so ist T injektiv, also auch bijektiv nach S 75 Außerdem ist T 1 = T Umgekehrt folgt aus f) natürlich auch c) 7 f) g): Es gilt T 1 = T genau dann, wenn (T ) 1 = T (= T ) gilt Also folgt aus der (bewiesenen) Äquivalenz von a) und f) auch die Äquivalenz von f) und g) Folgerung Nach S 173 ist jede unitäre lineare Abbildung auf (einem endlichdimensionalen unitären Raum) V auch normal (denn: T T = I = (T ) T = T T ) Also folgt aus S 1615, dass im Falle K = C eine ONB aus Eigenvektoren existiert (d h T ist unitär diagonalisierbar) Außerdem folgt aus der Definition sofort, dass alle Eigenwerte den Betrag 1 haben 2 Es sei C K n n, und es seinen c (k) = Ce k für k = 1,, n die Spalten von C Dann ist C genau dann unitär, wenn (c (1),, c (n) ) eine ONB von K n ist Weiter ist dies genau dann der Fall, wenn C invertierbar ist mit C 1 = C (Denn: Die Behauptungen ergeben sich durch Anwendung von S173 unter Beachtung, dass (e 1,, e n ) eine ONB von K n mit dem kanonischen Skalarprodukt ist) Im Fall K = R ist nicht jede orthogonale lineare Abbildung diagonalisierbar, wie das folgende Beispiel zeigt Beispiel 175 Für α (0, π) sei ( cos α sin α A = A α = sin α cos α ) R 2 2 (A beschreibt die Drehung um den Winkel α um 0 in R 2 ) Dann gilt ( ) ( ) cos α sin α Ae 1 =, Ae 2 = sin α cos α Also ist < Ae 1, Ae 2 >= cos α sin α + cos α sin α = 0

129 17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 129 und Ae 1 2 = cos 2 α + sin 2 α = 1 = Ae 2 2, d h (Ae 1, Ae 2 ) ist eine ONB von R 2 Nach F 1742 ist A orthogonal Es gilt P (λ) = det(a λe) = (cos α λ) 2 + sin 2 α = 1 2λ cos α + λ λ 2 2 λ cos α > 1 + λ 2 2 λ = (1 λ ) 2 0, d h P (λ) > 0 für alle λ R Also hat A keine (reellen) Eigenwerte und ist damit insbesondere nicht diagonalisierbar Folgerung 176 Es sei A K n n symmetrisch (im Falle K = R) oder normal (im Falle K = C) Dann existiert nach S 168 bzw S 1615 (Spektralsätze) eine ONB (v 1,, v n ) von K n aus Eigenvektoren (zu den Eigenwerten λ 1,, λ n ) von A Ist C K n n die Matrix mit den Spalten v 1,, v n, d h C = (Ce 1,, Ce n ) = (v 1,, v n ), so ist A = C diag(λ 1,, λ n ) C 1 (vgl B 12143) Nach F 1742 ist C unitär (bzw orthogonal im Falle K = R), d h Damit gilt im Falle K = R C 1 = C (= C T für K = R) A = C diag(λ 1,, λ n ) C T (dies wird auch als Hauptachsentransformation einer symmetrischen Matrix bezeichnet) und im Falle K = C A = C diag(λ 1,, λ n ) C (mit reellen λ n,, λ n im Falle einer hermiteschen Matrix A) Im Abschnitt 10 haben wir gesehen, wie man die LR-Zerlegung bestimmter invertierbarer Matrizen berechnen kann Wir werden jetzt eine andere Zerlegung kennenlernen, die auf unitären Transformationen beruht Wesentlicher Vorteil dieser Zerlegung ist die größere numerische Stabilität Wir werden zunächst noch einmal näher auf Householder-Matrizen eingehen

130 17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 130 Satz 177 Es sei x = (x 1,, x n ) T K n Dann existiert ein a K mit Q a x < e 1 >, d h Q a x = λe 1 für ein λ K, wobei e 1 = (1, 0,, 0) T Beweis Zunächst gilt: Ist y = Q a x, so ist (beachte: Q a = Q a) < y, x >=< Q a x, x >=< x, Q ax >=< x, Q a x >= < Q a x, x >, also < y, x > R Wir versuchen, a durch die Forderung Q a x = λe 1 zu bestimmen Aus Q a x = x folgt zunächst λ = x Da λx 1 =< λe 1, x > reell sein muss, ist λ = ±e iα x wobei α := arg(x 1 ) (d h x 1 = e iα x 1 ) im Falle x 1 0 (Weiter setzen wir α := 0 falls x 1 = 0) Aus und a = 1 folgt x 2 < x, a > a = λe 1 a = x λe 1 x λe 1 falls x < e 1 >; im Falle x < e 1 > wählen wir a = e 1 Weiter folgt mit x 1 = e iα x 1 x λe 1 2 = x x e iα e 1 2 = x 1 x e iα 2 + = ( x 1 x ) 2 + x j 2 j=2 x j 2 Wir wählen das Vorzeichen + (dann ist jedenfalls x + x 1 > 0, wobei o E x 0 vorausgesetzt wird), d h λ = x e iα Dann gilt also ( x 1 + x ) 2 = x x x 1 + x 2, x λe 1 2 = 2 x x x 1 j=2 Folglich ist a = 1 (2 x x x 1 ) 1/2 (x + x eiα e 1 ) (Dies gilt auch im Falle x < e 1 > \{0}; für x = 0 wähle man etwa a = e 1 ) Umgekehrt sieht man, dass mit diesem a die Behauptung gilt ([Ü]) Hiermit lässt sich zeigen

131 17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 131 Satz 178 Es sei A K n n Dann existieren eine unitäre Matrix Q K n n und eine obere Dreiecksmatrix R K n n mit A = Q R (eine solche Zerlegung von A heißt QR-Zerlegung) Beweis Wir konstruieren (n 1) unitäre und hermitesche Matrizen Q 1,, Q n 1 (die i w aus Householder-Matrizen zusammengesetzt sind) so, dass Q n 1 Q 1 A = R mit einer oberen Dreiecksmatrix R Dann gilt mit der unitären Matrix Q := (Q n 1 Q 1 ) 1 = Q 1 1 Q 1 n 1 = Q 1 Q n 1 = Q 1 Q n 1 die Behauptung Wir setzen A = A 0 := (a (1) 0,, a(n) 0 ), d h a(k) sind die Spalten von A Es sei Q 1 eine Householder-Matrix so, dass für ein r 1 K Q 1 a (1) 0 = r 1 e 1 (existiert nach S 177) Dann gilt für A 1 := Q 1 A r 1 0 A 1 = Ã 1 0 mit Ã1 K (n 1) (n 1) Nun beachten wir Ã1 =: (a (1) 1,, a(n 1) 1 ) und wählen Q 2 K (n 1) (n 1) gemäß S 177 so, dass Q 2 a (1) 1 = r 2 e 1 für ein r 2 K Für die unitäre und hermitesche Matrix Q 2 := K n n Q2 0 gilt dann r 1 0 r 2 A 2 := Q 2 A 1 = Q 2 Q 1 A = 0 Ã 2 0 0

132 17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 132 mit Ã2 K (n 2) (n 2) So fortfahrend erhalten wir im j-ten Schritt eine unitäre und hermitesche Matrix Q j der Form Q j = [ Ej Qj wobei Qj K (n j+1) (n j+1) eine Householder-Matrix ist, und die r 1 0 A j = Q j A j 1 = r j 0 Ã j 0 0 ], erfüllt Nach (n 1) Schritten ist schließlich r 1 0 R := A n 1 = Q n 1 A n 2 = = Q n 1 Q 1 A 0 0 r n wie behauptet Bemerkung Das im Beweis zu S 178 dargestellte Verfahren zur Berechnung einer QR-Zerlegung heißt Householder-Verfahren Es gibt ein alternatives Verfahren, das auf dem Schmidtschen Orthogonalisierungsverfahren beruht 2 Man kann zeigen, dass zu jeder invertierbaren Matrix A eine QR-Zerlegung existiert mit r jj > 0 für alle j, wobei R = (r jk ) Mit dieser Normierung ist die Zerlegung dann eindeutig ([Ü]) Man spricht dann auch von der QR-Zerlegung von A 3 Hat man für eine invertierbare Matrix A K n n eine QR-Zerlegung bzw nur die Matrizen Q 1,, Q n 1 und R bestimmt, so ist die Lösung A 1 b von Ax = b für b K n leicht zu berechnen durch Rx = y und Qy = b Dabei ist y sofort gegeben durch y = Q 1 b = Q n 1 Q 1 b und Rx = y kann wie in B 108 gelöst werden Der wesentliche Vorteil gegenüber der LR-Zerlegung (die nur etwa die Hälfte des Rechenaufwandes erfordert) liegt in der größeren numerischen Stabilität ( Numerik)

133 17 UNITÄRE OPERATOREN UND QR-ZERLEGUNG 133 Beispiel 1710 Es sei A = Dann gilt (siehe Beweis zu S 177 und S 178): Q 1 = E 2a 1 a T 1 und a 1 = , d h Q 1 = 3/5 0 4/ /5 0 3/5 Also ist Hieraus folgt mit Ã1 = A 1 = Q 1 A = ( ) Q 2 = E 2a 2 a T 2 wobei a 2 = 1 80 ( 8 4 ), d h Q 2 = ( 3/5 4/5 4/5 3/5 ) bzw Also ist Q 2 = R = A 2 = Q 2 A 1 = /5 4/5 0 4/5 3/ = Q 2Q 1 A

134 18 DEFINITE OPERATOREN 134 Schließlich gilt 18 Definite Operatoren Q = (Q 2 Q 1 ) 1 = Q 1 1 Q 1 2 = Q 1Q 2 = Q 1 Q 2 = Es sei V ein endlich-dimensionaler unitärer Raum über K, und es sei T L(V ) selbstadjungiert Dann gilt für alle v V d h < T v, v > R < T v, v >=< v, T v >=< v, T v >= < T v, v >, Definition 181 Es sei V ein endlich-dimensionaler unitärer Raum, und es sei T L(V ) selbstadjungiert Dann heißt T 1 positiv semidefinit, falls < T v, v > 0 für alle v V 2 positiv definit, falls < T v, v > > 0 für alle v V \ {0} 3 negativ (semi-)definit, falls T positiv (semi-)definit ist, 4 indefinit, falls T weder positiv noch negativ semidefinit ist Wie üblich heißt eine Matrix A K n n positiv (negativ) (semi-)definit bzw indefinit, falls das Entsprechende für x Ax L(K n ) (mit kanonischem Skalarprodukt) gilt Ferner heißt q = q A : K n K mit quadratische Form (von A) q(x) = q A (x) = x Ax =< Ax, x > (x K n ) Bemerkung 182 Ist A K n n beliebig, so ist A A K n n positiv semidefinit (denn < A Ax, x >=< Ax, Ax > 0) Weiter ist A A positiv definit, wenn < Ax, Ax >> 0 für alle x K n \ {0}, also genau dann, wenn A invertierbar ist (warum?) Eine wesentliche Verallgemeinerung dieses Sachverhaltes liefert Satz 183 Es sei (V, <, >) ein endlich-dimensionaler unitärer Raum, und es sei T L(V ) Dann sind äquivalent: a) T ist positiv semidefinit, b) T ist selbstadjungiert und alle Eigenwerte sind 0, c) es existiert ein positiv semidefinites S L(V ) mit S 2 = T, d) es existiert ein selbstadjungiertes S L(V ) mit S 2 = T, e) es existiert ein S L(V ) mit S S = T

135 18 DEFINITE OPERATOREN 135 Beweis a) b): Nach Definition ist T selbstadjungiert Weiter gilt: Ist λ ein Eigenwert von T und v 0 ein zugehöriger Eigenvektor, so gilt 0 < T v, v >=< λv, v >= λ < v, v >, also λ 0 (da (v, v) > 0) b) c): Nach dem Spektralsatz (S 168) existiert eine ONB (v 1,, v n ) aus Eigenvektoren zu den Eigenwerten λ 1,, λ n [0, ) Wir definieren S L(V ) durch d h S(v) = S( n < Sv, v >= S(v k ) := λ k v k (k = 1,, n) < v, v j > v j ) = n λj < v, v j > v j Dann gilt λj < v, v j >< v j, v >= λj < v, v j > 2 0 und < v, Sv > = < v, λj < v, v j > v j >= λj < v, v j > < v, v j >= = λj < v, v j > 2 (=< Sv, v >) Also ist S positiv semidefinit Aus S 2 (v k ) = λ k λk v k = T v k für k = 1,, n folgt S = T 2 c) d) und d) e) sind klar e) a): Es sei S L(V ) mit S S = T Dann ist T = T und es gilt für alle v V < T v, v >=< (S S)v, v >=< Sv, Sv > 0 Also ist T positiv semidefinit Bemerkung 184 Es sei V ein endlich-dimensionaler unitärer Raum, und es sei T L(V ) 1 Wie im Beweis zu S 183 sieht man, dass ein T genau dann positiv definit ist, wenn T selbstadjungiert ist mit durchweg positiven Eigenwerten (Denn: Ist T positiv definit, so gilt λ > 0 im Beweisschritt a) b) Ist umgekehrt T selbstadjungiert mit positiven Eigenwerten λ 1,, λ n, so ist < T v, v >= λ j < v, v j >< v j, v >= für v 0, da < v, v j > 0 für mindestens ein j) λ j < v, v j > 2 > 0

136 18 DEFINITE OPERATOREN 136 Entsprechende Aussagen gelten für negativ definit Außerdem ist ein selbstadjungiertes T L(V ) genau dann indefinit, wenn sowohl positive als auch negative Eigenwerte existieren 2 Im Allgemeinen existieren viele selbstadjungierte S L(V ) mit S 2 = T : Ist etwa A = E in K 2 2, so gilt für alle ϑ R E = Q 2 ϑ mit ( cos ϑ sin ϑ ) Q ϑ := sin ϑ cos ϑ (Q ϑ ist Spiegelung an der Gerade G ϑ mit Winkel ϑ/2 zur x 1 -Achse) Man kann jedoch zeigen, dass nur ein positiv semidefinites S L(V ), nämlich das aus dem Beweis zu S 183, mit S 2 = T existiert (auf den Beweis wollen wir verzichten) Man schreibt dann auch für dieses S S := T Insbesondere zeigt S 183, dass jede positiv definite Matrix A K n n eine Darstellung A = B B mit (in diesem Fall invertierbarer) Matrix B K n n hat Der folgende Satz zeigt, dass B sogar als Dreiecksmatrix gewählt werden kann Satz 185 E sei A K n n Genau dann ist A positiv definit, wenn eine obere Dreiecksmatrix R = (r jk ) K n n existiert mit und r jj 0 für j = 1,, n A = R R Beweis 1 Es sei A positiv definit Dann existieren nach S 183 eine (positiv semidefinite) Matrix B mit B B = A Da A positiv definit ist, ist B invertierbar (0 kann kein Eigenwert von B sein) Nach S 178 existieren eine unitäre Matrix Q und eine obere Dreiecksmatrix R = (r jk ) mit B = QR Dabei ist det(r) 0 und deshalb r jj 0 (j = 1,, n) Es gilt A = B B = (QR) (QR) = R Q QR = R R 2 Ist A = R R, so ist A positiv semidefinit nach B 182 Da r jj 0 für j = 1,, n d h det(r) 0 ist, ist R invertierbar Also ist A positiv definit nach B 182

137 18 DEFINITE OPERATOREN 137 Bemerkung 186 In der Situation von S 185 kann R so gewählt werden, dass r jj > 0 für alle j {1,, n} Mit dieser Normierung ist R dann eindeutig bestimmt und die Zerlegung A = R R heißt Cholesky-Zerlegung von A (Denn: 1 Existenz: Nach S 185 existiert eine (invertierbare) obere Dreiecksmatrix R = (r jk ) mit r jj 0 und A = R R Es sei D = diag(e iα 1,, e iαn ), wobei α j = arg(r jj ) (d h r jj = r jj e iα j ) Dann gilt DD = diag(e iα 1 e iα 1,, e iαn e iαn ) = E und R = DR = r r nn, d h R ist eine obere Dreiecksmatrix mit positivem Diagonalelementen Außerdem gilt R R = (DR) DR = R DDR = R R = A 2 Eindeutigkeit: Es seien R und S obere Dreiecksmatrizen mit r jj > 0 und s jj > 0 für j = 1,, n sowie R R = A = S S Dann sind R 1 und S 1 (und damit auch RS 1 sowie SR 1 ) obere Dreiecksmatrizen Aus R R = S S folgt SR 1 = (S ) 1 R = (S 1 ) R = (RS 1 ), d h SR 1 = D = diag(λ 1,, λ n ) Also ist S = DR und damit R R = (DR) DR = R DDR Hieraus folgt E = DD = diag( λ 1 2,, λ n 2 ), d h λ j = 1 für j = 1,, n Außerdem folgt aus S = DR, dass s jj = λ j r jj für j = 1,, n gilt, also λ j = s jj /r jj > 0 Damit ist λ j = 1 für j = 1,, n, d h D = E und damit S = R) Bemerkung und Definition 187 Es seien V bzw W endlich-dimensionale unitäre Räume (über dem gemeinsamen Körper K), und es sei T L(V, W ) beliebig Dann ist T T L(V ) positiv semidefinit Sind µ 1,, µ n die Eigenwerte von T T, so gilt µ j 0 für j = 1,, n Die Zahlen λ j := µ j (j = 1,, n) (oder auch nur die positiven dieser Zahlen) heißen dann Singulärwerte von T Wie üblich sind die Singulärwerte von A K m n definiert als die Singulärwerte von x Ax L(K n, K m ) (mit kanonischem Skalarprodukt) Damit gilt

138 18 DEFINITE OPERATOREN 138 Satz 188 (Singulärwertzerlegung) Es seien V, W endlich-dimensionale unitäre Räume über K, und es sei T L(V, W ) Ferner seinen λ 1,, λ r die positiven Singulärwerte von T Dann existieren eine ONB N = (v 1,, v n ) von V und eine ONB M = (w 1,, w m ) von W so, dass mit ϕ M,N (T ) = D = (d jk ) K m n d jk := { λk, falls j = k, k = 1,, r 0, sonst Beweis Da T T positiv semidefinit ist, existiert nach S 168 eine ONB N = (v 1,, v n ) von V aus Eigenvektoren von T T zu den Eigenwerten µ 1,, µ n 0 von T T O E sei T 0 Dann ist auch T T 0 (Denn: Ist T T = 0, so ist < T v k, T v k >=< v k, T T v k >= 0, d h T v k = 0 für k = 1,, n und damit T = 0) Weiter sei o E r {1,, n} so, dass µ 1,, µ r > 0 und µ r+1,, µ n = 0 Dann gilt für j, k = 1,, n < T v j, T v k >=< v j, T T v k >= µ k < v j, v k >= µ k δ jk, d h w 1 = 1 µ1 T v 1,, w r = 1 µr T v r ist ein ONS in W (und r m) Nach dem dem Schmidt schen Orthogonalisierungsverfahren und dem Basisergänzungssatz läßt sich w 1,, w r zu einer ONB M = (w 1,, w m ) von W fortsetzen Dann gilt für D = (d jk ) = ϕ M,N (T ) nach S 1410 m m d jk w j = T v k = < T v k, w j > w j, d h d jk =< T v k, w j > Für j r (und k n) ist ( ) vj d jk =< T v k, w j >=< T v k, T >= 1 < T v k, T v j >= µ j δ jk = µ k δ jk µj µj Weiter gilt für j > r, k r d jk =< T v k, w j >= µ k < 1 µk T v k, w j >= µ k < w k, w j >= 0 und für j > r, k > r ist T T v k = 0, also 0 =< v k, T T v k >=< T v k, T v k >, d h T v k = 0 und damit d jk =< T v k, w j >= 0 Insgesamt ist ϕ M,N (T ) = (d jk ) mit d jk := { λk, falls j = k, k = 1,, r 0, sonst

139 18 DEFINITE OPERATOREN 139 Bemerkung 189 Insbesondere ergibt sich aud S 188, dass für jede Matrix A K m n unitäre Matrizen B K m m und C K n n existieren mit A = BDC, wobei D = (d jk ) wie in S188 und λ 1,, λ r die positiven Singulärwerte von A sind Eine solche Zerlegung nennt man auch Singulärwertzerlegung von A (Denn: Für C = (v 1,, v n ) = (Ce 1,, Ce n ) und B = (w 1,, w m ) = (Be 1,, Be n ) gilt nach S 188 für k = 1,, n ACe k = Av k = { λk w k, falls k r 0, falls k > r } = { Bλk e k, falls k r B0, falls k > r Also ist AC = BD und damit, da C unitär ist, A = BDC 1 = BDC ) } = BDe k

140 19 TRIANGULIERBARKEIT UND DER SATZ VON CAYLEY-HAMILTON Triangulierbarkeit und der Satz von Cayley-Hamilton Wir betrachten im folgenden wieder allgemeine lineare Räume V über K allerdings meist über K = K Zunächst wollen wir untersuchen, welche T L(V ) triangulierbar sind, d h für eine geeignete Basis M ist die Matrix von V bzgl M eine Dreiecksmatrix Definition 191 Es sei V ein linearer Raum über K, und es sei T L(V ) Ein Unterraum U von V heißt invariant (unter T ), falls T u U für alle u U (d h T (U) U) Damit gilt Satz 192 Es sei V ein endlich-dimensionaler linearer Raum über K und M = (v 1,, v n ) eine Basis von V Ferner sei T L(V ) Dann sind äquivalent a) ϕ M (T ) ist eine obere Dreiecksmatrix, b) T v k < v 1,, v k > für jedes k {1,, n}, c) < v 1,, v k > ist invariant unter T für jedes k {1,, n} Beweis 1 Die Äquivalenz von a) und b) ergibt sich direkt aus der Definition von ϕ M (T ) ([Ü]) 2 c) b) ist klar Bleibt also noch b) c) zu zeigen Es sei k {1,, n} Nach b) ist also auch und damit T v 1 < v 1 > < v 1,, v k >,, T v k < v 1,, v k > < T v 1,, T v k > < v 1,, v k > (k = 1,, n) T (< v 1,, v k >) < v 1,, v k > (k = 1,, n) Definition 193 Es sei V ein endlich-dimensionaler linearer Raum über K, und es sei T L(V ) T heißt triangulierbar, falls eine Basis M von V so existiert, dass ϕ M (T ) eine obere Dreiecksmatrix ist Eine Matrix A K n n heißt triangulierbar, falls x Ax L(K n ) triangulierbar ist

141 19 TRIANGULIERBARKEIT UND DER SATZ VON CAYLEY-HAMILTON 141 Satz 194 Es sei V ein n-dimensionaler linearer Raum über K, und es sei T L(V ) Dann ist T genau dann triangulierbar, wenn P T in Linearfaktoren zerfällt (d h P T (λ) = n (λ j λ) für gewisse λ 1,, λ n K) Insbesondere ist im Falle K = C jedes T L(V ) triangulierbar Beweis 1 Ist T triangulierbar, d h existiert eine Basis M von V so, dass ϕ M (T ) = (r jk ) eine obere Dreiecksmatrix ist, so ist auch ϕ M (T ) λe obere Dreiecksmatrix, und es gilt P T (λ) = P ϕm (T )(λ) = n (r jj λ) =: n (λ j λ) mit r jj =: λ j 2 Wir zeigen die Rückrichtung per Induktion nach n = dim(v ) Für n = 1 ist nichts zu zeigen Es sei dim(v ) = n und T L(V ) mit P T (λ) = n (λ j λ) (λ K) Dann sind λ 1,, λ n Eigenwerte von T (S 129) Es sei v 1 0 ein Eigenvektor zu λ 1, und es sei U :=< v 1 > Wir wählen eine Unterraum W von V so, dass U W = V (S 520) und setzen S := P W,U T W : W W Dann ist S L(W ) (vgl B 152) Wir zeigen: P S (λ) = n (λ j λ) j=2 (Denn: Es sei N = (v 2,, v n ) eine Basis von W Dann ist (v 1,, v n ) =: M eine Basis von V und es gilt (da T v 1 = λ 1 v 1 ) λ 1 0 A = (a jk ) := ϕ M (T ) = B 0 mit B K (n 1) (n 1) Für k = 2,, n gilt Sv k = P W,U (T v k ) = P W,U a jk v j = = a jk P W,U v j = a jk v j, j=2

142 19 TRIANGULIERBARKEIT UND DER SATZ VON CAYLEY-HAMILTON 142 d h es ist B = ϕ N (S) Damit gilt (Entwicklung nach 1 Spalte) und deshalb P T (λ) = det(a λe) = (λ 1 λ) det(b λe) = (λ 1 λ)p S (λ) P S (λ) = n (λ j λ) (λ K)) j=2 Nach Induktionsvoraussetzung (beachte dim(w ) = n 1) können wir deshalb N so wählen, dass B = ϕ N (S) eine obere Dreiecksmatrix ist Dann ist auch A = ϕ M (T ) eine obere Dreiecksmatrix 3 Ist K = C, so zerfällt P T nach dem Fundamentalsatz der Algebra stets in Linearfaktoren, also ist jedes T L(V ) triangulierbar Definition 195 Es seien V ein linearer Raum über K, und es seien T, T 1,, T k L(V ) 1 Wir setzen k T ν := T 1 T k sowie T k := k T für k N und T 0 := I ν=1 ν=1 Entsprechend setzen wir für A, A 1,, A k K n n auch k A für k N sowie A 0 := E = E n ν=1 2 Ist K = K und P Π K, P (z) = n a ν z ν, so setzen wir ν=0 P (T ) := Entsprechend setzen wir für A K n n P (A) := a ν T ν L(V ) ν=0 a ν A ν K n n ν=0 k ν=1 Bemerkung 196 Sind P, Q Π K, so gilt für alle T L(V ) und damit auch (Denn: Ist P (z) = ν > m n µ=0 (P Q)(T ) = (P Q)(T ) = P (T ) Q(T ) A ν = A 1 A k ; A k := P (T ) Q(T ) = Q(T ) P (T ) a µ z ν, Q(z) = m b ν z ν, so ist mit a µ = b ν := 0 für µ > n bzw = n+m k=0 T k ν=0 k a µ b k µ = µ=0 n+m k=0 µ=0 k a µ T µ b k µ T k µ ( m ) a µ T µ b ν T ν = P (T ) Q(T )) µ=0 ν=0

143 19 TRIANGULIERBARKEIT UND DER SATZ VON CAYLEY-HAMILTON 143 Damit gilt folgender bemerkenswerte Satz Satz 197 (Cayley-Hamilton) Es sei V ein endlich-dimensionaler linearer Raum über K, und es sei T L(V ) triangulierbar Ist P T das charakteristische Polynom von T, so gilt P T (T ) = 0 Beweis Es sei M = (v 1,, v n ) eine Basis von V so, dass ϕ M (T ) = R = (r jk ) eine obere Dreiecksmatrix ist Es reicht, zu zeigen Es gilt P T (T )v k = 0 (k = 1,, n) P T (z) = P ϕm (T )(z) = n (r jj z) = n (λ j z) mit λ j = r jj Also ist nach B 196 für k = 1,, n (mit := I) P T (T ) = n n (λ j T 0 T 1 ) = ( 1) n (T λ j I) Also reicht es, für k = 1,, n = ( 1) n n j=k+1 (T λ j I) k (T λ j I) k (T λ j I) v k = 0 zu zeigen Für k = 1 gilt T v 1 = λ 1 v 1, d h (T λ 1 I)v 1 = 0 Es gelte die Behauptung für m = 1,, k 1, d h m (T λ j I)v m = 0 (m = 1,, k 1) Dann ist auch k 1 (T λ j I)v m = k 1 j=m+1 (T λ j I) m (T λ j I)v m = 0 für m = 1, k 1 Aus ϕ M (T ) = R = (r µk ) mit r µk = 0 für µ > k folgt T v k = k k 1 r µk v µ = r µk v µ + λ k v k µ=1 µ=1

144 19 TRIANGULIERBARKEIT UND DER SATZ VON CAYLEY-HAMILTON 144 d h k 1 (T λ k I)v k = r µk v µ µ=1 Also gilt auch k k 1 k 1 (T λ j I)v k = (T λ j I)(T λ k I)v k = r µk k 1 µ=1 (T λ j I)v µ = 0 d h die Behauptung gilt für k Damit ist P T (T )v k = 0 für k = 1,, n Bemerkung 198 Im Falle K = C ist nach S 194 die Voraussetzung T triangulierbar stets erfüllt, d h P T (T ) = 0 gilt für alle T L(V ) Damit ergibt sich für alle A C n n P A (A) = 0 Ist A R n n, so lässt sich A natürlich auch als Matrix in C n n auffassen Also gilt auch hier P A (A) = 0 Hieraus folgt, dass die Aussage von S 197, also P T (T ) = 0, auch im Falle K = R, ohne die Voraussetzung T triangulierbar richtig bleibt ([Ü]) Beispiel 199 Es sei A = ( ) Dann gilt ( λ 1 P A (λ) = det(a λe) = 1 λ ) = λ Also ist nach dem Satz von Cayley-Hamilton P A (A) = A 2 + E = 0 Tatsächlich rechnet man nach d h A 2 + E = 0 A 2 = ( ),

145 20 JORDAN SCHE NORMALFORM Jordan sche Normalform Definition 201 Es sei V ein linearer Raum über K, und es sei T L(V ) Ist λ ein Eigenwert von T, so heißt v V verallgemeinerter Eigenvektor (oder auch Hauptvektor) (von T ), falls (T λi) j v = 0 für ein j N, d h v Kern(T λi) j für ein j N (Wie üblich sind verallgemeinerte Eigenvektoren einer Matrix A K n n über x Ax definiert) Beispiel 202 Es sei T L(K 3 ) mit x T x 2 = x 3 x 1 x 2 x 3 = x 2 0 x 3 Dann sind 0, 1 die Eigenwerte von T (denn: det(a λe) = ( λ) 2 (1 λ) ) Weiter ist e 1 Eigenvektor zu λ = 0, und e 3 ist Eigenvektor zu λ = 1 Außerdem sieht man: dim(kern(t λi)) = 1 für λ = 0, 1 Es gilt T 2 x 1 x 2 x 3 = x 2 0 x 3 = 0 0 x 3, also ist e 2 verallgemeinerter Eigenvektor zum Eigenwert λ = 0 Insbesondere sieht man, dass eine Basis - nämlich (e 1, e 2, e 3 ) - aus verallgemeinerten Eigenvektoren existiert Ist T L(V ) so gilt {0} = Kern(T 0 ) Kern(T 1 ) Kern(T 2 ) Weiter kann man leicht zeigen: Satz 203 Es sei T ein linearer Raum über K, und es sei T L(V ) 1 Ist Kern(T m ) = Kern(T m+1 ) für ein m N 0, so gilt {0} = Kern(T 0 ) Kern(T m ) = Kern(T m+1 ) = Kern(T m+2 ) = 2 Ist dim(v ) = n, so gilt Kern(T n ) = Kern(T n+1 ) (= Kern(T n+2 ) = )

146 20 JORDAN SCHE NORMALFORM 146 Beweis 1 Es sei k N Wir zeigen Kern(T m+k ) = Kern(T m+k+1 ) Klar ist, dass gilt Umgekehrt sei v Kern(T m+k+1 ) Dann ist also ist und damit 0 = T m+k+1 v = T m+1 (T k v), T k v Kern(T m+1 ) = Kern(T m ) 0 = T m (T k v) = T m+k v Folglich ist v Kern(T m+k ), d h gilt auch 2 Nach 1 reicht es, Kern(T n ) = Kern(T n+1 ) zu zeigen Angenommen, nicht Dann ist nach 1 Hieraus folgt {0} = Kern(T 0 ) = Kern(T 1 ) = Kern(T 2 ) = Kern(T n+1 ) dim(kern(t n+1 )) > dim(kern(t n )) >, also dim(kern(t n+1 )) n + 1 Da Kern(T n+1 ) ein Unterraum von V ist, ergibt sich ein Widerspruch Damit erhält man sofort Bemerkung und Definition 204 Es sei V ein n-dimensionaler linearer Raum, und es sei T L(V ) Ist λ ein Eigenwert von T, so ist V verallgemeinerter Eigenvektor genau dann, wenn v Kern(T λi) n ist Der Unterraum Kern(T λi) n heißt Hauptraum zu λ (von T ) Entsprechend heißt für eine Matrix A K n n mit Eigenwert λ der Unterraum Kern(A λe) n Hauptraum zu λ (von A) (Denn: Ist v Kern(T λi) n, so ist V verallgemeinerter Eigenvektor Ist umgekehrt v ein verallgemeinerter Eigenvektor von T, so ist v Kern(T λi) j für ein j N Aus S 203 ergibt sich dann auch v Kern(T λi) n ) Bemerkung 205 In Analogie zu S 203 gilt für Bilder: Ist T L(V ), so ist V = Bild(T 0 ) Bild(T 1 ) Bild(T 2 )

147 20 JORDAN SCHE NORMALFORM 147 Außerdem gilt im Falle dim(v ) = n: Bild(T n ) = Bild(T n+1 ) = Bild(T n+2 ) = (Denn: Nach der Dimensionsformel (S 74) und S 203 ist dim(bild(t n )) = dim(bild(t n+1 )) =, und damit ist nach der vorherigen Inklusionskette Bild(T n ) = Bild(T n+1 ) = ) Wir kommen nun zu einem zentralen Satz über Haupträume Satz 206 Es sei V ein n-dimensionaler linearer Raum über K, und es sei T L(V ) triangulierbar Ferner seien λ 1,, λ m die paarweise verschiedenen Eigenwerte von T Ist mit k 1,, k m {1,, n} P T (λ) = m (λ j λ) k j, (die Zahl k j heißt algebraische Vielfachheit von λ j ), so gilt k j = dim(kern(t λ j I) n ) Beweis Ist ϕ M (T ) = R = (r jk ) mit r jk = 0 für j > k, so ist P T (λ) = P ϕm (T )(λ) = det(r λe) = n (r ll λ) = l=1 m (λ j λ) k j für gewisse k j {1,, n} wobei λ 1,, λ m die paarweise verschiedenen Eigenwerte von T sind Es ist also zu zeigen: Für j = 1,, m steht die Zahl λ j genau dim(kern(t λ j I) n )-mal auf der Diagonalen von R Wir beweisen die Behauptung durch Induktion nach n = dim(v ) Für n = 1 ist die Behauptung klar Für ein n N, n 2 sei (v 1,, v n ) eine Basis von V so, dass ϕ M (T ) obere Dreiecksmatrix ist, d h µ 1 R = ϕ M (T ) = = (r jk ) j,k=1,,n 0 µ n 1 µ n

148 20 JORDAN SCHE NORMALFORM 148 Es sei j {1,, m} O E sei λ j = 0 (sonst betrachte (T λ j I) statt T im folgenden) Ferner sei U :=< v 1,, v n 1 > Dann ist U invariant unter T (S 192), also S = T U L(U) Weiter ist R = µ 1 0 µ n 1 = (r jk) j,k=1,,n 1 die Matrix von S bzgl (v 1,, v n 1 ) Nach Induktionsvoraussetzung erscheint 0 auf der Diagonale von R genau dim(kern(s n 1 )) {0,, n 1} mal Da dim(u) = n 1 ist, folgt aus S 203 Kern(S n 1 ) = Kern(S n ), also erscheint 0 auf der Diagonale von R auch dim(kern(s n )) mal 1 Fall: µ n 0 Wir zeigen: Dann ist Kern(T n ) U (Denn: Es gilt ϕ M (T n ) = R n = µ n 1 µ n n 1 ( =: r (n) jk ) µ n n also ist n 1 T n v n = r (n) jn v j + µ n nv n =: u + µ n nv n für ein u U Es sei v Kern(T n ) Dann ist (da U < v n >= V ) für ein ũ U, a K Also gilt v = ũ + av n 0 = T n v = T n ũ + at n v n = T } n ũ {{ + au } +aµ n nv n U Hieraus folgt aµ n nv n = 0 (da V = U < v n >), also a = 0, d h v = ũ U Folglich ist Kern(T n ) U) Aus Kern(T n ) U folgt Kern(S n ) = Kern((T U ) n ) = Kern(T n ) Also erscheint 0 auf der Diagonalen von R genau dim(kern(s n )) = dim(kern(t n )) mal, d h k j = dim(kern(t n )), wie behauptet 2 Fall: µ n = 0 Wir zeigen: dim(kern(t n )) = dim(kern(s n )) + 1,

149 20 JORDAN SCHE NORMALFORM 149 was impliziert, dass 0 auf der Diagonalen von R genau dim(kern(t n )) mal die 0 steht, wie behauptet Nach der Dimensionsformel für Unterräume (S 518) gilt dim(kern(t n )) = dim(u Kern(T n )) + dim(u + Kern(T n )) dim(u) Wir zeigen: Es existiert ein w Kern(T n ) \ U Dazu machen wir den Ansatz = dim(kern(s n )) + dim(u + Kern(T n )) (n 1) w = u v n mit einem u U Dann ist jedenfalls w U Wie könnte u aussehen? Es gilt T n (u v n ) = T n u T n v n, also existiert ein u (und damit ein w) wie gewünscht, falls T n u = T n v n, d h, falls T n v n Bild((T n ) U ) = Bild(S n ) Da R = ϕ M (T ) ist, gilt also n 1 n 1 T v n = r jn v j + µ n v n = r jn v j U, T n v n = T n 1 (T v n ) Bild((T n 1 ) U ) = Bild(S n 1 ) = Bild(S n ) nach B 205 Also existiert ein w Kern(T n ) \ U Hieraus ergibt sich n = dim(v ) dim(u + Kern(T n )) > dim(u) = n 1, also dim(u + Kern(T n )) = n Nach obiger Dimensionsformel ist dim(kern(t n )) = dim(kern(s n )) + 1 Damit können wir folgenden Struktursatz für lineare Abbildungen beweisen (vgl S 1213) Satz 207 Es seinen V ein n-dimensionaler linearer Raum über K und T L(V ) Sind λ 1,, λ m die paarweise verschiedenen Eigenwerte von T mit den zugehörigen Haupträumen U 1,, U m, so gilt : 1 U j ist invariant unter T (j = 1,, m), 2 Ist T triangulierbar, so gilt m m V = = Kern(T λ j I) n U j

150 20 JORDAN SCHE NORMALFORM 150 Beweis 1 Nach B 196 ist also gilt für u U j d h T u U j 2 Nach S 206 gilt (T λ j I) n T = T (T λ j I) n, (T λ j I) n T u = T (T λ j I) n u = T 0 = 0, m dim(u j ) = m k j = n Es sei U := m U j Wir zeigen U = V Dann folgt 2 aus F 519 Mit U j (j = 1,, m) ist auch U = m U j invariant unter T Also ist S := T U L(U) Außerdem ist S triangulierbar (Denn: Ist U = V, so ist S = T triangulierbar Ist U V und ist N = (v 1,, v r ) eine Basis von U, so wählen wir Vektoren v r+1,, v n so, dass M = (v 1,, v n ) eine Basis von V ist Dann gilt für A = (a jk ) = ϕ M (T ) Sv k = T v k = a jk v j = r a jk v j (k = 1,, r), also a jk = 0 für alle (k, j) mit k r, j > r, d h B C A = O D mit B K r r, C K r (n r), D K (n r) (n r) Außerdem gilt ϕ N (S) = B Hieraus folgt ([Ü]) P T (λ) = P ϕm (T )(λ) = det(a λe n ) = det(b λe r ) det(d λe n r ) = P S (λ) det(d λe n r ) Da T triangulierbar ist, hat P T genau n Nullstellen incl Vielfachheiten Also haben P S Π r r Nullstellen und det(d λe n r ) Π n r n r Nullstellen Damit zerfällt auch P S in Linearfaktoren) Nach Definition hat S dieselben Eigenwerte wie T Also gilt P S (λ) = m (λ j λ) k j

151 20 JORDAN SCHE NORMALFORM 151 Außerdem stimmen auch die Haupträume von S zu den Eigenwerten λ j mit U j überein, d h k j = dim(u j ) Anwendung von S 206 auf S ergibt m dim(u) = dim(u j ) = n (= dim(v )) also U = V Als Konsequenz erhalten wir Folgerung 208 Sind V ein endlich-dimensionaler linearer Raum über K und T L(V ) triangulierbar, so existiert eine Basis von V aus verallgemeinerten Eigenvektoren von T Denn: Man wähle Basen von U j (j = 1,, m) und setze diese zusammen Definition 209 Es sei V in linearer Raum über K, und es sei T L(V ) Dann heißt T nilpotent, falls T m = 0 für ein m N gilt Entsprechend heißt ein A K n n nilpotent, falls A m = 0 für ein m N Beispiel Für A = ( ) git A 2 = 0, also ist A nilpotent 2 Es sei T : Π n Π n definiert durch Dann ist T L(Π n ) ([Ü]) und es gilt also T n+1 = 0 d h T ist nilpotent T (P ) := P (P Π n ) T n+1 (P ) = P (n+1) = 0 (P Π n ), Bemerkung Ist V ein n-dimensionaler linerarer Raum, und ist T L(V ) nilpotent, so ist T n = 0 (Denn: Ist T nilpotent, so ist jedes v V verallgemeinerter Eigenvektor zum Eigenwert 0 Also ist Kern(T n ) = V nach S 204 ) 2 Ist T L(V ), wobei V ein n-dmensionaler linearer Raum, und ist λ ein Eigenwert T, so ist (T λi) Kern(T λi) n nilpotent (Denn: U := Kern(T λi) n ist invariant unter T Also gilt ((T λi) U ) n = (T λi) n U = 0)

152 20 JORDAN SCHE NORMALFORM 152 Im folgenden Satz liegt der wesentliche Schritt zum Beweis der Jordan-Normalform Satz 2012 Es sei V ein n-dimensionaler linearer Raum über K Ferner sei N L(V ) nilpotent und für v V, v 0 sei m(v) := m N (v) := max{m N 0 : N m v 0} Dann existieren Vektoren v 1,, v k V mit folgenden Eigenschaften: a) (v 1, Nv 1,, N m(v 1) v 1,, v k, Nv k,, N m(v k) v k ) ist eine Basis von V, b) (N m(v 1) v 1,, N m(v k) v k ) ist eine Basis von Kern(N) Beweis Wir zeigen die Behauptung per Induktion nach n = dim V Für n = 1 ist die Behauptung klar Es sei n N, und es sei N L(V ) nilpotent, wobei dim(v ) = n Dann ist N nicht surjektiv (sonst wäre auch N m surjektiv für alle m), also ist dim(bild(n)) < n = dim(v ) Wir betrachten Ñ := N Bild(N) Dann ist Ñ L(Bild(N)) und nilpotent Nach Induktionsvoraussetzung existieren u 1,, u j Bild(N) so, dass (i) (u 1, Nu 1,, N m(u1) u 1,, u j, Nu j,, N m(uj) u j ) eine Basis von Bild(N) und (ii) (N m(u1) u 1,, N m(uj) u j ) eine Basis von Kern(Ñ) = Kern(N) Bild(N) ist (man beachte dabei m(u) = m N (u) = mñ(u) für alle u Bild(N)) Da {u 1,, u j } Bild(N) ist, existieren v 1,, v j V mit Nv r = u r für r = 1,, j Dann gilt m(v r ) = m(u r ) + 1 für r = 1,, j (beachte u r 0) Wir wählen einen Unterraum W von Kern(N) mit Kern(N) = (Kern(N) Bild(N)) W (existiert nach S 520) und eine Basis (v j+1,, v k ) von W (dabei ist k = dim(kern(n)) Aus v j+1,, v k Kern(N) folgt m(v r ) = 0 für r = j + 1,, k Wir zeigen, dass für die so konstruierten v 1,, v k die Bedingungen a) und b) gelten zu a): Wir zeigen zunächst: Das System in a) ist linear unabhängig Dazu seien a r,s K mit Anwenden von N ergibt 0 = N(0) = = k r=1 j r=1 0 = m(v r) j=0 m(u r) s=0 k r=1 m(v r) s=0 a r,s N s (v r ) a r,s N s (Nv r ) = a r,s N s (u r ) j r=1 m(u r)+1 s=0 a r,s N s (u r )

153 20 JORDAN SCHE NORMALFORM 153 Also folgt aus (i) a r,s = 0 für r = 1,, j und s = 0,, m(v r ) 1 Hieraus ergibt sich (beachte: m(v r ) 0) 0 = j a r,m(vr)n m(vr) (v r ) r=1 } {{ } Kern(N) Bild(N) + k r=j+1 a r,0 v r } {{ } W Da die Summe von Kern(N) Bild(N) und W direkt ist, erhalten wir und Aus (ii) ergibt sich 0 = j a r,m(vr)n m(vr) (v r ) = r=1 0 = k r=j+1 j a r,m(vr)n m(ur) (u r ) r=1 a r,0 v r a r,m(vr) = 0 für r = 1,, j und da (v j+1,, v k ) eine Basis von W ist, folgt auch a r,0 = 0 für r = j + 1,, k Damit sind alle a r,s = 0, d h das System in a) ist linear unabhängig Weiter impliziert (i) dim(bild(n)) = Das System in a) besteht also aus k (m(v r ) + 1) = k + r=1 j (m(u r ) + 1) = r=1 j m(v r ) r=1 j m(v r ) = dim(kern(n)) + dim(bild(n)) r=1 d h nach S 74 aus dim(v ) = n Vektoren Damit ist das System in a) eine Basis von V Zu b): Es gilt (N m(v 1) v 1,, N m(v k) v k ) = (N m(u 1) u 1,, N m(u j) u j, v j+1,, v k ) Also ist nach (ii) und der Definition von (v j+1,, v k ) dieses System eine Basis von Kern(N)

154 20 JORDAN SCHE NORMALFORM 154 Beispiel Es sei V = Π n und N(P ) := P (P Π n ) (vgl B 2010) Für v 1 Π n mit v 1 (z) = x n, gilt dann m(v 1 ) = n und (v 1, Nv 1,, N m(v 1) v 1 ) = (x n, nx n 1,, n!x 0 ) ist eine Basis von V = Π n Außerdem ist (N m(v1) v 1 ) = n!x 0 ) eine Basis von Kern(N) = Π 0 2 Es sei V = K 4 und N(v) := Av mit A := Dann ist A (d h N) nilpotent, denn es gilt A 2 = 0 Für v 1 = = e 0 2, v 2 = = e 4 gilt Nv 1 = Ae 2 = e 1, Nv 2 = Ae 4 = e 3 N 2 v 1 = Ae 1 = 0, N 2 v 2 = Ae 3 = 0, d h m(v 1 ) = m(v 2 ) = 1 Hier ist (v 1, Nv 1, v 2, Nv 2 ) = (e 2, e 1, e 4, e 3 ) Basis von V = K 4 und (Nv 1, Nv 2 ) = (e 1, e 3 ) Basis von Kern(N) Satz 2014 Es sei V ein linearer Raum über K, und es sei T L(V ) Weiter seinen U 1,, U m invariante Unterräume und es gelte V = m U j Ist M = (v 1,, v n ) = (v d0,, v d1,, v dm 1 +1,, v dm ), wobei (v dj 1 +1,, v dj ) eine Basis von U j ist (mit d 0 := 0 und d m := n), so gilt B 1 O B 2 A = ϕ M (T ) = O B m

155 20 JORDAN SCHE NORMALFORM 155 wobei B j K (d j d j 1 ) (d j d j 1 ) die Matrix von T Uj bzgl (v dj 1 +1,, v dj ) ist (d h A hat Blockdiagonalgestalt) Beweis Ist A = (a jk ) so gilt für j = 1,, m und k = d j 1 + 1,, d j T v k = a µk v µ = µ=0 m d l l=1 µ=d l 1 +1 a µk v µ = d j µ=d j 1 +1 a µk v µ, d h a µk = 0 für µ {d j 1 + 1,, d j } Damit hat A eine Blockdiagonalgestalt wie behauptet Folgerung 2015 Es seien V, N, v 1,, v k wie in S 2012 Ist M die Basis von V aus S 2012 in absteigender Reihenfolge d h M = (N m(v 1) v 1,, Nv 1, v 1,, N m(v k) v k,, v k ), so gilt für A = ϕ M (N): A = B 1 O B 2 O B k wobei für m(v r ) > 0 B r = K m(vr)+1,m(vr)+1 bzw B = (0) für m(v r ) = 0 Denn: Für r {1,, k} wird der erste Vektor des Tupels (N m(vr) v r,, Nv r, v r ) durch N auf 0 abgebildet und die folgenden jeweils auf ihren Vorgänger Insbesondere sind die Unterräume W r =< N m(vr) v r,, v r > invariant unter N und es gilt V = k W r Nach S2014 hat A Blockdiagonalgestalt wie oben angegeben mit gewissen r=1

156 20 JORDAN SCHE NORMALFORM 156 B 1,, B k Außerdem liefern die Matrizen B r = innerhalb von W r gerade das entsprechende Abbildungsverhalten Definition Es sei λ K Eine Matrix A der Form λ A = K n n λ für n 2 bzw A = (λ) für n = 1 heißt Jordan-Matrix 2 Es sei V ein endlich-dimensionaler linearer Raum über K, und es sei T L(V ) Eine Basis M von V heißt Jordan-Basis (für T ), falls ϕ M (T ) folgende Blockdiagonalgestalt hat: A 1 A 2 0 ϕ M (T ) = 0 wobei A j für j = 1,, p eine Jordan-Matrix ist A p Damit gilt schließlich Satz 2017 (Jordan sche Normalform) Es sei V ein endlich-dimensionaler linearer Raum über K, und es sei T L(V ) triangulierbar Dann existiert eine Jordan-Basis für T aus Hauptvektoren von T Beweis Es sei T L(V ) triangulierbar, und es seien λ 1,, λ m die paarweise verschiedenen Eigenwerte von T Dann gilt nach S 207 V = m U j

157 20 JORDAN SCHE NORMALFORM 157 mit U j := Kern(T λ j I) n und die U j sind invariant Außerdem ist (T λ j I) Uj nilpotent für j = 1,, m nach B Also existiert nach F 2015 für j = 1,, m eine Jordan-Basis für (T λ j I) Uj und diese ist dann auch Jordan-Basis für T Uj = (T λ j I) Uj + λi Uj (bestehend aus Hauptvektoren zum Eigenwert λ j ) Setzt man diese Basen zusammen, so erhält man nach S2014 eine Jordan-Basis für T aus Hauptvektoren von T

158 21 ELEMENTARE ZAHLENTHEORIE Elementare Zahlentheorie Wir starten mit einigen Ergebnissen aus der elementaren Zahltentheorie Definition 211 Es seien a, b Z = {ganze Zahlen} Man sagt, a sei Teiler von b (bzw a teilt b) (kurz: a b), falls b/a Z gilt, d h falls ein q Z existiert mit b = qa Es gilt damit Satz Für alle a Z ist ±1 a und ±a a 2 Sind a, b Z mit a b, b c, so ist a c 3 Sind a, b j Z, j = 1,, n, mit a b j für j = 1,, n, so ist a c j b j für alle c 1,, c n Z Beweis [Ü] Definition 213 Es seien a, b Z mit a 0 oder b 0 Dann heißt d := max{k N : k a und k b} größter gemeinsamer Teiler von a und b (kurz: ggt (a, b)) (Für a = b = 0 setzen wir ggt (0, 0) := 0) Im Falle ggt (a, b) = 1 heißen a und b teilerfremd Satz 214 (Division mit Rest) Es seien a, b Z, b 0 Dann existieren q, r Z mit a = qb + r und r {0,, b 1} Beweis Da b 0, ist, gilt L := N 0 {a xb : x Z} Für r := min L und q so, dass a qb = r gilt dann die Behauptung Zur Abkürzung schreiben wir im folgenden für Mengen A, B C und λ, µ C λa := {λa : a A}, µ ± λa = {µ ± λa : a A} µb ± λa = {µb ± λa : a A, b B} Es gilt damit

159 21 ELEMENTARE ZAHLENTHEORIE 159 Satz 215 Es seien a, b Z, und es sei d := ggt (a, b) Dann ist {ax + by : x, y Z} = az + bz = dz Insbesondere sind a, b genau dann teilerfremd, wenn gilt az + bz = Z Beweis Ist a = 0 oder b = 0, so sieht man leicht, dass die Behauptung gilt Es sei also a 0 und b 0, und es sei m := min(n L) wobei L := az + bz = ax + by : x, y Z} Aus d a und d b folgt d ax + by für alle x, y Z (S 2123), also gilt L dz und insbesondere d m Andererseits gilt m a (Denn: Es gilt mz L und a L, also auch a mz L Division von a durch m mit Rest (nach S 214) kann keinen Rest r 0 ergeben (wäre a = qm + r mit r {1,, m 1} so wäre r = a qm a mz L im Widerspruch zur Minimalität von m) Also ist m Teiler von a) Entsprechend sieht man m b Also ist m d nach Definition von d Mit d m folgt m = d, also dz = mz L Insgesamt ergibt sich L = dz Folgerung 216 Es seien a, b, c Z mit ggt (a, b) = 1 Dann gilt 1 Es existieren x, y Z mit xa + yb = 1 2 Ist a bc, so ist a c 3 Ist a c und b c, so ist ab c Denn: 1 Die erste Aussage ergibt sich direkt aus der letzten Aussage von S Nach 1 existieren x, y Z mit xa + yb = 1 Also ist c = xac + ybc Da a bc und a a ist a c nach S Wie in 2 ist c = xac+ybc Da c = ua = bv für gewisse u, v Z, ist c = xabv+ybau = ab(xv + yu) Also ist ab c

160 21 ELEMENTARE ZAHLENTHEORIE 160 Definition 217 Es sei p N, p 2 Dann heißt p Primzahl falls p nur die Teiler ±1 und ±p besitzt Bemerkung 218 Sind a, b Z und ist p eine Primzahl, so folgt aus p ab schon p a oder p b (Denn: Ist p kein Teiler von a, so ist ggt (a, p) = 1 Also ist p b nach F 2162) Satz 219 (Primfaktorzerlegung; Fundamentalsatz der Arithmetik) Es sei n N, n 2 Dann existieren Primzahlen p 1,, p k mit n = k p j und diese Zerlegung ist bis auf die Reihenfolge der Faktoren eindeutig Beweis 1 Existenz: (Induktion nach n) n = 2: Für n = 2 ist die Behauptung klar n 1 n (n 3): Ist n eine Primzahl, so ist nichts zu zeigen Es sei also n keine Primzahl Dann existiert ein Primteiler p von n, d h es existiert eine Primzahl p mit p n (Denn: Man wähle p := min{k > 1 : k n} Dann ist p eine Primzahl, denn sonst hätte p einen Teiler p 0 mit 1 < p 0 < p, und damit wäre p 0 auch Teiler von n im Widerspruch zur Minimalität von p) Also ist n = pq für ein q N mit 1 < q < n Nach Induktionsvoraussetzung ist q Produkt aus Primfaktoren, und damit gilt dasselbe für n 2 Eindeutigkeit: Wir zeigen per Induktion nach k: Ist n Produkt aus k Primzahlen, so besteht jede Darstellung von n als Produkt aus Primzahlen aus k Faktoren, und diese Faktoren sind bis auf die Reihenfolge dieselben k = 1: Ist n = p eine Primzahl, so gilt die Behauptung nach Definition k 1 k (k 2): Es sei n = k p j = mit Primzahlen p j und q j Aus p k m q j folgt aus B 218 (induktiv), dass p k q j0 für ein j 0 {1,, m}, also p k = q j0 (da q j0 Primzahl) Nach Umnummerierung können wir o E q j0 = q m annehmen Dann ist n = k 1 p j = Nach Induktionsvoraussetzung ist k 1 = m 1 und die Faktoren p 1,, p k 1 stimmen bis auf die Reihenfolge mit den q 1,, q k 1 überein Nach obiger Konstruktion gilt die Behauptung damit auch für k m m 1 q j q j

161 21 ELEMENTARE ZAHLENTHEORIE 161 Definition Es seien a, b Z, m N 0 Dann heißen a und b kongruent modulo m, falls Wir schreiben dann m (a b) a b mod m Bemerkung Man sieht leicht, dass durch a b : a b mod m eine Äquivalenzrelation auf Z gegeben ist Die Äquivalenzklassen werden Restklassen (modulo m) genannt Wir schreiben kurz für die Restklasse mit dem Repräsentanten a Z (d h für die Menge {a + km : k Z}) und außerdem setzen wir d h Z m ist die Restklassenmenge Es gilt dabei [a] := [a] m := a mod m := a + m Z Z m := Z/mZ := {[a] : a Z}, Z m = {[0], [1], [m 1]} für m 0 (und Z 0 = Z) 2 Auf Z m kann man repräsentantenweise eine Addition und eine Multiplikation einführen: und [a] + [b] := [a + b] [a] [b] = [a b] für a, b Z Dabei ist wichtig, dass die Operationen unabhängig von der Auswahl der Repräsentanten sind (Es gilt etwa für die Multiplikation: Ist [a] = [ã], [b] = [ b], so ist m (a ã) und m (b b) Also ist nach S 2123 auch m (a ã)b+ã(b b), d h m (ab ã b) Also ist [ab] = [ã b]) 3 Es sei m N und ζ := e 2πi/m eine m-te Einheitswurzel (ζ m = 1) Dann ist durch [a] = [a] m ζ a eine bijektive Abbildung von Z m nach {ζ a : a Z} = {ζ a : a = 0, 1,, m 1} gegeben Dabei entsprechen die Restklassenoperationen aus 2 gewissen

162 21 ELEMENTARE ZAHLENTHEORIE 162 Operationen in C, nämlich [a] + [b] entspricht ζ a+b und [a][b] entspricht ζ a b Ist etwa m = 4, so gilt sowie und entsprechend sowie [2 + 3] = 5 mod 4 = [1] [2 3] = 6 mod 4 = [2] ζ 2+3 (= ζ 2 ζ 3 ) = ζ 5 = ζ 1 ζ 2 3 (= (ζ 2 ) 3 ) = ( 1) 3 = 1 = ζ 2 Aus den Rechenregeln im Körper C oder durch direktes Nachrechnen erhält man leicht Satz 2112 Es sei m N Dann gilt 1 (Z m, +) ist eine abelsche Gruppe (mit Nullelement [0] und [a] = [ a]) 2 Für alle [a], [b], [c] Z m ist und sowie ([a][b])[c] = [a]([b][c]) ([a] + [b])[c] = [a][c] + [b][c] [a][b] = [b][a] 3 Für alle [a] Z m gilt [a][1](= [1][a]) = [a] (d h (Z m, +, ) ist ein kommutativer Ring mit Einselement ) Bemerkung 2113 Im allgemeinen ist (Z m, +, ) kein Körper, d h i a existiert nicht für alle [a] Z m \ {[0]} ein [x] mit [a][x] = [1] Zum Beispiel hat die Gleichung [3] 6 [x] 6 = [1] 6 keine Lösung [x] 6, denn [3] 6 [x] 6 {[3] 6, [0] 6 } für alle x Z Außerdem können Nullteiler existieren, d h nichtverschwindende Lösungen der Gleichung [a][b] = [0] So gilt etwa [3] 6 [2] 6 = [0] 6 Wir wollen jetzt zeigen, dass in gewissen Teilsystemen von Z m solche Probleme nicht auftreten

163 21 ELEMENTARE ZAHLENTHEORIE 163 Bemerkung und Definition 2114 Sind a, b Z, m N so folgt aus a b mod m und ggt (a, m) = 1 auch ggt (b, m) = 1 (Denn: Nach S 215 hat die Gleichung ax + my = 1 eine Lösung (x, y) Z 2 Für b = a + km gilt dann bx + m(y kx) = ax + kmx + my kmx = 1, d h {bu + mv : u, v Z} = Z Also ist wieder nach S 215 ggt (b, m) = 1) Man bezeichnet im Falle ggt (a, m) = 1 die Restklasse [a] m (repräsentantenunabhängig) als prime Restklasse (mod m) Außerdem setzen wir Z m := (Z/mZ) = {[a] m : [a] m prime Restklasse} Es gilt damit: Satz 2115 Es sei m N Dann ist (Z m, ) (mit wie in B 21112) eine abelsche Gruppe Beweis Offensichtlich ist [1] Z m Also genügt es nach S 2112, zu zeigen: mit [a], [b] Z m ist auch [a][b] Z m und die Gleichung [a][x] = [1] hat für jedes [a] Z m eine Lösung in Z m (vgl D 21) Es seien a, b Z, a, b teilerfremd zu m Dann existieren nach S 215 (x, y) Z 2 und (u, v) Z 2 mit ax + my = 1, bu + mv = 1 Die erste Gleichung impliziert ax = 1 mod m, d h [a][x] = [ax] = [1], und außerdem gilt 1 xz + mz Also ist ggt (x, m) = 1 nach S 215 Damit ist [x] Z m Weiter gilt 1 = (ax + my)(bu + mv) = (ab)(xu) + m(axv + ybu + myv), d h 1 abz+mz und damit ist ggt (ab, m) = 1 nach S 215, also [a][b] = [ab] Z m Beispiel 2116 Für m = 6 gilt ggt (1, 6) = ggt (5, 6) = 1 und ggt (0, 6) = 6, ggt (2, 6) = 2, ggt (3, 6) = 3, ggt (4, 6) = 2, also ist Nach S 2115 ist (Z 6, ) eine Gruppe Z 6 = {[1], [5]} Ganz anders sind die Verhältnisse im Falle von Primzahlen m

164 21 ELEMENTARE ZAHLENTHEORIE 164 Folgerung 2117 Es sei p N eine Primzahl Dann gilt ggt (a, p) = 1 für alle a {1,, p 1}, d h Z p = {[1], [2],, [p 1]} = Z p \ {[0]} Also ist nach S 2115 Z p \ {[0]} eine abelsche Gruppe und folglich ist nach S 2112 (Z p, +, ) ein Körper (mit p Elementen) Eine nette Anwendung von Kongruenzen sind bekannte Teilbarkeitskriterien: Satz 2118 Es sei N N, N = Dann gilt a ν 10 ν mit a ν {0,, 9} für ν = 0,, n ν=0 1 3 N genau dann wenn N genau dann wenn 9 a ν ν=0 a ν ν=0 Beweis 1 Aus 10 1 mod 3 folgt 10 ν 1 mod 3 (denn [10 ν ] 3 = ([10] 3 ) ν = [1] für alle ν N 0 ) Also gilt [ ] [N] 3 = a ν 10 ν = [a ν ] 3 [10 ν ] 3 = [a ν ] 3 = ν=0 [ ] a ν ν=0 d h N n a ν mod 3 Insbesondere gilt also 3 N genau dann wenn 3 ν=0 3, 3 ν=0 ν=0 a ν 2 Analog ν=0 Von grundlegender Bedeutung ist folgendes Ergebnis über simultane Kongruenzen Satz 2119 (Chinesischer Restsatz) Es seien m 1,, m n N paarweise teilerfremd, und es seien a 1,, a n Z Dann existiert ein x Z so, dass x a j mod m j für j = 1,, n Dabei ist x mod m 1 m n eindeutig bestimmt und mit x ist jedes y [x] m1 m n eine Lösung

165 21 ELEMENTARE ZAHLENTHEORIE 165 Beweis 1 Eindeutigkeit: Sind x, y Z Lösungen des Systems von Kongruenzen, so gilt m j (x y) (j = 1,, m) Da die m j paarweise teilerfremd sind, ist dies äquivalent zu n m j (x y) (Denn: Induktiv ergibt sich aus F 2163: Ist c Z, so folgt aus m j c (j = 1,, n) auch n m j c Man beachte dabei: Für u, v Z, k N folgt aus ggt (u, k) = ggt (v, k) = 1 schon ggt (uv, k) = 1 nach dem Beweis zu S 2115) Also ist x y mod n m j 2 Existenz: Wir betrachten die Abbildung b : Z n m j n Z mj, definiert durch b [x] n m j := ([x] m1,, [x] mn ) Sind [x] m j, [y] m j Z m j mit b([x] m j ) = b([y] m j ), so gilt für j = 1,, n x y mod m j Also ist x y mod m j nach1, d h [x] m j = [y] m j Damit ist b injektiv Da n n Z m j = m j = Z mj gilt, ist b auch bijektiv, d h für beliebige a 1,, a n Z existiert ein x Z mit [x] mj = [a j ] mj bzw x a j mod m j

166 21 ELEMENTARE ZAHLENTHEORIE 166 Beispiel 2120 Wir betrachten die Kongruenzen x 2 mod 3 x 3 mod 5 x 2 mod 7 Dann ist x = 23 eine Lösung Nach S 2119 ist x mod 105 = eindeutig bestimmt Außerdem ist jedes y [x] 105, d h jedes y mit y = 23 + k 105 für ein k Z, ebenfalls Lösung Definition 2121 Für n N, n 2, sei ϕ(n) := Z n = Anzahl der primen Restklassen mod n = Anzahl der a N mit a n und ggt (a, n) = 1 und für n = 1 setzen wir ϕ(1) := 1 Die Funktion ϕ : N N heißt Eulersche Funktion (oder Eulersche Phi-Funktion) Es gilt Satz Die Eulersche Funktion ist multiplikativ, d h für alle teilerfremden n, m N gilt ϕ(nm) = ϕ(n)ϕ(m) 2 Ist p eine Primzahl, so ist ϕ(p ν ) = p ν p ν 1 für alle v N Insbesondere ist ϕ(p) = p 1 3 Für beliebige n N ist ϕ(n) = n ( 1 1 ) p p prim p n Beweis 1 Es sei b wie im Beweis zu S 2119 (mit m 1 = m, m 2 = n) Dann ist b := b Z mn eine bijektive Abbildung von Z mn nach Z m Z n (Denn: Ist x Z mit [x] mn Z mn, so gilt ggt (mn, x) = 1, also auch ggt (m, x) = ggt (n, x) = 1 Also ist b([x] mn ) = ([x] m, [x] n ) Z m Z n Ist andererseits ([x] m, [x] n ) Z m Z n, so ist ggt (x, m) = ggt (x, n) = 1, also auch ggt (x, mn) = 1 (vgl Beweis zu S 2115) Also ist [x] mn Z mn Da b : Z mn Z m Z n bijektiv ist, ist damit auch b : Z mn Z m Z n bijektiv) Aus ϕ(mn) = Z mn = Z m Z n = Z m Z n = ϕ(n)ϕ(m) folgt 1

167 22 UNTERGRUPPEN UND HOMOMORPHISMEN Ist p prim und ν N, so sind die a {1,, p ν }, die nicht teilerfremd zu p ν sind, genau die p ν 1 Zahlen p, 2p, 3p,, p ν 1 p Also ist ϕ(p ν ) = p ν p ν 1 3 Es sei n N beliebig Dann existieren (eindeutig bestimmte) paarweise verschiedene Primzahlen p 1,, p k und ν 1,, ν k N so, dass n = p ν 1 1 pν k k Da p ν j j paarweise teilerfremd sind, gilt nach 1 und 2 ϕ(n) = = k k ϕ(p ν j j ) = k p ν j j k p ν j j p ν j 1 j = ) (1 1pj = n k ) (1 1pj = n p prim p n ( 1 1 ) p 22 Untergruppen und Homomorphismen In Abschnitt 2 haben wir Gruppen definiert, haben Beispiele kennengelernt und einige einfache Eigenschaften hergeleitet Wir werden jetzt einen genaueren Blick auf Gruppen werfen, wobei das Schwergewicht auf endlichen Gruppen liegen wird Ähnlich wie Unterräume bei linearen Räumen spielen Untergruppen bei Gruppen eine wichtige Rolle Definition 221 Es sei G = (G, ) eine Gruppe Eine Menge U G heißt Untergruppe von G wenn (U, U U ) eine Gruppe ist (d h wenn mit a, b U auch a b U gilt, und wenn e U und mit a U auch a 1 U ist) Statt a b schreiben wir auch kurz ab Bemerkung 222 Eine Menge U G, U ist schon dann eine Untergruppe, wenn mit a, b U auch a b 1 U gilt (Denn: Ist a U, so ist e = a a 1 U Also ist auch a 1 = e a 1 U Sind a, b U so gilt also auch a b = a (b 1 ) 1 U) Beispiel Ist G eine beliebige Gruppe, so sind U = G und U = {e} Untergruppen (die sog trivialen Untergruppen)

168 22 UNTERGRUPPEN UND HOMOMORPHISMEN Ist (G, ) = (C, +), so haben wir folgende Kette ineinander geschachtelter Untergruppen (wobei m N) {0} mz Z Q R C 3 Ist (G, ) = (C \ {0}, ), so haben wir folgende Kette ineinander geschachtelter Untergruppen: {1} {±1} Q \ {0} R \ {0} C \ {0} 4 Es sei K ein Körper und (G, ) = (GL n (K), ) die Gruppe der invertierbaren (n n) Matrizen über K mit der Matrix-Multiplikation (vgl B 825) Dann ist SL n (K) := {A GL n (K) : det A = 1} eine Untergruppe von GL n (K) (Sind A, B SL n (K), so gilt det(ab 1 ) = det A/ det B = 1, also ist AB 1 SL n (K)) Weiter ist für K = K U n := {A GL n (K) : A unitär} eine Untergruppe von GL n (K) ([Ü]), die sog unitäre Gruppe Für K = R heißt O n := U n auch orthogonale Gruppe Die Menge SO n := O + n := {A O n : det A = 1} ist eine Untergruppe von O n (die sog spezielle orthogonale Gruppe) Definition 224 Es sei (G, ) eine Gruppe Dann heißt die Ordnung von G ord (G) := G ( N { }) Neben den Gruppen (Z m, +) und (Z m, ) spielen in der Theorie endlicher Gruppen die symmetrischen Gruppen S n eine wichtige Rolle Beispiel 225 (vgl B 23 und Abschnitt 11) Es sei σ S n (d h σ : {1,, n} {1,, n} bijektiv) Neben der Schreibweise ( ) 1 2 n σ = σ(1) σ(2) σ(n) kann σ auch in der sog Zykelschreibweise dargestellt werden: Jedes σ ist Produkt aus Zykeln, d h [ ] [ ] σ = a (1) 1,, a(1) m 1 a (k) 1,, a(k) m k,

169 22 UNTERGRUPPEN UND HOMOMORPHISMEN 169 wobei ein Zykel [a 1,, a m ] eine Abkürzung für die Abbildung τ S n, mit τ(a j ) = a j+1 für j = 1,, m 1 und τ(a m ) = a 1 sowie τ(a) = a für a {a 1,, a m } ist (d h a 1 a 2 a 3 a m a 1 ) Eine solche Darstellung ist i a keineswegs eindeutig Ist etwa ( ) σ = So ist σ = [1, 3, 4, 5] [6, 7] Dabei sind die Zykeln der Länge 2 Transpositionen (D 111) Zykeln der Länge 1 (wie oben im Beispiel 2) werden nicht aufgeführt Es gilt damit etwa: S 3 hat die nichttrivialen Untergruppen der Ordnung 3 und U 1 = {id, [1, 2, 3], [1, 3, 2]} U 2 = {id, [1, 2]}, U 3 = {id, [1, 3]}, U 4 = {id, [2, 3]} der Ordnung 2 Dabei heißt U 1 Drehgruppe und U 2, U 3, U 4 heißen Spiegelungsgruppen (Nummeriert man die Ecken eines gleichseitigen Dreiecks mit 1, 2, 3, so entsprechen den Symmetriebewegungen des Dreiecks die obigen Permutationen der Eckpunkte: entspricht [1, 2, 3] entspricht [1, 3, 2] entspricht [2, 3] entspricht [1, 2] entspricht [1, 3] ) Definition 226 Es seien (G, ) und (H, ) Gruppen Eine Abbildung h : G H heißt (Gruppen-) Homomorphismus, falls h(a b) = h(a) h(b) für alle a, b G gilt Ein Homomorphismus h heißt Injektion (oder Einbettung), falls h injektiv ist Ein bijektiver Homomorphismus heißt Isomorphismus Existiert ein Isomorphismus h : G H, so heißen G und H isomorph

170 22 UNTERGRUPPEN UND HOMOMORPHISMEN 170 Beispiel Es sei h : (Z, +) (Z m, +) definiert durch Dann ist h ein Homomorphismus (denn h(a) := [a] (a Z) h(a + b) = [a + b] = [a] + [b] = h(a) + h(b)) 2 Ist h : (R, +) (C, +) definiert durch h(x) = x+i0 (x R), so ist h eine Einbettung (die natürliche Einbettung von R in C) Wir stellen einige elementare Eigenschaften von Homomorphismen zusammen: Satz 228 Es seinen (G, ) und (H, ) Gruppen, und es sei h : G H ein Homomorphismus Dann gilt 1 h(e) = e 2 h(a 1 ) = (h(a)) 1 für alle a G 3 Ist U G eine Untergruppe von G, so ist h(u) H eine Untergruppe von H 4 Ist V H eine Untergruppe von H, so ist h 1 (V ) G eine Untergruppe von G (Insbesondere ist damit Kern(h) := h 1 ({e}) eine Untergruppe von G) 5 h ist genau dann injektiv, wenn Kern(h) = {e} ist Beweis 1 Es gilt h(e) = h(e e) = h(e) h(e), also ist e = h(e)h(e) 1 = h(e)h(e)h(e) 1 = h(e) 2 Nach 1 gilt für a G h(a)h(a 1 ) = h(aa 1 ) = h(e) = e, also (h(a)) 1 = h(a 1 ) nach S222 3 und 4: [Ü] 5 Ist h injektiv, so ist h 1 ({e}) = Kern(h) höchstens einelementig Da Kern(h) ein Unterraum von G ist, ist Kern(h) = {e} Es sei umgekehrt Kern(h) = {e} Dann gilt für alle a, b G mit h(a) = h(b) h(ab 1 ) = h(a)h(b 1 ) = h(a)(h(b)) 1 = e, also ab 1 = e und damit a = ab 1 b = eb = b

171 22 UNTERGRUPPEN UND HOMOMORPHISMEN 171 Satz 229 Es seien G, H Gruppen, und es sei h : G H ein Isomorphismus Dann ist auch h 1 : H G ein Homomorphismus (und damit ein Isomorphismus) Beweis Es seien u, v H Dann existieren a, b G mit u = h(a), v = h(b) Also gilt h 1 (uv) = h 1 (h(a)h(b)) = h 1 (h(ab)) = ab = h 1 (u)h 1 (v) Ist h : G H eine Injektion, so ist h : G h(g) H ein Isomorphismus zwischen G und der Untergruppe h(g) von H Dies kann man ausnutzen um die Rolle der symmetrischen Gruppen zu verstehen: Satz 2210 (Cayley) Jede endliche Gruppe der Ordnung n ist isomorph zu einer Untergruppe der symmetrischen Gruppe S n Beweis Es sei G eine endliche Gruppe Wir müssen eine Einbettung h : G S n konstruieren Es sei G = {a 1,, a n }, und es sei a G Die Multiplikation (von links) mit a bewirkt eine Permutation von G, d h es existiert genau ein σ = σ a S n mit aa j = a σ(j) (j = 1,, n) (wichtig: Ist aa j = aa k, so gilt a 1 aa j = a 1 aa k, also a j = a k ) Es gilt dabei für a, b G (Denn: Für j = 1,, n gilt σ a σ b = σ ab (ab)a j = a(ba j ) = aa σb (j) = a σa(σ b (j)) = a (σaσ b )(j), d h σ ab = σ a σ b ) Also ist h : G S n mit h(a) := σ a ein Homomorphismus Außerdem gilt: Ist id = h(a) = σ a, so ist aa j = a id(j) = a j für j = 1,, n und damit a = e Also ist Kern(h) = {e}, d h h ist injektiv und damit eine Einbettung Definition Es sei (G, ) eine Gruppe Für x G setzen wir x n := } x {{ x}, x n := (x 1 ) n (= (x n ) 1 ) nmal für n N (und x 0 := e) (Ist (G, ) eine additive Gruppe, d h = +, so schreibt man üblicherweise nx statt x n )

172 22 UNTERGRUPPEN UND HOMOMORPHISMEN 172 Für x G setezn wir zudem < x >:= {x n : n Z} (Dabei ist < x > eine Untergruppe von G, wie man leicht sieht) 2 Die Gruppe (G, ) heißt zyklisch, falls G =< x > für ein x G gilt Das Element x heißt dann erzeugendes Element von G Beispiel Es sei (G, ) = (Z, +) Dann gilt Z =< 1 >=< 1 > und ±1 sind die einzigen erzeugenden Elemente 2 Es sei (G, ) = (Z m, +) Dann gilt Z m =< [1] > Außerdem gilt für jede prime Restklasse [a] auch Z m =< [a] > ([Ü]) Das Repertoire an zyklischen Gruppen ist damit (bis auf Isomorphie), schon erschöpft: Satz 2213 Jede zyklische Gruppe G =< x > ist entweder isomorph zu (Z, +) oder zu (Z m, +) für ein m N Beweis 1 Fall: Es ist x n x k für alle n, k Z, n k Dann ist durch h : Z < x > mit h(n) := x n ein Isomorphismus von Z nach G =< x > definiert (Denn: Für n, k Z gilt h(n + k) = x n+k = x n x k = h(n) h(k), also ist h ein Homomorphismus Ist y G =< x >, so existiert ein n N mit x n = y, d h y = h(n) Sind schließlich n, k Z mit h(n) = h(k), d h x n = x k, so ist nach Voraussetzung n = k, also ist h bijektiv) 2 Fall: Es existieren n, k Z, n k, mit x n = x k Dann ist h aus 1 Fall ein surjektiver Homomorphismus, aber nicht mehr injektiv Also existiert nach S 2285 ein n Kern(h) \ {0} Da Kern(h) eine Gruppe ist, ist mit n auch n Kern(h) Also existiert ein minimales m N mit m Kern(h) Dann sind x j, j = 0,, m 1 paarweise verschieden (ansonsten gäbe es i, j {0,, m 1}, i < j, mit x i = x j, also x j i = e und damit j i Kern(h) mit 0 < j i < m) Aus x m = e folgt x n+km = x n x km = x n (x m ) k = x n für alle n, k Z, d h h(n) = h(n + km) für alle n, k Also ist durch h([n] m ) := h(n) (n Z) eine Abbildung h : (Z m, +) < x >= G (wohl-)definiert Aus obigen Überlegungen folgt, dass h ein Isomorphismus ist

173 22 UNTERGRUPPEN UND HOMOMORPHISMEN 173 Bemerkung und Definition 2214 Es sei (G, ) eine Gruppe und es sei x G Dann heißt ord(x) := ord (< x >) Ordnung von x Es ist x n = e für ein n Z genau dann, wenn n = 0 oder wenn ord(x) < und n Vielfaches von ord (x) ist, d h n = k ord (x) für ein k Z (Dies ergibt sich aus der Isomorphie zwischen < x > und Z m mit m = ord(x) im Falle ord(x) < und der Isomorphie zwischen < x > und Z im Falle ord(x) = ) Bemerkung und Definition 2215 Es sei (G, ), eine Gruppe, und es sei H G eine Untergruppe Für a, b G definieren wir a b : ab 1 H ( a Hb := {hb : h H}) Man sieht leicht, dass eine Äquivalenzrelation auf G ist Die Äquivalenzklassen sind die Teilmengen Hb, die Rechtsrestklassen genannt werden (Durch Betrachtung von b 1 a anstelle von ab 1 erhält man Linksrestklassen bh; für abelsche Gruppen gilt natürlich Hb = bh) Beispiel Es sei (G, ) = (Z, +) Für m N ist mz eine Untergruppe von Z Hier sind die Rechtsrestklassen (und Linksrestklassen) gerade die üblichen Restklassen [a] m (Denn: Sind a, b Z, so gilt a b mz genau dann, wenn a = b + km für ein k Z, also a mz + b, d h [a] m = [b] m ) 2 Es sei (G, ) = (S 3, ) Ist H = {id, [1, 2, 3], [1, 3, 2]} (vgl B 225) so existieren die zwei Rechts- (und Links-)restklassen und R 1 = H id = H R 2 = H [1, 2] = {[1, 2], [1, 3], [2, 3]} Ist H = {id, [1, 2]}, so existieren die drei Rechtsrestklassen und die drei Linksrestklassen R 1 = H id, R 2 = H [1, 3] = {[1, 3], [1, 3, 2]}, R 3 = H [2, 3] = {[2, 3], [1, 2, 3]} R 1 = id H, R 2 = [1, 3] H = {[1, 3], [1, 2, 3]}, R 3 = [2, 3] H = {[2, 3], [1, 3, 2]}

174 22 UNTERGRUPPEN UND HOMOMORPHISMEN 174 (Hier stimmen die Rechts- und die Linksklassen zu [1, 3] und [2, 3] nicht überein) 3 Es sei (G, ) = (R 2, +) und es sei H = Rx = {λx : λ R} für ein x R 2 \ {0} Dann sind die Restklassen Hb gegeben durch Hb = Rx + b (b R 2 ) Bemerkung und Definition 2217 Es seien (G, ) eine Gruppe und H G eine Untergruppe Dann heißt G : H := {Hb : b G} ( N { }), also die Anzahl der Rechtsrestklassen bzgl H, der Index von H in G Dabei sieht man leicht, dass G : H auch mit der Anzahl der Linksrestklassen bzgl H übereinstimmt ([Ü]) Es gilt damit folgendes elementare Ergebnis Satz 2218 (Lagrange) Ist G eine endliche Gruppe und H eine Untergruppe, so ist ord G := (G : H) ord (H) Insbesondere teilt also die Ordnung von H die Ordnung von G Beweis Der Beweis ergibt sich sofort daraus, dass die Äquivalenzklassen Hb eine Zerlegung von G in G : H Teilmengen bewirken, und dass Hb = H = ord H für alle b G gilt (die Abbildung ϕ : H Hb mit ϕ(h) = hb ist bijektiv) Also Konsequenzen erhalten wir Satz 2219 (Euler) Es sei G eine endliche Gruppe, und es sei x G Dann ist ord(x) ein Teiler von ord(g) Insbesondere gilt stets x ord (G) = e Beweis Die Behauptung ergibt sich sofort aus dem Satz von Lagrange mit H =< x > und aus B /D 2214 Wendet man dies speziell auf die primen Restklassengruppen Z m an, so ergeben sich wichtige Zahlentheoretische Konsequenzen

175 22 UNTERGRUPPEN UND HOMOMORPHISMEN 175 Folgerung Sind a Z, m N mit ggt (a, m) = 1, so ist a ϕ(m) 1 mod m 2 (Kleiner Satz von Fermat) Sind a Z und p eine Primzahl, so gilt a p a mod p und in dem Fall, dass p kein Teiler von a ist (d h ggt (a, p) = 1) a p 1 1 mod p Denn: Nach Definition gilt Z m = ϕ(m) Also folgt 1 sofort aus S 2219 Ist m = p, wobei p prim, so ist ϕ(p) = p 1 nach S 2112 und damit folgt die zweite Aussage von 2 aus 1 Durch Multiplikation von a p 1 1 mod p mit a ergibt sich die erste Aussage im Falle ggt (a, p) = 1 Ist p a, d h a = kp für ein k Z, so gilt a 0 mod p also auch a p 0 a mod p Anwendungsbeispiel 2221 (RSA-Kryptographie-Verfahren) Eine (noch recht junge) Anwendung der obigen Folgerung 2220 ergibt sich für Verschlüsselungsverfahren Das von Rivest, Shamir und Adleman im Jahre 1978 vorgestellte Verfahren beruht auf folgender Beobachtung: Es seien p, q Primzahlen (möglichest groß ; etwa je 100 Stellen) p q, und es sei N = pq Dann gilt ϕ(n) = (p 1)(q 1) nach S 2122 Weiter sei s N teilerfremd zu ϕ(n) Dann existieren nach S 215 t, k Z mit st = kϕ(n) + 1 (d h st 1 mod ϕ(n)) O E können wir t, k N annehmen Behauptung: Dann gilt für alle a N Denn: Ist ggt (a, N) = 1 so gilt nach F (a s ) t = a st a mod N (10) a st = a kϕ(n)+1 = (a ϕ(n) ) k a a mod N Da ϕ(n) = (p 1)(q 1) gilt, folgt aus st 1 mod ϕ(n) auch st 1 mod (p 1) und st 1 mod (q 1), d h es existieren l, m N mit st = l(p 1) + 1 = m(q 1) + 1

176 22 UNTERGRUPPEN UND HOMOMORPHISMEN 176 (nämlich etwa l = k(p 1) und m = k(q 1)) Also folgt aus F im Falle a 0 mod p (beachte (Z p \ {[0]}, ) ist eine Gruppe) [a st ] p = [a l(p 1) a] p = [a] l(p 1) p [a] p = [a p ] l p [a] l p (und im Falle a 0 mod p natürlich auch a st a 0 mod p) Entsprechend gilt Da p, q teilerfremd sind, gilt mit F 2163 a st a mod q a st a mod N = pq [a] p = [a] l p[a] l [a] p = [a] p Wie kann man die Beziehung (10) nutzen? Will man eine Nachricht, die ohne Einschränkung ein Vektor (a 1,, a m ) natürlicher Zahlen sein soll, übermitteln, ohne dass Unbefugte die Nachricht verstehen können, so kann man, nachdem man p, q, s, t wie oben festgelegt hat, die verschlüsselte Information (a s 1,, as m) wie auch s und N öffentlich übertragen Die Nachricht (a 1,, a m ) ist dann aus der Gleichung (10) sehr leicht rekonstruierbar, wenn man zusätzlich t bzw ϕ(n) bzw p und q kennt (t ist aus ϕ(n) leicht berechenbar) Die Prmfaktorzerlegung N = pq ist für ein gegebenes großes N jedoch eine sehr schwierige Aufgabe, die für genügend große p, q (mit den derzeit bekannten Methoden) praktisch unmöglich ist p

177 23 NORMALTEILER Normalteiler Ein (bis heute unerreichtes) Fernziel ist es natürlich, alle (endlichen) Gruppen zu kennen bzw zu klassifizieren, wobei isomorphe Gruppen nicht als verschieden angesehen werden Für Primzahlordnungen liegen die Verhältnisse besonders einfach Es gilt nämlich Satz 231 Ist p eine Primzahl, so ist jede Gruppe G der Ordnung p isomorph zu (Z p, +) Beweis Es sei x G \ {e} Dann hat x nach dem Satz von Euler (S 2219) die Ordnung p, d h < x >= G Nach S 2213 ist G damit isomorph zu (Z p, +) Im allgemeinen Fall spielen gewisse Untergruppen eine zentrale Rolle: Definition 232 Es sei G eine Gruppe und H G eine Untergruppe Dann heißt H Normalteiler (von G), falls Hg = gh für alle g G gilt (d h falls alle Rechts- und Linksrestklassen bzgl H übereinstimmen) Mann schreibt dann H G Bemerkung 233 Es sei G eine Gruppe, und es sei H eine Untergruppe von G Dann hei ss t H g := ghg 1 := {ghg 1 : h H} zu h konjugierte Untergruppe Man rechnet leicht nach, dass H g stets eine Untergruppe von G ist ([Ü]) Es gilt damit: H ist genau dann Normalleiter von G, wenn H g = H für alle g G gilt (Denn: : Es gelte gh = Hg für alle g G Wir zeigen: Dann ist H g H für alle g G (und damit gilt dann auch H g 1 H, also H = (H g 1 ) g H g, d h H = H g für alle g G) Es sei also a H g d h a = ghg 1 für ein h H Da gh gh = Hg ist, existiert ein h H mit gh = hg Also ist a = hgg 1 = h H : Es gelte H g = H für alle g G, und es sei a Hg, d h a = hg für ein h H Dann existiert ein h H mit h = g hg 1 Folglich ist a = hg = g hg 1 g = g h gh Also ist Hg gh Entsprechend sieht man, dass gh Hg gilt (beachte dabei: H g 1 = H)) Beispiel Ist G abelsch, so ist jede Untergruppe H G Normalteiler 2 Es sei G = GL n (K) und H = SL n (K) (vgl B 2234) Ist A GL n (K), so gilt für alle B SL n (K): det(aba 1 ) = det(a) det(b) det(a 1 ) = det(b) = 1,

178 23 NORMALTEILER 178 d h ABA 1 SL n (K) Damit gilt H A H Da A beliebig war, ist auch H = (H A 1 ) A H A, d h H A = H und damit ist H nach B 233 Normalteiler in G 3 Es sei G = SL 2 (K) und H = { B = B t = ( 1 t 0 1 ) : t K Dann ist H eine Untergruppe von SL 2 (K) (Denn: Es gilt ( ) ( ) ( ) 1 t 1 s 1 s + t (B t B s = = = B s+t, also (B t ) 1 = B t ) ( ) 0 1 Für A = gilt 1 0 AB t A 1 = ( ) ( 1 t 0 1 ) ( ) } = ( 1 0 t 1 d h für t 0 ist AB t A 1 H, also H A H Damit ist H kein Normalteiler ) Satz 235 Es seien U und V Gruppen und es sei f : U V ein Homomorphismus Ist N V ein Normalteiler von V, so ist f 1 (N) ein Normalteiler von U Insbesondere ist Kern(f) Normalteiler von U Beweis Es genügt, zu zeigen: Für alle g G ist (f 1 (N)) g f 1 (N) Ist g G und u (f 1 (N)) g so existiert ein ũ f 1 (N) mit u = gũg 1 Also ist f(u) = f(gũg 1 ) = f(g)f(ũ)(f(g)) 1 f(g)n(f(g)) 1 = N, d h u f 1 (N) Da {e} ein Normalteiler von V ist, ist insbesondere Kern(f) = f 1 ({e}) Normalteiler von U Die Normalteiler sind unter allen Untergruppen deswegen ausgezeichnet, weil die Restklassen von Normalteilern (wie die Restklassen von mz in Z) durch Definition einer Restklassenverknüpfung zu einer Gruppe gemacht werden können

179 23 NORMALTEILER 179 Satz 236 Es seien G eine Gruppe und H ein Normalteiler in G Dann ist die Menge G/H := {Hg : g G} (= {gh : g G}) eine Gruppe bzgl der repräsentantenweise definierten Multiplikation Hg Hh := H(g h) (die sog Faktorgruppe G/H) Die kanonische Projektion π : G G/H, π(g) := Hg ist ein surjektiver Gruppenhomomorphismus mit Kern(π) = H, und es gilt ord(g/h) = G : H Beweis Wesentlich ist, dass die Multiplikation wohldefiniert ist, d h unabhängig von den Repräsentanten g, h ist Es seien also g, h, a, b mit Hg = Ha und Hh = Hb gegeben Dann gilt auch gh = ah, und folglich ist g = ge ah und h Hb Also ist a 1 g H und hb 1 H Dann ist auch und also a 1 ghb 1 H ghb 1 a 1 = aa 1 ghb 1 a 1 aha 1 = H a = H Dies bedeutet wiederum gh Hab bzw Hgh = Hab Klar ist, dass He = H das neutrale Element von G/H und Ha 1 das zu Ha inverse Element ist Aus diesen Überlegungen ergibt sich auch, dass π ein surjektiver Homomorphismus ist Ist π(g) = He, so ist Hg = He = H und damit g H Umgekehrt folgt aus g H auch wieder Hg = H = He, also π(g) = He Also ist Kern(π) = H Nach der Definition von G : H (B/D 2217) ist ord(g/h) = G : H Der folgende Satz liefert eine gewisse Umkehrung von S 236 Satz 237 Es seien G und B Gruppen, und es sei f : G B ein surjektiver Gruppenhomomorphismus Dann ist B isomorph zur Faktorgruppe G/Kern(f) Beweis Wir zeigen: Durch i(kern(f) g) := f(g) ist eine Abbildung i : G/Kern(f) B wohldefiniert (Denn: Ist Kern(f) g = Kern(f) h für g, h G, so gilt gh 1 Kern(f)

180 23 NORMALTEILER 180 Also ist e = f(gh 1 ) = f(g)(f(h)) 1, d h f(g) = f(h) Damit ist i(kern(f) g) = i(kern(f) h)) Man sieht sofort, dass i ein Homomorphismus ist, und nach Definition ist i surjektiv Außerdem gilt Kern(i) = {Kern(f)}, also besteht Kern(i) genau aus dem neutralen Element in G/Kern(f) Damit ist i auch injektiv nach S 2285

Kapitel II. Vektorräume

Kapitel II. Vektorräume Inhalt der Vorlesung LAAG I Prof. Dr. Arno Fehm TU Dresden WS2017/18 Kapitel II. Vektorräume In diesem ganzen Kapitel sei K ein Körper. 1 Definition und Beispiele 1.1 Beispiel. Ist K = R, so haben wir

Mehr

5 Vektorräume. (V1) für alle x, y V : x + y = y + x; (V2) für alle x, y, z V : (x + y) + z = x + (y + z);

5 Vektorräume. (V1) für alle x, y V : x + y = y + x; (V2) für alle x, y, z V : (x + y) + z = x + (y + z); 5 Vektorräume Was wir in den vorangegangenen Kapiteln an Matrizen und Vektoren gesehen haben, wollen wir nun mathematisch abstrahieren. Das führt auf den Begriff des Vektorraumes, den zentralen Begriff

Mehr

02. Vektorräume und Untervektorräume

02. Vektorräume und Untervektorräume 02. Vektorräume und Untervektorräume Wir kommen nun zur eigentlichen Definition eines K-Vektorraums. Dabei ist K ein Körper (bei uns meist R oder C). Informell ist ein K-Vektorraum eine Menge V, auf der

Mehr

technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller

technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof. Dr. H. M. Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 4.3 und 4.4

Mehr

In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa. Unterraum,

In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa. Unterraum, 2 Vektorräume In diesem Kapitel wird der Vektorraumbegriff axiomatisch eingeführt und einige grundlegende Begriffe erläutert, etwa Unterraum, Linearkombination, lineare Unabhängigkeit und Erzeugendensystem.

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

Kapitel II. Vektorräume. Inhalt: 7. Vektorräume 8. Basis und Dimension 9. Direkte Summen und Faktorräume

Kapitel II. Vektorräume. Inhalt: 7. Vektorräume 8. Basis und Dimension 9. Direkte Summen und Faktorräume Kapitel II. Vektorräume Inhalt: 7. Vektorräume 8. Basis und Dimension 9. Direkte Summen und Faktorräume Die fundamentale Struktur in den meisten Untersuchungen der Linearen Algebra bildet der Vektorraum.

Mehr

Mathematik für Physiker, Informatiker und Ingenieure

Mathematik für Physiker, Informatiker und Ingenieure Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel V SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG [email protected] http://www2.mathematik.uni-wuerzburg.de

Mehr

4 Vektorräume. 4.1 Definition. 4 Vektorräume Pink: Lineare Algebra 2014/15 Seite 48. Sei K ein Körper.

4 Vektorräume. 4.1 Definition. 4 Vektorräume Pink: Lineare Algebra 2014/15 Seite 48. Sei K ein Körper. 4 Vektorräume Pink: Lineare Algebra 2014/15 Seite 48 4 Vektorräume 4.1 Definition Sei K ein Körper. Definition: Ein Vektorraum über K, oder kurz ein K-Vektorraum, ist ein Tupel (V,+,, 0 V ) bestehend aus

Mehr

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow LINEARE ALGEBRA Ferienkurs Hanna Schäfer Philipp Gadow INHALT 1 Grundbegriffe 1 1.1 Aussagen und Quantoren 1 1.2 Mengen 2 1.3 Gruppen 3 1.4 Körper 4 1.5 Vektorräume 5 1.6 Basis und Dimension 7 Aufgaben

Mehr

Lineare Algebra. 7. Übungsstunde. Steven Battilana. battilana.uk/teaching

Lineare Algebra. 7. Übungsstunde. Steven Battilana. battilana.uk/teaching Lineare Algebra 7. Übungsstunde Steven Battilana [email protected] battilana.uk/teaching November 9, 27 Erinnerung 2 Vektoräume Sei V ein Vektorraum, U V, U {}. U hiesst Untervektorraum, Unterraum,

Mehr

01. Gruppen, Ringe, Körper

01. Gruppen, Ringe, Körper 01. Gruppen, Ringe, Körper Gruppen, Ringe bzw. Körper sind wichtige abstrakte algebraische Strukturen. Sie entstehen dadurch, dass auf einer Menge M eine oder mehrere sogenannte Verknüpfungen definiert

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

5.7 Lineare Abhängigkeit, Basis und Dimension

5.7 Lineare Abhängigkeit, Basis und Dimension 8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n

Mehr

Mathematik I. Vorlesung 11. Lineare Unabhängigkeit

Mathematik I. Vorlesung 11. Lineare Unabhängigkeit Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 11 Lineare Unabhängigkeit Definition 11.1. Es sei K ein Körper und V ein K-Vektorraum. Dann heißt eine Familie von Vektoren v i, i I,

Mehr

Summen und direkte Summen

Summen und direkte Summen Summen und direkte Summen Sei V ein K-Vektorraum. Wie früher erwähnt, ist für beliebige Teilmengen M, N V die Teilmenge M +N V wie folgt definiert M +N = {v+w : v M, w N}. Man sieht leicht, dass i.a. M

Mehr

Lineare Algebra. 6. Übungsstunde. Steven Battilana. battilana.uk/teaching

Lineare Algebra. 6. Übungsstunde. Steven Battilana. battilana.uk/teaching Lineare Algebra 6. Übungsstunde Steven Battilana [email protected] battilana.uk/teaching November, 7 Vektoräume Eine Menge E zusammen mit zwei Verknüpfungen + : E E E, x, y x + y Addition : E E E,

Mehr

Kapitel 13. Lineare Gleichungssysteme und Basen

Kapitel 13. Lineare Gleichungssysteme und Basen Kapitel 13. Lineare Gleichungssysteme und Basen Matrixform des Rangsatzes Satz. Sei A eine m n-matrix mit den Spalten v 1, v 2,..., v n. A habe den Rang r. Dann ist die Lösungsmenge L := x 1 x 2. x n x

Mehr

Lineare Algebra I Zusammenfassung

Lineare Algebra I Zusammenfassung Prof. Dr. Urs Hartl WiSe 10/11 Lineare Algebra I Zusammenfassung 1 Vektorräume 1.1 Mengen und Abbildungen injektive, surjektive, bijektive Abbildungen 1.2 Gruppen 1.3 Körper 1.4 Vektorräume Definition

Mehr

6.5 Lineare Abhängigkeit, Basis und Dimension

6.5 Lineare Abhängigkeit, Basis und Dimension 6.5. Lineare Abhängigkeit, Basis und Dimension 123 6.5 Lineare Abhängigkeit, Basis und Dimension Seien v 1,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von

Mehr

Kap 1: VEKTORRÄUME. (c) (λµ) v = λ (µ v) (b) λ (v + w) = (λ v) + (λ w) (d) 1 v = v

Kap 1: VEKTORRÄUME. (c) (λµ) v = λ (µ v) (b) λ (v + w) = (λ v) + (λ w) (d) 1 v = v Kap 1: VEKTORRÄUME Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung ϕ : I X, i ϕ(i) = x i, wobei die Menge I in diesem Zusammenhang auch Indexmenge genannt wird. Man schreibt vereinfacht

Mehr

2.3 Basis und Dimension

2.3 Basis und Dimension 23 Basis und Dimension Erinnerung Gegeben ein K-Vektorraum V, ein Vektorensystem x,, x n in V Eine Linearkombination in den x i ist ein Vektor der Form λ x + + λ n x n mit λ i K Die λ i heißen Koeffizienten

Mehr

17 Lineare Abbildungen

17 Lineare Abbildungen Chr.Nelius: Lineare Algebra II (SS2005) 1 17 Lineare Abbildungen Wir beginnen mit der Klärung des Abbildungsbegriffes. (17.1) DEF: M und N seien nichtleere Mengen. Eine Abbildung f von M nach N (in Zeichen:

Mehr

Lineare Abbildungen. i=0 c ix i n. K n K m

Lineare Abbildungen. i=0 c ix i n. K n K m Kapitel 4 Lineare Abbildungen In diesem Abschnitt lernen Sie erstmals eine Klasse von strukturerhaltenden Abbildungen kennen. Diese Konzept ist von zentraler Bedeutung in der Algebra. Grob gesagt geht

Mehr

5.1 Affine Räume und affine Abbildungen

5.1 Affine Räume und affine Abbildungen 402 LinAlg II Version 1.2 21. Juli 2006 c Rudolf Scharlau 5.1 Affine Räume und affine Abbildungen Ein affiner Raum besteht aus zwei Mengen P und G zusammen mit einer Relation der Inzidenz zwischen ihnen.

Mehr

4.2 Quotientenvektorräume

4.2 Quotientenvektorräume 306 LinAlg II Version 1 6. Juni 2006 c Rudolf Scharlau 4.2 Quotientenvektorräume Zum Verständnis der folgenden Konstruktion ist es hilfreich, sich noch einmal den Abschnitt 1.4 über Restklassen vom Beginn

Mehr

Lineare Algebra I (WS 13/14)

Lineare Algebra I (WS 13/14) Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 05.11.2013 Alexander Lytchak 1 / 14 Linearkombinationen Definition Es sei V ein reeller Vektorraum. Es sei (v i ) i

Mehr

5 Lineare Abbildungen

5 Lineare Abbildungen 5 Lineare Abbildungen Pink: Lineare Algebra 2014/15 Seite 59 5 Lineare Abbildungen 5.1 Definition Gegeben seien Vektorräume U, V, W über einem Körper K. Definition: Eine Abbildung f : V W heisst K-linear,

Mehr

Wiederholung: lineare Abbildungen

Wiederholung: lineare Abbildungen Wiederholung: lineare Abbildungen Def Es seien (V,+, ) und (U, +, ) zwei Vektorräume Eine Abbildung f : V U heißt linear, falls für alle Vektoren v 1, v 2 V und für jedes λ R gilt: (a) f (v 1 + v 2 ) =

Mehr

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { }

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { } Zur Einleitung: Lineare Gleichungssysteme Wir untersuchen zunächst mit Methoden, die Sie vermutlich aus der Schule kennen, explizit einige kleine lineare Gleichungssysteme. Das Gleichungssystem I wird

Mehr

Projektive Räume und Unterräume

Projektive Räume und Unterräume Projektive Räume und Unterräume Erik Slawski Proseminar Analytische Geometrie bei Prof. Dr. Werner Seiler und Marcus Hausdorf Wintersemester 2007/2008 Fachbereich 17 Mathematik Universität Kassel Inhaltsverzeichnis

Mehr

Kapitel II. Vektoren und Matrizen

Kapitel II. Vektoren und Matrizen Kapitel II. Vektoren und Matrizen Vektorräume A Körper Auf der Menge R der reellen Zahlen hat man zwei Verknüpfungen: Addition: R R R(a, b) a + b Multiplikation: R R R(a, b) a b (Der Malpunkt wird oft

Mehr

Kapitel 1. Mengen und Abbildungen. 1.1 Mengen

Kapitel 1. Mengen und Abbildungen. 1.1 Mengen Kapitel 1 Mengen und Abbildungen 1.1 Mengen Die Objekte der modernen Mathematik sind die Mengen. Obwohl die Logik einen axiomatischen Zugang zur Mengenlehre bietet, wollen wir uns in dieser Vorlesung auf

Mehr

5 Lineare Abbildungen

5 Lineare Abbildungen 5 Lineare Abbildungen Pink: Lineare Algebra HS 2014 Seite 56 5 Lineare Abbildungen 5.1 Definition Gegeben seien Vektorräume U, V, W über einem Körper K. Definition: Eine Abbildung f : V W heisst K-linear,

Mehr

1 Linearkombinationen

1 Linearkombinationen Matthias Tischler Karolina Stoiber Ferienkurs Lineare Algebra für Physiker WS 14/15 A 1 Linearkombinationen Unter einer Linearkombination versteht man in der linearen Algebra einen Vektor, der sich durch

Mehr

2.3 Basis und Dimension

2.3 Basis und Dimension Lineare Algebra I WS 205/6 c Rudolf Scharlau 65 2.3 Basis und Dimension In diesem zentralen Abschnitt werden einige für die gesamte Lineare Algebra fundamentale Grundbegriffe eingeführt: Lineare Abhängigkeit

Mehr

Einführung in die Mathematik für Informatiker

Einführung in die Mathematik für Informatiker Einführung in die Mathematik für Informatiker Prof. Dr. www.math.tu-dresden.de/ baumann 21.11.2016 6. Vorlesung aufgespannter Untervektorraum Span(T ), Linearkombinationen von Vektoren Lineare Unabhängigkeit

Mehr

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition)

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition) Vektorräume In vielen physikalischen Betrachtungen treten Größen auf, die nicht nur durch ihren Zahlenwert charakterisiert werden, sondern auch durch ihre Richtung Man nennt sie vektorielle Größen im Gegensatz

Mehr

3 Vektorräume abstrakt

3 Vektorräume abstrakt Mathematik I für inf/swt Wintersemester / Seite 7 Vektorräume abstrakt Lineare Unabhängigkeit Definition: Sei V Vektorraum W V Dann heißt W := LH(W := Menge aller Linearkombinationen aus W die lineare

Mehr

Gegeben sei eine Menge V sowie die Verknüpfung der Addition und die skalare Multiplikation der Elemente von V mit reellen Zahlen.

Gegeben sei eine Menge V sowie die Verknüpfung der Addition und die skalare Multiplikation der Elemente von V mit reellen Zahlen. 1. Der Vektorraumbegriff...1 2. Unterräume...2. Lineare Abhängigkeit/ Unabhängigkeit... 4. Erzeugendensystem... 5. Dimension...4 6. Austauschlemma...5 7. Linearität von Abbildungen...6 8. Kern und Bild

Mehr

Vektorräume und lineare Abbildungen

Vektorräume und lineare Abbildungen Kapitel 11. Vektorräume und lineare Abbildungen 1 11.1 Vektorräume Sei K ein Körper. Definition. Ein Vektorraum über K (K-Vektorraum) ist eine Menge V zusammen mit einer binären Operation + einem ausgezeichneten

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 15. April 2018 1/46 Die Dimension eines Vektorraums Satz 2.27 (Basisergänzungssatz) Sei V ein Vektorraum über einem Körper K. Weiter seien v 1,...,

Mehr

7.3 Unitäre Operatoren

7.3 Unitäre Operatoren Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

4 Elementare Vektorraumtheorie

4 Elementare Vektorraumtheorie 4. ELEMENTARE VEKTORRAUMTHEORIE 51 4 Elementare Vektorraumtheorie Im folgenden sei K stets ein Körper. Definition. (i) Eine homogene Gleichung in den Unbekannten ξ 1,..., ξ n ist ein Ausdruck der Gestalt

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

70 IV. ENDLICH-DIMENSIONALE VEKTORRÄUME

70 IV. ENDLICH-DIMENSIONALE VEKTORRÄUME IV. Endlich-dimensionale Vektorräume Unter einem endlich-dimensionalen Vektorraum verstehen wir einen Vektorraum, der eine endliche Basis besitzt. Die entscheidende Beobachtung ist die Tatsache, dass in

Mehr

Vollständigkeit. 1 Konstruktion der reellen Zahlen

Vollständigkeit. 1 Konstruktion der reellen Zahlen Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente

Mehr

Ferienkurs Mathematik für Physiker I Skript Teil 2 ( )

Ferienkurs Mathematik für Physiker I Skript Teil 2 ( ) Ferienkurs Mathematik für Physiker I WS 206/7 Ferienkurs Mathematik für Physiker I Skript Teil 2 (28.03.207) Vektorräume Bevor wir zur Definition eines Vektorraumes kommen erinnern wir noch einmal kurz

Mehr

Basis und Dimension. Definition. Sei V ein K-Vektorraum und (v i ) i I eine Familie von Vektoren

Basis und Dimension. Definition. Sei V ein K-Vektorraum und (v i ) i I eine Familie von Vektoren Basis und Dimension Definition. Sei V ein K-Vektorraum und (v i ) i I eine Familie von Vektoren aus V. 1) (v i ) i I heißt ein Erzeugendensystem von V, wenn Span(v i ) = V. 2) (v i ) i I heißt Basis von

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

Lösung 5: Gram-Schmidt Orthogonalisierung, adjungierte Abbildungen

Lösung 5: Gram-Schmidt Orthogonalisierung, adjungierte Abbildungen D-MATH Lineare Algebra II FS 7 Dr. Meike Akveld Lösung 5: Gram-Schmidt Orthogonalisierung, adjungierte Abbildungen. a) Wegen der Linearität im ersten Argument gilt sicherlich w S :, w =. Somit ist S und

Mehr

Übungen zur Linearen Algebra 1

Übungen zur Linearen Algebra 1 Übungen zur Linearen Algebra 1 Wintersemester 014/015 Universität Heidelberg - IWR Prof. Dr. Guido Kanschat Dr. Dörte Beigel Philipp Siehr Blatt 7 Abgabetermin: Freitag, 05.1.014, 11 Uhr Aufgabe 7.1 (Vektorräume

Mehr

7 Vektorräume und Körperweiterungen

7 Vektorräume und Körperweiterungen $Id: vektor.tex,v 1.3 2009/05/25 15:03:47 hk Exp $ 7 Vektorräume und Körperweiterungen Wir sind gerade bei der Besprechung derjenigen Grundeigenschaften des Tensorprodukts, die mit vergleichsweise wenig

Mehr

Abbildungen. Kapitel Definition: (Abbildung) 5.2 Beispiel: 5.3 Wichtige Begriffe

Abbildungen. Kapitel Definition: (Abbildung) 5.2 Beispiel: 5.3 Wichtige Begriffe Kapitel 5 Abbildungen 5.1 Definition: (Abbildung) Eine Abbildung zwischen zwei Mengen M und N ist eine Vorschrift f : M N, die jedem Element x M ein Element f(x) N zuordnet. Schreibweise: x f(x) 5. Beispiel:

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom Übungsaufgaben 11. Übung: Woche vom 9. 1.-13. 1. 2017 (Numerik): Heft Ü 1: 12.28.a,b; 12.29.b,c (jeweils mit Fehlerabschätzung); 6.26; 6.27.a (auch mit Lagrange-Interpolationspolynom); 6.25; 6.28 (auch

Mehr

Vektorräume. Kapitel Definition und Beispiele

Vektorräume. Kapitel Definition und Beispiele Kapitel 3 Vektorräume 3.1 Definition und Beispiele Sei (V,,0) eine abelsche Gruppe, und sei (K, +,, 0, 1) ein Körper. Beachten Sie, dass V und K zunächst nichts miteinander zu tun haben, deshalb sollte

Mehr

Ordinalzahlen. Sei (X, ) eine total geordnete Menge und a X. Dann

Ordinalzahlen. Sei (X, ) eine total geordnete Menge und a X. Dann Ordinalzahlen Im Rahmen der Ordnungsrelationen wurden bisher die Begriffe Partialordnung und Totalordnung (lineare Ordnung) erwähnt. Ein weiterer wichtiger Ordnungsbegriff ist die Wohlordnung. Wohlgeordnete

Mehr

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit 3 Lineare Algebra (Teil : Lineare Unabhängigkeit 3. Der Vektorraum R n Die Menge R n aller n-dimensionalen Spalten a reeller Zahlen a,..., a n R bildet bezüglich der Addition a b a + b a + b. +. :=. (53

Mehr

x y f : R 2 R 3, Es gilt: Bild f = y : wobei x,y R Kern f = 0 (wird auf der nächsten Folie besprochen)

x y f : R 2 R 3, Es gilt: Bild f = y : wobei x,y R Kern f = 0 (wird auf der nächsten Folie besprochen) Def Wiederholung Sei f : V U eine lineare Abbildung Das Bild von f ist die folgende Teilmenge von U: Bild f = {u U so dass es gibt ein Element v V mit f(v) = u} (Andere Bezeichnung: f(v) wird in Analysis-Vorlesung

Mehr

1 Halbgruppen. 1.1 Definitionen. Übersicht Ein Beispiel einer Halbgruppe

1 Halbgruppen. 1.1 Definitionen. Übersicht Ein Beispiel einer Halbgruppe 1 Halbgruppen Übersicht 11 Definitionen 5 12 Unterhalbgruppen 8 13 InvertierbareElemente 9 14 AllgemeinesAssoziativ-undKommutativgesetz 11 15 PotenzenundVielfache 11 16 Homomorphismen,Isomorphismen 12

Mehr

1 Halbgruppen. 1.1 Definitionen. Übersicht Ein Beispiel einer Halbgruppe

1 Halbgruppen. 1.1 Definitionen. Übersicht Ein Beispiel einer Halbgruppe 1 Halbgruppen Übersicht 11 Definitionen 5 12 Unterhalbgruppen 8 13 InvertierbareElemente 9 14 AllgemeinesAssoziativ-undKommutativgesetz 11 15 PotenzenundVielfache 11 16 Homomorphismen,Isomorphismen 12

Mehr

4.1. Vektorräume und lineare Abbildungen

4.1. Vektorräume und lineare Abbildungen 4.1. Vektorräume und lineare Abbildungen Mengen von Abbildungen Für beliebige Mengen X und Y bezeichnet Y X die Menge aller Abbildungen von X nach Y (Reihenfolge beachten!) Die Bezeichnungsweise erklärt

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 5. April 2018 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

Gruppen. Kapitel Operationen Definiton Gruppe, symmetrische Gruppen. Gruppen und Untergruppen, Lernziele 1. Erzeugendensysteme,

Gruppen. Kapitel Operationen Definiton Gruppe, symmetrische Gruppen. Gruppen und Untergruppen, Lernziele 1. Erzeugendensysteme, Kapitel 1 Gruppen 1.1 Operationen Lernziele 1. Gruppen und Untergruppen, Erzeugendensysteme, Operationen und Bahnen 1.1.1 Definiton Gruppe, symmetrische Gruppen Definition 1.1. Sei G eine nicht leere Menge

Mehr

0 Mengen und Abbildungen, Gruppen und Körper

0 Mengen und Abbildungen, Gruppen und Körper 0 Mengen und Abbildungen, Gruppen und Körper In diesem Paragrafen behandeln wir einige für die Lineare Algebra und für die Analysis wichtige Grundbegriffe. Wir beginnen mit dem Begriff der Menge. Auf Cantor

Mehr

Lineare Abhängigkeit

Lineare Abhängigkeit Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x

Mehr

x y f : R 2 R 3, Es gilt: Bild f = y : wobei x,y R Kern f = 0 (wird auf der nächsten Folie besprochen)

x y f : R 2 R 3, Es gilt: Bild f = y : wobei x,y R Kern f = 0 (wird auf der nächsten Folie besprochen) Def Wiederholung Sei f : V U eine lineare Abbildung Das Bild von f ist die folgende Teilmenge von U: Bild f = {u U so dass es gibt ein Element v V mit f (v) = u} (Andere Bezeichnung: f (V) wird in Analysis-Vorlesung

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine Vektorräume (Teschl/Teschl 9 Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen: Eine

Mehr

Lineare Algebra I. Christian Ebert & Fritz Hamm. Gruppen & Körper. Vektorraum, Basis & Dimension. Lineare Algebra I. 18.

Lineare Algebra I. Christian Ebert & Fritz Hamm. Gruppen & Körper. Vektorraum, Basis & Dimension. Lineare Algebra I. 18. 18. November 2011 Wozu das alles? Bedeutung von Termen Vektoren in R n Ähnlichkeiten zwischen Termbedeutungen Skalarprodukt/Norm/Metrik in R n Komposition von Termbedeutungen Operationen auf/abbildungen

Mehr

Lösung 7: Lineare Abbildungen: Kern, Bild, Rang und Darstellung durch Matrizen

Lösung 7: Lineare Abbildungen: Kern, Bild, Rang und Darstellung durch Matrizen D-MATH Lineare Algebra I HS 2017 Dr. Meike Akveld Lösung 7: Lineare Abbildungen: Kern, Bild, Rang und Darstellung durch Matrizen 1. a) Seien v 1, v 2 V, λ K, dann sind Also ist id V linear. b) Seien v

Mehr

Aufgaben zur linearen Algebra und analytischen Geometrie I

Aufgaben zur linearen Algebra und analytischen Geometrie I Aufgaben zur linearen Algebra und analytischen Geometrie I Es werden folgende Themen behandelt:. Formale und logische Grundlagen 2. Algebraische Grundlagen 3. Vektorräume und LGS 4. Homomorphismen und

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

Der Rangsatz für lineare Abbildungen

Der Rangsatz für lineare Abbildungen Der Rangsatz für lineare Abbildungen Satz Sei f : V W eine lineare Abbildung Dann gilt dim V = dim Kern(f) + dim Bild(f), also gleichbedeutend dim Kern(f) = dim V rg(f) Da uns in der Regel bei gegebenem

Mehr

Höhere Mathematik II für die Fachrichtung Physik

Höhere Mathematik II für die Fachrichtung Physik Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Michael Hott, M. Sc. SS 6 9.4.6 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum. Übungsblatt Aufgabe

Mehr

Musterlösung Serie 8

Musterlösung Serie 8 D-MATH Lineare Algebra I HS 018 Prof. Richard Pink Musterlösung Serie 8 Dimension, Direkte Summe & Komplemente 1. Zeige: Für jedes Erzeugendensystem E eines Vektorraums V und jede linear unabhängige Teilmenge

Mehr

2 Mengen, Abbildungen und Relationen

2 Mengen, Abbildungen und Relationen Vorlesung WS 08 09 Analysis 1 Dr. Siegfried Echterhoff 2 Mengen, Abbildungen und Relationen Definition 2.1 (Mengen von Cantor, 1845 1918) Eine Menge M ist eine Zusammenfassung von wohlbestimmten und wohl

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Wintersemester 2014/15 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof Dr H Brenner Osnabrück WS 25/26 Lineare Algebra und analytische Geometrie I Schläft ein Lied in allen Dingen, Die da träumen fort und fort, Und die Welt hebt an zu singen, Triffst du nur das Zauberwort

Mehr

2 Grundstrukturen. 2.1 Gruppen. Prof. Dr. Peter Schneider. Vorlesung WS Lineare Algebra 1 2 GRUNDSTRUKTUREN

2 Grundstrukturen. 2.1 Gruppen. Prof. Dr. Peter Schneider. Vorlesung WS Lineare Algebra 1 2 GRUNDSTRUKTUREN Vorlesung WS 08 09 Lineare Algebra 1 Prof. Dr. Peter Schneider 2 Grundstrukturen Notation: Sind M und N zwei Mengen, so heißt die Menge M N := {(m, n) : m M, n N} das cartesische Produkt oder auch die

Mehr

Algebra und Zahlentheorie WS 13/14

Algebra und Zahlentheorie WS 13/14 Algebra und Zahlentheorie WS 13/14 FU Berlin David Müßig http://page.mi.fu-berlin.de/def/auz14/ [email protected] 21.01.2014 1 Hintergrund: Basen & Vektorräume 1.1 Grundlegende Begriffe Da einige

Mehr

32 2 Lineare Algebra

32 2 Lineare Algebra 3 Lineare Algebra Definition i Die Vektoren a,, a k R n, k N, heißen linear unabhängig genau dann, wenn für alle λ,, λ k R aus der Eigenschaft λ i a i λ a + + λ k a k folgt λ λ k Anderenfalls heißen die

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof. Dr. H. Brenner Osnabrück WS 2015/2016 Lineare Algebra und analytische Geometrie I Vorlesung 8 Dimensionstheorie Ein endlich erzeugter Vektorraum hat im Allgemeinen ganz unterschiedliche Basen. Wenn

Mehr

Skript und Übungen Teil II

Skript und Übungen Teil II Vorkurs Mathematik Herbst 2009 M. Carl E. Bönecke Skript und Übungen Teil II Das erste Semester wiederholt die Schulmathematik in einer neuen axiomatischen Sprache; es ähnelt damit dem nachträglichen Erlernen

Mehr

6.2 Basen. Wintersemester 2013/2014. Definition Seien V ein K-Vektorraum, n N 0 und v 1,..., v n V. (a) Man nennt

6.2 Basen. Wintersemester 2013/2014. Definition Seien V ein K-Vektorraum, n N 0 und v 1,..., v n V. (a) Man nennt Universität Konstanz Fachbereich Mathematik und Statistik Wintersemester 213/214 Markus Schweighofer Lineare Algebra I 6.2 Basen Definition 6.2.1. Seien V ein K-Vektorraum, n N und v 1,..., v n V. (a)

Mehr

Übungsklausur zur Vorlesung Lineare Algebra und Analytische Geometrie I

Übungsklausur zur Vorlesung Lineare Algebra und Analytische Geometrie I Humboldt-Universität zu Berlin.0.08. Mathematisch-Naturwissenschaftliche Fakultät II, Institut für Mathematik A. Filler Übungsklausur zur Vorlesung Lineare Algebra und Analytische Geometrie I Bitte lösen

Mehr