Lineare Algebra II. Sommersemester 2012 Universität Bayreuth Michael Stoll. Inhaltsverzeichnis

Größe: px
Ab Seite anzeigen:

Download "Lineare Algebra II. Sommersemester 2012 Universität Bayreuth Michael Stoll. Inhaltsverzeichnis"

Transkript

1 Lineare Algebra II Sommersemester 2012 Universität Bayreuth Michael Stoll Inhaltsverzeichnis 18. Summen von Untervektorräumen, Komplemente, Kodimension Polynome und Matrizen bzw. Endomorphismen Die Jordansche Normalform Simultane Diagonalisierbarkeit Äquivalenzrelationen, Quotientenräume und affine Unterräume Der Dualraum Bilinearformen und quadratische Formen Euklidische Vektorräume Orthogonale Diagonalisierung Klassifikation von Quadriken Unitäre Vektorräume Orthogonale Gruppen und Quaternionen Äußere direkte Summe und Tensorprodukt Symmetrische und alternierende Potenzen 111 Druckversion vom 2. April 2014, 21:45 Uhr.

2 18. Summen von Untervektorräumen, Komplemente, Kodimension Summen von Untervektorräumen, Komplemente, Kodimension Unser nächstes größeres Ziel ist die Vervollständigung der Klassifikation der Endomorphismen eines endlich-dimensionalen Vektorraums V (oder äquivalent: der Klassifikation von n n-matrizen bis auf Ähnlichkeit) im Fall, dass das charakteristische Polynom in Linearfaktoren zerfällt (was über einem algebraisch abgeschlossenen Körper wie C immer der Fall ist). Das wird auf die sogenannte Jordan-Normalform führen. In diesem Zusammenhang wird es hilfreich sein, den Vektorraum V zu zerlegen, sodass der Endomorphismus auf den einzelnen Teilen von V ein leicht überschaubares Verhalten zeigt. Dafür brauchen wir den Begriff der direkten Summe von (Unter-)Vektorräumen. Sei V ein Vektorraum. Wir erinnern uns daran, dass beliebige Durchschnitte von Untervektorräumen von V wieder Untervektorräume sind (Lemma 7.2), dass das im Allgemeinen aber nicht für Vereinigungen von Untervektorräumen gilt. Statt dessen können wir aber den kleinsten Untervektorraum betrachten, der alle betrachteten Untervektorräume (und damit ihre Vereinigung) enthält. Das führt auf folgende Definition Definition. Seien V ein Vektorraum und (U i ) i I eine Familie von Unter- DEF vektorräumen von V. Dann heißt der von der Vereinigung i I U i erzeugte Untervektorraum von V die Summe der Untervektorräume U i ; wir schreiben U i = i I Im Fall I = {1, 2,..., n} schreibt man auch statt i I U i. U 1 + U U n i I U i. oder Die Schreibweise erklärt sich durch die folgende Eigenschaft. n i=1 U i Summe von Unter-VR Lemma. Sei V ein Vektorraum. LEMMA Elemente (1) Sind U 1, U 2,..., U n Untervektorräume von V, dann ist der Summe U 1 + U U n = {u 1 + u u n u 1 U 1, u 2 U 2,..., u n U n }. (2) Ist (U i ) i I eine Familie von Untervektorräumen von V, dann ist { } U i = u i J I endlich, u i U i für alle i J. i I i J Beweis. Es ist klar, dass die jeweils rechts stehende Menge in der links stehenden enthalten ist, denn ihre Elemente sind Linearkombinationen von Elementen von U 1... U n bzw. i I U i (Satz 7.8). Wir zeigen, dass die rechts stehende Menge ein Untervektorraum von V ist. Dann folgt analog zum Beweis von Satz 7.8, dass sie das Erzeugnis der Vereinigung der U i ist. Sei U die Menge auf der rechten Seite. Wir prüfen die drei Bedingungen für einen Untervektorraum nach (Definition 6.1). Dabei nutzen wir aus, dass die U i Untervektorräume sind. 0 U: Wir können alle u i = 0 wählen (bzw. im zweiten Fall für J die leere Menge nehmen).

3 18. Summen von Untervektorräumen, Komplemente, Kodimension 3 Abgeschlossenheit unter der Addition: Im ersten Fall seien u = u 1 + u u n und u = u 1 + u u n zwei Elemente von U (mit u i, u i U i für alle i {1, 2,..., n}). Dann ist auch u + u = (u 1 + u 1) + (u 2 + u 2) (u n + u n) U. Im zweiten Fall seien J, J I endlich und u = i J u i und u = i J u i zwei Elemente von U. Wenn wir u i = 0 (bzw. u i = 0) setzen für i J \ J (bzw. i J \ J ), dann gilt u + u = u i + u i = u i + u i = (u i + u i) U. i J i J i J J i J J i J J Abgeschlossenheit unter der Skalarmultiplikation: Seien λ ein Skalar und u = u 1 + u u n bzw. u = i J u i ein Element von U. Dann ist λu = λu 1 + λu λu n bzw. λu = i J λu i wieder ein Element von U Beispiele. BSP Summen von Ist I =, dann ist i I U i = {0} der Null-Vektorraum. Unter-VR Ist U V ein Untervektorraum, dann gilt U + U = U. Ist V ein Vektorraum, I eine Menge und sind (für i I) A i V beliebige Teilmengen, dann gilt A i = A i. i I i I (Beweis als Übung.) Das bedeutet: Ist A i ein Erzeugendensystem von U i (für alle i I), dann ist i I A i ein Erzeugendensystem von i I U i. Was kann man über die Dimension von U = U 1 + U 2 sagen? Da U 1 U und U 2 U, gilt jedenfalls dim U max{dim U 1, dim U 2 } (und Gleichheit ist möglich, nämlich genau dann, wenn U 1 U 2 oder U 2 U 1 ). Wie groß kann dim U höchstens werden? Wenn B 1 eine Basis von U 1 und B 2 eine Basis von U 2 ist, dann ist nach dem obigen Beispiel B 1 B 2 ein Erzeugendensystem von U, also gilt dim U #(B 1 B 2 ) #B 1 + #B 2 = dim U 1 + dim U 2. Der folgende Satz gibt genauere Auskunft.

4 18. Summen von Untervektorräumen, Komplemente, Kodimension Satz. Sei V ein Vektorraum mit Untervektorräumen U 1 und U 2. Dann gilt SATZ Dimension dim(u 1 + U 2 ) + dim(u 1 U 2 ) = dim U 1 + dim U 2. der Summe Daran sieht man, dass dim(u 1 + U 2 ) = dim U 1 + dim U 2 genau dann gilt, wenn U 1 und U 2 den kleinstmöglichen Durchschnitt {0} haben (vorausgesetzt, alle Dimensionen sind endlich). Beweis. Ist dim U 1 = oder dim U 2 =, dann ist auch dim(u 1 + U 2 ) = (denn U 1, U 2 U 1 + U 2 ), und die Gleichung stimmt. Wir können also annehmen, dass U 1 und U 2 beide endlich-dimensional sind, etwa dim U 1 = n 1 und dim U 2 = n 2. Sei m = dim(u 1 U 2 ) min{n 1, n 2 }. Wir wählen eine Basis (b 1, b 2,..., b m ) von U 1 U 2, die wir einerseits zu einer Basis (b 1,..., b m, b m+1, b m+2,..., b n 1 ) von U 1 und andererseits zu einer Basis (b 1,..., b m, b m+1, b m+2,..., b n 2 ) von U 2 ergänzen (Basisergänzungssatz mit Folgerung 8.16). Ich behaupte, dass B = (b 1,..., b m, b m+1, b m+2,..., b n 1, b m+1, b m+2,..., b n 2 ) eine Basis von U 1 + U 2 ist. Daraus folgt die Gleichung im Satz, denn dim(u 1 + U 2 ) = #B = m + (n 1 m) + (n 2 m) = n 1 + n 2 m. Es bleibt die Behauptung zu zeigen. Es ist klar, dass B ein Erzeugendensystem von U 1 + U 2 ist, denn B enthält Erzeugendensysteme von U 1 und von U 2. Wir müssen also noch nachweisen, dass B linear unabhängig ist. Seien also λ i (für i {1, 2,..., m}), λ i (für i {m + 1,..., n 1 }) und λ i (für i {m + 1,..., n 2 }) Skalare mit λ 1 b λ m b m + λ m+1b m λ n 1 b n 1 + λ m+1b m λ n 2 b n 2 = 0. Wir schreiben diese Gleichung als u = λ 1 b λ m b m + λ m+1b m λ n 1 b n }{{} 1 = λ m+1b m+1... λ n 2 b n }{{} 2 U 1 U 2. Wir sehen, dass u U 1 U 2 ist, also ist u eine Linearkombination von b 1,..., b m. Da b 1,..., b m, b m+1,..., b n 1 und b 1,..., b m, b m+1,..., b n 2 jeweils linear unabhängig sind (als Basen von U 1 und U 2 ), müssen λ m+1 =... = λ n 1 = λ m+1 =... = λ n 2 = 0 sein; daraus folgt dann auch λ 1 =... = λ m = 0. Man kann sich die Aussage ganz gut mit Hilfe der analogen Aussage über Kardinalitäten von Mengen merken: #(M 1 M 2 ) + #(M 1 M 2 ) = #M 1 + #M 2. Tatsächlich beruht obiger Beweis auf dieser Relation, wobei die Mengen Basen der vorkommenden Untervektorräume sind. Allerdings darf man diese Analogie auch nicht zu weit treiben: Die für Mengen gültige Relation #(M 1 M 2 M 3 ) + #(M 1 M 2 ) + #(M 1 M 3 ) + #(M 2 M 3 ) = #M 1 + #M 2 + #M 3 + #(M 1 M 2 M 3 ) übersetzt sich nicht in eine analoge Dimensionsformel (Übung). Besonders interessant ist der Fall U 1 U 2 = {0}.

5 18. Summen von Untervektorräumen, Komplemente, Kodimension Lemma. Sei V ein Vektorraum mit Untervektorräumen U 1 und U 2. Dann LEMMA sind die folgenden Aussagen äquivalent: Summe direkt (1) U 1 U 2 = {0}. (2) Jedes Element u U 1 + U 2 lässt sich eindeutig schreiben als u = u 1 + u 2 mit u 1 U 1 und u 2 U 2. Ist U 1 + U 2 endlich-dimensional, dann sind beide Aussagen äquivalent zu (3) dim(u 1 + U 2 ) = dim U 1 + dim U 2. Beweis. Die Äquivalenz von (1) und (3) (unter der angegebenen Voraussetzung) folgt direkt aus der Dimensionsformel in Satz Wir zeigen noch die Äquivalenz von (1) und (2). Es gelte (1) und es sei u = u 1 + u 2 = u 1 + u 2 mit u 1, u 1 U 1 und u 2, u 2 U 2. Daraus folgt u 1 u 1 = u 2 u 2 U 1 U 2 = {0}, also u 1 = u 1 und u 2 = u 2. Jetzt gelte (2) und es sei u U 1 U 2. Dann sind 0 = = u + ( u) zwei Darstellungen des Nullvektors; aus der Eindeutigkeit der Summendarstellung folgt also u = Definition. Wenn die Aussagen in Lemma 18.5 gelten, dann heißt die DEF Summe von U 1 und U 2 direkt. direkte Eigenschaft (1) in Lemma 18.5 lässt sich auch so ausdrücken: u 1 U 1, u 2 U 2 : ( u 1 + u 2 = 0 u 1 = u 2 = 0 ). Summe zweier UVR In dieser Form lässt sie sich verallgemeinern Definition. Seien V ein Vektorraum und (U i ) i I eine Familie von Unter- DEF vektorräumen von V. Dann heißt die Summe der U i direkt, wenn für jede endliche direkte Teilmenge J I und beliebige Elemente u i U i für i J gilt Summe u i = 0 = i J : u i = 0. i J Ist V = i I U i und die Summe direkt, dann schreiben wir auch V = i I U i bzw. V = U 1 U 2... U n, wenn I = {1, 2,..., n} ist. Lemma 18.5 hat dann die folgende Verallgemeinerung Lemma. Seien V ein Vektorraum und (U i ) i I eine Familie von Untervek- LEMMA torräumen von V. Dann sind die folgenden Aussagen äquivalent: (1) Für jedes i I gilt U i j I\{i} U j = {0}. direkte Summe (2) Die Summe der U i ist direkt. Ist I endlich und i I U i endlich-dimensional, dann sind die Aussagen äquivalent zu (3) dim i I U i = i I dim U i.

6 18. Summen von Untervektorräumen, Komplemente, Kodimension 6 Beweis. (1) (2) : Sei J I endlich und seien u i U i für i J mit i J u i = 0. Sei i 0 J. Dann ist u i0 = ( u i ) U i0 U i = {0}, i J\{i 0 } i I\{i 0 } also ist u i0 = 0. Da i 0 J beliebig war, müssen alle u i = 0 sein; damit ist die Summe direkt. (2) (1) : Sei i I und u U i j I\{i} U j. Dann gibt es J I \ {i} endlich und Elemente u j U j für j J, sodass u j = u, also ( u) + u j = 0 j J j J ist, wobei u als Element von U i betrachtet wird. Definition 18.7 besagt dann, dass u = 0 sein muss. (2) (3) : Ist i I U i endlich-dimensional, dann gilt das auch für alle U i (denn sie sind in der Summe enthalten). Für jedes i I sei B i eine Basis von U i, dann ist B = i I B i ein (endliches) Erzeugendensystem von i I U i. B ist linear unabhängig: Sei B i = {b i1, b i2,..., b imi } mit m i = dim U i und seien λ ij Skalare mit m i λ ij b ij = 0. i I j=1 }{{} U i Weil die Summe direkt ist, folgt m i j=1 λ ijb ij = 0 für alle i I und dann λ ij = 0 für alle j {1, 2,..., m i }, weil B i eine Basis ist. Als linear unabhängiges Erzeugendensystem ist B eine Basis von i I U i, also gilt dim i I U i = #B = i I #B i = i I dim U i. (3) (1) : Es gilt dim U i = dim U i dim U i + dim U j i I i I j I\{i} dim U i + dim U j = dim U i, j I\{i} i I also muss überall Gleichheit herrschen. Aus Satz 18.4 folgt dann U i U j = {0}. j I\{i} Beispiel. Hier ist ein Beispiel, das zeigt, dass die vielleicht erst einmal BSP näher liegende Version i, j I : i j U i U j = {0} für Bedingung (1) nicht ausreichend ist. Seien V = R 2, U 1 = (1, 0), U 2 = (0, 1) und U 3 = (1, 1). Dann gilt offenbar U 1 U 2 = U 1 U 3 = U 2 U 3 = {(0, 0)}, aber die Summe U 1 + U 2 + U 3 ist nicht direkt. Zum Beispiel gilt (0, 0) = (1, 0) + (0, 1) + ( 1, 1) als Summe je eines Elements von U 1, U 2 und U 3.

7 18. Summen von Untervektorräumen, Komplemente, Kodimension 7 Eine Zerlegung von V als direkte Summe, V = U 1 U 2, führt in natürlicher Weise zu zwei linearen Abbildungen π 1 : V U 1 und π 2 : V U 2. Wir erhalten sie wie folgt: Jedes v V lässt sich eindeutig schreiben als v = u 1 + u 2 mit u 1 U 1 und u 2 U 2. Dann ist π 1 (v) = u 1 und π 2 (v) = u 2. Diese Abbildungen sind linear, weil λv = λu 1 + λu 2 ist, und für v = u 1 + u 2 gilt v + v = (u 1 + u 1) + (u 2 + u 2). Außerdem sind π 1 und π 2 surjektiv, denn π 1 U1 = id U1 und π 2 U2 = id U Definition. Die Abbildungen π 1 und π 2 heißen die Projektionen von V DEF auf U 1 bzw. U 2 bezüglich der Zerlegung V = U 1 U 2. Projektionen Wenn wir mit p 1, p 2 : V V die Abbildungen bezeichnen, die durch p i (v) = π i (v) gegeben sind (sie unterscheiden sich von π 1 und π 2 nur durch den vergrößerten Wertebereich), dann gilt p 1 p 1 = p 1, p 2 p 2 = p 2 und p 1 + p 2 = id V. Umgekehrt gilt: Ist p : V V ein Projektor, d.h. eine lineare Abbildung mit p p = p, dann gilt V = im(p) ker(p), wobei ker(p) = im(id V p) ist (Übung). Mit p = id V p gilt dann auch p p = p und p + p = id V. Wir führen jetzt noch zwei Begriffe ein, die manchmal nützlich sind Definition. Seien V ein Vektorraum und U V ein Untervektorraum. DEF Ein weiterer Untervektorraum U V heißt komplementär zu U oder ein Komplement von U in V, wenn V = U U gilt. (Das bedeutet U U = {0} und Komplement U + U = V.) Beispiele. BSP V ist das einzige Komplement von {0} in V und {0} ist das einzige Komplement Komplemente von V in V. Normalerweise gibt es aber viele Komplemente. Sei zum Beispiel V = R 2 und U = (1, 0) V. Dann sind die Komplemente von U gerade alle Untervektorräume der Form U = (a, 1) mit a R beliebig. Gibt es immer ein Komplement? Satz. Seien V ein endlich-dimensionaler Vektorraum und U V ein SATZ Untervektorraum. Dann gibt es ein Komplement U von U in V. Es gilt dann dim U + dim U = dim V. Existenz von Komplementen Beweis. Sei m = dim U dim V = n. Wir wählen eine Basis (b 1, b 2,..., b m ) von U und ergänzen sie zu einer Basis (b 1,..., b m, b m+1,..., b n ) von V. Dann ist U = b m+1,..., b n ein Komplement von U: U + U = b 1,..., b m, b m+1,..., b n = V und U U = {0}, weil b 1,..., b n linear unabhängig sind. Die Dimensionsformel folgt aus Lemma 18.5.

8 18. Summen von Untervektorräumen, Komplemente, Kodimension 8 Derselbe Beweis zeigt, dass es auch in beliebigen Vektorräumen stets Komplemente gibt, wenn man den Basisergänzungssatz für Mengen verwendet, der mit Hilfe des Zornschen Lemmas bewiesen wurde. Vergleiche die Diskussion nach Satz Wir sehen hier insbesondere, dass alle Komplemente von U dieselbe Dimension dim V dim U haben. Das gilt ganz allgemein, auch wenn V unendliche Dimension hat Lemma. Seien V ein Vektorraum und U V ein Untervektorraum. Seien LEMMA weiter U 1 und U 2 zwei Komplemente von U in V. Dann sind U 1 und U 2 isomorph; insbesondere gilt dim U 1 = dim U 2. Komplemente sind isomorph Beweis. Wir betrachten die lineare Abbildung φ = π ι : U 1 U 2; dabei sei ι : U 1 V die Inklusionsabbildung und π : V U 2 die Projektion bezüglich der Zerlegung V = U U 2. Dann gilt ker(φ) = ker(π) U 1 = U U 1 = {0}, also ist φ injektiv. (Die erste Gleichheit folgt daraus, dass ι injektiv ist.) Wir müssen noch zeigen, dass φ auch surjektiv ist, dann ist φ ein Isomorphismus und U 1 und U 2 sind isomorph. Sei dazu u 2 U 2. Dann gibt es eindeutig bestimmte u U und u 1 U 1 mit u 2 = u + u 1. Wir können das auch als u 1 = ( u) + u 2 lesen, woraus φ(u 1 ) = u 2 folgt. Damit ist folgende Definition sinnvoll Definition. Seien V ein Vektorraum und U V ein Untervektorraum, DEF der ein Komplement U in V hat. Dann heißt Kodimension die Kodimension von U in V. codim V U = dim U Es gilt dim U + codim V U = dim V : Ist die Kodimension klein, dann ist U groß, also nicht weit davon entfernt, ganz V zu sein Beispiel. Die Kodimension kann auch für unendlich-dimensionale Unter- BSP vektorräume endlich sein. Sei zum Beispiel P der reelle Vektorraum der Polynomfunktionen, sei a R und sei U a = {p P p(a) = 0} = ker ev a. Dann ist Kodimension der eindimensionale Untervektorraum C = x 1 der konstanten Funktionen ein Komplement von U a in P (für p P gilt eindeutig p = (p p(a))+p(a) U a +C), also ist codim P U a = 1. Dieselbe Überlegung zeigt, dass der Untervektorraum der in einem Punkt a verschwindenden Funktionen auch in anderen Funktionenräumen (alle Funktionen, stetige Funktionen, n-mal stetig differenzierbare Funktionen usw.) Kodimension 1 hat. Mit Polynomdivision (Satz 14.18) sieht man analog: Sind a 1, a 2,..., a n R paarweise verschieden und ist U a1,...,a n = U a1 U a2... U an der Untervektorraum der Polynomfunktionen, die in a 1,..., a n verschwinden, dann ist der Untervektorraum P <n der Polynomfunktionen vom Grad < n ein Komplement von U a1,...,a n in P, also gilt codim P U a1,...,a n = n. Denn jedes Polynom p kann eindeutig geschrieben werden als p(x) = q(x)(x a 1 )(x a 2 ) (x a n ) + r(x) mit q P und r P <n, und die Polynomfunktionen, die in a 1,..., a n verschwinden, sind von der Form x q(x)(x a 1 )(x a 2 ) (x a n ).

9 18. Summen von Untervektorräumen, Komplemente, Kodimension 9 Der Begriff der Kodimension erlaubt eine etwas genauere Formulierung des Rangsatzes Zur Erinnerung: Der Satz besagt, dass für eine lineare Abbildung φ : V W gilt dim ker(φ) + rk(φ) = dim ker(φ) + dim im(φ) = dim V. Wenn V unendlich-dimensional ist, dann ist das eine relativ schwache Aussage. Die folgende Version gibt zusätzliche Information, wenn der Rang von φ endlich ist: Satz. Sei φ : V W eine lineare Abbildung mit rk(φ) <. Dann gilt SATZ Rangsatz mit codim V ker(φ) = dim im(φ) = rk(φ). Kodimension Beweis. Wir wählen eine Basis (b 1, b 2,..., b m ) von im(φ) (mit m = dim im(φ)). Seien weiter v 1, v 2,..., v m V Urbilder von b 1, b 2,..., b m unter φ. Dann sind v 1, v 2,..., v m linear unabhängig, denn aus folgt λ 1 v 1 + λ 2 v λ m v m = 0 0 = φ(λ 1 v 1 + λ 2 v λ m v m ) = λ 1 b 1 + λ 2 b λ m b m und damit λ 1 = λ 2 =... = λ m = 0, weil b 1, b 2,..., b m linear unabhängig sind. Wir setzen U = v 1, v 2,..., v m V ; dann ist U ein Komplement von ker(φ) in V und dim U = m, woraus die Behauptung folgt. U + ker(φ) = V : Sei v V, dann gibt es Skalare λ 1,..., λ m mit φ(v) = λ 1 b λ m b m. Sei v = v (λ 1 v λ m v m ), dann ist φ(v ) = φ(v) (λ 1 b λ m b m ) = 0, also v ker(φ) und v = v + (λ 1 v λ m v m ) ker(φ) + U. U ker(φ) = {0}: Sei v U ker(φ), dann gibt es Skalare λ 1,..., λ m mit v = λ 1 v λ m v m. Außerdem gilt 0 = φ(v) = λ 1 b λ m b m, woraus λ 1 =... = λ m = 0 und damit v = 0 folgt. Zum Abschluss dieses Abschnitts werden wir untersuchen, wann eine Zerlegung eines Vektorraums V als direkte Summe V = U 1 U 2... U n einer analogen Zerlegung eines Endomorphismus f von V entspricht. Dazu müssen wir erst einmal sagen, was Letzteres bedeutet.

10 18. Summen von Untervektorräumen, Komplemente, Kodimension Lemma. Sei V = U 1 U 2... U n eine Zerlegung eines Vektorraums V LEMMA als direkte Summe von Untervektorräumen. Seien weiter direkte Summe von f 1 : U 1 U 1, f 2 : U 2 U 2,..., f n : U n U n Endomorphismen lineare Abbildungen. Dann gibt es einen eindeutig bestimmten Endomorphismus f von V mit f(v) = f i (v) für alle i {1, 2,..., n} und alle v U i. Beweis. Jedes v V lässt sich eindeutig schreiben als v = u 1 + u u n mit u 1 U 1, u 2 U 2,..., u n U n. Wenn f(u i ) = f i (u i ) gelten soll, dann müssen wir f definieren durch f(v) = f 1 (u 1 ) + f 2 (u 2 ) f n (u n ). Dann gilt auch f(v) = f i (v) für v U i ; es bleibt nur noch zu zeigen, dass f linear ist. Das folgt aus f = ι 1 f 1 π 1 + ι 2 f 2 π ι n f n π n, wobei π i : V U i die Projektion auf U i und ι i : U i V die Inklusionsabbildung ist. (Alternativ kann man das auch wie vor Definition nachrechnen.) Definition. Die Abbildung f in Lemma heißt die direkte Summe DEF von f 1, f 2,..., f n ; wir schreiben f = f 1 f 2... f n. direkte Summe von Endomorphismen Wenn ein Endomorphismus f als direkte Summe von Endomorphismen f i geschrieben werden kann, dann muss offenbar f(u i ) U i gelten. Wir geben dieser Eigenschaft einen Namen: Definition. Seien V ein Vektorraum, U V ein Untervektorraum und DEF f ein Endomorphismus von V. Dann heißt U f-invariant oder invariant unter f, invarianter wenn f(u) U gilt. Untervektorraum Satz. Sei V = U 1 U 2... U n eine Zerlegung eines Vektorraums V als SATZ direkte Summe von Untervektorräumen. Sei weiter f End(V ). Dann lässt sich f genau dann als direkte Summe von Endomorphismen f i End(U i ) schreiben, wenn alle Untervektorräume U i invariant unter f sind. Zerlegung von Endomorphismen Beweis. Wir hatten schon gesehen, dass die Bedingung notwendig ist. Wir müssen noch zeigen, dass sie auch hinreichend ist. Es gelte also f(u i ) U i für alle i {1, 2,..., n}. Dann können wir f i End(U i ) definieren durch f i (u) = f(u) für u U i ; damit gilt f = f 1 f 2... f n.

11 18. Summen von Untervektorräumen, Komplemente, Kodimension Beispiel. Ist f ein Endomorphismus von V und λ ein Skalar, dann ist der BSP Eigenraum E λ (f) unter f invariant (denn f(v) = λv für v E λ (f)). Ist V endlich-dimensional und f End(V ) diagonalisierbar mit paarweise verschiedenen Eigenwerten λ 1, λ 2,..., λ m, dann gilt V = E λ1 (f) E λ2 (f)... E λm (f) (denn V hat eine Basis aus Eigenvektoren von f) und f = f 1 f 2... f m mit f i = λ i id Eλi (f). In diesem Fall lässt sich f also in besonders einfach gebaute Abbildungen zerlegen. Zerlegung bei Diagonalisierbarkeit

12 19. Polynome und Matrizen bzw. Endomorphismen Polynome und Matrizen bzw. Endomorphismen Als wir in der Linearen Algebra I über Polynome gesprochen haben, haben wir gesehen, dass man Elemente des zu Grunde liegenden Körpers in ein Polynom einsetzen kann (Definition 14.14). Man kann aber auch allgemeinere Objekte einsetzen, zum Beispiel Matrizen Definition. Sei K ein Körper, sei n N und seien p K[X] ein Poly- DEF nom und A Mat(n, K). Wie üblich setzen wir A 0 = I n (das Einselement des Matrizenrings Mat(n, K)) und A k+1 = A A k für k N. Ist p = a 0 + a 1 X + a 2 X a m X m, dann definieren wir Einsetzen von Matrizen und Endomorphismen in Polynome m p(a) = a j A j = a 0 I n + a 1 A + a 2 A a m A m Mat(n, K). j=0 Ist V ein K-Vektorraum und f ein Endomorphismus von V, dann setzen wir analog f 0 = id V und f (k+1) = f f k und definieren m p(f) = a j f j = a 0 id V +a 1 f + a 2 f a m f m End(V ). j=0 Dann ist Folgendes klar: Ist A die Matrix von f bezüglich einer Basis B von V, dann ist p(a) die Matrix von p(f) bezüglich B. Wir zeigen noch, dass die Abbildungen K[X] Mat(n, K), p p(a), und K[X] End(V ), p p(f), schöne Eigenschaften haben Lemma. In der Situation von Definition 19.1 gilt für p, q K[X]: LEMMA Einsetzungs- (p + q)(a) = p(a) + q(a) und (pq)(a) = p(a) q(a) homomor- phismus bzw. (p + q)(f) = p(f) + q(f) und (pq)(f) = p(f) q(f). Außerdem ist 1(A) = I n und 1(f) = id V, wobei 1 das konstante Polynom 1 bezeichnet. Beweis. Das folgt aus den Rechenregeln für Matrizen bzw. Endomorphismen (also daraus, dass Mat(n, K) und End(V ) Ringe sind), zusammen mit λa = (λi n )A = A(λI n ) und λf = (λ id V ) f = f (λ id V ). Sind R und R zwei Ringe, dann heißt eine Abbildung φ : R R ein Ringhomomorphismus, wenn φ(1 R ) = 1 R und für alle r 1, r 2 R gilt φ(r 1 + r 2 ) = φ(r 1 ) + φ(r 2 ) und φ(r 1 r 2 ) = φ(r 1 )φ(r 2 ) (d.h., φ bildet die Einselemente aufeinander ab und ist mit Addition und Multiplikation verträglich). Die Abbildungen K[X] Mat(n, R), p p(a), und K[X] End(V ), p p(f), sind also Ringhomomorphismen. Weil sie dadurch gegeben sind, dass man etwas in die Polynome einsetzt, heißen sie auch Einsetzungshomomorphismen. Mehr über Ringe im Allgemeinen und Polynomringe im Besonderen gibt es in der Einführung in die Zahlentheorie und algebraische Strukturen.

13 19. Polynome und Matrizen bzw. Endomorphismen Beispiel. Sei A Mat(n, K), sei v E λ (A) und p K[X]. Dann gilt BSP p(a) v = p(λ)v. Sei eine Matrix A Mat(n, K) gegeben. Dann kann man sich fragen, ob es stets ein Polynom p K[X] gibt mit p(a) = 0 (und p 0), bzw. was man über die Menge solcher Polynome mit Nullstelle A aussagen kann. Die erste Frage kann man leicht beantworten Lemma. Seien K ein Körper und A Mat(n, K). Dann gibt es ein nor- LEMMA miertes Polynom p K[X] mit deg(p) n 2, sodass p(a) = 0 ist. Beweis. Der Beweis ist eine schöne Anwendung grundlegender Resultate der Linearen Algebra. Mat(n, K) ist ein K-Vektorraum der Dimension n 2, also müssen die n Elemente A 0, A 1, A 2,..., A n2 Mat(n, K) linear abhängig sein. Es gibt also λ 0, λ 1,..., λ n 2 K, nicht alle null, mit n 2 j=0 λ ja j = 0. Wir setzen m = max{j λ j 0}. Nach eventueller Multiplikation mit λ 1 m können wir λ m = 1 annehmen. Die Behauptung folgt dann mit p = m j=0 λ jx j. Die zweite Frage kann man wie folgt beantworten: Lemma. Seien K ein Körper und A Mat(n, K). Sei LEMMA P (A) = {p K[X] p(a) = 0}. Dann gilt: (1) 0 P (A). (2) Aus p, q P (A) folgt p + q P (A). (3) Aus p P (A), q K[X] folgt qp P (A). Beweis. Die erste Aussage ist klar. Die beiden anderen sieht man so: (p+q)(a) = p(a)+q(a) = 0+0 = 0 und (qp)(a) = q(a) p(a) = q(a) 0 = 0. Sei R ein kommutativer Ring. Eine Teilmenge I R heißt ein Ideal von R, wenn I die obigen Eigenschaften hat: 0 I, r, r I r + r I, r R, r I rr I. Ist φ : R R ein Ringhomomorphismus, dann zeigt derselbe Beweis wie oben, dass sein Kern ker(φ) = {r R φ(r) = 0} ein Ideal von R ist. Die Tatsache, dass es im Polynomring eine Division mit Rest gibt, führt zu einer einfachen Beschreibung von P (A).

14 19. Polynome und Matrizen bzw. Endomorphismen Satz. Seien K ein Körper, n N und A Mat(n, K). Dann gibt es ein SATZ eindeutig bestimmtes normiertes Polynom m A 0 kleinsten Grades in P (A), und P (A) = {qm A q K[X]} Minimalpolynom besteht genau aus den Vielfachen von m A. Beweis. Nach Lemma 19.4 gibt es Polynome 0 in P (A), also gibt es normierte (denn man kann durch den Leitkoeffizienten teilen) Polynome in P (A). Sei m A ein solches mit minimalem Grad. Ist p ein weiteres normiertes Polynom in P (A) mit deg(p) = deg(m A ), dann ist p m A P (A) entweder das Nullpolynom (und damit p = m A ) oder 0 deg(p m A ) < deg(m A ). Nach Division durch den Leitkoeffizienten würde man dann ein normiertes Polynom in P (A) mit kleinerem Grad als deg(m A ) erhalten, im Widerspruch zur Wahl von m A. Also ist m A eindeutig bestimmt. Wir sehen auch, dass deg(m A ) = min{deg(p) 0 p P (A)} ist. Nach Lemma 19.5 ist klar, dass {qm A q K[X]} P (A) ist. Sei umgekehrt p P (A). Dann gibt es q, r K[X] mit p = qm A + r und deg(r) < deg(m A ) (Satz 14.18). Es folgt r P (A), und wegen deg(r) < deg(m A ) muss r = 0 sein. Damit ist p = qm A, also hat man auch die umgekehrte Inklusion. Derselbe Beweis zeigt, dass jedes Ideal I von K[X] die Form I = {pa p K[X]} hat mit einem geeigneten a K[X] (a = 0 ist möglich, dann ist I = {0}). So ein Ideal, dessen Elemente genau die Vielfachen eines Elements a sind, heißt ein Hauptideal, und ein Ring, in dem jedes Ideal ein Hauptideal ist, ist ein Hauptidealring. Wir haben also gezeigt, dass K[X] ein solcher Hauptidealring ist. Ein anderes Beispiel für einen Hauptidealring ist der Ring Z der ganzen Zahlen. Der Beweis ist im Wesentlichen der gleiche, nur dass man Division mit Rest von ganzen Zahlen verwendet statt der Polynomdivision Definition. Das Polynom m A in Satz 19.6 heißt das Minimalpolynom DEF von A. Ist f ein Endomorphismus eines endlich-dimensionalen Vektorraums, der bezüglich einer geeigneten Basis durch A beschrieben wird, dann heißt m f = m A Minimalpolynom das Minimalpolynom von f Beispiele. Seien n 1 und A Mat(n, K). BSP Minimalpolynome (1) Sei A = 0 die Nullmatrix. Dann ist m A = X. (2) Ist A = λi n, dann ist m A = X λ. Die Umkehrung gilt ebenfalls. (3) Ist A diagonalisierbar und hat die (paarweise verschiedenen) Eigenwerte λ 1,..., λ m, dann ist m A = (X λ 1 )(X λ 2 ) (X λ m ). Das Minimalpolynom zerfällt also in Linearfaktoren und hat keine mehrfachen Nullstellen. Das sieht man so: Jedes Element v von K n lässt sich schreiben als v = v v m mit v j E λj (A). Wegen Av j = λ j v j ist dann mit p = (X λ 1 )(X λ 2 ) (X λ m ) p(a) v = p(a) v 1 + p(a) v p(a) v m = p(λ 1 )v 1 + p(λ 2 )v p(λ m )v m = 0, also ist p ein Vielfaches von m A. Auf der anderen Seite gibt es für jedes j {1, 2,..., m} ein 0 v j E λj (A), und es muss gelten 0 = m A (A) v j = m A (λ j )v j, also ist m A (λ j ) = 0.

15 19. Polynome und Matrizen bzw. Endomorphismen 15 Das Minimalpolynom m A muss also alle λ j als Nullstellen haben und damit ist m A ein Vielfaches von p. Weil beide normiert sind, müssen sie gleich sein. Da das charakteristische Polynom von A die Form (X λ 1 ) e 1 (X λ 2 ) e2 (X λ m ) em hat, wobei die e j 1 (für j {1, 2,..., m}) die algebraischen Vielfachheiten der Eigenwerte sind, sehen wir, dass das charakteristische Polynom ein Vielfaches des Minimalpolynoms ist. Hat A n verschiedene Eigenwerte, dann sind die beiden Polynome gleich Definition. Wir schreiben χ A = det(xi n A) für das charakteristische DEF Polynom einer Matrix A Mat(n, K) und analog χ f für das charakteristische χ A Polynom eines Endomorphismus f eines endlich-dimensionalen Vektorraums. Das dritte Beispiel oben wirft zwei Fragen auf: Für A diagonalisierbar gilt, dass χ A ein Vielfaches von m A ist. Ist das auch allgemein richtig? Gilt die Umkehrung der Beobachtung im Beispiel: Wenn m A in Linearfaktoren zerfällt und keine mehrfachen Nullstellen hat, muss dann A diagonalisierbar sein? Die erste Frage wird durch den Satz von Cayley-Hamilton beantwortet, den wir bald beweisen werden. Die zweite können wir gleich behandeln Satz. Seien K ein Körper, n N und A Mat(n, K). Dann ist A genau SATZ dann diagonalisierbar, wenn das Minimalpolynom m A in Linearfaktoren zerfällt und keine mehrfachen Nullstellen hat. Die analoge Aussage gilt natürlich auch für Endomorphismen endlich-dimensionaler Vektorräume. Beweis. Es ist nur noch die Rückrichtung zu zeigen. Es gelte also m A = (X λ 1 )(X λ 2 ) (X λ m ) mit paarweise verschiedenen λ 1, λ 2,..., λ m K. Für j {1, 2,..., m} sei p j = i j X λ i λ j λ i K[X]. Dann gilt p j (λ i ) = δ ij und deg(p j ) m 1. Für die Summe p = p 1 + p p m gilt also p(λ j ) = 1 für alle j und deg(p) < m. Es folgt p = 1, denn das Polynom p 1 vom Grad < m hat mindestens m Nullstellen. Außerdem ist (X λ j )p j ein Vielfaches von m A, also ist (A λ j I n )p j (A) = 0. Sei U j = im(p j (A)) K n. Dann gelten die folgenden Aussagen: (1) U j E λj (A): Sei u U j, also u = p j (A) v für ein v K n. Es folgt 0 = (A λ j I n )p j (A) v = (A λ j I n ) u, also A u = λ j u. (2) U 1 + U U m = K n : Sei v K n. Dann gilt v = p(a) v = p 1 (A) v + p 2 (A) v p m (A) v U 1 + U U m. Kriterium für Diagonalisierbarkeit

16 19. Polynome und Matrizen bzw. Endomorphismen 16 Außerdem wissen wir ganz allgemein, dass die Summe der Eigenräume E λj (A) direkt ist (Satz 14.8). Zusammen mit den obigen beiden Aussagen folgt daraus K n = E λ1 (A) E λ2 (A)... E λm (A), also ist A diagonalisierbar. Damit wir dieses Kriterium anwenden können, müssen wir in der Lage sein, das Minimalpolynom zu bestimmen. Dabei wird uns die Antwort auf die erste Frage von oben helfen. Wir betrachten erst einmal 2 2-Matrizen (für 1 1-Matrizen ist die Aussage trivialerweise richtig) Beispiel. Sei A = ( a c d b ) Mat(2, K). Dann ist ( ) BSP a A 2 = 2 + bc (a + d)b (a + d)c d 2 = (a + d)a (ad bc)i + bc 2, also χ A (A) = 0, denn χ A = X 2 (a + d)x + (ad bc). Cayley- Hamilton für n = 2 Es ist jetzt vielleicht nicht mehr überraschend, dass das auch für beliebige n n- Matrizen gilt Satz. Seien K ein Körper, n N und A Mat(n, K). Dann ist SATZ Cayleyχ A (A) = 0. Hamilton Warum ist der folgende Beweis nicht korrekt? χ A (X) = det(xi n A) = χ A (A) = det(ai n A) = det(0) = 0. Wenn wir an dieser Stelle die richtigen Hilfsmittel zur Verfügung hätten, dann könnten wir so argumentieren: Die Aussage gilt für diagonalisierbare Matrizen nach Beispiel 19.8(3). Diagonalisierbare Matrizen sind dicht (in einem geeigneten Sinn) in allen n n-matrizen; die Aussage folgt dann, weil die Abbildung Mat(n, A) Mat(n, A), A χ A (A) stetig ist (wiederum in einem geeigneten Sinn). Das wird im Kleingedruckten unten genauer erklärt. Beweis. Wir gehen hier anders vor. Wir stellen erst einmal fest, dass wir auch mit Matrizen über kommutativen Ringen (statt über Körpern) rechnen können, solange wir nicht durch Ringelemente dividieren müssen. Insbesondere können wir Determinanten bilden und damit auch die adjungierte Matrix (siehe Definition 13.12). Wir wenden das an auf den Ring K[X], für den wir schon mit Determinanten gearbeitet haben, denn χ A ist ja definiert als det(xi n A). Sei also B = XI n A Mat(n, K[X]) und B die adjungierte Matrix zu B (deren Einträge bis aufs Vorzeichen Determinanten von (n 1) (n 1)-Untermatrizen von B sind). Dann gilt (Satz 13.13) (19.1) B(XIn A) = BB = det(b)i n = χ A (X)I n. Die Einträge von B sind Polynome in X vom Grad < n, wie man sich leicht überlegt; wir können also schreiben B = ( b (n 1) ij X n b (1) ij X + ) b(0) ij mit geeigneten Koeffizienten b (k) ij K. (Wir schreiben den oberen Index in Klammern, um eine Verwechslung mit Potenzen zu vermeiden.) Nach den Rechenregeln für Matrizen können wir das auch schreiben als B = B n 1 X n B 1 X + B 0 i,j

17 19. Polynome und Matrizen bzw. Endomorphismen 17 mit B k = (b (k) ij ) i,j Mat(n, K). Sei außerdem Wir setzen in (19.1) ein und erhalten χ A (X) = X n + a n 1 X n a 1 X + a 0. B n 1 X n + ( B n 2 B n 1 A)X n ( B 1 B 2 A)X 2 + ( B 0 B 1 A)X B 0 A = I n X n + a n 1 I n X n a 2 I n X 2 + a 1 I n X + a 0 I n. Koeffizientenvergleich zeigt dann B n 1 = I n, Bn 2 B n 1 A = a n 1 I n,..., B0 B 1 A = a 1 I n, B 0 A = a 0 I n. Wir multiplizieren diese Gleichungen von rechts mit A n, A n 1,..., A, I n und summieren auf: B n 1 A n = A n B n 1 A n + B n 2 A n 1 = a n 1 A n B 1 A 2 + B 0 A = a 1 A B 0 A = a 0 I n 0 = χ A (A) Ein Beweis, wie er oben angedeutet wurde, könnte etwa wie folgt aussehen. Wir zeigen die Aussage erst einmal für Matrizen über C. Sei also A Mat(n, C). Ist A diagonalisierbar, dann ist χ A (A) = 0 und wir sind fertig. Sonst können wir A beliebig wenig stören, sodass das charakteristische Polynom der gestörten Matrix A keine mehrfachen Nullstellen hat. Dann ist A diagonalisierbar, also gilt χ A (A ) = 0. Da χ A (A) eine stetige Funktion von A ist (d.h., die Einträge dieser Matrix hängen stetig von den Einträgen von A ab), folgt χ A (A) = 0. Nun gilt ganz allgemein, dass die Einträge von χ A (A) Polynome in den Einträgen von A mit ganzzahligen Koeffizienten sind (diese Polynome haben den Grad n in dem Sinne, dass sie ganzzahlige Linearkombinationen von Produkten von jeweils n Einträgen von A sind) daraus folgt auch die oben schon verwendete Stetigkeit. Wir haben gesehen, dass diese Polynome stets den Wert null annehmen, wenn man beliebige komplexe Zahlen einsetzt. Daraus folgt aber, dass die Polynome null sind (als Polynome). Das zeigt dann, dass χ A (A) = 0 für Matrizen über beliebigen Körpern (oder sogar kommutativen Ringen) gilt Folgerung. Das charakteristische Polynom χ A einer Matrix A ist ein FOLG Vielfaches des Minimalpolynoms m A. Jede Nullstelle von χ A ist auch eine Nullstelle von m A m A teilt χ A. Beweis. Jedes Polynom p K[X] mit p(a) = 0 ist ein Vielfaches von m A, vgl. Satz 19.6, und χ A (A) = 0. Ist λ eine Nullstelle von χ A, dann ist λ ein Eigenwert von A, es gibt also einen Eigenvektor 0 v K n mit A v = λv. Es folgt wegen v 0 also m A (λ) = 0. 0 = m A (A) v = m A (λ)v,

18 19. Polynome und Matrizen bzw. Endomorphismen Beispiel. Folgerung hilft uns, das Minimalpolynom zu bestimmen. BSP Sei zum Beispiel Minimalpolynom A = Mat(3, R) Es ist X 1 0 χ A = 1 X X 1 = ( X(X 2) + 1 ) (X 1) = (X 1) 3, also ist m A {X 1, (X 1) 2, (X 1) 3 }. Wir probieren die Möglichkeiten der Reihe nach durch: (X 1)(A) = A I 3 = ist nicht die Nullmatrix, aber (X 1) 2 (A) = (A I 3 ) 2 = 0, also ist m A = (X 1) 2 (und A ist nicht diagonalisierbar). Wir werden jetzt sehen, wie man eine Zerlegung p = p 1 p 2 p m eines Polynoms p mit p(a) = 0 in eine Zerlegung des zugehörigen Endomorphismus von K n übersetzen kann. Dazu müssen die Faktoren p 1, p 2,..., p m allerdings eine Bedingung erfüllen Definition. Sei K ein Körper und seien p, q K[X]. Dann heißen p DEF und q relativ prim oder teilerfremd, wenn es Polynome r, s K[X] gibt mit relativ prim rp + sq = 1. Man kann zeigen, dass zwei Polynome p und q, die keinen (nicht konstanten) gemeinsamen Teiler haben (es gilt also für alle a, b, c K[X], dass aus p = ab und q = ac folgt, dass a konstant ist), relativ prim sind. Die Umkehrung ist einfach zu sehen. Das erklärt die Bezeichnung teilerfremd. Siehe die Einführung in die Zahlentheorie und algebraische Strukturen. Hier ist eine typische Anwendung: Lemma. Seien K ein Körper, V ein K-Vektorraum und f ein Endomor- LEMMA phismus von V. Sei weiter p K[X] mit p(f) = 0; es gebe eine Faktorisierung p = p 1 p 2 mit p 1, p 2 K[X] relativ prim. Wir setzen f 1 = p 1 (f) und f 2 = p 2 (f). Dann gilt: Zerlegung von Endomorphismen (1) U 1 = im(f 1 ) und U 2 = im(f 2 ) sind f-invariant. (2) U 1 = ker(f 2 ) und U 2 = ker(f 1 ). (3) V = U 1 U 2. Beweis. Nach Voraussetzung gibt es Polynome r 1, r 2 K[X] mit r 1 p 1 + r 2 p 2 = 1. (1) Sei u U 1, dann gibt es v V mit u = f 1 (v). Es folgt f(u) = (f f 1 )(v) = ( (Xp 1 )(f) ) (v) = ( (p 1 X)(f) ) ( ) (v) = f 1 f(v) U1, also ist U 1 unter f invariant. Die Aussage für U 2 zeigt man analog.

19 19. Polynome und Matrizen bzw. Endomorphismen 19 (2) Es gilt f 2 (u) = (f 2 f 1 )(v) = 0 (denn f 2 f 1 = p(f) = 0), also ist U 1 ker(f 2 ). Sei umgekehrt u ker(f 2 ). Dann gilt u = ( (p 1 r 1 +r 2 p 2 )(f) ) (u) = f 1 ( (r1 (f))(u) ) +(r 2 (f))(f 2 (u)) = f 1 ( (r1 (f))(u) ) U 1, also ist auch ker(f 2 ) U 1. Die Aussage für U 2 zeigt man analog. (3) Für v V gilt v = id V (v) = ( (p 1 r 1 + p 2 r 2 )(f) ) (v) = f 1 ( (r1 (f))(v) ) + f 2 ( (r2 (f))(v) ) U 1 + U 2. Ist andererseits v U 1 U 2 = ker(f 2 ) ker(f 1 ), dann ist f 2 (v) = f 1 (v) = 0 und damit v = id V (v) = ( (r 1 p 1 + r 2 p 2 )(f) ) (v) = r 1 (f) ( f 1 (v) ) + r 2 (f) ( f 2 (v) ) = 0. Damit gilt V = U 1 + U 2 und U 1 U 2 = {0}. Um das anwenden zu können, brauchen wir Beispiele für relativ prime Polynome Lemma. Seien K ein Körper, λ K und p K[X] mit p(λ) 0. Dann LEMMA sind die Polynome X λ und p relativ prim. relativ prime Polynome 1 Beweis. Wir schreiben p = q (X λ) + α mit α = p(λ) 0 und q K[X]. Dann gilt α 1 q (X λ) + α 1 p = 1, also sind X λ und p relativ prim Lemma. Seien K ein Körper und p, q 1, q 2 K[X], sodass p, q 1 und p, q 2 LEMMA jeweils relativ prim sind. Dann sind auch p und q 1 q 2 relativ prim. relativ prime Polynome 2 Beweis. Nach Voraussetzung gibt es Polynome r 1, s 1, r 2, s 2 K[X] mit Multiplikation liefert r 1 p + s 1 q 1 = 1 und r 2 p + s 2 q 2 = 1. 1 = (r 1 p + s 1 q 1 )(r 2 p + s 2 q 2 ) = (r 1 r 2 p + r 1 s 2 q 2 + s 1 q 1 r 2 )p + s 1 s 2 q 1 q 2, also sind p und q 1 q 2 relativ prim Folgerung. Sei K ein Körper, seien λ 1, λ 2,..., λ m K paarweise ver- FOLG schieden und seien e 1, e 2,..., e m 1. Dann sind die Polynome (X λ j ) e j für j {1, 2,..., m} paarweise relativ prim. Beweis. Seien i, j {1, 2,..., m} mit i j. Nach Lemma sind X λ i und (X λ j ) e j relativ prim (wir wenden das Lemma an mit λ = λ i und p = (X λ j ) e j ). Eine einfache Induktion unter Verwendung von Lemma zeigt dann, dass auch (X λ i ) e i und (X λ j ) e j relativ prim sind (Anwendung mit p = (X λ j ) e j, q 1 = (X λ i ) n, q 2 = X λ i ).

20 20. Die Jordansche Normalform Die Jordansche Normalform Nach den Vorbereitungen aus dem letzten Abschnitt können wir den wesentlichen Schritt für die Klassifikation von Endomorphismen formulieren Satz. Seien K ein Körper, V ein K-Vektorraum und f End(V ). Seien SATZ weiter λ 1, λ 2,..., λ m K paarweise verschieden und e 1, e 2,..., e m 1, sodass Zerlegung p(f) = 0 ist, wobei von Endomorphismen p = (X λ 1 ) e 1 (X λ 2 ) e2 (X λ m ) em. Dann gibt es f-invariante Untervektorräume U 1, U 2,..., U m von V mit (1) V = U 1 U 2... U m, und (2) für jedes j {1, 2,..., m} gilt (f λ j id V ) e j (U j ) = {0}; genauer ist U j = ker ( (f λ j id V ) e j). Das verallgemeinert die (interessante Richtung in der) Aussage von Satz 19.10: Sind alle Exponenten e j = 1, dann erhält man die Zerlegung in Eigenräume wie dort. Beweis. Induktion über m. Der Fall m = 1 ist klar (und der Fall m = 0 ist trivial; dann muss V = {0} sein). Sei die Aussage für ein m bewiesen; wir wollen sie für m + 1 zeigen. Dazu setzen wir p 1 = (X λ 1 ) e 1 (X λ 2 ) e2 (X λ m ) em und p 2 = (X λ m+1 ) e m+1. Nach Folgerung und Lemma sind p 1 und p 2 relativ prim, also können wir Lemma anwenden. Das liefert uns f-invariante Untervektorräume U m+1 und U von V mit U m+1 = im ( p 1 (f) ) = ker ( (f λ m+1 id V ) e m+1 ) und U = im ( (f λ m+1 id V ) e m+1 ) = ker ( p 1 (f) ), die f-invariant sind und V = U U m+1 erfüllen. Sei jetzt f End(U) die Einschränkung von f auf U. Dann gilt p 1 ( f) = 0 (denn U = ker ( p 1 (f) ) ), und wir können die Induktionsannahme anwenden. Das liefert f- und damit auch f-invariante Untervektorräume U 1, U 2,..., U m von U (und damit von V ) mit U j = ker ( ( f λ j id U ) j) e und U1 U 2... U m = U. Damit gilt bereits V = U U m+1 = (U 1 U 2... U m ) U m+1 = U 1 U 2... U m U m+1. Es bleibt zu zeigen, dass U j = ker ( (f λ j id V ) e j) ist für j m. Es gilt jedenfalls U j = ker ( (f λ j id V ) e j) U, sodass es genügt zu zeigen, dass der Kern in U enthalten ist. Das folgt aber aus v ker ( (f λ j id V ) e j ) = ( (X λ j ) e j (f) ) (v) = 0 = ( p 1 (f) ) (v) = 0 = v ker ( p 1 (f) ) = U. Das legt folgende Definition nahe. Wir bemerken zuerst, dass für zwei lineare Abbildungen V 1 f V2 g V3 gilt ker(f) ker(g f) (denn aus f(v) = 0 folgt (g f)(v) = g(0) = 0). Insbesondere ist für f End(V ) {0} = ker(id V ) ker(f) ker(f 2 ) ker(f 3 )... eine aufsteigende Kette von Untervektorräumen von V.

21 20. Die Jordansche Normalform Definition. Sei f ein Endomorphismus eines endlich-dimensionalen K- DEF Vektorraums V und sei λ K. Dann heißt der Untervektorraum Hauptraum H λ (f) = m N ker ( (f λ id V ) m) V der Hauptraum oder verallgemeinerte Eigenraum von f zum Eigenwert λ. Analog definieren wir H λ (A) für Matrizen A Mat(n, K). Nach Lemma 7.4 ist H λ (f) als aufsteigende Vereinigung von Untervektorräumen ein Untervektorraum von V Lemma. In der Situation von Satz 20.1 oben gilt U j = H λj (f) für alle LEMMA j {1, 2,..., m}. Zerlegung in Haupträume Beweis. Da U j = ker ( (f λ j id V ) j) e ist, müssen wir zeigen, dass für m ej aus (f λ j id V ) m (v) = 0 schon v U j folgt. Sei q = p/(x λ j ) e j (also p ohne den j-ten Faktor), dann sind q und (X λ j ) m e j relativ prim wie im Beweis von Satz Es gibt also Polynome r, s K[X] mit r(x λ j ) m e j + sq = 1 und damit r(x λ j ) m + sp = (X λ j ) e j. Einsetzen von f und Anwenden auf v ergibt (f λ j id V ) e j (v) = ( r(f) )( (f λ j id V ) m (v) ) + ( s(f) )( (p(f))(v) ) = ( r(f) ) (0) + ( s(f) ) (0) = 0 (unter Verwendung von (f λ j id V ) m (v) = 0 und p(f) = 0) wie gewünscht. Da V endlich-dimensional ist, kann die aufsteigende Kette von Untervektorräumen ker ( (f λ id V ) m) nicht unendlich oft echt aufsteigen, also muss es ein m N geben mit ker ( (f λ id V ) m) = ker ( (f λ id V ) (m+1)) = ker ( (f λ id V ) (m+2)) =.... Auf H λ (f) können wir also f schreiben als λ id Hλ (f) +g mit g m = 0. Diese Eigenschaft von g hat einen Namen Definition. Sei f ein Endomorphismus eines Vektorraums V. f heißt nil- DEF potent, wenn es m N gibt mit f m = 0. Analog heißt eine Matrix A Mat(n, K) nilpotent nilpotent, wenn es m N gibt mit A m = Lemma. Sei V = U 1 U 2... U n eine Zerlegung des Vektorraums V LEMMA als direkte Summe und seien für i {1, 2,..., n} jeweils f i, g i End(U i ). Seien weiter f = f 1 f 2... f n und g = g 1 g 2... g n. (1) Sind alle g i nilpotent, so ist auch g nilpotent. (2) Gilt f i g i = g i f i für alle i {1, 2,..., n}, dann gilt auch f g = g f. (3) Es gilt f + g = (f 1 + g 1 ) (f 2 + g 2 )... (f n + g n ). (4) Es gilt f g = (f 1 g 1 ) (f 2 g 2 )... (f n g n ). (5) ker(f) = ker(f 1 ) ker(f 2 )... ker(f n ).

22 20. Die Jordansche Normalform 22 Beweis. (1) Nach Voraussetzung gibt es zu jedem i ein m i N mit g m i i = 0. Wir setzen m = max{m 1, m 2,..., m n }, dann gilt gi m = 0 für alle i. Damit ist g m (u i ) = gi m (u i ) = 0 für u i U i und es folgt für v = u 1 +u u n V, dass g m (v) = 0 ist. (Beachte g m = g1 m... gn m nach Teil (4) unten.) Also ist g m = 0 und g ist nilpotent. (2) Das folgt aus Teil (4). (3) Für u i U i gilt (f + g)(u i ) = f(u i ) + g(u i ) = f i (u i ) + g i (u i ) = (f i + g i )(u i ), also ist f + g die direkte Summe der f i + g i. (4) Für u i U i gilt (f g)(u i ) = f ( g(u i ) ) = f ( g i (u i ) ) = f i ( gi (u i ) ) = (f i g i )(u i ), also ist f g die direkte Summe der f i g i. (5) Zunächst einmal ist klar, dass die Summe der Kerne rechts direkt ist: Sind u 1 ker(f 1 ) U 1, u 2 ker(f 2 ) U 2,..., u n ker(f n ) U n mit u 1 + u u n = 0, dann folgt u 1 = u 2 =... = u n = 0, weil die Summe der U i direkt ist. Es ist also nur zu zeigen, dass ker(f) = ker(f 1 ) + ker(f 2 ) ker(f n ) ist. Die Inklusion folgt aus ker(f i ) ker(f) für alle i {1, 2,..., n} (denn für u i U i gilt f(u i ) = f i (u i )), damit enthält der Untervektorraum ker(f) auch die Summe der ker(f i ). Für die Inklusion sei jetzt v ker(f). Wir können v (eindeutig) schreiben als v = u 1 + u u n mit u i U i, dann ist 0 = f(v) = f(u 1 + u u n ) = f(u 1 ) + f(u 2 ) f(u n ) = f 1 (u 1 ) + f 2 (u 2 ) f n (u n ). Aus f i (u i ) U i und daraus, dass die Summe der U i direkt ist, folgt dann f 1 (u 1 ) = f 2 (u 2 ) =... = f n (u n ) = 0, also u i ker(f i ) für alle i. Das bedeutet v ker(f 1 ) + ker(f 2 ) ker(f n ) Beispiel. Wenn V unendlich-dimensional ist, dann braucht die aufsteigen- BSP de Kette der Kerne nicht stationär zu werden. Sei zum Beispiel V = K[X] der Polynomring und f End(V ) die Division durch X ohne Rest, gegeben durch f(p) = (p p(0))/x. Dann gilt ker(f m ) = K[X] <m = 1, X, X 2,..., X m 1, also werden diese Kerne immer größer. unendlich aufsteigende Kerne Wir können jetzt eine erste Version des Satzes von der Jordan-Normalform formulieren Satz. Sei V ein endlich-dimensionaler K-Vektorraum und sei f End(V ) SATZ ein Endomorphismus, sodass das charakteristische Polynom χ f K[X] in Linearfaktoren zerfällt. Dann gibt es d, g End(V ) mit f = d + g, d g = g d, d diagonalisierbar und g nilpotent. Die analoge Aussage gilt für Matrizen A Mat(n, K): Zerfällt χ A in Linearfaktoren, dann gibt es Matrizen D, N Mat(n, K) mit A = D + N, DN = ND, D diagonalisierbar und N nilpotent. Jordansche Normalform (schwach)

23 20. Die Jordansche Normalform 23 Beweis. Wir beweisen die Version für Endomorphismen; der Beweis für Matrizen ist analog. Sei χ f = (X λ 1 ) e 1 (X λ 2 ) e2 (X λ m ) em. Nach Satz gilt χ f (f) = 0. Satz 20.1 liefert dann f-invariante Untervektorräume U 1, U 2,..., U m mit V = U 1 U 2... U m ; nach Lemma 20.3 gilt U j = ker ( (f λ j id V ) j) e = Hλj (f) für alle j. Die Einschränkung f j von f auf U j (als Endomorphismus von U j ) hat also die Form f j = d j + g j mit d j = λ j id Uj und g e j j = 0; es gilt d j g j = λ j g j = g j d j. Mit d = d 1 d 2... d m und g = g 1 g 2... g m gilt dann f = d + g, und nach Lemma 20.5 gilt d g = g d und g ist nilpotent. Schließlich ist d diagonalisierbar, weil U j = E λj (d) ist; damit ist V die direkte Summe der Eigenräume von d. Um daraus eine stärkere Version abzuleiten, die eine Normalform für Matrizen ähnlich den Diagonalmatrizen ergibt, müssen wir uns die Struktur von nilpotenten Endomorphismen noch genauer ansehen. Sei also g End(V ) nilpotent und sei m N die kleinste natürliche Zahl mit g m = 0. Dann haben wir die Kette {0} ker(g) ker(g 2 )... ker(g (m 1) ) V von Untervektorräumen von V. Dass die Inklusionen echt sind, ergibt sich aus dem folgenden Lemma Lemma. Seien V ein Vektorraum, g End(V ) und m N. Dann folgt LEMMA aus ker(g (m+1) ) = ker(g m ), dass ker(g n ) = ker(g m ) ist für alle n m. Beweis. Übung Definition. Seien K ein Körper, n N und A = (a ij ) Mat(n, K). Dann DEF heißt A eine obere Dreiecksmatrix, wenn gilt a ij = 0 für alle j < i, und eine Dreiecksmatrix strikte obere Dreiecksmatrix, wenn gilt a ij = 0 für alle j i. Analog definiert man (strikte) untere Dreiecksmatrizen (mit j > i bzw. j i). In einer oberen Dreiecksmatrix sind also alle Einträge echt unterhalb der Diagonalen null, in einer strikten oberen Dreiecksmatrix sind zusätzlich die Einträge auf der Diagonalen null Satz. Seien V ein endlich-dimensionaler K-Vektorraum und g End(V ) SATZ nilpotent. Dann gibt es eine Basis B von V, sodass Mat B,B (g) eine strikte obere Dreiecksmatrix ist. Analog gilt: Ist A Mat(n, K) nilpotent, dann ist A zu einer strikten oberen Dreiecksmatrix ähnlich. Umgekehrt ist jede strikte obere Dreiecksmatrix A Mat(n, K) nilpotent; genauer gilt A n = 0. Beweis. Sei U j = ker(g j ), dann gilt {0} = U 0 U 1... U m = V, wobei m minimal ist mit g m = 0. Außerdem ist g(u j ) U j 1 für alle j > 0 (denn g j (v) = 0 impliziert g (j 1) (g(v)) = 0). Wir wählen eine Basis von U 1, die wir sukzessive zu Basen von U 2, U 3,..., U m erweitern; sei B = (b 1, b 2,..., b n ) die resultierende Basis von V. Dann ist (b 1, b 2,..., b dim Uj ) eine Basis von U j, und g(b k ) ist Linearkombination von Basiselementen b i mit i < k, für alle k. Die k- te Spalte von A = Mat B,B (g) hat also höchstens in den ersten k 1 Positionen Trigonalisierung nilpotenter Endomorphismen

24 20. Die Jordansche Normalform 24 von oben Einträge ungleich null; das bedeutet gerade, dass A eine strikte obere Dreiecksmatrix ist. Die Aussage über nilpotente Matrizen folgt aus der Aussage über Endomorphismen, indem man A als Endomorphismus von K n betrachtet. Die letzte Behauptung folgt aus Satz 19.12, denn für eine strikte Dreiecksmatrix A Mat(n, K) gilt χ A = X n. Wir überlegen uns jetzt noch, wie die Matrix von f = f 1 f 2... f n bezüglich einer an die direkte Summenzerlegung angepassten Basis aussieht Lemma. Sei V ein endlich-dimensionaler Vektorraum mit einer Zerle- LEMMA gung V = U 1 U 2... U n, seien f i End(U i ) für i {1, 2,..., n} und sei f = f 1 f 2... f n. Seien B i Basen von U i und B die durch Aneinanderhängen Matrix einer von B 1, B 2,..., B n gegebene Basis von V. Dann ist direkten Summe M M Mat B,B (f) = M n eine Block-Diagonalmatrix, wobei M i = Mat Bi,B i (f i ) die Matrizen von f i bezüglich der Basen B i sind. Beweis. Das folgt aus f(b) = f i (b) U i für Elemente b B i : in den den Elementen von B i entsprechenden Spalten von Mat B,B (f) können nur die den Elementen von B i entsprechenden Zeilen von null verschiedene Einträge enthalten, und die sich daraus ergebende Untermatrix ist die Matrix von f i bezüglich B i. Da die Determinante einer Block-Diagonalmatrix das Produkt der Determinanten der Diagonalblöcke ist, folgt daraus auch und det(f) = det(f 1 ) det(f 2 ) det(f n ) χ f = χ f1 χ f2 χ fn. Damit können wir eine Aussage über die Dimension des Hauptraums H λ (f) beweisen Lemma. Seien V ein endlich-dimensionaler K-Vektorraum und f ein LEMMA Endomorphismus von V, sei weiter λ K. Dann ist die Dimension von H λ (f) gleich der algebraischen Vielfachheit von λ als Eigenwert von f (also gleich der Dimension des Hauptraums Vielfachheit von λ als Nullstelle von χ f ). Beweis. Ist λ kein Eigenwert von f, dann sind beide Seiten der zu beweisenden Gleichung null. Anderenfalls ist χ f = (X λ) e p mit p K[X] relativ prim zu (X λ) e ; dabei ist e die algebraische Vielfachheit von λ als Eigenwert von f (dann ist p(λ) 0; nach Lemma und Lemma sind die Faktoren relativ prim). Nach Lemma entspricht dieser Faktorisierung eine Zerlegung V = U 1 U 2 mit U 1 = ker ( (f λ id V ) e) = H λ (f) und U 2 = ker ( p(f) ). Sei f 1 = f U1 End(U 1 ) und f 2 = f U2 End(U 2 ). Dann ist f 1 = λ id U1 +g 1 mit g 1 nilpotent; nach Satz ist dann f 1 bezüglich einer geeigneten Basis von U 1 durch eine obere Dreiecksmatrix dargestellt, deren Diagonaleinträge alle gleich λ sind. Es folgt χ f1 = (X λ) dim U 1.

25 20. Die Jordansche Normalform 25 Auf der anderen Seite ist λ kein Eigenwert von f 2 (ist v U 2 mit f(v) = λv, dann ist v U 1 U 2 = {0}, also v = 0), also gilt χ f2 (λ) 0. Aus der Gleichheit (X λ) e p = χ f = (X λ) dim U1 χ f2 und p(λ) 0, χ f2 (λ) 0 folgt dann dim H λ (f) = dim U 1 = e wie behauptet. Da der Eigenraum E λ (f) stets im Hauptraum H λ (f) enthalten ist, liefert dies auch einen weiteren Beweis der Aussage, dass die geometrische Vielfachheit eines Eigenwerts nicht größer als die algebraische Vielfachheit sein kann Folgerung. Seien V ein endlich-dimensionaler K-Vektorraum und f ein FOLG Endomorphismus von V, sodass das charakteristische Polynom χ f K[X] in Linearfaktoren zerfällt. Dann gibt es eine Basis B von V, sodass Mat B,B (f) eine obere Dreiecksmatrix ist. Analog gilt: Ist A Mat(n, K) eine Matrix, sodass χ A in Linearfaktoren zerfällt, dann ist A ähnlich zu einer oberen Dreiecksmatrix. Beweis. Wie im Beweis von Satz 20.7 haben wir eine Zerlegung V = U 1 U 2... U m mit U j = H λj (f) in die Haupträume von f, sodass f auf U j die Form λ j id +g j hat mit g j nilpotent. Wir wählen Basen B j von U j, sodass Mat Bj,B j (g j ) eine strikte obere Dreiecksmatrix ist (das ist möglich nach Satz 20.10). Die Matrix bezüglich B j der Einschränkung von f auf U j ist dann M j = λ j I dim Uj +Mat Bj,B j (g j ); dies ist eine obere Dreiecksmatrix. Wir setzen die Basis B von V aus den Basen B j zusammen. Nach Lemma ist dann Mat B,B (f) eine Block-Diagonalmatrix mit Blöcken M j ; da die M j obere Dreiecksmatrizen sind, gilt das auch für Mat B,B (f). Die Aussage für Matrizen folgt in der üblichen Weise. Die Voraussetzung, dass das charakteristische Polynom in Linearfaktoren zerfällt, ist stets erfüllt, wenn der Körper K algebraisch abgeschlossen ist, wie zum Beispiel K = C. Für viele Anwendungen sind die Aussagen von Satz 20.7 oder Folgerung ausreichend. Manchmal möchte man aber eine im Wesentlichen eindeutige Normalform von Matrizen bis auf Ähnlichkeit haben. Dazu betrachten wir noch einmal nilpotente Endomorphismen und daran angepasste Basen. Zur Vorbereitung noch ein Lemma zur Struktur von nilpotenten Endomorphismen. Darin leisten wir die Hauptarbeit für den Beweis der (starken) Jordanschen Normalform. Trigonalisierung von Endomorphismen Lemma. Sei V {0} ein endlich-dimensionaler Vektorraum und sei LEMMA f End(V ) nilpotent mit f m = 0 und m N minimal mit dieser Eigenschaft. Sei weiter v V mit f (m 1) (v) 0 und U = v, f(v), f 2 (v),..., f (m 1) (v) V. Dann gilt: (1) dim U = m (d.h., v, f(v), f 2 (v),..., f (m 1) (v) sind linear unabhängig). Struktur nilpotenter Endomorphismen (2) Es gibt ein f-invariantes Komplement U von U in V.

26 20. Die Jordansche Normalform 26 Beweis. Wir zeigen zuerst, dass v, f(v), f 2 (v),..., f (m 1) (v) linear unabhängig sind. Seien dazu λ 0, λ 1,..., λ m 1 Skalare mit λ 0 v + λ 1 f(v) + λ 2 f 2 (v) λ m 1 f (m 1) (v) = 0. Wenn wir f (m 1) auf diese Gleichung anwenden und beachten, dass f m = 0 ist, dann erhalten wir λ 0 f (m 1) (v) = 0, wegen f (m 1) (v) 0 also λ 0 = 0. Durch Anwenden von f (m 2) bekommen wir dann analog λ 1 = 0, und in der gleichen Art dann nacheinander λ 2 = 0,..., λ m 1 = 0. Also sind die Vektoren linear unabhängig. Wir zeigen nun die Existenz eines f-invarianten Komplements von U in V. Dazu sei U ein Untervektorraum von V maximaler Dimension mit den beiden Eigenschaften U U = {0} und U invariant unter f (der Null-Vektorraum ist ein Untervektorraum mit diesen Eigenschaften, also gibt es so ein U ). Wir müssen noch zeigen, dass V = U + U ist. Sei anderenfalls w V \ (U + U ). Dann gibt es ein minimales k N mit f k (w) U + U ; es gilt k 1, denn w / U + U, und k m, denn f m (w) = 0 U + U. Wir können dann schreiben f k (w) = λ 0 v + λ 1 f(v) λ m 1 f (m 1) (v) + u mit Skalaren λ 0, λ 1,..., λ m 1 und u U. Anwenden von f (m k) liefert (unter Beachtung von f m = 0) 0 = f m (w) = λ 0 f (m k) (v) + λ 1 f (m k+1) (v) λ k 1 f (m 1) (v) + f (m k) (u ). }{{}}{{} U U Die lineare Unabhängigkeit der noch vorkommenden Vektoren (beachte dafür, dass U U = {0} ist) erzwingt dann λ 0 = λ 1 =... = λ k 1 = 0, also gilt f k (w) = λ k f k (v) + λ k+1 f (k+1) (v) λ m 1 f (m 1) (v) + u = f k( λ k v + λ k+1 f(v) λ m 1 f (m 1 k) (v) ) + u. Sei u = λ k v + λ k+1 f(v) λ m 1 f (m 1 k) (v) U und w = w u, dann ist w / U + U (denn w w = u U U + U ) und f k (w ) = u U. Außerdem ist (wir verwenden hier k 1, also k 1 0) w = f (k 1) (w ) = f (k 1) (w) f (k 1) (u) / U + U, da f (k 1) (w) / U + U. Sei U = U + w. Dann gilt: dim U > dim U, denn w / U, also ist U U. U U = {0}, denn sei u 1 +λw = u 1 U mit u 1 U und einem Skalar λ, dann folgt λw = u 1 u 1 U + U, aber w / U + U. Daraus ergibt sich, dass λ = 0 ist; die Behauptung folgt dann, weil U U = {0} ist. U ist f-invariant, denn sei u = u 1 + λw U mit u 1 U und einem Skalar λ, dann ist f(u ) = f(u 1) + λf(w ) = f(u 1) + λf k (w ) = f(u 1) + λu U U, denn f(u 1) U, weil U unter f invariant ist. Insgesamt sehen wir, dass U ein f-invarianter Untervektorraum von V ist, der U U = {0} erfüllt, aber größere Dimension als U hat. Das ist ein Widerspruch zur Wahl von U, also ist die Annahme U + U V falsch. Also muss U + U = V gelten; damit ist U das gesuchte f-invariante Komplement von U in V.

27 20. Die Jordansche Normalform 27 Der obige Beweis ist, so wie er formuliert ist, nicht konstruktiv. Man kann das Argument, das zum Widerspruch führt, aber auch dazu verwenden, ein f-invariantes Komplement schrittweise (ausgehend von {0}) zu konstruieren Definition. Sei V ein endlich-dimensionaler K-Vektorraum. Ein Endo- DEF morphismus f von V heißt nilzyklisch, wenn f nilpotent ist und es v V gibt, nilzyklisch sodass V = v, f(v), f 2 (v),... ist. Nach Lemma sind v, f(v),..., f (m 1) (v) linear unabhängig, bilden also eine Basis von V, wobei m N die kleinste Zahl ist mit f m = 0. Wir ordnen um und setzen B = ( f (m 1) (v),..., f(v), v ), dann ist Mat B,B (f) = J m = Mat(m, K) Die Matrizen J m heißen ebenfalls nilzyklisch Satz. Sei f ein nilpotenter Endomorphismus eines endlich-dimensionalen SATZ Vektorraums V. Dann gibt es eine Zerlegung V = U 1 U 2... U m in f-invariante Untervektorräume, sodass f Uj nilzyklisch ist für alle j {1, 2,..., m}. Beweis. Induktion über dim V. Im Fall dim V = 0, also V = {0}, ist nichts zu zeigen (m = 0). Sei also dim V > 0. Dann gibt es nach Lemma eine Zerlegung V = U 1 V in f-invariante Untervektorräume mit U 1 {0}, sodass f U1 nilzyklisch ist (U 1 ist U in Lemma 20.14, V ist U ). Nach Induktionsannahme (beachte dim V = dim V dim U 1 < dim V ) gibt es eine Zerlegung V = U 1... U m in f-invariante Untervektorräume, sodass f U j nilzyklisch ist für alle j {1, 2,..., m }. Wenn wir m = m +1 und (für j {2, 3,..., m}) U j = U j 1 setzen, dann erhalten wir insgesamt die gewünschte Zerlegung von V. Struktur nilpotenter Endomorphismen Folgerung. Sei V ein endlich-dimensionaler Vektorraum und sei f ein FOLG nilpotenter Endomorphismus von V. Dann gibt es eine Basis B = (b 1, b 2,..., b n ) Normalform von V und Zahlen m 1, m 2,..., m k N + mit m 1 + m m k = n, sodass für nilpotente Endomorphismen 0 J J m1 0 0 Mat B,B (f) = m J mk ist. Die Zahlen m 1, m 2,..., m k sind bis auf ihre Reihenfolge eindeutig bestimmt. Analog gilt: Jede nilpotente Matrix A Mat(n, K) ist zu einer Matrix der obigen Form ähnlich. Diese Matrix ist bis auf die Reihenfolge der J mi eindeutig bestimmt. Beweis. Nach Satz gibt es eine Zerlegung V = U 1 U 2... U k in f-invariante Untervektorräume mit f Ui nilzyklisch. Sei B i für i {1, 2,..., k} eine Basis von U i wie in Definition 20.15; sei B die durch Aneinanderhängen

28 20. Die Jordansche Normalform 28 von B 1, B 2,..., B k gegebene Basis von V. Die erste Behauptung folgt dann mit Lemma 20.11; dabei ist m i = dim U i. Zur Eindeutigkeit: Für j N gilt dim ker(f j ) = k i=1 dim ker(f j U i ) = k min{j, m i } i=1 (die erste Gleichung folgt aus ker(f j ) = k i=1 ker(f j U i ), siehe Lemma 20.5(5), die zweite gilt, weil ker(f j U i ) = f (mi j) (v i ), f (mi j+1) (v i ),..., f (mi 1) (v i ) ist für j m i und ker(f j U i ) = U i für j m i, wenn U i = v i, f(v i ),..., f (mi 1) (v i ) ist) und damit dim ker(f (j+1) ) dim ker(f j ) = = k ( min{j + 1, mi } min{j, m i } ) i=1 k i=1 { 1, falls mi > j 0, falls m i j } = # { i {1, 2,..., k} m i > j }, also auch (für j 1) ( dim ker(f j ) dim ker(f (j 1) ) ) ( dim ker(f (j+1) ) dim ker(f j ) ) = # { i {1, 2,..., k} m i j } # { i {1, 2,..., k} m i > j } = # { i {1, 2,..., k} m i = j } ; damit sind die Zahlen m i bis auf ihre Reihenfolge eindeutig festgelegt. Die Aussage für Matrizen folgt in der üblichen Weise. Man kann sich also einen nilpotenten Endomorphismus f so vorstellen: U 1 : f U 2 : f f U 3 : f f f f f f f f f f f U k : f f. 0 Die Punkte stehen dabei für die Basiselemente. Der Kern von f j wird dann erzeugt von den Basiselementen in den letzten j Spalten (außer der Nullspalte am Ende). Daraus kann man Folgendes ablesen: Sei m die kleinste Zahl mit f m = 0. Für j {1, 2,..., m} sei V j ein Komplement von ker(f (j 1) ) + f ( ker(f (j+1) ) ) in ker(f j ). Sei B j eine Basis von V j. Für b B j ist dann B b = (f (j 1) (b),..., f(b), b) eine Basis des f-invarianten Untervektorraums b, f(b),... ; Hintereinanderhängen dieser Basen B b für alle b B 1 B 2... B m liefert eine Basis B von V, bezüglich derer f durch eine Matrix wie in Folgerung gegeben ist: Die Elemente von B j entsprechen den Punkten im Diagramm in der jten Spalte von rechts (außer der Nullspalte), an denen eine Kette... beginnt.

29 20. Die Jordansche Normalform Beispiel. Sei V ein Vektorraum mit Basis (v 1, v 2,..., v 7 ) und f End(V ) BSP gegeben durch Normalform v f für nilpotenten 1 v 5 f Endomorphismus v 2 f f v 7 0 v f 3 v f 6 v 4 f Dann ist f 3 = 0 (und 3 ist die kleinste Zahl m mit f m = 0), also ist f nilpotent. Wir finden eine Basis von V wie in Folgerung Dazu bestimmen wir erst einmal die höheren Kerne K j = ker(f j ) für j = 0, 1, 2, 3,.... Offenbar ist K 0 = {0}. Aus folgt Weiter ist und damit f(λ 1 v 1 + λ 2 v λ 7 v 7 ) = (λ 1 + λ 2 )v 5 + (λ 3 + λ 4 )v 6 + (λ 5 + λ 6 )v 7 K 1 = v 1 v 2, v 3 v 4, v 5 v 6, v 7. f 2 (λ 1 v 1 + λ 2 v λ 7 v 7 ) = (λ 1 + λ 2 + λ 3 + λ 4 )v 7 K 2 = v 1 v 2, v 3 v 4, v 1 v 3, v 5, v 6, v 7. Schließlich ist K j = V für j 3. Wir müssen Komplemente V j von K j 1 +f(k j+1 ) in K j wählen. Für j = 1 ist K 0 + f(k 2 ) = f(k 2 ) = v 5 v 6, v 7 ; ein Komplement in K 1 ist zum Beispiel gegeben durch Für j = 2 ist ein Komplement in K 2 ist etwa Für j = 3 schließlich ist ein Komplement ist zum Beispiel V 1 = v 1 v 2, v 3 v 4. K 1 + f(k 3 ) = v 1 v 2, v 3 v 4, v 5, v 6, v 7 ; V 2 = v 1 v 3. K 2 + f(k 4 ) = K 2 + f(v ) = K 2 ; V 3 = v 1. Nach dem oben beschriebenen Rezept können wir als Basis wählen: b 7 = v 1 v 2 mit f(b 7 ) = 0 b 6 = v 3 v 4 mit f(b 6 ) = 0 b 5 = v 1 v 3 b 4 = f(b 5 ) = v 5 v 6 mit f(b 4 ) = 0 b 3 = v 1 b 2 = f(b 3 ) = v 5 b 1 = f(b 2 ) = v 7 mit f(b 1 ) = 0

30 Mit B = (b 1, b 2, b 3, b 4, b 5, b 6, b 7 ) ist dann Mat B,B (f) = = Das zugehörige Diagramm sieht so aus: 20. Die Jordansche Normalform 30 b 3 f b 2 b 5 f f b 1 b 4 b 6 b 7 f f f f J J J J 1 Die Dimensionen von K 0, K 1, K 2, K 3,... sind 0, 4, 6, 7, 7,..., die Zuwächse der Dimensionen also 4, 2, 1, 0, 0,... und die Differenzen der Zuwächse sind 2, 1, 1, 0, 0,.... Diese Zahlen geben die Häufigkeiten der nilzyklischen Kästchen J 1, J 2, J 3,... in der Matrix an, vergleiche den Beweis der Eindeutigkeitsaussage in Folgerung Definition. Sei K ein Körper, seien λ K und m N +. Die Matrix DEF J Jordanm (λ) = λi m + J m Kästchen heißt das Jordan-Kästchen der Größe m zum Eigenwert λ Satz. Seien V ein endlich-dimensionaler K-Vektorraum und f ein Endo- SATZ morphismus von V mit in Linearfaktoren zerfallendem charakteristischem Polynom χ f. Dann gibt es eine Zerlegung Normalform Jordansche V = U (stark) 1 U 2... U k in f-invariante Untervektorräume, sodass f Ui = λ i id Ui +g i ist mit g i nilzyklisch, für alle i {1, 2,..., k}. Insbesondere gibt es eine Basis B von V, sodass Mat B,B (f) eine Block-Diagonalmatrix ist, deren Blöcke die Jordan-Kästchen J dim Ui (λ i ) sind. Die Jordan-Kästchen sind bis auf ihre Reihenfolge eindeutig bestimmt. Analog gilt: Ist A Mat(n, K) mit zerfallendem charakteristischem Polynom χ A, dann ist A ähnlich zu einer Block-Diagonalmatrix, deren Blöcke Jordan-Kästchen sind, und die Jordan-Kästchen sind bis auf ihre Reihenfolge eindeutig bestimmt. Beweis. Nach Satz 20.1 können wir V als direkte Summe in die verschiedenen Haupträume H λ (f) zerlegen; auf H λ (f) ist f = λ id +g mit g nilpotent. Nach Satz gibt es eine Zerlegung von H λ (f) als direkte Summe von Untervektorräumen, auf denen g nilzyklisch ist, dort ist also f = λ id +nilzyklisch. Wir erhalten die gewünschte Zerlegung von V, indem wir die Zerlegungen der Haupträume kombinieren. Wie in Definition können wir Basen B i der U i so wählen, dass g i auf U i durch J dim Ui gegeben ist, dann ist Mat Bi,B i (f Ui ) = λ i I dim Ui + J dim Ui = J dim Ui (λ i ). Setzen wir diese Basen zu einer Basis B von V zusammen, erhalten wir die Block- Diagonalmatrix für f wie angegeben. Die Eindeutigkeit folgt daraus, dass die

31 20. Die Jordansche Normalform 31 Summe der Größen der Jordan-Kästchen zu einem gegebenen Eigenwert λ gleich der algebraischen Vielfachheit von λ als Eigenwert von f sein muss (vergleiche Lemma 20.12), und aus der Eindeutigkeitsaussage in Folgerung Die Aussagen für Matrizen folgen wie üblich aus denen für Endomorphismen: Wir wenden die Aussage auf den Endomorphismus f : K n K n, x A x, an (wobei die Elemente von K n als Spaltenvektoren betrachtet werden). Dann ist A = Mat E,E (f) mit der Standard-Basis E von K n, und mit P = Mat B,E (id K n) hat dann Mat B,B (f) = P 1 AP die Form wie im Satz Definition. Die Matrix in Satz heißt die Jordansche Normalform DEF von f bzw. A. Jordansche Normalform Die Jordansche Normalform liefert also eine vollständige Klassifikation der Matrizen mit zerfallendem charakteristischem Polynom bis auf Ähnlichkeit. Zum Beispiel gibt es genau drei Ähnlichkeitsklassen von Matrizen in Mat(3, K) mit charakteristischem Polynom (X λ) 3, denn die Jordan-Normalform kann die Jordan- Kästchen J 3 (λ) oder J 2 (λ), J 1 (λ) oder J 1 (λ), J 1 (λ), J 1 (λ) haben. Wie kann man die Jordansche Normalform einer gegebenen Matrix A Mat(n, K) bestimmen? Wenn man nur wissen möchte, wie die Jordansche Normalform aussieht, dann bestimmt man zuerst die Eigenwerte (indem man das charakteristische Polynom faktorisiert) und berechnet dann für jeden Eigenwert λ die Dimensionen der Kerne von (A λi n ) m für m = 1, 2, 3,.... Aus diesen Dimensionen ergeben sich die Größen der vorkommenden Jordan-Kästchen J k (λ) wie im Beweis von Folgerung Braucht man zusätzlich die Matrix P GL(n, K), sodass P 1 AP in Jordan- Normalform ist, dann muss man für jeden Hauptraum H λ (A) eine Basis wie in Folgerung bestimmen (zu g = (f λ id) Hλ (A)) und diese Basen dann zu einer Basis von K n zusammensetzen. Die Basiselemente bilden dann die Spalten von P. Wir führen das in einem Beispiel durch: Beispiel. Wir betrachten BSP Jordansche Normalform A = Mat(5, R)

32 Das charakteristische Polynom ist X X χ A = 1 2 X X X + 3 X = (X 1)(X + 1) 4 X X + 3 = (X 1)(X + 1) 20. Die Jordansche Normalform 32 ((X 5)(X + 1)(X + 3) (X 5) + 20(X + 1) + 4(X + 3) ) = (X 1)(X + 1)(X 3 X 2 X + 1) = (X 1) 3 (X + 1) 2. Es sind also die beiden Haupträume H 1 (A) (Dimension 3) und H 1 (A) (Dimension 2) zu betrachten. Für die Kerne erhalten wir (wir schreiben die Elemente von R 5 als Spaltenvektoren): ker(a I 5 ) = (0, 0, 1, 0, 0), (3, 2, 0, 3, 1) ker ( (A I 5 ) 2) = (0, 0, 1, 0, 0), (1, 1, 0, 1, 0), (0, 1, 0, 0, 1) ker(a + I 5 ) = (0, 0, 1, 1, 0) ker ( (A + I 5 ) 2) = (0, 0, 1, 1, 0), (2, 2, 2, 0, 1) Für die höheren Potenzen bleiben die Dimensionen gleich, da sie bereits den Dimensionen der Haupträume entsprechen. Daraus ergeben sich die Größen der Jordan-Kästchen: λ = 1 : 0, 2, 3, 3,... 2, 1, 0,... 1, 1, 0,... J 1 (1), J 2 (1) λ = 1 : 0, 1, 2, 2,... 1, 1, 0,... 0, 1, 0,... J 2 ( 1) Die Jordansche Normalform von A hat also die folgende Gestalt: Um eine Transformationsmatrix P zu finden, gehen wir analog zu Beispiel vor: Ein Komplement von ker(a + I 5 ) in ker ( (A + I 5 ) 2) wird zum Beispiel erzeugt von v 1 = (2, 2, 2, 0, 1). Ein Komplement von ker(a I 5 ) in ker ( (A I 5 ) 2) wird erzeugt von v 2 = (1, 1, 0, 1, 0), und ein Komplement von (A I 5 ) ( ker((a I 5 ) 2 ) ) = (3, 2, 1, 3, 1) in ker(a I 5 ) wird erzeugt von v 3 = (0, 0, 1, 0, 0). Eine geeignete Basis ist damit B = ( ) v 3, (A I 5 ) v 2, v 2, (A + I 5 ) v 1, v 1, entsprechend der Matrix P =

33 20. Die Jordansche Normalform Beispiel. Als eine Anwendung der Klassifikationsaussage von Satz BSP wollen wir untersuchen, welche der Matrizen Testen auf Ähnlichkeit A = x und B(x, y) = 1 1 y (für x, y R) in Mat(3, R) ähnlich zueinander sind. Dazu berechnen wir zunächst die charakteristischen Polynome; das ergibt χ A = χ B(x,y) = X 2 (X 3). Das schließt noch keine Ähnlichkeitsrelationen aus. Deshalb bestimmen wir die Jordansche Normalform der Matrizen. Für den Eigenwert 3 der algebraischen Vielfachheit 1 gibt es nur die Möglichkeit eines Jordan-Kästchens J 1 (3). Für den Eigenwert 0 gibt es die beiden Möglichkeiten J 2 (0) und J 1 (0), J 1 (0). Um sie zu unterscheiden, bestimmen wir die Dimension des Kerns von A bzw. von B(x, y): und dim ker(a) = 3 rk(a) = 3 1 = 2 dim ker(b(x, y)) = 3 rk(b(x, y)) = 3 2 = 1. Daraus ergibt sich, dass die Jordansche Normalform von A die Jordan-Kästchen J 1 (0), J 1 (0), J 1 (3) hat (insbesondere ist A diagonalisierbar), während die Jordan- Normalform der Matrizen B(x, y) die Kästchen J 2 (0), J 1 (3) hat (insbesondere sind die B(x, y) nicht diagonalisierbar). Wir sehen also, dass A zu keiner der Matrizen B(x, y) ähnlich ist, dass aber alle B(x, y) zueinander ähnlich sind. Die hauptsächliche praktische Anwendung der Jordanschen Normalform besteht darin, dass sie die Berechnung von Potenzen einer Matrix vereinfacht: Sei etwa J = P 1 AP die Jordan-Normalform einer Matrix A, dann ist A = P JP 1 und A k = P J k P 1 für alle k N. Da J eine Block-Diagonalmatrix ist, ist J k ebenfalls eine Block-Diagonalmatrix, deren Blöcke die k-ten Potenzen der Blöcke J m (λ) sind. Nun ist J m (λ) = λi m + J m, also J m (λ) k = λ k I m + ( k 1 ) λ k 1 J m + ( ) k λ k 2 Jm Jm k, 2 und die Potenzen Jm k haben eine sehr einfache Gestalt. Zum Beispiel ist J 3 (λ) 2 = λ2 2λ 1 0 λ 2 2λ 0 0 λ 2 und allgemeiner ( J 3 (λ) k = λk kλ k 1 k ) 2 λ k 2 0 λ k kλ k λ k Eine Anwendung, die Sie in der Einführung in die gewöhnlichen Differentialgleichungen kennenlernen werden, ist die Berechnung von e ta für Matrizen A Mat(n, R) und t R. Die Exponentialfunktion für Matrizen ist definiert wie für Zahlen: e A = k=0 1 k! Ak ; man kann zeigen, dass die Reihe stets konvergiert (die Partialsummen sind Matrizen, sodass die Folge der Einträge an jeder gegebenen Position konvergiert). Ist A = P JP 1

34 20. Die Jordansche Normalform 34 wie oben, dann gilt e ta = P e tj P 1, und e tj ist eine Block-Diagonalmatrix mit Blöcken der Form e tjm(λ) = e λt e tjm = e λt( I m + tj m + t2 ) 2 J m Die Wichtigkeit der Funktion t e ta kommt aus folgendem Resultat: Ist x = (x 1, x 2,..., x n ) : R R n ein n-tupel differenzierbarer Funktionen, das das System von Differentialgleichungen x 1 (t) x 1 (t) x x 2 (t) = (t). = A x 2 (t). = A x (t) x n(t) x n (t) erfüllt, dann gilt x (t) = e ta x (0). Mit der Exponentialfunktion e ta kann man also solche Differentialgleichungssysteme lösen. Für die Matrix A aus dem Beispiel oben etwa hat man e t e ta 0 e t te t 0 0 = P 0 0 e t e t te t P e t 3e t 2e t (3t 2)e t + 2e t 0 0 (6t + 2)e t + 2e t 2e t 2e t (2t 1)e t + 2e t 0 0 (4t + 2)e t + 2e t = e t (t + 1)e t te t + te t e t e t + e t 2te t + te t 3e t (t + 3)e t (3t 2)e t + (t + 2)e t 0 e t (6t + 2)e t + (t + 2)e t. e t e t (t 1)e t + e t 0 0 2te t + e t Wie sieht die Klassifikation von Matrizen bis auf Ähnlichkeit aus über R, wo ja nicht jedes Polynom in Linearfaktoren zerfällt? Sei A Mat(n, R). Dann zerfällt χ A jedenfalls in C[X] in Linearfaktoren. Diese können die Form X λ haben mit λ R oder die Form X (λ + µi) mit λ, µ R und µ 0. Dann ist neben λ + µi auch λ µi eine Nullstelle von χ A, denn sei χ A = X n + a n 1 X n a 1 X + a 0 mit a 0, a 1,..., a n 1 R, dann ist für z = a + bi C mit komplex konjugierter Zahl z = a bi χ A (z) = z n + a n 1 z n a 1 z + a 0 = z n + a n 1 z n a 1 z + a 0 = χ A ( z). (Dabei haben wir benutzt, dass für w, z C gilt w + z = w + z und wz = w z, sowie ā = a für a R.) Aus χ A (λ + µi) = 0 folgt daher χ A (λ µi) = χ A (λ + µi) = 0. Man kann den Faktor (X λ µi)(x λ + µi) = X 2 2λX + λ 2 + µ 2 abdividieren; eine einfache Induktion zeigt dann, dass λ+µi und λ µi dieselbe Vielfachheit als Nullstelle von χ A haben. Damit haben die zugehörigen Haupträume H λ+µi (A) und H λ µi (A) in C n dieselbe Dimension. Sei (x 1, x 2,..., x m ) eine Basis von H λ+µi (A), sodass A x j = (λ+µi)x j oder (λ+µi)x j +x j 1 ist (also eine Basis, die zu den Jordan- Kästchen für den Eigenwert λ + µi gehört). Für einen Vektor y = (y 1,..., y n ) C n sei ȳ = (ȳ 1,..., ȳ n ). Dann ist ( x 1, x 2,..., x m ) eine Basis von H λ µi (A), und ( x 1 + x 1, i 1 (x 1 x 1 ), x 2 + x 2, i 1 (x 2 x 2 ),... x m + x m, i 1 (x m x m ) ) ist eine Basis von H λ+µi (A) H λ µi (A), deren Elemente in R n liegen. Die Matrix bezüglich dieser Basis des durch A gegebenen Endomorphismus dieses Untervektorraums

35 20. Die Jordansche Normalform 35 ist dann eine Block-Diagonalmatrix mit Blöcken der Form λ µ µ λ λ µ µ λ J 2m (λ, µ) = Mat(2m, R) λ µ µ λ λ µ µ λ Diese Matrix entsteht aus J m (λ + µi), indem jeder Eintrag a + bi (mit a, b R) durch die 2 2-Matrix ( ) a b b a ersetzt wird (dies ist die Matrix des R-linearen Endomorphismus z (a + bi)z von C bezüglich der R-Basis (1, i) von C). Daraus ergibt sich der folgende Satz (formuliert für Matrizen): Satz. Sei A Mat(n, R). Dann ist A ähnlich zu einer Block-Diagonalmatrix, deren SATZ Blöcke die Form J m (λ) (mit λ R) oder J 2m (λ, µ) (mit λ R, µ R >0 ) haben. Diese Reelle JNF Blöcke sind bis auf ihre Reihenfolge eindeutig bestimmt.

36 21. Simultane Diagonalisierbarkeit Simultane Diagonalisierbarkeit Bis jetzt haben wir immer nur einen Endomorphismus oder eine Matrix betrachtet. In diesem Abschnitt wollen wir untersuchen, wann sich mehrere Endomorphismen oder Matrizen gleichzeitig diagonalisieren lassen. Die folgende Definition sagt, was genau damit gemeint ist Definition. Sei V ein endlich-dimensionaler Vektorraum und sei (f i ) i I DEF eine Familie von Endomorphismen von V. Dann heißen die f i simultan diagonalisierbar, wenn es eine Basis von V gibt, sodass jeder Basisvektor Eigenvektor aller f i (zu möglicherweise verschiedenen Eigenwerten) ist. Eine Familie (A i ) i I von Matrizen in Mat(n, K) heißt simultan diagonalisierbar, wenn es eine invertierbare Matrix P GL(n, K) gibt, sodass P 1 A i P für alle i I eine Diagonalmatrix ist. Die Matrizen A i sind genau dann simultan diagonalisierbar, wenn die durch sie beschriebenen Endomorphismen f i : x A i x simultan diagonalisierbar sind. Simultane Diagonalisierbarkeit Lemma. Ist (f i ) i I eine Familie simultan diagonalisierbarer Endomorphis- LEMMA men eines endlich-dimensionalen Vektorraums V, dann ist auch jeder Endomorphismus, der aus den f i durch Bilden von Linearkombinationen und Verknüpfung von Abbildungen konstruiert werden kann, diagonalisierbar. Beweis. Ist b V ein Eigenvektor aller f i, dann ist b auch ein Eigenvektor aller wie in der Aussage des Lemmas konstruierten Endomorphismen f. Ist also B eine Basis von V, deren Elemente Eigenvektoren aller f i sind, dann ist B auch eine Basis, die aus Eigenvektoren von f besteht. Bevor wir das wesentliche Ergebnis formulieren und beweisen können, brauchen wir noch zwei Hilfsaussagen Lemma. Sei V ein K-Vektorraum, seien f, g End(V ) mit f g = g f LEMMA und sei λ K. Dann ist der λ-eigenraum von f unter g invariant und dasselbe gilt (falls V endlich-dimensional ist) für den λ-hauptraum von f. Invarianz von Eigenräumen Beweis. Sei v E λ (f). Wir müssen zeigen, dass g(v) E λ (f) ist: f ( g(v) ) = (f g)(v) = (g f)(v) = g ( f(v) ) = g(λv) = λg(v). Der Hauptraum H λ (f) ist ker ( (f λ id V ) m) für ein geeignetes m N. Es gilt dann wie eben für v H λ (f): (f λ id V ) m( g(v) ) = ( (f λ id V ) m g ) (v) = ( g (f λ id V ) m) (v) = g ( (f λ id V ) m (v) ) = g(0) = 0. Wir haben dabei verwendet, dass g auch mit f λ id V kommutiert (dass also (f λ id V ) g = f g λg = g f λg = g (f λ id V ) gilt). Allgemeiner gilt unter der Voraussetzung f g = g f, dass ker ( p(f) ) unter g invariant ist für jedes Polynom p K[X] (Übung). Das Lemma ist der Spezialfall p = X λ bzw. (X λ) m.

37 21. Simultane Diagonalisierbarkeit Lemma. Sei V ein endlich-dimensionaler Vektorraum, sei f End(V ) LEMMA und sei U V ein f-invarianter Untervektorraum. Ist f diagonalisierbar, dann ist auch f U End(U) diagonalisierbar. Beweis. Nach Satz zerfällt das Minimalpolynom m f von f in Linearfaktoren und hat keine mehrfachen Nullstellen. Es gilt m f (f U ) = m f (f) U = 0 U = 0, also ist das Minimalpolynom von f U ein Teiler von m f. Dann muss auch m f U in Linearfaktoren zerfallen und kann keine mehrfachen Nullstellen haben, also ist wieder nach Satz auch f U diagonalisierbar Satz. Sei V ein endlich-dimensionaler Vektorraum und sei (f i ) i I eine SATZ Familie von Endomorphismen von V. Die f i sind genau dann simultan diagonalisierbar, wenn jeder Endomorphismus f i diagonalisierbar ist und die f i paarweise kommutieren: f i f j = f j f i für alle i, j I. Kriterium für simultane Digaonalisierbarkeit Analog gilt: Seien K ein Körper, n N und (A i ) i I eine Familie von Matrizen in Mat(n, K). Dann sind die A i genau dann simultan diagonalisierbar, wenn jede Matrix A i diagonalisierbar ist und A i A j = A j A i gilt für alle i, j I. Beweis. : Nach Voraussetzung hat V eine Basis B = (b 1, b 2,..., b n ), sodass jeder Basisvektor b k ein Eigenvektor für alle f i ist: f i (b k ) = λ ik b k. Dann ist natürlich auch jedes f i diagonalisierbar (denn B ist eine Basis von V, die aus Eigenvektoren von f i besteht). Außerdem gilt für alle k {1, 2,..., n} und alle i, j I: (f i f j )(b k ) = f i ( fj (b k ) ) = f i (λ jk b k ) = λ jk f i (b k ) = λ jk λ ik b k = λ ik λ jk b k = λ ik f j (b k ) = f j (λ ik b k ) = f j ( fi (b k ) ) = (f j f i )(b k ). Da eine lineare Abbildung durch die Bilder der Basiselemente eindeutig bestimmt ist, folgt f i f j = f j f i für alle i, j I. : Induktion über die Dimension von V. Im Fall dim V = 0 oder dim V = 1 ist nichts zu zeigen (jeder Vektor 0 ist Eigenvektor jedes Endomorphismus). Sei also dim V > 1. Wenn alle f i die Form f i (v) = λ i v haben, dann ist jeder Vektor 0 v V Eigenvektor aller f i, also tut es jede beliebige Basis. Es gebe also jetzt i 0 I, sodass f i0 wenigstens zwei verschiedene Eigenwerte hat. Dann können wir V als direkte Summe V = E λ1 (f i0 ) E λ2 (f i0 )... E λm (f i0 ) = V 1 V 2... V m von Eigenräumen von f i0 schreiben, wobei alle V l = E λl (f i0 ) kleinere Dimension als V haben. Nach Lemma 21.3 sind alle V l invariant unter allen f i. Nach Lemma 21.4 ist f i Vl diagonalisierbar für alle i I und alle l {1, 2,..., m}. Außerdem gilt natürlich auch f i Vl f j Vl = f j Vl f i Vl. Wir können also die Induktionsannahme auf V l und die Familie (f i Vl ) i I anwenden: Es gibt für jedes l {1, 2,..., m} eine Basis B l von V l, die aus Eigenvektoren für alle f i besteht. Wir setzen die B l zu einer Basis B von V zusammen; dann besteht auch B aus Eigenvektoren aller f i, also sind die f i simultan diagonalisierbar. Die Aussage für Matrizen folgt aus der für Endomorphismen.

38 21. Simultane Diagonalisierbarkeit 38 Wir können das auf zyklische Matrizen anwenden; das sind Matrizen der Form a 0 a 1 a 2 a n 1 a n 1 a 0 a 1 a n 2 Z(a 0, a 1,..., a n 1 ) = a n 2 a n 1 a 0 a n 3 Mat(n, C) a 1 a 2 a 3 a 0 mit a 0, a 1,..., a n 1 C. Der Name kommt daher, dass jede Zeile durch zyklische Permutation der vorigen Zeile entsteht. Sei Z = Z(0, 1, 0, 0,..., 0), dann sieht man leicht, dass Z m = Z(0,..., 0, 1, 0,..., 0) ist mit der Eins an Position m (dabei ist die erste Position Position 0 ), für alle m {0, 1,..., n 1}. Also ist Z(a 0, a 1,..., a n 1 ) = a 0 I n + a 1 Z + a 2 Z a n 1 Z n 1 = (a 0 + a 1 X + a 2 X a n 1 X n 1 )(Z). Das bedeutet, dass alle zyklischen Matrizen miteinander kommutieren. Außerdem ist Z diagonalisierbar, denn χ Z = X n 1 hat keine mehrfachen Nullstellen: Die Nullstellen sind gerade die Potenzen 1, ω, ω 2,..., ω n 1 von ω = e 2πi/n = cos(2π/n)+i sin(2π/n). Es folgt, dass alle zyklischen Matrizen diagonalisierbar sind; damit sind sie sogar simultan diagonalisierbar. Eine Basis aus Eigenvektoren aller zyklischen Matrizen ist gegeben durch eine Basis aus Eigenvektoren von Z, nämlich zum Beispiel b 0 = (1, 1, 1,..., 1), b 1 = (1, ω, ω 2,..., ω n 1 ),. b j = (1, ω j, ω 2j,..., ω (n 1)j ),. b n 1 = (1, ω n 1, ω n 2,..., ω) ; es gilt Z b j = ω j b j. (Die auf den ersten Blick von der für b j gegebenen allgemeinen Form abweichende Darstellung von b n 1 ergibt sich daraus, dass ω n = 1 ist. Man hat dann nämlich Es folgt: ω k(n 1) = ω kn k = ω (k 1)n+(n k) = (ω n ) k ω n k = ω n k.).. Satz. Die Eigenwerte (mit Vielfachheit) der zyklischen Matrix Z(a 0, a 1,..., a n 1 ) sind SATZ wie folgt: zyklische λ Matrizen 0 = a 0 + a 1 + a a n 1 Insbesondere ist λ 1 = a 0 + a 1 ω + a 2 ω a n 1 ω n 1.. λ j = a 0 + a 1 ω j + a 2 ω 2j a n 1 ω (n 1)j. λ n 1 = a 0 + a 1 ω n 1 + a 2 ω n a n 1 ω det ( Z(a 0, a 1,..., a n 1 ) ) = λ 0 λ 1 λ n 1 =. n 1 n 1 a k ω jk. j=0 k=0

39 21. Simultane Diagonalisierbarkeit 39 Zum Abschluss beweisen wir noch, dass der diagonalisierbare Endomorphismus d und der nilpotente Endomorphismus g in Satz 20.7 (schwache Jordansche Normalform) eindeutig bestimmt sind Satz. In Satz 20.7 sind die Endomorphismen d und g eindeutig bestimmt. SATZ Beweis. Es sei f = d + g = d + g mit d g = g d, d g = g d und d, d diagonalisierbar, g, g nilpotent; dabei seien d und g wie im Beweis von Satz 20.7 konstruiert. Wir zeigen zuerst, dass d und g mit d und g kommutieren. Wir bemerken, dass d und g jedenfalls mit f kommutieren (denn d f = d (d + g ) = d d + d g = d d + g d = (d + g ) d = f d und analog für g ). Nach Lemma 21.3 sind die Haupträume von f also unter d und g invariant. Auf dem Hauptraum H λ (f) hat d die Form λ id, also kommutiert d mit d und g auf H λ (f). Da d und d (bzw. g ) direkte Summen von Endomorphismen dieser Haupträume sind, folgt d d = d d und d g = g d. Da d und g mit f = d + g kommutieren, kommutieren sie auch mit g. Da d und d beide diagonalisierbar sind und miteinander kommutieren, sind sie nach Satz 21.5 simultan diagonalisierbar, also ist nach Lemma 21.2 auch d d = g g diagonalisierbar. Auf der anderen Seite ist g g nilpotent (da g und g nilpotent sind und miteinander kommutieren Übung). Ein Endomorphismus, der gleichzeitig diagonalisierbar und nilpotent ist, muss aber die Nullabbildung sein (das Minimalpolynom hat keine mehrfachen Nullstellen und ist von der Form X m, also ist es X (oder 1; dann ist V = {0}) und damit ist die Abbildung 0). Es folgt d = d und g = g und damit die behauptete Eindeutigkeit. Eindeutigkeit der JNF- Zerlegung

40 22. Äquivalenzrelationen, Quotientenräume und affine Unterräume Äquivalenzrelationen, Quotientenräume und affine Unterräume Wir erinnern uns daran, dass der Kern jeder linearen Abbildung f : V V ein Untervektorraum von V ist. Hier wollen wir gewissermaßen der umgekehrten Frage nachgehen: Ist jeder Untervektorraum der Kern einer linearen Abbildung? Im Fall, dass V endlich-dimensional ist, können wir mit unseren Kenntnissen über direkte Summen und Komplemente recht leicht zeigen, dass die Antwort Ja lautet: Sei U ein Untervektorraum des endlich-dimensionalen Vektorraums V, dann hat U ein Komplement U in V (Satz 18.13), es ist also V = U U. Die zu dieser Zerlegung gehörende Projektion π : V U hat dann U als Kern. Dieses Argument ist aus zwei Gründen etwas unbefriedigend. Zum Einen verwendet es die Existenz von Basen (genauer: den Basisergänzungssatz), die wir nur für endlich-dimensionale Vektorräume gezeigt haben. Zum Anderen ist das Komplement U im Normalfall weit davon entfernt, eindeutig bestimmt zu sein; wir müssen bei der Konstruktion der linearen Abbildung also eine Wahl treffen. In diesem Abschnitt werden wir eine Konstruktion kennen lernen, die diese Nachteile vermeidet: Sie funktioniert für jeden Untervektorraum jedes Vektorraums und erfordert keine Auswahlen. Die Art dieser Konstruktion des Quotientenraums und des zugehörigen kanonischen Epimorphismus ist recht typisch für die Methoden der Algebra und wird in sehr ähnlicher Form im Rahmen der Vorlesungen Einführung in die Zahlentheorie und algebraische Strukturen und Einführung in die Algebra wieder auftauchen, dann für andere algebraische Strukturen wie zum Beispiel Ringe und Gruppen. Sei also V ein (beliebiger) K-Vektorraum und U V ein Untervektorraum. Wenn es eine lineare Abbildung f : V V gibt mit ker(f) = U, dann gibt es auch eine surjektive solche Abbildung, denn wir können einfach die im Wertebereich eingeschränkte Abbildung f : V im(f) betrachten. Wir nehmen jetzt an, dass wir so eine surjektive lineare Abbildung f : V V mit Kern U haben. Wie können wir dann den Vektorraum V beschreiben? Die Elemente von V können wir durch Elemente von V repräsentieren; dabei wird v V durch jedes v V mit f(v) = v repräsentiert (das ist möglich, weil f surjektiv ist). Zwei Elemente v 1 und v 2 von V stellen genau dann dasselbe Element von V dar, wenn f(v 1 ) = f(v 2 ) ist. Das ist äquivalent zu f(v 1 v 2 ) = 0, also zu v 1 v 2 ker(f) = U. Die Addition und Skalarmultiplikation auf V kann unter Zuhilfenahme der Linearität von f ebenfalls über die entsprechenden Operationen von V erfolgen: Sind v 1 und v 2 Repräsentanten von v 1 = f(v 1 ) und v 2 = f(v 2 ), dann ist v 1 +v 2 ein Repräsentant von v 1+v 2, denn f(v 1 +v 2 ) = f(v 1 )+f(v 2 ). Ebenso ist für λ K auch λv 1 ein Repräsentant von λv 1. Wir schreiben [v] (statt f(v)) für das von v V repräsentierte Element von V. Dann können wir unsere Überlegungen wie folgt zusammenfassen: Falls V existiert, dann (1) besteht V aus allen [v] mit v V ; (2) es gilt [v 1 ] = [v 2 ] v 1 v 2 U (3) und [v 1 ] + [v 2 ] = [v 1 + v 2 ], λ[v] = [λv].

41 22. Äquivalenzrelationen, Quotientenräume und affine Unterräume 41 Es liegt also nahe, V auf diese Weise zu definieren; dann wäre f : V V, v [v], die passende surjektive lineare Abbildung mit Kern U (denn [v] = 0 genau dann, wenn v U). Dafür müssen wir nachweisen, dass diese Vorgehensweise zu keinen Widersprüchen führt. Der erste Punkt dabei ist, sich zu überlegen, dass die Gleichheit der Elemente von V sinnvoll definiert ist. Eine sinnvolle Definition von Gleichheit muss sicher die folgenden Eigenschaften haben: (1) Jedes Element ist gleich zu sich selbst. (2) Wenn a und b gleich sind, dann sind auch b und a gleich. (3) Wenn sowohl a und b, als auch b und c gleich sind, dann sind auch a und c gleich. Wir gießen das in eine formale Definition. Dafür brauchen wir den Begriff der Relation Definition. Seien X und Y beliebige Mengen. Eine Relation zwischen X DEF und Y ist eine Teilmenge R X Y. Man sagt, x X steht in der Relation R zu Relation y Y (oder x und y stehen in der Relation R), wenn (x, y) R gilt. Manchmal schreibt man dafür abkürzend x R y. Im Fall X = Y spricht man von einer Relation auf X Beispiele. BSP Relationen Auf jeder Menge X gibt es die Gleichheitsrelation {(x, x) x X} und die Allrelation X X. Auf R gibt es die Vergleichsrelationen {(x, y) R R x y} und analog für <,, >. Auf Z gibt es die Teilbarkeitsrelation {(a, b) Z Z c Z : ac = b}, deren Bestehen als a b notiert wird. Zwischen einer Menge X und ihrer Potenzmenge P(X) gibt es die Element- Relation {(x, T ) X P(X) x T } Definition. Seien X eine Menge und R eine Relation auf X. Dann heißt DEF R eine Äquivalenzrelation, wenn folgende Bedingungen erfüllt sind: Äquivalenzrelation (1) x X : x R x (Reflexivität). (2) x, y X : (x R y = y R x) (Symmetrie). (3) x, y, z X : (x R y y R z = x R z) (Transitivität). Die Gleichheitsrelation und die Allrelation sind Äquivalenzrelationen auf jeder Menge X. Dagegen sind die Vergleichsrelationen auf R (außer der Gleichheit) und die Teilbarkeitsrelation auf Z keine Äquivalenzrelationen, denn (z.b.) aus a b folgt nicht unbedingt b a und aus a b folgt nicht unbedingt b a. Man kann eine Äquivalenzrelation als eine vergröberte Version von Gleichheit verstehen: Man betrachtet Elemente als gleich, obwohl sie nicht unbedingt identisch sind, aber so, dass die wesentlichen Eigenschaften der Gleichheit erfüllt sind. Das führt zu einer Einteilung von X in Klassen als untereinander gleich betrachteter Elemente:

42 22. Äquivalenzrelationen, Quotientenräume und affine Unterräume 42 (1) y x. (2) y [x]. (3) [x] = [y]. (4) [x] [y]. Insbesondere sind je zwei Äquivalenzklassen entweder gleich oder disjunkt. Beweis. Die Äquivalenz von (1) und (2) ist nichts Anderes als die Definition von [x]. (1) (3) : Für z X gilt (unter der Voraussetzung y x, also auch x y): z [x] z x z y z [y], also sind [x] und [y] gleich. Die mittlere Äquivalenz benutzt die Transitivität von. (3) (4) ist trivial, denn x [x] = [y]. (4) (1) : Sei z [x] [y], dann gilt z x und z y. Die Symmetrie von impliziert y z, die Transitivität dann y x Satz. Sei X eine Menge und sei eine Äquivalenzrelation auf X. Ist SATZ x X, dann schreiben wir [x] für die Menge {y X y x} und nennen [x] Äquivalenzklassen die Äquivalenzklasse von x (bezüglich ). Für x, y X sind dann die folgenden Aussagen äquivalent: Definition. In der Situation von Satz 22.4 schreiben wir DEF X/ = {[x] x X} P(X) Quotientenmenge für die Menge der Äquivalenzklassen und nennen X/ die Quotientenmenge von X bezüglich. Die Abbildung X X/, x [x], ist surjektiv; sie heißt die kanonische Surjektion. Wir können das auf unser Problem anwenden Lemma. Seien V ein K-Vektorraum und U V ein Untervektorraum. Die LEMMA wie folgt definierte Relation U auf V ist eine Äquivalenzrelation. Statt v U v schreiben wir v v mod U (gesprochen v ist kongruent zu v modulo U ). v v mod U v v U. Statt V/ U schreiben wir V/U für die Quotientenmenge. Für die Äquivalenzklassen gilt [v] = {v V v v U} = {v + u u U} = v + U. Kongruenz modulo U ist Äquivalenzrelation Beweis. Wir müssen zeigen, dass die so definierte Relation reflexiv, symmetrisch und transitiv ist: Für v V gilt v v = 0 U, also v v mod U. Für v, v V gelte v v mod U, das bedeutet v v U. Dann ist auch v v = (v v ) U und damit v v mod U. Für v, v, v V gelte v v mod U und v v mod U, das bedeutet v v, v v U. Dann ist auch v v = (v v ) + (v v ) U, also gilt v v mod U.

43 22. Äquivalenzrelationen, Quotientenräume und affine Unterräume 43 Die Aussage über die Gestalt der Äquivalenzklassen ist klar (mit u = v v). Wir wollen jetzt gerne V = V/U setzen, mit der kanonischen Surjektion als linearer Abbildung. Dafür müssen wir nachweisen, dass die Definitionen der Addition, [v] + [v ] = [v + v ], und der Skalarmultiplikation, λ[v] = [λv], sinnvoll sind. Das wird durch zusätzliche Eigenschaften von U sichergestellt Lemma. Die Relation U aus Lemma 22.6 hat zusätzlich folgende Eigen- LEMMA schaften: (1) Für v 1, v 2, v 1, v 2 V gilt: Aus v 1 v 1 mod U und v 2 v 2 mod U folgt v 1 + v 2 v 1 + v 2 mod U. (2) Für v, v V und λ K gilt: Aus v v mod U folgt λv λv mod U. Eine Äquivalenzrelation auf einem Vektorraum mit diesen zusätzlichen Eigenschaften (also Verträglichkeit mit der Vektorraum-Struktur) wird auch als Kongruenzrelation bezeichnet. Beweis. (1) Wir haben v 1 v 1, v 2 v 2 U, also auch (v 1 + v 2 ) (v 1 + v 2) = (v 1 v 1) + (v 2 v 2) U. (2) Aus v v U folgt λv λv = λ(v v ) U. Kongruenz modulo U ist Kongruenzrelation Satz. Seien V ein K-Vektorraum und U V ein Untervektorraum. Durch SATZ die Festlegungen Quotientenraum [v] + [v ] = [v + v ] und λ [v] = [λv] wird die Menge V/U zu einem K-Vektorraum. Die kanonische Surjektion π : V V/U, v [v], ist dann eine lineare Abbildung mit ker(π) = U. Der Vektorraum V/U ( V modulo U ) heißt der Quotientenraum von V modulo U, die lineare Abbildung π : V V/U der kanonische Epimorphismus. Beweis. Zuerst ist zu zeigen, dass die Definitionen der Addition und Skalarmultiplikation sinnvoll ( wohldefiniert ) sind: Da es im Allgemeinen viele Möglichkeiten gibt, ein Element von V/U in der Form [v] zu schreiben, müssen wir nachprüfen, dass die Definitionen nicht von der Auswahl der Repräsentanten abhängen. Es gelte also [v 1 ] = [v 1] und [v 2 ] = [v 2], also v 1 v 1 mod U und v 2 v 2 mod U. Nach Lemma 22.7 folgt dann v 1 +v 2 v 1 +v 2 mod U, also [v 1 +v 2 ] = [v 1 +v 2]. Das zeigt, dass die Summe von [v 1 ] und [v 2 ] nicht von der Wahl der Repräsentanten abhängt. Auf analoge Weise zeigt man, dass auch die Definition der Skalarmultiplikation sinnvoll ist. Als Nächstes müssen wir die Axiome für einen Vektorraum nachprüfen. Sobald klar ist, dass Addition und Skalarmultiplikation wohldefiniert sind, folgen diese aber direkt aus ihrer Gültigkeit für V, wobei man natürlich 0 = [0] und [v] = [ v] setzt. Wir zeigen das am Beispiel eines der Distributivgesetze: Seien v, v V und λ K. Dann gilt λ([v] + [v ]) = λ[v + v ] = [λ(v + v )] = [λv + λv ] = [λv] + [λv ] = λ[v] + λ[v ]. Die anderen Axiome zeigt man nach demselben Schema: Linke Seite als Restklasse eines Elements von V schreiben, dann das Axiom in V anwenden, dann in die rechte Seite umformen.

44 22. Äquivalenzrelationen, Quotientenräume und affine Unterräume 44 Dass die kanonische Surjektion π linear ist, folgt schließlich direkt aus der Definition von Addition und Skalarmultiplikation in V/U. Tatsächlich ist die Definition gerade so gemacht, damit π linear wird! Es gilt dann (man beachte 0 V/U = [0 V ], also [v] = 0 V/U v U) ker(π) = {v V [v] = 0} = {v V v U} = U. Damit ist die eingangs gestellte Frage positiv beantwortet. Hat U ein Komplement U in V, dann ist die Einschränkung des kanonischen Epimorphismus π : V V/U auf U ein Isomorphismus U V/U (Übung). Es folgt codim V U = dim U = dim V/U. Wir können also die Kodimension für beliebige Untervektorräume als codim V U = dim V/U definieren, ohne auf die Existenz eines Komplements angewiesen zu sein. Die Formel dim U + codim V U = dim V ist dann nichts anderes als der Rangsatz dim V = dim ker(π) + dim im(π) für den kanonischen Epimorphismus π. Wir beweisen jetzt noch einige Eigenschaften von Quotientenraum und kanonischem Epimorphismus Satz. Seien V ein Vektorraum und U V ein Untervektorraum; sei weiter SATZ π : V V/U der kanonische Epimorphismus. Dann sind die Abbildungen {U V U UVR mit U U } {W V/U W UVR} UVR von V und V/U π 1 (W ) U π(u ) zueinander inverse inklusionserhaltende Bijektionen. Das bedeutet, dass die Untervektorräume von V/U genau den Untervektorräumen von V entsprechen, die U enthalten (und zwar mitsamt der Inklusionen, die zwischen ihnen gelten: Eine Abbildung φ ist inklusionserhaltend, wenn aus A B folgt, dass φ(a) φ(b) ist). Beweis. Seien Φ die Abbildung U π(u ) und Ψ die Abbildung W π 1 (W ). Da π linear ist, ist für jeden Untervektorraum U von V die Bildmenge π(u ) ein Untervektorraum von V/U, und für jeden Untervektorraum W von V/U ist die Urbildmenge π 1 (W ) ein Untervektorraum von V, vergleiche Satz 9.9, wo auch gezeigt wurde, dass Φ und Ψ zueinander inverse Bijektionen sind. Dass die beiden Abbildungen inklusionserhaltend sind, ist eine allgemeine Eigenschaft von Bildund Urbildmengen. Als nächstes beantworten wir die Frage, wann eine lineare Abbildung f : V W eine lineare Abbildung φ : V/U W induziert, wann es also so ein φ gibt, sodass φ π = f ist, wobei π : V V/U der kanonische Epimorphismus ist: Gibt es φ, sodass das folgende Diagramm kommutiert? W V f W π V/U φ

45 22. Äquivalenzrelationen, Quotientenräume und affine Unterräume 45 Da für jedes u U gilt, dass π(u) = 0 ist, muss auch f(u) = φ ( π(u) ) = 0 sein; das bedeutet U ker(f). Wie der folgende Satz zeigt, ist diese Bedingung auch hinreichend Satz. Seien V ein Vektorraum mit Untervektorraum U und π : V V/U SATZ der kanonische Epimorphismus. Sei weiter f : V W linear. Es gibt genau dann eine lineare Abbildung φ : V/U W mit f = φ π, wenn U ker(f) ist. Diese lin. Abb. auf V/U Abbildung ist genau dann injektiv, wenn U = ker(f) ist. Beweis. Dass die Bedingung notwendig ist, hatten wir uns bereits überlegt. Für die Gegenrichtung nehmen wir U ker(f) an. Wenn es φ gibt, dann muss gelten φ([v]) = φ ( π(v) ) = f(v) ; die Frage ist nur, ob wir φ tatsächlich so definieren können. Dazu müssen wir zeigen, dass f(v) nicht vom Repräsentanten von [v] abhängt. Es seien also v, v V mit [v] = [v ], also v v U. Dann ist f(v) = f ( (v v ) + v ) = f(v v ) + f(v ) = f(v ), weil aus v v U ker(f) folgt, dass f(v v ) = 0 ist. Damit ist φ durch φ([v]) = f(v) wohldefiniert, und es gilt jedenfalls φ π = f. Es bleibt zu zeigen, dass φ linear ist. Das folgt aber aus der Linearität von π und von f: φ([v] + [v ]) = φ([v + v ]) = f(v + v ) = f(v) + f(v ) = φ([v]) + φ([v ]) und φ(λ[v]) = φ([λv]) = f(λv) = λf(v) = λφ([v]). φ ist genau dann injektiv, wenn ker(φ) trivial ist. Aus der Definition von φ folgt ker(φ) = π ( ker(f) ), also nach Satz 22.9 ker(f) = π 1( ker(φ) ). Aus U = π 1 ({0}) ergibt sich die Behauptung ker(φ) = {0} ker(f) = U. Satz zeigt, wie man lineare Abbildungen mit Definitionsbereich V/U konstruieren kann Satz. Sei f : V W eine lineare Abbildung. Seien π : V V/ ker(f) SATZ der kanonische Epimorphismus und ι : im(f) W die Inklusionsabbildung. Dann gibt es einen eindeutig bestimmten Isomorphismus φ : V/ ker(f) im(f), sodass f = ι φ π ist: V π f W V/ ker(f) φ = im(f) Insbesondere sind V/ ker(f) und im(f) isomorph. Beweis. Nach Satz gibt es eine lineare Abbildung φ : V/ ker(f) W mit f = φ π. Es gilt im( φ) = im(f), also können wir φ im Wertebereich einschränken zu φ : V/ ker(f) im(f); es folgt f = ι φ π. Es bleibt zu zeigen, dass φ ein Isomorphismus ist und dass φ eindeutig bestimmt ist. Letzteres folgt aus φ([v]) = ι ( φ([v]) ) = f(v). φ ist injektiv nach Satz und surjektiv wegen im(φ) = im( φ) = im(f), also ist φ ein Isomorphismus. ι Homomorphiesatz für lineare Abb.

46 22. Äquivalenzrelationen, Quotientenräume und affine Unterräume Beispiel. Die rationalen Cauchy-Folgen bilden einen Untervektorraum C BSP des Vektorraums Q N der Folgen über Q, denn Summen und skalare Vielfache Konstruktion von Cauchy-Folgen sind wieder Cauchy-Folgen. In C bilden die Nullfolgen einen von R aus Q Untervektorraum N. Jede Cauchy-Folge konvergiert in R und jede reelle Zahl ist Grenzwert einer rationalen Cauchy-Folge. Das liefert uns eine surjektive Q-lineare Abbildung lim : C R, (a n ) n N lim n a n mit Kern N ( Nullfolge heißt ja gerade Grenzwert null ). Aus dem Homomorphiesatz folgt jetzt, dass C/N isomorph zu R ist (als Q-Vektorraum). Dies ist eine der Möglichkeiten, wie man die reellen Zahlen aus den rationalen Zahlen konstruieren kann. In der Einführung in die Zahlentheorie und algebraische Strukturen werden wir lernen, dass die gleiche Konstruktion auch die Struktur von R als Körper mitliefert. Weitere Anwendungen des Homomorphiesatzes sind durch die folgenden Isomorphiesätze gegeben Satz. Seien V ein Vektorraum und U 1, U 2 V zwei Untervektorräume. SATZ Dann ist die Abbildung φ : U 1 /(U 1 U 2 ) (U 1 + U 2 )/U 2, u + (U 1 U 2 ) u + U 2 Erster Isomorphiesatz ein Isomorphismus. (Wir verwenden hier die präzisere Schreibweise v + U für die Äquivalenzklasse [v], weil wir es mit zwei verschiedenen Quotientenräumen zu tun haben. In der Beschreibung von φ ist u ein Element von U 1.) Beweis. U 1 U 1 /(U 1 U 2 ) f = φ U 1 + U 2 (U 1 + U 2 )/U 2 Wir betrachten die Verknüpfung f : U 1 (U 1 + U 2 )/U 2 der Inklusionsabbildung U 1 U 1 + U 2 mit dem kanonischen Epimorphismus U 1 + U 2 (U 1 + U 2 )/U 2. Dann ist ker(f) = U 1 U 2. Außerdem ist f surjektiv: Sei v + U 2 (U 1 + U 2 )/U 2 mit v U 1 + U 2, dann gibt es u 1 U 1 und u 2 U 2 mit v = u 1 + u 2. Es folgt v +U 2 = u 1 +U 2 = f(u 1 ), da v u 1 = u 2 U 2. Nach dem Homomorphiesatz existiert der Isomorphismus φ wie angegeben Satz. Seien V ein Vektorraum und U 1 U 2 V Untervektorräume. SATZ Dann ist U 2 /U 1 ein Untervektorraum von V/U 1 und die Abbildung Zweiter Isomorphiesatz φ : V/U 2 (V/U 1 )/(U 2 /U 1 ), v + U 2 (v + U 1 ) + U 2 /U 1 ist ein Isomorphismus. Beweis. V π f V/U 1 V/U 2 = φ (V/U 1 )/(U 2 /U 1 )

47 22. Äquivalenzrelationen, Quotientenräume und affine Unterräume 47 Sei π : V V/U 1 der kanonische Epimorphismus, dann ist U 2 /U 1 = π(u 2 ) ein Untervektorraum von V/U 1 nach Satz Ähnlich wie eben betrachten wir die Abbildung f : V (V/U 1 )/(U 2 /U 1 ), die die Komposition von π mit dem kanonischen Epimorphismus V/U 1 (V/U 1 )/(U 2 /U 1 ) ist. Da beide Epimorphismen surjektiv sind, gilt das auch für f. Außerdem ist ker(f) = π 1 (U 2 /U 1 ) = U 2. Die Behauptung folgt wieder aus dem Homomorphiesatz Die Äquivalenzklassen [v] = v + U, die in diesem Zusammenhang auch Nebenklassen (von U) oder Restklassen (modulo U) heißen, haben auch eine geometrische Interpretation als verschobene Untervektorräume (man verschiebt nämlich U um den Vektor v). Dafür gibt es einen eigenen Namen Definition. Sei V ein Vektorraum. Ein affiner Unterraum von V ist ent- DEF weder die leere Menge oder eine Menge der Form v + U mit v V und einem Untervektorraum U von V. Die Dimension von v + U ist dim(v + U) = dim U, die Dimension des leeren affinen Unterraums wird als definiert. Wir kennen affine Unterräume bereits als Lösungsmengen von linearen Gleichungen (siehe Satz 11.10): Die Lösungsmenge jeder linearen Gleichung f(x) = b (wobei f : V W eine lineare Abbildung ist) ist ein affiner Unterraum von V. Umgekehrt ist jeder affine Unterraum von V auch Lösungsmenge einer linearen Gleichung. Das ist klar für die leere Menge (wähle f = 0 : V K und b = 1); für A = v + U ist A = π 1 ([v]) für den kanonischen Epimorphismus π : V V/U. Der Untervektorraum U, der zu einem nicht-leeren affinen Unterraum A gehört, ist durch A eindeutig bestimmt, denn es ist U = A A = {v v v, v A}. Dagegen ist der Aufpunkt v nicht eindeutig bestimmt (außer U = {0}), denn jedes v A erfüllt A = v + U. Affiner Unterraum äquivalent: (1) A ist ein affiner Unterraum von V. (2) A ist unter affinen Linearkombinationen abgeschlossen: Für a 1, a 2,..., a n A und λ 1, λ 2,..., λ n K mit λ 1 + λ λ n = 1 gilt λ 1 a 1 + λ 2 a λ n a n A. Beweis. (1) (2) : Wenn A = ist, ist nichts zu zeigen. Sei also A = v + U mit v V und einem Untervektorraum U. Dann ist a j = v + u j mit u j U für alle j {1, 2,..., n}, also erhalten wir λ 1 a 1 + λ 2 a λ n a n = λ 1 (v + u 1 ) + λ 2 (v + u 2 ) λ n (v + u n ) = (λ 1 + λ λ n )v + λ 1 u 1 + λ 2 u λ n u n = v + (λ 1 u 1 + λ 2 u λ n u n ) v + U = A. (2) (1) : Wenn A = ist, dann ist A ein affiner Unterraum. Wir können also A annehmen; sei v A fest gewählt und U = A v = {a v a A} V. Wir zeigen, dass U ein Untervektorraum von V ist, dann folgt, dass A = v + U ein affiner Unterraum ist. 0 U, da 0 = v v und v A ist. Wir können affine Unterräume durch eine Abgeschlossenheitseigenschaft charakterisieren Satz. Seien V ein K-Vektorraum und A V eine Teilmenge. Dann sind SATZ Charakterisierung affiner Unterräume

48 22. Äquivalenzrelationen, Quotientenräume und affine Unterräume 48 U ist abgeschlossen unter der Addition: Seien u = a v und u = a v mit a, a A. Nach Voraussetzung gilt a + a v A (das ist eine affine Linearkombination), also ist u + u = (a + a v) v U. U ist abgeschlossen unter der Skalarmultiplikation: Seien u = a v mit a A und λ K. Nach Voraussetzung gilt λa λv + v A, also ist λu = (λa λv + v) v U. Daraus folgt, dass Durchschnitte von affinen Unterräumen wieder affine Unterräume sind Folgerung. Sei V ein Vektorraum und sei (A i ) i I eine nicht-leere (d.h., FOLG I ) Familie von affinen Unterräumen von V. Dann ist i I A i ebenfalls ein Durchschnitte affiner Unterraum von V. von affinen Unterräumen Beweis. Nach Satz sind alle A i abgeschlossen unter affinen Linearkombinationen. Seien jetzt a 1, a 2,..., a n A = i I A i und seien λ 1, λ 2,..., λ n Skalare mit λ 1 +λ λ n = 1. Dann ist a = λ 1 a 1 +λ 2 a λ n a n A i für alle i I, also ist a A. Damit ist A unter affinen Linearkombinationen abgeschlossen, also ist A wiederum nach Satz ein affiner Unterraum von V. Ist A i = v i + U i und i I A i = v + U, dann ist U = i I U i (Übung) Beispiel. Welche affinen Unterräume gibt es im R 3? BSP Die leere Menge ist ein affiner Unterraum. Jede einelementige Menge {x } ist ein affiner Unterraum der Dimension 0. Affine Unterräume im R 3 Jede Gerade (nicht unbedingt durch den Nullpunkt) ist ein affiner Unterraum der Dimension 1. Jede Ebene (nicht unbedingt durch den Nullpunkt) ist ein affiner Unterraum der Dimension 2. R 3 selbst ist der einzige affine Unterraum der Dimension 3. Zwei Geraden können zusammenfallen, sich in einem Punkt (affiner Unterraum der Dimension 0) schneiden oder disjunkt sein (dann sind sie parallel oder windschief). Für eine Gerade g und eine Ebene E gibt es die folgenden Möglichkeiten: g E, g E = {P } oder g E = (dann ist g parallel zu E). Zwei Ebenen können übereinstimmen, sich in einer Geraden schneiden oder disjunkt sein (dann sind sie parallel). Man kann affine Unterräume wahlweise in der Form A = v + U (wenn A ) oder als Lösungsmenge eines linearen Gleichungssystems beschreiben. Eine (affine) Gerade im R 3 kann also in der Form g = x 0 + y beschrieben werden (mit Aufpunkt x 0 und Richtungsvektor y 0) oder in der Form a 11 x 1 + a 12 x 2 + a 13 x 3 = b 1 a 21 x 1 + a 22 x 2 + a 23 x 3 = b 2 (mit linear unabhängigen Vektoren (a 11, a 12, a 13 ) und (a 21, a 22, a 23 )). Diese zweite Form kann man auch so interpretieren, dass man g als Schnitt zweier nicht paralleler Ebenen darstellt, denn jede der beiden Gleichungen beschreibt eine Ebene. Analog zur linearen Hülle kann man jetzt die affine Hülle einer Teilmenge T V definieren als den kleinsten affinen Unterraum, der T enthält (formal: als Durchschnitt

49 22. Äquivalenzrelationen, Quotientenräume und affine Unterräume 49 aller affinen Unterräume, die T enthalten). Auf dieselbe Weise, wie wir gezeigt haben, dass die lineare Hülle von T genau aus allen Linearkombinationen von Elementen von T besteht, sieht man, dass die affine Hülle von T genau aus allen affinen Linearkombinationen von Elementen von T besteht. Es gilt dim(affine Hülle von T ) #T 1. Zum Beispiel ist die affine Hülle von drei verschiedenen Punkten im R 3 entweder eine Gerade (wenn die drei Punkte auf einer Geraden liegen) oder eine Ebene, nämlich die durch die drei Punkte aufgespannte Ebene. Ein anderes Beispiel ist die affine Hülle A der Vereinigung g 1 g 2 zweier Geraden im R 3. Im Fall g 1 = g 2 ist A = g 1 = g 2. Schneiden sich g 1 und g 2 in einem Punkt, dann spannen sie gemeinsam die Ebene A auf (die die Form A = x 0 + y 1, y 2 hat, wobei g 1 g 2 = {x 0 } ist und y 1, y 2 Richtungsvektoren von g 1 und g 2 sind). Sind g 1 und g 2 parallel, dann spannen sie ebenfalls eine Ebene auf (finden Sie eine Beschreibung dieser Ebene!). Sind g 1 und g 2 schließlich windschief, dann ist A = R 3. Sind A 1 = v 1 + U 1 und A 2 = v 2 + U 2 endlich-dimensionale und nicht-leere affine Unterräume eines Vektorraums V und ist A die affine Hülle von A 1 A 2, dann kann man folgende Dimensionsformel zeigen: { dim A 1 + dim A 2 dim(a 1 A 2 ), falls A 1 A 2 ; dim A = dim A 1 + dim A 2 dim(u 1 U 2 ) + 1, falls A 1 A 2 =.

50 23. Der Dualraum Der Dualraum Wir hatten im ersten Semester schon gesehen, dass die Menge aller Homomorphismen f : V W zwischen zwei K-Vektorräumen V und W selbst wieder die Struktur eines K-Vektorraums Hom(V, W ) hat (Satz 9.21). Ein besonders wichtiger Spezialfall tritt auf, wenn W = K ist Definition. Sei V ein K-Vektorraum. Eine lineare Abbildung φ : V K DEF heißt auch eine Linearform auf V. Der Vektorraum V = Hom(V, K) heißt der Linearform Dualraum von V. Dualraum Die Elemente von V sind also gerade die Linearformen auf V. Wir erinnern uns an die Definition der Vektorraumstruktur von V : Für Linearformen φ, φ V und λ K ist φ + φ die Linearform v φ(v) + φ (v) und λφ ist die Linearform v λφ(v) Beispiele. Auf dem Standardvektorraum K n sind die Koordinatenabbil- BSP dungen oder Projektionen Linearformen pr j : (x 1, x 2,..., x n ) x j, j {1, 2,..., n}, Linearformen. Ist V ein Vektorraum von reellen Funktionen auf einer Menge X, dann ist für jedes x X die Auswertungsabbildung eine Linearform auf V. ev x : f f(x) Ist V der Dualraum eines Vektorraums V, dann ist zu jedem v V die Auswertungsabbildung ev v : φ φ(v) eine Linearform auf V, also ein Element des Bidualraums V = (V ). Wir erinnern uns daran, dass eine lineare Abbildung durch ihre Werte auf einer Basis eindeutig bestimmt ist und dass diese Werte beliebig vorgegeben werden können (Satz 9.11). Daraus ergibt sich der folgende wichtige Satz Satz. Sei V ein endlich-dimensionaler Vektorraum mit Basis (v 1, v 2,..., v n ). SATZ Dann gibt es eine eindeutig bestimmte Basis (v1, v2,..., vn) des Dualraums V, sodass für alle i, j {1, 2,..., n} gilt Eindeutigkeit Existenz und { der dualen Basis vi 1, falls i = j; (v j ) = δ ij = 0, falls i j.

51 23. Der Dualraum Definition. Die Basis (v1,..., vn) in Satz 23.3 heißt die zur Basis (v 1,..., v n ) DEF duale Basis von V. duale Basis Man beachte, dass jedes Element v i der dualen Basis von allen Elementen v 1,..., v n abhängt, nicht nur von v i! Beweis. Die Linearformen v i sind durch die angegebene Bedingung eindeutig festgelegt, denn wir schreiben ihre Bilder auf einer Basis von V vor. Es bleibt zu zeigen, dass diese Elemente v 1, v 2,..., v n V eine Basis bilden. Wir zeigen zuerst, dass sie linear unabhängig sind. Seien dazu λ 1, λ 2,..., λ n Skalare mit λ 1 v 1 + λ 2 v λ n v n = 0. Wir werten die links stehende Linearform auf v 1, v 2,..., v n aus: 0 = 0(v j ) = (λ 1 v 1 + λ 2 v λ n v n)(v j ) = λ 1 v 1(v j ) λ j 1 v j 1(v j ) + λ j v j (v j ) + λ j+1 v j+1(v j ) λ n v n(v j ) = λ λ j λ j 1 + λ j λ n 0 = λ j. Also sind alle λ j = 0, und die lineare Unabhängigkeit ist bewiesen. Wir müssen noch zeigen, dass die v i ein Erzeugendensystem von V sind. Sei dazu φ V beliebig. Dann gilt φ = φ(v 1 )v 1 + φ(v 2 )v φ(v n )v n, denn beide Seiten sind Linearformen, die auf der gegebenen Basis von V dieselben Werte annehmen: Wie eben gilt ( ) φ(v1 )v1 + φ(v 2 )v φ(v n )vn (vj ) = φ(v j ). Das zeigt, dass φ eine Linearkombination von v 1, v 2,..., v n ist. Wenn V nicht endlich-dimensional ist, dann kann man zu einer Basis (b i ) i I von V immer noch eine Familie (b i ) i I in V konstruieren, die b i (b j) = δ ij erfüllt. Diese Familie ist linear unabhängig (mit demselben Beweis wie eben), aber kein Erzeugendensystem von V, denn jede Linearkombination (die ja immer nur endlich viele Vektoren involviert) der b i nimmt nur auf endlich vielen Basiselementen b j von null verschiedene Werte an. Es gibt aber zu jeder Wahl von Werten auf allen b j eine zugehörige Linearform; zum Beispiel gibt es φ V mit φ(b j ) = 1 für alle j I, aber φ / {b i i I} Beispiel. Die duale Basis zur Standardbasis (e 1, e 2,..., e n ) von K n besteht BSP gerade aus den Koordinatenabbildungen (pr 1, pr 2,..., pr n ). duale Basis Aus dem Satz ergibt sich unmittelbar: der Standardbasis Folgerung. Ist V ein endlich-dimensionaler Vektorraum, dann gilt FOLG dim V = dim V. V = V für V endl.-dim. Insbesondere sind V und V isomorph. Die Aussage von Folgerung 23.6 ist für unendlich-dimensionale Vektorräume falsch. Das liegt daran, dass die Dimension (als Mächtigkeit einer Basis definiert) des Dualraums V unendlicher ist als die Dimension von V selbst. Genauer bedeutet das: Es gibt zwar injektive, aber keine surjektiven Abbildungen von einer Basis von V in eine Basis von V. Diese Aussage ist verwandt mit dem Satz aus der Mengenlehre, dass die Potenzmenge P(X) einer Menge X stets echt mächtiger ist als X: Es gibt keine surjektive Abbildung

52 23. Der Dualraum 52 X P(X). Zum Beweis sei f : X P(X) irgendeine Abbildung. Wir betrachten die Teilmenge T = {x X x / f(x)} X. (Als Element von P(X) ist f(x) eine Teilmenge von X, also ist die Bedingung x / f(x) sinnvoll. Die Konstruktion ist ähnlich wie in der Russellschen Antinomie, die am Ende des Abschnitts über Mengenlehre in der Linearen Algebra I im Kleingedruckten erwähnt wird.) Dann ist T P(X) nicht im Bild von f. Denn wäre T = f(x) für ein x X, dann erhielte man den Widerspruch x T x / f(x) x / T (die erste Äquivalenz ist die Definition von T, die zweite folgt aus f(x) = T ). Der Zusammenhang ergibt sich so: Sei B eine Basis von V. Dann gibt es zu jeder Teilmenge T von B eine eindeutig bestimmte Linearform φ T V mit φ T (b) = 1 für alle b T und φ T (b) = 0 für alle b B \ T. Die Menge T = {φ T T B} V hat die Mächtigkeit von P(B). Die φ T sind zwar nicht linear unabhängig (zum Beispiel gilt φ T + φ T φ T T φ T T = 0), aber man kann zeigen, dass T eine linear unabhängige Teilmenge gleicher Mächtigkeit enthält (das kommt daher, dass jede lineare Relation nur endlich viele φ T enthält). Es folgt, dass jede Basis von V echt mächtiger sein muss als B. Ein Isomorphismus V V ist nach Wahl einer Basis (v 1, v 2,..., v n ) von V dadurch gegeben, dass man v i auf v i abbildet. Der Isomorphismus hängt von der Wahl der Basis ab (man kann leicht Beispiele finden, die das belegen), er ist also nicht natürlich oder kanonisch. Im Unterschied dazu gibt es eine kanonische lineare Abbildung in den Bidualraum V. Wir formulieren vorher noch eine Aussage, die wir später brauchen Lemma. LEMMA (1) Seien V und W Vektorräume und U V ein Untervektorraum. Ist außerdem f : U W eine lineare Abbildung, dann kann man f zu einer linearen Abbildung F : V W fortsetzen (es gilt also F U = f). (2) Ist V ein Vektorraum und 0 v V, dann gibt es φ V mit φ(v) = 1. Allgemeiner gilt: Ist U V ein Untervektorraum und v V \ U, dann gibt es φ V mit φ U = 0 und φ(v) = 1. Fortsetzung linearer Abbildungen Beweis. (1) Wir verwenden, dass es ein Komplement U von U in V gibt. Das haben wir nur für V endlich-dimensional bewiesen; es gilt jedoch auch allgemein. (Dafür braucht man den Basisergänzungssatz für unendliche Mengen und damit das Auswahlaxiom.) Jedes Element v von V lässt sich dann eindeutig schreiben als v = u + u mit u U und u U ; wir definieren F durch F (v) = f(u). F ist linear als Komposition der Projektion auf U (bezüglich der Zerlegung V = U U ) und der linearen Abbildung f; es ist klar, dass F U = f gilt. (2) Wir wenden den ersten Teil an auf U = v und f : U K, λv λ. Für die allgemeinere Aussage sei π : V V/U der kanonische Epimorphismus. Die eben bewiesene Aussage liefert eine Linearform φ : V/U K mit φ(π(v)) = 1. Dann leistet φ = φ π : V K das Gewünschte.

53 23. Der Dualraum Satz. Sei V ein K-Vektorraum. Dann ist die folgende Abbildung ein injek- SATZ tiver Homomorphismus: kanon. Abb. α in den V : V V, v ( ev v : φ φ(v) ). Bidualraum Ist V endlich-dimensional, dann ist α V ein Isomorphismus. Beweis. Es sind verschiedene Aussagen zu zeigen. ev v V (siehe Beispiel 23.2): ev v ist eine Abbildung V K; wir müssen zeigen, dass ev v linear ist: ev v (φ + φ ) = (φ + φ )(v) = φ(v) + φ (v) = ev v (φ) + ev v (φ ) und analog für die Skalarmultiplikation. (Hier benutzen wir die Definition der Vektorraumstruktur von V.) α V ist linear: α V (v+v ) = ev v+v bildet φ V auf φ(v+v ) = φ(v)+φ(v ) = ev v (φ) + ev v (φ) ab, hat also denselben Effekt wie α V (v) + α V (v ). Analog sehen wir, dass α V (λv) = ev λv die Abbildung φ φ(λv) = λφ(v) ist und daher mit λα V (v) übereinstimmt. (Hier benutzen wir, dass die Elemente von V lineare Abbildungen sind, und die Definition der Vektorraumstruktur von V.) α V ist injektiv: Wir zeigen ker(α V ) = {0}. Sei v 0. Nach Lemma 23.7 gibt es φ V mit ( α V (v) ) (φ) = φ(v) = 1 0, also ist α V (v) 0 und damit v / ker(α V ). Es bleibt also nur der Nullvektor als einzig mögliches Element von ker(α V ). α V ist Isomorphismus, falls dim V < : In diesem Fall gilt nach Folgerung 23.6 dim V = dim V = dim V. Als injektive lineare Abbildung zwischen endlich-dimensionalen Vektorräumen derselben Dimension muss α V dann ein Isomorphismus sein (Folgerung 9.14). Ist V endlich-dimensional, dann kann man also V und V durch den kanonischen Isomorphismus α V miteinander identifizieren und damit V als den Dualraum von V betrachten. Das wird zum Beispiel durch die nächste Aussage illustriert Folgerung. Sei V ein endlich-dimensionaler Vektorraum; sei (v1,..., vn) FOLG eine Basis von V. Dann gibt es eine eindeutig bestimmte Basis (v 1, v 2,..., v n ) Basis dual zu von V, sodass (v1, v2,..., vn) die zu (v Basis von V 1, v 2,..., v n ) duale Basis ist. Beweis. Sei (v1, v2,..., vn ) die zu (v1, v2,..., vn) duale Basis von V. Da α V ein Isomorphismus ist, gibt es eindeutig bestimmte v 1, v 2,..., v n V mit α V (v j ) = vj für alle j {1, 2,..., n}; (v 1, v 2,..., v n ) ist eine Basis von V. Außerdem gilt für alle i, j {1, 2,..., n}: v i (v j ) = ( α V (v j ) ) (v i ) = v j (v i ) = δ ji = δ ij, also ist (v1, v2,..., vn) die zu (v 1, v 2,..., v n ) duale Basis. Die Eindeutigkeit folgt aus der Eindeutigkeit der v j. Sind (v 1, v 2,..., v n ) und (v 1, v 2,..., v n) zueinander duale Basen von V und V, dann gilt: v V : v = v (v 1 ) v 1 + v (v 2 ) v v (v n ) v n und v V : v = v 1(v) v 1 + v 2(v) v v n(v) v n.

54 23. Der Dualraum 54 Die erste Aussage haben wir im Beweis von Satz 23.3 verwendet, die zweite folgt durch Vertauschen der Rollen von V und V Beispiel. Sei V = K[X] <n der Vektorraum der Polynome über K vom BSP Grad < n. Seien a 1, a 2,..., a n K paarweise verschieden. Dann wissen wir, dass Interpolationspolynome als die Auswertungsabbildungen ev ai für i {1, 2,..., n} linear unabhängig sind; sie bilden also eine Basis von V. Welche Basis von V ist dazu dual? Wenn diese Basis duale Basis (p 1, p 2,..., p n ) ist, dann muss gelten p i (a j ) = δ ij, also ist p i = j i X a j a i a j. Die obige Relation liefert dann für p V beliebig, dass p = p(a 1 ) p 1 + p(a 2 ) p p(a n ) p n ist wir erhalten wieder die Lagrangesche Interpolationsformel, vergleiche Beispiel Wir haben gesehen, wie man Vektorräume und Basen dualisieren kann. Jetzt erweitern wir das auf lineare Abbildungen: Ist f : V W linear und φ W, dann ist f (φ) = φ f : V K eine Linearform auf V : V f f (φ) W φ K Wir erhalten eine Abbildung f : W V Definition. Ist f : V W linear, dann heißt f : W V, φ φ f, DEF die zu f duale oder transponierte lineare Abbildung. Dass f tatsächlich linear ist, folgt aus der Definition der Vektorraumstruktur auf W : f (φ + φ ) = (φ + φ ) f = φ f + φ f = f (φ) + f (φ ) und f (λφ) = (λφ) f = λ(φ f) = λf (φ). Auch die Bezeichnung f ist gebräuchlich. Die Notation f erklärt sich durch die folgende Aussage. duale lineare Abbildung Satz. Seien V und W endlich-dimensionale K-Vektorräume, seien B SATZ und B Basen von V und W und seien B und B die dazu dualen Basen von V f und A und W. Sei f : V W linear und A = Mat B,B (f) die f bezüglich der Basen B und B darstellende Matrix. Dann gilt Mat B,B (f ) = A. Beweis. Seien B = (b 1, b 2,..., b n ), B = (b 1, b 2,..., b m) und A = (a ij ). Wir schreiben B = (b 1, b 2,..., b n) und B = (b 1, b 2,..., b m). Dann ist also ist f(b j ) = a 1j b 1 + a 2j b a mj b m, a ij = b i ( f(b j ) ) = (b i f)(b j ) = ( f (b i ) ) (b j ).

55 Auf der anderen Seite gilt mit Mat B,B (f ) = (a ij): 23. Der Dualraum 55 f (b i ) = a 1ib 1 + a 2ib a nib n ; Anwenden auf b j ergibt a ij = ( f (b i ) ) (b j ) = a ji, also sind die beiden Matrizen zueinander transponiert Lemma. Sind V und W zwei K-Vektorräume, dann ist LEMMA f f Φ : Hom(V, W ) Hom(W, V ), f f eine injektive lineare Abbildung. Sind V und W beide endlich-dimensional, dann ist Φ ein Isomorphismus. Beweis. Φ ist linear, denn für φ W und f, g Hom(V, W ) und λ K gilt (f + g) (φ) = φ (f + g) = φ f + φ g = f (φ) + g (φ) = (f + g )(φ), also ist Φ(f + g) = (f + g) = f + g = Φ(f) + Φ(g), und (λf) (φ) = φ (λf) = λ(φ f) = λf (φ) = (λf )(φ), also ist Φ(λf) = (λf) = λf = λφ(f). Φ ist injektiv, denn für f Hom(V, W ) mit Φ(f) = f = 0 gilt φ f = 0 für alle φ W. Da es zu jedem 0 w W ein φ W gibt mit φ(w) 0 (Lemma 23.7), folgt f(v) = 0 für alle v V, also f = 0. Sind V und W beide endlich-dimensional, dann gilt (Satz 9.23) dim Hom(W, V ) = dim W dim V = dim W dim V = dim Hom(V, W ), also ist Φ als injektive lineare Abbildung zwischen zwei endlich-dimensionalen Vektorräumen derselben Dimension ein Isomorphismus. Wir zeigen noch einige weitere einfache Eigenschaften der transponierten Abbildung Lemma. LEMMA Eigenschaften (1) Ist V ein Vektorraum, dann gilt id V = id V. von f (2) Sind V, V, V Vektorräume und f : V V und g : V V lineare Abbildungen, dann gilt (g f) = f g. (3) Ist f : V W ein Isomorphismus, dann ist auch f ein Isomorphismus und es gilt (f ) 1 = (f 1 ). Beweis. (1) Für φ V ist id V (φ) = φ id V = φ. (2) Für φ (V ) ist (g f) (φ) = φ (g f) = (φ g) f = g (φ) f = f ( g (φ) ) = (f g )(φ).

56 (3) Nach den beiden ersten Teilen gilt 23. Der Dualraum 56 f (f 1 ) = (f 1 f) = id V = id V und (f 1 ) f = (f f 1 ) = id W = id W, woraus die Behauptungen folgen. Der Beweis der folgenden Aussagen, die Zusammenhänge zwischen f und der kanonischen Injektion α V aufzeigen, ist eine Übungsaufgabe Lemma. LEMMA f und α V (1) Sei V ein Vektorraum. Dann gilt α V α V = id V. (2) Sei f : V W linear. Dann kommutiert das folgende Diagramm: V f W α V V α W f W es gilt also f α V = α W f. Zum Abschluss dieses Abschnitts untersuchen wir noch, wie sich Untervektorräume unter Dualisierung verhalten Definition. Sei V ein Vektorraum und U V ein Untervektorraum. DEF Dann heißt der Untervektorraum Annullator U = {φ V φ(u) = 0 für alle u U} = u U ker(ev u ) V der Annullator von U (in V ). Trivialbeispiele für Annullatoren sind {0 V } = V und V = {0 V } Lemma. Seien V ein Vektorraum und U 1, U 2 V Untervektorräume. LEMMA Dann gilt Eindeutigkeit U von 1 U 2 U1 U2. Annullatoren Insbesondere gilt auch U1 = U2 U 1 = U 2. Beweis. Die Richtung folgt unmittelbar aus der Definition von U : Ist φ U 2, also φ U2 = 0, dann gilt auch φ U1 = 0, also φ U1. Für die Gegenrichtung zeigen wir die Kontraposition U 1 U 2 U1 U2. Nach Voraussetzung gibt es u U 1 mit u / U 2. Dann gibt es nach Lemma 23.7 eine Linearform φ V mit φ U2 = 0 und φ(u) 0. Das bedeutet φ U2, aber φ / U1, also folgt U1 U2.

57 23. Der Dualraum Satz. Sei V ein endlich-dimensionaler Vektorraum und U V ein Un- SATZ tervektorraum. Dann gilt dim U + dim U = dim V und α V (U) = U. Dimension von Annullatoren Wenn wir V und V via α V identifizieren, dann können wir schreiben U = U. Beweis. Sei (b 1, b 2,..., b m,..., b n ) eine Basis von V, sodass (b 1,..., b m ) eine Basis von U ist, und sei (b 1,..., b n) die dazu duale Basis von V. Für ein beliebiges Element φ = λ 1 b λ n b n V gilt φ U φ(b j ) = 0 für alle j {1, 2,..., m} λ j = 0 für alle j {1, 2,..., m} φ b m+1,..., b n. Es folgt U = b m+1,..., b n und damit dim U = n m = dim V dim U. Aus den Definitionen folgt, dass α V (U) U ist: Für u U und φ U gilt ( αv (u) ) (φ) = φ(u) = 0. Da nach der ersten Aussage gilt dim U = dim V dim U = dim V (dim V dim U) = dim U = dim α V (U), muss Gleichheit gelten. Nun ergibt sich ein schöner Zusammenhang zwischen Kern und Bild, transponierter Abbildung und Annullatoren Satz. Sei f : V W eine lineare Abbildung. Dann gilt SATZ ( ) ( ) lineare Abb. ker(f) = im(f ) und im(f) = ker(f ). und Sind V und W endlich-dimensional, dann gilt außerdem Annullatoren rk(f ) = rk(f). Wir erhalten also eine neue (und in gewisser Weise natürlichere) Begründung für die Aussage Zeilenrang = Spaltenrang (Satz 11.15). Beweis. ( im(f) ) = ker(f ) W : Sei ψ W. Dann ist ψ ker(f ) genau dann, wenn f (ψ) = ψ f = 0 ist; das bedeutet ψ im(f) = 0, was nach Definition genau ψ ( im(f) ) heißt. ( ker(f) ) = im(f ) V : Wir betrachten folgendes Diagramm (vergleiche Satz 22.11): π V V/ ker(f) φ φ f K f ψ ψ W ι im(f) Dabei ist π der kanonische Epimorphismus und ι die Inklusionsabbildung; f ist ein Isomorphismus. Sei φ V. Dann ist φ ( ker(f) ) genau dann, wenn für alle v V gilt f(v) = 0 φ(v) = 0. Das bedeutet genau ker(f) ker(φ), und das

58 23. Der Dualraum 58 ist nach Satz genau dann der Fall, wenn es eine lineare Abbildung φ : V/ ker(f) K gibt mit φ = φ π. Da f ein Isomorphismus ist, ist das äquivalent zur Existenz von ψ : im(f) K mit φ = ψ f π (setze ψ = φ f 1 ). Nach Lemma 23.7 ist das genau dann der Fall, wenn es ψ W gibt mit φ = ψ ι f π = ψ f. Das heißt aber gerade, dass φ im(f ) ist. rk(f ) = rk(f): Nach Satz und dem eben Bewiesenen gilt rk(f ) = dim im(f ) = dim ( ker(f) ) = dim V dim ker(f) = rk(f) ; die letzte Gleichheit ist der Rangsatz Beispiel. Die erste Aussage in Satz lässt sich so formulieren: Sei BSP f : V W linear. Zu einer Linearform φ : V K gibt es genau dann eine HDI Linearform ψ : W K mit φ = ψ f (d.h., φ(v) hängt nur von f(v) ab ), wenn φ auf dem Kern von f die Nullabbildung ist. Als Beispiel betrachten wir die Ableitungsabbildung D : C 1 (R) C 0 (R), f f. Dabei bezeichnet C n (R) wie üblich den Vektorraum der n-mal stetig differenzierbaren reellen Funktionen auf R. Die Ableitung einer Funktion verschwindet genau dann, wenn die Funktion konstant ist, also besteht ker(d) gerade aus den konstanten Funktionen. Seien a, b R mit a < b. Dann verschwindet die Linearform ev b ev a : C 1 (R) R, f f(b) f(a), auf den konstanten Funktionen. Nach unserem Satz muss es also eine Linearform ψ : C 0 (R) R geben, sodass f(b) f(a) = ψ(f ) gilt für alle f C 1 (R). Tatsächlich sagt der Hauptsatz der Differential- und Integralrechnung, dass ψ gegeben ist durch b b ψ(h) = h(x) dx, denn f(b) f(a) = f (x) dx. a a Folgerung. Sei f : V W eine lineare Abbildung. Dann gilt FOLG f injektiv f surjektiv und f surjektiv f injektiv. Beweis. f injektiv ist äquivalent mit ker(f) = {0}; es folgt im(f ) = {0} = V, also ist f surjektiv. Umgekehrt folgt aus f surjektiv, dass ( ker(f) ) = V ist; dann muss ker(f) = {0} sein (das folgt aus Lemma 23.17), also ist f injektiv. f surjektiv bedeutet im(f) = W, also ist ker(f = W = {0}, und f ist injektiv. Ist umgekehrt f injektiv, dann ist ( im(f) ) = {0}. Nach Lemma folgt im(f) = W, also ist f surjektiv.

59 23. Der Dualraum Beispiel. Sei V R N der reelle Vektorraum der beschränkten Folgen BSP reeller Zahlen. Wir können die hier bewiesenen Aussagen verwenden, um zu zeigen, Mittelwert dass es eine Linearform m : V R gibt mit folgenden Eigenschaften: beschränkter m ( ) ( ) ( ) (1) Folgen n N = 1 und m (an+1 ) n N = m (an ) n N für alle (a n ) n N V. Dies sind Eigenschaften, die ein Mittelwert von (a n ) haben sollte. Wir betrachten den Verschiebungsoperator T : V V, (a n ) n N (a n+1 ) n N, und den Differenzenoperator = T id V. Letzterer ist nicht surjektiv, denn die konstante Folge (1) n N ist nicht in im( ) (eine beschränkte Folge kann nicht konstante Differenz 1 haben). Also ist = T id V nicht injektiv, was bedeutet, dass es Linearformen 0 φ V gibt mit φ T = φ. Das ist genau die zweite Bedingung an unseren Mittelwert m. Es bleibt zu zeigen, dass man φ so wählen kann, dass c = φ ( ) (1) n N 0 ist, denn dann erfüllt m = c 1 φ beide Bedingungen. Dazu beachten wir, dass aus der strikten Inklusion im( ) im( ) + (1) n N nach Lemma eine strikte Inklusion ( im( ) + (1) n N ) ker( ) folgt. Das bedeutet, dass es φ ker( ) gibt mit φ ( ) (1) n N 0, wie gewünscht. Dass die hier bewiesene Aussage über die Existenz so eines Mittelwerts alles andere als trivial ist, werden Sie feststellen, wenn Sie versuchen, so einen Mittelwert explizit zu definieren, denn das wird Ihnen nicht gelingen. (Man kann geeignete Mittelwerte für mehr oder weniger große Teilmengen von Folgen konstruieren; zum Beispiel kann man für konvergente Folgen den Grenzwert nehmen. Aber man bekommt keine explizite Definition hin, die für alle beschränkten Folgen funktioniert.) Das hängt damit zusammen, dass wir das Auswahlaxiom verwendet haben (es steckt in der Existenz von Komplementen in beliebigen Vektorräumen, die wir für Lemma 23.7 gebraucht haben). Es steckt hinter vielen nicht-konstruktiven Existenzaussagen, wie zum Beispiel auch der Existenz einer Q-Basis von R (so eine Basis lässt sich auch nicht explizit hinschreiben).

60 24. Bilinearformen und quadratische Formen Bilinearformen und quadratische Formen Wir werden jetzt noch einmal etwas ausführlicher über Bilinearformen sprechen (wir hatten damit bereits in 16 begonnen). Zur Erinnerung hier noch einmal die wichtigsten Definitionen und Eigenschaften Definition. (Vgl. Definition 16.1) Seien K ein Körper und V 1, V 2, W drei DEF K-Vektorräume. Eine Abbildung β : V 1 V 2 W heißt (K-)bilinear, wenn β in jedem der beiden Argumente K-linear ist, also wenn für alle v 1, v 1 V 1, v 2, v 2 V 2 und λ K gilt β(v 1 + v 1, v 2 ) = β(v 1, v 2 ) + β(v 1, v 2 ), β(λv 1, v 2 ) = λβ(v 1, v 2 ) β(v 1, v 2 + v 2) = β(v 1, v 2 ) + β(v 1, v 2), β(v 1, λv 2 ) = λβ(v 1, v 2 ). Ist W = K, dann heißt β eine (K-)Bilinearform oder auch Paarung. Gilt außerdem V 1 = V 2 = V, dann heißt β eine (K-)Bilinearform auf V. Wir bezeichnen den K- Vektorraum aller Bilinearformen V 1 V 2 K mit Bil(V 1, V 2 ). Ist β : V V K eine Bilinearform auf V, dann heißt β symmetrisch, wenn für alle v 1, v 2 V gilt, dass β(v 2, v 1 ) = β(v 1, v 2 ) ist. β heißt alternierend, wenn für alle v V gilt, dass β(v, v) = 0 ist. Die folgende Definition ist etwas allgemeiner als Definition bilineare Abb. Bilinearform Definition. Seien V und W endlich-dimensionale K-Vektorräume. Wir DEF setzen dim V = m und dim W = n. Sei β : V W K eine Bilinearform. Seien weiter B = (b 1, b 2,..., b m ) eine Basis von V und B = (b 1, b 2,..., b n) eine Basis Matrix einer von W. Dann heißt Bilinearform β(b 1, b 1) β(b 1, b 2) β(b 1, b n) Mat B,B (β) = ( β(b i, b j) ) = β(b 2, b 1) β(b 2, b 2) β(b 2, b n) 1 i m,1 j n β(b m, b 1) β(b m, b 2) β(b m, b n) die Matrix von β bezüglich B und B. Im Fall V = W und B = B schreiben wir auch Mat B (β) statt Mat B,B (β). Sind v = x 1 b 1 + x 2 b x m b m V und v = y 1 b 1 + y 2 b y n b n W, dann ist β(v, v ) = m n i=1 j=1 x iy j β(b i, b j), was sich in folgende Matrixmultiplikation übersetzen lässt (rechts steht eine 1 1-Matrix, die wir mit ihrem einzigen Eintrag identifizieren): β(v, v ) = (x 1, x 2,..., x m ) Mat B,B (β)(y 1, y 2,..., y n ). Ganz analog wie in Lemma 16.4 sieht man, dass zwei Matrizen A und A genau dann dieselbe Bilinearform V W K bezüglich geeigneter Basen beschreiben, wenn es invertierbare Matrizen P GL(m, K) und Q GL(n, K) gibt mit A = P AQ. Für Bilinearformen auf einem Vektorraum V, wo man nur eine Basis (von V ) wählen kann, muss dabei Q = P sein. In diesem Fall, also wenn es P GL(dim V, K) gibt mit A = P AP, heißen A und A auch kongruent. Es gibt einen Zusammenhang zwischen Bilinearformen und Linearformen und Dualräumen.

61 24. Bilinearformen und quadratische Formen Lemma. LEMMA (1) Seien V und W zwei K-Vektorräume und β : V W K eine Bilinearform. Dann ist für jedes v V die Abbildung W K, w β(v, w), eine Linearform auf W, und für jedes w W ist die Abbildung V K, v β(v, w), eine Linearform auf V. (2) Die durch (1) gegebenen Abbildungen β L : V W, v ( w β(v, w) ) und sind linear. β R : W V, w ( v β(v, w) ) (3) Die sich aus (2) ergebenden Abbildungen Bil(V, W ) Hom(V, W ), β β L und Bil(V, W ) Hom(W, V ), β β R sind Isomorphismen. Insbesondere sind Hom(V, W ) und Hom(W, V ) isomorph. Linearformen aus einer Bilinearform Beweis. (1) Das folgt unmittelbar aus der Definition von Bilinearform. (2) Das folgt ebenfalls direkt aus der Definition. (3) Man rechnet nach, dass die Abbildungen linear sind. Wir zeigen, dass die erste Abbildung bijektiv ist mit Inverser f ( (v, w) (f(v))(w) ) : Einerseits wird β Bil(V, W ) wie folgt abgebildet: β β L ( (v, w) (β L (v))(w) = β(v, w) ) = β ; andererseits haben wir für f Hom(V, W ) f ( (v, w) (f(v))(w) ) ( v ( w (f(v))(w) ) = f(v) ) = f. Die Bijektivität der zweiten Abbildung zeigt man analog. (Die Inverse ist f ( (v, w) (f(w))(v) ).) Ist B eine endliche Basis von V und B eine endliche Basis von W, dann gilt Mat B,B (β L ) = Mat B,B (β) und Mat B,B (β R) = Mat B,B (β) Definition. Eine Bilinearform β : V W K heißt nicht-ausgeartet, DEF wenn β L : V W und β R : W V Isomorphismen sind. Anderenfalls heißt β ausgeartet. Wenn man eine solche nicht-ausgeartete Bilinearform hat, dann kann man (via β L und β R ) V als Dualraum von W und umgekehrt betrachten: Zu jeder Linearform φ auf V gibt es genau ein Element w W mit φ = β R (w) (also sodass φ(v) = β(v, w) ist für alle v V ), und zu jeder Linearform ψ auf W gibt es genau ein Element v V mit ψ = β L (v) (also sodass ψ(w) = β(v, w) ist für alle w W ). Man kann zeigen, dass es eine nicht-ausgeartete Bilinearform auf V W nur dann geben kann, wenn V und W endlich-dimensional sind. Bilinearform nichtausgeartet

62 24. Bilinearformen und quadratische Formen 62 Es folgt nämlich wegen βr α V = β L (Übung), dass α V ein Isomorphismus ist. Das ist aber nur für endlich-dimensionale Vektorräume V der Fall. Dann müssen V und W dieselbe Dimension haben: dim W = dim W = dim V Beispiel. Sei V ein endlich-dimensionaler K-Vektorraum. Dann ist die BSP Auswertungspaarung nicht-ausg. Bilinearform ev : V V K, (v, φ) φ(v) nicht-ausgeartet. Für beliebiges V gilt (Übung) ev L = α V : V V und ev R = id V : V V Lemma. Seien V und W zwei K-Vektorräume derselben endlichen Dimen- LEMMA sion n, sei B eine Basis von V, B eine Basis von W und β Bil(V, W ). Wir setzen A = Mat B,B (β). Dann sind folgende Aussagen äquivalent: (1) β ist nicht-ausgeartet. Kriterium für nichtausgeartet (2) ker(β L ) = {0}. (3) ker(β R ) = {0}. (4) det(a) 0. Beweis. Dass aus (1) die Aussagen (2) und (3) folgen, ist klar nach Definition Umgekehrt folgt aus (2) zunächst, dass β L ein Isomorphismus ist (denn dim V = n = dim W ) und dann, dass β R = βl α W ebenfalls ein Isomorphismus ist. Genauso zeigt man (3) (1). Schließlich ist (3) äquivalent dazu, dass Mat B,B (β R) invertierbar ist. Diese Matrix ist aber genau A, und A invertierbar ist äquivalent zu det(a) Beispiel. Ist V ein endlich-dimensionaler reeller Vektorraum mit einer po- BSP sitiv definiten symmetrischen Bilinearform β : V V R, dann ist β nichtausgeartet: Wir zeigen ker(β L ) = {0}. Sei also v ker(β L ). Dann ist pos. def. nicht-ausg. 0 = 0(v) = ( β L (v) ) (v) = β(v, v). Wäre v 0, dann hätten wir β(v, v) > 0, also muss v = 0 sein. Aus einer bilinearen Abbildung kann man eine quadratische Abbildung machen: Ist β : V V W bilinear, dann hat die Abbildung folgende Eigenschaften: q : V W, v β(v, v) q(v + v ) + q(v v ) = 2q(v) + 2q(v ) q(λv) = λ 2 q(v) für alle λ K, v V, und für alle v, v V ( Parallelogramm-Gleichung ). Außerdem ist q(v + v ) q(v) q(v ) = β(v, v ) + β(v, v) eine (symmetrische) bilineare Abbildung. Wir untersuchen den Zusammenhang etwas genauer.

63 24. Bilinearformen und quadratische Formen Definition. Sei V ein K-Vektorraum. Eine quadratische Form auf V ist DEF eine Abbildung q : V K, sodass quadratische Form (1) q(λv) = λ 2 q(v) für alle λ K, v V, und (2) (v, w) q(v + w) q(v) q(w) eine Bilinearform ist. Die Menge aller quadratischen Formen auf V bildet in der üblichen Weise einen Vektorraum Qu(V ). Zwei quadratische Formen q und q auf V heißen äquivalent, wenn es einen Isomorphismus f : V V gibt, sodass q = q f ist. Die Parallelogramm-Gleichung folgt aus den beiden Eigenschaften in der Definition. Analog zu symmetrischen Bilinearformen definiert man positive Definitheit usw. für quadratische Formen über R Definition. Sei q eine quadratische Form auf einem reellen Vektorraum V. DEF (1) q heißt positiv (negativ) definit, wenn q(v) > 0 (q(v) < 0) für alle 0 v V gilt. (2) q heißt positiv (negativ) semidefinit, wenn q(v) 0 (q(v) 0) für alle v V gilt. (3) q heißt indefinit, wenn q weder positiv noch negativ semidefinit ist. Für das Folgende ist es wichtig, dass wir durch 2 teilen können. Deshalb noch eine Definition. pos./neg. definit für qu. Formen Definition. Sei K ein Körper. Ist n 1 K 0 K für alle n Z >0, dann DEF hat K Charakteristik 0. Sonst ist die Charakteristik von K die kleinste positive Charakteristik ganze Zahl p mit p 1 K = 0 K. Wir schreiben char(k) für die Charakteristik von K. Die Charakteristik ist entweder null oder eine Primzahl: Wäre char(k) = n keine Primzahl, dann könnten wir schreiben n = km mit 1 k, m < n. Aus n 1 K = 0 K folgt (k 1 K ) (m 1 K ) = 0 K, also k 1 K = 0 K oder m 1 K = 0 K, was ein Widerspruch dazu ist, dass n die kleinste solche Zahl ist. Wenn K nicht Charakteristik 2 hat, dann ist 2 0 in K und damit invertierbar. Ein Körper der Charakteristik 2 ist zum Beispiel F 2 ; dort gilt ja = Lemma. Sei V ein K-Vektorraum mit char(k) 2. Wir schreiben Sym(V ) LEMMA für den Vektorraum der symmetrischen Bilinearformen auf V. Dann ist symm. bil. Sym(V ) Qu(V ), β ( v β(v, v) ) = quadr. ein Isomorphismus. Man kann also quadratische Formen mit den zugehörigen symmetrischen Bilinearformen identifizieren; insbesondere sind auch quadratische Formen durch symmetrische Matrizen beschrieben. Wir schreiben Mat B (q) für diese Matrix; es gilt für v = x 1 b x n b n (wenn B = (b 1,..., b n ) ist) q(v) = x Mat B (q)x, wobei x der Spaltenvektor (x 1,..., x n ) ist.

64 24. Bilinearformen und quadratische Formen 64 Beweis. Dass die angegebene Abbildung wohldefiniert und linear ist, ist klar. Wir zeigen, dass sie bijektiv ist, indem wir die Umkehrabbildung angeben: q ( (v, w) 1 (q(v + w) q(v) q(w))) 2 (hier verwenden wir char(k) 2). Nach Definition 24.8 ist das Bild eine (symmetrische) Bilinearform, also haben wir eine Abbildung Qu(V ) Sym(V, V ). Wir prüfen nach, dass das tatsächlich die Inverse ist: und q ( (v, w) 1 (q(v + w) q(v) q(w))) 2 ( v 1 (q(2v) 2q(v)) = q(v)) 2 = q β ( v β(v, v) ) Daraus folgt unmittelbar: ( (v, w) 1 (β(v + w, v + w) β(v, v) β(w, w)) 2 = 1 (β(v, w) + β(w, v)) = β(v, w)) 2 = β Folgerung. Ist K ein Körper mit char(k) 2, dann sind die quadrati- FOLG schen Formen auf K n alle gegeben durch qu. Formen auf K (x n 1, x 2,..., x n ) a ij x i x j 1 i j n mit a ij K. Die zugehörige Matrix hat Diagonaleinträge a ii und Einträge a ij /2 an den Positionen (i, j) und (j, i), wenn i < j ist. Zwei quadratische Formen auf K n sind äquivalent genau dann, wenn die zugehörigen symmetrischen Matrizen kongruent sind. Die erste Aussage bleibt auch für Körper der Charakteristik 2 richtig; die Aussagen über die Matrizen haben in diesem Fall keinen Sinn. Äquivalenz von zwei quadratischen Formen q und q auf K n bedeutet dann ganz konkret, dass q (x 1, x 2,..., x n ) = q(a 11 x 1 + a 12 x a 1n x n, a 21 x 1 + a 22 x a 2n x n,..., gilt mit einer Matrix A = (a ij ) GL(n, K). a n1 x 1 + a n2 x a nn x n ) Definition. Eine quadratische Form q auf K n heißt diagonal oder eine DEF Diagonalform, wenn sie die Form q(x 1, x 2,..., x n ) = a 1 x a 2 x a n x 2 n diagonale qu. Form hat mit geeigneten a 1, a 2,..., a n K. Es treten also keine gemischten Terme x i x j (mit i j) auf, und die zugehörige Matrix ist eine Diagonalmatrix. Seien A und A die symmetrischen Matrizen zweier äquivalenter quadratischer Formen q und q auf K n (mit char(k) 2). Dann gibt es P GL(n, K) mit

65 24. Bilinearformen und quadratische Formen 65 A = P AP ; insbesondere ist rk(a ) = rk(a). Das zeigt, dass folgende Definition sinnvoll ist Definition. Sei K ein Körper mit char(k) 2 und sei V ein endlich- DEF dimensionaler K-Vektorraum. Sei weiter q Qu(V ). Ist B eine Basis von V, dann Rang einer heißt rk ( Mat B (q) ) der Rang von q. qu. Form Wir wollen jetzt quadratische Formen auf endlich-dimensionalen komplexen und reellen Vektorräumen klassifizieren. Das ist dazu äquivalent, symmetrische Matrizen bis auf Kongruenz zu klassifizieren. Wir beginnen mit einem Resultat, das für (fast) beliebige Körper gilt Satz. Sei K ein Körper mit char(k) 2. Dann ist jede quadratische SATZ Form auf K n äquivalent zu einer Diagonalform. Diagonalisierung von Dazu äquivalent sind folgende Aussagen: qu. Formen Seien V ein endlich-dimensionaler K-Vektorraum und q eine quadratische Form auf V. Dann hat V eine Basis B, sodass Mat B (q) eine Diagonalmatrix ist. Jede symmetrische Matrix A Mat(n, K) ist kongruent zu einer Diagonalmatrix. Beweis. Der Beweis geht durch Induktion über n. Im Fall n = 1 (oder n = 0) ist nichts zu zeigen. Wir nehmen jetzt an, dass n > 1 ist und die Aussage für n 1 gilt. Wir schreiben q(x 1, x 2,..., x n ) = q (x 1, x 2,..., x n 1 ) + b 1 x 1 x n b n 1 x n 1 x n + a n x 2 n mit b 1,..., b n 1, a n K und einer quadratischen Form q auf K n 1. Ist a n 0, dann ist ( quadratische Ergänzung ) mit q ( x 1,..., x n 1, x n 1 2a n (b 1 x b n 1 x n 1 ) ) = q (x 1, x 2,..., x n 1 ) + a n x 2 n q (x 1,..., x n 1 ) = q (x 1,..., x n 1 ) 1 4a n (b 1 x b n 1 x n 1 ) 2 ; das ist eine quadratische Form auf K n 1. Nach Induktionsannahme ist q äquivalent zu einer Diagonalform a 1 x a n 1 x 2 n 1; damit ist q äquivalent zu a 1 x a n 1 x 2 n 1 + a n x 2 n. Es bleibt der Fall a n = 0 zu behandeln. Gilt b 1 =... = b n 1 = 0, dann können wir die Induktionsannahme direkt auf q anwenden und sind fertig. Sei also jetzt b m 0 für ein m {1, 2,..., n 1}. Dann ist q(x 1,..., x n ) = αx 2 m + b m x m x n + R, wobei jeder Term, der in R vorkommt, eine Variable x j mit j / {m, n} enthält. Wir ersetzen x m durch x m ± x n und erhalten q(x 1,..., x m ± x n,..., x n ) = αx 2 m + (b m ± 2α)x m x n + (α ± b m )x 2 n + R. Da b m 0 ist, muss für wenigstens eine Wahl des Vorzeichens α ± b m 0 sein (hier benutzen wir wieder char(k) 2, also 1 K 1 K ). Wir sehen, dass q zu einer Form mit a n 0 äquivalent ist; diesen Fall haben wir bereits behandelt.

66 24. Bilinearformen und quadratische Formen 66 Die Koeffizienten der Diagonalform sind keineswegs eindeutig bestimmt. Wir können die Reihenfolge beliebig ändern durch Permutation der Variablen. Durch Skalieren der Koordinaten können wir außerdem die Koeffizienten mit beliebigen Quadraten 0 multiplizieren. Aber es gilt zum Beispiel auch, dass 2x x 2 2 und x x 2 2 über Q äquivalent sind, obwohl 2 kein Quadrat in Q ist: (x 1 + x 2 ) 2 + (x 1 x 2 ) 2 = 2x x Beispiel. Wie sieht eine zu q(x 1, x 2, x 3 ) = x 1 x 2 + x 1 x 3 + x 2 x 3 äquivalente BSP Diagonalform über Q aus? Da kein Term x 2 j auftritt, müssen wir zunächst einen Diagonalisierung erzeugen: q (x 1, x 2, x 3 ) = q(x 1 + x 3, x 2, x 3 ) = x 1 x 2 + x 1 x 3 + 2x 2 x 3 + x 2 3. Jetzt können wir die quadratische Ergänzung durchführen: q (x 1, x 2, x 3 ) = q ( x 1, x 2, x x 1 x 2 ) = 1 4 x2 1 x x 2 3. Wir können x 1 noch mit 2 skalieren und erhalten die etwas hübschere Form q (x 1, x 2, x 3 ) = q (2x 1, x 2, x 3 ) = x 2 1 x x 2 3. Im Körper C der komplexen Zahlen hat (nach Satz 4.3) jedes Element eine Quadratwurzel. Da wir die Diagonaleinträge mit beliebigen Quadraten multiplizieren können, erhalten wir den folgenden Klassifikationssatz Satz. Jede quadratische Form q Qu(C n ) ist äquivalent zu einer Form SATZ Klassifikation Q r (x 1,..., x n ) = x x 2 r. qu. Formen Die Zahl r {0, 1,..., n} ist dabei eindeutig bestimmt. über C Beweis. Nach Satz ist q äquivalent zu einer Diagonalform q. Wir können annehmen (nach eventueller Permutation der Variablen), dass in q genau die Terme x 2 1,..., x 2 r vorkommen. Durch Skalieren können wir erreichen, dass die Koeffizienten = 1 sind; damit haben wir die gewünschte Form. Als Rang von q ist r eindeutig bestimmt. In R gilt nur noch, dass jede positive Zahl (und die Null) ein Quadrat ist. Das führt zum folgenden Sylvesterschen Trägheitssatz oder Signatursatz: Satz. Jede quadratische Form q Qu(R n ) ist äquivalent zu einer Form SATZ Klassifikation Q r,s (x 1,..., x n ) = x x 2 r x 2 r+1... x 2 r+s. qu. Formen Die Zahlen r, s 0 mit r + s n sind eindeutig bestimmt. über R Beweis. Nach Satz ist q äquivalent zu einer Diagonalform q. Nach Permutation der Variablen können wir annehmen, dass q (x 1,..., x n ) = r+s j=1 a jx 2 j ist mit a 1,..., a r > 0 und a r+1,..., a r+s < 0. Durch Skalieren können wir die positiven Koeffizienten durch 1 und die negativen Koeffizienten durch 1 ersetzen; damit haben wir die gewünschte Form. Wie eben ist der Rang r+s eindeutig durch q bestimmt. Die Zahl r ist die maximale Dimension eines Untervektorraums, auf dem q positiv definit ist und ist damit ebenfalls eindeutig bestimmt: Diese Dimension ist für äquivalente quadratische

67 24. Bilinearformen und quadratische Formen 67 Formen offensichtlich gleich, also müssen wir diese Aussage nur für Q r,s zeigen. Q r,s ist auf dem r-dimensionalen Untervektorraum e 1,..., e r positiv definit. Ist U R n mit dim U > r, dann gilt mit U = e r+1,..., e n, dass dim U U = dim U +dim U dim(u +U ) dim U +(n r) n = dim U r > 0 ist, also gibt es einen Vektor 0 v U U. Es gilt dann aber Q r,s (v) 0, also ist Q r,s auf U nicht positiv definit. Damit ist r die maximale Dimension eines Untervektorraums, auf dem Q r,s positiv definit ist Definition. In der Situation von Satz heißt r s die Signatur von q. DEF Signatur Beispiel. Die Signatur der quadratischen Form x 1 x 2 + x 1 x 3 + x 2 x 3 aus BSP Beispiel ist 1, denn wir haben r = 1 und s = 2. Signatur Folgerung. Sei q Qu(R n ) mit r und s wie in Satz Dann gilt: FOLG Definitheit (1) q positiv definit r = n. über r, s (2) q negativ definit s = n. (3) q positiv semidefinit s = 0. (4) q negativ semidefinit r = 0. (5) q indefinit r, s > 0. Beweis. Es ist klar, dass diese Äquivalenzen für die zu q äquivalente Diagonalform Q r,s gelten. Weil die Definitheitseigenschaften unter Äquivalenz invariant sind, gelten sie dann auch für q.

68 25. Euklidische Vektorräume Euklidische Vektorräume Wir haben am Ende des letzten Abschnitts schon damit begonnen, von der allgemeinen linearen Algebra über beliebigen Grundkörpern etwas wegzugehen und Resultate für die speziellen Körper R und C zu beweisen. Das setzen wir in diesem Abschnitt fort. Der Hintergrund dafür ist, dass wir Geometrie betreiben wollen: Wir wollen in der Lage sein, Abstände und Winkel zu messen. Dies wird in einem reellen Vektorraum durch eine positiv definite symmetrische Bilinearform ermöglicht Definition. Eine positiv definite symmetrische Bilinearform auf einem reel- DEF len Vektorraum heißt euklidisches Skalarprodukt. Ein reeller Vektorraum V zusammen mit einem euklidischen Skalarprodukt auf V ist ein euklidischer Vektorraum. Das Skalarprodukt in einem euklidischen Vektorraum wird häufig (v, w) v, w (oder auch v w) geschrieben. Um Verwechslungen zu vermeiden, notieren wir den von einer Menge A erzeugten Untervektorraum als A R. euklidisches Skalarprod. eukl. VR Seien a, b R mit a < b und sei V = C([a, b]) der Vektorraum der stetigen reellen Funktionen auf [a, b]. Dann definiert f, g = b f(x)g(x) dx ein euklidisches Skalarprodukt auf V. a Definition. Sei V ein euklidischer Vektorraum. Für einen Vektor v V DEF heißt v = v, v die Länge von v. Gilt v = 1, dann heißt v ein Einheitsvektor. Länge Einheitsvektor Es gilt dann v 0 und v = 0 v = 0. Im Standardraum R n ist (x 1,..., x n ) = x x 2 n die übliche euklidische Länge eines Vektors. Die Standardbasis besteht aus Einheitsvektoren. Wir beweisen einige Eigenschaften der Länge Satz. Sei V ein euklidischer Vektorraum. SATZ (1) Für v V und λ R gilt λv = λ v. (2) (Cauchy-Schwarzsche Ungleichung) Für v, w V gilt v, w v w mit Gleichheit genau dann, wenn v und w linear abhängig sind. (3) (Dreiecksungleichung) Für v, w V gilt v+w v + w mit Gleichheit genau dann, wenn v = λw oder w = λv ist mit λ Beispiele. BSP eukl. VR Das Standard-Skalarprodukt x, y = x y auf R n (mit Spaltenvektoren x, y) ist ein euklidisches Skalarprodukt. R n mit diesem Skalarprodukt ist das Standardbeispiel für einen (endlich-dimensionalen) euklidischen Vektorraum. Cauchy- Schwarz Dreiecksungl.

69 25. Euklidische Vektorräume 69 Beweis. (1) λv = λv, λv = λ 2 v, v = λ v, v = λ v. (2) Die Aussage ist klar für w = 0. Wir können also w 0 annehmen. Sei dann ist und damit v = v v, w = v, w 0 v, v = v, v = v, v v, w w 2 w ; v, w w, w = 0 w 2 v, w w w, v = v, w 2 2 v 2 w, 2 was zur behaupteten Ungleichung äquivalent ist. Gleichheit gilt genau dann, wenn v = 0 ist, daraus folgt, dass v ein skalares Vielfaches von w ist. Ist umgekehrt v = λw, dann ist v = 0 und es gilt Gleichheit in der Ungleichung. (3) Es gilt unter Verwendung der Cauchy-Schwarzschen Ungleichung v + w 2 = v + w, v + w = v, v + v, w + w, v + w, w = v v, w + w 2 v v w + w 2 = ( v + w ) 2. Die Ungleichung folgt. Gleichheit ist äquivalent zu v, w = v w ; dafür müssen v und w linear abhängig sein und damit das Vorzeichen stimmt (lineare Abhängigkeit von v und w ist äquivalent zu v, w = ± v w ), muss der Skalarfaktor 0 sein. Die Eigenschaften (1) und (3) (zusammen mit v = 0 = v = 0) besagen, dass eine Norm auf V ist. Daraus folgt insbesondere, dass (v, w) d(v, w) = v w eine Metrik auf V ist. Damit wird V in natürlicher Weise zu einem metrischen Raum (diese Begriffe wurden in der Analysis erklärt und studiert). Wir nennen d(v, w) den Abstand zwischen v und w Definition. Sei V ein euklidischer Vektorraum. DEF (1) Für zwei Vektoren v, w V mit v, w 0 ist der Winkel zwischen v und w die Zahl α = (v, w) [0, π] mit v w cos α = v, w. (2) Zwei Vektoren v, w V heißen orthogonal (oder zueinander senkrecht), wenn v, w = 0 ist. Wir schreiben dafür v w. (3) Sei U V ein Untervektorraum. Dann heißt U = {v V w U : v w} das orthogonale Komplement von U in V. (4) Eine Teilmenge A V heißt orthogonal, wenn ihre Elemente paarweise orthogonal sind ( v, w A : v w v w). A heißt orthonormal, wenn zusätzlich alle Elemente von A Einheitsvektoren sind. (5) Eine Basis B von V heißt eine Orthonormalbasis oder kurz ONB von V, wenn sie aus paarweise orthogonalen Einheitsvektoren besteht (wenn also die Menge der Vektoren in B orthonormal ist). Winkel orthogonal orthonormal ONB

70 25. Euklidische Vektorräume 70 Die Cauchy-Schwarzsche Ungleichung stellt sicher, dass die Definition des Winkels sinnvoll ist, denn es gilt ja 1 v, w v w 1. Zwei Vektoren sind orthogonal genau dann, wenn wenigstens einer der Nullvektor ist oder der Winkel zwischen ihnen π/2 (entsprechend 90 ) ist Beispiel. Klassische Sätze über Dreiecke lassen sich elegant durch Rech- BSP nen in euklidischen Vektorräumen beweisen: Seien V ein euklidischer Vektorraum und v, w V ; wir betrachten das Dreieck mit Eckpunkten 0, v und w; es hat Cosinussatz Pythagoras Seitenlängen a = v, b = w, c = v w ; der Winkel bei 0 sei γ. Dann gilt v, w = v w cos γ, also c 2 = v w 2 = v 2 2 v, w + w 2 = a 2 2ab cos γ + b 2 ; das ist der Cosinussatz. Gilt v w (dann ist γ ein rechter Winkel), dann vereinfacht sich das zum Satz des Pythagoras c 2 = a 2 + b 2. Die Standardbasis ist eine Orthonormalbasis des Standardraums R n. Beweis. Seien λ 1, λ 2,..., λ n R mit λ 1 v 1 + λ 2 v λ n v n = 0. Es folgt für alle j {1, 2,..., n}: n n 0 = 0, v j = λ i v i, v j = λ i v i, v j = λ j v j 2, i=1 und weil v j 0 ist, muss λ j = 0 sein. Gibt es immer eine Orthonormalbasis? Der folgende wichtige Satz zeigt, dass man aus jeder endlichen Basis eine Orthonormalbasis konstruieren kann Satz. Sei V ein euklidischer Vektorraum mit Basis B = (b 1, b 2,..., b n ). SATZ Dann bilden die wie folgt sukzessive definierten Vektoren e j eine ONB von V; dabei gilt e 1, e 2,..., e j R = b 1, b 2,..., b j R. e 1 = 1 v 1 v 1 mit v 1 = b 1 i=1 e 2 = 1 v 2 v 2 mit v 2 = b 2 e 1, b 2 e 1 e 3 = 1 v 3 v 3 mit v 3 = b 3 e 1, b 3 e 1 e 2, b 3 e 2.. e n = 1 v n v n 1 n mit v n = b n e j, b n e j j= Lemma. Sei V ein euklidischer Vektorraum und seien v 1, v 2,..., v n V LEMMA paarweise orthogonal und von 0 verschieden. Dann sind v 1, v 2,..., v n linear unabhängig. orthogonal lin.unabh. Gram- Schmidt- Orthonormalisierung

71 25. Euklidische Vektorräume 71 Beweis. Aus der Konstruktion ist klar, dass e 1, e 2,..., e j R = b 1, b 2,..., b j R gilt für alle j {1, 2,..., n}. Wir zeigen durch Induktion, dass {e 1,..., e n } orthonormal ist. Nach Lemma 25.7 sind die e j dann auch linear unabhängig, müssen also eine Basis des n-dimensionalen Vektorraums V bilden. Sei 1 j n. Wir nehmen an, dass {e 1,..., e j 1 } orthonormal ist. Dann gilt v j e i für alle i < j, denn j 1 e i, v j = e i, b j e k, b j e i, e k = e i, b j e i, b j = 0. k=1 Außerdem ist v j 0, denn b j / e 1,..., e j 1 R = b 1,..., b j 1 R. Damit ist e j definiert und ein Einheitsvektor und (als skalares Vielfaches von v j ) ebenfalls orthogonal zu e 1,..., e j Beispiel. Wir erzeugen eine ONB aus der Basis b 1 = (1, 1, 1), b 2 = (1, 1, 1), BSP b 3 = (1, 0, 0) von R 3. Wir schreiben N(x ) für x 1 x (für Vektoren x 0). Wir ONB erhalten e 1 = N(b 1 ) = 1 (1, 1, 1) 3 e 2 = N(b 2 e 1, b 2 e 1 ) = N ( ( 2 3, 4 3, 2 3 )) = 1 6 (1, 2, 1) e 3 = N(b 3 e 1, b 3 e 1 e 2, b 3 e 2 ) = N ( ( 1 2, 0, 1 2 )) = 1 2 (1, 0, 1) Wir rechtfertigen die Bezeichnung orthogonales Komplement für U : Lemma. Sei V ein euklidischer Vektorraum und U V ein endlich- LEMMA dimensionaler Untervektorraum. Dann ist U ein Komplement von U in V (also U + U = V und U U = {0}). U ist Komplement von U Beweis. Sei v U U. Dann folgt aus der Definition von U, dass v, v = 0 und damit v = 0 ist. Es folgt U U = {0}. Sei jetzt v V beliebig und (e 1,..., e n ) eine ONB von U. Wir setzen v 1 = e 1, v e 1 + e 2, v e e n, v e n U und v 2 = v v 1. Dann gilt jedenfalls v = v 1 + v 2. Es bleibt zu zeigen, dass v 2 U ist. Sei dazu u = λ 1 e λ n e n U. Dann gilt n u, v 2 = λ j e j, v v 1 und e j, v v 1 = e j, v j=1 n e i, v e j, e i = e j, v e j, v = 0. Also ist v 2 u für alle u U, damit v 2 U und v U + U. i=1 Die Aussagen lassen sich noch etwas verfeinern.

72 25. Euklidische Vektorräume Satz. Sei V ein euklidischer Vektorraum mit ONB (e 1, e 2,..., e n ). SATZ Parsevalsche (1) Für alle v V gilt v = e 1, v e 1 + e 2, v e e n, v e n. Gleichung (2) Für alle v V gilt v 2 = e 1, v 2 + e 2, v e n, v 2. (3) Für alle v, w V gilt v, w = e 1, v e 1, w e n, v e n, w. Beweis. Sei die rechte Seite in der ersten Gleichung u, dann ist wie im Beweis von Lemma (mit V = U) v u V = {0}, also v = u. Die beiden weiteren Aussagen folgen aus (1), da e i, e j = δ ij. Die letzte Aussage im obigen Satz besagt also, dass die Matrix der Bilinearform, bezüglich einer ONB die Einheitsmatrix ist: x 1 e 1 + x 2 e x n e n, y 1 e 1 + y 2 e y n e n = x 1 y 1 + x 2 y x n y n Satz. Sei V ein euklidischer Vektorraum und {e 1, e 2,..., e n } V eine SATZ orthonormale Menge. Dann gilt für alle v V Besselsche Ungleichung v 2 e 1, v 2 + e 2, v e n, v 2 mit Gleichheit genau für v e 1, e 2,..., e n R. Beweis. Sei U = e 1, e 2,..., e n R. Wie im Beweis von Lemma können wir v V schreiben als v = u + v mit u = n j=1 e j, v e j U und v U. Dann gilt v 2 = u 2 + v 2 = n j=1 e j, v 2 + v 2, wobei wir Satz verwendet haben. Daraus folgt die Ungleichung; Gleichheit ist äquivalent mit v = 0, also mit v U. Isomorphismen zwischen euklidischen Vektorräumen, die zusätzlich das euklidische Skalarprodukt erhalten, haben einen besonderen Namen Definition. Seien V und W zwei euklidische Vektorräume. Eine Abbil- DEF dung f : V W heißt (lineare) Isometrie, wenn f ein Isomorphismus ist und Isometrie zusätzlich für alle v, v V gilt, dass f(v), f(v ) = v, v ist. (Hier steht links das euklidische Skalarprodukt von W, rechts das von V.) Gibt es so eine Isometrie, dann heißen V und W isometrisch. Da sich v, w durch die Längen von v, w und v + w ausdrücken lässt: 2 v, w = v + w 2 v 2 w 2, genügt es, statt der zweiten Bedingung nur zu fordern, dass f(v) = v ist für alle v V. Man kann das so interpretieren, dass eine lineare Abbildung, die Längen erhält, auch Winkel erhalten muss. Das liegt daran, dass ein Dreieck durch die Längen seiner drei Seiten bis auf Kongruenz eindeutig bestimmt ist: Die Winkel sind durch die Längen festgelegt.

73 25. Euklidische Vektorräume Beispiel. Ist V ein euklidischer Vektorraum mit ONB (e 1, e 2,..., e n ), BSP dann ist die Abbildung Isometrie R n V, (x 1, x 2,..., x n ) x 1 e 1 + x 2 e x n e n eine Isometrie. Das ist gerade der Inhalt von Satz So wie jeder n-dimensionale K-Vektorraum zum Standard-Vektorraum K n isomorph ist, ist also jeder n-dimensionale euklidische Vektorraum zum euklidischen Standard-Vektorraum R n isometrisch. Allgemein gilt: Ein Isomorphismus V W zwischen endlich-dimensionalen euklidischen Vektorräumen ist genau dann eine Isometrie, wenn er eine Orthonormalbasis auf eine Orthonormalbasis abbildet.

74 26. Orthogonale Diagonalisierung Orthogonale Diagonalisierung Sei V ein endlich-dimensionaler euklidischer Vektorraum. Wir hatten schon in Beispiel 24.7 gesehen, dass eine positiv definite symmetrische Bilinearform auf einem endlich-dimensionalen reellen Vektorraum nicht-ausgeartet ist; dies lässt sich also auf das euklidische Skalarprodukt von V anwenden: Lemma. Sei V ein endlich-dimensionaler euklidischer Vektorraum und sei LEMMA φ V eine Linearform auf V. Dann gibt es ein eindeutig bestimmtes Element w V mit φ(v) = v, w = w, v für alle v V. Linearformen via, Beweis. Wir schreiben β(v, w) = v, w für das Skalarprodukt. Da β nicht-ausgeartet ist, ist β R : V V, w (v v, w ), ein Isomorphismus. Dann ist klar, dass w = β 1 R (φ) als einziges Element von V die gewünschte Eigenschaft hat. Für einen endlich-dimensionalen euklidischen Vektorraum gibt es also einen kanonischen Isomorphismus V V. Ist (e 1, e 2,..., e n ) eine Orthonormalbasis von V und (e 1, e 2,..., e n) die dazu duale Basis von V, dann identifiziert dieser Isomorphismus e j mit e j, denn e i, e j = δ ij = e j(e i ) Beispiel. Sei V = R 3 (Elemente als Spaltenvektoren) mit dem Standard- BSP Skalarprodukt. Seien v 1, v 2 V. Dann ist v det(v 1, v 2, v) eine Linearform auf V, also gibt es nach Lemma 26.1 einen eindeutig bestimmten Vektor v 1 v 2 V mit Vektorprodukt v 1 v 2, v = det(v 1, v 2, v) für alle v V. Dieser Vektor v 1 v 2 heißt das Vektorprodukt oder Kreuzprodukt von v 1 v 2. Es hat folgende Eigenschaften (Beweis: Übung): (1) Die Abbildung V V V, (v 1, v 2 ) v 1 v 2, ist bilinear. (2) Sind v 1, v 2 V linear abhängig, dann ist v 1 v 2 = 0. (3) Für alle v 1, v 2 V gilt (v 1 v 2 ) v 1 und (v 1 v 2 ) v 2. (4) Für alle v 1, v 2 V \ {0} gilt v 1 v 2 = v 1 v 2 sin (v 1, v 2 ). Das lässt sich so interpretieren, dass v 1 v 2 der Nullvektor ist, wenn v 1 und v 2 linear abhängig sind; anderenfalls ist es ein Vektor, der auf der von v 1 und v 2 aufgespannten Ebene senkrecht steht und dessen Länge der Fläche des von v 1 und v 2 aufgespannten Parallelogramms entspricht. Dabei ist die Richtung so, dass v 1, v 2, v 1 v 2 eine positiv orientierte Basis bilden ( Rechte-Hand-Regel, siehe Definition 17.1), denn det(v 1, v 2, v 1 v 2 ) = v 1 v 2, v 1 v 2 = v 1 v 2 2 > Folgerung. Seien V und W euklidische Vektorräume mit dim V < und FOLG sei f : V W linear. Dann gibt es eine eindeutig bestimmte lineare Abbildung f : W V mit adjungierte Abbildung f(v), w = v, f (w) für alle v V und w W.

75 26. Orthogonale Diagonalisierung 75 Beweis. Sei zunächst w W fest gewählt. Dann ist v f(v), w eine Linearform auf V, also gibt es nach Lemma 26.1 ein eindeutig bestimmtes f (w) V mit f(v), w = v, f (w) für alle v V. Das liefert uns eine Abbildung f : W V. Da f (w) + f (w ) die definierende Gleichung für f (w + w ) erfüllt, muss wegen der Eindeutigkeit f (w + w ) = f (w) + f (w ) gelten. Ebenso sieht man, dass f (λw) = λf (w) gilt; damit ist f linear. Die führt auf folgende Begriffsbildung Definition. Seien V und W euklidische Vektorräume und sei f : V W DEF linear. (1) Gibt es eine lineare Abbildung f : W V, sodass für alle v V und w W gilt f(v), w = v, f (w), dann heißt f die zu f adjungierte Abbildung. (2) Hat f End(V ) eine adjungierte Abbildung f und gilt f = f, dann heißt f selbst-adjungiert. Das bedeutet also f(v), v = v, f(v ) für alle v, v V. adjungierte Abbildung Folgerung 26.3 besagt, dass es für V endlich-dimensional stets adjungierte Abbildungen gibt Lemma. Seien V 1, V 2 und V 3 endlich-dimensionale euklidische Vektorräume LEMMA und seien f, g : V 1 V 2 und h : V 2 V 3 linear und λ R. Dann gilt: (1) (f + g) = f + g und (λf) = λf. (Das bedeutet, dass Hom(V, W ) Hom(W, V ), f f, linear ist.) (2) (h f) = f h. (3) (f ) = f. (4) f ist eine Isometrie f ist ein Isomorphismus mit f 1 = f. Eigenschaften von f Beweis. (1) (3): Übung. (4) Es ist f(v), f(w) = v, f (f(w)), und das ist dasselbe wie v, w für alle v, w V 1 genau dann, wenn f f = id V1. Ist f eine Isometrie, dann ist also f ein Isomorphismus und es gilt f f = id V1, also ist f 1 = f. Ist umgekehrt f ein Isomorphismus mit f 1 = f, dann folgt f f = id V1 und f ist eine Isometrie. Wir wollen uns jetzt mit der Frage beschäftigen, wann es für einen Endomorphismus f eines euklidischen Vektorraums V eine Orthonormalbasis von V gibt, die aus Eigenvektoren von f besteht. Man sagt dann, f sei orthogonal diagonalisierbar. Das Resultat wird sein, dass das genau für selbst-adjungierte Endomorphismen der Fall ist. Wir zeigen zuerst die einfachere Richtung. Wir wiederholen Definition 16.8.

76 26. Orthogonale Diagonalisierung Definition. Eine Matrix A GL(n, R) heißt orthogonal, wenn sie die Glei- DEF chung A 1 = A erfüllt. Wir schreiben O(n) für die Gruppe (!) der orthogonalen orthogonale n n-matrizen. Matrix Schreibt man die Bedingung A A = AA = I n aus, dann sieht man, dass A genau dann orthogonal ist, wenn die Spalten (Zeilen) von A eine Orthonormalbasis von R n bilden Lemma. Sei V ein endlich-dimensionaler euklidischer Vektorraum mit LEMMA Orthonormalbasis B = (e 1, e 2,..., e n ) und sei f : V V linear. Dann gilt Matrix für Mat B (f ) = Mat B (f) ; insbesondere gilt selbst-adj. f selbst-adjungiert Mat B (f) symmetrisch Endom. und f ist eine Isometrie Mat B (f) orthogonal. Die erste Aussage gilt auch allgemeiner für Matrizen bezüglich ONBen von linearen Abbildungen zwischen zwei endlich-dimensionalen euklidischen Vektorräumen. Beweis. Sei A = (a ij ) = Mat B (f). Es gilt nach Satz also ist f(e j ) = e 1, f(e j ) e 1 + e 2, f(e j ) e e n, f(e j ) e n, a ij = e i, f(e j ) = f(e j ), e i = e j, f (e i ) und eine analoge Überlegung zeigt, dass das a ji ist für A = Mat B (f ). Also gilt A = A wie behauptet. Die Aussage über selbst-adjungierte f folgt; die Aussage über Isometrien folgt mit Lemma Satz. Sei V ein endlich-dimensionaler euklidischer Vektorraum und sei SATZ f End(V ). Wenn f orthogonal diagonalisierbar ist, dann ist f selbst-adjungiert. orthog. diag. selbst-adj. Beweis. Nach Voraussetzung gibt es eine ONB B von V, sodass A = Mat B (f) eine Diagonalmatrix ist. Dann gilt auch A = A, also ist f nach Lemma 26.7 selbst-adjungiert. Zum Beweis der Gegenrichtung machen wir eine Vorüberlegung. Wir wissen, dass V zum Standardraum R n isometrisch ist, also können wir ohne Einschränkung V = R n (mit n > 0) betrachten. Die Menge S = {x R n x = 1} (also die Oberfläche der n-dimensionalen Einheitskugel) ist eine abgeschlossene und beschränkte Teilmenge von R n, also ist S kompakt. Die Abbildung h : R n R, x f(x ), x ist stetig, denn f : R n R n ist stetig und das Skalarprodukt ist ebenfalls stetig (vgl. Analysis). Als stetige Funktion nimmt die Abbildung h auf der kompakten Menge S ihr Maximum an, etwa in x 0 S.

77 26. Orthogonale Diagonalisierung Lemma. In der eben diskutierten Situation (mit f : R n R n selbst- LEMMA adjungiert) ist x 0 ein Eigenvektor von f zum Eigenwert λ = h(x 0 ). Maximum ist Eigenwert Beweis. Wir bemerken zunächst, dass für alle 0 x R n gilt ( 1 ) f(x ), x = x f 2 x x 1, x x λ x 2, denn x 1 x S. Für x = 0 gilt die Ungleichung f(x ), x λ x 2 ebenfalls. Wir zeigen jetzt, dass x 0 ein Eigenvektor ist. Wir können f(x 0 ) = µx 0 + y schreiben mit µ R und y x 0 (nach Lemma mit U = x 0 R ). Für t R betrachten wir den Vektor x 0 + ty. Es gilt f(x 0 + ty), x 0 + ty λ x 0 + ty 2 = λ(1 + t 2 y 2 ) = λ + t 2 λ y 2 (dabei haben wir x 0 y und den Pythagoras benutzt). Auf der anderen Seite ist f(x 0 + ty), x 0 + ty = f(x 0 ) + tf(y), x 0 + ty = f(x 0 ), x 0 + t ( f(x 0 ), y + f(y), x 0 ) + t 2 f(y), y = λ + t ( f(x 0 ), y + y, f(x 0 ) ) + t 2 f(y), y = λ + 2t f(x 0 ), y + t 2 f(y), y = λ + 2t µx 0 + y, y + t 2 f(y), y = λ + 2t y 2 + t 2 f(y), y. Dabei haben wir verwendet, dass f selbst-adjungiert und x 0 y ist. Für t > 0 ergibt sich daraus die Ungleichung (nach Subtraktion von λ und Division durch t) 2 y 2 t ( λ y 2 f(y), y ) ; wenn wir t von oben gegen null gehen lassen, folgt daraus y 2 = 0, also y = 0 und damit f(x 0 ) = µx 0. Außerdem gilt λ = f(x 0 ), x 0 = µx 0, x 0 = µ x 0 2 = µ, also ist λ der zu x 0 gehörende Eigenwert Folgerung. Sei V ein endlich-dimensionaler euklidischer Vektorraum mit FOLG dim V > 0 und sei f End(V ) selbst-adjungiert. Dann hat f einen (reellen) Eigenwert. selbst-adj. Abb. haben Eigenwert Beweis. Wir wählen eine ONB von V; dann gibt es eine Isometrie φ : R n V (mit n = dim V ). Die Abbildung f = φ 1 f φ End(R n ) ist ebenfalls selbstadjungiert, hat also nach Lemma 26.9 einen Eigenwert λ R. Da f und f dieselben Eigenwerte haben (ist x R n Eigenvektor von f zum Eigenwert λ, dann ist φ(x ) Eigenvektor von f zum selben Eigenwert), gilt das auch für f.

78 26. Orthogonale Diagonalisierung Satz. Sei V ein endlich-dimensionaler euklidischer Vektorraum und sei SATZ f End(V ) selbst-adjungiert. Dann ist f orthogonal diagonalisierbar, d.h., V besitzt eine Orthonormalbasis, die aus Eigenvektoren von f besteht. Beweis. Durch Induktion über n = dim V. Für n = 0 ist nichts zu beweisen (die leere Familie ist eine Basis aus Eigenvektoren). Sei also jetzt n > 0 und die Aussage für dim V = n 1 richtig. Nach Folgerung hat f einen Eigenwert λ R; sei e n V ein zugehöriger Eigenvektor mit e n = 1. Sei U V das orthogonale Komplement von e n R. Dann ist U ein f-invarianter Untervektorraum, denn für u U gilt f(u), e n = u, f(e n ) = u, λe n = λ u, e n = 0, also ist f(u) U. U ist (mit dem auf U U eingeschränkten Skalarprodukt von V ) ein euklidischer Vektorraum mit dim U = n 1, und f U ist ein selbst-adjungierter Endomorphismus von U. Nach der Induktionsannahme hat also U eine ONB (e 1, e 2,..., e n 1 ), die aus Eigenvektoren von f besteht. Dann ist (e 1,..., e n 1, e n ) eine ONB von V aus Eigenvektoren von f. Für Matrizen lässt sich das Ergebnis auch so formulieren: selbst-adj. Abb. sind orthogonal diag.bar Folgerung. Sei A Mat(n, R) eine symmetrische Matrix. Dann gibt es FOLG eine orthogonale Matrix P O(n), sodass P AP = P 1 AP eine Diagonalmatrix Spektralsatz ist. Das ist Satz 16.9, den wir im ersten Semester benutzt haben, um das Determinanten- Kriterium für positive Definitheit (Satz 16.13) zu beweisen. Beweis. Sei f : x Ax, dann ist A die Matrix von f End(R n ) bezüglich der Standardbasis E; da A symmetrisch ist, ist f selbst-adjungiert (Lemma 26.7). Nach Satz hat R n eine Orthonormalbasis B aus Eigenvektoren von f, also ist D = Mat B (f) eine Diagonalmatrix. Die Matrix P = Mat B,E (id R n) hat als Spalten die Vektoren von B und ist damit orthogonal (vergleiche die Bemerkung nach Definition 26.6). Außerdem ist P 1 AP = Mat E,B (id R n) Mat E (f) Mat B,E (id R n) = Mat B (f) = D.

79 27. Klassifikation von Quadriken Klassifikation von Quadriken Wir arbeiten in diesem Abschnitt im Standardraum R n. Eine lineare Gleichung (mit a 1, a 2,..., a n, c R gegeben, nicht alle a j = 0, und (x 1, x 2,..., x n ) R n gesucht) a 1 x 1 + a 2 x a n x n = c hat als Lösungsmenge eine affine Hyperebene (also einen affinen Unterraum der Dimension n 1). Viel mehr gibt es dazu nicht zu sagen. Daher befassen wir uns jetzt mit quadratischen Gleichungen. Sie haben die allgemeine Form n n a ij x i x j + b j x j = c i,j=1 j=1 oder kurz x, Ax + b, x = c bzw. x Ax + b x = c ; dabei ist 0 A = (a ij ) Mat(n, R) eine symmetrische Matrix, b = (b 1,..., b n ) ein Vektor und c R. (Ist A die Nullmatrix, dann ist die Gleichung nicht wirklich quadratisch.) Definition. Die Lösungsmenge einer quadratischen Gleichung wie oben DEF heißt Quadrik im R n. Eine Quadrik im R 2 heißt auch Kegelschnitt. Quadrik Die Bezeichnung Kegelschnitt für Quadriken im R 2 kommt daher, dass sich (fast) alle solchen Quadriken als Schnitt des Doppelkegels x x 2 2 x 2 3 = 0 im R 3 mit einer Ebene realisieren lassen. Man kann analog Quadriken auch über anderen Körpern (zum Beispiel C) definieren und studieren Beispiel. Ein einfaches Beispiel für eine Quadrik im R 2, also für einen BSP Kegelschnitt, ist der Einheitskreis, der die Lösungsmenge der quadratischen Gleichung Kreis x x 2 2 = 1 ist. (Hier ist A = I 2 die Einheitsmatrix, b = 0 und c = 1.) Allgemeiner ist ein Kreis mit Mittelpunkt (m 1, m 2 ) und Radius r ebenfalls ein Kegelschnitt; hier lautet die Gleichung (x 1 m 1 ) 2 + (x 2 m 2 ) 2 = r 2, was zu x x 2 2 2m 1 x 1 2m 2 x 2 = r 2 m 2 1 m 2 2 äquivalent ist (also A = I 2, b = 2(m 1, m 2 ) und c = r 2 m 2 1 m 2 2). Eine Drehung, Spiegelung (allgemeiner eine Isometrie) oder Verschiebung ändert die geometrische Form einer Quadrik nicht. Deshalb sind wir an einer Normalform bzw. Klassifikation bis auf solche Geometrie erhaltenden Abbildungen interessiert. Wir geben diesen Abbildungen zuerst einen Namen. Vorher erinnern wir uns daran, dass die Determinante einer orthogonalen Matrix stets ±1 ist: A A = I n = 1 = det(i n ) = det(a ) det(a) = det(a) 2. Die zugehörigen Isometrien R n R n sind also orientierungserhaltend, wenn det(a) = 1 ist, und orientierungsumkehrend, wenn det(a) = 1 ist (vergleiche Definition 17.2). Die orthogonalen Matrizen mit Determinante 1 bilden eine Untergruppe von O(n), die spezielle orthogonale Gruppe SO(n).

80 27. Klassifikation von Quadriken Definition. Sei V ein euklidischer Vektorraum. Eine Abbildung f : V V DEF heißt eine (euklidische) Bewegung von V, wenn es eine Isometrie h : V V und Bewegung einen Vektor v 0 V gibt mit f(v) = h(v) + v 0 für alle v V. Im Fall h = id V heißt f auch Translation um v 0. Die Bewegung ist orientierungserhaltend bzw. -umkehrend, wenn h orientierungserhaltend (also det(h) > 0) bzw. -umkehrend (det(h) < 0) ist. Die Menge aller Bewegungen von V bildet eine Gruppe (Übung), die Bewegungsgruppe von V Beispiel. Ist H = {x R n b x = c} eine affine Hyperebene, dann gibt BSP es eine Bewegung T mit T (H) = {x R n x 1 = 0}. Dafür ergänzen wir b zu einer Basis von R n und wenden das Gram-Schmidt-Verfahren an. Wir erhalten eine ONB, deren erster Vektor ein skalares Vielfaches λb ist. Sei P die zugehörige Klassif. affiner Hyperebenen orthogonale Matrix (deren Spalten diese ONB bilden). Wir identifizieren P mit der Isometrie x P x. Dann ist P 1 (H) = {P 1 x x H} = {x P x H} = {x b P x = c} = {x b (P 1 ) x = c} = {x (P 1 b) x = c} = {x x 1 = λc}, denn P e 1 = λb, also ist P 1 b = λ 1 e 1. Translation um den Vektor (λc, 0,..., 0) ergibt schließlich die Hyperebene x 1 = 0. Das Hauptergebnis in diesem Abschnitt lautet wie folgt Satz. Sei Q = {x R n x, Ax + b, x = c} eine Quadrik im R n SATZ (mit n 1) und sei r der Rang von A. Dann gibt es eine orientierungserhaltende Bewegung T des R n, reelle Zahlen a 1,..., a r > 0 und Vorzeichen ε 1,..., ε r {±1} mit { x R n ε1 ( x1 ) 2 ( xr ) 2 } T (Q) = εr = 0 oder a 1 a r { ( T (Q) = x R n x1 ) 2 ( xr ) 2 } ε εr = 1 oder a 1 a r { ( T (Q) = x R n x1 ) 2 ( xr ) 2 } ε εr = xr+1. a 1 a r Im zweiten Fall sind die (a j, ε j ) bis auf Permutation eindeutig bestimmt, im dritten Fall ist zusätzlich eine Umkehr aller Vorzeichen möglich, im ersten Fall ist auch noch eine zusätzliche gemeinsame Skalierung der a j zugelassen. Beweis. Nach dem Spektralsatz gibt es P O(n) mit P AP = D diagonal. Dabei können wir annehmen, dass die n r Nullen auf der Diagonalen von D am Ende kommen. Falls det(p ) = 1, können wir P ersetzen durch P = P diag( 1, 1,..., 1), dann gilt auch P AP = diag( 1, 1,..., 1)D diag( 1, 1,..., 1) = D und det(p ) = 1. Wir können also P SO(n) annehmen. Wenn wir P x in die Gleichung von Q einsetzen, erhalten wir Ausgeschrieben lautet das c = x P AP x + b P x = x Dx + (b P )x. λ 1 x λ r x 2 r + b 1x b nx n = c. euklidische Normalform von Quadriken

81 27. Klassifikation von Quadriken 81 (Dabei sind λ 1,..., λ r die von null verschiedenen Eigenwerte von A.) Die neue Quadrik ist das Bild der ursprünglichen unter der orientierungserhaltenden Isometrie P 1. Hier können wir in den ersten r Variablen quadratisch ergänzen: Wir ersetzen x j durch x j b j 2λ j und erhalten die neue Gleichung λ 1 x λ r x 2 r + b r+1x r b nx n = c mit c = c + 1 ( (b 1 ) (b r) 2 ). 4 λ 1 λ r Diese Quadrik entsteht aus der vorigen durch eine Translation. Jetzt gibt es drei mögliche Fälle: b r+1 =... = b n = c = 0. Dann hat die Gleichung die gewünschte Form mit ε j = sign λ j und a j = 1/ λ j für j {1, 2,..., r}. b r+1 =... = b n = 0 und c 0. Dann teilen wir die Gleichung durch c ; mit ε j = sign(λ j /c ) und a j = c /λ j für j {1, 2,..., r} haben wir die zweite Form. b j 0 für ein j {r + 1,..., n}. Wie in Beispiel 27.4 kann der lineare Teil der Gleichung auf die Form µx r+1 = 0 gebracht werden mit µ R. Analog zum zweiten Fall setzen wir ε j = sign(λ j /µ) und a j = µ/λ j um die gewünschte Form zu erhalten. Die Eindeutigkeit ergibt sich daraus, dass die Koeffizienten der x 2 j zueinander im Verhältnis der Eigenwerte 0 von A stehen müssen; im zweiten Fall wird die Skalierung dadurch fixiert, dass die Konstante auf der rechten Seite 1 ist; im dritten Fall wird die Skalierung bis auf ein Vorzeichen durch den Koeffizienten von x r+1 festgelegt (denn das Vorzeichen von x r+1 in der Gleichung kann durch die orientierungserhaltende Isometrie, die nur die Vorzeichen von x 1 und x r+1 ändert, umgedreht werden) Definition. In der Situation des zweiten Falls von Satz 27.5 mit r = n DEF heißen die Zahlen a 1, a 2,..., a n die Halbachsen von Q. Die Geraden T 1 ( e j R ) heißen die Hauptachsen von Q, der Punkt T 1 (0) der Mittelpunkt oder das Zentrum Halbachsen Hauptachsen von Q. Mittelpunkt Das erklärt auch die Bezeichnung Hauptachsentransformation für die Bewegung, die eine Quadrik in Normalform bringt. Je nach Verteilung der Vorzeichen erhalten wir verschiedene Typen von Quadriken. Für Kegelschnitte mit rk(a) = 2 gibt es drei Möglichkeiten: Vorz. rechte Seite ε 1 ε Punkt Ellipse + Geradenpaar Hyperbel Punkt leer

82 27. Klassifikation von Quadriken 82 Bei Quadriken im R 3 mit Rang 3 sind es entsprechend vier: Vorz. rechte Seite ε 1 ε 2 ε Punkt Ellipsoid + + Doppelkegel einschaliges Hyperboloid + Doppelkegel zweischaliges Hyperboloid Punkt leer Einige Quadriken im R 2 y 1 y 1 y b b a 1 0 a 1 x 0 a 1 x 0 1 x Ellipse: ( x ) 2 ( y ) 2 + = 1 a b Hyperbel: ( x ) 2 ( y ) 2 = 1 a b Parabel: ax 2 = y Kreis Ellipse Parabel Hyperbel Man sieht, dass der Typ in der Form x Ax = 1 durch die Vorzeichen der Eigenwerte von A bestimmt ist; die Halbachsen sind durch 1/ λ j gegeben. Kegelschnitte vom Rang 1 sind Vorz. rechte Seite ε x 2 + Doppelgerade parallele Geraden Parabel Doppelgerade leer Parabel

83 27. Klassifikation von Quadriken 83 Einige Quadriken im R 3 Prolates Rotationsellipsoid: 5 x 2 + y z 2 = 70 Oblates Rotationsellipsoid: x 2 + y z 2 = 70 Einschaliges Rotationshyperboloid: x 2 + y 2 z 2 = 30 Zweischaliges Rotationshyperboloid: x 2 y 2 + z 2 = 5 Rotationsparaboloid: x 2 + y z = 30 Kegel: x y 2 2 z 2 = 0

Stichwortliste zur Vorlesung. Lineare Algebra II. Gabriela Weitze-Schmithüsen. Saarbrücken, Sommersemester 2016

Stichwortliste zur Vorlesung. Lineare Algebra II. Gabriela Weitze-Schmithüsen. Saarbrücken, Sommersemester 2016 Stichwortliste zur Vorlesung Lineare Algebra II Gabriela Weitze-Schmithüsen Saarbrücken, Sommersemester 2016 Kapitel I Jordansche Normalform Ziel: Wir möchten Matrizen bis aus Ähnlichkeit klassifizieren.

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Lineare Algebra II 6. Übungsblatt

Lineare Algebra II 6. Übungsblatt Lineare Algebra II 6 Übungsblatt Fachbereich Mathematik SS 2011 Prof Dr Kollross 18/19 Mai 2011 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minimalpolynom) Bestimmen Sie das Minimalpolynom der

Mehr

Lineare Algebra II, Lösungshinweise Blatt 9

Lineare Algebra II, Lösungshinweise Blatt 9 Prof Dr Katrin Wendland Priv Doz Dr Katrin Leschke Christoph Tinkl SS 27 Lineare Algebra II, Lösungshinweise Blatt 9 Aufgabe (4 Punkte) Sei 2 3 4 A = 5 6 Berechnen Sie A k für alle k N und verifizieren

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar. Lineare Algebra I Prof. Dr. M. Rost Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar http://www.math.uni-bielefeld.de/~rost/la1 Erinnerungen und Ergänzungen zur Vorlesung: Hinweis:

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger Stefan Lell 2. Juli 2 Aufgabe. Sei t Q und A t = t 4t + 2 2t + 2 t t 2t 2t Mat 3Q a Bestimmen Sie die Eigenwerte von A t in Abhängigkeit

Mehr

Lineare Algebra II. Sommersemester Wolfgang Ebeling

Lineare Algebra II. Sommersemester Wolfgang Ebeling Lineare Algebra II Sommersemester 2009 Wolfgang Ebeling 1 c Wolfgang Ebeling Institut für Algebraische Geometrie Leibniz Universität Hannover Postfach 6009 30060 Hannover E-mail: ebeling@mathuni-hannoverde

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau 312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind

Mehr

Lineare Algebra I Zusammenfassung

Lineare Algebra I Zusammenfassung Prof. Dr. Urs Hartl WiSe 10/11 Lineare Algebra I Zusammenfassung 1 Vektorräume 1.1 Mengen und Abbildungen injektive, surjektive, bijektive Abbildungen 1.2 Gruppen 1.3 Körper 1.4 Vektorräume Definition

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof. Dr. H. Brenner Osnabrück WS 2015/2016 Lineare Algebra und analytische Geometrie I Vorlesung 25 J ai décidé d être heureux parce que c est bon pour la santé Voltaire Trigonalisierbare Abbildungen

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

45 Eigenwerte und Eigenvektoren

45 Eigenwerte und Eigenvektoren 45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.

Mehr

Skript Lineare Algebra II Mitschrift der Vorlesung Lineare Algebra II von Prof. Dr. Arthur Bartels

Skript Lineare Algebra II Mitschrift der Vorlesung Lineare Algebra II von Prof. Dr. Arthur Bartels aktuellste Version hier Skript Lineare Algebra II Mitschrift der Vorlesung Lineare Algebra II von Prof. Dr. Arthur Bartels Jannes Bantje 19. Juli 2013 Erstellt mit L A TEX Inhaltsverzeichnis 1. Isometrien

Mehr

Übungen zur Linearen Algebra 1

Übungen zur Linearen Algebra 1 Übungen zur Linearen Algebra 1 Wintersemester 2014/2015 Universität Heidelberg - IWR Prof. Dr. Guido Kanschat Dr. Dörte Beigel Philipp Siehr Blatt 10 Abgabetermin: Freitag, 16.01.2015, 11 Uhr Auf diesem

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Kapitel 11. Bilinearformen über beliebigen Bilinearformen

Kapitel 11. Bilinearformen über beliebigen Bilinearformen Kapitel 11 Bilinearformen über beliebigen Körpern Wir können in diesem Kapitel rasch vorgehen, weil die meisten Konzepte im Zusammenhang mit Sesquilinearformen bereits eingeführt wurden. In diesem Abschnitt

Mehr

Jürgen Hausen Lineare Algebra I

Jürgen Hausen Lineare Algebra I Jürgen Hausen Lineare Algebra I 2. korrigierte Auflage Shaker Verlag Aachen 2009 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation

Mehr

Musterlösungen zur Linearen Algebra II Übungsklausur

Musterlösungen zur Linearen Algebra II Übungsklausur Musterlösungen zur Linearen Algebra II Übungsklausur Aufgabe. Sei A R 3 3. Welche der folgenden Aussagen sind richtig? a Ist det(a =, dann ist A eine orthogonale Matrix. b Ist A eine orthogonale Matrix,

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

2. Der Grad von Körpererweiterungen

2. Der Grad von Körpererweiterungen 2. Der Grad von Körpererweiterungen 15 2. Der Grad von Körpererweiterungen Wenn wir untersuchen wollen, ob eine gegebene Konstruktion in der Ebene mit Zirkel und Lineal durchführbar ist, haben wir im vorigen

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof Dr H Brenner Osnabrück WS 205/206 Lineare Algebra und analytische Geometrie I Vorlesung 9 Basiswechsel Wir wissen bereits, dass in einem endlichdimensionalen Vektorraum je zwei Basen die gleiche Länge

Mehr

Affine Geometrie (Einfachere, konstruktive Version)

Affine Geometrie (Einfachere, konstruktive Version) Affine Geometrie (Einfachere, konstruktive Version) Def. Affiner Raum der Dimension n über Körper K ist nach Definition K n. Bemerkung. Man könnte Theorie von affinen Raumen auch axiomatisch aufbauen mit

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Diagonalisieren. Nikolai Nowaczyk Lars Wallenborn

Diagonalisieren. Nikolai Nowaczyk  Lars Wallenborn Diagonalisieren Nikolai Nowaczyk http://mathniknode/ Lars Wallenborn http://wwwwallenbornnet/ 16-18 März 01 Inhaltsverzeichnis 1 Matrizen 1 11 Einschub: Invertierbarkeit

Mehr

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9 Chr.Nelius: Zahlentheorie (SS 2007) 9 4. ggt und kgv (4.1) DEF: Eine ganze Zahl g heißt größter gemeinsamer Teiler (ggt) zweier ganzer Zahlen a und b, wenn gilt: GGT 0 ) g 0 GGT 1 ) g a und g b GGT 2 )

Mehr

Kapitel III. Lineare Abbildungen

Kapitel III. Lineare Abbildungen Kapitel III. Lineare Abbildungen Beispiele: 1 Lineare Abbildungen a) Seien c 1,..., c n K vorgegeben. Betrachte die Funktion F (x 1,..., x n ) = c 1 x 1 + c 2 x 2 +... + c n x n in den Variablen x 1,...,

Mehr

Lineare Algebra I (WS 13/14)

Lineare Algebra I (WS 13/14) Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 29.11.2013 Alexander Lytchak 1 / 13 Wiederholung Der Rang einer linearen Abbildung ist gleich dem Spaltenrang der darstellenden

Mehr

Mat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1

Mat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1 Aufgabe. Bestimmen Sie das Exponential expa) der Matrix ) 5 6 A = Mat, R). 4. Wir bestimmen das charakterische Polynom f A t) = t t = t )t + ). ). Eigenvektor zu EW ist v = ). Eigenvektor zu EW ist v =

Mehr

Lineare Abbildungen. i=0 c ix i n. K n K m

Lineare Abbildungen. i=0 c ix i n. K n K m Kapitel 4 Lineare Abbildungen In diesem Abschnitt lernen Sie erstmals eine Klasse von strukturerhaltenden Abbildungen kennen. Diese Konzept ist von zentraler Bedeutung in der Algebra. Grob gesagt geht

Mehr

Klausur Linearen Algebra 1 Musterlösung: Aufgabe A

Klausur Linearen Algebra 1 Musterlösung: Aufgabe A Klausur Linearen Algebra 1 Musterlösung: Aufgabe A Wir betrachten den Unterraum V = K[X] 4 aller Polynome vom Grad 4 und die lineare Abbildung f : V K 2 ; P (P (1), P (0)). Es bezeichne v 1,..., v 5 die

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Linearkombinationen, Basen, Lineare Abbildungen 2.1 Lineare Unabhängigkeit Sind die folgenden Vektoren linear unabhängig? (a) 1, 2, 3 im Q Vektorraum R (b)

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

Kapitel 4. Euklidische Ringe und die Jordansche Normalform. 4.1 Euklidische Ringe

Kapitel 4. Euklidische Ringe und die Jordansche Normalform. 4.1 Euklidische Ringe Kapitel 4 Euklidische Ringe und die Jordansche Normalform 4.1 Euklidische Ringe Die Ringe der ganzen Zahlen, Z, sowie Polynomringe über Körpern, K[X], wobei K ein Körper ist, haben die folgenden Gemeinsamheiten:

Mehr

Prof. Dr. H. Brenner Osnabrück SS Zahlentheorie. Vorlesung 3. Der euklidische Algorithmus

Prof. Dr. H. Brenner Osnabrück SS Zahlentheorie. Vorlesung 3. Der euklidische Algorithmus Prof. Dr. H. Brenner Osnabrück SS 2008 Zahlentheorie Vorlesung 3 Der euklidische Algorithmus Euklid (4. Jahrhundert v. C.) Definition 3.1. Seien zwei Elemente a, b (mit b 0) eines euklidischen Bereichs

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA I 22. Februar 2008

KLAUSUR ZUR LINEAREN ALGEBRA I 22. Februar 2008 KLAUSUR ZUR LINEAREN ALGEBRA I. Februar 008 MUSTERLÖSUNG Diese Klausur wurde je nach Sitzreihe in zwei verschiedenen Versionen geschrieben. Die andere Version unterscheidet sich von der vorliegenden jedoch

Mehr

Lineare Algebra II. Prof. Dr. Uwe Jannsen Sommersemester Transformation auf Dreiecksgestalt

Lineare Algebra II. Prof. Dr. Uwe Jannsen Sommersemester Transformation auf Dreiecksgestalt Lineare Algebra II Prof. Dr. Uwe Jannsen Sommersemester 2006 1 Transformation auf Dreiecksgestalt Sei K ein Körper. Definition 1.1 Zwei Matrizen A und A M n (K) heißen ähnlich (oder konjugiert), wenn es

Mehr

Algebra und Diskrete Mathematik, PS3. Sommersemester Prüfungsfragen

Algebra und Diskrete Mathematik, PS3. Sommersemester Prüfungsfragen Algebra und Diskrete Mathematik, PS3 Sommersemester 2016 Prüfungsfragen Erläutern Sie die Sätze über die Division mit Rest für ganze Zahlen und für Polynome (mit Koeffizienten in einem Körper). Wodurch

Mehr

Kapitel 15. Aufgaben. Verständnisfragen

Kapitel 15. Aufgaben. Verständnisfragen Kapitel 5 Aufgaben Verständnisfragen Aufgabe 5 Zeigen Sie, dass die Menge K m n aller m n-matrizen über einem Körper K mit komponentenweiser Addition und skalarer Multiplikation einen K-Vektorraum bildet

Mehr

Übungsaufgaben zur Linearen Algebra II. 1.) Lösen Sie das folgende lineare Gleichungssystem mit der Cramerschen Regel.

Übungsaufgaben zur Linearen Algebra II. 1.) Lösen Sie das folgende lineare Gleichungssystem mit der Cramerschen Regel. Blatt 1 21.4.97 1.) Lösen Sie das folgende lineare Gleichungssystem mit der Cramerschen Regel. 3x 1 x 2 + 5x 3 = 1 x 1 + 2x 2 + x 3 = 1 2x 1 + 4x 2 + 3x 3 = 1 2.) Zeigen Sie: det 1 1 0 0.......... 0 1

Mehr

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? 1. Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? A. Wenn n = 3 ist, sind mindestens zwei der drei Euler-Winkel einer Drehung kleiner oder gleich π. B. Wenn n = 2

Mehr

Erweiterte Koordinaten

Erweiterte Koordinaten Erweiterte Koordinaten Sei K n ein n dimensionaler affiner Raum Die erweiterten Koordinaten des Punktes x x n K n sind x x n Kn+ (Das ist für alle K sinnvoll, weil in jedem Körper K wohldefiniert ist In

Mehr

11. Primfaktorzerlegungen

11. Primfaktorzerlegungen 78 Andreas Gathmann 11 Primfaktorzerlegungen Euch ist sicher aus der Schule bekannt, dass sich jede positive ganze Zahl a als Produkt a = p 1 p n von Primzahlen schreiben lässt, und dass diese Darstellung

Mehr

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46.1 Motivation Symmetrische Matrizen (a ij = a ji für alle i, j) kommen in der Praxis besonders häufig vor. Gibt es für sie spezielle Aussagen über

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

5 Grundlagen der Zahlentheorie

5 Grundlagen der Zahlentheorie 5 Grundlagen der Zahlentheorie 1 Primfaktorzerlegung Seienm, n N + := {k N k > 0} Man schreibt n n, gesprochen m teilt n oder m ist ein Teiler von n, wenn es eine positive natürliche Zahl k gibt mit mk

Mehr

Übungen zur Linearen Algebra 1

Übungen zur Linearen Algebra 1 Übungen zur Linearen Algebra 1 Wintersemester 014/015 Universität Heidelberg - IWR Prof. Dr. Guido Kanschat Dr. Dörte Beigel Philipp Siehr Blatt 7 Abgabetermin: Freitag, 05.1.014, 11 Uhr Aufgabe 7.1 (Vektorräume

Mehr

Körper- und Galoistheorie

Körper- und Galoistheorie Prof. Dr. H. Brenner Osnabrück SS 2011 Körper- und Galoistheorie Vorlesung 17 Kummererweiterungen Ernst Eduard Kummer (1810-1893) Wir haben in der letzten Vorlesung gesehen, dass sich einige Eigenschaften

Mehr

9 Vektorräume mit Skalarprodukt

9 Vektorräume mit Skalarprodukt 9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG KLAUSUR ZUR LINEAREN ALGEBRA I Wiederholungsprüfung MUSTERLÖSUNG. April 2008 Name: Studiengang: Aufgabe 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter

Mehr

4 Elementare Vektorraumtheorie

4 Elementare Vektorraumtheorie 4. ELEMENTARE VEKTORRAUMTHEORIE 51 4 Elementare Vektorraumtheorie Im folgenden sei K stets ein Körper. Definition. (i) Eine homogene Gleichung in den Unbekannten ξ 1,..., ξ n ist ein Ausdruck der Gestalt

Mehr

7 Vektorräume und Körperweiterungen

7 Vektorräume und Körperweiterungen $Id: vektor.tex,v 1.3 2009/05/25 15:03:47 hk Exp $ 7 Vektorräume und Körperweiterungen Wir sind gerade bei der Besprechung derjenigen Grundeigenschaften des Tensorprodukts, die mit vergleichsweise wenig

Mehr

Gegeben sei eine Menge V sowie die Verknüpfung der Addition und die skalare Multiplikation der Elemente von V mit reellen Zahlen.

Gegeben sei eine Menge V sowie die Verknüpfung der Addition und die skalare Multiplikation der Elemente von V mit reellen Zahlen. 1. Der Vektorraumbegriff...1 2. Unterräume...2. Lineare Abhängigkeit/ Unabhängigkeit... 4. Erzeugendensystem... 5. Dimension...4 6. Austauschlemma...5 7. Linearität von Abbildungen...6 8. Kern und Bild

Mehr

MC-Serie 11: Eigenwerte

MC-Serie 11: Eigenwerte D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung

Mehr

Aufgaben zu Kapitel 15

Aufgaben zu Kapitel 15 Aufgaben zu Kapitel 5 Aufgaben zu Kapitel 5 Verständnisfragen Aufgabe 5 Zeigen Sie, dass die Menge K m n aller m n-matrizen über einem Körper K mit komponentenweiser Addition und skalarer Multiplikation

Mehr

x y f : R 2 R 3, Es gilt: Bild f = y : wobei x,y R Kern f = 0 (wird auf der nächsten Folie besprochen)

x y f : R 2 R 3, Es gilt: Bild f = y : wobei x,y R Kern f = 0 (wird auf der nächsten Folie besprochen) Def Wiederholung Sei f : V U eine lineare Abbildung Das Bild von f ist die folgende Teilmenge von U: Bild f = {u U so dass es gibt ein Element v V mit f (v) = u} (Andere Bezeichnung: f (V) wird in Analysis-Vorlesung

Mehr

Kapitel 18. Aufgaben. Verständnisfragen

Kapitel 18. Aufgaben. Verständnisfragen Kapitel 8 Aufgaben Verständnisfragen Aufgabe 8 Gegeben ist ein Eigenvektor v zum Eigenwert λ einer Matrix A (a) Ist v auch Eigenvektor von A? Zu welchem Eigenwert? (b) Wenn A zudem invertierbar ist, ist

Mehr

Lineare Algebra II. Prof. Dr. Karl-H. Neeb. Sommersemester 2003 Version 23. Februar 2004 (10:33)

Lineare Algebra II. Prof. Dr. Karl-H. Neeb. Sommersemester 2003 Version 23. Februar 2004 (10:33) Lineare Algebra II Prof. Dr. Karl-H. Neeb Sommersemester 3 Version 3. Februar 4 (:33) Inhaltsverzeichnis 7 Eigenvektoren und Eigenwerte 63 7. Eigenvektoren und Eigenwerte..............................

Mehr

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w = 1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition

Mehr

1 Mengen und Abbildungen

1 Mengen und Abbildungen 1 MENGEN UND ABBILDUNGEN 1 1 Mengen und Abbildungen Wir starten mit einigen einführenden Definitionen und Ergebnissen aus der Theorie der Mengen und Abbildungen, die nicht nur Grundlage der Linearen Algebra

Mehr

Lineare Abhängigkeit

Lineare Abhängigkeit Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x

Mehr

Kapitel 12. Lineare Abbildungen und Matrizen

Kapitel 12. Lineare Abbildungen und Matrizen Kapitel 12 Lineare Abbildungen und Matrizen Lineare Abbildungen f : R n R m Wir wissen schon: Eine lineare Abbildung f : R n R m ist eindeutig durch ein n-tupel von Vektoren v 1, v 2,, v n des R m bestimmt

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 13 Einheiten Definition 13.1. Ein Element u in einem Ring R heißt Einheit, wenn es ein Element v R gibt mit uv = vu = 1. DasElementv

Mehr

Proseminar: Primzahlen 1. Vortrag Der erweiterte euklidische Algorithmus

Proseminar: Primzahlen 1. Vortrag Der erweiterte euklidische Algorithmus Proseminar: Primzahlen 1. Vortrag Der erweiterte euklidische Algorithmus Max Zoller 14. April 8 1 Der klassische euklidische Algorithmus Beispiel: ggt 15, 56? 15 = 1 56 + 49 56 = 1 49 + 7 49 = 7 7 + =

Mehr

Kapitel VI. Euklidische Geometrie

Kapitel VI. Euklidische Geometrie Kapitel VI. Euklidische Geometrie 1 Abstände und Lote Wiederholung aus Kapitel IV. Wir versehen R n mit dem Standard Skalarprodukt x 1 y 1.,. := x 1 y 1 +... + x n y n x n y n Es gilt für u, v, w R n und

Mehr

1.4 Homomorphismen und Isomorphismen

1.4 Homomorphismen und Isomorphismen Algebra I 9. April 2008 c Rudolf Scharlau, 2002 2008 28 1.4 Homomorphismen und Isomorphismen Definition 1.4.1 Es seien (G, ) und (H, ) zwei Gruppen. Eine Abbildung ϕ : G H heißt (Gruppen-)Homomorphismus,

Mehr

31 Polynomringe Motivation Definition: Polynomringe

31 Polynomringe Motivation Definition: Polynomringe 31 Polynomringe 31.1 Motivation Polynome spielen eine wichtige Rolle in vielen Berechnungen, einerseits weil oftmals funktionale Zusammenhänge durch Polynome beschrieben werden, andererseits weil Polynome

Mehr

Mathematische Erfrischungen III - Vektoren und Matrizen

Mathematische Erfrischungen III - Vektoren und Matrizen Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Bild und Kern. Für eine lineare Abbildung L : V W bezeichnet man mit. Kern L = {v V : L(v) = 0} V. den Kern und mit

Bild und Kern. Für eine lineare Abbildung L : V W bezeichnet man mit. Kern L = {v V : L(v) = 0} V. den Kern und mit Bild und Kern Für eine lineare Abbildung L : V W bezeichnet man mit Kern L = {v V : L(v) = 0} V den Kern und mit Bild L = {w W : v V mit L(v) = w} W das Bild von L. Bild und Kern 1-1 Bild und Kern Für

Mehr

LINEARE ALGEBRA II, SS NOTIZEN ZUR VORLESUNG.

LINEARE ALGEBRA II, SS NOTIZEN ZUR VORLESUNG. LINEARE ALGEBRA II, SS 2011. NOTIZEN ZUR VORLESUNG. ULRICH GÖRTZ 1. Ringe Referenz: [Bosch, Lineare Algebra, Kapitel 5] 1.1. Definition und erste Eigenschaften. Definitionen. Ring (immer mit 1), kommutativer

Mehr

Lineare Algebra II 5. Übungsblatt

Lineare Algebra II 5. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross / Mai Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Algebraisch abgeschlossener Körper) Ein Körper heißt algebraisch abgeschlossen,

Mehr

Seminar Kommutative Algebra und Varietäten Vortrag 1: Ideale kommutativer Ringe

Seminar Kommutative Algebra und Varietäten Vortrag 1: Ideale kommutativer Ringe Seminar Kommutative Algebra und Varietäten Vortrag 1: Ideale kommutativer Ringe Sebastian Dobrzynski 17042014 1 Grundsätzliches zu Idealen Vorab legen wir fest: Alle im Vortrag betrachteten Ringe sind

Mehr

Musterlösung Klausur zur Linearen Algebra II

Musterlösung Klausur zur Linearen Algebra II Musterlösung Klausur zur Linearen Algebra II Samstag 8. Juli 6 -Uhr. a) Sei f : V W k-linear. Denieren Sie V und f : W V. b) Die Gruppe G operiere auf der Menge M. Denieren Sie die Bahn und die Isotropiegruppe

Mehr

1 Angeordnete Körper. 1.1 Anordnungen und Positivbereiche

1 Angeordnete Körper. 1.1 Anordnungen und Positivbereiche 1 1 Angeordnete Körper 1.1 Anordnungen und Positivbereiche Definition 1.1. Eine zweistellige Relation auf einer Menge heißt partielle Ordnung, falls für alle Elemente a, b, c der Menge gilt: (i) a a (ii)

Mehr

Kapitel 2. Ganze Zahlen. 2.1 Teilbarkeit

Kapitel 2. Ganze Zahlen. 2.1 Teilbarkeit Kapitel 2 Ganze Zahlen In diesem Kapitel setzen wir voraus, dass die Menge Z der ganzen Zahlen, ihre Ordnung und die Eigenschaften der Addition und Multiplikation ganzer Zahlen dem Leser vertraut sind.

Mehr

Lösungen Serie 6 (Vektorräume, Skalarprodukt)

Lösungen Serie 6 (Vektorräume, Skalarprodukt) Name: Seite: 1 Fachhochschule Nordwestschweiz (FHNW) Hochschule für Technik Lösungen Serie 6 (Vektorräume, Skalarprodukt) Dozent: R. Burkhardt Büro: 4.613 Klasse: 1. Studienjahr Semester: 1 Datum: HS 28/9

Mehr

Michael Artin. Algebra. Aus dem Englischen übersetzt von Annette A'Campo. Birkhäuser Verlag Basel Boston Berlin

Michael Artin. Algebra. Aus dem Englischen übersetzt von Annette A'Campo. Birkhäuser Verlag Basel Boston Berlin Michael Artin Algebra Aus dem Englischen übersetzt von Annette A'Campo Birkhäuser Verlag Basel Boston Berlin INHALTSVERZEICHNIS Vorwort Hinweise viii x Kapitel 1 MATRIZEN 1 1. Matrizenkalkül 1 2. Zeilenreduktion

Mehr

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 11 (WS 2010/2011) Abgabetermin: Donnerstag, 20. Januar. http://www.math.uni-bielefeld.

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 11 (WS 2010/2011) Abgabetermin: Donnerstag, 20. Januar. http://www.math.uni-bielefeld. Lineare Algebra I Prof. Dr. M. Rost Übungen Blatt 11 (WS 2010/2011) Abgabetermin: Donnerstag, 20. Januar http://www.math.uni-bielefeld.de/~rost/la1 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung:

Mehr

Karlsruher Institut für Technologie Institut für Algebra und Geometrie

Karlsruher Institut für Technologie Institut für Algebra und Geometrie Karlsruher Institut für Technologie Institut für Algebra und Geometrie PD Dr. Stefan Kühnlein Dipl.-Math. Jochen Schröder Einführung in Algebra und Zahlentheorie Übungsblatt 10 1 Aufgabe 1 (4 Punkte) Sei

Mehr

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x

Mehr

Definition Sei V ein Vektorraum, und seien v 1,..., v n V. Dann heißt eine Linearkombination. n λ i = 1. mit. v = v i λ i.

Definition Sei V ein Vektorraum, und seien v 1,..., v n V. Dann heißt eine Linearkombination. n λ i = 1. mit. v = v i λ i. Kapitel Geometrie Sei V ein Vektorraum, z.b. V = R 3. Wenn wir uns für geometrische Eigenschaften von R 3 interessieren, so stört manchmal die Ausnahmerolle des Nullvektors, die es ja in V gibt. Beispielsweise

Mehr

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A 133 e 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 2. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 Schritte des

Mehr

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow LINEARE ALGERA Ferienkurs Hanna Schäfer Philipp Gadow INHALT Eigenwerte und Eigenvektoren. asiswechsel.2 Eigenwertgleichung 2.3 Diagonalisierbarkeit 5.4 Trigonalisierung 8.5 Zusatzmaterial 8 Aufgaben 9

Mehr

Elemente von S n = Aut([1, n]) heißen Permutationen. Spezielle Permutationen sind Transpositionen und Zyklen. (Vergl. Skript S

Elemente von S n = Aut([1, n]) heißen Permutationen. Spezielle Permutationen sind Transpositionen und Zyklen. (Vergl. Skript S Begriffe Faser: Es sei f : M N eine Abbildung von Mengen. Es sei n N. Die Menge f 1 ({n}) M nennt man die Faser in n. (Skript Seite 119). Parallel: Zwei Vektoren v und w heißen parallel, wenn für einen

Mehr

Die Dimension eines Vektorraumes

Die Dimension eines Vektorraumes Die Dimension eines Vektorraumes Ist (b 1, b 2,..., b n ) eine Basis des Vektorraums V, so heißt n die Dimension von V. Die Möglichkeit dieser Definition beruht auf dem folgenden nichttrivialen Satz. Je

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

x,y A = t xay v i,v j A = e i,e j t PAP

x,y A = t xay v i,v j A = e i,e j t PAP 75 Lineare Algebra II SS 2005 Teil 6 Bilinearformen 6A Kongruenz quadratischer Matrizen Sei K ein Körper, sei A M(n n, K) eine quadratische Matrix Wie wir zu Beginn von Teil 3 gesehen haben, liefert A

Mehr

MATHEMATIK II FÜR STUDIERENDE DER PHYSIK

MATHEMATIK II FÜR STUDIERENDE DER PHYSIK - 87 - MATHEMATIK II FÜR STUDIERENDE DER PHYSIK 21 Vektorräume mit Skalarprodukt Wir halten uns hier im Wesentlichen an das Buch G.Fischer : Lineare Algebra, 14. Auflage, Kap. 5. 21.1 Definition und Beispiele

Mehr