Lineare Algebra, Analytische Geometrie II

Größe: px
Ab Seite anzeigen:

Download "Lineare Algebra, Analytische Geometrie II"

Transkript

1 Skript Lineare Algebra, Analytische Geometrie II gehört bei Prof. Dr. Annette Huber-Klawitter Universität Leipzig Stand: 27. November 26 Zusammengestellt von Marcel Dennhardt

2 Dieses Skript fasst die Mitschriften der Vorlesung Lineare Algebra, Analytische Geometrie II aus dem Sommersemester 26 bei Frau Prof. Dr. Annette Huber-Klawitter zusammen. Die Vorlesung knüpft an den ersten, von Prof. Dr. Bernd Herzog gehaltenen Teil aus dem Wintersemester 25/26 an. Für Fehlerfreiheit kann nicht garantiert werden. Werden Fehler gefunden, so bitte ich deswegen, mir selbige per ) mitzuteilen. Diese Datei darf jederzeit gedruckt, vervielfältigt und nicht-kommerziell veröentlicht werden, doch stellt sie keinen Ersatz für den Besuch der Veranstaltung dar! Das Skript wird in Absprache mit Frau Prof. Dr. Annette Huber-Klawitter vorlesungsbegleitend aktualisiert und ergänzt. Die jeweils aktuellste Version ist unter verfügbar. Die vorliegende Version stammt vom 27. November 26. Universität Leipzig 2

3 Inhaltsverzeichnis Inhaltsverzeichnis 5 Eigenwerte und Eigenvektoren 4 5. Diagonalisierbarkeit Das charakteristische Polynom Exkurs Eigenschaften von Polynomringen Fahnen Das Minimalpolynom Jordansche Normalform Euklidische und unitäre Vektorräume 5 6. Skalarprodukte, Normen, Metriken Hauptachsentransformation Bilineare Abbildungen Tensorprodukte Tensoren in der Physik Ane und projektive Geometrie Ane Räume Der projektive Raum Ane Abbildungen Dualitätsprinzip Kegelschnitte 46 Jordansche Normalform 5. Anwendung: Die Normalform von Jordan-Chevalley Lineare Gruppen Algebren 67. Anwendungen von Λ (V ) Universität Leipzig 3

4 5. Eigenwerte und Eigenvektoren 5 Eigenwerte und Eigenvektoren Denition 5.. Sei f : V V Endomorphismus eines Vektorraums V. Ein Vektor v V \ {} heiÿt Eigenvektor zum Eigenwert λ K, falls gilt: f (v) = λv Eine Basis v,..., v n von V heiÿt Eigenbasis, falls alle v i Eigenvektoren sind (zu beliebigen Eigenwerten). Zu λ K heiÿt V λ = {v V : f (v) = λv} Eigenraum zu λ. Beispiel. a) R 2 R 2 Spiegelung: Die Abbildung lässt den Vektor fest, er ist Eigenvektor zum Eigenwert. und sind Eigenvektoren zum Eigenwert. b) R 2 R 2 Rotation um Winkel α: Die Abbildung lässt keinen Vektor fest. Es gibt keine Eigenvektoren, auÿer bei: α =, 36,...: Alle Vektoren sind Eigenvektoren zum Eigenwert : R 2 = R 2 α = 8,...: Punktspiegelung am Ursprung, Eigenwert : R 2 = R2 Bemerkung. (i) v = wird ausgeschlossen, denn λ = für alle λ K. λ = ist erlaubt. (ii) V λ ist Untervektorraum von V. (iii) λ Eigenvektor V λ (iv) Begrie der englischen Literatur: eigenvector, eigenvalue, eigenbasis, eigenspace (v) Sei v,..., v n Eigenbasis zu den Eigenwerten λ,..., λ n. 5. Diagonalisierbarkeit Denition 5.2. Ein Endomorphismus f : V V heiÿt diagonalisierbar, wenn es eine Basis v,..., v n gibt, so dass die darstellbare Matrix eine Diagonalmatrix ist mit anderen Worten, wenn v,..., v n eine Eigenbasis ist. Bemerkung. Man sagt auch: Die Matrix A M n n (K) ist diagonalisierbar, wenn die zugehörige lineare Abbildung diagonalisierbar ist, d. h. es gibt eine invertierbare Matrix S GL n (K) mit SAS Diagonalmatrix. Beispiel. f : K 2 K 2, Multiplikation mit ` 2 2 «««2x + y 2 x x λx = = λ = 2y 2«y y«λy 2y = λy λ = 2 oder y = 2x+y=2x 2x=λx y= x= oder λ=2 Also: y =, λ = 2, x beliebig. f hat nur einen Eigenwert, nämlich 2. Eigenraum zur λ = 2: j ff x v 2 = : x K «Es gibt keine Eigenbasis. Universität Leipzig 4

5 5. Eigenwerte und Eigenvektoren 5.2 Das charakteristische Polynom Denition 5.3. Sei f : V V linear und V ein endlich-dimensionaler Vektorraum. Dann heiÿt χ f (T ) = det (f T Id) charakteristisches Polynom von f. Bemerkung. Sei v = {v,..., v n } Basis von V, A = ( ) a ij die darstellende Matrix von f.... = ( { ) i = j δ ij, δij = sonst χ f (T ) = det (M v v (f T Id)) = det (A T Id) = ( ) ( ) ( ) sign σ aσ() T δ σ() a2σ(2) T δ 2σ(2) anσ(n) T δ nσ(n) σ S n Dies ist ein Polynom in der Variablen T. σ = Id ( ) n T n ist der höchste Term: χ f (T ) = ( ) n T n + Terme niedrigerer Ordnung Also hat χ f (T ) den Grad n = dim V. Satz 5.4. Sei f Endomorphismus eines endlich-dimensionalen Vektorraums. Dann sind folgende Aussagen äquivalent: (i) λ ist ein Eigenwert von f. (ii) λ ist Nullstelle von χ f (T ). Beweis. (i) (ii): Sei λ Eigenwert, d. h. f (v) = λv, v (f λ Id) (v) =, v λ ist Eigenwert ker (f λ Id) det (f λ Id) = =χ f (λ) Beispiel. Betrachte f : R 2 R 2 Drehung um α, d. h. Multiplikation mit ` cos α sin α. sin α cos α Gesucht sind die Eigenwerte. «cos α T sin α χ f (T ) = det sin α cos α T χ f (T ) =, d. h. = (cos α T ) 2 + sin 2 α = cos 2 α 2 cos αt + T 2 + sin 2 α (cos α T ) 2 + sin 2 α = (cos α T ) 2 = sin 2 α T = cos α sin α = Für α, 8 ist sin α =, cos α =,, d. h. χ f (T ) hat die Nullstelle bzw., f hat den Eigenwert bzw.. Was sind die Eigenvektoren? «α = x : «y x = y«erfüllt für alle ` x y R 2. «α = 8 x : «y erfüllt für alle ` x y R 2. x = ( ) y«universität Leipzig 5

6 5. Eigenwerte und Eigenvektoren 5.3 Exkurs Eigenschaften von Polynomringen Denition 5.5. Sei K ein Körper. Ein formaler Ausdruck der Form P (T ) = a + a T + a 2 T a n T n, a i K, a n oder P (T ) = heiÿt Polynom vom Grad n. K [T ] = Menge aller Polynome über K (Pedantisch: Ein Polynom ist eine Folge (a, a, a 2,...), a i K mit a i = für i.) Bemerkung (Nachtrag). Fasse P (T ) als Abbildung auf: P : K K, λ P (λ) = a + a λ + 2 λ a n λ n Fasse P (T ) als Abbildung auf: P : End V End V, f P (f) = a Id +a f + a 2 f f a n f n Folgendes Diagramm ist kommutativ: End V Wahl der Basis v,...,v n P M n n (K) P End V M n n (K) Lemma 5.6. K [T ] ist ein Ring mit der Addition ( a + a T a n T n) + ( b + b T b m T m) = (a + b ) + (a + b ) T +... und der Multiplikation ( a + a T a n T n) ( b + b T b m T m) Beweis. = a b + (a b + a b ) T + (a b 2 + a b + a 2 b ) T a m b m T n+m n+m = a i b j T k. k= i+j=k K [T ] ist kommutativ bezüglich +: Assoziativität gilt, da + in K assoziativ ist. Kommutativität gilt, da + in K kommutativ ist. ist neutrales Element in K [T ], da neutrales Element in K. Inverses bezüglich + für a + a T a nt n ist a a T... a nt n. Bezüglich gilt: Zu zeigen: 9 P Q = QP >= P (QR) = (P Q) R >; Übungsaufgabe! P (Q + R) = P Q + P R K [T ] = {(a, a, a 2,...) K : Es gibt n mit a i = für i n.} Universität Leipzig 6

7 5. Eigenwerte und Eigenvektoren Eigenschaften der Mutliplikation auf Monomen: T i T j = T i+j Die Ausdehnung auf beliebige Polynome benutzt gerade die Rechenregeln. Denition 5.7. Sei P = a +a T +...+a n T n K [T ], λ K. Dann ist P (λ) = a +a λ+...+a n λ n K. λ heiÿt Nullstelle von P, falls P (λ) =. K heiÿt algebraisch abgeschlossen, wenn jedes nichtkonstante Polynom eine Nullstelle hat. Beispiel. Q und R sind nicht algebraisch abgeschlossen: T 2 + hat keine Nullstelle. Auch F 2 ist nicht algebraisch abgeschlossen, da T 2 + T + keine Nullstelle hat. C ist algebraisch abgeschlossen. 2 Bemerkung. Jeder Körper K ist in einem algebraisch abgeschlossenen Körper K enthalten. 3 Beispiel. Körper der algebraischen Zahlen: Q = {α C : α ist Nullstelle eines P Q [T ]} Vorsicht! Weshalb ist das ein Körper? Satz 5.8. Sei P K [T ]. Dann gilt: P = (T α ) ν (T α 2 ) ν2 (T α n ) νn C mit α i K paarweise verschieden, ν i, n, C K [T ] ohne Nullstellen. Ist K algebraisch abeschlossen, so gilt C = const., C K. Bemerkung. Für P = χ f sind die α i gerade die Eigenwerte von f. Beweis. Induktion nach deg P : deg P = P = C = const. deg P =, P = a + a T (a ) = a T + a a, a = C, α = a a, ν = Der Satz sei bewiesen für alle Polynome vom Grad n. Sei F K [T ] vom Grad n +. Erster Fall: F hat keine Nullstelle. Dann ist F = C. Es ist nichts zu zeigen. Zweiter Fall: F hat eine Nullstelle α K. Polynomdivision von F durch (T α) ergibt: F = Q (T α) + R deg R < deg (T α) = Einsetzen von α: Also: F (α) = (α α) Q (α) + R = R = = F = (T α) Q, deg Q = deg F = n Q kann nach Induktionsvoraussetzung als Produkt von Linearfaktoren mal C geschrieben werden, also auch: F = (T α) Q Bemerkung. K algebraisch abgeschlossen χ f hat eine Nullstelle, d. h. f hat einen Eigenwert. Hat V eine Eigenbasis? Nein! Beispiel. Betrachte ` 2 2 : Aber: χ f (T ) = (2 T ) 2 V 2 = {( x ) : x K} (dim V 2 = ) 2 Beweis in Funktionentheorie oder Algebra I. 3 Beweis in Algebra I benutzt Zornsches Lemma. Universität Leipzig 7

8 5. Eigenwerte und Eigenvektoren Denition 5.9. Sei f : V V Endomorphismus eines endlich-dimensionalen Vektorraums, λ Eigenwert von f. Dann heiÿt dim V λ geometrische Multiplizität. Die Multiplizität von λ in χ f heiÿt algebraische Vielfachheit. Satz 5.. Sei V ein endlich-dimensionaler Vektorraum, f : V V Endomorphismus. Seien λ,..., λ n die Eigenwerte von f mit geometrischer Vielfachheit µ i und algebraischer Vielfachheit ν i. Dann gilt µ i ν i, i =,..., n. Dann sind folgende Aussagen äquivalent: (i) Das charakteristische Polynom χ f zerfällt in Linearfaktoren. µ i = ν i für i =,..., n. (ii) V hat eine Eigenbasis bezüglich f. (iii) Es gilt V = V λ... V λn. Beweis. Sei λ Eigenwert, v,..., v k Basis von V λ. Ergänze zu einer Basis v,..., v N von V. Berechne χ f in der Basis v,..., v N : Matrix von f bezüglich dieser Basis: λ 9 f (v ) = λv λ f (v 2 ) = λv 2 >=. M = f (v k ) = λv k λ >; f (v k+ ) =? A. B x f (T ) = det (M λt ) = det (λ Id T Id) det B T Id = (λ T ) k det (B T Id) geometrische Vielfachheit = dim V λ = k algebraische Vielfachheit von λ (i) (ii): Sei v,..., v n eine Eigenbasis. Dann ist die darstellende Matrix von f bezüglich v,..., v n eine Diagonalmatrix. Das charakteristische Polynom hat dann die Form (λ T ) ν (λ 2 T ) ν2 (λ k T ) ν k, wobei λ i T gerade so oft auftritt, wie der Eigenvektor λ i für v,..., v n. Also: algebraische Vielfachheit = geometrische Vielfachheit und χ f zerfällt in Linearfaktoren. (ii) (iii): Sei µ i = ν i für alle Eigenwerte λ,..., λ n. Wir betrachten ϕ : V λ V λ2... V λn V (v, v 2,..., v n) v + v v n Diese Abbildung ist linear. Nach Voraussetzung gilt: dim `V nx nx (i) λ... V λn = dim V λi = µ i = da χ f in Linearfaktoren zerfällt: Also: i= i= χ f (T ) = (λ T ) ν (λ 2 T ) ν2 (λ n T ) νn deg χ f = dim V, d. h. beide Seiten haben dieselbe Dimension. Behauptung: ϕ ist bijektiv. ( ϕ injektiv) C A nx ν i = deg χ f, Beweis. Zu zeigen: v i V λi mit v + v v n = v i = i= Angenommen (v,..., v n) ker ϕ \ {}. Sei s die Anzahl der i mit v i, also s. O. B. d. A. ist v,..., v s und v s+ =... = v n =. Sei s die kleinstmögliche Zahl mit dieser Eigenschaft. Universität Leipzig 8

9 5. Eigenwerte und Eigenvektoren P s = bedeutet v i =, also v =. Widerspruch! Es gilt also s >. Also gibt es wenigstens zwei verschiedene Eigenwerte i= und es gibt einen Eigenwert ungleich Null, o. B. d. A. sei λ. Es gilt: v + v v s = = f (v ) + f (v 2 ) f (v s) Beide Gleichungen zusammen ergeben: λ «2 + λ « v 2 λ V λ2 \{} v 3 λ V λ3 \{} = λ v + λ 2 v λ sv s = v + λ 2 λ v λs λ v s λs λ «v s V λs \{} = Dies ist ein Widerspruch zur Wahl von s. Also gilt: ker ϕ = Das Diagramm V λ... V λn? hy ϕ = V? yf = V λ... V λn V ϕ ist kommutativ. Sei v,..., vµ 9 Basis von V λ. h : (v,..., v n) (λ v,..., λ nv n) Sei v, 2..., vµ 2 Basis von V λ2. >= Basis von V nach (iii). Sei v n,..., >; vn µ Basis von V λn. Dies ist die gesuchte Eigenbasis. Korollar 5.. Sei f : V V Endomorphismus eines n-dimensionalen Vektorraums. f habe n verschiedene Eigenwerte, d. h. χ f hat n verschiedene Nullstellen. Dann ist f diagonalisierbar (es existiert eine Eigenbasis). 5. Beweis. Nach Denition ist µ i und nach Voraussetzung ist ν i = µ i ν i. Also gilt µ i = ν i für i =,..., n. (i) (ii) besagt, dass es eine Eigenbasis gibt. Bemerkung. In der Physik nennt man Eigenräume mit geometrischer Vielfachheit gröÿer degeneriert. Durch kleine Störungen wird die Matrix nichtdegeneriert. Über C ist jede nichtdegenerierte Matrix diagonalisierbar. Satz 5.2. Sei K algebraisch abgeschlossen, V endlich-dimensional und f : V V Endomorphismus. Dann gibt es eine Basis von V,so dass die darstellende Matrix von f bezüglich dieser Basis eine Dreiecksmatrix ist.. Beispiel. K n mit der Standardbasis, A =. C A Die Unterräume e,..., e i werden von f in sich abgebildet. 5.4 Fahnen Denition 5.3. Sei V ein Vektorraum. Eine Fahne der Länge r von V ist eine echt aufsteigende Folge von Untervektorräumen: V V V 2... V r Die Fahne heiÿt vollständig, wenn Universität Leipzig 9

10 5. Eigenwerte und Eigenvektoren (i) V =, (ii) V r = V, (iii) dim V i+ = dim V i +. Sei f ein Endomorphismus. Ein Untervektorraum U V heiÿt f-invariant oder stabil unter f, falls f (U) U. Eine Fahne heiÿt f-invariant, falls alle V i f-invariant sind. Beispiel. a) V ist eine f-invariante Fahne, vollständig genau dann, wenn dim V =. b) V λ V ist f-invariant, denn f (v) = λv V λ, v V λ. c) v,..., v n Basis von V. V i = v,..., v i. Die V i bilden eine vollständige Fahne. d) Gegeben eine vollständige, f-invariante Fahne V i. dim V =, v in V. f (v) V f (v) = λv für ein λ K Eigenvektor. Satz 5.4. Sei K algebraisch abgeschlossen, V endlich-dimensionaler K-Vektorraum, f : V V Endomorphismus. Dann existiert eine vollständige f-invariante Fahne. Beweis. Induktion nach dim V. Ist dim V =, ist nichts zu zeigen. Sei nun n = dim V >. V =. Sei v ein Eigenvektor zum Eigenwert λ, V = v. Dann gilt f (µv) = λµv V. Sei V = V/V = {v + V : v V }, ϱ : V V, v v + V. V? ϱy V f V? y ϱ V f Setze f : V V, v + V f (v) + V. f ist linear: f ((v + V ) + (w + V )) = f (v + w + V ) Wohldeniertheit von f : v + V = w + V = f (v + w) + V = f (v) + f (w) + V Zu zeigen: f (v) + V = f (w) + V. v w V. f (v) f (w) = f (v w) = λv w V f (v) + V = f (w) + V. = (f (v) + V ) + (f (w) + V ) = f (v + V ) + f (w + V ) Es gilt dim V = dim V dim V = n. Wir wenden die Induktionsvoraussetzung auf f : V V an. Also existiert eine vollständige Fahne f -invariante Fahne in V : V V 2 V 3... V n = V f `V i V i, dim V i = i Sei V i = ϱ `V i. ϱ `V = ϱ () = V. = V V V 2... V n V n = ϱ (V n) = ϱ (V ) = V, da ϱ : V V = V/V. Behauptung: dim V i = i. Für i = richtig. Sei nun i >. ϱ : V V ist surjektiv. ϱ Vi : V i V i ist surjektiv. Dimensionsformel: dim V i = dim im ϱ Vi + dim ker ϱ Vi = dim V i + dim V = i + = i. Universität Leipzig

11 5. Eigenwerte und Eigenvektoren Behauptung: f (V i ) V i Sei v V i, d. h. ϱ (v) V i. Nach Voraussetzung: f `V i V =v+v i, also f (v + V ) =f(v)+v =ϱ(f(v)) V i. Gezeigt: v V i f (v) ϱ `V i = Vi Beweis (Zu Satz 5.2). Sei V V 2... V n = V eine vollständige f-invariante Fahne. Sei v eine Basis von V. Sei {v, v 2 } eine Basis von V 2 (Basisergänzungssatz). Sei {v, v 2, v 3 } eine Basis von V 3 usw. Also: v,..., v n Basis von V, so dass V i = v,..., v i. Beachte: f ( v,..., v i ) v,..., v i. Die darstellende Matrix von f bezüglich v,..., v n ist λ α β. f (v ) V = v, d. h. f (v ) = λv + v f (v 2 ) V = v, v 2, d. h. f (v ) = αv + βv C A wie behauptet. Beispiel. f : K 2 K 2 Multiplikation mit ` 3. Gesucht: = V V V 2 = V mit f (v ) V. χ f (T ) = det T 3 T = ( T ) (3 T ) + = T 2 4T + 4 = (T 2) 2 Eigenwert 2. «««2 x x x + y = = = y = x «3 2«y «y x + y v = ` ist ein Eigenvektor. Wähle v 2 = `. f (v ) = 2v f (v 2 ) = ` 3 ` = ` 3 = ` + ` 2 = v + 2v 2 Darstellende Matrix ist ` 2 2. «««2 (T 2) = = 2 2 «2 = «Sei f : V V Endomorphismus, P (T ) K [T ] Polynom: Dann ist P (T ) = a + a T + a 2 T a nt n, a i K P (f) = a Id +a f + a 2 f a nf n End (V ), f i = f f f. i mal Satz 5.5 (Cayley-Hamilton). Sei K ein Körper, V f : V V ein Endomorphismus. Dann gilt: ein endlich-dimensionaler K-Vektorraum und χ f (f) = End (V ) Beweis. Sei zunächst K algebraisch abgeschlossen. Wir wählen eine Basis von V, so dass λ Mv v B (f) C.. A =: M λ n Es gilt χ f (T ) = det (M T Id) = (λ T ) (λ 2 T ) (λ n T ). Also: χ f (f) = (λ Id f) (λ 2 Id f) (λ n Id f) Sei φ i = (λ f Id) (λ 2 f Id) (λ n f Id). Sei = V V... V n die vollständige f-invariante Fahne, die zur Denition von M führte. Behauptung: φ i (V i ) =. (Insbesondere: i = n φ n = χ f (f), V n = V, d. h. χ f (f) (V ) =.) Universität Leipzig

12 5. Eigenwerte und Eigenvektoren Induktion nach i: Für i = ist nichts zu zeigen, denn φ (v) = Sei nun i >. φ i = φ i (λ i f). Sei nun v V i. v = a v a i v i. φ i (v) = φ i ((λ i f) (a v + a 2 v a i v i )) = φ i λ ia v + λ i a 2 v λ i a i v i a f (v ) a 2 f (v 2 )... a i f (v i ) C A V i V i = φ i (λ i a i v i a i λ i v i ) + v mit v V i = nach Induktionsvoraussetzung f (v i ) =?v +?v ?v i + λ i v i + = λ v + Rest mit Rest V i. Alle Summanden, auÿer λ i a i v i und a i f (v i ) liegen in V i. Sei nun K beliebig. Sei v,..., v n eine Basis von V, M die darstellende Matrix von f. χ M (T ) = χ f (T ) Dann ist χ m (M) die darstellende Matrix von χ f (f). Zu zeigen: χ M (M) = in M n (K) M n ` K (In Algebra I: K K für K algebraisch abgeschlossen.) M : K n K n ist lineare Abbildung. Nach dem bisher Gezeigten gilt χ M (M) =. Beispiel. ` 2 2, v = `, v2 = `. φ = (2 f), φ 2 = (2 f) 2. `` `` φ = 2 ` 2 2 ` ` 2 = ` ` = φ (2 f) ` = φ `` ` = φ `` = 5.5 Das Minimalpolynom Denition 5.6. Sei V ein endlich-dimensionaler Vektorraum, f : V V ein Endomorphismus. Das Minimalpolynom µ f K [T ] ist das kleinste (kleinster Grad) normierte Polynom ungleich mit µ f (f) =. P K [T ] heiÿt normiert, falls 2.4. P (T ) = T d + a d T d a, a i K Lemma 5.7. Sei P K [T ] mit P (f) =. Dann ist µ f ein Teiler von P. µ f ist eindeutig bestimmt. Beweis. Polynomdivision mit Rest ergibt: P = Qµ f + R, Q, R K [T ], deg R < deg µ f = P (f) = Q (f) µ f (f) +R (f) R hat Nullstelle f. = R = b mt m + b m T m b, b m b m R (f) = Nach Wahl des Minimalpolynoms muss R = sein. Die Division P = Qµ f liefert keinen Rest. Sei µ f ebenfalls Minimpolynom. Es gilt: µ f = P µf und µ f = P 2 µ f = P 2P µ f deg P 2 P = deg P, deg P 2 = d. h. P, P 2 K, P P 2 =. T d + a d +... = (P 2 P ) h i T d + a d T d +... Koezientenvergleich in µ f = P 2 µ f ergibt P 2 =, da µ f, µ f normiert sind. Universität Leipzig 2

13 5. Eigenwerte und Eigenvektoren Beispiel. A = ` a b, χa (T ) = (a T ) (b T ) = T 2 (a + b) T + ab «a 2 a χ A (A) = b 2 2 ««+ ab ab ab + b 2 + = ab Mögliche Teiler: T a, T b «a a a (T a) = b a + b Für a = b ist µ A = T a. Für a b ist µ A = χ A. ««= b a «2 Beispiel. B =, χ 2 B (T ) = (T 2) 2. Möglicher Teiler: T 2 «««2 2 (T 2) (B) = = 2 2 Also: µ B = χ B. Satz 5.8. µ f teilt χ f. Die Nullstellen von µ f und χ f stimmen überein. Beweis. χ f = Qµ f (nach 5.7 und Caley-Hamilton). Insbesondere sind die Nullstellen von µ f auch Nullstellen von χ f. Sei λ Nullstelle von χ f, also Eigenwert zu einem Eigenvektor v. f (v) = λ (v), f 2 (v) = f (λv) = λf (v) = λ 2 v,..., f n (v) = λ n v P = a nt n + a n T n a P (f) (v) = (a nf n + a n fn a ) (v) = `a nλ n + a n λ n a (v) V V K =P (λ)v Insbesondere: µ f (f) (v) = µ f (λ) v =, da µ {z} f (f) = in End V. µ f (λ) =. Satz 5.9. Sei f : V V Endomorphismus eines endlich-dimensionalen Vektorraums V. Dann ist f genau dann diagonalisierbar, wenn µ f in Linearfaktoren zerfällt und die Nullstellen von µ f die Multiplizität haben. Beweis. Sei v,..., v n eine Eigenbasis von V. Dann zerfällt χ f und damit auch µ f in Linearfaktoren. Sei µ f (T ) = (T λ ) ν (T λ 2 ) ν2 (T λ k ) ν k, ν k λ,..., λ k sind die Eigenwerte von f. µ f (T ) = (T λ ) (T λ 2 ) (T λ k ) Behauptung: µ f (f) = in End V. µ f (f) (v i ) = µ f (λ) v i, λ der Eigenwert zum Eigenvektor v i ; λ = λ j für ein j. = (λ j = λ ) (λ j λ 2 ) (λ j λ k ) v i =, da (λ j λ j ) = µ f (f) verschwindet auf allen Elementen einer Basis, also gilt µ f (f) =. Wegen deg µ f µ f und der Denition des Minimalpolynoms folgt µ f = µ f. Rückrichtung: Sei umgekehrt µ f (T ) = (T λ ) (T λ k ) mit λ i λ j für i j. Behauptung: f ist diagonalisierbar. Vollständige Induktion nach dim V : dim V = ist klar. Wir betrachten f λ Id : V V. Seien K = ker (f λ Id) = V λ, B = im (f λ Id). da λ Eigenwert f (K) K. Jede Basis von K ist eine Eigenbasis. f (B)? B v B, v = (f λ ) w für ein w V. f (v) = f (f λ ) (w) = (f λ ) f (w), d. h. f (v) B f (B) B. Universität Leipzig 3

14 5. Eigenwerte und Eigenvektoren Dimensionsformel: dim B = dim V dim K < dim V rk(f λ ) Es gilt µ f (f B ) (B) µ f (f) V =. Das Minimalpolynom von f B ist also ein Teiler von µ f. Also ist auch µ f B Produkt von einfachen Linearfaktoren. Nach Induktionsvoraussetzung ist nun f B diagonalisierbar, d. h. B hat eine Eigenbasis bezüglich f B bzw. f. Zu zeigen bleibt: Behauptung: K B = V, (v, w) v + w Trick: Division mit Rest: (T λ 2 ) (T λ 3 ) (T λ k ) = Q (T λ ) + C, deg C < deg (T λ ) =, also C K konstant. c = ist unmöglich, denn T λ ist kein Teiler der linken Seite. Also C K = K \ {}. Wir lesen die Gleichung anders, nämlich als C (T λ 2 ) (T λ 3 ) (T λ k ) C Q (T λ ) = Setze f ein, wende auf v V an: v = C (f λ 2 ) (f λ 3 ) (f λ k ) (v) C Q (f λ ) (v), K denn (f λ ) C (f λ 2 ) (f λ k ) (v) =C µ f (f)(v)= (f λ )(C Q(f)(v)) B d. h. K B V ist surjektiv. 5.6 Jordansche Normalform Sei K algebraisch abgeschlossen, V endlich-dimensional, f : V V Endomorphismus. Dann gibt es eine Basis von V, so dass die darstellende Matrix die Form λ J i J 2 λ i mit J i = λ i hat. Die J i sind bis auf Reihenfolge eindeutig. f ist diagonalisierbar J i = ( λ i ) für alle i Universität Leipzig 4

15 6. Euklidische und unitäre Vektorräume 6 Euklidische und unitäre Vektorräume Diesem Abschnitt werden jeweils die Körper K = R bzw. K = C zugrunde gelegt. Zur Abkürzung steht deshalb K Skalarprodukte, Normen, Metriken Denition 6.. Sei V ein K-Vektorraum. Eine Abbbildung s : V V K heiÿt Bilinearform (K = R) bzw. Sesquilinearform (K = C), wenn (i) s (v, λ w + λ 2 w 2 ) = λ s (v, w ) + λ 2 s (v, w 2 ) für alle λ i K, v, w i V. (ii) s (µ v + µ 2 v 2, w) = µ s (v, w) + µ 2 s (v 2, w) für alle µ i K, v i, w V. s heiÿt symmetrisch bzw. hermitesch, falls zusätzlich (iii) s (v, w) = s (w, v). s heiÿt Skalarprodukt, falls s zusätzlich positiv denit ist, d. h. (iv) s (v, v) für alle v V und s (v, v) = nur für v =. ( s (v, v) > für v V \ {}) Das Paar (V, s) heiÿt euklidischer bzw. unitärer Vektorraum. Meist schreibt man V statt (V, s). Bemerkung. Es gilt s (v, v) (iii) = s (v, v) R auch für K = C... Beispiel. V = R n : s (v, w) = v t B C w = (a,..., a A = a b a nb n, b n v = (a,..., a n) t, w = (b,..., b n) t Bilinear. Symmetrisch. Positiv denit: s (v, v) = a a n 2. s (v, v) = a =,..., a n =. Dies ist das Standardskalarprodukt auf R n. Beispiel. V = C n : s (v, w) = v t w = a b a nb n s (w, v) = w t v = vt w = v t w = s (v, w). s (v, v) = a a a na n = a a n 2 s (v, v) = a =... = a n = a =... = a n = Bemerkung. Für (iv) muss > auf dem Körper deniert sein K = R (mit einem Trick auch K = C möglich). (i) besagt, dass s linear ist als Abbildung in der zweiten Variablen. Für K = C ist s nicht linear in der ersten Variablen. Die Rollen kann man vertauschen. Beide Konventionen kommen vor. Beispiel. V = {f : [, ] K : f stetig} Z s (f, g) = f, g = fg dt ist ein Skalarprodukt Positiv denit: f, f = R ff dt = R f 2 dt f, f = f =, da f stetig. Universität Leipzig 5

16 6. Euklidische und unitäre Vektorräume Beispiel., : R 2 R 2, Hingegen 2a b + a 2 b 2 ist nicht positiv denit. fi ««fl a b, = 2a a 2 b b + a 2 b 2 ist ein Skalarprodukt 2 Denition 6.2. Sei V ein K-Vektorraum. Eine Abbildung. : V R heiÿt Norm, falls für alle v, w V, λ K gilt: (i) λv = λ v. (ii) v + w v + w (Dreiecksungleichung). (iii) v und v = nur für v =. Eine Abbildung d : V V R heiÿt Metrik, falls (i) d (x, y) = d (y, x) (Symmetrie). (ii) d (x, z) d (x, y) + d (y, z) (Dreiecksungleichung). (iii) d (x, y) und d (x, y) = nur für x = y. Bemerkung. Skalarprodukt Norm Metrik v = v, v d (x, y) = x y Lemma 6.3. Sei V euklidischer bzw. unitärer Vektorraum. Dann ist v = v, v eine Norm auf V. Beweis. Wegen v, v ist v wohldeniert. Zu zeigen sind die drei denierenden Eigenschaften einer Norm: Zu (i): λv = p q λv, λv = λ λ v, v q = λ 2p v, v = λ v Zu (iii): p v, v, v = v, v = (iv) v =, da, positiv denit. Behauptung: Cauchy-Schwarzsche Ungleichung: v, w v w Beweis.. Fall: w =. Dann steht: 2. Fall: w w =. v λw, v λw = v, v λ v, w λ w, v + λλ w, w = v 2 λ v, w λ v, w + λ 2 w 2 Sei λ := v,w w 2. Dann folgt weiter: = v 2 Wir schreiben oft, statt s (, ). (nach den Eigenschaften (i) und (ii) des Skalarprodukts) = v, w v, w v, w v, w v, w v, w v, w + w 2 w 2 ( w 2 ) 2 w 2 Universität Leipzig 6

17 6. Euklidische und unitäre Vektorräume Multiplikation mit w 2 : v 2 w 2 v, w v, w v, w v, w + v, w v, w = v 2 w 2. v, w 2 Das ist äquivalent zu v, w 2 v 2 w 2. Daraus folgt die Behauptung. Zu (ii): Zu zeigen: p v + w, v + w p v, w + p w, w v + w, v + w v p v, v p w, w + w 2 = v 2 + v, w + w, v + w 2 v, w + v, w 2 v w Es gilt also: v, w + v, w 2 v, w 2 v w Denition 6.4. Sei V euklidischer bzw. unitärer Vektorraum. Zwei Vektoren v, w V heiÿen orthogonal, falls v, w = und wir schreiben v w. Allgemeiner (aber nur für K = R): Für x, y V \ {} ist cos α (x, y) = x, y x y, α (x, y) < π Bemerkung. Aus der Cauchy-Schwarzschen Ungleichung auf Seite 6 folgt: α (x, y) ist wohldeniert. Sei M V eine Teilmenge. Dann ist: M := {v V : v m für alle m M} Beispiel. V = R 2. fi ««fl a b, = a a 2 b b + a 2 b 2 = ist beispielsweise erfüllt, wenn b = a 2, b 2 = a. 2 Lemma 6.5. M ist ein Untervektorraum,, induziert ein Skalarprodukt auf M. Ist W V ein Untervektorraum eines endlich-dimensionalen Vektorraums V, so gilt 2 : V = W W Beweis. Seien v, w M, λ, µ K. Zu zeigen: λv + µw M. λv + µw, m = λ v, m + µ v, m = λ + µ = für alle m M. Induziertes Skalarprodukt ist automatisch. Denition 6.6. Ein Tupel (x,..., x r ) in einem euklidischen bzw. unitären Vektorraum heiÿt orthonormal (Orthonormalsystem), wenn x i = für alle i, x i x j für i j. Es heiÿt Orthonormalbasis, wenn es zusätzlich eine Basis von V ist. Lemma 6.7. Ein Orthonormalsystem ist linear unabhängig. Ist v V mit v v,..., v r (v i Orthonormalsystem), dann gilt: v = r v i, v v i i= 2 Beweis in 6. auf Seite 9. Universität Leipzig 7

18 6. Euklidische und unitäre Vektorräume Beweis. Sei v,..., v r ein Orthonormalsystem, λ,..., λ r K mit Betrachte: λ v λ rv r = = x, v i da x = DX E = λj v j, v i = X λ j v j, v i = λ i v i, v i = λ i Daraus folgt: λ i = für i =,..., r. Also sind die v,..., v r linear unabhängig. Sei x v,..., v r. Dann gibt es λ,..., λ r K mit x = λ v λ rv r. Es folgt v i, x = λ i. Beispiel. V = K n mit Standardskalarprodukt. Dann ist die Standardbasis B A, B A,..., B A eine Orthogonalbasis. Satz 6.8 (Orthonormalisierungsverfahren). Sei V ein euklidischer bzw. unitärer Vektorraum. v,..., v r seien linear unabhängig in V. Dann ist durch die Rekursionsgleichung ṽ = v v, w k+ = v k+ k i= ṽ i, v k+ ṽ i, ṽ k+ = w k+ w k+ ein Orthonormalsystem deniert mit v,..., v r = ṽ,..., ṽ r. Beweis. Induktion nach r: D E r = : v = v v, ṽ =. (v, da {v } linear unabhängig.) Sei nun r >. Induktionsannahme: ṽ,..., ṽ r wohldeniert, ein Orthogonalsystem und v,..., v r = ṽ,..., ṽ r Behauptung: w r ṽ j für j =,..., r. Es gilt: * + r X w, ṽ j = v r ṽ, v r ṽ i, ṽ j i= r X = v r, ṽ j ṽ, v r ṽ i, ṽ j i= = v r, ṽ j ṽ j, v r (denn ṽ,..., ṽ r ist ein Orthogonalsystem) = v r ist linear unabhängig von v,..., v r, d. h. v r / v,..., v r = ṽ,..., ṽ r. Dann muss aber w r sein. Dann ist ṽ r wohldeniert, hat Länge und ṽ,..., ṽ r ist ein Orthogonalsystem. Behauptung: v,..., v r = ṽ,..., ṽ r Zu zeigen: v,..., v r ṽ,..., ṽ r und ṽ,..., ṽ r v,..., v r. Beide Aussagen richtig nach Induktionsannahme für i =,..., r. ṽ r ṽ,..., ṽ r, ṽ r = v,..., v r, v r richtig nach Denition. v r = w r + P ṽ i, v r ṽ i = w r ṽ r + P ṽ i, v r ṽ i Korollar 6.9. Jeder endlich-dimensionale euklidische bzw. unitäre Vektorraum hat eine Orthogonalbasis. Beweis. Wende das Orthogonalisierungsverfahren auf eine Basis an. Universität Leipzig 8

19 6. Euklidische und unitäre Vektorräume Beispiel. R 2 mit Skalarprodukt e = `, e2 = ` ist eine Basis. D` a E a 2, b b2 = 2a b + a 2 b 2. Gesucht ist eine Orthogonalbasis. e, e = 2 +, e = 2, ẽ = e 2 w 2 = e 2 ẽ, e 2 ẽ = ` D 2 ẽ 2 = w 2 w 2 = e 2 Beispiel. Weitere Basis: f = e, f 2 = ` 2 ẽ =, ` E = 2 = «w 2 = f 2 = f 2 f 2, ẽ ẽ = ` D` E 2 2, = `! 2 2 = ` ` = f 2 = w 2 w 2 = ` Korollar 6.. Sei ein V endlich-dimensionaler euklidscher bzw. unitärer Vektorraum und W V ein Untervektorraum. Dann ist V = W W Beweis. Es gilt: W W = w W : w w für alle w W = {} Insbesondere gilt w w w, w =. Also gilt w =, da, positiv denit. Zu zeigen: W, W spannen ganz V auf. Sei w,..., w r Orthogonalbasis von W. Ergänze zu Orthogonalbasis von V. w r+,..., w n sind orthogonal zu w,..., w r, also auch orthogonal zu W = w,..., w r, also ist w r+,..., w n W. Also wird V durch Elemente von W und W aufgespannt. Denition 6.. Eine lineare Abbildung f : V W zwischen euklidischen bzw. unitären Vektorräumen heiÿt orthogonal bzw. unitär (oder in beiden Fällen isometrisch), falls x, y = f (x), f (y) Falls f zusätzlich bijektiv ist, so heiÿt f Isomorphismus. Die Gruppe der (isometrischen) Isomorphismen eines euklidischen bzw. unitären Vektorraums V wird als orthogonale Gruppe O (V ) bzw. unitäre Gruppe U (V ) bezeichnet. Für V = K n mit Standardskalarprodukt schreibt man O (n) bzw. U (n). Wir haben gerade gezeigt: Bemerkung (Korollar 6.9'). Sei V ein endlich-dimensionaler euklidischer bzw. unitärer Vektorraum. Dann ist V isomorph zu K n mit Standardskalarprodukt. Universität Leipzig 9

20 6. Euklidische und unitäre Vektorräume Beweis. v,..., v n ist eine Orthogonalbasis. Betrachte a f : K n B V,. A X a i v i a n f Ist linear und bijektiv. Zusätzlich ist f verträglich mit dem Skalarprodukt: * a a n C A,.. b n + C A = nx a i b i i= * a.. + * n + BB f. CC BB CC X nx AA, AA = a i v i, b j v j = a i b j v i, v j = a n b n i= j= i,j= nx = a i b i i= ( j j i = j Der Isomorphismus aus 6.9' identiziert auch O (V ) mit Lemma 6.2. Seien V, W euklidische bzw unitäre Vektorräume mit Orthonormalbasen v,..., v n von V und w,..., w n von W, f : V W isometrisch. Dann ist die darstellende Matrix bezüglich dieser Basen orthogonal bzw. unitär, d. h. die Spaltenvektoren bilden ein Orthonormalsystem bezüglich des Standardskalarproduktes auf K n. ( M t M = Id) Beispiel. Die Drehmatrix «cos α sin α sin α cos α ist eine orthogonale Matrix. Beweis. f : K n K n ist isometrische Abbildung (bezüglich des Standardskalarproduktes). f ist Multiplikation mit Matrix M. v i, v j = f (v i ), f (v j ) nach Voraussetzung 8 < i j = : i = j Die f (v i ) sind die Spalten der Matrix M, d. h. die Spalten bilden ein Orthonormalsystem. Lemma 6.3. Eigenschaften einer isometrischen Abbildung f : V W : ) f (v) W = v V. 2) v v in V f (v) f (v ) in W. 3) f : V V isometrischer Endomorphismus f injektiv. Falls dim V <, ist f sogar bijektiv. 4) λ Eigenwert eines isometrischen Endomorphismus λ = ) v, v 2 Eigenvektoren zu verschiedenen Eigenwerten λ, λ 2 v v 2. 3 Beweis. ) Da f isometrisch ist, gilt: f (v) = p f (v), f (v) = v, v = v 2) = v, v = f (v), f (v ), d. h. f (v) f (v ) 3) Sei v ker f. Dann ist v ) = f (v) = =. 4) v sei ein Eigenvektor zum Eigenwert λ. f (v) = λv f (v) = λv = λ v. Nach ) gilt f (v) = v. Aus v folgt v =, also ist λ =. Beispiel. Betrachte ` cos α sin α sin α cos α : R 2 R 2 mit Standardskalarprodukt: Drehungen erhalten Längen und Winkel. Bemerkung. M t M = Id für M quadratisch. M t = M, d. h. insbesondere existiert M. 3 Beweis bleibt noch schuldig. Die Aussage ist dennoch richtig! Universität Leipzig 2

21 6. Euklidische und unitäre Vektorräume 6.2 Hauptachsentransformation Denition 6.4. Sei V euklidischer bzw. unitärer Vektorraum. Ein Endomorphismus f : V V heiÿt selbstadjungiert, wenn gilt: f (v), v = v, f (v ) für alle v, v V Satz 6.5. Sei V endlich dimensional. Die darstellende Matrix eines selbstadjungierten Endomorphismus' bezüglich einer Orthonormalbasis ist symmetrisch bzw. hermitesch (d. h. A = Āt ). Beweis. Wahl der Orthonormalbasis identiziert V mit K n mit Standardskalarprodukt. f ist gegeben durch Multiplikation mit der darstellenden Matrix A: V f V =??y??y = K n A K n Es gilt:. a j a 2j ā ji = (ā i, ā 2i,..., ā ni ) = Ae i, e j = e i, Ae j = (,...,,,,..., ) B A = a ij C a nj. A Dies ist die Behauptung. Lemma 6.6. Sei V ein euklidischer bzw. unitärer Vektorraum, f ein selbstadjungierter Endomorphismus und W V sei f-stabil. Dann ist auch W f-stabil. Beweis. Es ist W = {v V : v w für alle w W }. Zu zeigen: f `W W Sei v W. Es gilt: f (v), w für v W = v, f (w) =, da v W f(w) W, da W f-stabil Dies gilt für alle w W, d. h. tatsächlich f (v) W Bemerkung. f V = W W (f W,f W ) V = W W Dies erinnert an die Beweise beim Diagonalisieren. Wie steht es mit Eigenvektoren? Lemma 6.7. a) Sei V unitär und f : V V selbstadjungiert. Dann sind die Eigenwerte reell. b) Sei V euklidisch und f : V V selbstadjungiert. Dann existiert ein Eigenwert. Beweis. Universität Leipzig 2

22 6. Euklidische und unitäre Vektorräume a) Sei v, f (v) = λv. Dann gilt: λ v 2 = λv, v = f (v), v = v, f (v) = v, λv = λ v 2 Da v =, muss auch v 2, also ist λ = λ, d. h. λ R. b) V ist euklidisch, o. B. d. A. ist V = R n mit Standardskalarprodukt. f ist Mutliplikation mit symmetrischer Matrix A. Fasse A als hermitesche Matrix auf, d. h. A : C n C n ist selbstadjungierter Endomorphismus für C n mit Standardskalarprodukt. χ f (T ) = χ A (T ) χ A hat eine Nullstelle in C. Da A hermitesch ist, folgt nach a), dass diese Nullstelle in R liegt. Also hat V einen Eigenwert bezüglich f. Lemma 6.8. Sei V euklidisch bzw. unitär und f : V V selbstadjungiert. Seien v, v 2 Eigenvektoren zu unterschiedlichen Eigenwerten. Dann ist v v 2. Beweis. Es gilt: λ v, v 2 = λ v, v 2 = f (v ), v 2 = v, f (v 2 ) = v, λ 2 v 2 = λ 2 v, v 2 Also: (λ λ 2 ) v, v 2 =. Da λ λ 2, muss v, v 2 = sein. Theorem 6.9 (Hauptachsentransformation/Spektralsatz). Sei V endlich-dimensionaler euklidischer bzw. unitärer Vektorraum, f : V V selbstadjungierter Endomorphismus. Dann hat V eine Orthonormalbasis aus Eigenvektoren. Beweis. Nach 6.7 existiert ein Eigenvektor v. Sei v = v v, d. h. v hat Länge. v V ist f-stabil, da v Eigenvektor ist. Nach 6.6 ist auch W = v f-stabil. Es gilt V = v W und insbesondere dim W = dim V. Vollständige Induktion nach dim V : Für dim V = ist nichts zu zeigen. f W : W W ist selbstadjungiert. Also hat W nach Induktionsannahme eine Orthonormalbasis v 2,..., v n aus Eigenvektoren. Dann ist v, v 2,..., v n eine Orthonormalbasis aus Eigenvektoren für V. Beispiel (Physik). Ein starrer Körper im Raum hat Bewegungsgleichungen: L = I ω mit L Drehimpuls, I Trägheitstensor, ω Winkelgeschwindigkeit I deniert eine selbstadjungierte Abbildung R 3 R 3. Nach 6.9 gibt es Orthogonalbasis des R 3 aus Eigenvektoren für I. Das sind stabile Drehachsen so genannte Hauptachsen. Universität Leipzig 22

23 7. Bilineare Abbildungen 7 Bilineare Abbildungen Ab diesem Abschnitt ist K wieder ein beliebiger Körper. Denition 7.. Seien V, W, U K-Vektorräume. Eine Abbildung s : V W U heiÿt bilinear, falls (i) s (v, ) : W U linear für alle v V. (ii) s (, w) : V U linear für alle w W. s heiÿt Paarung, falls U = K. s heiÿt Bilinearform, falls U = K und V = W, also s : V V K. Eine Paarung heiÿt nicht-ausgeartet, falls gilt: (iii) Ist v V mit s (v, w) = für alle w W v =. (iv) Ist w W mit s (v, w) = für alle v V w =. Eine Bilinearform heiÿt symmetrisch, wenn (v) s (v, v ) = s (v, v) für alle v, v V. Sie heiÿt denit, wenn s (v, v) für alle v V \ {}. Beispiel. K = R, s : V V R Skalarprodukt. s Bilinearform. K = C, s : V V C Skalarprodukt. s keine Bilinearform, sondern Sesquilinearform. Beispiel. Erinnerung: Sei V Vektorraum. V = Hom K (V, K) Raum der Linearformen., : V V K, (v, f) f (v) ist eine Paarung (kanonische Paarung). v fest: f fest: v, λ f + λ 2 f 2 = (λ f + λ 2 f 2 ) (v) = λ f (v) + λ 2 f 2 (v) = λ v, f + λ 2 v, f 2 = λ f (v ) + λ 2 f (v 2 ) µ v + µ 2 v 2, v = f (µ v + µ 2 v 2 ) = µ f (v ) + µ 2 f (v 2 ) = µ v, f + µ 2 v 2, f Bemerkung. denit nicht-ausgeartet: (iii) Zu v V \ {} gibt es ein w W mit s (v, w). Hier z. B. w = v. Beispiel. V = R 4. s (x, y) = x y + x 2 y 2 + x 3 y 3 x 4 y 4 ist nicht denit, denn: «Sei x =. Dann ist s (x, x) = + + =. Aber s ist nicht ausgeartet: Zu x = x x 2 x 3 x 4 «x «gibt es y = x 2 x 3 x 4. Dann gilt: x, y = x 2 + x x x 42 für x. Dies ist die Metrik der Relativitätstheorie. Lemma 7.2. Sei s : V W K eine Paarung. Dann sind s 2 : V W, v [s 2 (v) : W K, w s (v, w)] s : W V, w [s (w) : V K, v s (v, w)] lineare Abbildungen. s 2 ist genau dann injektiv, wenn (iii) gilt. s ist genau dann injektiv, wenn (iv) gilt. Im Fall V = W stimmen s, s 2 : V V genau dann überein, wenn s symmetrisch ist Universität Leipzig 23

24 7. Bilineare Abbildungen Beweis. s 2 ist linear: Zu zeigen: s 2 (λ v + λ 2 v 2 ) = λ s 2 (v ) + λ 2 s 2 (v 2 ), in W, λ, λ 2 K, v, v 2 V. Für w W s 2 (λ v + λ 2 v 2 ) (w) = s (λ v + λ 2 v 2, w) K (λ s 2 (v ) + λ 2 s 2 (v 2 )) (w) = λ s 2 (v ) (w) + λ 2 s 2 (v ) (w) Beides stimmt nach (i) überein. Genauso für s. = λ s (v, w) + λ 2 s 2 (v 2, w) K s 2 injektiv s 2 (v) in W für v in V. Für v in V gibt es w in W mit s 2 (v) (w) in K. Für v in V gibt es w in W mit s (v, w) in K. (iii). Ebenso: s injektiv (iv). Sei V = W. s : V V K. s = s 2 : V V Für alle v V ist s (v) = s 2 (v) in V. Für alle v V und alle w W ist s (v) (w) = s 2 (v) (w). Für alle v V und alle w W ist s (w, v) = s (v, w). Lemma 7.3. Seien V, W endlich-dimensionale Vektorräume und s : V W K eine Paarung. Dann sind äquivalent: (i) s ist nicht-ausgeartet. (ii) s 2 ist ein Isomorphismus. (iii) s ist ein Isomorphismus. Beweis. Es gilt (i) 7.2 = s, s 2 injektiv. Daher: dim V dim W = dim W V = dim V Alle Dimensionen sind also gleich. Nach Dimensionsformel sind s, s 2 surjektiv. Also gilt (i) (ii), (iii). Sei nun s : W V bijektiv. dim W = dim V = dim V = dim W. Noch zu zeigen: s 2 injektiv. s 2 : V W. Sei v ker s 2, d. h. s 2 (v) = in W s 2 (v) (w) = in K für alle w W. =s(v,w) Angenommen v. Dann gibt es v V mit v (v). Da s surjektiv ist, gibt es nun w W mit s (w) = v in V. Auswertung in v ergibt s (w) (v) = v (v) im Widerspruch zu v ker s 2! ker s 2 = {} =s(v,w) Korollar 7.4. Sei V endlich-dimensional, s : V V K Bilinearform. Dann sind äquivalent: (i) s ist nicht-ausgeartet. (ii) s ist injektiv. (iii) s 2 ist injektiv. (iv) s ist surjektiv. (v) s 2 ist surjektiv. Beweis. Wegen dim V = dim V ist Injektivität von s : V V äquivalent zur Bijektivität. Aussage folgt aus 7.3. Bemerkung. dim V = dim V Es gibt Isomorphismen V V. Diese sind nicht kanonisch, sondern hängen von Basiswahl ab. s : V V K symmetrisch, bilinear, nicht-ausgeartet Isomorphismus s = s 2 : V V kanonisch für (V, s). Aus Linearer Algebra I: Ergänze {v} zu einer Basis v, v 2,..., v n von V. v : V K, v, v i beliebig, i = 2,..., n. Universität Leipzig 24

25 7. Bilineare Abbildungen Beispiel. s : V V K n, (v, w) v t w Isomorphismus zwischen V und V : v v t Wir übersetzen in die Sprache der Matrizen. Lemma 7.5. Sei A M n m (K). Die Abbildung s : K n K m K, (v, w) v t Aw ist bilinear. Sie ist symmetrisch, wenn A = A t (A heiÿt dann symmetrisch). Beweis. Bilinearität von s folgt aus der Bilinearität des Matrixproduktes, wenn m = n gilt: `M, M MM. s symmetrisch v t Aw = w t Av für alle v, w K n (n = m). Es gilt für beliebige Matrizen: M t M t = `M M t Also: `vt Aw t = w t A t `v t t = w t A t v v t Aw s symmetrisch v t Aw = w t Av = w t A t v für alle v, w K n. A = A t. 2 Satz 7.6 (Darstellende Matrizen). Sei v = (v,..., v n ) eine Basis von V, w = (w,..., w n ) eine Basis von W und s : V W K bilinear. Dann gibt es eine (eindeutige) Matrix M v,w (s) M n m (K) mit... s (x, y) = (a,..., a m ) M v,w (s) b für x = a v + a 2 v a m v m, y = b w b n w n. b n Für V = W ist M v,v (s) symmetrisch genau dann, wenn s symmetrisch ist. Beweis. Man setzt M v,w (s) i,j = s (v i, w j ). Dann gilt s (x, y) X i a i v i, X j b j w j A = X a i b j s (v i, w j ) = X a i M v,w (s) i,j b j = a t M v,w (s) b i,j i,j s symmetrisch K n K n K, (a, b) a t M v,w (s) b symmetrisch 7.5 M v,w (s) symmetrisch. Satz 7.7 (Transformationsformel). Seien V, W, v, w, s wie in 7.6. Sei v,..., v m eine zweite Basis von V und w,..., w n eine zweite Basis von W mit Basiswechselmatrizen S = M v v (Id) und T = M w w (Id). Dann gilt: M v,w (s) = S t M v,w (s) T Beweis. Nach Denition der Basiswechselmatrix ist für x = a v a mv m a Mv v (Id) BB. AA a m der Koordinatenvektor von x bezüglich v. Koordinatenvektor von y bezüglich w ist:.. Mw w (Id) BB AA b n Dann folgt: s (x, y) = a t M v,w (s) b = `a t M v v (Id) t M v,w (s) M w w (Id) b Also: M v,w (s) = M v v (Id) t M v,w (s) M w w (Id). 2 klar. : Wähle w = e i, v = e j der Standardbasis des K n. Dann ist e i t A t e j = a ji. Universität Leipzig 25

26 7. Bilineare Abbildungen Bemerkung. Matrizen können also lineare Abbildungen oder Paarungen darstellen. Den Unterschied zeigt die Transformationsformel: linear: M = S MT bilinear: M = S t MT Physiker sagen: S MT ist ein (, )-Tensor und S t MT ist ein (2, )-Tensor. Denition 7.8. Seien (V, s), (V, s ) Vektorräume mit Bilinearform. Eine lineare Abbildung f : V V heiÿt orthogonal, falls s (v, w) = s (f (v), f (w)) für alle v, w V. Bemerkung (Satz 7.6'). Sei V endlich-dimensional, s : V V K bilinear. Dann gibt es einen orthogonalen Isomorphismus f : V V K n wobei K n mit der Bilinearform (a, b) a t Mb versehen wird. Frage: Können wir dieses M besonders einfach wählen? Ja, für K = R und s Skalarprodukt. Dann existiert eine Orthonormalbasis..5. Lemma 7.9. Sei M darstellende Matrix einer Paarung s : V W K bezüglich der Basen v,..., v m von V und w,..., w n von W. s ist nicht-ausgeartet genau dann, wenn n = m und M vollen Rang hat ( M invertierbar). Beweis. Wir wissen bereits: s nicht-ausgeartet dim V = dim W, d. h. n = m. Mit 7.6' genügt es, V = W = K n zu betrachten. s (x, y) = x t My Falls M nicht invertierbar Es gibt y K n mit My =, y. Dann folgt s (x, y) = x t My = x t K n = K, d. h. s ist ausgeartet. Falls M invertierbar: Sei x K n mit x t My = für alle y K n. Sei w i K n Lösung von Mw i = e i, e i der i-te Einheitsvektor, d. h. w i = M e i. = x t Mw i = x t MM e i = x t e i = x i für alle i =,..., n, also ist x =. Ebenso für das zweite Argument. Bemerkung. Dies gilt insbesondere für Bilinearformen s : V V K. Denition 7.. Sei s : V V K symmetrische Bilinearform. Dann heiÿt q : V K, x s (x, x) die zu s assoziierte quadratische Form. Bemerkung. Es gilt q (λx) = s (λx, λx) = λ 2 s (x, x) = λ 2 q (x), x V, λ K. Lemma 7.. Sei char K 2 (Charakteristik, d. h. 2 in K), s : V V K symmetrische Bilinearform, q die assoziierte quadratische Form. Dann ist s eindeutig durch q bestimmt. Beweis. Seien x, y V. Es gilt: q (x + y) q (x) q (y) = s (x + y, x + y) s (x, x) s (y, y) = s (x, x) + s (x, y) + s (y, x) + s (y, y) s (x, x) s (y, y) = 2s (x, y) da s symmetrisch, d. h. s (x, y) = (q (x + y) q (x) q (y)). 2 Theorem 7.2 (Existenz von Orthogonalbasen). Sei K Körper mit char K 2, s : V V K symmetrische Bilinearform und V endlich-dimensional. Dann gibt es eine Orthogonalbasis von V bezüglich s, d. h. b,..., b n V ist eine Basis mit s (b i, b j ) = für alle i j. Die darstellende Matrix von s bezüglich dieser Basis hat Diagonalgestalt. Bemerkung. s ist nicht-ausgeartet, wenn in der Diagonalmatrix des Theorems 7.2 auf der Diagonalen nur Elemente ungleich Null stehen. Universität Leipzig 26

27 7. Bilineare Abbildungen Beweis. Sei q die zu s assoziierte quadratische Form. Induktion nach dim V : dim V = : V ist der Nullvektorraum. Es ist nichts zu zeigen. Sei nun dim V >. Erster Fall. q (x) = für alle x V. Nach dem Lemma 7. gilt dann auch s (v, w) = für alle v, w V. Jede Basis ist Orthogonalbasis. Zweiter Fall. Es gibt x V mit q (x ). Sei W = {v V : s (x, v) = }. x / W, da s (x, x ) = q (x ). Also W V, dim W < dim V. s W : W W K ist symmetrische Bilinearform. Nach Induktionsvoraussetzung gibt es eine Orthogonalbasis x,..., x m von W. Behauptung: x, x,..., x m ist Orthogonalbasis von V. Beweis. orthogonal: s (x i, x j ), i j, i, j > orthogonal nach Wahl der Basis von W. Bei i = oder j = : s (x, x j ) =, da x j W. linear unabhängig: Sei = a x a mx m, a i K. Es gilt: mx = s (x, ) = s (x, a x a mx m) = a s (x, x ) + a i s (x, x i ) = a s (x, x ) i= nach =, da Wahl von x x i W Also: = a x a mx m, x,..., x m linear unabhängig a i = für i =,..., m. a,..., a m =, die Linearkombination ist trivial. x,..., x m bilden Erzeugendensystem: x V. Betrachte x = x s(x,x ) s(x,x ) x : s `x, x = s (x, x) s (x, x ) s (x, x ) s (x, x ) = da s bilinear und symmetrisch Also gilt: x W, x,..., x m erzeugen W, also gilt x = b x b mx m, b i K: x = s (x, x ) x + x = b x + b x b mx m s (x, x ) b Symmetrische Bilinearform: x t Ay = a x y + a 2 x 2 y a n x n y n (bezüglich Orthogonalbasis) wenn A Diagonalmatrix. Korollar 7.3. Sei V endlich-dimensional, s : V V K symmetrische Bilinearform, K algebraisch abgeschlossen, char K 2. Dann existiert eine Basis x,..., x n und n N mit { i j oder i = j > n s (x i, x j ) = i = j, i n Beweis. Sei b,..., b n die Basis aus Theorem 7.2, a i = s (x i, x i ). O. B. d. A. sei a für i n, a i = für i > n. Für i n : x i = ai b i, s (x i, x j ) = für i j. Für i > n : x i = b i, s (x, x ) = für i > n, s (x i, x i ) = s ai, ai b i = ai ai s (b i, b i ) = a i a i = Bemerkung. Dies gilt insbesondere für K = C. Die Aussage ist nicht wie in 6, dort ging es um Sesquilinearformen. Universität Leipzig 27

28 7. Bilineare Abbildungen Korollar 7.4 (Trägheitssatz von Sylvester). Sei s : V V R eine symmetrische Bilinearform, dim V <. Dann gibt es eindeutig bestimmte Zahlen n r und eine Orthogonalbasis b,..., b m von V, so dass die darstellende Matrix die Gestalt... r... n r... hat. n heiÿt Rang, r Index. Bemerkung. s ist nicht-ausgeartet, falls n = dim V. s ist Skalarprodukt ( positiv denit), falls n = r = dim V. Beweis. Sei x,..., x m die Basis aus Theorem 7.2, a i = s (x i, x i ). Drei Fälle: a i >, a i <, a i =. Wir sortieren die x i so, dass a i > für i =,..., r, a i < für i = r +,..., n, a i = für i = n +,..., m. Für i n: b i = x ai i. Für i > n: b i = x i. 8 >< i r Orthogonalbasis mit s (x i, x i ) = r < i n >: n < j Behauptung: n, r hängen nicht von der Wahl der Basis ab. Sei V + = b,..., b r, V = b r+,..., b n, V = b n+,..., b m. Sei c,..., c m eine weitere Basis mit darstellender Matrix in der vorgegebenen Form. Dann sind: V + 2 = c,..., c r, V 2 = c r +,..., c n, V 2 = c n +,..., c m V = V 2 s V + = {v V : s (v, w) = für alle w V }, dim V = dim V 2 n = n ist positiv denit. V + V 2 {z} V = {} dim V + + dim V 2 V m r r s(v,v)> =r s(v,v) m r Ebenso zeigt man r r, also r = r. Denition 7.5. Sei s : V W K eine nicht-ausgeartete Paarung und seien f : V V, g : W W Endomorphismen. Dann heiÿen f und g adjungiert, falls gilt 2.5. s (f (v), w) = s (v, g (w)). f heiÿt linksadjungiert zu g, g heiÿt rechtsadjungiert zu f. Ist V = W und f = g, so heiÿt f selbstadjungiert. Beispiel. Sei V euklidischer Vektorraum und f : V V selbstadjungiert im Sinne von 6 f selbstadjungiert im Sinne von 7.5. Beispiel. Sei s : V V K mit (α, V ) α (v) kanonische Paarung, V = Hom K (V, K). f : V V Endomorphismus dualer Endomorphismus f : V V, α α f. f ist der adjungierte Endomorphismus zu f: s (α, f (v)) = α (f (v)) = (α f) (v) = (f (α)) (v) = s (f (α), v) Universität Leipzig 28

29 7. Bilineare Abbildungen Bemerkung. Man schreibt f für den Linksadjungierten von f und g für den Rechtsadjungierten von g. Lemma 7.6. Seien V, W endlich-dimensional, s : V W K nicht-ausgeartete Paarung., f : V V Endomorphismus. Dann existiert ein eindeutig bestimmtes Rechtsadjungiertes g : W W. (Ebenso für f : W W.) Beweis. Wir betrachten den Isomorphismus s : W V, w s (, w). W? y W s = V? yf = V s g : W W deniert als s f s. Behauptung: g ist rechtsadjungiert zu f. Zu zeigen: s (f (v), w) = s (v, g (w)). s (v, g (w)) = s `v, s f s (w) s (w) : V K, x s (x, w) f (s (w)) : V K, x s (f (x), w) Was ist mit s von f s (w)? Sei w W das eindeutige Element mit s (w ) = f s (w). s (w ) : V K, x s (x, w ), d. h. s (x, w ) = s (f (x), w) für alle x V. Nach Denition: w = g (w), also gilt s (x, g (w)) = s (f (x), w). Behauptung: g ist eindeutig. Seien g, g beide rechtsadjungiert zu f: s (v, g (w)) = s (f (v), w) = s `v, g (w) s (v, (g g ) (w)) = für alle v V, w W. für alle v V, w W s ist nicht-ausgeartet, also: (g g ) (w) = für alle w W g g = g = g. Ist s : V V K Bilinearform, f : V V Endomorphismus neue Bilinearform oder s : V V K, (x, y) s (f (x), y) s : V V K, (x, y) s (x, f (y)) Beispiel. Sei V = K n und betrachte f : K n K n K, (x, y) x t y mit gegebener Matrix A. Dann: s (x, y) = x t (Ay). Lemma 7.7. Sei s symmetrische, nicht-ausgeartete Bilinerform, f : V V Endomorphismus, s wie eben. Dann ist s genau dann symmetrisch, wenn f selbstadjungiert ist. Beweis. Da s symmetrisch und selbstadjungiert ist, gilt: s (v, w) = s (f (v), w) = s (v, f (w)) = s (f (w), v) = s (w, v) 7. Tensorprodukte Wir studieren nun allgemeine bilineare Abbildungen s : V W U, (V, W, U K-Vektorräume). Wir wollen die Theorie der bilinearen Abbildungen auf die der linearen zurückführen. Universität Leipzig 29

30 7. Bilineare Abbildungen Beispiel. V mit Basis v,..., v n, W mit Basis w,..., w m. s ist eindeutig bestimmt durch die Vektoren s (v i, w j ) U: v V, v = P a i v i, w = P b j w j s (v, w) = P a i b j s (v i, w j ), a i, b j K. s Die s (v i, w j ) sind beliebige Elemente von U. Diese n m-vektoren in U denieren eine lineare Abbildung M n m (K) U. Standardbasis von M n m (K) sind die e ij (alles Nullen, nur Eintrag an (i, j) ist.). s : e ij s (v i, w j ) Ist A = `a ij, dann schreibe: s (A) = X a ij s (e ij ) = X a ij s (v i, w j ) i,j i,j Problem: Das hängt von der Wahl der Basen ab. Andere Basen denieren eine andere Abbildung s (explizite Formel). Ziel: Konstruktion eines Vektorraums V W ( = M n m (K)) und einer kanonischen Abbildung V W s U. Theorem 7.8. Seien V, W K-Vektorräume. Dann gibt es einen Vektorraum V W und eine bilineare Abbildung θ : V W V W mit der folgenden Eigenschaft: Jede bilineare Abbildung V W U für einen Vektorraum U faktorisiert eindeutig als V W θ V W s U mit einer linearen Abbildung s. Das Paar (V W, θ : V W V W ) ist eindeutig bestimmt bis auf eindeutigen Isomorphismus (verträglich mit θ). Beispiel. M n m (K) erfüllt die Bedingungen an V W : θ : V W M n m (K), (v i, w j ) e ij Bemerkung (Allgemeine Notation). θ (x, y) = x y Beweis (Eindeutigkeit). Seien (X, θ : V W X) und (Y, ϕ : V W Y ) zwei Paare, die die Bedingungen des Theorems erfüllen. (X, θ) ist ein Tensorprodukt, ϕ ist bilinear Es gibt eine lineare Abbildung ϕ : X Y mit ϕ θ = ϕ. (Y, ϕ) ist ein Tensorprodukt, θ ist bilinear Es gibt eine lineare Abbildung θ : Y X mit θ ϕ = θ. Behauptung: ϕ und θ sind zueinander invers, d. h. ϕ θ = Id Y, θ ϕ = Id X. V W θ X ϕ Y θ X ( ) θ ( ϕ θ) = θ ϕ = θ θ ϕ ϕ = Id X θ Betrachte das Tensorprodukt (X, θ) und die bilineare Abbildung V W K. Nach universeller Eigenschaft faktorisiert θ eindeutig als Id X θ. Nach ( ) hat auch θ ϕ die Eigenschaft. Wegen der Eindeutigkeit folgt Id X = θ ϕ. Ebenso für ϕ θ = Id Y. Beweis (Existenz). Behauptung: Es gibt (X, θ : V W X) mit der Eigenschaft des Theorems. Sei X der Vektorraum mit Basis alle Elemente von V W, bzw. für jedes Element (v, w) V W gibt es einen Basisvektor e (v,w) in X. Mengentheoretische Abbildung Φ : V W X mit (v, w) e (v,w). Ziel: θ (v + v 2, w) = θ (v, w) + θ (v 2, w) θ (v + v 2, w) θ (v, w) θ (v 2, w) = Sei K X der Untervektorraum, der erzeugt wird von allen Elementen der Form (i) Φ (λ v + λ 2 v 2, w) λ Φ (v, w) λ 2 Φ (v 2, w) für λ, λ 2 K, v, v 2 V, w W Universität Leipzig 3

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

1 Euklidische und unitäre Vektorräume

1 Euklidische und unitäre Vektorräume 1 Euklidische und unitäre Vektorräume In diesem Abschnitt betrachten wir reelle und komplexe Vektorräume mit Skalarprodukt. Dieses erlaubt uns die Länge eines Vektors zu definieren und (im Fall eines reellen

Mehr

9 Vektorräume mit Skalarprodukt

9 Vektorräume mit Skalarprodukt 9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden

Mehr

Musterlösungen zur Linearen Algebra II Übungsklausur

Musterlösungen zur Linearen Algebra II Übungsklausur Musterlösungen zur Linearen Algebra II Übungsklausur Aufgabe. Sei A R 3 3. Welche der folgenden Aussagen sind richtig? a Ist det(a =, dann ist A eine orthogonale Matrix. b Ist A eine orthogonale Matrix,

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

Lineare Algebra II 6. Übungsblatt

Lineare Algebra II 6. Übungsblatt Lineare Algebra II 6 Übungsblatt Fachbereich Mathematik SS 2011 Prof Dr Kollross 18/19 Mai 2011 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minimalpolynom) Bestimmen Sie das Minimalpolynom der

Mehr

Lineare Algebra II. Sommersemester Wolfgang Ebeling

Lineare Algebra II. Sommersemester Wolfgang Ebeling Lineare Algebra II Sommersemester 2009 Wolfgang Ebeling 1 c Wolfgang Ebeling Institut für Algebraische Geometrie Leibniz Universität Hannover Postfach 6009 30060 Hannover E-mail: ebeling@mathuni-hannoverde

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

Mathematische Erfrischungen III - Vektoren und Matrizen

Mathematische Erfrischungen III - Vektoren und Matrizen Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen

Mehr

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau 312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind

Mehr

Ferienkurs - Lineare Algebra. Hanna Schäfer. Merkinhalte

Ferienkurs - Lineare Algebra. Hanna Schäfer. Merkinhalte Technische Universität München, Fakultät für Physik Ferienkurs - ineare Algebra Hanna Schäfer 03. März 04 0. inearität. f : M N, x : y = f(x) Merkinhalte. f(x + λy) = f(x) + λf(y), x, y V, λ K 3. ineare

Mehr

Lineare Algebra I Zusammenfassung

Lineare Algebra I Zusammenfassung Prof. Dr. Urs Hartl WiSe 10/11 Lineare Algebra I Zusammenfassung 1 Vektorräume 1.1 Mengen und Abbildungen injektive, surjektive, bijektive Abbildungen 1.2 Gruppen 1.3 Körper 1.4 Vektorräume Definition

Mehr

Kapitel 11. Bilinearformen über beliebigen Bilinearformen

Kapitel 11. Bilinearformen über beliebigen Bilinearformen Kapitel 11 Bilinearformen über beliebigen Körpern Wir können in diesem Kapitel rasch vorgehen, weil die meisten Konzepte im Zusammenhang mit Sesquilinearformen bereits eingeführt wurden. In diesem Abschnitt

Mehr

MATHEMATIK II FÜR STUDIERENDE DER PHYSIK

MATHEMATIK II FÜR STUDIERENDE DER PHYSIK - 87 - MATHEMATIK II FÜR STUDIERENDE DER PHYSIK 21 Vektorräume mit Skalarprodukt Wir halten uns hier im Wesentlichen an das Buch G.Fischer : Lineare Algebra, 14. Auflage, Kap. 5. 21.1 Definition und Beispiele

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46.1 Motivation Symmetrische Matrizen (a ij = a ji für alle i, j) kommen in der Praxis besonders häufig vor. Gibt es für sie spezielle Aussagen über

Mehr

Mat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1

Mat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1 Aufgabe. Bestimmen Sie das Exponential expa) der Matrix ) 5 6 A = Mat, R). 4. Wir bestimmen das charakterische Polynom f A t) = t t = t )t + ). ). Eigenvektor zu EW ist v = ). Eigenvektor zu EW ist v =

Mehr

Stichwortliste zur Vorlesung. Lineare Algebra II. Gabriela Weitze-Schmithüsen. Saarbrücken, Sommersemester 2016

Stichwortliste zur Vorlesung. Lineare Algebra II. Gabriela Weitze-Schmithüsen. Saarbrücken, Sommersemester 2016 Stichwortliste zur Vorlesung Lineare Algebra II Gabriela Weitze-Schmithüsen Saarbrücken, Sommersemester 2016 Kapitel I Jordansche Normalform Ziel: Wir möchten Matrizen bis aus Ähnlichkeit klassifizieren.

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung

Mehr

Teil 2 LINEARE ALGEBRA II

Teil 2 LINEARE ALGEBRA II Teil 2 LINEARE ALGEBRA II 27 Kapitel VII Euklidische und unitäre Vektorräume Wir beschäftigen uns jetzt mit Vektorräumen, die noch eine zusätzliche Struktur tragen Der Winkel zwischen Vektoren im IR 2

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

Lineare Algebra II, Lösungshinweise Blatt 9

Lineare Algebra II, Lösungshinweise Blatt 9 Prof Dr Katrin Wendland Priv Doz Dr Katrin Leschke Christoph Tinkl SS 27 Lineare Algebra II, Lösungshinweise Blatt 9 Aufgabe (4 Punkte) Sei 2 3 4 A = 5 6 Berechnen Sie A k für alle k N und verifizieren

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

Kapitel VI. Euklidische Geometrie

Kapitel VI. Euklidische Geometrie Kapitel VI. Euklidische Geometrie 1 Abstände und Lote Wiederholung aus Kapitel IV. Wir versehen R n mit dem Standard Skalarprodukt x 1 y 1.,. := x 1 y 1 +... + x n y n x n y n Es gilt für u, v, w R n und

Mehr

2 Euklidische Vektorräume

2 Euklidische Vektorräume Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,

Mehr

Kapitel 18. Aufgaben. Verständnisfragen

Kapitel 18. Aufgaben. Verständnisfragen Kapitel 8 Aufgaben Verständnisfragen Aufgabe 8 Gegeben ist ein Eigenvektor v zum Eigenwert λ einer Matrix A (a) Ist v auch Eigenvektor von A? Zu welchem Eigenwert? (b) Wenn A zudem invertierbar ist, ist

Mehr

Jürgen Hausen Lineare Algebra I

Jürgen Hausen Lineare Algebra I Jürgen Hausen Lineare Algebra I 2. korrigierte Auflage Shaker Verlag Aachen 2009 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation

Mehr

Formale Grundlagen 2008W. Vorlesung im 2008S Institut für Algebra Johannes Kepler Universität Linz

Formale Grundlagen 2008W. Vorlesung im 2008S  Institut für Algebra Johannes Kepler Universität Linz Formale Grundlagen Institut für Algebra Johannes Kepler Universität Linz Vorlesung im 2008S http://www.algebra.uni-linz.ac.at/students/win/fg Inhalt Vektoren in der Ebene Zwei Punkten P, Q in der Ebene

Mehr

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w = 1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition

Mehr

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar. Lineare Algebra I Prof. Dr. M. Rost Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar http://www.math.uni-bielefeld.de/~rost/la1 Erinnerungen und Ergänzungen zur Vorlesung: Hinweis:

Mehr

Sesqui- und Bilinearformen

Sesqui- und Bilinearformen Kapitel 8 Sesqui- und Bilinearformen 8.1 Sesquilinearformen Definition 8.1.1 Sei V ein reeller oder komplexer K-Vektorraum (also K = R oder C). Eine Abbildung f : V V K heißt eine Sesquilinearform wenn

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof. Dr. H. Brenner Osnabrück WS 2015/2016 Lineare Algebra und analytische Geometrie I Vorlesung 25 J ai décidé d être heureux parce que c est bon pour la santé Voltaire Trigonalisierbare Abbildungen

Mehr

Lineare Algebra II. Prof. Dr. Karl-H. Neeb. Sommersemester 2003 Version 23. Februar 2004 (10:33)

Lineare Algebra II. Prof. Dr. Karl-H. Neeb. Sommersemester 2003 Version 23. Februar 2004 (10:33) Lineare Algebra II Prof. Dr. Karl-H. Neeb Sommersemester 3 Version 3. Februar 4 (:33) Inhaltsverzeichnis 7 Eigenvektoren und Eigenwerte 63 7. Eigenvektoren und Eigenwerte..............................

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

Skript Lineare Algebra II Mitschrift der Vorlesung Lineare Algebra II von Prof. Dr. Arthur Bartels

Skript Lineare Algebra II Mitschrift der Vorlesung Lineare Algebra II von Prof. Dr. Arthur Bartels aktuellste Version hier Skript Lineare Algebra II Mitschrift der Vorlesung Lineare Algebra II von Prof. Dr. Arthur Bartels Jannes Bantje 19. Juli 2013 Erstellt mit L A TEX Inhaltsverzeichnis 1. Isometrien

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Übungen zur Linearen Algebra 1

Übungen zur Linearen Algebra 1 Übungen zur Linearen Algebra 1 Wintersemester 2014/2015 Universität Heidelberg - IWR Prof. Dr. Guido Kanschat Dr. Dörte Beigel Philipp Siehr Blatt 10 Abgabetermin: Freitag, 16.01.2015, 11 Uhr Auf diesem

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? 1. Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? A. Wenn n = 3 ist, sind mindestens zwei der drei Euler-Winkel einer Drehung kleiner oder gleich π. B. Wenn n = 2

Mehr

7 Vektorräume und Körperweiterungen

7 Vektorräume und Körperweiterungen $Id: vektor.tex,v 1.3 2009/05/25 15:03:47 hk Exp $ 7 Vektorräume und Körperweiterungen Wir sind gerade bei der Besprechung derjenigen Grundeigenschaften des Tensorprodukts, die mit vergleichsweise wenig

Mehr

Lösungen Serie 6 (Vektorräume, Skalarprodukt)

Lösungen Serie 6 (Vektorräume, Skalarprodukt) Name: Seite: 1 Fachhochschule Nordwestschweiz (FHNW) Hochschule für Technik Lösungen Serie 6 (Vektorräume, Skalarprodukt) Dozent: R. Burkhardt Büro: 4.613 Klasse: 1. Studienjahr Semester: 1 Datum: HS 28/9

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume 7.1 Skalarprodukte Definition 7.1.1 Es seien V und W Vektorräume über einem Körper K.Eine Abbildung s : V W K heißt Bilinearform, wenn gilt BF1 s(v 1 + v 2,w)

Mehr

45 Eigenwerte und Eigenvektoren

45 Eigenwerte und Eigenvektoren 45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.

Mehr

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger Stefan Lell 2. Juli 2 Aufgabe. Sei t Q und A t = t 4t + 2 2t + 2 t t 2t 2t Mat 3Q a Bestimmen Sie die Eigenwerte von A t in Abhängigkeit

Mehr

Outline. 1 Vektoren im Raum. 2 Komponenten und Koordinaten. 3 Skalarprodukt. 4 Vektorprodukt. 5 Analytische Geometrie. 6 Lineare Räume, Gruppentheorie

Outline. 1 Vektoren im Raum. 2 Komponenten und Koordinaten. 3 Skalarprodukt. 4 Vektorprodukt. 5 Analytische Geometrie. 6 Lineare Räume, Gruppentheorie Outline 1 Vektoren im Raum 2 Komponenten und Koordinaten 3 Skalarprodukt 4 Vektorprodukt 5 Analytische Geometrie 6 Lineare Räume, Gruppentheorie Roman Wienands (Universität zu Köln) Mathematik II für Studierende

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Gegeben sei eine Menge V sowie die Verknüpfung der Addition und die skalare Multiplikation der Elemente von V mit reellen Zahlen.

Gegeben sei eine Menge V sowie die Verknüpfung der Addition und die skalare Multiplikation der Elemente von V mit reellen Zahlen. 1. Der Vektorraumbegriff...1 2. Unterräume...2. Lineare Abhängigkeit/ Unabhängigkeit... 4. Erzeugendensystem... 5. Dimension...4 6. Austauschlemma...5 7. Linearität von Abbildungen...6 8. Kern und Bild

Mehr

Kapitel III. Lineare Abbildungen

Kapitel III. Lineare Abbildungen Kapitel III. Lineare Abbildungen Beispiele: 1 Lineare Abbildungen a) Seien c 1,..., c n K vorgegeben. Betrachte die Funktion F (x 1,..., x n ) = c 1 x 1 + c 2 x 2 +... + c n x n in den Variablen x 1,...,

Mehr

Diagonalisieren. Nikolai Nowaczyk Lars Wallenborn

Diagonalisieren. Nikolai Nowaczyk  Lars Wallenborn Diagonalisieren Nikolai Nowaczyk http://mathniknode/ Lars Wallenborn http://wwwwallenbornnet/ 16-18 März 01 Inhaltsverzeichnis 1 Matrizen 1 11 Einschub: Invertierbarkeit

Mehr

x,y A = t xay v i,v j A = e i,e j t PAP

x,y A = t xay v i,v j A = e i,e j t PAP 75 Lineare Algebra II SS 2005 Teil 6 Bilinearformen 6A Kongruenz quadratischer Matrizen Sei K ein Körper, sei A M(n n, K) eine quadratische Matrix Wie wir zu Beginn von Teil 3 gesehen haben, liefert A

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

Musterlösung Klausur zur Linearen Algebra II

Musterlösung Klausur zur Linearen Algebra II Musterlösung Klausur zur Linearen Algebra II Samstag 8. Juli 6 -Uhr. a) Sei f : V W k-linear. Denieren Sie V und f : W V. b) Die Gruppe G operiere auf der Menge M. Denieren Sie die Bahn und die Isotropiegruppe

Mehr

Erweiterte Koordinaten

Erweiterte Koordinaten Erweiterte Koordinaten Sei K n ein n dimensionaler affiner Raum Die erweiterten Koordinaten des Punktes x x n K n sind x x n Kn+ (Das ist für alle K sinnvoll, weil in jedem Körper K wohldefiniert ist In

Mehr

Konvergenz im quadratischen Mittel - Hilberträume

Konvergenz im quadratischen Mittel - Hilberträume CONTENTS CONTENTS Konvergenz im quadratischen Mittel - Hilberträume Contents 1 Ziel 2 1.1 Satz........................................ 2 2 Endlich dimensionale Vektorräume 2 2.1 Defintion: Eigenschaften

Mehr

Übungsaufgaben zur Linearen Algebra II. 1.) Lösen Sie das folgende lineare Gleichungssystem mit der Cramerschen Regel.

Übungsaufgaben zur Linearen Algebra II. 1.) Lösen Sie das folgende lineare Gleichungssystem mit der Cramerschen Regel. Blatt 1 21.4.97 1.) Lösen Sie das folgende lineare Gleichungssystem mit der Cramerschen Regel. 3x 1 x 2 + 5x 3 = 1 x 1 + 2x 2 + x 3 = 1 2x 1 + 4x 2 + 3x 3 = 1 2.) Zeigen Sie: det 1 1 0 0.......... 0 1

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D. Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion

Mehr

Fachhochschule Nordwestschweiz (FHNW) Hochschule Technik Lösungen Serie 10 (Lineare Abbildungen)

Fachhochschule Nordwestschweiz (FHNW) Hochschule Technik Lösungen Serie 10 (Lineare Abbildungen) Fachhochschule Nordwestschweiz (FHNW) Hochschule Technik Lösungen Serie (Lineare Abbildungen) Dozent/in: R. Burkhardt Büro:.6 Klasse: Semester: Datum: HS 8/9. Aufgabe Zeige, dass die folgenden Abbildungen

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 206 Lineare Algebra und analytische Geometrie II Vorlesung 33 Das Kreuzprodukt Eine Besonderheit im R 3 ist das sogenannte Kreuzprodukt, das zu zwei gegebenen Vektoren

Mehr

Klausur zur Höheren Mathematik IV

Klausur zur Höheren Mathematik IV Düll Höhere Mathematik IV 8. 1. 1 Klausur zur Höheren Mathematik IV für Fachrichtung: kyb Bitte beachten Sie die folgenden Hinweise: Bearbeitungszeit: 1 Minuten Erlaubte Hilfsmittel: 1 eigenhändig beschriebene

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Linearkombinationen, Basen, Lineare Abbildungen 2.1 Lineare Unabhängigkeit Sind die folgenden Vektoren linear unabhängig? (a) 1, 2, 3 im Q Vektorraum R (b)

Mehr

Kap 5: Rang, Koordinatentransformationen

Kap 5: Rang, Koordinatentransformationen Kap 5: Rang, Koordinatentransformationen Sei F : V W eine lineare Abbildung. Dann ist der Rang von F erklärt durch: rang F =dim ImF. Stets gilt rang F dimv, und ist dimv

Mehr

4 Affine Koordinatensysteme

4 Affine Koordinatensysteme 4 Affine Koordinatensysteme Sei X φ ein affiner Raum und seien p,, p r X Definition: Nach ( c ist der Durchschnitt aller affinen Unterräume Z X, welche die Menge {p,,p r } umfassen, selbst ein affiner

Mehr

Lineare Abbildungen. i=0 c ix i n. K n K m

Lineare Abbildungen. i=0 c ix i n. K n K m Kapitel 4 Lineare Abbildungen In diesem Abschnitt lernen Sie erstmals eine Klasse von strukturerhaltenden Abbildungen kennen. Diese Konzept ist von zentraler Bedeutung in der Algebra. Grob gesagt geht

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG KLAUSUR ZUR LINEAREN ALGEBRA I Wiederholungsprüfung MUSTERLÖSUNG. April 2008 Name: Studiengang: Aufgabe 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter

Mehr

Seminar Einführung in die Kunst mathematischer Ungleichungen

Seminar Einführung in die Kunst mathematischer Ungleichungen Seminar Einführung in die Kunst mathematischer Ungleichungen Geometrie und die Summe von Quadraten Clara Brünn 25. April 2016 Inhaltsverzeichnis 1 Einleitung 2 1.1 Geometrie allgemein.................................

Mehr

00. Einiges zum Vektorraum R n

00. Einiges zum Vektorraum R n 00. Einiges zum Vektorraum R n In diesem einleitenden Kapitel werden die in der LV Einführung in die mathematischen Methoden erwähnten Konzepte über Vektoren (im R 2 und R 3 ) im Rahmen des n-dimensionalen

Mehr

x y f : R 2 R 3, Es gilt: Bild f = y : wobei x,y R Kern f = 0 (wird auf der nächsten Folie besprochen)

x y f : R 2 R 3, Es gilt: Bild f = y : wobei x,y R Kern f = 0 (wird auf der nächsten Folie besprochen) Def Wiederholung Sei f : V U eine lineare Abbildung Das Bild von f ist die folgende Teilmenge von U: Bild f = {u U so dass es gibt ein Element v V mit f (v) = u} (Andere Bezeichnung: f (V) wird in Analysis-Vorlesung

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 12 (SS 2011) Abgabetermin: Donnerstag, 7. Juli.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 12 (SS 2011) Abgabetermin: Donnerstag, 7. Juli. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 12 (SS 2011) Abgabetermin: Donnerstag, 7. Juli http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Hier

Mehr

1.5 Duales Gitter und Diskriminantengruppe

1.5 Duales Gitter und Diskriminantengruppe Gitter und Codes c Rudolf Scharlau 24. April 2009 27 1.5 Duales Gitter und Diskriminantengruppe Dieser Abschnitt ist im wesentlichen algebraischer Natur: Es spielt keine Rolle, dass unsere Gitter in einem

Mehr

Lineare Abbildungen und Darstellungsmatrizen

Lineare Abbildungen und Darstellungsmatrizen KAPITEL 4 Lineare Abbildungen und Darstellungsmatrizen 1. Lineare Abbildungen Definition 4.1 (Lineare Abbildungen). Seien V und W zwei Vektorräume über den selben Körper K. Eine Abbildung f : V W heißt

Mehr

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow LINEARE ALGERA Ferienkurs Hanna Schäfer Philipp Gadow INHALT Eigenwerte und Eigenvektoren. asiswechsel.2 Eigenwertgleichung 2.3 Diagonalisierbarkeit 5.4 Trigonalisierung 8.5 Zusatzmaterial 8 Aufgaben 9

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

1 Mengen und Abbildungen

1 Mengen und Abbildungen 1 MENGEN UND ABBILDUNGEN 1 1 Mengen und Abbildungen Wir starten mit einigen einführenden Definitionen und Ergebnissen aus der Theorie der Mengen und Abbildungen, die nicht nur Grundlage der Linearen Algebra

Mehr

Lineare Algebra II. Prof. Dr. Uwe Jannsen Sommersemester Transformation auf Dreiecksgestalt

Lineare Algebra II. Prof. Dr. Uwe Jannsen Sommersemester Transformation auf Dreiecksgestalt Lineare Algebra II Prof. Dr. Uwe Jannsen Sommersemester 2006 1 Transformation auf Dreiecksgestalt Sei K ein Körper. Definition 1.1 Zwei Matrizen A und A M n (K) heißen ähnlich (oder konjugiert), wenn es

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA I 22. Februar 2008

KLAUSUR ZUR LINEAREN ALGEBRA I 22. Februar 2008 KLAUSUR ZUR LINEAREN ALGEBRA I. Februar 008 MUSTERLÖSUNG Diese Klausur wurde je nach Sitzreihe in zwei verschiedenen Versionen geschrieben. Die andere Version unterscheidet sich von der vorliegenden jedoch

Mehr

2 Die Darstellung linearer Abbildungen durch Matrizen

2 Die Darstellung linearer Abbildungen durch Matrizen 2 Die Darstellung linearer Abbildungen durch Matrizen V und V seien Vektorräume über einem Körper K. Hom K (V, V ) bezeichnet die Menge der K linearen Abbildungen von V nach V. Wir machen Hom K (V, V )

Mehr

Analysis II. Vorlesung 48. Die Hesse-Form

Analysis II. Vorlesung 48. Die Hesse-Form Prof. Dr. H. Brenner Osnabrück SS 2014 Analysis II Vorlesung 48 Die Hesse-Form Wir sind natürlich auch an hinreichenden Kriterien für das Vorliegen von lokalen Extrema interessiert. Wie schon im eindimensionalen

Mehr

Skalarprodukte (Teschl/Teschl Kap. 13)

Skalarprodukte (Teschl/Teschl Kap. 13) Skalarprodukte (Teschl/Teschl Kap. ) Sei V Vektorraum über R. Ein Skalarprodukt auf V ist eine Abbildung V V R, (x, y) x, y mit den Eigenschaften () x, y = y, x (symmetrisch), () ax, y = a x, y und x +

Mehr

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls

Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls Kriterien für Invertierbarkeit einer Matrix Eine lineare Abbildung ist bijektiv, d.h. ihre Matrix ist invertierbar, falls und nur falls (i) für jede Basis, die Bildvektoren auch eine Basis, bilden; (intuitiv

Mehr

entspricht der Länge des Vektorpfeils. Im R 2 : x =

entspricht der Länge des Vektorpfeils. Im R 2 : x = Norm (oder Betrag) eines Vektors im R n entspricht der Länge des Vektorpfeils. ( ) Im R : x = x = x + x nach Pythagoras. Allgemein im R n : x x = x + x +... + x n. Beispiele ( ) =, ( 4 ) = 5, =, 4 = 0.

Mehr

Lineare Algebra. Axiome der Linearen Algebra

Lineare Algebra. Axiome der Linearen Algebra Lineare Algebra Simon Fuhrmann Christian M. Meyer Axiome der Linearen Algebra Im Folgenden sei V ein beliebiger K-Vektorraum und P eine Punktmenge. V und P bilden einen affinen Raum. Seien außerdem U 1

Mehr

Lösungsvorschlag zu den Hausaufgaben der 8. Übung

Lösungsvorschlag zu den Hausaufgaben der 8. Übung FAKULTÄT FÜR MATHEMATIK Prof Dr Patrizio Ne Frank Osterbrink Johannes Lankeit 9503 Lösungsvorschlag zu den Hausaufgaben der 8 Übung Hausaufgabe : Beweise den Satz über die Parallelogrammgleichung Sei H

Mehr

2.2 Kern und Bild; Basiswechsel

2.2 Kern und Bild; Basiswechsel 22 Kern und Bild; Basiswechsel 22 Kern und Bild; Basiswechsel 35 Jede lineare Abbildung definiert charakteristische Unterräume, sowohl im Ausgangsraum als auch im Bildraum 22 Satz Sei L: V W eine lineare

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

Höhere Mathematik II. 7 Lineare Algebra II. für naturwissenschaftliche Studiengänge. 7.1 Wiederholung einiger Begriffe

Höhere Mathematik II. 7 Lineare Algebra II. für naturwissenschaftliche Studiengänge. 7.1 Wiederholung einiger Begriffe Dr. Mario Helm Institut für Numerische Mathematik und Optimierung Fakultät für Mathematik und Informatik Höhere Mathematik II für naturwissenschaftliche Studiengänge Sommersemester 2013 7 Lineare Algebra

Mehr

MC-Serie 11: Eigenwerte

MC-Serie 11: Eigenwerte D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung

Mehr

Lineare Algebra II und Geometrie

Lineare Algebra II und Geometrie Lineare Algebra II und Geometrie LVA 405.120 C. Fuchs Rumpfskriptum zur Vorlesung 26.06.2014 Inhaltsübersicht Ziel des zweiten Teils der Linearen Algebra ist es, Vektorräume zu untersuchen, welche als

Mehr

Lineare Algebra II 5. Übungsblatt

Lineare Algebra II 5. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross / Mai Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Algebraisch abgeschlossener Körper) Ein Körper heißt algebraisch abgeschlossen,

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof Dr H Brenner Osnabrück WS 205/206 Lineare Algebra und analytische Geometrie I Vorlesung 9 Basiswechsel Wir wissen bereits, dass in einem endlichdimensionalen Vektorraum je zwei Basen die gleiche Länge

Mehr

Lineare Algebra und analytische Geometrie

Lineare Algebra und analytische Geometrie Max Koecher Lineare Algebra und analytische Geometrie Mit 35 Abbildungen Springer-Verlag Berlin Heidelberg New York Tokyo 1983 Inhaltsverzeichnis Teil A. Lineare Algebra I Kapitel 1. Vektorräume 1 1. Der

Mehr

Mathematik für Chemische Technologie 2

Mathematik für Chemische Technologie 2 Mathematik für Chemische Technologie 2 Themenüberblick: Funktionen mehrerer unabhängigen Veränderlichen Vektoralgebra Lineare Gleichungssysteme und Determinanten Fehlerrechnung Schwerpunkt des Sommersemesters

Mehr

Lineare Algebra I (WS 13/14)

Lineare Algebra I (WS 13/14) Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 29.11.2013 Alexander Lytchak 1 / 13 Wiederholung Der Rang einer linearen Abbildung ist gleich dem Spaltenrang der darstellenden

Mehr

2.9 Skalarprodukte und euklidische Vektorräume

2.9 Skalarprodukte und euklidische Vektorräume Lineare Algebra 25-2 c Rudolf Scharlau 7 2.9 Skalarprodukte und euklidische Vektorräume Viele der in der Mathematik auftauchenden reellen Vektorräume tragen eine zusätzliche Struktur, nämlich ein sogenanntes

Mehr