7.2 Die adjungierte Abbildung
|
|
- Cornelius Kranz
- vor 6 Jahren
- Abrufe
Transkript
1 7.2 Die adjungierte Abbildung Definition Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.) In inneren Produkträumen kann man Linearformen leicht angeben: Die Abbildungen v (v w) für ein fest gewähltes w sind Linearformen. Im endlichdimensionalen Fall gilt sogar noch mehr: Satz Sei V ein endlichdimensionaler Euklidischer oder unitärer K-Vektorraum. Ist f : V K eine Linearform, dann gibt es genau ein w V so, dass f(v) = (v w) für alle v V gilt. Beweis Wir können w konkret angeben. Dazu sei (b 1,..., b n ) eine Orthonormalbasis von V. Wir setzen w := n i=1 f(b i)b i. Dann gilt (b j w) = i (b j f(b i )b i ) = f(b j ), also (v w) = f(v). Wenn es ein weiteres w gäbe mit (v w) = (v w ) für alle v V, so wäre (v w w ) = 0 für alle v, was aber nur für w w = 0 geht (wegen (IP4)). Definition 7.2. Sei T ein linearer Operator auf einem Euklidischen oder unitären Vektorraum V. Wenn es einen linearen Operator T gibt mit (T(v) w) = (v T (w)) für alle v, w V, so nennen wir T den zu T adjungierten Operator. Bemerkung Es gibt höchstens einen adjungierten Operator, denn angenommen (v T (w)) = (v S(w)) gilt für alle v, w V, dann (v (T S)(w)) = 0 für alle v, w V. Das geht aber nur, wenn (T S)(w) = 0 für alle w, also T = S gilt. Im Fall endlichdimensionaler Vektorräume können wir mehr aussagen: Satz Sei V ein endlichdimensionaler Euklidischer ider unitärer Vektorraum. Dann gibt es zu T Hom(V, V ) genau einen adjungierten Operator T. Beweis Die Abbildung v (T(v) w) ist für jedes feste w linear. Also gibt es ein w mit (T(v) w) = (v w ) für alle v. Wir definieren T nun durch T (w) := w. Man rechnet nach (Vorlesung), dass T linear ist. 109
2 Der folgende Satz beantwortet die naheliegende Frage, wie denn die (eine) Darstellungsmatrix von T aussieht. Satz Wenn B eine Orthonormalbasis eines endlich-dimensionalen inneren Produktraums V ist, so gilt ([T] B B ) = [T ] B B. Beweis Vorlesung. Beachten Sie, dass auf der linken Seite durch den Operator eine Matrix komplex-konjugiert und transponiert wird, auf der rechten Seite bedeutet den Übergang zur adjungierten Abbildung. Beachten Sie bitte, dass dieser Satz nicht richtig ist, wenn Sie T bezüglich beliebiger Basen darstellen! Die Zuordnung T T hat einige interessante Eigenschaften: Satz Seien T und U lineare Operatoren auf einem endlich-dimensionalen inneren Produktraum. Dann gilt: (a.) (T + U) = T + U. (b.) (Tγ) = T γ für alle γ R oder C. (c.) (TU) = U T. (d.) (T ) = T. Beweis Man führt die Aussagen auf die entsprechenden Aussagen für die Darstellungsmatrizen bzgl. einer Orthonormalbasis zurück! Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )). (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren U 1 und U 2 zerlegen, die die Eigenschaft U 1 = U 1 und U 2 = U 2 haben. Solche Operatoren nennen wir hermit sch: Definition Ein linearer Operator T heißt hermit sch oder selbstadjungiert, wenn T = T gilt. 110
3 Bemerkung Ist T ein selbstadjungierter Operator, so ist eine Darstellungsmatrix bezüglich einer Orthonormalbasis hermit sch. Ist umgekehrt die Darstellungsmatrix eines Operators hermit sch bezüglich einer Orthonormalbasis, so ist dieser Operator selbstadjungiert. Die Darstellungsmatrix eines reellen selbstadjungierten Operators bezüglich einer Orthonormalbasis ist symmetrisch. Das Hauptergebnis in diesem Kapitel wird sein, dass selbstadjungierte Operatoren (sowohl reell als auch komplex) stets diagonalisierbar sind. Dazu benötigen wir noch einige Ergebnisse über unitäre Operatoren. Das sind diejenigen Vektorraumisomorphismen, die das innere Produkt respektieren. 7. Unitäre Operatoren Definition 7..1 Seien V und W Euklidische oder unitäre Vektorräume. Eine bijektive lineare Abbildung T : V W heißt eine Isometrie, wenn (T(v) T(w)) = (v w) für alle v, w V gilt. Wir nennen die beiden Räume in dem Fall isomorph. Beachten Sie, dass nicht jede bijektive lineare Abbildung eine Isometrie ist! Wenn wir zwei innere Produkträume isomorph nennen, dann meinen wir damit, dass es eine Isometrie zwischen ihnen gibt. Ist T eine Isometrie zwischen zwei inneren Produkträumen, so ist auch T 1 eine solche. Wir wissen, dass es bis auf Isomorphie genau einen K-Vektorraum der Dimension n gibt. Dieser Beweis kann nicht einfach auf innere Produkträume übertragen werden, weil eine Isometrie auch das innere Produkt respektieren muss. Es ist zunächst auch denkbar, dass ein n-dimensionaler Vektorraum verschiedene innere Produkte zulässt. Man kann aber zeigen, dass die Dimension eindeutig den Isometrietyp bestimmt: Satz 7..2 V und W seien innere Produkträume, dim V = dim W <. Ferner sei T : V W eine lineare Abbildung. Dann sind die folgenden Aussagen äquivalent: (i) (T(v) T(w)) = (v w) für alle v, w V. (ii) T ist eine Isometrie. (iii) T bildet eine gegebene Orthonormalbasis von V auf eine Orthonormalbasis von W ab. 111
4 (iv) T bildet jede Orthonormalbasis von V auf eine Orthonormalbasis von W ab. Beweis (i) (ii) Das ist gerade die Definition von Isometrien, zusammen mit der Beobachtung, dass aus (i) Kern(T) = {0} folgt (wenn T(v) = 0, so gilt (T(v) T(v)) = (v v) = 0, also v = 0 wegen (IP4)). (iv) (iii) Banal, denn wenn jede Orthonormalbasis auf eine Orthonormalbasis abgebildet wird, dann natürlich auch eine! (i) (iii), (i) (iv) Ist B = (b 1,..., b n ) eine Orthonormalbasis, so muss (T(b 1 ),..., T(b n )) ebenfalls eine Orthonormalbasis sein, weil T innere Produkte respektiert. (iii) (i) Sei B = (b 1,..., b n ) eine Orthonormalbasis von V und C = (c 1,... c n ) sei das Bild von B unter T, d.h. c i = T(b i ). C sei auch eine Orthonormalbasis von W. Es sei v = n i=1 b iβ i, w = n i=1 b iγ i. Dann ist (T(v) T(w)) = ( n i=1 c iβ i n i=1 c iγ i ) = n i=1 β iγ i = (v w). Korollar 7.. Zwei endlichdimensionale innere Produkträume sind genau dann isomorph, wenn sie dieselbe Dimension haben. Definition 7..4 Eine Isometrie T auf einem inneren Produktraum V heißt unitär (d.h. T ist eine Isometrie V V ). Eine Matrix heißt unitär, wenn U = U 1 ist. Satz 7..5 Die unitären Operatoren bilden mit der Verknüpfung eine Gruppe. Satz 7..6 Ein Operator U auf V ist genau dann unitär, wenn es ein U gibt mit UU = U U = id V (beachten Sie, dass U immer existiert und sogar eindeutig ist, wenn V endlichdimensional ist, siehe Satz 7.2.5). Beweis Ist U unitär, so gibt es U 1 und (U(v) w) = (U(v) UU 1 (w)) = (v U 1 (w)), weil U das innere Produkt respektiert. Das zeigt U 1 = U. Wir nehmen nun umgekehrt an, dass U existiert und UU = U U = id V Dann ist also U = U 1 und gilt. (U(v) U(w)) = (v U U(w)) = (v w), also respektiert U das innere Produkt, ist also ein unitärer Operator. Für Matrizen erhalten wir folgendes Korollar: 112
5 Korollar 7..7 Sei B eine Orthonormalbasis eines endlichdimensionalen Euklidischen oder unitären Vektorraums. Dann gilt: U unitär [U] B B ist unitär Beweis [U ] B B = ([U]B B ) nach Satz Wichtig ist hier, ähnlich wie im Fall von Satz 7.2.6, dass T bezüglich einer Orthonormalbasis dargestellt wird. Definition 7..8 Eine Matrix A heißt orthogonal, wenn A A = A A = I ist. Für reelle Matrizen ist orthogonal ( dasselbe ) wie unitär, nicht jedoch für komplexe 2 i Matrizen, denn z.b. ist i 2 orthogonal, aber nicht unitär. 7.4 Unitäre Diagonalisierbarkeit Definition Wir nennen einen Operator T auf einem Euklidischen oder unitären Vektorraum V unitär diagonalisierbar, wenn es eine Orthonormalbasis gibt, bzgl. der T in Diagonalgestalt dargestellt werden kann. Ist V ein (reeller) Euklidischer Vektorraum, so nennen wir solche Operatoren orthogonal diagonalisierbar. Was bedeutet unitäre Diagonalisierbarkeit für Darstellungsmatrizen? Wir nehmen an, T wird bzgl. einer Orthonormalbasis B dargestellt. Dann gilt [T] B B = ([id V ] B B ) 1 [T] B B [id V ] B B Wir definieren eine lineare Abbildung U : V V durch U(b i ) = b i, wobei b i (bzw. b i ) der i-te Vektor von B (bzw. B ) ist. Es gilt also ist [id V ] B B = [U]B B, [T] B B =: S [T] B B S weil U unitär ist: U bildet die Orthonormalbasis B auf die Orthonormalbasis B ab. Die Darstellungsmatrix eines solchen unitären Operators bzgl. einer Orthonormalbasis ist unitär! 11
6 Definition Zwei Matrizen T und T heißen unitär äquivalent wenn es eine unitäre Matrix S gibt mit T = S TS. Unitär äquivalente Matrizen beschreiben bzgl. geeigneter Orthonormalbasen identische lineare Abbildungen! Satz 7.4. Ein linearer Operator T sei bzgl. einer Orthonormalbasis B dargestellt. Dann ist T genau dann unitär diagonalisierbar, wenn [T] B B unitär äquivalent zu einer Diagonalmatrix ist. Lemma Wenn ein Operator T unitär diagonalisierbar ist, so gilt T T = T T. Beweis Wir stellen T und T bzgl einer Orthonormalbasis B dar. Angenommen, [T] B B ist eine Diagonalmatrix. Dann gibt es also eine unitäre Matrix S derart, dass S [T] B B S eine Diagonalmatrix D ist. Es gilt D = S [T] B B S D = S [T ] B B S Offenbar gilt D D = DD (weil dies zwei Diagonalmatrizen sind), also [T] B B [T ] B B = [T ] B B [T]B B, d.h. T T = T T. Dieses Argument zeigt auch: Lemma Ein linearer Operator T auf einem reellen inneren Produktraum, der orthogonal diagonalisierbar ist, muss selbstadjungiert sein. Insbesondere muss die Darstellungsmatrix [T] B B bzgl. einer Orthonormalbasis B symmetrisch sein. Beweis Wir stellen T bzgl. einer Orthonormalbasis in Diagonalgestalt dar. Weil diese Matrix als reelle Matrix symmetrisch, also selbstadjungiert ist, muss auch T selbstadjungiert sein. Im komplexen Fall gibt es mehr unitär diagonalisierbare Operatoren als nur die selbstadjungierten: Beispiel Die (reelle) Matrix T :=
7 beschreibt eine lineare Abbildung, die unitär diagonalisierbar ist. Man erhält als charakteristisches Polynom x x 2 + x 2. Die Eigenwerte sind 1 2, i, i mit den zugehörigen (bereits normierten) Eigenvektoren 1 1 1, i , 2 i i i Man rechnet nach P 1 T P = i , 2 i wobei P = i i i i Also ist T unitär diagonalisierbar, aber nicht selbstadjungiert! Die Matrix T aus diesem Beispiel hat die interessante Eigenschaft, normal zu sein: Definition Ein linearer Operator T heißt normal, wenn T T = T T gilt. Entsprechend nennen wir eine Matrix S normal, wenn S S = SS gilt. Beispiele normaler Operatoren sind die selbstadjungierten und die unitären Operatoren über C sowie die orthogonalen Operatoren über R. Unser Ziel ist es zu zeigen, dass normale Operatoren über C unitär diagonalisierbar sind. Für selbstadjungierte Operatoren gilt das sogar schon über R, wie wir zunächst zeigen wollen. Beachten Sie, dass wir bereits wissen, dass höchstens die selbstadjungierten Operatoren über R orthogonal diagonalisierbar sind. Satz Sei V ein innerer Produktraum, und sei T selbstadjungiert. Dann ist jeder Eigenwert von T reell, und Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal. 115
8 Beweis Sei T(v) = γv, v 0. Dann gilt γ(v v) = (γv v) = (T(v) v) = (v T (v)) = (v T (v)) = (v γv) = γ(v v), also γ = γ. Sei nun T(w) = µw mit µ γ, w 0, d.h. µ ist ein anderer Eigenwert von T als γ. Wir erhalten γ(v w) = (T(v) w) = (v T(w)) = (v µw) = µ(v w) = µ(v w), weil µ reell sein muss (siehe oben), also (v w) = 0. Definition Sei V ein endlichdimensionaler innerer Produktraum, U V. Dann heißt U := {v V : (u v) = 0 für alle u U} das orthogonale Komplement von U. Lemma Sei V ein endlichdimensionaler Euklidischer oder unitärer Vektorraum, und sei U ein Unterraum von V. Jeder Vektor v V lässt sich schreiben als Summe v = u + u mit u U und u U. Diese Darstellung ist eindeutig. Beweis Offensichtlich ist U U = {0}, denn wenn v U U dann gilt (v v) = 0, also v = 0. Das zeigt dim(u + U ) = dim U + dim U dim V. (7.) Wähle nun eine Orthonormalbasis (b 1,..., b n ), die eine Basis (b 1,..., b s ) von U enthält. Dann ist (b s+1,..., b n ) eine linear unabhängige Menge in U, wegen (7.) also eine Basis. Daraus folgt auch unmittelbar die Eindeutigkeit der Darstellung. Bemerkung Wenn wir einen Vektorraum V in der Form V = W W k mit W i V schreiben können, und wenn zusätzlich jeder Vektor eindeutig als Summe von Vektoren in W i geschrieben werden kann, sprechen wir von einer direkten Summe. Ein Beispiel einer solchen Zerlegung haben wir bereits kennengelernt, nämlich die Zerlegung in Eigenräume eines diagonalisierbaren Operators. Hier haben wir nun eine weitere Zerlegung, nämlich in einen Unterraum und sein orthogonales Komplement, kennengelernt. Man schreibt im Falle einer direkten Summe auch V = W 1... W k. Wir werden uns später intensiver mit Zerlegungen eines Vektorraums in T - invariante Unterräume beschäftigen. 116
9 Korollar dim U + dim U = dim V. Lemma Ist U ein T-invarianter Unterraum, so ist U ein T -invarianter Unterraum. Beweis Sei w U. Dann gilt (v w) = 0 für alle v U, also auch (T(v) w) = (v T (w)) = 0 für alle v U. Das bedeutet T (w) U, was zu beweisen war. Satz Sei V ein endlichdimensionaler innerer Produktraum. Wenn T selbstadjungiert ist, so hat T einen Eigenwert. Beweis Sei B eine Orthonormalbasis von V, und sei A = [T] B B. Wir betrachten den durch A definierten linearen Operator C n C n, also x 1 x 1 T(.. ) = A... x n x n Weil A = A gilt, beschreibt A einen selbstadjungierten Operator auf C n. Das charakteristische Polynom hat eine Nullstelle γ C, weil in C jedes Polynom in Linearfaktoren zerfällt. Es gibt also ein v C n mit Av = γv. Wegen Satz ist γ reell. Wenn V ein reeller (also ein Euklidischer) Vektorraum ist, so können wir v R n wählen, weil A γi eine reelle singuläre Matrix ist. Also hat T in jedem Fall einen Eigenwert γ. Im reellen Fall konnten wir hier nicht einfach so tun, als ob T über C definiert ist. Deshalb der kleine Kunstgriff, die zu einer Darstellungsmatrix gehörende lineare Abbildung auf C n zu betrachten. Satz Sei V ein endlichdimensionaler Euklidischer oder unitärer Vektorraum, und sei T ein selbstadjungierter Operator auf V. Dann gibt es eine Orthonormalbasis von V, die aus Eigenvektoren von T besteht, d.h. T ist unitär diagonalisierbar. Beweis Wir wissen, dass T einen Eigenwert γ R hat. Sei v ein zugehöriger Eigenvektor mit v = 1. Sei W = v der von v aufgespannte Vektorraum. Das orthogonale Komplement von W ist T -invariant, also auch T-invariant. Nun ist W ebenfalls ein innerer Produktraum mit dim W = dim V 1. Wir setzen U := T W. Dann hat W mit Induktion eine Orthonormalbasis, die aus Eigenvektoren von U besteht. Korollar Ist A eine reelle symmetrische Matrix, so gibt es eine reelle orthogonale Matrix P so, dass P AP eine Diagonalmatrix ist. Ist umgekehrt P AP eine Diagonalmatrix und P orthogonal ist, so muss A symmetrisch sein (benutze (P AP) = P A P, also A = A, weil P invertierbar), siehe auch Lemma
10 Für lineare Operatoren fassen wir noch einmal zusammen: Korollar Ein Operator in einem endlichdimensionalen Euklidischen Vektorraum wird genau dann bzgl. einer Orthonormalbasis in Diagonalgestalt dargestellt, wenn er selbstadjungiert ist. Im komplexen Fall gilt für Matrizen: Korollar Ist A eine hermit sche Matrix, so gibt es eine unitäre Matrix P so, dass P AP eine Diagonalmatrix ist. Wir können nicht sagen, dass über C nur die selbstadjungierten Operatoren unitär diagonalisierbar sind, weil Lemma nur für reelle Vektorräume gilt! Aber auch für den allgemeinen Fall unitärer Vektorräume gibt es eine schöne Charakterisierung der unitär diagonalisierbaren Operatoren: Lemma Sei V ein endlichdimensionaler unitärer Vektorraum, und sei T ein normaler Operator auf V. Dann gilt: v ist Eigenvektor von T zum Eigenwert γ genau dann wenn v ein Eigenvektor von T zum Eigenwert γ ist. Beweis Für normale Operatoren U gilt (Uv Uv) = (v U Uv) = (v UU v) = (U v U v) (beachte (U ) = U, siehe Satz 7.2.7). Ist γ ein Skalar, so ist T γid V normal (nachrechnen). Also gilt (T γid V )(v) = (T γid V )(v). Das zeigt: v ist Eigenvektor zum Eigenwert γ von T genau dann, wenn v Eigenvektor von T zum Eigenwert γ ist. Wir halten folgendes nützliche Korollar fest: Korollar Die Eigenwerte unitärer Abbildungen haben den Betrag 1. Satz Sei T ein normaler Operator auf einem inneren Produktraum V. Wenn B = (b 1,..., b n ) eine Orthonormalbasis ist, so dass A := [T] B B eine obere Dreiecksmatrix ist, dann ist T genau dann normal, wenn A eine Diagonalmatrix ist. Beweis Weil B orthonormal ist, ist A = [T ] B B. Wenn A eine Diagonalmatrix ist, so ist A eine normale Matrix, also ist T ein normaler Operator. Sei nun umgekehrt T normal. Weil A = (α i,j ) = [T] B B eine obere Dreiecksmatrix ist, so gilt T(b 1 ) = α 1,1 b 1. Damit ist (Lemma ) b 1 auch ein Eigenvektor von T zum Eigenwert α 1,1. Wir können T (b 1 ) auch konkret ausrechnen: T (b 1 ) = n α 1,j b j j=1 118
11 (die α 1,j bilden die erste Spalte von T ). Das zeigt α 1,j = 0 für j > 1, insbesondere α 1,2 = 0, also T(b 2 ) = α 2,2 b 2, weil A eine obere Dreiecksmatrix ist. Das zeigt T (b 2 ) = α 2,2 b 2, also hat die zweite Spalte von T nur höchstens einen Eintrag 0, nämlich α 2,2. Die zweite Spalte von T ist aber die zweite Zeile von T. Fahre so fort. Satz Ist V ein endlichdimensionaler unitärer Vektorraum, so kann jeder lineare Operator T auf V bzgl. einer Orthonormalbasis als obere Dreiecksmatrix dargestellt werden. Beweis Der Operator T hat mindestens einen Eigenwert γ mit Eigenvektor v, weil das charakteristische Polynom von T mindestens eine Nullstelle hat. Wir betrachten das orthogonale Komplement W von v. Dieses ist T-invariant, siehe Lemma Mit Induktion können wir annehmen, dass die Einschränkung von T auf W bzgl. einer Orthonormalbasis (b 1,... b n 1 ) in einer oberen Dreiecksmatrix dargestellt werden. Bezüglich der Orthonormalbasis (b 1,..., b n 1, v) hat T eine obere Dreiecksmatrix als Darstellungsmatrix (beachten Sie, dass v kein Eigenvektor von T sein muss, weil T nicht normal sein muss, vgl. Lemma ). Bemerkung Wir werden später sehen, dass eine lineare Abbildung genau dann durch eine obere Dreiecksmatrix dargestellt werden kann, wenn ihr charakteristisches Polynom in Linearfaktoren zerfällt. Das ist für C-Vektorräume ja der Fall. Unser Satz ist aber stärker, weil wir hier zeigen, dass der Operator bzgl. einer Orthonormalbasis in Dreiecksgestalt dargestellt werden kann. Wir wollen dies an einem Beispiel erläutern: Beispiel Sei Man rechnet nach sowie T := + 2 i 4 + i 1 i i 6 + i 1 + i χ T = (x i) Eig(T, i) = 1 1, 1 also ist T nicht diagonalisierbar. Wir berechnen nun einen Eigenwert von T. Nach Normierung erhalten wir einen Eigenvektor (zum Eigenwert i, aber das ist unerheblich) =: b. 119
12 Das orthogonale Komplement W von b wird beispielsweise von den beiden normierten Vektoren a 1 := und a 2 := erzeugt. Diese beiden Vektoren sind eine Orthonormalbasis B von W, und eine Darstellungsmatrix von T W bezüglich dieser Basis ist ( [T W ] B B = 1 + i ) i Wir könnten jetzt einfach einen Eigenvektor von T W und einen dazu in W orthogonalen Vektor suchen. Wir wollen aber statt dessen das Verfahren aus dem Beweis von Satz noch einmal anwenden. Wir suchen also einen Eigenvektor von (T W ). Weil wir für B eine Orthonormalbasis gewählt haben, können wir jetzt einfach die Eigenvektoren der komplex-konjugiert transponierten Darstellungsmatrix ausrechnen. Das wäre nicht so einfach gegangen, wenn wir eine andere Basis genommen hätten! Wir erhalten als Eigenvektor Vektor ist, bzgl. der kanonischen Basis, Ein Vektor orthogonal zu 2a 1 + a 2 = ( ) ( 2 wäre 2 1 ), also 1 a 1 + 2a 2 = 1 1 1, 2 1 ( 2 1 ). Dieser Normierung liefert b 2 := und b := Wenn man als P die Matrix mit den Spalten b 1, b 2 und b nimmt (also P = [id] B C mit C als kanonischer Basis), so ist P unitär und i P 6 6 i TP = 4 0 i 0 0 i 120
13 Korollar Ein linearer Operator auf einem endlichdimensionalen unitären Vektorraum ist genau dann unitär diagonalisierbar, wenn er normal ist. Beweis Lemma 7.4.4, Satz , Beachten Sie, dass der Operator aus Beispiel nicht normal ist! Warnung: Über den reellen Zahlen sind genau die reellen symmetrischen Matrizen orthogonal diagonalisierbar. Es gibt aber reelle Matrizen, die nicht symmetrisch, aber normal sind, z.b. orthogonale Matrizen ( ) cos(ϕ) sin(ϕ) T :=. sin(ϕ) cos(ϕ) Eine solche Matrix ist über den reellen Zahlen nicht diagonalisierbar, wohl aber über den komplexen Zahlen: ( ) ( ) cos(ϕ) + i sin(ϕ) 0 e iϕ 0 D := = 0 cos(ϕ) i sin(ϕ) 0 e iϕ. Die unitäre Matrix U mit U TU ist U := 1 ( ) i i Beachten Sie, dass T normal und U unitär ist. Wir wollen die wichtigen Ergebnisse dieses Abschnitts noch einmal zusammenfassen: Über R sind alle symmetrischen Matrizen orthogonal diagonalisierbar. Wenn eine reelle Matrix orthogonal diagonalisierbar ist, dann muss sie symmetrisch sein. Über C sind alle selbstadjungierten Matrizen unitär diagonalisierbar. Über C sind genau die normalen Matrizen unitär diagonalisierbar. Unitäre Matrizen sind normal, deshalb sind sie unitär diagonalisierbar. Insbesondere sind reelle orthogonale Matrizen über C diagonalisierbar, in der Regel aber nicht über R. Wir werden für orthogonale Abbildungen in Satz eine Normalform herstellen. Über C sind alle Matrizen unitär äquivalent zu einer oberen Dreiecksmatrix. Im nächsten Satz geht es nun darum, orthogonale Abbildungen über R zu normalisieren. Dazu bezeichen wir die Drehmatrizen ( ) cos ϕ sin ϕ sin ϕ cos ϕ 121
14 mit U ϕ, wobei 0 ϕ < 2π. Beachten Sie, dass U ϕ orthogonal ist, und die Matrix ist selbstadjungiert genau dann wenn ϕ = 0 oder ϕ = π. Im ersten Fall ist U 0 = I, im zweiten Fall U π = I. Zunächst einmal wollen wir alle zweidimensionalen orthogonalen Matrizen charakterisieren. Zum Beweis verweisen wir auf die Vorlesung: Lemma Sei A R (2,2) eine orthogonale Matrix. Wenn det A = 1, so gibt es ein ϕ mit 0 ϕ < 2π und ( ) cos ϕ sin ϕ A =. sin ϕ cos ϕ Ist det A = 1, so gibt es ein entsprechendes ϕ mit ( ) cos ϕ sin ϕ A =. sin ϕ cos ϕ Im ersten Fall hat A für ϕ 0, π keine Eigenwerte, im zweiten Fall ist A stets diagonalisierbar! Achtung: Dieses Lemma sagt nicht nur, dass jede orthogonale Abbildung zu einer dieser Matrizen orthogonal äquivalent ist, sondern jede orthogonale Abbildung muss diese Form haben! Satz Sei T ein reeller orthogonaler Operator auf einem endlichdimensionalen Euklidischen Vektorraum. Dann gibt es eine Orthonormalbasis B so, dass [T] B B =... 1 U ϕ1... U ϕk gilt. Die übrigen Einträge in dieser Matrix sind 0, ferner ist 0 ϕ i < 2π, ϕ i 0, π, für i = 1,..., k. Wenn wir mit r die Anzahl der 1-en und mit s die Anzahl der 1-en bezeichnen, gilt also r + s + 2k = dim V. Für den Beweis benutzen wir folgendes Lemma: Lemma Ist T ein orthogonaler Operator auf einem reellen Euklidischen Vektorraum der Dimension 1, so gibt es stets einen T-invarianten Unterraum W mit 1 dim W 2 122
15 Beweis Wir betrachten den reellen selbstadjungierten Operator T + T, der einen reellen Eigenwert γ mit zugehörigem reellen Eigenvektor v hat. Dann rechnet man leicht nach, dass v, T(v) die gewünschte Eigenschaft hat: Beachte dazu (T + T )(v) = γv, also T 2 (v) = γt(v) v, weil T = T 1 ist. Beweis (von Satz ) Der Beweis erfolgt wie im selbstadjungierten Fall mit Induktion über die Dimension. Im Induktionsschritt kann man allerdings nicht die Existenz eines Eigenvektors voraussetzen, sondern nur die Existenz eines (höchstens) zweidimensionalen invarianten Unterraums W. Der Operator T W ist orthogonal, und das orthogonale Komplement W ist ebenfalls T- invariant: Aus (T(v) w) = (v T (w)) = (v T 1 (w)) folgt für v W und w W sofort T(v) W (weil T 1 (W ) = W ). Es genügt jetzt also, den Satz für orthogonale Operatoren auf ein- und zweidimensionalen Vektorräumen W zu zeigen. Im eindimensionalen Fall ist die Darstellungsmatrix eines orthogonalen Operators die 1 1-Matrix (1) oder ( 1), im zweidimensionalen Fall (nach Wahl einer Orthonormalbasis B) U ϕ für einen geeigneten Winkel ϕ. Beispiel Die Matrix M := ist orthogonal. Das charakteristische Polynom ist x 11 5 x x + 1 mit einer reellen Nullstelle 1 und zwei komplexen Nullstellen 5 ± 4 5 i. Wir sehen, dass alle Eigenwerte den Betrag 1 haben, und dass die Matrix über C diagonalisierbar ist. Um die Matrix jetzt in Normalform gemäß Satz zu transformieren, suchen wir zunächst einen normierten Eigenvektor zum Eigenwert 1. Wir erhalten b 1 := Sei W = b 1. Eine Orthonormalbasis des orthogonalen Komplements W ist z.b. b 2 = , b :=
16 Man erhält diese Basis, indem man erst eine beliebige Basis von W bestimmt (Lösungen des linearen Gleichungssystems x 2 2 y 6 6 z = 0, dessen Koeffizienten gerade die Koeffizienten von b 1 sind). Danach: Gram-Schmidt sches Orthonormalisierungsverfahren. Wir erhalten so die orthogonale Matrix P = = [id R ] B C, wobei B = (b 1, b 2, b ) und C die kanonische Basis ist. Das ergibt P M P = Es gilt also ϕ = arccos
7.3 Unitäre Operatoren
Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren
Mehr4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit
4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit Definition 4.41. Eine Familie F linearer Operatoren heißt vertauschbar oder kommutierend, wenn für je zwei Operatoren U,T in F gilt: UT = TU.
Mehr6.3 Eigenwerte. γ ist Eigenwert von T [T] B B γi ist nicht invertierbar.
Um zu zeigen, dass die irreduziblen Teiler eines reellen Polynoms höchstens den Grad 2 haben, fassen wir nun (x γ) und (x γ) zusammen und stellen fest, dass (x (a + b i))(x ((a b i)) = x 2 2a + (a 2 +
MehrEuklidische und unitäre Vektorräume
Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein
Mehr12.3 Kommutierende Abbildungen
12.3 Kommutierende Abbildungen Definition 12.3.1 Sei V ein endlichdimensionaler Vektorraum, und sei F eine Familie linearer Abbildungen V V mit UT = TU für alle U, T in F. Dann nennt man F eine Familie
MehrOrthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen
Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).
MehrKapitel 11. Bilinearformen über beliebigen Bilinearformen
Kapitel 11 Bilinearformen über beliebigen Körpern Wir können in diesem Kapitel rasch vorgehen, weil die meisten Konzepte im Zusammenhang mit Sesquilinearformen bereits eingeführt wurden. In diesem Abschnitt
MehrLineare Algebra I Lösungsvorschlag
Aufgabe Lineare Algebra I Lösungsvorschlag Wir bezeichnen mit a, a 2, a 3 Q 4 die Spalten der Matrix A. Es ist 7 a + 2a 2 = 7 4 = 7a 3, und wir sehen im l A = a, a 2, a 3 = a, a 2. Da die Vektoren a und
Mehr3 Bilinearform, Basen und Matrizen
Lineare Algebra II 2. Oktober 2013 Mitschrift der Vorlesung Lineare Algebra II im SS 2013 bei Prof. Peter Littelmann von Dario Antweiler an der Universität zu Köln. Kann Fehler enthalten. Veröentlicht
Mehr5.2 Diagonalisierbarkeit und Trigonalisierung
HINWEIS: Sie finden hier eine vorläufige Kurzfassung des Inhalts; es sind weder Beweise ausgeführt noch ausführliche Beispiele angegeben. Bitte informieren Sie sich in der Vorlesung. c M. Roczen und H.
Mehr44 Spektralzerlegung normaler Operatoren im endlichdimensionalen Fall
44 Spektralzerlegung normaler Operatoren im endlichdimensionalen Fall 44 1 Zusammenfassung Dieser Paragraf richtet sich im Aufbau weitgehend nach 42, um den Zerlegungssatz (44.7) analog zum Satz über die
MehrLineare Algebra und analytische Geometrie II
Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 42 Normale Endomorphismen Nach Satz 34.1 besitzt eine Isometrie über C eine Orthonormalbasis aus Eigenvektoren
MehrLineare Algebra für Physiker 11. Übungsblatt
Lineare Algebra für Physiker 11. Übungsblatt Fachbereich Mathematik SS 01 Prof. Dr. Matthias Schneider./. Juli 01 Dr. Silke Horn Dipl.-Math. Dominik Kremer Gruppenübung Aufgabe G1 (Minitest) (a) Welche
MehrLineare Algebra und analytische Geometrie II
Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 34 Die Diagonalisierbarkeit von Isometrien im Komplexen Satz 34.1. Es sei V ein endlichdimensionaler C-Vektorraum
MehrLineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.
Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren
MehrMusterlösungen zur Linearen Algebra II Weihnachtszettel
Musterlösungen zur Linearen Algebra II Weihnachtszettel Aufgabe. Welche der folgenden Matrizen 3 0 0 A = 0 4, B = 3, C = 0 0 0 6 0 0 0 sind über R und welche über C diagonalisierbar? Bestimmen Sie dazu
Mehr10 Unitäre Vektorräume
10 Unitäre Vektorräume Pink: Lineare Algebra 2014/15 Seite 98 10 Unitäre Vektorräume Die Theorie komplexer Vektorräume mit Skalarprodukt folgt denselben Linien wie die Theorie reeller Vektorräume mit Skalarprodukt;
MehrVorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)
Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit
MehrDiagonalisierbarkeit symmetrischer Matrizen
¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren
MehrKlausur zur Vorlesung Lineare Algebra II, SoSe 2016,
Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren
Mehr6. Normale Abbildungen
SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
MehrLösungsskizzen zur Klausur zur Linearen Algebra II. Definitionen
Technische Universität Berlin Sommersemester 2008 Institut für Mathematik 18 Juli 2008 Prof Dr Stefan Felsner Andrea Hoffkamp Lösungsskizzen zur Klausur zur Linearen Algebra II Aufgabe 1 (1+1+1 Punkte)
MehrAufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009
I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe
MehrBasisprüfung. 18. August 2015
Lineare Algebra I/II D-MATH, HS 4/FS 5 Prof Richard Pink Basisprüfung 8 August 25 [6 Punkte] Betrachte den reellen Vektorraum R 3 zusammen mit dem Standardskalarprodukt, und die Vektoren 9 3 v := 6, v
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
MehrLösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink
Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung
Mehr8 Eigenwerttheorie I 8. EIGENWERTTHEORIE I 139. Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet:
8. EIGENWERTTHEORIE I 139 8 Eigenwerttheorie I Wir hatten bereits früher den Polynomring in einer Variablen über einem Körper K betrachtet: K[x] = Abb[N, K] = {P ; P = a n x n + a n 1 x n 1 + + a 0 ; a
Mehr2.11 Eigenwerte und Diagonalisierbarkeit
2.11. EIGENWERTE UND DIAGONALISIERBARKEIT 127 Die Determinante eines Endomorphismus Wir geben uns jetzt einen endlichen erzeugten K-Vektorraum V und einen Endomorphismus ϕ : V V vor. Wir wollen die Determinante
MehrLineare Algebra II Lösungen zu ausgewählten Aufgaben
Lineare Algebra II Lösungen zu ausgewählten Aufgaben Blatt 2, Aufgabe 3 a) Wir zeigen, daß das Ideal (2, X) kein Hauptideal in Z[X] ist. (Dieses Ideal besteht aus allen Elementen in Z[X], die von der Form
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF
TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF 07.03.2016-11.03.2016 Inhaltsverzeichnis Inhaltsverzeichnis 1 Darstellungsmatrizen 2 2 Diagonalisierbarkeit
Mehr3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform
LinAlg II Version 1 29. Mai 2006 c Rudolf Scharlau 219 3.5 Trigonalisierbarkeit, verallgemeinerte Eigenräume und Jordansche Normalform Das Problem der Normalformen für Endomorphismen handelt kurz gesprochen
Mehr4.4 Hermitesche Formen
44 Hermitesche Formen Wie üblich bezeichnen wir das komplex konjugierte Element von ζ = a + bi C (a, b R) mit ζ = a bi Definition 441 Sei V ein C-Vektorraum Eine hermitesche Form (HF) auf V ist eine Abbildung
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrLeitfaden 34. , dies ist eine reelle symmetrische Matrix, also diagonalisierbar.
Leitfaden 34 5. Euklidsche und unitäre Räume (und selbstadjungierte, orthogonale, unitäre, normale Endomorphismen). 5.1. Reelle symmetrische Matrizen sind diagonalisierbar. Satz: Reelle symmetrische Matrizen
MehrEigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
Mehr3.7 Eigenwerte und Eigenvektoren
3.7. EIGENWERTE UND EIGENVEKTOREN 123 3.7 Eigenwerte und Eigenvektoren Wir wollen jetzt lineare Endomorphismen durch Matrizen besonders übersichtlicher Gestalt (u.a. mit möglichst vielen Nullen) beschreiben,
MehrEigenwerttheorie. Martin Gubisch Lineare Algebra I WS 2007/2008
Eigenwerttheorie Martin Gubisch Lineare Algebra I WS 27/28 Motivation Gegeben seien ein K-Vektorraum V der Dimension n < und eine K-lineare Abbildung f : V V Wir suchen eine Basis V = v 1,, v n von V,
Mehr6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
MehrLineare Abbildungen. i=0 c ix i n. K n K m
Kapitel 4 Lineare Abbildungen In diesem Abschnitt lernen Sie erstmals eine Klasse von strukturerhaltenden Abbildungen kennen. Diese Konzept ist von zentraler Bedeutung in der Algebra. Grob gesagt geht
MehrLineare Algebra II Lösungen der Klausur
Prof Dr K Doerk 673 Jens Mandavid Christian Sevenheck Lineare Algebra II Lösungen der Klausur (a Diese Aussage ist richtig, sie stimmt nämlich für k = Sei nämlich n N beliebig und bezeichne N die Menge
MehrSommer 2017 Musterlösung
Sommer 7 Musterlösung. (5 Punkte) a) Sei V ein Vektorraum über K und sei T End(V ). Geben Sie die Definition eines Eigenwertes von T und zeigen Sie für endlichdimensionales V, dass λ K genau dann ein Eigenwert
MehrHenning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich
Henning Krause Lineare Algebra Julia Sauter SS 27 Klausur 2.9.27 mit Lösungsvorschlag Jan Geuenich Aufgabe (4 Punkte: Sei n N und seien A und B zwei (n n-matrizen über einem Körper K. Wahr Falsch (a Es
MehrÜbungsblatt
Prof Dr Fabien Morel Lineare Algebra II Dr Anand Sawant Sommersemester 2018 Übungsblatt 11 20062018 Aufgabe 1 (2 Punkte) Berechnen Sie eine Jordan-Basis für die Matrix 3 1 1 M = 2 2 0 M 3 (R) 1 1 3 Wir
Mehra b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,
Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist
MehrMathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))
Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 18 Vielfachheiten und diagonalisierbare Abbildungen Satz 18.1. Es sei K ein Körper und es sei V ein endlichdimensionaler K- Vektorraum.
Mehr4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau
312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind
MehrMusterlösung der Klausur zur linearen Algebra II
David Blottière SS 7 Patrick Schützdeller Universität Paderborn Julia Sauter Musterlösung der Klausur zur linearen Algebra II Aufgabe 1 Bestimmen Sie Jordan-Normalformen der folgenden Matrizen, und schreiben
Mehr4.2 Die adjungierte Abbildung
4.2. DIE ADJUNGIERTE ABBILDUNG 177 4.2 Die adjungierte Abbildung Die Vektorräume dieses Paragraphen seien sämtlich euklidisch, die Norm kommt jetzt also vom inneren Produkt her, v = v v. Zu f Hom R (V,
Mehr1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen
Hannover, den 7. Februar 2002 Aufgabe. Übungsblatt: Lineare Algebra II Abgabe: 8./9.4.2002 in den Übungsgruppen (2, 2, 3 Punkte) Der Vektorraum V = C[, ] sei mit dem üblichen Skalarprodukt f, g = f(t)g(t)
MehrLineare Algebra II (SS 13)
Lineare Algebra II (SS 13) Bernhard Hanke Universität Augsburg 03.07.2013 Bernhard Hanke 1 / 16 Selbstadjungierte Endomorphismen und der Spektralsatz Definition Es sei (V,, ) ein euklidischer oder unitärer
MehrSesqui- und Bilinearformen
Kapitel 8 Sesqui- und Bilinearformen 8.1 Sesquilinearformen Definition 8.1.1 Sei V ein reeller oder komplexer K-Vektorraum (also K = R oder C). Eine Abbildung f : V V K heißt eine Sesquilinearform wenn
MehrWiederholungsserie II
Lineare Algebra II D-MATH, FS 205 Prof. Richard Pink Wiederholungsserie II. Zeige durch Kopfrechnen, dass die folgende reelle Matrix invertierbar ist: 205 2344 234 990 A := 224 423 990 3026 230 204 9095
MehrUnter einem reellen inneren Produktraum verstehen wir einen Vektorraum V über
9 Innere Produkte In diesem Kapitel betrachten wir immer Vektorräume über dem Körper der reellen Zahlen R oder dem Körper der komplexen Zahlen C. Definition 9.1: Sei V ein Vektorraum über R. Ein inneres
MehrEigenwerte, Diagonalisierbarkeit, charakteristisches Polynom
Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse
MehrKlausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
MehrLineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
Mehr5.3 Typen und Klassifikation affiner Abbildungen
53 Typen und Klassifikation affiner Abbildungen Definition 531 Sei A ein AR und Aff(A) die Gruppe der Affinitäten von A τ Aff(A) heißt Translation falls p, q A gilt: pτ(p) = qτ(q) Der dann von der Wahl
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 25): Lineare Algebra und analytische Geometrie 2 2. (Frühjahr 29, Thema 3, Aufgabe 3) Gegeben sei die reelle 3 3 Matrix 4 2 A = 2 7 2 R 3 3. 2 2 a)
MehrSteilkurs Lineare Algebra 1 einige wichtige Stationen
Steilkurs Lineare Algebra 1 einige wichtige Stationen Für einen Körper K ist ein K-Vektorraum V eine Menge mit einer kommutativen und assoziativen Verknüpfung + : V V V, für die es ein neutrales Element
Mehr1. Übungsblatt: Lineare Algebra II Abgabe: 24./ in den Übungsgruppen
Hannover, den 0. April 2006. Übungsblatt: Lineare Algebra II Abgabe: 24./25.4.2006 in den Übungsgruppen ( ) 2 5 a) Zeigen Sie, dass A = und B = 2 ( 7 6 invertierbare Matrix T an mit T AT = B. b) Zeigen
Mehr1 Darstellungsmatrizen
Matthias Tischler Karolina Stoiber Ferienkurs Lineare Algebra für Physiker WS 14/15 A 1 Darstellungsmatrizen Vereinbarungen für dieses Kapitel: K Körper V und W endlich-dimensionale K-Vektorräume B = {v
MehrLösung 13: Unitäre Vektorräume und normale Abbildungen
D-MATH Lineare Algebra II FS 2017 Dr. Meike Akveld Lösung 13: Unitäre Vektorräume und normale Abbildungen 1. a) Im Folgenden sei γ : V V C die Abbildung γ(v, w) v + w 2 v w 2 i v + iw 2 + i v iw 2. : Wir
MehrEigenwerte (Teschl/Teschl 14.2)
Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =
Mehr18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1
UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 12
Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist
Mehr6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
MehrLösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung
D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt
Mehr4 Lineare Abbildungen und Matrizen
Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt
Mehr29 Lineare Algebra 2 (SS 2009) 4.9. Das charakteristische Polynom sei Produkt von linearen Polynomen.
9 Lineare Algebra (SS 009) 49 Das charakteristische Polynom sei Produkt von linearen Polynomen 49 Das charakteristische Polynom sei Potenz eines linearen Polynoms Wir betrachten nun eine Matrix A, sodass
MehrHauptachsentransformation: Eigenwerte und Eigenvektoren
Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung
MehrMusterlösungen zur Linearen Algebra II Übungsklausur
Musterlösungen zur Linearen Algebra II Übungsklausur Aufgabe. Sei A R 3 3. Welche der folgenden Aussagen sind richtig? a Ist det(a =, dann ist A eine orthogonale Matrix. b Ist A eine orthogonale Matrix,
Mehr7 Lineare Abbildungen und Skalarprodukt
Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u
MehrDie wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.
Definition: Lineare Abbildung Lineare Abbildungen Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen. 8.1 Definition: Lineare Abbildung Eine Funktion f : V Ñ W zwischen
Mehrund Unterdeterminante
Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,
Mehrund Unterdeterminante
Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,
MehrPrüfung Lineare Algebra 2
1. Überprüfen Sie die folgenden Aussagen: (1) Zwei reelle symmetrische Matrizen sind genau dann ähnlich, wenn sie die gleiche Signatur haben. (2) Jede symmetrische Matrix ist kongruent zu einer Diagonalmatrix,
Mehr5 Diagonalisierbarkeit
5 Diagonalisierbarkeit Sei V ein K Vektorraum mit einer Basis B = (v 1,..., v n ) Wiederholung aus 2: Sei f : V V K linear. Stelle f(v j ) für j = 1,..., n dar in der Form a 1j Das n Tupel a j =. a nj
MehrUniversität Bielefeld Sommersemester Lineare Algebra 2 Übungsblatt 1
Übungsblatt 1 Abgabe bis 10:00 Uhr am Donnerstag, den 19. April 2018, im Postfach Ihrer Tutorin bzw. Ihres Tutors. Es sei K ein beliebiger Körper. Seien V und W endlich-dimensionale K-Vektorräume, mit
MehrVII.2. INNERE PRODUKTE 227
VII.2. INNERE PRODUKTE 227 der Abstand von v zum Teilraum W genannt. Dabei bezeichnet p: V W die Orthogonalprojektion aus Satz VII.2.32 und b 1,...,b k ist eine beliebige Orthonormalbasis von W. Offensichtlich
MehrLösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015
sskizzen der Klausur zur Linearen Algebra im Herbst 5 Aufgabe I. Es sei (G, ) eine Gruppe mit neutralem Element e und M {x G x x e}. Zeigen Sie: (a) Ist G kommutativ, so ist M eine Untergruppe von G. (b)
Mehr23. Die Jordan sche Normalform
Chr.Nelius, Lineare Algebra II (SS 2005) 1 23. Die Jordan sche Normalform Wir suchen für einen trigonalisierbaren Endomorphismus unter seinen dreiecksförmigen Darstellungsmatrizen eine Darstellungsmatrix,
MehrKLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG
KLAUSUR ZUR LINEAREN ALGEBRA I UND II 2. Oktober 2008 MUSTERLÖSUNG Aufgabe 1 Es sei K ein Körper, V ein K-Vektorraum, und seien v 1,..., v n V (n N). (a) Definieren Sie, wann die endliche Familie v 1,...,
MehrHeinrich Heine-Universität Düsseldorf Sommersemester Lineare Algebra 1. Vierzehnte & Fünfzehnte Woche,
Fakultät für Mathematik PD Dr Markus Perling Heinrich Heine-Universität Düsseldorf Sommersemester 2014 Lineare Algebra 1 Vierzehnte & Fünfzehnte Woche, 1672014 10 Determinanten (Schluß) Das folgende Resultat
MehrLina II - Aufgaben zur Vorbereitung für die Klausur (Teil 1) - Lösungen
Lina II - Aufgaben zur Vorbereitung für die Klausur (Teil 1) - en Kommentare an HannesKlarner@FU-Berlinde FU Berlin SS 1 Dia- und Trigonalisierbarkeit Aufgabe (1) Gegeben seien A = i i C 3 3 und B = 1
MehrMathematik III. Vorlesung 68. Das Verhalten von Maßen bei linearen Abbildungen
Prof. Dr. H. Brenner Osnabrück WS 2010/2011 Mathematik III Vorlesung 68 Das Verhalten von Maßen bei linearen Abbildungen Lemma 68.1. Es sei V ein reeller Vektorraum und L :R n V eine bijektive lineare
Mehr5.3 Typen und Klassifikation affiner Abbildungen
53 Typen und Klassifikation affiner Abbildungen Definition 531 Sei A ein AR und Aff(A) die Gruppe der Affinitäten von A τ Aff(A) heißt Translation falls p, q A gilt: pτ(p) = qτ(q) Der dann von der Wahl
MehrLineare Algebra II Zwischentest
Lineare Algebra II Zwischentest Dr. Stephan Ehlen, Dr. Chris Jennings-Shaffer, Jonathan Schürr 14.06.18 Dieser Zwischentest besteht aus 7 Aufgaben und enthält insgesamt 12 Seiten. Sie haben für die Bearbeitung
MehrLineare Algebra 2 (SS 13) Blatt 13: Musterlösung
Prof. Dr. B. Hanke Dr. J. Bowden Lineare Algebra 2 (SS ) Blatt : Musterlösung Aufgabe. Es sei C (R) der R-Vektorraum der unendlich oft differenzierbaren Funktionen auf R und : C (R) C (R), f f die Abbildung,
Mehr3 Definition: 1. Übungsblatt zur Vorlesung Lineare Algebra I. im WS 2003/2004 bei Prof. Dr. S. Goette
1. Übungsblatt zur Vorlesung Abgabe Donnerstag, den 30.10.03 1 Finden 2 Sei Sie reelle Zahlen a, b, c, so dass a (2, 3, 1) + b (1, 2, 2) + c (2, 5, 3) = (3, 7, 5). (V,, ) ein euklidischer Vektorraum. Zeigen
MehrABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT
ABBILDUNGEN ZWISCHEN VEKTORRÄUMEN MIT SKALARPRODUKT G.FELDER, LINEARE ALGEBRA II, FS 2013 27.03.2013 Inhaltsverzeichnis 1. Selbstadjungierte Abbildungen 1 1.1. Adjungierte Abbildungen 1 1.2. Spektralsatz
MehrKlausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 2016
Name, Vorname Matrikel-Nr. Aufg. Aufg.2 Aufg.3 Aufg.4 Σ Note bzw. Kennzeichen Klausur (Modulprüfung) zum Lehrerweiterbildungskurs 4Q Lineare Algebra/Analytische Geometrie II SoSe 206 Bearbeiten Sie bitte
Mehr5.4 Affine Abbildungen in C 2 und R 2
5.4 Affine Abbildungen in C 2 und R 2 Notation. Wir erinnern an die affine Ähnlichkeit von Matrizen (5.3.(ii)): L, L n (K). Dann: L a L 2 falls C AGL n (K) mit C L 2 C = L. Die aus 3.2.9 bekannte übliche
MehrKAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit.
KAPITEL 8 Normalformen Definition 8.1 (Blockmatrizen). Sind 1. Blockmatrizen A K m 1 n 1,B K m 1 n 2,C K m 2 n 1 und D K m 2 n 2 so nennet man die Matrix X = ( A B C D ) K (m 1+m 2 ) (n 1 +n 2 ) eine Blockmatrix
Mehr3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153
3.3. SKALARPRODUKTE 153 Hierzu müssen wir noch die Eindeutigkeit (Unabhängigkeit von der Wahl der Basis bzw. des Koordinatensystems) zeigen. Sei hierzu β eine Bilinearform und q die entsprechende quadratische
MehrPrüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?
1. Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? A. Wenn n = 3 ist, sind mindestens zwei der drei Euler-Winkel einer Drehung kleiner oder gleich π. B. Wenn n = 2
Mehr