6 Symmetrische und hermitesche Matrizen

Größe: px
Ab Seite anzeigen:

Download "6 Symmetrische und hermitesche Matrizen"

Transkript

1 $Id: quadrat.tex,v /6/3 1:3:3 hk Exp $ $Id: orthogonal.tex,v /7/1 1:57:5 hk Exp $ 6 Symmetrische und hermitesche Matrizen 6.4 Definite Matrizen Wir hatten eine symmetrische reelle beziehungsweise eine komplexe hermitesche n n-matrix A positiv definit genannt wenn für jeden von Null verschiendenen Vektor x R n beziehungsweise x C n stets (Ax) x > gilt. Entsprechend waren dann negativ definite, positiv semidefinite und negativ semidefinite Matrizen definiert. Ist A weder positiv semidefinit noch negativ semidefinit, so heißt A indefinit. Man kann die Definitheit einer Matrix an ihren Eigenwerten ablesen. Satz 6.12 (Charakterisierung definiter Matrizen über Eigenwerte) Sei A eine symmetrische n n Matrix über K = R oder eine hermitesche n n Matrix über K = C. Bezeichne λ 1,..., λ n R die mit Vielfachheit aufgezählten Eigenwerte von A. Dann ist A genau dann 1. positiv definit wenn λ 1,..., λ n > ist, 2. negativ definit wenn λ 1,..., λ n < ist, 3. positiv semidefinit wenn λ 1,..., λ n ist, 4. negativ semidefinit wenn λ 1,..., λ n ist und 5. indefinit wenn es 1 i, j n mit λ i > und λ j < gibt- Beweis: Nach Korollar 9 existiert im reellen Fall eine orthogonale Matrix S R n n und im komplexen Fall eine unitäre Matrix S C n n mit λ 1 D := S AS =.... Wir behaupten das A dasselbe Defininiheitsverhalten wie D hat, also genau dann positiv definit, negativ definit, positiv semidefinit, negativ semidefinit oder indefinit ist wenn D dies ist. Da S insbesondere invertierbar ist, ist nämlich jeder Vektor y K n von der Form y = Sx mit x K n, und für jedes x K n gilt weiter λ n (ASx) (Sx) = (S ASx) x = (Dx) x, 2-1

2 und die Zwischenbehauptung ist eingesehen. Für alle x K n gilt nun (Dx) x = n λ i x i 2, i=1 und damit sind alle Aussagen klar. Wir wollen jetzt zeigen das die Determinante einer positiv definiten Matrix stets positiv ist. Etwas allgemeiner trifft dies sogar auf alle quadratischen Unterdeterminanten zu. Lemma 6.13 (Determinanten positiv definiter Matrizen) Seien K {R, C}, n N mit n 1 und A = (a ij ) 1 i,j n K n n eine positiv definite Matrix. Weiter seien 1 r n und Indizes 1 k 1 < k 2 <... < k r n gegeben. Dann gilt a k1,k 1 a k1,k r..... >. a kr,k1 a kr,kr Beweis: Wir zeigen zunächst das det A > ist. Nach Satz 12 sind die mit Vielfachheit aufgezählten Eigenwerte λ 1,..., λ n > von A alle positiv und nach 5.Korollar 8 ist det A = λ 1... λ n >. Nun sei eine Untermatrix B := a k1,k 1 a k1,k r..... a kr,k1 a kr,kr von A gegeben. Dann ist auch B symmetrisch beziehungsweise hermitesch und wir behaupten das B auch positiv definit ist. Sei hierzu x K r gegeben, und definiere den Vektor x K n durch Auffüllen der fehlenden Stellen mit Nullen, also x k i := x i für 1 i r und x i := für i {1,..., n}\{k 1,..., k r }. Dann ist auch x und (Bx) x = (Ax ) x >. Damit ist B positiv definit, und wie bereits gezeigt folgt hieraus auch det B >. Zum Rechnen mit kleineren konkreten Matrizen kann Satz 12 etwas mühsam sein, da wir zu seiner Anwendung ja erst einmal die Eigenwerte von A ausrechnen müssen. Manchmal praktischer ist eine Umkehrung des vorigen Lemmas, die wir nun formulieren wollen. Satz 6.14 (Determinantenkriterium für positive Definitheit) Sei A = (a ij ) 1 i,j n eine symmetrische n n Matrix über R. Dann ist A genau dann 2-2

3 positiv definit, wenn a 11 >, a 11 a 12 a 21 a 22 >, a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 >,... und a 11 a 1n..... a n1 a nn > gelten. Beweis: = Klar nach Lemma 13. = Diese Implikation beweisen wir durch vollständige Induktion nach n. Im Induktionsanfang n = 1 haben wir ein reelle Zahl a > und A = (a) so gilt für alle x R stets (Ax) x = ax 2 >, d.h. A ist positiv definit. Nun sei n N mit n 2 und nehme an das die behauptete Implikation für n 1 gilt. Dann schreiben wir ( ) B u A = u t c mit einer symmetrischen (n 1) (n 1)-Matrix B, einem Vektor u R n 1 und einem c R. Da dann auch B unsere Determinantenbedingung erfüllt, ist B nach der Induktionsannahme positiv definit. Die Determinantenbedingung besagt insbesondere det B >, also ist B invertierbar und wir können v := B 1 u R n 1 setzen. Sind dann b 1,..., b n 1 die Spalten von B, so gilt u = Bv = v 1 b v n 1 b n 1, subtrahieren wir also für 1 j < n das v j -fache der j-ten Spalte von A von der n-ten Spalte von A, so ergibt sich mit I. 8.Korollar 5 < det A = B u u t c = B u t c u v = (c u v) det B, es ist also u v < c. Sei nun y R n gegeben und schreibe ( ) x y = s mit x R n 1 und s R. Wegen y ist dann x oder s. Es gilt ( ) ( ) ( ) B u x Bx + su (Ay) y = y t Ay = (x t s) u t = (x t s) c s cs + u x = (Bx) x + 2s(u x) + cs 2. Ist s =, so ist x und somit (Ay) y = (Bx) x > da B positiv definit ist. Ist s, so haben wir (Ay) y > (Bx) x + 2s(u x) + s 2 (u v) = (Bx) x + 2s(Bv) x + s 2 (Bv) v = (Bx) x + s(bv) x + s(bx) v + s 2 (Bv) v = B(x + sv) (x + sv) 2-3

4 wieder da B positiv definit ist. Also gilt in beiden Fällen (Ay) y > und A ist positiv definit. Beispielsweise haben wir damit für symmetrische 2 2 Matrizen ( ) a b positiv definit a > und ad b 2 >. b d Das Determinantenkriterium ist in der Literatur unter eine Vielfalt von Namen zu finden, gängige Bezeichnungen sind Hadamard Kriterium, Frobenius Kriterium und Jakobi Kriterium. Für eine positiv semidefinite Matrix A ergibt sich analog zu Lemma 13 das die in diesem Lemma betrachteten Determinanten alle nichtnegativ sind, die Umkehrung dieser Tatsache gilt aber nicht, es gibt also kein Determinantenkriterium für positiv semidefinite Matrizen. Betrachten wir zum Beispiel die symmetrische Matrix 1 A = so sind = = = aber mit dem Vektor 1 x := gilt Ax = sowie (Ax) x = 2 <, die Matrix A ist also nicht positiv semidefinit. Analog zum Induktionsschritt im Beweis des Determinantenkriteriums Satz 14 kann man immerhin zeigen das A positiv semidefinit ist wenn die ersten n 1 Hauptunterdeterminanten alle positiv sind und det A ist, dies ist allerdings nur eine hinreichende und keine notwendige Bedingung. Durch Anwendung der bisherigen Ergebnisse auf A ergeben sich analoge Kriterien für die negative Definitheit. Rechnen wir einige Beispiele: 1. Sei 2. Sei A = ( Dann ist a 11 = 1 > aber det A = 1 <, d.h. A ist nicht positiv definit. A := Diesmal haben wir a 11 = 1 >, >, aber ) d.h. auch diese Matrix ist nicht positiv definit. 2-4 = = 4,

5 3. Schließlich sei Diesmal haben wir a 11 = 1 >, A = = 1 > und d.h. die Matrix A ist positiv definit = = 2 >, 7 Orthogonale und unitäre Matrizen Bereits in 6.2 hatten wir den Begriff einer orthogonalen Matrix im reellen Fall und einer unitären Matrix im komplexen Fall eingeführt. Wir hatten auch verschiedene Beschreibungen für die Orthogonalität einer Matrix A gesehen A ist orthogonal A t A = 1 AA t = 1 und entsprechend im komplexen Fall A ist unitär A A = 1 AA = 1 Die Spalten von A sind eine Orthonormalbasis des R n Für alle x, y R n gilt (Ax) (Ay) = x y Die Spalten von A sind eine Orthonormalbasis des C n Für alle x, y C n gilt (Ax) (Ay) = x y. In diesem Abschnitt interessiert uns vor allem der letztgenannte Aspekt. Mit x = y folgt für eine orthogonale beziehungsweise unitäre n n Matrix A auch Ax = (Ax) (Ax) = x x = x für jedes x im R n beziehungsweise C n, d.h. die Matrix A erhält die Länge von Vektoren. Weiter folgt, dass eine orthogonale Matrix A auch den Winkel φ zwischen Vektoren x, y R n erhält, denn dieser bestimmt sich ja durch die Formel x y = x y cos φ, und da A Länge und Skalarprodukt nicht ändert, haben wir auch (Ax) (Ay) = Ax Ay cos φ. 2-5

6 Orthogonale Matrizen sind also die linearen Abbildungen, die Längen und Winkel erhalten. Nehmen wir Verschiebungen hinzu, so ergeben sich die sogenannten Bewegungen, dies sind die Abbildungen der Form f : R n R n ; x Ax + u mit einer orthogonalen n n Matrix A und einem Vektor u R n. Wir halten zwei Grundtatsachen über orthogonale und unitäre Matrizen fest: Satz 7.1 (Eigenwerte und Determinante orthogonaler und unitärer Matrizen) Sei A eine orthogonale n n Matrix über K = R oder eine unitäre n n Matrix über K = C. Dann gelten: (a) Ist λ C ein komplexer Eigenwert von A, so ist λ = 1. (b) Ist K = R so gilt det A = 1 oder det A = 1. (c) Ist K = C so gilt det A = 1. (d) Ist K = R und ist die Dimension n ungerade und det A = 1, so ist 1 ein Eigenwert von A. (e) Ist K = R und ist die Dimension n gerade und det A = 1, so ist 1 ein Eigenwert von A. Beweis: (a) Da eine orthogonale Matrix als komplexe Matrix unitär ist, können wir uns auf den Fall K = C beschränken. Sei u C n ein Eigenvektor zu λ, also Au = λu. Dann erhalten wir also wegen u = auch λ = 1. (c) Es gilt u = Au = λu = λ u, det A 2 = det(a) det A = det(a) det(a) = det(a) det(a t ) = det(a) det(a ) = det(aa ) = 1, also ist auch det A = 1. (b) Da A als komplexe Matrix unitär ist, gilt nach (c) zunächst det A = 1 und wegen det A R ist det A { 1, 1}. (d,e) Es ist χ A (1) = det(1 A) = det(aa t A) = det(a) det(a t 1) = det(a) det(a 1) = ( 1) n det(a) det(1 A) = ( 1) n det(a)χ A (1). 2-6

7 In den beiden Fällen n ungerade, det A = 1 und n gerade, det A = 1 ist ( 1) n det A = 1, also χ A (1) = χ A (1), und dies bedeutet χ A (1) =, d.h. 1 ist ein Eigenwert von A. Die Bewegungen f(x) = Ax + u bei denen A eine orthogonale Matrix mit det A = 1 ist nennt man auch eigentliche Bewegungen. Dies sind diejenigen Bewegungen, die sich tatsächlich physikalisch realisieren lassen. Die Bewegungen mit det A = 1 haben immer einen Spiegelungsanteil. Wir führen jetzt eine Bezeichnung für die Menge aller orthogonalen beziehungsweise unitären Matrizen ein. Hierzu sei n N mit n 1 gegeben. Dann seien O n R := {A R n n A ist orthogonal} (Orthogonale Gruppe), SO n R := {A O n R det A = 1} (Spezielle orthogonale Gruppe), U n C := {A C n n A ist unitär} (Unitäre Gruppe), SU n C := {A U n C det A = 1} (Spezielle unitäre Gruppe). Oft verwendete alternativen Schreibweisen für diese Mengen sind O(n) = O n R für die orthogonale Gruppe, SO(n) = SO n R für die spezielle orthogonale Gruppe, U(n) = U n C für die unitäre Gruppe und SU(n) = SU n C für die spezielle unitäre Gruppe. Das Wort Gruppe hatten wir schon einmal in I. 8.1 im Zusammenhang mit der symmetrischen Gruppe bei der Einführung von Determinanten verwendet. Genau wie damals wollen wir hier keine abstrakte Definition einer Gruppe geben, gemeint ist das Produkte und Inverse von Elementen aus einer Mengen O n R, SO n R, U n C, SU n C wieder in der entsprechenden Menge sind. In der Vorlesung wurde dies nur mitgeteilt, aber an dieser Stelle wollen wir es kurz vorrechnen. Angenommen A, B O n R sind zwei orthogonale Matrizen derselben Größe. Dann ist auch das Produkt AB invertierbar mit (AB) 1 = B 1 A 1 = B t A t = (AB) t, d.h. es ist auch AB O n R. Außerdem ist auch (A 1 ) 1 = A = A tt = (A 1 ) t, d.h. A 1 O n R. Für die unitäre Gruppe U n C ist die Rechnung analog und die Aussagen über die beiden speziellen Gruppen SO n R und SU n C folgen dann aus den Eigenschaften der Determinante. Sind beispielsweise A, B SO n R, so wissen wir bereits AB, A 1 O n R und zusätzlich sind also AB, A 1 SO n R. det(ab) = det(a) det(b) = 1 und det(a 1 ) = 1 det A = 1, 2-7

8 7.1 Spiegelungen Wir werden jetzt einen speziellen Typ orthogonaler Abbildungen untersuchen, die Spiegelung an einer Hyperebene. Im zweidimensionalen Fall n = 2 sind dies Geradenspiegelungen und im dreidimensionalen Fall n = 3 handelt es sich um Ebenenspiegelungen. Da die Dimension für diese Überlegungen keine Rolle spielt, wollen wir hier gleich den n-dimensionalen Fall behandeln, und eine Hyperebene des R n war dann definitionsgemäß ein (n 1)-dimensionaler affiner Teilraum des R n. Im letzten Semester hatten wir im Abschnitt I. 1.3 bereits eine auch hier nützliche Beschreibung von Hyperebenen kennengelernt. Jede solche Hyperebene E ließ sich in Hessescher Normalform als E = {x R n u x = c} schreiben, wobei c R ist und u ein senkrecht auf E stehender Vektor der Länge u = 1 ist, ein sogenannter Normalenvektor auf E. Da wir hier an orthogonalen Matrizen, also an linearen Abbildungen, interessiert sind, brauchen wir Hyperebenen durch den Nullpunkt, also c =. Eine Hyperebene durch den Nullpunkt läßt sich somit in der Form E = {x R n u x = } beschreiben, wobei u ein Normalenvektor auf E ist. Wir wollen die Spiegelung S an der Hyperebene E berechnen. Sei also x R n. Dann schreiben wir x = x + λu mit einem Vektor x E und einem λ R. Beim Spiegeln an E bleibt der Anteil x von x in E erhalten während der zu E senkrechte Sx Anteil λu zu λu wird, d.h. insgesamt wird der Punkt x auf Sx = x λu abgebildet. Den zu u parallelen Anteil λu hatten wir auch bereits im I. 1.3 des letzten Semesters ausgerechnet, wegen u = 1 ist λ = u x, also λu = (u x)u. Für das Bild von x unter der Spiegelung folgt die Spiegelungsformel x λ u Sx = x λu = x + λu 2λu = x 2λu = x 2(u x)u. Damit haben wir die Spiegelung an E berechnet. Auch als Matrix bezüglich der kanonischen Basis des R n läßt sich S leicht berechnen, es ist ja Sx = x 2(u x)u = x 2u(u x) = x 2uu t x = (1 2uu t )x, x u E als Matrix ist also S = 1 2uu t. 2-8

9 Beachte dabei das das Produkt eines Spaltenvektors mit n Einträgen und eines Zeilenvektors mit n Einträgen eine n n-matrix ist. Wir wollen zwei Beispiele rechnen. Sei g die Gerade g := ( 3 4 ) = {( 3t 4t ) t R} im R 2. Senkrecht auf dem Richtungsvektor steht beispielsweise ( ) 4 v = und normiert u = v 3 v = 1 ( 4 5 v = Für die Spiegelungsmatrix ergibt sich S = 1 2uu t = vvt = 1 2 ( Als ein zweites Beispiel betrachte die Ebene ) (4 3) = 1 2 ( E := {(x, y, z) R 3 x + 2y 2z = } ). ) = ( im R 3. Dann steht der Vektor v = (1, 2, 2) senkrecht auf E, und wegen v = 3 ist u := 1 3 v = ein Normalenvektor von E. Als die Spiegelungsmatrix an der Ebene E ergibt sich S = 1 2uu t = = Die Formel für Spiegelungen an Ebenen die nicht durch den Nullpunkt gehen läßt sich auf unsere Spiegelungsformel zurückführen. Angenommen die Hyperebene E R n ist in Hessescher Normalform als E = {x R n u x = c} gegeben, wobei u ein Normalenvektor auf E ist und c R ist. Wähle dann irgendeinen Punkt x E, also u x = c. Die Spiegelung kann man dann realisieren, indem zuerst x nach verschoben wird, dann an der zu E parallelen Hyperebene durch gespiegelt wird, und anschließend wieder nach x zurückgeschoben wird. Die zu E parallele Hyperebene durch hat dabei auch den Normalenvektor u. Wie sieht das als Formel aus? Sei x R n. Beim Verschieben geht x auf x x, und beim Spiegeln an der parallelen Hyperebene geht dieser Punkt auf x x 2(u (x x ))u = ).

10 x x 2(u x)u + 2(u x )u = x x 2(u x)u + 2cu. Dann wird zurückgeschoben und als Spiegelung ergibt sich S c x = x (u x)u + 2cu = Sx + 2cu, wobei S = 1 2uu t ist. Wir wollen nun einen Satz angeben der die besondere Bedeutung von Spiegelungen für die orthogonale Gruppe herausstellt, überhaupt jede orthogonale Matrix läßt sich als ein Produkt von Spiegelungen schreiben. Satz 7.2: Jede orthogonale n n Matrix läßt sich als ein Produkt von höchstens n Spiegelungen schreiben. Dies kann man etwa durch Induktion nach n beweisen, man überlegt sich zunächst das es für je zwei u, v R n mit u = v = 1 stets eine Spiegelung S mit Su = v gibt, hiermit kann man sich dann auf den Fall reduzieren das es für die betrachtete orthogonale Matrix A einen Vektor u R 3 mit u = 1 und Au = u gibt und die Induktionsannahme in u führt zum Ziel. Wir wollen hier darauf verzichten dies wirklich vorzuführen. Beachten wir das eine Spiegelung offenbar die Determinante 1 hat, so hat ein Produkt einer geraden Anzahl von Spiegelungen die Determinante 1 und ein Produkt einer ungeraden Anzahl von Spiegelungen hat die Determinante 1. Schauen wir uns einmal an was der Satz für die Ebene n = 2 sagt. Nach dem Satz ist jede orthogonale 2 2 Matrix entweder eine Spiegelung oder das Produkt von zwei Spiegelungen. Produkte von zwei Spiegelungen im R 2 stellen sich als Drehungen heraus, d.h. jede orthogonale 2 2-Matrix ist eine Spiegelung oder eine Drehung. Für unitäre Matrizen gibt es einen ähnlichen Satz, anstelle von Spiegelungen muss man aber auch die etwas allgemeineren Quasispiegelungen erlauben. Diese Dinge wollen wir hier aber nicht näher ausführen. 7.2 Drehungen Die wohl wichtigste Sorte othogonaler Matrizen sind die Drehungen. Wir werden diese im zwei und im dreidimensionalen Fall behandeln. In Dimension 2 kennen wir uns dabei bereits bestens aus, die Drehung um einen Winkel φ wird durch die Matrix ( ) cos φ sin φ D(φ) = sin φ cos φ beschrieben, wie wir schon in Abschnitt I. 1.2 im letzten Semester eingesehen haben. Im zweidimensionalen Fall kennen wir damit bereits alle orthogonalen Matrizen, es gilt nämlich, wie schon oben angedeutet: Satz 7.3 (Orthogonale 2 2 Matrizen) Ist A eine orthogonale 2 2 Matrix, so ist A im Fall det A = 1 eine Drehung und im Fall det A = 1 eine Spiegelung. Beweis: Auf den folgenden Beweis hatten wir in der Vorlesung verzichtet. Sei ( ) a b A = O c d 2 R. 2-1

11 Zunächst nehmen wir ad bc = det A = 1 an. Dann ist A invertierbar mit ( ) ( ) a c d b = A t = A 1 = b d c a es müssen also a = d und c = b gelten. Damit wird 1 = ad bc = a 2 + b 2, es gibt also einen Winkel φ mit a = cos( φ) = cos φ und b = sin( φ) = sin φ. Folglich sind auch d = a = cos φ und c = b = sin φ und wir haben A = D(φ). Damit ist der Fall det A = 1 vollständig behandelt. Nun nehme ad bc = det A = 1 an. In diesem Fall haben wir ( ) ( ) a c d b = A t = A 1 = b d c a also d = a und c = b sowie 1 = ad bc = a 2 b 2, also ist wieder c 2 +d 2 = a 2 +b 2 = 1. Somit gibt es einen Winkel φ mit c = sin(2φ) und d = cos(2φ), also auch a = cos(2φ) und b = sin(2φ). Ist nun u = ( cos φ sin φ ) ( ) cos, so ist S u = 1 2uu t = φ sin φ cos φ sin φ cos φ sin 2 φ ( cos(2φ) sin(2φ) = sin(2φ) cos(2φ) also ist A die Spiegelung an R u. ) = A Wir wollen uns jetzt mit Drehungen im dreidimensionalen Raum beschäftigen. Hier reicht es zur Beschreibung einer Drehung nicht mehr aus, einen Winkel anzugeben. Neben dem Winkel benötigen wir auch noch die Drehachse, also die Ursprungsgerade um die herum die Drehung stattfindet. Die Achse sei dabei durch einen Vektor u der Länge 1 gegeben. Es seien also ein u R 3 mit u = 1 und ein Winkel φ R gegeben. Wir wollen die Drehung D u (φ) mit Drehachse in Richtung von u und Drehwinkel φ berechnen. Sei x R 3 und wir müssen das Bild D u (φ)x von x unter unserer Drehung bestimmen. Ist x u, liegt x also auf der Drehachse, so ist sofort D u (φ)x = x, wir können also x / u annehmen. Unsere Strategie ist es zu einer anderen Orthonormalbasis u 1, u 2, u 3 des R 3 überzugehen, in der D u (φ) eine möglichst einfache Gestalt hat. Es ist naheliegend diese Basis mit der Drehachse selbst zu beginnen, also u 1 := u. Den zweiten Basisvektor u 2 wählen wir jetzt zum Argument x passend. Den Punkt x selbst können wir leider nicht verwenden, da dieser weder normiert noch senkrecht zu u ist. Dies ist aber kein großes Problem, wir wenden einfach die uns schon bekannte Gram Schmidt Orthonormalisierung auf u, x an, d.h. wir setzen y := x (u x)u und u 2 := y y. 2-11

12 Zur Bestimmung des dritten Basisvektors verwenden wir das in I. 1.4 eingeführte Vektorprodukt, der Vektor u 1 u 2 steht senkrecht auf u 1 und u 2 und hat die Länge u u 1 u 2 = ( u 1 2 u 2 2 (u 1 u 2 ) 2 ) 1/2 = 1. Die gesuchte Orthonormalbasis wird somit vervollständigt durch u 3 := u 1 u 2 = 1 y u (x (u x)u) = u x y φ da u u = ist. Beachte außerdem das die Basis u 1, u 2, u 3 dann positiv orientiert ist, der Umlaufsinn unseres Drehwinkels ist also bezüglich dieser Basis genau derselbe wie bezüglich der Standardbasis. Bezüglich der Basis u 1, u 2, u 3 wird x jetzt zu x = (u x)u + y = (u x)u 1 + y u 2 = u x y In dieser Basis berechnet sich das Bild von x unter unserer Drehung als 1 u x u x D u (φ)x = cos φ sin φ y = y cos φ. sin φ cos φ y sin φ Bezüglich der Standardbasis haben wir damit das Ergebnis D u (φ)x = (u x)u 1 + y cos(φ)u 2 + y sin(φ)u 3 = (u x)u + cos(φ)y + sin(φ)u x. = (u x)u + cos(φ)x (u x) cos(φ)u + sin(φ)(u x) = cos(φ)x + (1 cos φ)(u x)u + sin(φ)(u x). Dies ist bereits eine für praktische Zwecke nützliche Drehungsformel. Wir können die Formel auch noch in Matrixform umschreiben, hierzu müssen wir uns nur überlegen wie die Matrix der linearen Abbildung f(x) = u x aussieht. Dies ist schnell berechnet u e 1 = u 1 u 2 u 3 1 = u 3 u 2, u e 2 = u e 3 = u 1 u 2 u 3 u 1 u 2 u u 3 =, u 2 u 1 = u 1, 2-12

13 die Matrix von f ist also û := Die Drehmatrix wird damit insgesamt zu u 3 u 2 u 3 u 1 u 2 u 1. D u (φ) = cos φ + (1 cos φ)uu t + sin(φ)û. Damit können wir nun Drehmatrizen berechnen. Wir können den Drehwinkel φ auch direkt aus der Matrix D u (φ) ablesen, es ist ja tr û =, tr uu t = u u u 2 3 = 1 und somit tr D u (φ) = 3 cos φ + 1 cos φ = cos φ. Auch die von u aufgespannte Gerade können wir an der Matrix D u (φ) ablesen. Es ist ja (uu t ) t = uu t aber û t = û, also D u (φ) + D u (φ) t = 2 cos φ + 2(1 cos φ)uu t = tr D u (φ) 1 + 2(1 cos φ)uu t. Ist also φ kein Vielfaches von 2π, so ist cos φ 1 und es folgt u = Bild(D u (φ) + D u (φ) t tr(d u (φ)) + 1). Ist φ dagegen ein Vielfaches von 2π, also cos φ = 1, so findet überhaupt keine Drehung statt, und daher ist es nicht überraschend das wir keine Drehachse bestimmen können. Beachte übrigens das die Formel für die Drehachse nur den Teilraum u liefert, aber nicht u selbst, d.h. wir können auf diese Weise nicht zwischen u und u unterscheiden. Wenn man aber φ und ±u kennt, so ist ein leichtes durch Einsetzen in die Matrixform der Drehformel abzulesen welchen der beiden wir nehmen müssen. Wir wollen die Matrixformel einmal auf das Beispiel von Drehungen um u = (1/ 3)(1, 1, 1) anwenden. Es gelten uu t = (1, 1, 1) = Die Drehung um u mit dem Winkel φ wird damit zu und û = D u (φ) = cos φ + (1 cos φ)uu t + sin(φ)û = cos φ 1 cos φ 3 sin φ 1 cos φ + 3 sin φ 1 cos φ + 3 sin φ cos φ 1 cos φ 3 sin φ 3 1 cos φ 3 sin φ 1 cos φ +. 3 sin φ cos φ In zwei Dimensionen sind Drehungen und Spiegelungen die einzigen orthogonalen Matrizen. In drei Dimensionen ist es auch noch möglich alle auftretenden Typen orthogonaler Matrizen aufzulisten, und wie im zweidimensionalen Fall sind die Drehungen genau die orthogonalen Matrizen mit Determinante 1. Satz 7.4 (Orthogonale 3 3 Matrizen) Sei A eine orthogonale 3 3 Matrix

14 (a) Ist det A = 1, so ist A eine Drehung um den Winkel ( ) tr(a) 1 φ = arccos 2 mit der Drehachse Bild(A + A t tr(a) + 1). (b) Ist det A = 1, so ist A ein Spiegelung oder das Produkt einer Spiegelung und einer Drehung wobei die Drehachse senkrecht auf der Spiegelungsebene steht. Beweis: (a) Nach Satz 1.(d) ist 1 ein Eigenwert von A, es gibt also ein u R 3 mit u = 1 und Au = u. Weiter betrachten wir die Ebene E := {x R 3 u x = } zum Normalenvektor u. Für jedes x E gilt auch u (Ax) = (Au) (Ax) = u x =, also Ax E. Damit ist A E eine lineare Abbildung, und es bezeichne B die Matrix dieser Abbildung bezüglich einer Orthonormalbasis von E. Dann ist B SO 2 R, also ist A E eine Drehung in E um einen Winkel φ. Damit ist A = D u (φ). Die Formeln für Drehwinkel und Drehachse folgen aus unseren obigen Überlegungen. (b) Wir haben ( A) 1 = A 1 = A t = ( A) t, d.h. auch A ist orthogonal mit det( A) = det A = 1. Also ist A SO 3 R nach (a) eine Drehung. Insbesondere existiert ein Vektor u R 3 mit u = 1 und Au = u, also Au = u und u ist ein Eigenvektor zum Eigenwert 1 von A. Für jeden zu u senkrechten Vektor x folgt damit auch u (Ax) = (Au) (Ax) = u x =, d.h. A erhält die zu u senkrechte Ebene E. Damit ist A E orthogonal mit Determinante 1, also eine Drehung. Es können jetzt zwei Fälle auftreten, entweder ist A E die identische Abbildung, und dann ist A die Spiegelung S u an der Ebene E oder A E ist die Drehung um einen Winkel φ und dann ist A das Produkt A = D u (φ)s u der Drehung D u (φ) mit der Spiegelung S u. Produkte von Spiegelungen und Drehungen nennt man gelegentlich auch Drehspiegelungen. Diese spielen für uns keine Rolle, und daher wollen wir sie auch nicht untersuchen. Der Satz besagt insbesondere das SO 3 R = {D u (φ) u R 3, φ R, u = 1} die Menge aller Drehungen um Achsen durch den Nullpunkt ist, daher nennt man SO 3 R auch die Drehgruppe. Ab Dimension 4 werden die Verhältnisse komplizierter, es gibt dann auch orthogonale Matrizen mit Determinante 1 die keine Drehungen sind. Da auch dies für uns keine Rolle spielt, wollen wir dies hier nicht näher ausführen. Zusammen mit Satz 2 besagt der eben bewiesen Satz, dass Drehungen im R 3 genau die Produkte von zwei Spiegelungen sind. Dies kann man auch leicht explizit sehen. Seien u, v R 3 mit u = v = 1. Wir können u, v R 3 als linear unabhängig annehmen, 2-14

15 denn sonst ist S u = S v und somit S u S v = 1. Wegen S u S v SO 3 R muss S u S v eine Drehung mit S u S v 1 sein. Die Ebenen an denen gespiegelt wird sind E u := {x R 3 u x = } und E v := {x R 3 u v = } mit E u E v und ihr Schnitt g := E u E v ist eine Gerade die von S u S v punktweise fixiert wird, dies meint S u S v x = x für alle x g. Insbesondere muss g die Drehachse sein. Explizit ist g = {x R 3 x u und x v} = u v. Zur Bestimmung des Drehwinkels φ wollen wir die Formel aus Satz 4 verwenden. Beachte hierzu das für je zwei Vektoren x, y R n stets tr(xy t ) = n x i y i = x y i=1 gilt, also ergibt sich wegen der Drehwinkel φ als S u S v = (1 2uu t )(1 2vv t ) = 1 2(uu t + vv t ) + 4(u v)uv t cos φ = 1 2 (tr(s us v ) 1) = 1 2 (3 2 u 2 2 v 2 + 4(u v) 2 1) = 2(u v) 2 1. Bezeichnet ψ den Winkel zwischen u und v, so ist u v = u v cos ψ = cos ψ, also cos φ = 2 cos 2 ψ 1 = cos(2ψ). Als Drehachse von S u S v haben wir also u v und der Drehwinkel ist das Doppelte des Winkels zwischen u und v. Zum Abschluß wollen wir noch eine eine weitere Beschreibung von Drehungen besprechen, die sogenannten Eulerwinkel. Wir hatten bereits mehrfach die Drehungen um die x-achse verwendet, und entsprechend haben auch die Drehungen um y- und z-achse eine sehr einfache Form, nämlich D 1 (φ) := 1 cos φ sin φ sin φ cos φ, D 2 (φ) := cos φ sin φ 1 sin φ cos φ D 3 (φ) :=, cos φ sin φ sin φ cos φ 1 Aus diesen drei speziellen Drehungen kann man alle anderen Drehungen zusammensetzen, d.h. zu einer beliebigen Drehmatrix A gibt es immer drei Winkel α, β, γ, die 2-15.

16 sogenannten Euler Winkel von A, so, dass A = D 1 (α)d 2 (β)d 3 (γ) = cos β cos γ cos β sin γ sin β sin α sin β cos γ + cos α sin γ sin α sin β sin γ + cos α cos γ sin α cos β cos α sin β cos γ + sin α sin γ cos α sin β sin γ + sin α cos γ cos α cos β gilt. Aus dieser Formel lassen sich die Euler Winkel bei gegebener Matrix A berechnen. Aus dem Eintrag a 13 ergibt sich β durch sin β = a 13 und wegen a 13 1 kann β auf β π/2 also β = arcsin(a 13 ) normiert werden. Dann wird also auch 1 = a a a 2 13 also a a 2 12 = 1 a 2 13 = 1 sin 2 β = cos 2 β ( ) 2 ( ) 2 a11 a12 + = 1 cos β cos β und somit erhalten wir einen bis auf Vielfache von 2π eindeutigen Winkel γ mit a 11 = cos β cos γ und a 12 = cos β sin γ. Analog ist auch α bis auf Vielfache von 2π eindeutig festgelegt. Wir wollen dies einmal am Beispiel der Drehmatrix D = vorführen. Es ist sin β = 2/3, also insbesondere sin β <. Damit ist π/2 < β <. Außerdem ist cos 2 β = 1 sin 2 β = 5/9, also cos β = 5/3. Explizit ist β = arcsin(2/3). Wegen 1/3 = cos β sin γ = ( 5/3) sin γ ist sin γ = 1/ 5 und weiter 2/3 = cos β cos γ = ( 5/3) cos γ, d.h. cos γ = 2/ 5. Also ist < γ < π/2 und γ = arcsin(1/ 5). Analog folgt α = γ = arcsin(1/ 5). 2-16

6 Symmetrische und hermitesche Matrizen

6 Symmetrische und hermitesche Matrizen $Id: quadrat.tex,v.2 27/7/5 :59:6 hk Exp $ $Id: orthogonal.tex,v.5 27/7/5 2::22 hk Exp $ 6 Symmetrische und hermitesche Matrizen 6. Quadratische Formen und Hauptachsentransformation In der letzten Sitzung

Mehr

6 Symmetrische und hermitesche Matrizen

6 Symmetrische und hermitesche Matrizen $Id: quadrat.tex,v.0 0/06/9 :47:4 hk Exp $ $Id: orthogonal.tex,v.4 0/06/9 3:46:46 hk Exp $ 6 Symmetrische und hermitesche Matrizen 6.3 Quadratische Funktionen und die Hauptachsentransformation Wir sind

Mehr

1 Analytische Geometrie und Grundlagen

1 Analytische Geometrie und Grundlagen Mathematische Probleme, SS 28 Dienstag 29.5 $Id: vektor.tex,v.46 28/5/29 6:4: hk Exp $ Analytische Geometrie und Grundlagen.6 Bewegungen und Kongruenzbegriffe Am Ende der letzten Sitzung hatten wir bereits

Mehr

7 Orthogonale und unitäre Matrizen

7 Orthogonale und unitäre Matrizen $Id: orthogonal.tex,v.6 2/7/ 4::3 hk Exp $ $Id: mdiffb.tex,v.3 2/7/ 4::5 hk Exp hk $ 7 Orthogonale und unitäre Matrizen 7.2 Drehungen Wir wollen uns jetzt mit Drehungen im dreidimensionalen Raum beschäftigen.

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag. $Id: quadrat.tex,v.5 9//5 ::59 hk Exp $ $Id: orthogonal.tex,v.4 9// ::54 hk Exp $ $Id: fourier.tex,v. 9// :: hk Exp $ Symmetrische Matrizen und quadratische

Mehr

1 Analytische Geometrie und Grundlagen

1 Analytische Geometrie und Grundlagen $Id: vektor.tex,v 1.44 2018/05/17 14:11:13 hk Exp $ 1 Analytische Geometrie und Grundlagen 1.6 Bewegungen und Kongruenzbegriffe Wir untersuchen gerade die Spiegelung an einer Hyperebene h R d. Ist ein

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

Mathematische Probleme, SS 2013 Montag 3.6. $Id: convex.tex,v /06/03 20:40:11 hk Exp hk $

Mathematische Probleme, SS 2013 Montag 3.6. $Id: convex.tex,v /06/03 20:40:11 hk Exp hk $ $Id: convex.tex,v 1.9 2013/06/03 20:40:11 hk Exp hk $ 3 Konvexgeometrie 3.3 Automorphismengruppen platonischer Körper Wir beschäftigen uns gerade mit Drehungen im R 3, und hatten nachgerechnet das die

Mehr

1 Analytische Geometrie und Grundlagen

1 Analytische Geometrie und Grundlagen $Id: vektor.tex,v 1.24 2017/05/18 11:18:04 hk Exp $ 1 Analytische Geometrie und Grundlagen 1.6 Bewegungen und Kongruenzbegriffe In diesem Abschnitt wollen wir die Automorphismengruppe der euklidischen

Mehr

Lie Gruppen, SS 2010 Montag $Id: intro.tex,v /04/23 12:56:11 hk Exp hk $

Lie Gruppen, SS 2010 Montag $Id: intro.tex,v /04/23 12:56:11 hk Exp hk $ Lie Gruppen, SS 2 Montag 9.4 $Id: intro.tex,v.5 2/4/23 2:56: hk Exp hk $ Einleitung Wir wollen jetzt die Frage der Umkehrbarkeit der Exponentialfunktion behandeln. Zunächst werden wir einsehen, dass exp

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Ingenieure II, SS 9 Dienstag $Id: jordantex,v 8 9// 4:48:9 hk Exp $ $Id: quadrattex,v 9// 4:49: hk Exp $ Eigenwerte und die Jordansche Normalform Matrixgleichungen und Matrixfunktionen Eine

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist

Mehr

Eine Affinität α eines euklidischen Raumes heißt eine Bewegung, wenn sie Abstände (und damit auch Winkel) erhält, wenn also für alle Punkte X, Y gilt:

Eine Affinität α eines euklidischen Raumes heißt eine Bewegung, wenn sie Abstände (und damit auch Winkel) erhält, wenn also für alle Punkte X, Y gilt: 5 Zur Geometrie euklidischer Bewegungen 5.1 Bewegungen Eine Affinität α eines euklidischen Raumes heißt eine Bewegung, wenn sie Abstände (und damit auch Winkel) erhält, wenn also für alle Punkte X, Y gilt:

Mehr

Diagonalisierbarkeit symmetrischer Matrizen

Diagonalisierbarkeit symmetrischer Matrizen ¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren

Mehr

7.2 Die adjungierte Abbildung

7.2 Die adjungierte Abbildung 7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)

Mehr

$Id: anageo.tex,v /01/18 21:24:38 hk Exp hk $

$Id: anageo.tex,v /01/18 21:24:38 hk Exp hk $ $Id: anageo.tex,v 1.3 9/1/18 1:4:38 hk Exp hk $ II. Lineare Algebra 1 Analytische Geometrie 1.1 Das Skalarprodukt v w u p Wir wollen noch eine weiteres Ergebnis der eben durchgeführten Überlegung festhalten.

Mehr

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum

Mehr

6 Symmetrische und hermitesche Matrizen

6 Symmetrische und hermitesche Matrizen Mathematik für Physiker II, SS Freitag 4.6 $Id: quadrat.tex,v.8 /6/4 4:44:39 hk Exp hk $ 6 Symmetrische und hermitesche Matrizen 6. Prä-Hilberträume Wir sind gerade mit der Diskussion der sogenannten Ausgleichsgerade

Mehr

Aufgabe 1. Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = 1). Es gilt det(λa) = (λ) n det(a).

Aufgabe 1. Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = 1). Es gilt det(λa) = (λ) n det(a). Aufgabe Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = Es gilt det(λa = (λ n det(a det I n = n? Nein (außer für n = Es gilt deti n = det(ab = det A det B? Ja det(a =

Mehr

4 Funktionenfolgen und normierte Räume

4 Funktionenfolgen und normierte Räume $Id: norm.tex,v 1.48 2017/06/14 15:16:10 hk Exp $ $Id: jordan.tex,v 1.26 2017/06/16 10:59:58 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Zum Abschluss dieses Kapitels behandeln

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 6

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 6 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum

Mehr

Lineare Algebra II 11. Übungsblatt

Lineare Algebra II 11. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross 9 / Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest (Bearbeitung innerhalb von Minuten und ohne Benutzung des

Mehr

6 Symmetrische und hermitesche Matrizen

6 Symmetrische und hermitesche Matrizen Mathematik für Physiker II, SS 7 Freitag 3.6 $Id: quadrat.tex,v.3 7/6/3 :8:3 hk Exp $ 6 Symmetrische und hermitesche Matrizen 6. Symmetrische und hermitesche Matrizen Wir kommen jetzt zu den symmetrischen

Mehr

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016, Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren

Mehr

Lineare Algebra und analytische Geometrie II (Unterrichtsfach) Lösungsvorschlag

Lineare Algebra und analytische Geometrie II (Unterrichtsfach) Lösungsvorschlag MATHEMATISCHES INSTITUT DER UNIVERSITÄT MÜNCHEN Dr E Schörner SS 0 Blatt 9 9060 Übungen zur Vorlesung Lineare Algebra und analytische Geometrie II (Unterrichtsfach Lösungsvorschlag a Die gegebene Matrix

Mehr

Wiederholungsserie II

Wiederholungsserie II Lineare Algebra II D-MATH, FS 205 Prof. Richard Pink Wiederholungsserie II. Zeige durch Kopfrechnen, dass die folgende reelle Matrix invertierbar ist: 205 2344 234 990 A := 224 423 990 3026 230 204 9095

Mehr

1.5 Kongruenz und Ähnlichkeit

1.5 Kongruenz und Ähnlichkeit 19 1.5 Kongruenz und Ähnlichkeit Definition Sei A n der affine Standardraum zum Vektorraum R n. Eine Abbildung F : A n A n heißt Isometrie, falls d(f (X), F (Y )) = d(x, Y ) für alle X, Y A n gilt. Es

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

Mathematische Probleme, SS 2015 Montag $Id: quadratisch.tex,v /06/22 12:08:41 hk Exp $

Mathematische Probleme, SS 2015 Montag $Id: quadratisch.tex,v /06/22 12:08:41 hk Exp $ Mathematische Probleme, SS 15 Montag 6 $Id: quadratischtex,v 111 15/06/ 1:08:41 hk Exp $ 4 Kegelschnitte 41 Quadratische Gleichungen In der letzten Sitzung hatten wir die Normalform (1 ɛ )x + y pɛx p =

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

5 Zur Geometrie euklidischer Bewegungen. Eine Bewegung eines euklidischen Raumes wird bezüglich eines kartesischen Koordinatensystems

5 Zur Geometrie euklidischer Bewegungen. Eine Bewegung eines euklidischen Raumes wird bezüglich eines kartesischen Koordinatensystems 5 Zur Geometrie euklidischer Bewegungen 5.1 Erinnerung an 3.3.3 Eine Bewegung eines euklidischen Raumes wird bezüglich eines kartesischen Koordinatensystems beschrieben durch x = U x + w (U T U = E) mit

Mehr

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können

Mehr

Lösung 13: Unitäre Vektorräume und normale Abbildungen

Lösung 13: Unitäre Vektorräume und normale Abbildungen D-MATH Lineare Algebra II FS 2017 Dr. Meike Akveld Lösung 13: Unitäre Vektorräume und normale Abbildungen 1. a) Im Folgenden sei γ : V V C die Abbildung γ(v, w) v + w 2 v w 2 i v + iw 2 + i v iw 2. : Wir

Mehr

Einige Lösungsvorschläge für die Klausur zur Vorlesung

Einige Lösungsvorschläge für die Klausur zur Vorlesung Prof Klaus Mohnke Institut für Mathematik Einige Lösungsvorschläge für die Klausur zur Vorlesung Lineare Algebra und analtische Geometrie II* - SS 7 Aufgabe Im R mit dem Standardskalarprodukt ist die folgende

Mehr

3 Geometrische Klassifikation der Bewegungen im R 2 und R 3

3 Geometrische Klassifikation der Bewegungen im R 2 und R 3 3 Geometrische Klassifikation der Bewegungen im R 2 und R 3 Sei f : R n R n eine Bewegung Sie kann beschrieben werden in der Form Dabei ist T (f)(x) = A x f(x) = Ax + b mit A O(n) und b R n Definition:

Mehr

Lineare Algebra für Physiker 11. Übungsblatt

Lineare Algebra für Physiker 11. Übungsblatt Lineare Algebra für Physiker 11. Übungsblatt Fachbereich Mathematik SS 01 Prof. Dr. Matthias Schneider./. Juli 01 Dr. Silke Horn Dipl.-Math. Dominik Kremer Gruppenübung Aufgabe G1 (Minitest) (a) Welche

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

6. Normale Abbildungen

6. Normale Abbildungen SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische

Mehr

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w = 1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition

Mehr

Klausur HM I H 2005 HM I : 1

Klausur HM I H 2005 HM I : 1 Klausur HM I H 5 HM I : 1 Aufgabe 1 4 Punkte): Zeigen Sie mit Hilfe der vollständigen Induktion: n 1 1 + 1 ) k nn k n! für n. Lösung: Beweis mittels Induktion nach n: Induktionsanfang: n : 1 ) 1 + 1 k

Mehr

D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 011 Tom Ilmanen. Musterlösung 12. a ij = v i,av j (A ist symmetrisch) = Av i,v j

D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 011 Tom Ilmanen. Musterlösung 12. a ij = v i,av j (A ist symmetrisch) = Av i,v j D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 0 Tom Ilmanen Musterlösung 2. Falls b := (v,,v n ) eine Orthonormalbasis von V ist, dann lassen sich die Komponenten von einem Vektor v = n i= t i v i bezüglich

Mehr

EXKURS: MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

EXKURS: MATRIZEN UND LINEARE GLEICHUNGSSYSTEME EXKURS: MATRIZEN UND LINEARE GLEICHUNGSSYSTEME In diesem Abschnitt wiederholen wir zunächst grundlegende Definitionen und Eigenschaften im Bereich der Matrizenrechnung, die wahrscheinlich bereits in Ansätzen

Mehr

4 Funktionenfolgen und normierte Räume

4 Funktionenfolgen und normierte Räume $Id: norm.tex,v 1.57 2018/06/08 16:27:08 hk Exp $ $Id: jordan.tex,v 1.34 2018/07/12 20:08:29 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Am Ende der letzten Sitzung hatten wir zwei

Mehr

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n Universität Stuttgart Physik und ihre Didaktik PD Dr Holger Cartarius Matrizen Matrizen: Ein rechteckiges Zahlenschema der Form a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A a m,1 a m,2 a m,n (a) nennt man eine

Mehr

4 Orthogonale Endormorphismen

4 Orthogonale Endormorphismen 4 Orthogonale Endormorphismen Frage: Bei welchen Abbildungen R R bzw. R 3 R 3 bleibt der Abstand zwischen zwei Punkten erhalten? Für α R setzen wir cosα sin α D(α) = und S(α) := sin α cosα ( cos α sin

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

8 Euklidische und unitäre Vektorräume. Skalarprodukte Orthogonalität Matrizen

8 Euklidische und unitäre Vektorräume. Skalarprodukte Orthogonalität Matrizen 8 Euklidische und unitäre Vektorräume Skalarprodukte Orthogonalität Matrizen 8 Euklidische und unitäre Vektorräume Skalarprodukte Orthogonalität Matrizen In diesem Kapitel werden nur endlich dimensionale

Mehr

1 Dreiecke. 1.6 Ähnliche Dreiecke. Mathematische Probleme, SS 2019 Donnerstag 2.5. $Id: dreieck.tex,v /05/03 14:05:29 hk Exp $

1 Dreiecke. 1.6 Ähnliche Dreiecke. Mathematische Probleme, SS 2019 Donnerstag 2.5. $Id: dreieck.tex,v /05/03 14:05:29 hk Exp $ $Id: dreieck.tex,v 1.60 2019/05/03 14:05:29 hk Exp $ 1 Dreiecke 1.6 Ähnliche Dreiecke Wir hatten zwei Dreiecke kongruent genannt wenn in ihnen entsprechende Seiten jeweils dieselbe Länge haben und dann

Mehr

1 Analytische Geometrie und Grundlagen

1 Analytische Geometrie und Grundlagen $Id: vektor.tex,v 1.43 2018/05/15 16:07:13 hk Exp $ 1 Analytische Geometrie und Grundlagen 1.5 Abstände und Winkel Am Ende der letzten Sitzung hatten wir begonnen zwei weitere Aussagen über Winkel zu beweisen,

Mehr

Höhere Mathematik II für die Fachrichtung Physik

Höhere Mathematik II für die Fachrichtung Physik Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Dipl.-Math. Sebastian Schwarz SS 5 4.5.5 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 4. Übungsblatt

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof. Dr. H. Brenner Osnabrück WS 0/06 Lineare Algebra und analytische Geometrie I Vorlesung... und ein guter Lehrer kann auch einem schlechten Schüler was beibringen Beziehung zwischen Eigenräumen Wir

Mehr

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β

Mehr

T := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass

T := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass I. a) Es sei (G, ) eine abelsche Gruppe mit neutralem Element e G. Zeigen Sie, dass U := {g G g 3 = e G } eine Untergruppe von G ist. b) In der symmetrischen Gruppe S 4 definieren wir analog zu a) die

Mehr

7 Lineare Abbildungen und Skalarprodukt

7 Lineare Abbildungen und Skalarprodukt Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

Analytische Geometrie

Analytische Geometrie 21 Vorlesungen über Analytische Geometrie für Lehramtstudierende der Schulformen Grund-, Mittel- und Realschule Jens Jordan Universität Würzburg, Wintersemster 2015/16 Hier kommt noch ein schönes Bildchen

Mehr

1 Analytische Geometrie und Grundlagen

1 Analytische Geometrie und Grundlagen $Id: vektor.tex,v 1.39 2018/05/03 14:55:15 hk Exp $ 1 Analytische Geometrie und Grundlagen 1.5 Abstände und Winkel Nachdem wir uns am Ende der letzten Sitzung an den Orthogonalitätsbegriff der linearen

Mehr

9 Lineare Differentialgleichungen

9 Lineare Differentialgleichungen $Id: lineartex,v 3 //8 ::37 hk Exp hk $ 9 Lineare Differentialgleichungen 9 Homogene lineare Differentialgleichungen Wir beschäftigen uns gerade mit den homogenen linearen Differentialgleichungen, also

Mehr

Bonusmaterial Euklidische und unitäre Vektorräume Geometrie in höheren Dimensionen

Bonusmaterial Euklidische und unitäre Vektorräume Geometrie in höheren Dimensionen Bonusmaterial Euklidische und unitäre Vektorräume Geometrie in höheren Dimensionen Orthogonale und unitäre Endomorphismen Wir untersuchen nun lineare Abbildungen in euklidischen und unitären Vektorräumen

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

Klausur zur Vorlesung Lineare Algebra B im SS 2002 an der Universität Hannover

Klausur zur Vorlesung Lineare Algebra B im SS 2002 an der Universität Hannover Dozent: Prof. Dr. Wolfgang Ebeling Übungsleiter: Dr. Detlef Wille Klausur zur Vorlesung Lineare Algebra B im SS an der Universität Hannover Joachim Selke 9. Februar Lineare Algebra B SS Klausur zur Vorlesung

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

7.3 Unitäre Operatoren

7.3 Unitäre Operatoren Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren

Mehr

Basisprüfung. 18. August 2015

Basisprüfung. 18. August 2015 Lineare Algebra I/II D-MATH, HS 4/FS 5 Prof Richard Pink Basisprüfung 8 August 25 [6 Punkte] Betrachte den reellen Vektorraum R 3 zusammen mit dem Standardskalarprodukt, und die Vektoren 9 3 v := 6, v

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Ingenieure II, SS 9 Freitag 6 $Id: jordantex,v 7 9/6/ :8:5 hk Exp $ 5 Eigenwerte und die Jordansche Normalform 5 Die Jordansche Normalform Nachdem wir bisher das Vorgehen zur Berechnung

Mehr

1 Analytische Geometrie und Grundlagen

1 Analytische Geometrie und Grundlagen $Id: vektor.tex,v 1.21 2017/05/13 16:28:55 hk Exp $ 1 Analytische Geometrie und Grundlagen 1.5 Abstände und Winkel In der letzten Sitzung haben wir einen orientierten Winkelbegriff zwischen Strahlen mit

Mehr

Mathematische Probleme, SS 2018 Dienstag $Id: dreieck.tex,v /06/12 14:54:26 hk Exp $

Mathematische Probleme, SS 2018 Dienstag $Id: dreieck.tex,v /06/12 14:54:26 hk Exp $ $Id: dreieck.tex,v 1.47 018/06/1 14:54:6 hk Exp $ Dreiecke.3 Einige spezielle Punkte im Dreieck Am Ende der letzten Sitzung hatten wir eingesehen, dass sich die drei Winkelhalbierenden eines Dreiecks in

Mehr

Hinweis: Die Klausur Lineare Algebra 2 für die Fachrichtung Informatik besteht aus den Aufgaben 2.1 bis 2.4.

Hinweis: Die Klausur Lineare Algebra 2 für die Fachrichtung Informatik besteht aus den Aufgaben 2.1 bis 2.4. Hinweis: Die Klausur Lineare Algebra 2 für die Fachrichtung Informatik besteht aus den Aufgaben 2.1 bis 2.4. Aufgabe 2.1 (8 Punkte) Es sei K ein Körper, n N, V ein 2n-dimensionaler K -Vektorraum und U

Mehr

3 Determinanten, Eigenwerte, Normalformen

3 Determinanten, Eigenwerte, Normalformen Determinanten, Eigenwerte, Normalformen.1 Determinanten Beispiel. Betrachte folgendes Parallelogramm in der Ebene R 2 : y (a + c, b + d) (c, d) (a, b) x Man rechnet leicht nach, dass die Fläche F dieses

Mehr

1 Analytische Geometrie und Grundlagen

1 Analytische Geometrie und Grundlagen $Id: vektor.tex,v 1.22 2017/05/15 15:10:33 hk Exp $ 1 Analytische Geometrie und Grundlagen 1.5 Abstände und Winkel In der letzten Sitzung haben wir einen orientierten Winkelbegriff zwischen Strahlen mit

Mehr

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen Hannover, den 7. Februar 2002 Aufgabe. Übungsblatt: Lineare Algebra II Abgabe: 8./9.4.2002 in den Übungsgruppen (2, 2, 3 Punkte) Der Vektorraum V = C[, ] sei mit dem üblichen Skalarprodukt f, g = f(t)g(t)

Mehr

13. ABBILDUNGEN EUKLIDISCHEN VEKTORRÄUMEN

13. ABBILDUNGEN EUKLIDISCHEN VEKTORRÄUMEN 13. ABBILDUNGEN in EUKLIDISCHEN VEKTORRÄUMEN 1 Orthogonale Abbildungen im R 2 und R 3. Eine orthogonale Abbildung ist eine lineare Abbildung, die Längen und Orthogonalität erhält. Die zugehörige Matrix

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Lineare Algebra II (NAWI) SS2014 Übungsblatt 1

Lineare Algebra II (NAWI) SS2014 Übungsblatt 1 Lineare Algebra II (NAWI) SS2014 Übungsblatt 1 Aufgabe 1. Welche der folgenden Abbildungen sind Sesquilinearformen oder Bilinearformen? Welche davon sind Skalarprodukte? (a) B 1 : R R R, (x, y) xy (b)

Mehr

Mathematische Probleme, SS 2019 Donnerstag $Id: dreieck.tex,v /04/12 17:03:16 hk Exp $

Mathematische Probleme, SS 2019 Donnerstag $Id: dreieck.tex,v /04/12 17:03:16 hk Exp $ $Id: dreieck.tex,v 1.53 2019/04/12 17:03:16 hk Exp $ 1 Dreiecke 1.1 Rechtwinklige Dreiecke Wir beschäftigen uns gerade mit den primitiven pythagoräischen Tripeln. Haben wir ein solches Tripel, also teilerfremde

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 213 Prof. Dr. Erich Walter Farkas Kapitel 7: Lineare Algebra Kapitel 7.5: Eigenwerte und Eigenvektoren einer quadratischen Matrix Prof. Dr. Erich Walter Farkas Mathematik

Mehr

6. Übungsblatt zur Mathematik II für Inf, WInf

6. Übungsblatt zur Mathematik II für Inf, WInf Fachbereich Mathematik Prof. Dr. Streicher Dr. Sergiy Nesenenko Pavol Safarik SS 5. 9. Mai 6. Übungsblatt zur Mathematik II für Inf, WInf Gruppenübung Aufgabe G (Standardskalarprodukt Sei v, e R und es

Mehr

Wiederholungsblatt Elementargeometrie LÖSUNGSSKIZZE

Wiederholungsblatt Elementargeometrie LÖSUNGSSKIZZE Wiederholungsblatt Elementargeometrie im SS 01 bei Prof. Dr. S. Goette LÖSUNGSSKIZZE Die Lösungen unten enthalten teilweise keine vollständigen Rechnungen. Es sind aber alle wichtigen Zwischenergebnisse

Mehr

Klausur HM I F 2004 HM I : 1

Klausur HM I F 2004 HM I : 1 Klausur HM I F 004 HM I : Aufgabe (5 Punkte): Für welche n gilt die folgende Aussage? ( n ) det n! n 0 (n )! () Führen Sie den Beweis mit Hilfe der vollständigen Induktion. Lösung: Beweis per Induktion

Mehr

8 Lineare Abbildungen und Matrizen

8 Lineare Abbildungen und Matrizen 8 Lineare Abbildungen und Matrizen 8.1 Lineare Abbildungen Wir beschäftigen uns nun mit Abbildungen zwischen linearen Räumen. Von besonderem Interesse sind Abbildungen, die die Struktur der linearen Räume

Mehr

Musterlösung der Klausur zur linearen Algebra II

Musterlösung der Klausur zur linearen Algebra II David Blottière SS 7 Patrick Schützdeller Universität Paderborn Julia Sauter Musterlösung der Klausur zur linearen Algebra II Aufgabe 1 Bestimmen Sie Jordan-Normalformen der folgenden Matrizen, und schreiben

Mehr

Exkurs: Klassifikation orthogonaler 2 2-Matrizen.

Exkurs: Klassifikation orthogonaler 2 2-Matrizen. Exkurs: Klassifikation orthogonaler 2 2-Matrizen. Aussage: Es gilt: (a) Jede orthogonale 2 2 Matrix A mit det(a) = 1 hat das Aussehen cos(α) sin(α) D(α) = sin(α) cos(α), wobei α [0,2π[. Ist sin(α) 0, so

Mehr

10 Unitäre Vektorräume

10 Unitäre Vektorräume 10 Unitäre Vektorräume Pink: Lineare Algebra 2014/15 Seite 98 10 Unitäre Vektorräume Die Theorie komplexer Vektorräume mit Skalarprodukt folgt denselben Linien wie die Theorie reeller Vektorräume mit Skalarprodukt;

Mehr

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Musterlösungen zu den Übungen

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Musterlösungen zu den Übungen Technische Universität München Department of Physics Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Musterlösungen zu den Übungen Freitag, 6.. Sascha Frölich

Mehr

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3 Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare

Mehr

2 Koordinatentransformationen

2 Koordinatentransformationen Mathematik für Ingenieure III, WS 9/ Mittwoch 8. $Id: transform.tex,v.8 //4 :9: hk Exp $ Koordinatentransformationen. Lineare Koordinatentransformationen Wir überlegen uns dies zunächst im Spezialfall

Mehr

Höhere Mathematik I. Variante A

Höhere Mathematik I. Variante A Lehrstuhl II für Mathematik Prof. Dr. E. Triesch Höhere Mathematik I WiSe / Variante A Zugelassene Hilfsmittel: Als Hilfsmittel zugelassen sind handschriftliche Aufzeichnungen von maximal DinA4-Blättern.

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr