6 Symmetrische und hermitesche Matrizen

Größe: px
Ab Seite anzeigen:

Download "6 Symmetrische und hermitesche Matrizen"

Transkript

1 $Id: quadrat.tex,v.0 0/06/9 :47:4 hk Exp $ $Id: orthogonal.tex,v.4 0/06/9 3:46:46 hk Exp $ 6 Symmetrische und hermitesche Matrizen 6.3 Quadratische Funktionen und die Hauptachsentransformation Wir sind gerade mit der Hauptachsentransformation quadratischer Funktionen f(x = (Ax x+b x+c beschäftigt. Im Fall einer quadratischen Form f(x = (Ax x konnten wir dabei eine orthognale Matrix S finden für die S t AS = D eine Diagonalmatrix ist, und bezüglich der durch die Spalten von S gebildeten Orthonormalbasis des R n hatte f die Form f(sx = n i= λ ix i wobei λ,..., λ n die Eigenwerte von A sind. Ist auch ein linearer Term vorhanden, so war die Situation etwas komplizierter. Es traten zwei verschiedene Fälle auf, entweder ist b im Bild von A, und durch Wahl eines Nullpunkts u mit Au = b/ konnten wir den linearen Term zum verschwinden bringen. Andernfalls hatten wir b = b + b als Summe mit b Bild(A, b Bild(A geschrieben, und durch Wahl eines Nullpunkts u mit Au = b / konnte der Vektor b durch b ersetzt werden. Konkret hatten wir mit den Rechnungen zum Beispiel f(x, y, z = x + y + z xy + yz + x + y begonnen. Die Matrix A hat die drei Eigenwerte λ =, λ = und λ 3 = 0. Als normierte Eigenvektoren zu den ersten beiden Eigenwerten hatten sich u = 0, u = ergeben. Dann ist u, u eine Orthonormalbasis des Bildes von A und wir konnten die Orthogonalprojektion b von b auf das Bild sowie den Vektor b als (3 4 b = (b u u + (b u u = ( 4 ( + und b = b b = 4 ( + 4 ( + 4 ( + 4 berechnen. Beachte das b b insbesondere b / Bild(A bedeutet, wir sind also im obigen Fall. Im nächsten Schritt berechnen wir einen passenden Nullpunkt u und hierfür suchen wir einen Vektor u mit Au = b /. Zur Bestimmung von u müssen wir erfreulicherweise kein lineares Gleichungssystem mehr lösen, wir haben schon alle 0-

2 nötigen Daten beisammen. Die Vektoren u, u sind ja Eigenvektoren von A mit Au = λ u und Au = λ u, d.h. wir haben auch b = (b u u + (b u u = b u λ (λ u + b u λ (λ u = b u λ Au + b u = A Au λ ( b u u + b u u λ λ. Folglich können wir als Lösung von Au = b / beispielsweise u := ( b u u + b u u = λ λ ( u + 4 ( u = (5 6 ( 6 (3 + 6 verwenden. Mit u als Koordinatenursprung ist dann wegen f(u = 3 ( 39 auch f(x = (Ax x + b x + 3 ( 39. Jetzt kommen wir erst einmal nicht weiter, und müssen uns überlegen wie man in der Situation des Fall weitermacht. Da die Matrix A symmetrisch ist, haben wir für alle x R n und alle y Kern A stets (Ax y = x (Ay = 0, d.h. Bild und Kern von A stehen senkrecht aufeinander. Dies können wir auch leicht in Satz 7 ablesen, ist u,..., u n eine aus Eigenvektoren bestehende Orthonormalbasis, so ist das Bild gleich dem Erzeugnis der Eigenvektoren u i zu von Null verschiedenen Eigenwerten und der Kern ist der Eigenraum zu λ = 0 also das Erzeugnis der restlichen u i. Haben wir also f(x = (Ax x + b x + c mit b 0 senkrecht auf dem Bild von A, so ist auch Ab = 0. In anderen Worten ist b ein Eigenvektor zum Eigenwert 0 von A. Es gibt nun wieder eine orthogonale Matrix S mit D := S t AS = λ... wobei λ,..., λ n die Eigenwerte von A sind. Dabei numerieren wir die Eigenwerte von A so durch, dass die ersten r := rang A Eigenwerte von Null verschieden sind λ,..., λ r 0 während die hinteren n r Eigenwerte alle gleich Null sind λ r+ = = λ n = 0. Bei der Berechnung des zum Eigenwert 0 gehörenden Teils der aus Eigenvektoren von A bestehenden Orthonormalbasis des R n, hatten wir zuerst eine Basis v r+,..., v n dieses Eigenraums bestimmt, und auf diese dann das Gram Schmidtsche Orthonormalisierungsverfahren angewandt. Wegen Ab = 0, b 0 können 0- λ n,

3 wir die Basis dann mit v r+ = b wählen, und es wird u r+ = v r+ / v r+ = b/ b. Damit ist b = µu r+ mit µ := b. Es folgt f(x := f(sx = (ASx (Sx + b (Sx + c = (S t ASx x + (S t b x + c für alle x R. Dabei gilt Se r+ = u r+, also auch Insgesamt ist somit S t b = µs t u r+ = µs u r+ = µe r+. f(x,..., x n = λ x + + λ r x r + µx r+ + c. = (Dx x + (S t b x + c Damit haben wir auch endlich den zweiten Fall in Satz 0 begründet. Wenden wir dies einmal auf unser Beispiel an. Wir brauchen noch einen Eigenvektor zum Eigenwert 0, und hierfür können wir unseren schon berechneten Vektor b verwenden. Es ist b = 6 ( + 8 = 4 (3 + = 4 ( + = µ := b = ( + also wird u 3 = b b = und die endgültige orthogonale Matrix ist S = 0. Für die transformierte Funktion f(x = f(sx + u ist damit f(x, y, z = x + y + ( + z + 3 ( 39. Das Verfahren zur Berechnung der Hauptachsentransformation läuft wie folgt ab: Gegeben: Eine quadratische Funktion f(x = (Ax x+b x+c mit einer symmetrischen n n Matrix A, einem Vektor b R n und einer Zahl c R. Gesucht: Ein Koordinatenursprung u R n und eine Orthonormalbasis u,..., u n des R n so, dass die Formeln des Satz 0 gelten wenn S die orthogonale Matrix ist deren Spalten die Vektoren u,..., u n sind. Verfahren: Die Rechnung läuft in den folgenden Schritten ab. 0-3

4 . Berechne die Eigenwerte λ,..., λ n von A aufgezählt entsprechend ihrer jeweiligen Vielfachheit. Die Numerierung erfolge so, dass λ,..., λ r 0 und λ r+ =... = λ n = 0 ist, wobei r := rang(a der Rang von A ist. Dabei muss r nicht extra ausgerechnet werden, sondern ergibt sich durch Zählen der Eigenwerte ungleich Null.. Berechne für jeden der von Null verschiedenen Eigenwerte λ von A eine Orthonormalbasis des Eigenraums E λ (A. Dies geschieht wieder indem zuerst durch Lösen des homogenen linearen Gleichungssystems (A λx = 0 irgendeine Basis von E λ (A berechnet wird, und dann auf diese die Gram Schmidt Orthonormalisierung angewandt wird. 3. Fasse die in Schritt ( berechneten Orthonormalbasen zu einer Orthonormalbasis u,..., u r des Bildes von A zusammen. 4. Berechne b := (b u u + + (b u r u r und verwende u := als den Koordinatenursprung. ( b u λ u + + b u r u r λ r 5. Ist r < n, so löse das homogene lineare Gleichungssystem Ax = 0 um eine Basis v,..., v n r des Kerns von A zu erhalten. Im Fall b b wähle die Basis mit v = b b und setze µ := b b. Weiter wende die Gram Schmidt Orthonormalisierung auf v,..., v n r an, und bezeichne die erhaltene Orthonormalbasis des Kerns von A mit u r+,..., u n. 6. Der Koordinatenursprung ist der in Schritt (4 berechnete Punkt u und die aus den Hauptachsen bestehende Orthonormalbasis entsteht durch Zusammensetzen der in den Schritten (3 und (5 berechneten Teilbasen, also u,..., u n. Im Fall b = b sind wir dann im ersten Fall von Satz 0 und für b b sind wir im zweiten Fall mit dem in (5 berechneten µ. Den besonders wichtigen Spezialfall quadratischer Formen wollen wir noch gesondert festhalten. Korollar 6. (Hauptachsentransformation quadratischer Formen Sei A eine reelle, symmetrische n n-matrix und bezeichne λ,..., λ n die mit Vielfachheit aufgezählten Eigenwerte von A. Sei f(x := (Ax x die zu A gehörige quadratische Form. Dann existiert eine orthogonale n n-matrix S mit für alle x R n. f(sx = λ x + + λ n x n 0-4

5 Beweis: In der Notation von Satz 0 sind b = 0 und c = 0. Dann sind wir in Fall und können u = 0 als Koordinatenursprung verwenden. Insbesondere ist f(u = 0 und alles folgt aus Satz Definite Matrizen Zu jeder symmetrischen Matrix A R n n gehört eine quadratische Form f(x = (Ax x, mit der wir uns im letzten Abschnitt ausgiebig beschäftigt haben. Man kann noch etwas weiter gehen und eine Art Skalarprodukt einführen, indem wir für x, y R n einfach x y A := (Ax y definieren. Die meisten Eigenschaften eines Skalarprodukts sind dann erfüllt, für alle x, y, z R n und alle λ R haben wir x + y z A = (A(x + y z = (Ax + Ay z = (Ax z + (Ay z = x z A + y z A x y + z A = (Ax (y + z = (Ax y + (Ax z = x y A + x z A, λx y A = (A(λx y = (λax y = λ((ax y = λ x y A, x λy A = (Ax (λy = λ((ax y = λ x y A und y x A = (Ay x = y (Ax = (Ax y = x y A. Wir nennen die Matrix A positiv definit wenn A tatsächlich ein Skalarprodukt ist, wenn also auch (Ax x > 0 für alle 0 x R n gilt. In anderen Worten soll die quadratische Form f die Bedingung f(x > 0 für alle 0 x R n erfüllen. Ähnliche Überlegungen kann man auch im komplexen Fall anstellen. Ist A C n n eine hermitesche Matrix, so können wir genau wie im reellen Fall ein Skalarprodukt x y A := (Ax y definieren, und dieses erfüllt für alle x, y, z C n und alle λ C die Gleichungen x + y z A = (A(x + y z = (Ax + Ay z = (Ax z + (Ay z = x z A + y z A x y + z A = (Ax (y + z = (Ax y + (Ax z = x y A + x z A, λx y A = (A(λx y = (λax y = λ((ax y = λ x y A, x λy A = (Ax (λy = λ((ax y = λ x y A und y x A = (Ay x = y (Ax = (Ax y = x y A. Auch in diesem Fall nennen wir die Matrix A positiv definit wenn A ein Skalarprodukt ist. Dies führt uns auf die folgende Definition. Definition 6.9: Sei A eine symmetrische n n Matrix über K = R oder eine hermitesche n n Matrix über K = C. Dann heißt A. positiv definit wenn (Ax x > 0 für alle 0 x K n ist, 0-5

6 . negativ definit wenn (Ax x < 0 für alle 0 x K n ist, 3. positiv semidefinit wenn (Ax x 0 für alle x K n ist, 4. negativ semidefinit wenn (Ax x 0 für alle x K n ist und 5. indefinit wenn A weder positiv semidefinit noch negativ semidefinit ist. Dass die Matrix A indefinit ist, bedeutet also das es Vektoren x, y K n mit (Ax x > 0 und (Ay y < 0 gibt. Man kann die Definitheit einer Matrix an ihren Eigenwerten ablesen. Satz 6. (Charakterisierung definiter Matrizen über Eigenwerte Sei A eine symmetrische n n Matrix über K = R oder eine hermitesche n n Matrix über K = C. Bezeichne λ,..., λ n R die mit Vielfachheit aufgezählten Eigenwerte von A. Dann ist A genau dann. positiv definit wenn λ,..., λ n > 0 ist,. negativ definit wenn λ,..., λ n < 0 ist, 3. positiv semidefinit wenn λ,..., λ n 0 ist, 4. negativ semidefinit wenn λ,..., λ n 0 ist und 5. indefinit wenn es i, j n mit λ i > 0 und λ j < 0 gibt- Beweis: Nach Korollar 9 existiert im reellen Fall eine orthogonale Matrix S R n n und im komplexen Fall eine unitäre Matrix S C n n mit λ D := S AS =.... Wir behaupten das A dasselbe Defininiheitsverhalten wie D hat, also genau dann positiv definit, negativ definit, positiv semidefinit, negativ semidefinit oder indefinit ist wenn D dies ist. Da S insbesondere invertierbar ist, ist nämlich jeder Vektor y K n von der Form y = Sx mit x K n, und für jedes x K n gilt weiter λ n (ASx (Sx = (S ASx x = (Dx x, und die Zwischenbehauptung ist eingesehen. Für alle x K n gilt nun (Dx x = n λ i x i, i= 0-6

7 und damit sind alle Aussagen klar. Wir wollen jetzt zeigen das die Determinante einer positiv definiten Matrix stets positiv ist. Etwas allgemeiner trifft dies sogar auf alle quadratischen Unterdeterminanten zu. Lemma 6.3 (Determinanten positiv definiter Matrizen Seien K {R, C}, n N mit n und A = (a ij i,j n K n n eine positiv definite Matrix. Weiter seien r n und Indizes k < k <... < k r n gegeben. Dann gilt a k,k a k,k r..... > 0. a kr,k a kr,kr Beweis: Wir zeigen zunächst das det A > 0 ist. Nach Satz sind die mit Vielfachheit aufgezählten Eigenwerte λ,..., λ n > 0 von A alle positiv und nach 5.Korollar 8 ist det A = λ... λ n > 0. Nun sei eine Untermatrix B := a k,k a k,k r..... a kr,k a kr,kr von A gegeben. Wir behaupten das dann auch B positiv definit ist. Sei hierzu 0 x K r gegeben, und definiere den Vektor x K n durch Auffüllen der fehlenden Stellen mit Nullen, also x k i := x i für i r und x i := 0 für i {,..., n}\{k,..., k r }. Dann ist auch x 0 und (Bx x = (Ax x > 0. Damit ist B positiv definit, und wie bereits gezeigt folgt hieraus auch det B > 0. Zum Rechnen mit kleineren konkreten Matrizen kann Satz etwas mühsam sein, da wir zu seiner Anwendung ja erst einmal die Eigenwerte von A ausrechnen müssen. Manchmal praktischer ist eine Umkehrung des vorigen Lemmas, die wir nun formulieren wollen. Satz 6.4 (Determinantenkriterium für positive Definitheit Sei A = (a ij i,j n eine symmetrische n n Matrix über R. Dann ist A genau dann positiv definit, wenn gelten. a > 0, a a a a > 0, a a a 3 a a a 3 a 3 a 3 a a a n > 0,... und..... > 0 a n a nn

8 Auf einen Beweis dieses Satzes wollen wir verzichten. Beispielsweise haben wir damit für symmetrische Matrizen Rechnen wir einige Beispiele:. Sei ( a b positiv definit a > 0 und ad b > 0. b d A = ( 3 Dann ist a = > 0 aber det A = < 0, d.h. A ist nicht positiv definit... Sei Diesmal haben wir a = > 0, 5 A := > 0, aber = = 4, d.h. auch diese Matrix ist nicht positiv definit. 3. Schließlich sei Diesmal haben wir a = > 0, 5 A = = > 0 und d.h. die Matrix A ist positiv definit = = > 0, 7 Orthogonale und unitäre Matrizen Bereits in 6. hatten wir den Begriff einer orthogonalen Matrix im reellen Fall und einer unitären Matrix im komplexen Fall eingeführt. Wir hatten auch verschiedene 0-8

9 Beschreibungen für die Orthogonalität einer Matrix A gesehen A ist orthogonal A t A = AA t = und entsprechend im komplexen Fall A ist unitär A A = AA = Die Spalten von A sind eine Orthonormalbasis des R n Für alle x, y R n gilt (Ax (Ay = x y Die Spalten von A sind eine Orthonormalbasis des C n Für alle x, y C n gilt (Ax (Ay = x y. In diesem Abschnitt interessiert uns vor allem der letztgenannte Aspekt. Mit x = y folgt für eine orthogonale beziehungsweise unitäre n n Matrix A auch Ax = (Ax (Ax = x x = x für jedes x im R n beziehungsweise C n, d.h. die Matrix A erhält die Länge von Vektoren. Weiter folgt, dass eine orthogonale Matrix A auch den Winkel φ zwischen Vektoren x, y R n erhält, denn dieser bestimmt sich ja durch die Formel x y = x y cos φ, und da A Länge und Skalarprodukt nicht ändert, haben wir auch (Ax (Ay = Ax Ay cos φ. Orthogonale Matrizen sind also die linearen Abbildungen, die Längen und Winkel erhalten. Nehmen wir Verschiebungen hinzu, so ergeben sich die sogenannten Bewegungen, dies sind die Abbildungen der Form f : R n R n ; x Ax + u mit einer orthogonalen n n Matrix A und einem Vektor u R n. Wir halten zwei Grundtatsachen über orthogonale und unitäre Matrizen fest: Satz 7. (Eigenwerte und Determinante orthogonaler und unitärer Matrizen Sei A eine orthogonale n n Matrix über K = R oder eine unitäre n n Matrix über K = C. Dann gelten: (a Ist λ C ein komplexer Eigenwert von A, so ist λ =. (b Ist K = R so gilt det A = oder det A =. 0-9

10 (c Ist K = C so gilt det A =. (d Ist K = R und ist die Dimension n ungerade und det A =, so ist ein Eigenwert von A. (e Ist K = R und ist die Dimension n gerade und det A =, so ist ein Eigenwert von A. Beweis: (a Da eine orthogonale Matrix als komplexe Matrix unitär ist, können wir uns auf den Fall K = C beschränken. Sei 0 u C n ein Eigenvektor zu λ, also Au = λu. Dann erhalten wir also wegen u = 0 auch λ =. (c Es gilt u = Au = λu = λ u, det A = det(a det A = det(a det(a = det(a det(a t = det(a det(a = det(aa =, also ist auch det A =. (b Da A komplexe Matrix unitär ist, gilt nach (c zunächst det A = und wegen det A R ist det A {, }. (d,e Es ist χ A ( = det( A = det(aa t A = det(a det(a t = det(a det(a = ( n det(a det( A = ( n det(aχ A (. In den beiden Fällen n ungerade, det A = und n gerade, det A = ist ( n det A =, also χ A ( = χ A (, und dies bedeutet χ A ( = 0, d.h. ist ein Eigenwert von A. Die Bewegungen f(x = Ax + u bei denen A eine orthogonale Matrix mit det A = ist nennt man auch eigentliche Bewegungen. Dies sind diejenigen Bewegungen, die sich tatsächlich physikalisch realisieren lassen. Die Bewegungen mit det A = haben immer einen Spiegelungsanteil. Wir führen jetzt eine Bezeichnung für die Menge aller orthogonalen beziehungsweise unitären Matrizen ein. Hierzu sei n N mit n gegeben. Dann seien O n R := {A R n n A ist orthogonal} (Orthogonale Gruppe, SO n R := {A O n R det A = } (Spezielle orthogonale Gruppe, U n C := {A C n n A ist unitär} (Unitäre Gruppe, SU n C := {A U n C det A = } (Spezielle unitäre Gruppe. 0-0

11 Oft verwendete alternativen Schreibweisen für diese Mengen sind O(n = O n R für die orthogonale Gruppe, SO(n = SO n R für die spezielle orthogonale Gruppe, U(n = U n C für die unitäre Gruppe und SU(n = SU n C für die spezielle unitäre Gruppe. Das Wort Gruppe hatten wir schon einmal in I. 0. im Zusammenhang mit der symmetrischen Gruppe bei der Einführung von Determinanten verwendet. Genau wie damals wollen wir hier keine abstrakte Definition einer Gruppe geben, gemeint ist das Produkte und Inverse von Elementen aus einer Mengen O n R, SO n R, U n C, SU n C wieder in der entsprechenden Menge sind. In der Vorlesung wurde dies nur mitgeteilt, aber an dieser Stelle wollen wir es kurz vorrechnen. Angenommen A, B O n R sind zwei orthogonale Matrizen derselben Größe. Dann ist auch das Produkt AB invertierbar mit (AB = B A = B t A t = (AB t, d.h. es ist auch AB O n R. Außerdem ist auch (A = A = A tt = (A t, d.h. A O n R. Für die unitäre Gruppe U n C ist die Rechnung und die Aussagen über die beiden speziellen Gruppen SO n R und SU n C folgt dann aus den Eigenschaften der Determinante. Sind beispielsweise A, B SO n R, so wissen wir bereits AB, A O n R zusätzlich sind also AB, A SO n R. det(ab = det(a det(b = und det(a = det A =, 7. Spiegelungen Wir werden jetzt einen speziellen Typ orthogonaler Abbildungen untersuchen, die Spiegelung an einer Hyperebene. Im zweidimensionalen Fall n = sind dies Geradenspiegelungen und im dreidimensionalen Fall n = 3 handelt es sich um Ebenenspiegelungen. Da die Dimension für diese Überlegungen keine Rolle spielt, wollen wir hier gleich den n-dimensionalen Fall behandeln, und eine Hyperebene des R n war dann definitionsgemäß ein (n -dimensionaler affiner Teilraum des R n. Im letzten Semester hatten wir im Abschnitt I..3 bereits eine auch hier nützliche Beschreibung von Hyperebenen kennengelernt. Jede solche Hyperebene E ließ sich in Hessescher Normalform als E = {x R n u x = c} schreiben, wobei c R ist und u ein senkrecht auf E stehender Vektor der Länge u = ist, ein sogenannter Normalenvektor auf E. Da wir hier an orthogonalen Matrizen, also an linearen Abbildungen, interessiert sind, brauchen wir Hyperebenen durch den Nullpunkt, also c = 0. 0-

12 Eine Hyperebene durch den Nullpunkt läßt sich somit in der Form x u E = {x R n u x = 0} λ u beschreiben, wobei u ein Normalenvektor auf E ist. Wir wollen die Spiegelung S an der Hyperebene E berechnen. Sei also x R n. Dann schreiben wir x x = x + λu E mit einem Vektor x E und einem λ R. Sx Beim Spiegeln an E bleibt der Anteil x von x in E erhalten während der zu E senkrechte Anteil λu zu λu wird, d.h. insgesamt wird der Punkt x auf Sx = x λu abgebildet. Den zu u parallelen Anteil λu hatten wir auch bereits im I..3 des letzten Semesters ausgerechnet, wegen u = ist λ = u x, also λu = (u xu. Für das Bild von x unter der Spiegelung folgt die Spiegelungsformel Sx = x λu = x + λu λu = x λu = x (u xu. Damit haben wir die Spiegelung an E berechnet. Auch als Matrix bezüglich der kanonischen Basis des R n läßt sich S leicht berechnen, es ist ja Sx = x (u xu = x u(u x = x uu t x = ( uu t x, als Matrix ist also S = uu t. Beachte dabei das das Produkt eines Spaltenvektors mit n Einträgen und eines Zeilenvektors mit n Einträgen eine n n-matrix ist. Wir wollen zwei Beispiele rechnen. Sei g die Gerade g := ( 3 4 = {( 3t 4t t R} im R. Senkrecht auf dem Richtungsvektor steht beispielsweise v = ( 4 3 und normiert u = v v = ( 4 5 v = Für die Spiegelungsmatrix ergibt sich S = uu t = 5 vvt = 5 ( 4 3 (4 3 = ( = (

13 Als ein zweites Beispiel betrachte die Ebene E := {(x, y, z R 3 x + y z = 0} im R 3. Dann steht der Vektor v = (,, senkrecht auf E, und wegen v = 3 ist u := 3 v = 3 ein Normalenvektor von E. Als die Spiegelungsmatrix an der Ebene E ergibt sich S = uu t = 4 4 = Die Formel für Spiegelungen an Ebenen die nicht durch den Nullpunkt gehen läßt sich auf unsere Spiegelungsformel zurückführen. Angenommen die Hyperebene E R n ist in Hessescher Normalform als E = {x R n u x = c} gegeben, wobei u ein Normalenvektor auf E ist und c R ist. Wähle dann irgendeinen Punkt x 0 E, also u x 0 = c. Die Spiegelung kann man dann realisieren, indem zuerst x 0 nach 0 verschoben wird, dann an der zu E parallelen Hyperebene durch 0 gespiegelt wird, und anschließend 0 wieder nach x 0 zurückgeschoben wird. Die zu E parallele Hyperebene durch 0 hat dabei auch den Normalenvektor u. Wie sieht das als Formel aus? Sei x R n. Beim Verschieben geht x auf x x 0, und beim Spiegeln an der parallelen Hyperebene geht dieser Punkt auf x x 0 (u (x x 0 u = x x 0 (u xu + (u x 0 u = x x 0 (u xu + cu. Dann wird zurückgeschoben und als Spiegelung ergibt sich S c x = x (u xu + cu = Sx + cu, wobei S = uu t ist. Wir wollen nun einen Satz angeben der die besondere Bedeutung von Spiegelungen für die orthogonale Gruppe herausstellt, überhaupt jede orthogonale Matrix läßt sich als ein Produkt von Spiegelungen schreiben. Satz 7.: Jede orthogonale n n Matrix läßt sich als ein Produkt von höchstens n Spiegelungen schreiben. Auf einen Beweis müssen wir hie leider verzichten. Beachten wir das eine Spiegelung offenbar die Determinante hat, so hat ein Produkt einer geraden Anzahl von Spiegelungen die Determinante und ein Produkt einer ungeraden Anzahl von Spiegelungen hat die Determinante. Schauen wir uns einmal an was der Satz für die Ebene n = sagt. Nach dem Satz ist jede orthogonale Matrix entweder eine Spiegelung oder das Produkt von zwei Spiegelungen. Produkte von zwei Spiegelungen im R stellen sich 0-3

14 als Drehungen heraus, d.h. jede orthogonale -Matrix ist eine Spiegelung oder eine Drehung. Für unitäre Matrizen gibt es einen ähnlichen Satz, anstelle von Spiegelungen muss man aber auch die etwas allgemeineren Quasispiegelungen erlauben. Diese Dinge wollen wir hier aber nicht näher ausführen. 7. Drehungen Die wohl wichtigste Sorte othogonaler Matrizen sind die Drehungen. Wir werden diese im zwei und im dreidimensionalen Fall behandeln. In Dimension kennen wir uns dabei bereits bestens aus, die Drehung um einen Winkel φ wird durch die Matrix ( cos φ sin φ D(φ = sin φ cos φ beschrieben, wie wir schon in Abschnitt I.. im letzten Semester eingesehen haben. Im zweidimensionalen Fall kennen wir damit bereits alle orthogonalen Matrizen, es gilt nämlich, wie schon oben angedeutet: Satz 7.3 (Orthogonale Matrizen Ist A eine orthogonale Matrix, so ist A im Fall det A = eine Drehung und im Fall det A = eine Spiegelung. Beweis: Auf den folgenden Beweis hatten wir in der Vorlesung verzichtet. Sei ( a b A = O c d R. Zunächst nehmen wir ad bc = det A = an. Dann ist A invertierbar mit ( ( a c d b = A t = A = b d c a es müssen also a = d und c = b gelten. Damit wird = ad bc = a + b, es gibt also einen Winkel φ mit a = cos( φ = cos φ und b = sin( φ = sin φ. Folglich sind auch d = a = cos φ und c = b = sin φ und wir haben A = D(φ. Damit ist der Fall det A = vollständig behandelt. Nun nehme ad bc = det A = an. In diesem Fall haben wir ( ( a c d b = A t = A = b d c a also d = a und c = b sowie = ad bc = a b, also ist wieder c +d = a +b =. Somit gibt es einen Winkel φ mit c = sin(φ und d = cos(φ, also auch a = cos(φ 0-4

15 und b = sin(φ. Ist nun u = ( cos φ sin φ ( cos, so ist S u = uu t = φ sin φ cos φ sin φ cos φ sin φ ( cos(φ sin(φ = sin(φ cos(φ = A also ist A die Spiegelung an R u. 0-5

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

6 Symmetrische und hermitesche Matrizen

6 Symmetrische und hermitesche Matrizen $Id: quadrat.tex,v.2 27/7/5 :59:6 hk Exp $ $Id: orthogonal.tex,v.5 27/7/5 2::22 hk Exp $ 6 Symmetrische und hermitesche Matrizen 6. Quadratische Formen und Hauptachsentransformation In der letzten Sitzung

Mehr

6 Symmetrische und hermitesche Matrizen

6 Symmetrische und hermitesche Matrizen $Id: quadrat.tex,v 1.26 215/6/3 1:3:3 hk Exp $ $Id: orthogonal.tex,v 1.13 215/7/1 1:57:5 hk Exp $ 6 Symmetrische und hermitesche Matrizen 6.4 Definite Matrizen Wir hatten eine symmetrische reelle beziehungsweise

Mehr

6 Symmetrische und hermitesche Matrizen

6 Symmetrische und hermitesche Matrizen Mathematik für Physiker II, SS 7 Freitag 3.6 $Id: quadrat.tex,v.3 7/6/3 :8:3 hk Exp $ 6 Symmetrische und hermitesche Matrizen 6. Symmetrische und hermitesche Matrizen Wir kommen jetzt zu den symmetrischen

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn

Mehr

6 Symmetrische und hermitesche Matrizen

6 Symmetrische und hermitesche Matrizen Mathematik für Physiker II, SS Freitag 4.6 $Id: quadrat.tex,v.8 /6/4 4:44:39 hk Exp hk $ 6 Symmetrische und hermitesche Matrizen 6. Prä-Hilberträume Wir sind gerade mit der Diskussion der sogenannten Ausgleichsgerade

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Ingenieure II, SS 9 Dienstag $Id: jordantex,v 8 9// 4:48:9 hk Exp $ $Id: quadrattex,v 9// 4:49: hk Exp $ Eigenwerte und die Jordansche Normalform Matrixgleichungen und Matrixfunktionen Eine

Mehr

1 Analytische Geometrie und Grundlagen

1 Analytische Geometrie und Grundlagen $Id: vektor.tex,v 1.44 2018/05/17 14:11:13 hk Exp $ 1 Analytische Geometrie und Grundlagen 1.6 Bewegungen und Kongruenzbegriffe Wir untersuchen gerade die Spiegelung an einer Hyperebene h R d. Ist ein

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag. $Id: quadrat.tex,v.5 9//5 ::59 hk Exp $ $Id: orthogonal.tex,v.4 9// ::54 hk Exp $ $Id: fourier.tex,v. 9// :: hk Exp $ Symmetrische Matrizen und quadratische

Mehr

Diagonalisierbarkeit symmetrischer Matrizen

Diagonalisierbarkeit symmetrischer Matrizen ¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Ingenieure II, SS 9 Freitag 6 $Id: jordantex,v 7 9/6/ :8:5 hk Exp $ 5 Eigenwerte und die Jordansche Normalform 5 Die Jordansche Normalform Nachdem wir bisher das Vorgehen zur Berechnung

Mehr

4 Funktionenfolgen und normierte Räume

4 Funktionenfolgen und normierte Räume $Id: norm.tex,v 1.57 2018/06/08 16:27:08 hk Exp $ $Id: jordan.tex,v 1.34 2018/07/12 20:08:29 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Am Ende der letzten Sitzung hatten wir zwei

Mehr

1 Analytische Geometrie und Grundlagen

1 Analytische Geometrie und Grundlagen $Id: vektor.tex,v 1.24 2017/05/18 11:18:04 hk Exp $ 1 Analytische Geometrie und Grundlagen 1.6 Bewegungen und Kongruenzbegriffe In diesem Abschnitt wollen wir die Automorphismengruppe der euklidischen

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

6. Normale Abbildungen

6. Normale Abbildungen SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische

Mehr

4 Funktionenfolgen und normierte Räume

4 Funktionenfolgen und normierte Räume $Id: norm.tex,v 1.48 2017/06/14 15:16:10 hk Exp $ $Id: jordan.tex,v 1.26 2017/06/16 10:59:58 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Zum Abschluss dieses Kapitels behandeln

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

1 Analytische Geometrie und Grundlagen

1 Analytische Geometrie und Grundlagen Mathematische Probleme, SS 28 Dienstag 29.5 $Id: vektor.tex,v.46 28/5/29 6:4: hk Exp $ Analytische Geometrie und Grundlagen.6 Bewegungen und Kongruenzbegriffe Am Ende der letzten Sitzung hatten wir bereits

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

7.2 Die adjungierte Abbildung

7.2 Die adjungierte Abbildung 7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)

Mehr

Mathematische Probleme, SS 2013 Montag 3.6. $Id: convex.tex,v /06/03 20:40:11 hk Exp hk $

Mathematische Probleme, SS 2013 Montag 3.6. $Id: convex.tex,v /06/03 20:40:11 hk Exp hk $ $Id: convex.tex,v 1.9 2013/06/03 20:40:11 hk Exp hk $ 3 Konvexgeometrie 3.3 Automorphismengruppen platonischer Körper Wir beschäftigen uns gerade mit Drehungen im R 3, und hatten nachgerechnet das die

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016, Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren

Mehr

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Klausur zur Vorlesung Lineare Algebra B im SS 2002 an der Universität Hannover

Klausur zur Vorlesung Lineare Algebra B im SS 2002 an der Universität Hannover Dozent: Prof. Dr. Wolfgang Ebeling Übungsleiter: Dr. Detlef Wille Klausur zur Vorlesung Lineare Algebra B im SS an der Universität Hannover Joachim Selke 9. Februar Lineare Algebra B SS Klausur zur Vorlesung

Mehr

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }. 154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =

Mehr

7 Lineare Abbildungen und Skalarprodukt

7 Lineare Abbildungen und Skalarprodukt Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u

Mehr

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen Hannover, den 7. Februar 2002 Aufgabe. Übungsblatt: Lineare Algebra II Abgabe: 8./9.4.2002 in den Übungsgruppen (2, 2, 3 Punkte) Der Vektorraum V = C[, ] sei mit dem üblichen Skalarprodukt f, g = f(t)g(t)

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

$Id: anageo.tex,v /01/18 21:24:38 hk Exp hk $

$Id: anageo.tex,v /01/18 21:24:38 hk Exp hk $ $Id: anageo.tex,v 1.3 9/1/18 1:4:38 hk Exp hk $ II. Lineare Algebra 1 Analytische Geometrie 1.1 Das Skalarprodukt v w u p Wir wollen noch eine weiteres Ergebnis der eben durchgeführten Überlegung festhalten.

Mehr

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in

Mehr

Lineare Algebra für PhysikerInnen

Lineare Algebra für PhysikerInnen Universität Wien, SS 2015 Lineare Algebra für PhysikerInnen Beispiele für Multiple-Choice-Fragen Punkteschlüssel: [Typ 1 aus 4] und [Typ 3 aus 4]... 0.8 Punkte [Typ 2 aus 4]... 1 Punkt Bei der schriftlichen

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich Henning Krause Lineare Algebra Julia Sauter SS 27 Klausur 2.9.27 mit Lösungsvorschlag Jan Geuenich Aufgabe (4 Punkte: Sei n N und seien A und B zwei (n n-matrizen über einem Körper K. Wahr Falsch (a Es

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Analytische Geometrie

Analytische Geometrie 21 Vorlesungen über Analytische Geometrie für Lehramtstudierende der Schulformen Grund-, Mittel- und Realschule Jens Jordan Universität Würzburg, Wintersemster 2015/16 Hier kommt noch ein schönes Bildchen

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

10 Unitäre Vektorräume

10 Unitäre Vektorräume 10 Unitäre Vektorräume Pink: Lineare Algebra 2014/15 Seite 98 10 Unitäre Vektorräume Die Theorie komplexer Vektorräume mit Skalarprodukt folgt denselben Linien wie die Theorie reeller Vektorräume mit Skalarprodukt;

Mehr

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n Universität Stuttgart Physik und ihre Didaktik PD Dr Holger Cartarius Matrizen Matrizen: Ein rechteckiges Zahlenschema der Form a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A a m,1 a m,2 a m,n (a) nennt man eine

Mehr

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3 Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare

Mehr

A w w f f B w f w f A B w f w w A B A B A B. z = a 2 + b 2 =: r. c+id = ac+bd. 2 c 2 +d 2. z 2. z n = z. z = r cos(x) + ir sin(x) = reix

A w w f f B w f w f A B w f w w A B A B A B. z = a 2 + b 2 =: r. c+id = ac+bd. 2 c 2 +d 2. z 2. z n = z. z = r cos(x) + ir sin(x) = reix Formelsammlung Aussagenlogik Für beliebige Aussagen A, B gilt: Konjunktion Disjunktion Implikation Äquivalenz A B w f f f A B w w w f A B w f w w A B w f f w Mengenlehre Für beliebige Mengen A, B gilt:

Mehr

A w w f f B w f w f A B w f w w A B A B A B. z = a 2 + b 2 =: r. c+id = ac+bd. 2 c 2 +d 2. z 2. z n = z. z = r cos(x) + ir sin(x) = reix

A w w f f B w f w f A B w f w w A B A B A B. z = a 2 + b 2 =: r. c+id = ac+bd. 2 c 2 +d 2. z 2. z n = z. z = r cos(x) + ir sin(x) = reix Formelsammlung Aussagenlogik Für beliebige Aussagen A, B gilt: Konjunktion Disjunktion Implikation Äquivalenz A B w f f f A B w w w f A B w f w w A B w f f w Mengenlehre Für beliebige Mengen A, B gilt:

Mehr

8 Euklidische und unitäre Vektorräume. Skalarprodukte Orthogonalität Matrizen

8 Euklidische und unitäre Vektorräume. Skalarprodukte Orthogonalität Matrizen 8 Euklidische und unitäre Vektorräume Skalarprodukte Orthogonalität Matrizen 8 Euklidische und unitäre Vektorräume Skalarprodukte Orthogonalität Matrizen In diesem Kapitel werden nur endlich dimensionale

Mehr

1 Analytische Geometrie und Grundlagen

1 Analytische Geometrie und Grundlagen Mathematische Probleme, SS 208 Dienstag 0.4 $Id: vektor.tex,v.30 207/07/7 08:09:23 hk Exp hk $ Analytische Geometrie und Grundlagen In dieser Vorlesung wollen wir uns mit Fragen der sogenannten Elementargeometrie

Mehr

4.4 Hermitesche Formen

4.4 Hermitesche Formen 44 Hermitesche Formen Wie üblich bezeichnen wir das komplex konjugierte Element von ζ = a + bi C (a, b R) mit ζ = a bi Definition 441 Sei V ein C-Vektorraum Eine hermitesche Form (HF) auf V ist eine Abbildung

Mehr

Aufgabe 1. Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = 1). Es gilt det(λa) = (λ) n det(a).

Aufgabe 1. Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = 1). Es gilt det(λa) = (λ) n det(a). Aufgabe Die Determinante ist eine lineare Abbildung von C n n nach C? Nein (außer für n = Es gilt det(λa = (λ n det(a det I n = n? Nein (außer für n = Es gilt deti n = det(ab = det A det B? Ja det(a =

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

Wiederholungsserie II

Wiederholungsserie II Lineare Algebra II D-MATH, FS 205 Prof. Richard Pink Wiederholungsserie II. Zeige durch Kopfrechnen, dass die folgende reelle Matrix invertierbar ist: 205 2344 234 990 A := 224 423 990 3026 230 204 9095

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

$Id: matrix.tex,v /12/02 21:08:55 hk Exp $ $Id: vektor.tex,v /12/05 11:27:45 hk Exp hk $

$Id: matrix.tex,v /12/02 21:08:55 hk Exp $ $Id: vektor.tex,v /12/05 11:27:45 hk Exp hk $ $Id: matrixtex,v 14 2008/12/02 21:08:55 hk Exp $ $Id: vektortex,v 12 2008/12/05 11:27:45 hk Exp hk $ II Lineare Algebra 6 Die Matrixmultiplikation 63 Inverse Matrizen und reguläre lineare Gleichungssysteme

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $ Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit

Mehr

Mathematische Probleme, SS 2015 Montag $Id: quadratisch.tex,v /06/22 12:08:41 hk Exp $

Mathematische Probleme, SS 2015 Montag $Id: quadratisch.tex,v /06/22 12:08:41 hk Exp $ Mathematische Probleme, SS 15 Montag 6 $Id: quadratischtex,v 111 15/06/ 1:08:41 hk Exp $ 4 Kegelschnitte 41 Quadratische Gleichungen In der letzten Sitzung hatten wir die Normalform (1 ɛ )x + y pɛx p =

Mehr

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

6. Übungsblatt zur Mathematik II für Inf, WInf

6. Übungsblatt zur Mathematik II für Inf, WInf Fachbereich Mathematik Prof. Dr. Streicher Dr. Sergiy Nesenenko Pavol Safarik SS 5. 9. Mai 6. Übungsblatt zur Mathematik II für Inf, WInf Gruppenübung Aufgabe G (Standardskalarprodukt Sei v, e R und es

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Lina II - Aufgaben zur Vorbereitung für die Klausur (Teil 1) - Lösungen

Lina II - Aufgaben zur Vorbereitung für die Klausur (Teil 1) - Lösungen Lina II - Aufgaben zur Vorbereitung für die Klausur (Teil 1) - en Kommentare an HannesKlarner@FU-Berlinde FU Berlin SS 1 Dia- und Trigonalisierbarkeit Aufgabe (1) Gegeben seien A = i i C 3 3 und B = 1

Mehr

Basisprüfung. 18. August 2015

Basisprüfung. 18. August 2015 Lineare Algebra I/II D-MATH, HS 4/FS 5 Prof Richard Pink Basisprüfung 8 August 25 [6 Punkte] Betrachte den reellen Vektorraum R 3 zusammen mit dem Standardskalarprodukt, und die Vektoren 9 3 v := 6, v

Mehr

Kapitel 5 : Eigenwerte und Eigenvektoren

Kapitel 5 : Eigenwerte und Eigenvektoren Kapitel 5 : Eigenwerte und Eigenvektoren 5.1 Definition und allgemeine Eigenschaften Definition 5.1 Sei A eine quadratische (n n)-matrix. λ C heißt Eigenwert von A, wenn ein Vektor x C n mit x 0 existiert,

Mehr

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit

Mehr

D-MATH, D-PHYS, D-CHAB Lineare Algebra II FS 14 Manfred Einsiedler. Musterlösung 8. i=1. w 2, w 2 w 2 =

D-MATH, D-PHYS, D-CHAB Lineare Algebra II FS 14 Manfred Einsiedler. Musterlösung 8. i=1. w 2, w 2 w 2 = D-MATH, D-PHYS, D-CHAB Lineare Algebra II FS 14 Manfred Einsiedler Musterlösung 8 1. Wir konstruieren eine Orthogonalbasis aus der Basis (v 1, v 2, v ) mit dem Gram- Schmidt-Verfahren. Wir wenden die Formel

Mehr

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Musterlösungen zu den Übungen

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Musterlösungen zu den Übungen Technische Universität München Department of Physics Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Musterlösungen zu den Übungen Freitag, 6.. Sascha Frölich

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Lösbarkeit linearer Gleichungssysteme

Lösbarkeit linearer Gleichungssysteme Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Höhere Mathematik II für die Fachrichtung Physik

Höhere Mathematik II für die Fachrichtung Physik Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Dipl.-Math. Sebastian Schwarz SS 5 4.5.5 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 4. Übungsblatt

Mehr

Einige Lösungsvorschläge für die Klausur zur Vorlesung

Einige Lösungsvorschläge für die Klausur zur Vorlesung Prof Klaus Mohnke Institut für Mathematik Einige Lösungsvorschläge für die Klausur zur Vorlesung Lineare Algebra und analtische Geometrie II* - SS 7 Aufgabe Im R mit dem Standardskalarprodukt ist die folgende

Mehr

Musterlösungen zur Linearen Algebra II Übungsklausur

Musterlösungen zur Linearen Algebra II Übungsklausur Musterlösungen zur Linearen Algebra II Übungsklausur Aufgabe. Sei A R 3 3. Welche der folgenden Aussagen sind richtig? a Ist det(a =, dann ist A eine orthogonale Matrix. b Ist A eine orthogonale Matrix,

Mehr

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1 D-MAVT Lineare Algebra II FS 8 Prof. Dr. N. Hungerbühler Lösungen Serie. Welche der folgenden Vektoren sind Eigenvektoren der Matrix? (a) (,, ). Ein Vektor v ist Eigenvektor von A :=, falls Av ein skalares

Mehr

Lineare Algebra und analytische Geometrie II (Unterrichtsfach) Lösungsvorschlag

Lineare Algebra und analytische Geometrie II (Unterrichtsfach) Lösungsvorschlag MATHEMATISCHES INSTITUT DER UNIVERSITÄT MÜNCHEN Dr E Schörner SS 0 Blatt 9 9060 Übungen zur Vorlesung Lineare Algebra und analytische Geometrie II (Unterrichtsfach Lösungsvorschlag a Die gegebene Matrix

Mehr

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Technische Universität München Department of Physics Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Freitag, 16.03.2012 Sascha Frölich Ferienkurs Lin. Alg. -

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte (Teschl/Teschl 4.2 Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

9 Lineare Differentialgleichungen

9 Lineare Differentialgleichungen Mathematik für Ingenieure III, WS 29/2 Mittwoch.2 $Id: linear.tex,v.4 2/2/ :7:45 hk Exp hk $ 9 Lineare Differentialgleichungen 9.3 Differentialgleichungen mionstanten Koeffizienten Während sich allgemeine

Mehr

Lineare Algebra II 11. Übungsblatt

Lineare Algebra II 11. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross 9 / Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest (Bearbeitung innerhalb von Minuten und ohne Benutzung des

Mehr

Heinrich Heine-Universität Düsseldorf Sommersemester Lineare Algebra 1. Vierzehnte & Fünfzehnte Woche,

Heinrich Heine-Universität Düsseldorf Sommersemester Lineare Algebra 1. Vierzehnte & Fünfzehnte Woche, Fakultät für Mathematik PD Dr Markus Perling Heinrich Heine-Universität Düsseldorf Sommersemester 2014 Lineare Algebra 1 Vierzehnte & Fünfzehnte Woche, 1672014 10 Determinanten (Schluß) Das folgende Resultat

Mehr

3 Determinanten, Eigenwerte, Normalformen

3 Determinanten, Eigenwerte, Normalformen Determinanten, Eigenwerte, Normalformen.1 Determinanten Beispiel. Betrachte folgendes Parallelogramm in der Ebene R 2 : y (a + c, b + d) (c, d) (a, b) x Man rechnet leicht nach, dass die Fläche F dieses

Mehr

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können

Mehr

Serie a) Welche der folgenden Vektoren sind Eigenvektoren der Matrix 1 0 1? 0 1 1

Serie a) Welche der folgenden Vektoren sind Eigenvektoren der Matrix 1 0 1? 0 1 1 Prof. Norbert Hungerbühler Serie Lineare Algebra II ETH Zürich - D-MAVT. a Welche der folgenden Vektoren sind Eigenvektoren der Matrix? i (,,. ii (,,. iii (,,. iv (, 3,. v (,,. Ein Vektor v ist Eigenvektor

Mehr

Klausurenkurs zum Staatsexamen (SS 2013): Lineare Algebra und analytische Geometrie 3 Lösungsvorschlag

Klausurenkurs zum Staatsexamen (SS 2013): Lineare Algebra und analytische Geometrie 3 Lösungsvorschlag Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 23): Lineare Algebra und analytische Geometrie 3 Lösungsvorschlag 3. Mit Hilfe elementarer Zeilenumformungen sowie der Tatsache, daß sich die Determinante

Mehr

Kontrollfragen und Aufgaben zur 3. Konsultation

Kontrollfragen und Aufgaben zur 3. Konsultation 1 Technische Universität Ilmenau Fakultät für Mathematik und Naturwissenschaften Institut für Mathematik Prof. Dr. Michael Stiebitz Kontrollfragen und Aufgaben zur 3. Konsultation Termin: Ort: Determinante

Mehr

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 3. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 29, 27 Erinnerung Satz. Axiomatischer Zugang, Eigenschaften der Determinante. Die Abbildung det :

Mehr

3 Bilinearform, Basen und Matrizen

3 Bilinearform, Basen und Matrizen Lineare Algebra II 2. Oktober 2013 Mitschrift der Vorlesung Lineare Algebra II im SS 2013 bei Prof. Peter Littelmann von Dario Antweiler an der Universität zu Köln. Kann Fehler enthalten. Veröentlicht

Mehr

13. ABBILDUNGEN EUKLIDISCHEN VEKTORRÄUMEN

13. ABBILDUNGEN EUKLIDISCHEN VEKTORRÄUMEN 13. ABBILDUNGEN in EUKLIDISCHEN VEKTORRÄUMEN 1 Orthogonale Abbildungen im R 2 und R 3. Eine orthogonale Abbildung ist eine lineare Abbildung, die Längen und Orthogonalität erhält. Die zugehörige Matrix

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

7.3 Unitäre Operatoren

7.3 Unitäre Operatoren Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 25): Lineare Algebra und analytische Geometrie 2 2. (Frühjahr 29, Thema 3, Aufgabe 3) Gegeben sei die reelle 3 3 Matrix 4 2 A = 2 7 2 R 3 3. 2 2 a)

Mehr

Lösungsskizzen zur Klausur zur Linearen Algebra II. Definitionen

Lösungsskizzen zur Klausur zur Linearen Algebra II. Definitionen Technische Universität Berlin Sommersemester 2008 Institut für Mathematik 18 Juli 2008 Prof Dr Stefan Felsner Andrea Hoffkamp Lösungsskizzen zur Klausur zur Linearen Algebra II Aufgabe 1 (1+1+1 Punkte)

Mehr