6 Symmetrische und hermitesche Matrizen

Größe: px
Ab Seite anzeigen:

Download "6 Symmetrische und hermitesche Matrizen"

Transkript

1 Mathematik für Physiker II, SS 7 Freitag 3.6 $Id: quadrat.tex,v.3 7/6/3 :8:3 hk Exp $ 6 Symmetrische und hermitesche Matrizen 6. Symmetrische und hermitesche Matrizen Wir kommen jetzt zu den symmetrischen Matrizen über R beziehungsweise den hermiteschen Matrizen über C zurück. Wir hatten bereits gesehen, dass diese bezüglich des jeweiligen Skalarprodukts im R n beziehungsweise C n die Gleichung Ax y = x Ay für alle Vektoren x, y erfüllen. Dabei verwenden wir jetzt die im vorigen Abschnitt eingeführte Schreibweise für das Skalarprodukt. Im folgenden Satz werden wir die wesentlichen Eigenschaften derartiger Matrizen herleiten. Beachte dabei das wir den komplexen Fall als den allgemeinen Fall auffassen können, eine reelle, symmetrische Matrix ist als komplexe Matrix hermitesch. Satz 6.7 (Hauptsatz über symmetrische und hermitesche Matrizen Seien K = R und A eine symmetrische n n-matrix über R oder K = C und A eine hermitesche n n-matrix über C. Dann gelten: (a Die Matrix A ist diagonalisierbar und hat nur reelle Eigenwerte. (b Sind λ, µ zwei verschiedene Eigenwerte von A und u E λ (A, v E µ (A zugehörige Eigenvektoren, so ist u v =. (c Es gibt eine aus Eigenvektoren von A bestehende Orthonormalbasis des K n. Beweis: Sei λ C ein Eigenwert von A. Dann gibt es einen Vektor u C n mit Au = λu und u. Da die Matrix A in beiden Fällen hermitesch ist, folgt λ u = λ u u = λu u = Au u = u Au = u λu = λ u, also λ = λ und somit λ R. Damit sind alle Eigenwerte von A reell und insbesondere zerfällt das charakteristische Polynom χ A über K in Linearfaktoren. Sind λ, µ R zwei verschiedene Eigenwerte von A mit zugehörigen Eigenvektoren u, v, so rechnen wir λ u v = λu v = Au v = u Av = u µv = µ u v also (λ µ u v = und wegen λ µ folgt u v =. Nun zeigen wir, dass die Matrix A über K diagonalisierbar ist, und hierzu wollen wir 5.Lemma 9 verwenden. Sei also λ R ein Eigenwert von A. Dann ist auch (A λ = A λ = A λ, d.h. auch A λ ist im Fall K = R symmetrisch und im Fall K = C hermitesch. Sei u Kern(A λ, also (A λ u =. Dann haben wir auch (A λu = (A λu (A λu = u (A λ u =, -

2 Mathematik für Physiker II, SS 7 Freitag 3.6 also ist (A λu = und somit u Kern(A λ. Dies zeigt Kern(A λ Kern(A λ. Nach 5.Lemma 9 ist A diagonalisierbar, es gibt also eine aus Eigenvektoren von A bestehende Basis des K n. Bezeichnet λ,..., λ r die verschiedenen Eigenwerte von A und ist n i für jedes i r die geometrische Vielfachheit von λ i, so gibt es also eine Basis v,..., v,n,..., v r,..., v r,nr des K n so, dass v ij E λi (A für i r, j n i gilt. Ist i r, so ist v i,..., v i,ni eine Basis des Eigenraums E λi (A und durch Gram-Schmidt Orthonormalisierung erhalten wir eine Orthonormalbasis u i,..., u i,ni von E λi (A. Damit ist auch u,..., u,n,..., u r,..., u r,nr eine aus Eigenvektoren bestehende Basis des K n mit u ij = für alle i r, j n i. Wir behaupten das es sich sogar um eine Orthonormalbasis des K n handelt. Ist i r und sind k, l n i mit k l, so ist u ik u il =, und sind i, j r mit i j, k n i, l n j so ist wegen λ i λ j, u ik E λi (A, u jl E λj (A ebenfalls u ik u jl =. Es gibt nicht nur eine aus Eigenvektoren bestehende Orthonormalbasis des K n, wir können auch eine berechnen. Die Berechnung einer solchen Orthonormalbasis des K n ist mit uns schon bekannten Rechenverfahren einfach möglich. Die Rechnung läuft in den folgenden Schritten ab: Gegeben: Eine symmetrische oder hermitesche n n Matrix A. Gesucht: Eine aus Eigenvektoren von A bestehende Orthonormalbasis des K n. Verfahren: Die Rechnung läuft in den folgenden Schritten ab:. Berechne die Eigenwerte λ,..., λ s von A. Diese sind alle reell.. Für jeden Eigenwert λ = λ i ( i s löse das homogene lineare Gleichungssystem (λ Ax = und bestimme eine Basis v i,..., v ini seines Lösungsraums. Anders gesagt soll eine Basis des Eigenraums E λ (A berechnet werden. Dies kann man beispielsweise wie üblich durch Gauß Elimination tun. 3. Wende auf jede der in Schritt ( gefundenen Basen v i,..., v ini ( i n der jeweiligen Eigenräume das Gram Schmidtsche Orthonormalisierungsverfahren an, und erhalte eine Orthonormalbasis u i,..., u ini des Eigenraums E λi (A. 4. Setze die in Schritt (3 für λ = λ i, i =,..., s gefundenen Basen zu einer Orthonormalbasis u,..., u n,..., u s,..., u srs des K n zusammen. Dies ist die gesuchte Orthonormalbasis u,..., u n. -

3 Mathematik für Physiker II, SS 7 Freitag 3.6 Da dieses Verfahren sich nur aus uns schon bekannten Einzelschritten zusammensetzt, wollen wir hier nur ein Beispiel rechnen, nämlich die symmetrische Matrix A = Wir suchen eine aus Eigenvektoren von A bestehende Orthonormalbasis des R 4. Zur Bestimmung der Eigenwerte berechnen wir das charakteristische Polynom χ A (x =. x 9 x 9 x 9 x 9 x 9 x 9 x 8 x 8 = x 8 x 8 x 8 x 8 = x 8 x 8 x 8 x 8 x 9 x 9 x 9 x 8 x 8 x 9 x 8 x 8 5 x = (x 8 = (x 8 x 9 x 9 = (x 8 (x 9 x 9 + x 8 x 8 5 x = (x 8 ((x 9 x 8 5 x = (x 8 ((x x = (x 8 (x x + 96 = (x 8 3 (x. Wir haben also zwei Eigenwerte λ = 8 und λ =. Beginnen wir mit λ =. Die Gauß Elimination läuft dann als

4 Mathematik für Physiker II, SS 7 Freitag 3.6 Die Lösungsmenge ist also gegeben durch und somit u = v, y = v, x = y + u + 3v = v E (A =. Zur Orthonormalisierung muss dieser Basisvektor nur normiert werden, also u 4 :=. Dass wir nur einen Eigenvektor zu normieren haben, ist glücklicherweise der Normalfall, wir bereits mehrfach erwähnt hat eine zufällig gewählte Matrix in der Regel lauter verschiedene Eigenwerte, die damit alle einen eindimensionalen Eigenraum haben. Für λ = 8 ergibt sich für den Eigenraum dagegen = x = y + u v. Eine Basis des Eigenraums E 8 (A ist gegeben durch v =, v =, v 3 = Hier sind wir also im untypischen Fall und müssen noch etwas weiter rechnen. Auf die Vektoren v, v, v 3 müssen wir nun die Gram Schmidt Orthonormalisierung anwenden. Diesmal suchen wir dabei keine Orthonormalbasis des gesamten R 4 sondern nur eine Orthormalbasis des von v, v, v 3 aufgespannten Teilraums. Wir rechnen w := v =, w w =, w = v w = w 3 = v 3 + w + 3 w =., w w = 3, 3 3 3, w 3 w 3 = 4 3-4

5 Mathematik für Physiker II, SS 7 Freitag 3.6 und normieren u =, u = 3 w = 6 6 6, u 3 = 3 w 3 = Damit haben wir die gesuchte Orthonormalbasis des R 4 berechnet. Wir wollen den Satz 7 noch ein klein wenig umformulieren und ihn in Termen von Matrizen angeben. Hierzu benötigen wir einen weiteren kleinen Begriff. Definition 6.7 (Orthogonale und unitäre Matrizen Sei n N mit n. Eine reelle n n-matrix A heißt orthogonal wenn AA t = A t A = gilt, d.h. wenn A invertierbar mit A = A t ist. Eine komplexe n n-matrix A heißt unitär wenn AA = A A = ist, d.h. wenn A invertierbar mit A = A ist. Eine reelle n n-matrix A ist offenbar genau dann orthogonal wenn sie als komplexe Matrix unitär ist, in diesem Sinne sind unitäre Matrizen der allgemeine Fall. Nach I. 8.Korollar 3 ist eine Matrix A R n n auch genau dann orthogonal wenn AA t = oder A t A = gilt, denn dann ist A bereits invertierbar und durch Multiplikation mit A von links oder rechts folgt A = A t. Entsprechend ist eine komplexe Matrix A C n n bereits unitär wenn AA = oder A A = gilt. Beachte weiter das A genau dann orthogonal beziehungsweise unitär ist wenn die transponierte Matrix A t dies ist. Im reellen Fall K = R ist dies trivial. Im komplexen Fall beachte (A t = A, also (A t A t = AA t = AA und analog A t (A t = A A, also ist genau dann (A t A t = A t (A t = wenn AA = A A = ist, wenn also A unitär ist. Wir stellen jetzt den Zusammenhang zwischen orthogonalen beziehungsweise unitären Matrizen und Orthonormalbasen her. Lemma 6.8 (Charakterisierung orthogonaler und unitärer Matrizen Seien K {R, C}, n N mit n und A K n n. Dann sind die folgenden Aussagen äquivalent: (a Es ist K = R und A ist orthogonal oder K = C und A ist unitär. (b Für alle x, y K n gilt Ax Ay = x y. (c Die Spalten von A bilden eine Orthonormalbasis des K n. (d Die Zeilen von A bilden eine Orthonormalbasis des K n. Beweis: (a= (b. Es reicht den Fall K = C zu behandeln, die reellen Matrizen sind dann ein Spezialfall. Seien also x, y C n. Dann gilt Ax Ay = (Ax t Ay = x t A t Ay = x t A Ay = x t y = x y. -5

6 Mathematik für Physiker II, SS 7 Freitag 3.6 (b= (c. Bezeichne u,..., u n die Spalten von A, d.h. für i n ist u i = Ae i wenn e,..., e n wie immer die Standardbasis des K n ist. Für i, j n mit i j gilt dann u i u j = Ae i Ae j = e i e j = und für i n ist auch u i = u i u i = Ae i Ae i = e i e i =. Damit ist u,..., u n eine Orthonormalbasis des K n. (c= (a. Seien wieder u,..., u n die Spalten von A = (a ij i,j n. Für i, j n ist dann n (A A ij = a ki a kj = u t ju i = u j u i = δ ij, k= also ist A A =. Wie bereits bemerkt, folgt hieraus das A im reellen Fall orthogonal und im komplexen Fall unitär ist. (a (d. Die Zeilen von A sind die Spalten von A t, also sind die Zeilen von A genau dann eine Orthonormalbasis des K n wenn A t orthogonal beziehungsweise unitär ist, und wie schon angemerkt ist dies genau dann der Fall wenn A orthogonal beziehungsweise unitär ist. Wir hatten eine reelle qudratische Matrix A orthogonal genannt wenn AA t = A t A = gilt, und entsprechend ist eine komplexe quadratische Matrix unitär wenn AA = A A = ist. Gleichwertig hierzu ist das die Spalten von A eine Orthonormalbasis des K n bilden, wobei wieder K = R oder K = C ist je nachdem ob wir reelle oder komplexe Matrizen betrachten. Ist also u,..., u n eine Orthonormalbasis des K n, so ist die Transformationsmatrix S von der Basis u,..., u n zur Standardbasis des K n, d.h. die Matrix deren Spalten u,..., u n sind, im reellen Fall orthogonal und im komplexen Fall unitär. Damit ist S = S. Ist also weiter A eine n n-matrix über K, so wird die ähnliche Matrix bezüglich der Basis u,..., u n zu S AS = S AS. Unser Satz 7 wird zu Korollar 6.9: Seien K {R, C}, n N mit n und A K n n symmetrisch im Fall K = R und hermitesch im Fall K = C Dann existiert für K = R eine orthogonale Matrix S R n n und für K = C eine unitäre Matrix S C n n mit S t AS = λ... für K = R und S AS = λ... für K = C λ n λ n wobei λ,..., λ n die mit Vielfachheit aufgezählten Eigenwerte von A sind. Beweis: Klar nach Satz 7. -6

7 Mathematik für Physiker II, SS 7 Freitag 3.6 Im oben gerechneten Beispiel der symmetrischen 4 4-Matrix 9 A = ist S die orthogonale Matrix S = mit St AS = Quadratische Formen und Hauptachsentransformation Wir wollen die bisher vorgestellte Theorie nun zur Untersuchung quadratischer Funktionen in mehreren Variablen nutzen, also Funktionen wie beispielsweise f(x, y = x + y xy x y +. Allgemein ist eine quadratische Funktion in n Variablen eine Funktion der Form f : R n R; x n a ij x i x j + b i x i + c i,j n i= mit Konstanten a ij, b i, c R ( i, j n. Für n = sieht die allgemeine quadratische Funktionen also ausgeschrieben wie folgt aus a x + a xy + a yx + a y + b x + b y + c. Für unsere obige Beispielfunktion könnten wir 4 4 etwa a = a = c =, a = b = b = und 4 4 x y a = setzen. Da die definierende Summenformel etwas unhandlich ist, geht man nun zu einer Matrixbeschreibung der quadratischen Funktion f über. Hierzu setzt man A := a a n..... a n a nn und b := b. b n 4 3 und hat für jedes x R n a ij x i x j = i,j n ( n n a ij x i x j = j= i= -7 n (A t x j x j = (A t x y j=

8 Mathematik für Physiker II, SS 7 Freitag 3.6 und n i= b ix i = b x. Die quadratische Funktion f in n Variablen können wir damit in der kompakten Form f(x = (A t x x + b x + c schreiben. Für i, j n mit i j taucht das Produkt x i x j zweimal auf, einmal als a ij x i x j und ein anderes Mal als a ji x j x i = a ji x i x j. Diese beiden Summanden können wir zusammenfassen und als a ij x i x j + a ji x j x i = (a ij + a ji x i x j = a ij + a ji x i x j + a ij + a ji x j x i schreiben. Diese neuen Koeffizienten (a ij + a ji / sind symmetrisch in i und j. Damit können wir immer erreichen, dass die Matrix A symmetrisch ist. In unserer Beispielfunktion werden A = ( und b = (. Die offizielle Definition einer quadratischen Funktion wird jetzt zu: Definition 6.8: Sei n N. Eine quadratische Funktion in n Variablen ist eine Funktion der Form f : R n R; x (Ax x + b x + c wobei A eine symmetrische n n Matrix über R ist, b R n ein Vektor ist und c R eine reelle Zahl ist. Ist dabei b = und c =, so nennt man f auch eine quadratische Form. Zum besseren Verständnis von f ist es hilfreich sich die Niveaumengen M t := {x R n f(x = t} für verschiedene Werte von t anzuschauen. Für unsere Beispielfunktion f(x, y = x + y xy x y + haben diese Mengen die Form -8

9 Mathematik für Physiker II, SS 7 Freitag y.5 y x.5.5 x Niveaumengen Die Niveaumenge f(x, y = Wie Sie sehen sind die Niveaumengen hier allesamt Ellipsen. Für die Niveaumenge M haben wir auch die beiden Hauptachsen der Ellipse eingezeichnet, d.h. die Achsen auf denen die Ellipse minimalen oder maximalen Abstand von ihrem Schwerpunkt hat. Als Hauptachsentransformation bezeichnet man jetzt die Koordinatentransformation bei der der Nullpunkt des Koordinatensystems in den Schwerpunkt der Ellipse gelegt wird und die beiden Hauptachsen der Ellipse als Koordinatenachsen verwendet werden. Bezüglich eines Koordinatensystem mit Schwerpunkt im Nullpunkt bei dem die beiden Hauptachsen die Koordinatenachsen sind, hat eine Ellipse mit den Halbradien a, b > die Form b a x a + y b =. Wir suchen also ein Koordinatensystem in dem unsere Niveaumenge M diese Form annimmt. Insbesondere können wir dann auch die beiden Halbradien unserer Ellipse berechnen. Es stellt sich heraus, dass man dann auch für allgemeinere quadratische Funktionen eine Hauptachsentransformation durchführen kann, dass das ganze also im Allgemeinen mit Ellipsen eigentlich nichts zu tun hat. Kommen wir also zur allgemeinen Situation f(x = (Ax x + b x + c -9

10 Mathematik für Physiker II, SS 7 Freitag 3.6 in n Variablen zurück. Als erstes Ziel wollen wir den Nullpunkt unserer angestrebten Hauptachsentransformation finden. Wir untersuchen dazu erst einmal wie sich das Verschieben des Nullpunkts auf die quadratische Funktion auswirkt. Nehmen wir einmal an wir legen den Nullpunkt in den Punkt u R n. Sei x R n. Denken wir uns x bezüglich des neuen Koordinatenursprungs u, so sind die Koordinaten von x bezüglich des alten Nullpunkts gleich x + u. Setzen wir dies in die quadratische Funktion ein, so wird f(x + u = (A(x + u (x + u + b (x + u + c = (Ax + Au (x + u + b (x + u + c Setzen wir also = (Ax x + (Ax u + (Au x + (Au u + b x + b u + c = (Ax x + (Au + b x + c + (Au u + b u. b := Au + b und c := c + (Au u + b u = f(u, so wird f(x := f(x + u = (Ax x + b x + c. Wie müssen wir u wählen damit f möglichst einfach wird? Hier gibt es zwei mögliche Fälle, die wir gleich durchgehen werden. Fall. Es ist b Bild A. Dann können wir ein u R n mit Au = b = b = Au + b = wählen und haben den linearen Anteil eliminiert. Fall. Es ist b / Bild A. Dann zerlegen wir den Vektor b in eine Summe b = b + b mit einem Teil b Bild(A und einem Vektor b der senkrecht auf dem Bild von A steht, d.h. b ist die Orthogonalprojektion von b auf das Bild von A. Wegen b / Bild A ist b b, also b. In diesem Fall wählen wir u R n mit Au = b = b = Au + b = b, und wir haben den linearen Anteil senkrecht zum Bild von A gemacht. Weiter vereinfachen können wir in diesem Fall leider nicht, zumindest nicht durch Wahl des Koordinatenursprungs. Untersuchen wir einmal die Situation in unserem Beispiel f(x, y = x + y xy x y +. Hier ist die Matrix A invertierbar mit A = ( und für den Nullpunkt u erhalten wir u = A b = 3 = A = 4 3 ( - ( ( = (.

11 Mathematik für Physiker II, SS 7 Freitag 3.6 Der Vektor u ist also tatsächlich genau der Mittelpunkt unserer Ellipse, wie man im obigen Bild der Niveaumenge M tatsächlich sehen kann. Wegen f(u = wird damit f(x = (Ax x beziehungsweise f(x, y = x + y xy. Bei der Transformation auf die Hauptachsen der Ellipse als Koordinatenachsen bleibt der Nullpunkt unverändert. Da der konstante Term keine Rolle spielt, müssen wir also nur noch eine quadratische Form f(x = (Ax x mit einer symmetrischen n n Matrix A betrachten. Nach Korollar 9 existiert eine orthogonale n n Matrix S mit λ S t AS =... =: D wobei λ,..., λ n die Eigenwerte von A sind. Diese Matrix existiert nicht nur, sondern wir hatten auch gesehen wie man sie ausrechnen kann. Die Matrix S ist die Transformationsmatrix von einer aus Eigenvektoren von A bestehenden Orthonormalbasis u,..., u n zur Standardbasis des R n, d.h. die Matrix deren Spalten die Vektoren u,..., u n sind. Bezeichnet x Koordinaten bezüglich der Basis u,..., u n, so ist Sx der entsprechende Vektor in den Standardkoordinaten. In diesen transformierten Koordinaten wird die quadratische Form also zu f(x := f(sx = (ASx (Sx = (S t ASx x = (Dx x = λ x + + λ n x n. An dieser Formel sehen wir insbesondere das die geometrische Form der quadratischen Funktion von den Vorzeichen der Eigenwerte der Matrix A bestimmt wird. Nehmen wir einmal das zweidimensionale Beispiel f(x, y = λ x + λ y. λ n x y x 3 3 λ, λ > λ λ < 3 y -

12 Mathematik für Physiker II, SS 7 Freitag 3.6 Sind beide Eigenwerte λ, λ positiv, so haben wir bis auf Skalierungen der x- und y-achse das Rotationparaboloid f(x, y = x + y. Sind λ, λ beide negativ, so liegt analog ein nach unten geöffnetes Rotationsparaboloid vor. Haben λ und λ verschiedene Vorzeichen, also λ λ <, so hat unsere Funktion nach Umskalieren und eventuellen Spiegeln an der Diagonalen die Form von f(x, y = x y, ist also eine Sattelfläche. Wir setzen jetzt das Beispiel der quadratischen Funktion f(x, y = x + y xy x y + fort. Wir hatten bereits gesehen, dass wir u = (, als Koordinatenursprung nehmen sollten, und das dann f(x, y = f(x +, y + = x + y xy ist. Nach unserer eben angestellten Überlegung erfordert die Berechnung der Hauptachsen die Bestimmung einer aus Eigenvektoren von A bestehenden Orthonormalbasis des R. Rechnen wir dies einmal für unsere quadratische Form f(x, y = x + y xy durch. Das charakteristische Polynom wird zu ( A = = χ A (x = x tr(ax + det(a = x x und die Eigenwerte sind damit λ = ± Die Berechnung von Eigenvektoren liefert also v = für λ = ( (, v = 3 4 = ±, also λ = und λ = 3. = x = y und für λ = 3 und normiert u = (, u = = x = y, (. Wir verwenden jetzt ein Koordinatensystem mit Ursprung in u = (, und den Koordinatenachsen u, u, die wir eben ausgerechnet haben. Ist dann S die Transformationsmatrix ( S :=, so entspricht der Punkt x im neuen Koordinatensystem dem Punkt Sx + u im alten Koordinatensystem, und wir haben mit f(x = f(sx + u nun f(x, y = λ x + λ y = x + 3 y. Damit haben wir die Hauptachsentransformation in diesem Beispiel durchgeführt. An der obigen Formel kann man auch noch die Radien der beiden Hauptachsen unserer Ellipse f(x, y = ablesen. Es ist ja f(x, y = x a + y b mit a := und b := - 3 = 6 3

13 Mathematik für Physiker II, SS 7 Freitag 3.6 der kleinere Radius der Ellipse ist also b = 6/3 und der große ist a =. Damit haben wir zum einen die Hauptachsentransformation für die quadratische Funktion f(x, y = x + y xy x y + durchgeführt und zum anderen die beiden Halbradien der durch f(x, y = gegebenen Ellipse ausgerechnet. Letzterer geometrischer Aspekt spielt für uns keine große Rolle, das Entscheidende ist die Bestimmung des zur Hauptachsentransformation verwendeten Koordinatensystems. Wir wollen uns auch noch anschauen wie der obige Fall zu behandeln ist, also wenn b / Bild(A gilt. Da die Matrix A symmetrisch ist, haben wir für alle x R n und alle y Kern A stets (Ax y = x (Ay =, d.h. Bild und Kern von A stehen senkrecht aufeinander. Dies können wir auch leicht in Satz 7 ablesen, ist u,..., u n eine aus Eigenvektoren bestehende Orthonormalbasis, so ist das Bild gleich dem Erzeugnis der Eigenvektoren u i zu von Null verschiedenen Eigenwerten und der Kern ist der Eigenraum zu λ = also das Erzeugnis der restlichen u i. Haben wir also f(x = (Ax x + b x + c mit b senkrecht auf dem Bild von A, so ist auch Ab =. In anderen Worten ist b ein Eigenvektor zum Eigenwert von A. Es gibt nun wieder eine orthogonale Matrix S mit D := S t AS = λ... wobei λ,..., λ n die Eigenwerte von A sind. Dabei numerieren wir die Eigenwerte von A so durch, dass die ersten r := rang A Eigenwerte von Null verschieden sind λ,..., λ r während die hinteren n r Eigenwerte alle gleich Null sind λ r+ = = λ n =. Bei der Berechnung des zum Eigenwert gehörenden Teils der aus Eigenvektoren von A bestehenden Orthonormalbasis des R n, hatten wir zuerst eine Basis v r+,..., v n dieses Eigenraums bestimmt, und auf diese dann das Gram Schmidtsche Orthonormalisierungsverfahren angewandt. Wegen Ab =, b können wir die Basis dann mit v r+ = b wählen, und es wird u r+ = v r+ / v r+ = b/ b. Damit ist b = µu r+ mit µ := b. Es folgt λ n, f(x := f(sx = (ASx (Sx + b (Sx + c = (S t ASx x + (S t b x + c für alle x R. Dabei gilt Se r+ = u r+, also auch Insgesamt ist somit S t b = µs t u r+ = µs u r+ = µe r+. f(x,..., x n = λ x + + λ r x r + µx r+ + c. = (Dx x + (S t b x + c Damit haben wir den linearen Anteil unserer quadratischen Funktion zwar nicht zum Verschwinden gebracht, haben ihn aber zumindest zu einer einfachen Standardform -3

14 Mathematik für Physiker II, SS 7 Freitag 3.6 normiert. Auch zu dieser Situation wollen wir ein dreidimensionales Beispiel rechnen. Wir betrachten die quadratische Funktion f(x, y, z = x + y + z xy + yz + x + y In der Vektordarstellung haben wir dann f(x = (Ax x + b x + c mit A =, b = und c =. Es stellt sich heraus, dass es genau wie im schon behandelten Fall sinnvoll ist, zunächst einmal die Eigenwerte von A zu berechnen. Das charakteristische Polynom ergibt sich als x χ A (x = x x = (x x x x ( = (x x x + (x = x(x (x, und wir haben die drei Eigenwerte λ =, λ = und λ 3 =. Als nächsten Schritt bestimmen wir eine aus Eigenvektoren von A bestehende Orthonormalbasis des R 3. Hierzu suchen wir zunächst einmal Eigenvektoren für die von Null verschiedenen Eigenwerte. Für λ = ist die Rechnung also y =, x = z mit dem normierten Eigenvektor Für λ = haben wir u =. -4

15 Mathematik für Physiker II, SS 7 Freitag 3.6 also y = z, x = ( /y = z mit dem normierten Eigenvektor u =. Das Bild von A wird jetzt von den beiden Vektoren u, u aufgespannt, und wir müssen nun die Orthogonalprojektion des Vektors b auf dieses Bild berechnen, also b u = und b u = (, und die Orthogonalprojektion b von b wird b := (b u u + (b u u = u + (3 ( 4 u = ( 4 ( + 4 Die Zerlegung von b hat jetzt die Form b = b + b mit b := b b = ( + 4 ( + 4 ( Wegen b zeigt diese Rechnung insbesondere das b / Bild(A ist, wir sind also im obigen Fall. Im nächsten Schritt berechnen wir einen passenden Nullpunkt u und hierfür suchen wir einen Vektor u mit Au = b /. Zur Bestimmung von u müssen wir erfreulicherweise kein lineares Gleichungssystem mehr lösen, wir haben schon alle nötigen Daten beisammen. Die Vektoren u, u sind ja Eigenvektoren von A mit Au = λ u und Au = λ u, d.h. wir haben auch b = (b u u + (b u u = b u λ (λ u + b u λ (λ u = b u λ Au + b u = A Au λ ( b u u + b u u λ λ. Folglich können wir als Lösung von Au = b / beispielsweise u := ( b u u + b u u = λ λ ( u + 4 ( u = verwenden. Mit u als Koordinatenursprung ist dann wegen (5 6 ( 6 (3 + 6 f(u = 3 ( 39-5

16 Mathematik für Physiker II, SS 7 Freitag 3.6 auch f(x = (Ax x + b x + 3 ( 39. Wir brauchen noch einen Eigenvektor zum Eigenwert, und hierfür können wir unseren schon berechneten Vektor b verwenden. Es ist b = 6 ( + 8 = 4 (3 + = 4 ( + = µ := b = ( + also wird u 3 = b b = und die endgültige orthogonale Matrix ist S =. Für die transformierte Funktion f(x = f(sx + u ist damit f(x, y, z = x + y + ( + z + 3 ( 39. Wir wollen jetzt das vollständige Verfahren zur Herstellung der Hauptachsentransformation angeben. In unserem Fall hatten wir eine Lösung u von Au = b / direkt in Termen des Skalarprodukts hingeschrieben, und dieselbe Überlegung funktioniert ebenso in Fall. Damit ist es gar nicht nötig explizit ein lineares Gleichungssystem zu lösen und wir erhalten ein gemeinsames Verfahren für beide Fälle. Das Verfahren zur Berechnung der Hauptachsentransformation läuft wie folgt ab: Gegeben: Eine quadratische Funktion f(x = (Ax x+b x+c mit einer symmetrischen n n Matrix A, einem Vektor b R n und einer Zahl c R. Gesucht: Ein Koordinatenursprung u R n und eine Orthonormalbasis u,..., u n des R n so, dass die transformierte Funktion f(x = f(sx + u entweder die Form f(x = λ x + + λ n x n + c oder die Form f(x = λ x + + λ r x r + µx r+ + c hat. Dabei ist S die orthogonale Matrix deren Spalten die Vektoren u,..., u n sind. Verfahren: Die Rechnung läuft in den folgenden Schritten ab.. Berechne die Eigenwerte λ,..., λ n von A aufgezählt entsprechend ihrer jeweiligen Vielfachheit. Die Numerierung erfolge so, dass λ,..., λ r und λ r+ =... = λ n = ist, wobei r := rang(a der Rang von A ist. Dabei muss r nicht extra ausgerechnet werden, sondern ergibt sich durch Zählen der Eigenwerte ungleich Null. -6

17 Mathematik für Physiker II, SS 7 Freitag 3.6. Berechne für jeden der von Null verschiedenen Eigenwerte λ von A eine Orthonormalbasis des Eigenraums E λ (A. Dies geschieht wieder indem zuerst durch Lösen des homogenen linearen Gleichungssystems (A λx = irgendeine Basis von E λ (A berechnet wird, und dann auf diese die Gram Schmidt Orthonormalisierung angewandt wird. 3. Fasse die in Schritt ( berechneten Orthonormalbasen zu einer Orthonormalbasis u,..., u r des Bildes von A zusammen. 4. Berechne b := (b u u + + (b u r u r und verwende u := ( b u u + + b u r u r λ λ r als den Koordinatenursprung. 5. Ist r < n, so löse das homogene lineare Gleichungssystem Ax = um eine Basis v,..., v n r des Kerns von A zu erhalten. Im Fall b b wähle die Basis mit v = b b und setze µ := b b. Weiter wende die Gram Schmidt Orthonormalisierung auf v,..., v n r an, und bezeichne die erhaltene Orthonormalbasis des Kerns von A mit u r+,..., u n. 6. Der Koordinatenursprung ist der in Schritt (4 berechnete Punkt u und die aus den Hauptachsen bestehende Orthonormalbasis entsteht durch Zusammensetzen der in den Schritten (3 und (5 berechneten Teilbasen, also u,..., u n. Im Fall b = b hat die transformierte quadratische Funktion keinen linearen Anteil mehr und im anderen Fall b b tritt ein linearer Anteil mit dem in (5 berechneten µ auf. Dieses Verfahren erlaubt es allgemein jede quadratische Funktion in n Variablen entweder auf die Gestalt f(x = λ x + + λ n x n + c oder auf die Gestalt f(x = λ x + + λ r x r + µx r+ + c für ein r < n zu transformieren. Beispiele zur Anwendung des Verfahrens werden in Aufgabe (48 behandelt. Wir fassen dieses Ergebnis noch in einem Satz über die Hauptachsentransformation zusammen. Satz 6. (Hauptachsentransformation quadratischer Funktionen Seien A eine symmetrische n n Matrix über R, b R n und c R. Seien λ,..., λ n die mit Vielfachheit aufgezählten Eigenwerte von A, wobei im Fall r := rang(a < n die Numerierung mit λ,..., λ r und λ r+ = = λ n = erfolge. Dann existieren ein Punkt u R n und eine orthogonale n n Matrix S so, dass entweder f(sx + u = λ x + + λ n x n + f(u für alle x R n ist, oder es ist r < n und es existiert eine reelle Zahl µ > mit f(sx + u = λ x + + λ r x r + µx r+ + f(u -7

18 Mathematik für Physiker II, SS 7 Freitag 3.6 für alle x R n. Beweis: Dies haben wir bereits eingesehen. -8

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn

Mehr

6 Symmetrische und hermitesche Matrizen

6 Symmetrische und hermitesche Matrizen Mathematik für Physiker II, SS Freitag 4.6 $Id: quadrat.tex,v.8 /6/4 4:44:39 hk Exp hk $ 6 Symmetrische und hermitesche Matrizen 6. Prä-Hilberträume Wir sind gerade mit der Diskussion der sogenannten Ausgleichsgerade

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

6 Symmetrische und hermitesche Matrizen

6 Symmetrische und hermitesche Matrizen $Id: quadrat.tex,v.0 0/06/9 :47:4 hk Exp $ $Id: orthogonal.tex,v.4 0/06/9 3:46:46 hk Exp $ 6 Symmetrische und hermitesche Matrizen 6.3 Quadratische Funktionen und die Hauptachsentransformation Wir sind

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Ingenieure II, SS 9 Freitag 6 $Id: jordantex,v 7 9/6/ :8:5 hk Exp $ 5 Eigenwerte und die Jordansche Normalform 5 Die Jordansche Normalform Nachdem wir bisher das Vorgehen zur Berechnung

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

Lineare Algebra für Physiker 11. Übungsblatt

Lineare Algebra für Physiker 11. Übungsblatt Lineare Algebra für Physiker 11. Übungsblatt Fachbereich Mathematik SS 01 Prof. Dr. Matthias Schneider./. Juli 01 Dr. Silke Horn Dipl.-Math. Dominik Kremer Gruppenübung Aufgabe G1 (Minitest) (a) Welche

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in

Mehr

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }. 154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =

Mehr

Musterlösungen zur Linearen Algebra II Übungsklausur

Musterlösungen zur Linearen Algebra II Übungsklausur Musterlösungen zur Linearen Algebra II Übungsklausur Aufgabe. Sei A R 3 3. Welche der folgenden Aussagen sind richtig? a Ist det(a =, dann ist A eine orthogonale Matrix. b Ist A eine orthogonale Matrix,

Mehr

6.3 Hauptachsentransformation

6.3 Hauptachsentransformation Im Wintersemester 6/7 wurde in der Vorlesung Höhere Mathematik für Ingenieurstudiengänge der folgende Algorithmus zur Hauptachsentransformation besprochen: 63 Hauptachsentransformation Die Matrizen, die

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 25): Lineare Algebra und analytische Geometrie 2 2. (Frühjahr 29, Thema 3, Aufgabe 3) Gegeben sei die reelle 3 3 Matrix 4 2 A = 2 7 2 R 3 3. 2 2 a)

Mehr

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016, Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF 07.03.2016-11.03.2016 Inhaltsverzeichnis Inhaltsverzeichnis 1 Darstellungsmatrizen 2 2 Diagonalisierbarkeit

Mehr

Lösungen der Aufgaben zu Kapitel 11

Lösungen der Aufgaben zu Kapitel 11 Lösungen der Aufgaben zu Kapitel Vorbemerkung: Zur Bestimmung der Eigenwerte (bzw. des charakteristischen Polynoms) einer (, )-Matrix verwenden wir stets die Regel von Sarrus (Satz..) und zur Bestimmung

Mehr

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich Henning Krause Lineare Algebra Julia Sauter SS 27 Klausur 2.9.27 mit Lösungsvorschlag Jan Geuenich Aufgabe (4 Punkte: Sei n N und seien A und B zwei (n n-matrizen über einem Körper K. Wahr Falsch (a Es

Mehr

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen Hannover, den 7. Februar 2002 Aufgabe. Übungsblatt: Lineare Algebra II Abgabe: 8./9.4.2002 in den Übungsgruppen (2, 2, 3 Punkte) Der Vektorraum V = C[, ] sei mit dem üblichen Skalarprodukt f, g = f(t)g(t)

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3 Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte (Teschl/Teschl 4.2 Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist

Mehr

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $ Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

Lineare Algebra II 11. Übungsblatt

Lineare Algebra II 11. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross 9 / Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest (Bearbeitung innerhalb von Minuten und ohne Benutzung des

Mehr

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Physiker II, SS Mittwoch 8.6 $Id: jordan.tex,v.6 /6/7 8:5:3 hk Exp hk $ 5 Eigenwerte und die Jordansche Normalform 5.4 Die Jordansche Normalform Wir hatten bereits erwähnt, dass eine n n

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Musterlösungen zur Linearen Algebra II Weihnachtszettel

Musterlösungen zur Linearen Algebra II Weihnachtszettel Musterlösungen zur Linearen Algebra II Weihnachtszettel Aufgabe. Welche der folgenden Matrizen 3 0 0 A = 0 4, B = 3, C = 0 0 0 6 0 0 0 sind über R und welche über C diagonalisierbar? Bestimmen Sie dazu

Mehr

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015 sskizzen der Klausur zur Linearen Algebra im Herbst 5 Aufgabe I. Es sei (G, ) eine Gruppe mit neutralem Element e und M {x G x x e}. Zeigen Sie: (a) Ist G kommutativ, so ist M eine Untergruppe von G. (b)

Mehr

1 Analytische Geometrie und Grundlagen

1 Analytische Geometrie und Grundlagen $Id: vektor.tex,v 1.44 2018/05/17 14:11:13 hk Exp $ 1 Analytische Geometrie und Grundlagen 1.6 Bewegungen und Kongruenzbegriffe Wir untersuchen gerade die Spiegelung an einer Hyperebene h R d. Ist ein

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1 D-MAVT Lineare Algebra II FS 8 Prof. Dr. N. Hungerbühler Lösungen Serie. Welche der folgenden Vektoren sind Eigenvektoren der Matrix? (a) (,, ). Ein Vektor v ist Eigenvektor von A :=, falls Av ein skalares

Mehr

1 Analytische Geometrie und Grundlagen

1 Analytische Geometrie und Grundlagen Mathematische Probleme, SS 28 Dienstag 29.5 $Id: vektor.tex,v.46 28/5/29 6:4: hk Exp $ Analytische Geometrie und Grundlagen.6 Bewegungen und Kongruenzbegriffe Am Ende der letzten Sitzung hatten wir bereits

Mehr

Karlsruher Institut für Technologie (KIT) WS 2012/13 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning

Karlsruher Institut für Technologie (KIT) WS 2012/13 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning Karlsruher Institut für Technologie (KIT) WS 22/3 Institut für Analysis 28..23 Prof. Dr. Tobias Lamm Dr. Patrick Breuning Höhere Mathematik I für die Fachrichtung Physik 4. Übungsblatt (letztes Blatt)

Mehr

7.2 Die adjungierte Abbildung

7.2 Die adjungierte Abbildung 7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)

Mehr

9. Übungsblatt zur Mathematik I für Maschinenbau

9. Übungsblatt zur Mathematik I für Maschinenbau Fachbereich Mathematik Prof. Dr. M. Joswig Dr. habil. Sören Kraußhar Dipl.-Math. Katja Kulas 9. Übungsblatt zur Mathematik I für Maschinenbau Gruppenübung WS /..-4.. Aufgabe G (Koordinatentransformation)

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung Zurück Stand 4.. 6 Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung Im Allgemeinen werden Vektoren durch Multiplikation mit einer Matrix gestreckt und um einen bestimmten Winkel gedreht. Es gibt jedoch

Mehr

6 Metrische Klassifikation der Quadriken

6 Metrische Klassifikation der Quadriken 6 Metrische Klassifikation der Quadriken A Wiederholung von Kap V, 5 Sei A = (a ij ) eine symmetrische n n Matrix. n x 1 q(x) := x t Ax = a ij x i x j, x =. i,j=1 ist dann ein quadratisches Polynom in

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

7.3 Unitäre Operatoren

7.3 Unitäre Operatoren Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren

Mehr

Eigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( )

Eigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( ) Eigenwertprobleme 5. Oktober Autoren:. Herrmann, Hannes (45969). Kraus, Michael (9). Krückemeier, Paul (899) 4. Niedzielski, Björn (7) Eigenwertprobleme tauchen in der mathematischen Physik an Stellen

Mehr

Kapitel 11 Eigenwerte und Eigenvektoren

Kapitel 11 Eigenwerte und Eigenvektoren Kapitel Eigenwerte und Eigenvektoren. Problem der Diagonalisierbarkeit Es sei wieder K gleich R oder. Eine n n)-matrix A mit Koeffizienten aus K wird als diagonalisierbar bezeichnet, wenn es eine invertierbare

Mehr

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen Fachbereich Mathematik/Informatik 6. Juni 0 Prof. Dr. H. Brenner Mathematik für Anwender II Testklausur mit Lösungen Aufgabe. Definiere die folgenden (kursiv gedruckten) Begriffe. () Ein Skalarprodukt

Mehr

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2 Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete

Mehr

9. Übung zur Linearen Algebra II -

9. Übung zur Linearen Algebra II - 9. Übung zur Linearen Algebra II - en Kommentare an Hannes.Klarner@Fu-Berlin.de FU Berlin. SS 00. Aufgabe 33 (i) Beweise oder widerlege: In einem euklidischen VR gilt x + y = x + y x y (Satz von Pythagoras).

Mehr

D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Musterlösung 13. (A ± I)x = 0 Ax ± x = 0 Ax = ±x Ax = λx

D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Musterlösung 13. (A ± I)x = 0 Ax ± x = 0 Ax = ±x Ax = λx D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung Musterlösung 13 1. Die Matrix A±I ist singulär falls es einen Vektor x 0 gibt der die Gleichung (A±I)x = 0 erfüllt, d.h. wenn A ± I als

Mehr

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen 12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn

Mehr

$Id: integral.tex,v /05/05 13:36:42 hk Exp $

$Id: integral.tex,v /05/05 13:36:42 hk Exp $ $Id: integral.tex,v.5 07/05/05 3:36:4 hk Exp $ Integralrechnung.4 Integration rationaler Funktionen In diesem Abschnitt wollen wir die Integration rationaler Funktionen diskutieren. Es wird sich herausstellen

Mehr

10 Unitäre Vektorräume

10 Unitäre Vektorräume 10 Unitäre Vektorräume Pink: Lineare Algebra 2014/15 Seite 98 10 Unitäre Vektorräume Die Theorie komplexer Vektorräume mit Skalarprodukt folgt denselben Linien wie die Theorie reeller Vektorräume mit Skalarprodukt;

Mehr

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden? Kapitel Lineare Abbildungen Verständnisfragen Sachfragen Was ist eine lineare Abbildung? Erläutern Sie den Zusammenhang zwischen Unterräumen, linearer Unabhängigkeit und linearen Abbildungen! 3 Was ist

Mehr

7 Lineare Abbildungen und Skalarprodukt

7 Lineare Abbildungen und Skalarprodukt Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u

Mehr

Lösbarkeit linearer Gleichungssysteme

Lösbarkeit linearer Gleichungssysteme Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn

Mehr

2 Koordinatentransformationen

2 Koordinatentransformationen Mathematik für Ingenieure III, WS 9/ Mittwoch 8. $Id: transform.tex,v.8 //4 :9: hk Exp $ Koordinatentransformationen. Lineare Koordinatentransformationen Wir überlegen uns dies zunächst im Spezialfall

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Klausur zur Vorlesung Lineare Algebra B im SS 2002 an der Universität Hannover

Klausur zur Vorlesung Lineare Algebra B im SS 2002 an der Universität Hannover Dozent: Prof. Dr. Wolfgang Ebeling Übungsleiter: Dr. Detlef Wille Klausur zur Vorlesung Lineare Algebra B im SS an der Universität Hannover Joachim Selke 9. Februar Lineare Algebra B SS Klausur zur Vorlesung

Mehr

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46.1 Motivation Symmetrische Matrizen (a ij = a ji für alle i, j) kommen in der Praxis besonders häufig vor. Gibt es für sie spezielle Aussagen über

Mehr

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet. L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors

Mehr

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

7 Matrizen über R und C

7 Matrizen über R und C Mathematik für Physiker I, WS 0/05 Montag 5. $Id: matrix.tex,v. 0//5 :6:05 hk Exp $ 7 Matrizen über R und C 7. Addition und Multiplikation von Matrizen In der letzten Sitzung haben wir begonnen uns mit

Mehr

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ)) Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 18 Vielfachheiten und diagonalisierbare Abbildungen Satz 18.1. Es sei K ein Körper und es sei V ein endlichdimensionaler K- Vektorraum.

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

4.4 Hermitesche Formen

4.4 Hermitesche Formen 44 Hermitesche Formen Wie üblich bezeichnen wir das komplex konjugierte Element von ζ = a + bi C (a, b R) mit ζ = a bi Definition 441 Sei V ein C-Vektorraum Eine hermitesche Form (HF) auf V ist eine Abbildung

Mehr

1. Hausübung ( )

1. Hausübung ( ) Übungen zur Vorlesung»Lineare Algebra B«(SS ). Hausübung (8.4.) Aufgabe Es seien σ (3, 6, 5,, 4, 8,, 7) und τ (3,,, 4, 6, 5, 8, 7). Berechnen Sie σ τ, τ σ, σ, τ, die Anzahl der Inversionen von σ und τ

Mehr

9 Matrizen über R und C

9 Matrizen über R und C Mathematik für Physiker I, WS 00/0 Montag 0 $Id: matrixtex,v 6 0/0/0 :6:7 hk Exp $ $Id: dettex,v 0/0/0 ::59 hk Exp hk $ 9 Matrizen über R und C 9 Transposition von Matrizen Im letzten Abschnitt hatten

Mehr

7 Matrizen über R und C

7 Matrizen über R und C Mathematik für Physiker I, WS 06/07 Montag 9 $Id: matrixtex,v 7 06//9 :58: hk Exp $ 7 Matrizen über R und C 7 Addition und Multiplikation von Matrizen In der letzten Sitzung haben wir begonnen uns mit

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren

Mehr

3.3 Klassifikation quadratischer Formen auf R n

3.3 Klassifikation quadratischer Formen auf R n 3.3. Klassifikation quadratischer Formen auf R n 61 3.3 Klassifikation quadratischer Formen auf R n Wir können den Hauptsatz über symmetrische Matrizen verwenden, um uns einen Überblick über die Lösungsmengen

Mehr

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1. Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 15. April 2018 1/46 Die Dimension eines Vektorraums Satz 2.27 (Basisergänzungssatz) Sei V ein Vektorraum über einem Körper K. Weiter seien v 1,...,

Mehr

Übungsblatt

Übungsblatt Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

Institut für Analysis und Scientific Computing E. Weinmüller WS 2017

Institut für Analysis und Scientific Computing E. Weinmüller WS 2017 Institut für Analysis und Scientific Computing TU Wien E. Weinmüller WS 7 L I N E A R E A L G E B R A F Ü R T P H, U E (.64). Haupttest (FR, 9..8) (mit Lösung ) Ein einfacher Taschenrechner ist erlaubt.

Mehr

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung

Lineare Algebra 2 (SS 13) Blatt 13: Musterlösung Prof. Dr. B. Hanke Dr. J. Bowden Lineare Algebra 2 (SS ) Blatt : Musterlösung Aufgabe. Es sei C (R) der R-Vektorraum der unendlich oft differenzierbaren Funktionen auf R und : C (R) C (R), f f die Abbildung,

Mehr

3 a) Berechnen Sie die normierte Zeilenstufenform der Matrix A = normierte Zeilenstufenform:

3 a) Berechnen Sie die normierte Zeilenstufenform der Matrix A = normierte Zeilenstufenform: 1. Aufgabe (9 Punkte) In dieser Aufgabe müssen Sie Ihre Antwort nicht begründen. Es zählt nur das Ergebnis. Tragen Sie nur das Ergebnis auf diesem Blatt im jeweiligen Feld ein. 0 1 3 a) Berechnen Sie die

Mehr

Übungen zum Ferienkurs Ferienkurs Lineare Algebra für Physiker WiSe 2017/18 Blatt 3 - Lösung

Übungen zum Ferienkurs Ferienkurs Lineare Algebra für Physiker WiSe 2017/18 Blatt 3 - Lösung Technische Universität München Physik Department Pablo Cova Fariña, Claudia Nagel Übungen zum Ferienkurs Ferienkurs Lineare Algebra für Physiker WiSe 207/8 Blatt 3 - Aufgabe : Darstellungsmatrizen Sei

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 213 Prof. Dr. Erich Walter Farkas Kapitel 7: Lineare Algebra Kapitel 7.5: Eigenwerte und Eigenvektoren einer quadratischen Matrix Prof. Dr. Erich Walter Farkas Mathematik

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Mathematische Probleme, SS 2015 Montag $Id: quadratisch.tex,v /06/22 12:08:41 hk Exp $

Mathematische Probleme, SS 2015 Montag $Id: quadratisch.tex,v /06/22 12:08:41 hk Exp $ Mathematische Probleme, SS 15 Montag 6 $Id: quadratischtex,v 111 15/06/ 1:08:41 hk Exp $ 4 Kegelschnitte 41 Quadratische Gleichungen In der letzten Sitzung hatten wir die Normalform (1 ɛ )x + y pɛx p =

Mehr

Quadratische Formen. und. Symmetrische Matrizen

Quadratische Formen. und. Symmetrische Matrizen Quadratische Formen und Symmetrische Matrizen 1 Ouverture: Lineare Funktionen von R n nach R 1 2 Beispiel: n = 2 l : (x 1, x 2 ) T 0.8x 1 + 0.6x 2 = < x, g > mit g := (0.8, 0.6) T. Wo liegen alle x = (x

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 011 Tom Ilmanen. Musterlösung 12. a ij = v i,av j (A ist symmetrisch) = Av i,v j

D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 011 Tom Ilmanen. Musterlösung 12. a ij = v i,av j (A ist symmetrisch) = Av i,v j D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 0 Tom Ilmanen Musterlösung 2. Falls b := (v,,v n ) eine Orthonormalbasis von V ist, dann lassen sich die Komponenten von einem Vektor v = n i= t i v i bezüglich

Mehr

5.4 Hauptachsentransformation

5.4 Hauptachsentransformation . Hauptachsentransformation Sie dient u.a. einer möglichst einfachen Darstellung von Kegelschnitten und entsprechenden Gebilden höherer Dimension mittels einer geeigneten Drehung des Koordinatensystems.

Mehr

Höhere Mathematik für die Fachrichtung Physik

Höhere Mathematik für die Fachrichtung Physik Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Michael Hott, M. Sc. WS 5/.. Höhere Mathematik für die Fachrichtung Physik Lösungsvorschläge zum 4. Übungsblatt Aufgabe

Mehr

HM II Tutorium 7. Lucas Kunz. 5. Juni 2018

HM II Tutorium 7. Lucas Kunz. 5. Juni 2018 HM II Tutorium 7 Lucas Kunz 5. Juni 2018 Inhaltsverzeichnis 1 Theorie 2 1.1 Orthogonalität und Orthonormalbasen.................... 2 1.2 Orthogonalraum................................. 2 1.3 Projektoren...................................

Mehr

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Musterlösungen zu den Übungen

Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Musterlösungen zu den Übungen Technische Universität München Department of Physics Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Musterlösungen zu den Übungen Freitag, 6.. Sascha Frölich

Mehr