6 Symmetrische und hermitesche Matrizen
|
|
- Claudia Gerber
- vor 5 Jahren
- Abrufe
Transkript
1 Mathematik für Physiker II, SS 7 Freitag 3.6 $Id: quadrat.tex,v.3 7/6/3 :8:3 hk Exp $ 6 Symmetrische und hermitesche Matrizen 6. Symmetrische und hermitesche Matrizen Wir kommen jetzt zu den symmetrischen Matrizen über R beziehungsweise den hermiteschen Matrizen über C zurück. Wir hatten bereits gesehen, dass diese bezüglich des jeweiligen Skalarprodukts im R n beziehungsweise C n die Gleichung Ax y = x Ay für alle Vektoren x, y erfüllen. Dabei verwenden wir jetzt die im vorigen Abschnitt eingeführte Schreibweise für das Skalarprodukt. Im folgenden Satz werden wir die wesentlichen Eigenschaften derartiger Matrizen herleiten. Beachte dabei das wir den komplexen Fall als den allgemeinen Fall auffassen können, eine reelle, symmetrische Matrix ist als komplexe Matrix hermitesch. Satz 6.7 (Hauptsatz über symmetrische und hermitesche Matrizen Seien K = R und A eine symmetrische n n-matrix über R oder K = C und A eine hermitesche n n-matrix über C. Dann gelten: (a Die Matrix A ist diagonalisierbar und hat nur reelle Eigenwerte. (b Sind λ, µ zwei verschiedene Eigenwerte von A und u E λ (A, v E µ (A zugehörige Eigenvektoren, so ist u v =. (c Es gibt eine aus Eigenvektoren von A bestehende Orthonormalbasis des K n. Beweis: Sei λ C ein Eigenwert von A. Dann gibt es einen Vektor u C n mit Au = λu und u. Da die Matrix A in beiden Fällen hermitesch ist, folgt λ u = λ u u = λu u = Au u = u Au = u λu = λ u, also λ = λ und somit λ R. Damit sind alle Eigenwerte von A reell und insbesondere zerfällt das charakteristische Polynom χ A über K in Linearfaktoren. Sind λ, µ R zwei verschiedene Eigenwerte von A mit zugehörigen Eigenvektoren u, v, so rechnen wir λ u v = λu v = Au v = u Av = u µv = µ u v also (λ µ u v = und wegen λ µ folgt u v =. Nun zeigen wir, dass die Matrix A über K diagonalisierbar ist, und hierzu wollen wir 5.Lemma 9 verwenden. Sei also λ R ein Eigenwert von A. Dann ist auch (A λ = A λ = A λ, d.h. auch A λ ist im Fall K = R symmetrisch und im Fall K = C hermitesch. Sei u Kern(A λ, also (A λ u =. Dann haben wir auch (A λu = (A λu (A λu = u (A λ u =, -
2 Mathematik für Physiker II, SS 7 Freitag 3.6 also ist (A λu = und somit u Kern(A λ. Dies zeigt Kern(A λ Kern(A λ. Nach 5.Lemma 9 ist A diagonalisierbar, es gibt also eine aus Eigenvektoren von A bestehende Basis des K n. Bezeichnet λ,..., λ r die verschiedenen Eigenwerte von A und ist n i für jedes i r die geometrische Vielfachheit von λ i, so gibt es also eine Basis v,..., v,n,..., v r,..., v r,nr des K n so, dass v ij E λi (A für i r, j n i gilt. Ist i r, so ist v i,..., v i,ni eine Basis des Eigenraums E λi (A und durch Gram-Schmidt Orthonormalisierung erhalten wir eine Orthonormalbasis u i,..., u i,ni von E λi (A. Damit ist auch u,..., u,n,..., u r,..., u r,nr eine aus Eigenvektoren bestehende Basis des K n mit u ij = für alle i r, j n i. Wir behaupten das es sich sogar um eine Orthonormalbasis des K n handelt. Ist i r und sind k, l n i mit k l, so ist u ik u il =, und sind i, j r mit i j, k n i, l n j so ist wegen λ i λ j, u ik E λi (A, u jl E λj (A ebenfalls u ik u jl =. Es gibt nicht nur eine aus Eigenvektoren bestehende Orthonormalbasis des K n, wir können auch eine berechnen. Die Berechnung einer solchen Orthonormalbasis des K n ist mit uns schon bekannten Rechenverfahren einfach möglich. Die Rechnung läuft in den folgenden Schritten ab: Gegeben: Eine symmetrische oder hermitesche n n Matrix A. Gesucht: Eine aus Eigenvektoren von A bestehende Orthonormalbasis des K n. Verfahren: Die Rechnung läuft in den folgenden Schritten ab:. Berechne die Eigenwerte λ,..., λ s von A. Diese sind alle reell.. Für jeden Eigenwert λ = λ i ( i s löse das homogene lineare Gleichungssystem (λ Ax = und bestimme eine Basis v i,..., v ini seines Lösungsraums. Anders gesagt soll eine Basis des Eigenraums E λ (A berechnet werden. Dies kann man beispielsweise wie üblich durch Gauß Elimination tun. 3. Wende auf jede der in Schritt ( gefundenen Basen v i,..., v ini ( i n der jeweiligen Eigenräume das Gram Schmidtsche Orthonormalisierungsverfahren an, und erhalte eine Orthonormalbasis u i,..., u ini des Eigenraums E λi (A. 4. Setze die in Schritt (3 für λ = λ i, i =,..., s gefundenen Basen zu einer Orthonormalbasis u,..., u n,..., u s,..., u srs des K n zusammen. Dies ist die gesuchte Orthonormalbasis u,..., u n. -
3 Mathematik für Physiker II, SS 7 Freitag 3.6 Da dieses Verfahren sich nur aus uns schon bekannten Einzelschritten zusammensetzt, wollen wir hier nur ein Beispiel rechnen, nämlich die symmetrische Matrix A = Wir suchen eine aus Eigenvektoren von A bestehende Orthonormalbasis des R 4. Zur Bestimmung der Eigenwerte berechnen wir das charakteristische Polynom χ A (x =. x 9 x 9 x 9 x 9 x 9 x 9 x 8 x 8 = x 8 x 8 x 8 x 8 = x 8 x 8 x 8 x 8 x 9 x 9 x 9 x 8 x 8 x 9 x 8 x 8 5 x = (x 8 = (x 8 x 9 x 9 = (x 8 (x 9 x 9 + x 8 x 8 5 x = (x 8 ((x 9 x 8 5 x = (x 8 ((x x = (x 8 (x x + 96 = (x 8 3 (x. Wir haben also zwei Eigenwerte λ = 8 und λ =. Beginnen wir mit λ =. Die Gauß Elimination läuft dann als
4 Mathematik für Physiker II, SS 7 Freitag 3.6 Die Lösungsmenge ist also gegeben durch und somit u = v, y = v, x = y + u + 3v = v E (A =. Zur Orthonormalisierung muss dieser Basisvektor nur normiert werden, also u 4 :=. Dass wir nur einen Eigenvektor zu normieren haben, ist glücklicherweise der Normalfall, wir bereits mehrfach erwähnt hat eine zufällig gewählte Matrix in der Regel lauter verschiedene Eigenwerte, die damit alle einen eindimensionalen Eigenraum haben. Für λ = 8 ergibt sich für den Eigenraum dagegen = x = y + u v. Eine Basis des Eigenraums E 8 (A ist gegeben durch v =, v =, v 3 = Hier sind wir also im untypischen Fall und müssen noch etwas weiter rechnen. Auf die Vektoren v, v, v 3 müssen wir nun die Gram Schmidt Orthonormalisierung anwenden. Diesmal suchen wir dabei keine Orthonormalbasis des gesamten R 4 sondern nur eine Orthormalbasis des von v, v, v 3 aufgespannten Teilraums. Wir rechnen w := v =, w w =, w = v w = w 3 = v 3 + w + 3 w =., w w = 3, 3 3 3, w 3 w 3 = 4 3-4
5 Mathematik für Physiker II, SS 7 Freitag 3.6 und normieren u =, u = 3 w = 6 6 6, u 3 = 3 w 3 = Damit haben wir die gesuchte Orthonormalbasis des R 4 berechnet. Wir wollen den Satz 7 noch ein klein wenig umformulieren und ihn in Termen von Matrizen angeben. Hierzu benötigen wir einen weiteren kleinen Begriff. Definition 6.7 (Orthogonale und unitäre Matrizen Sei n N mit n. Eine reelle n n-matrix A heißt orthogonal wenn AA t = A t A = gilt, d.h. wenn A invertierbar mit A = A t ist. Eine komplexe n n-matrix A heißt unitär wenn AA = A A = ist, d.h. wenn A invertierbar mit A = A ist. Eine reelle n n-matrix A ist offenbar genau dann orthogonal wenn sie als komplexe Matrix unitär ist, in diesem Sinne sind unitäre Matrizen der allgemeine Fall. Nach I. 8.Korollar 3 ist eine Matrix A R n n auch genau dann orthogonal wenn AA t = oder A t A = gilt, denn dann ist A bereits invertierbar und durch Multiplikation mit A von links oder rechts folgt A = A t. Entsprechend ist eine komplexe Matrix A C n n bereits unitär wenn AA = oder A A = gilt. Beachte weiter das A genau dann orthogonal beziehungsweise unitär ist wenn die transponierte Matrix A t dies ist. Im reellen Fall K = R ist dies trivial. Im komplexen Fall beachte (A t = A, also (A t A t = AA t = AA und analog A t (A t = A A, also ist genau dann (A t A t = A t (A t = wenn AA = A A = ist, wenn also A unitär ist. Wir stellen jetzt den Zusammenhang zwischen orthogonalen beziehungsweise unitären Matrizen und Orthonormalbasen her. Lemma 6.8 (Charakterisierung orthogonaler und unitärer Matrizen Seien K {R, C}, n N mit n und A K n n. Dann sind die folgenden Aussagen äquivalent: (a Es ist K = R und A ist orthogonal oder K = C und A ist unitär. (b Für alle x, y K n gilt Ax Ay = x y. (c Die Spalten von A bilden eine Orthonormalbasis des K n. (d Die Zeilen von A bilden eine Orthonormalbasis des K n. Beweis: (a= (b. Es reicht den Fall K = C zu behandeln, die reellen Matrizen sind dann ein Spezialfall. Seien also x, y C n. Dann gilt Ax Ay = (Ax t Ay = x t A t Ay = x t A Ay = x t y = x y. -5
6 Mathematik für Physiker II, SS 7 Freitag 3.6 (b= (c. Bezeichne u,..., u n die Spalten von A, d.h. für i n ist u i = Ae i wenn e,..., e n wie immer die Standardbasis des K n ist. Für i, j n mit i j gilt dann u i u j = Ae i Ae j = e i e j = und für i n ist auch u i = u i u i = Ae i Ae i = e i e i =. Damit ist u,..., u n eine Orthonormalbasis des K n. (c= (a. Seien wieder u,..., u n die Spalten von A = (a ij i,j n. Für i, j n ist dann n (A A ij = a ki a kj = u t ju i = u j u i = δ ij, k= also ist A A =. Wie bereits bemerkt, folgt hieraus das A im reellen Fall orthogonal und im komplexen Fall unitär ist. (a (d. Die Zeilen von A sind die Spalten von A t, also sind die Zeilen von A genau dann eine Orthonormalbasis des K n wenn A t orthogonal beziehungsweise unitär ist, und wie schon angemerkt ist dies genau dann der Fall wenn A orthogonal beziehungsweise unitär ist. Wir hatten eine reelle qudratische Matrix A orthogonal genannt wenn AA t = A t A = gilt, und entsprechend ist eine komplexe quadratische Matrix unitär wenn AA = A A = ist. Gleichwertig hierzu ist das die Spalten von A eine Orthonormalbasis des K n bilden, wobei wieder K = R oder K = C ist je nachdem ob wir reelle oder komplexe Matrizen betrachten. Ist also u,..., u n eine Orthonormalbasis des K n, so ist die Transformationsmatrix S von der Basis u,..., u n zur Standardbasis des K n, d.h. die Matrix deren Spalten u,..., u n sind, im reellen Fall orthogonal und im komplexen Fall unitär. Damit ist S = S. Ist also weiter A eine n n-matrix über K, so wird die ähnliche Matrix bezüglich der Basis u,..., u n zu S AS = S AS. Unser Satz 7 wird zu Korollar 6.9: Seien K {R, C}, n N mit n und A K n n symmetrisch im Fall K = R und hermitesch im Fall K = C Dann existiert für K = R eine orthogonale Matrix S R n n und für K = C eine unitäre Matrix S C n n mit S t AS = λ... für K = R und S AS = λ... für K = C λ n λ n wobei λ,..., λ n die mit Vielfachheit aufgezählten Eigenwerte von A sind. Beweis: Klar nach Satz 7. -6
7 Mathematik für Physiker II, SS 7 Freitag 3.6 Im oben gerechneten Beispiel der symmetrischen 4 4-Matrix 9 A = ist S die orthogonale Matrix S = mit St AS = Quadratische Formen und Hauptachsentransformation Wir wollen die bisher vorgestellte Theorie nun zur Untersuchung quadratischer Funktionen in mehreren Variablen nutzen, also Funktionen wie beispielsweise f(x, y = x + y xy x y +. Allgemein ist eine quadratische Funktion in n Variablen eine Funktion der Form f : R n R; x n a ij x i x j + b i x i + c i,j n i= mit Konstanten a ij, b i, c R ( i, j n. Für n = sieht die allgemeine quadratische Funktionen also ausgeschrieben wie folgt aus a x + a xy + a yx + a y + b x + b y + c. Für unsere obige Beispielfunktion könnten wir 4 4 etwa a = a = c =, a = b = b = und 4 4 x y a = setzen. Da die definierende Summenformel etwas unhandlich ist, geht man nun zu einer Matrixbeschreibung der quadratischen Funktion f über. Hierzu setzt man A := a a n..... a n a nn und b := b. b n 4 3 und hat für jedes x R n a ij x i x j = i,j n ( n n a ij x i x j = j= i= -7 n (A t x j x j = (A t x y j=
8 Mathematik für Physiker II, SS 7 Freitag 3.6 und n i= b ix i = b x. Die quadratische Funktion f in n Variablen können wir damit in der kompakten Form f(x = (A t x x + b x + c schreiben. Für i, j n mit i j taucht das Produkt x i x j zweimal auf, einmal als a ij x i x j und ein anderes Mal als a ji x j x i = a ji x i x j. Diese beiden Summanden können wir zusammenfassen und als a ij x i x j + a ji x j x i = (a ij + a ji x i x j = a ij + a ji x i x j + a ij + a ji x j x i schreiben. Diese neuen Koeffizienten (a ij + a ji / sind symmetrisch in i und j. Damit können wir immer erreichen, dass die Matrix A symmetrisch ist. In unserer Beispielfunktion werden A = ( und b = (. Die offizielle Definition einer quadratischen Funktion wird jetzt zu: Definition 6.8: Sei n N. Eine quadratische Funktion in n Variablen ist eine Funktion der Form f : R n R; x (Ax x + b x + c wobei A eine symmetrische n n Matrix über R ist, b R n ein Vektor ist und c R eine reelle Zahl ist. Ist dabei b = und c =, so nennt man f auch eine quadratische Form. Zum besseren Verständnis von f ist es hilfreich sich die Niveaumengen M t := {x R n f(x = t} für verschiedene Werte von t anzuschauen. Für unsere Beispielfunktion f(x, y = x + y xy x y + haben diese Mengen die Form -8
9 Mathematik für Physiker II, SS 7 Freitag y.5 y x.5.5 x Niveaumengen Die Niveaumenge f(x, y = Wie Sie sehen sind die Niveaumengen hier allesamt Ellipsen. Für die Niveaumenge M haben wir auch die beiden Hauptachsen der Ellipse eingezeichnet, d.h. die Achsen auf denen die Ellipse minimalen oder maximalen Abstand von ihrem Schwerpunkt hat. Als Hauptachsentransformation bezeichnet man jetzt die Koordinatentransformation bei der der Nullpunkt des Koordinatensystems in den Schwerpunkt der Ellipse gelegt wird und die beiden Hauptachsen der Ellipse als Koordinatenachsen verwendet werden. Bezüglich eines Koordinatensystem mit Schwerpunkt im Nullpunkt bei dem die beiden Hauptachsen die Koordinatenachsen sind, hat eine Ellipse mit den Halbradien a, b > die Form b a x a + y b =. Wir suchen also ein Koordinatensystem in dem unsere Niveaumenge M diese Form annimmt. Insbesondere können wir dann auch die beiden Halbradien unserer Ellipse berechnen. Es stellt sich heraus, dass man dann auch für allgemeinere quadratische Funktionen eine Hauptachsentransformation durchführen kann, dass das ganze also im Allgemeinen mit Ellipsen eigentlich nichts zu tun hat. Kommen wir also zur allgemeinen Situation f(x = (Ax x + b x + c -9
10 Mathematik für Physiker II, SS 7 Freitag 3.6 in n Variablen zurück. Als erstes Ziel wollen wir den Nullpunkt unserer angestrebten Hauptachsentransformation finden. Wir untersuchen dazu erst einmal wie sich das Verschieben des Nullpunkts auf die quadratische Funktion auswirkt. Nehmen wir einmal an wir legen den Nullpunkt in den Punkt u R n. Sei x R n. Denken wir uns x bezüglich des neuen Koordinatenursprungs u, so sind die Koordinaten von x bezüglich des alten Nullpunkts gleich x + u. Setzen wir dies in die quadratische Funktion ein, so wird f(x + u = (A(x + u (x + u + b (x + u + c = (Ax + Au (x + u + b (x + u + c Setzen wir also = (Ax x + (Ax u + (Au x + (Au u + b x + b u + c = (Ax x + (Au + b x + c + (Au u + b u. b := Au + b und c := c + (Au u + b u = f(u, so wird f(x := f(x + u = (Ax x + b x + c. Wie müssen wir u wählen damit f möglichst einfach wird? Hier gibt es zwei mögliche Fälle, die wir gleich durchgehen werden. Fall. Es ist b Bild A. Dann können wir ein u R n mit Au = b = b = Au + b = wählen und haben den linearen Anteil eliminiert. Fall. Es ist b / Bild A. Dann zerlegen wir den Vektor b in eine Summe b = b + b mit einem Teil b Bild(A und einem Vektor b der senkrecht auf dem Bild von A steht, d.h. b ist die Orthogonalprojektion von b auf das Bild von A. Wegen b / Bild A ist b b, also b. In diesem Fall wählen wir u R n mit Au = b = b = Au + b = b, und wir haben den linearen Anteil senkrecht zum Bild von A gemacht. Weiter vereinfachen können wir in diesem Fall leider nicht, zumindest nicht durch Wahl des Koordinatenursprungs. Untersuchen wir einmal die Situation in unserem Beispiel f(x, y = x + y xy x y +. Hier ist die Matrix A invertierbar mit A = ( und für den Nullpunkt u erhalten wir u = A b = 3 = A = 4 3 ( - ( ( = (.
11 Mathematik für Physiker II, SS 7 Freitag 3.6 Der Vektor u ist also tatsächlich genau der Mittelpunkt unserer Ellipse, wie man im obigen Bild der Niveaumenge M tatsächlich sehen kann. Wegen f(u = wird damit f(x = (Ax x beziehungsweise f(x, y = x + y xy. Bei der Transformation auf die Hauptachsen der Ellipse als Koordinatenachsen bleibt der Nullpunkt unverändert. Da der konstante Term keine Rolle spielt, müssen wir also nur noch eine quadratische Form f(x = (Ax x mit einer symmetrischen n n Matrix A betrachten. Nach Korollar 9 existiert eine orthogonale n n Matrix S mit λ S t AS =... =: D wobei λ,..., λ n die Eigenwerte von A sind. Diese Matrix existiert nicht nur, sondern wir hatten auch gesehen wie man sie ausrechnen kann. Die Matrix S ist die Transformationsmatrix von einer aus Eigenvektoren von A bestehenden Orthonormalbasis u,..., u n zur Standardbasis des R n, d.h. die Matrix deren Spalten die Vektoren u,..., u n sind. Bezeichnet x Koordinaten bezüglich der Basis u,..., u n, so ist Sx der entsprechende Vektor in den Standardkoordinaten. In diesen transformierten Koordinaten wird die quadratische Form also zu f(x := f(sx = (ASx (Sx = (S t ASx x = (Dx x = λ x + + λ n x n. An dieser Formel sehen wir insbesondere das die geometrische Form der quadratischen Funktion von den Vorzeichen der Eigenwerte der Matrix A bestimmt wird. Nehmen wir einmal das zweidimensionale Beispiel f(x, y = λ x + λ y. λ n x y x 3 3 λ, λ > λ λ < 3 y -
12 Mathematik für Physiker II, SS 7 Freitag 3.6 Sind beide Eigenwerte λ, λ positiv, so haben wir bis auf Skalierungen der x- und y-achse das Rotationparaboloid f(x, y = x + y. Sind λ, λ beide negativ, so liegt analog ein nach unten geöffnetes Rotationsparaboloid vor. Haben λ und λ verschiedene Vorzeichen, also λ λ <, so hat unsere Funktion nach Umskalieren und eventuellen Spiegeln an der Diagonalen die Form von f(x, y = x y, ist also eine Sattelfläche. Wir setzen jetzt das Beispiel der quadratischen Funktion f(x, y = x + y xy x y + fort. Wir hatten bereits gesehen, dass wir u = (, als Koordinatenursprung nehmen sollten, und das dann f(x, y = f(x +, y + = x + y xy ist. Nach unserer eben angestellten Überlegung erfordert die Berechnung der Hauptachsen die Bestimmung einer aus Eigenvektoren von A bestehenden Orthonormalbasis des R. Rechnen wir dies einmal für unsere quadratische Form f(x, y = x + y xy durch. Das charakteristische Polynom wird zu ( A = = χ A (x = x tr(ax + det(a = x x und die Eigenwerte sind damit λ = ± Die Berechnung von Eigenvektoren liefert also v = für λ = ( (, v = 3 4 = ±, also λ = und λ = 3. = x = y und für λ = 3 und normiert u = (, u = = x = y, (. Wir verwenden jetzt ein Koordinatensystem mit Ursprung in u = (, und den Koordinatenachsen u, u, die wir eben ausgerechnet haben. Ist dann S die Transformationsmatrix ( S :=, so entspricht der Punkt x im neuen Koordinatensystem dem Punkt Sx + u im alten Koordinatensystem, und wir haben mit f(x = f(sx + u nun f(x, y = λ x + λ y = x + 3 y. Damit haben wir die Hauptachsentransformation in diesem Beispiel durchgeführt. An der obigen Formel kann man auch noch die Radien der beiden Hauptachsen unserer Ellipse f(x, y = ablesen. Es ist ja f(x, y = x a + y b mit a := und b := - 3 = 6 3
13 Mathematik für Physiker II, SS 7 Freitag 3.6 der kleinere Radius der Ellipse ist also b = 6/3 und der große ist a =. Damit haben wir zum einen die Hauptachsentransformation für die quadratische Funktion f(x, y = x + y xy x y + durchgeführt und zum anderen die beiden Halbradien der durch f(x, y = gegebenen Ellipse ausgerechnet. Letzterer geometrischer Aspekt spielt für uns keine große Rolle, das Entscheidende ist die Bestimmung des zur Hauptachsentransformation verwendeten Koordinatensystems. Wir wollen uns auch noch anschauen wie der obige Fall zu behandeln ist, also wenn b / Bild(A gilt. Da die Matrix A symmetrisch ist, haben wir für alle x R n und alle y Kern A stets (Ax y = x (Ay =, d.h. Bild und Kern von A stehen senkrecht aufeinander. Dies können wir auch leicht in Satz 7 ablesen, ist u,..., u n eine aus Eigenvektoren bestehende Orthonormalbasis, so ist das Bild gleich dem Erzeugnis der Eigenvektoren u i zu von Null verschiedenen Eigenwerten und der Kern ist der Eigenraum zu λ = also das Erzeugnis der restlichen u i. Haben wir also f(x = (Ax x + b x + c mit b senkrecht auf dem Bild von A, so ist auch Ab =. In anderen Worten ist b ein Eigenvektor zum Eigenwert von A. Es gibt nun wieder eine orthogonale Matrix S mit D := S t AS = λ... wobei λ,..., λ n die Eigenwerte von A sind. Dabei numerieren wir die Eigenwerte von A so durch, dass die ersten r := rang A Eigenwerte von Null verschieden sind λ,..., λ r während die hinteren n r Eigenwerte alle gleich Null sind λ r+ = = λ n =. Bei der Berechnung des zum Eigenwert gehörenden Teils der aus Eigenvektoren von A bestehenden Orthonormalbasis des R n, hatten wir zuerst eine Basis v r+,..., v n dieses Eigenraums bestimmt, und auf diese dann das Gram Schmidtsche Orthonormalisierungsverfahren angewandt. Wegen Ab =, b können wir die Basis dann mit v r+ = b wählen, und es wird u r+ = v r+ / v r+ = b/ b. Damit ist b = µu r+ mit µ := b. Es folgt λ n, f(x := f(sx = (ASx (Sx + b (Sx + c = (S t ASx x + (S t b x + c für alle x R. Dabei gilt Se r+ = u r+, also auch Insgesamt ist somit S t b = µs t u r+ = µs u r+ = µe r+. f(x,..., x n = λ x + + λ r x r + µx r+ + c. = (Dx x + (S t b x + c Damit haben wir den linearen Anteil unserer quadratischen Funktion zwar nicht zum Verschwinden gebracht, haben ihn aber zumindest zu einer einfachen Standardform -3
14 Mathematik für Physiker II, SS 7 Freitag 3.6 normiert. Auch zu dieser Situation wollen wir ein dreidimensionales Beispiel rechnen. Wir betrachten die quadratische Funktion f(x, y, z = x + y + z xy + yz + x + y In der Vektordarstellung haben wir dann f(x = (Ax x + b x + c mit A =, b = und c =. Es stellt sich heraus, dass es genau wie im schon behandelten Fall sinnvoll ist, zunächst einmal die Eigenwerte von A zu berechnen. Das charakteristische Polynom ergibt sich als x χ A (x = x x = (x x x x ( = (x x x + (x = x(x (x, und wir haben die drei Eigenwerte λ =, λ = und λ 3 =. Als nächsten Schritt bestimmen wir eine aus Eigenvektoren von A bestehende Orthonormalbasis des R 3. Hierzu suchen wir zunächst einmal Eigenvektoren für die von Null verschiedenen Eigenwerte. Für λ = ist die Rechnung also y =, x = z mit dem normierten Eigenvektor Für λ = haben wir u =. -4
15 Mathematik für Physiker II, SS 7 Freitag 3.6 also y = z, x = ( /y = z mit dem normierten Eigenvektor u =. Das Bild von A wird jetzt von den beiden Vektoren u, u aufgespannt, und wir müssen nun die Orthogonalprojektion des Vektors b auf dieses Bild berechnen, also b u = und b u = (, und die Orthogonalprojektion b von b wird b := (b u u + (b u u = u + (3 ( 4 u = ( 4 ( + 4 Die Zerlegung von b hat jetzt die Form b = b + b mit b := b b = ( + 4 ( + 4 ( Wegen b zeigt diese Rechnung insbesondere das b / Bild(A ist, wir sind also im obigen Fall. Im nächsten Schritt berechnen wir einen passenden Nullpunkt u und hierfür suchen wir einen Vektor u mit Au = b /. Zur Bestimmung von u müssen wir erfreulicherweise kein lineares Gleichungssystem mehr lösen, wir haben schon alle nötigen Daten beisammen. Die Vektoren u, u sind ja Eigenvektoren von A mit Au = λ u und Au = λ u, d.h. wir haben auch b = (b u u + (b u u = b u λ (λ u + b u λ (λ u = b u λ Au + b u = A Au λ ( b u u + b u u λ λ. Folglich können wir als Lösung von Au = b / beispielsweise u := ( b u u + b u u = λ λ ( u + 4 ( u = verwenden. Mit u als Koordinatenursprung ist dann wegen (5 6 ( 6 (3 + 6 f(u = 3 ( 39-5
16 Mathematik für Physiker II, SS 7 Freitag 3.6 auch f(x = (Ax x + b x + 3 ( 39. Wir brauchen noch einen Eigenvektor zum Eigenwert, und hierfür können wir unseren schon berechneten Vektor b verwenden. Es ist b = 6 ( + 8 = 4 (3 + = 4 ( + = µ := b = ( + also wird u 3 = b b = und die endgültige orthogonale Matrix ist S =. Für die transformierte Funktion f(x = f(sx + u ist damit f(x, y, z = x + y + ( + z + 3 ( 39. Wir wollen jetzt das vollständige Verfahren zur Herstellung der Hauptachsentransformation angeben. In unserem Fall hatten wir eine Lösung u von Au = b / direkt in Termen des Skalarprodukts hingeschrieben, und dieselbe Überlegung funktioniert ebenso in Fall. Damit ist es gar nicht nötig explizit ein lineares Gleichungssystem zu lösen und wir erhalten ein gemeinsames Verfahren für beide Fälle. Das Verfahren zur Berechnung der Hauptachsentransformation läuft wie folgt ab: Gegeben: Eine quadratische Funktion f(x = (Ax x+b x+c mit einer symmetrischen n n Matrix A, einem Vektor b R n und einer Zahl c R. Gesucht: Ein Koordinatenursprung u R n und eine Orthonormalbasis u,..., u n des R n so, dass die transformierte Funktion f(x = f(sx + u entweder die Form f(x = λ x + + λ n x n + c oder die Form f(x = λ x + + λ r x r + µx r+ + c hat. Dabei ist S die orthogonale Matrix deren Spalten die Vektoren u,..., u n sind. Verfahren: Die Rechnung läuft in den folgenden Schritten ab.. Berechne die Eigenwerte λ,..., λ n von A aufgezählt entsprechend ihrer jeweiligen Vielfachheit. Die Numerierung erfolge so, dass λ,..., λ r und λ r+ =... = λ n = ist, wobei r := rang(a der Rang von A ist. Dabei muss r nicht extra ausgerechnet werden, sondern ergibt sich durch Zählen der Eigenwerte ungleich Null. -6
17 Mathematik für Physiker II, SS 7 Freitag 3.6. Berechne für jeden der von Null verschiedenen Eigenwerte λ von A eine Orthonormalbasis des Eigenraums E λ (A. Dies geschieht wieder indem zuerst durch Lösen des homogenen linearen Gleichungssystems (A λx = irgendeine Basis von E λ (A berechnet wird, und dann auf diese die Gram Schmidt Orthonormalisierung angewandt wird. 3. Fasse die in Schritt ( berechneten Orthonormalbasen zu einer Orthonormalbasis u,..., u r des Bildes von A zusammen. 4. Berechne b := (b u u + + (b u r u r und verwende u := ( b u u + + b u r u r λ λ r als den Koordinatenursprung. 5. Ist r < n, so löse das homogene lineare Gleichungssystem Ax = um eine Basis v,..., v n r des Kerns von A zu erhalten. Im Fall b b wähle die Basis mit v = b b und setze µ := b b. Weiter wende die Gram Schmidt Orthonormalisierung auf v,..., v n r an, und bezeichne die erhaltene Orthonormalbasis des Kerns von A mit u r+,..., u n. 6. Der Koordinatenursprung ist der in Schritt (4 berechnete Punkt u und die aus den Hauptachsen bestehende Orthonormalbasis entsteht durch Zusammensetzen der in den Schritten (3 und (5 berechneten Teilbasen, also u,..., u n. Im Fall b = b hat die transformierte quadratische Funktion keinen linearen Anteil mehr und im anderen Fall b b tritt ein linearer Anteil mit dem in (5 berechneten µ auf. Dieses Verfahren erlaubt es allgemein jede quadratische Funktion in n Variablen entweder auf die Gestalt f(x = λ x + + λ n x n + c oder auf die Gestalt f(x = λ x + + λ r x r + µx r+ + c für ein r < n zu transformieren. Beispiele zur Anwendung des Verfahrens werden in Aufgabe (48 behandelt. Wir fassen dieses Ergebnis noch in einem Satz über die Hauptachsentransformation zusammen. Satz 6. (Hauptachsentransformation quadratischer Funktionen Seien A eine symmetrische n n Matrix über R, b R n und c R. Seien λ,..., λ n die mit Vielfachheit aufgezählten Eigenwerte von A, wobei im Fall r := rang(a < n die Numerierung mit λ,..., λ r und λ r+ = = λ n = erfolge. Dann existieren ein Punkt u R n und eine orthogonale n n Matrix S so, dass entweder f(sx + u = λ x + + λ n x n + f(u für alle x R n ist, oder es ist r < n und es existiert eine reelle Zahl µ > mit f(sx + u = λ x + + λ r x r + µx r+ + f(u -7
18 Mathematik für Physiker II, SS 7 Freitag 3.6 für alle x R n. Beweis: Dies haben wir bereits eingesehen. -8
6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn
Mehr6 Symmetrische und hermitesche Matrizen
Mathematik für Physiker II, SS Freitag 4.6 $Id: quadrat.tex,v.8 /6/4 4:44:39 hk Exp hk $ 6 Symmetrische und hermitesche Matrizen 6. Prä-Hilberträume Wir sind gerade mit der Diskussion der sogenannten Ausgleichsgerade
Mehr6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation
Mehr6 Symmetrische und hermitesche Matrizen
$Id: quadrat.tex,v.0 0/06/9 :47:4 hk Exp $ $Id: orthogonal.tex,v.4 0/06/9 3:46:46 hk Exp $ 6 Symmetrische und hermitesche Matrizen 6.3 Quadratische Funktionen und die Hauptachsentransformation Wir sind
Mehr5 Eigenwerte und die Jordansche Normalform
Mathematik für Ingenieure II, SS 9 Freitag 6 $Id: jordantex,v 7 9/6/ :8:5 hk Exp $ 5 Eigenwerte und die Jordansche Normalform 5 Die Jordansche Normalform Nachdem wir bisher das Vorgehen zur Berechnung
Mehr18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1
UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrHauptachsentransformation: Eigenwerte und Eigenvektoren
Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
MehrVorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)
Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit
MehrAufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009
I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe
MehrLineare Algebra für Physiker 11. Übungsblatt
Lineare Algebra für Physiker 11. Übungsblatt Fachbereich Mathematik SS 01 Prof. Dr. Matthias Schneider./. Juli 01 Dr. Silke Horn Dipl.-Math. Dominik Kremer Gruppenübung Aufgabe G1 (Minitest) (a) Welche
MehrTutorium Mathematik II, M Lösungen
Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +
MehrLösungen zu Prüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in
Mehr, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.
154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =
MehrMusterlösungen zur Linearen Algebra II Übungsklausur
Musterlösungen zur Linearen Algebra II Übungsklausur Aufgabe. Sei A R 3 3. Welche der folgenden Aussagen sind richtig? a Ist det(a =, dann ist A eine orthogonale Matrix. b Ist A eine orthogonale Matrix,
Mehr6.3 Hauptachsentransformation
Im Wintersemester 6/7 wurde in der Vorlesung Höhere Mathematik für Ingenieurstudiengänge der folgende Algorithmus zur Hauptachsentransformation besprochen: 63 Hauptachsentransformation Die Matrizen, die
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 12
Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 25): Lineare Algebra und analytische Geometrie 2 2. (Frühjahr 29, Thema 3, Aufgabe 3) Gegeben sei die reelle 3 3 Matrix 4 2 A = 2 7 2 R 3 3. 2 2 a)
MehrKlausur zur Vorlesung Lineare Algebra II, SoSe 2016,
Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF
TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF 07.03.2016-11.03.2016 Inhaltsverzeichnis Inhaltsverzeichnis 1 Darstellungsmatrizen 2 2 Diagonalisierbarkeit
MehrLösungen der Aufgaben zu Kapitel 11
Lösungen der Aufgaben zu Kapitel Vorbemerkung: Zur Bestimmung der Eigenwerte (bzw. des charakteristischen Polynoms) einer (, )-Matrix verwenden wir stets die Regel von Sarrus (Satz..) und zur Bestimmung
MehrHenning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich
Henning Krause Lineare Algebra Julia Sauter SS 27 Klausur 2.9.27 mit Lösungsvorschlag Jan Geuenich Aufgabe (4 Punkte: Sei n N und seien A und B zwei (n n-matrizen über einem Körper K. Wahr Falsch (a Es
Mehr1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen
Hannover, den 7. Februar 2002 Aufgabe. Übungsblatt: Lineare Algebra II Abgabe: 8./9.4.2002 in den Übungsgruppen (2, 2, 3 Punkte) Der Vektorraum V = C[, ] sei mit dem üblichen Skalarprodukt f, g = f(t)g(t)
Mehr10.2 Linearkombinationen
147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition
MehrLineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
MehrP AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3
Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare
MehrEigenwerte (Teschl/Teschl 14.2)
Eigenwerte (Teschl/Teschl 4.2 Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =
MehrKapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist
Mehr$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $
Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit
MehrOrthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen
Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).
MehrLineare Algebra II 11. Übungsblatt
Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross 9 / Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest (Bearbeitung innerhalb von Minuten und ohne Benutzung des
Mehr5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit
ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem
Mehr5 Eigenwerte und die Jordansche Normalform
Mathematik für Physiker II, SS Mittwoch 8.6 $Id: jordan.tex,v.6 /6/7 8:5:3 hk Exp hk $ 5 Eigenwerte und die Jordansche Normalform 5.4 Die Jordansche Normalform Wir hatten bereits erwähnt, dass eine n n
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
MehrMusterlösungen zur Linearen Algebra II Weihnachtszettel
Musterlösungen zur Linearen Algebra II Weihnachtszettel Aufgabe. Welche der folgenden Matrizen 3 0 0 A = 0 4, B = 3, C = 0 0 0 6 0 0 0 sind über R und welche über C diagonalisierbar? Bestimmen Sie dazu
MehrLösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015
sskizzen der Klausur zur Linearen Algebra im Herbst 5 Aufgabe I. Es sei (G, ) eine Gruppe mit neutralem Element e und M {x G x x e}. Zeigen Sie: (a) Ist G kommutativ, so ist M eine Untergruppe von G. (b)
Mehr1 Analytische Geometrie und Grundlagen
$Id: vektor.tex,v 1.44 2018/05/17 14:11:13 hk Exp $ 1 Analytische Geometrie und Grundlagen 1.6 Bewegungen und Kongruenzbegriffe Wir untersuchen gerade die Spiegelung an einer Hyperebene h R d. Ist ein
Mehr4 Lineare Algebra (Teil 2): Quadratische Matrizen
4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,
MehrLösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1
D-MAVT Lineare Algebra II FS 8 Prof. Dr. N. Hungerbühler Lösungen Serie. Welche der folgenden Vektoren sind Eigenvektoren der Matrix? (a) (,, ). Ein Vektor v ist Eigenvektor von A :=, falls Av ein skalares
Mehr1 Analytische Geometrie und Grundlagen
Mathematische Probleme, SS 28 Dienstag 29.5 $Id: vektor.tex,v.46 28/5/29 6:4: hk Exp $ Analytische Geometrie und Grundlagen.6 Bewegungen und Kongruenzbegriffe Am Ende der letzten Sitzung hatten wir bereits
MehrKarlsruher Institut für Technologie (KIT) WS 2012/13 Institut für Analysis Prof. Dr. Tobias Lamm Dr. Patrick Breuning
Karlsruher Institut für Technologie (KIT) WS 22/3 Institut für Analysis 28..23 Prof. Dr. Tobias Lamm Dr. Patrick Breuning Höhere Mathematik I für die Fachrichtung Physik 4. Übungsblatt (letztes Blatt)
Mehr7.2 Die adjungierte Abbildung
7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)
Mehr9. Übungsblatt zur Mathematik I für Maschinenbau
Fachbereich Mathematik Prof. Dr. M. Joswig Dr. habil. Sören Kraußhar Dipl.-Math. Katja Kulas 9. Übungsblatt zur Mathematik I für Maschinenbau Gruppenübung WS /..-4.. Aufgabe G (Koordinatentransformation)
MehrEigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
MehrEigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung
Zurück Stand 4.. 6 Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung Im Allgemeinen werden Vektoren durch Multiplikation mit einer Matrix gestreckt und um einen bestimmten Winkel gedreht. Es gibt jedoch
Mehr6 Metrische Klassifikation der Quadriken
6 Metrische Klassifikation der Quadriken A Wiederholung von Kap V, 5 Sei A = (a ij ) eine symmetrische n n Matrix. n x 1 q(x) := x t Ax = a ij x i x j, x =. i,j=1 ist dann ein quadratisches Polynom in
Mehra b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,
Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist
Mehr5 Lineare Algebra (Teil 3): Skalarprodukt
5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale
MehrKapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
Mehr7.3 Unitäre Operatoren
Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren
MehrEigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( )
Eigenwertprobleme 5. Oktober Autoren:. Herrmann, Hannes (45969). Kraus, Michael (9). Krückemeier, Paul (899) 4. Niedzielski, Björn (7) Eigenwertprobleme tauchen in der mathematischen Physik an Stellen
MehrKapitel 11 Eigenwerte und Eigenvektoren
Kapitel Eigenwerte und Eigenvektoren. Problem der Diagonalisierbarkeit Es sei wieder K gleich R oder. Eine n n)-matrix A mit Koeffizienten aus K wird als diagonalisierbar bezeichnet, wenn es eine invertierbare
MehrFachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen
Fachbereich Mathematik/Informatik 6. Juni 0 Prof. Dr. H. Brenner Mathematik für Anwender II Testklausur mit Lösungen Aufgabe. Definiere die folgenden (kursiv gedruckten) Begriffe. () Ein Skalarprodukt
MehrBC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2
Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete
Mehr9. Übung zur Linearen Algebra II -
9. Übung zur Linearen Algebra II - en Kommentare an Hannes.Klarner@Fu-Berlin.de FU Berlin. SS 00. Aufgabe 33 (i) Beweise oder widerlege: In einem euklidischen VR gilt x + y = x + y x y (Satz von Pythagoras).
MehrD-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Musterlösung 13. (A ± I)x = 0 Ax ± x = 0 Ax = ±x Ax = λx
D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung Musterlösung 13 1. Die Matrix A±I ist singulär falls es einen Vektor x 0 gibt der die Gleichung (A±I)x = 0 erfüllt, d.h. wenn A ± I als
Mehr12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen
12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn
Mehr$Id: integral.tex,v /05/05 13:36:42 hk Exp $
$Id: integral.tex,v.5 07/05/05 3:36:4 hk Exp $ Integralrechnung.4 Integration rationaler Funktionen In diesem Abschnitt wollen wir die Integration rationaler Funktionen diskutieren. Es wird sich herausstellen
Mehr10 Unitäre Vektorräume
10 Unitäre Vektorräume Pink: Lineare Algebra 2014/15 Seite 98 10 Unitäre Vektorräume Die Theorie komplexer Vektorräume mit Skalarprodukt folgt denselben Linien wie die Theorie reeller Vektorräume mit Skalarprodukt;
Mehr7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?
Kapitel Lineare Abbildungen Verständnisfragen Sachfragen Was ist eine lineare Abbildung? Erläutern Sie den Zusammenhang zwischen Unterräumen, linearer Unabhängigkeit und linearen Abbildungen! 3 Was ist
Mehr7 Lineare Abbildungen und Skalarprodukt
Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u
MehrLösbarkeit linearer Gleichungssysteme
Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn
Mehr2 Koordinatentransformationen
Mathematik für Ingenieure III, WS 9/ Mittwoch 8. $Id: transform.tex,v.8 //4 :9: hk Exp $ Koordinatentransformationen. Lineare Koordinatentransformationen Wir überlegen uns dies zunächst im Spezialfall
MehrLineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
MehrKlausur zur Vorlesung Lineare Algebra B im SS 2002 an der Universität Hannover
Dozent: Prof. Dr. Wolfgang Ebeling Übungsleiter: Dr. Detlef Wille Klausur zur Vorlesung Lineare Algebra B im SS an der Universität Hannover Joachim Selke 9. Februar Lineare Algebra B SS Klausur zur Vorlesung
Mehr46 Eigenwerte und Eigenvektoren symmetrischer Matrizen
46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46.1 Motivation Symmetrische Matrizen (a ij = a ji für alle i, j) kommen in der Praxis besonders häufig vor. Gibt es für sie spezielle Aussagen über
Mehr(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.
L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors
MehrMischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.
Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen
Mehr7 Matrizen über R und C
Mathematik für Physiker I, WS 0/05 Montag 5. $Id: matrix.tex,v. 0//5 :6:05 hk Exp $ 7 Matrizen über R und C 7. Addition und Multiplikation von Matrizen In der letzten Sitzung haben wir begonnen uns mit
MehrMathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))
Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 18 Vielfachheiten und diagonalisierbare Abbildungen Satz 18.1. Es sei K ein Körper und es sei V ein endlichdimensionaler K- Vektorraum.
MehrEigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)
Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein
Mehr4.4 Hermitesche Formen
44 Hermitesche Formen Wie üblich bezeichnen wir das komplex konjugierte Element von ζ = a + bi C (a, b R) mit ζ = a bi Definition 441 Sei V ein C-Vektorraum Eine hermitesche Form (HF) auf V ist eine Abbildung
Mehr1. Hausübung ( )
Übungen zur Vorlesung»Lineare Algebra B«(SS ). Hausübung (8.4.) Aufgabe Es seien σ (3, 6, 5,, 4, 8,, 7) und τ (3,,, 4, 6, 5, 8, 7). Berechnen Sie σ τ, τ σ, σ, τ, die Anzahl der Inversionen von σ und τ
Mehr9 Matrizen über R und C
Mathematik für Physiker I, WS 00/0 Montag 0 $Id: matrixtex,v 6 0/0/0 :6:7 hk Exp $ $Id: dettex,v 0/0/0 ::59 hk Exp hk $ 9 Matrizen über R und C 9 Transposition von Matrizen Im letzten Abschnitt hatten
Mehr7 Matrizen über R und C
Mathematik für Physiker I, WS 06/07 Montag 9 $Id: matrixtex,v 7 06//9 :58: hk Exp $ 7 Matrizen über R und C 7 Addition und Multiplikation von Matrizen In der letzten Sitzung haben wir begonnen uns mit
MehrLineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.
Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren
Mehr3.3 Klassifikation quadratischer Formen auf R n
3.3. Klassifikation quadratischer Formen auf R n 61 3.3 Klassifikation quadratischer Formen auf R n Wir können den Hauptsatz über symmetrische Matrizen verwenden, um uns einen Überblick über die Lösungsmengen
MehrSysteme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.
Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x
MehrMathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018
(Analysis und lineare Algebra) im Sommersemester 2018 15. April 2018 1/46 Die Dimension eines Vektorraums Satz 2.27 (Basisergänzungssatz) Sei V ein Vektorraum über einem Körper K. Weiter seien v 1,...,
MehrÜbungsblatt
Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen
MehrKapitel 1. Vektoren und Matrizen. 1.1 Vektoren
Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren
MehrInstitut für Analysis und Scientific Computing E. Weinmüller WS 2017
Institut für Analysis und Scientific Computing TU Wien E. Weinmüller WS 7 L I N E A R E A L G E B R A F Ü R T P H, U E (.64). Haupttest (FR, 9..8) (mit Lösung ) Ein einfacher Taschenrechner ist erlaubt.
MehrLineare Algebra 2 (SS 13) Blatt 13: Musterlösung
Prof. Dr. B. Hanke Dr. J. Bowden Lineare Algebra 2 (SS ) Blatt : Musterlösung Aufgabe. Es sei C (R) der R-Vektorraum der unendlich oft differenzierbaren Funktionen auf R und : C (R) C (R), f f die Abbildung,
Mehr3 a) Berechnen Sie die normierte Zeilenstufenform der Matrix A = normierte Zeilenstufenform:
1. Aufgabe (9 Punkte) In dieser Aufgabe müssen Sie Ihre Antwort nicht begründen. Es zählt nur das Ergebnis. Tragen Sie nur das Ergebnis auf diesem Blatt im jeweiligen Feld ein. 0 1 3 a) Berechnen Sie die
MehrÜbungen zum Ferienkurs Ferienkurs Lineare Algebra für Physiker WiSe 2017/18 Blatt 3 - Lösung
Technische Universität München Physik Department Pablo Cova Fariña, Claudia Nagel Übungen zum Ferienkurs Ferienkurs Lineare Algebra für Physiker WiSe 207/8 Blatt 3 - Aufgabe : Darstellungsmatrizen Sei
MehrMathematik II Frühjahrssemester 2013
Mathematik II Frühjahrssemester 213 Prof. Dr. Erich Walter Farkas Kapitel 7: Lineare Algebra Kapitel 7.5: Eigenwerte und Eigenvektoren einer quadratischen Matrix Prof. Dr. Erich Walter Farkas Mathematik
Mehr9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrMathematische Probleme, SS 2015 Montag $Id: quadratisch.tex,v /06/22 12:08:41 hk Exp $
Mathematische Probleme, SS 15 Montag 6 $Id: quadratischtex,v 111 15/06/ 1:08:41 hk Exp $ 4 Kegelschnitte 41 Quadratische Gleichungen In der letzten Sitzung hatten wir die Normalform (1 ɛ )x + y pɛx p =
MehrQuadratische Formen. und. Symmetrische Matrizen
Quadratische Formen und Symmetrische Matrizen 1 Ouverture: Lineare Funktionen von R n nach R 1 2 Beispiel: n = 2 l : (x 1, x 2 ) T 0.8x 1 + 0.6x 2 = < x, g > mit g := (0.8, 0.6) T. Wo liegen alle x = (x
MehrDefinitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht
Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben
MehrD-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 011 Tom Ilmanen. Musterlösung 12. a ij = v i,av j (A ist symmetrisch) = Av i,v j
D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 0 Tom Ilmanen Musterlösung 2. Falls b := (v,,v n ) eine Orthonormalbasis von V ist, dann lassen sich die Komponenten von einem Vektor v = n i= t i v i bezüglich
Mehr5.4 Hauptachsentransformation
. Hauptachsentransformation Sie dient u.a. einer möglichst einfachen Darstellung von Kegelschnitten und entsprechenden Gebilden höherer Dimension mittels einer geeigneten Drehung des Koordinatensystems.
MehrHöhere Mathematik für die Fachrichtung Physik
Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Michael Hott, M. Sc. WS 5/.. Höhere Mathematik für die Fachrichtung Physik Lösungsvorschläge zum 4. Übungsblatt Aufgabe
MehrHM II Tutorium 7. Lucas Kunz. 5. Juni 2018
HM II Tutorium 7 Lucas Kunz 5. Juni 2018 Inhaltsverzeichnis 1 Theorie 2 1.1 Orthogonalität und Orthonormalbasen.................... 2 1.2 Orthogonalraum................................. 2 1.3 Projektoren...................................
MehrFerienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Musterlösungen zu den Übungen
Technische Universität München Department of Physics Ferienkurs zur Linearen Algebra Bilinearformen, Euklidische Vektorräume und Endomorphismen Musterlösungen zu den Übungen Freitag, 6.. Sascha Frölich
Mehr