Orthogonale Matrizen. Kapitel 40

Größe: px
Ab Seite anzeigen:

Download "Orthogonale Matrizen. Kapitel 40"

Transkript

1 Kapitel 40 Orthogonale Matrizen Bemerkung 40 Motivation Im euklidischen Raum R n haben wir gesehen, dass Orthonormalbasen zu besonders einfachen und schönen Beschreibungen führen Nun soll das Konzept der Orthonormalität auf Matrizen erweitert werden Dies führt auf die wichtige Klasse der orthogonalen Matrizen, die eine Reihe von schönen Eigenschaften aufweisen Mit ihnen lassen sich unter anderem Drehungen und Spiegelungen beschreiben Definition 402 Orthogonale Matrix, O(n) Besitzt eine Matrix Q R n n orthonormale Spaltenvektoren q,,q n, so wird sie orthogonale Matrix genannt (orthonormale Matrix wäre präziser, ist aber unüblich) Die Menge aller Orthogonalmatrizen des R n n wird mit O(n) := {Q R n n Q ist orthogonal} bezeichnet Satz 403 Eigenschaften orthogonaler Matrizen Ist Q O(n), so gelten i) Q ist invertierbar und es gilt Q = Q T ii) Multiplikation mit Q erhält das euklidische Produkt zweier Vektoren (Qu) (Qv) = u v u,v R n iii) Multiplikation mit Q erhält die euklidische Norm Man nennt Q daher auch Isometrie Qv 2 = v 2 bv R n Beweis: i): Sei A = (a ij) = Q T Q Dann gilt a ij = nx q ki q kj = q i q j = δ ij k= Also ist Q T Q = I Analog zeigt man QQ T = I Somit ist Q invertierbar mit Q T = Q ii): Die Aussage folgt aus (Qu) (Qv) = (Qu) T (Qv) = u T Q T Qv = u T v = u v {z } I iii): Folgt aus ii) mit u = v 25

2 Bemerkung 404 Es gilt sogar dass eine Matrix Q genau dann orthogonal ist, falls Q T = Q gilt Beispiel 405 Rotation Orthogonale Matrizen können beispielsweise Rotationen beschreiben Solche Matrizen besitzen die Gestalt ( ) cosϕ sinϕ Q =, sin ϕ cosϕ wobei ϕ der Drehwinkel im mathematisch positiven Drehsinn (entgegen der Uhrzeigerrichtung) ist Sei ein Vektor x R 2 gegeben ( ) ( ) x r cosθ x = = x 2 r sinθ mit r = x 2 + x2 und θ dem Winkel von x mit der positiven x Achse Mit Additionstheoremen für Winkelfunktionen, siehe zum Beispiel (202), erhält man ( cosϕcosθ sin ϕsin θ y = Qx = r sin ϕcosθ + cosϕsin θ Der Vektor x wurde also um den Winkel ϕ gedreht x 2 ) ( cos(ϕ + θ) = r sin(ϕ + θ) ) y ϕ θ x x Es ist offensichtlich, dass Q orthogonal ist, da die beiden Spaltenvektoren orthogonal sind Demzufolge gilt ( ) Q = Q T cosϕ sin ϕ = sinϕ cosϕ Diese Matrix beschreibt eine Drehung um den Winkel θ Es gilt detq = cos 2 ϕ + sin 2 ϕ = 2 Spiegelung Orthogonale Matrizen können auch Spiegelungen an Geraden beschreiben Zum Beispiel beschreibt die Matrix ( ) 0 Q = 0 die Spiegelung an der Gerade y = x Diese Spiegelung vertauscht die x und x 2 Komponente eines Vektors ( ) ( ) ( ) 0 x x2 Qx = = 0 x 2 x Es gilt detq = 252

3 Satz 406 Determinante orthogonaler Matrizen Ist Q O(n), so gilt det Q = Beweis: Aus QQ T und den Rechenregeln für Determinanten folgt = det(i) = det QQ T = detq detq T = (detq ) 2 Definition 407 SO(n) Man bezeichnet die Menge der orthogonale Matrizen Q O(n) mit detq = mit SO(n) := O(n) + := {Q O(n) det Q = } Satz 408 Gruppeneigenschaft von O(n) und SO(n) Die Mengen O(n) und SO(n) sind Untergruppen der allgemeinen linearen Gruppe GL(n, R) Beweis: Übungsaufgabe Bemerkung 409 Basiswechsel zwischen Orthonormalbasen Sei die Menge {v,,v n } eine Orthonormalbasis des euklidischen Raums R n Dann existieren zu jedem Vektor u R n eindeutig bestimmte Koeffizienten a,,a n R mit u = n a k v k, das heißt a = k= ist der Koordinatenvektor von u bezüglich der Orthonormalbasis {v,,v n } Sei nun {w,,w n } eine weitere Orthonormalbases des R n und u habe den Koordinatenvektor b b = bezüglich {w,,w n } Gesucht ist jetzt eine lineare Abbildung Q, die den einen Koordinatenvektor in den andern überführt, also etwa b = Qa Insbesondere lassen sich die Vektoren der einen Basis durch die andere Basis ausdrücken, etwa n v k = (vk T w i)w i, siehe Satz 388 Es folgt u = = n a k v k = k= i= b n ( n n ) a k (vk T w i )w i = k= n b i w i mit b i = i= i= n (vk T w i) a k }{{} =:q ik k= a a n ( n n ) a k (vk T w i ) i= k= w i 253

4 Für die gesuchte Matrix Q = (q ik ) gilt also q ik = v T k w i = w T i v k = Q = w T w T n (v,,v n ) Wegen der Gruppeneigenschaft von O(n) ist Q als Produkt zweier orthogonaler Matrizen wieder orthogonal 254

5 Kapitel 4 Eigenwerte und Eigenvektoren Bemerkung 4 Motivation Seien v R n und A R n n Dann sind v und Av normalerweise nicht parallel Man kann nun die Frage stellen, ob es ausgezeichnete Richtungen v gibt, so dass Av ein skalares Vielfaches von v ist, also Av = λv Es wird sich herausstellen, dass diese ausgezeichneten Richtungen und vor allem die ausgezeichneten Skalare λ sehr wichtige Informationen über die Eigenschaften der Matrix A liefern Definition 42 Eigenvektor, Eigenwert Sei A R n n Ein von 0 verschiedener Vektor v R n heißt Eigenvektor von A, wenn es ein λ C gibt mit Av = λv Der Skalar λ heißt dann Eigenwert von A Bemerkung 43 Bedeutung von Eigenvektoren und Eigenwerten Eigenvektor und Eigenwertprobleme sind wichtig in der Mathematik, Statik, Elektrotechnik, Maschinenbau, Biologie, Informatik und Wirtschaftswissenschaften Oft beschreiben sie besondere Zustände von Systemen Beispiel: 850 haben Soldaten die Hängebrücke von Angers zum Einsturz gebracht, indem sie mit einer Frequenz marschiert sind, die einen Eigenwert des Brückensystems getroffen hat Es kam zur Resonanzkatastrophe, 226 Soldaten von 730 fanden den Tod Seitdem geht man nicht mehr im Gleichschritt über Brücken Beispiel 44 Der Vektor ( v = 2 ) ist ein Eigenvektor von denn Av = A = ( Der zugehörige Eigenwert ist λ = 3 ( ) ( 2 ), ) ( 3 = 6 ) = 3v 255

6 Bemerkung 45 Bestimmung von Eigenwerten Aus Av = λv folgt (A λi)v = 0 Zur Bestimmung der Eigenwerte λ muss man nun nichttriviale Lösungen dieses homogenen lineaeren Gleichungssystems suchen Sie existieren nur falls rg(a λi) < n, das heißt falls det(a λi) = 0, siehe Definition 362 Für A R n n ist dies ein Polynom n ten Grades in λ Dieses Polynom nennt man charakteristisches Polynom von A Seine Nullstellen sind die gesuchten Eigenwerte Beispiel 46 Für A = ( 2 6 erhält man 0 = det(a λi) = 2 λ 6 λ = (2 λ)( λ) 6 = 2 2λ λ + λ 2 6 = λ 2 3λ 4 Die Nullstellen dieses Polynoms sind ) λ,2 = 3 ± = 3 ± 5 2 = λ = 4, λ 2 = Die Matrix besitzt also die beiden Eigenwerte λ = 4 und λ 2 = Bemerkung 47 Selbst wenn A nur reelle Einträge hat, kann das charakteristische Polynom komplexe Nullstellen besitzen Komplexe Eigenwerte sind also nicht ungewöhnlich 2 Sucht man Eigenwerte einer n n Matrix A als Nullstellen des charakteristischen Polynoms, kann dies für n 3 schwierig werden Für n 5 ist dies im allgemeinen nicht mehr analytisch möglich Dann werden numerische Approximationen benötigt Diese sind ebenfalls nicht einfach 3 Man kann zeigen, dass deta das Produkt der Eigenwerte ist und dass A genau dann invertierbar ist, wenn der Eigenwert Null nicht auftritt Bei bestimmten Matrizen kann man die Eigenwerte jedoch sehr einfach bestimmen Satz 48 Eigenwerte von Dreiecksmatrizen Ist A R n n eine obere oder untere Dreiecksmatrix, so sind die Eigenwerte durch die Diagonaleinträge gegeben Beweis: Die Determinante einer Dreiecksmatrix ist das Produkt der Diagonaleinträge Für A = (a ij) folgt aus 0 = det(a λi) = (a λ)(a nn λ), dass die Eigenwerte durch λ = a,, λ n = a nn gegeben sind Beispiel 49 Die Matrix A = ( hat die Eigenwerte λ = 3 und λ 2 =, vergleiche Beispiel 44 ), 256

7 Bemerkung 40 Bestimmung der Eigenvektoren Sei λ ein bekannter Eigenwert der Matrix A Dann sind die zugehörigen Eigenvektoren nichttriviale Lösungen von (A λi)v = 0 (4) Die Eigenvektoren sind nicht eindeutig bestimmt Mit v ist auch αv mit α R\{0} Eigenvektor Der Lösungsraum von (4) heißt Eigenraum von A zum Eigenwert λ Man sucht daher nach Basisvektoren im Eigenraum und gibt diese als Eigenvektoren an Beispiel 4 Gesucht sind die Basen der Eigenräume von A = Zuerst bestimmt man die Eigenwerte aus 0 = det(a λi) Man erhält 0 = det(a λi) = (λ )(λ 2) 2 Demzufolge ist λ = ein einfacher Eigenwert und λ 2 = 2 ein doppelter Eigenwert Der Eigenraum zu λ = ist der Lösungsraum von 0 2 x x 2 = x 3 0 Die erste und dritte Gleichung sind linear abhängig Addiert man die erste zur zweiten Gleichung, erhält man x 2 x 3 = 0 = x 2 := s = x 3 = s Aus der dritten Gleichung folgt x = 2x 3 = 2s Man erhält damit den eindimensionalen Eigenraum 2s s s s R, der zum Beispiel vom Basisvektor 2 aufgespannt wird Der Eigenraum zu λ 2 = 2 ist Lösungsraum von x x 2 = x 3 0 Das sind drei linear abhängige Gleichungen mit der Lösungsmenge s t s s, t R 257

8 Eine Basis dieses zweidimensionalen Eigenraums ist zum Beispiel 0, 0 0 Satz 42 Eigenwerte von Potenzen einer Matrix Seien A R n n, k N und λ Eigenwert von A mit Eigenvektor v Dann ist λ k Eigenwert von A k mit dem zugehörigen Eigenvektor v Beweis: Es gilt A k v = A k (Av) = A k (λv) = λa k v = λa k 2 (Av) = λ 2 A k 2 v = = λ k v Beispiel 43 Betrachte die Matrix A = , siehe Beispiel 4 Die Eigenwerte von A 8 sind λ = 8 = und λ 2 = 2 8 =

9 Kapitel 42 Eigenwerte und Eigenvektoren symmetrischer Matrizen Symmetrische Matrizen, das heißt es gilt A = A T, kommen in der Praxis recht häufig vor Die Eigenwerte und Eigenvektoren dieser Matrizen besitzen besondere Eigenschaften Satz 42 Eigenwerte und Eigenvektoren symmetrischer Matrizen Für eine symmetrische Matrix A R n n gelten: i) A hat nur reelle Eigenwerte ii) Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal Beweis: i): Für Vektoren und Matrizen definiert man die komplexe Konjugation komponentenweise Für eine reelle Matrix gilt A = A Sei nun λ Eigenwert von A zum Eigenvektor v Aus A = A und der Symmetrie von A folgt λv T v = (λv) T v = (Av) T v = v T A T v = v T A T v = v T Av = v T (λv) = λv T v Analog zu komplexen Zahlen und zu reellwertigen Vektoren ist für komplexwertige Vektoren v T v = v 2 2 Da v 0 ist, gilt vt v R \ {0} Es folgt λ = λ, das bedeutet λ R ii): Seien v,v 2 Eigenvektoren von A zu verschiedenen Eigenvektoren λ, λ 2 Dann gilt Daraus folgt λ v T v 2 = (Av ) T v 2 = v T A T v 2 = v T Av 2 = v T (Av 2) = λ 2v T v 2 (λ λ 2)v T v 2 = 0 Da der erste Faktor nach Voraussetzung ungleich Null ist, muss der zweite Faktor verschwinden Also sind v und v 2 orthogonal Beispiel 422 Die Matrix A = ( ist symmetrisch Zur Bestimmung ihrer Eigenwerte löst man 0 = det(a λi) = λ λ = ( λ)(4 λ) 4 = 4 λ 4λ + λ 2 4 = λ 2 5λ = λ(λ 5) ) 259

10 Damit findet man die beiden reellen Eigenwerte λ = 0 und λ 2 = 5 Bestimme nun Eigenvektoren zu λ = 0 Es ist ( ) ( ) ( ) 2 x 0 (A λ I)v = 0 = = 2 4 x 2 0 Das sind zwei linear abhängige Gleichungen Wählt man als freien Parameter x 2 = s, so folgt x = 2s Damit folgt für den Eigenraum und einen Eigenvektor {( ) ( ) 2s 2 s R}, v s = Den Eigenraum zum Eigenwert λ 2 = 5 bestimmt man analog ( ) ( ) ( 4 2 x 0 (A λ 2 I)v = 0 = = 2 x 2 0 ) Das sind auch zwei linear abhängige Gleichungen Wählt man x = s als freien Parameter, so ist x 2 = 2s Der Eigenraum und ein Eigenvektor sind {( ) ( ) s s R}, v 2s 2 = 2 Man sieht sofort, dass v und v 2 orthogonal sind Symmetrische Matrizen lassen sich mit Hilfe ihrer Eigenwerte und Eigenvektoren elegant zerlegen Satz 423 Hauptachsentransformation, Spektraldarstellung Sei A R n n symmetrisch Sei v,,v n das nach Satz 42 exisitierende Orthonormalsystem von Eigenvektoren mit zugehörigen, nicht notwendigerweise verschiedenen, Eigenwerten λ,, λ n Dann gilt A = QΛQ T mit der Orthogonalmatrix Q = (v,,v n ) R n n und der Diagonalmatrix λ 0 Λ = diag(λ,,λ n ) = 0 λ n Beweis: Nach Satz 42 sind die Eigenräume zu verschiedenen Eigenwerten orthogonal Man kann zeigen, dass für symmetrische Matrizen ein k facher Eigenwert einen Eigenraum der Dimension k besitzt Verwendet man innerhalb jedes Eigenraums das Gram Schmidt Verfahren und normiert, entsteht ein Orthonormalsystem {v,,v n} von Eigenvektoren von A Somit ist Q := (v,,v n) eine orthogonale Matrix Die k te Spalte von Q T AQ lautet Q T Av k = λ k Q T v k = λ k e k Somit ist Q T AQ = Λ Mit der Orthogonalität von Q folgt die Behauptung Bemerkung 424 Die Aussage von Satz 423 bedeutet, dass A auf Diagonalgestalt transformiert werden kann Λ = Q T AQ Durch den Übergang in das durch Q = (v,,v n ) definierte Koordinatensystem hat A eine besonders einfache Gestalt 260

11 2 Multipliziert man das Produkt QΛQ T aus, so erhält man die Darstellung A = λ v v T + + λ n v n v T n An dieser Darstellung erkennt man sofort, dass λ,,λ n Eigenwerte und v,,v n Eigenvektoren von A sind Es gilt nämlich n n Av k = λ i v i vi T v k = λ i v i δ ik = λ k v k i= i= Beispiel 425 Die Matrix A = ( soll auf Diagonalgestalt transformiert werden Nach Beispiel 422 hat A die Eigenwerte λ = 0 und λ 2 = 5 mit zugehörigen Eigenvektoren w = ( 2 Normierung der Eigenvektoren ergibt Mit der orthogonalen Matrix v = 5 ( 2 ) ) (, w 2 = 2 ) ), v 2 = 5 ( 2 Q = (v,v 2 ) = 5 ( 2 2 ergibt sich Q T AQ = ( ) ( ) ( ) = ( = ( ) ( ) = = diag(λ , λ 2 ) ) ) ) ( ) 26

12 Kapitel 43 Quadratische Formen und positiv definite Matrizen Bemerkung 43 Motivation Positiv definite symmetrische Matrizen sind eine wichtige Klasse von symmetrischen Matrizen Sie treten bei Anwendungen in der Physik, der Computergraphik und auf anderen Gebieten auf In einem engen Zusammenhang mit symmetrisch positiv definiten Matrizen sehen quadratische Funktionen in mehreren Variablen Spezielle Funktionen dieser Gestalt beschreiben wichtige Kurven oder Flächen Definition 432 Quadratische Form, quadratisches Polynom, Quadrik Seien x = (x,,x n ) T R n und A R n n symmetrisch Dann heißt x T Ax = n a ij x i x j i,j= quadratische Form Ferner seien b R n und c R Dann nennt man q(x) = x T Ax + b T x + c quadratisches Polynom in x,,x n Die Menge aller Punkte, welche die quadratische Gleichung q(x) = x T Ax + b T x + c = 0 erfüllt, heißt Quadrik Beispiel 433 Eine quadratische Form ist durch 7x 2 + 6x x2 3 4x x 2 + 2x 2 x 3 = 7x 2 + 6x x 2 3 2x x 2 2x 2 x + x 2 x 3 + x 3 x 2 = (x, x 2, x 3 ) x x x 3 gegeben 2 Ein quadratisches Polynom ist durch gegeben q(x) = 5x 2 3x x x 2 7x

13 3 Die Ellipsengleichung x 2 a 2 + x2 2 b 2 = 0 beschreibt eine Quadrik mit n = 2 Quadriken mit n = 2 können generell als Kegelschnitte (Ellipsen, Parabeln, Hyperbeln, ) interpretiert werden Für n = 3 ergeben sich Ellipsoide, Paraboloide, Hyperboloide Definition 434 Definite, semidefinite, indefinite Matrizen Seien A R n n eine symmetrische Matrix und λ,, λ n die Eigenwerte von A Dann heißt A ) positiv definit falls λ i > 0 für alle i =,,n, 2) positiv semidefinit falls λ i 0 für alle i =,, n, 3) negativ definit falls λ i < 0 für alle i =,,n, 4) negativ semidefinit falls λ i 0 für alle i =,,n, 5) indefinit, falls λ i, λ j existieren mit λ i λ j < 0 Es besteht ein enger Zusammenhang zwischen positiver Definitheit, quadratischen Formen und Determinanten von Untermatrizen Satz 435 Positiv definite Matrizen und quadratische Formen Es sei A = (a ij ) R n n symmetrisch Dann ist A positiv definit genau dann, wenn x T Ax > 0 x R n, x 0 Beweis: = : Es sei {v,,v n} eine Orthonormalbasis von Eigenvektoren von A mit zugehörigen Eigenwerten λ,, λ n Dann lässt sich jeder Vektor x R n als Linearkombination der Eigenvektoren darstellen x = P n i= xivi Für x 0 gilt! T! nx nx x T Ax = x iv i A x jv j = = i= j= 0! T nx B nx C x iv x j Av j A {z} i= j= λ j v j nx nx λ jx ix j vi T v j = λ ix 2 i > 0 {z } i= =δ ij i,j= =: Ist umgekehrt A nicht positiv definit, so existiert ein Eigenwert λ 0 von A mit zugehörigem Eigenvektor v 0 Damit ist v T Av = v T λv = {z} λ v {z} T v 0 0 >0 im Widerspruch zu x T Ax > 0 für alle x 0 Der Zusammenhang zwischen positiver Definitheit und Determinanten von Untermatrizen ist Gegenstand des folgenden Satzes Er stellt ein wichtiges Kriterium zum Überprüfen der positiven Definitheit ohne Eigenwertberechnung dar Satz 436 Hauptminorenkriterium Eine symmetrische Matrix A = (a ij ) R n n ist genau dann positiv definit, wenn ihre Hauptminoren a a k a k a kk für k =,,n positiv sind 263

14 Beweis: Siehe Literatur Bemerkung 437 Ein ähnliches Kriterium für Semidefinitheit anzugeben ist nicht so einfach, man muss dann alle quadratischen Untermatrizen einbeziehen und nicht nur die Hauptminoren Beispiel 438 Betrachte die Matrix A = Es gilt für die Hauptminoren von A det(2) = 2 > 0, 2 2 = 4 = 3 > 0, Sarrus = = > 0 Nach Satz 436 folgt, dass A positiv definit ist Analog zu Quadratwurzeln aus nichtnegativen Zahlen lassen sich auch Wurzeln aus einer positiv semidefiniten Matrix definieren Satz 439 Wurzel einer positiv semidefiniten Matrix Es sei A R n n symmetrisch positiv semidefinit Dann existiert eine symmetrisch positiv semidefinite Matrix B R n n mit B 2 = A Beweis: Es seien λ,, λ n die Eigenwerte von A und v,,v n die zugehörigen normierten Eigenvektoren Dann gilt mit Q = (v v n) und Λ = diag(λ i), dass A = QΛQ T, Satz 423 Setze nun Λ /2 := diag( λ i) und B := QΛ /2 Q T Dann folgt B 2 = QΛ /2 Q T QΛ /2 Q T = QΛ /2 Λ /2 Q T = QΛQ T = A {z } I Positiv und negativ definite Matrizen spielen eine wichtige Rolle beim Nachweis von Minima und Maxima von Funktionen mehrerer Variablen, siehe Kapitel 5 Die nächste Fragestellung betrifft die Existenz oberer und unterer Schranken für Werte quadratischer Formen Definition 430 Rayleigh Quotient Es seien A R n n symmetrisch und x R n mit x 0 Dann nennt man den Rayleigh Quotienten R A (x) := R(x) := xt Ax x T x Der Rayleigh Quotient lässt sich durch die Eigenwerte von A abschätzen Satz 43 Rayleigh Prinzip Es sei A R n n symmetrisch mit den Eigenwerten λ λ n und zugehörigen orthonormierten Eigenvektoren v,,v n Dann gelten: Rayleigh?? 264

15 i) λ n R(x) λ, ii) Diese Grenzen werden tatsächlich angenommen λ = max R(x), λ n = min R(x) x R n,x 0 x R n,x 0 Beweis: i): Sei x R n beliebig Dann lässt sich x als Linearkombination der Eigenvektoren von A darstellen x = P n i= xivi Daraus folgt xt x = P n i= x2 i Analog zum Beweis von Satz 435 ist außerdem x T Ax = P n i= λix2 i Damit lässt sich der Rayleigh Quotient wie folgt darstellen P n i= R(x) = λix2 i P n i= x2 i Man erhält unmittelbar R(x) P n i= λx2 i P n i= x2 i = λ, R(x) P n i= λnx2 i P n i= x2 i = λ n ii): Setzt man x = v k, so folgt R(v k ) = vt k Av k v T k v k = vt k λ k v k v T k v k = λ k Insbesondere sind R(v ) = λ und R(v n) = λ n 265

16 Kapitel 44 Quadriken Bemerkung 44 Motivation Quadriken, siehe Definition 432, stellen eine wichtige Klasse geometrischer Objekte dar Diese besitzen unter anderem Anwendungen in der Computergraphik und der Physik Oft kann man aber aus der angegebenen Form einer Quadrik deren Gestalt nicht unmittelbar erkennen Ziel ist es, eine gegebene Quadrik auf einfache Form transformieren, sodass sich ihre geometrische Gestalt unmittelbar ablesen lässt Bemerkung 442 Grundlegende Verfahrensweise Gegeben sei eine Quadrik q(x) = x T Ax + b T x + c = 0 mit A R n n symmetrisch, x,b R n, c R Schritt : Elimination der gemischten quadratischen Terme Hierzu wird das Koordinatensystem so gedreht, dass A in eine Diagonalmatrix übergeht Dazu berechnet man die Eigenwerte λ i von A und eine Orthonormalbasis {v, v n } aus Eigenvektoren mit det(v,,v n ) = Ist det(v,,v n ) =, ersetzt man etwa v durch v Mit Q = (v v n ) gilt dann Aus x T Ax + b T x + c = 0 folgt Λ = diag(λ i ) = Q T AQ x T QΛQ T x + b T QQ T x + c = 0 }{{} =I Mit y := Q T x, b := Q T b ergibt sich daher y T Λy+ b T y +c = 0 beziehungsweise ausgeschrieben λ y λ ny 2 n + b y + + b n y n + c = 0 Die gemischten quadratischen Terme sind eliminiert Schritt 2: Elimination linearer Terme (soweit möglich) Durch Translation des Koordinatensystems kann erreicht werden, dass λ k y 2 k und b k y k nicht zugleich vorkommen für jedes k =,,n 266

17 Es sei dazu obda λ i 0 für i =,,r sowie λ r+ = = λ n = 0 Für i =,,r wird der lineare Term b i y i durch die quadratische Ergänzung eliminiert z i := y i + b i 2λ i i =,, r, z i := y i i = r +,,n Damit erhält man λ z λ r z 2 r + b r+ z r+ + + b n z n + c = 0 mit c = c r i= b 2 i /(4λ i) und r = rg(a) Schritt 3: Elimination der Konstanten (falls möglich) Ist einer der Koeffizienten br+,, b n ungleich Null, obda sei dies b n, so kann c eliminiert werden durch z n z n c bn Das ist ebenfalls eine Translation des Koordinatensystems, zum Beispiel Resultat: Normalformen der Quadrik Das ist eine Darstellung in Koordinatensystem, in dem möglichst viele Koeffizienten verschwinden Für rg(a) = n = r erhält man λ z λ nz 2 n + d = 0 Ist r < n ergibt sich eine der beiden folgenden Normalformen Beispiel 443 Die Quadrik λ z λ r z 2 r + e r+ z r+ + + e n z n = 0, λ z λ rz 2 r + d = 0 q(x) = 5x 2 4x x 2 + 8x x 80 5 x = 0 soll auf Normalform gebracht werden Es ist ( 5 2 q(x) = x T Ax + b T x + c = 0 mit A = 2 8 ), b = 20 5 ( 4 ), c = 4 267

18 Hauptachsentransformation von A Man berechnet zuerst die Eigenwerte und Eigenvektoren von A Für die Eigenwerte gilt 0 = det(a λi) = (5 λ)(8 λ) 4 = λ 2 3λ + 36 = λ = 9, λ 2 = 4 Dann berechnet man Eigenvektoren durch die Lösung der singulären homogenen Systeme Man erhält Q = ( ) 2, det Q = 5 2 Mit Λ = Q T AQ = diag(9, 4) und b = Q T b = ( 36, 8) T ergibt sich für y = Q T x 9y 2 + 4y2 2 36y + 8y = 0 Elimination linearer Terme Quadratische Ergänzung ergibt 9 ( y 2 4y + 4 ) + 4 ( y y 2 + ) = Mit z = y 2 und z 2 = y 2 + erhält man 9z 2 + 4z 2 2 = 36 = z2 4 + z2 2 9 = Das ist eine Ellipse mit den Halbachsen 2 und 3, siehe auch Abbildung y 2 K2 K 0 2 x Abbildung 44: Originallage der Quadrik von Beispiel 443 Bemerkung 444 Normalformen der Quadriken im R 2, Kegelschnitte Fall rg(a) = 2, das heißt alle Eigenwerte von A sind ungleich Null i) Ellipse x 2 a 2 + y2 b 2 = 0, ii) Hyperbel x 2 a 2 y2 b 2 = 0, iii) leere Menge x 2 a 2 + y2 b 2 + = 0, 268

19 Abbildung 442: Ellipse (links) und Hyperbel (rechts) iv) Punkt (0, 0) T x 2 + a 2 y 2 = 0, a 0, v) Geradenpaar x 2 a 2 y 2 = 0, a 0 = y = ± a x Abbildung 443: Geradenpaar 2Fall rg(a) =, das heißt, ein Eigenwert von A ist Null i) Parabel x 2 2py = 0, y K6 K4 K x K4 K3 K2 K K x y K2 K3 K4 K5 K6 K7 K8 K9 K0 ii) parallele Geraden Abbildung 444: Parabeln x 2 a 2 = 0, a 0 = x = ±a, iii) leere Menge x 2 + a 2 = 0, a 0, 269

20 iv) Doppelgerade x = 0 (y Achse) x 2 = 0 3Fall rg(a) = 0, das heißt beide Eigenwerte von A sind Null i) Gerade b x + b 2 y + c = 0 Bemerkung 445 Normalformen der Quadriken im R 3 Fall rg(a) = 3, das heißt alle Eigenwerte von A sind ungleich Null i) Ellipsoid x 2 a 2 + y2 b 2 + z2 c 2 = 0, ii) leere Menge iii) einschaliges Hyperboloid x 2 a 2 + y2 b 2 + z2 c 2 + = 0, x 2 a 2 + y2 b 2 z2 c 2 = 0 Betrachtet man den Schnitt dieses Körpers mit Ebenen, so erhält man eine Ellipse in einer Ebene (x y Ebene) und Hyperbeln in zwei Ebenen (x z, y z Ebene) Abbildung 445: Ellipsoid (links) und einschaliges Hyperboloid (rechts) iv) zweischaliges Hyperboloid x 2 a 2 + y2 b 2 z2 c 2 + = 0 Auch hier erhält man beim Schneiden mit Ebenen eine Ellipse in einer Ebene (x y Ebene) und Hyperbeln mit zwei Ebenen (x z, y z Ebene) v) Punkt (0, 0, 0) T x 2 a 2 + y2 b 2 + z2 c 2 = 0, 270

21 Abbildung 446: zweischaliges Hyperboloid (links) und elliptischer Kegel (rechts) vi) elliptischer Kegel x 2 a 2 + y2 b 2 z2 c 2 = 0 2Fall rg(a) = 2, das bedeutet ein Eigenwert ist gleich Null i) elliptisches Paraboloid x 2 a 2 + y2 2pz = 0 b2 Der Schnitt mit einer Ebene ist eine Ellipse (x y Ebene) und der Schnitt mit zwei Ebenen sind Parabeln (x z, y z Ebene) ii) hyperbolisches Paraboloid, Sattelfläche x 2 a 2 y2 2pz = 0 b2 Der Schnitt mit einer Ebene ist eine Hyperbel (x y Ebene) und der Schnitt mit zwei Ebenen sind Parabeln (x z, y z Ebene) iii) leere Menge x 2 a 2 + y2 b 2 + = 0, iv) elliptischer Zylinder v) hyperbolischer Zylinder vi) Gerade (z Achse) x 2 a 2 + y2 b 2 = 0, x 2 a 2 y2 b 2 + = 0, x 2 a 2 + y2 b 2 = 0, vii) Ebenenpaar mit Schnittgerade (z Achse) x 2 a 2 y2 b 2 = 0, 27

22 Abbildung 447: elliptisches Paraboloid (links) und hyperbolisches Paraboloid (rechts) Abbildung 448: elliptischer Zylinder (links) und hyperbolischer Zylinder (rechts) 3Fall rg(a) =, also zwei Eigenwerte von A sind Null i) parabolischer Zylinder x 2 2pz = 0, ii) paralleles Ebenenpaar iii) leere Menge iv) Ebene (y z Ebene) x 2 a 2 = 0, a 0, x 2 + a 2 = 0, a 0, x 2 = 0 4Fall rg(a) = 0, das bedeutet, A ist die Nullmatrix Dann erhält man die allgemeine Ebenengleichung b x + b 2 y + b 3 z + c = 0 272

23 Abbildung 449: Ebenenpaar mit Schnittgerade (links) und parabolischer Zylinder (rechts) 273

24 Kapitel 45 Matrixnormen und Eigenwertabschätzungen Bemerkung 45 Motivation Matrixnormen sind ein wichtiges Hilfsmittel zur Beschreibung von Eigenschaften von Matrizen, die zum Beispiel in numerischen Verfahren wichtig sind Insbesondere kann man mit Hilfe von Matrixnormen die Eigenwerte einer Matrix mit geringem Aufwand abschätzen Definition 452 Matrixnorm Unter einer Matrixnorm versteht man eine Funktion : R m n R mit folgenden Eigenschaften: ) A 0 für alle A R m n und A = 0 genau dann wenn A = 0, 2) λa = λ A für alle A R m n und λ R, 3) Dreiecksungleichung: A + B A + B für alle A, B R m n, 4) Submultiplikativität: AB A B für alle A, B R n n Beispiel 453 Sei A R m n Gesamtnorm: nur definiert falls m = n ist, 2 Zeilensummennorm: 3 Spaltensummennorm: 4 Frobenius Norm 5 Spektralnorm A G := n max a ij, i,j=,,n A := max A := max i=,,m j= j=,,n i= m n A F := A 2 := i= j= n a ij, m a ij, a 2 ij /2 λ max (A T A),, wobei λ max ( A T A ) der größte Eigenwert von A T A ist, Ferdinand Georg Frobenius (849 97) 274

25 6 Maximumsnorm: A M := max a ij, j=,,m;j=,,n ist eine Norm, erfüllt also die Eigenschaften ) 3), ist aber nicht submultiplikativ Es gibt Matrixnormen, die direkt etwas mit bekannten Vektornormen, siehe Beispiel 64 zu tun haben Definition 454 Induzierte Matrixnorm Sei A R m n Die durch die l p Vektornorm induzierte Matrixnorm ist gegeben durch A p := Ax p max = max x R n,x 0 x Ax p p x p = Beispiel 455 Es gelten: Die Betragssummen Vektornorm induziert die Spaltensummennorm 2 Die euklidische Vektornorm induziert die Spektralnorm 3 Die Maximums Vektornorm induziert die Zeilensummennorm Oft muss man die Norm von Matrix Vektor Produkten abschätzen Dafür braucht man die folgende Eigenschaft Definition 456 Kompatibilität, Verträglichkeit von Normen Eine Matrixnorm m heißt kompatibel (verträglich) mit einer Vektornorm v, falls gilt Ax v A m x v für alle A R m n und für alle x R n Beispiel 457 Zu den l p Vektornormen ( n ) /p x p := x i p, p [, ); x := max x i, i=,,n i= bestehen folgende Verträglichkeiten: A G, A sind kompatibel zur Betragssummennorm x, 2 A G, A F, A 2 sind kompatibel zur euklidischen Norm x 2, 3 A G, A sind kompatibel zur Maximumsnorm x Die Beweis der Verträglichkeit einer Vektornorm mit ihrer induzierten Matrixnorm ist Übungsaufgabe Man kann zeigen, dass die induzierte Matrixnorm die kleinste aller Matrixnormen ist, die zu einer gegebenen Vektornorm verträglich ist Hier wird nur die Kompatibilität von A G und x gezeigt Sei A R n n, dann gilt { } { n n } Ax = max a ik x k max a ik x k i=,,n i=,,n k= k= { } max n max a is max x l i=,,n s=,,n l=,,n = n max i,s=,,n a is max l=,,n x l = A G x 275

26 Matrixnormen sind nützlich zur Abschätzung von Eigenwerten Satz 458 Eigenwertabschätzung mit Matrixnormen Sind λ ein Eigenwert von A R n n und A eine beliebige, zu einer Vektornorm kompatible Matrixnorm, so gilt λ A Beweis: Sei v ein Eigenvektor zu λ Dann gilt λ v = λv = Av A v Da v 0, gilt v > 0 Damit folgt λ A Beispiel 459 Betrachte Dann sind A = A G = 3 max ij = 3 3 = 9, i,j=,2,3 A = max{2, 24, 32} = 32, A = max{2, 2, 35} = 35, A F = ( 0) ( 02) = A liefert die schärfste Abschätzung: λ 32 Tatsächlich gilt λ 30060, λ , λ Offenbar erlaubt Satz 458 nur die Abschätzung des betragsgrößten Eigenwertes Es gibt auch Abschätzungen für alle Eigenwerte Satz 450 Satz von Gerschgorin 2 Sei A = (a ij ) R n n i) Die Vereinigung aller Kreisscheiben K i := µ C n µ a ii a ik k=,k i enthält alle Eigenwerte von A ii) Jede Zusammenhangskomponente aus m solchen Kreisen enthält genau m Eigenwerte, wobei die Vielfachheit mitgezählt wird Beweis: Siehe Literatur Beispiel 45 Betrachte wie im Beispiel A = Semjon Aranowitsch Gerschgorin (90 933) 276

27 Dann sind die Gerschgorin Kreise durch K = {µ C µ 02}, K 2 = {µ C µ 2 04}, K 3 = {µ C µ 3 02} gegeben Sämtliche Eigenwerte liegen in K K 2 K 3 Da sich K, K 2, K 3 nicht überlappen, liegt nach Satz 450, ii) in jeder der Kreisscheiben genau ein Eigenwert Aus den Gerschgorin Kreisen folgt, dass A invertierbar ist, da 0 K K 2 K 3 Demzufolge ist Null kein Eigenwert Folgerung 452 Invertierbarkeit strikt diagonal dominanter Matrizen Sei A R n n strikt diagonal dominant, das heißt a ii > für alle i =,,n, so ist A invertierbar n k=,k i a ik Beweis: Nach dem Satz von Gerschgorin liegt Null außerhalb der Gerschgorin Kreise, kann also kein Eigenwert sein 277

28 Kapitel 46 Klassische Iterationsverfahren zur Lösung linearer Gleichungssysteme Bemerkung 46 Motivation Direkte Lösungsverfahren für ein lineares System Ax = b, A R n n,x,b R n, (46) sind für große n recht teuer So kostet das in Kapitel 35 vorgestellte Gaußsche Verfahren O(n 3 ) Rechenoperationen In Anwendungen ist n oft in der Größenordnung von Darüber hinaus besitzen die Matrizen in Anwendungen oft viele Nullen, die man nicht abspeichern muss Diese Matrizen nennt man schwach besetzt Das Besetztheitsmuster solcher Matrizen wird bei direkten Verfahren im allgemeinen zerstört, das heißt, es werden viele neue Nichtnullelemente erzeugt Eine Alternative zu direkten Verfahren sind iterative Verfahren zur Lösung von (46) In diesem Abschnitt werden die einfachsten dieser Verfahren vorgestellt 46 Allgemeine Theorie Bemerkung 462 Fixpunktiteration Die Konstruktion klassischer Iterationsverfahren zur Lösung von (46) startet mit der Zerlegung der Systemmatrix A = M N, M, N R n n, M ist regulär (462) Mit Hilfe dieser Zerlegung, kann man (46) in eine Fixpunktgleichung umformen Mx = b + Nx x = M (b + Nx) (463) Ist eine Anfangsiterierte x (0) R n gegeben, kann man nun (463) mit Hilfe der Fixpunktiteration x (k+) = M ( b + Nx (k)), k = 0,, 2, (464) zu lösen Der Banachsche Fixpunktsatz liefert eine Aussage über die Konvergenz dieser Iteration Der Banachsche Fixpunktsatz in R ist in Satz 243 formuliert Hier wird eine allgemeine Variante in vollständigen metrischen Räumen angegeben 278

29 Satz 463 Banachscher Fixpunktsatz für vollständige metrische Räume Seien (X, d) ein vollständiger metrischer Raum und f : X X eine kontraktive Abbildung, das heißt f ist Lipschitz stetig mit einer Lipschitz Konstanten L < Dann besitzt die Gleichung x = f (x) eine eindeutige Lösung x X, einen sogenannten Fixpunkt Das Iterationsverfahren ( x (k+) = f x (k)), k = 0,, 2, konvergiert für jede Anfangsinterierte x (0) gegen x Beweis: Ähnlich wie Satz 243, siehe Literatur Diese Aussage soll jetzt auf (464) angewandt werden Dazu wird der Begriff des Spektralradius gebraucht Definition 464 Spektralradius Sei A R n n Der Spektralradius von A ist definiert durch ρ (A) = max{ λ : λ ist Eigenwert von A} Lemma 465 Sei A R n n Dann gilt für jede induzierte Matrixnorm ρ (A) A Beweis: Die Aussage folgt direkt aus Satz 458 Lemma 466 Seien A R n n und ein beliebiges ε > 0 gegeben Dann gibt es eine Vektornorm so, dass für die induzierte Matrixnorm gilt Beweis: Siehe Literatur ρ (A) A ρ (A) + ε Satz 467 Notwendige und hinreichende Bedingung für Konvergenz der Fixpunktiteration Das Iterationsverfahren (464) konvergiert gegen die Lösung x von (46) für jede Anfangsiterierte x (0) genau dann, wenn der Spektralradius der Iterationsmatrix G = M N kleiner als ist: ρ (G) < Beweis: i) Die Iteration (464) ist eine Fixpunktiteration mit f : R n R n, x M Nx + M b Die Matrizenmultiplikation (mit G = M N) und Vektoraddition (mit M b) sind stetig und sogar differenzierbar Damit ist die Abbildung f(x) Lipschitz stetig Sei G zunächst irgendeine Matrixnorm Auch im Mehrdimensionalen ist die Ableitung eines linearen Polynoms der Term vor dem linearen Faktor, siehe Kapitel 49 In Analogie zu Satz 24 erhält man die Lipschitz Konstante bezüglich durch L = sup x R n G = G ii) Sei ρ(g) < Dann kann man ε > 0 so wählen, dass ρ(g) + ε < Außerdem gibt es eine Matrixnorm gemäß Lemma 466, so dass G ρ(g) + ε < gilt Somit folgt L < und f (x) ist eine kontraktive Abbildung iii) Man konstruiert eine Startiterierte, für die man die Divergenz zeigt Das ist etwas aufwändig, siehe Literatur 279

30 462 Beispiele für klassische Iterationsverfahren Klassische Iterationsverfahren nutzen eine Zerlegung der Matrix A der Gestalt A = D + L + U, wobe D die Diagonle von A ist, L der strikte unter Dreiecksteil und U der strikte obere Dreiecksteil Beispiel 468 Das Jacobi Verfahren Man erhält das Jacobi Verfahren, indem man M = D, N = (L + U) setzt Das ist natürlich nur möglich, wenn auf der Hauptdiagonalen von A keine Nullen stehen Eine direkte Rechung ergibt, dass in diesem Fall die Fixpunktgleichung (463) die Gestalt x = D (b (L + U)x) = x + D (b Ax) besitzt Man erhält das folgende Iterationsverfahren, das sogenannte Jacobi Verfahren, x (k+) = x (k) + D ( b Ax (k)), k = 0,, 2, Die Iterationsmatrix ist G Jac = D (L + U) = I D A Beispiel 469 Gedämpftes Jacobi Verfahren Sei ω R, ω > 0 Die Matrizen, welche die Fixpunktgleichung für das gedämpfte Jacobi Verfahren definieren, sind durch M = ω D, N = ω D A gegeben Das gedämpfte Jacobi Verfahren besitzt die Gestalt und seine Iterationsmatrix ist x (k+) = x (k) + ωd ( b Ax (k)), k = 0,, 2, G djac = I ωd A Beispiel 460 Gauß Seidel Verfahren Im Gauß Seidel Verfahren ist die invertierbare Matrix M eine Dreiecksmatrix M = D + L, N = U Auch hier muss man voraussetzen, dass die Hauptdiagonale von A keine Nullen besitzt Es folgt x (k+) = (D + L) ( b Ux (k)), k = 0,, 2,, so dass die Iterationsmatrix die Gestalt Philipp Ludwig von Seidel (82 896) G GS = (D + L) U = I (D + L) A 280

31 besitzt Multipliziert man die Gleichung des Gauß Seidel Verfahrens mit (D + L) und ordnet die Terme entsprechend an, so erhält man eine gebräuchlichere Form dieses Verfahrens x (k+) = D ( b Lx (k+) Ux (k)) = x (k) + D ( b Lx (k+) (D + U)x (k)), k = 0,, 2, Schreibt man diese Iteration in Komponentenschreibweise, so sieht man, dass man die rechte Seite auswerten kann obwohl dort bereits die neue Iterierte auftaucht, da nur die bereits berechneten Werte der neuen Iterierten für die Auswertung benötigt werden x (k+) i = x (k) i + a ii i b i j= a ij x (k+) j n j=i a ij x (k) j, i =,,n, k = 0,, 2, Beispiel 46 SOR Verfahren Die Matrizen, die das (Vorwärts ) SOR Verfahren (successive over relaxation, nacheinander folgende Entspannung = Gegenteil von Dämpfung) definieren, sind durch M = ω D + L, N = ω D (D + U), gegeben, wobei ω R, ω > 0, ist Dieses Verfahren kann in der Gestalt x (k+) = x (k) + ωd ( b Lx (k+) (D + U)x (k)), k = 0,, 2, geschrieben werden Für ω = erhält man das Gauß Seidel Verfahren Die Iterationsmatrix des SOR Verfahrens besitzt die Gestalt G SOR (ω) = ( ω D + L ) ( ω D (D + U) ) = ω (D + ωl) ( ω D (D + U) ) = (D + ωl) (( ω)d ωu) = I (D + ωl) (ωu ( ω)d + D + ωl) = I ω(d + ωl) A = I (ω D + L) A Beispiel 462 SSOR Verfahren Im SOR Verfahren kann man die Rollen von L und U vertauschen und erhält eine Rückwärts SOR Verfahren x (k+) = x (k) + ωd ( b Ux (k+) (D + L)x (k)), k = 0,, 2, Dieses Verfahren berechnet die Komponenten der neuen Iterierten in umgekehrter Reihenfolge wie das SOR Verfahren Das Vorwärts und das Rückwärts SOR Verfahren verhalten sich im allgemeinen unterschiedlich Es gibt Beispiele, in denen das eine effizienter als das andere ist Man weiß aber im allgemeinen vorher nicht, welche Variante die bessere ist Das SSOR Verfahren (symmetric SOR) kombiniert beide Methoden Ein Iterationsschritt des SSOR Verfahrens besteht aus zwei Teilschritten, einem Vorwärts SOR Schritt und einem Rückwärts SOR Schritt x (k+/2) = x (k) + ωd ( b Lx (k+/2) (D + U)x (k)) x (k+) = x (k+/2) + ωd ( b Ux (k+) (D + L)x (k+/2)), k = 0,, 2, 28

32 463 Einige Konvergenzaussagen Satz 463 Konvergenz für stark diagonal dominante Matrizen Sei A R n n eine stark diagonal dominante Matrix, das heißt a ii > n j=,j i a ij, für alle i =,,n Dann konvergieren das Jacobi Verfahren und das Gauß Seidel Verfahren für jede Anfangsiterierte x (0) R n Beweis: Gemäß Satz 467 hat man zu zeigen, dass der Spektralradius der jeweiligen Iterationsmatrix kleiner als Eins ist Jacobi Verfahren Sei z R n,z 0 Dann gilt Es folgt (G Jacz) i = ` D (L + U)z a ii nx j=,j i a ij {z } < a ii Nun erhält man mit Lemma 465 G Jac = max = i z < z i=,,n ρ(g Jac) G Jac = nx a ijz j a ii j=,j i (G Jacz) i < z Gz max < z R n,z 0 z nx a ii j=,j i Gauß Seidel Verfahren Siehe Literatur Als nächstes wird das gedämpfte Jacobi Verfahren betrachtet a ij z j Lemma 464 Jacobi und gedämpftes Jacobi Verfahren Sei ω > 0 Dann ist λ C ein Eigenwert von G Jac genau dann, wenn µ = ω + ωλ ein Eigenwert von G djac ist Beweis: Es ist G djac = I ωd A = I ωd D ω D (L + U) = ( ω)i + ωg Jac {z } G Jac Damit folgt für den Eigenwert λ von G Jac und eine zugehörigen Eigenvektor v G djac v = ˆ ( ω)i + ωg Jac v = ( ω)v + ωgjacv = ( ω)v + ωλv = ( ω + ωλ)v Bemerkung 465 Das Lemma besagt, dass bei einer geeignete Wahl des Dämpfungsfaktors ω unter Umständen die Möglichkeit besteht, dass das gedämpfte Jacobi Verfahren für jede Anfangsiterierte konvergiert währenddessen dies für das Jacobi Verfahren nicht der Fall ist, Übungsaufgabe Nun betrachten wir das SOR Verfahren Lemma 466 Lemma von Kahan 2 Falls das SOR Verfahren für jede Anfangsiterierte x (0) R n konvergiert, so ist ω (0, 2) 2 William M Kahan, geboren

33 Beweis: Seien λ,, λ n C die Eigenwerte von G SOR (ω) Es ist ny i= Somit gilt λ i Bem 47 = det `G SOR (ω) = det `(D + ωl) (( ω)d ωu) 0 B = (D + ωl) C B C A ω)d ωu) A {z } {z } untere Dreiecksmatrix obere Dreiecksmatrix = det `D ( ω) n det (D) = ( ω) n ny λ i = ω n i= Es gibt also wenigstens einen Eigenwert λ i mit λ i ω, woraus ρ(g SOR (ω)) ω folgt Die Anwendung von Satz 467 liefert nun, dass das SOR Verfahren nicht für alle Anfangsiterierten konvergieren kann falls ω (0,2) Die Umkehrung des Lemmas von Kahan gilt im Falle, dass A eine symmetrisch, positiv definite Matrix ist Satz 467 Sei A R n n symmetrisch und positiv definit Dann konvergiert das SOR Verfahren für alle Anfangsiterierten x (0) R n falls ω (0, 2) Beweis: Etwas länglich, siehe Literatur Bemerkung 468 Zur Wahl eines optimalen Parameters ω im SOR Verfahren benötigt man Informationen über die Eigenwerte von A Wie man diese erhält, wird im Kapitel 47 behandelt Bemerkung 469 Bei klassischen Iterationsverfahren hat man im wesentlichen Matrix Vektor Produkte zu berechnen Man wird sie vor allem anwenden, wenn diese Produkte billig sind, das heißt wenn viele Matrixeinträge Null sind (schwach besetzte Matrizen) Man stellt allerdings fest, dass die Anzahl der Iterationen sich proportional zur Konditionszahl 0 κ (A) = A A verhält In vielen Anwendungen erhält man aber Matrizen mit hoher Konditionszahl Wenn man versucht, in diesen Anwendungen genauere Ergebnisse zu berechnen, erhöht man die Anzahl der Unbekannten Man stellt dann fest, dass sich die Konditionszahl der System quadratisch mit der Anzahl der Unbekannten erhöht Das bedeutet, die Anzahl der benötigten Iterationen erhöht sich auch quadratisch Man erhält sehr ineffiziente Verfahren Deshalb ist der Einsatzbereich klassischer Iterationsverfahren ziemlich beschränkt Es gibt jedoch wesentlich bessere iterative Verfahren zur Lösung linearer Gleichungssysteme (Spezialvorlesung) 283

34 Kapitel 47 Numerische Berechnung von Eigenwerten und Eigenvektoren Bemerkung 47 Eigenwertberechnung über das charakteristische Polynom Die Verwendung des charakteristischen Polynoms zur Berechnung der Eigenwerte von A R n n besitzt in der Praxis entscheidende Nachteile Zuerst müssen die Koeffizienten des Polynoms berechnet werden Das ist für große n aufwändig Desweiteren hängen die Nullstellen oft sensibel von den Koeffizienten des charakteristischen Polynoms ab Das Problem ist also schlecht konditioniert, das heißt kleine Fehler in den Daten führen zu großen Fehlern im Ergebnis Kleine Fehler in den Daten hat man immer, da reelle Zahlen gerundet werden müssen, bevor sie vom Computer dargestellt werden können Insgesamt ist das charakteristische Polynom zur numerischen Berechnung von Eigenwerten einer Matrix nicht brauchbar 47 Die Potenzmethode Bemerkung 472 Potenzmethode, Vektoriteration Die Potenzmethode oder Vektoriteration ist ein Verfahren zur Berechnung des betragsgrößten Eigenwertes und eines zugehörigen Eigenvektors einer Matrix A Dieses Verfahren geht auf von Mises zurück Es liefert das Grundkonzept für die Entwicklung weiterer Verfahren zur Berechnung von Eigenwerten und vektoren Bemerkung 473 Grundidee Der Einfachheit halber werden für die Konvergenzanalyse einige Annahmen gemacht Die Matrix A R n n sei diagonalisierbar, das heißt es existiert eine Basis aus Eigenvektoren v,,v n C n mit v i 2 =, i =,,n Weiter gelte für die Eigenwerte λ > λ 2 λ n, das heißt, der betragsgrößte Eigenwert soll einfach sein Da λ damit eine einfache Nullstelle des charakteristischen Polynoms ist, welches nur reelle Koeffizienten besitzt, gilt damit λ R Damit besitzt die Eigenwertgleichung eine nichttriviale reelle Lösung, also v R n Richard von Mises ( ) 284

35 Für die Potenzmethode benötigt man einen Startvektor x (0) R n Dieser lässt sich theoretisch als Linearkombination der Eigenvektoren darstellen x (0) = n c j v j j= Sei x (0) so gewählt, dass c 0 gilt Multipliziert man die Darstellung von x (0) mit der k ten Potenz A k von, so erhält man mit Satz 42 Damit gilt A k x (0) = x (k) := A k x (0) = λ k c v + Wegen λ j /λ < folgt n c j A k v j = j= n j=2 lim k r(k) = lim k n c j λ k j v j j= ( ) k λj ( c j v j =: λ k c v + r (k)) (47) λ n j=2 ( ) k λj c j v j = 0 λ Das bedeutet, für große k dominiert in (47) der Beitrag vom ersten Eigenwert und Eigenvektor Satz 474 Sei A R n n und erfülle A die Voraussetzungen aus Bemerkung 473 Sei x (k) R n die k te Iterierte der Potenzmethode und sei ( ) x λ (k) (k) T Ax (k) = x (k) 2 2 = ( ) x (k) T x (k+) x (k) 2 2 Dann gilt ( λ λ (k) λ 2 k) = O λ Beweis: Man betrachtet den Abstand zwischen dem Unterraum S (k) := {αx (k) : α R} und dem Eigenvektor v d S (k),v := min x v 2 = min αx (k) 2 v x S (k) α R Nun formt man (47) äquivalent um α k x (k) := λ k c x (k) = v + c r (k) (472) Wählt man in d S (k),v den Wert α = α k, so erhält man damit und der Definition von r (k) d S (k),v α k x (k) 2 v = c (k) r = O 2 Damit ist α k x (k) eine Approximation an v, also Aα k x (k) λ α k x (k) = Ax (k) λ x (k) λ 2 λ k! (473) 285

36 T Durch Multiplikation von links mit x (k) folgt, dass λ (k) = x (k) T Ax (k) x (k) 2 2 = x (k) T x (k+) x (k) 2 2 eine Approximation an λ ist Analog ist α k+ x (k+) k+ mit α k+ = `λ c = αk /λ eine Approximation von v Man erhält mit (472), (473) und v 2 = α k x (k) T α k x (k+) λ (k) = α k x (k) 2 = λ 2 T v + c r(k) v + c = λ v + c v c = λ k + O «λ 2 λ = λ r(k) O λ 2 λ k «= λ α k x (k) T α k+ x (k+) r(k+) α k x (k) 2 2 T r (k) v + c vt r (k+) + c 2 v c (r (k) ) T v + c 2 r (k) O λ2 k!! λ r (k) T r (k+) Die Gültigkeit des letzten Schrittes sieht man aus + O λ2 k!! + O λ λ2 k!! = + O λ = + O λ2 k! + O λ λ2 k!, λ λ2 λ 2k! vergleiche Definition des Landau Symbols im Kapitel 5 Durch Umstellen folgt λ λ (k) λ 2 k! = O λ Bemerkung 475 Symmetrische Matrizen Falls A eine symmetrische Matrix ist, kann man sogar ( λ λ (k) λ 2 = O 2k) λ zeigen Bemerkung 476 Skalierung der Iterierten Wendet man das bisherige Verfahren an, so gelten x (k) 2 falls λ >, x (k) 2 0 falls λ < Aus diesen Gründen ist es zweckmäßig, die Iterierten zu skalieren Damit werden starke Änderungen in der Größenordnung vermieden Die Konvergenzaussagen ändern sich durch Skalierung auch nicht, da weder der Unterraum S (k) noch die Iterierte λ (k) von einer Skalierung von x (k) abhängen 286

37 Algorithmus 477 Potenzmethode, Vektoriteration Seien A R n n und y (0) 0 mit y (0) 2 = gegeben Für k = 0,, berechne ỹ (k+) = Ay (k) ( λ (k) = ỹ (k+)) T y (k) y (k+) = ỹ (k+) ỹ (k+) 2 Bemerkung 478 Wählt man y (0) = x (0), so weist man mit vollständiger Induktion nach, dass y (k) = x(k) x (k) = Ak x (0) Ak 2 x (0) 2 Also liefert Algorithmus 477 bis auf Skalierung in x (k) die oben analysierten Folgen {x (k) } und {λ (k) } Die Konvergenzgeschwindigkeit der Potenzmethode hängt wesentlich vom Verhältnis von λ und λ 2 ab 472 Das Jacobi Verfahren Das Jacobi Verfahren ist ein einfaches und robustes Verfahren zur Bestimmung aller Eigenwerte und Eigenvektoren einer symmetrischen Matrix Es basiert auf folgendem Lemma Lemma 479 Seien A R n n und Q R n n eine Orthogonalmatrix, dann besitzen A und Q T AQ dieselben Eigenwerte Beweis: Es wird gezeigt, dass A und Q T AQ dasselbe charakteristische Polynom besitzen: det(q T AQ λi) = det(q T AQ λq T Q)) Also haben A und Q T AQ diesselben Eigenwerte = det(q T (A λi)q) = det(q T ) det(a λi)det(q) = det(q T Q) det(a λi) {z } I = det(a λi) Bemerkung 470 Grundidee des Jacobi Verfahrens Mit Hilfe einer Sequenz {Q k } k=,2 von orthogonalen Matrizen transformiert man A auf Diagonalgestalt Die Diagonalelemente geben die Eigenwerte an, und aus {Q k } k=,2 berechnet man die Eigenvektoren Da alle Matrizen reelle Einträge besitzen, kann das nur funktionieren, wenn alle Eigenwerte reell sind, da man bei den Matrizenmultiplikationen immer Matrizen mit reellen Einträgen als Ergebnis erhält Diese Eigenschaft ist für symmetrische Matrizen erfüllt, siehe Satz

38 Als orthogonale Transformationen verwendet man sogenannte Givens 2 Matrizen Das sind Rotationsmatrizen vom Typ Q k = 0 cosϕ k sin ϕ k sinϕ k cosϕ k 0 Man rechnet leicht nach, dass Q T k AQ k nur die i ten und j ten Zeilen und Spalten von A verändert Den Rotationswinkel ϕ k wählt man so, dass a ij und a ji zum Verschwinden gebracht werden Führt man dies iterativ für alle Nichtdiagonalelemente von A durch, kann man zeigen, dass das Verfahren gegen eine Diagonalmatrix konvergiert Q T k QT 2 QT AQ Q 2 Q k diag(λ,, λ n ) für k Die m te Spalte von P := Q Q 2 Q k enthält somit eine Approximation an den Eigenvektor v m zum Eigenwert λ m Da P orthogonal ist, erhält man insbesondere auch im Fall von mehrfachen Eigenwerten ein vollständiges Orthonormalsystem von Eigenvektoren Eine Gram Schmidt Orthonormierung ist daher nicht erforderlich In einem Zyklus des Jacobi Verfahrens wird jedes Nichtdiagonalelement einmal auf Null transformiert Dabei wird es im allgemeinen passieren, dass bereits vorhandene Nullen wieder verschwinden Typischerweise erhält man nach 6 8 Zyklen brauchbare Approximationen für die Eigenwerte und Eigenvektoren Die Kosten pro Zyklus betragen etwa 32n 3 Multiplikationen Das ist recht teuer Mehr Details zum Jacobi Verfahren findet man in der Literatur Bemerkung 47 Fazit Die Lösung von Eigenwertproblemen ist numerisch aufwändig In der Praxis werden wesentlich kompliziertere numerische Verfahren verwendet, als die hier vorgestellten i j 2 James Wallace Givens, Jr (90 993) 288

39 Teil V Mehrdimensionale Analysis 289

40 In diesem Teil wird die Differential und Integralrechnung von Funktionen mehrerer Veränderlicher betrachtet Dazu müssen die Konzepte aus Teil III erweitert und verallgemeinert werden Funktionen mehrerer Veränderlicher sind die natürlichen Funktionen für die Beschreibung von Naturprozessen und industriellen Prozessen 290

41 Kapitel 48 Stetigkeit vektorwertiger Funktionen Bemerkung 48 Motivation Vektorwertige Funktionen mehrerer Variabler treten in der Informatik zum Beispiel bei der Verarbeitung von Farbbildern auf Kontinuierliche Farbbilder lassen sich als Funktionen f : D R 3 auffassen Dabei ist D ein rechteckiger Bildbereich, und der Wertebereich beschreibt die drei Kanäle rot, grün, blau Einer vektorwertige Funktion f : D R n R m entsprechen genau m skalare Funktionen f i : D R n R, i =,,m, y = f (x) = f (x,,x n ) y = f(x) = f(x,, x n ) y m = f m (x) = f m (x,,x n ) Beispiel 482 Eine vektorwertige Funktion von R 2 nach R 3 ist beispielsweise gegeben durch f : R 2 R 3 mit ( ) x 2 y sin(xy) x f : x + cosy y e xy2 Definition 483 Stetigkeit vektorwertiger Funktionen Seien f : D R n R m und ξ D, D offen Dann heißt f(x) im Punkte ξ stetig, wenn zu jedem ε > 0 ein δ(ε) > 0 existiert mit max x i ξ i < δ = max f j(x) f j (ξ) < ε i {,,n} j {,,m} Bemerkung 484 Grenzwertdefinition Genauso wie für skalare Funktionen einer reellen Veränderlichen läßt sich die Stetigkeit auch mit Hilfe von Grenzwerten definieren Eine Funktion f : D R n R m, D offen, ist für ξ D stetig, wenn für jede Folge {x n } n N, x n D für alle n N, mit lim x n = ξ lim max x n,i ξ i = 0 n n i {,,n} 29

42 gilt lim f(x n) = f(ξ) lim max f j(x n ) f j (ξ) = 0 n n j {,,m} Man kann genauso gut die Euklidische Norm nehmen Im Unterschied zum Fall n =, bei welchem sich die Argumente x n nur auf einer Geraden dem Punkt ξ nähern, nämlich auf der x Achse, können sich im Fall n > die Punkte irgendwie nähern (Bild) Die Stetigkeit vektorwertiger Funktionen lässt sich direkt durch die Stetigkeit der einzelnen Komponenten untersuchen Satz 485 Die vektorwertige Funktion f : R n R m ist im Punkt ξ R n genau dann stetig, wenn jede Komponente f i : R n R, i =,,m, in ξ stetig ist Beweis: Sei zunächst f(x) in ξ stetig Dann gilt für max i {,,n} x i ξ i < δ ε > max fj(x) fj(ξ) > f k(x) f k (ξ) j {,,m} für jede Komponente f k (x) Damit ist jede Komponente stetig Sei umgekehrt jede Komponente f k (x), k =,, m, eine stetige Funktion Das heißt, zu jedem ε > 0 gibt es ein δ k (ε) > 0, so dass max i {,,n} xi ξi < δ k(ε) = f k (x) f k (ξ) < ε Setzt man δ(ε) := min k {,,m} δ k (ε), so gilt max x i ξ i < δ(ε) = max f k (x) f k (ξ) < ε i {,,n} k {,,m} Das ist die Stetigkeit von f(x) in ξ Beispiel 486 Die Funktion aus Beispiel 482 ist für alle (x, y) R 2 stetig, weil alle drei Komponenten stetige Funktionen sind Bemerkung 487 Rechenregeln für Grenzwerte Viele Rechenregeln für Grenzwerte übertragen sich von skalaren auf vektorwertige Funktionen Seien zum Beispiel f,g : D R n R m, α, β R, ξ D, dann gilt lim x ξ,x D (αf(x) + βg(x)) = α lim f(x) + β x ξ,x D lim g(x) x ξ,x D 292

43 Kapitel 49 Differenzierbarkeit 49 Definition und grundlegende Eigenschaften Bemerkung 49 Motivation Auch die Differenzierbarkeit von Funktionen mehrerer Veränderlicher lässt sich aus einer Eigenschaft differenzierbarer reellwertiger Funktionen einer reellen Veränderlichen motivieren Wenn eine reellwertige Funktion einer reellen Veränderlichen im Punkt ξ ihres Definitionsbereiches differenzierbar ist, kann man in diesem Punkt eine Tangente anlegen Die Tangente ist eine Gerade, also kann man die Funktion in ξ durch ein lineares Polynom (Taylor Polynom Grades, Satz 222) approximieren Auch bei der Definition der Differentiation von vektorwertigen Funktionen mehrerer Veränderlicher besteht die Grundidee darin, dass man die Funktion in einer Umgebung eines Punktes durch ein lineares Polynom approximieren kann Definition 492 Differenzierbarkeit vektorwertiger Funktionen Seien D R n offen und f : D R m Die Funktion f heißt im Punkt ξ D differenzierbar, wenn es eine lineare Abbildung M : R n R m und eine in ξ stetige Funktion r : D R m gibt, so dass f(x) = f(ξ) + M (x ξ) + r(x) x ξ 2, x D, (49) und r(ξ) = 0 gelten Man nennt M die erste Ableitung von f(x) in ξ, im Zeichen f (ξ) := M Bemerkung 493 Komponentenschreibweise Aus der linearen Algebra ist bekannt, dass sich lineare Abbildungen M : R n R m durch m n Matrizen und die Wirkung von M auf den Vektor x ξ als Matrix Vektor Produkt schreiben lassen In Komponentenschreibweise kann (49) daher mit M = (m ij ) i=,,m;j=,,n in der Form n f i (x) = f i (ξ) + m ij (x j ξ j ) + r i (x) x ξ 2, x D, i =,, m, (492) j= geschrieben werden Bemerkung 494 Eindeutigkeit von M und r(x) Es muss geklärt werden, ob M und r in (49) eindeutig bestimmt sind Seien e j der j te kartesische Einheitsvektor und t R aus einer hinreichend kleinen Umgebung von Null, so dass x = ξ + te j in D liegt Dann folgt aus (492) m ij = f i(x) f i (ξ) r i (x) x ξ 2 t 293

Ziel: Wir wollen eine gegebene Quadrik auf eine einfache Form transformieren, aus der sich ihre geometrische Gestalt unmittelbar ablesen lässt.

Ziel: Wir wollen eine gegebene Quadrik auf eine einfache Form transformieren, aus der sich ihre geometrische Gestalt unmittelbar ablesen lässt. 49 Quadriken 49.1 Motivation Quadriken (vgl. Def. 48.2) stellen eine wichtige Klasse geometrischer Objekte dar, mit Anwendungen in Computergrafik, Bildverarbeitung, Visualisierung, Physik u. a. Ziel: Wir

Mehr

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

51 Numerische Berechnung von Eigenwerten und Eigenvektoren 5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,

Mehr

45 Eigenwerte und Eigenvektoren

45 Eigenwerte und Eigenvektoren 45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.

Mehr

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

6.3 Hauptachsentransformation

6.3 Hauptachsentransformation Im Wintersemester 6/7 wurde in der Vorlesung Höhere Mathematik für Ingenieurstudiengänge der folgende Algorithmus zur Hauptachsentransformation besprochen: 63 Hauptachsentransformation Die Matrizen, die

Mehr

44 Orthogonale Matrizen

44 Orthogonale Matrizen 44 Orthogonale Matrizen 44.1 Motivation Im euklidischen Raum IR n haben wir gesehen, dass Orthonormalbasen zu besonders einfachen und schönen Beschreibungen führen. Wir wollen das Konzept der Orthonormalität

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren 2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;

Mehr

KAPITEL 1. Einleitung

KAPITEL 1. Einleitung KAPITEL 1 Einleitung Wir beschäftigen uns in dieser Vorlesung mit Verfahren aus der Numerischen linearen Algebra und insbesondere dem sogenannten Mehrgitterverfahren zur Lösung linearer Gleichungssysteme

Mehr

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende

Mehr

Lineare Algebra II 11. Übungsblatt

Lineare Algebra II 11. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross 9 / Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest (Bearbeitung innerhalb von Minuten und ohne Benutzung des

Mehr

KAPITEL 7. Berechnung von Eigenwerten. Av = λv

KAPITEL 7. Berechnung von Eigenwerten. Av = λv KAPITEL 7. Berechnung von Eigenwerten Aufgabe: Sei A R n n eine reelle quadratische Matrix. Gesucht λ C und v C n, v 0, die der Eigenwertgleichung Av = λv genügen. Die Zahl λ heißt Eigenwert und der Vektor

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

Lineare Algebra und Geometrie II, Übungen

Lineare Algebra und Geometrie II, Übungen Lineare Algebra und Geometrie II, Übungen Gruppe (9 9 45 ) Sei A 2 Bestimmen Sie A und A Finden Sie weiters Vektoren u, v R 2 mit u und Au A, beziehungsweise v und Av A Zunächst die Berechnung der Norm

Mehr

Diagonalisierbarkeit symmetrischer Matrizen

Diagonalisierbarkeit symmetrischer Matrizen ¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren

Mehr

6 Metrische Klassifikation der Quadriken

6 Metrische Klassifikation der Quadriken 6 Metrische Klassifikation der Quadriken A Wiederholung von Kap V, 5 Sei A = (a ij ) eine symmetrische n n Matrix. n x 1 q(x) := x t Ax = a ij x i x j, x =. i,j=1 ist dann ein quadratisches Polynom in

Mehr

Analysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit

Analysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit A Analysis, Woche 9 Mehrdimensionale Differentialrechnung I A 9. Differenzierbarkeit A3 =. (9.) Definition 9. Sei U R m offen, f : U R n eine Funktion und a R m. Die Funktion f heißt differenzierbar in

Mehr

Lanczos Methoden. Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann. 15.

Lanczos Methoden. Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann. 15. Lanczos Methoden Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann 15. Juni 2005 Lanczos-Methoden Lanczos-Methoden sind iterative Verfahren zur

Mehr

Kapitel 5 : Eigenwerte und Eigenvektoren

Kapitel 5 : Eigenwerte und Eigenvektoren Kapitel 5 : Eigenwerte und Eigenvektoren 5.1 Definition und allgemeine Eigenschaften Definition 5.1 Sei A eine quadratische (n n)-matrix. λ C heißt Eigenwert von A, wenn ein Vektor x C n mit x 0 existiert,

Mehr

AM3: Differenzial- und Integralrechnung im R n. 1 Begriffe. 2 Norm, Konvergenz und Stetigkeit. x 1. x 2. f : x n. aus Platzgründen schreibt man:

AM3: Differenzial- und Integralrechnung im R n. 1 Begriffe. 2 Norm, Konvergenz und Stetigkeit. x 1. x 2. f : x n. aus Platzgründen schreibt man: AM3: Differenzial- und Integralrechnung im R n 1 Begriffe f : x 1 f 1 x 1, x 2,..., x n ) x 2... f 2 x 1, x 2,..., x n )... x n f m x 1, x 2,..., x n ) }{{}}{{} R n R m aus Platzgründen schreibt man: f

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=

Mehr

47 Singulärwertzerlegung

47 Singulärwertzerlegung 47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn

Mehr

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009 Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx

Mehr

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3 Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: Lineare Algebra D-MATH, HS 04 Prof. Richard Pink Lösung zu Serie. [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: a) F (X) := X 5 X in R[X] und C[X]. b) F (X) := X 4 +X 3 +X in

Mehr

Begleitmaterial zur Vorlesung Numerik II

Begleitmaterial zur Vorlesung Numerik II Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik

Mehr

35 Matrixschreibweise für lineare Abbildungen

35 Matrixschreibweise für lineare Abbildungen 35 Matrixschreibweise für lineare Abbildungen 35 Motivation Wir haben gesehen, dass lineare Abbildungen sich durch ihre Wirkung auf die Basisvektoren ausdrücken lassen Mithilfe von Matrizen können wir

Mehr

11 Eigenwerte und Eigenvektoren

11 Eigenwerte und Eigenvektoren 11 Eigenwerte und Eigenvektoren Wir wissen bereits, dass man jede lineare Abbildung ϕ : K n K n durch eine n n-matri A beschreiben kann, d.h. es ist ϕ() = A für alle K n. Die Matri A hängt dabei von der

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46.1 Motivation Symmetrische Matrizen (a ij = a ji für alle i, j) kommen in der Praxis besonders häufig vor. Gibt es für sie spezielle Aussagen über

Mehr

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden? Kapitel Lineare Abbildungen Verständnisfragen Sachfragen Was ist eine lineare Abbildung? Erläutern Sie den Zusammenhang zwischen Unterräumen, linearer Unabhängigkeit und linearen Abbildungen! 3 Was ist

Mehr

Lineare Algebra II (SS 13)

Lineare Algebra II (SS 13) Lineare Algebra II (SS 13) Bernhard Hanke Universität Augsburg 03.07.2013 Bernhard Hanke 1 / 16 Selbstadjungierte Endomorphismen und der Spektralsatz Definition Es sei (V,, ) ein euklidischer oder unitärer

Mehr

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

Sommer 2017 Musterlösung

Sommer 2017 Musterlösung Sommer 7 Musterlösung. (5 Punkte) a) Sei V ein Vektorraum über K und sei T End(V ). Geben Sie die Definition eines Eigenwertes von T und zeigen Sie für endlichdimensionales V, dass λ K genau dann ein Eigenwert

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

3.3 Klassifikation quadratischer Formen auf R n

3.3 Klassifikation quadratischer Formen auf R n 3.3. Klassifikation quadratischer Formen auf R n 61 3.3 Klassifikation quadratischer Formen auf R n Wir können den Hauptsatz über symmetrische Matrizen verwenden, um uns einen Überblick über die Lösungsmengen

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte (Teschl/Teschl 4.2 Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB)

Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Prof. R. Leithner, Dipl. Phys. E. Zander Wintersemester 2010/2011 Kapitel 6 Eigenwerte

Mehr

(a), für i = 1,..., n.

(a), für i = 1,..., n. .4 Extremwerte Definition Sei M R n eine Teilmenge, f : M R stetig, a M ein Punkt. f hat in a auf M ein relatives (oder lokales) Maximum bzw. ein relatives (oder lokales) Minimum, wenn es eine offene Umgebung

Mehr

= 11 ± 5, also k 1 = 3 und k 2 = 8.

= 11 ± 5, also k 1 = 3 und k 2 = 8. Stroppel Musterlösung.8.5, 8min Aufgabe (6 Punkte) Gegeben sei die Funktion f: R R: x x e x. (a) Zeigen Sie durch vollständige Induktion, dass für alle x R und alle k N gilt: f (k) (x) = ( ) k (x kx+(k

Mehr

43911: Lineare Algebra/Geometrie Prüfungstermin Frühjahr 2015 Lösungsvorschlag

43911: Lineare Algebra/Geometrie Prüfungstermin Frühjahr 2015 Lösungsvorschlag Dr. Erwin Schörner 439: Lineare Algebra/Geometrie Prüfungstermin Frühjahr 5 Lösungsvorschlag I.. Für n N mit n ist das inhomogene lineare Gleichungssystem in den n Unbekannten x,..., x n mit den n Gleichungen

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

Probeklausur zu Mathematik 2 für Informatik

Probeklausur zu Mathematik 2 für Informatik Gunter Ochs Wintersemester 4/5 Probeklausur zu Mathematik für Informatik Lösungshinweise wie immer ohne Garantie auf Fehlefreiheit. Gegeben sei das Dreieck im R mit den Eckpunkten A a Berechnen Sie die

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008 KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008 MUSTERLÖSUNG Name: Studiengang: Aufgabe 1 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter die Aufgabenstellung

Mehr

4 Funktionenfolgen und normierte Räume

4 Funktionenfolgen und normierte Räume $Id: norm.tex,v 1.57 2018/06/08 16:27:08 hk Exp $ $Id: jordan.tex,v 1.34 2018/07/12 20:08:29 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Am Ende der letzten Sitzung hatten wir zwei

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren

Mehr

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie

Mehr

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung Zurück Stand 4.. 6 Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung Im Allgemeinen werden Vektoren durch Multiplikation mit einer Matrix gestreckt und um einen bestimmten Winkel gedreht. Es gibt jedoch

Mehr

fj 2 = f n f n+1. fj 2 = 0 2 = 0 = 0 1 = f 0 f 1. f 2 j = f n f n+1 +fn+1 = (f n +f n+1 )f n+1 = f n+2 f n+1 = f n+1 f (n+1)+1.

fj 2 = f n f n+1. fj 2 = 0 2 = 0 = 0 1 = f 0 f 1. f 2 j = f n f n+1 +fn+1 = (f n +f n+1 )f n+1 = f n+2 f n+1 = f n+1 f (n+1)+1. Stroppel Musterlösung 4..4, 8min Aufgabe 3 Punkte) Sei f n ) n N die Fibonacci-Folge, die durch f :=, f := und f n+ := f n +f n definiert ist. Beweisen Sie durch vollständige Induktion, dass für alle n

Mehr

Lineare Algebra I Lösungsvorschlag

Lineare Algebra I Lösungsvorschlag Aufgabe Lineare Algebra I Lösungsvorschlag Wir bezeichnen mit a, a 2, a 3 Q 4 die Spalten der Matrix A. Es ist 7 a + 2a 2 = 7 4 = 7a 3, und wir sehen im l A = a, a 2, a 3 = a, a 2. Da die Vektoren a und

Mehr

7.2 Die adjungierte Abbildung

7.2 Die adjungierte Abbildung 7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 43 Polynome in mehreren Variablen und Nullstellenmengen Als eine Anwendung der Diagonalisierbarkeit von symmetrischen

Mehr

Höhere Mathematik II für die Fachrichtung Physik

Höhere Mathematik II für die Fachrichtung Physik Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Dipl.-Math. Sebastian Schwarz SS 5 4.5.5 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 4. Übungsblatt

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 53 Norm von Endomorphismen und Matrizen Definition 53.1. Es seien V und W endlichdimensionale normierte K-

Mehr

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet. L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors

Mehr

Musterlösung Serie 21

Musterlösung Serie 21 D-MATH Lineare Algebra II FS 09 Prof. Richard Pink Musterlösung Serie Positiv-Definitheit und Singulärwertzerlegung. Welche der folgenden drei reellen symmetrischen Matrizen sind positiv definit? A : 6

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2 Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete

Mehr

Rechenaufwand der LR- und LDL T - Zerlegung

Rechenaufwand der LR- und LDL T - Zerlegung 6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für

Mehr

Lineare Algebra II Lösungen der Klausur

Lineare Algebra II Lösungen der Klausur Prof Dr K Doerk 673 Jens Mandavid Christian Sevenheck Lineare Algebra II Lösungen der Klausur (a Diese Aussage ist richtig, sie stimmt nämlich für k = Sei nämlich n N beliebig und bezeichne N die Menge

Mehr

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ)) Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 18 Vielfachheiten und diagonalisierbare Abbildungen Satz 18.1. Es sei K ein Körper und es sei V ein endlichdimensionaler K- Vektorraum.

Mehr

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1. Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

5.4 Hauptachsentransformation

5.4 Hauptachsentransformation . Hauptachsentransformation Sie dient u.a. einer möglichst einfachen Darstellung von Kegelschnitten und entsprechenden Gebilden höherer Dimension mittels einer geeigneten Drehung des Koordinatensystems.

Mehr

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v

Mehr

7.3 Unitäre Operatoren

7.3 Unitäre Operatoren Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren

Mehr

Erweiterte Koordinaten

Erweiterte Koordinaten Erweiterte Koordinaten Sei K n ein n dimensionaler affiner Raum Die erweiterten Koordinaten des Punktes x x n K n sind x x n Kn+ (Das ist für alle K sinnvoll, weil in jedem Körper K wohldefiniert ist In

Mehr

4.6 Berechnung von Eigenwerten

4.6 Berechnung von Eigenwerten 4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen Hannover, den 7. Februar 2002 Aufgabe. Übungsblatt: Lineare Algebra II Abgabe: 8./9.4.2002 in den Übungsgruppen (2, 2, 3 Punkte) Der Vektorraum V = C[, ] sei mit dem üblichen Skalarprodukt f, g = f(t)g(t)

Mehr

Lösung 8: Quadratische Formen, Sylvesters Trägheitssatz

Lösung 8: Quadratische Formen, Sylvesters Trägheitssatz D-MATH Lineare Algebra II FS 207 Dr. Meike Akveld Lösung 8: Quadratische Formen, Sylvesters Trägheitssatz. Wir erinnern an den Hauptachsensatz: Jede von 0 verschiedene quadratische Form Q auf R 3 ist bis

Mehr

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 3. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 29, 27 Erinnerung Satz. Axiomatischer Zugang, Eigenschaften der Determinante. Die Abbildung det :

Mehr

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet. L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Anwendungen in der Physik: Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors - Normalmoden

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Klausur zu. Lineare Algebra II. Viel Erfolg! Fachbereich Mathematik WS 2012/13 Dr. habil. Matthias Schneider. Bonus Note. Aufgabe

Klausur zu. Lineare Algebra II. Viel Erfolg! Fachbereich Mathematik WS 2012/13 Dr. habil. Matthias Schneider. Bonus Note. Aufgabe Klausur zu Lineare Algebra II Fachbereich Mathematik WS 0/3 Dr. habil. Matthias Schneider Aufgabe 3 4 5 6 7 Bonus Note Punktzahl 4 3 3 3 3 0 erreichte Punktzahl Es sind keine Hilfsmittel zugelassen. Die

Mehr

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23 Kapitel 5 Eigenwerte 5. Definition und Beispiele Wir sehen uns ein System dreier schwingender Kugeln der Massen m, m und m 3 an, die durch Federn aneinander gekoppelt sein sollen. m k m k 3 m 3 x ( t x

Mehr

= 9 10 k = 10

= 9 10 k = 10 2 Die Reihe für Dezimalzahlen 1 r = r 0 +r 1 10 +r 1 2 100 + = r k 10 k, wobei r k {0,,9} für k N, konvergiert, da r k 10 k 9 10 k für alle k N und ( 1 ) k 9 10 k 9 = 9 = 10 1 1 = 10 10 k=0 k=0 aufgrund

Mehr