Orthogonale Matrizen. Kapitel 40

Ähnliche Dokumente
Ziel: Wir wollen eine gegebene Quadrik auf eine einfache Form transformieren, aus der sich ihre geometrische Gestalt unmittelbar ablesen lässt.

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

45 Eigenwerte und Eigenvektoren

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Eigenwerte (Teschl/Teschl 14.2)

6.3 Hauptachsentransformation

44 Orthogonale Matrizen

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren

KAPITEL 1. Einleitung

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX

Lineare Algebra II 11. Übungsblatt

KAPITEL 7. Berechnung von Eigenwerten. Av = λv

Lineare Algebra und Numerische Mathematik für D-BAUG

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren

Lineare Algebra und Geometrie II, Übungen

Diagonalisierbarkeit symmetrischer Matrizen

6 Metrische Klassifikation der Quadriken

Analysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit

Lanczos Methoden. Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann. 15.

Kapitel 5 : Eigenwerte und Eigenvektoren

AM3: Differenzial- und Integralrechnung im R n. 1 Begriffe. 2 Norm, Konvergenz und Stetigkeit. x 1. x 2. f : x n. aus Platzgründen schreibt man:

Technische Universität München Zentrum Mathematik. Übungsblatt 12

47 Singulärwertzerlegung

6 Symmetrische Matrizen und quadratische Formen

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3

Eigenwerte und Diagonalisierung

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Begleitmaterial zur Vorlesung Numerik II

35 Matrixschreibweise für lineare Abbildungen

11 Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?

Lineare Algebra II (SS 13)

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Iterative Verfahren, Splittingmethoden

und Unterdeterminante

und Unterdeterminante

Sommer 2017 Musterlösung

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

3.3 Klassifikation quadratischer Formen auf R n

Lineare Algebra: Determinanten und Eigenwerte

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Spezielle Matrixformen

Ausgewählte Lösungen zu den Übungsblättern 9-10

Eigenwerte (Teschl/Teschl 14.2)

Begleitmaterial zur Vorlesung Numerik I

Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB)

(a), für i = 1,..., n.

= 11 ± 5, also k 1 = 3 und k 2 = 8.

43911: Lineare Algebra/Geometrie Prüfungstermin Frühjahr 2015 Lösungsvorschlag

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Probeklausur zu Mathematik 2 für Informatik

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008

4 Funktionenfolgen und normierte Räume

6 Eigenwerte und Eigenvektoren

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung

fj 2 = f n f n+1. fj 2 = 0 2 = 0 = 0 1 = f 0 f 1. f 2 j = f n f n+1 +fn+1 = (f n +f n+1 )f n+1 = f n+2 f n+1 = f n+1 f (n+1)+1.

Lineare Algebra I Lösungsvorschlag

7.2 Die adjungierte Abbildung

6 Symmetrische Matrizen und quadratische Formen

Lineare Algebra und analytische Geometrie II

Höhere Mathematik II für die Fachrichtung Physik

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra und analytische Geometrie II

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

Musterlösung Serie 21

Matrizen, Determinanten, lineare Gleichungssysteme

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

Rechenaufwand der LR- und LDL T - Zerlegung

Lineare Algebra II Lösungen der Klausur

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

3.6 Eigenwerte und Eigenvektoren

Wiederholung von Linearer Algebra und Differentialrechnung im R n

5.4 Hauptachsentransformation

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

7.3 Unitäre Operatoren

Erweiterte Koordinaten

4.6 Berechnung von Eigenwerten

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

1. Übungsblatt: Lineare Algebra II Abgabe: 8./ in den Übungsgruppen

Lösung 8: Quadratische Formen, Sylvesters Trägheitssatz

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

3 Matrizenrechnung. 3. November

Klausur zu. Lineare Algebra II. Viel Erfolg! Fachbereich Mathematik WS 2012/13 Dr. habil. Matthias Schneider. Bonus Note. Aufgabe

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23

= 9 10 k = 10

Transkript:

Kapitel 40 Orthogonale Matrizen Bemerkung 40 Motivation Im euklidischen Raum R n haben wir gesehen, dass Orthonormalbasen zu besonders einfachen und schönen Beschreibungen führen Nun soll das Konzept der Orthonormalität auf Matrizen erweitert werden Dies führt auf die wichtige Klasse der orthogonalen Matrizen, die eine Reihe von schönen Eigenschaften aufweisen Mit ihnen lassen sich unter anderem Drehungen und Spiegelungen beschreiben Definition 402 Orthogonale Matrix, O(n) Besitzt eine Matrix Q R n n orthonormale Spaltenvektoren q,,q n, so wird sie orthogonale Matrix genannt (orthonormale Matrix wäre präziser, ist aber unüblich) Die Menge aller Orthogonalmatrizen des R n n wird mit O(n) := {Q R n n Q ist orthogonal} bezeichnet Satz 403 Eigenschaften orthogonaler Matrizen Ist Q O(n), so gelten i) Q ist invertierbar und es gilt Q = Q T ii) Multiplikation mit Q erhält das euklidische Produkt zweier Vektoren (Qu) (Qv) = u v u,v R n iii) Multiplikation mit Q erhält die euklidische Norm Man nennt Q daher auch Isometrie Qv 2 = v 2 bv R n Beweis: i): Sei A = (a ij) = Q T Q Dann gilt a ij = nx q ki q kj = q i q j = δ ij k= Also ist Q T Q = I Analog zeigt man QQ T = I Somit ist Q invertierbar mit Q T = Q ii): Die Aussage folgt aus (Qu) (Qv) = (Qu) T (Qv) = u T Q T Qv = u T v = u v {z } I iii): Folgt aus ii) mit u = v 25

Bemerkung 404 Es gilt sogar dass eine Matrix Q genau dann orthogonal ist, falls Q T = Q gilt Beispiel 405 Rotation Orthogonale Matrizen können beispielsweise Rotationen beschreiben Solche Matrizen besitzen die Gestalt ( ) cosϕ sinϕ Q =, sin ϕ cosϕ wobei ϕ der Drehwinkel im mathematisch positiven Drehsinn (entgegen der Uhrzeigerrichtung) ist Sei ein Vektor x R 2 gegeben ( ) ( ) x r cosθ x = = x 2 r sinθ mit r = x 2 + x2 und θ dem Winkel von x mit der positiven x Achse Mit Additionstheoremen für Winkelfunktionen, siehe zum Beispiel (202), erhält man ( cosϕcosθ sin ϕsin θ y = Qx = r sin ϕcosθ + cosϕsin θ Der Vektor x wurde also um den Winkel ϕ gedreht x 2 ) ( cos(ϕ + θ) = r sin(ϕ + θ) ) y ϕ θ x x Es ist offensichtlich, dass Q orthogonal ist, da die beiden Spaltenvektoren orthogonal sind Demzufolge gilt ( ) Q = Q T cosϕ sin ϕ = sinϕ cosϕ Diese Matrix beschreibt eine Drehung um den Winkel θ Es gilt detq = cos 2 ϕ + sin 2 ϕ = 2 Spiegelung Orthogonale Matrizen können auch Spiegelungen an Geraden beschreiben Zum Beispiel beschreibt die Matrix ( ) 0 Q = 0 die Spiegelung an der Gerade y = x Diese Spiegelung vertauscht die x und x 2 Komponente eines Vektors ( ) ( ) ( ) 0 x x2 Qx = = 0 x 2 x Es gilt detq = 252

Satz 406 Determinante orthogonaler Matrizen Ist Q O(n), so gilt det Q = Beweis: Aus QQ T und den Rechenregeln für Determinanten folgt = det(i) = det QQ T = detq detq T = (detq ) 2 Definition 407 SO(n) Man bezeichnet die Menge der orthogonale Matrizen Q O(n) mit detq = mit SO(n) := O(n) + := {Q O(n) det Q = } Satz 408 Gruppeneigenschaft von O(n) und SO(n) Die Mengen O(n) und SO(n) sind Untergruppen der allgemeinen linearen Gruppe GL(n, R) Beweis: Übungsaufgabe Bemerkung 409 Basiswechsel zwischen Orthonormalbasen Sei die Menge {v,,v n } eine Orthonormalbasis des euklidischen Raums R n Dann existieren zu jedem Vektor u R n eindeutig bestimmte Koeffizienten a,,a n R mit u = n a k v k, das heißt a = k= ist der Koordinatenvektor von u bezüglich der Orthonormalbasis {v,,v n } Sei nun {w,,w n } eine weitere Orthonormalbases des R n und u habe den Koordinatenvektor b b = bezüglich {w,,w n } Gesucht ist jetzt eine lineare Abbildung Q, die den einen Koordinatenvektor in den andern überführt, also etwa b = Qa Insbesondere lassen sich die Vektoren der einen Basis durch die andere Basis ausdrücken, etwa n v k = (vk T w i)w i, siehe Satz 388 Es folgt u = = n a k v k = k= i= b n ( n n ) a k (vk T w i )w i = k= n b i w i mit b i = i= i= n (vk T w i) a k }{{} =:q ik k= a a n ( n n ) a k (vk T w i ) i= k= w i 253

Für die gesuchte Matrix Q = (q ik ) gilt also q ik = v T k w i = w T i v k = Q = w T w T n (v,,v n ) Wegen der Gruppeneigenschaft von O(n) ist Q als Produkt zweier orthogonaler Matrizen wieder orthogonal 254

Kapitel 4 Eigenwerte und Eigenvektoren Bemerkung 4 Motivation Seien v R n und A R n n Dann sind v und Av normalerweise nicht parallel Man kann nun die Frage stellen, ob es ausgezeichnete Richtungen v gibt, so dass Av ein skalares Vielfaches von v ist, also Av = λv Es wird sich herausstellen, dass diese ausgezeichneten Richtungen und vor allem die ausgezeichneten Skalare λ sehr wichtige Informationen über die Eigenschaften der Matrix A liefern Definition 42 Eigenvektor, Eigenwert Sei A R n n Ein von 0 verschiedener Vektor v R n heißt Eigenvektor von A, wenn es ein λ C gibt mit Av = λv Der Skalar λ heißt dann Eigenwert von A Bemerkung 43 Bedeutung von Eigenvektoren und Eigenwerten Eigenvektor und Eigenwertprobleme sind wichtig in der Mathematik, Statik, Elektrotechnik, Maschinenbau, Biologie, Informatik und Wirtschaftswissenschaften Oft beschreiben sie besondere Zustände von Systemen Beispiel: 850 haben Soldaten die Hängebrücke von Angers zum Einsturz gebracht, indem sie mit einer Frequenz marschiert sind, die einen Eigenwert des Brückensystems getroffen hat Es kam zur Resonanzkatastrophe, 226 Soldaten von 730 fanden den Tod Seitdem geht man nicht mehr im Gleichschritt über Brücken Beispiel 44 Der Vektor ( v = 2 ) ist ein Eigenvektor von denn Av = A = ( 3 0 8 Der zugehörige Eigenwert ist λ = 3 ( 3 0 8 ) ( 2 ), ) ( 3 = 6 ) = 3v 255

Bemerkung 45 Bestimmung von Eigenwerten Aus Av = λv folgt (A λi)v = 0 Zur Bestimmung der Eigenwerte λ muss man nun nichttriviale Lösungen dieses homogenen lineaeren Gleichungssystems suchen Sie existieren nur falls rg(a λi) < n, das heißt falls det(a λi) = 0, siehe Definition 362 Für A R n n ist dies ein Polynom n ten Grades in λ Dieses Polynom nennt man charakteristisches Polynom von A Seine Nullstellen sind die gesuchten Eigenwerte Beispiel 46 Für A = ( 2 6 erhält man 0 = det(a λi) = 2 λ 6 λ = (2 λ)( λ) 6 = 2 2λ λ + λ 2 6 = λ 2 3λ 4 Die Nullstellen dieses Polynoms sind ) λ,2 = 3 ± 9 + 6 2 = 3 ± 5 2 = λ = 4, λ 2 = Die Matrix besitzt also die beiden Eigenwerte λ = 4 und λ 2 = Bemerkung 47 Selbst wenn A nur reelle Einträge hat, kann das charakteristische Polynom komplexe Nullstellen besitzen Komplexe Eigenwerte sind also nicht ungewöhnlich 2 Sucht man Eigenwerte einer n n Matrix A als Nullstellen des charakteristischen Polynoms, kann dies für n 3 schwierig werden Für n 5 ist dies im allgemeinen nicht mehr analytisch möglich Dann werden numerische Approximationen benötigt Diese sind ebenfalls nicht einfach 3 Man kann zeigen, dass deta das Produkt der Eigenwerte ist und dass A genau dann invertierbar ist, wenn der Eigenwert Null nicht auftritt Bei bestimmten Matrizen kann man die Eigenwerte jedoch sehr einfach bestimmen Satz 48 Eigenwerte von Dreiecksmatrizen Ist A R n n eine obere oder untere Dreiecksmatrix, so sind die Eigenwerte durch die Diagonaleinträge gegeben Beweis: Die Determinante einer Dreiecksmatrix ist das Produkt der Diagonaleinträge Für A = (a ij) folgt aus 0 = det(a λi) = (a λ)(a nn λ), dass die Eigenwerte durch λ = a,, λ n = a nn gegeben sind Beispiel 49 Die Matrix A = ( 3 0 8 hat die Eigenwerte λ = 3 und λ 2 =, vergleiche Beispiel 44 ), 256

Bemerkung 40 Bestimmung der Eigenvektoren Sei λ ein bekannter Eigenwert der Matrix A Dann sind die zugehörigen Eigenvektoren nichttriviale Lösungen von (A λi)v = 0 (4) Die Eigenvektoren sind nicht eindeutig bestimmt Mit v ist auch αv mit α R\{0} Eigenvektor Der Lösungsraum von (4) heißt Eigenraum von A zum Eigenwert λ Man sucht daher nach Basisvektoren im Eigenraum und gibt diese als Eigenvektoren an Beispiel 4 Gesucht sind die Basen der Eigenräume von A = 0 0 2 2 0 3 Zuerst bestimmt man die Eigenwerte aus 0 = det(a λi) Man erhält 0 = det(a λi) = (λ )(λ 2) 2 Demzufolge ist λ = ein einfacher Eigenwert und λ 2 = 2 ein doppelter Eigenwert Der Eigenraum zu λ = ist der Lösungsraum von 0 2 x x 2 = 0 0 0 2 x 3 0 Die erste und dritte Gleichung sind linear abhängig Addiert man die erste zur zweiten Gleichung, erhält man x 2 x 3 = 0 = x 2 := s = x 3 = s Aus der dritten Gleichung folgt x = 2x 3 = 2s Man erhält damit den eindimensionalen Eigenraum 2s s s s R, der zum Beispiel vom Basisvektor 2 aufgespannt wird Der Eigenraum zu λ 2 = 2 ist Lösungsraum von 2 0 2 0 x x 2 = 0 0 0 x 3 0 Das sind drei linear abhängige Gleichungen mit der Lösungsmenge s t s s, t R 257

Eine Basis dieses zweidimensionalen Eigenraums ist zum Beispiel 0, 0 0 Satz 42 Eigenwerte von Potenzen einer Matrix Seien A R n n, k N und λ Eigenwert von A mit Eigenvektor v Dann ist λ k Eigenwert von A k mit dem zugehörigen Eigenvektor v Beweis: Es gilt A k v = A k (Av) = A k (λv) = λa k v = λa k 2 (Av) = λ 2 A k 2 v = = λ k v Beispiel 43 Betrachte die Matrix A = 0 0 2 2 0 3, siehe Beispiel 4 Die Eigenwerte von A 8 sind λ = 8 = und λ 2 = 2 8 = 256 258

Kapitel 42 Eigenwerte und Eigenvektoren symmetrischer Matrizen Symmetrische Matrizen, das heißt es gilt A = A T, kommen in der Praxis recht häufig vor Die Eigenwerte und Eigenvektoren dieser Matrizen besitzen besondere Eigenschaften Satz 42 Eigenwerte und Eigenvektoren symmetrischer Matrizen Für eine symmetrische Matrix A R n n gelten: i) A hat nur reelle Eigenwerte ii) Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal Beweis: i): Für Vektoren und Matrizen definiert man die komplexe Konjugation komponentenweise Für eine reelle Matrix gilt A = A Sei nun λ Eigenwert von A zum Eigenvektor v Aus A = A und der Symmetrie von A folgt λv T v = (λv) T v = (Av) T v = v T A T v = v T A T v = v T Av = v T (λv) = λv T v Analog zu komplexen Zahlen und zu reellwertigen Vektoren ist für komplexwertige Vektoren v T v = v 2 2 Da v 0 ist, gilt vt v R \ {0} Es folgt λ = λ, das bedeutet λ R ii): Seien v,v 2 Eigenvektoren von A zu verschiedenen Eigenvektoren λ, λ 2 Dann gilt Daraus folgt λ v T v 2 = (Av ) T v 2 = v T A T v 2 = v T Av 2 = v T (Av 2) = λ 2v T v 2 (λ λ 2)v T v 2 = 0 Da der erste Faktor nach Voraussetzung ungleich Null ist, muss der zweite Faktor verschwinden Also sind v und v 2 orthogonal Beispiel 422 Die Matrix A = ( 2 2 4 ist symmetrisch Zur Bestimmung ihrer Eigenwerte löst man 0 = det(a λi) = λ 2 2 4 λ = ( λ)(4 λ) 4 = 4 λ 4λ + λ 2 4 = λ 2 5λ = λ(λ 5) ) 259

Damit findet man die beiden reellen Eigenwerte λ = 0 und λ 2 = 5 Bestimme nun Eigenvektoren zu λ = 0 Es ist ( ) ( ) ( ) 2 x 0 (A λ I)v = 0 = = 2 4 x 2 0 Das sind zwei linear abhängige Gleichungen Wählt man als freien Parameter x 2 = s, so folgt x = 2s Damit folgt für den Eigenraum und einen Eigenvektor {( ) ( ) 2s 2 s R}, v s = Den Eigenraum zum Eigenwert λ 2 = 5 bestimmt man analog ( ) ( ) ( 4 2 x 0 (A λ 2 I)v = 0 = = 2 x 2 0 ) Das sind auch zwei linear abhängige Gleichungen Wählt man x = s als freien Parameter, so ist x 2 = 2s Der Eigenraum und ein Eigenvektor sind {( ) ( ) s s R}, v 2s 2 = 2 Man sieht sofort, dass v und v 2 orthogonal sind Symmetrische Matrizen lassen sich mit Hilfe ihrer Eigenwerte und Eigenvektoren elegant zerlegen Satz 423 Hauptachsentransformation, Spektraldarstellung Sei A R n n symmetrisch Sei v,,v n das nach Satz 42 exisitierende Orthonormalsystem von Eigenvektoren mit zugehörigen, nicht notwendigerweise verschiedenen, Eigenwerten λ,, λ n Dann gilt A = QΛQ T mit der Orthogonalmatrix Q = (v,,v n ) R n n und der Diagonalmatrix λ 0 Λ = diag(λ,,λ n ) = 0 λ n Beweis: Nach Satz 42 sind die Eigenräume zu verschiedenen Eigenwerten orthogonal Man kann zeigen, dass für symmetrische Matrizen ein k facher Eigenwert einen Eigenraum der Dimension k besitzt Verwendet man innerhalb jedes Eigenraums das Gram Schmidt Verfahren und normiert, entsteht ein Orthonormalsystem {v,,v n} von Eigenvektoren von A Somit ist Q := (v,,v n) eine orthogonale Matrix Die k te Spalte von Q T AQ lautet Q T Av k = λ k Q T v k = λ k e k Somit ist Q T AQ = Λ Mit der Orthogonalität von Q folgt die Behauptung Bemerkung 424 Die Aussage von Satz 423 bedeutet, dass A auf Diagonalgestalt transformiert werden kann Λ = Q T AQ Durch den Übergang in das durch Q = (v,,v n ) definierte Koordinatensystem hat A eine besonders einfache Gestalt 260

2 Multipliziert man das Produkt QΛQ T aus, so erhält man die Darstellung A = λ v v T + + λ n v n v T n An dieser Darstellung erkennt man sofort, dass λ,,λ n Eigenwerte und v,,v n Eigenvektoren von A sind Es gilt nämlich n n Av k = λ i v i vi T v k = λ i v i δ ik = λ k v k i= i= Beispiel 425 Die Matrix A = ( 2 2 4 soll auf Diagonalgestalt transformiert werden Nach Beispiel 422 hat A die Eigenwerte λ = 0 und λ 2 = 5 mit zugehörigen Eigenvektoren w = ( 2 Normierung der Eigenvektoren ergibt Mit der orthogonalen Matrix v = 5 ( 2 ) ) (, w 2 = 2 ) ), v 2 = 5 ( 2 Q = (v,v 2 ) = 5 ( 2 2 ergibt sich Q T AQ = ( ) ( ) ( ) 2 2 2 = ( 2 5 2 2 4 2 5 2 = ( ) ( ) 0 0 0 0 = = diag(λ 5 0 25 0 5, λ 2 ) ) ) ) ( 0 5 0 0 ) 26

Kapitel 43 Quadratische Formen und positiv definite Matrizen Bemerkung 43 Motivation Positiv definite symmetrische Matrizen sind eine wichtige Klasse von symmetrischen Matrizen Sie treten bei Anwendungen in der Physik, der Computergraphik und auf anderen Gebieten auf In einem engen Zusammenhang mit symmetrisch positiv definiten Matrizen sehen quadratische Funktionen in mehreren Variablen Spezielle Funktionen dieser Gestalt beschreiben wichtige Kurven oder Flächen Definition 432 Quadratische Form, quadratisches Polynom, Quadrik Seien x = (x,,x n ) T R n und A R n n symmetrisch Dann heißt x T Ax = n a ij x i x j i,j= quadratische Form Ferner seien b R n und c R Dann nennt man q(x) = x T Ax + b T x + c quadratisches Polynom in x,,x n Die Menge aller Punkte, welche die quadratische Gleichung q(x) = x T Ax + b T x + c = 0 erfüllt, heißt Quadrik Beispiel 433 Eine quadratische Form ist durch 7x 2 + 6x2 2 + 5x2 3 4x x 2 + 2x 2 x 3 = 7x 2 + 6x 2 2 + 5x 2 3 2x x 2 2x 2 x + x 2 x 3 + x 3 x 2 = (x, x 2, x 3 ) 7 2 0 2 6 x x 2 0 5 x 3 gegeben 2 Ein quadratisches Polynom ist durch gegeben q(x) = 5x 2 3x2 2 + 4x x 2 7x 2 + 3 262

3 Die Ellipsengleichung x 2 a 2 + x2 2 b 2 = 0 beschreibt eine Quadrik mit n = 2 Quadriken mit n = 2 können generell als Kegelschnitte (Ellipsen, Parabeln, Hyperbeln, ) interpretiert werden Für n = 3 ergeben sich Ellipsoide, Paraboloide, Hyperboloide Definition 434 Definite, semidefinite, indefinite Matrizen Seien A R n n eine symmetrische Matrix und λ,, λ n die Eigenwerte von A Dann heißt A ) positiv definit falls λ i > 0 für alle i =,,n, 2) positiv semidefinit falls λ i 0 für alle i =,, n, 3) negativ definit falls λ i < 0 für alle i =,,n, 4) negativ semidefinit falls λ i 0 für alle i =,,n, 5) indefinit, falls λ i, λ j existieren mit λ i λ j < 0 Es besteht ein enger Zusammenhang zwischen positiver Definitheit, quadratischen Formen und Determinanten von Untermatrizen Satz 435 Positiv definite Matrizen und quadratische Formen Es sei A = (a ij ) R n n symmetrisch Dann ist A positiv definit genau dann, wenn x T Ax > 0 x R n, x 0 Beweis: = : Es sei {v,,v n} eine Orthonormalbasis von Eigenvektoren von A mit zugehörigen Eigenwerten λ,, λ n Dann lässt sich jeder Vektor x R n als Linearkombination der Eigenvektoren darstellen x = P n i= xivi Für x 0 gilt! T! nx nx x T Ax = x iv i A x jv j = = i= j= 0! T nx B nx C x iv i @ x j Av j A {z} i= j= λ j v j nx nx λ jx ix j vi T v j = λ ix 2 i > 0 {z } i= =δ ij i,j= =: Ist umgekehrt A nicht positiv definit, so existiert ein Eigenwert λ 0 von A mit zugehörigem Eigenvektor v 0 Damit ist v T Av = v T λv = {z} λ v {z} T v 0 0 >0 im Widerspruch zu x T Ax > 0 für alle x 0 Der Zusammenhang zwischen positiver Definitheit und Determinanten von Untermatrizen ist Gegenstand des folgenden Satzes Er stellt ein wichtiges Kriterium zum Überprüfen der positiven Definitheit ohne Eigenwertberechnung dar Satz 436 Hauptminorenkriterium Eine symmetrische Matrix A = (a ij ) R n n ist genau dann positiv definit, wenn ihre Hauptminoren a a k a k a kk für k =,,n positiv sind 263

Beweis: Siehe Literatur Bemerkung 437 Ein ähnliches Kriterium für Semidefinitheit anzugeben ist nicht so einfach, man muss dann alle quadratischen Untermatrizen einbeziehen und nicht nur die Hauptminoren Beispiel 438 Betrachte die Matrix A = 2 3 2 4 3 4 9 Es gilt für die Hauptminoren von A det(2) = 2 > 0, 2 2 = 4 = 3 > 0, 2 3 2 4 3 4 9 Sarrus = 36 + 2 + 2 8 32 9 = > 0 Nach Satz 436 folgt, dass A positiv definit ist Analog zu Quadratwurzeln aus nichtnegativen Zahlen lassen sich auch Wurzeln aus einer positiv semidefiniten Matrix definieren Satz 439 Wurzel einer positiv semidefiniten Matrix Es sei A R n n symmetrisch positiv semidefinit Dann existiert eine symmetrisch positiv semidefinite Matrix B R n n mit B 2 = A Beweis: Es seien λ,, λ n die Eigenwerte von A und v,,v n die zugehörigen normierten Eigenvektoren Dann gilt mit Q = (v v n) und Λ = diag(λ i), dass A = QΛQ T, Satz 423 Setze nun Λ /2 := diag( λ i) und B := QΛ /2 Q T Dann folgt B 2 = QΛ /2 Q T QΛ /2 Q T = QΛ /2 Λ /2 Q T = QΛQ T = A {z } I Positiv und negativ definite Matrizen spielen eine wichtige Rolle beim Nachweis von Minima und Maxima von Funktionen mehrerer Variablen, siehe Kapitel 5 Die nächste Fragestellung betrifft die Existenz oberer und unterer Schranken für Werte quadratischer Formen Definition 430 Rayleigh Quotient Es seien A R n n symmetrisch und x R n mit x 0 Dann nennt man den Rayleigh Quotienten R A (x) := R(x) := xt Ax x T x Der Rayleigh Quotient lässt sich durch die Eigenwerte von A abschätzen Satz 43 Rayleigh Prinzip Es sei A R n n symmetrisch mit den Eigenwerten λ λ n und zugehörigen orthonormierten Eigenvektoren v,,v n Dann gelten: Rayleigh?? 264

i) λ n R(x) λ, ii) Diese Grenzen werden tatsächlich angenommen λ = max R(x), λ n = min R(x) x R n,x 0 x R n,x 0 Beweis: i): Sei x R n beliebig Dann lässt sich x als Linearkombination der Eigenvektoren von A darstellen x = P n i= xivi Daraus folgt xt x = P n i= x2 i Analog zum Beweis von Satz 435 ist außerdem x T Ax = P n i= λix2 i Damit lässt sich der Rayleigh Quotient wie folgt darstellen P n i= R(x) = λix2 i P n i= x2 i Man erhält unmittelbar R(x) P n i= λx2 i P n i= x2 i = λ, R(x) P n i= λnx2 i P n i= x2 i = λ n ii): Setzt man x = v k, so folgt R(v k ) = vt k Av k v T k v k = vt k λ k v k v T k v k = λ k Insbesondere sind R(v ) = λ und R(v n) = λ n 265

Kapitel 44 Quadriken Bemerkung 44 Motivation Quadriken, siehe Definition 432, stellen eine wichtige Klasse geometrischer Objekte dar Diese besitzen unter anderem Anwendungen in der Computergraphik und der Physik Oft kann man aber aus der angegebenen Form einer Quadrik deren Gestalt nicht unmittelbar erkennen Ziel ist es, eine gegebene Quadrik auf einfache Form transformieren, sodass sich ihre geometrische Gestalt unmittelbar ablesen lässt Bemerkung 442 Grundlegende Verfahrensweise Gegeben sei eine Quadrik q(x) = x T Ax + b T x + c = 0 mit A R n n symmetrisch, x,b R n, c R Schritt : Elimination der gemischten quadratischen Terme Hierzu wird das Koordinatensystem so gedreht, dass A in eine Diagonalmatrix übergeht Dazu berechnet man die Eigenwerte λ i von A und eine Orthonormalbasis {v, v n } aus Eigenvektoren mit det(v,,v n ) = Ist det(v,,v n ) =, ersetzt man etwa v durch v Mit Q = (v v n ) gilt dann Aus x T Ax + b T x + c = 0 folgt Λ = diag(λ i ) = Q T AQ x T QΛQ T x + b T QQ T x + c = 0 }{{} =I Mit y := Q T x, b := Q T b ergibt sich daher y T Λy+ b T y +c = 0 beziehungsweise ausgeschrieben λ y 2 + + λ ny 2 n + b y + + b n y n + c = 0 Die gemischten quadratischen Terme sind eliminiert Schritt 2: Elimination linearer Terme (soweit möglich) Durch Translation des Koordinatensystems kann erreicht werden, dass λ k y 2 k und b k y k nicht zugleich vorkommen für jedes k =,,n 266

Es sei dazu obda λ i 0 für i =,,r sowie λ r+ = = λ n = 0 Für i =,,r wird der lineare Term b i y i durch die quadratische Ergänzung eliminiert z i := y i + b i 2λ i i =,, r, z i := y i i = r +,,n Damit erhält man λ z 2 + + λ r z 2 r + b r+ z r+ + + b n z n + c = 0 mit c = c r i= b 2 i /(4λ i) und r = rg(a) Schritt 3: Elimination der Konstanten (falls möglich) Ist einer der Koeffizienten br+,, b n ungleich Null, obda sei dies b n, so kann c eliminiert werden durch z n z n c bn Das ist ebenfalls eine Translation des Koordinatensystems, zum Beispiel Resultat: Normalformen der Quadrik Das ist eine Darstellung in Koordinatensystem, in dem möglichst viele Koeffizienten verschwinden Für rg(a) = n = r erhält man λ z 2 + + λ nz 2 n + d = 0 Ist r < n ergibt sich eine der beiden folgenden Normalformen Beispiel 443 Die Quadrik λ z 2 + + λ r z 2 r + e r+ z r+ + + e n z n = 0, λ z 2 + + λ rz 2 r + d = 0 q(x) = 5x 2 4x x 2 + 8x 2 2 + 20 5 x 80 5 x 2 + 4 = 0 soll auf Normalform gebracht werden Es ist ( 5 2 q(x) = x T Ax + b T x + c = 0 mit A = 2 8 ), b = 20 5 ( 4 ), c = 4 267

Hauptachsentransformation von A Man berechnet zuerst die Eigenwerte und Eigenvektoren von A Für die Eigenwerte gilt 0 = det(a λi) = (5 λ)(8 λ) 4 = λ 2 3λ + 36 = λ = 9, λ 2 = 4 Dann berechnet man Eigenvektoren durch die Lösung der singulären homogenen Systeme Man erhält Q = ( ) 2, det Q = 5 2 Mit Λ = Q T AQ = diag(9, 4) und b = Q T b = ( 36, 8) T ergibt sich für y = Q T x 9y 2 + 4y2 2 36y + 8y 2 + 4 = 0 Elimination linearer Terme Quadratische Ergänzung ergibt 9 ( y 2 4y + 4 ) + 4 ( y 2 2 + 2y 2 + ) = 4 + 36 + 4 Mit z = y 2 und z 2 = y 2 + erhält man 9z 2 + 4z 2 2 = 36 = z2 4 + z2 2 9 = Das ist eine Ellipse mit den Halbachsen 2 und 3, siehe auch Abbildung 44 4 3 y 2 K2 K 0 2 x Abbildung 44: Originallage der Quadrik von Beispiel 443 Bemerkung 444 Normalformen der Quadriken im R 2, Kegelschnitte Fall rg(a) = 2, das heißt alle Eigenwerte von A sind ungleich Null i) Ellipse x 2 a 2 + y2 b 2 = 0, ii) Hyperbel x 2 a 2 y2 b 2 = 0, iii) leere Menge x 2 a 2 + y2 b 2 + = 0, 268

Abbildung 442: Ellipse (links) und Hyperbel (rechts) iv) Punkt (0, 0) T x 2 + a 2 y 2 = 0, a 0, v) Geradenpaar x 2 a 2 y 2 = 0, a 0 = y = ± a x Abbildung 443: Geradenpaar 2Fall rg(a) =, das heißt, ein Eigenwert von A ist Null i) Parabel x 2 2py = 0, 9 8 7 6 5 y 4 3 2 K6 K4 K2 0 2 4 6 x K4 K3 K2 K 2 3 4 K x y K2 K3 K4 K5 K6 K7 K8 K9 K0 ii) parallele Geraden Abbildung 444: Parabeln x 2 a 2 = 0, a 0 = x = ±a, iii) leere Menge x 2 + a 2 = 0, a 0, 269

iv) Doppelgerade x = 0 (y Achse) x 2 = 0 3Fall rg(a) = 0, das heißt beide Eigenwerte von A sind Null i) Gerade b x + b 2 y + c = 0 Bemerkung 445 Normalformen der Quadriken im R 3 Fall rg(a) = 3, das heißt alle Eigenwerte von A sind ungleich Null i) Ellipsoid x 2 a 2 + y2 b 2 + z2 c 2 = 0, ii) leere Menge iii) einschaliges Hyperboloid x 2 a 2 + y2 b 2 + z2 c 2 + = 0, x 2 a 2 + y2 b 2 z2 c 2 = 0 Betrachtet man den Schnitt dieses Körpers mit Ebenen, so erhält man eine Ellipse in einer Ebene (x y Ebene) und Hyperbeln in zwei Ebenen (x z, y z Ebene) Abbildung 445: Ellipsoid (links) und einschaliges Hyperboloid (rechts) iv) zweischaliges Hyperboloid x 2 a 2 + y2 b 2 z2 c 2 + = 0 Auch hier erhält man beim Schneiden mit Ebenen eine Ellipse in einer Ebene (x y Ebene) und Hyperbeln mit zwei Ebenen (x z, y z Ebene) v) Punkt (0, 0, 0) T x 2 a 2 + y2 b 2 + z2 c 2 = 0, 270

Abbildung 446: zweischaliges Hyperboloid (links) und elliptischer Kegel (rechts) vi) elliptischer Kegel x 2 a 2 + y2 b 2 z2 c 2 = 0 2Fall rg(a) = 2, das bedeutet ein Eigenwert ist gleich Null i) elliptisches Paraboloid x 2 a 2 + y2 2pz = 0 b2 Der Schnitt mit einer Ebene ist eine Ellipse (x y Ebene) und der Schnitt mit zwei Ebenen sind Parabeln (x z, y z Ebene) ii) hyperbolisches Paraboloid, Sattelfläche x 2 a 2 y2 2pz = 0 b2 Der Schnitt mit einer Ebene ist eine Hyperbel (x y Ebene) und der Schnitt mit zwei Ebenen sind Parabeln (x z, y z Ebene) iii) leere Menge x 2 a 2 + y2 b 2 + = 0, iv) elliptischer Zylinder v) hyperbolischer Zylinder vi) Gerade (z Achse) x 2 a 2 + y2 b 2 = 0, x 2 a 2 y2 b 2 + = 0, x 2 a 2 + y2 b 2 = 0, vii) Ebenenpaar mit Schnittgerade (z Achse) x 2 a 2 y2 b 2 = 0, 27

Abbildung 447: elliptisches Paraboloid (links) und hyperbolisches Paraboloid (rechts) Abbildung 448: elliptischer Zylinder (links) und hyperbolischer Zylinder (rechts) 3Fall rg(a) =, also zwei Eigenwerte von A sind Null i) parabolischer Zylinder x 2 2pz = 0, ii) paralleles Ebenenpaar iii) leere Menge iv) Ebene (y z Ebene) x 2 a 2 = 0, a 0, x 2 + a 2 = 0, a 0, x 2 = 0 4Fall rg(a) = 0, das bedeutet, A ist die Nullmatrix Dann erhält man die allgemeine Ebenengleichung b x + b 2 y + b 3 z + c = 0 272

Abbildung 449: Ebenenpaar mit Schnittgerade (links) und parabolischer Zylinder (rechts) 273

Kapitel 45 Matrixnormen und Eigenwertabschätzungen Bemerkung 45 Motivation Matrixnormen sind ein wichtiges Hilfsmittel zur Beschreibung von Eigenschaften von Matrizen, die zum Beispiel in numerischen Verfahren wichtig sind Insbesondere kann man mit Hilfe von Matrixnormen die Eigenwerte einer Matrix mit geringem Aufwand abschätzen Definition 452 Matrixnorm Unter einer Matrixnorm versteht man eine Funktion : R m n R mit folgenden Eigenschaften: ) A 0 für alle A R m n und A = 0 genau dann wenn A = 0, 2) λa = λ A für alle A R m n und λ R, 3) Dreiecksungleichung: A + B A + B für alle A, B R m n, 4) Submultiplikativität: AB A B für alle A, B R n n Beispiel 453 Sei A R m n Gesamtnorm: nur definiert falls m = n ist, 2 Zeilensummennorm: 3 Spaltensummennorm: 4 Frobenius Norm 5 Spektralnorm A G := n max a ij, i,j=,,n A := max A := max i=,,m j= j=,,n i= m n A F := A 2 := i= j= n a ij, m a ij, a 2 ij /2 λ max (A T A),, wobei λ max ( A T A ) der größte Eigenwert von A T A ist, Ferdinand Georg Frobenius (849 97) 274

6 Maximumsnorm: A M := max a ij, j=,,m;j=,,n ist eine Norm, erfüllt also die Eigenschaften ) 3), ist aber nicht submultiplikativ Es gibt Matrixnormen, die direkt etwas mit bekannten Vektornormen, siehe Beispiel 64 zu tun haben Definition 454 Induzierte Matrixnorm Sei A R m n Die durch die l p Vektornorm induzierte Matrixnorm ist gegeben durch A p := Ax p max = max x R n,x 0 x Ax p p x p = Beispiel 455 Es gelten: Die Betragssummen Vektornorm induziert die Spaltensummennorm 2 Die euklidische Vektornorm induziert die Spektralnorm 3 Die Maximums Vektornorm induziert die Zeilensummennorm Oft muss man die Norm von Matrix Vektor Produkten abschätzen Dafür braucht man die folgende Eigenschaft Definition 456 Kompatibilität, Verträglichkeit von Normen Eine Matrixnorm m heißt kompatibel (verträglich) mit einer Vektornorm v, falls gilt Ax v A m x v für alle A R m n und für alle x R n Beispiel 457 Zu den l p Vektornormen ( n ) /p x p := x i p, p [, ); x := max x i, i=,,n i= bestehen folgende Verträglichkeiten: A G, A sind kompatibel zur Betragssummennorm x, 2 A G, A F, A 2 sind kompatibel zur euklidischen Norm x 2, 3 A G, A sind kompatibel zur Maximumsnorm x Die Beweis der Verträglichkeit einer Vektornorm mit ihrer induzierten Matrixnorm ist Übungsaufgabe Man kann zeigen, dass die induzierte Matrixnorm die kleinste aller Matrixnormen ist, die zu einer gegebenen Vektornorm verträglich ist Hier wird nur die Kompatibilität von A G und x gezeigt Sei A R n n, dann gilt { } { n n } Ax = max a ik x k max a ik x k i=,,n i=,,n k= k= { } max n max a is max x l i=,,n s=,,n l=,,n = n max i,s=,,n a is max l=,,n x l = A G x 275

Matrixnormen sind nützlich zur Abschätzung von Eigenwerten Satz 458 Eigenwertabschätzung mit Matrixnormen Sind λ ein Eigenwert von A R n n und A eine beliebige, zu einer Vektornorm kompatible Matrixnorm, so gilt λ A Beweis: Sei v ein Eigenvektor zu λ Dann gilt λ v = λv = Av A v Da v 0, gilt v > 0 Damit folgt λ A Beispiel 459 Betrachte Dann sind A = 0 0 0 2 04 02 0 3 A G = 3 max ij = 3 3 = 9, i,j=,2,3 A = max{2, 24, 32} = 32, A = max{2, 2, 35} = 35, A F = 2 + 0 2 + ( 0) 2 + 2 2 + 04 2 + ( 02) 2 + 3 2 = 422 377 A liefert die schärfste Abschätzung: λ 32 Tatsächlich gilt λ 30060, λ 2 20078, λ 3 09862 Offenbar erlaubt Satz 458 nur die Abschätzung des betragsgrößten Eigenwertes Es gibt auch Abschätzungen für alle Eigenwerte Satz 450 Satz von Gerschgorin 2 Sei A = (a ij ) R n n i) Die Vereinigung aller Kreisscheiben K i := µ C n µ a ii a ik k=,k i enthält alle Eigenwerte von A ii) Jede Zusammenhangskomponente aus m solchen Kreisen enthält genau m Eigenwerte, wobei die Vielfachheit mitgezählt wird Beweis: Siehe Literatur Beispiel 45 Betrachte wie im Beispiel 459 0 0 A = 0 2 04 02 0 3 2 Semjon Aranowitsch Gerschgorin (90 933) 276

Dann sind die Gerschgorin Kreise durch K = {µ C µ 02}, K 2 = {µ C µ 2 04}, K 3 = {µ C µ 3 02} gegeben Sämtliche Eigenwerte liegen in K K 2 K 3 Da sich K, K 2, K 3 nicht überlappen, liegt nach Satz 450, ii) in jeder der Kreisscheiben genau ein Eigenwert Aus den Gerschgorin Kreisen folgt, dass A invertierbar ist, da 0 K K 2 K 3 Demzufolge ist Null kein Eigenwert Folgerung 452 Invertierbarkeit strikt diagonal dominanter Matrizen Sei A R n n strikt diagonal dominant, das heißt a ii > für alle i =,,n, so ist A invertierbar n k=,k i a ik Beweis: Nach dem Satz von Gerschgorin liegt Null außerhalb der Gerschgorin Kreise, kann also kein Eigenwert sein 277

Kapitel 46 Klassische Iterationsverfahren zur Lösung linearer Gleichungssysteme Bemerkung 46 Motivation Direkte Lösungsverfahren für ein lineares System Ax = b, A R n n,x,b R n, (46) sind für große n recht teuer So kostet das in Kapitel 35 vorgestellte Gaußsche Verfahren O(n 3 ) Rechenoperationen In Anwendungen ist n oft in der Größenordnung von 0 5 0 8 Darüber hinaus besitzen die Matrizen in Anwendungen oft viele Nullen, die man nicht abspeichern muss Diese Matrizen nennt man schwach besetzt Das Besetztheitsmuster solcher Matrizen wird bei direkten Verfahren im allgemeinen zerstört, das heißt, es werden viele neue Nichtnullelemente erzeugt Eine Alternative zu direkten Verfahren sind iterative Verfahren zur Lösung von (46) In diesem Abschnitt werden die einfachsten dieser Verfahren vorgestellt 46 Allgemeine Theorie Bemerkung 462 Fixpunktiteration Die Konstruktion klassischer Iterationsverfahren zur Lösung von (46) startet mit der Zerlegung der Systemmatrix A = M N, M, N R n n, M ist regulär (462) Mit Hilfe dieser Zerlegung, kann man (46) in eine Fixpunktgleichung umformen Mx = b + Nx x = M (b + Nx) (463) Ist eine Anfangsiterierte x (0) R n gegeben, kann man nun (463) mit Hilfe der Fixpunktiteration x (k+) = M ( b + Nx (k)), k = 0,, 2, (464) zu lösen Der Banachsche Fixpunktsatz liefert eine Aussage über die Konvergenz dieser Iteration Der Banachsche Fixpunktsatz in R ist in Satz 243 formuliert Hier wird eine allgemeine Variante in vollständigen metrischen Räumen angegeben 278

Satz 463 Banachscher Fixpunktsatz für vollständige metrische Räume Seien (X, d) ein vollständiger metrischer Raum und f : X X eine kontraktive Abbildung, das heißt f ist Lipschitz stetig mit einer Lipschitz Konstanten L < Dann besitzt die Gleichung x = f (x) eine eindeutige Lösung x X, einen sogenannten Fixpunkt Das Iterationsverfahren ( x (k+) = f x (k)), k = 0,, 2, konvergiert für jede Anfangsinterierte x (0) gegen x Beweis: Ähnlich wie Satz 243, siehe Literatur Diese Aussage soll jetzt auf (464) angewandt werden Dazu wird der Begriff des Spektralradius gebraucht Definition 464 Spektralradius Sei A R n n Der Spektralradius von A ist definiert durch ρ (A) = max{ λ : λ ist Eigenwert von A} Lemma 465 Sei A R n n Dann gilt für jede induzierte Matrixnorm ρ (A) A Beweis: Die Aussage folgt direkt aus Satz 458 Lemma 466 Seien A R n n und ein beliebiges ε > 0 gegeben Dann gibt es eine Vektornorm so, dass für die induzierte Matrixnorm gilt Beweis: Siehe Literatur ρ (A) A ρ (A) + ε Satz 467 Notwendige und hinreichende Bedingung für Konvergenz der Fixpunktiteration Das Iterationsverfahren (464) konvergiert gegen die Lösung x von (46) für jede Anfangsiterierte x (0) genau dann, wenn der Spektralradius der Iterationsmatrix G = M N kleiner als ist: ρ (G) < Beweis: i) Die Iteration (464) ist eine Fixpunktiteration mit f : R n R n, x M Nx + M b Die Matrizenmultiplikation (mit G = M N) und Vektoraddition (mit M b) sind stetig und sogar differenzierbar Damit ist die Abbildung f(x) Lipschitz stetig Sei G zunächst irgendeine Matrixnorm Auch im Mehrdimensionalen ist die Ableitung eines linearen Polynoms der Term vor dem linearen Faktor, siehe Kapitel 49 In Analogie zu Satz 24 erhält man die Lipschitz Konstante bezüglich durch L = sup x R n G = G ii) Sei ρ(g) < Dann kann man ε > 0 so wählen, dass ρ(g) + ε < Außerdem gibt es eine Matrixnorm gemäß Lemma 466, so dass G ρ(g) + ε < gilt Somit folgt L < und f (x) ist eine kontraktive Abbildung iii) Man konstruiert eine Startiterierte, für die man die Divergenz zeigt Das ist etwas aufwändig, siehe Literatur 279

462 Beispiele für klassische Iterationsverfahren Klassische Iterationsverfahren nutzen eine Zerlegung der Matrix A der Gestalt A = D + L + U, wobe D die Diagonle von A ist, L der strikte unter Dreiecksteil und U der strikte obere Dreiecksteil Beispiel 468 Das Jacobi Verfahren Man erhält das Jacobi Verfahren, indem man M = D, N = (L + U) setzt Das ist natürlich nur möglich, wenn auf der Hauptdiagonalen von A keine Nullen stehen Eine direkte Rechung ergibt, dass in diesem Fall die Fixpunktgleichung (463) die Gestalt x = D (b (L + U)x) = x + D (b Ax) besitzt Man erhält das folgende Iterationsverfahren, das sogenannte Jacobi Verfahren, x (k+) = x (k) + D ( b Ax (k)), k = 0,, 2, Die Iterationsmatrix ist G Jac = D (L + U) = I D A Beispiel 469 Gedämpftes Jacobi Verfahren Sei ω R, ω > 0 Die Matrizen, welche die Fixpunktgleichung für das gedämpfte Jacobi Verfahren definieren, sind durch M = ω D, N = ω D A gegeben Das gedämpfte Jacobi Verfahren besitzt die Gestalt und seine Iterationsmatrix ist x (k+) = x (k) + ωd ( b Ax (k)), k = 0,, 2, G djac = I ωd A Beispiel 460 Gauß Seidel Verfahren Im Gauß Seidel Verfahren ist die invertierbare Matrix M eine Dreiecksmatrix M = D + L, N = U Auch hier muss man voraussetzen, dass die Hauptdiagonale von A keine Nullen besitzt Es folgt x (k+) = (D + L) ( b Ux (k)), k = 0,, 2,, so dass die Iterationsmatrix die Gestalt Philipp Ludwig von Seidel (82 896) G GS = (D + L) U = I (D + L) A 280

besitzt Multipliziert man die Gleichung des Gauß Seidel Verfahrens mit (D + L) und ordnet die Terme entsprechend an, so erhält man eine gebräuchlichere Form dieses Verfahrens x (k+) = D ( b Lx (k+) Ux (k)) = x (k) + D ( b Lx (k+) (D + U)x (k)), k = 0,, 2, Schreibt man diese Iteration in Komponentenschreibweise, so sieht man, dass man die rechte Seite auswerten kann obwohl dort bereits die neue Iterierte auftaucht, da nur die bereits berechneten Werte der neuen Iterierten für die Auswertung benötigt werden x (k+) i = x (k) i + a ii i b i j= a ij x (k+) j n j=i a ij x (k) j, i =,,n, k = 0,, 2, Beispiel 46 SOR Verfahren Die Matrizen, die das (Vorwärts ) SOR Verfahren (successive over relaxation, nacheinander folgende Entspannung = Gegenteil von Dämpfung) definieren, sind durch M = ω D + L, N = ω D (D + U), gegeben, wobei ω R, ω > 0, ist Dieses Verfahren kann in der Gestalt x (k+) = x (k) + ωd ( b Lx (k+) (D + U)x (k)), k = 0,, 2, geschrieben werden Für ω = erhält man das Gauß Seidel Verfahren Die Iterationsmatrix des SOR Verfahrens besitzt die Gestalt G SOR (ω) = ( ω D + L ) ( ω D (D + U) ) = ω (D + ωl) ( ω D (D + U) ) = (D + ωl) (( ω)d ωu) = I (D + ωl) (ωu ( ω)d + D + ωl) = I ω(d + ωl) A = I (ω D + L) A Beispiel 462 SSOR Verfahren Im SOR Verfahren kann man die Rollen von L und U vertauschen und erhält eine Rückwärts SOR Verfahren x (k+) = x (k) + ωd ( b Ux (k+) (D + L)x (k)), k = 0,, 2, Dieses Verfahren berechnet die Komponenten der neuen Iterierten in umgekehrter Reihenfolge wie das SOR Verfahren Das Vorwärts und das Rückwärts SOR Verfahren verhalten sich im allgemeinen unterschiedlich Es gibt Beispiele, in denen das eine effizienter als das andere ist Man weiß aber im allgemeinen vorher nicht, welche Variante die bessere ist Das SSOR Verfahren (symmetric SOR) kombiniert beide Methoden Ein Iterationsschritt des SSOR Verfahrens besteht aus zwei Teilschritten, einem Vorwärts SOR Schritt und einem Rückwärts SOR Schritt x (k+/2) = x (k) + ωd ( b Lx (k+/2) (D + U)x (k)) x (k+) = x (k+/2) + ωd ( b Ux (k+) (D + L)x (k+/2)), k = 0,, 2, 28

463 Einige Konvergenzaussagen Satz 463 Konvergenz für stark diagonal dominante Matrizen Sei A R n n eine stark diagonal dominante Matrix, das heißt a ii > n j=,j i a ij, für alle i =,,n Dann konvergieren das Jacobi Verfahren und das Gauß Seidel Verfahren für jede Anfangsiterierte x (0) R n Beweis: Gemäß Satz 467 hat man zu zeigen, dass der Spektralradius der jeweiligen Iterationsmatrix kleiner als Eins ist Jacobi Verfahren Sei z R n,z 0 Dann gilt Es folgt (G Jacz) i = ` D (L + U)z a ii nx j=,j i a ij {z } < a ii Nun erhält man mit Lemma 465 G Jac = max = i z < z i=,,n ρ(g Jac) G Jac = nx a ijz j a ii j=,j i (G Jacz) i < z Gz max < z R n,z 0 z nx a ii j=,j i Gauß Seidel Verfahren Siehe Literatur Als nächstes wird das gedämpfte Jacobi Verfahren betrachtet a ij z j Lemma 464 Jacobi und gedämpftes Jacobi Verfahren Sei ω > 0 Dann ist λ C ein Eigenwert von G Jac genau dann, wenn µ = ω + ωλ ein Eigenwert von G djac ist Beweis: Es ist G djac = I ωd A = I ωd D ω D (L + U) = ( ω)i + ωg Jac {z } G Jac Damit folgt für den Eigenwert λ von G Jac und eine zugehörigen Eigenvektor v G djac v = ˆ ( ω)i + ωg Jac v = ( ω)v + ωgjacv = ( ω)v + ωλv = ( ω + ωλ)v Bemerkung 465 Das Lemma besagt, dass bei einer geeignete Wahl des Dämpfungsfaktors ω unter Umständen die Möglichkeit besteht, dass das gedämpfte Jacobi Verfahren für jede Anfangsiterierte konvergiert währenddessen dies für das Jacobi Verfahren nicht der Fall ist, Übungsaufgabe Nun betrachten wir das SOR Verfahren Lemma 466 Lemma von Kahan 2 Falls das SOR Verfahren für jede Anfangsiterierte x (0) R n konvergiert, so ist ω (0, 2) 2 William M Kahan, geboren 933 282

Beweis: Seien λ,, λ n C die Eigenwerte von G SOR (ω) Es ist ny i= Somit gilt λ i Bem 47 = det `G SOR (ω) = det `(D + ωl) (( ω)d ωu) 0 B = det @ (D + ωl) C B C A det @(( ω)d ωu) A {z } {z } untere Dreiecksmatrix obere Dreiecksmatrix = det `D ( ω) n det (D) = ( ω) n ny λ i = ω n i= Es gibt also wenigstens einen Eigenwert λ i mit λ i ω, woraus ρ(g SOR (ω)) ω folgt Die Anwendung von Satz 467 liefert nun, dass das SOR Verfahren nicht für alle Anfangsiterierten konvergieren kann falls ω (0,2) Die Umkehrung des Lemmas von Kahan gilt im Falle, dass A eine symmetrisch, positiv definite Matrix ist Satz 467 Sei A R n n symmetrisch und positiv definit Dann konvergiert das SOR Verfahren für alle Anfangsiterierten x (0) R n falls ω (0, 2) Beweis: Etwas länglich, siehe Literatur Bemerkung 468 Zur Wahl eines optimalen Parameters ω im SOR Verfahren benötigt man Informationen über die Eigenwerte von A Wie man diese erhält, wird im Kapitel 47 behandelt Bemerkung 469 Bei klassischen Iterationsverfahren hat man im wesentlichen Matrix Vektor Produkte zu berechnen Man wird sie vor allem anwenden, wenn diese Produkte billig sind, das heißt wenn viele Matrixeinträge Null sind (schwach besetzte Matrizen) Man stellt allerdings fest, dass die Anzahl der Iterationen sich proportional zur Konditionszahl 0 κ (A) = A A verhält In vielen Anwendungen erhält man aber Matrizen mit hoher Konditionszahl Wenn man versucht, in diesen Anwendungen genauere Ergebnisse zu berechnen, erhöht man die Anzahl der Unbekannten Man stellt dann fest, dass sich die Konditionszahl der System quadratisch mit der Anzahl der Unbekannten erhöht Das bedeutet, die Anzahl der benötigten Iterationen erhöht sich auch quadratisch Man erhält sehr ineffiziente Verfahren Deshalb ist der Einsatzbereich klassischer Iterationsverfahren ziemlich beschränkt Es gibt jedoch wesentlich bessere iterative Verfahren zur Lösung linearer Gleichungssysteme (Spezialvorlesung) 283

Kapitel 47 Numerische Berechnung von Eigenwerten und Eigenvektoren Bemerkung 47 Eigenwertberechnung über das charakteristische Polynom Die Verwendung des charakteristischen Polynoms zur Berechnung der Eigenwerte von A R n n besitzt in der Praxis entscheidende Nachteile Zuerst müssen die Koeffizienten des Polynoms berechnet werden Das ist für große n aufwändig Desweiteren hängen die Nullstellen oft sensibel von den Koeffizienten des charakteristischen Polynoms ab Das Problem ist also schlecht konditioniert, das heißt kleine Fehler in den Daten führen zu großen Fehlern im Ergebnis Kleine Fehler in den Daten hat man immer, da reelle Zahlen gerundet werden müssen, bevor sie vom Computer dargestellt werden können Insgesamt ist das charakteristische Polynom zur numerischen Berechnung von Eigenwerten einer Matrix nicht brauchbar 47 Die Potenzmethode Bemerkung 472 Potenzmethode, Vektoriteration Die Potenzmethode oder Vektoriteration ist ein Verfahren zur Berechnung des betragsgrößten Eigenwertes und eines zugehörigen Eigenvektors einer Matrix A Dieses Verfahren geht auf von Mises zurück Es liefert das Grundkonzept für die Entwicklung weiterer Verfahren zur Berechnung von Eigenwerten und vektoren Bemerkung 473 Grundidee Der Einfachheit halber werden für die Konvergenzanalyse einige Annahmen gemacht Die Matrix A R n n sei diagonalisierbar, das heißt es existiert eine Basis aus Eigenvektoren v,,v n C n mit v i 2 =, i =,,n Weiter gelte für die Eigenwerte λ > λ 2 λ n, das heißt, der betragsgrößte Eigenwert soll einfach sein Da λ damit eine einfache Nullstelle des charakteristischen Polynoms ist, welches nur reelle Koeffizienten besitzt, gilt damit λ R Damit besitzt die Eigenwertgleichung eine nichttriviale reelle Lösung, also v R n Richard von Mises (883 953) 284

Für die Potenzmethode benötigt man einen Startvektor x (0) R n Dieser lässt sich theoretisch als Linearkombination der Eigenvektoren darstellen x (0) = n c j v j j= Sei x (0) so gewählt, dass c 0 gilt Multipliziert man die Darstellung von x (0) mit der k ten Potenz A k von, so erhält man mit Satz 42 Damit gilt A k x (0) = x (k) := A k x (0) = λ k c v + Wegen λ j /λ < folgt n c j A k v j = j= n j=2 lim k r(k) = lim k n c j λ k j v j j= ( ) k λj ( c j v j =: λ k c v + r (k)) (47) λ n j=2 ( ) k λj c j v j = 0 λ Das bedeutet, für große k dominiert in (47) der Beitrag vom ersten Eigenwert und Eigenvektor Satz 474 Sei A R n n und erfülle A die Voraussetzungen aus Bemerkung 473 Sei x (k) R n die k te Iterierte der Potenzmethode und sei ( ) x λ (k) (k) T Ax (k) = x (k) 2 2 = ( ) x (k) T x (k+) x (k) 2 2 Dann gilt ( λ λ (k) λ 2 k) = O λ Beweis: Man betrachtet den Abstand zwischen dem Unterraum S (k) := {αx (k) : α R} und dem Eigenvektor v d S (k),v := min x v 2 = min αx (k) 2 v x S (k) α R Nun formt man (47) äquivalent um α k x (k) := λ k c x (k) = v + c r (k) (472) Wählt man in d S (k),v den Wert α = α k, so erhält man damit und der Definition von r (k) d S (k),v α k x (k) 2 v = c (k) r = O 2 Damit ist α k x (k) eine Approximation an v, also Aα k x (k) λ α k x (k) = Ax (k) λ x (k) λ 2 λ k! (473) 285

T Durch Multiplikation von links mit x (k) folgt, dass λ (k) = x (k) T Ax (k) x (k) 2 2 = x (k) T x (k+) x (k) 2 2 eine Approximation an λ ist Analog ist α k+ x (k+) k+ mit α k+ = `λ c = αk /λ eine Approximation von v Man erhält mit (472), (473) und v 2 = α k x (k) T α k x (k+) λ (k) = α k x (k) 2 = λ 2 T v + c r(k) v + c = λ v + c v 2 2 + c = λ k + O «λ 2 λ = λ r(k) 2 2 + O λ 2 λ k «= λ α k x (k) T α k+ x (k+) r(k+) α k x (k) 2 2 T r (k) v + c vt r (k+) + c 2 v 2 2 + 2c (r (k) ) T v + c 2 r (k) 2 2 + O λ2 k!! λ r (k) T r (k+) Die Gültigkeit des letzten Schrittes sieht man aus + O λ2 k!! + O λ λ2 k!! = + O λ = + O λ2 k! + O λ λ2 k!, λ λ2 λ 2k! vergleiche Definition des Landau Symbols im Kapitel 5 Durch Umstellen folgt λ λ (k) λ 2 k! = O λ Bemerkung 475 Symmetrische Matrizen Falls A eine symmetrische Matrix ist, kann man sogar ( λ λ (k) λ 2 = O 2k) λ zeigen Bemerkung 476 Skalierung der Iterierten Wendet man das bisherige Verfahren an, so gelten x (k) 2 falls λ >, x (k) 2 0 falls λ < Aus diesen Gründen ist es zweckmäßig, die Iterierten zu skalieren Damit werden starke Änderungen in der Größenordnung vermieden Die Konvergenzaussagen ändern sich durch Skalierung auch nicht, da weder der Unterraum S (k) noch die Iterierte λ (k) von einer Skalierung von x (k) abhängen 286

Algorithmus 477 Potenzmethode, Vektoriteration Seien A R n n und y (0) 0 mit y (0) 2 = gegeben Für k = 0,, berechne ỹ (k+) = Ay (k) ( λ (k) = ỹ (k+)) T y (k) y (k+) = ỹ (k+) ỹ (k+) 2 Bemerkung 478 Wählt man y (0) = x (0), so weist man mit vollständiger Induktion nach, dass y (k) = x(k) x (k) = Ak x (0) Ak 2 x (0) 2 Also liefert Algorithmus 477 bis auf Skalierung in x (k) die oben analysierten Folgen {x (k) } und {λ (k) } Die Konvergenzgeschwindigkeit der Potenzmethode hängt wesentlich vom Verhältnis von λ und λ 2 ab 472 Das Jacobi Verfahren Das Jacobi Verfahren ist ein einfaches und robustes Verfahren zur Bestimmung aller Eigenwerte und Eigenvektoren einer symmetrischen Matrix Es basiert auf folgendem Lemma Lemma 479 Seien A R n n und Q R n n eine Orthogonalmatrix, dann besitzen A und Q T AQ dieselben Eigenwerte Beweis: Es wird gezeigt, dass A und Q T AQ dasselbe charakteristische Polynom besitzen: det(q T AQ λi) = det(q T AQ λq T Q)) Also haben A und Q T AQ diesselben Eigenwerte = det(q T (A λi)q) = det(q T ) det(a λi)det(q) = det(q T Q) det(a λi) {z } I = det(a λi) Bemerkung 470 Grundidee des Jacobi Verfahrens Mit Hilfe einer Sequenz {Q k } k=,2 von orthogonalen Matrizen transformiert man A auf Diagonalgestalt Die Diagonalelemente geben die Eigenwerte an, und aus {Q k } k=,2 berechnet man die Eigenvektoren Da alle Matrizen reelle Einträge besitzen, kann das nur funktionieren, wenn alle Eigenwerte reell sind, da man bei den Matrizenmultiplikationen immer Matrizen mit reellen Einträgen als Ergebnis erhält Diese Eigenschaft ist für symmetrische Matrizen erfüllt, siehe Satz 42 287

Als orthogonale Transformationen verwendet man sogenannte Givens 2 Matrizen Das sind Rotationsmatrizen vom Typ Q k = 0 cosϕ k sin ϕ k sinϕ k cosϕ k 0 Man rechnet leicht nach, dass Q T k AQ k nur die i ten und j ten Zeilen und Spalten von A verändert Den Rotationswinkel ϕ k wählt man so, dass a ij und a ji zum Verschwinden gebracht werden Führt man dies iterativ für alle Nichtdiagonalelemente von A durch, kann man zeigen, dass das Verfahren gegen eine Diagonalmatrix konvergiert Q T k QT 2 QT AQ Q 2 Q k diag(λ,, λ n ) für k Die m te Spalte von P := Q Q 2 Q k enthält somit eine Approximation an den Eigenvektor v m zum Eigenwert λ m Da P orthogonal ist, erhält man insbesondere auch im Fall von mehrfachen Eigenwerten ein vollständiges Orthonormalsystem von Eigenvektoren Eine Gram Schmidt Orthonormierung ist daher nicht erforderlich In einem Zyklus des Jacobi Verfahrens wird jedes Nichtdiagonalelement einmal auf Null transformiert Dabei wird es im allgemeinen passieren, dass bereits vorhandene Nullen wieder verschwinden Typischerweise erhält man nach 6 8 Zyklen brauchbare Approximationen für die Eigenwerte und Eigenvektoren Die Kosten pro Zyklus betragen etwa 32n 3 Multiplikationen Das ist recht teuer Mehr Details zum Jacobi Verfahren findet man in der Literatur Bemerkung 47 Fazit Die Lösung von Eigenwertproblemen ist numerisch aufwändig In der Praxis werden wesentlich kompliziertere numerische Verfahren verwendet, als die hier vorgestellten i j 2 James Wallace Givens, Jr (90 993) 288

Teil V Mehrdimensionale Analysis 289

In diesem Teil wird die Differential und Integralrechnung von Funktionen mehrerer Veränderlicher betrachtet Dazu müssen die Konzepte aus Teil III erweitert und verallgemeinert werden Funktionen mehrerer Veränderlicher sind die natürlichen Funktionen für die Beschreibung von Naturprozessen und industriellen Prozessen 290

Kapitel 48 Stetigkeit vektorwertiger Funktionen Bemerkung 48 Motivation Vektorwertige Funktionen mehrerer Variabler treten in der Informatik zum Beispiel bei der Verarbeitung von Farbbildern auf Kontinuierliche Farbbilder lassen sich als Funktionen f : D R 3 auffassen Dabei ist D ein rechteckiger Bildbereich, und der Wertebereich beschreibt die drei Kanäle rot, grün, blau Einer vektorwertige Funktion f : D R n R m entsprechen genau m skalare Funktionen f i : D R n R, i =,,m, y = f (x) = f (x,,x n ) y = f(x) = f(x,, x n ) y m = f m (x) = f m (x,,x n ) Beispiel 482 Eine vektorwertige Funktion von R 2 nach R 3 ist beispielsweise gegeben durch f : R 2 R 3 mit ( ) x 2 y sin(xy) x f : x + cosy y e xy2 Definition 483 Stetigkeit vektorwertiger Funktionen Seien f : D R n R m und ξ D, D offen Dann heißt f(x) im Punkte ξ stetig, wenn zu jedem ε > 0 ein δ(ε) > 0 existiert mit max x i ξ i < δ = max f j(x) f j (ξ) < ε i {,,n} j {,,m} Bemerkung 484 Grenzwertdefinition Genauso wie für skalare Funktionen einer reellen Veränderlichen läßt sich die Stetigkeit auch mit Hilfe von Grenzwerten definieren Eine Funktion f : D R n R m, D offen, ist für ξ D stetig, wenn für jede Folge {x n } n N, x n D für alle n N, mit lim x n = ξ lim max x n,i ξ i = 0 n n i {,,n} 29

gilt lim f(x n) = f(ξ) lim max f j(x n ) f j (ξ) = 0 n n j {,,m} Man kann genauso gut die Euklidische Norm nehmen Im Unterschied zum Fall n =, bei welchem sich die Argumente x n nur auf einer Geraden dem Punkt ξ nähern, nämlich auf der x Achse, können sich im Fall n > die Punkte irgendwie nähern (Bild) Die Stetigkeit vektorwertiger Funktionen lässt sich direkt durch die Stetigkeit der einzelnen Komponenten untersuchen Satz 485 Die vektorwertige Funktion f : R n R m ist im Punkt ξ R n genau dann stetig, wenn jede Komponente f i : R n R, i =,,m, in ξ stetig ist Beweis: Sei zunächst f(x) in ξ stetig Dann gilt für max i {,,n} x i ξ i < δ ε > max fj(x) fj(ξ) > f k(x) f k (ξ) j {,,m} für jede Komponente f k (x) Damit ist jede Komponente stetig Sei umgekehrt jede Komponente f k (x), k =,, m, eine stetige Funktion Das heißt, zu jedem ε > 0 gibt es ein δ k (ε) > 0, so dass max i {,,n} xi ξi < δ k(ε) = f k (x) f k (ξ) < ε Setzt man δ(ε) := min k {,,m} δ k (ε), so gilt max x i ξ i < δ(ε) = max f k (x) f k (ξ) < ε i {,,n} k {,,m} Das ist die Stetigkeit von f(x) in ξ Beispiel 486 Die Funktion aus Beispiel 482 ist für alle (x, y) R 2 stetig, weil alle drei Komponenten stetige Funktionen sind Bemerkung 487 Rechenregeln für Grenzwerte Viele Rechenregeln für Grenzwerte übertragen sich von skalaren auf vektorwertige Funktionen Seien zum Beispiel f,g : D R n R m, α, β R, ξ D, dann gilt lim x ξ,x D (αf(x) + βg(x)) = α lim f(x) + β x ξ,x D lim g(x) x ξ,x D 292

Kapitel 49 Differenzierbarkeit 49 Definition und grundlegende Eigenschaften Bemerkung 49 Motivation Auch die Differenzierbarkeit von Funktionen mehrerer Veränderlicher lässt sich aus einer Eigenschaft differenzierbarer reellwertiger Funktionen einer reellen Veränderlichen motivieren Wenn eine reellwertige Funktion einer reellen Veränderlichen im Punkt ξ ihres Definitionsbereiches differenzierbar ist, kann man in diesem Punkt eine Tangente anlegen Die Tangente ist eine Gerade, also kann man die Funktion in ξ durch ein lineares Polynom (Taylor Polynom Grades, Satz 222) approximieren Auch bei der Definition der Differentiation von vektorwertigen Funktionen mehrerer Veränderlicher besteht die Grundidee darin, dass man die Funktion in einer Umgebung eines Punktes durch ein lineares Polynom approximieren kann Definition 492 Differenzierbarkeit vektorwertiger Funktionen Seien D R n offen und f : D R m Die Funktion f heißt im Punkt ξ D differenzierbar, wenn es eine lineare Abbildung M : R n R m und eine in ξ stetige Funktion r : D R m gibt, so dass f(x) = f(ξ) + M (x ξ) + r(x) x ξ 2, x D, (49) und r(ξ) = 0 gelten Man nennt M die erste Ableitung von f(x) in ξ, im Zeichen f (ξ) := M Bemerkung 493 Komponentenschreibweise Aus der linearen Algebra ist bekannt, dass sich lineare Abbildungen M : R n R m durch m n Matrizen und die Wirkung von M auf den Vektor x ξ als Matrix Vektor Produkt schreiben lassen In Komponentenschreibweise kann (49) daher mit M = (m ij ) i=,,m;j=,,n in der Form n f i (x) = f i (ξ) + m ij (x j ξ j ) + r i (x) x ξ 2, x D, i =,, m, (492) j= geschrieben werden Bemerkung 494 Eindeutigkeit von M und r(x) Es muss geklärt werden, ob M und r in (49) eindeutig bestimmt sind Seien e j der j te kartesische Einheitsvektor und t R aus einer hinreichend kleinen Umgebung von Null, so dass x = ξ + te j in D liegt Dann folgt aus (492) m ij = f i(x) f i (ξ) r i (x) x ξ 2 t 293