Kapitel 8. Lineare Gleichungssysteme III: iterative Verfahren

Ähnliche Dokumente
Numerische Mathematik für Ingenieure (SoSe 2013)

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren

Iterative Verfahren, Splittingmethoden

KAPITEL 1. Einleitung

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

38 Iterative Verfahren für lineare Gleichungssysteme

Begleitmaterial zur Vorlesung Numerik I

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische lineare Iterationsverfahren

Lineare Gleichungssysteme

Numerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens

Wiederholung von Linearer Algebra und Differentialrechnung im R n

4 Iterative Lösung Linearer Gleichungssysteme 4.1 Fixpunktiteration und Konvergenzsätze.

Iterative Lösung Linearer Gleichungssysteme

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

3. Lineare Gleichungssysteme

Numerische Lineare Algebra

Kapitel 6. Iterationsverfahren für lineare Gleichungssysteme

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

D-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch. Musterlösung 6. x A 1 b. A 1 b A 1. x A ( A. gestört: x A 1 =

KAPITEL 5. Nichtlineare Gleichungssysteme

Lineare Algebra und analytische Geometrie II

4.6 Berechnung von Eigenwerten

EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK II 1. Numerische Lineare Algebra. Prof. Dr. Hans Babovsky. Institut für Mathematik

5 Numerische Iterationsverfahren

7. Iterative Lösung. linearer Gleichungssysteme

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische Iterationsverfahren. III.3 GMRES und CG-Verfahren

Kapitel 4: Nichtlineare Nullstellenprobleme

Begleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme

Eigenwerte und Diagonalisierung

2 Lineare Gleichungssysteme

Lineare Iterationsverfahren: Definitionen

3 Lineare Differentialgleichungen

6 Eigenwerte und Eigenvektoren

Kapitel 5 Iterative Verfahren für LGS

(d) das zu Grunde liegende Problem gut konditioniert ist.

6 Hauptachsentransformation

Ziel: Iterative Lösung der (nichtlinearen) Gleichung f(x) = 0.

Lineare Gleichungssysteme

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

Nichtlineare Gleichungssysteme

Lineare Gleichungssysteme: direkte Verfahren

Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

Mathematik für Physiker, Informatiker und Ingenieure

Lineare Gleichungssysteme

Finite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015

Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf

Banach scher Fixpunktsatz. 1) D ist abgeschlossen und konvex; 2) f ist selbstabbildend, d.h. f(d) D;

8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Modulprüfung Numerische Mathematik 1

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Algorithmik kontinuierlicher Systeme

5.1 Iterative Lösung linearer Gleichungssysteme

8 Iterationsverfahren zur Lösung von Gleichungssystemen

Der CG-Algorithmus (Zusammenfassung)

Lineare Algebra und Numerische Mathematik für D-BAUG

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Numerische Mathematik für Ingenieure und Physiker

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23

Vektor und Matrixnormen Vorlesung vom

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

4.4 Hermitesche Formen

Kapitel 5. Lösung nichtlinearer Gleichungen

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

Numerik I. Universität zu Köln SS 2009 Mathematisches Institut Prof. Dr. C. Tischendorf Dr. M. Selva,

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

Institut für Geometrie und Praktische Mathematik

Nichtlineare Gleichungssysteme

Vektor und Matrixnormen Vorlesung vom

18.4 Das Newton-Verfahren

Erweiterungen der LR-Zerlegung

Newton-Verfahren für ein Skalarfunktion

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

i j m f(y )h i h j h m

Numerische Behandlung von linearen Gleichungssystemen

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

9 Lineare Gleichungssysteme

Lineare Algebra II 8. Übungsblatt

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

Skript zur Vorlesung: Einführung in die numerische Mathematik

5 Numerische Mathematik

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012)

Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen

Multiplikationen und Divisionen Hauptarbeit des Algorithmus liegt somit in der Berechnung der LR-Zerlegung. (n 1)n(2n 1) 6. = n3 3 n2.

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Ausgleichsproblem. Definition (1.0.3)

Lösungsskizze zur Wiederholungsserie

Transkript:

Kapitel 8. Lineare Gleichungssysteme III: iterative Verfahren Inhalt: 8.1 Fixpunkt-Iteration 8.2 Verfahren der konjugierten Gradienten 8.3 Anwendungsbeispiel Numerische Mathematik I 323

Kap. 8: Lineare Gleichungssysteme III: iterative Verfahren Ziel: Lösung des linearen Gleichungssystems mit regulärer Matrix A R n n, b R n. Ax = b Das Gaußsche Eliminationsverfahren erfordert bei Bandmatrizen mit der Bandbreite m den Aufwand 1 3 nm2. Für große Matrizen (n > 10 6, m > 10 2 ) sind dies bereits 10 10 Rechenoperationen. Bei vielen Aufgaben für zwei- und dreidimensionale Modelle treten Matrizen mit sehr vielen Nullen in den Matrixeinträgen auf, die keine echte Bandstruktur aufweisen. Das Gaußsche Eliminationsverfahren würde zum Auffüllen vieler dieser Stellen führen. Iterationsverfahren bestimmen die Lösung x näherungsweise und nutzen dabei die Struktur der Matrix A aus, indem sie nur auf die von Null verschiedenen Einträge der Matrix A zugreifen. Dies ermöglicht eine kompakte Speicherung dünn besetzter Matrizen (matlab sparse ) und spart Rechenoperationen. Gute iterative Verfahren haben die Komplexität O(nm), wobei m die durchschnittliche Anzahl der von Null verschiedenen Einträge pro Zeile der Matrix ist. Numerische Mathematik I 324

Allgemeine Form der Fixpunkt-Iteration 8.1 Fixpunkt-Iteration 8.1.1 Allgemeine Form der Fixpunkt-Iteration Mit einer beliebigen invertierbaren Matrix C R n n gilt die Äquivalenz Ax = b Cx = Cx Ax +b x = (I C 1 A)x +C 1 b. Man versucht C so zu wählen, dass zu gegebenem Vektor x (k) der neue Vektor mit wenig Aufwand zu berechnen ist, x (k+1) = (I C 1 A)x (k) +C 1 b die Iterationsfunktion φ : R n R n, φ(x) = (I C 1 A)x +C 1 b kontrahierend ist und eine möglichst kleine Kontraktionszahl besitzt. Zuerst betrachten wir zwei Verfahren, die wenig Aufwand zur Berechnung von x (k+1) erfordern. Numerische Mathematik I 325

Gesamtschrittverfahren (Jacobi-Verfahren) 8.1.2 Gesamtschrittverfahren (Jacobi-Verfahren) Die Matrix A habe Diagonalelemente a ii 0. 1. Wähle beliebigen Startvektor x (0) R n, z.b. x (0) i 2. Für k = 0,1,2,... = bi a ii. für i = 1,2,...,n: ( löse die i-te Gleichung nach x i ) x (k+1) i = 1 n a ii b i a ij x (k) j. j=1 j i 8.1.3 Einzelschrittverfahren (Gauß-Seidel-Verfahren) Die Matrix A habe Diagonalelemente a ii 0. 1. Wähle beliebigen Startvektor x (0) R n, z.b. x (0) i 2. Für k = 0,1,2,... = bi a ii. für i = 1,2,...,n: ( löse die i-te Gleichung nach x i ) x (k+1) i = 1 i 1 n b i a ij x (k+1) j a ij x (k) j. a ii j=1 j=i+1 Numerische Mathematik I 326

Beispiel: eindimensionales Modellproblem 8.1.4 Beispiel: eindimensionales Modellproblem Zur numerischen Lösung des Randwertproblems 2. Ordnung u (x) = f(x), x [0,1], mit u(0) = u(1) = 0 führt man die übliche Diskretisierung u (x k ) 2u(x k) u(x k 1 ) u(x k+1 ) h 2, h = 1 n+1, x k = kh, 0 k n+1, durch und löst das lineare Gleichungssystem Au = b mit der Tridiagonalmatrix 2 1. 1..... A =...... R n n 1 1 2 zur rechten Seite b k = h 2 f(x k ), 1 k n. Für spätere Zwecke halten wir fest: die Eigenwerte von A sind ( ) kπ λ k = 2 1 cos, 1 k n, n+1 und zugehörige Eigenvektoren sind ( v k = sin jkπ ). n +1 1 j n Numerische Mathematik I 327

Beispiel: eindimensionales Modellproblem Zu f(x) 1 sowie n = 4 ist die exakte Lösung u = (2,3,3,2) T. Gesamt- und Einzelschrittverfahren liefern die Werte der folgenden Tabellen. Tabelle 8.1: GSV zum 1-dim. Modellproblem, h = 1 5 x (0) x (1) x (2) x (3) x (4) x (5) x (6) x (7) x (20) 0.5000 0.7500 1.0000 1.1875 1.3438 1.4688 1.5703 1.6523 1.9779 0.5000 1.0000 1.3750 1.6875 1.9375 2.1406 2.3047 2.4375 2.9642 0.5000 1.0000 1.3750 1.6875 1.9375 2.1406 2.3047 2.4375 2.9642 0.5000 0.7500 1.0000 1.1875 1.3438 1.4688 1.5703 1.6523 1.9779 Tabelle 8.2: ESV zum 1-dim. Modellproblem, h = 1 5 x (0) x (1) x (2) x (3) x (4) x (5) x (6) x (7) x (20) 0.5000 0.7500 1.0625 1.3438 1.5664 1.7158 1.8140 1.8782 1.9995 0.5000 1.1250 1.6875 2.1328 2.4316 2.6279 2.7565 2.8406 2.9994 0.5000 1.3125 1.9219 2.2969 2.5400 2.6990 2.8030 2.8710 2.9995 0.5000 1.1563 1.4609 1.6484 1.7700 1.8495 1.9015 1.9355 1.9997 Numerische Mathematik I 328

Darstellung der Iterationsfunktion 8.1.5 Darstellung der Iterationsfunktion Die Matrix A wird in drei Teile zerlegt gemäß A = L+D +R mit 0 0 a 11 0 0 0 a 12 a 1n.. a..... L = 21 0.................., D =, R =.................. 0.... an 1,n a n1 a n,n 1 0 0 0 a nn 0 0 Proposition a) Die Iterationsfunktion des Gesamtschrittverfahrens lautet φ GSV (x) = (I D 1 A)x +D 1 b. b) Die Iterationsfunktion des Einzelschrittverfahrens lautet φ ESV (x) = (I (L+D) 1 A)x +(L +D) 1 b. Wir nennen J := (I D 1 A) = D 1 (L +R), H 1 := (I (L+D) 1 A) = (L +D) 1 R, die Iterationsmatrizen der beiden Verfahren. (Gesamtschrittverfahren) (Einzelschrittverfahren) Numerische Mathematik I 329

Konvergenz der Fixpunktiteration 8.1.6 Konvergenz der Fixpunktiteration bei beliebigem Startvektor x (0) R n Satz x (k+1) = (I C 1 A)x (k) +C 1 b (8.1.1) Die Matrizen A und C seien regulär, der Vektor x sei die eindeutige Lösung des linearen Gleichungssystems Ax = b, und B := I C 1 A bezeichne die Iterationsmatrix in (8.1.1). Dann sind die folgenden Aussagen äquivalent: (i) Die Fixpunktiteration (8.1.1) konvergiert bei beliebigem Startvektor x (0) R n gegen x. (ii) B hat den Spektralradius ρ(b) = max{ λ ; λ Eigenwert von B} < 1. (iii) Es gibt eine natürliche Matrixnorm. auf R n n mit B < 1. Numerische Mathematik I 330

Natürliche Matrixnormen Erinnerung an 2.1.2, Numerik I: 8.1.7 Natürliche Matrixnormen Die Funktion q : R n n R heißt natürliche Matrixnorm, wenn es eine Norm. auf dem R n gibt mit q(a) = max{ Ax ; x R n, x = 1}. Beispiele natürlicher Matrixnormen: a) Zeilensummennorm A, Spaltensummennorm A 1 und Spektralnorm A 2, siehe 3.3.4 und 3.3.5 (Numerik I). b) Es sei T R n n regulär. Dann ist durch x T := T 1 x, x R n, eine Norm auf R n definiert. Die zugehörige natürliche Matrixnorm ist A T := T 1 AT = max{ Ax T ; x R n, x T = 1}. Numerische Mathematik I 331

Hilfssatz zum Spektralradius von Matrizen Die Äquivalenz von 8.1.6 (ii) und(iii): 8.1.8 Hilfssatz zum Spektralradius von Matrizen Gegeben sei die Matrix B R n n mit Spektralradius ρ(b). a) Für jede natürliche Matrixnorm q : R n n R gilt ρ(b) q(b). b) Zu beliebigem ǫ > 0 existiert eine natürliche Matrixnorm q : R n n R mit q(b) ρ(b)+ǫ. Insgesamt gilt also: ρ(b) = inf{q(b) : q ist natürliche Matrixnorm auf R n n }. Bemerkung: a) In Kapitel 2 (Einführung der Spektralnorm) wurde gezeigt, dass für hermitesche Matrizen A C n n der Spektralradius und die Spektralnorm übereinstimmen: ρ(a) = A 2. b) Der Satz liefert die fundamentale Beziehung ρ(b) = limsup k wobei. eine beliebige Matrixnorm sein darf. ( B k ) 1/k, (8.1.2) Numerische Mathematik I 332

Hilfssatz zum Spektralradius von Matrizen Beweis: (a) Mit der zugehörigen Vektornorm. auf R n ist Bx = λx = λ x für jeden Eigenvektor zum betragsgrößten Eigenwert λ, also auch q(b) = B op λ. In Teil (b) wird eine reguläre Matrix T = T 1 T 2 zur Definition einer natürlichen Matrixnorm konstruiert. Hierbei dient T 1 zur Erstellung der Jordan-Normalform von B λ 1 d 1...... T 1 1 BT 1 =, λ n 1 d n 1 wobei λ 1,...,λ n die Eigenwerte von B und d 1,...,d n 1 entweder 0 oder 1 sind. Die Matrix T 2 = diag(1,ǫ,...,ǫ n 1 ) liefert eine Skalierung der Nicht-Diagonalelemente λ 1 ǫd 1...... T 1 2 T 1 1 BT 1 T 2 = λ n 1 λ n. ǫd n 1 Mit T = T 1 T 2 liefert die natürliche Matrixnorm q : R n n R, q(a) = A T, den Wert q(b) = T 1 2 T 1 1 BT 1 T 2 = max{ λ 1 +ǫd 1,..., λ n 1 +ǫd n 1, λ n } ρ(b)+ǫ. λ n Numerische Mathematik I 333

Hilfssatz zum Spektralradius von Matrizen Beweis von 8.1.6: x sei die Lösung von Ax = b, also gilt x = Bx +c. Wir setzen e (k) := x (k) x und erhalten e (k+1) = x (k+1) x = Bx (k) +c Bx c = Be (k), also e (k) = B k e (0). Daher ist (i) in Satz 8.1.6 äquivalent zur Beziehung lim k Bk y = 0 für alle y R n. (8.1.3) 1. Die Bedingung (ii) in 8.1.6 ist notwendig für (i): Falls (ii) nicht erfüllt ist, besitzt B einen Eigenwert λ C mit λ > 1. Sei w C n \{0} ein zugehöriger Eigenvektor. Dann ist B k w = λ k w = λ k w w keine Nullfolge, also konvergiert wenigstens eine der Folgen B k (Rew), B k (Imw) nicht gegen den Nullvektor. Dies widerspricht (8.1.3). 2. Die Bedingung (iii) (und damit auch (ii)) in 8.1.6 ist hinreichend für (i): Sei q eine natürliche Matrixnorm (mit zugehöriger Vektornorm. ), für die q(b) < 1 gilt. Dann folgt für alle y R n und k N also ist (8.1.3) erfüllt. B k y q(b) B k 1 y (q(b)) k y, Numerische Mathematik I 334

Satz: lineare Konvergenz der Fixpunktiteration Die Konvergenz ist i.a. linear, also von der Form O(q k ), wobei q = ρ(b) der Spektralradius von B ist: 8.1.9 Satz: lineare Konvergenz der Fixpunktiteration Falls die Fixpunktiteration (8.1.1) bei beliebigem Startwert x (0) gegen die Lösung x von Ax = b konvergiert, so gilt Bemerkung: lim sup k ( x (k) x ) 1/k ρ(b). x (0) x a) Falls L := q(b) < 1 mit einer natürlichen Matrixnorm q gilt, so ist die Iterationsfunktion φ sogar kontrahierend bzgl. der zugehörigen Vektornorm auf R n, die Kontraktionskonstante ist L. Deshalb gelten in diesem Fall sogar die a-priori und a-posteriori Fehlerabschätzungen des Banachschen Fixpunktsatzes??. Diese sollten als Abbruchkriterien verwendet werden. b) Selbst wenn q(b) 1, aber ρ(b) < 1 gilt, so wird nach einigen Schritten die lineare Konvergenz e (k) 0 mit der Geschwindigkeit ρ(b) k k0 sichtbar. Dies liegt an der fundamentalen Beziehung (8.1.2). Numerische Mathematik I 335

Satz: lineare Konvergenz der Fixpunktiteration Beweis: Aus der Voraussetzung und Satz 8.1.6 folgt ρ := ρ(b) < 1. Sei ǫ > 0 und q eine natürliche Matrixnorm mit q(b) < ρ+ǫ. Dann gilt für den Fehler e (k) = x (k) x in der zugehörigen Vektornorm Es folgt in dieser speziellen Vektornorm ( e (k) = B k e (0) q(b) k e (0) (ρ+ǫ) k e (0). lim sup k x (k) x x (0) x ) 1/k ρ+ǫ. Da auf R n alle Normen äquivalent sind, folgt für jede weitere Norm ( ) 1/k x (k) x lim sup k x (0) x ρ+ǫ. Weil ǫ > 0 beliebig gewählt werden kann, folgt die Behauptung. Numerische Mathematik I 336

Definition und Satz: GSV und ESV für stark diagonaldominante Matrizen Es folgen zwei Anwendungen von Satz 8.1.6. 8.1.10 Definition und Satz: GSV und ESV für stark diagonaldominante Matrizen Eine Matrix A R n n heißt stark diagonaldominant, falls a ii > n a ij für alle 1 i n. j=1 j i Ist A stark diagonaldominant, so gilt für die Iterationsmatrizen J und H 1 ρ(j) J < 1, ρ(h 1 ) J < 1. Numerische Mathematik I 337

Definition und Satz: GSV und ESV für stark diagonaldominante Matrizen Beweis: Die Voraussetzung liefert a ii 0 für alle i. Also sind J und H 1 wohldefiniert. Die erste Abschätzung folgt sofort aus ρ(j) J = D 1 1 (L +R) = max a ij < 1. 1 i n a ii j i Sei nun µ C ein Eigenwert von H 1 mit zugehörigem Eigenvektor w und w = 1. Dann ist µw = (D +L) 1 Rw = µ(d +L)w = Rw = µw = D 1 (µl +R)w. (8.1.4) Daraus erhalten wir µ = µw = D 1 (µl +R)w D 1 (µl +R) 1 i 1 n = max µa ij + a ij. 1 i n a ii j=1 j=i+1 (8.1.5) Die Annahme µ 1 führt zum Widerspruch 1 i 1 n µ max µa ij + µa ij < µ. 1 i n a ii j=1 j=i+1 Also gilt µ < 1 und (8.1.5) ergibt 1 i 1 n µ max a ij + a ij = J < 1. 1 i n a ii j=1 j=i+1 Numerische Mathematik I 338

Definition: Schwach diagonaldominante Matrix In der Praxis treten häufig Matrizen auf, die ein etwas schwächeres Kriterium erfüllen. 8.1.11 Definition: Schwach diagonaldominante Matrix Eine Matrix A R n n heißt schwach diagonaldominant, wenn a ii n a ij für alle 1 i n, j=1 j i und wenn mindestens ein 1 r n existiert mit a rr > n a rj. j=1 j r Numerische Mathematik I 339

Definition: Unzerlegbare Matrix Zusätzlich verlangt man eine weitere Eigenschaft: 8.1.12 Definition: Unzerlegbare Matrix Eine Matrix A R n n heißt zerlegbar, wenn es zwei nichtleere Indexmengen I,J {1,2,...,n} gibt mit und I J = {1,2,...,n}, I J =, a i,j = 0 für alle i I, j J. Mit anderen Worten: A ist zerlegbar, wenn es eine Permutationsmatrix P gibt, so dass [ ] PAP T A11 0 = A 21 A 22 gilt. Falls keine solche Zerlegung existiert, heißt A unzerlegbar oder auch irreduzibel. Die Irreduzibilität lässt sich auch so feststellen: Zu beliebigen Indizes 0 r,s n gibt es eine Kette weiterer Indizes k 1,...,k m mit a r,k1 0, a k1,k 2 0, a k2,k 3 0... a km,s 0. (8.1.6) Numerische Mathematik I 340

Satz: GSV und ESV für schwach diagonaldominante unzerlegbare Matrizen Nun lässt sich Satz 8.1.10 erweitern. 8.1.13 Satz: GSV und ESV für schwach diagonaldominante unzerlegbare Matrizen Die Matrix A R n n sei schwach diagonaldominant und unzerlegbar. Dann gilt: a) A ist regulär, b) alle Diagonalelemente a ii sind ungleich 0, c) sowohl das Gesamtschrittverfahren als auch das Einzelschrittverfahren konvergieren für jeden Startvektor x (0). Numerische Mathematik I 341

Satz: GSV und ESV für schwach diagonaldominante unzerlegbare Matrizen Beweis: Da A unzerlegbar ist, enthält A keine Nullzeile. Aus der schwachen Diagonaldominanz folgt dann a ii > 0 für alle i, und die Matrizen J und H 1 sind wohldefiniert. Wie in 8.1.10 folgt aus der schwachen Diagonaldominanz ρ(j) J 1, ρ(h 1 ) J 1. Wir müssen also nur ausschließen, dass Eigenwerte vom Betrag 1 auftreten. Angenommen, es existiert ein Eigenwert λ C von J mit λ = 1. Sei v zugehöriger Eigenvektor mit v = 1. Der Index r sei gegeben mit v r = 1. Aus λv = Jv folgt (in jeder Zeile i) v i = λv i 1 a ij v j, 1 i n. (8.1.7) a ii j i Für einen Index s liefert die schwache Diagonaldominanz sowie v j 1 v s 1 a sj < 1. a ss j s Wegen v r = 1 ist r s. Aufgrund der Unzerlegbarkeit existiert eine Kette r,k 1,...,k m,s wie in (8.1.6). Wir erhalten aus (8.1.7) den Widerspruch v km. v r 1 a km,km a km,j v j + a km,s }{{} j k m,s 0 v s < 1, 1 a rr a r,j v j + a r,k1 v k1 }{{} < 1. j r,k 1 0 Numerische Mathematik I 342

Satz: Konvergenz von ESV für positiv-definite Matrizen Für H 1 verläuft der Beweis von 8.1.13 ähnlich, siehe dazu (8.1.5). Für eine weitere Klasse von Matrizen konvergiert das Einzelschrittverfahren. 8.1.14 Satz: Konvergenz von ESV für positiv-definite Matrizen Falls A positiv definit ist, so konvergiert das Einzelschrittverfahren. Numerische Mathematik I 343

Satz: Konvergenz von ESV für positiv-definite Matrizen Beweis: Die Diagonalelemente von A erfüllen a ii > 0, also ist H 1 wohldefiniert. Wir definieren zunächst die Vektornorm x A := x T Ax und zeigen für die zugehörige Operatornorm H 1 A = max{ H 1 x A ; x A = 1} < 1. Dann ist auch ρ(h 1 ) H 1 A < 1 (Hilfssatz 8.1.8). Man beachte die Äquivalenz H 1 A < 1 x T H T 1 AH 1x < x T Ax für alle x 0 x T (A H T 1 AH 1)x > 0 für alle x 0. Mit X := (D +L) 1 und der Symmetrie von A = L+D +L T (also R = L T ) folgt und weiter A H T 1 AH 1 H 1 = XR = X(A+X 1 ) = I +XA, = A (I +XA) T A(I +XA) = A (I +AX T )A(I +XA) = A A AX T A AXA AX T AXA = (AX T A+AXA+AX T AXA) = AX T (X 1 +(X T ) 1 +A) XA }{{} = D = AX T DXA = (XA) T D(XA). Die Diagonalmatrix D ist positiv definit (wegen a ii > 0 wie oben), X und A sind regulär, also ist (XA) T D(XA) ebenfalls positiv definit (Sylvesterscher Trägheitssatz). q.e.d. Numerische Mathematik I 344

Das SOR (=successive over-relaxation)-verfahren Um die Konvergenz beim ESV zu beschleunigen, wird in jedem Berechnungsschritt (innere Schleife des ESV) eine Verlängerung der Korrektur vorgenommen: 8.1.15 Das SOR (=successive over-relaxation)-verfahren Die Matrix A habe Diagonalelemente a ii 0. Weiter sei ω R. (ω wird Relaxationsparameter genannt.) 1. Wähle beliebigen Startvektor x (0) R n, z.b. x (0) i 2. Für k = 0,1,2,... für i = 1,2,...,n x (k+1) i = 1 i 1 b i a ii j=1 a ij x (k+1) j n j=i+1 = bi a ii. a ij x (k) j x (k+1) i = ω x (k+1) i +(1 ω)x (k) i. Bemerkung: Eine entsprechende Änderung beim Gesamtschrittverfahren liefert das JOR-Verfahren; dies wird hier nicht diskutiert. Numerische Mathematik I 345

Beispiel: 8.1.16 Beispiel: Tabelle 8.3: SOR zum 1-dim. Modellproblem aus 8.1.4, h = 1 5, ω = 1.2 x (0) x (1) x (2) x (3) x (4) x (5) x (6) x (7) x (13) 0.5000 0.8000 1.2080 1.5642 1.8175 1.9148 1.9611 1.9825 1.9998 0.5000 1.2800 2.0096 2.5506 2.7971 2.9068 2.9578 2.9808 2.9998 0.5000 1.5680 2.3566 2.6945 2.8623 2.9375 2.9715 2.9871 2.9999 0.5000 1.4408 1.7258 1.8715 1.9431 1.9739 1.9881 1.9946 2.0000 Tabelle 8.4: SOR zum 1-dim. Modellproblem aus 8.1.4, h = 1 5, ω = 1.3 x (0) x (1) x (2) x (3) x (4) x (5) x (6) x (7) x (9) 0.5000 0.8250 1.2873 1.6871 1.9540 1.9889 2.0012 2.0019 2.0002 0.5000 1.3613 2.1898 2.7848 2.9617 2.9967 3.0034 3.0016 3.0002 0.5000 1.7098 2.6078 2.8878 2.9884 3.0026 3.0022 3.0011 3.0001 0.5000 1.6114 1.8617 1.9686 2.0019 2.0011 2.0011 2.0004 2.0000 Zur Wahl des optimalen Relaxationsparameters vgl.?? Numerische Mathematik I 346

Iterationsfunktion des SOR-Verfahrens 8.1.17 Iterationsfunktion des SOR-Verfahrens Mit A = L+D +R wie in 8.1.5 lautet die Iterationsfunktion des SOR-Verfahrens φ SOR (x) = H ω x +ω(d +ωl) 1 b. mit der Iterationsmatrix H ω = (D +ωl) 1 ((1 ω)d ωr). Herleitung: Umstellung der Gleichungen in 8.1.15 gibt Dies lautet a ii x (k+1) i 1 i +ω a ij x (k+1) j j=1 = ωb i ω n j=i+1 a ij x (k) j +(1 ω)a ii x (k) i. (D +ωl)x (k+1) = ωb +((1 ω)d ωr)x (k). Bemerkung: Für ω = 1 ist φ SOR = φ ESV in 8.1.5. Numerische Mathematik I 347

Satz: Konvergenzanalyse 8.1.18 Satz: Konvergenzanalyse a) von Kahan: Für beliebiges A mit Diagonalelementen a ii 0 und beliebiges ω R ist ρ(h ω ) ω 1. Die Konvergenz des SOR-Verfahrens kann also höchstens für ω (0, 2) eintreten. b) von Reich und Ostrowski: Für jede positiv definite Matrix A und jedes ω (0,2) gilt ρ(h ω ) < 1, also ist das SOR-Verfahren konvergent. Numerische Mathematik I 348

Satz: Konvergenzanalyse Beweis: a) Mit L = D 1 L und R = D 1 R schreibt man H ω um in H ω = (D +ωl) 1 ((1 ω)d ωr) = (I +ω L) 1 D 1 D ((1 ω)i ω R). }{{} = I Weil L und R strikte untere bzw. obere Dreiecksmatrizen sind, folgt deth ω = det(i +ω L) 1 det((1 ω)i ω R) = (1 ω) n. Weil deth ω gleich dem Produkt aller Eigenwerte von H ω ist, folgt ρ(h ω) 1 ω. b) Wir zeigen H ω A < 1 wie in 8.1.14. Dies ist wieder äquivalent zur positiven Definitheit der Matrix A H T ωah ω. Mit X := (D +ωl) 1 und R = A D L ist H ω = X((1 ω)d ω(a D L)) = X(D+ωL ωa) = X( X 1 ωa) = I +ωxa. Weiter ergibt sich wie in 8.1.14 A H T ω AHω = ωaxt (X 1 +(X T ) 1 +ωa) XA }{{} = (2 ω)d = ω(2 ω)ax T DXA mit der positiv definiten Matrix AX T DXA aus 8.1.14. Weil ω(2 ω) > 0 für alle ω (0,2) gilt, ist alles gezeigt. Numerische Mathematik I 349

Beispiel: 8.1.19 Beispiel: Die Modellmatrix A = tridiag( 1,2, 1) R n n in Beispiel 8.1.4 besitzt die Eigenwerte ( ) kπ λ k = 2 1 cos, 1 k n. n+1 Einfache Rechnung ergibt für J = D 1 (L +R) = 1 (2I A) die Eigenwerte 2 Mit h := 1 n+1 ist µ k = cos kπ n+1. ρ(j) = cosπh = 1 π2 h 2 +O(h 4 ), 2 ρ(h 1 ) = ρ(j) 2 = cos 2 πh = 1 π 2 h 2 +O(h 4 ), ω 1 für ω ω, ρ(h ω) = ( 1 ωρ(j)+ 2 ω 4 2 ρ(j) 2 4(ω 1)) für ω < ω. Der Wert ω = ω 2 = 1+ (1,2) liefert das Minimum 1 ρ(j) 2 ρ(h ω ) = ω 1 = 1 1 ρ(j) 2 1+ 1 ρ(j) 2 = 1 sinπh 1+sinπh = 1 2πh +O(h2 ). Dies ist eine deutliche Verbesserung der Rate der linearen Konvergenz. Numerische Mathematik I 350

Diskussion: 8.1.20 Diskussion: Die im Beispiel 8.1.19 gemachte Beobachtung trifft bei Matrizen eines speziellen Typs zu, die bei der Diskretisierung partieller Dgl n auftreten. In diesen Spezialfällen ( M-Matrizen) gilt ρ(h 1 ) = ρ(j) 2 < 1 und ρ(h ω) hat die in 8.1.19 angegebene Form. Das absolute Minimum liegt beim optimalen Relaxationsparameter 1 < ω 2 = 1+ 1 ρ(j) < 2, 2 es hat den Wert ρ(h ω ) = ω 1 = 1 1 ρ(j) 2 1+ 1 ρ(j) < 1. 2 ρ(j) ρ(h 1 ) ρ(h ω ) ω linkes Bild, s. Beispiel 8.1.16 0.809 0.6545 0.2596 1.2596 rechtes Bild 0.99 0.9801 0.7527 1.7527 1 1 0.8 0.8 0.6 0.6 0.4 0.4 0.2 0.2 ω * =1.7527 0 0 0.5 1 1.5 2 0 0 0.5 1 1.5 2 Numerische Mathematik I 351