NUMERIK GEWÖHNLICHER DIFFERENTIALGLEICHUNGEN 1. Prof. Dr. Hans Babovsky. Technische Universität Ilmenau

Ähnliche Dokumente
NUMERISCHE MATHEMATIK FÜR MATHEMATIKER III 1 (Numerik gewöhnlicher Differentialgleichungen) Prof. Dr. Hans Babovsky. Institut für Mathematik

Kurze Einführung zu Stabilität bei Differentialgleichungen und Einschrittverfahren

2. Numerische Verfahren für AWPe 2.1 Das Euler-Verfahren

Mehrschrittverfahren Ein weiterer, häufig benutzter Verfahrenstyp zur numerischen Lösung der Anfangswertaufgabe

Explizite gewöhnliche Differentialgleichung 1. Ordnung mit Anfangsbedingung

Seminar Gewöhnliche Differentialgleichungen

TU Ilmenau Institut für Mathematik Übungsaufgaben zum Lehrgebiet Numerische Mathematik III Numerik gewöhnlicher Differentialgleichungen

1. Anfangswertprobleme 1. Ordnung

5 Interpolation und Approximation

5 Randwertprobleme. y = f(t, y, y ) für t J, (5.2a) y(t 0 ) = y 0, y(t) = y T (5.2b) zu gegebener Funktion f und Werten y 0, y T.

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.

Nichtlineare Gleichungssysteme

Inexakte Newton Verfahren

5 Numerische Mathematik

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016

Differentialgleichungen

10 Stabilität und steife Systeme

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren

Nichtlineare Gleichungssysteme

2.3.1 Explizite Runge-Kutta-Verfahren

Newton-Verfahren für ein Skalarfunktion

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Einführung und Beispiele

(d) das zu Grunde liegende Problem gut konditioniert ist.

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen

Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB)

Eingebettete Runge Kutta Verfahren DOPRI5(4) Verfahren: FSAL Verfahren

( ) Dann gilt f(x) g(x) in der Nähe von x 0, das heisst. Für den Fehler r(h) dieser Näherung erhält man unter Verwendung von ( )

Dierentialgleichungen 2. Ordnung

KAPITEL 5. Nichtlineare Gleichungssysteme

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Numerische Methoden I Schriftliche Prüfung Gruppe A 23. Jan :00-14:00 (120 min)

Approximation durch Polynome

Differenzialgleichungen

Abschnitt 1.7: Schrittweitensteuerung 27

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b.

Nachklausur am Donnerstag, den 7. August 2008

Explizite Runge-Kutta-Verfahren

Parareal. Ein paralleler Lösungsalgorithmus für gewöhnliche Differentialgleichungen. Johannes Reinhardt. Parareal 1 Johannes Reinhardt

Fixpunkt-Iterationen

6. Polynom-Interpolation

Analysis von singulären Differentialgleichungen erster und zweiter Ordnung - Skalare Probleme

Ausgleichsproblem. Definition (1.0.3)

Näherungsverfahren zur Bestimmung der Nullstelle α sind iterativ, d.h. sie liefern eine Folge {x (k) } k=0 mit α = lim x (k). (3.0.

Nichtlineare Gleichungen

- Numerik in der Physik - Simulationen, DGL und Co. Max Menzel

Polynominterpolation

Finite Elemente Methode für elliptische Differentialgleichungen

Übungen zu Splines Lösungen zu Übung 20

4.7 Der Taylorsche Satz

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems

Übungen zu Meteorologische Modellierung Teil 'Grundlagen der Numerik'

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang

Übungen zu Grundlagen der Mathematik 2 Lösungen Blatt 12 SS 14. Aufgabe 44. Bestimmen Sie die Taylor-Polynome der Funktion.

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Analysis I. 4. Beispielklausur mit Lösungen

Numerische Ableitung

Nichtlineare Gleichungssysteme

(x x j ) R m [x] (3) x x j x k x j. R m [x]. (4)

x 2 y + xp(x)y + q(x)y = 0, (1) wobei p(x) = Satz: Falls ρ 1, ρ 2 R, mit ρ 1 ρ 2 so gibt es für 0 < x < R ein Fundamentalsystem von (1) der Gestalt

Das Trust-Region-Verfahren

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}

Mathematik für Anwender I. Klausur

Lösungen der Aufgaben zu Kapitel 9

9 Numerische Verfahren für Anfangswertaufgaben

NICHTRESTRINGIERTE OPTIMIERUNG

8 Polynominterpolation

Anwendungen der Differentialrechnung

Dierentialrechnung mit einer Veränderlichen

8 Extremwerte reellwertiger Funktionen

Interpolation und Integration mit Polynomen

Mathematik. für das Ingenieurstudium. 10 Funktionen mit mehreren Variablen. Jürgen Koch Martin Stämpfle.

Implizite Funktionen, der Umkehrsatz und Extrema unter Nebenbedingungen

Iterative Verfahren, Splittingmethoden

Übungen zu gewöhnlichen Differentialgleichungen Lösungen zu Übung 23

12 Gewöhnliche Differentialgleichungen

Mathematik für Anwender I. Beispielklausur 3 mit Lösungen

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

18.4 Das Newton-Verfahren

30 Die Gammafunktion und die Stirlingsche Formel

KAPITEL 8. Interpolation

10 Der Satz über implizite Funktionen und Umkehrfunktionen

Analysis I. 1. Beispielklausur mit Lösungen

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Klausur zur Vordiplom-Prüfung

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Numerik und Simulation in der Geoökologie

Leitfaden a tx t

Eigenwerte und Eigenvektoren

1 Einführung, Terminologie und Einteilung

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012)

18 Höhere Ableitungen und Taylorformel

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen

1 Umkehrfunktionen und implizite Funktionen

Probeklausur zu Funktionentheorie, Lebesguetheorie und gewöhnlichen Differentialgleichungen

5 Numerische Iterationsverfahren

GMA. Grundlagen Mathematik und Analysis. Nullstellen und Fixpunkte Reelle Funktionen 3. Christian Cenker Gabriele Uchida

Transkript:

NUMERIK GEWÖHNLICHER DIFFERENTIALGLEICHUNGEN 1 Prof. Dr. Hans Babovsky Institut für Mathematik Technische Universität Ilmenau 1 Version vom Herbst 2006

Inhaltsverzeichnis 1 Gewöhnl. Differentialgleichungen: Einführung 3 1.1 Grundbegriffe................................. 3 1.2 Das Eulersche Polygonzugverfahren..................... 6 1.3 Erste Fehlerbetrachtungen.......................... 10 2 Einschrittverfahren (ESV) 13 2.1 Das Konzept der Einschrittverfahren.................... 13 2.2 Runge-Kutta-Verfahren (RKV)....................... 16 2.3 Konvergenz von Einschrittverfahren..................... 20 3 Lineare Mehrschrittverfahren (MSV) 25 3.1 Das Konzept der Mehrschrittverfahren................... 25 3.2 Die Ordnung linearer MSV.......................... 31 3.3 Homogene lineare Differenzengleichungen.................. 35 3.4 Konsistenz und Konvergenz von MSV.................... 37 4 Stabilität von ESV und MSV 41 4.1 Absolute Stabilität.............................. 41 4.2 Integration steifer Systeme.......................... 46 5 Numerik von AWP s: Ergänzungen 51 5.1 Schrittweitensteuerung............................ 51 5.2 Numerik parabolischer Differentialgleichungen: Ein Beispiel........ 55 6 Randwertprobleme 59 6.1 Einführung.................................. 59 6.2 Das einfache Schießverfahren......................... 61 1

2 INHALTSVERZEICHNIS 6.3 Differenzenverfahren............................. 71 7 Differentiell-algebraische Systeme 75 7.1 Einführung.................................. 75 7.2 Runge-Kutta-Verfahren für Index-1-Systeme................ 77 7.3 Ein System mit Index > 1.......................... 79

Kapitel 1 Gewöhnl. Differentialgleichungen: Einführung 1.1 Grundbegriffe Die Vorlesung befasst sich mit der numerischen Lösung (explizit definierter) gewöhnlicher Differentialgleichungen. Diese sind wie folgt definiert. (1.1.1) Definition: (a) Gegeben seien ein Gebiet Ω lr 2 und eine (hinreichend glatte) Funktion f : Ω lr. Eine Gleichung der Form x (t) = f(t, x(t)) (1.1) (oder kurz: x = f(t, x)) heisst gewöhnliche Differentialgleichung 1. Ordnung (kurz: gdgl). (b) Gegeben seien ein Gebiet Ω lr n+1 und eine Funktion f : Ω lr. Eine Gleichung der Form x (n) = f(t, x, x,..., x (n 1) ) (1.2) heisst gewöhnliche Differentialgleichung n-ter Ordnung. (c) Im Folgenden repräsentiere ein fett gedruckter Buchstabe einen Vektor der Länge n (n fest) (z.b. x = (x 1..., x n ) T ). Gegeben seien ein Gebiet Ω lr n+1 und eine vektorwertige Funktion f : Ω lr n. Das Gleichungssystem x (t) = f(t, x(t)) (1.3) 3

4 KAPITEL 1. GEWÖHNL. DIFFERENTIALGLEICHUNGEN: EINFÜHRUNG heißt System gewöhnlicher Differentialgleichungen erster Ordnung (kurz: SysgDGl). (d) Ist f (bzw. f) von t unabhängig, so heißt die zugehörige Gleichung (bzw. das System) autonom. (1.1.2) Bemerkungen: (a) Eine Funktion x(t) (bzw. x(t)) auf einem Intervall [a, b] ist Lösung der gdgl (des SysgDGl), falls für jedes t [a, b] die entsprechende Gleichung aus (1.1) (1.3) erfüllt ist. (b) gdgl s höherer Ordnung können stets als SysgDGl geschrieben werden, indem die Gleichung (1.2) umformuliert wird. Hierzu definieren wir z(t) = (z 1,..., z n ) T := (x(t), x (t),..., x (n 1) (t)) T. Die Lösung der Gleichung (1.2) ist äquivalent zur Lösung des Systems z 2 (t) z. (t) = =: f(t, z). z n (t) f(t, z(t)) (b) Nicht autonome gdgl s (und entsprechend SysgDGl s) können stets als autonome Systeme formuliert werden. Hierzu definieren wir zu der skalaren Funktion x(t) die erweiterte vektorwertige Funktion x(t) := (t, x(t)) T =: ( x 1, x 2 ) T. Die Lösung von (1.1) ist äquivalent zur Lösung des SysgGDl x = f( x) mit f( x) = (1, f(x1, x 2 )) T. (1.4) Ist x(t) eine Lösung von (1.1) und ist für ein t 0 x(t 0 ) = c, so kann aus (1.1) die Steigung x (t 0 ) bestimmt werden. Es ist x (t 0 ) = f(t 0, c). Die Tangente an die Lösung im Punkt (t 0, x(t 0 )) T ist damit gegeben durch den Vektor (1, f(t, c)) T. Dies motiviert die folgende Definition. (1.1.3) Definition: Das zur gdgl x = f(t, x) definierte Vektorfeld heißt das Richtungsfeld der gdgl. 1 1 R(t, x) := 1 + f 2 (t, x) f(t, x)

1.1. GRUNDBEGRIFFE 5 Da gdgl s Spezialfälle von SysgDGl s sind, wollen wir uns bei den folgenden Überlegungen auf letztere beschränken. Eine Lösung x(t) von (1.3) ist (unter gewissen Bedingungen an f) eindeutig, wenn sie an einem Punkt t 0 vorgegeben ist. Dies führt auf die folgende Definition. (1.1.4) Definition: Unter einem Anfangswertproblem (AWP) verstehen wir ein SysgDGl der Form (1.3), welches ergänzt ist durch eine Bedingung der Form x(t 0 ) = c für ein (t 0, c) T Ω. (1.5) in einem Punkt t 0. Der folgende Satz ist ein zentrales Ergebnis der klassischen Theorie der gewöhnlichen Differentialgleichungen, welches besagt, dass Lösungen von AWP s eindeutig sind, sofern die rechten Seiten Lipschitz-stetig sind. Für einen Beweis des Satzes verweisen wir auf die Standard-Lehrbücher. (1.1.5) Satz (Existenz und Eindeutigkeit): Die rechte Seite f des SysgDGl (1.3) sei in folgendem Sinne Lipschitz-stetig: Es gibt eine Konstante L > 0 derart, dass für alle t lr und alle x 1, x 2 lr n gilt: Ist (t, x 1 ) T, (t, x 2 ) T Ω, so gilt die Abschätzung f(t, x 1 ) f(t, x 2 ) L x 1 x 2. (1.6) (Hierbei ist. eine beliebige Vektornorm in lr n.) Dann hat das AWP (1.3), (1.5) eine eindeutige Lösung x(t). Diese lässt sich bis zum Rand von Ω fortsetzen. Im Folgenden sei, um die Eindeutigkeit des AWP zu gewährleisten, die Lipschitz-Stetigkeit (1.6) immer vorausgesetzt. Das SysgDGl (1.3) erzeugt eine ganze Schar von Lösungen, welche der zu (1.3) gehörige Fluss genannt wird und welche wir mit dem Symbol Φ bezeichnen wollen. Hierbei beschreibt x(t) := Φ t,τ x (1.7) diejenige spezielle Lösung (Trajektorie), welche zum Zeitpunkt τ den Wert x annimmt: x(τ) = Φ τ,τ x. Insbesondere kann die Lösung des AWP (1.3), (1.4) in Kurzform x(t) = Φ t,t 0 c

6 KAPITEL 1. GEWÖHNL. DIFFERENTIALGLEICHUNGEN: EINFÜHRUNG geschrieben werden. 1.2 Das Eulersche Polygonzugverfahren x(t) := Φ t,τ x τ bezeichnet diejenige Lösung des SysgDGl, welche zu einem fest vorgegebenen Zeitpunkt τ durch einen festen Punkt x τ geht. Ist f in einer Umgebung von (τ, x τ ) stetig differenzierbar, so ist x(t) in einer Umgebung (τ h, τ + h) zweimal stetig differenzierbar, und es gilt x (t) = d dt f(t, x(t)) = f t(t, x(t)) + f x (t, x(t)) x (t) = f t (t, x(t)) + f x (t, x(t)) f(t, x(t)). Nach der Taylorformel lässt sich x(t) schreiben in der Form (t τ)2 x(t) = x(τ) + (t τ) f(τ, x(τ)) + x(τ + θ (t τ)) 2 = x(τ) + (t τ) f(τ, x(τ)) + O(h 2 ) (1.8) (für ein θ (0, 1)). Diese Idee können wir benutzen zur Konstruktion einer ersten Näherung der Lösung des AWP (1.3), (1.4) für t t 0. Hierzu definieren wir einen kleinen Zeitschritt t, sowie t i := t 0 + i t, i = 1, 2, 3,... und approximieren die Lösung durch die folgende stetige, stückweise lineare Funktion: Initialisierung: η 0 = x (t 0 ) := c; Iteration: Ist η i := x (t i ) gegeben, so definiere x (t) in [t i, t i+1 ] durch x (t) := η i + (t t i ) f(t i, η i ); insbesondere ist η i+1 = η i + t f(t i, η i ). Sind wir nur an Näherungen an den Knoten t i interessiert, so ergibt sich hieraus der folgende (1.2.1) Algorithmus (Eulersches Polygonzugverfahren): Wähle einen kleinen Zeitschritt t und definiere die zugehörigen Knoten t i := t 0 + i t. Die Werte η i an

1.2. DAS EULERSCHE POLYGONZUGVERFAHREN 7 den Knoten t i sind rekursiv definiert durch η 0 = c, (1.9) η i+1 = η i + t f(t i, η i ). (1.10) (1.2.2) Beispiel (lineare homogene gdgl): Die exakte Lösung des AWP x = λ x, x(0) = 1 ist x(t) = exp(λt). Sie soll mit dem Eulerschen Polygonzugverfahren im Intervall [0, T ] approximiert werden. Hierzu wählen wir eine Zahl N ln \ {0} und den Zeitschritt t = T/N. Mit f(t, x) = λ x liefert der Algorithmus (1.2.1) Durch Induktion folgt η 0 = 1, η i+1 = η i + t λ η i = (1 + t λ)η i. η i = (1 + tλ) i. Bemerkungen: (a) Aus der Analysis bekannt ist die Formel ( 1 + 1 r ) r e für r. Damit gilt η N = ( 1 + λ T N ) N = ( 1 + e λt = x(t ) für N. ) N/(λT ) 1 N/(λT ) λt η N konvergiert damit für große N gegen den korrekten Wert x(t ). (b) Ist λ < 0, so gilt x(t) = exp(λt) 0. Um dieses qualitative Verhalten mit dem Eulerschen Polygonzugverfahren zu erhalten, darf der Zeitschritt t nicht zu groß gewählt werden. Ist nämlich t > 2/ λ, so ist 1 + t λ < 1; in diesem Fall oszilliert die Folge η i und es gilt η i = 1 + t λ i für i.

8 KAPITEL 1. GEWÖHNL. DIFFERENTIALGLEICHUNGEN: EINFÜHRUNG t numerisch exakt 0.1 0.9000 0.1000 0.9094 0.0906 0.2 0.8200 0.1800 0.8352 0.1648 0.3 0.7560 0.2440 0.7744 0.2256 0.4 0.7048 0.2952 0.7247 0.2753 0.5 0.6638 0.3362 0.6839 0.3161 1.0 0.5537 0.4463 0.5677 0.4323 Tabelle 1.1: Lösung von Beispiel (1.2.3), α = β = 1 Als notwendiges Kriterium für die Konvergenz gegen 0 für N ergibt sich damit die Bedingung t < 2 λ. (1.11) (1.2.3) Beispiel (Lineares homogenes SysgDGl): Gelöst werden soll das AWP für x(t) = (x 1 (t), x 2 (t)) T, x = α β x =: A x, x(0) := 1. β α 0 Hier ist f(t, x) = A x, und das Eulersche Polygonzugverfahren liefert mit zur gewählten Schrittweite t η i = (I + t A) i η 0 = 1 α t β t i 1. β t 1 α t 0 Führt man eine Testrechnung durch für α = β = 1 mit einer Schrittweite t = 0.1, so erhält man die in Tabelle 1 aufgeführten numerischen Ergebnisse, welche zumindest den qualitativen Verlauf der exakten Lösung widerspiegeln. Testrechnungen für α = β = 20 sind aus Tabelle 2 abzulesen. Es zeigt sich dass die Schrittweite t = 0.1 hier völlig unbrauchbar ist. Die numerische Lösung ist offenbar instabil. Wie lässt sich dies erklären?

1.2. DAS EULERSCHE POLYGONZUGVERFAHREN 9 t num. ( t = 0.1) num. ( t = 0.01) exakt 0.1-1 2 0.5030 0.4970 0.5092 0.4908 0.2 5-4 0.5000 0.5000 0.5002 0.4998 0.3-13 14 0.5000 0.5000 0.5000 0.5000 0.4 41-40 0.5000 0.5000 0.5000 0.5000 0.5-121 122 0.5000 0.5000 0.5000 0.5000 1.0 29525-29524 0.5000 0.5000 0.5000 0.5000 Tabelle 1.2: Lösung von Beispiel (1.2.3), α = β = 20 Hierzu berechnen wir die Eigenwerte λ 1,2 von A. Diese ergeben sich als Lösungen von λ + α β det(λi A) = β λ + α = (λ + α)2 β 2 = 0. Im Fall α = β sind die Eigenwerte gleich λ 1 = 0 und λ 2 = 2α. Die zugehörigen Eigenvektoren sind (1, 1) T T zusammen: und (1, 1) T. Fügen wir die Eigenvektoren zu einer Matrix T := 1 1 1 1, so ist A = T λ 1 0 0 λ 2 T 1. Transformieren wir nun das SysgDGl x z = (z 1, z 2 ) T := T 1 x, so erhalten wir z = oder komponentenweise geschrieben: λ 1 0 0 λ 2 = A x auf das entsprechende System für z, z 1 = λ 1 z 1, z 2 = λ 2 z 2. Dies sind zwei (skalare) lineare homogene gdgl. Aus Beispiel (1.2.2) wissen wir, dass zur numerischen Lösung mit Hilfe des Eulerschen Polygonzugverfahrens eine Schrittweite

10 KAPITEL 1. GEWÖHNL. DIFFERENTIALGLEICHUNGEN: EINFÜHRUNG gewählt werden muss, für die gilt t < 2/λ i. Im Fall α = β = 1 folgt als (nach diesem Kriterium) maximal zulässige Schrittweite t < 1/α = 1. Im Fall α = β = 20 ist dies t < 1/20 = 0.05. Diese beiden Beispiele sollen die folgende allgemeine Merkregel motivieren. (1.2.4) Merkregel: A sei eine n n-matrix mit den Eigenwerten λ 1,..., λ n. λ max sei der betragsgrößte negative Eigenwert. Zur numerischen Lösung des SysgDGl x = Ax mit Hilfe des Eulerschen Polygonzugverfahrens muss ein Zeitschritt gewählt werden. t 1/ λ max (1.12) Lineare SysgDGl, bei denen Eigenwerte mit sehr unterschiedlichen negativen Realteilen auftreten, heißen auch steife Differentialgleichungssysteme. Hier erzwingt der betragsgrößte negative Realteil eine Oberschranke für die Wahl der Schrittweite. 1.3 Erste Fehlerbetrachtungen Gegeben sei das AWP x = f(t, x), x(t 0 ) = c. Die exakte Lösung kann mit Hilfe des Flusses beschrieben werden in der Form x(t) = Φ t,t 0 c. Zu gegebener Schrittweite t und den zugehörigen diskreten Zeiten t i = t 0 +i t liefert ein numerisches Verfahren (z.b. das Eulersche Polygonzugverfahren) Näherungen η i zu den gesuchten Werten x(t i ). Der hierbei entstehende Approximationsfehler kann in zwei Anteile aufgeteilt werden. (1.3.1) Fehlerarten: (a) Ausgehend von einem Näherungswert η i für Φ t i,t 0 c wird η i+1

1.3. ERSTE FEHLERBETRACHTUNGEN 11 konstruiert als Näherungswert der Trajektorie durch (t i, η i ) zum nächsten Zeitpunkt t i+1, also η i+1 Φ t i+1,t i η i. Die (skalierte) Abweichung ɛ(t i, η i, t) := 1 t ( Φ t i+ t,t i η i η i+1 ) (1.13) nennt man lokalen Diskretisierungsfehler. Zu seiner Abschätzung bedient man sich üblicherweise der Taylorentwicklung des Flusses Φ t,t i η i um den Punkt (t i, η i ). (b) Der Startpunkt η i zur Berechnung von η i+1 ist (außer für i = 0) ebenfalls schon mit einem Fehler behaftet, so dass η i+1 mit Φ t i+1,t i η i anstelle von Φ t i+1,t i x(t i ) die falsche Trajektorie approximiert. Mit dem lokalen Diskretisierungsfehler als Keimzelle addieren sich die in jedem Zeitschritt neu entstehenden Anteile zu einem globalen Fehler auf, sodass unter Umständen die Teiltrajektorien von der gesuchten Lösungstrajektorie immer weiter wegdriften. Diesen globalen Fehler versucht man mit sog. Stabilitätsuntersuchungen in den Griff zu bekommen. Wir untersuchen den lokalen Diskretisierungsfehler für das Eulersche Polygonzugverfahren. Hierzu nehmen wir an, dass f(t, x) hinreichend glatt ist (hier: mindestens zweimal stetig differenzierbar bzgl. t und x). Ist (t i, η i ) gegeben, so bezeichne z(t) := Φ t,t i η i die Trajektorie, welche durch (t i, η i ) verläuft. Damit ist z(.) Lösung des AWP z = f(t, z), z(t i ) = η i. Wir werten nun die Taylorentwicklung z(t) = z(t i ) + (t t i ) z (t i ) + (t t i) 2 2! von z(t) um den Punkt t i aus. Zunächst gilt z (t i ) + z (t i ) = f(t i, z(t i )) = f(t i, η i ). Ferner liefert die Kettenregel z (t i ) = d dt z (t) = d f(t, z(t)) t=ti dt t=ti = f t (t i, z(t i )) + z (t i ) f x (t i, z(t i )) = f t (t i, η i ) + f(t i, η i ) f x (t i, η i ).

12 KAPITEL 1. GEWÖHNL. DIFFERENTIALGLEICHUNGEN: EINFÜHRUNG (Hierbei bezeichnen f t und f x die partiellen Ableitungen von f bzgl. t und x.) Aus z(t i+1 ) = η i + t f(t i, η i ) + t2 2 (f t(t i, η i ) + f(t i, η i ) f x (t i, η i )) (1.14) und + t3 6 [f tt(t i, η i ) + 3f(t i, η i ) f tx (t i, η i ) + f(t i, η i ) f x (t i, η i ) f xx (t i, η i ) η i+1 = η i + t f(t i, η i ) ergibt sich hieraus der lokale Diskretisierungsfehler +f(t i, η i ) (f x (t i, η i )) 2 ] + O( t 4 ) ɛ(t i, η i, t) = 1 t (z(t i+1) η i+1 ) = t 2 (f t(t i, η i ) + f(t i, η i ) f x (t i, η i )) + O( t 2 ) = t 2 (f t(t i, η i ) + f(t i, η i ) f x (t i, η i )) = O( t). (1.15) (Das Symbol = bedeutet, dass nur der Term der führenden Ordnung in t berücksichtigt wurde.)

Kapitel 2 Einschrittverfahren (ESV) 2.1 Das Konzept der Einschrittverfahren Der lokale Diskretisierungsfehler des Eulerschen Polygonzugverfahrens ist von der Ordnung O( t). Hierbei werden Näherungslösungen von gdgl s konstruiert, indem in jedem kleinen Teilintervall eine lineare Approximation konstruiert wird, wobei als Steigung die Steigung am linken Randpunkt gewählt wird. Das Ziel dieses Kapitels ist es, Alternativen zum Eulerschen Polygonzugverfahren zu entwickeln, welche günstiger sind bzgl. des lokalen Diskretisierungsfehlers. Die folgenden Beispiele versuchen, einen Wert für die Steigung zu finden, welcher dem Verlauf des gesamten Teilintervalls besser angepasst ist. Wie vorher sei t i = t 0 + i t mit einem vorgegebenen kleinen Zeitschritt t. Zur Berechnung der lokalen Diskretisierungsfehler benötigen wir die Taylorentwicklung von f(.,.) um den Punkt (t i, η i ). Für O(x η i ) = O(t t i ) = O( t) ist diese gegeben durch f(t, x) = f(t i, η i ) + (t t i ) f t (t i, η i ) + (x η i ) f x (t i, η i ) + 0.5 (t t i ) 2 f tt (t i, η i ) +(t t i )(x η i )f tx (t i, η i ) + 0.5 (x η i ) 2 f xx (t i, η i ) + O( t 3 ) = f(t i, η i ) + (t t i ) f t (t i, η i ) + (x η i ) f x (t i, η i ) + O( t 2 ). (2.1) (2.1.1) Beispiele: (a) Modifiziertes Euler-Verfahren: Hier wird als Steigung im Intervall [t i, t i+1 ] der Funktionswert von f im Punkt (t i + 0.5 t, η i + 0.5 t f(t i η i )) angenommen. (Welche geometrisch-anschauliche Bedeutung hat dieser Punkt?) Der Iterationsschritt ist damit gegeben durch die Vorschrift η i+1 = η i + t f(t i + 0.5 t, η i + 0.5 t f(t i η i )). (2.2) 13

14 KAPITEL 2. EINSCHRITTVERFAHREN (ESV) Aus der Taylorentwicklung (2.1) folgt ( η i+1 = η i + t f(t i, η i ) + t 2 f t(t i, η i ) + t ) 2 f(t i, η i ) f x (t i, η i ) + O( t 2 ) = η i + t f(t i, η i ) + t2 2 [f t(t i, η i ) + f(t i, η i ) f x (t i, η i )] + O( t 3 ). Ein Vergleich mit der Taylorentwicklung (1.14) für z(t) = Φ t,t i η i ergibt als Ordnung für den lokalen Diskretisierungsfehler ɛ(t i, η i, t) = 1 t (z(t i+1) η i+1 ) = O( t 2 ). Der lokale Diskretisierungsfehler ist damit um eine Ordnung besser als im Fall des Eulerschen Polygonzugverfahrens. Allerdings sind pro Zeitschritt zwei Funktionsauswertungen von f(.,.) erforderlich. (b) Heun-Verfahren: Hier wird als Steigung der Mittelwert der Funktion f(.,.) in den Punkten (t i, η i ) und (t i + t, η i + t f(t i, η i )) gewählt. Die Iterationsvorschrift lautet also η i+1 = η i + t 2 [f(t i, η i ) + f(t i + t, η i + t f(t i, η i )]. (2.3) Die Taylorentwicklung (2.1) liefert η i+1 = η i + t 2 f(t i, η i ) + t 2 ( f(t i, η i ) + t f t (t i, η i ) + t f(t i, η i ) f x (t i, η i ) + O( t 2 ) ) = η i + t f(t i, η i ) + t2 2 [f t(t i, η i ) + f(t i, η i ) f x (t i, η i )] + O( t 3 ). Wie in Beispiel (a) ergibt sich damit ein lokaler Diskretisierungsfehler der Ordnung O( t 2 ). Eine allgemeine Klasse von Approximationsverfahren für AWP s lässt sich wie folgt formulieren. (2.1.2) Definition: (a) Ein Einschrittverfahren (ESV) für die gdgl x = f(t, x) (bzw. für das SysgDGl x = f(t, x)) ist eine Formel der Form η i+1 = η i + t Ψ(t i, η i, t) (2.4) mit einer vorgegebenen (i.a. von f(.,.) bzw. von f(.,.) abhängigen) Funktion Ψ. (b) Der lokale Diskretisierungsfehler für das ESV ist definiert durch ɛ(t i, η i, t) = 1 t ( Φ t i+ t,t i η i η i+1 ) = 1 t [Φt i+ t,t i η i η i ] Ψ(t i, η i, t) (2.5)

2.1. DAS KONZEPT DER EINSCHRITTVERFAHREN 15 (vgl. Definition (1.13)). (c) Das ESV heißt konsistent, wenn gilt lim ɛ(t i + t, η i, t) = 0; (2.6) t 0 dies ist nach Gleichung (2.4) und der Definition von Φ t,t i η i genau dann der Fall, wenn gilt lim Ψ(t i, η i, t) = f(t i, η i ). (2.7) t 0 (d) Das ESV ist ein Verfahren der Ordnung p, falls ɛ(t i, η i, t) = O( t p ). (2.8) Nach dieser Definition ist das Eulersche Polygonzugverfahren ein ESV der Ordnung 1; das modifizierte Euler-Verfahren und das Heun-Verfahren sind ESV der Ordnung 2. Weitere ESV können z.b. mit Hilfe des Ansatzes Ψ(t i, η i, t) := b 1 f(t i, η i ) + b 2 f(t i + c t, η i + a t f(t i, η i )) (2.9) konstruiert werden, wobei die Koeffizienten b 1, b 2, a und c frei gewählt werden können. 1 Geeignete Koeffizienten ergeben sich aus folgendem Satz. (2.1.3) Satz: Ein ESV mit dem Ansatz (2.9) ist genau dann von (mindestens) der Ordnung 2, wenn b 1 + b 2 = 1 und b 2 a = b 2 c = 0.5. (2.10) Eine höhere als die Ordnung 2 ist mit diesem Ansatz i.a. nicht zu erreichen. Beweis: Mit dem Ansatz (2.9) hat Ψ die Taylor-Entwicklung um (t i, η i ) Ψ(t i, η i, t) = (b 1 + b 2 ) f(t i, η i ) +b 2 t [c f t (t i, η i ) + a f(t i, η i ) f x (t i, η i )] + O( t 2 ). Die Bedingungen (2.10) folgen durch Einsetzen dieser Entwicklung in das ESV (2.4) und durch Vergleich mit der Taylorentwicklung (1.14) für Φ t,t i η i. 1 Alle oben aufgeführten Beispiele genügen diesem Ansatz. Für das Eulersche Polygonzugverfahren ist b 1 = 1 und b 2 = 0; für das modifizierte Euler-Verfahren ist b 1 = 0, b 2 = 1 sowie a = c = 0.5; für das Heun-Verfahren gilt b 1 = b 2 = 0.5 und a = c = 1.

16 KAPITEL 2. EINSCHRITTVERFAHREN (ESV) 2.2 Runge-Kutta-Verfahren (RKV) Ein Iterationsschritt für ein ESV mit dem Ansatz (2.9) kann in die folgenden Rechenschritte zerlegt werden. (2.2.1) Algorithmus (Iterationsschritt für ein ESV mit Ansatz (2.9)): Gegeben (t i, η i ), S1 berechne k 1 := f(t i, η i ); S2 berechne k 2 := f(t i + c t, η i + a t k 1 ); S3 setze Ψ(t i, η i, t) := b 1 k 1 + b 2 k 2. Dies stellt den Spezialfall eines zweistufigen Runge-Kutta-Verfahrens dar. Dieser Ansatz soll nun verallgemeinert und analysiert werden, um eine höhere Ordnung zu erzielen. (2.2.2) Definition: Ein dreistufiges Runge-Kutta-Verfahren (RKV) ist ein ESV mit dem Ansatz k 1 = f(t i + c 1 t, η i ), k 2 = f(t i + c 2 t, η i + t a 21 k 1 ), k 3 = f(t i + c 3 t, η i + t (a 31 k 1 + a 32 k 2 )), Ψ(t i, η i, t) = b 1 k 1 + b 2 k 2 + b 3 k 3, (2.11) mit geeigneten Koeffizienten a ij, b i, c i. (2.2.3) Beispiel: Für c = c 1 c 2 c 3 = 0 0.5 1, b = b 1 b 2 b 3 = 1/3 1/3 1/3, A = (a ij) = 0 0 0 1/2 0 0 1/3 2/3 0 ist k 1 = f(t i, η i ), k 2 = f(t i + 0.5 t, η i + 0.5 t f(t i, η i )), k 3 = f(t i + t, η i + t [0. 3 f(t i, η i ) + 0. 6 f(t i + 0.5 t, η i + 0.5 t f(t i, η i ))]), Ψ(t i, η i, t) = 0. 3 (k 1 + k 2 + k 3 ).

2.2. RUNGE-KUTTA-VERFAHREN (RKV) 17 Wir wenden dieses Verfahren an zur Lösung der autonomen 2 gdgl x = f(x). In diesem Fall lauten die Gleichungen zur Berechnung der k i k 1 = f(η i ), k 2 = f(η i + 0.5 t f(η i )), k 3 = f(η i + t [0. 3 f(η i ) + 0. 6f(η i + 0.5 t f(η i ))]). Zur Abschätzung des lokalen Diskretisierungsfehlers betrachten wir die Taylor-Entwicklungen der k i. (Wir schreiben abkürzend f i anstelle von f(η i ), sowie f i für die Ableitung von f(x) an der Stelle η i.) k 1 = f i, k 2 = f i + 0.5 t f i f i + O( t 2 ), k 3 = f i + t f i f i + O( t 2 ). Hieraus ergibt sich Ψ durch Ψ(t i, η i, t) = 0. 3 (k 1 + k 2 + k 3 ) = f i + 0.5 t f i f i + O( t 2 ). Vergleichen wir dies mit der Taylorentwicklung von z(t) = Φ t,t i η i (vgl. (1.18)), z(t i+1 ) = η i + t f i + 0.5 t 2 f i f i + O( t 3 ), so folgt für den lokalen Diskretisierungsfehler ɛ(t i, η i, t) = O( t 2 ). Damit hat das Verfahren für autonome gdgl mindestens die Ordnung 2. Übung: Zeigen Sie: Für autonome gdgl s hat ein dreistufiges RKV mindestens die Ordnung 2, wenn gilt b 1 + b 2 + b 3 = 1 und b 2 a 21 + b 3 (a 31 + a 32 ) = 1 2. 2 Eine gdgl heißt autonom, wenn die rechte Seite f nicht von t abhängt.

18 KAPITEL 2. EINSCHRITTVERFAHREN (ESV) Ähnliche Abschätzungen wie in Beispiel (2.2.3) können auch für nicht-autonome gdgl s durchgeführt werden, auch für höherstufige RKV-Verfahren, welche wie folgt definiert sind. (2.2.4) Definition: Ein s-stufiges RKV für die gdgl x = f(t, x) ist ein ESV der Form s Ψ(t i, η i, t) = b ν k ν (2.12) ν=1 mit k ν = f t i + c ν t, η i + t ν 1 j=1 a νj k j. (2.13) Durch Taylor-Entwicklung lassen sich leicht Bedingungen für die Ordnung s-stufiger RKV s angeben. Wir fassen zusammen. (2.2.5) Satz: Zwischen den Koeffizienten c i und a ij gelte zusätzlich die Beziehung 3 s c i = a ij. (2.14) j=1 Dann besitzt das s-stufige RKV genau dann (mindestens) die Ordnung 1, wenn s b i = 1; (2.15) i=1 2, wenn zusätzlich gilt s b i c i = 1 i=1 2 ; (2.16) 3, wenn zusätzlich gilt s b i c 2 i = 1 i=1 3, s i,j=1 b i a ij c j = 1 6 ; (2.17) 3 Eine Begründung für diese Bedingung findet man z.b. in Abschnitt 4.2.1 von P. Deuflhard/ F. Bornemann, Numerische Mathematik II, de Gruyter, 1994.

2.2. RUNGE-KUTTA-VERFAHREN (RKV) 19 4, wenn zusätzlich gilt s b i c 3 i = 1 i=1 4, s i,j=1 b i c i a ij c j = 1 8, s i,j=1 b i a ij c 2 j = 1 12, s i,j,k=1 b i a ij a jk c k = 1 24. (2.18) (2.2.6) Beispiel: Das in der Literatur üblicherweise als das klassische RKV bezeichnete Schema ist vierstufig (d.h. s = 4) und gegeben durch 1 b = 1 6 2, c = 2 1 Die explizite Formulierung lautet 0 0.5, A = 0.5 1 0 0 0 0 0.5 0 0 0. (2.19) 0 0.5 0 0 0 0 1 0 k 1 = f(t i, η i ), k 2 = f(t i + 0.5 t, η i + 0.5 t k 1 ), k 3 = f(t i + 0.5 t, η i + 0.5 t k 2 ), k 4 = f(t i + t, η i + t k 3 ), Ψ(t i, η i, t) = 1 6 (k 1 + 2 k 2 + 2 k 3 + k 4 ). Man überzeugt sich leicht, dass die Gleichungen (2.15) (2.18) erfüllt sind es handelt sich um ein Verfahren 4. Ordnung. Übung: Zeigen Sie, dass das dreistufige Verfahren aus Beispiel (2.2.3) die Ordnung 2 hat. (2.2.7) Bemerkung: Die oben definierten RKV s werden wir später explizite RKV s nennen. Verallgemeinern wir den Ansatz (2.13) auf die Form k ν = f t i + c ν t, η i + t s a νj k j. (2.20) j=1 so schließen wir auch implizite RKV s mit ein. Die Aussagen des Satzes (2.2.5) lassen sich verallgemeinern. Bei impliziten RKV s muss in jedem Schritt das Fixpunktproblem (2.20) gelöst werden.

20 KAPITEL 2. EINSCHRITTVERFAHREN (ESV) 2.3 Konvergenz von Einschrittverfahren Bisher haben wir uns nur mit dem lokalen Diskretisierungsfehler befasst, dem Fehler also, der in jedem Zeitschritt t neu entsteht dadurch, dass die zu approximierende Lösung eines AWP durch ein Geradenstück approximiert wird. Wir werden nun feststellen, dass dieser Fehler auch maßgeblich ist für die globale Abweichung der Näherung von der exakten Trajektorie. Im Folgenden untersuchen wir im Zeitintervall [t 0, T ] das AWP Die exakte Lösung bezeichnen wir mit x(t), also x = f(t, x), x(t 0 ) = x 0. (2.21) x(t) = Φ t,t 0 x 0. Um einen Wert x(t) (t [t 0, T ]) zu approximieren, kann mit Hilfe einer Funktion Ψ ein ESV der Form (2.4) gewählt und auf eine Schrittweite t = (t t 0 )/N, N ln, angewandt werden. Untersucht werden soll, wie der globale Diskretisierungsfehler e(t, N) := η N x(t) (2.22) von der Schrittweite t (bzw. von der Zahl N) abhängt. Wir bezeichnen das ESV als konvergent im Intervall [t 0, T ], falls für alle t [t 0, T ] gilt lim e(t, N) = 0 N Das folgende zentrale Ergebnis stellt den globalen Fehler in Relation zum lokalen Diskretisierungsfehler. (2.3.1) Satz: Die Funktion Ψ sei stetig und erfülle die Lipschitz-Bedingung Ψ(t, x 1, h) Ψ(t, x 2, h) M x 1 x 2 (2.23) mit einer Konstanten M. Dann gilt für das durch Ψ definierte ESV (2.4): Ist das ESV ein Verfahren der Ordnung p (vgl. Def. (2.1.2)(d)), so erfüllt mit t := (t t 0 )/N und mit einem geeigneten λ der globale Diskretisierungsfehler eine Abschätzung der Form e(t, N) λ t p (exp(m(t t 0 )) 1)/M. (2.24)

2.3. KONVERGENZ VON EINSCHRITTVERFAHREN 21 Bevor dieser Satz bewiesen wird, soll seine Aussage kurz kommentiert werden. (2.3.2) Bemerkungen: (a) Die Bedingung (2.23) lässt sich in den oben vorgestellten Verfahren leicht aus der Lipschitz-Stetigkeit (1.6) der rechten Seite f(t, x) ableiten, welche wir ja immer vorausgesetzt haben. Beispielsweise folgt im skalaren Fall für das Heun-Verfahren mit die Abschätzung f(t, x 1 ) f(t, x 2 ) L x 1 x 2 Ψ(t, x, h) = 1 [f(t, x) + f(t + h, x + h f(t, x))] 2 Ψ(t, x 1, h) Ψ(t, x 2, h) 1 2 f(t, x 1) f(t, x 2 ) + 1 2 f(t + h, x 1 + h f(t, x 1 )) f(t + h, x 2 + h f(t, x 2 )) L 2 x 1 x 2 + L 2 ( x 1 x 2 + h f(t, x 1 ) f(t, x 2 ) ) ( L + h ) L2 x 1 x 2. 2 (b) Der globale Fehler ist wie der lokale Fehler von der Ordnung O( t p ). Zu beachten ist allerdings, dass die rechte Seite der Abschätzung (2.24) mit steigendem Abstand vom Anfangspunkt t 0 exponentiell wächst. Zum Beweis des Satzes (2.3.1) benötigen wir das folgende Hilfsergebnis. (2.3.3) Lemma: Genügt eine Zahlenfolge ξ i, i = 0, 1, 2,..., einer Abschätzung der Form ξ i+1 (1 + δ) ξ i + B (2.25) mit den Konstanten δ > 0 und B 0, so gilt für alle n ln ξ n exp(nδ) ξ 0 + B exp(nδ) 1. δ

22 KAPITEL 2. EINSCHRITTVERFAHREN (ESV) Beweis von Lemma (2.3.3): Die iterative Anwendung der Abschätzung (2.25) ergibt (mit Induktion) ξ 1 (1 + δ) ξ 0 + B, ξ 2 (1 + δ) ξ 1 + B (1 + δ) 2 ξ 0 + B (1 + (1 + δ)), ξ 3 (1 + δ) ξ 2 + B (1 + δ) 3 ξ 0 + B (1 + (1 + δ) + (1 + δ) 2 ),. ξ n (1 + δ) n ξ 0 + B (1 + (1 + δ) + + (1 + δ) n 1 ) = (1 + δ) n ξ 0 + B (1 + δ)n 1 δ exp(nδ) ξ 0 + B exp(nδ) 1. δ Letztere Ungleichung folgt wegen 1 + δ exp(δ). Beweis von Satz (2.3.1): Mit t = (t t 0 )/N definieren wir die Knoten t i := t 0 +i t, die exakten Werte an den Knoten x i := x(t i ) sowie die (globalen) Diskretisierungsfehler an den Knoten e i := η i x i. Aus der rekursiven Definition (2.4) für η i+1 und der Beziehung x i+1 = Φ t i+1,t i x i folgt e i+1 = η i+1 x i+1 = η i + t Ψ(t i, η i, t) Φ t i+1,t i x i = [η i x i ] + t [Ψ(t i, η i, t) Ψ(t i, x i, t)] + t Nach der Lipschitz-Bedingung (2.223) ist Ψ(t i, η i, t) Ψ(t i, x i, t) M η i x i = M e i. Wegen der Ordnung p des ESV ist (vgl. (2.5)) Ψ(t i, x i, t) Φti+1,ti x i x i t λ tp für ein geeignetes λ. Hieraus ergibt sich für die Folge e i die Abschätzung e i+1 (1 + M t) e i + λ t p+1. Wegen Lemma (2.3.3) und e 0 = 0 folgt hieraus [ Ψ(t i, x i, t) Φt i+1,t i x i x i t ]. e N λ t p+1 exp(nm t) 1 M t = λ t p exp(m(t t 0)) 1. M

2.3. KONVERGENZ VON EINSCHRITTVERFAHREN 23 t = 0.1 t = 0.01 t = 0.001 Fehler rel. Fehler Fehler rel. Fehler Fehler rel. Fehler Euler 2.275E+05 8.479E-01 5.463E+04 2.036E-01 6.173E+03 2.300E-02 Heun 4.758E+04 1.177E-01 6.775E+02 2.525E-03 6.967E+00 2.596E-05 RKV 4.091E+02 1.525E-03 5.619E-02 2.094E-07 1.431E-06 5.331E-12 Tabelle 2.1: Numerische Berechnung von x(5) aus Beispiel (2.3.4) (2.3.4) Beispiel: Wir testen drei Verfahren unterschiedlicher Ordnung, das Eulersche Polygonzugverfahren, das Heun-Verfahren und das klassische RKV, am AWP x (t) = t x(t), x(0) = 1. Die exakte Lösung ist gegeben durch x(t) = exp(0.5 t 2 ). Zur Berechnung von x(5) [= 2.68337...E+05] wird das Intervall [0, 5] in 50, 500 und 5000 gleiche Teilintervalle unterteilt. Die globalen Diskretisierungsfehler sind in Tabelle 3 dargestellt. Daneben ist der relative Fehler (x exakt (5) x numerisch (5))/x exakt (5) zu finden, welcher angibt, auf wie viele führende Stellen das numerische Ergebnis exakt ist. Es zeigt sich, dass das klassische RKV ohne großen Aufwand eine Genauigkeit liefert, welche nahe an die rechnerinterne Darstellungsgenauigkeit reeller Zahlen kommt.

24 KAPITEL 2. EINSCHRITTVERFAHREN (ESV)

Kapitel 3 Lineare Mehrschrittverfahren (MSV) 3.1 Das Konzept der Mehrschrittverfahren Das Konzept der ESV bestand in der Berechnung einer Approximation η i+1 aus dem vorhergehenden Wert η i. Um hierbei Verfahren höherer Ordnung zu erzielen (z.b. RKV), ist es in jedem Zeitschritt nötig, die Funktion f(t, x) an mehreren Zwischenstellen auszuwerten. Mehrschrittverfahren dagegen stellen Berechnungsverfahren für η i+1 dar, für welche die bereits bekannten Werte η i,..., η i k verwendet werden. Die zugrunde liegenden Ideen entstammen der Interpolationstheorie. 1 Dies illustrieren die folgenden ersten Beispiele zur Lösung des AWP x = f(t, x), x(t 0 ) = x 0. (3.1) Die exakte Lösung werde wieder mit x(t) bezeichnet. Wie früher seien zu einem vorgegebenen Zeitschritt t die diskreten Zeiten t i := t 0 + i t definiert. (3.1.1) Beispiele: Durch Integration der gdgl des AWP folgt Bezeichnen wir ti+1 t i x (t)dt = x(t i+1 ) x(t i ) = ti+1 t i f(t, x(t))dt. F (t) := f(t, x(t)), 1 Vgl. Einführungsvorlesung zur Numerischen Mathematik. 25

26 KAPITEL 3. LINEARE MEHRSCHRITTVERFAHREN (MSV) so erhalten wir die folgende exakte Formel x(t i+1 ) = x(t i ) + ti+1 t i F (t)dt. (3.2) Zu ihrer Integration erinnern wir uns an die Ideen zur Herleitung der Newton-Cotes- Formeln zur Integration. (a) Wir ersetzen den Integranden F (t) durch das lineare Interpolationspolynom zu den Punkten (t i 1, F (t i 1 )) und (t i, F (t i )): P 1 (t) := F (t i ) + (t t i ) F (t i 1) F (t i ) = F (t i ) + (t t i ) F (t i) F (t i 1 ). t i 1 t i t Setzen wir P 1 (t) anstelle von F (t) in die Gleichung (3.2) ein, so folgt x(t i+1 ) x(t i ) + t [1.5f(t i, x(t i )) 0.5f(t i 1, x(t i 1 ))]. Dies führt zum expliziten Mehrschrittverfahren η i+1 = η i + t [1.5f(t i, η i ) 0.5f(t i 1, η i 1 )]. ( explizit deshalb, da η i+1 durch diese Formel direkt aus den Werten η i und η i 1 berechnet werden kann.) (b) Ersetzen wir F (t) durch das lineare Interpolationspolynom zu den Punkten (t i, F (t i )) und (t i+1, F (t i+1 )): so erhalten wir P 1 (t) = F (t i ) + (t t i ) F (t i+1) F (t i ), t x(t i+1 ) x(t i ) + t 2 [f(t i, x(t i )) + f(t i+1, x(t i+1 ))] mit dem entsprechenden impliziten Verfahren η i+1 = η i + 0.5 t [f(t i, η i ) + f(t i+1, η i+1 )]. ( implizit deshalb, weil die Gleichung nicht unmittelbar nach η i+1 aufgelöst werden kann.) (c) Ersetzen wir schließlich F (t) durch das quadratische Interpolationspolynom P 2 (t) zu den Punkten (t i 2, F i 2 ), (t i 1, F i 1 ) und (t i, F i ): P 2 (t) = F i + 1 2 t 2 {(t t i) 2 [F i 2 2F i 1 + F i ] + t (t t i ) [F i 2 4F i 1 + 3F i ]}

3.1. DAS KONZEPT DER MEHRSCHRITTVERFAHREN 27 (Rechnen Sie diese Darstellung als kleine Übung nach, z.b. mit Hilfe der Lagrange- Polynome!), so folgen die Näherung x(t i+1 ) x(t i ) + t 12 [5f(t i 2, x(t i 2 )) 16f(t i 1, x(t i 1 )) + 23f(t i, x(t i ))] sowie das explizite Mehrschrittverfahren η i+1 = η i + t 12 [5f(t i 2, η i 2 ) 16f(t i 1, η i 1 ) + 23f(t i, η i )]. Die oben erhaltenen Ansätze werden wie folgt verallgemeinert. (3.1.2) Definition: Ein Verfahren der Form 2 η i+r + a r 1 η i+r 1 + + a 0 η i = t [b r f(t i+r, η i+r ) + + b 0 f(t i, η i )] (3.3) heißt (lineares) Mehrschrittverfahren (MSV) (genauer: r-schritt-verfahren). Ist b r = 0, so heißt das MSV explizit, andernfalls implizit. In den Beispielen (3.1.1) beschreibt nach dieser Definition (a) ein explizites 2-Schritt- Verfahren: η i+2 η i+1 = t [1.5f(t i+1, η i+1 ) 0.5f(t i, η i )]. Das Beispiel (b) beschreibt ein implizites 1-Schritt-Verfahren (insbesondere also ein ESV): η i+1 η i = t 2 [f(t i+1, η i+1 ) + f(t i, η i )]. Durch (c) ist ein explizites 3-Schritt-Verfahren definiert gemäß η i+3 η i+2 = t 12 [5f(t i, η i ) 16f(t i+1, η i+1 ) + 23f(t i+2, η i+2 )]. Wir stellen im folgenden drei wichtige Klassen von MSV vor. A Adams-Bashforth-Verfahren 2 Sind keine Missverständnisse zu befürchten, so schreiben wir im Folgenden auch gelegentlich f l anstelle von f(t l, η l ).

28 KAPITEL 3. LINEARE MEHRSCHRITTVERFAHREN (MSV) k = 0 1 2 3 4 5 β (0) k 1 β (1) k 1 2 β (2) k β (3) k 9 24 β (4) k β (5) k 475 1440 3 2 5 16 12 12 251 1274 720 720 23 12 37 59 24 24 2877 7298 1440 1440 55 24 2616 2774 720 720 1901 720 9982 7923 1440 1440 4277 1440 Tabelle 3.1: Die Koeffizienten der Adams-Bashforth-Verfahren Dies sind explizite Verfahren, bei denen (in Verallgemeinerung zu den Beispielen (3.1.1) (a),(c) die Funktion F (t) aus Gleichung (3.2) im Intervall [t i+q, t i+q+1 ] durch das Interpolationspolynom zu den Knoten t i,..., t i+q approximiert wird. Sind L k, k = 0,..., q, die zugehörigen Lagrangepolynome, L k (t) = q l=0 l k t t l t k t l, so ist mit den Koeffizienten β (q), definiert durch k t β (q) ti+q+1 q+1 k := L k (t)dt = s:=(t ti )/ t t t i+q q und mit f k := f(t k, η k ) durch q l=0 l k s l k l ds η i+q+1 η i+q = t [β q (q) f i+q + β q 1f (q) i+q 1 + + β (q) 0 f i ] (3.4) das (q+1)-stufige Adams-Bashforth-Verfahren gegeben. Die Koeffizienten β (q) k sind in Tabelle 4 dargestellt. Definieren wir den lokalen Diskretisierungsfehler wie im Fall der ESV, so hat dieses Verfahren die Ordnung q + 1 (vgl. Abschnitt 3.2). Das (q+1)-stufige Verfahren kann erstmalig angewendet werden, wenn die Werte η 0,..., η q bekannt sind. Diese Werte müssen durch andere Verfahren, etwa ESV der gleichen Ordnung, berechnet werden. Das Schema des numerischen Verfahrens zur Approximation von x(t) im Intervall [t 0, T ] sieht demnach wie folgt aus.

3.1. DAS KONZEPT DER MEHRSCHRITTVERFAHREN 29 k = 0 1 2 3 4 5 β (0) k 1 β (1) k β (2) k 1 β (3) k β (4) k 19 β (5) k 1 1 2 2 8 12 12 1 5 24 24 720 27 173 1440 1440 5 12 19 24 106 264 720 720 9 24 646 720 482 798 1440 1440 251 720 1427 1440 475 1440 Tabelle 3.2: Die Koeffizienten der Adams-Moulton-Verfahren (3.1.3) Algorithmus (Adams-Bashforth-Verfahren): S0 S1 Initialisierung: Wähle Schrittzahl N ln und Ordnung q + 1; definiere t := (T t 0 )/N und setze η 0 := x 0. Anlaufrechnung: Wähle ESV Ψ(t, x, h) mit der selben Ordnung und berechne η i+1 := η i + t Ψ(t i, η i, t) für i = 0,..., q 1. S2 Einsatz des Adams-Bashforth-Verfahrens: Für i := q,..., N 1 berechne η i+1 := η i + t q k=0 β (q) q k f(t i k, η i k ). B Adams-Moulton-Verfahren Diese impliziten Verfahren erhält man, wenn man die Funktion F (t) im Intervall [t i+q 1, t i+q ] durch das Interpolationspolynom zu den Knoten t i,..., t i+q approximiert. Das q-schritt- Adams-Moulton-Verfahren (q 1) hat die Form η i+q η i+q 1 = t [β q (q) f i+q + + β (q) 0 f i ]. (3.5) Die Koeffizienten β (q) k (einschließlich des impliziten ESV für q = 0) gehen aus Tabelle 5 hervor. Als klassisches Adams-Moulton-Verfahren wird das Verfahren für q = 4 bezeichnet.

30 KAPITEL 3. LINEARE MEHRSCHRITTVERFAHREN (MSV) Als Schwierigkeit gegenüber den Adams-Bashforth-Verfahren ergibt sich hier, dass η i+q nicht direkt aus Gleichung (3.5) berechnet werden kann, da diese unbekannte Größe auch in f i+q = f(t i+q, η i+q ) auftaucht. Es bietet sich hier an, einen Löser für nichtlineare Gleichungen etwa das Newton-Verfahren auf die Gleichung R(ξ) = 0 anzuwenden mit R(ξ) := ξ η i+q 1 t [β q (q) f(t i+q, ξ) + β q 1f (q) i+q 1 + + β (q) 0 f i ]. (3.6) (3.1.4) Beispiel: Wir betrachten das Adams-Moulton-Verfahren (q = 2) für die gdgl x (t) = t + x(t) n. Aus dem Ansatz η i+1 = η i + t 12 [5f(t i+1, η i+1 ) + 8f(t i, η i ) f(t i 1, η i 1 )] folgt die Gleichung für die Unbekannte η i+1, mit der Konstanten C i = η i + t η i+1 5 t 12 ηn i+1 = C i, (3.7) [ 2 3 ηn i 1 ] 12 ηn i 1 + t i + t2 3. Für n = 1, 2 lässt sich die Gleichung leicht nach η i+1 auflösen mit dem Ergebnis η i+1 = η i+1 = 12 12 5 t C i (n = 1), 6 1 1 5 t C i (n = 2). 5 t 3 (Überlegen Sie sich, warum für n = 2 die andere Lösung der quadratischen Gleichung (3.7) nicht in Frage kommt! Entwickeln Sie hierzu η i+1 in eine Reihe bzgl. t.) Für andere Werte n bietet sich das Newton-Verfahren an zur Lösung der Gleichung (3.7). Zur numerischen Lösung muss das Adams-Bashforth-Verfahren (3.1.3) wie folgt modifiziert werden. (3.1.5) Algorithmus (Adams-Moulton-Verfahren): S0, S1 (wie in (3.1.3)) S2 berechne η i+1 als Lösung von R(ξ) = 0 (z.b. mit dem Newton-Verfahren), wobei R(.) gegeben ist durch (3.6).

3.2. DIE ORDNUNG LINEARER MSV 31 Mit den Kriterien des Abschnitts 3.2 kann festgestellt werden, dass das q-schritt-adams- Moulton-Verfahren von der Ordnung q + 1 ist. C Prädiktor-Korrektor-Verfahren Die Lösung der Gleichung R(ξ) = 0 kann unter Umständen sehr aufwendig sein. Prädiktor-Korrektor-Verfahren 3 verkürzen diesen Weg, indem die Nullstelle von R(ξ) nicht exakt, sondern nur näherungsweise berechnet wird. Hierbei wird zunächst mit Hilfe eines expliziten Verfahrens ein Schätzwert η i+q für η i+q ermittelt (Prädiktor); anschließend wird in der Funktion R(ξ) des impliziten Verfahrens der Ausdruck f(t i+q, ξ) ersetzt durch f(t i+q, η i+q ) und η i+q ermittelt als (explizite) Nullstelle der so veränderten Funktion (Korrektor). Es bietet sich an, als Prädiktor ein q-schritt-adams-bashforth-verfahren und als Korrektor ein q-schritt-adams-moulton-verfahren zu verwenden. Es zeigt sich, dass die Ordnung des so veränderten Verfahrens gleich der des entsprechenden impliziten Adams-Moulton-Verfahrens ist (vgl. Abschnitt 3.2). (3.1.6) Beispiel: Für q = 3 lautet ein Zeitschritt des Prädiktor-Korrektor-Verfahrens S1 Bestimme den Prädiktorwert η (P ) i+1 durch das Adams-Bashforth-Verfahren gemäß η (P ) i+1 = η i + t 12 [23f(t i, η i ) 16f(t i 1, η i 1 ) + 5f(t i 2, η i 2 )]; S2 berechne η i+1 aus der Gleichung für das Adams-Moulton-Verfahren durch η i+1 = η i + t 24 [9f(t i+1, η (P ) i+1) + 19f(t i, η i ) 5f(t i 1, η i 1 ) + f(t i 2, η i 2 )]. 3.2 Die Ordnung linearer MSV Ähnlich wie in der Definition (2.1.2) für ESV definieren wir die Ordnung von MSV mit Hilfe des lokalen Diskretisierungsfehlers, welcher sich ergibt, wenn wir die exakte 3 praedicare (lat.) = vorhersagen, corrigere (lat.) = verbessern

32 KAPITEL 3. LINEARE MEHRSCHRITTVERFAHREN (MSV) Lösung der gdgl in die Gleichung für das MSV einsetzen. Im Folgenden werde wieder für gegebenes (t i, η i ) mit z(t) die exakte Lösung der gdgl durch diesen Punkt bezeichnet: z(t) := Φ t,t i η i. (3.2.1) Definition: (a) Der lokale Diskretisierungsfehler für das MSV (3.3) ist definiert durch ɛ(t i, η i, t) := 1 t [z(t i+r) + a r 1 z(t i+r 1 ) + + a 0 z(t i )] [b r f(t i+r, z(t i+r )) + + b 0 f(t i, z(t i ))]. (b) Das MSV heißt von der Ordnung p, wenn ɛ(t i, η i, t) = O( t p ). Die Berechnung der Ordnung erfolgt wieder mit Hilfe von Taylorentwicklungen um (t i, η i ). Aus z(t i+l ) = z(t i ) + l t z (t i ) + 1 2! (l t)2 z (t i ) + und f(t i+l, z(t i+l )) = z (t i+l ) = z (t i ) + l t z (t i ) + 1 2! (l t)2 z (t i ) + folgt leicht die Entwicklung für den lokalen Diskretisierungsfehler ɛ(t i, η i, t) = c 0 t z(t i) + c 1 z (t i ) + c 2 tz (t i ) + = l c l t l 1 z (l) (t i ) mit c 0 := a 0 + a 1 + + a r, (3.8) c 1 := [a 1 + 2a 2 + + ra r ] [b 0 + b 1 + + b r ] (3.9) sowie für l 2 c l := 1 l! [a 1 + 2 l a 2 + + r l a r ] 1 (l 1)! [b 1 + 2 l 1 b 2 + + r l 1 b r ]. (3.10)

3.2. DIE ORDNUNG LINEARER MSV 33 Hierbei wurde a r := 1 gesetzt. Wir fassen zusammen. (3.2.2) Satz: Das MSV hat genau dann (mindestens) die Ordnung p (p 1), wenn mit den Definitionen (3.8), (3.9) und (3.10) für c l gilt c 0 = c 1 = = c p = 0. Beim Entwerfen von MSV ist es nun ein Ziel, die Koeffizienten a l, b l so zu bestimmen, dass möglichst viele der c l verschwinden. (3.2.3) Beispiele: (a) Ein explizites 3-Schritt-Verfahren der Form η i+1 + a 1 η i 1 = t [b 0 f(t i 2, η i 2 ) + b 1 f(t i 1, η i 1 ) + b 2 f(t i, η i )] mit maximaler Ordnung soll bestimmt werden. (Man beachte, dass a 3 = 1 und a 0 = a 2 = 0.) Die maximale Ordnung 3 erhält man, wenn a 1, b 0, b 1 und b 2 so bestimmt werden, dass Die Lösung 0 = c 0 = a 1 + 1, führt auf das Verfahren 3. Ordnung 0 = c 1 = a 1 + 3 b 0 b 1 b 2 = 0, 0 = 2c 2 = a 1 + 9 2b 1 4b 2, 0 = 6c 3 = a 1 + 27 3b 1 12b 2. a 1 = 1, b 0 = 1/3, b 1 = 2/3, b 2 = 7/3 η i+1 = η i 1 + t 3 [7f(t i, η i ) 2f(t i 1, η i 1 ) + f(t i 2, η i 2 )]. (b) Zur Bestimmung einer impliziten 3-Schritt-Methode der Form η i+1 + a 1 η i 1 = t [b 0 f(t i 2, η i 2 ) + b 1 f(t i 1, η i 1 ) + b 2 f(t i, η i ) + b 3 f(t i+1, η i+1 )] mit maximaler Ordnung ist das Gleichungssystem 0 = c 0 = a 1 + 1,

34 KAPITEL 3. LINEARE MEHRSCHRITTVERFAHREN (MSV) 0 = c 1 = a 1 + 3 b 0 b 1 b 2 b 3 = 0, 0 = 2c 2 = a 1 + 9 2b 1 4b 2 6b 3, 0 = 6c 3 = a 1 + 27 3b 1 12b 2 27b 3, 0 = 24c 4 = a 1 + 81 4b 1 32b 2 108b 3 zu lösen mit dem Ergebnis a 1 = 1, b 0 = 0, b 1 = 1/3, b 2 = 4/3, b 3 = 1/3. Das hieraus resultierende Verfahren hat die Ordnung 4 und ist entgegen dem ursprünglichen Ansatz wegen b 0 = 0 ein implizites 2-Schritt-Verfahren. (c) Das implizite 3-Schritt-Verfahren maximaler Ordnung mit dem Ansatz erhält man für es ist gegeben durch a 0 η i 2 + a 1 η i 1 + a 2 η i + η i+1 = t b 3 f i+1 a 0 = 2/11, a 1 = 9/11, a 2 = 18/11, b 3 = 6/11; 11 6 η i+1 3η i + 3 2 η i 1 1 3 η i 2 = t f(t i+1, η i+1 ). Dieses Verfahren gehört in die Klasse der BDF- ( backward differentiation formula ) Methoden, da die linke Seite eine (Rückwärts-) Approximation der ersten Ableitung zur Zeit t i+1 darstellt: Ersetzen wir η i+l durch z(t i+l ) := Φ t i+l,t i+1 η i+1, so folgt 11 6 z(t i+1) 3z(t i ) + 3 2 z(t i 1) 1 3 z(t i 2) [ 11 = 6 3 + 3 2 1 [ z(t i+1 ) + 3 2 3] 3 2 + 3 1 ] t z (t i+1 ) + O( t 2 ) 3 = t z (t i+1 ) + O( t 2 ). Übung: (a) Zeigen Sie: Das 3-Schritt-Adams-Bashforth-Verfahren hat die Ordnung 3, das 3-Schritt-Adams-Moulton-Verfahren die Ordnung 4. (b) Zeigen Sie durch Taylorreihenentwicklung, dass das Prädiktor-Korrektor-Verfahren aus Beispiel (3.1.6) die Ordnung 4 hat. Vergleichen Sie den Rechenaufwand für dieses Verfahren mit dem für das Adams-Moulton-Verfahren der selben Ordnung.

3.3. HOMOGENE LINEARE DIFFERENZENGLEICHUNGEN 35 Die Ergebnisse des Beispiels lassen sich verallgemeinern. Es gilt (ohne Beweis) (3.2.4) Satz: Das q-schritt-adams-bashforth-verfahren hat die Ordnung q; das q- Schritt-Adams-Moulton-Verfahren hat die Ordnung q + 1. Das zugehörige Prädiktor- Korrektor-Verfahren, zusammengesetzt aus dem q-schritt-adams-bashforth-prädiktor und dem q-schritt-adams-moulton-korrektor, hat ebenfalls die Ordnung q + 1. 3.3 Homogene lineare Differenzengleichungen Lineare Differenzengleichungen, wie sie bei der Formulierung von MSV entstehen, r a k η i+k = c i k=0 (vgl. Definition (3.1.2)), entwickeln eine Eigendynamik. Dies ist bereits der Fall für c i = 0 (entsprechend der gdgl x = 0). Diese Differenzengleichungen sind der Inhalt des folgenden Abschnitts. (3.3.1) Beispiel: Die Formel η i+1 + 4η i 5η i 1 = 2 t (2f i + f i 1 ) beschreibt ein explizites 2-Schritt-Verfahren. (Bestimmen Sie die Ordnung!) Wir wenden dieses auf das AWP x (t) = 0, x(t 0 ) = 1 an. In diesem Fall ist η 0 = 1; wir nehmen an, dass η 1 durch ein ESV mit einem gewissen Rundungsfehler berechnet wurde: η 1 = 1 + ɛ t. Für ɛ = 10 6 und t = 0.05 erhalten wir auf diese Weise η 19 = 158948 und η 20 = 794734, also offenbar ein oszillierendes, stark divergierendes Verhalten. Diese Instabilität wollen wir untersuchen. Zur Bestimmung der allgemeinen Lösung der Gleichung η i+1 + 4η i 5η i 1 = 0 (3.11) mit Startwerten η 0 = c 0 und η 1 = c 1 bestimmen wir zunächst die Nullstellen des charakteristischen Polynoms ρ(λ) = λ 2 + 4λ 5 = 0. Diese sind λ 1 = 1 und λ 2 = 5. Man kann sich nun leicht überlegen, dass die allgemeine Lösung von (3.11) gegeben ist durch η i = αλ i 1 + βλ i 2 = α + β ( 5) i.

36 KAPITEL 3. LINEARE MEHRSCHRITTVERFAHREN (MSV) α und β sind eindeutig bestimmt durch die Startwerte c 0 und c 1. Offenbar ist das instabile Verhalten des MSV dadurch verursacht, dass ρ(λ) eine Nullstelle besitzt, deren Betrag größer als Eins ist. Die Argumente des Beispiels (3.3.1) für die Lösung der homogenen Differenzengleichung lassen sich verallgemeinern. Es gilt (3.3.2) Satz: Hat das Polynom r-ten Grades ρ(λ) := a r λ r + + a 1 λ + a 0 (3.12) die r paarweise verschiedenen Nullstellen λ 1,..., λ r, so lässt sich jede Lösungsfolge (η i ) i ln der homogenen Differenzengleichung r a s η i+s = 0 (3.13) s=0 darstellen in der Form r η i = c s λ i s. s=1 Die Koeffizienten c s sind eindeutig bestimmt durch die Startwerte η 0,..., η r 1. Wichtig für unsere Zwecke ist es, dass die Lösungen der homogenen Gleichung (3.13) langsamer als linear bzgl. des Indexes anwachsen, dass also die Wachstumsbeschränkung gilt. Hierzu gilt das folgende wichtige Resultat. η i lim i i = 0 (3.14) (3.3.3) Satz: Die Wachstumsbeschränkung (3.14) gilt genau dann für beliebige Startwerte η 0,..., η r 1, wenn das folgende Stabilitätskriterium erfüllt ist. Stabilitätskriterium: Das Polynom (3.12) besitzt nur Nullstellen λ s mit Betrag λ s 1. Ist λ s eine Nullstelle mit Betrag λ s = 1, so ist λ s einfache Nullstelle. (3.3.4) Beispiele: (a) Das MSV des Beispiels (3.3.1) erfüllt nicht das Stabilitätskriterium des Satzes (3.3.3), da mit λ 2 = 5 eine Nullstelle gegeben ist mit Betrag größer

3.4. KONSISTENZ UND KONVERGENZ VON MSV 37 als 1. (b) Für das Beispiel (3.2.3)(a) ist ρ(λ) gegeben durch ρ(λ) = λ 3 λ = λ (λ + 1) (λ 1). Die Nullstellen sind 0, 1 und 1. Das Stabilitätskriterium ist damit erfüllt. (c) Für das Beispiel (3.2.3)(c) ist ρ(λ) = 11 6 λ3 3λ 2 + 3 2 λ 1 3. Die Nullstellen sind λ 1 = 1 sowie λ 2/3 = 0.318182 ± 0.283864i. Das Stabilitätskriterium ist erfüllt. 3.4 Konsistenz und Konvergenz von MSV Gegeben sei das lineare MSV r r a s η i+s = t b s f i+s, a r = 1. (3.15) s=0 s=0 (3.4.1) Definition: Das erste und das zweite charakteristische Polynom des MSV (3.12) sind definiert durch r ρ(z) := a s z s, r σ(z) := b s z s. (3.16) s=0 s=0 (3.4.2) Definition: (a) Das MSV (3.15) heißt konsistent, falls es mindestens die Ordnung 1 hat, falls also (nach Satz (3.2.2)) gilt c 0 = a 0 + a 1 + + a r = 0, c 1 = a 1 + 2a 2 + + ra r (b 0 + + b r ) = 0. Man überlegt sich leicht, dass diese Konsistenzbedingung äquivalent ist zur Konsistenzbedingung: ρ(1) = 0, ρ (1) σ(1) = 0. (3.17)

38 KAPITEL 3. LINEARE MEHRSCHRITTVERFAHREN (MSV) (b) Ähnlich wie bei ESV (vgl. Abschnitt 2.3) wird die Konvergenz von MSV definiert. Hierzu sei x(.) die exakte Lösung des AWP und η ( t) i sei die Lösung des MSV zur Schrittweite t. Das MSV heißt konvergent, wenn für beliebige t > t 0 und N = 1, 2, 3,... zu den Schrittweiten t = (t t 0 )/N gilt: lim N η( t) N = x(t). Das folgende zentrale Ergebnis, nach welchem Konsistenz und Stabilität von MSV zur Konvergenz führen, geben wir zunächst ohne Beweis an. (3.4.3) Satz: Ein MSV der Form (3.3) ist genau dann konvergent für beliebige AWP, wenn es konsistent ist und das Stabilitätskriterium des Satzes (3.3.3) erfüllt. Wir kommen nun zur Fehleranalyse für gewisse explizite MSV. Wie früher bezeichne x(t) die exakte Lösung des AWP x = f(t, x), x(t 0 ) = x 0. Es bezeichne d j+1 := 1 ( ) r 1 t x(t j+1 ) [ a s x(t j+1 r+s ) + t b s f(t j+1 r+s, x(t j 1+r+s ))] s=0 den lokalen Diskretisierungsfehler des MSV beim Einsetzen der exakten Lösung. (3.4.4) Satz: Für das explizite MSV gelte a s 0, s = 0,..., r 1, a r = 1. Es sei e n := x(t n ) η n der Fehler an der Stelle t n = t 0 + n t. Definieren wir die Güte der Startwerte durch G := den maximalen Diskretisierungsfehler durch max x(t j) η j, 0 j r 1 D := max j r d j

3.4. KONSISTENZ UND KONVERGENZ VON MSV 39 und so gilt die Abschätzung e n r 1 B := b s, s=0 ( G + D ) exp((t n t 0 ) LB). LB (L ist die Lipschitz-Konstante für f(.,.), vgl. Satz (1.1.5).) Beweis: Aus den Gleichungen (k := j + 1 r) r 1 η j+1 = [ a s η k+s + t b s f(t k+s, η k+s )] und r 1 s=0 x(t j+1 ) = [ a s x(t k+s ) + t b s f(t k+s, x(t k+s ))] + t d j+1 s=0 folgt durch Subtraktion, Anwenden der Dreiecksungleichung und Ausnutzung der Lipschitz- Stetigkeit von f für j r 1 r 1 e j+1 ( a s + t b s L) e k+s + t d j+1. (3.18) s=0 Für s = 0,..., r 1 definieren wir außerdem sei C s := a s + t L b s ; r 1 C := C s. Aus der Konsistenzbedingung folgt r 1 s=0 a s = a r = 1 und damit r 1 C = s=0 r 1 a s + t L s=0 s=0 b s = 1 + t LB 1. (3.19) Eingesetzt in (3.18) folgt hieraus r 1 r 1 e r C s e s + t D G C s + t D = G C + t D, e r+1 s=0 r 1 C s e s+1 + t D G s=0 ( r 2 G s=0 s=0 r 2 s=0 C s + C r 1 e r + t D C s + C C r 1 ) + t D (C r 1 + 1) GC 2 + t D (C + 1), e r+2 GC 3 + t D (C 2 + C + 1)

40 KAPITEL 3. LINEARE MEHRSCHRITTVERFAHREN (MSV) und allgemein (durch Induktion und wegen C 1) e r+l GC l+1 + t D Mit n = r + l folgt wegen (3.19) r+l 1 s=0 C s GC r+l + t D r+l 1 s=0 C s. n 1 e n G C n + t D C s = G C n + t D Cn 1 C 1 s=0 = G (1 + t LB) n + D LB [(1 + t LB)n 1] G exp(n tlb) + D [exp(n tlb) 1] LB ( G + D ) exp(n tlb). LB (3.4.5) Bemerkungen: (a) Eine ähnliche Abschätzung wie die des Satzes (3.4.4) kann auch für allgemeinere insbesondere auch für implizite MSV durchgeführt werden. (b) Sind die ersten r Werte η 0,..., η r 1 exakt gegeben, d.h. ist G = 0, und hat das MSV die Ordnung p, so ist D const t p und es folgt (in Analogie zu Satz (2.3.1) für ESV) e n const tp LB exp((t n t 0 ) LB) = O( t p ). Sind die Startwerte nicht exakt bekannt, so müssen sie um Verluste in der Ordnung zu vermeiden mit einem (Einschritt-) Verfahren der Ordnung p ermittelt werden. (c) Konsistenz von Prädiktor-Korrektor-Verfahren...