4 Numerik von Anfangswertaufgaben

Ähnliche Dokumente
2.4 Adaptive Verfahren mit Schrittweitensteuerung

4 Runge-Kutta-Verfahren

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung

Teil II. Nichtlineare Optimierung

Kevin Caldwell. 18.April 2012

Nichtlineare Optimierung ohne Nebenbedingungen

Optimalitätskriterien

Charakteristikenmethode im Beispiel

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

Skalare Differentialgleichungen

17. Penalty- und Barriere-Methoden

Bestimmung einer ersten

Numerik gewöhnlicher Differentialgleichungen

TEILWEISE ASYNCHRONE ALGORITHMEN

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

FB IV Mathematik Universität Trier. Präsentation von Nadja Wecker

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli Fachbereich für Mathematik und Statistik Universität Konstanz

Hamilton-Formalismus

Modulabschlussklausur Analysis II

Elemente der Analysis II

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Kapitel 15: Differentialgleichungen

Beispiel Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) =

11. Primfaktorzerlegungen

Rekursionen (Teschl/Teschl )

Rekursionen. Georg Anegg 25. November Methoden und Techniken an Beispielen erklärt

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht

2.12 Potenzreihen. 1. Definitionen. 2. Berechnung POTENZREIHEN 207. Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen.

Entwurf robuster Regelungen

Analysis. mit dem Computer-Algebra-System des TI-92. Anhang 2: Gedanken zum Lehrplan. Beat Eicke und Edmund Holzherr 11.

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik

Lineare Gleichungssysteme

1 Lineare Gleichungssysteme

2 3 x3 17. x k dx = x k x k+1 k +1. Mit jeder weiteren partiellen Integration reduziert sich der Grad des Faktors x n, induktiv erhalten wir also

Übungen zur Numerischen Mathematik 2 Sommersemester Übungsblatt 13

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Vorlesung. Funktionen/Abbildungen 1

1 Stochastische Prozesse in stetiger Zeit

DIFFERENTIALGLEICHUNGEN

Das Briefträgerproblem

Gleichungen - Aufgabenstellung und Lösungsstrategien

4 Greedy-Algorithmen (gierige Algorithmen)

Institut für Leistungselektronik und Elektrische Antriebe. Übungen Regelungstechnik 2

Codierungstheorie Rudolf Scharlau, SoSe

Einführung in die Informatik I

Approximationsalgorithmen

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

Simulation elektrischer Schaltungen

PRAKTIKUM REGELUNGSTECHNIK 2

Kapitel 15. Lösung linearer Gleichungssysteme

OPERATIONS-RESEARCH (OR)

Ergänzungen zur Analysis I

Numerisches Programmieren

Wir unterscheiden folgende drei Schritte im Design paralleler Algorithmen:

Gefesselte Masse. Jörg J. Buchholz 23. März 2014

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.

Mathematik 1 für Wirtschaftsinformatik

Absolute Stetigkeit von Maßen

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg

NP-Vollständigkeit. Krautgartner Martin ( ) Markgraf Waldomir ( ) Rattensberger Martin ( ) Rieder Caroline ( )

Lösungen zum 3. Aufgabenblatt

Lineare Gleichungssysteme

Anwendung der Theorie von Gauß Shift Experimenten auf den Kolmogorov Smirnov Test und das einseitige Boundary Crossing Problem

Entscheidungsprobleme. Berechenbarkeit und Komplexität Entscheidbarkeit und Unentscheidbarkeit. Die Entscheidbarkeit von Problemen

13. Abzählen von Null- und Polstellen

Betragsgleichungen und die Methode der Fallunterscheidungen

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

Algebraische Kurven. Vorlesung 26. Die Schnittmultiplizität

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Lineare Gleichungssysteme

Gewöhnliche Differentialgleichungen

Dr. Jürgen Roth. Fachbereich 6: Abteilung Didaktik der Mathematik. Elemente der Algebra. Dr. Jürgen Roth 3.1

Mathematische Grundlagen

Numerische Integration

JOHANNES BONNEKOH. Analysis. Allgemeine Hochschulreife und Fachabitur

Geoadditive Regression

8. Übung zur Vorlesung Mathematisches Modellieren Lösung

Praktikum Wissenschaftliches Rechnen 3. Aufgabenblatt

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

IV. Spieltheorie. H. Weber, FHW, OR SS07, Teil 7, Seite 1

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

0, v 6 = , v 4 = span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

Serie 13: Online Test

Maple-Skripte. A.1 Einleitung. A.2 Explizite Zweischritt-Runge-Kutta-Verfahren. Bei der Ausführung

Primzahlzertifikat von Pratt

3. Grundlagen der Linearen Programmierung

GF(2 2 ) Beispiel eines Erweiterungskörpers (1)

Optimierung für Nichtmathematiker

Ausarbeitung des Seminarvortrags zum Thema

Semidiskretisierung der PDA-Systeme

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz

Protokoll Physikalisch-Chemisches Praktikum für Fortgeschrittene

4. Wässrige Lösungen schwacher Säuren und Basen

Lineare Gleichungssysteme

Einführung. Vita Rutka. Universität Konstanz Fachbereich Mathematik & Statistik AG Numerik SS 2009

Didaktik der Algebra Jürgen Roth Didaktik der Algebra 4.1

Transkript:

4 Numerik von Anfangswertaufgaben Diese Einführung behandelt numerische Lösungsverfahren für gewöhnliche, explizite Differentialgleichungen. Ordnung. Im Folgenden wird die Variable t R die Zeit und x R n den Zustand der Dimension n N + bezeichnen. Eine gewöhnliches, implizites Differential-Algebrasystem m-ter Ordnung mit r Gleichungen lässt sich in der Form ( F t, y, ẏ,..., y (m)) =, y(t ) = y, ẏ(t ) = ẏ,..., y (m ) (t ) = y (m ), (4.) mit y R r und den Anfangsbedingungen y, ẏ,..., y (m ) zum Startzeitpunkt t angeben. Dabei ( ist F( ) ) eine auf der Menge Θ R R r definierte Abbildung F( ) : Θ R r. Ist F ( ) invertierbar, erhält man eine explizite Darstellung y (m) Mit der Einführung des Zustandsvektors x T = y (m) = F ( t, y, ẏ,..., y (m )). (4.2) [ y T ẏ T... sich schlussendlich eine explizite Zustandsdarstellung. Ordnung ( y (m )) T ] R n ergibt d dt x = f(t, x), x(t ) = x. (4.3) Dabei ist die rechte Seite der Differentialgleichung f(t, x) eine auf der Menge Ω R R n definierte Abbildung f( ) : Ω R n mit n = mr. Die Menge Ω heißt erweiterter Zustandsraum. Darüber hinaus wird stets vorausgesetzt, dass (t, x ) Ω gilt. Beispiel 4.. Die Bewegungsgleichungen eines Starrkörpers, d.h. sind in der Form (4.) D (q) q + C (q, q) q + g (q) = τ(t), (4.4) F (t, q, q, q) = (4.5) als Differentialgleichungssystem 2. Ordnung (m = 2) bestehend ] aus r ( Gleichungen ) gegeben. Führt man den Zustandsvektor x T = [q T q T ein, und ist q F ( ) =

4 Numerik von Anfangswertaufgaben Seite 6 D (q) invertierbar für alle q, so ergibt sich die explizite Zustandsdarstellung d dt x = q D (q) ( C (q, q) q + g (q) τ(t) ). (4.6) Die Lösung von (4.3) kann allgemein wie folgt definiert werden: Definition 4.. Sei J R ein nicht leeres Intervall mit t J. Eine Abbildung x(t) ( C (J) ) n heißt Lösung des Anfangswertproblems genau dann, wenn und x(t ) = x gilt. d dt x(t) = f( t, x(t) ) für alle t J (4.7) Für die spätere numerische Lösung ist folgendes Lemma von großer Bedeutung: Lemma 4.. Eine Funktion x(t) ist genau dann eine stetig differenzierbare Lösung des Anfangswertproblems (4.3) mit der Anfangsbedingung x, wenn sie der Integralgleichung genügt. t x(t) = x + f ( τ, x(τ) ) dτ (4.8) t Für den Beweis sei auf die am Ende des Skriptes angeführte Literatur verwiesen. Das Lemma 4. ergibt sich als einfache Folgerung aus dem Hauptsatz der Differential- und Integralrechnung und liefert die Äquivalenz von Anfangswertproblem und Integralgleichung. Das numerische Lösen der Anfangswertaufgabe (4.3) kann damit auf eine numerische Integration zurückgeführt werden. Viele der im Folgenden angeführten numerischen Verfahren für Anfangswertprobleme können mit Verfahren zur numerischen Integration (Quadraturformeln) in Verbindung gebracht werden. Zudem besagt das Lemma 4., dass wenn eine stetige Funktion x(t) die Integralgleichung (4.8) mit stetigem f( ) erfüllt, dieses x(t) automatisch stetig differenzierbar ist. Autonome Systeme Ein Spezialfall von (4.3) tritt auf, wenn die rechte Seite der Differentialgleichung nicht explizit von der Zeit abhängt. Man spricht dann von einem autonomen Anfangswertproblem, andernfalls von einem nichtautonomen Anfangswertproblem. Nichtautonome Systeme der Form (4.3) können in ein autonomes System transformiert werden, indem für die Zeit ein neuer Zustand x n+ = t eingeführt wird und das System (4.3) um f n+ = erweitert wird.

4 Numerik von Anfangswertaufgaben Seite 62 Lösungseigenschaften Die Lösung einer nichtlinearen Differentialgleichung (4.3) kann formal in der Form x(t) = Φ t,t(x ) (4.9) angegeben werden. Die zweiparametrige Familie Φ t,t( ) von im Allgemeinen nichtlinearen Abbildungen heißt Evolution der Differentialgleichung d dt x(t) = f( t, x(t) ), x(t ) = x. Die Evolution erfüllt für (t, x ) Ω offensichtlich folgende Eigenschaften: (i) Φ t,t (x) = x (4.a) ( (ii) Φ σ,t Φs,σ (x) ) = Φ s,t (x) (4.b) ( ) (iii) h Φ ( ) ( ) t,t+h x = f t, x (4.c) Für autonome Differentialgleichungen ist die Startzeit t beliebig. Man schreibt daher kurz Φ t ( ) anstatt von Φ t,t( ) und bezeichnet Φ t ( ) als Fluss. Eine spezielle Lösungskurve nennt man dann Trajektorie. Taylorentwicklung und Landau-Symbol Im Folgenden wird mehrfach von der Taylorentwicklung einer analytischen Funktion Gebrauch gemacht werden. Satz 4.. Es gibt zu jeder vektorwertigen Funktion f(x δ ) : Ω R n, die k-fach stetig differenzierbar in x δ ist, eine Taylorentwicklung in x der Form f(x + δx) = k j= h= ( ) j j! x j f (x)δx j + o( δx ) für δx, (4.) δ wobei die Punkte x sowie x δ = x + δx mitsamt ihrer Verbindungsstrecke in Ω liegen. Für den Beweis sei auf die angeführte Literatur verwiesen. Das kleine Landau-Symbol o( ) wird( verwendet, ) um anzudeuten, dass das Restglied vernachlässigbar klein gegenüber f (x)δx j ist. Äquivalent schreibt man auch z.b. für k = 2 kj= j! j x j δ ( ) f(x + δx) = f(x) + f (x)δx + ( ) 2 x δ 2 xδ 2 f (x)δx 2 + O( δx 3 ) für δx. (4.2) Das große Landau-Symbol O( ) wird hierbei verwendet, um das asymptotische Verhalten bei Annäherung an einen endlichen oder unendlichen Grenzwert zu beschreiben. Für die Norm des Approximationsfehlers r = O( δx 3 ) gilt folglich r C δx 3 für ein hinreichend kleines δx >, wobei C eine Konstante ist. Mit der Konstanten C wird somit 6 ( 3 x 3 δ ) f (x)δ abgeschätzt.

4 Numerik von Anfangswertaufgaben Seite 63 Newton-Verfahren Eine Möglichkeit, ein nichtlineares ] Gleichungssystem der Form γ(ξ) = r mit γ(ξ) : R r R r und ξ T = [ξ... ξ r, zu lösen, besteht in der Anwendung des sogenannten Newton-(Raphson-Simpson-)Verfahrens. Dazu wird angenommen, dass γ(ξ δ ) zumindest -fach stetig differenzierbar in ξ ist. Führt man für γ(ξ) eine Taylorentwicklung im Punkt ξ l mit ξ = ξ l + δξ durch, so erhält man γ(ξ) = γ ( ξ l) + Bricht man (4.3) nach dem linearen Glied ab und fordert γ ( ξ γ ) ( ξ l) ( ξ ξ l) + O( δξ 2 ). (4.3) ( ξ l+) = r, so ergibt sich ξ l+ = ξ l + d l, l =,, 2,... (4.4a) mit der sogenannten Newton-Richtung d l, welche Lösung des linearen Gleichungssystems ( ) ( ξ γ ξ l) ( d l = γ ξ l) (4.4b) ist. Die Newton-Iteration (4.4) wird dabei solange ausgeführt bis eine vorzugebende Toleranz TOL erreicht wird, d.h. ξ l+ ξ l TOL (4.5) gilt. Anhand des Newton-Verfahrens wird dementsprechend die numerische Lösung eines nichtlinearen Gleichungssystems auf eine iterative Lösung reduziert, für welche mehrere lineare Gleichungssysteme gelöst werden müssen. Das Newton-Verfahren gehört dabei zur Klasse der Fixpunktiterationen und man kann zeigen, dass das Verfahren für Startwerte ξ, die ( hinreichend ) nahe von ξ sind, mindestens quadratisch konvergent ist. Die Ableitung ξ γ (ξ) kann auch anhand von finiten Differenzen approximiert werden. Mit dem zentralen Differenzenquotienten erhält man z.b. ( ) γ (ξ) γ (ξ + he i) γ (ξ he i ), i =,..., r, (4.6) ξ i 2h wobei h eine geeignete Schrittweite und e i der i-te Einheitsvektor ist. Beim sogenannten vereinfachten Newton-Verfahren wird zudem die Newton-Richtung gemäß (4.4b) nur für l = bestimmt und in allen Iterationen (4.4a) verwendet. Polynominterpolation Gegeben sind s + voneinander verschiedene Wertepaare (t j, x j ), j =,,..., s, t j t i i j. Gesucht ist ein Polynom s-ten Grades p s (t) mit der Basisdarstellung s p s (t) = a j φ j, (4.7) j=

4. Existenz und Eindeutigkeit Seite 64 den konstanten Koeffizienten a,..., a s und den Basisfunktionen φ,..., φ s, welche die Interpolationsbedingungen p s (t j ) = x j, j =,,..., s (4.8) erfüllt. Für die Basis {φ =, φ = t,..., φ s = t s } erhält man anhand von (4.8) ein lineares Gleichungssystem für die Koeffizienten a,..., a s. Lagrange-Interpolation Die Polynominterpolation lässt sich auch geschickt mithilfe sogenannter Lagrange-Polynome formulieren. Dazu verwendet man als Basisfunktionen s + Lagrange-Polynome der Form l j (t) = s i= i j t t i t j t i = t t t j t t t j t j t j t t j+ t j t j+ t t s t j t s, (4.9a) (4.9b) womit sich das Interpolationspolynom direkt zu s p s (t) = x j l j (t) (4.2) j= ergibt. Das Interpolationspolynom p s (t) erfüllt (4.8), da l j (t k ) = { für j = k für j k (4.2) gilt. 4. Existenz und Eindeutigkeit Dass die Lösung einer Differentialgleichung nicht eindeutig sein muss, zeigt folgendes Beispiel. Beispiel 4.2. Hierzu betrachte man die Differentialgleichung Man überzeugt sich leicht, dass d dt x = x/3, x() = x =. (4.22) x (t) = (4.23a) ( ) 2t 3/2 x (t) = 3 (4.23b)

4.2 Einfluss von Störungen Seite 65 Lösungen von (4.22) sind. Obwohl die rechte Seite der Differentialgleichung stetig ist, ist die Lösung nicht eindeutig. Tatsächlich garantiert die Stetigkeit die Existenz einer Lösung, für die Eindeutigkeit werden jedoch weitere Bedingungen benötigt. Satz 4.2 (Lokale Existenz und Eindeutigkeit). Es sei f (t, x) stückweise stetig in t und genüge der Abschätzung (Lipschitz-Bedingung) f (t, x) f (t, z) L x z, < L < (4.24) für alle x, z B = {x R n x x r} und alle t [t, t + δ]. Dann existiert ein δ > so, dass d dt x = f (t, x), x (t ) = x (4.25) genau eine Lösung für t [t, t + δ] besitzt. Man sagt dann auch, die Funktion f (t, x) ist lokal Lipschitz auf B R n. Gilt die Bedingung (4.24) sogar im gesamten R n, dann bezeichnet man die Funktion f (t, x) als global Lipschitz. Für eine skalare Funktion f (x) : R R, die nicht explizit von der Zeit t abhängt, kann die Bedingung (4.24) in der Form f (x) f (z) x z L (4.26) angeschrieben werden. Die Bedingung (4.26) erlaubt eine sehr einfache grafische Interpretation, nämlich die, dass die Funktion f (x) keine Steigung besitzen darf, die größer als L ist. Daher sind Funktionen f (x), die an einem Punkt eine unendliche Steigung aufweisen (wie die Funktion x /3 von (4.22) am Punkt x = ) sicher nicht lokal Lipschitz. Dies impliziert natürlich auch, dass unstetige Funktionen f (x) am Punkt der Unstetigkeitsstelle die Lipschitz-Bedingung (4.26) nicht erfüllen. ( Dieser ) Zusammenhang zwischen der Lipschitz-Bedingung und der Beschränktheit von x f (x) wird im folgenden Satz ohne Beweis verallgemeinert: Satz( 4.3 )(Lipschitz-Bedingung und Stetigkeit). Sind die Funktion f (t, x) von (4.25) und x f (t, x) auf der Menge [t, t + δ] B mit B R n stetig, dann erfüllt f (t, x) lokal die Lipschitz-Bedingung ( ) von (4.24) mit einer Konstanten L, die gleich einer oberen Schranke für x f (t, x) auf B ist, d.h. es gilt ) L = sup ( x f (t, x). (4.27) x B 4.2 Einfluss von Störungen Wir werden uns zunächst mit der Frage beschäftigen, wie sich Störungen des Problems auf die Lösung auswirken. Prinzipiell können zwei Fehler unterschieden werden, nämlich

4.2 Einfluss von Störungen Seite 66 Eingabefehler und Fehler verursacht durch den Algorithmus. Die Wirkung von Eingabefehlern wird durch die Kondition des Problems beschrieben. Im folgenden Abschnitt steht daher die Kondition des Anfangswertproblems im Mittelpunkt. Es wird gezeigt, wie Störungen in den Anfangswerten, in der rechten Seite und in möglichen Parametern die Lösung beeinflussen. Satz 4.4 (Störungen der Anfangsbedingungen). Falls die Funktion f(t, x) von (4.3) der Lipschitz-Bedingung (4.24) genügt, gilt für zwei Lösungen x(t) und z(t) mit den Anfangsbedingungen x(t ) = x, z(t ) = z die Abschätzung x(t) z(t) x z e L t t. (4.28) Beweis. Anhand von d dt x = f(t, x) und d dtz = f(t, z) folgt durch Integration und damit t x(t) z(t) = x(t ) z(t ) + (f(τ, x) f(τ, z)) dτ t (4.29) x(t) z(t) x(t ) z(t ) }{{}}{{} t x(τ) z(τ) dτ. t }{{} (4.3) m(t) m m(τ) Aufgrund der Stetigkeit von m(t) folgt, dass die Hilfsgröße q(t) = e Lt t stetig differenzierbar ist. Es gilt dementsprechend t m(τ)dτ (4.3) m(t) = d dt( e Lt q(t) ) = Le Lt q(t) + e Lt q(t) (4.32) und damit ergibt sich nach Einsetzen von (4.3) in Kombination mit (4.3) bzw. liefert die Integration über das Intervall [t, t] q(t) m e Lt (4.33) q(t) m e Lt e Lt L. (4.34) Eingesetzt in (4.32) folgt schließlich m(t) m e L(t t ). (4.35) Die Integration in die Vergangenheit liefert ein analoges Ergebnis, womit die Gültigkeit von (4.28) gezeigt ist.

4.3 Parameterabhängige Differentialgleichungen Seite 67 Dem Beweis von Satz 4.4 liegt eine vereinfachte Fassung des Lemmas von Gronwall zugrunde, das eine wichtige Rolle bei verschiedenen Abschätzungen spielt. In der vollständigen Fassung lautet es: Lemma 4.2 (Gronwall). Sei J R ein nicht leeres Intervall mit t J und ρ, ε, L [, ). Ferner sei m(t) : J [, ) stetig und erfülle Dann gilt die Abschätzung t m(t) ρ + ε(t t ) + L m(τ)dτ. t (4.36) m(t) ρ e L t t + ε L Für den Beweis sei auf die angeführte Literatur verwiesen. ( ) e L t t. (4.37) Mit dem Lemma von Gronwall kann man die Abschätzung über die Auswirkung von Störungen in den Anfangswerten erweitern. Erfüllt f(t, x) die Lipschitz-Bedingung (4.24) und sei x eine exakte Lösung und z eine approximative Lösung, die eine Störung δ(t) aufweist, d.h. es gilt d z = f(t, z) + δ(t), δ(t) ε. (4.38) dt Mit m(t) := x(t) z(t) und ρ := x(t ) z(t ) = x z sind die obigen Voraussetzungen erfüllt, denn es gilt und damit t t x(t) z(t) = x(t ) z(t ) δ(τ)dτ + t f(τ, x) f(τ, z)dτ t (4.39) t x(t) z(t) x z + ε(t t ) + L x(τ) z(τ) dτ. t (4.4) Anwendung des Gronwallschen Lemmas liefert nunmehr x(t) z(t) x z e L t t + ε L ( ) e L t t (4.4) als Verallgemeinerung von Satz 4.4. Hierbei beinhaltet der zweite Term die Auswirkungen der Störung. Für eine große Lipschitz-Konstante wächst e L(t t ) sehr schnell und (4.4) stellt eine sehr konservative Abschätzung dar. Ein Anfangswertproblem ist also dann schlecht konditioniert, wenn die zugehörige Lipschitz-Konstante groß ist. 4.3 Parameterabhängige Differentialgleichungen Anfangswertprobleme beinhalten meist eine Reihe von Parametern. Es stellt sich dabei die Frage, wie sich Störungen in den Parametern auf die Lösung auswirken. Den Einfluss

4.3 Parameterabhängige Differentialgleichungen Seite 68 dieser Parameter auf die Lösung soll im Folgenden untersucht werden. Es wird dazu die parameterabhängige Differentialgleichung d dt x = f(t, x, p), x(t ) = x (4.42) ] mit dem Parametervektor p T = [p... p d R d betrachtet. Die partiellen Ableitungen ( ) ( ) x f ( ) sowie p f ( ) seien stetig in einer Umgebung der Lösungskurve von (4.42). Als Sensitivität (bzw. Sensitivitätsmatrix) bezeichnet man die partielle Ableitung der Lösung nach dem Parametervektor, d.h. S(x) := mit den Matrixelementen S ij ( ) der Form ( p x ) (t, p) (4.43) x j (t, p i + δp i ) x j (t, p i ) S ij (x) = lim (4.44) δp i δp i für i =,..., d und j =,..., n. Die Sensitivität kann als Lösung einer Differentialgleichung charakterisiert werden. Dazu betrachte man eine Lösung x δ = x + δx zum Parameter p δ = p + δp in der Form d dt x δ = f(t, x δ, p δ ), x δ (t ) = x. (4.45) Eine Taylorentwicklung von f(t, x, p) in p und x ergibt ( ) ( ) f(t, x + δx, p + δp) = f(t, x, p) + f (t, x, p)δx + f (t, x, p)δp x δ p δ + o( δx ) + o( δp ). Bildet man die Differenz aus (4.46) mit (4.42) und (4.45), so folgt d dt (x δ x) = ( ) ( ) f (t, x, p)δx + f (t, x, p)δp x δ p δ + o( δx ) + o( δp ). (4.46) (4.47) Die Differenz der beiden Lösungen kann über die Differenz der Parametervariation δp = p δ p beliebig klein gemacht werden. Im Grenzfall δp folgt aus (4.47) mithilfe von (4.43) die Sensitivitätsdifferentialgleichung ( ) ( ) d dt S = x f (t, x, p)s + p f (t, x, p), S(t, p) =. (4.48)

4.3 Parameterabhängige Differentialgleichungen Seite 69 Anhand der Taylorentwicklung ist es nun möglich, für kleine Änderungen δp des Parametervektors vom nominellen Wert p die Lösung x δ (t, p + δp) von (4.45) in folgender Form ( ) x δ (t, p + δp) = x(t, p) + x δ (t, p)δp + o( δp ) (4.49) p δ anzugeben und für δx(t) = x δ (t, p + δp) x(t, p) gilt die Beziehung δx(t) = S(t)δp. (4.5) Da S(t) offensichtlich den Einfluss von Parameterfehlern δp auf den Fehler δx(t) der Lösung wiedergibt, wird S(t) auch als die zugehörige (punktweise) Konditionszahl bezeichnet. Es kann nun einfach gezeigt werden, dass auch die Anfangsbedingungen als Parameter interpretiert werden können. Dazu führt man die Ersatzgröße z(t) := x(t) x ein und betrachtet die Differentialgleichung d dt z(t) = d dt x(t) = f( t, x(t) ) = f(t, z(t) + x ) := f(t, z(t), x ), z(t ) =. (4.5) Offensichtlich hängt z vom Parametervektor x ab und x(t) = z(t)+x löst das Anfangswertproblem Definiert man die Sensitivitätsmatrizen ( ) Γ(t) := z (t, x ) und Λ(t) := x d dt x(t) = f( t, x(t) ), x(t ) = x. (4.52) ( ) x (t, x ) = Γ(t) + E n n, (4.53) x so ergibt sich analog zu (4.48) die Sensitivitätsdifferentialgleichung ( da z f) ( ) = folgt: ( d dt Γ(t) = z f = ( ) x f ( ) = ) ( ) (t, z, x )Γ(t) + (t, z, x ) x f (4.54a) ( ) (t, x f ) x(t) (Γ(t) + En n ), (4.54b) ( ) x f ( ) gilt. Wegen d dt Γ(t) = d dt Λ(t) sowie Γ(t ) = n n Satz 4.5 (Abhängigkeit ( der) Lösung von den Anfangsbedingungen). Sei f stetig mit partiellen Ableitungen x f ( ). Dann hängt die Lösung x(t) stetig differenzierbar ( ) von der Anfangsbedingung x ab und die Ableitung Λ(t) = x x (t, x ) genügt der Anhand der Kettenregel folgt zum Beispiel f = f = f x = f. z z x z x

4.4 Diskretisierungsverfahren Seite 7 Sensitivitätsdifferentialgleichung (Variationsgleichung) d dt Λ(t) = ( x f ) (t, x(t, x ) ) Λ(t), Λ(t ) = E n n. (4.55) Eine Störung δx in der Anfangsbedingung führt auf die Lösung x δ (t, x + δx ). Für kleine Änderungen δx(t) = x δ (t, x(t) + δx ) x(t, x ) gilt δx(t) = Λ(t)δx (4.56) und Λ(t) stellt die zugehörige Konditionszahl dar. Wie in (4.5) bestimmt also das linearisierte Differentialgleichungssystem die Kondition. Nachdem der Einfluss von Störungen charakterisiert wurde, werden nunmehr die numerischen Lösungsverfahren diskutiert. 4.4 Diskretisierungsverfahren Zur numerischen Lösung eines Anfangswertproblems (4.3) wird das kontinuierliche Zeitintervall [t, t f ] in m Teilintervalle, welche durch die m + diskreten Zeitpunkte t < t <... < t m = t f (4.57) definiert sind, unterteilt. Die diskreten Zeitpunkte bilden ein Gitter = {t, t,..., t f } auf [t, t f ] und heißen Gitterpunkte. Die Anzahl der Gitterpunkte muss nicht a priori bekannt sein. Sie hängt damit von der Wahl des Gitters ab, weshalb im Folgenden m anstelle von m zur Charakterisierung der Anzahl der Gitterpunkte verwendet wird. Ferner bezeichnet h j = t j+ t j, j =,..., m (4.58) die Schrittweite, welche nicht äquidistant sein muss, und h max = max h j (4.59) j m heißt maximale Schrittweite. Eine Funktion x : R n heißt Gitterfunktion. Eine Gitterfunktion x auf den Gittern mit maximaler Schrittweite h max heißt (diskrete) Approximation der Lösung x(t) falls ein M > existiert, so dass max t j x (t j ) x(t j ) Mh pv max (4.6) gilt. Konvergente numerische Approximationen können als Folgen approximierender Vektoren x (t j ) = x j x(t j ), j =,..., m interpretiert werden, die umso genauere Näherungen darstellen, je feiner das zugrundeliegende Gitter ist. Je größer dabei die Konvergenzordnung p v ist, desto schneller konvergieren die Approximationen bei feiner werdendem Gitter gegen die exakte Lösung.

4.4 Diskretisierungsverfahren Seite 7 Die Aufgabe besteht nun darin, einen Algorithmus zur Konstruktion einer Gitterfunktion x zu finden, welcher die Lösung x an den Gitterpunkten möglichst gut approximiert, d.h. es soll x x(t) für alle t erfüllt sein. Ausgehend von einer Anfangsbedingung x soll der Algorithmus sukzessive eine Nährung x an den diskreten Gitterpunkten bestimmen. Diese Algorithmen zur Approximation nennt man Diskretisierungsverfahren oder kurz Diskretisierung und man unterscheidet: (i) Einschrittverfahren (ESV): Nur die Daten t l, x (t l ), h l für l = j aus dem aktuellen Zeitschritt t j gehen in die Berechnung von x (t j+ ) ein, d.h. x (t j ) x (t j+ ) für j =,,..., m. (4.6) (ii) Mehrschrittverfahren (MSV): Die Daten t l, x (t l ), h l für l = j k +,..., j mit k N + aus dem aktuellen und aus vorangegangenen Zeitschritten gehen in die Berechnung von x (t j+ ) ein, d.h. x (t j k+ ),..., x (t j ) x (t j+ ) für j = k,..., m. (4.62) Mehrschrittverfahren werden auch k-schrittverfahren genannt. Sie benötigen eine Anlaufrechnung mit einem Einschrittverfahren zur Bestimmung der k Startwerte x (t j ) für j =,..., k. x(t) x x 2 x x m x m t... t t 2 t m t m t h h h m Abbildung 4.: Grundidee der Diskretisierungsverfahren.

4.5 Einschrittverfahren Seite 72 4.5 Einschrittverfahren Mithilfe von expliziten Einschrittverfahren kann anhand der Rekursionsvorschrift x (t ) = x (4.63a) ( x (t j+ ) = Ψ tj,t j+ x (t j ) ) für j =,,..., m (4.63b) eine Approximation x, mit der von unabhängigen Funktion Ψ gewonnen werden. In Anlehnung an die Evolution Φ der Differentialgleichung (siehe (4.9)) wird Ψ diskrete Evolution genannt. Ein Einschrittverfahren ordnet damit jeder Differentialgleichung, repräsentiert durch die rechte Seite f( ), eine diskrete Evolution Ψ zu. 4.5. Konsistenz und Konvergenz Die diskrete Evolution Ψ t,t+h ( ) = Φ t,t+h ( ) würde für alle Gitter an den Gitterpunkten die exakte Lösung liefern. Diese spezielle diskrete Evolution ist jedoch nahezu nie auswertbar. Man sucht daher nach einer berechenbaren diskreten Evolution Ψ t,t+h ( ), die sich aus einer festen Anzahl von Auswertungen der rechten Seite f( ) ergibt. Dabei werden im Allgemeinen nicht alle Eigenschaften (4.) einer diskreten Evolution erfüllt, weshalb man den Begriff der Konsistenz einer diskreten Evolution einführt. Definition 4.2 (Konsistenz). Die diskreten Evolutionen Ψ, die den Eigenschaften (i) und (iii) nach (4.a) und (4.c) genügen, bezeichnet man als konsistent mit der Differentialgleichung. Definition 4.3. Sei (t, x) Ω. Die für hinreichend kleine Schrittweite h sich ergebende Differenz heißt Konsistenzfehler der diskreten Evolution Ψ. ε(t, x, h) = Φ t,t+h (x) Ψ t,t+h (x) (4.64) Lemma 4.3. Die diskrete Evolution Ψ t,t+h (x) sei für festes (t, x) Ω und hinreichend kleines h bezüglich h stetig differenzierbar. Dann sind folgende Eigenschaften äquivalent: (i) Die diskrete Evolution ist konsistent. (ii) Die diskrete Evolution besitzt die Darstellung Ψ t,t+h (x) = x + hψ(t, x, h), ψ(t, x, ) = f(t, x) (4.65) mit einer bezüglich h stetigen Funktion ψ, der sogenannten Inkrementalfunktion.

4.5 Einschrittverfahren Seite 73 (iii) Der Konsistenzfehler erfüllt ε(t, x, h) = o(h) für h. Beweis. Der Beweis beruht darauf, dass man die Taylorentwicklung von Φ t,t+h (x) und Ψ t,t+h (x) in t für h vergleicht. Die dritte Eigenschaft (4.c) der Evolution Φ ist äquivalent zur Taylorentwicklung ( ) Φ t,t+h (x) = Φ t,t (x) + h h Φ ( ) t,t+h x + o(h) h= = x + hf(t, x) + o(h) für h. Analog ist die Konsistenz der diskreten Evolution Ψ äquivalent zu (4.66) Ψ t,t+h (x) = x + hf(t, x) + o(h) für h. (4.67) Subtraktion von (4.67) und (4.66) zeigt die Äquivalenz von (i) und (iii). Eine leichte Umformung von (4.67) der Form Ψ t,t+h (x) x h = f(t, x) + o() für h (4.68) zeigt die Äquivalenz der Konsistenz mit der Darstellung (ii). Die diskrete Evolution ist dementsprechend automatisch konsistent, wenn sie in der Form (4.65) gegeben ist. Für die weiteren Betrachtungen wird noch die Konsistenzordung definiert. Definition 4.4 (Konsistenzordnung). Eine diskrete Evolution Ψ besitzt die Konsistenzordnung p s, wenn der Konsistenzfehler die Beziehung lokal gleichmäßig in Ω erfüllt. ε(t, x, h) = O(h ps+ ) für h (4.69) Es stellt sich nun die Frage, wie die Inkrementalfunktion ψ aussehen kann. Eine Antwort auf diese Frage findet man anhand der Integralgleichung (4.). Diese besagt, dass die exakte Lösung die Gleichung tj+ x(t j+ ) = x(t j ) + f ( τ, x(τ) ) dτ (4.7) t j erfüllt. Die Idee besteht nun darin, das Integral durch einen Ausdruck zu ersetzen, der numerisch berechenbar ist, wenn x(t) für τ > t j nicht bekannt ist.

4.5 Einschrittverfahren Seite 74 Explizites Euler-Verfahren Eine einfache numerische Approximation des Integrals ist mit der Rechteck-Regel in der Form tj+ f ( τ, x(τ) ) ( dτ (t j+ t j ) f tj, x(t j ) ) (4.7) t j }{{} gegeben. Setzt man also eine Inkrementalfunktion in (4.65) der Form an, so ergibt sich die Iterationsvorschrift (4.63) zu h j ψ(t, x, h) = f(t, x) (4.72) x (t ) = x (4.73a) x (t j+ ) = x (t j ) + h j f ( t j, x (t j ) ) für j =,,..., m. (4.73b) Das durch (4.73) gegebene Verfahren ist das einfachste Einschrittverfahren und heißt Eulersche Polygonzugmethode oder (explizites) Euler-Verfahren. Das Verfahren kann auch geometrisch interpretiert werden: In jedem Zeitschritt t j berechnet man die Steigung der exakten Lösung durch den Punkt ( t j, x(t j ) ), d.h. f ( t j, x(t j ) ), und folgt dann der dadurch definierten Geraden bis zum nächsten Zeitschritt t j+. Zudem kann (4.73) auch als numerische Approximation des Differentialquotienten dx/dt interpretiert werden, da sich anhand von (4.73b) d dt x(t j) f ( t j, x (t j ) ) = x (t j+ ) x (t j ) h j für j =,,..., m (4.74) ergibt. Die Approximationsvorschrift (4.74) stellt den sogenannten Vorwärtsdifferenzenquotienten dar, weshalb das explizite Euler-Verfahren auch als Vorwärts-Euler-Verfahren bezeichnet wird. Abbildung 4.2 verdeutlicht diesen Zusammenhang grafisch. Heun-Verfahren Bessere Verfahren kann man erhalten, wenn man anstatt (4.7) eine genauere Approximation verwendet. Eine bessere Möglichkeit ist durch die Verwendung von tj+ t j f ( τ, x(τ) ) dτ h ( j f ( t j, x(t j ) ) + f ( ) ) t j+, x(t j ) + h j f(t j, x(t j )) (4.75) 2 }{{} x(t j+ ) gegeben. Dabei entspricht (4.75) der (expliziten) Trapez-Regel, wobei der unbekannte Wert x(t j+ ) zur Approximation des Integrals mithilfe des expliziten Euler-Verfahrens x(t j+ ) = x(t j ) + h j f ( t j, x(t j ) ) gewonnen wird. Setzt man also eine Inkrementalfunktion in (4.65) in der Form ψ(t, x, h) = 2 ( f(t, x(t)) + f ( t + h, x(t) + hf(t, x(t)) )) (4.76)

4.5 Einschrittverfahren Seite 75 f(t, x(t)) x(t) f(t j, x (t j )) Fehler x (t j ) h j f (t j, x(t j )) f(t j, x (t j )) t t j t j+ t j t j+ t Flächenapproximation Steigungsapproximation Abbildung 4.2: Grundidee des expliziten Euler-Verfahrens. an, so ergibt sich die Iterationsvorschrift (4.63) zu x (t ) = x x (t j+ ) = x (t j ) + h j 2 ( f(t j, x (t j )) + f ( t j + h j, x (t j ) + h j f(t j, x (t j )) )) (4.77a) (4.77b) für j =,,..., m. Die Approximationsvorschrift (4.77) wird auch als Heun-Verfahren bezeichnet. Explizite Runge-Kutta-Verfahren Bei der Konstruktion des Heun-Verfahrens wurde das Euler-Vorwärts-Verfahren verwendet, um einen Schätzwert für den unbekannten Wert x(t j+ ) zu erhalten. Es liegt nun nahe, diese Methode systematisch rekursiv anzuwenden, um zu besseren Einschrittverfahren zu gelangen. Dies ist die Grundidee der Runge-Kutta-Verfahren. Um die dabei entstehenden Verfahren übersichtlich zu schreiben, benötigt man einen geeigneten Formalismus. Dieser wird im Folgenden anhand des Heun-Verfahrens erläutert. Schreibt man dieses nun in der Form k = f(t, x) k 2 = f(t + h, x + hk ) ( Ψ t,t+h (x) = x + h 2 k + ) 2 k 2 (4.78a) (4.78b), (4.78c) so lässt sich eine günstige Schreibweise ableiten, um weitere k i -Terme hinzuzufügen. Die Verallgemeinerung dieser Vorgehensweise führt auf die s-stufigen expliziten Runge-Kutta- Verfahren.

4.5 Einschrittverfahren Seite 76 Definition 4.5. Ein s-stufiges explizites Runge-Kutta-Verfahren ist gegeben durch i k i = f t + c i h, x + h a i,j k j für i =, 2,..., s (4.79a) s Ψ t,t+h (x) = x + h b i k i. i= j= Dabei wird k i = k i (t, x, h) als i-te Stufe bezeichnet. (4.79b) Anzumerken ist, dass die Vektoren k i, i =, 2,..., s nach (4.79a) den Steigungen zu den Zwischenpunkten t + c i h entsprechen und (4.79) prinzipiell einer gewichteten Mitteilung dieser entspricht. Die Koeffizienten eines expliziten Runge-Kutta-Verfahrens können kompakt in der Form b c b 2 c 2 a 2, b = b 3, c = c 3, A = a 3, a 3,2.......... a s,...... a s,s b s c s angeschrieben werden. Konkrete Verfahren werden verkürzt im Butcher-Schema (4.8) c A b T angegeben und man spricht auch von Runge-Kutta-Verfahren (b, c, A). In dieser Schreibweise ergibt sich das Butcher-Schema für das explizite Euler-Verfahren (s = ) nach Tabelle 4., für das Heun-Verfahren (s = 2) nach Tabelle 4.2 und für das klassische Runge-Kutta-Verfahren (s = 4) nach Tabelle 4.3. Tabelle 4.: Butcher-Schema des expliziten Euler-Verfahrens. Zufolge der Konstruktion des Runge-Kutta-Verfahrens benötigt man somit für die Berechnung des Schrittes Ψ t,t+h ( ) eines s-stufigen Verfahrens s Auswertungen der rechten Seite f( ).

4.5 Einschrittverfahren Seite 77 2 2 Tabelle 4.2: Butcher-Schema des Heun-Verfahrens. 2 2 2 2 6 2 6 2 6 6 Tabelle 4.3: Butcher-Schema des klassischen Runge-Kutta-Verfahrens vierter Ordnung. Beispiel 4.3 (Berechnung der Konsistenzordnung). Zur Bestimmung der Konsistenzordnung vergleicht man die Taylorentwicklung der exakten Lösung x(t) in t = t j, also x(t j + h) = x(t j+ ) = x(t j ) + h ( d dt x ) (t j ) + h2 2 ( ) d 2 dt 2 x (t j ) + O(h 3 ), (4.8) mit der diskreten Evolution Ψ. Für das Euler-Verfahren ergibt sich beispielsweise der Konsistenzfehler zu ( ε(t j, x, h) = x(t j+ ) Ψ tj,t j +h x(tj ) ) ( ) ( ) d = x(t j ) + h dt x (t j ) + h2 d 2 2 dt 2 x (t j ) + O(h 3 ) (x(t j ) + hf ( t j, x(t j ) )) (4.82) = O(h 2 ) und damit gemäß Definition 4.4 die Konsistenzordnung p s =. Analog kann man vorgehen um zu zeigen, dass das Heun-Verfahren die Konsistenzordnung p s = 2 und das klassische Runge-Kutta-Verfahren die Konsistenzordnung p s = 4 besitzt. Um die Konvergenz dieser Approximationsvorschriften zu diskutieren, sind folgende Definitionen notwendig:

4.5 Einschrittverfahren Seite 78 Definition 4.6 (Gitterfehler und Diskretisierungsfehler). Der Vektor der Approximationsfehler auf dem Gitter wird als Gitterfehler bezeichnet und seine Maximumnorm als (globaler) Diskretisierungsfehler. ε (t) = x(t) x (t) (4.83) ε (t) = max t ε (t) (4.84) Definition 4.7 (Konvergenz und Konvergenzordnung). Zu jedem Gitter auf [t, t f ] mit hinreichend kleinem h max sei eine Gitterfunktion x gegeben. Die Gitterfunktionen konvergieren gegen x (C [t, t f ]) n, wenn für den globalen Diskretisierungsfehler ε (t) für h max (4.85) gilt. Sie konvergieren mit der Konvergenzordnung p v >, wenn gilt. ε (t) = O(h pv max) für h max (4.86) Der folgende Satz garantiert die Konvergenz der betrachteten Einschrittverfahren: Satz 4.6 (Konvergenzsatz für Einschrittverfahren). Gegeben sei eine diskrete Evolution Ψ mit in der Zustandsvariablen x Lipschitz-stetiger Inkrementalfunktion ψ. Entlang einer Trajektorie x (C [t, t f ]) n genügt der Konsistenzfehler der diskreten Evolution Ψ der Abschätzung ε(t, x, h) = x(t + h) Ψ t,t+h ( x(t) ) = O(h p s+ ). (4.87) Dann definiert die diskrete Evolution Ψ für alle Gitter mit hinreichend kleinem h max eine Gitterfunktion x zum Anfangswert x (t ) = x(t ). Die Gitterfunktionen konvergieren mit der Konvergenzordnung p v = p s gegen die Trajektorie x. Für den Beweis sei auf die angeführte Literatur verwiesen. Ein sehr wichtiges Ergebnis des Satzes 4.6 sind die Folgerungen: Korollar 4.. Ein konsistentes Einschrittverfahren ist konvergent. Korollar 4.2. Der Konvergenzsatz 4.6 liefert die asymptotische Genauigkeitsaussage ε (t) Ch pv max + O(h pv+ max ), C >. (4.88)

4.5 Einschrittverfahren Seite 79 Beispiel 4.4. Das Euler-Verfahren besitzt die Konsistenzordnung p s =. Die Inkrementalfunktion ist Lipschitz-stetig und das Verfahren damit konvergent mit der Konvergenzordnung p v = p s =. Also führt das Euler-Verfahren für ein hinreichend kleines h max zu einem Konsistenzfehler, siehe Definition 4.4, ε(t, x, h) = O(h 2 ) (4.89) und einem globalen Diskretisierungsfehler, siehe Korollar 4.2, ε (t) = O(h max ) Ch max + O(h 2 max). (4.9) Die Halbierung des Fehlers erfordert damit asymptotisch die Halbierung der maximalen Schrittweite. 4.5.2 Fehlerschätzung und Schrittweitensteuerung Im vorherigen Teil wurde versucht, die Lösung des Anfangswertproblems (4.3) durch eine Gitterfunktion x bei einem gegebenen Gitter t < t <... < t m = t f zu approximieren. Die einfachste Wahl eines Gitters ist ein äquidistantes Gitter der Form { m = t + j t } f t für j =,,..., m. (4.9) m Diese Wahl ist in den meisten Anwendungen allerdings wenig effizient. Es stellt sich somit die Frage, wie ein problemangepasstes Gitter zu konstruieren ist. Ziel der Konstruktion sollte es sein, ein Gitter so zu wählen, dass (i) eine vorgegebene Genauigkeit der Approximation x erreicht wird, (ii) die Anzahl der Gitterpunkte m möglichst klein ist und (iii) damit der notwendige Rechenaufwand minimal wird. Im Folgenden werden die Grundlagen einer adaptiven Gittersteuerung vorgestellt. Dabei sind verschiedene Faktoren zu berücksichtigen. Der Aufwand einer numerischen Lösung verringert sich für größere Schrittweiten, möglicherweise steigt damit aber der Fehler an. Für kleine Schrittweiten nimmt der Aufwand zu und gleichzeitig vergrößert sich der Einfluss von Rundungsfehlern. Insbesondere gibt es eine untere Schranke, die die Schrittweite nicht unterschreiten sollte. Weiterhin verlangen starke Änderungen in der Lösung ein lokal feines Gitter, während annähernd konstante Lösungsabschnitte mit großen Schrittweiten durchlaufen werden können. Da das Lösungsverhalten aber a priori nicht bekannt ist, kann die Gitterstruktur nicht zu Beginn der numerischen Integration festgelegt werden. Vielmehr wird man die Gitterpunkte während des Lösungsprozesses schrittweise anpassen, d.h. ausgehend von ( t j, x (t j ) ) wird eine neue Schrittweite h j bestimmt und damit ( t j+, x (t j+ ) ) festgelegt. Man spricht deswegen von einer Schrittweitensteuerung.

4.5 Einschrittverfahren Seite 8 Für die Schrittweitensteuerung betrachtet man zunächst den Gitterfehler (4.83) ε (t j+ ) = x(t j+ ) x (t j+ ) = x(t j+ ) Ψ tj,t j+ ( x (t j ) ) (4.92) und schreibt diesen in folgender Weise an ( ε (t j+ ) = (Φ tj,t j+ x(tj ) ) ( Ψ tj,t j+ x (t j ) )) ( ( + Φ tj,t j+ x (t j ) ) ( Φ tj,t j+ x (t j ) )). (4.93) Man erkennt, dass der Gitterfehler aus zwei Anteilen besteht: Dem sogenannten lokalen Gitterfehler und einen Anteil ε j+ = Φ tj,t j+ ( x (t j ) ) Ψ tj,t j+ ( x (t j ) ) (4.94) ε j+ = Φ tj,t j+ ( ε (t j ) ), (4.95) der die Auswirkungen des vorherigen Gitterfehlers ε (t j ) durch die Evolution des Anfangswertproblems darstellt. Dieser Fehleranteil wäre durch eine Verbesserung der Approximation x korrigierbar. Allerdings müsste dazu die gesamte Rechnung global wiederholt werden. Bei der Genauigkeitskontrolle beschränkt man sich daher in der Regel auf die Kontrolle des lokalen Gitterfehlers ε j+ nach (4.94) und führt den lokalen Diskretisierungsfehler ε j+ = Φ tj,t j+ ( x (t j ) ) Ψ tj,t j+ ( x (t j ) ) TOL (4.96) als Qualitätsanforderung ein, wobei TOL 2 eine vorzugebende lokale Toleranz ist. Im Allgemeinen kann der lokale Gitterfehler ε j+ nicht exakt bestimmt werden, weshalb man auf eine Schätzung des lokalen Gitterfehlers ˆε j+ angewiesen ist, so dass die implementierbare Ersatzforderung in der Form ˆε j+ TOL (4.97) gegeben ist. Die Fehlerschätzung ˆε j+ beschreibt somit die Qualität des Schrittes von t j zu t j+. Von der aktuellen optimalen Schrittweite h j verlangt man nun, dass der erzeugte (geschätzte) Fehler ˆε j+ die vorgegebene Toleranz weder wesentlich unter- noch überschreitet, d.h. näherungsweise ε j+ TOL gilt. Zwischen dem lokalen Fehler besteht näherungsweise der Zusammenhang, vgl. (4.69), ˆε j+ ε j+ = c(t j )h ps+ j + O(h ps+2 j ) c(t j )h ps+ j (4.98) 2 In der Regel wird die Qualitätsanforderung (4.97) als Kombination einer relativen Toleranz TOL rel und einer absoluten Toleranz TOL abs vorgegeben.

4.5 Einschrittverfahren Seite 8 und entsprechend gilt die Forderung ( ps+ TOL ˆε j+ c(t j ) hj). (4.99) Die Kombination von (4.98) und (4.99) liefert schließlich eine Schätzformel für die optimale Schrittweite h ps+ TOL j = h j ˆε j+. (4.) Für die Schrittweitensteuerung wird eine Schätzung des lokalen Diskretisierungsfehlers ˆε j+ benötigt. Eine Schätzung des lokalen Fehlers ˆε kann aus der Differenz der lokalen Konsistenzfehler und zu ε = Φ t,t+h (x) Ψ t,t+h (x) (4.) ε = Φ t,t+h (x) Ψ t,t+h (x) (4.2) ˆε = ε ε = Ψ t,t+h (x) Ψ t,t+h (x) (4.3) gewonnen werden. Üblicherweise wird eine Approximation höherer Ordnung (Ψ) mit einer niedrigeren Ordnung ( Ψ) verglichen. Es wird daher vorausgesetzt, dass Ψ genauer als Ψ ist, so dass θ = ε ε ˆε = < (4.4) ε ε gilt. Anhand der Dreiecksungleichung ε ˆε ε ˆε folgt damit ˆε ε ˆε. (4.5) + θ θ Gilt θ für h, so nennt man den Schätzer asymptotisch exakt (konsistent). Ohne Beweis ist dies der Fall, wenn gilt. ˆε = ĉhˆps+ + O(hˆps+2 ) für ĉ > und ε = O(hˆps+2 ) (4.6) In der Praxis wird die Fehlerschätzung von ˆε j+ nach (4.97) durch ε j+ = n ( n x l (t j+ ) x l (t j+) l= x l (t j+) TOL rel + TOL abs ) 2 (4.7)

4.5 Einschrittverfahren Seite 82 ersetzt, wobei x l ( ) die l-te Komponente von x ( ), x l ( ) die l-te Komponente von x ( ) und TOL abs bzw. TOL rel die absolute und relative Toleranz bezeichnen. Für die optimale Schrittweite (4.) ergibt sich damit h ps+ j = h j ε j+ (4.8) und man vergleicht den Fehler ε j+ gegen, d.h. für ε j+ wird die Schrittweite akzeptiert. In Tabelle 4.5.2 ist ein Grundalgorithmus zur Schrittweitensteuerung dargestellt, wobei die Sicherheitsfaktoren q, q max und q min eingeführt wurden. 4.5.3 Eingebettete Runge-Kutta-Verfahren Die Einbettung eines zweiten Runge-Kutta-Verfahrens stellt die gängige Technik zur Schrittweitensteuerung dar. Mithilfe sogenannter eingebetteter Runge-Kutta-Verfahren ist es möglich, die Anzahl der Funktionsauswertungen der rechten Seite f( ) für das Paar ( Ψ, Ψ) zu optimieren. Dabei wird Ψ durch das Butcher-Schema ( b, c, A) und Ψ durch das Butcher-Schema (b, c, A) beschrieben, d.h. die diskreten Evolutionen verwenden aufgrund der selben Koeffizientenmatrix A dieselben Funktionsauswertungen der rechten Seite f( ). Ein eingebettetes Verfahren wird im Butscher-Schema daher in der Form 4.5 dargestellt. Das zur Zeit wohl am weitesten verbreitete und für mittlere Genauigkeitsanforderungen effizienteste explizite Runge-Kutta-Verfahren geht auf Dormand und Prince (98) zurück. Das Verfahren hat die Konsistenzordnung 5 mit einem eingebetteten Verfahren der Konsistenzordnung 4, daher stammt die Namensgebung DOPRI5(4). Erreicht wird dies mit s = 6 und s = 7 Stufen. In MATLAB steht das Dormand-Prince-Verfahren der Ordnung 5 als ode45 zur Verfügung. Daneben bietet MATLAB noch ein eingebettetes Runge-Kutta-Verfahren ode23 an, das aber nur bei geringen Genauigkeitsanforderungen oder nicht glatter rechter Seite f( ) zu empfehlen ist. Beispiel 4.5. Abbildung 4.3 zeigt die numerische Lösung der sogenannten Van-der- Pol-Gleichung (siehe (4.88)) mit ode45. Man erkennt deutlich, dass starke Änderungen in der Lösung ein lokal feines Gitter verlangen.

4.5 Einschrittverfahren Seite 83 Initialisierung: j (Iterationsindex) x (t ) x (Anfangsbedingung) {t } (Gitter) TOL rel, TOL abs > (relative und absolute Toleranz) h > (initiale Schrittweite) q, q max, q min > (Sicherheitsfaktoren) repeat t t j + h j (probiere Zeitschritt) x Ψ tj,t( x (t j ) ) (erste Schätzung) x Ψ tj,t( x (t j ) ) (zweite Schätzung) ε j+ (Fehlerschätzung nach (4.7)) h h j ps+ ε j+ h min ( q max h j, max (q min h j, qh ) ) (optimale Schrittweite) (neue Schrittweite) if ( ε j+ ) do t j+ t {t j+ } x (t j+ ) x h j+ min (h, t f t j+ ) j j + else h j h (Schrittweite wird akzeptiert) (neuer Zeitschritt) (aktualisiere Gitter) (aktualisiere Gitterfunktion) (neue Schrittweite) (erhöhe Index) (Schrittweite wird verworfen) end until t j > t f Tabelle 4.4: Basisalgorithmus zur Schrittweitensteuerung. c A b T Tabelle 4.5: Butcher-Schema der eingebetteten Runge-Kutta-Verfahren. b T

4.5 Einschrittverfahren Seite 84 5 3 4 5 8 9 5 3 9 4 4 44 45 56 5 9372 656 2536 287 97 368 355 33 35 5 384 3 35 5 Ψ 384 3 Ψ 579 757 576 6695 32 9 64448 656 22 729 46732 49 5247 76 53 8656 25 92 287 6784 25 92 287 6784 393 64 9297 3392 84 84 87 2 4 Tabelle 4.6: Butcher-Schema des Dormand-Prince-Verfahrens DOPRI5(4). 2 x2 5 5 5 5 2 2 2 x Abbildung 4.3: Phasendiagramm der numerischen Lösung der Van-der-Pol-Gleichung mit ode45.

4.5 Einschrittverfahren Seite 85 4.5.4 Implizite Runge-Kutta-Verfahren Durch Auffüllen der Koeffizientenmatrix A in der Definition 4.5 definiert man allgemeine s-stufige Runge-Kutta-Verfahren s k i = f t + c i h, x + h a i,j k j für i =, 2,..., s (4.9a) s Ψ t,t+h (x) = x + h b i k i. i= j= (4.9b) Falls a i,j = für i j gilt, so ist das Verfahren explizit, andernfalls ist es implizit. Im Vergleich zum expliziten Ansatz hat man durch die insgesamt 2s + s 2 Verfahrenskoeffizienten nun noch mehr Freiheitsgrade, um Ordnung, aber auch Stabilitätseigenschaften festzulegen. Für implizite Verfahren können die Koeffizienten k i in (4.9) nicht direkt bestimmt werden. Vielmehr definiert (4.9a) ein System von impliziten Gleichungen für die einzelnen Koeffizienten k i. Für hinreichend kleine Schrittweiten h kann man zeigen, dass die Stufen k i eindeutig bestimmt werden können, wenn f( ) lokal Lipschitz-stetig in x ist. In der Regel wird zur Bestimmung der Koeffizienten k i das Newton-Verfahren, oder das vereinfachte Newton-Verfahren eingesetzt. Implizites Euler-Verfahren Beispielsweise ergibt sich für s = das implizite Euler-Verfahren in der Form x (t ) = x (4.a) x (t j+ ) = x (t j ) + h j f ( t j+, x (t j+ ) ) für j =,,..., m. (4.b) In Tabelle 4.7 ist das zugehörige Butcher-Schema dargestellt. Tabelle 4.7: Butcher-Schema des impliziten Euler-Verfahrens. Implizite Trapez-Regel Für s = 2 erhält man die implizite Trapez-Regel x (t ) = x (4.a) x (t j+ ) = x (t j ) + h ( j f ( t j, x (t j ) ) + f ( t j+, x (t j+ ) )) (4.b) 2 für j =,,..., m. Das zugehörige Butcher-Schema ist in Tabelle 4.8 dargestellt. In MATLAB steht die eingebettete, implizite Trapez-Regel als ode23t zur Verfügung.

4.5 Einschrittverfahren Seite 86 2 2 Tabelle 4.8: Butcher-Schema der impliziten Trapez-Regel. 2 2 Beispiel 4.6 (Newton-Iteration für das explizite Euler-Verfahren). Wendet man das Newton-Verfahren (4.4) auf das nichtlineare Gleichungssystem γ ( x (t j+ ) ) = x (t j+ ) x (t j ) h j f ( t j+, x (t j+ ) ) = n (4.2) an, vgl. (4.), so ergibt sich für l =,, 2,... die Iterationsvorschrift mit der Newton-Richtung d l = x l+ (t j+) = x l (t j+) + d l, x (t ) = x (4.3a) ( ( ) ( ) ) E n n h j x f x l ( (t j+) x l (t j+) x l (t j) h j f ( t j+, x l (t j+) )). (4.3b) Diagonal implizite Runge-Kutta-Verfahren Die sogenannten DIRK (diagonal impliziten Runge-Kutta)-Verfahren weisen eine Koeffizientenmatrix A mit blockförmiger Struktur auf. Durch diese Vereinfachung kann zur Lösung des entstehenden linearen Gleichungssystems mit einer einfachen Block-Gauß- Elimination gearbeitet werden. Die Verfahren sind damit effizienter implementierbar. In MATLAB steht ein eingebettetes DIRK-Verfahren der Ordnung 2 als ode23tb zur Verfügung. Das Verfahren eignet sich bei sehr hohen Genauigkeitsanforderungen. Kollokationsverfahren Die sogenannte Kollokationsverfahren stellen eine Subklasse der impliziten Runge-Kutta- Verfahren dar. Dabei wird ein Polynom p(t) konstruiert, das neben den Anfangsbedingungen die Differentialgleichung an mindestens s vorgegebenen Kollokationspunkten t j + c i h, i =, 2,..., s in jedem Intervall [t j, t j+ ] erfüllt. Wie sich zeigen wird, ist das Verfahren eindeutig durch die Koeffizienten c < < c s (4.4) bestimmt. Anstatt der 2s + s 2 Koeffizienten müssen damit nur s Koeffizienten betrachtet werden.

4.5 Einschrittverfahren Seite 87 Satz 4.7. Ein Kollokationsverfahren, das die Differentialgleichung an den Kollokationspunkten t + c i h, i =, 2,..., s mit c < < c s und die Kollokationsbedingungen p(t) = x (4.5a) ( ) d dt p (t + c i h) = f ( t + c i h, p(t + c i h) ) i =, 2,..., s (4.5b) Ψ t,t+h (x) = p(t + h) (4.5c) erfüllt, ist äquivalent zu einem impliziten Runge-Kutta-Verfahren mit den Koeffizienten b i = l i (τ)dτ und a i,j = ci l j (τ)dτ für i, j =, 2..., s. (4.6) Dabei sind die Funktionen l j, j =, 2,..., s als Lagrange-Basis der Polynome vom Grad s mit definiert. l j (τ) = s i= i j τ c i c j c i (4.7) Beweis. Zunächst wird die Abkürzung ( d dt p ) (t j + c i h) = k i, i =, 2,..., s (4.8) ( ) t tj eingeführt und die Eigenschaft, dass l j h dem Kronecker-Delta entspricht, vgl. (4.2), ausgenutzt, d.h. es gilt ( ) ( ) d t dt p tj = h s j= ( ) t tj k j l j h. (4.9) Die Integration von (4.9) über das Intervall t [t j, t j + c i h] unter Verwendung der Anfangsbedingung (4.5a) lässt auf tj +hc i p(t j + c i h) = p(t j ) + t j ci = p(t j ) + h s = x + h a i,j k j j= ( d dt p ) ( t tj ( d dt p ) (τ)dτ h ) dt (4.2)

4.6 Mehrschrittverfahren Seite 88 schließen, wobei die Abkürzung a i,j = ci l j (τ)dτ für i, j =, 2..., s (4.2) eingeführt wurde. Setzt man (4.2) in (4.5b) ein, so erhält man s k i = f t + c i h, x + h a i,j k j für i =, 2,..., s. (4.22) j= Analog ergibt die Integration von (4.9) über das Intervall t [t j, t j + h] unter Verwendung der Anfangsbedingung (4.5a) mit ( ) d Ψ tj,t j +h(x) = p(t j + h) = p(t j ) + h dt p (τ)dτ s (4.23) = x + h b i k i i= b i = womit die Äquivalenz zu (4.9) gezeigt ist. l i (τ)dτ, i =, 2..., s, (4.24) 4.6 Mehrschrittverfahren Lineare k-schrittverfahren (Mehrschrittverfahren (MSV)) zur Bestimmung der Gitterfunktion x sind durch die Rekursionsvorschrift bzw. α k x (t j+k ) + α k x (t j+k ) +... + α x (t j ) = h ( β k f (t j+k ) + β k f (t j+k ) +... + β f (t j ) ) (4.25) k α k l x (t j+k l ) = h l= k β k l f (t j+k l ) (4.26) für j =,..., m k und k N + mit konstanten Koeffizienten α,..., α k, β,..., β k R gegeben, wobei die Gitterfunktion f : R n, t f ( t, x (t) ) eingeführt wurde. Es wird ferner vorausgesetzt, dass α + β > gilt, da es sich ansonsten um ein (k )-Schrittverfahren handelt. Falls β k =, ist das Mehrschrittverfahren explizit, für β k implizit. Zudem wird α k vorausgesetzt, da explizite Verfahren sonst (k )- Schrittverfahren wären. Es ist ersichtlich, dass ein Mehrschrittverfahren im Gegensatz zu einem Einschrittverfahren ältere Information zur Bestimmung einer Approximation verwendet. Ein l=

4.6 Mehrschrittverfahren Seite 89 k-schrittverfahren benötigt daher zum Start k zusätzliche Startwerte x (t l ), l =,..., k. Diese müssen mit einer sogenannten Anlaufrechung mithilfe eines Einschrittverfahrens bestimmt werden. Im Folgenden wird, ähnlich wie bei den Einschrittverfahren, der Konsistenzfehler und die Konsistenzordnung für Mehrschrittverfahren eingeführt. Dabei wird von einer äquidistanten Schrittweite ausgegangen. Die Erweiterung der theoretischen Ergebnisse auf variable Schrittweiten ist möglich, aber mit großem Aufwand verbunden. Definition 4.8 (Konsistenzfehler MSV). Der Konsistenzfehler des MSV (4.26) mit konstanter Schrittweite h ist definiert als ε(t, x, h) = k α k l x(t j+k l ) h l= k β k l f ( t j+k l, x(t j+k l ) ). (4.27) l= Definition 4.9 (Konsistenzordnung MSV). Ein lineares Mehrschrittverfahren besitzt die Konsistenzordnung p s, wenn der Konsistenzfehler die Beziehung gleichmäßig für alle t, h erfüllt. ε(t, x, h) = O(h ps+ ) (4.28) Beispiel 4.7 (Berechnung der Konsistenzordnung). Zur Bestimmung der Konsistenzordnung geht man ähnlich wie bei den Runge-Kutta-Verfahren vor. Man vergleicht die Taylorentwicklung der exakten Lösung x(t) und der rechten Seite f(t, x), also ( ) ( ) d x(t j + lh) = x(t j ) + lh dt x (t j ) + (lh)2 d 2 2 dt 2 x (t j ) +... (4.29) und f ( t j + lh, x(t j + lh) ) = f ( t j, x(t j ) ) ( ) d + lh dt f (tj, x(t j ) ) ) (tj, x(t j ) ) +.... + (lh)2 2 ( d 2 dt 2 f (4.3)

4.6 Mehrschrittverfahren Seite 9 Sortiert man nach Potenzen in h und ersetzt d dtx = f(t, x), so ergibt sich ε(t j, x, h) = x(t j ) k l= ( ) d α k l + h dt x (t j ) + h2 2. + hps p s! ( ) d 2 dt 2 x (t j ) ( d p s dt ps x ) (t j ) + O(h ps+ ). k α k l l β k l l= k α k l l 2 2β k l l l= k α k l l ps p s β k l l ps l= (4.3) Ein MSV ist demnach konsistent, falls k α k l = l= und k α k l l β k l = (4.32) l= gilt und besitzt damit die Konsistenzordnung p s =. Für die Ordnung p s > müssen auch die höheren Terme in (4.3) verschwinden, d.h. es muss gelten. k α k l l q qβ k l l q = für q =,..., p s (4.33) l= Im Vergleich zu ESV reicht die Konsistenz eines MSV nicht aus um die Konvergenz sicherzustellen. Vielmehr muss zusätzlich die Stabilität des Verfahrens gewährleistet werden. Zur Analyse des Stabilitätsproblems wird die triviale Testgleichung ẋ =, x(t ) = betrachtet. Ein darauf angewandtes MSV liefert die Differenzengleichung k α k l x j+k l = (4.34) l= mit den Startwerten x,..., x k. Die Differenzengleichung (4.34) ist stabil, falls das zugehörige charakteristische Polynom ein Einheitskreispolynom ist. Satz 4.8 (Stabilitätsbedingung MSV). Ein MSV ist stabil, falls alle Nullstellen des charakteristischen Polynoms ρ(z) = k α k l z k l (4.35) l= mit der komplexen Variablen z im abgeschlossenen Einheitskreis von C liegen und diejenigen auf dem Rand nur einfach sind.

4.6 Mehrschrittverfahren Seite 9 Wie bereits bei den Einschrittverfahren setzt man voraus, dass die rechte Seite f( ) der Differentialgleichung Lipschitz-stetig und zudem hinreichend glatt ist. Satz 4.9 (Konvergenzsatz für Mehrschrittverfahren). Gegeben sei ein stabiles Mehrschrittverfahren (4.26). Entlang einer Trajektorie x (C [t, t f ]) n genügt der Konsistenzfehler der Abschätzung k α k l x(t j+k l ) h l= k β k l f ( t j+k l, x(t j+k l ) ) = O(h ps+ ). (4.36) l= Dann definiert (4.26) für alle Gitter für ein festes h eine Gitterfunktion x zum Anfangswert x (t ) = x(t ). Die Gitterfunktionen konvergieren mit der Konvergenzordnung p v = p s gegen die Trajektorie x. Für den Beweis sei auf die angeführte Literatur verwiesen. Der Fundamentalsatz, der die Konvergenz von Mehrschrittverfahren sichert, lautet: Korollar 4.3. Ein stabiles und konsistentes Mehrschrittverfahren ist konvergent. Im Folgenden werden ohne detaillierte Herleitung einige der wichtigsten Mehrschrittverfahren angeführt. Adams-Verfahren Die Herleitung der Adams-Verfahren basiert auf der Integralgleichung (4.8), d.h. tj+ x(t j+ ) = x(t j ) + f(τ, x(τ))dτ. (4.37) t j Die Idee besteht darin, die rechte Seite f(t, x(t)) der Anfangswertaufgabe (4.3) durch ein Interpolationspolynom p(t) (Lagrange-Polynom) zu ersetzen, vgl. Abbildung 4.4. f f j k+ p(t) f j fj f j+... t j k+ t j t j t j+ t Abbildung 4.4: Grundidee der Adams-Verfahren.

4.6 Mehrschrittverfahren Seite 92 Beim sogenannten k-adams-bashforth-verfahren interpoliert das Polynom p(t) die rechte Seite f (t l ) für l = j k +,..., j. Adams-Bashforth-Verfahren sind explizite Mehrschrittverfahren. Sie bilden eine wichtige Verfahrensklasse und sind allgemein in der Form k x (t j+ ) = x (t j ) + hc p l= β l f (t j l ), j = k, k,... (4.38) gegeben. Es soll nun kurz skizziert werden, wie die Koeffizienten c p βl bestimmt werden können. Mit der Lagrange-Interpolation (4.2) findet man k p(t) = f (t j l )r l (t) mit r l (t) = l= Eingesetzt in (4.37) ergibt sich tj+ x(t j+ ) = x(t j ) + p(τ)dτ = x(t j ) + t j k ν= ν l k tj+ l= t j t t j ν t j l t j ν. (4.39) r l (τ)dτ f (t j l ). (4.4) } {{ } hc p βl Für ein äquidistantes Gitter = {t j t j = t +hj} und unter Verwendung der Zeittransformation t = t j + hτ, die das Intervall t [t j, t j+ ] auf τ [, ] transformiert, erhält man die Koeffizienten c p βl = h = tj +h t j r l (t)dt = k ν= ν l r l (t j + hτ)dτ t + hj + hτ (t + h(j ν)) (t + h(j l)) (t + h(j ν)) dτ = k ν= ν l ν + τ (4.4) ν l dτ. Spezielle Verfahren ergeben sich damit mit (4.38) und den Koeffizienten nach (4.4). Die Koeffizienten sind für k =, 2, 3, 4, 5 in der Tabelle 4.9 angeführt. p s k c p β β β2 β3 β4 2 2 /2 3 3 3 /2 23 6 5 4 4 /24 55 59 37 9 5 5 /72 9 2774 266 274 25 Tabelle 4.9: Koeffizienten der Adams-Bashforth-Verfahren.