EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK I 1. Numerische Analysis. Prof. Dr. Hans Babovsky. Institut für Mathematik. Technische Universität Ilmenau

Ähnliche Dokumente
EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK I 1. Numerische Analysis. Prof. Dr. Hans Babovsky. Institut für Mathematik. Technische Universität Ilmenau

NUMERISCHE MATHEMATIK II 1. (Studiengang Mathematik) Prof. Dr. Hans Babovsky. Institut für Mathematik. Technische Universität Ilmenau WS 2001/2002

Klassische Polynom Interpolation.

Musterlösungen zur Leistungsnachweisklausur vom Studiengang Informatik, Ingenieurinformatik, Lehramt

5 Interpolation und Approximation

H.J. Oberle Analysis II SoSe Interpolation

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.

(x x j ) R m [x] (3) x x j x k x j. R m [x]. (4)

Kapitel 6. Nichtlineare Gleichungen. 6.1 Einführung. Problem: Idee: Beispiel:

8 Interpolation. 8.1 Problemstellung. Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen. x 0 < x 1 <... < x n.

Lösung zur Serie 8. x + 2x 2 sin(1/x), falls x 0, f(x) := 0, falls x = 0. = lim

Nichtlineare Gleichungssysteme

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

6. Polynom-Interpolation

NUMERISCHE MATHEMATIK. Prof. Dr. Hans Babovsky. Institut für Mathematik. Technische Universität Ilmenau


VF-3: Gegeben seien die Daten f(x 0 ), f(x 1 ),..., f(x n ) mit x 0,..., x n paarweise verschiedenen und

( ) Dann gilt f(x) g(x) in der Nähe von x 0, das heisst. Für den Fehler r(h) dieser Näherung erhält man unter Verwendung von ( )

KAPITEL 8. Interpolation

GMA. Grundlagen Mathematik und Analysis. Nullstellen und Fixpunkte Reelle Funktionen 3. Christian Cenker Gabriele Uchida

Einführung in die numerische Mathematik

T n (1) = 1 T n (cos π n )= 1. deg T n q n 1.

19. Januar Universität Erlangen-Nürnberg Department Mathematik PD Dr. Markus Bause. . Danach liefert die Gauss-Elinination. .

1 2 x x x x x x2 + 83

Nichtlineare Gleichungssysteme

Institut für Geometrie und Praktische Mathematik

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme

Übungen zu Splines Lösungen zu Übung 20

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b.

5 Numerische Iterationsverfahren

5 Numerische Mathematik

7. Nichtlineare Gleichngssysteme. Problem 7: Sei f : R n R n stetig. Löse f(x) = 0.

Institut für Geometrie und Praktische Mathematik

Nachklausur am Donnerstag, den 7. August 2008

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016

(x x j ) x [a,b] n! j=0

eps für alle x D. 4. Die Zahl 256 ist in M(2, 4, 6, 6) exakt darstellbar.

KAPITEL 5. Nichtlineare Gleichungssysteme

6 Polynominterpolation

Approximation durch Polynome

Vorlesung: Analysis I für Ingenieure

f(x 0 ) = lim f(b k ) 0 0 ) = 0

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

3.1.3 Newtonsche Interpolationsformel / Dividierte Differenzen

Höhere Mathematik für Physiker II

Kapitel 5. Lösung nichtlinearer Gleichungen

Modulprüfung Numerische Mathematik 1

Die Interpolationsformel von Lagrange

Rechenoperationen mit Folgen. Rekursion und Iteration.

KAPITEL 10. Numerische Integration

Übungsblatt 1 Musterlösung

Dierentialrechnung mit einer Veränderlichen

18 Höhere Ableitungen und Taylorformel

Inhalt Kapitel IV: Interpolation

Fixpunkt-Iterationen

8 Polynominterpolation

Übungen zu Einführung in die Analysis

Fixpunkt-Iterationen

18.4 Das Newton-Verfahren

Newton-Verfahren für ein Skalarfunktion

Name: Matrikel-Nr.: 1

3 Nichtlineare Gleichungssysteme

Orthogonalpolynome Einführung, Eigenschaften und Anwendungen

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Institut für Geometrie und Praktische Mathematik

Nichtlineare Gleichungen

Institut für Geometrie und Praktische Mathematik

Kapitel 4: Nichtlineare Nullstellenprobleme

Klausur zur Analysis I WS 01/02

Institut für Geometrie und Praktische Mathematik

Begleitmaterial zur Vorlesung Numerik II

Lösungen der Aufgaben zu Kapitel 9

(c) Gegeben sei der zweidimensionale Raum L mit den Basisfunktionen. [ φ i, φ j ] 3 i,j=1 =

Spline-Interpolation

Lösung der Diplom-Vorprüfung Höhere Mathematik III/IV Aufgabe N1 (LR-Zerlegung mit Pivotisierung) Gegeben seien R 3.

GRUNDLAGEN MATHEMATIK

Nullstellenberechnung von nichtlinearen Funktionen

(a), für i = 1,..., n.

Wie in der reellen Analysis üblich notiert man Folgen f in der Form

Nullstellen von algebraischen Gleichungen

Diplom VP Numerik 28. August 2006

Kapitel 3. Konvergenz von Folgen und Reihen

Diplom VP Informatik/Numerik 9. September 2000 / Seite 1. Aufgabe 1: L-R-Zerlegung, Nachiteration / Ly = b. y = Rx = y.

NUMERISCHE MATHEMATIK I 1. (Studiengänge Informatik/Ingenieurinformatik und Lehramt) Prof. Dr. Hans Babovsky. Institut für Mathematik

Interpolation. Heinrich Voss. TUHH Heinrich Voss Kapitel / 49.

Differential- und Integralrechnung

Kapitel 16 : Differentialrechnung

Inexakte Newton Verfahren

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript

Ziel: Iterative Lösung der (nichtlinearen) Gleichung f(x) = 0.

Analysis I für Studierende der Ingenieurwissenschaften

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.

Seminar Gewöhnliche Differentialgleichungen

Integraldarstellung des Restgliedes; Lagrangesche Restgliedformel;

Polynomiale Approximation. und. Taylor-Reihen

Brückenkurs Rechentechniken

Vorlesung Analysis I WS 07/08

Ferienkurs Seite 1. Technische Universität München Ferienkurs Analysis 1 Stetigkeit, Konvergenz, Topologie

Transkript:

EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK I 1 Numerische Analysis Prof. Dr. Hans Babovsky Institut für Mathematik Technische Universität Ilmenau 1 Version vom Herbst 2017

INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Nichtlineare Gleichungen 2 1.1 Die Ordnung konvergenter Folgen............................... 2 1.2 Nullstellen skalarer Funktionen: Intervallschachtelungen.................. 3 1.2.1 Die Intervallhalbierungsmethode........................... 4 1.2.2 Die Methode der Regula Falsi............................. 6 1.2.3 Die Sekantenmethode................................. 7 1.3 Fixpunktgleichungen...................................... 9 1.4 Das Newton-Verfahren..................................... 11 1.4.1 Newton-Iteration, Konvergenz............................. 11 2 Interpolation und Approximation 16 2.1 Das einfache Interpolationsproblem.............................. 16 2.2 Lagrange-Interpolation..................................... 17 2.3 Das erweiterte Interpolationsproblem............................. 23 2.4 Approximationsfehler...................................... 29 2.5 Tschebyscheff-Interpolation.................................. 31 3 Spline-Interpolation 34 3.1 Polynom-Splines........................................ 34 3.2 Kubische Splines........................................ 36 3.3 Bezierkurven und -flächen................................... 41 4 Approximation durch Orthogonalsysteme 45 5 Numerische Integration 50 5.1 Quadraturformeln....................................... 50 5.2 Newton-Cotes-Formeln..................................... 53 5.2.1 Einfache Newton-Cotes-Formeln........................... 53 5.2.2 Summierte Newton-Cotes-Formeln.......................... 57 5.3 Gauß-Christoffel-Quadratur.................................. 59 5.4 Extrapolationsverfahren.................................... 64 5.4.1 Die Eulersche Summenformel............................. 64 5.4.2 Trapezregel: Asymptotische Fehlerentwicklung................... 69 5.4.3 Das Romberg-Verfahren................................ 71

1 NICHTLINEARE GLEICHUNGEN 2 1 Nichtlineare Gleichungen In diesem Abschnitt sei eine Funktion f : lr n lr n gegeben. Ziel des Kapitels ist es, Nullstellen bzw. Fixpunkte von f numerisch zu bestimmen. Hierzu werden wir Iterationsfolgen x (k) entwickeln, welche gegen die gesuchte Nullstelle bzw. den Fixpunkt konvergieren. Zur Beurteilung der Qualität eines Iterationsverfahrens benötigen wir den Begriff der Konvergenzordnung. 1.1 Die Ordnung konvergenter Folgen Sei (X, d) ein metrischer Raum. (1.1.1) Definition: (a) Es sei x (n) eine konvergente Folge in X mit lim k x (k) = x. Die Folge hat die Konvergenzordnung p = 1, falls es ein C (0, 1) und ein k 0 ln gibt mit d(x (k+1), x ) C d(x (k), x ) für alle k k 0. p > 1, wenn es eine Konstante C > 0 und ein k 0 ln gibt mit d(x (k+1), x ) C d(x (k), x ) p für alle k k 0. Für p = 1 heißt die Folge linear konvergent, für p > 1 superlinear konvergent und für p = 2 quadratisch konvergent. (b) Gegeben sei ein Iterationsverfahren zur Berechnung eines Vektors x, welches zu einem Startvektor x (0) eine Folge x (n) n ln erzeugt. Das Verfahren hat die Ordnung p, falls lim k x (k) = x, und falls die Folge x (k) die Konvergenzordnung p hat. (1.1.2) Bemerkungen: (a) Ist (x (k) ) linear konvergent, so folgt die Existenz eines λ > 0 derart, dass d(x (k), x ) λ C k 0 für k (1.1) Wir erweitern die Definition (1.1.1)(a) und bezeichnen eine Folge auch dann als linear konvergent, wenn die (schwächere) Bedingung (1.1) für alle k gilt. (b) Bei Konvergenzordnung p > 1 gilt für k k 0 d(x (k+1), x )/d(x (k), x ) C (d(x (k), x )) p 1

1 NICHTLINEARE GLEICHUNGEN 3 Ist µ := C d(x (k0), x )) p 1 < 1 so folgt die Monotonie der Folge d(x (k), x ) sowie mit geeignetem λ > 0 die Abschätzung d(x (k), x ) λµ k 0 Konvergenz liegt also dann vor, wenn eines der Folgenglieder hinreichend nahe bei x liegt. (1.1.3) Beispiel: (a) Gegeben sei die Zahl π in Dezimaldarstellung, π = 3.14159... = a i 10 i, (1.2) i=0 mit a i {0,..., 9}. Welche Konvergenzordnung hat die Folge s k = k i=0 a i 10 i? Offenbar ist s k π 9 10 i = 10 k. i=k+1 Nach Bemerkung (1.1.2)(a) die Folge linear konvergent. Das stärkere Kriterium aus Definition (1.1.1) ist dagegen nicht erfüllt, da im Fall a k = 0 gilt s k 1 π = s k π. (b) Die Folge x (k) in lr sei quadratisch konvergent mit C = 1. Approximiert das Folgenglied x (k) den Grenzwert x auf n Nachkommastellen genau, so ist x (k) x < 0.5 10 n Nach der Definition der quadratischen Konvergenz folgt x (k) x < 0.25 10 2n d.h. die Anzahl der exakten Nachkommastellen von x (k+1) ist mindestens 2n und hat sich verdoppelt. 1.2 Nullstellen skalarer Funktionen: Intervallschachtelungen Gegeben sei eine stetige Funktion f : [a, b] lr. Gesucht ist eine Nullstelle. Die folgenden Verfahren beziehen sich auf Funktionen f : lr lr, welche stetig sind. Zusätzlich

1 NICHTLINEARE GLEICHUNGEN 4 setzen wir zunächst voraus, dass zwei Punkte a und b bekannt sind, an denen die Funktionswerte unterschiedliche Vorzeichen haben (solche Punkte kann man häufig durch eine grobe Kurvendiskussion bestimmen), für die also gilt f(a) f(b) < 0. (1.3) Da f stetig ist, muß zwischen a und b (mindestens) eine Nullstelle liegen 2. Im folgenden soll versucht werden, durch Einschachtelungsverfahren den Ort einer Nullstelle immer weiter einzugrenzen und so ihre Lage mit beliebiger Genauigkeit zu bestimmen. 1.2.1 Die Intervallhalbierungsmethode Bei dieser Methode wird in jedem Iterationsschritt das untersuchte Intervall in zwei gleich große Teilintervalle eingeteilt; in einem dieser beiden Teilintervalle muss sich eine Nullstelle befinden. Im nächsten Schritt wird die Suche auf dieses Teilintervall eingeschränkt. Gegeben sei das Intervall [a 0, b 0 ] [a, b], a 0 < b 0, und es gelte f(a 0 )f(b 0 ) < 0 Wegen der Stetigkeit von f muss sich im Intervall [a 0, b 0 ] eine Nullstelle von f befinden. Wir definieren eine Folge von Intervallen [a k, b k ] mit der Inklusionsbedingung [a k+1, b k+1 ] [a k, b k ] und eine Folge x k wie folgt. (1.2.1) Rekursionsschritt (Intervallhalbierung): Gegeben sei [a k, b k ]. (S1) Definiere x k+1 als den Intervallmittelpunkt: x k+1 := 0.5 (a k + b k ) Falls b k a k < 2ϵ: gib x k+1 als gesuchte Nullstelle aus; STOP. 2 Dies folgt aus dem Zwischenwertsatz; vgl. Analysis-Vorlesung

1 NICHTLINEARE GLEICHUNGEN 5 (S2) Definiere [a k+1, b k+1 ] durch [a k+1, b k+1 ] := [a k, x k+1 ] falls f(a k )f(x k+1 ) < 0 [x k+1, b k ] falls f(x k+1 )f(b k ) < 0 [x k+1, x k+1 ] falls f(x k+1 ) = 0 Die Iterationsvorschrift für [a k+1, b k+1 ] stellt sicher, dass sich im neuen Intervall wieder eine Nullstelle von f befindet. Ist f(x k+1 ) = 0 für ein k, so ist nach endlich vielen Iterationsschritten eine Nullstelle gefunden. (Dieser Fall wird in der Regel nicht eintreten.) Im andern Fall wird eine Nullstelle auf ein immer kleineres Intervall eingegrenzt. Die Folgen a k und b k sind beschränkte monotone Folgen mit Grenzwerten a und b. Wegen b k+1 a k+1 = 0.5(b k a k ) und wegen a k x k+1 b k folgt a = lim k x k = b Damit konvergiert die Folge x k gegen eine Nullstelle von f. Wir bestimmen die Konvergenzordnung für den typischen Fall, dass eine Nullstelle nicht nach endlich vielen Schritten gefunden wird. Ist H = b a die Intervalllänge des Eingabeintervalls, und tritt das Ereignis f(x (k) ) = 0 nicht auf, so ist nach k Schritten die Intervalllänge gleich b a = H/2 k ; außerdem ist der Approximationsfehler kleiner als die halbe Intervallänge, also x (k) x < H/2 k+1. (1.2.2) Bemerkung: Das Intervallhalbierungsverfahren ist ein linear konvergentes Verfahren. Für ϵ > 0 bricht das Verfahren nach endlich vielen Schritten mit einem Näherungswert ab, welcher von x um höchstens ϵ abweicht. Da sich die Länge des untersuchten

1 NICHTLINEARE GLEICHUNGEN 6 Teilintervalls mit jedem Schritt halbiert, muss der Schritt S2 k-mal durchlaufen werden mit k ln(h/ϵ)/ ln(2) 1. 1.2.2 Die Methode der Regula Falsi Im Unterschied zur Intervallhalbierung wird bei der Methode der Regula falsi die Iterierte x k+1 nicht als Mittelpunkt des aktuellen Intervalls definiert, sondern als Nullstelle der Sekante bezüglich der Knoten a und b, also der Geraden durch die Punkte (a, f(a)) und (b, f(b)). Diese Gerade ist gegeben durch und hat die Nullstelle s(x) = f(a) + (x a) x 0 = a f(a) b a f(b) f(a) f(b) f(a) b a a f(b) b f(a) =. (1.4) f(b) f(a) Zur Implementierung dieses Verfahrens ist im Schritt (S1) des Algorithmus zur Intervallhalbierung die Anweisungen x k+1 = (a k + b k )/2 zu ersetzen durch x k+1 = a k f(b k ) b k f(a k ). (1.5) f(b k ) f(a k ) Man stellt allerdings an Hand von Beispielen schnell fest, dass im Allgemeinen die Intervalllänge b k a k keine Nullfolge mehr ist und damit das Abbruchkriterium des Intervallhalbierungsverfahrens unbrauchbar geworden ist. Wir wollen hierauf nicht näher eingehen, sondern die Frage untersuchen, in welchem Sinn das Verfahren Nullstellen von f approximiert. Eine genauere Analyse erfordert die Durchführung von Fallunterscheidungen, von denen wir hier exemplarisch eine herausgreifen wollen. Im Folgenden sei f im Ausgangsintervall [a, b] eine zweimal stetig diferenzierbare streng monoton wachsende Funktion mit positiver zweiter Ableitung. Es gelte also f (x) > 0 und f (x) > 0 für x [a, b]. In diesem Fall ist also f konvex und ihr Graph liegt unterhalb der Sekante. Man überzeugt sich leicht, dass der rechte Randpunkt b k im Iterationsprozess konstant bleibt und der linke Randpunkt nach innen rückt, also a k+1 = x k+1 > a k, b k+1 = b

1 NICHTLINEARE GLEICHUNGEN 7 Als monoton wachsende durch b nach oben beschränkte Folge besitzt x k einen Grenzwert x. Außerdem gibt es in [a, b] eine eindeutige Nullstelle x x von f. Aus folgt x k+1 = x k f(b) b f(x k ) f(b) f(x k ) x x k+1 = (x x k ) f(b) + (b x ) f(x k ). f(b) f(x k ) Die Taylorentwicklung von f um x ergibt f(x k ) = f(x ) (x x k ) f (ζ) mit einer Zwischenstelle ζ (x k, x ). Hieraus folgt x x k+1 = (x x k ) f(b) (b x ) f (ζ) f(b) f(x k ) + b x f(b) f(x k ) f(x ) Wäre x x, so wäre der zweite Term auf der rechten Seite keine Nullfolge, was zu einem Widerspruch führt. Damit konvergiert der linke Intervallrand gegen die gesuchte Nullstelle. Es handelt sich aber auch hier nur um ein linear konvergentes Verfahren. (Begründung? Finden Sie eine geeignete Konstante C.) 1.2.3 Die Sekantenmethode Bei der Sekantenmethode wird ausgehend von zwei Startwerten x (0) und x (1) die Iterierte x (k+1) definiert als Nullstelle der Sekante bezüglich der Knoten x (k 1) und x (k). Diese Nullstelle wird analog zur Formel (5.2) berechnet, und es folgt x (k+1) = x(k 1) f(x (k) ) x (k) f(x (k 1) ). (1.6) f(x (k) ) f(x (k 1) ) Dieses Verfahren ist eng verwandt mit den in A und B beschriebenen, es handelt sich hier aber nicht um eine Intervallschachtelung; so wird beispielsweise für die Startwerte nicht gefordert, dass f(x (0) ) f(x (1) ) < 0. Ist dies nicht erfüllt, so liegt x (2) nicht innerhalb des durch x (0) und x (1) beschriebenen Intervalls. Entsprechend ist die Konvergenz des Verfahrens auch nicht gesichert. Für die folgende Fehleranalyse gehen wir davon aus, dass x := lim k x (k) existiert. In diesem Fall ist x Nullstelle von f. (Begründung?) Wir definieren x := inf k ln x(k) und x := sup x (k) k ln

1 NICHTLINEARE GLEICHUNGEN 8 und setzen wie in B eine in [x, x] zweimal stetig differenzierbare Funktion f voraus, für welche f (x) 0 und f (x) 0 für x [x, x]. Bezeichnet ϵ k := x (k) x den Fehler der k-ten Iterierten, so folgt aus (1.6) ϵ k+1 = (x(k 1) x ) f(x (k) ) (x (k) x ) f(x (k 1) ) f(x (k) ) f(x (k 1) ) = ϵ k 1 f(x (k) ) ϵ k f(x (k 1) ) f(x (k) ) f(x (k 1) ) =: z k+1 n k+1. (1.7) Um eine Idee vom Konvergenzverhalten zu bekommen, führen wir die folgende heuristische Abschätzung durch. Aus der Taylorformel folgt mit geeigneten Zwischenwerten ζ (k 1) und ζ (k) f(x (k 1) ) = f(x + ϵ k 1 ) = ϵ k 1 f (x ) + ϵ2 k 1 2 f (ζ (k 1) ), f(x (k) ) = f(x + ϵ k ) = ϵ k f (x ) + ϵ2 k 2 f (ζ (k) ). Aus der Konvergenz x (k) x folgt ζ (k) x. Daher gilt für Zähler und Nenner von (1.7) für große k z k+1 = 1 2 ϵ k 1ϵ k (ϵ k f (ζ k ) ϵ k 1 f (ζ k 1 )) 1 2 ϵ k 1ϵ k (ϵ k ϵ k 1 ) f (x ), ( n k+1 (ϵ k ϵ k 1 ) f (x ) + ϵ ) k 1 + ϵ k f (x ). 2 Hieraus folgt mit geeigneten Konstanten C, C > 0 C ϵ k 1 ϵ k ϵ k+1 C ϵ k 1 ϵ k. Um hieraus auf das Konvergenzverhalten der Sekantenmethode zu schließen, untersuchen wir das Vergleichsproblem mit dem Ansatz a k = α a p k 1. Einsetzen ergibt (i) a k+1 = αa p k = α (αap k 1 )p = α p+1 a p2 k 1 (ii) a k+1 = C(αa p k 1 )a k 1 = Cαa p+1 k 1 a k+1 = C a k 1 a k. (1.8) Ein Vergleich ergibt C = α p und p 2 = p+1, also p = 1 2 (1± 5). a k ist Nullfolge höchstens für p 1, also für p = 1 2 (1 + 5) = 1.618. Dieses Ergebnis kann man mit rigorosen Abschätzungen, aber mit sehr viel größerem Aufwand auch wirklich bestätigen. Damit ist das Sekantenverfahren superlinear konvergent ist mit p = 1.618.

1 NICHTLINEARE GLEICHUNGEN 9 1.3 Fixpunktgleichungen In diesem Abschnitt bezeichne D lr n eine abgeschlossene Menge und f : D D eine stetige Funktion. Ein Punkt x D heißt Fixpunkt von f, falls gilt x = f(x ). Wir untersuchen die Möglichkeit, einen Fixpunkt x von f durch eine Folge x (k) zu approximieren, welche für k gegen den gesuchten Fixpunkt konvergiert. Ein häufig benutztes Verfahren ist die Fixpunktiteration, welche wie folgt beschrieben ist. (1.3.1) Algorithmus (Fixpunktiteration): S1 Bestimme einen geeigneten Startwert x (0) (z.b. einen Schätzwert von x ). S2 Löse das folgende Iterationsverfahren für k = 0, 1, 2,...: Ist x (k) gegeben, so bestimme x (k+1) durch die Vorschrift x (k+1) := f ( x (k)). Aus der Stetigkeit von f folgt unmittelbar: (1.3.2) Lemma: Konvergiert das Iterationsverfahren für k gegen einen Vektor x, so ist x D und ist ein Fixpunkt von f. Ein hinreichendes Kriterium, unter welchem f einen (eindeutig bestimmten) Fixpunkt hat, liefert der folgende Satz. (1.3.3) Banachscher Fixpunktsatz: Die Abbildung f sei Lipschitz-stetig, d.h. es gebe eine Konstante γ 0 ( Lipschitz-Konstante ) mit der Eigenschaft f(x) f(y) γ x y. Für die Lipschitz-Konstante gelte γ < 1. 3 Dann besitzt f genau einen Fixpunkt x, und die Fixpunkt-Iteration konvergiert für 3 In diesem Fall heißt f auch Kontraktion.

1 NICHTLINEARE GLEICHUNGEN 10 jeden beliebigen Startwert x (0) linear gegen x. Es gelten die folgenden Abschätzungen. (a) Für die Abweichung der k-ten Iterierten x (k) vom gesuchten Punkt gilt x (k) x γ k x (0) x. (b) Der Abstand zum gesuchten Fixpunkt kann durch den Abstand zweier aufeinanderfolgender Iterierter abgeschätzt werden durch x (k) x γ 1 γ x(k) x (k 1) γ2 1 γ x(k 1) x (k 2) γk 1 γ x(1) x (0). (1.3.4) Bemerkungen: (a) Eine Lipschitzkonstante für eine stetig differenzierbare f kann man häufig durch Abschätzen der ersten Ableitung von f erhalten. Betrachten wir zunächst den skalaren Fall. Nach einem Mittelwertsatz der Analysis gilt für x < y mit einer geeigneten Zwischenstelle ξ (x, y) f(y) = f(x) + f (ξ) (y x), also f(y) f(x) sup f (ξ) y x. (1.9) ξ (x,y) Eine entsprechende Aussage gilt auch für Systeme. Hierbei ist Df(ξ) die Funktionalmatrix von f in ξ, und es ist für beliebige kompatible Normpaare. f(y) f(x) sup Df(ξ) y x (1.10) ξ D (b) Häufig tritt der Fall ein, dass f nicht im gesamten Definitionsbereich, aber in einer Umgebung eines gesuchten Fixpunkts eine Kontraktion ist. Das folgende einfach zu beweisende Lemma zeigt, dass auch hier die Fixpunktiteration konvergiert, wenn der Anfangswert hinreichend gut gewählt wird. (Man spricht in diesem Fall von lokaler Konvergenz, im Gegensatz zur globalen Konvergenz im Falle des Banachschen Fixpunktsatzes.) (1.3.5) Lemma: Sei f : [a, b] lr stetig differenzierbar. x (a, b) sei Fixpunkt von f und es gelte f ( x) < 1. Dann gib es eine Umgebung U von x mit f(u) U derart, dass f Kontraktion auf U ist. Beweis: Übung.

1 NICHTLINEARE GLEICHUNGEN 11 Dieses Ergebnis kann leicht af mehrere Dimensionen verallgemeinert werden. (1.3.6) Beispiel: Wie man mit einer graphischen Skizze leicht feststellt, besitzt die Funktion f : lr lr, f(x) = exp(x) 2, zwei Fixpunkte, einen positiven und einen negativen. Zur Bestimmung des negativen Fixpunkts folgt aus Bemerkung (1.3.4)(a) mit einer kleinen Nebenrechnung, dass f das Intervall (, 1] auf sich selbst abbildet und dort eine Kontraktion ist. Mit einem Startpunkt x (0) (, 1] konvergiert die Fixpunktiteration gegen den gesuchten Fixpunkt. Den positiven Fixpunkt kann man auf diese Weise nicht ermitteln. Da f (x) 1 für x [0, ), ist es ratsam, von der Fixpunktgleichung f(x) = x auf die äquivalente Gleichung x = f 1 (x) überzugehen, wobei f 1 die Umkehrfunktion von f ist, welche in unserem Fall existiert. Die zu x = exp(x) 2 äquivalente Fixpunktgleichung lautet x = ln(x + 2) Man prüft leicht nach, dass ln(x + 2) das Intervall [0, ) auf sich selbst abbildet und dort eine Kontraktion ist. 1.4 Das Newton-Verfahren 1.4.1 Newton-Iteration, Konvergenz Gegeben sei f : lr n lr n. Gesucht ist eine Nullstelle x. Wir setzen voraus (i) (ii) f ist zweimal stetig differenzierbar; die Funktionalmatrix Df(x ) ist regulär. Aus (i) folgt, dass f lokal gut durch eine lineare Abbildung beschrieben werden kann: f(x + h) f(x) + Df(x) h, falls h 1. Aus (ii) folgt, dass Df(x) regulär ist, falls x hinreichend nahe an x liegt. In diesem Fall ist die Tangente T (y) := f(x) + Df(x) (y x) invertierbar und besitzt insbesondere eine eindeutig bestimmte Nullstelle y= x (Df(x)) 1 f(x).

1 NICHTLINEARE GLEICHUNGEN 12 k 0 1 2 3 x (k) 1.0... 0.905... 0.90001... 0.90000000001... Tabelle 1: Berechnung von 0.81 mit dem Newton-Verfahren Das Newton-Verfahren ist ein Iterationsverfahren, welches bei gegebener Iterierter x (k) die neue Iterierte x (k+1) als Nullstelle der Tangente durch x (k) berechnet. Nach den obigen Vorbemerkungen wird das Verfahren wie folgt beschrieben. (1.4.1) Algorithmus (Newton-Verfahren): Gewählt sei ein hinreichend guter Startvektor x (0). Ist x (k) gegeben, so definiere x (k+1) wie folgt. S1 Berechne f(x (k) ) und die Funktionalmatrix Df(x (k) ). S2 Berechne die Lösung s des linearen Gleichungssystems Df(x (k) ) s = f(x (k) ). S3 Definiere x (k+1) := x (k) + s. (1.4.2) Beispiele: (a) Gesucht ist eine numerische Näherung von a, a > 0. Offenbar ist x = a eine Nullstelle der Funktion f(x) = x 2 a. Das Newton-Verfahren liefert als Iterationsvorschrift: x (k+1) = x (k) (x(k) ) 2 a 2x (k) = 1 2 ( x (k) + a ). x (k) Ein Zahlenbeispiel für a = 0.81 und x (0) = 1.0 ist in Tabelle 1 angegeben. (b) Gesucht ist eine Nullstelle x der Funktion f(x, y) := x exp(y) 1. sin(x) y Die Jacobi-Matrix von f ist Df(x, y) = exp(y) cos(x) x exp(y) 1. Mit dem Startwert x(0) y (0) := 0 0

1 NICHTLINEARE GLEICHUNGEN 13 liefert das Newton-Verfahren die folgenden Werte. x(1) = 0 1 0 1 1 = 1, y (1) 0 1 1 0 1 x(2) = 1 exp(1) exp(1) 1 exp(1) 1 = 0.693..., y (2) 1 cos(1) 1 sin(1) 1 0.675... x(5) y (5). = = 0.578713... 0.546947.... Dieser letzte Wert hat den Funktionswert f(x (5), y (5) ) = ( 0 sehr gute Näherung der gesuchten Nullstelle. (c) Gesucht ist das Maximum der Funktion H : lr 2 lr, 1.15E-7 ) T und ist eine H(x, y) = 5x 4 + 2(x 1) 3 (y + 1) 100y 2. Eine notwendige Bedingung, dass das Maximum im Punkt (x, y ) T angenommen wird, ist, dass die partiellen Ableitungen H(x, y ) x H(x,y ) x H(x,y ) y und H(x, y ) y verschwinden. Gesucht ist damit eine Nullstelle der Funktion f(x, y) := = 20x3 + 6(x 1) 2 (y + 1) 2(x 1) 3 200y Diese kann mit Hilfe des Newton-Verfahrens berechnet werden. Zur Konvergenz des Newton-Verfahrens veweisen wir das folgende Ergebnis im skalaren Fall (n = 1). (1.4.3) Satz: D = (a, b) sei ein nicht-leeres offenes Intervall auf lr. D sei der Abschluss. Es sei f : D lr eine zweimal stetig differenzierbare Funktion mit inf x D f (x) > 0 und sup x D f (x) <. Wir definieren x D sei Nullstelle von f; ρ (0, 2/ω) sei so gewählt, dass. ω := sup D f inf D f. (1.11) B ρ (x ) = {x lr : x x < ρ} D. (1.12) Es seien x (0) B ρ (x ) und x (k) die Iterierten des Newton-Verfahrens. Dann gilt:

1 NICHTLINEARE GLEICHUNGEN 14 (a) Für alle k ln ist x (k) B ρ (x ). (b) Es ist lim k x (k) = x. (c) Es gilt x (k+1) x ω x (k) x 2. (1.13) 2 (d) x ist die einzige Nullstelle in B 2/ω (x ). Beweis: Induktionsbeweis zu (a), (b) und (c): Sei x (k) B ρ (x ). Nach Definition des Newton-Verfahrens ist x (k+1) x = x (k) x f(x (k) )/f (x (k) ). (1.14) Die Taylorentwicklung von f(x ) = 0 um x (k) ergibt mit einer geeigneten Zwischenstelle ξ D also f(x ) = f(x (k) ) + (x x (k) ) f (x (k) ) + (x x (k) ) 2 f (ξ), (1.15) 2 f(x (k) ) f (x (k) ) = (x(k) x ) f (ξ) 2f (x (k) ) (x(k) x ) 2. (1.16) Eingesetzt in das Newton-Verfahren folgt mit der Definition von ω x (k+1) x ω x (k) x 2. (1.17) 2 Damit ist der Induktionsschritt für (c) gezeigt. Mit q := ρω/2 < 1 gilt außerdem x (k+1) x q x (k) x. (1.18) Also ist einerseits x (k+1) B ρ (x ) und andererseits x (k) x eine Nullfolge, womit (a) und (b) gezeigt sind. Zu (d): Sei x B 2/ω (x ) eine weitere Nullstelle von f. Ersetzen wir in allen obigen Rechnungen x (k) und x (k+1) durch x, (warum ist das sinnvoll?) so folgt x x q x x (1.19) mit q < 1, also x = x.

1 NICHTLINEARE GLEICHUNGEN 15 (1.4.4) Beispiel: Das Polynom f(x) = x 3 3x + 1 hat im Intervall D = [ 2, 2] eine Nullstelle x. Wie groß darf ρ gewählt werden, damit für Startwerte x (0) B ρ (x ) das Newton-Verfahren konvergiert? Abgeschätzt werden müssen sup D f und inf D f. Offenbar ist sup D f = sup D 6x = 12. Außerdem ist f (x) = 3x 2 3 in D monoton wachsend (Begründung?), also inf D f 3. Das ergibt einen Wert ω = 4. Der Satz erfordert damit eine Genauigkeit des Startwerts von x (0) x < 2/ω = 0.5. Wir fassen die Ergebnisse des Satzes kurz damit zusammen, dass das Newton-Verfahren lokal quadratisch konvergent ist. Die quadratische Konvergenz ergibt sich aus Teil (c) des Satzes. Das Verfahren konvergiert allerdings nur bei hinreichend gutem Startwert, daher der Zusatz lokal. Die Ergebnisse lassen sich übertragen auf Systeme.

2 INTERPOLATION UND APPROXIMATION 16 2 Interpolation und Approximation 2.1 Das einfache Interpolationsproblem In diesem Kapitel geht es um die Frage, wie Funktionen rekonstuiert werden können, von welchen nur gewisse Funktionswerte bekannt sind. Anwendungen sind z.b.: Aus Messungen im Labor sind nur diskrete Werte f(t 1 ), f(t 2 ),... bekannt; Funktionswerte einer Funktion sind tabellarisch aufgelistet; eine kontinuierliche Funktion soll abgespeichert und später rekonstruiert werden. Wir behandeln zunächst das folgende einfache Interpolationsproblem: Gegeben sei ein Funktionenraum V. Weiter seien Knoten t 0 <... < t n und Funktionswerte f 0,..., f n gegeben. Das Interpolationsproblem in V lautet: Finde eine Funktion P (t) V, welches die Interpolationseigenschaft erfüllt: P (t i ) = f i, i = 0,..., n. (2.1) (2.1.1) Definition: Ein System (b 0,..., b n ) von Funktionen in V heißt IP-System zu den Knoten t 0,..., t n, falls gilt Der von b 0,..., b n aufgespannte Raum 1 falls i = j b i (t j ) = 0 sonst V n = span(b 0,..., b n ) heißt der IP-Unterraum von V zur Basis b 0,..., b n.. (2.1.2) Satz: In V n gibt es genau eine Lösung des IP-Problems. Diese ist gegeben durch P (t) = f j b j (t). j=0

2 INTERPOLATION UND APPROXIMATION 17 Beweis: Nach Definition der b i ist P (t) offenbar Lösung des IP-Problems. Ist Q(t) = nj=0 λ j b j (t) eine weitere Lösung des IP-Problems, so folgt für alle i = 0,..., n aus Q(t i ) = f i und den Eigenschaften der b i die Beziehung λ i = f i. (2.1.3) Beispiele: Als Funktionenraum V können wir z.b. die Menge der stetigen Funktionen auf [t 0, t n ] wählen. (a) Polynominterpolation: Ein IP-System wird gebildet durch die Lagrange-Polynome L i (t) := n j=0 j i t t j t i t j. (b) Bandbegrenzte Interpolation: Die Funktionen des IP-Systems sind ( ) h π(t ih) b i (t) = π(t ih) sin. h Diese Funktionen werden vor allem in der Elektrotechnik häufig benutzt zur Interpolation (Stichwort Abtastreihe). 2.2 Lagrange-Interpolation Im Folgenden seien L i die Lagrangepolynome zu den Knoten t 0,..., t n, und V n = span(l 0,..., L n ). (2.2.1) Lemma: Es ist V n = P n = Menge der Polynome vom Grad n. {L i i = 0,..., n} ist eine Basis von P n. Beweis: Offenbar liegen alle L i in P n ; damit ist V n P n. Die L i sind (als Funktionen auf [t 0, t n ]) linear unabhängig, denn: Sei c j L j (t) = 0 für alle t [t 0, t n ]. j=0 Wegen L i (t j ) = δ ij folgt dann aber c j L j (t i ) = c i = 0 für alle t [t 0, t n ]. (2.2) j=0

2 INTERPOLATION UND APPROXIMATION 18 Damit ist {L i i = 0,..., n} ist eine Basis von V n dimv n = n + 1. Da außerdem gilt dimp n = n + 1 (Beweis?), folgt V n = P n. Zusammen mit Satz (2.1.2) erhalten wir (2.2.2) Folgerung: Es gibt genau ein Polynom P (t) P n, welches die Interpolationsbedingungen (2.1) erfüllt. (Dieses wird das Interpolationspoynom genannt.) Es ist gegeben durch P (t) = f i L i (t). (2.3) i=0 (2.2.3) Beispiele: (a) Die zu den Knoten t 0 = 0, t 1 = 1, t 2 = 3 und t 3 = 4 gehörigen Lagrange-Polynome sind L 0 (t) = 1 1 (t 1)(t 3)(t 4) = 12 12 (t3 8t 2 + 19t 12), L 1 (t) = 1 6 t(t 3)(t 4) = 1 6 (t3 7t 2 + 12t), L 2 (t) = 1 6 t(t 1)(t 4) = 1 6 (t3 5t 2 + 4t), L 3 (t) = 1 1 t(t 1)(t 3) = 12 12 (t3 4t 2 + 3t). Das Interpolationspolynom zu den Werten f 0 = 1, f 1 = 0, f 2 = 1 und f 3 = 2 ist P (t) = L 0 (t) L 2 (t) + 2L 3 (t) = 1 12 (3t3 10t 2 5t + 12). (b) Der Wert sin(66.3 ) soll bestimmt werden. In einem Tafelwerk finden wir die tabellierten Werte sin(60 ) = 0.866025 sin(65 ) = 0.906308 sin(70 ) = 0.939693 sin(75 ) = 0.965926. (i) Das lineare Interpolationspolynom zu den Knoten t 1 = 65 und t 2 = 70 ist P 1 (t) = 0.0066770000 t + 0.47230300

2 INTERPOLATION UND APPROXIMATION 19 und liefert sin(66.3 ) P 1 (66.3) = 0.914988. (ii) Das Interpolationspolynom P 3 (t) dritten Grades zu den Knoten t 0 = 60, t 1 = 65, t 2 = 70 und t 3 = 75 ist P 3 (t) = 0.33866667 10 6 t 3 0.71920000 10 4 t 2 + 0.021017467 t 0.062959000. Dies führt auf die Approximation sin(66.3 ) P 3 (66.3) = 0.915662. Zum Vergleich: Der exakte Wert ist sin(66.3 ) = 0.91566259.... Wir untersuchen zunächst die Kondition des Interpolationsproblems. Hierbei geht es nicht um die Frage, wie genau ein Funktionsverlauf durch Interpolation rekonstruiert werden kann (dies geschieht in Abschnitt 2.4), sondern darum, wie stark sich Rundungsfehler auf das Ergebnis auswirken. Zunächst fassen wir die Knoten t i Funktionswerte f i zu Vektoren zusammen: t := (t 0,..., t n ) T, f := (f 0,..., f n ) T. und die Im Folgenden werde t als Folge paarweise unterschiedlicher Punkte festgehalten. Es bezeichne P [f](t) das nach Satz (2.1.2) eindeutige Interpolationspolynom zu den Werten f. Aus der Darstellung (2.3) für das Interpolationspolynom folgt, dass die Abbildung P [.] : lr n+1 P n linear ist. Hieraus folgt: Wird der Vektor f durch Rundungsfehler h = (h 0,..., h n ) T gestört, so hat dies den Fehler P [f + h] P [f] = P [h] (2.4) zur Folge. Zur Untersuchung des Rundungsfehlereinflusses muss also nur P [h] betrachtet werden. Wir führen die beiden folgenden Maximumnormen ein: h := max i, i=0,...,n (2.5) P [h] := sup P [h](t). (2.6) t [a,b] Die Kondition bezüglich der Maximumnorm ist definiert durch κ = P [h]. (2.7) h h lr n+1

2 INTERPOLATION UND APPROXIMATION 20 n äquidistante Knoten Tschebyscheff-Knoten 5 3.106 2.104 10 29.890 2.489 15 512.052 2.728 20 10986.533 2.901 Tabelle 2: Lebesgue-Konstante Λ n Diese kann mit Hilfe der Lagrange-Polynome wie folgt beschrieben werden. (2.2.4) Satz: Es seien a t 0 < < t n b paarweise verschiedene Knoten und L in, i = 0,..., n die zugehörigen Lagrange-Polynome. Dann gilt κ = max L in (t). (2.8) t [a,b] i=0 Beweis: Zur Abkürzung definieren wir Λ n := max L in (t). t [a,b] i=0 (Λ n heißt auch Lebesgue-Konstante.) Wir haben zunächst zu zeigen, dass κ Λ n. Dies folgt aus P [h](t) = h i L in (t) n h i L in (t) h Λ n. (2.9) i=0 i=0 Es sei nun t [a, b] der Wert, an dem n i=0 L in (t) sein Maximum annimmt. Definieren wir den speziellen Vektor h durch h i := sign(l in (t )), so ist h = 1 und P [h] = P [h](t ) = L in (t ) = Λ n. i=0 (2.2.5) Beispiel: Die Kondition κ hängt wesentlich von der Wahl der Knoten ab. Tabelle 2 gibt für das Intervall [ 1, 1] für verschiedene n die Lebesgue-Konstante an. Als

2 INTERPOLATION UND APPROXIMATION 21 Knoten wurden hierbei einmal äquidistante Knoten t i = (2i+1)/(n+1) 1 gewählt, und andererseits zum Vergleich die sog. Tschebyscheff-Knoten t i = cos(π (2i + 1)/(2n + 2)). (Als Begründung für die Wahl der Tschebyscheff-Knoten vgl. Abschnitt 2.5.) Sollen von einem Interpolationspolynom P (.) nur einzelne Werte P (t) berechnet werden, so ist es nicht nötig, die Koeffizienten des Polynoms zu berechnen. Numerisch günstiger ist die Anwendung des Schemas von Aitken-Neville. Grundlage hierfür ist das folgende Ergebnis. Es seien die Knoten t und die Funktionswerte f fest vorgegeben; P [f] bezeichne wie vorher das zugehörige Interpolationspolynom n-ten Grades. Des weiteren bezeichne P [f ˆt i ] das Interpolationspolynom n 1-ten Grades zu den n Paaren (t 0, f 0 ),..., (t i 1, f i 1 ), (t i+1, f i+1 ),..., (t n, f n ). Das folgende Lemma zeigt, dass sich P [f] rekursiv aus Interpolationspolynomen niedrigeren Grades aufbauen lässt. (2.2.6) Lemma: Für P [f] gilt die Rekursionsformel P [f](t) = (t 0 t)p [f ˆt 0 ](t) (t n t)p [f ˆt n ](t) t 0 t n. Beweis: Zur Abkürzung definieren wir Offenbar ist ϕ P n. Außerdem ist und für i = 1,..., n 1 gilt ϕ(t) := (t 0 t)p [f ˆt 0 ](t) (t n t)p [f ˆt n ](t) t 0 t n. ϕ(t 0 ) = P [f ˆt n ](t 0 ) = f 0, ϕ(t n ) = P [f ˆt 0 ](t n ) = f n, ϕ(t i ) = (t 0 t i )f i (t n t i )f i t 0 t n ) = f i. Damit ist ϕ = P [f]. Berücksichtigt man nun, dass auch die Polynome P [f ˆt i ] auf Polynome niedrigeren Grades zurückgeführt werden können, so ergibt sich schließlich das folgende Rekursionsverfahrens.

f 0 = π 00 2 INTERPOLATION UND APPROXIMATION 22 (2.2.7) Schema von Aitken-Neville: Berechne die Werte π ik, k = 0... n, i = k... n nach dem Schema f 1 = π 10 π 11............ f n 1 = π n 1,0 π n 1,1 π n 1,n 1 f n = π n0 π n1 π n,n 1 π nn wobei die π ik für k 1 aus den Werten der vorhergehenden Spalte bestimmt werden nach der Rekursionsformel Dann ist P (t) = π nn. 4 π ik = (t t i k)π i,k 1 + (t i t)π i 1,k 1 t i t i k = π i,k 1 + t t i t i t i k (π i,k 1 π i 1,k 1 ). (2.2.8) Beispiel: Der Wert P 3 (66.3) des Beispiels (2.2.3)(b) folgt somit aus dem Schema sin(60 ) = 0.866025 sin(65 ) = 0.906308 0.9167816 sin(70 ) = 0.939693 0.9149881 0.9156517 sin(75 ) = 0.965926 0.9202806 0.9156761 0.9156619. Aus dem Schema von Aitken-Neville kann man sich leicht den folgenden Algorithmus herleiten. (2.2.9) Algorithmus zum Schema von Aitken-Neville: 4 Die Werte π kk sind die Werte des Interpolationspolynoms zu den Knoten t 0,... t k an der Stelle t.

2 INTERPOLATION UND APPROXIMATION 23 (S1) Für k = 0(1)n: Setze p k := f k. (S2) Für k = 1(1)n Für i = n( 1)k: Setze p i := p i + (t t i ) (p i p i 1 )/(t i t i k ). 2.3 Das erweiterte Interpolationsproblem Wir wollen nun das Interpolationsproblem verallgemeinern und außer Funktionswerten f i auch Ableitungen f (l) i an den Knoten t i vorschreiben. Diese Art der Polynominterpolation heißt Hermite-Interpolation. Anstelle einer strikt wachsenden Folge von Knoten t 0 < t 1 < lassen wir nun gleiche Knoten zu: t 0 t 1. Werden an einem Knoten außer dem Funktionswert f i auch die Ableitungen f i,..., f (k) i vorgeschrieben, so muss dieser Knoten k + 1-mal in der Knotenfolge auftreten. Wir definieren d i := max{j : t i = t i j }. (2.3.1) Beispiel: Zu den Knoten τ 0 < τ 1 < τ 2 < τ 3 seien die Werte f(τ 0 ), f (τ 0 ), f(τ 1 ), f (τ 1 ), f (τ 1 ), f(τ 2 ), f(τ 3 ) und f (τ 3 ) vorgegeben. Hieraus ergibt sich mit t 0 = τ 0, t 2 = τ 1, t 5 = τ 2, t 6 = τ 3 die folgende Knotenfolge für die Hermite-Interpolation. τ i τ 0 τ 0 τ 1 τ 1 τ 1 τ 2 τ 3 τ 3 t i t 0 = t 1 < t 2 = t 3 = t 4 < t 5 < t 6 = t 7 d i 0 1 0 1 2 0 0 1 ξ i f(τ 0 ) f (τ 0 ) f(τ 1 ) f (τ 1 ) f (τ 1 ) f(τ 2 ) f(τ 3 ) f (τ 3 ) Definieren wir nun ξ = (ξ 0,..., ξ n ) T mit ξ i := f (d i) i und die Abbildungen µ i : P n lr, µ i (P ) := P (d i) (t i ), i = 0,..., n so lautet das neue Interpolationsproblem (2.3.2) Aufgabe der Hermite-Interpolation: Finde P P n mit µ i (P ) = ξ i. (2.10)

2 INTERPOLATION UND APPROXIMATION 24 Die Lösung P =: P (ξ t 0,..., t n ) heißt Hermite-Interpolierende zu den Daten ξ an den Knoten t i. Bezüglich der Existenz und Eindeutigkeit gilt (ohne Beweis) (2.3.3) Satz: Zu jedem Vektor ξ lr n+1 und zu jeder monotonen Knotenfolge a = t 0 t 1... t n = b gibt es genau eine Hermite-Interpolierende P (ξ t 0,..., t n ). (2.3.4) Spezialfälle: (a) Im Falle paarweise verschiedener Knoten t i entspricht die Hermite-Interpolation der Interpolation des Abschnitts 2.2. (b) Der Fall t 0 = t 1 = = t n führt auf die Taylor-Interpolation. Die zugehörige Hermite-Interpolierende ist die abgeschnittene Taylorreihe (t t 0 ) j P (ξ t 0,..., t n )(t) = ξ j. j! j=0 (c) Kubische Hermite-Interpolation: Hierbei ist n = 3; an den Knoten τ 0 < τ 1 seien die Funktionswerte f i sowie die ersten Ableitungen f i vorgegeben. Zur Konstruktion der Hermite-Interpolierenden wird zunächst die kubische Hermite-Basis {H 0,..., H 3 } konstruiert. Diese ist eindeutig bestimmt durch die folgenden Vorgaben. H i (τ 0 ) H i(τ 0 ) H i (τ 1 ) H i(τ 1 ) i=0 1 0 0 0 i=1 0 1 0 0 i=2 0 0 1 0 i=3 0 0 0 1 Dann ist die Hermite-Interpolierende gegeben durch 3 P (ξ t 0,..., t 3 ) = ξ i H i. (2.11) i=0 (2.3.5) Beispiel: Gesucht ist die Hermite-Interpolierende, welche an den Knoten τ 0 = 0 und τ 1 = π die selben Funktionswerte und die selben ersten Ableitungen hat wie sin(t). Offenbar sind die Knotenfolge t und die Folge ξ gegeben durch t = (0, 0, π, π) T, ξ = (0, 1, 0, 1) T,

2 INTERPOLATION UND APPROXIMATION 25 und für die Interpolierende gilt nach (2.9) die Darstellung P (ξ t)(t) = H 1 (t) H 3 (t). H 1 und H 3 sind Polynome dritten Grades. H 1 ergibt sich aus den Bedingungen H 1 (0) = H 1 (π) = H 1(π) = 0 und H 1(0) = 1 als H 1 (t) = 1 π t (t 2 π)2. Entsprechend folgt H 3 aus H 3 (0) = H 3 (π) = H 3(0) = 0 und H 3(π) = 1, H 3 (t) = 1 π 2 t2 (t π). Damit ist die Hermite-Interpolierende P (ξ t)(t) = 1 π 2 [ t (t π) 2 t 2 (t π) ] = 1 π t (t π). Schränken wir die im Vektor ξ = (ξ 0,..., ξ n ) T enthaltene Menge von Interpolationsvorgaben zu der Knotenfolge t 0 t n auf die Untermenge der Vorgaben zu der Knoten-Teilfolge t k t l ein (0 k l n), so bezeichnen wir das zugehörige Interpolationspolynom aus P l k mit P (ξ t k,..., t l ). Der führende Koeffizient a l k dieses Polynoms P (ξ t k,..., t l )(t) = a l k t l k + + a 1 t + a 0 heißt dividierte Differenz zu den Knoten t k,..., t l und wird mit dem Symbol ξ[t k,..., t l ] bezeichnet. Zur Lösung des Interpolationsproblems führen wir eine weitere Basis von P n ein. Die Menge {ω 0,..., ω n }, welche definiert ist durch i 1 ω 0 (t) := 1, ω i (t) := (t t i ) (ω i P i ) heißt Newton-Basis. (Wieso ist dies eine Basis des P n?) j=0 (2.3.6) Satz: Bezüglich der Newton-Basis besitzt P (ξ t 0,..., t n ) die Darstellung P n := P (ξ t 0,..., t n ) = ξ[t 0,..., t i ] ω i. (2.12) i=0

2 INTERPOLATION UND APPROXIMATION 26 Beweis durch Induktion: Für n = 0 ist die Aussage richtig. Es gelte P n 1 := P (ξ 0,..., ξ n 1 t 0,..., t n 1 ) = n 1 Wir fügen den zusätzlichen Knoten t n hinzu und erhalten i=0 ξ[t 0,..., t i ] ω i. P n (t) = ξ[t 0,..., t n ] t n + a n 1 t n 1 + + a 0 = ξ[t 0,..., t n ] ω n (t) + Q n 1 (t) mit einem Polynom Q n 1 P n 1. Da ω n (t) an den Knoten t i, i = 0,..., n 1 verschwindet, ist Q n 1 = P n ξ[t 0,..., t n ] ω n (t) das Interpolationspolynom zu den Knoten t 0,..., t n 1, also Q n 1 = P n 1. Ähnlich wie Funktionswerte des Interpolationspolynoms mit Hilfe des Aitken-Neville- Schemas können die dividierten Differenzen rekursiv durch das folgende Schema berechnet werden. Als Abkürzung und um die Matrixanordnung der dividierten Koeffizienten zu unterstreichen (was den Entwurf eines Computerprogramms erleichtert), schreiben wir für 0 k l n α l,k := ξ[t l k,..., t l ] In dieser Schreibweise hat das gesuchte Polynom die Darstellung P (ξ t 0,..., t n ) = ni=0 α i,i ω i. (2.3.7) Berechnung der dividierten Differenzen: Die Berechnung erfolgt durch

ξ 0 = α 0,0 2 INTERPOLATION UND APPROXIMATION 27 das Schema ξ 1 d1 = α 1,0 α 1,1............ ξ n 1 dn 1 = α n 1,0 α n 1,1 α n 1,n 1 ξ n dn = α n,0 α n 1 α n,n 1 α n,n mit den folgenden Rechenregeln. (a) Im Fall zusammenfallender Knoten t l m = = t l ist α l,m = ξ l (d l m) m!. (b) Ist t l t l m, so gilt die Rekursionsformel α l,m = α l,m 1 α k 1,m 1 t l t l m Beweis: (a) Ist t l m = = t l, so ist P := P (ξ t l m,..., t l ) das Interpolationspolynom zu den Vorgaben P (t l ) = ξ l dl,, P (m) (t l ) = ξ l dl +m, kurz: P (k) (t l ) = ξ l dl +k k = 0,..., m. Dies ist nach (2.3.4)(b) das Taylorpolynom P (t) = mit dem führenden Koeffizienten m l=0 ξ l dl +k (t t l ) k k! α l,m = ξ[t l m,..., t l ] = ξ l d l +m m! für (b) Für t l m t l lässt sich die Rekursionsformel von Lemma (2.2.6) übertragen: P (ξ t l m,..., t l )(t) = (t l m t)p (ξ t l m+1,..., t l )(t) (t l t)p (ξ t l m,..., t l 1 )(t) t l m t l

2 INTERPOLATION UND APPROXIMATION 28 (Begründung?) Hieraus folgt unmittelbar die gewünschte Darstellung für den führenden Koeffizienten von P (ξ t l m,..., t l ). (2.3.8) Beispiele: (a) Das Schema für das Beispiel (2.3.5) lautet [0] [0] [1] [0] 0 1/π [0] [ 1] 1/π 0 wobei die in eckige Klammern gesetzten Werte durch die Regel (a), die anderen durch die Regel (b) berechnet wurden. Damit ist die Hermite-Interpolierende gegeben durch P (ξ t) = 0 1 + 1 t 1/π t 2 + 0 t 2 (t π) = 1 π t(t π). (b) Zu den Vorgaben des Interpolationsproblems (2.3.16) soll hinzugefügt werden: P (π/6) = P (5 π/6) = 0.5. Hieraus ergibt sich das folgende Schema. t 0 = 0 [0] t 1 = 0 [0] [1] t 2 = π/6 [0.5] 3/π 6/π + 18/π 2 t 3 = 5π/6 [0.5] 0 18/5π 2 36/5π 2 648/25π 3 t 4 = π [0] 3/π 18/5π 2 0 36/5π 3 + 648/25π 4 t 5 = π [0] [ 1] 6/π + 18/π 2 36/5π 2 + 648/25π 3 36/5π 3 + 648/25π 4 0 Damit ist 6(3 π) 36(5π 18) P (ξ t)(t) = 1 ω 1 (t) + ω π 2 2 (t) + ω 25π 3 3 (t) = t + 0.016104 t 2 0.212895 t 3 + 0.033883 t 4. 36(5π 18) ω 25π 4 4 (t) (c) Die Exponentialfunktion soll in der Nähe von t = 0 durch ein Polynom P (t) approximiert werden. Dieses Polynom soll möglichst niedrigen Grades sein und definiert durch die Bedingungen P ( 1) = 1/e, P (0) = P (0) = P (0) = 1 sowie P (1) = e. Aus dem Schema t 0 = 1 [1/e] t 1 = 0 [1] (e 1)/e t 2 = 0 [1] [1] 1/e t 3 = 0 [1] [1] [1/2] (e 2)/2e t 4 = 0 [1] [1] [1/2] [1/6] (3 e)/3e t 5 = 1 [e] e 1 e 2 e 5/2 e 8/3 0.5 (e 1/e 7/3)

2 INTERPOLATION UND APPROXIMATION 29 folgt P (t) = 1 ( e + 1 1 ) (t + 1) + 1 ( 1 e e (t + 1)t + 2 1 ) ( 1 (t + 1)t 2 + e e 1 (t + 1)t 3) 3 ( +0.5 e 1 e 7 ) (t 1)t 4 3 = 1 + t + 0.5t 2 + 0.166667t 3 + 0.043081t 4 + 0.008535t 5. (2.3.9) Übung: Überprüfen Sie: Ist es im Fall paarweise verschiedener Knoten t i wichtig, die Knoten in wachsender Reihenfolge anzuordnen? Was ergibt sich hieraus, wenn zum bereits berechneten Interpolationspolynom ein weiterer Knoten hinzugefügt werden soll? 2.4 Approximationsfehler Bisher haben wir die Werte ξ = (ξ 0,..., ξ n ) T immer als isoliert vorgegeben gedacht. Jetzt wollen wir dies leicht modifizieren. Wir stellen uns eine Knotenfolge a = t 0 t n = b und eine hinreichend glatte Funktion f : [a, b] lr vor und fragen uns, wie gut diese Funktion durch das zugehörige Interpolationspolynom im gesamten Intervall [a, b] approximiert wird. Letzteres ist durch das eindeutig bestimmte Polynom P P n definiert, welches die Aufgabe (2.3.2) löst, wobei ξ i = f (d i) (t i ). Dieses Polynom werde im Folgenden auch mit P [f t] bezeichnet, wobei f = (f (d 0) (t 0 ),..., f (dn) (t n )) T. (2.4.1) Spezialfall: Für den Spezialfall t 0 = = t n und für mindestens n + 1-mal stetig differenzierbare Funktionen f kann der Approximationsfehler f(t) P [f t](t) leicht aus den bisher bekannten Ergebnissen der Analysis hergeleitet werden. Laut (2.3.4)(b) ist nämlich das Interpolationspolynom gegeben als abgeschnittene Taylorreihe P [f t](t) = j=0 f (j) (t 0 ) j! (t t 0 ) j. Andererseits besagt die bekannte Restgliedformel für die Taylorreihe, dass f(t) = j=0 f (j) (t 0 ) j! (t t 0 ) j + f (n+1) (τ) (n + 1)! (t t 0 ) n+1 mit einer geeigneten Stelle τ zwischen t 0 und t. Berücksichtigen wir nun noch, dass in unserem Spezialfall gilt (t t 0 ) n+1 = ω n+1 (t), so lässt sich der Approximationsfehler

2 INTERPOLATION UND APPROXIMATION 30 darstellen durch f(t) P [f t](t) = f (n+1) (τ) (n + 1)! ω n+1 (t) (2.13) Wir werden im Folgenden zumindest skizzieren, dass sich die Formel (2.11) auf den allgemeinen Fall übertragen lässt. (2.4.2) Lemma: Für t / {t 0,..., t n } und für die erweiterten Vektoren t = (t 0,..., t n, t) T sowie ξ = (ξ 0,..., ξ n, f(t)) T gilt f(t) = P [f t](t) + ξ[t 0,..., t n, t] ω n+1 (t). Beweis: Nach Satz (2.3.6) ist P [f t](t) = und das Polynom ξ[t 0,..., t i ] ω i (t), i=0 P n+1 (s) := P [f t](s) + ξ[t 0,..., t n, t] ω n+1 (s) ist das Interpolationspolynom von f zu den Knoten t. Insbesondere ist P n+1 (t) = f(t). Eine Art Mittelwertsatz liegt der folgenden Darstellungsformel für dividierte Differenzen zugrunde; wir wollen sie hier nicht beweisen, da hierzu die Berechnung höherdimensionaler Integrale benötigt wird. 5 (2.4.3) Lemma: Für beliebige n ln und Knotenfolgen a = t 0 t n = b existieren Zwischenwerte τ [a, b] mit ξ[t 0,..., t n ] = f (n) (τ) n!. 5 Ein Beweis findet sich in P. Deuflhard/ A. Hohmann: Numerische Mathematik I, Satz 7.12 sowie Folgerung 7.13.

2 INTERPOLATION UND APPROXIMATION 31 Als zentrales Ergebnis folgt aus den Lemmata (2.4.2) und (2.4.3) (2.4.4) Satz: Ist f : [a, b] lr n + 1-mal stetig differenzierbar, so gilt für den Approximationsfehler der Hermite-Interpolierenden die Darstellung f(t) P [f t](t) = f (n+1) (τ) (n + 1)! mit einer geeigneten Zwischenstelle τ [a, b]. ω n+1 (t) (2.4.5) Übung: (a) Plotten Sie ω n (t) für n = 5, 10, 20 für (i) äquidistante, (ii) Tschebyscheff-Knoten. (b) Die Funktion sin(t) sei im Intervall [60, 75 ] an n + 1 äquidistanten Stützstellen gegeben. Plotten Sie mit Hilfe eines Grafikprogramms die Interpolationspolynome, die Interpolationsfehler sowie die Polynome ω n+1 (t) für n = 4, 6, 8, 10. 2.5 Tschebyscheff-Interpolation Interpolationspolynome hohen Grades zu äquidistanten Stützstellen sind praktisch unbrauchbar, da diese starke Oszillationen aufweisen. Die Oszillationen stehen gemäß Satz (2.4.4) im Zusammenhang mit dem Verhalten der Polynome ω n (t) in der Nähe der Ränder (vgl. Übung (2.4.5)(a)). Die Untersuchung der Frage, wie die Knoten t 0,..., t n anzuordnen sind, damit max ω n+1(t) t [t 0,t n] möglichst klein wird, führt auf die Tschebyscheff-Polynome. (2.5.1) Definition: Die Funktion T n : [ 1, 1] lr, T n (t) = cos(n arccos(t)) heißt das Tschebyscheff-Polynom n-ten Grades. Zunächst einmal ist nicht klar, wieso T n ein Polynom sein soll. Dies und weitere Eigenschaften werden in Satz (2.5.3) gezeigt. Zunächst wird eine wichtige Rekursionseigenschaft bewiesen. (2.5.2) Lemma: Es ist T 0 (t) = 1 und T 1 (t) = t.

2 INTERPOLATION UND APPROXIMATION 32 Für n 1 gilt die Drei-Term-Rekursion T n+1 (t) = 2tT n (t) T n 1 (t). (2.14) Beweis: Die Aussagen für n = 0 und n = 1 folgen aus den wohlbekannten Beziehungen cos(0) = 1, cos(arccos(t)) = t. Zur Herleitung der Drei-Term-Rekursion benötigen wir das Additionstheorem für den Kosinus, cos(a ± b) = cos(a) cos(b) sin(a) sin(b). Mit a = n arccos(t) und b = arccos(t) folgt cos((n + 1) arccos(t)) = cos(n arccos(t)) cos(arccos(t)) sin(n arccos(t)) sin(arccos(t)), cos((n 1) arccos(t)) = cos(n arccos(t)) cos(arccos(t)) + sin(n arccos(t)) sin(arccos(t)). Aufsummieren der beiden Gleichungen ergibt cos((n + 1) arccos(t)) + cos((n 1) arccos(t)) = 2t cos(n arccos(t)). Hieraus folgt die Drei-Term-Rekursion. (2.5.3) Satz: Die Tschebyscheff-Polynome erfüllen für t [ 1, 1] die folgenden Eigenschaften. (a) T n ist ein Polynom n-ten Grades und ist damit darstellbar in der Form T n (t) = a (n) n t n + a (n) n 1t n 1 + + a (n) 1 t + a (n) 0. (b) Für die führenden Koeffizienten gilt (c) T n ist beschränkt durch 1: a (n) n = 2 n 1 für n 1. max T n(t) = 1. t [ 1,1]

2 INTERPOLATION UND APPROXIMATION 33 (d) T n hat die n paarweise verschiedenen Nullstellen ( ) t (n) 2k 1 k = cos 2n π, k = 1,..., n. Beweis: Zu (a), (b): Für n = 0 und n = 1 wurden die Aussagen im Lemma (2.5.2) gezeigt. Der Beweis für n > 1 folgt durch vollständige Induktion aus der Drei-Term- Rekursion. Zu (c): Die Funktionswerte von T n sind Werte der Kosinus-Funktion und daher durch 1 beschränkt. An den Stellen cos(kπ/n) nimmt T n den Wert 1 an. Zu (d): ( ) (n) T n t k = cos (n ) (( (2k 1)π = cos k 1 ) ) π = 0. 2n 2 (2.5.4) Bemerkung: Mit Hilfe des Lemmas (2.5.2) können die Tschebyscheff-Polynome leicht berechnet werden. Es ist T 0 (t) = 1 T 1 (t) = t T 2 (t) = 2t 2 1 T 3 (t) = 4t 3 3t T 4 (t) = 8t 4 8t 2 + 1. Werden die Nullstellen t (n) k des n-ten Tschebyscheff-Polynoms als Knoten zur Interpolation gewählt, so können die Interpolationsfehler nicht groß werden; aus dem Satz (2.5.3) folgt nämlich (2.5.5) Folgerung: t (n) k die Abschätzung seien die Nullstellen von T n aus Satz (2.5.3)(d). Dann gilt für n ω(t) = (t t (n) k ) k=1 ω(t) 1 2 n 1.

3 SPLINE-INTERPOLATION 34 Dass Tschebyscheff-Knoten optimal sind, ergibt sich aus dem folgenden Resultat. (2.5.6) Satz: Jedes Polynom P P n mit führendem Koeffizienten a n 0 nimmt im Intervall [ 1, 1] einen Wert vom Betrag a n /2 n 1 an. Insbesondere sind die Tschebyscheff-Polynome minimal bezüglich der Maximumnorm f = max t [ 1,1] f(t) unter den Polynomen in P n mit führendem Koeffizienten 2 n 1. Beweis: P P n sei ein Polynom mit führendem Koeffizienten a = 2 n 1. Annahme: P (t) < 1 für alle t [ 1, 1]. Es ist T n P P n 1 ; weiterhin gilt für x k = cos(kπ/n) Hieraus folgt T n ( x 2k ) = 1, P ( x 2k ) < 1, T n ( x 2k+1 ) = 1, P ( x 2k+1 ) > 1. P ( x 2k ) T n ( x 2k ) < 0 und P ( x 2k+1 ) T n ( x 2k+1 ) > 0. Daher ist T n P an n + 1 Tschebyscheff-Knoten abwechselnd positiv und negativ und hat damit mindestens n Nullstellen in [ 1, 1]. Dies ist aber im Widerspruch zu 0 T n P P n. Ist nun P ein beliebiges Polynom in P n, so lässt sich die Aussage des Satzes durch P := (2 n 1 /a n ) P auf den oben ausgeführten Fall zurückführen. 3 Spline-Interpolation 3.1 Polynom-Splines Die Idee der Spline-Interpolation ist es, das Interpolationsproblem nicht durch ein einziges Polynom vom Grad n zu lösen (da wie wir gesehen haben Polynome hohen Grades zu starken Oszillationen neigen können), sondern durch eine möglichst glatte Funktion, welche sich stückweise aus Polynomen niedrigeren Grades zusammensetzt. Die Vorgehensweise soll zunächst an einem Beispiel demonstriert werden. (3.1.1) Beispiel: Gegeben seien die Punktepaare (t i, f i ), i = 0,..., 3, mit den Werten

3 SPLINE-INTERPOLATION 35 (t 0, f 0 ) = (0, 1), (t 1, f 1 ) = (2, 2), (t 2, f 2 ) = (3, 0) und (t 3, f 3 ) = (5, 0). Diese sollen durch eine stetige zusammengesetzte Funktion P k interpoliert werden, welche in jedem Intervall [t i, t i+1 ] ein Polynom p (k) i k-ten Grades ist. (a) k = 1: Das Polynom p (1) i 1. Grades durch die Punkte (t i, f i ) und (t i+1, f i+1 ) ist gegeben durch die Gleichung p (1) i (t) f i t t i Hieraus folgt als interpolierende Funktion = f i+1 f i t i+1 t i. 0.5t + 1 für t [0, 2] P 1 (t) = 2t + 6 für t [2, 3] 0 für t [3, 5] Diese Funktion ist stetig, in den Interpolationspunkten aber nicht differenzierbar. (b) k = 2: Für das Polynom zweiten Grades in [t i, t i+1 ] machen wir den Ansatz p (2) i (t) = a i (t t i ) 2 + b i (t t i ) + c i. Einsetzen der ersten Interpolationsbedingungen (Bedingungen für den linken Rand des Teilintervalls) führt auf p (2) i (t i ) = f i c i = f i, i = 0, 1, 2. Zu bestimmen bleiben also die sechs Unbekannten a i, b i. Der zweite Satz von Interpolationsbedingungen (rechter Rand des Teilintervalls) führt auf die drei linearen Gleichungen p (2) i (t i+1 ) = f i+1 4a 0 + 2b 0 = 1 (3.1) a 1 + b 1 = 2 (3.2) 4a 2 + 2b 2 = 0 (3.3)

3 SPLINE-INTERPOLATION 36 Zwei Zusatzbedingungen für die stetige Differenzierbarkeit an den inneren Knoten t 1, t 0 haben die Form und lauten (p (2) i ) (t i+1 ) = (p (2) i+1) (t i+1 ) 4a 0 + b 0 = b 1 (3.4) 2a 1 + b 1 = b 2 (3.5) Die fünf Gleichungen (3.1)...(3.5) ergeben ein unterbestimmtes lineares Gleichungssystem für die sechs Unbekannten. Lassen wir a 0 als frei wählbaren Parameter stehen, so lautet die allgemeine Lösung für die anderen Parameter b 0 2 1/2 a 1 2 5/2 b 1 = a 0 2 + 1/2 a 2 1 9/4 b 2 2 9/2 Beispielsweise erhalten wir für a 0 = 0 die Lösung 0.5t + 1 für t [0, 2] P 2 (t) = 2.5t 2 + 10.5t 9 für t [2, 3] 2.25t 2 18t + 33.75 für t [3, 5] (3.1.2) Definition: a = t 0 < t 1 < < t n = b sei eine aufsteigende Folge von Knoten. Ein Spline vom Grad k ist eine (k 1)-mal stetig differenzierbare Funktion, welche auf jedem der Intervalle [t i, t i+1 ] ein Polynom (höchstens) k-ten Grades ist. 3.2 Kubische Splines In der Praxis spielen kubische Splines P 3 eine wichtige Rolle. Zu ihrer Konstruktion wählen wir für die Intervalle [t i, t i+1 ] den Ansatz p (3) i (t) = α i (t t i ) 3 + β i (t t i ) 2 + γ i (t t i ) + δ i, i = 0,..., n 1. Die Koeffizienten δ i folgen unmittelbar aus den Interpolationsbedingungen: δ i = f i.

3 SPLINE-INTERPOLATION 37 Beziehungen zwischen den übrigen Koeffizienten erhalten wir aus den Stetigkeitsbedingungen für P 3 (t), P 3(t) und P 3 (t) an den Knotenpunkten t i+1 : I α i h 3 i + β i h 2 i + γ i h i + f i = f i+1 (i = 0,..., n 1), II 3α i h 2 i + 2β i h i + γ i = γ i+1 (i = 0,..., n 2), III 6α i h i + 2β i = 2β i+1 (i = 0,..., n 2), (3.6) wobei wir zur Abkürzung definiert haben: h i = t i+1 t i. Mit Hilfe der Gleichungen I und III lassen sich die Größen α i und γ i durch β i und β i+1 ausdrücken gemäß (i) α i = β i+1 β i 3h i, (ii) γ i = h i 3 (β i+1 + 2β i ) + f i+1 f i h i (i = 0,..., n 2). (3.7) Einsetzen in II führt schließlich auf die n 2 Gleichungen r i β i + 2β i+1 + (1 r i )β i+2 = q i (i = 0,..., n 3) (3.8) für die n Unbekannten β i, wobei zur Abkürzung ( h i 3 fi+2 f i+1 r i =, q i = h i+1 + h i h i + h i+1 h i+1 f ) i+1 f i h i verwendet wurde. Beachten Sie, dass auch γ n 1 mit Hilfe der Gleichung II (i = n 2) und der Beziehungen (3.7) durch die Koeffizienten β i beschrieben werden kann: γ n 1 = h n 2 3 (2β n 1 + β n 2 ) + f n 1 f n 2 h n 2. (3.9) Durch Einsetzen in I (i = n 1) folgt außerdem α n 1 h 2 n 1 = β n 1 (h n 1 + 2 3 h n 2 ) 1 3 β n 2h n 2 + h n 1 + h n 2 q n 2. (3.10) 3 Damit können alle Koeffizienten berechnet werden, sobald die β i bestimmt sind. Für ein vollständiges Gleichungssystem fehlen zwei weitere Bedingungen, welche häufig in Form zusätzlicher Randbedingungen ergänzt werden. A Natürliche Randbedingungen: Hier wird gefordert, dass die zweiten Ableitungen der Spline-Funktion an den Randpunkten verschwinden.