EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK I 1. Numerische Analysis. Prof. Dr. Hans Babovsky. Institut für Mathematik. Technische Universität Ilmenau

Größe: px
Ab Seite anzeigen:

Download "EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK I 1. Numerische Analysis. Prof. Dr. Hans Babovsky. Institut für Mathematik. Technische Universität Ilmenau"

Transkript

1 EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK I 1 Numerische Analysis Prof. Dr. Hans Babovsky Institut für Mathematik Technische Universität Ilmenau 1 Version vom Herbst 2017

2 INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Nichtlineare Gleichungen Die Ordnung konvergenter Folgen Nullstellen skalarer Funktionen: Intervallschachtelungen Die Intervallhalbierungsmethode Die Methode der Regula Falsi Die Sekantenmethode Fixpunktgleichungen Das Newton-Verfahren Newton-Iteration, Konvergenz Interpolation und Approximation Das einfache Interpolationsproblem Lagrange-Interpolation Das erweiterte Interpolationsproblem Approximationsfehler Tschebyscheff-Interpolation Spline-Interpolation Polynom-Splines Kubische Splines Bezierkurven und -flächen Approximation durch Orthogonalsysteme 45 5 Numerische Integration Quadraturformeln Newton-Cotes-Formeln Einfache Newton-Cotes-Formeln Summierte Newton-Cotes-Formeln Gauß-Christoffel-Quadratur Extrapolationsverfahren Die Eulersche Summenformel Trapezregel: Asymptotische Fehlerentwicklung Das Romberg-Verfahren

3 1 NICHTLINEARE GLEICHUNGEN 2 1 Nichtlineare Gleichungen In diesem Abschnitt sei eine Funktion f : lr n lr n gegeben. Ziel des Kapitels ist es, Nullstellen bzw. Fixpunkte von f numerisch zu bestimmen. Hierzu werden wir Iterationsfolgen x (k) entwickeln, welche gegen die gesuchte Nullstelle bzw. den Fixpunkt konvergieren. Zur Beurteilung der Qualität eines Iterationsverfahrens benötigen wir den Begriff der Konvergenzordnung. 1.1 Die Ordnung konvergenter Folgen Sei (X, d) ein metrischer Raum. (1.1.1) Definition: (a) Es sei x (n) eine konvergente Folge in X mit lim k x (k) = x. Die Folge hat die Konvergenzordnung p = 1, falls es ein C (0, 1) und ein k 0 ln gibt mit d(x (k+1), x ) C d(x (k), x ) für alle k k 0. p > 1, wenn es eine Konstante C > 0 und ein k 0 ln gibt mit d(x (k+1), x ) C d(x (k), x ) p für alle k k 0. Für p = 1 heißt die Folge linear konvergent, für p > 1 superlinear konvergent und für p = 2 quadratisch konvergent. (b) Gegeben sei ein Iterationsverfahren zur Berechnung eines Vektors x, welches zu einem Startvektor x (0) eine Folge x (n) n ln erzeugt. Das Verfahren hat die Ordnung p, falls lim k x (k) = x, und falls die Folge x (k) die Konvergenzordnung p hat. (1.1.2) Bemerkungen: (a) Ist (x (k) ) linear konvergent, so folgt die Existenz eines λ > 0 derart, dass d(x (k), x ) λ C k 0 für k (1.1) Wir erweitern die Definition (1.1.1)(a) und bezeichnen eine Folge auch dann als linear konvergent, wenn die (schwächere) Bedingung (1.1) für alle k gilt. (b) Bei Konvergenzordnung p > 1 gilt für k k 0 d(x (k+1), x )/d(x (k), x ) C (d(x (k), x )) p 1

4 1 NICHTLINEARE GLEICHUNGEN 3 Ist µ := C d(x (k0), x )) p 1 < 1 so folgt die Monotonie der Folge d(x (k), x ) sowie mit geeignetem λ > 0 die Abschätzung d(x (k), x ) λµ k 0 Konvergenz liegt also dann vor, wenn eines der Folgenglieder hinreichend nahe bei x liegt. (1.1.3) Beispiel: (a) Gegeben sei die Zahl π in Dezimaldarstellung, π = = a i 10 i, (1.2) i=0 mit a i {0,..., 9}. Welche Konvergenzordnung hat die Folge s k = k i=0 a i 10 i? Offenbar ist s k π 9 10 i = 10 k. i=k+1 Nach Bemerkung (1.1.2)(a) die Folge linear konvergent. Das stärkere Kriterium aus Definition (1.1.1) ist dagegen nicht erfüllt, da im Fall a k = 0 gilt s k 1 π = s k π. (b) Die Folge x (k) in lr sei quadratisch konvergent mit C = 1. Approximiert das Folgenglied x (k) den Grenzwert x auf n Nachkommastellen genau, so ist x (k) x < n Nach der Definition der quadratischen Konvergenz folgt x (k) x < n d.h. die Anzahl der exakten Nachkommastellen von x (k+1) ist mindestens 2n und hat sich verdoppelt. 1.2 Nullstellen skalarer Funktionen: Intervallschachtelungen Gegeben sei eine stetige Funktion f : [a, b] lr. Gesucht ist eine Nullstelle. Die folgenden Verfahren beziehen sich auf Funktionen f : lr lr, welche stetig sind. Zusätzlich

5 1 NICHTLINEARE GLEICHUNGEN 4 setzen wir zunächst voraus, dass zwei Punkte a und b bekannt sind, an denen die Funktionswerte unterschiedliche Vorzeichen haben (solche Punkte kann man häufig durch eine grobe Kurvendiskussion bestimmen), für die also gilt f(a) f(b) < 0. (1.3) Da f stetig ist, muß zwischen a und b (mindestens) eine Nullstelle liegen 2. Im folgenden soll versucht werden, durch Einschachtelungsverfahren den Ort einer Nullstelle immer weiter einzugrenzen und so ihre Lage mit beliebiger Genauigkeit zu bestimmen Die Intervallhalbierungsmethode Bei dieser Methode wird in jedem Iterationsschritt das untersuchte Intervall in zwei gleich große Teilintervalle eingeteilt; in einem dieser beiden Teilintervalle muss sich eine Nullstelle befinden. Im nächsten Schritt wird die Suche auf dieses Teilintervall eingeschränkt. Gegeben sei das Intervall [a 0, b 0 ] [a, b], a 0 < b 0, und es gelte f(a 0 )f(b 0 ) < 0 Wegen der Stetigkeit von f muss sich im Intervall [a 0, b 0 ] eine Nullstelle von f befinden. Wir definieren eine Folge von Intervallen [a k, b k ] mit der Inklusionsbedingung [a k+1, b k+1 ] [a k, b k ] und eine Folge x k wie folgt. (1.2.1) Rekursionsschritt (Intervallhalbierung): Gegeben sei [a k, b k ]. (S1) Definiere x k+1 als den Intervallmittelpunkt: x k+1 := 0.5 (a k + b k ) Falls b k a k < 2ϵ: gib x k+1 als gesuchte Nullstelle aus; STOP. 2 Dies folgt aus dem Zwischenwertsatz; vgl. Analysis-Vorlesung

6 1 NICHTLINEARE GLEICHUNGEN 5 (S2) Definiere [a k+1, b k+1 ] durch [a k+1, b k+1 ] := [a k, x k+1 ] falls f(a k )f(x k+1 ) < 0 [x k+1, b k ] falls f(x k+1 )f(b k ) < 0 [x k+1, x k+1 ] falls f(x k+1 ) = 0 Die Iterationsvorschrift für [a k+1, b k+1 ] stellt sicher, dass sich im neuen Intervall wieder eine Nullstelle von f befindet. Ist f(x k+1 ) = 0 für ein k, so ist nach endlich vielen Iterationsschritten eine Nullstelle gefunden. (Dieser Fall wird in der Regel nicht eintreten.) Im andern Fall wird eine Nullstelle auf ein immer kleineres Intervall eingegrenzt. Die Folgen a k und b k sind beschränkte monotone Folgen mit Grenzwerten a und b. Wegen b k+1 a k+1 = 0.5(b k a k ) und wegen a k x k+1 b k folgt a = lim k x k = b Damit konvergiert die Folge x k gegen eine Nullstelle von f. Wir bestimmen die Konvergenzordnung für den typischen Fall, dass eine Nullstelle nicht nach endlich vielen Schritten gefunden wird. Ist H = b a die Intervalllänge des Eingabeintervalls, und tritt das Ereignis f(x (k) ) = 0 nicht auf, so ist nach k Schritten die Intervalllänge gleich b a = H/2 k ; außerdem ist der Approximationsfehler kleiner als die halbe Intervallänge, also x (k) x < H/2 k+1. (1.2.2) Bemerkung: Das Intervallhalbierungsverfahren ist ein linear konvergentes Verfahren. Für ϵ > 0 bricht das Verfahren nach endlich vielen Schritten mit einem Näherungswert ab, welcher von x um höchstens ϵ abweicht. Da sich die Länge des untersuchten

7 1 NICHTLINEARE GLEICHUNGEN 6 Teilintervalls mit jedem Schritt halbiert, muss der Schritt S2 k-mal durchlaufen werden mit k ln(h/ϵ)/ ln(2) Die Methode der Regula Falsi Im Unterschied zur Intervallhalbierung wird bei der Methode der Regula falsi die Iterierte x k+1 nicht als Mittelpunkt des aktuellen Intervalls definiert, sondern als Nullstelle der Sekante bezüglich der Knoten a und b, also der Geraden durch die Punkte (a, f(a)) und (b, f(b)). Diese Gerade ist gegeben durch und hat die Nullstelle s(x) = f(a) + (x a) x 0 = a f(a) b a f(b) f(a) f(b) f(a) b a a f(b) b f(a) =. (1.4) f(b) f(a) Zur Implementierung dieses Verfahrens ist im Schritt (S1) des Algorithmus zur Intervallhalbierung die Anweisungen x k+1 = (a k + b k )/2 zu ersetzen durch x k+1 = a k f(b k ) b k f(a k ). (1.5) f(b k ) f(a k ) Man stellt allerdings an Hand von Beispielen schnell fest, dass im Allgemeinen die Intervalllänge b k a k keine Nullfolge mehr ist und damit das Abbruchkriterium des Intervallhalbierungsverfahrens unbrauchbar geworden ist. Wir wollen hierauf nicht näher eingehen, sondern die Frage untersuchen, in welchem Sinn das Verfahren Nullstellen von f approximiert. Eine genauere Analyse erfordert die Durchführung von Fallunterscheidungen, von denen wir hier exemplarisch eine herausgreifen wollen. Im Folgenden sei f im Ausgangsintervall [a, b] eine zweimal stetig diferenzierbare streng monoton wachsende Funktion mit positiver zweiter Ableitung. Es gelte also f (x) > 0 und f (x) > 0 für x [a, b]. In diesem Fall ist also f konvex und ihr Graph liegt unterhalb der Sekante. Man überzeugt sich leicht, dass der rechte Randpunkt b k im Iterationsprozess konstant bleibt und der linke Randpunkt nach innen rückt, also a k+1 = x k+1 > a k, b k+1 = b

8 1 NICHTLINEARE GLEICHUNGEN 7 Als monoton wachsende durch b nach oben beschränkte Folge besitzt x k einen Grenzwert x. Außerdem gibt es in [a, b] eine eindeutige Nullstelle x x von f. Aus folgt x k+1 = x k f(b) b f(x k ) f(b) f(x k ) x x k+1 = (x x k ) f(b) + (b x ) f(x k ). f(b) f(x k ) Die Taylorentwicklung von f um x ergibt f(x k ) = f(x ) (x x k ) f (ζ) mit einer Zwischenstelle ζ (x k, x ). Hieraus folgt x x k+1 = (x x k ) f(b) (b x ) f (ζ) f(b) f(x k ) + b x f(b) f(x k ) f(x ) Wäre x x, so wäre der zweite Term auf der rechten Seite keine Nullfolge, was zu einem Widerspruch führt. Damit konvergiert der linke Intervallrand gegen die gesuchte Nullstelle. Es handelt sich aber auch hier nur um ein linear konvergentes Verfahren. (Begründung? Finden Sie eine geeignete Konstante C.) Die Sekantenmethode Bei der Sekantenmethode wird ausgehend von zwei Startwerten x (0) und x (1) die Iterierte x (k+1) definiert als Nullstelle der Sekante bezüglich der Knoten x (k 1) und x (k). Diese Nullstelle wird analog zur Formel (5.2) berechnet, und es folgt x (k+1) = x(k 1) f(x (k) ) x (k) f(x (k 1) ). (1.6) f(x (k) ) f(x (k 1) ) Dieses Verfahren ist eng verwandt mit den in A und B beschriebenen, es handelt sich hier aber nicht um eine Intervallschachtelung; so wird beispielsweise für die Startwerte nicht gefordert, dass f(x (0) ) f(x (1) ) < 0. Ist dies nicht erfüllt, so liegt x (2) nicht innerhalb des durch x (0) und x (1) beschriebenen Intervalls. Entsprechend ist die Konvergenz des Verfahrens auch nicht gesichert. Für die folgende Fehleranalyse gehen wir davon aus, dass x := lim k x (k) existiert. In diesem Fall ist x Nullstelle von f. (Begründung?) Wir definieren x := inf k ln x(k) und x := sup x (k) k ln

9 1 NICHTLINEARE GLEICHUNGEN 8 und setzen wie in B eine in [x, x] zweimal stetig differenzierbare Funktion f voraus, für welche f (x) 0 und f (x) 0 für x [x, x]. Bezeichnet ϵ k := x (k) x den Fehler der k-ten Iterierten, so folgt aus (1.6) ϵ k+1 = (x(k 1) x ) f(x (k) ) (x (k) x ) f(x (k 1) ) f(x (k) ) f(x (k 1) ) = ϵ k 1 f(x (k) ) ϵ k f(x (k 1) ) f(x (k) ) f(x (k 1) ) =: z k+1 n k+1. (1.7) Um eine Idee vom Konvergenzverhalten zu bekommen, führen wir die folgende heuristische Abschätzung durch. Aus der Taylorformel folgt mit geeigneten Zwischenwerten ζ (k 1) und ζ (k) f(x (k 1) ) = f(x + ϵ k 1 ) = ϵ k 1 f (x ) + ϵ2 k 1 2 f (ζ (k 1) ), f(x (k) ) = f(x + ϵ k ) = ϵ k f (x ) + ϵ2 k 2 f (ζ (k) ). Aus der Konvergenz x (k) x folgt ζ (k) x. Daher gilt für Zähler und Nenner von (1.7) für große k z k+1 = 1 2 ϵ k 1ϵ k (ϵ k f (ζ k ) ϵ k 1 f (ζ k 1 )) 1 2 ϵ k 1ϵ k (ϵ k ϵ k 1 ) f (x ), ( n k+1 (ϵ k ϵ k 1 ) f (x ) + ϵ ) k 1 + ϵ k f (x ). 2 Hieraus folgt mit geeigneten Konstanten C, C > 0 C ϵ k 1 ϵ k ϵ k+1 C ϵ k 1 ϵ k. Um hieraus auf das Konvergenzverhalten der Sekantenmethode zu schließen, untersuchen wir das Vergleichsproblem mit dem Ansatz a k = α a p k 1. Einsetzen ergibt (i) a k+1 = αa p k = α (αap k 1 )p = α p+1 a p2 k 1 (ii) a k+1 = C(αa p k 1 )a k 1 = Cαa p+1 k 1 a k+1 = C a k 1 a k. (1.8) Ein Vergleich ergibt C = α p und p 2 = p+1, also p = 1 2 (1± 5). a k ist Nullfolge höchstens für p 1, also für p = 1 2 (1 + 5) = Dieses Ergebnis kann man mit rigorosen Abschätzungen, aber mit sehr viel größerem Aufwand auch wirklich bestätigen. Damit ist das Sekantenverfahren superlinear konvergent ist mit p =

10 1 NICHTLINEARE GLEICHUNGEN Fixpunktgleichungen In diesem Abschnitt bezeichne D lr n eine abgeschlossene Menge und f : D D eine stetige Funktion. Ein Punkt x D heißt Fixpunkt von f, falls gilt x = f(x ). Wir untersuchen die Möglichkeit, einen Fixpunkt x von f durch eine Folge x (k) zu approximieren, welche für k gegen den gesuchten Fixpunkt konvergiert. Ein häufig benutztes Verfahren ist die Fixpunktiteration, welche wie folgt beschrieben ist. (1.3.1) Algorithmus (Fixpunktiteration): S1 Bestimme einen geeigneten Startwert x (0) (z.b. einen Schätzwert von x ). S2 Löse das folgende Iterationsverfahren für k = 0, 1, 2,...: Ist x (k) gegeben, so bestimme x (k+1) durch die Vorschrift x (k+1) := f ( x (k)). Aus der Stetigkeit von f folgt unmittelbar: (1.3.2) Lemma: Konvergiert das Iterationsverfahren für k gegen einen Vektor x, so ist x D und ist ein Fixpunkt von f. Ein hinreichendes Kriterium, unter welchem f einen (eindeutig bestimmten) Fixpunkt hat, liefert der folgende Satz. (1.3.3) Banachscher Fixpunktsatz: Die Abbildung f sei Lipschitz-stetig, d.h. es gebe eine Konstante γ 0 ( Lipschitz-Konstante ) mit der Eigenschaft f(x) f(y) γ x y. Für die Lipschitz-Konstante gelte γ < 1. 3 Dann besitzt f genau einen Fixpunkt x, und die Fixpunkt-Iteration konvergiert für 3 In diesem Fall heißt f auch Kontraktion.

11 1 NICHTLINEARE GLEICHUNGEN 10 jeden beliebigen Startwert x (0) linear gegen x. Es gelten die folgenden Abschätzungen. (a) Für die Abweichung der k-ten Iterierten x (k) vom gesuchten Punkt gilt x (k) x γ k x (0) x. (b) Der Abstand zum gesuchten Fixpunkt kann durch den Abstand zweier aufeinanderfolgender Iterierter abgeschätzt werden durch x (k) x γ 1 γ x(k) x (k 1) γ2 1 γ x(k 1) x (k 2) γk 1 γ x(1) x (0). (1.3.4) Bemerkungen: (a) Eine Lipschitzkonstante für eine stetig differenzierbare f kann man häufig durch Abschätzen der ersten Ableitung von f erhalten. Betrachten wir zunächst den skalaren Fall. Nach einem Mittelwertsatz der Analysis gilt für x < y mit einer geeigneten Zwischenstelle ξ (x, y) f(y) = f(x) + f (ξ) (y x), also f(y) f(x) sup f (ξ) y x. (1.9) ξ (x,y) Eine entsprechende Aussage gilt auch für Systeme. Hierbei ist Df(ξ) die Funktionalmatrix von f in ξ, und es ist für beliebige kompatible Normpaare. f(y) f(x) sup Df(ξ) y x (1.10) ξ D (b) Häufig tritt der Fall ein, dass f nicht im gesamten Definitionsbereich, aber in einer Umgebung eines gesuchten Fixpunkts eine Kontraktion ist. Das folgende einfach zu beweisende Lemma zeigt, dass auch hier die Fixpunktiteration konvergiert, wenn der Anfangswert hinreichend gut gewählt wird. (Man spricht in diesem Fall von lokaler Konvergenz, im Gegensatz zur globalen Konvergenz im Falle des Banachschen Fixpunktsatzes.) (1.3.5) Lemma: Sei f : [a, b] lr stetig differenzierbar. x (a, b) sei Fixpunkt von f und es gelte f ( x) < 1. Dann gib es eine Umgebung U von x mit f(u) U derart, dass f Kontraktion auf U ist. Beweis: Übung.

12 1 NICHTLINEARE GLEICHUNGEN 11 Dieses Ergebnis kann leicht af mehrere Dimensionen verallgemeinert werden. (1.3.6) Beispiel: Wie man mit einer graphischen Skizze leicht feststellt, besitzt die Funktion f : lr lr, f(x) = exp(x) 2, zwei Fixpunkte, einen positiven und einen negativen. Zur Bestimmung des negativen Fixpunkts folgt aus Bemerkung (1.3.4)(a) mit einer kleinen Nebenrechnung, dass f das Intervall (, 1] auf sich selbst abbildet und dort eine Kontraktion ist. Mit einem Startpunkt x (0) (, 1] konvergiert die Fixpunktiteration gegen den gesuchten Fixpunkt. Den positiven Fixpunkt kann man auf diese Weise nicht ermitteln. Da f (x) 1 für x [0, ), ist es ratsam, von der Fixpunktgleichung f(x) = x auf die äquivalente Gleichung x = f 1 (x) überzugehen, wobei f 1 die Umkehrfunktion von f ist, welche in unserem Fall existiert. Die zu x = exp(x) 2 äquivalente Fixpunktgleichung lautet x = ln(x + 2) Man prüft leicht nach, dass ln(x + 2) das Intervall [0, ) auf sich selbst abbildet und dort eine Kontraktion ist. 1.4 Das Newton-Verfahren Newton-Iteration, Konvergenz Gegeben sei f : lr n lr n. Gesucht ist eine Nullstelle x. Wir setzen voraus (i) (ii) f ist zweimal stetig differenzierbar; die Funktionalmatrix Df(x ) ist regulär. Aus (i) folgt, dass f lokal gut durch eine lineare Abbildung beschrieben werden kann: f(x + h) f(x) + Df(x) h, falls h 1. Aus (ii) folgt, dass Df(x) regulär ist, falls x hinreichend nahe an x liegt. In diesem Fall ist die Tangente T (y) := f(x) + Df(x) (y x) invertierbar und besitzt insbesondere eine eindeutig bestimmte Nullstelle y= x (Df(x)) 1 f(x).

13 1 NICHTLINEARE GLEICHUNGEN 12 k x (k) Tabelle 1: Berechnung von 0.81 mit dem Newton-Verfahren Das Newton-Verfahren ist ein Iterationsverfahren, welches bei gegebener Iterierter x (k) die neue Iterierte x (k+1) als Nullstelle der Tangente durch x (k) berechnet. Nach den obigen Vorbemerkungen wird das Verfahren wie folgt beschrieben. (1.4.1) Algorithmus (Newton-Verfahren): Gewählt sei ein hinreichend guter Startvektor x (0). Ist x (k) gegeben, so definiere x (k+1) wie folgt. S1 Berechne f(x (k) ) und die Funktionalmatrix Df(x (k) ). S2 Berechne die Lösung s des linearen Gleichungssystems Df(x (k) ) s = f(x (k) ). S3 Definiere x (k+1) := x (k) + s. (1.4.2) Beispiele: (a) Gesucht ist eine numerische Näherung von a, a > 0. Offenbar ist x = a eine Nullstelle der Funktion f(x) = x 2 a. Das Newton-Verfahren liefert als Iterationsvorschrift: x (k+1) = x (k) (x(k) ) 2 a 2x (k) = 1 2 ( x (k) + a ). x (k) Ein Zahlenbeispiel für a = 0.81 und x (0) = 1.0 ist in Tabelle 1 angegeben. (b) Gesucht ist eine Nullstelle x der Funktion f(x, y) := x exp(y) 1. sin(x) y Die Jacobi-Matrix von f ist Df(x, y) = exp(y) cos(x) x exp(y) 1. Mit dem Startwert x(0) y (0) := 0 0

14 1 NICHTLINEARE GLEICHUNGEN 13 liefert das Newton-Verfahren die folgenden Werte. x(1) = = 1, y (1) x(2) = 1 exp(1) exp(1) 1 exp(1) 1 = , y (2) 1 cos(1) 1 sin(1) x(5) y (5). = = Dieser letzte Wert hat den Funktionswert f(x (5), y (5) ) = ( 0 sehr gute Näherung der gesuchten Nullstelle. (c) Gesucht ist das Maximum der Funktion H : lr 2 lr, 1.15E-7 ) T und ist eine H(x, y) = 5x 4 + 2(x 1) 3 (y + 1) 100y 2. Eine notwendige Bedingung, dass das Maximum im Punkt (x, y ) T angenommen wird, ist, dass die partiellen Ableitungen H(x, y ) x H(x,y ) x H(x,y ) y und H(x, y ) y verschwinden. Gesucht ist damit eine Nullstelle der Funktion f(x, y) := = 20x3 + 6(x 1) 2 (y + 1) 2(x 1) 3 200y Diese kann mit Hilfe des Newton-Verfahrens berechnet werden. Zur Konvergenz des Newton-Verfahrens veweisen wir das folgende Ergebnis im skalaren Fall (n = 1). (1.4.3) Satz: D = (a, b) sei ein nicht-leeres offenes Intervall auf lr. D sei der Abschluss. Es sei f : D lr eine zweimal stetig differenzierbare Funktion mit inf x D f (x) > 0 und sup x D f (x) <. Wir definieren x D sei Nullstelle von f; ρ (0, 2/ω) sei so gewählt, dass. ω := sup D f inf D f. (1.11) B ρ (x ) = {x lr : x x < ρ} D. (1.12) Es seien x (0) B ρ (x ) und x (k) die Iterierten des Newton-Verfahrens. Dann gilt:

15 1 NICHTLINEARE GLEICHUNGEN 14 (a) Für alle k ln ist x (k) B ρ (x ). (b) Es ist lim k x (k) = x. (c) Es gilt x (k+1) x ω x (k) x 2. (1.13) 2 (d) x ist die einzige Nullstelle in B 2/ω (x ). Beweis: Induktionsbeweis zu (a), (b) und (c): Sei x (k) B ρ (x ). Nach Definition des Newton-Verfahrens ist x (k+1) x = x (k) x f(x (k) )/f (x (k) ). (1.14) Die Taylorentwicklung von f(x ) = 0 um x (k) ergibt mit einer geeigneten Zwischenstelle ξ D also f(x ) = f(x (k) ) + (x x (k) ) f (x (k) ) + (x x (k) ) 2 f (ξ), (1.15) 2 f(x (k) ) f (x (k) ) = (x(k) x ) f (ξ) 2f (x (k) ) (x(k) x ) 2. (1.16) Eingesetzt in das Newton-Verfahren folgt mit der Definition von ω x (k+1) x ω x (k) x 2. (1.17) 2 Damit ist der Induktionsschritt für (c) gezeigt. Mit q := ρω/2 < 1 gilt außerdem x (k+1) x q x (k) x. (1.18) Also ist einerseits x (k+1) B ρ (x ) und andererseits x (k) x eine Nullfolge, womit (a) und (b) gezeigt sind. Zu (d): Sei x B 2/ω (x ) eine weitere Nullstelle von f. Ersetzen wir in allen obigen Rechnungen x (k) und x (k+1) durch x, (warum ist das sinnvoll?) so folgt x x q x x (1.19) mit q < 1, also x = x.

16 1 NICHTLINEARE GLEICHUNGEN 15 (1.4.4) Beispiel: Das Polynom f(x) = x 3 3x + 1 hat im Intervall D = [ 2, 2] eine Nullstelle x. Wie groß darf ρ gewählt werden, damit für Startwerte x (0) B ρ (x ) das Newton-Verfahren konvergiert? Abgeschätzt werden müssen sup D f und inf D f. Offenbar ist sup D f = sup D 6x = 12. Außerdem ist f (x) = 3x 2 3 in D monoton wachsend (Begründung?), also inf D f 3. Das ergibt einen Wert ω = 4. Der Satz erfordert damit eine Genauigkeit des Startwerts von x (0) x < 2/ω = 0.5. Wir fassen die Ergebnisse des Satzes kurz damit zusammen, dass das Newton-Verfahren lokal quadratisch konvergent ist. Die quadratische Konvergenz ergibt sich aus Teil (c) des Satzes. Das Verfahren konvergiert allerdings nur bei hinreichend gutem Startwert, daher der Zusatz lokal. Die Ergebnisse lassen sich übertragen auf Systeme.

17 2 INTERPOLATION UND APPROXIMATION 16 2 Interpolation und Approximation 2.1 Das einfache Interpolationsproblem In diesem Kapitel geht es um die Frage, wie Funktionen rekonstuiert werden können, von welchen nur gewisse Funktionswerte bekannt sind. Anwendungen sind z.b.: Aus Messungen im Labor sind nur diskrete Werte f(t 1 ), f(t 2 ),... bekannt; Funktionswerte einer Funktion sind tabellarisch aufgelistet; eine kontinuierliche Funktion soll abgespeichert und später rekonstruiert werden. Wir behandeln zunächst das folgende einfache Interpolationsproblem: Gegeben sei ein Funktionenraum V. Weiter seien Knoten t 0 <... < t n und Funktionswerte f 0,..., f n gegeben. Das Interpolationsproblem in V lautet: Finde eine Funktion P (t) V, welches die Interpolationseigenschaft erfüllt: P (t i ) = f i, i = 0,..., n. (2.1) (2.1.1) Definition: Ein System (b 0,..., b n ) von Funktionen in V heißt IP-System zu den Knoten t 0,..., t n, falls gilt Der von b 0,..., b n aufgespannte Raum 1 falls i = j b i (t j ) = 0 sonst V n = span(b 0,..., b n ) heißt der IP-Unterraum von V zur Basis b 0,..., b n.. (2.1.2) Satz: In V n gibt es genau eine Lösung des IP-Problems. Diese ist gegeben durch P (t) = f j b j (t). j=0

18 2 INTERPOLATION UND APPROXIMATION 17 Beweis: Nach Definition der b i ist P (t) offenbar Lösung des IP-Problems. Ist Q(t) = nj=0 λ j b j (t) eine weitere Lösung des IP-Problems, so folgt für alle i = 0,..., n aus Q(t i ) = f i und den Eigenschaften der b i die Beziehung λ i = f i. (2.1.3) Beispiele: Als Funktionenraum V können wir z.b. die Menge der stetigen Funktionen auf [t 0, t n ] wählen. (a) Polynominterpolation: Ein IP-System wird gebildet durch die Lagrange-Polynome L i (t) := n j=0 j i t t j t i t j. (b) Bandbegrenzte Interpolation: Die Funktionen des IP-Systems sind ( ) h π(t ih) b i (t) = π(t ih) sin. h Diese Funktionen werden vor allem in der Elektrotechnik häufig benutzt zur Interpolation (Stichwort Abtastreihe). 2.2 Lagrange-Interpolation Im Folgenden seien L i die Lagrangepolynome zu den Knoten t 0,..., t n, und V n = span(l 0,..., L n ). (2.2.1) Lemma: Es ist V n = P n = Menge der Polynome vom Grad n. {L i i = 0,..., n} ist eine Basis von P n. Beweis: Offenbar liegen alle L i in P n ; damit ist V n P n. Die L i sind (als Funktionen auf [t 0, t n ]) linear unabhängig, denn: Sei c j L j (t) = 0 für alle t [t 0, t n ]. j=0 Wegen L i (t j ) = δ ij folgt dann aber c j L j (t i ) = c i = 0 für alle t [t 0, t n ]. (2.2) j=0

19 2 INTERPOLATION UND APPROXIMATION 18 Damit ist {L i i = 0,..., n} ist eine Basis von V n dimv n = n + 1. Da außerdem gilt dimp n = n + 1 (Beweis?), folgt V n = P n. Zusammen mit Satz (2.1.2) erhalten wir (2.2.2) Folgerung: Es gibt genau ein Polynom P (t) P n, welches die Interpolationsbedingungen (2.1) erfüllt. (Dieses wird das Interpolationspoynom genannt.) Es ist gegeben durch P (t) = f i L i (t). (2.3) i=0 (2.2.3) Beispiele: (a) Die zu den Knoten t 0 = 0, t 1 = 1, t 2 = 3 und t 3 = 4 gehörigen Lagrange-Polynome sind L 0 (t) = 1 1 (t 1)(t 3)(t 4) = (t3 8t t 12), L 1 (t) = 1 6 t(t 3)(t 4) = 1 6 (t3 7t t), L 2 (t) = 1 6 t(t 1)(t 4) = 1 6 (t3 5t 2 + 4t), L 3 (t) = 1 1 t(t 1)(t 3) = (t3 4t 2 + 3t). Das Interpolationspolynom zu den Werten f 0 = 1, f 1 = 0, f 2 = 1 und f 3 = 2 ist P (t) = L 0 (t) L 2 (t) + 2L 3 (t) = 1 12 (3t3 10t 2 5t + 12). (b) Der Wert sin(66.3 ) soll bestimmt werden. In einem Tafelwerk finden wir die tabellierten Werte sin(60 ) = sin(65 ) = sin(70 ) = sin(75 ) = (i) Das lineare Interpolationspolynom zu den Knoten t 1 = 65 und t 2 = 70 ist P 1 (t) = t

20 2 INTERPOLATION UND APPROXIMATION 19 und liefert sin(66.3 ) P 1 (66.3) = (ii) Das Interpolationspolynom P 3 (t) dritten Grades zu den Knoten t 0 = 60, t 1 = 65, t 2 = 70 und t 3 = 75 ist P 3 (t) = t t t Dies führt auf die Approximation sin(66.3 ) P 3 (66.3) = Zum Vergleich: Der exakte Wert ist sin(66.3 ) = Wir untersuchen zunächst die Kondition des Interpolationsproblems. Hierbei geht es nicht um die Frage, wie genau ein Funktionsverlauf durch Interpolation rekonstruiert werden kann (dies geschieht in Abschnitt 2.4), sondern darum, wie stark sich Rundungsfehler auf das Ergebnis auswirken. Zunächst fassen wir die Knoten t i Funktionswerte f i zu Vektoren zusammen: t := (t 0,..., t n ) T, f := (f 0,..., f n ) T. und die Im Folgenden werde t als Folge paarweise unterschiedlicher Punkte festgehalten. Es bezeichne P [f](t) das nach Satz (2.1.2) eindeutige Interpolationspolynom zu den Werten f. Aus der Darstellung (2.3) für das Interpolationspolynom folgt, dass die Abbildung P [.] : lr n+1 P n linear ist. Hieraus folgt: Wird der Vektor f durch Rundungsfehler h = (h 0,..., h n ) T gestört, so hat dies den Fehler P [f + h] P [f] = P [h] (2.4) zur Folge. Zur Untersuchung des Rundungsfehlereinflusses muss also nur P [h] betrachtet werden. Wir führen die beiden folgenden Maximumnormen ein: h := max i, i=0,...,n (2.5) P [h] := sup P [h](t). (2.6) t [a,b] Die Kondition bezüglich der Maximumnorm ist definiert durch κ = P [h]. (2.7) h h lr n+1

21 2 INTERPOLATION UND APPROXIMATION 20 n äquidistante Knoten Tschebyscheff-Knoten Tabelle 2: Lebesgue-Konstante Λ n Diese kann mit Hilfe der Lagrange-Polynome wie folgt beschrieben werden. (2.2.4) Satz: Es seien a t 0 < < t n b paarweise verschiedene Knoten und L in, i = 0,..., n die zugehörigen Lagrange-Polynome. Dann gilt κ = max L in (t). (2.8) t [a,b] i=0 Beweis: Zur Abkürzung definieren wir Λ n := max L in (t). t [a,b] i=0 (Λ n heißt auch Lebesgue-Konstante.) Wir haben zunächst zu zeigen, dass κ Λ n. Dies folgt aus P [h](t) = h i L in (t) n h i L in (t) h Λ n. (2.9) i=0 i=0 Es sei nun t [a, b] der Wert, an dem n i=0 L in (t) sein Maximum annimmt. Definieren wir den speziellen Vektor h durch h i := sign(l in (t )), so ist h = 1 und P [h] = P [h](t ) = L in (t ) = Λ n. i=0 (2.2.5) Beispiel: Die Kondition κ hängt wesentlich von der Wahl der Knoten ab. Tabelle 2 gibt für das Intervall [ 1, 1] für verschiedene n die Lebesgue-Konstante an. Als

22 2 INTERPOLATION UND APPROXIMATION 21 Knoten wurden hierbei einmal äquidistante Knoten t i = (2i+1)/(n+1) 1 gewählt, und andererseits zum Vergleich die sog. Tschebyscheff-Knoten t i = cos(π (2i + 1)/(2n + 2)). (Als Begründung für die Wahl der Tschebyscheff-Knoten vgl. Abschnitt 2.5.) Sollen von einem Interpolationspolynom P (.) nur einzelne Werte P (t) berechnet werden, so ist es nicht nötig, die Koeffizienten des Polynoms zu berechnen. Numerisch günstiger ist die Anwendung des Schemas von Aitken-Neville. Grundlage hierfür ist das folgende Ergebnis. Es seien die Knoten t und die Funktionswerte f fest vorgegeben; P [f] bezeichne wie vorher das zugehörige Interpolationspolynom n-ten Grades. Des weiteren bezeichne P [f ˆt i ] das Interpolationspolynom n 1-ten Grades zu den n Paaren (t 0, f 0 ),..., (t i 1, f i 1 ), (t i+1, f i+1 ),..., (t n, f n ). Das folgende Lemma zeigt, dass sich P [f] rekursiv aus Interpolationspolynomen niedrigeren Grades aufbauen lässt. (2.2.6) Lemma: Für P [f] gilt die Rekursionsformel P [f](t) = (t 0 t)p [f ˆt 0 ](t) (t n t)p [f ˆt n ](t) t 0 t n. Beweis: Zur Abkürzung definieren wir Offenbar ist ϕ P n. Außerdem ist und für i = 1,..., n 1 gilt ϕ(t) := (t 0 t)p [f ˆt 0 ](t) (t n t)p [f ˆt n ](t) t 0 t n. ϕ(t 0 ) = P [f ˆt n ](t 0 ) = f 0, ϕ(t n ) = P [f ˆt 0 ](t n ) = f n, ϕ(t i ) = (t 0 t i )f i (t n t i )f i t 0 t n ) = f i. Damit ist ϕ = P [f]. Berücksichtigt man nun, dass auch die Polynome P [f ˆt i ] auf Polynome niedrigeren Grades zurückgeführt werden können, so ergibt sich schließlich das folgende Rekursionsverfahrens.

23 f 0 = π 00 2 INTERPOLATION UND APPROXIMATION 22 (2.2.7) Schema von Aitken-Neville: Berechne die Werte π ik, k = 0... n, i = k... n nach dem Schema f 1 = π 10 π f n 1 = π n 1,0 π n 1,1 π n 1,n 1 f n = π n0 π n1 π n,n 1 π nn wobei die π ik für k 1 aus den Werten der vorhergehenden Spalte bestimmt werden nach der Rekursionsformel Dann ist P (t) = π nn. 4 π ik = (t t i k)π i,k 1 + (t i t)π i 1,k 1 t i t i k = π i,k 1 + t t i t i t i k (π i,k 1 π i 1,k 1 ). (2.2.8) Beispiel: Der Wert P 3 (66.3) des Beispiels (2.2.3)(b) folgt somit aus dem Schema sin(60 ) = sin(65 ) = sin(70 ) = sin(75 ) = Aus dem Schema von Aitken-Neville kann man sich leicht den folgenden Algorithmus herleiten. (2.2.9) Algorithmus zum Schema von Aitken-Neville: 4 Die Werte π kk sind die Werte des Interpolationspolynoms zu den Knoten t 0,... t k an der Stelle t.

24 2 INTERPOLATION UND APPROXIMATION 23 (S1) Für k = 0(1)n: Setze p k := f k. (S2) Für k = 1(1)n Für i = n( 1)k: Setze p i := p i + (t t i ) (p i p i 1 )/(t i t i k ). 2.3 Das erweiterte Interpolationsproblem Wir wollen nun das Interpolationsproblem verallgemeinern und außer Funktionswerten f i auch Ableitungen f (l) i an den Knoten t i vorschreiben. Diese Art der Polynominterpolation heißt Hermite-Interpolation. Anstelle einer strikt wachsenden Folge von Knoten t 0 < t 1 < lassen wir nun gleiche Knoten zu: t 0 t 1. Werden an einem Knoten außer dem Funktionswert f i auch die Ableitungen f i,..., f (k) i vorgeschrieben, so muss dieser Knoten k + 1-mal in der Knotenfolge auftreten. Wir definieren d i := max{j : t i = t i j }. (2.3.1) Beispiel: Zu den Knoten τ 0 < τ 1 < τ 2 < τ 3 seien die Werte f(τ 0 ), f (τ 0 ), f(τ 1 ), f (τ 1 ), f (τ 1 ), f(τ 2 ), f(τ 3 ) und f (τ 3 ) vorgegeben. Hieraus ergibt sich mit t 0 = τ 0, t 2 = τ 1, t 5 = τ 2, t 6 = τ 3 die folgende Knotenfolge für die Hermite-Interpolation. τ i τ 0 τ 0 τ 1 τ 1 τ 1 τ 2 τ 3 τ 3 t i t 0 = t 1 < t 2 = t 3 = t 4 < t 5 < t 6 = t 7 d i ξ i f(τ 0 ) f (τ 0 ) f(τ 1 ) f (τ 1 ) f (τ 1 ) f(τ 2 ) f(τ 3 ) f (τ 3 ) Definieren wir nun ξ = (ξ 0,..., ξ n ) T mit ξ i := f (d i) i und die Abbildungen µ i : P n lr, µ i (P ) := P (d i) (t i ), i = 0,..., n so lautet das neue Interpolationsproblem (2.3.2) Aufgabe der Hermite-Interpolation: Finde P P n mit µ i (P ) = ξ i. (2.10)

25 2 INTERPOLATION UND APPROXIMATION 24 Die Lösung P =: P (ξ t 0,..., t n ) heißt Hermite-Interpolierende zu den Daten ξ an den Knoten t i. Bezüglich der Existenz und Eindeutigkeit gilt (ohne Beweis) (2.3.3) Satz: Zu jedem Vektor ξ lr n+1 und zu jeder monotonen Knotenfolge a = t 0 t 1... t n = b gibt es genau eine Hermite-Interpolierende P (ξ t 0,..., t n ). (2.3.4) Spezialfälle: (a) Im Falle paarweise verschiedener Knoten t i entspricht die Hermite-Interpolation der Interpolation des Abschnitts 2.2. (b) Der Fall t 0 = t 1 = = t n führt auf die Taylor-Interpolation. Die zugehörige Hermite-Interpolierende ist die abgeschnittene Taylorreihe (t t 0 ) j P (ξ t 0,..., t n )(t) = ξ j. j! j=0 (c) Kubische Hermite-Interpolation: Hierbei ist n = 3; an den Knoten τ 0 < τ 1 seien die Funktionswerte f i sowie die ersten Ableitungen f i vorgegeben. Zur Konstruktion der Hermite-Interpolierenden wird zunächst die kubische Hermite-Basis {H 0,..., H 3 } konstruiert. Diese ist eindeutig bestimmt durch die folgenden Vorgaben. H i (τ 0 ) H i(τ 0 ) H i (τ 1 ) H i(τ 1 ) i= i= i= i= Dann ist die Hermite-Interpolierende gegeben durch 3 P (ξ t 0,..., t 3 ) = ξ i H i. (2.11) i=0 (2.3.5) Beispiel: Gesucht ist die Hermite-Interpolierende, welche an den Knoten τ 0 = 0 und τ 1 = π die selben Funktionswerte und die selben ersten Ableitungen hat wie sin(t). Offenbar sind die Knotenfolge t und die Folge ξ gegeben durch t = (0, 0, π, π) T, ξ = (0, 1, 0, 1) T,

26 2 INTERPOLATION UND APPROXIMATION 25 und für die Interpolierende gilt nach (2.9) die Darstellung P (ξ t)(t) = H 1 (t) H 3 (t). H 1 und H 3 sind Polynome dritten Grades. H 1 ergibt sich aus den Bedingungen H 1 (0) = H 1 (π) = H 1(π) = 0 und H 1(0) = 1 als H 1 (t) = 1 π t (t 2 π)2. Entsprechend folgt H 3 aus H 3 (0) = H 3 (π) = H 3(0) = 0 und H 3(π) = 1, H 3 (t) = 1 π 2 t2 (t π). Damit ist die Hermite-Interpolierende P (ξ t)(t) = 1 π 2 [ t (t π) 2 t 2 (t π) ] = 1 π t (t π). Schränken wir die im Vektor ξ = (ξ 0,..., ξ n ) T enthaltene Menge von Interpolationsvorgaben zu der Knotenfolge t 0 t n auf die Untermenge der Vorgaben zu der Knoten-Teilfolge t k t l ein (0 k l n), so bezeichnen wir das zugehörige Interpolationspolynom aus P l k mit P (ξ t k,..., t l ). Der führende Koeffizient a l k dieses Polynoms P (ξ t k,..., t l )(t) = a l k t l k + + a 1 t + a 0 heißt dividierte Differenz zu den Knoten t k,..., t l und wird mit dem Symbol ξ[t k,..., t l ] bezeichnet. Zur Lösung des Interpolationsproblems führen wir eine weitere Basis von P n ein. Die Menge {ω 0,..., ω n }, welche definiert ist durch i 1 ω 0 (t) := 1, ω i (t) := (t t i ) (ω i P i ) heißt Newton-Basis. (Wieso ist dies eine Basis des P n?) j=0 (2.3.6) Satz: Bezüglich der Newton-Basis besitzt P (ξ t 0,..., t n ) die Darstellung P n := P (ξ t 0,..., t n ) = ξ[t 0,..., t i ] ω i. (2.12) i=0

27 2 INTERPOLATION UND APPROXIMATION 26 Beweis durch Induktion: Für n = 0 ist die Aussage richtig. Es gelte P n 1 := P (ξ 0,..., ξ n 1 t 0,..., t n 1 ) = n 1 Wir fügen den zusätzlichen Knoten t n hinzu und erhalten i=0 ξ[t 0,..., t i ] ω i. P n (t) = ξ[t 0,..., t n ] t n + a n 1 t n a 0 = ξ[t 0,..., t n ] ω n (t) + Q n 1 (t) mit einem Polynom Q n 1 P n 1. Da ω n (t) an den Knoten t i, i = 0,..., n 1 verschwindet, ist Q n 1 = P n ξ[t 0,..., t n ] ω n (t) das Interpolationspolynom zu den Knoten t 0,..., t n 1, also Q n 1 = P n 1. Ähnlich wie Funktionswerte des Interpolationspolynoms mit Hilfe des Aitken-Neville- Schemas können die dividierten Differenzen rekursiv durch das folgende Schema berechnet werden. Als Abkürzung und um die Matrixanordnung der dividierten Koeffizienten zu unterstreichen (was den Entwurf eines Computerprogramms erleichtert), schreiben wir für 0 k l n α l,k := ξ[t l k,..., t l ] In dieser Schreibweise hat das gesuchte Polynom die Darstellung P (ξ t 0,..., t n ) = ni=0 α i,i ω i. (2.3.7) Berechnung der dividierten Differenzen: Die Berechnung erfolgt durch

28 ξ 0 = α 0,0 2 INTERPOLATION UND APPROXIMATION 27 das Schema ξ 1 d1 = α 1,0 α 1, ξ n 1 dn 1 = α n 1,0 α n 1,1 α n 1,n 1 ξ n dn = α n,0 α n 1 α n,n 1 α n,n mit den folgenden Rechenregeln. (a) Im Fall zusammenfallender Knoten t l m = = t l ist α l,m = ξ l (d l m) m!. (b) Ist t l t l m, so gilt die Rekursionsformel α l,m = α l,m 1 α k 1,m 1 t l t l m Beweis: (a) Ist t l m = = t l, so ist P := P (ξ t l m,..., t l ) das Interpolationspolynom zu den Vorgaben P (t l ) = ξ l dl,, P (m) (t l ) = ξ l dl +m, kurz: P (k) (t l ) = ξ l dl +k k = 0,..., m. Dies ist nach (2.3.4)(b) das Taylorpolynom P (t) = mit dem führenden Koeffizienten m l=0 ξ l dl +k (t t l ) k k! α l,m = ξ[t l m,..., t l ] = ξ l d l +m m! für (b) Für t l m t l lässt sich die Rekursionsformel von Lemma (2.2.6) übertragen: P (ξ t l m,..., t l )(t) = (t l m t)p (ξ t l m+1,..., t l )(t) (t l t)p (ξ t l m,..., t l 1 )(t) t l m t l

29 2 INTERPOLATION UND APPROXIMATION 28 (Begründung?) Hieraus folgt unmittelbar die gewünschte Darstellung für den führenden Koeffizienten von P (ξ t l m,..., t l ). (2.3.8) Beispiele: (a) Das Schema für das Beispiel (2.3.5) lautet [0] [0] [1] [0] 0 1/π [0] [ 1] 1/π 0 wobei die in eckige Klammern gesetzten Werte durch die Regel (a), die anderen durch die Regel (b) berechnet wurden. Damit ist die Hermite-Interpolierende gegeben durch P (ξ t) = t 1/π t t 2 (t π) = 1 π t(t π). (b) Zu den Vorgaben des Interpolationsproblems (2.3.16) soll hinzugefügt werden: P (π/6) = P (5 π/6) = 0.5. Hieraus ergibt sich das folgende Schema. t 0 = 0 [0] t 1 = 0 [0] [1] t 2 = π/6 [0.5] 3/π 6/π + 18/π 2 t 3 = 5π/6 [0.5] 0 18/5π 2 36/5π 2 648/25π 3 t 4 = π [0] 3/π 18/5π /5π /25π 4 t 5 = π [0] [ 1] 6/π + 18/π 2 36/5π /25π 3 36/5π /25π 4 0 Damit ist 6(3 π) 36(5π 18) P (ξ t)(t) = 1 ω 1 (t) + ω π 2 2 (t) + ω 25π 3 3 (t) = t t t t 4. 36(5π 18) ω 25π 4 4 (t) (c) Die Exponentialfunktion soll in der Nähe von t = 0 durch ein Polynom P (t) approximiert werden. Dieses Polynom soll möglichst niedrigen Grades sein und definiert durch die Bedingungen P ( 1) = 1/e, P (0) = P (0) = P (0) = 1 sowie P (1) = e. Aus dem Schema t 0 = 1 [1/e] t 1 = 0 [1] (e 1)/e t 2 = 0 [1] [1] 1/e t 3 = 0 [1] [1] [1/2] (e 2)/2e t 4 = 0 [1] [1] [1/2] [1/6] (3 e)/3e t 5 = 1 [e] e 1 e 2 e 5/2 e 8/3 0.5 (e 1/e 7/3)

30 2 INTERPOLATION UND APPROXIMATION 29 folgt P (t) = 1 ( e ) (t + 1) + 1 ( 1 e e (t + 1)t ) ( 1 (t + 1)t 2 + e e 1 (t + 1)t 3) 3 ( +0.5 e 1 e 7 ) (t 1)t 4 3 = 1 + t + 0.5t t t t 5. (2.3.9) Übung: Überprüfen Sie: Ist es im Fall paarweise verschiedener Knoten t i wichtig, die Knoten in wachsender Reihenfolge anzuordnen? Was ergibt sich hieraus, wenn zum bereits berechneten Interpolationspolynom ein weiterer Knoten hinzugefügt werden soll? 2.4 Approximationsfehler Bisher haben wir die Werte ξ = (ξ 0,..., ξ n ) T immer als isoliert vorgegeben gedacht. Jetzt wollen wir dies leicht modifizieren. Wir stellen uns eine Knotenfolge a = t 0 t n = b und eine hinreichend glatte Funktion f : [a, b] lr vor und fragen uns, wie gut diese Funktion durch das zugehörige Interpolationspolynom im gesamten Intervall [a, b] approximiert wird. Letzteres ist durch das eindeutig bestimmte Polynom P P n definiert, welches die Aufgabe (2.3.2) löst, wobei ξ i = f (d i) (t i ). Dieses Polynom werde im Folgenden auch mit P [f t] bezeichnet, wobei f = (f (d 0) (t 0 ),..., f (dn) (t n )) T. (2.4.1) Spezialfall: Für den Spezialfall t 0 = = t n und für mindestens n + 1-mal stetig differenzierbare Funktionen f kann der Approximationsfehler f(t) P [f t](t) leicht aus den bisher bekannten Ergebnissen der Analysis hergeleitet werden. Laut (2.3.4)(b) ist nämlich das Interpolationspolynom gegeben als abgeschnittene Taylorreihe P [f t](t) = j=0 f (j) (t 0 ) j! (t t 0 ) j. Andererseits besagt die bekannte Restgliedformel für die Taylorreihe, dass f(t) = j=0 f (j) (t 0 ) j! (t t 0 ) j + f (n+1) (τ) (n + 1)! (t t 0 ) n+1 mit einer geeigneten Stelle τ zwischen t 0 und t. Berücksichtigen wir nun noch, dass in unserem Spezialfall gilt (t t 0 ) n+1 = ω n+1 (t), so lässt sich der Approximationsfehler

31 2 INTERPOLATION UND APPROXIMATION 30 darstellen durch f(t) P [f t](t) = f (n+1) (τ) (n + 1)! ω n+1 (t) (2.13) Wir werden im Folgenden zumindest skizzieren, dass sich die Formel (2.11) auf den allgemeinen Fall übertragen lässt. (2.4.2) Lemma: Für t / {t 0,..., t n } und für die erweiterten Vektoren t = (t 0,..., t n, t) T sowie ξ = (ξ 0,..., ξ n, f(t)) T gilt f(t) = P [f t](t) + ξ[t 0,..., t n, t] ω n+1 (t). Beweis: Nach Satz (2.3.6) ist P [f t](t) = und das Polynom ξ[t 0,..., t i ] ω i (t), i=0 P n+1 (s) := P [f t](s) + ξ[t 0,..., t n, t] ω n+1 (s) ist das Interpolationspolynom von f zu den Knoten t. Insbesondere ist P n+1 (t) = f(t). Eine Art Mittelwertsatz liegt der folgenden Darstellungsformel für dividierte Differenzen zugrunde; wir wollen sie hier nicht beweisen, da hierzu die Berechnung höherdimensionaler Integrale benötigt wird. 5 (2.4.3) Lemma: Für beliebige n ln und Knotenfolgen a = t 0 t n = b existieren Zwischenwerte τ [a, b] mit ξ[t 0,..., t n ] = f (n) (τ) n!. 5 Ein Beweis findet sich in P. Deuflhard/ A. Hohmann: Numerische Mathematik I, Satz 7.12 sowie Folgerung 7.13.

32 2 INTERPOLATION UND APPROXIMATION 31 Als zentrales Ergebnis folgt aus den Lemmata (2.4.2) und (2.4.3) (2.4.4) Satz: Ist f : [a, b] lr n + 1-mal stetig differenzierbar, so gilt für den Approximationsfehler der Hermite-Interpolierenden die Darstellung f(t) P [f t](t) = f (n+1) (τ) (n + 1)! mit einer geeigneten Zwischenstelle τ [a, b]. ω n+1 (t) (2.4.5) Übung: (a) Plotten Sie ω n (t) für n = 5, 10, 20 für (i) äquidistante, (ii) Tschebyscheff-Knoten. (b) Die Funktion sin(t) sei im Intervall [60, 75 ] an n + 1 äquidistanten Stützstellen gegeben. Plotten Sie mit Hilfe eines Grafikprogramms die Interpolationspolynome, die Interpolationsfehler sowie die Polynome ω n+1 (t) für n = 4, 6, 8, Tschebyscheff-Interpolation Interpolationspolynome hohen Grades zu äquidistanten Stützstellen sind praktisch unbrauchbar, da diese starke Oszillationen aufweisen. Die Oszillationen stehen gemäß Satz (2.4.4) im Zusammenhang mit dem Verhalten der Polynome ω n (t) in der Nähe der Ränder (vgl. Übung (2.4.5)(a)). Die Untersuchung der Frage, wie die Knoten t 0,..., t n anzuordnen sind, damit max ω n+1(t) t [t 0,t n] möglichst klein wird, führt auf die Tschebyscheff-Polynome. (2.5.1) Definition: Die Funktion T n : [ 1, 1] lr, T n (t) = cos(n arccos(t)) heißt das Tschebyscheff-Polynom n-ten Grades. Zunächst einmal ist nicht klar, wieso T n ein Polynom sein soll. Dies und weitere Eigenschaften werden in Satz (2.5.3) gezeigt. Zunächst wird eine wichtige Rekursionseigenschaft bewiesen. (2.5.2) Lemma: Es ist T 0 (t) = 1 und T 1 (t) = t.

33 2 INTERPOLATION UND APPROXIMATION 32 Für n 1 gilt die Drei-Term-Rekursion T n+1 (t) = 2tT n (t) T n 1 (t). (2.14) Beweis: Die Aussagen für n = 0 und n = 1 folgen aus den wohlbekannten Beziehungen cos(0) = 1, cos(arccos(t)) = t. Zur Herleitung der Drei-Term-Rekursion benötigen wir das Additionstheorem für den Kosinus, cos(a ± b) = cos(a) cos(b) sin(a) sin(b). Mit a = n arccos(t) und b = arccos(t) folgt cos((n + 1) arccos(t)) = cos(n arccos(t)) cos(arccos(t)) sin(n arccos(t)) sin(arccos(t)), cos((n 1) arccos(t)) = cos(n arccos(t)) cos(arccos(t)) + sin(n arccos(t)) sin(arccos(t)). Aufsummieren der beiden Gleichungen ergibt cos((n + 1) arccos(t)) + cos((n 1) arccos(t)) = 2t cos(n arccos(t)). Hieraus folgt die Drei-Term-Rekursion. (2.5.3) Satz: Die Tschebyscheff-Polynome erfüllen für t [ 1, 1] die folgenden Eigenschaften. (a) T n ist ein Polynom n-ten Grades und ist damit darstellbar in der Form T n (t) = a (n) n t n + a (n) n 1t n a (n) 1 t + a (n) 0. (b) Für die führenden Koeffizienten gilt (c) T n ist beschränkt durch 1: a (n) n = 2 n 1 für n 1. max T n(t) = 1. t [ 1,1]

34 2 INTERPOLATION UND APPROXIMATION 33 (d) T n hat die n paarweise verschiedenen Nullstellen ( ) t (n) 2k 1 k = cos 2n π, k = 1,..., n. Beweis: Zu (a), (b): Für n = 0 und n = 1 wurden die Aussagen im Lemma (2.5.2) gezeigt. Der Beweis für n > 1 folgt durch vollständige Induktion aus der Drei-Term- Rekursion. Zu (c): Die Funktionswerte von T n sind Werte der Kosinus-Funktion und daher durch 1 beschränkt. An den Stellen cos(kπ/n) nimmt T n den Wert 1 an. Zu (d): ( ) (n) T n t k = cos (n ) (( (2k 1)π = cos k 1 ) ) π = 0. 2n 2 (2.5.4) Bemerkung: Mit Hilfe des Lemmas (2.5.2) können die Tschebyscheff-Polynome leicht berechnet werden. Es ist T 0 (t) = 1 T 1 (t) = t T 2 (t) = 2t 2 1 T 3 (t) = 4t 3 3t T 4 (t) = 8t 4 8t Werden die Nullstellen t (n) k des n-ten Tschebyscheff-Polynoms als Knoten zur Interpolation gewählt, so können die Interpolationsfehler nicht groß werden; aus dem Satz (2.5.3) folgt nämlich (2.5.5) Folgerung: t (n) k die Abschätzung seien die Nullstellen von T n aus Satz (2.5.3)(d). Dann gilt für n ω(t) = (t t (n) k ) k=1 ω(t) 1 2 n 1.

35 3 SPLINE-INTERPOLATION 34 Dass Tschebyscheff-Knoten optimal sind, ergibt sich aus dem folgenden Resultat. (2.5.6) Satz: Jedes Polynom P P n mit führendem Koeffizienten a n 0 nimmt im Intervall [ 1, 1] einen Wert vom Betrag a n /2 n 1 an. Insbesondere sind die Tschebyscheff-Polynome minimal bezüglich der Maximumnorm f = max t [ 1,1] f(t) unter den Polynomen in P n mit führendem Koeffizienten 2 n 1. Beweis: P P n sei ein Polynom mit führendem Koeffizienten a = 2 n 1. Annahme: P (t) < 1 für alle t [ 1, 1]. Es ist T n P P n 1 ; weiterhin gilt für x k = cos(kπ/n) Hieraus folgt T n ( x 2k ) = 1, P ( x 2k ) < 1, T n ( x 2k+1 ) = 1, P ( x 2k+1 ) > 1. P ( x 2k ) T n ( x 2k ) < 0 und P ( x 2k+1 ) T n ( x 2k+1 ) > 0. Daher ist T n P an n + 1 Tschebyscheff-Knoten abwechselnd positiv und negativ und hat damit mindestens n Nullstellen in [ 1, 1]. Dies ist aber im Widerspruch zu 0 T n P P n. Ist nun P ein beliebiges Polynom in P n, so lässt sich die Aussage des Satzes durch P := (2 n 1 /a n ) P auf den oben ausgeführten Fall zurückführen. 3 Spline-Interpolation 3.1 Polynom-Splines Die Idee der Spline-Interpolation ist es, das Interpolationsproblem nicht durch ein einziges Polynom vom Grad n zu lösen (da wie wir gesehen haben Polynome hohen Grades zu starken Oszillationen neigen können), sondern durch eine möglichst glatte Funktion, welche sich stückweise aus Polynomen niedrigeren Grades zusammensetzt. Die Vorgehensweise soll zunächst an einem Beispiel demonstriert werden. (3.1.1) Beispiel: Gegeben seien die Punktepaare (t i, f i ), i = 0,..., 3, mit den Werten

36 3 SPLINE-INTERPOLATION 35 (t 0, f 0 ) = (0, 1), (t 1, f 1 ) = (2, 2), (t 2, f 2 ) = (3, 0) und (t 3, f 3 ) = (5, 0). Diese sollen durch eine stetige zusammengesetzte Funktion P k interpoliert werden, welche in jedem Intervall [t i, t i+1 ] ein Polynom p (k) i k-ten Grades ist. (a) k = 1: Das Polynom p (1) i 1. Grades durch die Punkte (t i, f i ) und (t i+1, f i+1 ) ist gegeben durch die Gleichung p (1) i (t) f i t t i Hieraus folgt als interpolierende Funktion = f i+1 f i t i+1 t i. 0.5t + 1 für t [0, 2] P 1 (t) = 2t + 6 für t [2, 3] 0 für t [3, 5] Diese Funktion ist stetig, in den Interpolationspunkten aber nicht differenzierbar. (b) k = 2: Für das Polynom zweiten Grades in [t i, t i+1 ] machen wir den Ansatz p (2) i (t) = a i (t t i ) 2 + b i (t t i ) + c i. Einsetzen der ersten Interpolationsbedingungen (Bedingungen für den linken Rand des Teilintervalls) führt auf p (2) i (t i ) = f i c i = f i, i = 0, 1, 2. Zu bestimmen bleiben also die sechs Unbekannten a i, b i. Der zweite Satz von Interpolationsbedingungen (rechter Rand des Teilintervalls) führt auf die drei linearen Gleichungen p (2) i (t i+1 ) = f i+1 4a 0 + 2b 0 = 1 (3.1) a 1 + b 1 = 2 (3.2) 4a 2 + 2b 2 = 0 (3.3)

37 3 SPLINE-INTERPOLATION 36 Zwei Zusatzbedingungen für die stetige Differenzierbarkeit an den inneren Knoten t 1, t 0 haben die Form und lauten (p (2) i ) (t i+1 ) = (p (2) i+1) (t i+1 ) 4a 0 + b 0 = b 1 (3.4) 2a 1 + b 1 = b 2 (3.5) Die fünf Gleichungen (3.1)...(3.5) ergeben ein unterbestimmtes lineares Gleichungssystem für die sechs Unbekannten. Lassen wir a 0 als frei wählbaren Parameter stehen, so lautet die allgemeine Lösung für die anderen Parameter b 0 2 1/2 a 1 2 5/2 b 1 = a /2 a 2 1 9/4 b 2 2 9/2 Beispielsweise erhalten wir für a 0 = 0 die Lösung 0.5t + 1 für t [0, 2] P 2 (t) = 2.5t t 9 für t [2, 3] 2.25t 2 18t für t [3, 5] (3.1.2) Definition: a = t 0 < t 1 < < t n = b sei eine aufsteigende Folge von Knoten. Ein Spline vom Grad k ist eine (k 1)-mal stetig differenzierbare Funktion, welche auf jedem der Intervalle [t i, t i+1 ] ein Polynom (höchstens) k-ten Grades ist. 3.2 Kubische Splines In der Praxis spielen kubische Splines P 3 eine wichtige Rolle. Zu ihrer Konstruktion wählen wir für die Intervalle [t i, t i+1 ] den Ansatz p (3) i (t) = α i (t t i ) 3 + β i (t t i ) 2 + γ i (t t i ) + δ i, i = 0,..., n 1. Die Koeffizienten δ i folgen unmittelbar aus den Interpolationsbedingungen: δ i = f i.

38 3 SPLINE-INTERPOLATION 37 Beziehungen zwischen den übrigen Koeffizienten erhalten wir aus den Stetigkeitsbedingungen für P 3 (t), P 3(t) und P 3 (t) an den Knotenpunkten t i+1 : I α i h 3 i + β i h 2 i + γ i h i + f i = f i+1 (i = 0,..., n 1), II 3α i h 2 i + 2β i h i + γ i = γ i+1 (i = 0,..., n 2), III 6α i h i + 2β i = 2β i+1 (i = 0,..., n 2), (3.6) wobei wir zur Abkürzung definiert haben: h i = t i+1 t i. Mit Hilfe der Gleichungen I und III lassen sich die Größen α i und γ i durch β i und β i+1 ausdrücken gemäß (i) α i = β i+1 β i 3h i, (ii) γ i = h i 3 (β i+1 + 2β i ) + f i+1 f i h i (i = 0,..., n 2). (3.7) Einsetzen in II führt schließlich auf die n 2 Gleichungen r i β i + 2β i+1 + (1 r i )β i+2 = q i (i = 0,..., n 3) (3.8) für die n Unbekannten β i, wobei zur Abkürzung ( h i 3 fi+2 f i+1 r i =, q i = h i+1 + h i h i + h i+1 h i+1 f ) i+1 f i h i verwendet wurde. Beachten Sie, dass auch γ n 1 mit Hilfe der Gleichung II (i = n 2) und der Beziehungen (3.7) durch die Koeffizienten β i beschrieben werden kann: γ n 1 = h n 2 3 (2β n 1 + β n 2 ) + f n 1 f n 2 h n 2. (3.9) Durch Einsetzen in I (i = n 1) folgt außerdem α n 1 h 2 n 1 = β n 1 (h n h n 2 ) 1 3 β n 2h n 2 + h n 1 + h n 2 q n 2. (3.10) 3 Damit können alle Koeffizienten berechnet werden, sobald die β i bestimmt sind. Für ein vollständiges Gleichungssystem fehlen zwei weitere Bedingungen, welche häufig in Form zusätzlicher Randbedingungen ergänzt werden. A Natürliche Randbedingungen: Hier wird gefordert, dass die zweiten Ableitungen der Spline-Funktion an den Randpunkten verschwinden.

EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK I 1. Numerische Analysis. Prof. Dr. Hans Babovsky. Institut für Mathematik. Technische Universität Ilmenau

EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK I 1. Numerische Analysis. Prof. Dr. Hans Babovsky. Institut für Mathematik. Technische Universität Ilmenau EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK I 1 Numerische Analysis Prof Dr Hans Babovsky Institut für Mathematik Technische Universität Ilmenau 1 Version vom Herbst 2009 INHALTSVERZEICHNIS 1 Inhaltsverzeichnis

Mehr

NUMERISCHE MATHEMATIK II 1. (Studiengang Mathematik) Prof. Dr. Hans Babovsky. Institut für Mathematik. Technische Universität Ilmenau WS 2001/2002

NUMERISCHE MATHEMATIK II 1. (Studiengang Mathematik) Prof. Dr. Hans Babovsky. Institut für Mathematik. Technische Universität Ilmenau WS 2001/2002 NUMERISCHE MATHEMATIK II 1 (Studiengang Mathematik) Prof Dr Hans Babovsky Institut für Mathematik Technische Universität Ilmenau WS 2001/2002 1 Korrekturen, Kommentare und Verbesserungsvorschläge bitte

Mehr

Klassische Polynom Interpolation.

Klassische Polynom Interpolation. Klassische Polynom Interpolation. Bestimme ein Polynom (höchstens) n ten Grades p n (x) = a 0 + a 1 x + a 2 x 2 +... + a n x n, das die gegebenen Daten interpoliert, d.h. p n (x i ) = f i, 0 i n. Erster

Mehr

Musterlösungen zur Leistungsnachweisklausur vom Studiengang Informatik, Ingenieurinformatik, Lehramt

Musterlösungen zur Leistungsnachweisklausur vom Studiengang Informatik, Ingenieurinformatik, Lehramt TU ILMENAU Institut für Mathematik Numerische Mathematik PD Dr. W. Neundorf Musterlösungen zur Leistungsnachweisklausur vom.0.006 Studiengang Informatik, Ingenieurinformatik, Lehramt 1. Lineare Algebra

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

H.J. Oberle Analysis II SoSe Interpolation

H.J. Oberle Analysis II SoSe Interpolation HJ Oberle Analysis II SoSe 2012 7 Interpolation 71 Allgemeine Problemstellung Interpolation ist die Kunst, zwischen den Zeilen einer Tabelle zu lesen (Rutishauser) Von f : R R seien Funktionswerte (x j,

Mehr

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf. IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei

Mehr

(x x j ) R m [x] (3) x x j x k x j. R m [x]. (4)

(x x j ) R m [x] (3) x x j x k x j. R m [x]. (4) 33 Interpolation 147 33 Interpolation In vielen praktischen Anwendungen der Mathematik treten Funktionen f auf, deren Werte nur näherungsweise berechnet werden können oder sogar nur auf gewissen endlichen

Mehr

Kapitel 6. Nichtlineare Gleichungen. 6.1 Einführung. Problem: Idee: Beispiel:

Kapitel 6. Nichtlineare Gleichungen. 6.1 Einführung. Problem: Idee: Beispiel: Kapitel 6 Nichtlineare Gleichungen 6. Einführung Problem: Gesucht sind Lösungen nichtlinearer Gleichungen bzw. Systeme, das heißt es geht beispielsweise um die Bestimmung der Nullstellen eines Polynoms

Mehr

8 Interpolation. 8.1 Problemstellung. Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen. x 0 < x 1 <... < x n.

8 Interpolation. 8.1 Problemstellung. Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen. x 0 < x 1 <... < x n. 8 Interpolation 81 Problemstellung Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen x 0 < x 1 < < x n Eingabedaten: (x 0, f 0 ),(x 1, f 1 ),,(x n, f n ) Gegebene Daten (x j, f j ) Analysis

Mehr

Lösung zur Serie 8. x + 2x 2 sin(1/x), falls x 0, f(x) := 0, falls x = 0. = lim

Lösung zur Serie 8. x + 2x 2 sin(1/x), falls x 0, f(x) := 0, falls x = 0. = lim Lösung zur Serie 8 Aufgabe 40 Wir zeigen in dieser Aufgabe, dass die Voraussetzung dass die Funktion in einer kleinen Umgebung injektiv sein muss, beim Satz über die Umkehrfunktion notwendig ist. Hierzu

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei

Mehr

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.

Mehr

6. Polynom-Interpolation

6. Polynom-Interpolation 6. Polynom-Interpolation 1 6.1. Klassische Polynom-Interpolation 2 6.2. Lösung mit Hilfe Lagrange scher Basisfunktionen 3 6.3. Lösung mit Hilfe Newton scher Basisfunktionen 4 6.4. Fehlerabschätzung für

Mehr

NUMERISCHE MATHEMATIK. Prof. Dr. Hans Babovsky. Institut für Mathematik. Technische Universität Ilmenau

NUMERISCHE MATHEMATIK. Prof. Dr. Hans Babovsky. Institut für Mathematik. Technische Universität Ilmenau NUMERISCHE MATHEMATIK Prof Dr Hans Babovsky Institut für Mathematik Technische Universität Ilmenau WS 2011/2012 Prof Dr H Babovsky, NumMath, WS 10/11 1 Inhaltsverzeichnis 1 Die Kondition numerischer Probleme

Mehr

Lösung der Diplom-Vorprüfung Höhere Mathematik III/IV 6.8.005 1 Aufgabe N1 Gegeben seien A = 5-10 -5-10 8-10 -5-10 13 R 3 3 und b = a) Überprüfen Sie, ob die Matrix A positiv definit ist. b) Bestimmen

Mehr

VF-3: Gegeben seien die Daten f(x 0 ), f(x 1 ),..., f(x n ) mit x 0,..., x n paarweise verschiedenen und

VF-3: Gegeben seien die Daten f(x 0 ), f(x 1 ),..., f(x n ) mit x 0,..., x n paarweise verschiedenen und IGPM RWTH Aachen Verständnisfragen-Teil NumaMB F10 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Aussagen Diese sind mit wahr bzw falsch zu kennzeichnen (hinschreiben) Es müssen alle Fragen mit wahr

Mehr

( ) Dann gilt f(x) g(x) in der Nähe von x 0, das heisst. Für den Fehler r(h) dieser Näherung erhält man unter Verwendung von ( )

( ) Dann gilt f(x) g(x) in der Nähe von x 0, das heisst. Für den Fehler r(h) dieser Näherung erhält man unter Verwendung von ( ) 64 Die Tangente in x 0 eignet sich also als lokale (lineare) Näherung der Funktion in der Nähe des Punktes P. Oder gibt es eine noch besser approximierende Gerade? Satz 4.9 Unter allen Geraden durch den

Mehr

KAPITEL 8. Interpolation

KAPITEL 8. Interpolation KAPITEL 8. Interpolation 8.2 Lagrange-Interpolationsaufgabe für Polynome Wir beschränken uns auf die Lagrange-Interpolation mit Polynomen. Der Raum der Polynome vom Grad n: Stützstellen: Π n = { n j=0

Mehr

GMA. Grundlagen Mathematik und Analysis. Nullstellen und Fixpunkte Reelle Funktionen 3. Christian Cenker Gabriele Uchida

GMA. Grundlagen Mathematik und Analysis. Nullstellen und Fixpunkte Reelle Funktionen 3. Christian Cenker Gabriele Uchida GMA Grundlagen Mathematik und Analysis Reelle Funktionen 3 Christian Cenker Gabriele Uchida Data Analytics and Computing Nullstellen cos log : 0, 0,? 1 Fixpunkte Beispiel 1 Beispiel 2 1 0 0 und 1 1sin,?

Mehr

Einführung in die numerische Mathematik

Einführung in die numerische Mathematik Prof. Dr. M. Günther K. Gausling, M.Sc. C. Hendricks, M.Sc. Sommersemester 4 Bergische Universität Wuppertal Fachbereich C Mathematik und Naturwissenschaften Angewandte Mathematik / Numerische Analysis

Mehr

T n (1) = 1 T n (cos π n )= 1. deg T n q n 1.

T n (1) = 1 T n (cos π n )= 1. deg T n q n 1. KAPITEL 3. INTERPOLATION UND APPROXIMATION 47 Beweis: Wir nehmen an qx) für alle x [, ] und führen diese Annahme zu einem Widerspruch. Es gilt nach Folgerung ii) T n ) T n cos π n ). Wir betrachten die

Mehr

19. Januar Universität Erlangen-Nürnberg Department Mathematik PD Dr. Markus Bause. . Danach liefert die Gauss-Elinination. .

19. Januar Universität Erlangen-Nürnberg Department Mathematik PD Dr. Markus Bause. . Danach liefert die Gauss-Elinination. . Universität Erlangen-Nürnberg Department Mathematik PD Dr Markus Bause Numerik I 9 Januar A Gegeben sei die Matrix A = a Führen Sie eine Zeilenskalierung der Matrix durch Klausur b Bestimmen Sie mit Hilfe

Mehr

1 2 x x x x x x2 + 83

1 2 x x x x x x2 + 83 Polynominterpolation Aufgabe 1 Gegeben sei die Wertetabelle i 0 1 2 3 x i 0 1 2 4 f i 3 1 2 7 a) Bestimmen Sie das Interpolationspolynom von Lagrange durch die obigen Wertepaare. b) Interpolieren Sie die

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben).

Mehr

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear

Mehr

Übungen zu Splines Lösungen zu Übung 20

Übungen zu Splines Lösungen zu Übung 20 Übungen zu Splines Lösungen zu Übung 20 20.1 Gegeben seien in der (x, y)-ebene die 1 Punkte: x i 6 5 4 2 1 0 1 2 4 5 6 y i 1 1 1 1 1 + 5 1 + 8 4 1 + 8 1 + 5 1 1 1 1 (a) Skizzieren Sie diese Punkte. (b)

Mehr

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b.

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b. NumaMB F14 Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Bewertung: Vier Fragen richtig beantwortet

Mehr

5 Numerische Iterationsverfahren

5 Numerische Iterationsverfahren In diesem Kapitel besprechen wir numerische Iterationsverfahren (insbesondere Fixpunktverfahren) als eine weitere Lösungsmethode zur Lösung von linearen Gleichungssystemen (Kapitel 4) sowie zur Lösung

Mehr

5 Numerische Mathematik

5 Numerische Mathematik 6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul

Mehr

7. Nichtlineare Gleichngssysteme. Problem 7: Sei f : R n R n stetig. Löse f(x) = 0.

7. Nichtlineare Gleichngssysteme. Problem 7: Sei f : R n R n stetig. Löse f(x) = 0. 7. Nichtlineare Gleichngssysteme Problem 7: Sei f : R n R n stetig. Löse f(x) = 0. Das Gleichungssystem f(x) = 0 lässt sich in die Fixpunktgleichung x = φ(x) umschreiben, wobei φ : D R n R n. Beispielsweise

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen IGPM RWTH Aachen Institut für Geometrie und Praktische Mathematik Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen

Mehr

Nachklausur am Donnerstag, den 7. August 2008

Nachklausur am Donnerstag, den 7. August 2008 Nachklausur zur Vorlesung Numerische Mathematik (V2E2) Sommersemester 2008 Prof. Dr. Martin Rumpf Dr. Martin Lenz Dipl.-Math. Nadine Olischläger Nachklausur am Donnerstag, den 7. August 2008 Bearbeitungszeit:

Mehr

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016 Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.

Mehr

(x x j ) x [a,b] n! j=0

(x x j ) x [a,b] n! j=0 IGPM RWTH Aachen Verständnisfragen-Teil NumaMB F10 (4 Punkte Es gibt zu jeder der 1 Aufgaben vier Aussagen. Diese sind mit bzw. zu kennzeichnen (hinschreiben. Es müssen alle Fragen mit oder gekennzeichnet

Mehr

eps für alle x D. 4. Die Zahl 256 ist in M(2, 4, 6, 6) exakt darstellbar.

eps für alle x D. 4. Die Zahl 256 ist in M(2, 4, 6, 6) exakt darstellbar. IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H13 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei

Mehr

KAPITEL 5. Nichtlineare Gleichungssysteme

KAPITEL 5. Nichtlineare Gleichungssysteme KAPITEL 5. Nichtlineare Gleichungssysteme Beispiel 5.1. Gravitationskraft zwischen zwei Punktmassen m 1 und m 2 mit gegenseitigem Abstand r: F = G m 1m 2 r 2, wobei G = 6.67 10 11 Nm 2 /kg. Gravitationsfeld

Mehr

6 Polynominterpolation

6 Polynominterpolation Vorlesungsskript HM-Numerik (SS 2014): Kapitel 6 Version: 1 Juli 2014 6 Polynominterpolation Gegeben: Wertepaare { (x i,f i ) R 2 i = 0,,n } Gesucht: Einfache Funktion g : R R mit g(x i ) = f i i {0,1,,n}

Mehr

Approximation durch Polynome

Approximation durch Polynome durch n Anwendungen: zur Vereinfachung einer gegebenen Funktion durch einen Polynomausdruck. Dann sind übliche Rechenoperation +,,, / möglich. zur Interpolation von Daten einer Tabelle n Beispiel Trotz

Mehr

Vorlesung: Analysis I für Ingenieure

Vorlesung: Analysis I für Ingenieure Vorlesung: Analysis I für Ingenieure Michael Karow Thema: Satz von Taylor Die Taylor-Entwicklung I Satz von Taylor. Sei f : R D R an der Stelle x n-mal differenzierbar. Dann gilt für x D, n f (k) (x )

Mehr

f(x 0 ) = lim f(b k ) 0 0 ) = 0

f(x 0 ) = lim f(b k ) 0 0 ) = 0 5.10 Zwischenwertsatz. Es sei [a, b] ein Intervall, a < b und f : [a, b] R stetig. Ist f(a) < 0 und f(b) > 0, so existiert ein x 0 ]a, b[ mit f(x 0 ) = 0. Wichtig: Intervall, reellwertig, stetig Beweis.

Mehr

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)

Mehr

3.1.3 Newtonsche Interpolationsformel / Dividierte Differenzen

3.1.3 Newtonsche Interpolationsformel / Dividierte Differenzen KAPITEL 3 INTERPOLATION UND APPROXIMATION 4 33 Newtonsche Interpolationsformel / Dividierte Differenzen Das Verfahren von Neville ist unpraktisch, wenn man das Polynom selbst sucht oder das Polynom an

Mehr

Höhere Mathematik für Physiker II

Höhere Mathematik für Physiker II Universität Heidelberg Sommersemester 2013 Wiederholungsblatt Übungen zur Vorlesung Höhere Mathematik für Physiker II Prof Dr Anna Marciniak-Czochra Dipl Math Alexandra Köthe Fragen Machen Sie sich bei

Mehr

Kapitel 5. Lösung nichtlinearer Gleichungen

Kapitel 5. Lösung nichtlinearer Gleichungen Kapitel 5. Lösung nichtlinearer Gleichungen 5.1 Nullstellen reeller Funktionen, Newton-Verfahren 5.2 Das Konvergenzverhalten iterativer Verfahren 5.3 Methode der sukzessiven Approximation 5.4 Das Newton-Verfahren

Mehr

Modulprüfung Numerische Mathematik 1

Modulprüfung Numerische Mathematik 1 Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel

Mehr

Die Interpolationsformel von Lagrange

Die Interpolationsformel von Lagrange Die Interpolationsformel von Lagrange Zentrale Aussage: Zu beliebigen n + Stützpunkten (x i,f i ), i =,...,n mit paarweise verschiedenen Stützstellen x i x j, für i j, gibt es genau ein Polynom π n P n

Mehr

Rechenoperationen mit Folgen. Rekursion und Iteration.

Rechenoperationen mit Folgen. Rekursion und Iteration. Rechenoperationen mit Folgen. Die Menge aller Folgen in V bildet einen Vektorraum, V N, für den die Addition und skalare Multiplikation wie folgt definiert sind. (a n ) n N + (b n ) n N := (a n + b n )

Mehr

KAPITEL 10. Numerische Integration

KAPITEL 10. Numerische Integration KAPITEL 10. Numerische Integration 10.1 Einleitung Sei Es gilt I Ĩ = b I = b a a f(x) f(x) dx f(x) dx, Ĩ = b b a f(x) dx. a f(x) f(x) dx (b a) f f. I Ĩ I (b a) f f b a f(x) dx = ba f dx b a f(x) dx f f

Mehr

Übungsblatt 1 Musterlösung

Übungsblatt 1 Musterlösung Numerik gewöhnlicher Differentialgleichungen MA234 - SS6 Übungsblatt Musterlösung Aufgabe (Interpolationspolynom) a) Bestimmen Sie die Hilfspolynome L i, i =,,2, für x =, x = 2 und x 2 = 3 nach der Formel

Mehr

Dierentialrechnung mit einer Veränderlichen

Dierentialrechnung mit einer Veränderlichen Dierentialrechnung mit einer Veränderlichen Beispiel: Sei s(t) die zum Zeitpunkt t zurückgelegte Wegstrecke. Dann ist die durchschnittliche Geschwindigkeit zwischen zwei Zeitpunkten t 1 und t 2 gegeben

Mehr

18 Höhere Ableitungen und Taylorformel

18 Höhere Ableitungen und Taylorformel 8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a

Mehr

Inhalt Kapitel IV: Interpolation

Inhalt Kapitel IV: Interpolation Inhalt Kapitel IV: Interpolation IV Interpolation IV. Polynom-Interpolation IV. Spline-Interpolation Kapitel IV (InhaltIV) Die Interpolationsformel von Lagrange Zentrale Aussage: Zu beliebigen n + Stützpunkten

Mehr

Fixpunkt-Iterationen

Fixpunkt-Iterationen Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 3. März 2016 Nichtlineare Gleichungen, Fixpunkt-Iterationen 1 Wiederholung Aufgabentypen

Mehr

8 Polynominterpolation

8 Polynominterpolation 8 Polynominterpolation Interpolations-Aufgabe: Von einer glatten Kurve seien nur lich viele Punktewerte gegeben. Wähle einen lichdimensionalen Funktionenraum. Konstruiere nun eine Kurve in diesem Funktionenraum

Mehr

Übungen zu Einführung in die Analysis

Übungen zu Einführung in die Analysis Übungen zu Einführung in die Analysis (Nach einer Zusammengestellung von Günther Hörmann) Sommersemester 2011 Vor den folgenden Aufgaben werden in den ersten Wochen der Übungen noch jene zur Einführung

Mehr

Fixpunkt-Iterationen

Fixpunkt-Iterationen Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 27. Februar 2014 Gliederung Wiederholung: Gleichungstypen, Lösungsverfahren Grundprinzip

Mehr

18.4 Das Newton-Verfahren

18.4 Das Newton-Verfahren 18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift

Mehr

Newton-Verfahren für ein Skalarfunktion

Newton-Verfahren für ein Skalarfunktion Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren

Mehr

Name: Matrikel-Nr.: 1

Name: Matrikel-Nr.: 1 Name: Matrikel-Nr.: 1 2 Name: Matrikel-Nr.: 3 Aufgabe 1. Zeigen Sie per vollständiger Induktion, dass für alle n N gilt: n k=1 k(k + 1) 2 = n(n + 1)(n + 2). 6 3 Punkte 4 Name: Matrikel-Nr.: 5 Aufgabe 2.

Mehr

3 Nichtlineare Gleichungssysteme

3 Nichtlineare Gleichungssysteme 3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )

Mehr

Orthogonalpolynome Einführung, Eigenschaften und Anwendungen

Orthogonalpolynome Einführung, Eigenschaften und Anwendungen Anna Weller Orthogonalpolynome Einführung, Eigenschaften und Anwendungen 1 Orthogonalpolynome Einführung, Eigenschaften und Anwendungen Anna Weller Seminar zur Numerik im SS 2018, Universität zu Köln 10.

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Institut für Geometrie und Praktische Mathematik Multiple-Choice-Test NumaMB F08 (30 Punkte) Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine

Mehr

Nichtlineare Gleichungen

Nichtlineare Gleichungen Nichtlineare Gleichungen Ein wichtiges Problem in der Praxis ist die Bestimmung einer Lösung ξ der Gleichung f(x) =, () d.h. das Aufsuchen einer Nullstelle ξ einer (nicht notwendig linearen) Funktion f.

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik 4 Punkte Es gibt zu jeder der Aufgaben vier Teilaufgaben. Diese sind mit bzw. zu kennzeichnen hinschreiben. Es müssen

Mehr

Kapitel 4: Nichtlineare Nullstellenprobleme

Kapitel 4: Nichtlineare Nullstellenprobleme Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 4: Nichtlineare Nullstellenprobleme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 2015 HM: Numerik (SS

Mehr

Klausur zur Analysis I WS 01/02

Klausur zur Analysis I WS 01/02 Klausur zur Analysis I WS 0/0 Prof. Dr. E. Kuwert. Februar 00 Aufgabe (4 Punkte) Berechnen Sie unter a) und b) jeweils die Ableitung von f für x (0, ): a) f(x) = e sin x b) f(x) = x α log x a) f (x) =

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Institut für Geometrie und Praktische Mathematik Diplom VP Numerik 13. September 004 Aufgabe 1 10 0 40 Gegeben sei die Matrix A = 80 10 10. 10 5 5 (6 Punkte) a) Skalieren (Zeilenäquilibrierung)

Mehr

Begleitmaterial zur Vorlesung Numerik II

Begleitmaterial zur Vorlesung Numerik II Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik

Mehr

Lösungen der Aufgaben zu Kapitel 9

Lösungen der Aufgaben zu Kapitel 9 Lösungen der Aufgaben zu Kapitel 9 Abschnitt 9. Aufgabe a) Wir bestimmen die ersten Ableitungen von f, die uns dann das Aussehen der k-ten Ableitung erkennen lassen: fx) = x + e x xe x, f x) = e x e x

Mehr

(c) Gegeben sei der zweidimensionale Raum L mit den Basisfunktionen. [ φ i, φ j ] 3 i,j=1 =

(c) Gegeben sei der zweidimensionale Raum L mit den Basisfunktionen. [ φ i, φ j ] 3 i,j=1 = 1. (a) i. Wann besitzt A R n n eine eindeutige LR-Zerlegung mit R invertierbar? ii. Definieren Sie die Konditionszahl κ(a) einer Matrix A bzgl. einer Norm.! iii. Welche Eigenschaften benötigt eine Matrix

Mehr

Spline-Interpolation

Spline-Interpolation Spline-Interpolation Tim Schmölzer 20 November 2009 Tim Schmölzer Spline-Interpolation 20 November 2009 1 / 38 Übersicht 1 Vorbemerkungen 2 Lösbarkeit des Interpolationsproblems 3 Stabilität der Interpolation

Mehr

Lösung der Diplom-Vorprüfung Höhere Mathematik III/IV Aufgabe N1 (LR-Zerlegung mit Pivotisierung) Gegeben seien R 3.

Lösung der Diplom-Vorprüfung Höhere Mathematik III/IV Aufgabe N1 (LR-Zerlegung mit Pivotisierung) Gegeben seien R 3. Lösung der Diplom-Vorprüfung Höhere Mathematik III/IV 7.7.6 Aufgabe N (LR-Zerlegung mit Pivotisierung) Gegeben seien 6 8 A = 8 6 R und b = 6 R. a) Berechnen Sie die LR-Zerlegung von A mit Spaltenpivotisierung.

Mehr

GRUNDLAGEN MATHEMATIK

GRUNDLAGEN MATHEMATIK Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik GRUNDLAGEN MATHEMATIK 4. Differentialrechnung Prof. Dr. Gunar Matthies Wintersemester 2015/16 G. Matthies

Mehr

Nullstellenberechnung von nichtlinearen Funktionen

Nullstellenberechnung von nichtlinearen Funktionen Kapitel 3 Nullstellenberechnung von nichtlinearen Funktionen In dieser Vorlesung wird nur die Nullstellenberechnung reeller Funktionen einer reellen Variablen f : R R betrachtet. Man nennt die Nullstellen

Mehr

(a), für i = 1,..., n.

(a), für i = 1,..., n. .4 Extremwerte Definition Sei M R n eine Teilmenge, f : M R stetig, a M ein Punkt. f hat in a auf M ein relatives (oder lokales) Maximum bzw. ein relatives (oder lokales) Minimum, wenn es eine offene Umgebung

Mehr

Wie in der reellen Analysis üblich notiert man Folgen f in der Form

Wie in der reellen Analysis üblich notiert man Folgen f in der Form 2.1.3 Folgen und Konvergenz Viele aus der Analysisvorlesung bekannte Begriffe lassen sich in den Bereich der metrischen Räume verallgemeinern. Diese Verallgemeinerung hat sich als sehr nützliches mathematisches

Mehr

Nullstellen von algebraischen Gleichungen

Nullstellen von algebraischen Gleichungen Kapitel 2 Nullstellen von algebraischen Gleichungen 2.1 Vorbemerkungen Suche Lösung der Gleichung f(x) = 0 (2.1) Dies ist die Standardform für eine Dimension. - typisch nichtlineare Gleichung, sonst elementar

Mehr

Diplom VP Numerik 28. August 2006

Diplom VP Numerik 28. August 2006 Diplom VP Numerik 8. August 6 Multiple-Choice-Test Punkte) Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine einzige Aussage angekreuzt, gilt diese Aufgabe

Mehr

Kapitel 3. Konvergenz von Folgen und Reihen

Kapitel 3. Konvergenz von Folgen und Reihen Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden

Mehr

Diplom VP Informatik/Numerik 9. September 2000 / Seite 1. Aufgabe 1: L-R-Zerlegung, Nachiteration / Ly = b. y = Rx = y.

Diplom VP Informatik/Numerik 9. September 2000 / Seite 1. Aufgabe 1: L-R-Zerlegung, Nachiteration / Ly = b. y = Rx = y. Diplom VP Informatik/Numerik 9 September 2000 / Seite 1 1 Pivotisierung : 2 L-R-Zerlegung von A: 3 Vorwärtseinsetzen: (pivotisierung) Aufgabe 1: L-R-Zerlegung, Nachiteration A A = 4 2 10 2 6 9 2 1 6 L

Mehr

NUMERISCHE MATHEMATIK I 1. (Studiengänge Informatik/Ingenieurinformatik und Lehramt) Prof. Dr. Hans Babovsky. Institut für Mathematik

NUMERISCHE MATHEMATIK I 1. (Studiengänge Informatik/Ingenieurinformatik und Lehramt) Prof. Dr. Hans Babovsky. Institut für Mathematik NUMERISCHE MATHEMATIK I (Studiengänge Informatik/Ingenieurinformatik und Lehramt) Prof Dr Hans Babovsky Institut für Mathematik Technische Universität Ilmenau WS 2004/05 Korrekturen, Kommentare und Verbesserungsvorschläge

Mehr

Interpolation. Heinrich Voss. TUHH Heinrich Voss Kapitel / 49.

Interpolation. Heinrich Voss. TUHH Heinrich Voss Kapitel / 49. Heinrich Voss voss@tu-harburg.de Hamburg University of Technology Institute for Numerical Simulation TUHH Heinrich Voss Kapitel 2 2010 1 / 49 Interpolationsproblem Gegeben seien eine Funktion Φ (x; a 1,...,

Mehr

Differential- und Integralrechnung

Differential- und Integralrechnung Brückenkurs Mathematik TU Dresden 2016 Differential- und Integralrechnung Schwerpunkte: Differentiation Integration Eigenschaften und Anwendungen Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik

Mehr

Kapitel 16 : Differentialrechnung

Kapitel 16 : Differentialrechnung Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 26/7 (2.3.27). (a) Bestimmen Sie die kartesische Form von z = 5i 2i und z 2 = ( ) 9 3 2 2 i. (b) Bestimmen Sie sämtliche

Mehr

Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript

Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript Janko Latschev Fachbereich Mathematik Universität Hamburg www.math.uni-hamburg.de/home/latschev Hamburg,

Mehr

Ziel: Iterative Lösung der (nichtlinearen) Gleichung f(x) = 0.

Ziel: Iterative Lösung der (nichtlinearen) Gleichung f(x) = 0. 6.4 Fixpunkt-Iteration Ziel: Iterative Lösung der (nichtlinearen) Gleichung f(x) = 0. Möglichkeiten: Bisektionsverfahren (Intervallhalbierung) Newton-Verfahren, x k+1 = x k f(x k) f (x k ) für k = 0, 1,

Mehr

Analysis I für Studierende der Ingenieurwissenschaften

Analysis I für Studierende der Ingenieurwissenschaften Analysis I für Studierende der Ingenieurwissenschaften Ingenuin Gasser Department Mathematik Universität Hamburg Technische Universität Hamburg Harburg Wintersemester 2008/2009 1 Definition: Sei M R, alsom

Mehr

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2. MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw

Mehr

Seminar Gewöhnliche Differentialgleichungen

Seminar Gewöhnliche Differentialgleichungen Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden

Mehr

Integraldarstellung des Restgliedes; Lagrangesche Restgliedformel;

Integraldarstellung des Restgliedes; Lagrangesche Restgliedformel; Kapitel Der Satz von Taylor. Taylor-Formel und Taylor-Reihe (Taylor-Polynom; Restglied; Integraldarstellung des Restgliedes; Lagrangesche Restgliedformel; die Klasse C ; reell analytische Funktionen) In

Mehr

Polynomiale Approximation. und. Taylor-Reihen

Polynomiale Approximation. und. Taylor-Reihen Polynomiale Approximation und Taylor-Reihen Heute gehts um die Approximation von glatten (d.h. beliebig oft differenzierbaren) Funktionen f nicht nur durch Gerade (sprich Polynome vom Grade 1) und Polynome

Mehr

Brückenkurs Rechentechniken

Brückenkurs Rechentechniken Brückenkurs Rechentechniken Dr. Jörg Horst Technische Universität Dortmund Fakultät für Mathematik SS 2014 1 Vollständige Induktion Vollständige Induktion 2 Funktionenfolgen Punktweise Konvergenz Gleichmäßige

Mehr

Vorlesung Analysis I WS 07/08

Vorlesung Analysis I WS 07/08 Vorlesung Analysis I WS 07/08 Erich Ossa Vorläufige Version 07/12/04 Ausdruck 8. Januar 2008 Inhaltsverzeichnis 1 Grundlagen 1 1.1 Elementare Logik.................................. 1 1.1.A Aussagenlogik................................

Mehr

Ferienkurs Seite 1. Technische Universität München Ferienkurs Analysis 1 Stetigkeit, Konvergenz, Topologie

Ferienkurs Seite 1. Technische Universität München Ferienkurs Analysis 1 Stetigkeit, Konvergenz, Topologie Ferienkurs Seite Technische Universität München Ferienkurs Analysis Hannah Schamoni Stetigkeit, Konvergenz, Topologie Lösung 2.03.202. Gleichmäßige Konvergenz Entscheiden Sie, ob die folgenden auf (0,

Mehr