Numerische Methoden. Heinrich Voss Technische Universität Hamburg Harburg Institut für Numerische Simulation 2010

Größe: px
Ab Seite anzeigen:

Download "Numerische Methoden. Heinrich Voss Technische Universität Hamburg Harburg Institut für Numerische Simulation 2010"

Transkript

1 Numerische Methoden Heinrich Voss Technische Universität Hamburg Harburg Institut für Numerische Simulation 2 2. Oktober 2

2

3 Inhaltsverzeichnis Einleitung 5. Fehlertypen Kondition, Stabilität Zahlendarstellung Festpunktdarstellung Gleitpunktdarstellung Rundungsfehler und Gleitpunktrechnung Interpolation 3 2. Problemstellung Polynominterpolation Lagrangesche Interpolationsformel Newtonsche Interpolationsformel Fehlerbetrachtungen Spline-Interpolation Stückweise lineare Funktionen Kubische Splines Numerische Integration Konstruktion von Quadraturformeln Fehler von Quadraturformeln Quadraturformeln von Gauß Adaptive Quadratur Numerische Differentiation Lineare Systeme Zerlegung regulärer Matrizen Modifikationen des Gaußschen Verfahrens Störungen linearer Systeme Software für lineare Gleichungssysteme Lineare Ausgleichsprobleme Normalgleichungen Orthogonale Zerlegung von Matrizen Singulärwertzerlegung Pseudoinverse Störung von Ausgleichsproblemen Regularisierung

4 6 Eigenwertaufgaben Vorbetrachtungen Potenzmethode Der QR Algorithmus Nichtlineare Gleichungssysteme Fixpunktsatz für kontrahierende Abbildungen Nullstellen reeller Funktionen Newton Verfahren Einschließende Verfahren Newton Verfahren für Systeme Quasi-Newton Verfahren Nichtlineare Ausgleichsprobleme Einschrittverfahren Eulersches Polygonzugverfahren Allgemeine Einschrittverfahren Explizite Runge-Kutta Verfahren Schrittweitensteuerung Eingebettete Runge-Kutta Verfahren Mehrschrittverfahren Konsistenz Stabilität Adams-Bashforth Verfahren Adams-Moulton Verfahren Prädiktor-Korrektor Verfahren BDF-Verfahren Steife Probleme 55. Motivation Stabilitätsgebiete A-Stabilität A(α)-Stabilität Implizite Runge-Kutta Verfahren Rosenbrock Verfahren Bemerkungen zur Wahl der Verfahren Literaturverzeichnis 73

5 Kapitel Einleitung. Fehlertypen Aufgabe der Numerischen Mathematik ist, Algorithmen (d.h. Rechenvorschriften) für die näherungsweise numerische Lösung mathematischer Probleme der Naturwissenschaften, Technik, Ökonomie u.s.w. bereitzustellen und zu diskutieren. Gesichtspunkte bei der Bewertung eines Algorithmus (und beim Vergleich von Algorithmen) sind der Aufwand (z.b. die Anzahl der notwendigen Operationen), der Speicherplatzbedarf und eine Fehleranalyse. Man unterscheidet drei Typen von Fehlern nach ihren Quellen: Datenfehler: Die Eingangsdaten einer Aufgabe können fehlerhaft sein, wenn sie etwa aus vorhergehenden Rechnungen, physikalischen Messungen oder empirischen Untersuchungen stammen. Verfahrensfehler: Dies sind Fehler, die dadurch entstehen, dass man ein Problem diskretisiert (z.b. eine Differentialgleichung durch eine Differenzengleichung ersetzt) oder ein Iterationsverfahren nach endlich vielen Schritten abbricht. Rundungsfehler: Bei der Ausführung der Rechenoperationen auf einer Rechenanlage entstehen Fehler, da das Ergebnis (aber auch schon alle Zwischenergebnisse) nur im Rahmen eines begrenzten Zahlbereichs (sog. Maschinenzahlen) dargestellt werden kann, also gerundet werden muss. Die Frage, wie sich Datenfehler auf die Lösung einer Aufgabe auswirken, nennt man das Konditionsproblem der Aufgabe. Bewirken kleine Eingangsfehler auch nur kleine Ergebnisfehler, so nennt man das Problem gut konditioniert, anderenfalls schlecht konditioniert..2 Kondition, Stabilität Die Kondition eines Problems hängt nicht nur von der Aufgabenstellung (z.b. Lösung eines linearen Gleichungssystems ), sondern auch von den Eingangsdaten (z.b. den Koeffizienten der Matrix) ab. Wir beschreiben das zu lösende Problem durch eine Funktion f : X Y, X, Y normierte Vektorräume, die an einer Stelle x X ausgewertet werden muss. 5

6 6 KAPITEL. EINLEITUNG Sei δx eine kleine Störung von x. Dann ist δf := f(x + δx) f(x) der absolute Fehler. Die absolute Konditionszahl ˆκ = ˆκ(x) ist definiert durch ˆκ := lim δ sup δx δ δf δx. Ist f differenzierbar in x, so gilt f(x + δx) = f(x) + J(x)δx + o( δx ) mit der Jacobi Matrix J(x), und es folgt ˆκ = J(x). Beispiel. Das lineare Gleichungssystem ( ) ( ) ( ) a x =, y a R (.) besitzt die Lösung x =, y =. Das gestörte Gleichungssystem ( ( ) ( a x = ) y δ) hat die Lösung Damit gilt ( x x δ = δa, y δ = δ. y ) ( xδ y δ ) = δ ( ) a. Änderungen der rechten Seite ( ) T in der zweiten Komponente werden also mit dem Faktor + a 2 (bzgl. der Euklidischen Norm) verstärkt. Damit ist das Problem für kleine a gut und für große a schlecht konditioniert. Wichtiger als die absolute Konditionszahl ist die relative Konditionszahl κ (insbesondere wenn man mit Gleitpunktzahlen arbeitet) ( δf / ) δx κ := lim, δ f(x) x sup δx δ und im differenzierbaren Fall κ = J(x) f(x) / x. Im letzten Beispiel gilt ( δf lim δ f(x) sup δx δ / δx x ) = lim δ sup δx δ ( δ( + a) / ) δ = + a, Beispiel.2 Wir betrachten das Problem die Quadratwurzel x einer positiven Zahl x > zu berechnen. Die Jacobi Matrix von f : x x ist die Ableitung J = f = 2. Daher folgt x κ = J(x) f(x) / x = /2 x = x/x 2, und das Problem ist gut konditioniert.

7 .2. KONDITION, STABILITÄT 7 Beispiel.3 Berechne f(x) = x x 2 für einen Vektor x C 2. Die Jacobi Matrix von f : (x, x 2 ) x x 2 ist ( f J(x) = x ) f = ( ). x 2 Daher folgt unter Benutzung der -norm(, wenn Sie mir J = 2 glauben,) κ = J(x) f(x) / x = 2 x x 2 / max{ x, x 2 }, und das Problem ist schlecht konditioniert, wenn x konditioniert. x 2 gilt, sonst ist es gut Ein numerisches Verfahren heißt gut konditioniert (numerisch stabil), wenn die gelieferte Lösung eines gegebenen Problems die exakte Lösung eines Problems ist, das aus dem ursprünglichen Problem durch geringe Änderung der Eingangsdaten hervorgeht. Anderenfalls heißt das numerische Verfahren schlecht konditioniert (oder numerisch instabil). Beispiel.4 Das Integral x 2 x + dx kann auf folgende Weise berechnet werden: Für gilt y n + y n = y = Wertet man die Differenzenformel y n := x n x + dx x n + x n dx = x + dx = ln(.).953. x + x n dx = n, (.2) y n = n y n für n =,..., 2 aus, so erhält man die mittlere Spalte der Tabelle.. Obwohl das Problem, das Integral zu berechnen, gut konditioniert ist, erhält man ein unbrauchbares Resultat. Das Verfahren ist also instabil. Löst man hingegen (.2) nach y n auf, ( ) y n =. n y n, und startet man mit der groben Näherung y 3 =, so erhält man y 2,..., y mit einer Genauigkeit von wenigstens gültigen Stellen, siehe hierzu die letzte Spalte von Tabelle..

8 8 KAPITEL. EINLEITUNG n vorwärts rückwärts e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e 3 3.e + Tabelle.: Vorwärtige und rückwärtige Rekursion

9 .3. ZAHLENDARSTELLUNG 9 Die numerische Stabilität eines Algorithmus kann man so beschreiben. Ein Algorithmus zur Lösung des Problems f : X Y ist eine weitere Abbildung f : X Y. Führt man einen Algorithmus in Gleitpunktarithmetik aus, so ist das Beste, was man erreichen kann, dass der relative Fehler von der Ordnung der Rechengenauigkeit ist: f(x) f(x) = O(ɛ machine ). f(x) In diesem Fall nennt man den Algorithmus exakt. Ist das Problem f schlecht konditioniert, so kann man nicht erwarten, dass ein Algorithmus dieses exakt löst. Auftretende Rundungsfehler werden ja (möglicherweise) um die Kondition des Problems verstärkt und machen das Ergebnis unbrauchbar. Ein numerisches Verfahren heißt rückwärts stabil, wenn die gelieferte Lösung eines gegebenen Problems die exakte Lösung eines Problems ist, das aus dem ursprünglichen Problem durch geringe Änderung der Eingangsdaten hervorgeht, d.h. für alle x X gilt f(x) = f( x) für ein x mit x x x = O(ɛ machine ). Ein rückwärts stabiler Algorithmus gibt also die exakte Antwort auf die nahezu richtige Frage. Wendet man einen rückwärts stabilen Algorithmus zur Lösung des Problems f : X Y mit der Kondition κ an auf einem Rechner dessen Arithmetik die Axiome x R ɛ with ɛ ɛ machine : fl(x) = x( + ɛ) x, y R ɛ with ɛ ɛ machine : fl(x y) = (x y)( + ɛ) wobei irgendeine arithmetische Operation beschreibt, so gilt f(x) f(x) f(x) = O(κ(x)ɛ machine ), denn f(x) f(x) f(x) = f( x) f(x) f(x) x x = κ(x) x.3 Zahlendarstellung Üblicherweise stellt man Zahlen im Dezimalsystem dar, d.h. eine reelle Zahl x wird durch die Koeffizienten α i der Dezimaldarstellung von x festgelegt: x = ± ( α n n + α n n + + α + α + ) Abgekürzt schreibt man dafür auch ±α n α n... α.α α mit α i {,,..., 9}. Aus technischen Gründen arbeiten digitale Rechenanlagen im Dualsystem (zur Basis 2) oder im Hexadezimalsystem (zur Basis 6). Wir bleiben der Anschauung halber bei der Basis. Für die interne Darstellung einer Zahl in einem Rechner steht nur eine feste Anzahl t (=Wortlänge) von Dezimalstellen zur Verfügung. Diese Wortlänge wird auf zwei Arten zur Darstellung einer Zahl benutzt: Festpunktdarstellung und Gleitpunktdarstellung.

10 KAPITEL. EINLEITUNG.3. Festpunktdarstellung Bei der Festpunktdarstellung sind n und n 2, die Zahl der Stellen vor und nach dem Dezimalpunkt, festgelegt: Beispiel.5 (t = 8, n = 3, n 2 = 5) Wegen des verhältnismäßig kleinen Bereichs darstellbarer Zahlen wird mit Festpunktzahlen nur dann gearbeitet, wenn keine zu großen Unterschiede in der Größenordnung der auftretenden Zahlen bestehen (vor allem im kaufmännisch-organisatorischen Bereich: Stückzahlen: n 2 =, Preise: n 2 = 2)..3.2 Gleitpunktdarstellung Schreibt man x in der Gleitpunktdarstellung, so liegt die Mantissenlänge t = n + n 2 fest; die Lage des Dezimalpunktes wird durch einen Exponenten markiert: x = ± ( α n n + α n 2 n α + α + + α n2 n2). ( = ± α n + α n α n2 (n+n2)) n = ±. α n α n 2... α n2 n, n : Exponent }{{} Mantisse Beispiel.6 (t = 4) oder Die Gleitpunktdarstellung einer Zahl ist im Allgemeinen nicht eindeutig. Sie heißt normalisiert, falls x = oder für die erste Ziffer α gilt. Normalisierte Gleitpunktzahlen ungleich Null sind eindeutig. Daher betrachten wir von nun an nur noch normalisierte Gleitpunktzahlen..4 Rundungsfehler und Gleitpunktrechnung Die Menge F (Fließkommazahlen, engl. floating point numbers) der in einer Maschine darstellbaren Zahlen ist endlich (die Mantissenlänge t ist endlich, und für die Darstellung des Exponenten stehen auch nur e < viele Stellen zur Verfügung). Daher müssen die meisten Zahlen approximativ dargestellt werden. Für ein gegebenes x R bezeichnen wir mit fl(x) F eine Maschinenzahl, durch die x am besten approximiert wird, d.h. fl(x) x a x für alle a F. Diese Vorschrift ist noch nicht eindeutig (wird.5 auf- oder abgerundet?). Wir setzen fest: Sei x R gegeben mit der normalisierten Gleitpunktdarstellung x = ±.α α 2... α t α t+ n, dann wird x durch die folgende Vorschrift gerundet: { ±.α α fl(x) = 2... α t n, falls α t+ 4 ±(.α α 2... α t + t ) n, falls 5 α t+ 9.

11 .4. RUNDUNGSFEHLER UND GLEITPUNKTRECHNUNG Für den absoluten Fehler gilt x fl(x) 2 n t, und für den relativen Fehler x fl(x) x 2 n t n+ = 5 t (α ). Mit der Abkürzung u = 5 t (Maschinengenauigkeit) gilt also fl(x) = ( + ε)x, ε u. (.3) fl(x) ist nicht stets eine Maschinenzahl, da nicht beliebig große oder kleine Zahlen dargestellt werden können: Beispiel.7 (t = 4, e = 2) Exponentenüberlauf: Exponentenunterlauf: fl( ) =. F, fl( ) =.234 F. Setzt man im zweiten Fall fl( ) = oder.23 99, so gilt zwar fl( ) F, aber es ist nicht mehr (.3) erfüllt. Da bei den heutigen Anlagen e genügend groß ist, tritt Exponentenüberlauf oder -unterlauf nur sehr selten auf. Wir nehmen daher für das Weitere e = an, so dass bei der Rundung (.3) gilt. Offensichtlich gilt x, y F x ± y, x y, x/y F. Statt der Operationen +,,, / sind daher auf dem Rechner als Ersatz die Gleitpunktoperationen,,, realisiert, die man mit Hilfe von fl so beschreiben kann (x, y F): x y := fl(x y) {+,,, /}. (In der Maschine wird die Operation exakt ausgeführt, danach wird gerundet). Wegen (.3) gilt x y = (x y)( + ε), ε u, für jede der Operationen {+,,, /}. (Der relative Fehler hat also die Größenordnung der Maschinengenauigkeit). Waren aber x und y keine Maschinenzahlen, so wird zunächst gerundet und dann fl(x) fl(y) berechnet. Hierfür gilt wegen fl(x) = ( + ε x )x, fl(y) = ( + ε y )y fl(x) + fl(y) (x + y) x + y = x x + y ε x + y x + y ε y. Haben also bei der Addition die Summanden entgegengesetztes Vorzeichen, den gleichen Exponenten und gleiche führende Ziffern der Mantisse, so ist x + y klein gegen x und gegen y und der relative Fehler wird verstärkt. Man spricht dann von Auslöschung.

12 2 KAPITEL. EINLEITUNG Beispiel.8 (t = 6, x = , y = 234.6) Es gilt (fl(x) + fl(y)) (x + y) x + y =.3 (.33).33 =, aber ε x = fl(x) x x = , ε y =. Die Operationen (und /) sind wegen fl(x) fl(y) x y x y = ε x + ε y + ε x ε y ε x + ε y für die Fehlerfortpflanzung in einer Rechnung unkritisch.

13 Kapitel 2 Interpolation 2. Problemstellung Wir betrachten in diesem Kapitel das Interpolationsproblem: Gegeben seien eine Funktion Φ (x; a,..., a n ) : R I R, die auf einem Intervall I erklärt ist und von n Parametern a,..., a n abhängt, paarweise verschiedene Knoten (oder Stützstellen) x,..., x m I, Vielfachheiten r,..., r m N mit m r i = n und Werte y ij R, i =,..., m, j =,..., r i. i= Bestimme die Parameter a,..., a n so, dass die Interpolationsbedingungen erfüllt sind. Φ (j) (x i ; a,..., a n ) = y ij, i =,..., m, j =,..., r i, Ist Φ linear in den Parametern a i, d.h. Φ (x; a,..., a n ) = so heißt das Interpolationsproblem linear. n a i φ i (x), Gilt r j = für alle j, so spricht man von Lagrange-Interpolation, anderenfalls von Hermite-Interpolation. Bemerkung 2. Bei der Lagrange-Interpolation werden nur Funktionswerte, aber keine Ableitungen vorgeschrieben. Man beachte, dass bei der Hermite-Interpolation alle Ableitungen der Ordnung,..., r i vorgeschrieben werden. Lässt man Lücken bei den vorgeschriebenen Ableitungen zu, so spricht man von einem Hermite- Birkhoff-Interpolationsproblem. Beispiel 2.2 Wir geben eine Liste von prominenten Instanzen des Interpolationsproblemes:. Polynominterpolation: Φ (x; a,..., a n ) = i= n a j x j j= 3

14 4 KAPITEL 2. INTERPOLATION 2. trigonometrische Interpolation: Φ (x; a,..., a 2n ) = a + 3. rationale Interpolation: n (a 2j sin(jx) + a 2j cos(jx)) j= Φ (x; a,..., a n, b,... b p ) = n a i x i i=. p b j x j j= 4. Spline-Interpolation: Φ (x; a,..., a n ) = n a i φ i (x), wobei die φ i auf Teilintervallen von I mit Polynomen übereinstimmen. Wir werden uns nur mit der Polynominterpolation und der Interpolation mit Splines beschäftigen. Die trigonometrische und die rationale Interpolation werden ausführlich in Braess [4], Stoer [43] und Schwarz [39] behandelt. Man benötigt die Interpolation zur. Bestimmung von Zwischenwerten aus Funktionstafeln (was seit der Verbreitung von elektronischen Taschenrechnern an Bedeutung verloren hat), i= 2. Herleitung von Formeln zur numerischen Integration, 3. Konvergenzbeschleunigung durch Extrapolation, 4. Numerische Behandlung von gewöhnlichen Differentialgleichungen. 2.2 Polynominterpolation Wir betrachten in diesem Abschnitt die Interpolation mit Polynomen. Dabei behandeln wir vor allem das Lagrangesche Interpolationsproblem: Gegeben seien n+ verschiedene Knoten x j R, j =,..., n, und n+ nicht notwendig verschiedene Werte y j R. Gesucht ist ein Polynom p vom Höchstgrade n, so dass gilt p(x j ) = y j für j =,..., n. Bemerkung 2.3 Die Beweise werden zeigen, dass die Existenz- und Eindeutigkeitsresultate und die Algorithmen zur Berechnung des Interpolationspolynoms ohne Änderungen für komplexe Knoten x j und komplexe Daten y j richtig bleiben. Nur die Fehlerabschätzungen beziehen sich ausschließlich auf reelle Probleme. Wir bezeichnen mit Π n die Menge der Polynome von Höchstgrad n (mit reellen oder komplexen Koeffizienten).

15 2.2. POLYNOMINTERPOLATION Lagrangesche Interpolationsformel Satz 2.4 (Existenz und Eindeutigkeit) Zu beliebigen n + Daten (x j, y j ) R 2, j =,..., n, mit x j x k für j k gibt es genau ein Polynom p Π n mit p(x j ) = y j, j =,..., n. (2.) Beweis: Eindeutigkeit: Angenommen, es gibt zwei Polynome p, p 2 Π n mit p k (x j ) = y j, j =,..., n, k =, 2. Dann besitzt das Polynom p := p p 2 Π n die n + Nullstellen x,..., x n, und daher folgt aus dem Fundamentalsatz der Algebra p. Existenz: Die Existenz zeigen wir konstruktiv. Es sei / n n l j (x) = (x x i ) (x j x i ), j =,..., n. (2.2) i = i j i = i j Dann gilt l j Π n und l j (x k ) = δ jk für j, k =,..., n, und daher erfüllt p(x) := die Interpolationsbedingungen (2.). n y j l j (x) Π n (2.3) j= Definition 2.5 Die Darstellung (2.2), (2.3) des Interpolationspolynomes heißt Lagrangesche Interpolationsformel. Die Polynome l j (x) werden als Lagrange- Basis-Polynome bezeichnet. Bemerkung 2.6 Prinzipiell kann man bei dem Ansatz n p(x) = a j x j j= die Koeffizienten a j aus dem linearen Gleichungssystem n a j x j k = y k, k =,..., n (2.4) j= berechnen. Für Gleichungssysteme, deren Koeffizientenmatrix (x j k ) j,k=,...,n eine Vandermonde-Matrix ist, gibt es spezielle Algorithmen (vgl. Abschnitt 4.5. des Skriptes Grundlagen der Numerischen Mathematik ), die 2.5n 2 flops erfordern. Der Aufwand der folgenden Algorithmen ist geringer. Bemerkung 2.7 MATLAB stellt die Funktionen p=polyfit(x,y,n) zur Verfügung, durch die die Koeffizienten p des Ausgleichspolynomes vom Grad n zu den Daten (x, y) bestimmt werden. Ist dim x = n +, so erhält man das Interpolationspolynom. Mit y=polyval(p,x) kann man das Polynom dann an der Stelle x (oder den Stellen x(j), falls x ein Vektor ist) auswerten. Bemerkung 2.8 Verwendet man die Lagrangesche Interpolationsformel (2.3) naiv, so benötigt man zur Auswertung von p an einer festen Stelle ˆx zur Bereitstellung der l j (ˆx) aus (2.2) jeweils 4n flops (berechne (ˆx x i )/(x j x i ) für i =,..., n, i j, und das Produkt dieser Quotienten) und zur Auswertung von (2.3) weitere 2n flops, zusammen also 4n 2 + O(n) flops. Dieses kann (vgl. Abschnitt 2.2. des Skriptes Grundlagen der Numerischen Mathematik ) reduziert werden auf.5n2 + O(n) flops.

16 6 KAPITEL 2. INTERPOLATION Newtonsche Interpolationsformel Wir werden nun eine Form des Interpolationspolynomes herleiten, bei der.5n(n+) flops zur Vorbereitung benötigt werden und die Auswertung an einer festen Stelle zusätzlich 3n flops erfordert. Wir behandeln dazu zunächst die folgende Frage: Das Polynom p n (x) Π n interpoliere bereits die Daten (x j, y j ) R 2, j =,..., n. Wir nehmen ein weiteres Zahlenpaar (x n+, y n+ ) R 2, x n+ x j, j =,..., n, hinzu. Kann man dann das Interpolationspolynom p n+ (x) Π n+ zu den Daten (x j, y j ), j =,..., n +, schreiben als p n+ (x) = p n (x) + f(x), mit einer leicht berechenbaren Funktion f(x)? Wegen p n (x) Π n, p n+ (x) Π n+ gilt f(x) = p n+ (x) p n (x) Π n+, und wegen y j = p n+ (x j ) = p n (x j ) + f(x j ) = y j + f(x j ), j =,..., n, gilt f(x j ) =, j =,..., n. Daher hat f(x) mit einem a R die Gestalt f(x) = a n (x x j ). Die fehlende Konstante a kann man aus der Interpolationsbedingung ermitteln: j= y n+ = p n+ (x n+ ) = p n (x n+ ) + a a = n (x n+ x j ) j= y n+ p n (x n+ ) (x n+ x ) (x n+ x n ). Wir wollen nun ein Verfahren zur Berechnung der Zahl a, des führenden Koeffizienten des Interpolationspolynomes, herleiten. Grundlage dafür ist der folgende Satz. Satz 2.9 (Aitken-Lemma) Es sei zu (x j, y j ) R 2, j =,..., n, x i x j für i j, das Interpolationspolynom gesucht. Seien p [] Π n durch die Interpolationsbedingungen p [] (x j ) = y j, j =,..., n, festgelegt, und sei p [n] Π n definiert durch p [n] (x j ) = y j, j =,..., n. Dann gilt p(x) = p [](x)(x x n ) p [n] (x)(x x ). x x n Beweis: Das angegebene Polynom erfüllt offenbar die Interpolationsbedingungen p(x j ) = y j, j =,..., n. Für i j n sei nun p ij Π j i das Interpolationspolynom, das p ij (x k ) = y k, k = i,..., j, erfüllt. Dann folgt aus dem Aitken-Lemma, dass die p ij rekursiv berechnet werden können durch p ij (x) = p i,j (x)(x x j ) p i+,j (x)(x x i ) x i x j (2.5) = p i+,j (x) + (p i+,j (x) p i,j (x)) x x j x j x i Diese Rekursionsformel kann verwendet werden, um den Wert des Interpolationspolynomes an einer festen Stelle x (nicht das Polynom selbst) zu berechnen:

17 2.2. POLYNOMINTERPOLATION 7 Algorithmus 2. (Algorithmus von Neville und Aitken) for j = : n t(j) = y(j); xj = x - x(j); if j > for i = j- : - : end end end p = t(); t(i) = t(i+) + (t(i+) - t(i))*xj / (x(j) - x(i)); Bemerkung 2. Mit dem Algorithmus von Neville und Aitken wird das linke Tableau aufgestellt, das die Werte P ij der interpolierenden Polynome p ij an der festen Stelle x enthält. Das rechte Tableau enthält die Reihenfolge, in der die P ij berechnet werden. x y = P x y = P x 2 y 2 = P 22 x 3 y 3 = P 33 x 4 y 4 = P 44 P P 2 P 23 P 34 P 2 P P 3 3 P P 4 24 P 4 = p(x) Bemerkung 2.2 Zur Auswertung des Interpolationspolynomes p an einer festen Stelle benötigt man mit dem Algorithmus von Neville und Aitken offenbar 5 2 n2 + O(n) flops. Man erhält aus der Rekursionsformel (2.5) eine weitere Darstellung des Interpolationspolynomes, die Newtonsche Interpolationsformel. Da a in n p n (x) = p n (x) + a (x x j ) der Koeffizient bei der höchsten Potenz x n in p n (x) ist, liest man aus (2.5) sofort ab: Satz 2.3 (Newtonsche Interpolationsformel) Das eindeutige Interpolationspolynom p Π n aus (2.) hat die Gestalt p(x) = j= n j [x,..., x j ] (x x k ), (2.6) j= wobei die dividierten Differenzen [x,..., x j ] rekursiv definiert sind durch [x j ] := y j, k= [x k,..., x j ] := [x k+,..., x j ] [x k,..., x j ] x j x k, j > k. (2.7) Die dividierten Differenzen c j := [x,..., x j ] kann man mit dem folgenden Algorithmus aus den Wertepaaren (x j, y j ) berechnen:

18 8 KAPITEL 2. INTERPOLATION Algorithmus 2.4 (Dividierte Differenzen) for k = : n t(k) = y(k); if k > for i = k- : - : t(i) = (t(i+) - t(i)) / (x(k) - x(i)); end end c(k) = t(); end Danach kann man das Interpolationspolynom an jeder gewünschten Stelle x mit einem Horner-ähnlichen Schema auswerten: Algorithmus 2.5 (Horner-Schema Variante) p = c(n); for i = n- : - : p = p * (x - x(i)) + c(i); end Bemerkung 2.6 Die t(k) in dem Algorithmus enthalten die folgenden dividierten Differenzen, die in derselben Reihenfolge wie im Algorithmus von Neville und Aitken berechnet werden: t() = y t() = y t(2) = y 2 t(3) = y 3 t() = [x, x ] t() = [x, x 2 ] t(2) = [x 2, x 3 ] t() = [x, x, x 2 ] t() = [x, x 2, x 3 ] t() = [x, x, x 2, x 3 ] Bemerkung 2.7 Man benötigt 3 2 n (n + ) flops zur Berechnung aller c j, zur Auswertung von p an einer festen Stelle ˆx zusätzlich 3n flops. Die Newtonsche Interpolationsformel liefert also die effizienteste Methode zur Auswertung des Interpolationspolynomes. Selbst wenn man nur an einem Funktionswert interessiert ist, ist der Aufwand geringer als mit dem Algorithmus von Neville und Aitken. Wegen seiner einfachen Gestalt wird der Algorithmus von Neville und Aitken dennoch in der Praxis verwendet. Bemerkung 2.8 Natürlich erhält man für jede Anordnung der Knoten x i bei rundungsfehlerfreier Rechnung dasselbe Interpolationspolynom p n (x). Will man p n (x) nur an einer Stelle x (oder in deren Nähe ) auswerten, so kann man den Rundungsfehlereinfluss klein halten, indem man die Knoten so numeriert, dass gilt Fehlerbetrachtungen x x i x x i+, i =,..., n. Wir behandeln nun die Frage, wie gut eine gegebene, auf einem reellen Intervall definierte Funktion f durch das Interpolationspolynom zu vorgegebenen Knoten x i in I approximiert wird (es sei also y i = f(x i )). Beispiel 2.9 Gegeben sei auf dem Intervall I = [, ] die Funktion f(x) = sin πx,

19 2.2. POLYNOMINTERPOLATION 9.5 x Abbildung 2.: Fehlerkurve (äquidistante Knoten) und p 8 (x) Π 8 sei das Interpolationspolynom zu den Knoten x i = + i.25, i =,..., 8. Dann erhält man die Fehlerkurve aus Abbildung 2.. Das Interpolationspolynom liefert also am Rande des Intervalls eine ziemlich schlechte Approximation für f, obwohl f sehr gutartig ist (f ist beliebig oft differenzierbar). Das gezeichnete Verhalten ist typisch für die Polynominterpolation mit äquidistanten Knoten bei größerem n. Eine gewisse Erklärung hierfür gibt Satz 2.2 Sei f C n+ [a, b], seien x j [a, b], j =,..., n, paarweise verschiedene Knoten, und sei p Π n das durch p(x j ) = f(x j ), j =,..., n, bestimmte Interpolationspolynom. Dann gilt: Zu jedem x [a, b] existiert ξ = ξ(x) aus dem kleinsten Intervall I(x, x,..., x n ), das alle x j und x enthält, so dass f(x) p(x) = ω(x) (n + )! f (n+) (ξ) (2.8) gilt mit n ω(x) = (x x i ). (2.9) i= Bemerkung 2.2 Das Kontenpolynom ω hat für äquidistante Knoten x j die Gestalt von f p 8 der Skizze aus Abbildung 2.. Beweis: Für x = x j, j =,..., n, ist die Aussage trivial. Für festes x x j betrachten wir die Funktion und bestimmen α R so, dass F (x) = gilt. F (z) := f(z) p(z) αω(z) (2.)

20 2 KAPITEL 2. INTERPOLATION Dann besitzt F in I (x, x,..., x n ) wenigstens n + 2 Nullstellen. Nach dem Satz von Rolle besitzt F dort wenigstens n + Nullstellen, F wenigstens n Nullstellen, F wenigstens n Nullstellen,..., schließlich hat F (n+) mindestens eine Nullstelle ξ I(x, x,..., x n ). Wegen p Π n erhält man aus (2.) F (n+) (ξ) = f (n+) (ξ) α (n + )! =. Hiermit folgt wegen F (x) = aus (2.) die Behauptung. Bemerkung 2.22 Aus Satz 2.2 erhält man die folgende Abschätzung für die Güte der Approximation einer Funktion durch das Interpolationspolynom, wobei f p := max f(x) p(x) K(f) x [a,b] (n + )! ω, (2.) K(f) = f (n+). Bemerkung 2.23 Man erhält ferner aus Satz 2.2 eine Darstellung der dividierten Differenzen. Nimmt man im Newtonschen Interpolationspolynom in Satz 2.3 den Knoten x als weitere Stützstelle mit dem Wert f(x) hinzu, so erhält man für das in Satz 2.3 definierte Polynom p n f(x) p(x) = [x n, x n,..., x, x] (x x i ). (2.2) Durch Vergleich mit der Abschätzung (2.8) folgt i= [x n,..., x, x] = f (n+) (ξ) (n + )!, und damit allgemein für die n te dividierte Differenz [x,..., x n ] = f (n) (ξ) n! 2.3 Spline-Interpolation für ein ξ I (x,... x n ). Die in den vorhergehenden Abschnitten behandelte Polynominterpolation ist zwar leicht durchführbar, hat aber den Nachteil, dass bei Verfeinerung der Zerlegung keine Konvergenz zu erwarten ist. Bessere Konvergenzeigenschaften haben die nun zu besprechenden Spline-Funktionen. Definition 2.24 Sei : a := x < x <... < x n =: b (2.3) eine Zerlegung des Intervalls [a, b]. Dann bezeichnen wir mit S(, p, q), p, q N, q < p, die Menge aller Funktionen s C q [a, b], die auf jedem Teilintervall [x i, x i ], i =,..., n, mit einem Polynom vom Höchstgrad p übereinstimmen. Jedes s S(, p, q) heißt (Polynom-)Spline vom Grade p der Differenzierbarkeitsklasse q zur Zerlegung. Am häufigsten treten in den Anwendungen (auf Randwertaufgaben) die Räume S(, 3, 2) (kubische Splines) und S(, 3, ) (kubische Hermite-Splines) auf. Daneben untersucht man für spezielle Aufgabenstellungen, bei denen Pole oder verschiedenes Wachstum in verschiedenen Teilen des Intervalls erwartet wird (Grenzschichtprobleme), nichtlineare Splines (rationale oder exponentielle Splines). Wir behandeln nur S(, 3, 2), sowie zur Motivation S(,, ).

21 2.3. SPLINE-INTERPOLATION 2 x x x 2 x 3 x 4 x 5 x 6 Abbildung 2.2: Stückweise lineare Interpolation 2.3. Stückweise lineare Funktionen Es sei : a = x < x < < x n = b eine gegebene Zerlegung des Intervalls [a, b] und S(,, ) = { s C[a, b] : s [xi,x i] Π, i =,..., n } die Menge der stückweise linearen Funktionen auf [a, b] zu dieser Zerlegung. Für gegebene Interpolationsdaten y,..., y n R gibt es offenbar genau einen interpolierenden Spline s S(,, ) mit s(x i ) = y i, i =,..., n, und dieses s erhält man, indem man in jedem Teilintervall [x i, x i ] die Daten (x i, y i ) und (x i, y i ) nach Abschnitt 2.2 durch eine lineare Funktion interpoliert. Man erhält in den Teilintervallen s(x) = x i x i ( yi (x x i ) + y i (x i x) ), x [x i, x i ]. (2.4) Gilt y i = f(x i ) für eine Funktion f C 2 [a, b], so erhalten wir aus Satz 2.2 sofort für x [x i, x i ] den Fehler f(x) s(x) = 2 (x x i )(x x i )f (ξ i ), ξ i [x i, x i ], und daher für x [x i, x i ] Mit := f(x) s(x) 8 (x i x i ) 2 f (ξ i ). max (x i x i ) folgt i=,...,n Ist also n irgendeine Zerlegungsfolge von [a, b] mit f s 8 2 f. (2.5) lim n = n und f C 2 [a, b], so konvergiert die zugehörige Folge der interpolierenden Splines s n S ( n,, ) gleichmäßig gegen f, und die Konvergenzgeschwindigkeit wird durch (2.5) beschrieben.

22 22 KAPITEL 2. INTERPOLATION x x x 2 x 3 x 4 x 5 x 6 Abbildung 2.3: Dachfunktionen Für f C [a, b] erhält man für x [x i, x i ] aus (2.4) (x f(x) s(x) = xi )(f(x) f(x i )) + (x i x)(f(x) f(x i )) x i x i ( ) (x x i ) f(x) f(x i ) + (x i x) f(x) f(x i ) x i x i und daher folgt wobei max ( f(x) f(x i ), f(x) f(x i ) ), f s ω (f, ), ω (f, h) : = sup { f(x) f(y) : x, y [a, b], x y h} den Stetigkeitsmodul von f zur Schrittweite h bezeichnet. Ist n eine Zerlegungsfolge von [a, b] mit lim n n =, so konvergieren auch für nur stetiges f die interpolierenden linearen Splines gleichmäßig gegen f. Ähnlich wie bei der Lagrangeschen Interpolation können wir s darstellen als s(x) = n f i φ i (x), x [a, b] i= mit den Basisfunktionen (x x i ) / (x i x i ), x [x i, x i ] φ i (x) := (x i+ x) / (x i+ x i ), x [x i, x i+ ], i =,..., n,, x [x i, x i+ ] wobei x < a und x n+ > b beliebig gewählt sind. Die angegebenen φ i heißen Dachfunktionen (engl.: hat functions). Sie besitzen einen lokalen Träger [x i, x i+ ]. Will man also s an einer Stelle x (x i, x i ) auswerten, so hat man wegen φ j (x) = für j {i, i } nur φ i (x) und φ i (x) zu berechnen (anders als bei den l j (x) in Satz 2.4) Kubische Splines Bei den kubischen Splines s S(, 3, 2) sind die Verhältnisse nicht ganz so einfach wie im Fall S(,, ), da man die Interpolationsaufgabe nicht in jedem Teilintervall getrennt ausführen kann. Um die auftretenden Komplikationen und die

23 2.3. SPLINE-INTERPOLATION 23 einzuschlagende Vorgehensweise besser zu verstehen, zählen wir zuerst einmal die Unbekannten und die durch die Daten implizierten Gleichungen. Ein Spline s S(, 3, 2) ist in jedem der n Teilintervalle [x i, x i ], i =,..., n ein Polynom dritten Grades. Ein Polynom dritten Grades hat die allgemeine Form ax 3 + bx 2 + cx + d, also ist s durch insgesamt 4n Parameter bestimmt. Durch die Forderung s C 2 [a, b] werden in jedem der n inneren Knoten x i, i =,..., n, drei Bedingungen gegeben: s (j) (x i ) = s (j) (x i + ), j =,, 2. Daher besitzt ein kubischer Spline noch (wenigstens) 4n 3(n ) = n + 3 Freiheitsgrade, und wir können nicht erwarten, dass s durch die n + Interpolationsbedingungen s(x i ) = y i, i =,..., n, festgelegt ist, sondern es müssen noch zwei Randbedingungen hinzugenommen werden. Dieses kann in Abhängigkeit von der Aufgabenstellung auf verschiedene Weise geschehen. Vier verschiedene Randbedingungen und die Berechnung des zugehörigen (umparametrisierten) kubischen Splines s werden in dem folgenden Satz vorgestellt. Satz 2.25 Es sei = {x j } n j= eine gegebene Zerlegung des Intervalles [a, b] und es seien Werte y,..., y n R vorgegeben. Dann gibt es für jede der vier folgenden Randbedingungen (i) s (x ) = y, s (x n ) = y n, (y, y n R gegeben) (ii) s (x ) = s (x n ), s (x ) = s (x n ), (iii) s (x ) = s (x n ) =, (iv) s (x ) = y, s (x n ) = y n, (y, y n R gegeben) genau einen interpolierenden kubischen Spline s S(, 3, 2) mit s(x j ) = y j, j =,..., n. (2.6) Bemerkung 2.26 Wird die Interpolation mit kubischen Splines s S(, 3, 2) verwendet, um eine Funktion f : [a, b] R zu approximieren, so wird man die Randbedingungen (i) verwenden, wenn die Ableitung von f in den Randpunkten a und b des Intervalls bekannt sind, die Randbedingung (ii), wenn die Funktion f periodisch mit der Periode b a ist, und die Randbedingung (iv), wenn zusätzlich zu den Lagrangeschen Interpolationsdaten am Rand des Intervalls die zweiten Ableitungen bekannt sind. Bemerkung 2.27 Erfüllt s S(, 3, 2) die Randbedingung (iii), so kann man s auf {x : x < x } bzw. {x : x > x n } zweimal stetig differenzierbar als lineare Funktion fortsetzen. Kubische Splines, die man auf diese Weise erhält, heißen natürliche Splines. Bemerkung 2.28 In de Boor [9] werden vier weitere Randbedingungen diskutiert, unter denen die Existenz und Eindeutigkeit des interpolierenden Splines gesichert ist. Unter ihnen besonders wichtig ist die sog. not-a-knot Bedingung. Diese wird verwendet, wenn nichts über das Verhalten der interpolierenden Funktion an den Rändern des Intervalls (außer den Funktionswerten) bekannt ist. Man wählt dann als Knoten für den Spline die Punkte x < x 2 < < x n 2 < x n. Ein Spline zu diesen n 2 Intervallen hat n + Freiheitsgrade und ist durch die n + Interpolationsbedingungen s(x j ) = y j, j =,..., n eindeutig bestimmt.

24 24 KAPITEL 2. INTERPOLATION Beweis: (von Satz 2.25) Der Beweis ist konstruktiv, er liefert also ein Verfahren zur Berechnung der jeweiligen interpolierenden Splines. Sei h j+ := x j+ x j, j =,..., n, und m j := s (x j ), j =,..., n, die zweite Ableitung der gesuchten Splinefunktion an der Stelle x j. Wir wollen zeigen, dass der Vektor m := (m,..., m n ) T für jede der vier Randbedingungen eindeutige Lösung eines linearen Gleichungssystems ist und dass man aus den m j den Spline s(x) an jeder Stelle x [a, b] leicht errechnen kann. s ist in jedem Teilintervall [x j, x j+ ] ein kubisches Polynom. Also ist s stückweise linear, und man kann s mit Hilfe der m j so beschreiben (vgl. die Überlegungen in Abschnitt 2.3. für S(,, )). und s (x) = h j+ (m j (x j+ x) + m j+ (x x j )), x [x j, x j+ ]. Durch Integration erhält man für x [x j, x j+ ], j =,..., n, s (x) = m j (x j+ x) 2 2h j+ + m j+ (x x j ) 2 2h j+ + α j (2.7) s(x) = m j (x j+ x) 3 6h j+ + m j+ (x x j ) 3 6h j+ + α j (x x j ) + β j. (2.8) Die Integrationskonstanten α j und β j erhält man aus den Interpolationsbedingungen d.h. s(x j ) = m j h 2 j+ 6 s(x j+ ) = m j+ h 2 j+ 6 + β j = y j + α j h j+ + β j = y j+, β j = y j m j h 2 j+ 6 α j = y j+ y j h j+ h j+ 6 (m j+ m j ). (2.9) Setzt man α j und β j aus (2.9) in (2.8) ein, so erhält man die gewünschte Darstellung von s in Abhängigkeit von den m j. n Bestimmungsgleichungen für die m j erhält man, indem man die Stetigkeit von s ausnutzt: Setzt man α j aus (2.9) in (2.7) ein, so erhält man s (x) = m j (x j+ x) 2 2h j+ + m j+ (x x j ) 2 2h j+ + y j+ y j h j+ h j+ 6 (m j+ m j ), x [x j, x j+ ]. (2.2) Also liefert die Forderung s (x j ) = s (x j + ) y j y j h j d.h. für j =,..., n + h j 3 m j + h j 6 m j = y j+ y j h j+ h j+ 3 m j h j+ 6 m j+, h j 6 m j + h j + h j+ m j + h j+ 3 6 m j+ = y j+ y j y j y j. (2.2) h j+ h j

25 2.3. SPLINE-INTERPOLATION 25 Die restlichen beiden Bedingungen für die m j erhält man aus den Randbedingungen (i), (ii), (iii) oder (iv). Für die natürlichen Splines hat man in (2.2) s (a) = m = = m n = s (b) zu setzen, im Fall (iv) die inhomogenen Gleichungen m = y und m n = y n. Im Fall (i) hat man wegen (2.2) das System (2.2) zu ergänzen durch h 3 m + h 6 m = y y y h, h n 6 m n + h n 3 m n = y n y n y n. h n (2.22) Im Falle periodischer Randbedingungen gilt m = m n, und wegen s (a) = s (b) erhält man aus (2.2) h 6 m + h n 6 m n + h n + h 3 m = y y h y n y n h n. (2.23) In jedem Fall ergeben sich also die m j als Lösung eines linearen Gleichungssystems wobei für alle Zeilen der Matrix A gilt: Ax = b, (2.24) a ii > j i a ij. Die Koeffizientenmatrix ist also strikt diagonaldominant. Nach dem Satz von Gerschgorin ist sie dann regulär, und daher ist das Gleichungssystem (2.24) für jede rechte Seite b eindeutig lösbar. Um den jeweiligen kubischen Spline auch wirklich berechnen zu können, fassen wir kurz die notwendigen Resultate aus dem Beweis von Satz 2.25 in dem folgenden Korollar zusammen. Korollar 2.29 Es sei wie in Satz 2.25 = {x j } n j= eine gegebene Zerlegung des Intervalles [a, b]. Die Intervallbreiten seien bezeichnet mit h j := x j x j, j =,..., n, die n Radii der Doppelintervalle [x j, x j+ ] seien bezeichnet mit r j := x j+ x j 2 = h j+ + h j, j =,..., n, 2 und es seien wieder Werte y,..., y n R vorgegeben. Der Spline sei durch die zweiten Ableitungen {m j = s (x j )} n j= in den Punkten {x j } n j= wie folgt parametrisiert, (x j+ x) 3 s(x) = m j 6(x j+ x j ) + m (x x j ) 3 j+ 6(x j+ x j ) + ( y j+ y j x j+ x j (m j+ m j ))(x x j ) x j+ x j 6 (x j+ x j ) 2 + y j m j, x [x j, x j+ ]. 6 (2.25)

26 26 KAPITEL 2. INTERPOLATION Dann läßt sich der Vektor m der zweiten Ableitungen {m j } n j= aus dem strikt diagonaldominanten (meist) tridiagonalen Gleichungssystem T m = b (2.26) bestimmen, wobei die Matrix T R (n+) (n+) und die rechte Seite b R n+ wie folgt konstruiert werden, t t 2 t n h 4r h 2 T =. h 2 4r ,.. hn h n 4r n h n t n2 t n,n t nn b y 2 y y y (2.27) h 2 h y 3 y 2 y 2 y b = h 3 h 2.. y n y n y n y n 2 h n h n b n Die fehlenden Elemente t, t 2, t n, t n2, t n,n, t nn und b, b n der ersten und letzten Zeile bestimmen sich hierbei entsprechend den Randbedingungen zu. (vorgegebene erste Ableitungen an den Rändern) t t 2 t n = 2h h, 6 6 t n2 t n,n t nn h n 2h n b = (y y )/h y. b n y n (y n y n )/h n 2. (periodische Randbedingungen) t t 2 t n = 6 6, 6 6 t n2 t n,n t nn h h n 2h n + 2h b =. b n (y y )/h (y n y n )/h n 3. (vorgegebene zweite Ableitungen m = und m n = ) t t 2 t n =, 6 t n2 t n,n t nn b b n =. 4. (vorgegebene zweite Ableitungen m = y und m n = y n) t t 2 t n =, 6 t n2 t n,n t nn b b n = y y n.

27 2.3. SPLINE-INTERPOLATION 27 Satz 2.3 Sei f C 3 [a, b] und sei s S(, 3, 2) der interpolierende Spline, der eine der Randbedingungen (i) oder (ii) oder s (a) = f (a), s (b) = f (b) erfüllt. wobei Dann gilt mit den Konstanten C = 9 8 und C = C 2 = 9 4 s (ν) f (ν) C ν 3 ν ω(f, ), ν =,, 2, (2.28) ω(g, h) := sup { g(x) g(y) : x, y [a, b], x y h} den Stetigkeitsmodul von g bezeichnet. Genügt f einer Lipschitzbedingung f (x) f (y) L x y für alle x, y [a, b], so gilt s (ν) f (ν) L C ν 4 ν, ν =,, 2. (2.29) Beweis: Siehe dazu das Skript Numerische Mathematik Bemerkung 2.3 Satz 2.3 zeigt, dass Spline-Interpolationen geeignet sind, um Ableitungen von Funktionen, von denen nur diskrete Werte bekannt sind, zu approximieren. Auch der Raum der kubischen Splines S(, 3, 2) besitzt eine lokale Basis. Seien x 3 < x 2 < x < a und b < x n+ < x n+2 < x n+3 zusätzliche Knoten. Dann überzeugt man sich leicht (aber mit Hilfe einer längeren Rechnung), dass die Funktionen / i+2 (x x i 2 ) 3 + (x j x i 2 ) j=i / i+2 + (x x i ) 3 + (x j x i ), x x i φ i (x) = (x i+2 x) 3 + / i+ j=i 2 (x i+2 x j ) + (x i+ x) 3 + j = i 2 j i / i+2 j = i 2 j i + (x i+ x j ), x x i für i =,..., n +, eine Basis von S(, 3, 2) bilden. Dabei bezeichnet (x) + die Funktion { x für x, (x) + := für x. Die Basisfunktionen φ j heißen B-Splines. Abbildung 2.4 enthält die Graphen einiger B-Splines. Jeder B-Spline ist auf 4 Teilintervallen nichttrivial. Man kann zeigen, dass es keine Basis von S(, 3, 2) mit kleinerem Träger gibt. Man kann mit diesen φ i den Ansatz s(x) = n+ i= c i φ i (x)

28 28 KAPITEL 2. INTERPOLATION φ i φ i+ φ i+2 φ i+3 x i 2 x i x i x i+ x i+2 x i+3 x i+4 x i+5 Abbildung 2.4: B-Splines machen, und zur Lösung des Interpolationsproblems das lineare Gleichungssystem s(x i ) = y i + Randbedingungen behandeln. Dieses besitzt ähnlich wie das für die M i wieder eine tridiagonale, diagonaldominante Koeffizientenmatrix, ist also problemlos lösbar. Nicht benutzen sollte man jedoch für numerische Zwecke die folgende Basis von S(, 3, 2), die bisweilen in Büchern angegeben ist:, x, x 2, x 3, (x x i ) 3 +, i =,..., n, wegen der schlechten Kondition des entstehenden linearen Gleichungssystems. MATLAB stellt die Funktion yy=spline(x,y,xx) zur Verfügung. Besitzen die Vektoren x und y gleiche Länge, so wird der interpolierende kubische Spline mit not-a-knot Randbedingungen bestimmt. Ist die Länge von y um 2 größer als die Länge n von x, so werden die erste und letzte Komponente von y als Steigungen von s in x() und x(n) gedeutet. Der Vektor yy enthält in der j-ten Komponente yy(j) = s(xx(j)). Zusätzlich wird von MATLAB die Toolbox SPLINES angeboten. Hierin werden auch andere Randbedingungen für S(, p, p ), Glättung von Daten durch Ausgleich und Tensorprodukte von Splines zur Darstellung von Flächen angeboten.

29 Kapitel 3 Numerische Integration In vielen Fällen ist es nicht möglich, ein gegebenes Integral b a f(x) dx in geschlossener Form auszuwerten; z.b. ist für das in der Statistik häufig auftretende Integral F (x) = x e t2 /2 dt 2π keine elementare Stammfunktion angebbar. In diesem Fall ist man auf numerische Verfahren zur Integration, sog. Quadraturverfahren, angewiesen. Wir wollen in diesem Abschnitt einige wichtige Verfahren zur näherungsweisen Berechnung bestimmter Integrale besprechen. 3. Konstruktion von Quadraturformeln Wir betrachten das bestimmte Integral b a f(x) dx mit einer gegebenen integrierbaren Funktion f : [a, b] R. Mit der Variablentransformation x = a + t(b a) erhält man b a f(x) dx = (b a) f(a + t(b a)) dt, so dass man sich ohne Beschränkung der Allgemeinheit auf das Intervall [a, b] = [, ] beschränken kann. Eine naheliegende Idee zur Konstruktion von Quadraturformeln ist, n + verschiedene Knoten x, x,..., x n [, ] zu wählen, das Interpolationspolynom p von f zu diesen Knoten zu bestimmen und als Näherung für das Integral von f das Integral über das Interpolationspolynom p zu wählen, Mit l j (x) := f(x) dx p(x) dx =: Q(f). / n n (x x i ) (x j x i ), j =,..., n, i = i j i = i j 29

30 3 KAPITEL 3. NUMERISCHE INTEGRATION gilt nach der Lagrangeschen Interpolationsformel und daher erhält man Q(f) = p(x) = n f(x j )l j (x) dx = j= Dabei hängen die Gewichte α j := n f(x j )l j (x), j= n f(x j ) j= l j (x) dx l j (x) dx =: n α j f(x j ). nur von den gewählten Knoten x,..., x n ab und sind unabhängig vom aktuellen Integranden f. Sie können also ein für alle mal berechnet werden und in Tafeln oder Dateien bereitgestellt werden. Beispiel 3. Für n = und x =.5 gilt l (x) und α = Die entstehende Quadraturformel l (x) dx =. f(x) dx f(.5) =: R(f), bzw. die Quadraturformel für das allgemeine Intervall, j= b a f(x) dx (b a)f( a + b ) =: R(f), 2 heißt Rechteckregel oder auch Mittelpunktregel. Beispiel 3.2 Für n =, x = und x = ist l (x) = x und l (x) = x. Durch Integration erhält man α = α =.5 und damit die Trapezregel f(x) dx f() + f() 2 bzw. die Trapezregel für das allgemeine Intervall b a =: T (f), f(a) + f(b) f(x) dx (b a) =: T (f). 2 Beispiel 3.3 Für n = 2, x =, x =.5 und x 2 = erhält man wie in den beiden vorhergehenden Beispielen die Simpson-Regel (in der deutschsprachigen Literatur auch als Keplersche Fassregel bekannt) bzw. b a f(x) dx (f() + 4f(.5) + f()) =: S(f) 6 f(x) dx b a 6 ( f(a) + 4f ( a + b 2 ) ) + f(b) =: S(f).

31 3.. KONSTRUKTION VON QUADRATURFORMELN 3 Beispiel 3.4 Für n = 4 und x j = a + j(b a)/4, j =,,..., 4, erhält man die Milne-Regel b a f(x) dx b a 9 (7f(x ) + 32f(x ) + 2f(x 2 ) + 32f(x 3 ) + 7f(x 4 )) =: M(f). Es ist naheliegend (und dies ist auch die historisch älteste Wahl), die Knoten äquidistant im Intervall [a, b] zu wählen. Berücksichtigt man dabei die Intervallenden, wählt man also x j = a + j b a, j =,..., n, n so erhält man die abgeschlossenen Newton-Cotes-Formeln n ( ) f(x) dx α (n) j j f n bzw. b a f(x) dx (b a) n j= j= ( α (n) j f a + j b a ) =: ANC n (f). n Die Gewichte der Newton-Cotes-Formeln wachsen rasch an. Für die abgeschlossenen Formeln treten für n 8 wechselnde Vorzeichen auf (für die offenen Formeln sogar schon für n 2). Diese Formeln sind also anfällig für Rundungsfehler. Man benutzt die Newton-Cotes Formeln daher nur für kleine n auf Teilintervallen von [a, b] und summiert auf. Man erhält dann die summierten Newton-Cotes-Formeln oder zusammengesetzten Newton-Cotes-Formeln. Beispiele hierfür sind mit h := b a m die summierte Rechteckregel b a und x j := a + j h, j =,..., m, f(x) dx h m f(x j h/2) =: R h (f), (3.) j= die summierte Trapezregel ( ) b m f(x) dx h 2 f(a) + f(x i ) + 2 f(b) =: T h (f), (3.2) a i= und für m = 2k die summierte Simpson-Regel (beachten Sie, dass die Simpson- Regel jeweils auf zwei benachbarte Teilintervalle der Gesamtlänge 2h angewandt wird) b a f(x) dx 2h 6 (f(x ) + 4f(x ) + 2f(x 2 ) + 4f(x 3 ) + + 4f(x 2k ) + f(x 2k )) ( ) = h k k f(a) + 4 f(x 2i ) + 2 f(x 2i ) + f(b) =: S h (f). 3 i= Abbildung 3. enthält links eine graphische Darstellung der summierten Mittelpunktregel und rechts der summierten Trapezregel. In Abbildung 3.2 ist die summierte Simpson-Regel dargestellt. i=

32 32 KAPITEL 3. NUMERISCHE INTEGRATION Abbildung 3.: Summierte Mittelpunkt- / Trapezregel

33 3.2. FEHLER VON QUADRATURFORMELN 33.7 stückweise quadratische Interp Abbildung 3.2: Summierte Simpson-Regel 3.2 Fehler von Quadraturformeln Wir untersuchen nun den Fehler von Quadraturformeln. Wir betrachten das Integral I := f(x) dx und eine zugehörige Quadraturformel mit den Knoten x,..., x n [, ] und den Gewichten w,..., w n R n Q(f) := w i f(x i ) für das Referenzintervall [, ]. i= Definition 3.5 Die Quadraturformel Q(f) hat die Fehlerordnung m, wenn für den Fehler n E(f) := f(x) dx w i f(x i ) gilt. E(p) = für alle Polynome p Π m, 2. E(p) für ein p Π m. Bemerkung 3.6 Wegen der Linearität des Fehlers ist klar, dass Q genau dann die Fehlerordnung m hat, wenn E(x j ) = für j =,..., m und E(x m ) gilt. Bemerkung 3.7 Die Konstruktion liefert, dass die Newton-Cotes-Formeln wenigstens die Fehlerordnung n + haben. Für die Trapezregel ist dies die genaue Fehlerordnung, denn T (x 2 ) = 2 Für die Simpson-Regel gilt S(x 3 ) = ( + 4 ) = 4 = i= x 2 dx = 3. x 3 dx, S(x 4 ) = 5 24 x 4 dx = 5,

34 34 KAPITEL 3. NUMERISCHE INTEGRATION so dass die Simpson-Regel sogar die Ordnung 4 hat. Satz 3.8 Es sei Q eine Quadraturformel der Fehlerordnung m. Dann hat für f C m [, ] der Fehler von Q die Darstellung mit E(f) = K(x) = f(x) dx Q(f) = ( (m )! m ( x)m n i= Beweis: Siehe dazu das Skript Numerische Mathematik K(x)f (m) (x) dx (3.3) w i (x i x) m + ). Definition 3.9 Die Funktion K in der Fehlerdarstellung (3.3) heißt der Peano- Kern der Quadraturformel Q. Beispiel 3. Für die Trapezregel gilt x =, x =, w = w =.5, m = 2, und daher K T (x) = 2 ( x)2 2 ( x) = x( x). 2 Beispiel 3. Für die Simpson-Regel gilt x =, x =.5, x 2 =, w = w 2 = /6, w = 2/3 und m = 4, und daher ( K S (x) = 3! 4 ( x)4 6 ( x)3 2 ( ) ) x. + Aus Satz 3.8 erhält man die folgende Abschätzung für den Fehler E(f) f (m) K(x) dx =: c m f (m). (3.4) In vielen Fällen wechselt der Peano-Kern K(x) das Vorzeichen auf dem Intervall [, ] nicht. Dann folgt aus (3.3) mit dem Mittelwertsatz der Integralrechnung mit einem ξ (, ) E(f) = f (m) (ξ) für eine Quadraturformel der Ordnung m. K(x) dx =: c m f (m) (ξ) (3.5) Definition 3.2 Die Konstante c m heißt Fehlerkonstante des Verfahrens Q. Für die Trapezregel gilt Da T die Ordnung 2 hat, gilt K T (x) = x( x) für alle x [, ]. 2 E T (f) = 2 f (ξ) x( x) dx = 2 f (ξ), und die Fehlerkonstante der Trapezregel ist somit c 2 = /2. Eine elementare Rechnung zeigt, dass auch für die Simpson-Regel ( K S (x) = 3! 4 ( x)4 6 ( x)3 2 ( ) ) x +

35 3.2. FEHLER VON QUADRATURFORMELN 35 für alle x [, ] gilt. Durch Integration von K von bis erhält man für den Fehler wegen m = 4 E S (f) = f (4) (ξ) 288 für ein ξ (, ), d.h. die Fehlerkonstante ist c 4 = /288. Bemerkung 3.3 Man kann die Fehlerkonstante der Simpson-Regel und auch anderer Formeln ohne Integration (sogar ohne Kenntnis) des Peano-Kerns bestimmen. Ist bekannt, dass der Peano-Kern einer Formel der Ordnung m sein Vorzeichen in [, ] nicht wechselt, der Fehler also eine Darstellung (3.5) hat, so hat man nur E(x m ) zu berechnen. Es ist nämlich und daher und hieraus erhält man c m. d m dx m (xm ) = m! E(x m ) = m! c m, Beispiel 3.4 Im Fall der Simpson-Regel ist E(x 4 ) = und daher gilt x 4 dx 6 ( () (/2) 4 + 4) = = 2, c 4 = ( 4! ) = Wir betrachten nun das Integral von f über ein Intervall der Länge h: α+h α f(x) dx. Mit der Variablentransformation x =: α + ht geht dieses über in α+h α f(x) dx = h das wir mit der Quadraturformel behandeln, d.h. Für den Fehler gilt g(t) dt, Q(g) = Q [α,α+h] (f) := h E [α,α+h] (f) := α+h α ( = h g(t) := f(α + ht) = f(x), n w i g(x i ) i= n w i f(α + hx i ). i= f(x) dx Q [α,α+h] (f) ) g(t) dt Q(g) = h E(g). Besitzt der Fehler E(g) eine Darstellung (3.4), so folgt wegen d m ( ) m g dt m = dm f dx dx m = h m dm f dt dx m

Numerische Verfahren

Numerische Verfahren Numerische Verfahren (für Studierende des Studienganges Bauingieurwesen und Umwelttechnik) Jens-Peter M. Zemke Technische Universität Hamburg Harburg Arbeitsbereich Mathematik 25 Skript p + c 2 23 Heinrich

Mehr

Polynominterpolation

Polynominterpolation Polynominterpolation In der numerischen Mathematik versteht man unter Polynominterpolation die Suche nach einem Polynom, welches exakt durch vorgegebene Punkte (z. B. aus einer Messreihe) verläuft. Dieses

Mehr

Grundlagen der Numerischen Mathematik. Heinrich Voß

Grundlagen der Numerischen Mathematik. Heinrich Voß Grundlagen der Numerischen Mathematik Heinrich Voß Technische Universität Hamburg Harburg Arbeitsbereich Mathematik 2004 2 Inhaltsverzeichnis 1 Einleitung 1 1.1 Zahlendarstellung............................

Mehr

Themen Lagrange-Interpolation Hermite-Interpolation. Splines. Bézier-Kurven. 5 Interpolation. Interpolation Die Lagrangesche Interpolationsaufgabe

Themen Lagrange-Interpolation Hermite-Interpolation. Splines. Bézier-Kurven. 5 Interpolation. Interpolation Die Lagrangesche Interpolationsaufgabe 5 Themen Lagrange- Bézier-Kurven saufgabe sformel Der sfehler 5.1 saufgabe È n = Raum der reellen Polynome vom Grad n. saufgabe sformel Der sfehler 5.1 saufgabe È n = Raum der reellen Polynome vom Grad

Mehr

Numerische Integration und Differentiation

Numerische Integration und Differentiation Einführung Grundlagen Bemerkung (Numerische Mathematik) a) Im engeren Sinn: zahlenmäßige Auswertung mathematischer Zusammenhänge z B Lösung von linearen und nichtlinearen Gleichungssystemen Numerische

Mehr

Klausur zur Vordiplom-Prüfung

Klausur zur Vordiplom-Prüfung Technische Universität Hamburg-Harburg SS 25 Arbeitsbereich Mathematik Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren 22. Juli 25 Sie haben 9 Minuten Zeit zum Bearbeiten der

Mehr

18 Höhere Ableitungen und Taylorformel

18 Höhere Ableitungen und Taylorformel 8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a

Mehr

Klausur zur Vordiplom-Prüfung

Klausur zur Vordiplom-Prüfung Technische Universität Hamburg-Harburg WS 7/8 Institut für Numerische Simulation Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren 7. März 8 Sie haben 9 Minuten Zeit zum Bearbeiten

Mehr

3 Interpolation und Approximation

3 Interpolation und Approximation In dem ersten großen Kapitel beschäftigen wir uns mit der Frage, wie eine Reihe von Daten (z.b. aus physikalischen Messungen, experimentelle Beobachtungen, Börse, etc.) durch eine möglichst einfache Funktion

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

3.1.3 Newtonsche Interpolationsformel / Dividierte Differenzen

3.1.3 Newtonsche Interpolationsformel / Dividierte Differenzen KAPITEL 3 INTERPOLATION UND APPROXIMATION 4 33 Newtonsche Interpolationsformel / Dividierte Differenzen Das Verfahren von Neville ist unpraktisch, wenn man das Polynom selbst sucht oder das Polynom an

Mehr

Konvergenz im quadratischen Mittel und Parsevalsche Gleichung

Konvergenz im quadratischen Mittel und Parsevalsche Gleichung Konvergenz im quadratischen Mittel und Parsevalsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Prof Dr Picard, gehalten von Helena Malinowski In vorhergehenden Vorträgen und dazugehörigen

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische

Mehr

5 Potenzreihenansatz und spezielle Funktionen

5 Potenzreihenansatz und spezielle Funktionen 5 Potenzreihenansatz und spezielle Funktionen In diesem Kapitel betrachten wir eine Methode zur Lösung linearer Differentialgleichungen höherer Ordnung, die sich anwenden läßt, wenn sich alle Koeffizienten

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Nichtlineare Gleichungen

Nichtlineare Gleichungen Nichtlineare Gleichungen Ein wichtiges Problem in der Praxis ist die Bestimmung einer Lösung ξ der Gleichung f(x) =, () d.h. das Aufsuchen einer Nullstelle ξ einer (nicht notwendig linearen) Funktion f.

Mehr

Kapitel 4. Interpolation. 4.1 Allgemeines Normen von Funktionen

Kapitel 4. Interpolation. 4.1 Allgemeines Normen von Funktionen Kapitel 4 Interpolation 4 Allgemeines Nähere Funktion/Daten durch einfache Funktionen (eg Polynome) an Brauchbar für: - Integration - Differentiation [zb f(x) sei durch Polynom p(x) approximiert, F(x)

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

2. Spezielle anwendungsrelevante Funktionen

2. Spezielle anwendungsrelevante Funktionen 2. Spezielle anwendungsrelevante Funktionen (1) Affin-lineare Funktionen Eine Funktion f : R R heißt konstant, wenn ein c R mit f (x) = c für alle x R existiert linear, wenn es ein a R mit f (x) = ax für

Mehr

Dierentialgleichungen 2. Ordnung

Dierentialgleichungen 2. Ordnung Dierentialgleichungen 2. Ordnung haben die allgemeine Form x = F (x, x, t. Wir beschränken uns hier auf zwei Spezialfälle, in denen sich eine Lösung analytisch bestimmen lässt: 1. reduzible Dierentialgleichungen:

Mehr

Numerische Integration

Numerische Integration Numerische Integration home/lehre/vl-mhs-1/folien/uebung/num_integration/cover_sheet_5a.tex Seite 1 von 12. p.1/12 Inhaltsverzeichnis 1. Einführung 2. Newton-Cotes Formeln Rechteckformel Trapezformel Simpsonsche

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Kapitel 16 : Differentialrechnung

Kapitel 16 : Differentialrechnung Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen

Mehr

Analysis I. 4. Beispielklausur mit Lösungen

Analysis I. 4. Beispielklausur mit Lösungen Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Analysis I 4. Beispielklausur mit en Aufgabe 1. Definiere die folgenden (kursiv gedruckten) Begriffe. (1) Eine bijektive Abbildung f: M N. () Ein

Mehr

Kleine Formelsammlung zu Mathematik für Ingenieure IIA

Kleine Formelsammlung zu Mathematik für Ingenieure IIA Kleine Formelsammlung zu Mathematik für Ingenieure IIA Florian Franzmann 5. Oktober 004 Inhaltsverzeichnis Additionstheoreme Reihen und Folgen 3. Reihen...................................... 3. Potenzreihen..................................

Mehr

Die Taylorreihe einer Funktion

Die Taylorreihe einer Funktion Kapitel 6 Die Taylorreihe einer Funktion Dieser Abschnitt beschäftigt sich mit Taylorreihen, Taylorpolynomen und der Restgliedabschätzung für Taylorpolynome. Die Taylorreihe einer reellen Funktion ist

Mehr

n=1 a n mit reellen Zahlen a n einen

n=1 a n mit reellen Zahlen a n einen 4 Unendliche Reihen 4. Definition und Beispiele Ein altes Problem der Analysis ist es, einer Reihe mit reellen Zahlen einen Wert zuzuordnen. Ein typisches Beispiel ist die unendliche Reihe + +..., die

Mehr

Kapitel 18 Numerisches Differenzieren und Integrieren

Kapitel 18 Numerisches Differenzieren und Integrieren Kapitel 8 Numerisches Differenzieren und Integrieren 8 8 8 Numerisches Differenzieren und Integrieren.......... 43 8. Numerische Differenziation... 43 8.. Differenzenformeln für die erste Ableitung...

Mehr

Interpolation. Nadine Losert. Ausarbeitung zum Vortrag im Proseminar Analysis (Wintersemester 2008/09, Leitung PD Dr.

Interpolation. Nadine Losert. Ausarbeitung zum Vortrag im Proseminar Analysis (Wintersemester 2008/09, Leitung PD Dr. Interpolation Nadine Losert Ausarbeitung zum Vortrag im Proseminar Analysis (Wintersemester 2008/09, Leitung PD Dr. Gudrun Thäter) Zusammenfassung: Nachdem wir in den vorherigen Vorträgen verschiedene

Mehr

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest

Mehr

Mathematik für Anwender I. Beispielklausur I mit Lösungen

Mathematik für Anwender I. Beispielklausur I mit Lösungen Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Mathematik für Anwender I Beispielklausur I mit en Dauer: Zwei volle Stunden + 10 Minuten Orientierung, in denen noch nicht geschrieben werden darf.

Mehr

4. Vektorräume und Gleichungssysteme

4. Vektorräume und Gleichungssysteme technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume

Mehr

Gewöhnliche Dierentialgleichungen

Gewöhnliche Dierentialgleichungen Gewöhnliche Dierentialgleichungen sind Gleichungen, die eine Funktion mit ihren Ableitungen verknüpfen. Denition Eine explizite Dierentialgleichung (DGL) nter Ordnung für die reelle Funktion t x(t) hat

Mehr

Algebra und Diskrete Mathematik, PS3. Sommersemester Prüfungsfragen

Algebra und Diskrete Mathematik, PS3. Sommersemester Prüfungsfragen Algebra und Diskrete Mathematik, PS3 Sommersemester 2016 Prüfungsfragen Erläutern Sie die Sätze über die Division mit Rest für ganze Zahlen und für Polynome (mit Koeffizienten in einem Körper). Wodurch

Mehr

Kapitel 5 KONVERGENZ

Kapitel 5 KONVERGENZ Kapitel 5 KONVERGENZ Fassung vom 21. April 2002 Claude Portenier ANALYSIS 75 5.1 Metrische Räume 5.1 Metrische Räume DEFINITION 1 Sei X eine Menge. Eine Abbildung d : X X! R + heißt Metrik oder Distanz

Mehr

Konvergenz im quadratischen Mittel - Hilberträume

Konvergenz im quadratischen Mittel - Hilberträume CONTENTS CONTENTS Konvergenz im quadratischen Mittel - Hilberträume Contents 1 Ziel 2 1.1 Satz........................................ 2 2 Endlich dimensionale Vektorräume 2 2.1 Defintion: Eigenschaften

Mehr

Einführung in die Integralrechnung. Mag. Mone Denninger 13. November 2005

Einführung in die Integralrechnung. Mag. Mone Denninger 13. November 2005 Einführung in die Integralrechnung Mag. Mone Denninger. November 5 INHALTSVERZEICHNIS 8. Klasse Inhaltsverzeichnis Einleitung Berechnung einfacher Stammfunktionen. Integrationsregeln.........................

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Numerische Ableitung

Numerische Ableitung Numerische Ableitung Die Ableitung kann angenähert werden durch den Differentenquotient: f (x) f(x + h) f(x) h oder f(x + h) f(x h) 2h für h > 0, aber h 0. Beim numerischen Rechnen ist folgendes zu beachten:

Mehr

Mathematik für Bauingenieure

Mathematik für Bauingenieure Mathematik für Bauingenieure von Kerstin Rjasanowa 1. Auflage Mathematik für Bauingenieure Rjasanowa schnell und portofrei erhältlich bei beck-shop.de DIE FACHBUCHHANDLUNG Hanser München 2006 Verlag C.H.

Mehr

2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0!

2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0! Klausur 25.02.2004 Aufgabe 5 Gegeben ist die Funktion f(x) = 2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0! Klausur 06.08.2003 Aufgabe 5 Gegeben ist

Mehr

Iterative Lösung Linearer Gleichungssysteme

Iterative Lösung Linearer Gleichungssysteme Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Eingebettete Runge Kutta Verfahren DOPRI5(4) Verfahren: FSAL Verfahren

Eingebettete Runge Kutta Verfahren DOPRI5(4) Verfahren: FSAL Verfahren Eingebettete Runge Kutta Verfahren DOPRI5(4) Verfahren: FSAL Verfahren 0 1 5 3 10 4 5 8 9 1 5 3 9 40 40 44 45 56 15 19372 6561 25360 2187 9017 1 3168 355 33 1 35 348 0 500 1113 35 500 p = 5 348 0 1113

Mehr

27 Taylor-Formel und Taylor-Entwicklungen

27 Taylor-Formel und Taylor-Entwicklungen 136 IV. Unendliche Reihen und Taylor-Formel 27 Taylor-Formel und Taylor-Entwicklungen Lernziele: Konzepte: klein o - und groß O -Bedingungen Resultate: Taylor-Formel Kompetenzen: Bestimmung von Taylor-Reihen

Mehr

Thema 10 Gewöhnliche Differentialgleichungen

Thema 10 Gewöhnliche Differentialgleichungen Thema 10 Gewöhnliche Differentialgleichungen Viele Naturgesetze stellen eine Beziehung zwischen einer physikalischen Größe und ihren Ableitungen (etwa als Funktion der Zeit dar: 1. ẍ = g (freier Fall;

Mehr

Zahlen und Gleichungen

Zahlen und Gleichungen Kapitel 2 Zahlen und Gleichungen 21 Reelle Zahlen Die Menge R der reellen Zahlen setzt sich zusammen aus den rationalen und den irrationalen Zahlen Die Mengen der natürlichen Zahlen N, der ganzen Zahlen

Mehr

Modellfall. Orthogonalität trigonometrischer Funktionen. Anwendungen: f : (0, L) R gegeben.

Modellfall. Orthogonalität trigonometrischer Funktionen. Anwendungen: f : (0, L) R gegeben. Modellfall Anwendungen: Fragen: Digitalisierung / digitale Darstellung von Funktionen, insbesondere für Ton- und Bilddaten Digitale Frequenzfilter Datenkompression: Abspeichern der unteren Frequenzen Lösung

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

Addition, Subtraktion und Multiplikation von komplexen Zahlen z 1 = (a 1, b 1 ) und z 2 = (a 2, b 2 ):

Addition, Subtraktion und Multiplikation von komplexen Zahlen z 1 = (a 1, b 1 ) und z 2 = (a 2, b 2 ): Komplexe Zahlen Definition 1. Eine komplexe Zahl z ist ein geordnetes Paar reeller Zahlen (a, b). Wir nennen a den Realteil von z und b den Imaginärteil von z, geschrieben a = Re z, b = Im z. Komplexe

Mehr

Explizite Formeln für rekursiv definierte Folgen

Explizite Formeln für rekursiv definierte Folgen Schweizer Mathematik-Olympiade Explizite Formeln für rekursiv definierte Folgen Aktualisiert: 6 Juni 014 In diesem Skript wird erklärt, wie man explizite Formeln für rekursiv definierte Folgen findet Als

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D. Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion

Mehr

Aufgaben zur Analysis I aus dem Wiederholungskurs

Aufgaben zur Analysis I aus dem Wiederholungskurs Prof. Dr. H. Garcke, Dr. H. Farshbaf-Shaker, D. Depner WS 8/9 Hilfskräfte: A. Weiß, W. Thumann 6.3.29 NWF I - Mathematik Universität Regensburg Aufgaben zur Analysis I aus dem Wiederholungskurs Die folgenden

Mehr

Übungen zu Einführung in die Numerische Mathematik (V2E2) Sommersemester 2016

Übungen zu Einführung in die Numerische Mathematik (V2E2) Sommersemester 2016 Übungen zu Einführung in die Numerische Mathematik (VE) Sommersemester 6 Prof. Dr. Martin Rumpf Pascal Huber Sascha Tölkes Übungsblatt 8 Abgabe:.6.6 Aufgabe 5 (Elliptisches Randwertproblem auf einem Ring)

Mehr

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.

Mehr

Analysis für Wirtschaftswissenschaftler und Ingenieure

Analysis für Wirtschaftswissenschaftler und Ingenieure Dieter Hoffmann 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Analysis für Wirtschaftswissenschaftler und Ingenieure

Mehr

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J} 9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen

Mehr

ε δ Definition der Stetigkeit.

ε δ Definition der Stetigkeit. ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x

Mehr

Weitere einfache Eigenschaften elementarer Funktionen

Weitere einfache Eigenschaften elementarer Funktionen Kapitel 6 Weitere einfache Eigenschaften elementarer Funktionen 6.1 Polynome Geg.: Polynom vom Grad n p(x) = a 0 + a 1 x +... + a n 1 x n 1 + a n x n, also mit a n 0. p(x) = x n ( a 0 x + a 1 n x +...

Mehr

Mathematik 1 für Informatiker und Wirtschaftsinformatiker Wintersemester 07/08 (Winkler) Musterprüfung mit Lösungen

Mathematik 1 für Informatiker und Wirtschaftsinformatiker Wintersemester 07/08 (Winkler) Musterprüfung mit Lösungen Mathematik für Informatiker und Wirtschaftsinformatiker Wintersemester 07/08 (Winkler Musterprüfung mit Lösungen. Sei T N. (a Unter welchen beiden Voraussetzungen an T garantiert das Induktionsaxiom (nach

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 4

Technische Universität München Zentrum Mathematik. Übungsblatt 4 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 4 Hausaufgaben Aufgabe 4. Gegeben sei die Funktion f : D R mit f(x) :=

Mehr

Inhaltsverzeichnis. 1 Definition: Interpolationsproblem 2 1.1 Problemstellung... 2 1.2 Eigenschaften... 2 1.3 Varianten... 2

Inhaltsverzeichnis. 1 Definition: Interpolationsproblem 2 1.1 Problemstellung... 2 1.2 Eigenschaften... 2 1.3 Varianten... 2 Dieser Artikel behandelt einige Interpolationsverfahren. Numerische Verfahren kann man nur mit der dazugehörigen Theorie verstehen und anwenden. Daher sind hier auch Theorie-Anteile und Beweise enthalten.

Mehr

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de

Mehr

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 3/4 (.3.4). (a) Für z = + i und z = 3 4i berechne man z z und z z. Die Ergebnisse sind in kartesischer Form anzugeben.

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

In der Praxis werden wir häufig mit relativ komplexen Funktionen konfrontiert. y

In der Praxis werden wir häufig mit relativ komplexen Funktionen konfrontiert. y Approximationen In der Praxis werden wir häufig mit relativ komplexen Funktionen konfrontiert. y y = f (x) x Um das Arbeiten mit einer komplizierten Funktion zu vermeiden, können wir versuchen, diese Funktion

Mehr

Mathematik 3 für Informatik

Mathematik 3 für Informatik Gunter Ochs Wintersemester 5/6 Mathematik 3 für Informatik Lösungen zum Hausaufgabenblatt Lösungshinweise ohne Garnatie auf Fehlerfreiheit c 5. Berechnen Sie die folgenden unbestimmten Integrale: a x 4

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

4.1. Grundlegende Definitionen. Elemente der Analysis I Kapitel 4: Funktionen einer Variablen. 4.2 Graphen von Funktionen

4.1. Grundlegende Definitionen. Elemente der Analysis I Kapitel 4: Funktionen einer Variablen. 4.2 Graphen von Funktionen 4.1. Grundlegende Definitionen Elemente der Analysis I Kapitel 4: Funktionen einer Variablen Prof. Dr. Volker Schulz Universität Trier / FB IV / Abt. Mathematik 22./29. November 2010 http://www.mathematik.uni-trier.de/

Mehr

April (Voll-) Klausur Analysis I für Ingenieure. Rechenteil

April (Voll-) Klausur Analysis I für Ingenieure. Rechenteil April (Voll-) Klausur Analysis I für Ingenieure en Rechenteil Aufgabe 7 Punkte (a) Skizzieren Sie die 4-periodische Funktion mit f() = für und f() = für (b) Berechnen Sie für diese Funktion die Fourierkoeffizienten

Mehr

Funktionsgrenzwerte, Stetigkeit

Funktionsgrenzwerte, Stetigkeit Funktionsgrenzwerte, Stetigkeit Häufig tauchen in der Mathematik Ausdrücke der Form lim f(x) auf. x x0 Derartigen Ausdrücken wollen wir jetzt eine präzise Bedeutung zuweisen. Definition. b = lim f(x) wenn

Mehr

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x

Mehr

Folgen, Reihen, Grenzwerte u. Stetigkeit

Folgen, Reihen, Grenzwerte u. Stetigkeit Folgen, Reihen, Grenzwerte u. Stetigkeit Josef F. Bürgler Abt. Informatik HTA Luzern, FH Zentralschweiz HTA.MA+INF Josef F. Bürgler (HTA Luzern) Einf. Infinitesimalrechnung HTA.MA+INF 1 / 33 Inhalt 1 Folgen

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

3 Nichtlineare Gleichungssysteme

3 Nichtlineare Gleichungssysteme 3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )

Mehr

Mitschrift Mathematik, Vorlesung bei Dan Fulea, 2. Semester

Mitschrift Mathematik, Vorlesung bei Dan Fulea, 2. Semester Mitschrift Mathematik, Vorlesung bei Dan Fulea, 2. Semester Christian Nawroth, Erstellt mit L A TEX 23. Mai 2002 Inhaltsverzeichnis 1 Vollständige Induktion 2 1.1 Das Prinzip der Vollstandigen Induktion................

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

Folgerungen aus dem Auflösungsatz

Folgerungen aus dem Auflösungsatz Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und

Mehr

Differenzengleichungen. und Polynome

Differenzengleichungen. und Polynome Lineare Differenzengleichungen und Polynome Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-600 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung Mit linearen Differenzengleichungen

Mehr

Übungen zur Vorlesung MATHEMATIK II

Übungen zur Vorlesung MATHEMATIK II Fachbereich Mathematik und Informatik der Philipps-Universität Marburg Übungen zur Vorlesung MATHEMATIK II Prof. Dr. C. Portenier unter Mitarbeit von Michael Koch Marburg, Sommersemester 2005 Fassung vom

Mehr

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z R Es sei f : R n D R eine einmal stetig differenzierbare Funktion, für die in einer Umgebung eines Punkte a = a 1, a,, a n D gilt: fa 1, a,, a n = 0, f xn a 1, a,, a n 0 Dann gibt es eines Umgebung U des

Mehr

Analysis I - Stetige Funktionen

Analysis I - Stetige Funktionen Kompaktheit und January 13, 2009 Kompaktheit und Funktionengrenzwert Definition Seien X, d X ) und Y, d Y ) metrische Räume. Desweiteren seien E eine Teilmenge von X, f : E Y eine Funktion und p ein Häufungspunkt

Mehr

Allgemeines Gleichungssystem mit zwei Gleichungen und zwei Variablen. Der erste Index bezeichnet die Nummer der Zeile, der zweite die der Spalte.

Allgemeines Gleichungssystem mit zwei Gleichungen und zwei Variablen. Der erste Index bezeichnet die Nummer der Zeile, der zweite die der Spalte. Lineare Gleichungssysteme. Einleitung Lineare Gleichungssysteme sind in der Theorie und in den Anwendungen ein wichtiges Thema. Theoretisch werden sie in der Linearen Algebra untersucht. Die Numerische

Mehr

Γ = {(x, f(x)) : x R} R 2

Γ = {(x, f(x)) : x R} R 2 Numerik I. Version: 29.5.8 46 4 Interpolation 4.1 Einführung Nehmen wir an, dass eine Funktion f : R R eine physikalische Größe beschreibt und wir ihre Werte an n+1 verschiedenen Punkten x, x 1,...,x n

Mehr

24.1 Überblick. 24.2 Beispiele. A. Bestimmen einer ganzrationalen Funktion. 24. Interpolation mit Ableitungen

24.1 Überblick. 24.2 Beispiele. A. Bestimmen einer ganzrationalen Funktion. 24. Interpolation mit Ableitungen 4. Interpolation mit Ableitungen 4. Interpolation mit Ableitungen 4.1 Überblick Die Interpolationsaufgabe haben wir bereits in Kapitel 7 (Band Analysis 1) untersucht. Als Auffrischung: Zu n vorgegebenen

Mehr

Numerische Mathematik

Numerische Mathematik Günther Hämmerlin Karl-Heinz Hoffmann Numerische Mathematik Vierte, nochmals durchgesehene Auflage Mit 72 Abbildungen Springer-Verlag Berlin Heidelberg New York London Paris Tokyo HongKong Barcelona Budapest

Mehr

Definition: Differenzierbare Funktionen

Definition: Differenzierbare Funktionen Definition: Differenzierbare Funktionen 1/12 Definition. Sei f :]a, b[ R eine Funktion. Sie heißt an der Stelle ξ ]a, b[ differenzierbar, wenn der Grenzwert existiert. f(ξ + h) f(ξ) lim h 0 h = lim x ξ

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 5 Anwendungen der Differentialrechnung 5.1 Maxima und Minima einer Funktion......................... 80 5.2 Mittelwertsatz.................................... 82 5.3 Kurvendiskussion..................................

Mehr

cos(kx) sin(nx)dx =?

cos(kx) sin(nx)dx =? 3.5 Fourierreihen 3.5.1 Vorbemerkungen cos(kx) sin(nx)dx =? cos gerade Funktion x cos(kx) gerade Funktion sin ungerade Funktion x sin(nx) ungerade Funktion x cos(kx) sin(nx) ungerade Funktion Weil [, π]

Mehr

Kapitel III. Stetige Funktionen. 14 Stetigkeit und Rechenregeln für stetige Funktionen. 15 Hauptsätze über stetige Funktionen

Kapitel III. Stetige Funktionen. 14 Stetigkeit und Rechenregeln für stetige Funktionen. 15 Hauptsätze über stetige Funktionen Kapitel III Stetige Funktionen 14 Stetigkeit und Rechenregeln für stetige Funktionen 15 Hauptsätze über stetige Funktionen 16 Konvergenz von Funktionen 17 Logarithmus und allgemeine Potenz C 1 14 Stetigkeit

Mehr

y = A(x) y + b(x). (1) y = A(x) y (2)

y = A(x) y + b(x). (1) y = A(x) y (2) 73 5.2 Lineare Systeme Sei weiterhin IK = C oder IK = IR. Seien = I IR ein offenes Intervall, x 0 I, y 0 IK n, A: I IK n n und b: I IK n stetige matrix- bzw vektorwertige Funktionen. Wir betrachten komplexe

Mehr

SS 2016 Höhere Mathematik für s Studium der Physik 21. Juli Probeklausur. Die Antworten zu den jeweiligen Fragen sind in blauer Farbe notiert.

SS 2016 Höhere Mathematik für s Studium der Physik 21. Juli Probeklausur. Die Antworten zu den jeweiligen Fragen sind in blauer Farbe notiert. SS 6 Höhere Mathematik für s Studium der Physik. Juli 6 Probeklausur Die Antworten zu den jeweiligen Fragen sind in blauer Farbe notiert. Fragen Sei (X, d) ein metrischer Raum. Beantworten Sie die nachfolgenden

Mehr