Numerische und stochastische Grundlagen der Informatik

Größe: px
Ab Seite anzeigen:

Download "Numerische und stochastische Grundlagen der Informatik"

Transkript

1 Numerisce und stocastisce Grundlagen der Informatik Peter Bastian Universität Stuttgart, Institut für Parallele und Verteilte Systeme Universitätsstraße 38, D Stuttgart September 2008 $Id:numstoc-main.tex :44:15Zbastian$

2

3 Inaltsverzeicnis Inaltsverzeicnis 1 Warum Numerik und Stocastik? Modellbildung und Simulation Ein einfaces Beispiel: Das Fadenpendel Wo kommt jetzt die Stocastik ins Spiel? Inaltsübersict der Vorlesung Zusammenfassung I Gleitpunktzalen 19 2 Fließkommazalen und Fließkommaaritmetik Fließkommadarstellung von Zalen Runden und Rundungsfeler Fließkommaaritmetik Der IEEE-754 Standard Zusammenfassung Feleranalyse Auslöscung Rundungsfeleranalyse Konditionsanalyse Rückwärtsfeleranalyse Zusammenfassung II Interpolation 37 4 Lagrange-Interpolation Motivation und Aufgabenstellung Polynome Lagrange-Interpolation Felerabscätzung Kondition Horner Scema Anwendung: Numerisce Differentation Zusammenfassung Newton-Interpolation und Bernstein-Interpolation Newton-Interpolation Neville-Darstellung Bernstein-Polynome Algoritmus von de Casteljau Kurveninterpolation Zusammenfassung Stückweise Polynome 67 1

4 Inaltsverzeicnis 6.1 Einfürung und Aufgabenstellung Kubisce Splines Polynome in mereren Raumdimensionen Zusammenfassung Trigonometrisce Interpolation Trigonometrisce Polynome Diskrete Fourier-Analyse Praktisces zur Diskreten Fourier Analyse Trigonometrisce Approximation Scnelle Fourier-Transformation Zusammenfassung III Numerisce Integration 97 8 Quadraturen niedriger Ordnung Die Integrationsaufgabe Newton-Cotes Formeln Summierte Quadraturformeln Felerkontrolle Zusammenfassung Quadraturen öerer Ordnung Romberg-Integration Gauss-Integration Adaptive Quadratur Merdimensionale Quadratur Zusammenfassung IV Gleicungssysteme Lineare Gleicungssysteme und Gauß-Elimination Motivation Aufgabenstellung Kondition der Lösung linearer Gleicungssysteme Gauß - Elimination Zusammenfassung Pivotisierung und LR-Zerlegung Pivotisierung LR-Zerlegung Berecnung der Inversen Rangbestimmung Tridiagonalsysteme Zusammenfassung Iterative Lösung linearer Gleicungssysteme 143 2

5 Inaltsverzeicnis 12.1 Dünnbesetzte Matrizen Relaxationsverfaren Matrixscreibweise der Relaxationsverfaren Konvergenzanalyse Diagonaldominante Matrizen Praktisce Realisierung Datenstrukturen für dünnbesetzte Matrizen Abstiegsverfaren Zusammenfassung Lösung nictlinearer Gleicungssysteme Aufgabenstellung Intervallscactelung (Bisektion) Fixpunktiteration Newton-Verfaren Newton-Verfaren im R n Zusammenfassung V Gewönlice Differentialgleicungen Einfürung in Gewönlice Differentialgleicungen Motivation Problemstellung Weitere Beispiele für gewönlice Differentialgleicungen Zur Teorie gewönlicer Differentialgleicungen Zusammenfassung Einige einface Verfaren Expliziter Euler Impliziter Euler Trapezregel Mittelpunktregel Anwendung auf ein Modellproblem Lineare Merscrittverfaren Zusammenfassung Konvergenz, Stabilität und dynamisce Systeme Konvergenz von Einscrittverfaren Runge-Kutta-Verfaren Verfarensstabilität Steife Systeme Inärente Instabilität Dynamisce Systeme Zusammenfassung VI Diskrete Warsceinlickeitsräume 201 3

6 Inaltsverzeicnis 17 Einfürung in die Warsceinlickeitsteorie Determinismus und Zufall Zufallsexperiment und Warsceinlickeitsraum Gesetzmäßigkeiten für Warsceinlickeitsmaße Zusammenfassung Bedingte Warsceinlickeiten Recnen mit Warsceinlickeiten Bedingte Warsceinlickeiten Zusammenfassung Unabängigkeit von Ereignissen Unabängigkeit zweier Ereignisse Unabängigkeit von mer als zwei Ereignissen Zusammenfassung Zufallsvariablen Einfürung des Begriffes Erwartungswert Varianz Merere Zufallsvariablen Zusammengesetzte Zufallsvariablen Zusammenfassung Diskrete Verteilungen Bernoulli-Verteilung Binomial-Verteilung Geometrisce Verteilung Poisson-Verteilung Zusammenfassung Asymptotik Ungleicungen von Markov und Cebysev Gesetz der großen Zalen Zusammenfassung VII Kontinuierlice Warsceinlickeitsräume Kontinuierlice Warsceinlickeitsräume Einfürung in kontinuierlice Warsceinlickeitsräume Recnen mit kontinuierlicen ZV Simulation von ZV Erwartungswert und Varianz Bertrand sces Paradoxon Gleicverteilung Normalverteilung; Zentraler Grenzwertsatz

7 Inaltsverzeicnis 23.8 Exponentialverteilung Zusammenfassung Literaturverzeicnis 281 5

8 Inaltsverzeicnis 6

9 Inaltsverzeicnis Vorwort Ziel dieser Vorlesung für Informatiker und Softwaretecniker im 3. Semester ist es eine Einfürung in grundlegende Begriffe und Metoden der Numerik und der Stocastik zu geben. Besonderer Wert wird auc auf eine Begründung der Metoden gelegt, da nur so deren Grenzen erkannt werden können. Erstmals stet im Wintersemester 2007/2008 ein Skript zur Vorlesung und ein Foliensatz zur Verfügung. Für die Erfassung des Textes in L A TEX danke ic Herrn Pascal Jäger rect erzlic. Alle verbleibenden Feler geen natürlic auf mein Konto. Stuttgart, im Oktober 2007 Peter Bastian 7

10 Inaltsverzeicnis 8

11 1 Warum Numerik und Stocastik? 1.1 Modellbildung und Simulation Die Wissenscaftlice Metode bestet aus den beiden Säulen Experiment und Teorie: Aus der Teorie werden Sclussfolgerungen gezogen und mit dem Experiment verglicen. Die Teorie bestet in den exakten Wissenscaften meist aus matematiscen Gleicungen (z. B. Differentialgleicungen). Teorie und Experiment werden sukzessive verfeinert und verglicen bis eine akzeptable Übereinstimmung vorliegt. Man untersceidet deterministisce und stocastisce Modelle: Deterministisc: Modell bescreibt eine Größe (z. B. Temperatur) in Abängigkeit anderer Größen (z. B. Raum, Zeit) in eindeutiger Weise. Stocastisc: Modell bescreibt Warsceinlickeiten in Abängigkeit von Parametern. Oft können die Modellgleicungen nict gesclossen (mit Papier und Bleistift oder Matematica... ) gelöst werden. Dann fürt man eine numerisce Simulation durc. Die Simulation (auc Wissenscaftlices Recnen) genannt etabliert sic immer mer als dritte Säule neben Teorie und Experiment. Vorteile sind: Undurcfürbare Experimente werden möglic (z. B. Galaxienkollisionen). Teuere Experimente werden eingespart (z. B. Modelle im Windkanal). (Automatisce) Optimierung von Prozessen. Daer vielfältiger Einsatz auc in Industrie und Tecnik (etwa bei Strömungsberecnung, Festigkeit von Bauwerken). Grundlage für alle diese Anwendungen sind numerisce Algoritmen! Diese Vorlesung ist auc wictige Voraussetzung für die Visualisierung, Recnerarcitektur, Grafisce Ingenieursysteme,... Die prinzipielle Herangeensweise im Wissenscaftlicen Recnen zeigt Abbildung 1. Die erfolgreice Durcfürung einer Simulation erfordert die interdisziplinäre Zusammenarbeit von Pysikern oder Ingenieuren mit Matematikern und Informatikern. Die Informatik leistet ier iren Beitrag vor allem bei der Softwareentwicklung (auc Simulationsprogramme können ser komplex sein), der Visualisierung und im (parallelen) Höcstleistungsrecnen. In der Regel gibt es Untersciede zwiscen den simulierten und experimentell bestimmten Größen. Diese Untersciede können versciedene Gründe aben: Modellfeler: Ein relevanter Prozess wurde nict oder ungenau modelliert (Temp. konstant, Luftwiderstand vernaclässigt,... ) Datenfeler: Messungen von Anfangsbedingungen, Randbedingungen, Werten für Parameter sind felerbeaftet. 9

12 1 Warum Numerik und Stocastik?? Realität Simulation konzeptionelles Modell wesentlice Prozesse Transport von Materie Wellenausbreitung Reaktion Pasenübergänge... Computerprogramm Komplexe SW SW Engineering, Qualität Effizienz ("Terraflop") Hig Performance Comp. Visualisierung matematisces Modell algebraisce Gleicungen Differentialgleicungen Warsceinlickeiten Objekte: reelle Zalen, Funktionen,... numerisces Modell Näerungsverfaren zur Lösung oben genannter Gleicungen Abbildung 1: Prinzipielles Vorgeen im Wissenscaftlicen Recnen. Rundungsfeler: Reelle Zalen werden im Recner genäert dargestellt. Diskretisierungsfeler: Funktionen müssen approximiert werden, z. B. durc (stückweise) Polynome, endlice Fourierreie. Abbrucfeler: Reienentwicklungen, Iterationen müssen irgendwann abgebrocen werden. Sensibilisierung gegenüber diesen Felerquellen ist ein Hauptanliegen der Vorlesung! 1.2 Ein einfaces Beispiel: Das Fadenpendel Pisa, Der Student Galileo Galilei sitzt in der Kirce und im ist langweilig. Er beobactet den langsam über im pendelnden Kerzenleucter über im und denkt: Wie kann ic nur die Bewegung dieses Leucters bescreiben?. Abbildung 2 zeigt das Fadenpendel welces aus dem sogenannten konzeptionellen Modell resultiert. Beim konzeptionellen Modell mact man sic Gedanken welce Eigenscaften (pysikaliscen Prozesse) für die zu beantwortende Frage (Bewegung des Pendels) relevant sind (inklusive Genauigkeit) Wir entsceiden uns für folgende Näerungen: Leucter ist ein Massenpunkt mit der Masse m. Der Faden der Länge l wird als rigide und masselos angenommen. 10

13 1.2 Ein einfaces Beispiel: Das Fadenpendel (0, 0) φ l F T m FN F Abbildung 2: Das Fadenpendel. Der Luftwiderstand wird vernaclässigt. Nun soll ein matematisces Modell entwickelt werden. Wir beginnen mit der Frage welce Kräfte auf den Körper wirken. Der Körper wird auf eine Kreisban gezwungen; nur die Tangentialkraft ist relevant. In Abängigkeit der Auslenkung φ lautet diese: F T (φ) = mg sin(φ)( cos(φ) sin(φ) ). Beispiel: F T (0) = mg ( 0 0 ) (, F 0 T (π/2) = mg 1 ). Dies überlegt man sic so. Die Gewictskraft zeigt immer nac unten, also ( ) 0 F(φ) = mg. 1 Die Normalkomponente zeigt immer in Rictung n(φ) = (sinφ, cos φ) T und damit ist die Kraft in Normalenrictung [ ( ) ( )] ( ) F N (φ) = ( F(φ) 0 sinφ sinφ n(φ)) n = mg 1 cos φ cos φ ( sin φ = mg cos φ cos φ ). 11

14 1 Warum Numerik und Stocastik? Damit recnet man die Tangentialkraft aus F T (φ) + F N (φ) = F(φ) aus: ( ) ( ) F T (φ) = F(φ) F 0 sinφ N (φ) = mg mg cos φ = mg 1 cos φ ( cos φ = mg sinφ sinφ ). ( cos φsin φ 1 cos 2 φ Beacte: Auslenkung entegen Urzeigersinn ist positiv, sonst negativ. Auc eine Auslenkung größer π mact Sinn: rotierende Sciffscaukel. Nac dem 2. Newton scen Gesetz gilt nun (Kraft gleic Masse mal Bescleunigung). F(t) = ma(t) Die Bescleunigung a(t), Gescwindigkeit v(t) und zurückgelegter Weg s(t) ängen zusammen über a(t) = dv(t), v(t) = ds(t). dt dt Für unser Pendel gilt s(t) = lφ(t) (Setze z. B. φ = 2π ein) und damit ) v(t) = d s(φ(t)) dt = d lφ(t) dt = l dφ(t) dt und entsprecend a(t) = d v(φ(t)) dt Einsetzen in das 2. Newton sce Gesetz liefert nun: = l d2 φ dt 2 (t). ml d2 φ(t) dt 2 = mg sin(φ(t)) t > t 0. Die Kraft ist ier skalar (vorzeicenbeafteter Betrag der Tangentialkraft), da wir nur den zurückgelegten Weg betracten. Das Vorzeicen bescreibt die Rictung (rects ist positiv). Dies ist eine gewönlice Differentialgleicung 2. Ordnung für die Auslenkung φ in Abängigkeit von der Zeit: d 2 φ(t) dt 2 = g l sin(φ(t)) t > t 0. (1.1) Um diese Gleicung eindeutig lösen zu können benötigt man noc zwei Anfangsbedingungen (wegen der zweiten Ordnung): (Wir aben ier t 0 = 0 gesetzt). φ(0) = φ 0, dφ dt (0) = u 0. (1.2) Diese allgemeine Gleicung für das Pendel ist scwer analytisc zu lösen. 12

15 1.2 Ein einfaces Beispiel: Das Fadenpendel Für kleine Winkel φ gilt allerdings in guter Näerung z.b. sin(0.1) = 0, sin(φ) φ, Mit dieser Näerung reduziert sic die Gleicung zu die man leict lösen kann. d 2 φ(t) dt 2 = g l φ(t). Der Ansatz φ(t) = A cos(ωt) liefert mit φ(0) = φ 0, dφ dt (0) = 0 dann die aus der Scule bekannte Formel ( ) g φ(t) = φ 0 cos l t (1.3) Die volle Gleicung wollen wir numerisc mit zwei versciedenen Verfaren lösen. Zunäcst screiben wir die eine Gleicung in zwei Gleicungen erster Ordnung um (Das get übrigens immer!): dφ(t) dt = u(t), d 2 φ(t) dt 2 = du(t) dt = g l sin(φ(t)). Nun ersetzen wir die Ableitungen durc Differenzenquotienten: φ(t + t) φ(t) t u(t + t) u t dφ(t) dt du(t) dt = u(t), = g l sin(φ(t)). Mit φ n = φ(n t), u n = u(n t) eralten wir die Rekursion: φ n+1 = φ n + t u n φ 0 = φ 0 (1.4) u n+1 = u n t (g/l) sin(φ n ) u 0 = u 0 (1.5) Dieses Verfaren ist nict das einzig möglice. Man kann auc eine Näerungsformel für die zweite Ableitung nutzen ( Zentraler Differenzenquotient ): φ(t + t) 2φ(t) + φ(t t) t 2 d2 φ(t) dt 2 = g l sin(φ(t)). Löst man nac φ(t + t) auf so ergibt sic die Rekursionsformel (n 2): φ n+1 = 2φ n φ n 1 t 2 (g/l) sin(φ n ) (1.6) 13

16 1 Warum Numerik und Stocastik? Konvergenz Differenzenquotient (Euler), pi=0.1 vereinfactes Modell dt=0.2 dt=0.1 dt=0.01 dt=0.001 Auslenkung Zeit Abbildung 3: Simulation des Fadenpendels (volles Modell) bei φ 0 = mit dem Eulerverfaren. mit der Anfangsbedingung φ 0 = φ 0, φ 1 = φ 0 + t u 0. (1.7) (Die zweite Bedingung kommt aus dem Eulerverfaren oben). Nun auf zum Computer! Abbildung 3 zeigt das Eulerverfaren in Aktion. Für festen Zeitpunkt t und t 0 konvergiert das Verfaren. Für festes t und t nimmt das Verfaren immer größere Werte an. Abbildung 4 zeigt zum Vergleic das zentrale Verfaren für die gleice Anfangsbedingung. Im Unterscied zum expliziten Euler sceint das Verfaren bei festem t und t nict unbescränkt zu wacsen. Nun können wir das volle Modell mit dem vereinfacten Modell vergleicen und seen welce Auswirkungen die Anname sin φ φ auf das Ergebnis at. Abbildung 5 zeigt die numerisce Simulation. Selbst bei 28.6 ist die Übereinstimmung noc einigermaßen passabel. Für große Auslenkungen ist das vereinfacte Modell völlig unbraucbar. Die Form der Scwingung ist kein Kosinus mer. Das Pendel wird nae π immer langsamer. Das ist die Sciffscaukel, die fast auf dem Kopf stet. 14

17 1.3 Wo kommt jetzt die Stocastik ins Spiel? Konvergenz zentriertes Verfaren, pi=0.1 vereinfactes Modell dt=0.2 dt=0.1 dt=0.01 dt= Auslenkung Zeit Abbildung 4: Simulation des Fadenpendels (volles Modell) bei φ 0 = mit dem zentralen Verfaren. Wie würde denn die Kurve bei einer umlaufenden Sciffscaukel ausseen? 1.3 Wo kommt jetzt die Stocastik ins Spiel? Das Pendel ist ein klassisces Beispiel des Determinismus des 18. Jarunderts: Sind nur die Anfangsbedingungen bekannt kann alles mittels matematiscer Gleicungen vorergesagt werden. Lotto (6 aus 49) ist ein sogenanntes Merkörpersystem das auc durc matematisce Gleicungen und den Anfangszustand bescrieben werden kann. Warum recnet dann niemand die näcsten Lottozalen aus? Dynamisce Systeme: Es gibt Systeme bei denen winzigste Untersciede am Anfang nac endlicer Zeit ser große Untersciede im Zustand bewirken können ( Caos ). Diese System sind praktisc nict vorersagbar. Stocastisce Modelle bescreiben und untersucen Vorgänge, die zufällig oder vom Zufall beeinflusst sind im Sinne von nict vorersagbar [Hüb03]. Je nac Anwendung benutzt man stocastisce oder deterministisce Modelle (oder beides kombiniert) um ein System zu bescreiben. 1.4 Inaltsübersict der Vorlesung Wie in jedem Wissensgebiet muss man auc ier besceiden beginnen. 15

18 1 Warum Numerik und Stocastik? Wir werden in dieser Vorlesung die folgenden Temengebiete beandeln Gleitpunktzalen, Gleitpunktaritmetik (2 Vorlesungen) Interpolation, Darstellung von Funktionen (4 Vorlesungen) Numerisce Integration (2) Lösen linearer und nictlinearer Gleicungen (5) Lösen gewönlicer Differentialgleicungen (2) Diskrete Warsceinlickeitsräume (4) Kontinuierlice Warsceinlickeitsräume (2) Statistik (1) Die Zal in Klammern gibt die Anzal der Vorlesungen zu diesem Tema an. 1.5 Zusammenfassung Modellbildung und Simulation bzw. Wissenscaftlices Recnen etabliert sic als dritte Säule in der Wissenscaftlicen Metode: Man erält Einsict in komplexe Systeme, die nur mit Papier und Bleistift nict möglic ist (im Sinne einer Ergänzung!). Undurcfürbare und/oder teuere Experimente können ersetzt werden. Optimierung tecniscer Anlagen wird möglic. Dies at vielfältige Anwendungen in Wissenscaft und Industrie. Informatiker tragen in diesem Umfeld z. B. in der Softwareentwicklung, Visualisierung und Höcstleistungsrecnen bei. Je nac Anwendungsfall werden stocastisce und/oder deterministisce Modelle verwendet. Mit dem Fadenpendel wurde das typisce Vorgeen bei einer deterministisce Modellierung und Simulation illustriert. Es wurden die zwei Felerarten Modellfeler und Diskretisierungsfeler demonstriert. 16

19 1.5 Zusammenfassung Zentriertes Verfaren, pi=0.5 vereinfactes Modell dt=0.01 dt= Auslenkung Zeit 4 3 Zentriertes Verfaren, pi=3.0 vereinfactes Modell dt= Auslenkung Zeit 4 3 Zentriertes Verfaren, pi=3.14 vereinfactes Modell dt= Auslenkung Zeit Abbildung 5: Vergleic von vollem und vereinfactem Modell (jeweils in rot) bei den Winkeln φ = 0.5, 3.0, 3.14 gerecnet mit dem zentralen Verfaren. 17

20 1 Warum Numerik und Stocastik? 18

21 2 Fließkommazalen und Fließkommaaritmetik Alle Programmierspracen stellen elementare Datentypen zur Repräsentation von Zalen zur Verfügung. In C/C++ gibt es die folgenden: unsigned int N 0 int Z float R double R complex<double> C Diese sind Idealisierungen der Zalenmengen N 0, Z, R, C aus der Matematik. Bei unsigned int und int bestet die Idealisierung darin, dass es eine größte (bzw. kleinste) darstellbare Zal gibt. Ansonsten sind die Ergebnisse exakt. Bei float und double kommt inzu, dass die meisten inneralb des erlaubten Bereics liegenden Zalen nur näerungsweise dargestellt werden können. Dies at allerand Auswirkungen, wenn man mit diesen Zalen recnet. Beispiel 2.1 (Potenzreie für e x ). e x lässt sic mit einer Potenzreie berecnen: e x = 1 + x n n! = 1 + y n. n=1 n=1 Algoritmisc formulieren wir und berecnen für n = 2, 3,... y 1 = x; S 1 = 1 + y 1 y n = x n y n 1; S n = S n 1 + y n. unter Nutzung versciedener Genauigkeiten für die Fließkommaaritmetik. Für x = 1 und float-genauigkeit eralten wir: # S_n y_n e e e e e e e e e e e e e e e e e e e e e e+00 ex E0... also 7 gültige Ziffern. Für x = e e-06 ex E2... dito. Für x = 1 und float-genauigkeit eralten wir: 19

22 2 Fließkommazalen und Fließkommaaritmetik e e e e e e-09 ex E gültige Ziffern und für x = 5 # S_n y_n e e e e e e e e e e e e e e e e+00 ex E-3 nur noc 4 gültige Ziffern. Für x = 20 und float-genauigkeit sind... # S_n y_n e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e-08 ex E-9 keine Ziffern mer gültig. Das Ergebnis ist um 8 Größenordnungen daneben! Für x = 20 und double-genauigkeit erält man # S_n y_n e e e e e e e e-25 ex E-9 Immer noc um einen Faktor 3 daneben! Erst mit vierfacer Genauigkeit erält man # S_n y_n E E E E-42 ex E-9 15 gültige Ziffern (bei ca 30 Ziffern Recengenauigkeit ). Dieses Beispiel wirft die folgenden Fragen auf: Was bedeutet überaupt Recengenauigkeit. Welce Genauigkeit können wir erwarten? Wo kommen diese Feler er? 20

23 2.1 Fließkommadarstellung von Zalen Wie werden denn solce Kommazalen dargestellt und verarbeitet? Bemerkung 2.2 (Hig-Precision Pakete). Obige Berecnungen wurden mit den Paketen qd und arprec (beide ttp://crd.lbl.gov/~dbailey/mpdist/) durcgefürt. qd erlaubt bis zu vierface double Genauigkeit, arprec beliebige Genauigkeit. Die GNU multiprecision library (ttp://gmplib.org/) ist eine Alternative. 2.1 Fließkommadarstellung von Zalen Zalen werden in einem Stellenwertsystem (auc polyadisces Zalensystem) folgendermaßen dargestellt; x = ±...m n β n m 1 β 1 + m 0 + m 1 β m k β k +... (2.1) β N, β 2, eißt Basis. Die m i N 0, 0 m i < β eißen Ziffern. Alternativ sind Additionssysteme (z. B. römisce Zalen) möglic. Die Darstellung von Zalen at eine ser interessante Gescicte, siee [Knu98, p.194] für Details. Die Babylonier nutzten 1750 v. Cr β = 60 (deswegen 60 Sekunden). Die Basis 10 at sic in Europa ab ca 1585 durcgesetzt. Pascal 1 erkannte 1658, dass man jedes β 2 verwenden kann. Im Recner legen tecnisce Gründe (Digitaltecnik) nae. m i ist dann ein Bit. β = 2, m i {0, 1} Bei Festkommazalen wält man n, k N fest und at dann x = n m i β i. i= k β k ist dann die Auflösung (kleinster Abstand zweier Festkommazalen). Bei wissenscaftlice Anwendungen kommen Zalen ser untersciedlicer Größe vor, etwa in den pysikaliscen Konstanten Planksces Wirkungsquantum: Ruemasse Elektron: Avogadro Konstante: Js g mol 1 1 Blaise Pascal, , frz. Matematiker und Pilosop. 21

24 2 Fließkommazalen und Fließkommaaritmetik Für Zalen ser untersciedlicer Größe werden Festkommazalen ineffizient. Die sogenannten Fließkommazalen (auc Fließpunkt, Gleitpunkt, engl. floating point numbers) erlauben dann eine effizientere Darstellung. Definition 2.3 (normierte Fließkommazalen). F(β, r, s) R bestet aus den Zalen mit folgenden Eigenscaften: x F(β, r, s) gilt x = mβ e mit m = ± r s 1 m i β i, e = ± e j β j m eißt Mantisse (engl. mantissa oder fraction) und e Exponent. i=1 x F(β, r, s) gilt x = 0 m 1 0 (Normierung), d.. j=0 x = 0 β 1 m < 1. Sind β, r, s klar (oder egal) so screiben wir einfac F. Beispiel 2.4. F(10, 3, 1) bestet aus Zalen der Form x = ±(m m m ) 10 ±e 0 (m 1 0 m 1 = m 2 = m 3 = 0), z. B , , F(10, 3, 1) da = , aber / F(10, 3, 1) da = F(2, 2, 1) bestet aus Zalen der Form (x = 0 m 1 0) ( 1 x = ± m m 2 1 ) 2 ±e 0. 4 Somit also F(2, 2, 1) = { 3 2, 1, 3 4, 1 2, 3 8, 1 4, 0, 1 4, 3 8, 1 2, 3 4, 1, 3 2 }, bzw. grapisc: Dies überlegt man so: 0 ist klar. m 1 = 1, m 2 = 0 gibt 1/2, m 1 = 1, m 2 = 1 gibt 3/4. Multiplikation mit 2, 1, 1/2 (e 0 = 1, 0, 1) liefert F(2, 2, 1). 22

25 2.2 Runden und Rundungsfeler Beacte den größeren Abstand bei der Null wegen Normierung! Die größte bzw. kleinste darstellbare Zal in F(β, r, s) ist: 1 β r { }} { X +/ = ± (β 1){β β r } β } {{ } m i =β 1 = ±(1 β r )β βs 1 Die kleinste positive bzw. größte negative Zal in F(β, r, s) ist: x +/ = ± β s 1 { }} { (β 1){β s β 0 } } {{ } e i =β 1 (β s 1) { }} { β 1 β (β 1){β s β 0 } = ±β β s }{{} kleinste Mantisse bei Normierung Damit gilt F(β, r, s) D(β, r, s) = [X, x ] {0} [x +, X + ] R. 2.2 Runden und Rundungsfeler Sind beliebige Zalen x, y R gegeben, so sind diese erst in Fließkommazalen zu verwandeln. Wir benötigen eine Abbildung rd : D F, (Für x / D muss man sein Problem umformulieren oder F größer macen). Sinnvollerweise fordert man x rd(x) min x y x D. (2.2) y F Mit left(x) = max{y F y x}, rigt(x) = min{y F y x} gilt dann left(x) falls x left(x) < x rigt(x) rd(x) = rigt(x) falls x rigt(x) < x left(x)? x = left(x)+rigt(x) 2 Für die im letzten Fall erforderlice Rundung gibt es versciedene Möglickeiten. Sei x = sign(x)( i=1 m iβ i )β e, die normierte Darstellung von x D R. Aufrunden, natürlice Rundung: { left(x) = sign(x)( r rd(x) = i=1 m iβ i )β e falls 0 m r+1 < β /2 rigt(x) = left(x) + β e r falls β /2 m r+1 < β 23

26 2 Fließkommazalen und Fließkommaaritmetik Gerade Rundung (β sei gerade): left(x) x left(x) < x rigt(x) rd(x) = ( x left(x) = x rigt(x) m r gerade) rigt(x) sonst Mit dieser Wal gilt, dass m r immer gerade ist wenn gerundet werden musste. Dies Wal vermeidet eine Drift, die bei Aufrunden auftreten kann (siee Übungsaufgabe). Wir wollen nun den bei der Rundung entsteenden Feler analysieren. Zunäcst eine allgemeine Definition zum Felerbegriff Definition 2.5 (Absoluter und relativer Feler). Sei x R eine Näerung von x R dann eißt x = x x (2.3) absoluter Feler und für x 0 eißt ε x = x x = x x x (2.4) relativer Feler. Oft nutzen wir die Form ( x (2.3) = x + x = x 1 + x ) (2.4) = x(1 + ε x ) x Motivation zum relativen Feler. Bei der Entfernung Erde-Sonne ( 1, km) sind 100km ein relativ kleiner Feler ε x = Bei der Entfernung Stuttgart-Paris ( 600km) dagegen scon: ε x = Damit gilt für den Rundungsfeler das Lemma 2.6 (Rundungsfeler). Der absolute Rundungsfeler bei Rundung von x D(β, r, s) nac F(β, r, s) ist öcstens x rd(x) 1 2 βe r. (2.5) Der relative Rundungsfeler kann abgescätzt werden durc x rd(x) x 1 2 β1 r (2.6) 24

27 2.3 Fließkommaaritmetik Die Größe eps := 1 2 β1 r eißt Mascinengenauigkeit, in der engliscen Literatur eißt β 1 r oft ulp (units last place). Beweis: (2.5) gilt sofort wegen (2.2). Für (2.6) zeigt man: x rd(x) x 1 β e r 2 m β e Normierung m β 1 β r 1 2 β 1 = 1 2 β1 r 2.3 Fließkommaaritmetik Auf dem Körper R sind die Operationen {+,,, /} definiert. Wir benötigen auc entsprecende Mascinenoperationen : F F F für {,,, }. Dabei soll dem + Operator entsprecen, dem, usw. Wenn x, y F folgt daraus nict, dass x y F sondern es ist eventuell eine Rundung erforderlic. Man fordert für die Mascinenoperationen folgende Eigenscaft: x y = rd(x y) x, y F. Man sagt ist exakt gerundet. Dass dies effizient möglic ist motivieren wir durc ein Beispiel. Beispiel 2.7 (Guard digit). Sei F = F(10, 3, 1) und betracte. Sei weiter x = , y = Naive Realisierung von x y = rd(x y) erfordert scieben von y auf den größeren Exponenten y = und subtraieren der Mantissen: x = y = x y = Runden auf drei Stellen liefert dann x y = Dies erfordert einen Addierer mit 2β s Stellen! Das Ergebnis ätten wir auc durc die Abfolge Scieben, Runde y, Recne bekommen. Im Allgemeinen ist das aber nict gut wie folgendes Beispiel zeigt: x = y = x = y = x y = für den relativen Feler im Ergebnis gilt dann bei (x y) (x y) (x y) = eps = = eps 25

28 2 Fließkommazalen und Fließkommaaritmetik Nun spendieren wir eine Stelle mer, d.. wir nutzen einen r + 1-stelligen Addierer: Das Ergebnis x y = 1, ist exakt! x = y = x y = Allgemein kann man zeigen: Mit einer zusätzlicen Stelle (sog. guard digit) gilt (x y) (x y) x y 2eps. Mit noc einer Stelle mer erreict man die exakte Rundung! Die Fließkommaaritmetik at allerdings noc ein paar Überrascungen parat... Bemerkung 2.8. Assoziativ- und Distributivgesetz gelten in F im allgemeinen nict, d.. es ist für x, y, z, F: (x y) z x (y z), (x y) z (x z) (y z) Insbesondere gilt x y = x y x β r 2 } {{ } x um r Stellen nac rects, 1 2 damit m r+1 β 2 = x β β β r 2 = eps β x Allerdings gilt das Kommutativgesetz x y = y x; x y = y x. Es gelten noc ein paar weitere einface Gesetze, wie etwa (keine vollständige Liste) ( x) y = (x y), 1 x = x; x y = 0 genau dann wenn x = 0 oder y = 0; ( x)/y = x ( y) = (x y); x z y z falls x y und z > 0. Es gibt auc bemerkenswertere Resultate wie: Sind u, v normalisierte Fließkommazalen und u = (u v) v, v = (u v) u, u = (u v) v, v = (u v) u, so gilt u + v = (u v) + ( (u u ) (v v ) ). Dies erlaubt eine Berecnung des Felers mittels Fließkommaaritmetik. Siee [Knu98, 4.2.2, Teorem B]. 26

29 2.4 Der IEEE-754 Standard 2.4 Der IEEE-754 Standard Bis in die 1980er Jare waren viele versciedene Fließkommazalen in Gebrauc. Die Eigenscaften von waren nict genormt (z.b. exakt gerundet oder nur ein guard digit?). Ziel des 1985 verabsciedeten IEEE-754 Standards: Portabilität von Programmen! IEEE-754 legt β = 2 fest und definiert vier Genauigkeitsstufen: single, single-extended, double, double-extended. Diese aben folgende Parameter:,,,, sind exakt gerundet. Parameter Format single single-ext double double-ext e max > e min Bits für exp Bits für alles Betracte double Genauigkeit genauer: Formatbreite : 64 Bit davon 11 Bit für Exponent bleiben 53 für Mantisse davon 1 Bit Vorzeicen bleiben 52 Bit Mantisse. Da x F normiert dargestellt wird und β = 2 gilt immer m 1 = 1 es sei denn x = 0. Kodiert man die Null anders so muss m 1 nict gespeicert werden (sog. idden bit). Der Exponent wird vorzeicenlos mittels dargestellt. e = c 1023 für c = c c 10 2 } {{ 10 [1,2046] } 11 Bits c = 0, m = 0 kodiert den Fall x = 0, c = 2047, m 0 den Fall NaN (not a number) und c = 2047, m = 0 kodiert den Fall (Überlauf). Im IEEE Format wird dann nict abgebrocen sondern z. B. mit der Definition x NaN = NaN weiter gerecnet. IEEE-754 kennt auc vier versciedene Rundungsarten, die man umscalten kann. Default ist round to nearest, es gibt noc round to zero (d.. abscneiden, immer näer zur Null in), round to (mact nie kleiner), round to (mact nie größer). Dies ist wictig im Zusammenang mit Intervallaritmetik. IEEE-754 definiert Grundrecenarten und Wurzel als exakt gerundet. Über Funktionen wie sin oder exp wird nicts gesagt. 27

30 2 Fließkommazalen und Fließkommaaritmetik Dabei tritt das Tabellenmacer-Dilemma auf: Angenommen exp soll auf vier Stellen genau berecnet werden. Man findet bei 5 Stellen exp(1.626) = Soll nun ab- oder aufgerundet werden. Genauere Recnung (Reie!) liefert exp(1.626) = und man ist nict sclauer. Problem: Bei einer transzendenten Funktion kann es beliebig lange dauern bis man exp(1.626) < oder exp(1.626) > findet. ttp://lipforge.ens-lyon.fr/www/crlibm/ ist eine freie Bibliotek korrekt gerundeter matematiscer Funktionen auf Basis des IEEE-754. Vorsict beim x86: x86 Register verwenden das double-extended Format, im Speicer wird nur double verwendet. Werden Variablen im Register gealten (Optimierung!) entsteen so andere Resultate als wenn diese im Speicer gealten werden. 2.5 Zusammenfassung Wictiges in dieser Vorlesung: Stellenwertsystem und Definition normierter Fließkommazalen. Relativer und absoluter Feler. Rundung und Rundungsfeler. Exakt gerundete Fließkommaoperationen. IEEE-754 Standard für Fließkommazalen und Fließkommaoperationen. Eine ausfürlice Darstellung zur Fließkommazalen findet man in dem Artikel von David Goldberg: Wat Every Computer Scientist Sould Know About Floating Point Aritmetic, Computing Surveys, 1991 [Gol91]. 28

31 3 Feleranalyse 3.1 Auslöscung Auslöscung ist ein wictiges Pänomen bei der Subtraktion von Fließkommazalen. Bereits in Beispiel 2.7 aben wir in anderem Zusammenang geseen, dass bei der Subtraktion in etwa gleic großer Zalen große relative Feler entsteen können. Beobactung 3.1. (a) Es seien x, y F. Die Operation : F F F sei exakt gerundet, d.. x y = rd(x y). Dann gilt für den relativen Feler im Ergebnis: Also kein Problem. (x y) (x y) (x y) = rd(x y) (x y) (x y) eps (x y 0) Lemma 2.6 (b) Nun seien x, y F gerundete Eingaben, d.. es gibt ˆx,ŷ R so dass x = rd(ˆx) und y = rd(ŷ). Für den relativen Feler bezüglic des exakten Ergebnisses gilt dann: (x y) (ˆx ŷ) (ˆx ŷ) 1 ǫ für bestimmte ˆx ŷ = ǫ Beweis: Wir betracten F(β, r, s). Wäle x y = β r β e, m = (x + y)/2 sowie ŷ = m ǫ/2, ˆx = m + ǫ/2. Dann gilt: (x y) (ˆx ŷ) = β r β e ǫ = β r β e 1. (ˆx ŷ) ǫ ǫ β r β e ǫ y F ŷ ˆx x F m = x+y 2 R Beispiel 3.2 (Zur Auslöscung). Sei F = F(10, 4, 1) ˆx = 0, x = rd(ˆx) = 0, ŷ = 0, y = rd(ŷ) = 0, ˆx ŷ = 0, x y = 0, und damit bei eps = , , , eps! Nocmal: Die Beobactung sagt, dass der Feler in der Subtraktion bei gerundeten Eingaben beliebig groß werden kann. 29

32 3 Feleranalyse 3.2 Rundungsfeleranalyse Wir bescäftigen uns nun damit wie man die auftretenden Feler im allgmeinen analysieren kann. Dazu seen wir uns erst mal an wie eine numerisce Berecnung eigentlic abläuft. Eine numerisce Berecnung im Computer verarbeitet Eingaben x 1,...,x m x i F und produziert mittels eines Algoritmus die Ausgaben y 1,...,y n, y i F. Der Algoritmus bestee dabei nur aus den Mascinenoperationen,,, (später auc ). Die Berecnung der einzelnen y i können wir als Funktionen ausdrücken: i {1,...,n} : y i = f i (x 1,...,x m ) mit f i : F m F. Also etwa f 1 (x 1, x 2 ) = x 1 x 1 x 2 x 2. oder f 2 (x 1, x 2 ) = (x 1 x 2 ) (x 1 x 2 ). Natürlic können wir alles auc kompakt in vektorieller Form screiben x = (x 1,...,x m ) T, y = (y 1,...,y n ) T, f = (f 1,...,f n ) T, y = f(x). Zu der Abbildung f : F m F n können wir eine entsprecende Abbildung ˆf : R m R n definieren bei der alle Mascinenoperationen durc die exakten matematiscen Operationen +,,, / (und ) ersetzt sind. Scließlic können wir auc Eingaben ˆx 1,... ˆx m R betracten und x i = rd(ˆx i ) als gerundet auffassen. Die Ausgaben ŷ j = ˆf j (ˆx) würden wir dann als das exakte Ergebnis auffassen. Also für f 1, f 2 von oben: ˆf 1 (x 1, x 2 ) = x 2 1 x 2 2 = (x 1 x 2 ) (x 1 + x 2 ) = ˆf 2 (x 1, x 2 ) ˆf 1, ˆf 2 sind gleic, f 1, f 2 jedoc nict! 30

33 numerisce Aufgabe ˆf ˆx 1,..., ˆx m R ŷ 1,...,ŷ n R 3.2 Rundungsfeleranalyse rd Feler numerisce Berecnung x 1,...,x m F f y 1,...,y n F Rundungsfeleranalyse! ˆf, beacte F R! ỹ 1,...,ỹ n R! Wir setzen ỹ j = ˆf j (x 1,...,x m ). Im allgemeinen können die ˆx i noc mit einem Datenfeler beaftet sein. Definition 3.3 (Rundungsfeleranalyse). Die Rundungsfeleranalyse untersuct den Feler in der numeriscen Berecnung unter der Anname, dass die Eingaben Mascinenzalen sind. Also mit den Bezeicnung aus der Abbildung: F y i ỹ i = f { }} { i( x 1,...,x m ) ˆf i (x 1,...,x m ) ỹ i ˆf i (x 1,...,x m ) (wie immer ỹ i 0). Die Rundung der Eingaben bleibt ausser act. Bemerkung 3.4. Wir screiben ier x i = rd(ˆx i ) d.. x i F, ˆx i R. Später verwenden wir auc ˆx i = rd(x i ) mit ˆx i F, x i R um Screibarbeit zu sparen. Also immer auf den Kontext acten! Ausgangspunkt der Rundungsfeleranalyse ist immer die Anname exakt gerundeter Operationen, d.. x 1 x 2 = rd(x 1 x 2 ) = (x 1 x 2 )(1 + ǫ ) mit ǫ eps. Beacte jedoc, dass ǫ = ǫ (x 1, x 2 ) für jede Operation und Eingabe potentiell verscieden ist. Beispiel 3.5 (Zur Rundungsfeleranalyse). (a) f 1 (x 1, x 2 ) = x 1 x 1 x 2 x 2, also u = x 1 x 1 = x 2 1 (1 + ǫ 1) v = x 2 x 2 = x 2 2 (1 + ǫ 2) y = f 1 (x 1, x 2 ) = u v = (u v)(1 + ǫ 3 ) = (x 2 1 (1 + ǫ 1) x 2 2 (1 + ǫ 2))(1 + ǫ 3 ) = x 2 1 (1 + ǫ 1)(1 + ǫ 3 ) x 2 2 (1 + ǫ 2)(1 + ǫ 3 ) = x 2 1 x2 2 + x2 1 (ǫ 1 + ǫ 3 ) x 2 2 (ǫ 2 + ǫ 3 ) + x 2 1ǫ 1 ǫ 3 x 2 2ǫ 2 ǫ 3. = bedeutet in erster Näerung.. = x 2 1 x2 2 + x2 1 (ǫ 1 + ǫ 3 ) x 2 2 (ǫ 2 + ǫ 3 ) } {{ } da ǫ i klein lässt man die weg 31

34 3 Feleranalyse Für den relativen Feler eralten wir f 1 (x 1,x 2 ) ˆf 1 (x 1,x 2 ) =x 2 1 x2 2 { }} { ˆf 1 (x 1, x 2 ) = = x 2 1 (ǫ x ǫ 3 ) + 1 x ( x 2 x 1 ) 2 (ǫ 1 + ǫ 3 ) + } {{ } k 1 x 2 2 (ǫ x ǫ 3 ) 2 x2 1 1 ( x 1 x 2 ) 2 (ǫ 2 + ǫ 3 ) } {{ } k 2 Die Faktoren k 1, k 2 eißen Felerverstärkungsfaktoren: Sie messen wie sic der Rundungsfeler einer Mascinenoperation im späteren Ergebnis auswirkt. Wir seen: Für x 1 x 2 wird k 1, k 2 ser groß. Für x 1 x 2 oder x 1 x 2 get einer gegen 0 und einer gegen 1. (b) f 2 (x 1, x 2 ) = (x 1 x 2 ) (x 1 x 2 ). Hier eralten wir u = x 1 x 2 = (x 1 x 2 )(1 + ǫ 1 ) v = x 1 x 2 = (x 1 + x 2 )(1 + ǫ 2 ) y = f 2 (x 1, x 2 ) = u v = (u v)(1 + ǫ 3 ) = ((x 1 x 2 )(1 + ǫ 1 )(x 1 + x 2 )(1 + ǫ 2 ))(1 + ǫ 3 ) = (x 1 x 2 )(x 1 + x 2 )(1 + ǫ 1 )(1 + ǫ 2 )(1 + ǫ 3 ). = x 2 1 x2 2 + (x2 1 x2 2 )(ǫ 1 + ǫ 2 + ǫ 3 ) Für den relativen Feler gilt f 2 (x 1, x 2 ) ˆf 2 (x 1, x 2 ) ˆf 2 (x 1, x 2 ) Hier findet also keine Felerverstärkung statt!. = ǫ 1 + ǫ 2 + ǫ 3. Dies liegt daran, dass die gefärlicen, -Operationen (a b = a ( b)) zuerst auf die Eingabe angewendet werden. Regel 3.6. Setze die potentiell gefärlicen Operationen, möglicst frü ein. Nun berücksictigen wir zusätzlic den Feler in der Eingabe, d.. x i = rd(ˆx i ) = ˆx i (1 + ǫ xi ) Beispiel 3.7 (Fortsetzung von Bsp 3.5 mit gerundeter Eingabe). Für f 2 (x 1, x 2 ) = (x 1 x 2 ) (x 1 x 2 ) aus (b) oben: f 2 (rd(ˆx 1 ), rd(ˆx 2 )) [. = (ˆx 1 (1 + ǫ x1 )) 2 (ˆx 2 (1 + ǫ x2 )) 2] (1 + ǫ 1 + ǫ 2 + ǫ 3 ). = [ˆx 2 1(1 + 2ǫ x1 + ǫ 2 x 1 ) ˆx 2 2(1 + 2ǫ x2 + ǫ 2 x 2 ) ] (1 + ǫ 1 + ǫ 2 + ǫ 3 ). = ˆx 2 1 ˆx (ˆx 1 ˆx 2 } {{ } 2)(ǫ 1 + ǫ 2 + ǫ 3 ) + ˆx 2 12ǫ x1 ˆx 2 22ǫ x2 ŷ 2 daraus folgt der relative Feler: f 2 (rd(ˆx 1 ), rd(ˆx 2 )) ŷ 2. 1 = ǫ1 + ǫ 2 + ǫ 3 + ŷ 2 } {{ } 1 ( ˆx 2 ˆx wie vorer 1 ) 22ǫ x ( ˆx 1 ˆx 2 ) 22ǫ x 2 } {{ } Verstärkung der Eingabefeler. 32

35 3.3 Konditionsanalyse Interessanterweise erält man für f 1 aus (a) oben das Ergebnis: f 1 (rd(ˆx 1 ), rd(ˆx 2 )) ŷ 1 ŷ 1. = 1 1 ( ˆx 2 ˆx 1 ) 2(2ǫ x 1 + ǫ 1 + ǫ 3 ) ( ˆx 1 ˆx 2 ) 2(2ǫ x 2 + ǫ 2 + ǫ 3 ) Wir stellen fest: Unter Berücksictigung von Eingabefelern veralten sic beide Algoritmen gleic (sclect). Dies liegt daran, dass die potentiell gefärlicen Operationen, scon auf die felerbeafteten Operanden angewendet werden. 3.3 Konditionsanalyse Definition 3.8 (Konditionsanalyse). Die Konditionsanalyse untersuct die numerisce Aufgabe ŷ = ˆf(ˆx) auf Sensitivität bezüglic der Eingabedaten. Betractet wird also formal die Größe ˆf i (ˆx 1 + ˆx 1,, ˆx m + ˆx m ) ˆf i (ˆx 1,, ˆx m ) ˆf i (ˆx 1,, ˆx m ) ( ˆf i 0) Actung: Bei der Konditionsanalyse wird nur die numerisce Aufgabe ˆf : R m R n untersuct! Das numerisce Berecnungsverfaren f welces ˆf in Fließkommaaritmetik approximiert spielt keine Rolle! (Den Zusammenang stellen wir unten er). Um Screibarbeit zu sparen lassen wir das ˆ bei allen Größen in diesem Abscnitt weg! Wir benötigen einige Begriffe aus der Analysis. Es sei also eine zweimal stetig differenzierbare Abbildung. f : R m R n Nac dem Taylorscen Satz im R m gilt dann mit x, x R m : f i (x + x) = f i (x) + m j=1 wobei wir für das Restglied R f i annemen, dass wobei x = max j=1...m x j. f i (x) x j + R f i (x; x) i = 1,...n x j R f i (x; x) = O( x 2 ) Definition 3.9 (Landausce 2 Symbole). Man screibt g(t) = O((t)) (t 0) 2 Edmund Georg Hermann Landau, , dt. Matematiker. 33

36 3 Feleranalyse falls für alle t (0, t 0 ] (t 0 genügend klein) und einer Konstanten c 0 gilt g(t) c (t). Dies ist analog zur O-Notation bei der Komplexitätsanalyse von Algoritmen (nur get dort n ). Entsprecend bedeutet g(t) = o((t)) (t 0), dass für alle t (0, t 0 ] und einer Funktion c(t), c(t) 0 für t 0, gilt g(t) c(t) (t). Damit get g(t) scneller als (t) gegen Null (falls gegen 0 get). Oben würde sogar R f i (x; x) = o( x ) genügen. Aus der Taylorformel folgt y i := f i (x + x) f i (x). = m j=1 f i x j (x) x j und damit für den relativen Unterscied y i y i = f i(x + x) f i (x) f i (x). = m j=1 f i x j (x) x j f i (x) = m j=1 f i x j x j f i (x) } {{ } =:k ij (x) x j x j }{{} relativer Feler in x Definition 3.10 (Kondition). Die Zalen k ij (x) eißen Konditionszalen. Die Aufgabe y = f(x) eißt sclect konditioniert wenn ein k ij (x) 1 ist, andernfalls gut konditioniert. Bei k ij (x) < 1 liegt Felerdämpfung, bei k ij (x) > 1 Felerverstärkung vor. Lemma 3.11 (Kondition der Grundoperationen). Für y = f(x 1, x 2 ) = x 1 + x 2 ergibt sic y y = 1 x 1 x 1 + x 2 x 1 x = x 2 } {{ x 1} k 1 x 1 x x 1 } {{ x 2} k 2 x 2 x 2 x 1 + x 2 x 2 x 2 x 2 Die Addition ist sclect konditioniert für x 1 x 2, die Subtraktion für x 1 x 2. Für y = f(x 1, x 2 ) = x 1 x 2 gilt y y = x 2 x 1 x 1 x 2 x 1 x 1 + x 1 x 2 x 1 x 2 x 2 x 1 = 1 x 2 }{{} + 1 x 1 }{{} =k 1 =k 2 x 2 x 2 Die Multiplikation (und die Division) sind gut konditioniert. Macen wir noc ein 34

37 3.4 Rückwärtsfeleranalyse Beispiel Bestimme die Kondition von f(x 1, x 2 ) = x 2 1 x2 2. y y = 2x 1 = x 1 x 2 1 x ( x 2 x 1 ) 2 } {{ } =k 1 x 1 x 1 + ( 2x 2 ) x 1 x ( x 1 x 2 ) 2 } {{ } =k 2 x 2 x 2 x 2 x 2 1 x2 2 x 2 x 2 Vergleic mit Beispiel 3.7 ergibt: k 1, k 2 sind genau die zusätzlicen Verstärkungsfaktoren bezüglic der Eingabe. Dieser Feler lässt sic nict vermeiden, er ist durc die Aufgabe und nict durc den numeriscen Algoritmus gegeben. Das motiviert die folgende Definition. Definition 3.13 (Stabilität eines numeriscen Verfarens). Ein Verfaren eißt numerisc stabil falls die im Lauf der Recnung akkumuliert Rundungsfeler (Eingabe F!) den durc die Konditionierung der numeriscen Aufgabe unvermeidbaren Problemfeler nict übersteigen. Kurz: Liefert die Rundungsfeleranalyse Verstärkungsfaktoren in der gleicen Größe wie die Konditionsanalyse ist alles in Ordnung. Rundungsfeleranalyse und Konditionsanalyse ergänzen sic also gegenseitig. Beispiel 3.14 (Anwendung auf 3.5 und 3.12). Sowol (x 1 x 1 ) (x 2 x 2 ) als auc (x 1 x 2 ) (x 1 x 2 ) sind stabile Algoritmen zur Berecnung von x 2 1 x2 2, denn in beiden Fällen at die 1 1 Felerverstärkung die Form 1 ( x 1 bzw. ) x 2 1 ( x 2. ) 2 x Rückwärtsfeleranalyse Wir aben in diesem Kapitel die sog. Vorwärtsanalyse betrieben. Ausgeend von den gerundeten Eingaben x = rd(ˆx) und dem mit Rundungsfelern beafteten numeriscen Verfaren f aben wir den Feler im Ergebnis bestimt: evor = ˆf(ˆx) f(rd(ˆx)). Bei der Rückwärtsanalyse versuct man ein ˆx R m zu finden so dass ˆf(ˆx + ˆx) = f(rd(ˆx)). (3.1) Man stellt also rückwärts die Frage: Welce Eingabe ätte denn mit der exakten Berecnung das Ergebnis des numeriscen Verfarens geliefert? Grapisc wird die Sace klarer: 35

38 3 Feleranalyse ˆf 1 ˆx R evor ˆx f rd y F ŷ R Datenfeler ˆf ˆx erält man durc Auflösen von (3.1): ˆx = ˆf 1 (f(rd(ˆx))) ˆx. Kann man zeigen, dass ˆx in der Größenordnung des Datenfelers liegt so ist das numerisce Verfaren gutartig. 3.5 Zusammenfassung Auslöscung kann bei der Subtraktion zweier annäernd gleicgroßer felerbeafteter Zalen entsteen. Bei Mascinenzalen ist die Subtraktion bis auf Rundungsfeler genau. Diese Aussage erfordert exakt gerundete Mascinenoperationen. Bei der Rundungsfeleranalyse betractet man den Einfluss von Rundungsfelern die wärend der numeriscen Berecnung auftreten auf das Endergebnis. Feler in der Eingabe bleiben unberücksictigt. Bei der Konditionsanalyse betractet man den Einfluss von Felern in der Eingabe auf das Ergebnis der numeriscen Aufgabe. Hier bleiben die Rundungsfeler der numeriscen Berecnung unberücksictigt. Ein numerisces Verfaren eißt stabil, wenn die Felerverstärkungsfaktoren aus der Rundungsfeleranalyse die aus der Konditionsanalyse nict übersteigen. 36

39 4 Lagrange-Interpolation 4.1 Motivation und Aufgabenstellung Funktionen, also Abbildungen f : D W, sind fundamentale Objekte der Matematik. Wir sind ier insbesondere an dem Fall D R, C, also überabzälbarer Mengen interessiert. Wie stellt man solce kontinuierlicen Funktionen im Recner dar? Trick: Man approximiert f durc n f(x) a i ϕ i (x), i=0 also mittels einem Satz von gegebenen Basisfunktionen. Es müssen nur die n + 1 Koeffizienten, also (Fließkomma-) Zalen, gespeicert werden. Natürlic beget man dabei einen Feler, den Approximationsfeler (zusätzlic zum Rundungsfeler). Die ϕ i wält man so, dass benötigte Operationen wie Auswertung, Differentiation oder Integration einfac sind. Hier einige Anwendungen von kontinuierlicen Funktionen in der Informatik: Kurvendarstellung Z. B. in Zeicenprogrammen, Fonts oder Datenformaten wie Postscript. Computer Aided Design Darstellung von (dreidimensionalen) Körpern zur Anweundung in Fertigungstecnik oder Simulation. Simulation Darstellung der Lösung von Differentialgleicungen, siee z. B. das Pendel in der ersten Vorlesung. Grafik, Visualisierung (Realistisce, interaktive) Darstellung von komplexen Szenen auf dem Bildscirm. Datenaufbereitung Gemessene Datenpunkte in funktionale Form bringen. Oft at man viel mer Datenpunkte als Koeffizienten. Welce Funktionen mit endlic vielen Parametern nutzt man in der Praxis? Hier eine kleine Auswal: (a) Polynome p(x) = a 0 + a 1 x a n x n. (b) Rationale Funktionen r(x) = a 0 + a 1 x a n x n b 0 + b 1 x b m x m. (c) Trigonometrisce Polynome t(x) = 1 n 2 a 0 + (a k cos(kx) + b k sin(kx)). k=1 37

40 4 Lagrange-Interpolation (d) Exponentialsumme e(x) = n a k e b kx Die Abbildungen 6 bis 8 zeigen eine Anwendung von Polynomen bei der Kurvenkompression in der Computergrapik. Die Lage eines starren Körpers im Raum wird durc 6 Zalen festgelegt (3 für die Position und 3 für die Orientierung), die sic mit der Zeit ändern können. Eine äquidistante Scrittweite erfordert einen oen Speiceraufwand um bei scnellen Positionsänderungen eine gute Genauigkeit erreicen zu können. Bei einer adaptiven Scrittweitenwal werden möglicst wenig Zeitpunkte ausgewält, aber so, dass ein vorgegebener Feler nict öberscritten wird. Diese Anwendung aben Eric Scneider, Manuel Jerger und Benjamin Jillic im Ramen eines Software-Praktikums im Sommersemester 2008 erarbeitet (Vielen Dank für die tollen Bilder!). Sei nun f : [a, b] R eine gegebene Funktion. Diese soll mit einer Funktion g(x, a 0,...,a n ) mit n+1 Parametern a 0,...,a n (z.b. g ein Polynom) dargestellt werden. Definition 4.1 (Interpolation, Approximation). Gesciet die Zuordnung durc fixieren von Funktionswerten g(x i ) = y i := f(x i ) i = 0,...,n an den n+1 paarweise versciedenen Stützstellen x i [a, b] sprict man von Interpolation. Gesciet dies mittels b a max f(x) g(x) a x b f(x) g(x) 2 dx so sprict man allgemeiner von Approximation. k=1 Interpolation ist natürlice eine spezielle Approximation: minimal für g, oder. minimal für g, oder andere Normen, max f(x i) g(x i ) minimal für g. i=0,...,n Wir beandeln ier nur die Interpolation und (fast) nur in einer Raumdimension. Einen kleinen Ausflug in die Approximation wollen wir ier doc macen. Die Taylorreientwicklung 3 einer (genügend oft differenzierbaren Funktion) lautet für x = x 0 + x: f(x) = f(x 0 ) + f (x 0 )(x x 0 ) } {{ } x f(n) (x 0 ) n! (x x 0 ) n + f(n+1) (ξ x ) (x x 0 ) n+1. (n + 1)! Lässt man das Restglied fort so erält man die Approximation durc ein Polynom: f(x) p(x) = f(x 0 ) + f (x 0 )(x x 0 ) f(n) (x 0 ) (x x 0 ) n. n! 3 Brook Taylor, , brit. Matematiker. 38

41 4.1 Motivation und Aufgabenstellung Abbildung 6: Kurvenkompression in dercomputergrapik: Die Szene. 39

42 4 Lagrange-Interpolation Abbildung 7: Kurvenkompression in dercomputergrapik: Stützpunkte der unkomprimierten Kurve. 40

43 4.1 Motivation und Aufgabenstellung Abbildung 8: Kurvenkompression in dercomputergrapik: Stützpunkte der komprimierten Kurve. 41

44 4 Lagrange-Interpolation Die Koeffizienten involvieren die Ableitungen von f am Punkt x 0. Der Approximationsfeler entsprict gerade dem Restglied f(x) p(x) = f(n+1) (ξ x ) (x x 0 ) n+1 für ein ξ x [a, b]. (n + 1)! Falls f (n+1) (ξ) M, ξ [a, b] und alle n, kann man den Feler für n beliebig klein macen auf [a, b]. 4.2 Polynome Wenden wir uns nun der Interpolationsaufgabe mit Polynomen zu, d.. wir sucen Koeffizienten a 0,...,a n zu bestimmen so dass a 0 + a 1 x i + a 2 x 2 i a n x n i = y i := f(x i ), i = 0,...,n, für die paarweise versciedenen Stützstellen x i. Screibt man die Bedingungen für alle i = 0,..., n untereinander erält man ein lineares Gleicungssystem für die Koeffizienten a i : 1 x 0 x 2 0 x n 0 1 x 1 x 2 1 x n x n x 2 n x n n a 0 a 1. a n = y 0 y 1. y n. Diese Matrix eisst Vandermondesce 4 Matrix. Zu zeigen ist noc, dass diese Matrix regulär ist (für paarweise versciedene x i ). Bestimmung der Lösung des linearen Gleicungssystemes erfordert O(n 3 ) aritmetisce Operationen. Unten werden wir gescicktere Arten zur Aufstellung des Interpolationspolynoms kennenlernen. Zudem zeigt sic, dass die Vandermondesce Matrix scwer zu lösen ist (in welcem Sinne, das kommt später). Die Menge aller Polynome vom Grad kleiner gleic n über dem Körper R (get auc über C) lautet P n := {p(x) = a 0 + a 1 x a n x n a i R, i 0,...,n}. P n ist ein n + 1-dimensionaler Vektorraum (über R), d.. man kann Polynome addieren und skalar multiplizieren. P n ist auc ein Funktionenraum da die Elemente der Menge Funktionen sind. 4 Alexandre-Téopile Vandermonde, , frz. Matematiker. 42

45 4.2 Polynome Jedes Polynom p(x) P n kann durc einen Satz von n+1 linear unabängigen Basispolynomen aus Φ n = {ϕ 0 (x), ϕ 1 (x),..., ϕ n (x)} dargestellt werden: n p(x) = β i ϕ i (x). i=0 Die Wal der Basispolynome ist beliebig (Voraussetzung: linear unabängig). Oben aben wir die sog. Monombasis gewält: M n = { 1, x, x 2,...,x n} (x k eißt k-tes Monom) i=0 i=1 i=2 i=3 i=4 i=5 i=6 y x Abbildung 9: Die Monome bis zum Grad 6. Die Abbildung 9 zeigt die Monome bis zum Grad 6. Die Interpolationsaufgabe in beliebiger Basis lautet nun: n p(x i ) = β j ϕ j (x i ) = y i, j=0 i = 0,...,n, und liefert wieder ein lineares Gleicungssystem der Dimension n + 1 nun für die Koeffizienten β 0,...,β n : ϕ 0 (x 0 ) ϕ 1 (x 0 ) ϕ n (x 0 ) β 0 y 0 ϕ 0 (x 1 ) ϕ 1 (x 1 ) ϕ n (x 1 ) β = y 1.. ϕ 0 (x n ) ϕ 1 (x n ) ϕ n (x n ) β n y n 43

46 4 Lagrange-Interpolation Durc eine gescickte Wal der Basispolynome kann man nun dafür sorgen, dass das lineare Gleicungssystem mit weniger Aufwand lösbar ist. Gescickt wäre etwa ein dreieckförmiges oder gar diagonales System. 4.3 Lagrange-Interpolation Definition 4.2 (Lagrange 5 -Polynome). Man definiert die Lagrangen Basispolynome vom Grad n n L (n) x x j i (x) = i = 0,...,n (4.1) x i x j j=0,j i i=0 i=1 i=2 i=3 i=4 i=5 i=6 y x Abbildung 10: Die Lagrange-Polynome L (6) i (x) vom Grad 6. Abbildung 10 zeigt die Lagrange-Polynome vom Grad 6 bei äquidistanten Stützstellen auf [0, 1]. Die Lagrange-Polynome aben die folgenden Eigenscaften: (a) L (n) i (x) P n, denn n (b) Es ist L (n) i (x k ) = δ ik = j=0,j i (x x j) ist ein Polynom vom Grad n. { 1 für i = k 0 sonst 5 Josep Louis de Lagrange, , frz. Matematiker. 6 Leopold Kronecker, , dt. Matematiker, (δ ik eißt Kronecker-Symbol 6 ), denn für k = i 44

47 4.3 Lagrange-Interpolation gilt L (n) i (x k ) = L (n) i (x i ) = n j=0,j i x i x j x i x j = 1. Für k i entält das Produkt n j=0,j i für j = k den Faktor x k x k x i x k das ganze Produkt Null. = 0 und damit ist (c) Die L (n) i bilden eine Basis von P n. Allgemein eißt ein Polynom ϕ i 0 linear abängig von den Polynomen ϕ k, k i falls es Koeffizienten β k gibt so dass ϕ i = k i β kϕ k. Für ϕ i = L (n) i kann dies aber nict sein, denn es ist L (n) i (x i ) = 1 und L (n) k (x i) = 0 für k i. Die L (n) i sind also linear unabängig, es gibt n + 1 Stück davon, sie bilden also eine Basis von P n. Mit den Lagrange-Polynomen ist die Interpolationsaufgabe ganz simpel zu lösen. Man setzt p(x) = n i=0 y i L (n) i (x). Wegen L (n) i (x k ) = δ ik gilt dann p(x i ) = y i. Oder anders: Das lineare Gleicungssystem zur Interpolationsaufgabe in der Lagrange-Basis ist die Eineitsmatrix! Beispiel 4.3. Zu interpolieren sei die folgende Wertetabelle mit 4 Einträgen: x i y i Abbildung 11 zeigt das zugeörige Interpolationspolynom sowie die skalierten Lagrange-Polynome y i L (3) i. Satz 4.4 (Eindeutige Lösbarkeit der Polynominterpolation). Zu der Tabelle (x i, y i ), i = 0,...,n, x i x j für i j, gibt es genau ein p P n so dass p(x i ) = y i, i = 0,...,n. Beweis: Die Lagrange-Polynome bilden eine Basis von P n. Daer gibt es genau eine Darstellung eines Polynomes zu dieser Basis Man kann die Eindeutigkeit der Polynominterpolation auc one Kenntnis einer Basis zeigen ([Sto05, S. 43]): Angenommen es gäbe zu p P n noc ein weiteres, von p versciedenes q P n, dann ist r = p q P n und r at die n + 1 Nullstellen x i. Nun at ein Polynom vom Grad n aber öcstens n Nullstellen (Gaußscer Fundamentalsatz der Algebra) und somit muss r 0 sein. Das ist aber ein Widerspruc zu p q. Eine Folgerung ieraus ist, dass auc die Vandermondesce Matrix invertierbar ist (falls x i x j ). Das Interpolationspolynom ist immer das gleice, es ist nur in einer anderen Basis dargestellt. 45

48 4 Lagrange-Interpolation Interpolationspolynom p p L0 L1 L2 L3 Daten 0.4 y x Abbildung 11: Interpolationspolynom zur Wertetabelle aus Beispiel Felerabscätzung Der Feler in den Interpolationspunkten y i p(x i ) ist natürlic Null. Gilt y i = f(x i ) so liegt es nae zu fragen, welcen Wert e(x) = f(x) p(x) für x x i annemen kann? In Beispiel 4.3 war f(x) = sin x/x. Abbildung 12 zeigt den dabei gemacten Interpolationsfeler. Es gilt folgender Satz 4.5 (Interpolationsfeler). Sei f(x) n+1 mal stetig differenzierbar auf [a, b], wobei a = x 0 < x 1 <... < x n = b. Dann gibt es zu jedem x [a,b] ein ξ x (a, b) so dass f(x) p(x) = f(n+1) (ξ x ) (n + 1)! n (x x j ) Beweis: Für x {x 0,...,x n } liefert die Formel offensictlic 0. Wäle nun x [a, b] \ {x 0,...,x n }. Zu diesem x definiere die Funktion F x (t) = f(t) p(t) j=0 f(x) p(x) l(x) } {{ } l(t) mit l(t) = das ist nur eine Zal n (t x j ) j=0 46

49 4.4 Felerabscätzung Interpolationsfeler p Daten sin(x)/x y x Abbildung 12: Illustration des Interpolationsfelers. F x (t) at mindestens die n+2 Nullstellen {x 0,...,x n, x}, denn für x i, i = 0,...,n ist f(x) p(x) F x (x i ) = f(x i ) p(x i ) l(x } {{ } i ) l(x) }{{} =0 =0 und für x gilt F x (x) = f(x) p(x) f(x) p(x) l(x) l(x) = 0. Der Satz von Rolle 7 sagt: u(x) in [a, b] stetig und in (a, b) differenzierbar sowie u(a) = u(b) = 0, dann gib es mindestens ein x 0 (a, b) mit u (x) = 0. F x (1) (t) at mindestens n + 1 Nullstellen, F x (2) (t) at mind. n Nullstellen,...,F x (n+1) (t) at m. eine Nullstelle. Diese Nullstelle sei ξ x. Für diese Nullstelle gilt dann F x (n+1) (ξ x ) = f (n+1) (ξ x ) p (n+1) (ξ x ) } {{ } =0 da Grad n = f (n+1) (ξ x )! = 0. 7 Micel Rolle, , frz. Matematiker. f(x) p(x) (n + 1)! l(x) f(x) p(x) l(x) l (n+1) (ξ x ) } {{ } l(t)=t n

50 4 Lagrange-Interpolation Hier aben wir ausgenutzt, dass l (n+1) = dn+1 dt n+1 t n+1 = (n + 1)!. Scließlic liefert Auflösen nac f(x) p(x): f(x) p(x) = f(n+1) (ξ x ) (n + 1)! n (x x j ) Man vergleice das rect änlice Resultat bei der Approximation mit dem Taylorpolynom. Wir nemen an, die n+1-te Ableitungen der Funktion f sei bescränkt, weiter sei x i+1 x i = (äquidistant). Dann gilt f(x) p(x) = f (n+1) (ξ x ) sup (n + 1)! ξ (a,b) j=0 n x x j j=0 f (n+1) (ξ) = M n + 1 n+1 } {{ } 2 n 1 (n + 1)! n+1 n! Get man jetzt bei gleicem n von [a, b] zu [a,(a + b)/2] so albiert sic der Abstand, also = /2 und der Feler reduziert sic um (1/2) n+1. Lässt man das Intervall [a, b] gleic und albiert den Abstand (n = 2n) so reduziert sic der Feler sogar um mer als (1/2) 2n+1. Allerdings verdoppelt sic dann auc n und damit muss man die Bescränkteit der Ableitung f (2n+1) fordern. Beispiel 4.6. Wir interpolieren die Funktionen sin(x) und sin(2x) im Intervall [0, 2π] mit äquidistanten Stützstellen durc ein Polynom vom Grad n. Mittels Kettenregel recnet man nac (ganzzalige Division in m/2!). d m dx m sin(kx) = km ( 1) (m/2) Somit gilt sup ξ [0,2π] d m dx m sin(kx) k m. { sin(kx) m gerade cos(kx) m ungerade Berücksictigt man = 2π/n und k = 1, bzw. k = 2 so eralten wir mit der Abscätzung von oben ( ) 2π n+1 1 sin(x) p(x) n n + 1, ( ) 2π n+1 sin(2x) p(x) 2 n+1 1 n n

51 4.4 Felerabscätzung 2.5 Polynominterpolation von f(x) = sin(2x) y x Polynominterpolation von f(x) = 1/(1+x*x) sin(2*x) n=4 n=5 n= y x 1.0/(1.0+x*x) n=4 n=8 n=12 Abbildung 13: Interpolation der Funktionen sin(2x) (oben) und 1 1+x 2 (unten) mit äquidistanten Stützstellen und versciedenen Polynomgraden. 49

52 4 Lagrange-Interpolation Numerisc erält man die folgenden Werte: n max x [0,2π] sin(x) p(x) max x [0,2π] sin(2x) p(x) Den Faktor 2 n+1 kann man in der Tabelle klar erkennen. Im allgemeinen wacsen aber die n-ten Ableitungen zu scnell und der Feler kann mit steigendem n sogar größer werden. So erwänt [Ran06] die Funktion f(x) = 1 für die gilt 1+x 2 ( f (n) (x) 2 n x n ) n! O 1 + x 2 n+1 n. Für n wäcst die Ableitung für festes x immer stärker. Wollte man die Ableitung unter einer Scranke M allten müsste man das Intervall immer kleiner macen. Desalb ist für festes Intervall die Konvergenz nict mer gleicmäßigig. Die Beobactungen in den Beispielen füren zu folgender Regel 4.7 (Metoden oer Ordnung). Je öer der verwendete Polynomgrad in der Lagrange- Interpolation ist, desto mer Ableitungen der zu interpolierenden Funktion müssen existieren und sie sollten nict allzu groß sein. Da viele der im weiteren Verlauf der Vorlesung beandelten Verfaren auf Polynomen aufbauen werden wir änlic formulierten Regeln noc öfters begegnen. 4.5 Kondition Wir betracten die Empfindlickeit der Interpolationsaufgabe gegenüber den vorgegebenen Stützwerten y i. Nac Lagrange gilt: p(x; y 0,...,y n ) = n y i L i (x) i=0 50

53 4.6 Horner Scema Damit gilt für ein y i nac Einsetzen p(x; y 0,...,y i + y i,...,y n ) p(x; y 0,...,y i,...,y n ) y i = L (n) i (x) y i y i da p linear in den y i. Der Verstärkungsfaktor ist also gerade L (n) i (x). Für großes n können die Werte von L (n) i ser groß werden, insbesondere weit weg von x i. für n größer etwa 8 ist die Polynominterpolation ser sclect konditioniert. Abbildung 14 illustriert das Wacsen der Lagrange-Polynome weit weg von der Stelle Stützstelle x an der L (n)(x) i = 1 gilt. 4.6 Horner Scema Der Vollständigkeit alber sei noc die numerisc stabile Auswertung von Polynomen erwänt. Für n = 3 könnte man den Wert des Polynoms an der Stelle x folgendermaßen ausrecnen: p(x) = a 3 x 3 + a 2 x 2 + a 1 x + a 0 = (a 3 x 3 + a 2 )x 2 + a 1 x + a 0 = ((a 3 x 3 + a 2 )x 2 + a 1 )x + a 0. Allgemein eralten wir die folgende Rekursion zur Bestimmung von p(x) b n = a n ; b k = a k + xb k+1 k = n 1,...,0; p(x) = b 0. Dies nennt man das Horner 8 Scema. 4.7 Anwendung: Numerisce Differentation Interpolationspolynome kann man benutzen um Ableitungen von tabellarisc gegebenen Funktionen (x i ; y i = f(x i )) zu berecnen. Ebenso kann man damit die Ableitung von analytisc gegebenen Funktionen näerungsweise bestimmen. Dazu betracten wir die Lagrange-Interpolation näer: P n (x) = n i=0 y i L (n) i (x); L (n) i (x) = n j=0 j i 8 William George Horner, , brit. Matematiker. (x x j ) (x i x j ) = n 1 (x i x j ) j=0 j i } {{ } λ i R x n +... }{{} x n

54 4 Lagrange-Interpolation Lagrange Polynome mit steigendem Grad i=2, n=4 i=3, n=6 i=4, n=8 i=5, n= y x Lagrange Polynome mit steigendem Grad i=5, n=10 i=6, n=12 i=7, n=14 i=8, n=16 0 y x Abbildung 14: Die Lagrange-Polynome L (n) n/2 für n = 4, 6, 8, 10, 12, 14,

55 4.7 Anwendung: Numerisce Differentation Wenn wir nun das i-te Lagrange-Polynom n mal nac x ableiten ergibt sic und damit d n P n (x) dx n = d n dx nl(n) i (x) = λ i n! n y i λ i n! f (n) (x) i=0 Wegen obiger Betractungen nemen wir an n ist nict groß und die Stützstellen sind nae zusammen. Auskunft über den möglicen Feler liefert folgender Satz 4.8. Sei f(x) C n [a, b] mit a = min i x i, b = max i x i Dann existiert ein ξ (a, b) so dass f (n) (ξ) = n y i λ i n!. i=0 Beweis: Betracte die Funktion g(x) = f(x) P n (x). g(x) at mindestens die n+1 Nullstellen {x 0, x 1,...,x n }. Satz von Rolle liefert bei n-maliger Anwendung: g at n Nullstellen, g at n 1 Nullstellen, g (3) at n 2 Nullstellen,... g (n) at n (n 1) = 1 Nullstelle. Diese liegt in (a, b) und wir nennen sie ξ. Für ξ gilt: Damit folgt die Beauptung. g (n) (ξ) = f (n) (ξ) n y i λ i n! = 0. Im folgenden setzen wir äquidistante Stützstellen voraus um einfacere Formeln für die Ableitungen zu eralten. Dann gilt i=0 1 λ i = (x i x 0 )...(x i x i 1 )(x } {{ } i x i+1 )...(x i x n ) } {{ } i Stück, positiv (n i) Stück, negativ ( ) 1 = n ( 1) n i i!(n i)! = ( 1)n i n n n! i und somit speziell gilt damit f (n) (x) 1 n ( n ( 1) n i i ) y i n i=0 } {{ } n-ter Differenzenquotient f (1) (x) = y 1 y 0, f (2) (x) y 2 2y 1 + y 0 2, f (3) (x) y 3 3y 2 + 3y 1 y

56 4 Lagrange-Interpolation Biser: n-te Ableitung aus Polynom vom Grad n. Man kann auc die m-te Ableitung aus einem Interpolationspolynom vom Grad n > m ausrecnen. Der Wert ängt dann allerdings von der Auswertestelle ab (Warum oben nict?). Beispiel: Erste Ableitung (m = 1) aus Polynomgrad n = 2 also 3 Punkten. x i x i 1 = sei wieder äquidistant: Ableiten liefert (x x 1 )(x x 2 ) P 2 (x) = y 0 (x 0 x 1 )(x 0 x 2 ) + y (x x 0 )(x x 2 ) 1 (x 1 x 0 )(x 1 x 2 ) + y (x x 0 )(x x 1 ) 2 (x 2 x 0 )(x 2 x 1 ) = 1 ( y0 2 2 (x x 1 )(x x 2 ) 2y 1 (x x 0 )(x x 2 ) + y 2 (x x 0 )(x x 1 ) ). P 2(x) = (y 0(2x x 1 x 2 ) 2y 1 (2x x 0 x 2 ) + y 2 (2x x 0 x 1 )). Wertet man in der Mitte an x 1 aus, so erält man f (x 1 ) P 2(x 1 ) = y 2 y 0 2 zentraler Differenzenquotient. Beispiel 4.9 (Zur numeriscen Differentation). Wir wollen die zweite Ableitung von f(x) = sin(x) für x = 0.6 mit dem zweiten Differenzenquotient ermitteln: zur Erinnerung: d 2 sin(x + ) 2 sin(x) + sin(x ) sin(x) dx2 2 sin(x) = 1 2 (ex e x ), d dx sin = cos = 1 2 (ex e x ), d 2 sin(x) = sin(x). dx2 Mit double Genauigkeit erält man den Wert sin(0.6) = 6, Dagegen liefert die numerisce Differentiation die folgende Tabelle 54

57 Differenzenquotient Auslöscung ! 4.8 Zusammenfassung Numerisce Differentation ist ser anfällig gegenüber Rundungsfelern. Möglice Abilfe bietet die Extrapolation (siee Übung). 4.8 Zusammenfassung Funktionen stellt man im Recner als Linearkombination bekannter Basisfunktionen dar. Als Basisfunktionen benutzt man beispielsweise Polynome. Für die Bestimmung eines Polynoms, welces durc eine gegebene Menge von Datenpunkten get eignen sic besonders die Lagrangen Basispolynome, da sie eine direkte Angabe des Interpolationspolynoms one Lösen eines Gleicungssystems erlauben. Die Qualität der Interpolation einer gegebenen Funktion ängt von der Größe der öeren Ableitungen dieser Funktion ab. Wacsen diese ser scnell so sind Polynome oen Grades (also viele Stützstellen) zu vermeiden. Mittels Polynomen kann man auc Formeln zur numeriscen Differentiation einer Funktion erleiten. Hier ist insbesondere auf die Auswirkung von Rundungsfelern zu acten. 55

58 4 Lagrange-Interpolation 56

59 5 Newton-Interpolation und Bernstein-Interpolation 5.1 Newton-Interpolation Die Interpolation mit Lagrange-Polynomen at einen entsceidenden Nacteil: Verändert man die Anzal der Stützstellen, so erält man völlig neue Lagrange-Polynome. Lagrange-Polynome eignen sic also nict zu einer inkrementellen Konstruktion des Interpolationspolynoms. Die Lösung at bereits Newton 9 gefunden, deswegen eißen die im folgenden eingefürten Basispolynome auc Newton-Polynome. Definition 5.1 (Newton-Polynome). Sei (x i, y i ), i = 0,...,n eine Interpolationstabelle. Die Newton-Polynome sind gegeben durc i 1 N 0 (x) = 1 und N i (x) = (x x j ) i = 1, 2,...,n. Beispiel: n = 2 : N 0 (x) = 1, N 1 (x) = (x x 0 ), N 2 (x) = (x x 0 )(x x 1 ). j=0 Die Newton-Polynome erlauben die rekursive Darstellung N 0 (x) = 1, N i (x) = (x x i 1 )N i 1 (x) Damit gilt N i (x k ) = 0 für alle i > k denn es ist N k+1 (x k ) = (x k x k )N k (x) = 0 und der Term (x x k ) kommt in allen N i (x) mit i k + 1, also i > k, vor. Stellt man die Interpolationsaufgabe in der Newton-Basis so ergibt sic p(x) = n a j N j (x); p(x i ) = y i i = 0,...,n j=0 y 0 = p(x 0 ) = a 0 1 (+0 da N i (x) = 0 für i > 0) a 0 = y 0 y 1 = p(x 1 ) = a 0 + a 1 (x 1 x 0 ) + 0 a 1 = y 1 a 0 x 1 x 0 y 2 = p(x 2 ) = a 0 + a 1 (x 2 x 0 ) + a 2 (x 2 x 1 )(x 2 x 0 ) a 2 = y 2 a 1 (x 2 x 0 ) a 0 (x 2 x 1 )(x 2 x 0 ) 9 Sir Isaac Newton, , engl. Pysiker und Matematiker. 57

60 5 Newton-Interpolation und Bernstein-Interpolation usw. Das LGS in der Newton-Basis at also untere Dreiecksgestalt. Hinzufügen eines Punktes n + 1 ändert a 0,...,a n nict! In der Praxis bestimmt man die a i auf numerisc stabilere Weise: Satz 5.2 (Dividierte Differenzen). Das Interpolationspolynom in der Newton-Basis ist p(x) = n y[x 0,...,x i ]N i (x) i=0 i = 0,...,n wobei die Koeffizienten über die rekursive Darstellung definiert sind: i = 0,...,n y[x i ] := y i erstes weg letztes weg { }} { { }} { y[x i+1,...,x i+k ] y[x i,...,x i+k 1 ] k = 1,...,n i y[x i,...,x i+k ] := x i+k x i Die Rekursion get also über die Anzal der Argumente. Grapisc siet das Rekursionsscema für den Fall n = 3 so aus: = a 0 = a 1 = a 2 = a 3 y 0 = y[x 0 ] y[x 0, x 1 ] y[x 0, x 1, x 2 ] y[x 0, x 1, x 2, x 3 ]... ւ ւ ւ y 1 = y[x 1 ] y[x 1, x 2 ] y[x 1, x 2, x 3 ]... ւ ւ y 2 = y[x 2 ] y[x 2, x 3 ]... ւ y 3 = y[x 3 ]... In der linken Spalte steen die Interpolationswerte. In der obersten Zeile steen die zu bestimmenden Koeffizienten. Praktisc berecnet man die Werte spaltenweise von links nac rects. Für den Fall n = 4 muss man das Tableau um eine Diagonale erweitern. Die biser berecneten Werte bleiben unangetastet. Beweis der Rekursionsdarstellung: Nac [Ran06]. Sei p i,i+k P k, 0 i i+k n das Polynom, das die Punkte (x i, y i ),...,(x i+k, y i+k ) interpoliert. Man zeigt p i,i+k (x) = y[x i ] + y[x i, x i+1 ](x x i ) y[x i,...,x i+k ](x x i )...(x x i+k 1 ) (5.1) Da p = p 0,n beweist dies auc obige Aussage. Der Beweis erfolgt durc Induktion über den Grad des Polynoms k. Für k = 0 gilt y[x i ] = y i, und p i,i (x) = y[x i ] = y i also alles klar. 58

61 5.1 Newton-Interpolation Induktionsscritt k 1 k. Sei die Aussage also rictig für alle p i,i+k 1 mit 0 i i+k 1 n (i) Konstruktionsgemäß gilt (vergleice mit (5.1)) Zu zeigen ist nun, dass a = y[x i,...,x i+k ]. p i,i+k (x) = p i,i+k 1 + a(x x i )...(x x i+k 1 ). Ausmultiplizieren liefert p i,i+k (x) = p i,i+k 1 + ax k +... und a ist der Koeffizient von x k in p i,i+k (x) da p i,i+k 1 nur ein Polynom vom Grad k 1 ist. (ii) Aus der Induktionsanname folgt mit der Überlegung aus (i) p i,i+k 1 (x) =... + y[x i...,x i+k 1 ]x k 1, p i+1,i+k (x) =... + y[x i+1...,x i+k ]x k 1, wobei... Polynome vom Grad kleiner k 1 sind. (iii) Nun betracte das folgende Polynom q(x) = (x x i)p i+1,i+k (x) (x x i+k )p i,i+k 1 (x) x i+k x i Es gilt: q interpoliert die Punkte (x i, y i )...(x i+k, y i+k )! Denn für x = x i oder x = x i+k ist einer der beiden Terme im Zäler 0 und die Induktionsvoraussetzung greift. Für x = x j, j i, k recne q(x j ) = (x j x i )y j (x j x i+k )y j x i+k x i = y j. Andererseits ist q(x) = p i,i+k 1 + (x x i ) p i+1,i+k(x) p i,i+k 1 (x) x i+k x i, also die Gestalt aus (i)! Wir braucen nur noc den fürenden Koeffizienten aus dem zweiten Term zu bestimmen. (iv) Dazu setze die Darstellung aus (ii) in die letzte Darstellung von q ein: p i,i+k (x) = q(x) = p i,i+k 1 + (x x i ) y[x i+1,...,x i+k ]x k y[x i,...,x i+k 1 ]x k 1... x i+k x ( i ) = p i,i+k 1 +x k y[xi+1,...,x i+k ] y[x i,...,x i+k 1 ] + } {{ } x i+k x i }{{}... Grad<k } {{ } Grad<k fürender Term =: a Beispiel 5.3. Es sei die Tabelle x i y i

62 5 Newton-Interpolation und Bernstein-Interpolation zu interpolieren. Das Dividierte-Differenzen-Scema lautet y[x 0 ] = 0 y[x 0, x 1 ] = y[x 1] y[x 0 ] x 1 x 0 y[x 1 ] = 1 y[x 1, x 2 ] = y[x 2] y[x 1 ] x 2 x 1 y[x 2 ] = 4 = y[x 0, x 1, x 2 ] = y[x 1,x 2 ] y[x 0,x 1 ] x 2 x 0 = = Das Interpolationspolynom lautet dann p(x) = y[x 0 ] 1 + y[x 0, x 1 ](x x 0 ) + y[x 0, x 1, x 2 ](x x 0 )(x x 1 ) = (x x 0 ) + 1 (x x 0 )(x x 1 ) = x + (x 1)x = x + x 2 x = x Neville-Darstellung Satz 5.4 (Neville 10 -Darstellung). Die Polynome p i,j, 0 i j n interpolieren die Punkte (x i, y i ),...,(x j, y j ) und sind rekursiv definiert: i = 0,...,n : p i,i (x) = y i k = 0,...,n i : p i,i+k (x) = p i,i+k 1 (x) + (x x i ) p i+1,i+k(x) p i,i+k 1 (x) x i+k x i Beweis: Das aben wir bereits im Beweis zu Satz 5.2 in (iii) bewiesen. Das Neville-Scema erlaubt die Auswertung des Interpolationspolynoms an einer Stelle ξ one die Koeffizienten des Interpolationspolynoms explizit zu berecnen. Setze dazu einfac x = ξ in obiger Rekursionsformel. Dies bietet sic an, wenn das Polynom nur an einer oder wenigen Stellen ausgewertet werden soll (z. B. bei Extrapolationsverfaren). Das Scema ist ganz änlic zu den Dividierten Differenzen, nur dass direkt die Polynomwerte in die Tabelle eingetragen werden: x 0 y 0 = p 0,0(x) p 0,1(x) p 0,2(x) p 0,3(x)... p 0,n 1(x) p 0,n(x) ր ր ր x 1 y 1 = p 1,1(x) p 1,2(x) p 1,3(x) p 1,4(x)... p 1,n(x) ր ր x 2 y 2 = p 2,2(x) p 2,3(x) p 2,4(x) p 2,5(x) x n. p n 1,n(x) y n = p n,n(x) 10 Eric Harold Neville, , engl. Matematiker. 60

63 5.3 Bernstein-Polynome Beispiel 5.5. Es sei wieder die Tabelle x i y i gegeben. Gesuct sei nur der Wert p(ξ) für ξ = 1/2. x 0 = 0 p 0,0(ξ) = 0 x 1 = 1 p 1,1(ξ) = 1 x 2 = 2 p 2,2(ξ) = 4 p 0,1(ξ) = p 0,0(ξ) +(x x 0) p 1,1(ξ) p 0,0 (ξ) x 1 x 0 = 0 + ( 1 2 0)1 0 = p 1,2(ξ) = p 1,1(ξ) +(x x 1) p 2,2(ξ) p 1,1 (ξ) x 2 x 1 = 1 + ( 1 2 1)4 1 = p 0,2(ξ) = p 0,1(ξ) +(x x 0) p 1,2(ξ) p 0,1 (ξ) x 2 x 0 = (1 2 0) ` 1 2 = = = 5.3 Bernstein-Polynome Definition 5.6 (Bernstein 11 -Polynome). Die binomisce Formel liefert Die Polynome 1 = ((1 t) + t) n = B in (t) = n ( ) n (1 t) n i t i i } {{ } =:B in (t) i=0 ( ) n (1 t) n i t i i = 0,...,n i eißen Bernstein-Polynome vom Grad n auf [0, 1]. Mittels der Transformation ϕ : [a, b] [0, 1], ϕ(u) = (u a)/(b a) kann man die Bernstein-Polynome auf [a, b] erweitern: B in (u; a, b) = B in (ϕ(n)) = ( ) n i (1 u a = ( ) n 1 i (b a) (b u) n i (u a) i. n b a )n i ( u a b a )i Abbildung 15 zeigt die Bernstein-Polynome vom Grad 6 auf dem Intervall [0, 1]. Die Bernstein-Polynome aben einige scöne Eigenscaften, die wir zusammenfassen in Satz 5.7 (Eigenscaften der Bernstein-Polynome). (i) t = 0 ist i-face Nullstelle von B in. Klar, da B in den Term t i entält. Anders ausgedrückt: dj t j B in (0) = 0 für j = 1,...,i 1. (ii) t = 1 ist n i-face Nullstelle von B in. Siee (i). (iii) Symmetrie: B in (t) = B n i,n (1 t). Folgt durc Einsetzen in die Definition. (iv) Positivität: 0 B in (t) 1 für alle t [0, 1], B in (t) > 0 für alle t (0, 1). 11 Sergei Natanowitsc Bernstein, , russ. Matematiker. 61

64 5 Newton-Interpolation und Bernstein-Interpolation i=0 i=1 i=2 i=3 i=4 i=5 i=6 0.6 y x Abbildung 15: Die Bernstein-Polynome vom Grad 6. Für t [0, 1] ist t 0 und 1 t 0 daer auc B in (t) 0. Wegen n i=0 B in(t) = 1 ist B in (t) = 1 n j=0,j i B jn(t) 1. B in > 0 für t (0, 1) folgt aus (i),(ii), denn es gibt keine weiteren Nullstellen. (v) B in at in [0, 1] genau ein Maximum in i /n. Die Ableitung des i-ten Bernstein-Polynoms vom Grad n ( ) n [ (n B in(t) = i)(1 t) n i 1 t i + (1 t) n i t i 1 i ] i ( ) n = (1 t) n i 1 t i 1 (i nt) i at eine i 1-face Nullstelle in 0, eine n i 1-face Nullstelle in 1 und eine einface in t = i/n. (vi) Die {B in } n i=0 sind linear unabängig und bilden eine Basis von P n. Zu zeigen ist, dass aus n i=0 b ib in (t) = 0 für alle t [0, 1] zwingend folgt, dass b i = 0. Es ist d j t j n b i B in (t) = i=0 n i=0 b i d j t j B in(t) = 0 t [0, 1]. Setze j = 0, t = 0. Es ist nur B 0n (0) 0 also b 0 = 0. 62

65 5.3 Bernstein-Polynome Setze j = 1, t = 0. Es ist nur B 1n (0) 0 also b 1 = 0. Usw. (vii) Die Bernstein-Polynome können rekursiv über den Grad n dargestellt werden: B 0n (t) = (1 t)b 0,n 1 (t) B in (t) = tb i 1,n 1 (t) + (1 t)b i,n 1 (t) B nn (t) = tb n 1,n 1 (t) Dies folgt aus der Rekursionsformel für Binomialkoeffizienten ( ) ( n i = n 1 ) ( i 1 + n 1 ) i (das Pascalsce Dreieck). (viii) Für die Ableitung gilt die Rekursionsformel (n 1) nb 0,n 1 (t) i = 0 B in(t) = n [B i 1,n 1 (t) B i,n 1 (t)] i = 1,...,n 1 nb n 1,n 1 (t) i = n Beacte: Das ist keine Rekursionsformel die Ableitungen aus Ableitungen ausrecnet. Sondern die Ableitung wird durc Bernstein-Polynome niedrigeren Grades zusammengesetzt. Wie oben bewiesen bilden die B in eine Basis von P n. Jedes Polynom lässt sic also darstellen als n p(t) = β i B in (t). Diese Darstellung nennt man die Bézier 12 -Darstellung des Polynoms. i=0 β i eißt Bézier-Koeffizient, und die ( i /n, β i ) T R 2, Die Verbindung der Bézier-Punkte eißt Bézier-Polygon. i = 0,...,n eißen Bézier-Punkte. Beispiel 5.8. Für die Bézier-Punkte (0, 0), ( 1 /3, 1), ( 2 /3, 1), (1, 1) lautet das Bézier-Polygon t 3 + 3t 2 3t. Abbildung 16 zeigt das Bézier-Polynom und Bézier-Polygon. Die Bézier-Punkte werden nict exakt interpoliert, es andelt sic also um eine Approximation. Bernstein at seine Polynome ursprünglic zum Beweis des Approximationssatzes von Weierstraß erfunden. Man kann ausserdem folgendes zeigen: Das Bézier-Polynom liegt immer in der konvexen Hülle des Bézier-Polygons. Die Ableitung an den Endpunkten 0, 1 stimmt mit den Steigungen des Bézier-Polygons überein (das kennt man aus Zeicenprogrammen). Es gilt unter Nutzung der Eigenscaften der Bernstein-Polynome: n p (0) = β i B in(0) = β 0 [ nb 0,n 1 (0)] + β 1 [nb 0,n 1 (0)] i=0 = n(β 1 β 0 ) 12 Pierre Bézier, , frz. Ingenieur. 63

66 5 Newton-Interpolation und Bernstein-Interpolation 1 Bezier-Polynom Bezier-Polygon 0.5 y x Abbildung 16: Das Bézier-Polynom und Bézier-Polygon zum Beispiel 5.8. Steigung des Bézier-Polygons ist: y x = (β 1 β 0 ) = n(β 1 β 0 ) = p (0). i/n 5.4 Algoritmus von de Casteljau Der Erfolg der Bézier-Polynome basiert auf einem ser effizienten Verfaren zur Auswertung der Polynome, bekannt als Algoritmus von de Casteljau. Man nutzt die rekursive Darstellung der Bézier-Polynome: p(t) = n i=0 β (0) i B in (t) ( ) = β (0) 0 (1 t)b 0,n 1(t) + β (0) 1 tb 0,n 1 (t) + (1 t)b 1,n 1 (t) ( ) ( ) + β (0) 2 tb 1,n 1 (t) + (1 t)b 2,n 1 (t) β n (0) tb n 1,n 1 (t) n 1 ( ) = β (0) i (1 t) + β (0) i+1 t B i,n 1 (t) i=0 } {{ } =:β (1) i 64

67 5.5 Kurveninterpolation Damit at man nun ein Bézier-Polynome vom Grad n 1 mit neuen Koeffizienten auszuwerten, auf welces man denselben Trick rekursiv anwenden kann. Es ergibt sic das Scema β (0) β (k) i i (t) = β i i = 0,....n (t) = β (k 1) i (1 t) + β (k 1) i+1 (t) i = 0,...,n k welces man wieder als Tableau änlic dem Neville-Scema seen kann: k = 0 k = 1 k = 2 k = n β 0 = β (0) 0 β (1) 0 β (2) 0... β (n) 0 ր ր ր β 1 = β (0) 1 β (1) 1 β (2) 1 ր β 2 = β (0) 2. β n = β (0) n Scließlic gilt nac Konstruktion ր p(t) = β (n) 0 (t). Beispiel 5.9 (Zum Algoritmus von Casteljau). Für die Auswertung an der Stelle ξ = 1 /2 ergibt sic mit den Daten aus Beispiel 5.8. β (0) 3 β (0) 0 β (1) 0 β (2) 0 β (3) 0 β (2) 1 β (1) 2 = 1 2 (β(0) 0 + β (0) 1 ) β (0) 1 β (1) β (0) Kurveninterpolation Bis jetzt aben wir nur Funktionen f : [a, b] R betractet. 65

68 5 Newton-Interpolation und Bernstein-Interpolation Was tut man, wenn man allgemein Kurven im R m, also Funktionen f : [a, b] R m interpolieren (oder approximieren) möcte? Gegeben seien n + 1 Punkte x (i) R m, i = 0,...,n (Superskript = Index, Subskript x (i) k ist die k-te Komponente von x (i) ). Diese Punkte sollen durc eine Kurve x : [a, b] R m verbunden werden. Für die Kurve soll die Interpolationsbedingung x(t i ) = x (i) für i = 0,...,n und a = t 0 < t 1 <... < t n = b gelten. Dies lässt sic auf m unabängige Interpolationsaufgaben x k (t i ) = x (i) k i = 0,...,n, k = 1,...,m zurückfüren, wofür man z.b. Lagrangeinterpolation nutzen kann. Der Parameterbereic [a, b] ist oft willkürlic, da nur die Punkte x (i) gegeben sind. Dann bietet sic die Bogenlänge an. Die in vielen Zeicenprogrammen benutzten Bézierkurven erält man mittels x(t) = n x (i) B in (t), i=0 wobei wir ier a = 0, b = 1 angenommen aben. Hier werden die gegebenen Punkte aber (wie beim Bézier-Polynom) nict exakt interpoliert, man sprict dann von Kontrollpunkten. Der Casteljau-Algoritmus lässt sic völlig analog auc auf Kurven übertragen. Scließlic aben erweiterte Verfaren über merdimensionalen Parameterbereicen vielfältige Anwendungen in der Computergeometrie bzw. im Computer Aided Design. 5.6 Zusammenfassung Mit der Newton-Interpolation erält man ein inkrementelles Verfaren zur Polynominterpolation. Die Neville-Darstellung eignet sic insbesondere, wenn ser wenige Auswertungen des Interpolationspolynoms gebrauct werden. Bernstein-Polynome und die daraus abgeleiteten Bézier-Polynome eignen sic ser gut zur glatten Approximation gegebener Datenpunkte. Viele Zeicenprogramme verwenden die Bézier-Kurven zur Darstellung glatter Kurven, die man mittels Kontrollpunkten in irer Lage beeinflussen kann. 66

69 6 Stückweise Polynome 6.1 Einfürung und Aufgabenstellung Wir aben geseen: Die Interpolation von Funktionen mit Polynomen vom Grad n erfordert die Existenz von Ableitungen bis zur Ordnung n + 1. Selbst für simple Funktionen (wie z.b. f(x) = 1 1+x 2 ) konvergiert die Polynominterpolation an äquidistanten Stützstellen nict mer gleicmäßig da die oen Ableitungen zu scnell wacsen. Die Polynominterpolation für großen Grad ist sclect konditioniert in Bezug auf die Stützwerte (kleine Änderungen in den y i können einen großen Effekt an anderer Stelle aben). Was soll man also tun, wenn viele Stützstellen zu interpolieren sind oder die zu interpolierende Funktion nict genügend oft differenzierbar ist? Idee: Verwende Polynome abscnittsweise! Sei [a, b] ein Intervall mit einer gegebenen Unterteilung a = x 0 < x 1 <... < x n = b. I i = [x i 1, x i ], i = 1,...,n eißt Teilintervall und wir setzen für die Länge der Teilintervalle. Zu k, r N 0 definieren wir i = x i x i 1, := max i {1,...,n} i S k,r [a, b] = {p Cr [a, b] p Ii P k }, den Raum der global r mal stetig differenzierbaren Funktionen, die stückweise Polynome vom Grad k sind. Beacte: Die Funktionen sind immer mindestens C 0. Beispiel 6.1. S 1,0 eißt Raum der stückweise linearen und global stetigen Funktionen. I 1 I 2 I 3 I 4 I 5 a = x 0 x 1 x 2 x 3 x 4 x 5 = b Eine Funktion f S 1,0 [a, b] ist eindeutig durc die Werte an den Knoten x 0,...,x n definiert. { S 1,0 1 i = j [a, b] ist ein n + 1-dimensionaler Vektorraum. Als Basis wäle etwa ϕ i(x j ) = 0 i j. Diese Funktionen eißen Hutfunktionen. S 1,0 spielt eine Rolle bei der numeriscen Lösung partieller Differentialgleicungen. Hier interessieren uns Räume mit r > 0. 67

70 6 Stückweise Polynome 6.2 Kubisce Splines In der Praxis wictig ist S 3,2 [a, b], d.. Polynomgrad 3 und global 2 mal stetig differenzierbar. Gescicte: Zu Beginn des 20. Jarunderts konstruierte man glatte Kurven im Sciffs- und Flugzeugbau mit so genannten Straklatten (engl. splines) Nägel dünnes Balsaolz biegt sic unter Energieminimierung Welce Bedingungen legen eine Funktion s(x) S 3,2 [a, b] fest? Zunäcst ist s(x) stückweise definiert, also gilt { pi (x) x [x p(x) = i 1, x i ), i 1,...,n, p n (x n ) x = x n (letzter Punkt), mit p i (x) P k. An die p i stellen wir die folgenden Bedingungen. (i) Interpolationsbedingungen (Stetigkeit): i = 1,...,n : p i (x i 1 ) = y i 1 p i (x i ) = y i } 2n Bedingungen. (ii) Stetigkeitsbedingungen an die Ableitungen: p i = 1,...,n 1 : i (x i) = p i+1 (x } i) } {{ } p i (x i) = p i+1 (x 2n 2 Bedingungen. i) innere Knoten! (iii) Randbedingungen (für sog. natürlice Splines, andere sind möglic): p 1 (x } 0) = 0 p 2 Bedingungen. n(x n ) = 0 Somit ergeben sic 4n Bedingungen für die 4n Freieitsgrade (n Polynome p i (x) vom Grad k = 3). Wie berecnet man nun die Koeffizienten der Polynome? Vorer aber ein Beispiel. 68

71 6.2 Kubisce Splines 10 8 Daten Polynom Grad 6 Linear Kubiscer Spline 6 y x Abbildung 17: Vergleic der Interpolation mit Polynomen, stückweise linearen Funktionen und kubiscen Splines. Beispiel 6.2 (zu Kubiscen Splines). Es sei folgende Wertetabelle zu interpolieren: x y Wir verwenden ein Polynom vom Grad 6, stückweise lineare Funktionen sowie kubisce Splines (mit natürlicen Randbedingungen). Abbildung 17 zeigt die Interpolation mit Polynomen, stückweise linearen Funktionen und kubiscen Splines anand eines Beispiels. Deutlic zu erkennen ist der starke Überscwinger bei der Polynominterpolation. Satz 6.3 (Berecnung kubiscer Splines). Wir screiben die Teilpolynome der Splines in der Form p i (x) = a (i) 0 + a(i) 1 (x x i) + a (i) 2 (x x i) 2 + a (i) 3 (x x i) 3, i = 1,...,n. Die a (i) 2 sind dann Lösung des linearen Gleicungssystems der Dimension n 1 i a (i 1) 2 + 2( i + i+1 )a (i) 2 + i+1a (i+1) 2 = { yi+1 y i 3 wobei a (0) 2 = a (n) 2 = 0 und i = x i x i 1. i+1 y } i y i 1 i i = 1,...,n 1, (6.1) 69

72 6 Stückweise Polynome Die restlicen Koeffizienten können für i = 1,...,n aus den a (i) 2 berecnet werden: a (i) Dies wollen wir nun scrittweise erleiten. Beweis: Nac [Ran06, S. 45]. 0 = y i (6.2) a (i) 1 = y i y i 1 + { } i 2a (i) 2 i 3 + a(i 1) 2, (6.3) a (i) 3 = a(i) 2 a(i 1) 2. (6.4) 3 i (i) Berecne zunäcst die Ableitung von p i (x) (get einfac, da d dx (x x i) n = n(x x i ) n 1 ) : p i(x) = a (i) 1 + 2a(i) 2 (x x i) + 3a (i) 3 (x x i) 2 p i (x) = 2a (i) 2 + 6a(i) 3 (x x i) (ii) Nun nutze die Interpolationsbedingungen: Einsetzen des Punktes x i liefert was Aussage (6.2) des Satzes beweist. Einsetzen des Punktes x i 1 liefert und damit wegen a (i) 0 = y i y i = p i (x i ) = a (i) 0 a (i) 0 = y i i = 1,...,n (6.5) y i 1 = p i (x i 1 ) = a (i) 0 ia (i) i a (i) 2 3 i a (i) 3 i = 1,...,n y i 1 y i = i a (i) i a(i) 2 3 i a(i) 3 (6.6) (iii) Einsetzen der Randbedingungen liefert (iv) Stetigkeit der ersten Ableitung 0 = p 1(x 0 ) = 2a (1) a (1) 3 a (1) a (1) 3 = 0 (6.7) 0 = p n(x n ) = 2a (n) 2 a (n) 2 = 0 (6.8) p i(x i ) = p i+1(x i ) i = 1,...,n 1 innere Punkte a (i) 1 = a (i+1) 1 2 i+1 a (i+1) i+1 a(i+1) 3 (6.9) 70

73 6.2 Kubisce Splines (v) Stetigkeit der zweiten Ableitung p i (x i ) = p i+1(x i ) i = 1,...,n 1 2a (i) 2 = 2a (i+1) 2 6 i+1 a (i+1) 3 a (i) 2 = a (i+1) 2 3 i+1 a (i+1) 3 (6.10) (vi) Nun drücke a (i) 3 durc a (i) 2 aus. Dazu löse (6.10) aus (v) nac a (i+1) 3 auf a (i+1) 3 = a(i+1) (Beacte: (v) galt nur für die inneren Punkte). Aus der Randbedingung (6.7) aus (iii) scließen wir 2 a (i) 2 i = 1,...,n 1 3 i+1 a (1) 3 = a(1) 2 Indem wir formal a (0) 2 = 0 einfüren (beacte: es gibt nur Koeffizienten für Superskript 1,...,n) können wir also screiben 3 1. a (i) 3 = a(i) 2 a(i 1) 2 3 i i = 1,...,n. Das beweist die Aussage (6.4) des Satzes. (vii) Nun drücke die a (i) 1 durc die a (i) 2 aus. Dazu löse (6.6) aus (ii) nac a (i) 1 auf. Nun setze drücke a (i) 3 durc die a (i) 2 aus a (i) 1 = y i y i 1 + i a (i) 2 2 i a (i) 3 i = 1,...,n i a (i) 1 = y i y i 1 + i a (i) 2 2 i i = y i y i 1 i Das zeigt Aussage (6.3) des Satzes. + i 3 { 2a (i) 2 + a(i 1) 2 ( a (i) 2 a(i 1) 2 3 i } ) i = 1,...,n. i = 1....,n (viii) Nun setze die ergeleiteten Ausdrücke für a (i) 1 und a (i) 3 in die verbleibende Gleicung (6.9) aus (iv) ein y i y i 1 i + i 3 { } 2a (i) 2 + a(i 1) 2 = y i+1 y i + { } i+1 2a (i+1) 2 + a (i) 2 2 i+1 a (i+1) i+1 i+1 3 ( ) a (i) 2 a(i 1) 2 3 i 71

74 6 Stückweise Polynome für i = 1,...n 1. Umordnen der a s nac links, und der y s nac rects ergibt i a (i 1) 2 + 2( i + i+1 )a (i) 2 + i+1a (i+1) 2 = { yi+1 y i 3 y } i y i 1 i+1 i i = 1,...n 1. Dies ist die Aussage (6.1) des Satzes. Dies sind n 1 Gleicungen für die n 1 Unbekannten a (i) 2, i = 1,...n 1 da wir formal a(0) 2 = 0 einfürten und a (n) 2 = 0 nac (6.8) aus der Randbedingung. Das Gleicungssystem Ax = b at Tridiagonalgestalt und lautet: 2( ) ( ) 3 A = 0 3 2( ) 4., n 1 2( n 1 + n ) { } 3 y2 y 1 2 y 1 y 0 1 x = a (1) 2. a (n 1) 2, b = 3 { yn y n 1 n. } y n 1 y n 2 n 1. Außerdem at das lineare Gleicungssystem folgende Eigenscaften: a ij = a ji (Symmetrie) n 1 j=1,i j a ij < a ii (strikte Diagonaldominanz) Hieraus kann man mit Sätzen der linearen Algebra die eindeutige Lösbarkeit scließen. Scließlic werden wir in einer späteren Vorlesung erfaren, dass das dieses spezielle Gleicungssystem mit dem Aufwand O(n) gelöst werden kann. Auc für die kubiscen Splines kann man wieder den Interpolationsfeler betracten. Satz 6.4 (Felerabscätzung für kubisce Splines). Sei f C 4 [a, b]. Erfüllt der kubisce Spline s n(a) = f (a) und s n(b) = f (b) (also in Erweiterung der natürlicen Randbedingungen oben) so gilt max a x b f(x) s n(x) max a x b f(4) (x). (6.11) Der Beweis kann ier in der Vorlesung nict gegeben werden, wir verweisen auf [SW70]. 72

75 y y y 6.2 Kubisce Splines Wir seen: Scrittweite und Differenzierbarkeitsordnung sind nun entkoppelt. Der (lokale) Polynomgrad get in die Potenz von ein. Außerdem sind Splines sind wesentlic stabiler gegen Störungen in den Stützwerten y i. Beispiel 6.5 (Zur Konvergenzordnung stückweiser Polynome). Wir betracten die Interpolation der folgenden drei Funktionen f 1 (x) = exp( x 2 ) in [ 10, 10], (6.12) { cos f 2 (x) = 2 (x) x < π /2 0 x π /2 { 1 x < 1/2 f 3 (x) = +1 x 1 /2 in [ π, π], (6.13) in [0, 1], (6.14) mittels Polynomen, S 1,0 und S 3,2 (mit natürlicen Randbedingungen, alle Funktionen f i erfüllen (näerungsweise) f i = 0 an den Randpunkten). 1 f1(x) f2(x) 1 f3(x) x x x Die Abbildung 18 zeigt die Interpolation der Funktion f 1 (x). Die Abbildung 19 zeigt die Interpolation der Funktion f 2 (x). Die Abbildung 20 zeigt die Interpolation der Funktion f 3 (x). Wir lernen: Interpolation mit Polynomen steigenden Grades an äquidistanten Stützstellen sclägt in allen Fällen fel, d.. der Interpolationsfeler steigt mit dem Grad an. Kubisce Splines konvergieren und liefern einen glatten Verlauf. Allerdings kommt es zu möglicerweise unpysikaliscen Unter- bzw. Überscwingern. Diese sind aber im Falle von f 3 (x) um die Sprungstelle lokalisiert. Stückweise lineare Funktionen aben diesen Defekt nict. Wir wollen nun den Interpolationsfeler noc experimentell bestimmen. Feler bei Interolation der Funktion f 1 (x) = e x2 : 73

76 6 Stückweise Polynome n S 1,0 P n e e e e e e e e e e e e e e e e e e e e e e e e e e 09 S 3,2 Angegeben ist der maximale Feler an einem Punkt. Polynome konvergieren nict. Stückweise linear konvergiert mit 2 (d.. e 2n /e n = ( 1 /2) 2 ), kubisce Splines mit 4 (d.. e 2n /e n = ( 1 /2) 4 ). In beiden Fällen gilt dies nur wenn n genügend groß, man sprict von asymptotiscer Konvergenz. { cos Feler bei Interolation der Funktion f 2 (x) = 2 (x) x < π /2 0 x π : /2 n S 1, e e e e e e e e e e e e e e e e e e 06 S 3,2 In diesem Fall konvergiert der maximale Feler auc im Falle kubiscer Splines nur mit 2. Dies liegt daran, dass f 2 (x) unstetig am Punkt x = π /2 ist (springt von 2 auf 0). Die dritte Ableitung existiert nict mer. Regel 6.6. Für die Interpolation mit stückweisen Polynomen merken wir uns: Je öer der (abscnittsweise) Polynomgrad umso scneller konvergiert das Verfaren. Im allgemeinen erält man O( k+1 ) Konvergenz für Polynome vom Grad k. Dies gilt allerdings nur dann, wenn die zu interpolierende Funktion genügend of differenzierbar ist. Ist dies nict der Fall so lont also auc die Verwendung von Polynomen oen Grades nict. 74

77 6.3 Polynome in mereren Raumdimensionen Die oben eingefürten natürlicen kubiscen Splines bilden den Funktionenraum S 3,2 [a, b] = {p C2 [a, b] p Ii P 3 p (a) = p (b) = 0} S 3,2 [a, b]. S 3,2 Offensictlic wird s [a, b] durc n+1 Werte an den Stützstellen x i, i = 0,...,n eindeutig festgelegt, d.. die Dimension von [a, b] ist n + 1. Oben aben wir eine Funktion s [x i 1, x i ) festgelegt. S 3,2 3,2 S [a, b] mittels der Koeffizienten a(i) k auf jedem Abscnitt Eine andere Möglickeit bestet darin, dass man eine Basis φ 0,...,φ n von dann die Koeffizienten β i wie üblic mittels bestimmt. n β i φ i (x i ) = y i i=0 3,2 S [a, b] wält und In der Praxis wält man die sogenannten B-Splines als Basis. Diese aben folgenden Eigenscaften: Die φ i sind an öcstens 5 aufeinanderfolgenden Stützstellen ungleic Null. Das Gleicungssystem at 5-Diagonalgestalt. Die φ i können rekursiv definiert werden. Für weitere Einzeleiten verweisen wir auf [SK05]. 6.3 Polynome in mereren Raumdimensionen Biser: Nur eine Variable, z.b. Zeit, x-position Aber: Die Welt ist dreidimensional! In der Anwendung treten oft Funktionen in mereren Variablen auf. Polynome lassen sic entsprecend übertragen: z.b. p(x 1, x 2 ) = a 2 x 2 + a 1 x 1 + a 0 q(x 1, x 2 ) = a 3 x 1 x 2 + a 2 x 2 a 1 x 1 + a 0 r(x 1, x 2, x 3 ) = a 5 x a 4 x 1 x 2 + a 3 x 3 + a 2 x 2 + a 1 x 1 + a 0 Wir wollen uns zunäcst anseen, wie man systematisc Polynome in mer als einer Raumdimension definiert. Dazu braucen wir erst ein paar Bezeicnungen. Definition 6.7 (Multiindex-Notation). Es seien Vektoren α = (α 1,...,α d ) T, α i N 0, x = (x 1,...,x d ) T, x i R 75

78 6 Stückweise Polynome gegeben. Dann definieren wir Darüberinaus setzen wir x α = d i=1 x α i i α 1 = d α i, i=1 α = max i=1...d α i. Definition 6.8 (Merdimensionale Polynome). Eine Funktion α A a αx α eißt Polynom in d Raumdimensionen. Für die Menge A gibt es versciedene Möglickeiten. Wir betracten die beiden folgenden: P n (d) = v Q (d) n = v In zwei Raumdimensionen (d = 2) gilt dabei v = v = α 1 n α n a α x α a α x α (6.15) (6.16) #P (2) n = (n + 1)(n + 1), #Q (2) n = (n + 1) 2. 2 Wir verdeutlicen diese Konstruktion in 2 Raumdimensionen (d = 2). Die Monome lassen sic folgendermaßen anordnen (wie im Pascal scen Dreieck): 1 x 1 x 2 x 2 1 x 1 x 2 x 2 2 x 3 1 x 2 1 x 2 x 1 x 2 2 x 3 2 x 4 1 x 3 1 x 2 x 2 1 x2 2 x 1 x 3 2 x

79 6.4 Zusammenfassung Es ist P (2) 1 in rot, P (2) 2 in blau und Q (2) 2 in grün. Lagrangeinterpolation lässt sic relativ leict übertragen sofern man sic auf Q n bescränkt. Wir beandeln nur d = 2, die Erweiterung der Konstruktion auf größeres d gelingt aber leict. Die Koordinaten wollen wir mit (x, y) bezeicnen. Es seien X = {x 0, x 1,...,x n }, Y = {y 0, y 1,...,y n } die Unterteilungen für die x- respektive y-rictung. Für jede Unterteilung können wir die entsprecenden Lagrange-Basispolynome aufstellen: L (x,n) i (x) = n j=0,j i x x j x i x j, L (y,n) i (y) = n j=0,j i y y j y i y j. Damit können wir dann zweidimensionale Lagrange-Polynome definieren mittels L (n) i,j (x, y) = L(x,n) Dies nennt man eine Tensorproduktkonstruktion. Für diese Polynome gilt dann i (x)l (y,n) j (y). (6.17) { L (n) 1 r = i j = s i,j (x r, y s ) = 0 sonst (r, s) {0,...,n} {0,...,n}. Die L (n) i,j bilden eine Basis von Q (2) n. Die Konstruktion kann leict auf untersciedlice Zal von Stützstellen in jede Rictung erweitert werden. Beispiel 6.9. Wir betracten n = 2, also X = {x 0, x 1, x 2 }, Y = {y 0, y 1, y 2 }. Für i = 2, j = 1 eralten wir L (2) 2,1 (x, y) = L(x,2) 2 (x)l (y,2) 1 (y) = (x x 0)(x x 1 ) (x 2 x 0 )(x 2 x 1 ) (y y 0 )(y y 2 ) (y 1 y 0 )(y 1 y 2 ). Die Abbildung 21 zeigt die Lagrange-Polynome L (2) 2,1 und L(2) 1, Zusammenfassung Zur Interpolation bei vielen Datenpunkten verwendet man stückweise polynomiale Funktionen. Dabei kann man mer oder weniger viele Ableitungen der Interpolationsfunktion stetig alten. 77

80 6 Stückweise Polynome Wir aben Polynome in mer als einer Variablen eingefürt um Funktionen mit entsprecend vielen Variablen interpolieren zu können. ken- Die Definition von Polynomen im R d lässt einige Freieit. Wir aben P n (d) nengelernt. und Q (d) n Auc in mereren Raumdimensionen lassen sic stückweise Polynome definieren, allerdings ist dies im allgemeinen wesentlic scwieriger, da die Abscnitte keine einfacen Intervalle mer sind. 78

81 6.4 Zusammenfassung exp(-x*x) n= 4 n= 6 n= 8 f(x) = exp(-x*x), Polynom -0.5 y x exp(-x*x) n= 4 n= 8 n=16 f(x) = exp(-x*x), stueckweise linear 0.6 y x exp(-x*x) n= 4 n= 8 n=16 f(x) = exp(-x*x), kubiscer Spline 0.6 y x Abbildung 18: Interpolation der Funktion f 1 (x) mit Lagrange-Polynomen, stückweise linearen Funktionen und kubiscen Splines. 79

82 6 Stückweise Polynome n= 4 n= 8 n=16 n=16 f(x) = cos(x)*cos(x), stueckweise linear y x n= 4 n= 8 n=16 n=16 f(x) = cos(x)*cos(x), kubiscer Spline 0.6 y x Abbildung 19: Interpolation der Funktion f 2 (x) mit Lagrange-Polynomen, stückweise linearen Funktionen und kubiscen Splines. 80

83 6.4 Zusammenfassung 8 6 n= 4 n= 6 n= 8 n=10 Sprungfunktion, Polynom 4 y x Sprungfunktion, stueckweise linear 1 n= 4 n= 8 n=16 n= y x Sprungfunktion, kubiscer Spline 1 n= 4 n= 8 n=16 n= y x Abbildung 20: Interpolation der Funktion f 3 (x) mit Lagrange-Polynomen, stückweise linearen Funktionen und kubiscen Splines. 81

84 6 Stückweise Polynome L x y 1 L x y 1 Abbildung 21: Die Lagrange-Polynome L (2) 2,1 und L(2) 1,1. 82

85 7 Trigonometrisce Interpolation 7.1 Trigonometrisce Polynome In den Anwendungen treten oft periodisce Funktionen auf, d.. für ein R ω > 0 gilt f(x + ω) = f(x) x R Zur Darstellung solcer Funktionen im Recner bietet sic die Interpolation mit trigonometriscen Summen t n (x) = a 0 m 2 + { ( ) ( )} kx2π kx2π a k cos + b k sin (7.1) ω ω k=1 an, da jeder einzelne Summand bereits ω-periodisc ist (cos(k(x+ω)2π/ω) = cos(kx2π/ω+k2π). (7.1) at 2m + 1 freie Parameter, wir setzen desalb ab sofort n := 2m. (7.2) O.B.d.A. setzen wir ab sofort auc ω = 2π, d.. alle Funktionen sind 2π-periodisc. Als Stützstellen für die Interpolation verwenden wir x k = Beacte: Wegen f(x) = f(x + 2π) ist = 1 /n+1. k 2π k = 0,...,n. (7.3) n + 1 Es zeigt sic, dass die Interpolationsaufgabe zunäcst leicter im Bereic der komplexen Zalen C zu lösen ist. Dazu betractet man das komplexe trigonometrisce Polynom t n(x) = n c k e ikx (7.4) k=0 mit der imaginären Eineit i = 1, komplexen Koeffizienten c k C und der Eulerscen 13 Identität e iϕ = cos ϕ + i sinϕ. Wir stellen zunäcst einige Eigenscaften der komplexen Exponentialfunktion zusammen, die wir im folgenden benötigen. Hilfssatz 7.1 (Komplexe Eineitswurzeln). Setze C w k = e ix k = e i k2π n+1 für alle k Z. wk nennt man k-te Eineitswurzel. Diese aben folgende Eigenscaften. (a) w n+1 k 1 = 0 für alle k Z. Die w k sind also Lösungen der Gleicung w n+1 1 = 0 in C, denn w n+1 k = (e n+1) i k2π n+1 = e ik2π = cos k2π + i sink2π = Leonard Euler, , Scweitzer Matematiker. 83

86 7 Trigonometrisce Interpolation (b) w j k = wk j für alle k, j Z, denn ( ) w j k = e i k2π j ( n+1 = e i kj2π n+1 = e n+1) i j2π k = w k j. (c) w j k = w k j für alle k, j Z. Zeigt man auc durc Einsetzen, ist aber nict identisc (b). (d) w j k = wj mod (n+1) k = w j k mod (n+1) = wj mod (n+1) k mod (n+1). Sei j = r(n + 1) + s mit 0 s < n + 1, dann recnet man w j k Der Rest get genauso. { n (e) w j n + 1 k = 0 k = 0 k Z \ {0}. j=0 = ei k[r(n+1)+s]2π n+1 = e ikr2π } {{ } =1 e i ks2π n+1 = w j mod (n+1) k. Ist k = 0 so ist w k = 1 und w j k = 1 für alle j. Also ist n j=0 wj k = n + 1. Sei nun k 0. Nac (a) ist jedes w k Lösung von w n+1 1 = (w 1)(w n + w n ) = 0. Für k 0 ist w k 1 w k 1 0. Also muss der zweite Faktor gleic 0 sein, mitin n j=0 wj k = 0. Damit beweisen wir den folgenden Satz 7.2 (Komplexe trigonometrisce Interpolation). Zu gegebenen Zalen y 0,...,y n C gibt es genau eine Funktion der Gestalt die den Interpolationsbedingungen t n(x) = n c k e ikx k=0 t n(x j ) = y j j = 0,...,n, x j = j n + 1 2π, genügt. Die komplexen Koeffizienten c k sind bestimmt durc c k = 1 n + 1 Beweis: Mit w = e ix gilt offensictlic t n(x) = n c k e ikx = k=0 n j=0 k=0 y j e ijx k } {{ } =w j k k = 0,...,n. (7.5) ( ) k n n c k }{{} e ix = c k w k = p n (w). w k=0 84

87 7.2 Diskrete Fourier-Analyse t n ist also ein komplexes Polynom n-ten Grades in w. Die Interpolationsbedingungen lauten entsprecend t n(x k ) = p n (x k ) = y k k = 0,...,n. Die Polynominterpolation ist im Komplexen eindeutig, so auc t n. Zur Berecnung der Koeffizienten. Für beliebiges k gilt n n n y j w j n k = c l e ilx j n n w j c l wj l k. j=0 j=0 t n(x j )w j k = j=0 l=0 }{{} =w l j k = Für die zweite Summe gilt n j=0 wl k j = { n n + 1 l = k j=0 wj l k = 0 l k. Damit bleibt aus der äußeren Summe nur ein Summand für l = k übrig: n y j w j k = c k (n + 1) c k = 1 n y j w j n + 1 k = 1 n y j e ijx k. n + 1 j=0 Damit aben wir insbesondere auc für reelle y j die Interpolationsaufgabe gelöst. Wegen t n(x) = n c k e ikx = k=0 ist das scon fast eine trigonometrisce Summe. j=0 l=0 n c k (cos kx + i sinkx) k=0 Es stellt sic eraus, dass bei reellen Daten y j die Koeffizienten c k dergestalt sind, dass t n(x) R für x R. j=0 j=0 7.2 Diskrete Fourier-Analyse Aus dem komplexen trigonometriscen Interpolationspolynom kann auc die trigonometrisce Summe mit iren reellen Koeffizienten bestimmt werden. Satz 7.3 (Diskrete Fourier 14 -Analyse). Für n N 0 gibt es zu gegebenen reellen Zalen y 0,...,y n genau ein trigonometrisces Polynom der Form mit t n (x j ) = y j t n (x) = a 0 m 2 + {a k cos(kx) + b k sin(kx)} + θ 2 a m+1 cos((m + 1)x) k=1 j = 0,...,n sowie θ = 0, m = n 2 θ = 1, m = n 1 2 n gerade n ungerade n gerade: 2 (n/2) + 1 = n + 1, n ungerade: 2 (n 1)/2 + 2 = n Jean-Baptiste de Fourier, , frz. Matematiker und Pysiker. a 0,...a m, b 1....,b m a 0,...a m+1, b 1,...,b m 85

88 7 Trigonometrisce Interpolation Die Koeffizienten werden bestimmt durc a k = 2 n + 1 n j=0 y j cos(jx k ), b k = 2 n + 1 n y j sin(jx k ), (7.6) oder äquivalent dazu aus den Koeffizienten des komplexen Interpolationspolynoms: a 0 = 2c 0, j=0 (7.7a) a k = c k + c n+1 k, k = 1,...,m, (7.7b) b k = i(c k c n+1 k ), k = 1,...,m, (7.7c) a m+1 = 2c m+1, n = 2m + 1 (n ungerade). (7.7d) Beweis: siee [Ran06]. Wir zeigen ier nur, dass die Koeffizienten tatsäclic reell sind: Z. B. das a k : a k = c k + c n+1 k = 1 n ( y j e ijx k + e ijx ) 1 (n+1) k = n + 1 n + 1 = 1 n + 1 = 2 n + 1 j=0 n ( y j e ijx k + e ijx ) k j=0 n y j [cos( jx k ) + i sin( jx k ) + cos(jx k ) + i sin(jx k )] j=0 n y j cos(jx k ). j=0 7.3 Praktisces zur Diskreten Fourier Analyse Abbildung 22 zeigt einige Beispiele für Spektren. Die Konstante im Zeitbereic at einen Puls als Spektrum. Umgedret at ein Puls im Ortsbereic ein konstantes Spektrum. Scließlic wird noc das Spektrum eines Dreiecks- bzw. Rectecksignals gezeigt. Abbildung 23 zeigt die Interpolation von Dreick- bzw. Rectecksignal bei Vorgabe von jeweils act Datenpunkten. Abbildung 24 illustriert die Verbesserung der Annäerung an die zu interpolierende Funktion bei steigendem Parameter n. Abbildung 24 illustriert die Verbesserung der Annäerung bei unstetigen Funktionen, wenn an der Sprungstelle der Mittelwert vorgescrieben wird. Wir verwenden einmal n = 15 (Sprungstelle ist Interpolationspunkt, Mittelwert wird vorgescrieben) und n = 16 (Sprungstelle ist kein Interpolationspunkt). 86

89 7.4 Trigonometrisce Approximation 7.4 Trigonometrisce Approximation Auc bei der trigonometriscen Interpolation kann man die Frage nac dem Interpolationsfeler zwiscen den Stützpunkten stellen. Wir betracten dazu die folgende allgemeinere Aufgabe: Mit t n (x) = a 0 m 2 + {a k cos(kx) + b k sin(kx)} (2m + 1 Parameter, n = 2m) k=1 und einer gegebenen Funktion f(x) betracte die Approximationsaufgabe Es zeigt sic, dass [ π 1/2 t n (x) f(x) 2 := (t n (x) f(x)) dx] 2 min. π a k = 1 π b k = 1 π π π π π f(x)cos(kx)dx f(x)sin(kx)dx k = 0,...,m (m + 1) Koeffizienten k = 1,...,m m Koeffizienten das Problem löst. Dabei ist (f, g) 2 = π π f(x)g(x)dx das sogenannte L 2 -Skalarprodukt auf dem Raum der quadratintegrierbaren Funktionen L 2 (a, b) = {u : (a, b) R π π u 2 dx < }. Die Funktionen cos(kx), sin(kx) bilden ein Ortogonalsystem, d.. π π π π π π cos jxcos kx dx = sin jxsinkx dx = 0 j k 2π j = k = 0 π j = k > 0 { 0 j k, k, j > 0 π j = k > 0 cos jxsinkx dx = 0 j 0, k > 0. Diese Konstruktion funktioniert für beliebig großes m. Für m = sprict man auc von Fourier-Reie. Man kann weiter zeigen: Die Fourier-Reie (unendlices m) konvergiert genau für die Funktionen aus L 2 (a, b). 87

90 7 Trigonometrisce Interpolation Für stückweise stetig differenzierbare Funktionen konvergiert die Fourier-Reie gegen f(x 0 ) falls f(x) bei x 0 stetig, sonst gegen den Mittelwert aus links- und rectsseitigem Grenzwert. Für endlices n löst t n (x) die anfangs gestellte Approximationsaufgabe. Für Details sei auf [SK05] verwiesen. Wir wollen nun zeigen welce Bezieung zwiscen der Approximationsaufgabe und der Diskreten Fourier-Analyse bestet. Für die endlice Fourier-Reie sind die Koeffizienten mittels zu berecnen. a k = 1 π π π f(x)cos(kx)dx b k = 1 π π π f(x) sin(kx)dx Berecnet man diese Integrale näerungsweise mit der Trapezregel (ausfürlic näcste Stunde) so ergeben sic dieselben Koeffizienten wie bei der Diskreten Fourier-Analyse (also aus der trigonometriscen Interpolation): a k = 1 π π π f(x) cos(kx)dx 1 π = n { f(xi )cos(kx i ) + f(x i+1 )cos(kx i+1 ) 2π } 2 n + 1 i=0 2π π(n + 1) n f(x i )cos(kx i ) Auc bei der Fourier-Reie gibt es übrigens das Gibbsce Pänomen. i=0 Bei der Trapezregel wird der Integrand stückweise linear angenäert und diese Funktion dann exakt integriert. Als Stützwerte werden ier genau wieder die x i = π + i 2π n+1 gewält. y 0 y 1 y 2 y n 1 y n y n+1 = y 0 y 0 +y 1 2 2π n+1 2π n+1 { }} { x 0 x 1 x 2 x n 1 x n x n Scnelle Fourier-Transformation Wir geen zurück zur komplexen trigonometriscen Interpolation t n(x) = n k=0 c ke ikx welces an den Stellen x k = k2π n+1 den Wert y k interpoliert. Mit der Abkürzung N = n + 1 lauten nac (7.5) die Koeffizenten: c k = 1 N N 1 j=0 y j e ijk2π/n k = 0,...,N 1 (Hintransformation). (7.8) 88

91 7.5 Scnelle Fourier-Transformation Hat man die c k berecnet so erält man die y j zurück mittels y j = N 1 k=0 c k e ikj2π/n j = 0,...,N 1 (Rücktransformation). (7.9) Diese beiden Gleicungen bescreiben eine bijektive Zuordnung der Daten y j und der Koeffizienten c k, die man auc als diskrete Fourier-Transformation (DFT) bezeicnet. Fasse nun Daten und Koeffizienten in Vektoren aus C N zusammen: y = (y 0,...,y N 1 ) T, c = (c 0,...,c N 1 ) T. Hintransformation kann man als Matrix-Vektor-Produkt screiben: c = N 1 Wy, mit (W) k,j = e ijk2π/n. Als Beispiel betracte N = 4, dann at man c c 1 c 2 = 1 1 w 1 w 2 w 3 N 1 w 2 1 w 2 c 3 1 w 3 w 2 w 1 mit der komplexen N-ten Eineitswurzel w = e i2π/n y 0 y 1 y 2 y 3. Screibt man für die Rücktransformation y = Uc so gilt wegen UN 1 W = I offensictlic W 1 = 1 N U, (W 1 ) j,k = 1 N eikj2π/n = 1 N wkj. Da die N N Matrix W voll besetzt ist beträgt der Aufwand für Hin- und Rücktransformation je O(N 2 ). Der Berecnungsaufwand kann mittels der von Cooley 16 und Tukey entwickelten scnellen Fourier-Transformation deutlic reduziert werden. Wir betracten c k one den Vorfaktor 1/N, also c k = N 1 j=0 y je ijk2π/n. Falls N gerade, so gilt für die c k : c k = = N/2 1 j=0 y 2j e i2jk2π/n } {{ } gerader Teil N/2 1 j=0 y 2j e ijk2π/(n/2) } {{ } =: c g k für k=0,...,n/ James Cooley, *1926, amerik. Matermatiker. 17 Jon Tukey, , amerik. Matematiker. N/2 1 + j=0 y 2j+1 e i(2j+1)k2π/n } {{ } ungerader Teil N/2 +e ik2π/n j=0 y 2j+1 e ijk2π/(n/2) } {{ } =: c u k für k=0,...,n/2 1 89

92 7 Trigonometrisce Interpolation Das gilt für alle k 0,...,N 1 aber wegen der N/2-Periodizität von e ik2π/(n/2) gilt c g k+n/2 = cg k, cu k+n/2 = cu k, k = 0,..., N 2 1 Zusammen mit e i(k+n/2)2π/n = e ik2π/n e iπ = e ik2π/n muss man also nur die Koeffizienten N/2 1 c g k = j=0 berecnen und setzt dann N/2 y 2j e ijk2π/(n/2), c u k = y 2j+1 e ijk2π/(n/2), 0 k < N/2 j=0 c k = c g k + e ik2π/n c u k, c k+n/2 = c g k e ik2π/n c u k, 0 k < N/2. (7.10) Somit wurde die DFT der Länge N auf 2 der Länge N /2 zurückgefürt. Für den Aufwand A(N) in Anzal Gleitkomma-Operationen gilt: ( ) [ ( ) A N A(N) = 2A + cn = 2 A + c N = 2A ( N 4 ) + cn + cn = = NA(0) + pn = O(N log 2 N). Hierbei aben wir vorausgesetzt, dass N eine Zweierpotenz ist. ] + cn In der Abstiegspase der Rekursion werden die Eingabedaten umsortiert bis N = 2 erreict ist: y 0 y 1 y 2 y 3 y 4 y 5 y 6 y 7 y 0 y 2 y 4 y 6 y 1 y 3 y 5 y 7 y 0 y 4 y 2 y 6 y 1 y 5 y 3 y Die Umordnung der Indizes leistet die Operation Bitreversal : (b x 1...b 0 ) 2 (b 0...b k 1 ) 2 Für N = 2 fürt man die DFT direkt durc. 90

93 7.6 Zusammenfassung In der Aufstiegspase erfolgt nur noc die Kombination der Koeffizienten mittels (7.10). Die Struktur dieser Berecnung ist: c g 0 c g 1 c g 2 c g 3 c u 0 c u 1 c u 2 c u 3 c 0 c 1 c 2 c 3 c 4 c 5 c 6 c 7 Dieses Muster nennt man auc perfect suffle. 7.6 Zusammenfassung Zur Interpolation von periodiscen Funktionen aben wir in diesem Kapitel trigonometrisce Summen kennengelernt. Mit dem Übergang zu komplexen Zalen erkennt man, dass dies nicts anderes ist als eine komplexe Interpolationsaufgabe mit äquidistanten Stützstellen auf dem Eineitskreis in der komplexen Zalenebene. Damit erält man die Eindeutigkeit und eine Darstellung der Koeffizienten. Man sprict auc von (komplexer) Diskreter Fourier-Transformation. Aus den komplexen Koeffizienten erält man auc die reellen Koeffizienten für die trigonometrisce Summe (Diskrete Fourier-Analyse). Die Koeffizienten der Diskreten Fourier-Analyse erält man auc durc näerungsweise Berecnung der Koeffizienten der Fourier-Reie mittels der Trapezregel. Der Aufwand der DFT beträgt O(N 2 ) bei N Datenpunkten. Mittels scneller Fourier- Transformation (FFT) kann man das auf O(N log 2 N) drücken. 91

94 7 Trigonometrisce Interpolation 1 Konstante Konstante Spektrum y 0.6 y x x 1 Delta Peak 0.02 Deltafunktion Spektrum y y x x 1 Dreieck 1 Dreieck Spektrum y 0 y e x 1e x 1 Recteck 1 Recteck Spektrum y 0 y e x 1e x 92 Abbildung 22: Spektren zu versciedenen Funktionen.

95 7.6 Zusammenfassung 1 Dreieck Dreieck n=7 Datenpunkte 0.5 y x 1 Recteck Recteck n=7 Datenpunkte 0.5 y x Abbildung 23: Interpolation versciedener Funktionen. 93

96 7 Trigonometrisce Interpolation 1 Dreieck n= 3 Dreieck n= 7 Dreieck n=15 Dreieck n= y x Recteck n= 3 Recteck n= 7 Recteck n= 15 Recteck n= 31 Recteck n= 63 Recteck n= y x Abbildung 24: Approximation versciedener Funktionen bei steigendem n. 94

97 7.6 Zusammenfassung n= 15 n= 16 Daten n=15 Daten n= y x Abbildung 25: Interpolation einer unstetigen Funtion. 95

98 7 Trigonometrisce Interpolation 96

99 8 Quadraturen niedriger Ordnung 8.1 Die Integrationsaufgabe Klassisce, seit dem Altertum wictige Anwendungen sind die Berecnung von Fläceninalten, Volumina oder Scwerpunkte. Der Scwerpunkt eines Körpers mit der (ortsabängigen) Dicte ρ(x) ist z. B. gegeben durc Ω s = ρ( x) xd x Ω ρ( x)d x. In der Pysik ist die Arbeit eine integrale Größe: W = F( s)d s. Γ In der Stocastik werden wir Verteilungsfunktionen und Momente kennenlernen. Im Fall kontinuierlicer Zufallsgrößen sind dies Integrale. (Quelle: Wikipedia) Das Radiosity-Verfaren (rectes Bild) ist ein Verfaren der Computergrafik zum Rendering von Szenen. Im Vergleic zu Raytracing (linkes Bild, dem anderen großen Verfaren) ist es in der Lage ideal diffuse Reflexion zu modellieren. Beispiel: In einem durc ein Fenster beleucteten Zimmer sind nict nur die direkt vom Fenster aus sictbaren Fläcen erellt. Dieses Veralten modelliert man mit der Radiosity-Gleicung: B(x) = E(x) + ρ(x) B(x ) 1 πr 2 cos φ x cos φ x V (x, x )da. x S Punkt auf einer Oberfläce der Szene S. S B(x) vom Punkt x abgestralte Energie (genauer: Leistung pro Fläce) in Form von Lict. 97

100 8 Quadraturen niedriger Ordnung E(x) Eigenstralung im Punkt x. ρ(x) Reflexionsfaktor in x. r Abstand zwiscen x und x. φ x Winkel zwiscen Normale und Verbindungslinie x, x. V (x, x ) 1 falls x von x aus sictbar und sonst 0. Dies ist eine Integralgleicung für die unbekannte Funktion B(x). Diese kann durc Diskretisierung der Oberfläce S näerungsweise gelöst werden. Dies fürt dann auf ein lineares Gleicungssystem. Die Variationsrecnung, ein Zweig der Matematik, bescäftigt sic mit Funktionen von Funktionen, oft eben Integrale über eine Funktion und/oder deren Ableitungen. Die Variationsrecnung at unzälige praktisce Anwendungen, etwa in der Mecanik. Mance numerisce Lösungsverfaren für partielle Differentialgleicungen benötigen auc die Berecnung von Integralen zur Aufstellung eines Gleicungssystems. Scließlic ein letztes Beispiel: Die Koeffizienten der Fourierreie berecnen sic über ein Integral. Man siet also, Integrale kommen in der tecnisc-wissenscaftlicen Praxis ser äufig vor. Viele Integrale lassen sic nict gesclossen lösen, dann ilft nur noc eine numerisce Berecnung. Allerdings: Vor einer numeriscen Berecnung sollten alle analytiscen Möglickeiten ausgescöpft werden (Substitution, partielle Integration, Aufspaltung, insbesondere bei singulären Integranden). Zu berecnen sei also ein Näerungswert des bestimmten Integrals I(f) = f(x)dx für eine gegebene Funktion und ein Integrationsgebiet Man sprict auc von numeriscer Quadratur. Ω f : R d R Ω R d. Wir beandeln fast ausscließlic d = 1, sprecen den Fall d > 1 aber kurz an. Für große d (sog. ocdimensionale Integrale, z.b. d > 5) sind andere Metoden erforderlic! Alle (von uns beandelten) Metoden aben folgende Form: n I(f) = w i f(x i ) + Feler, w i eißt Gewict und x i = Stützstelle. i=0 Der Feler ängt vom Verfaren und (öeren) Ableitungen von f ab. Man möcte effiziente Verfaren: Möglicst kleiner Feler bei möglicst wenig Funktionsauswertungen (Aufwand). 98

101 8.2 Newton-Cotes Formeln 8.2 Newton-Cotes Formeln Als erstes betracten wir sog. Newton-Cotes 18 Formeln, die ein Spezialfall interpolatoriscer Quadraturformeln sind. Diese basieren auf folgender Idee: Interpoliere die n + 1 Werte (x i, f(x i )), i = 0,...,n, durc ein Polynom n-ten Grades und integriere dieses exakt. Darstellung der Polynome mittels Lagrangeinterpolation liefert p n (x) = n i=0 f(x i )L (n) i (x), L (n) i (x) = n j=0 j i (x x j ) (x i x j ) also ist I(f) I (n) (f) = b a p n (x)dx = n f(x i ) i=0 b a L (n) i (x) dx. (8.1) Definition 8.1 (Ordnung einer Quadraturformel). Eine Quadraturformel I (n) (f) at mindestens die Ordnung m wenn sie Polynome vom Grad m 1 exakt integriert. Folgerung: Interpolatorisce Quadraturformeln zu n + 1 Stützstellen aben mindestens die Ordnung n + 1. (Folgt aus Eindeutigkeit der Polynominterpolation, n + 1 Stützstellen Grad n Ordnung n + 1). Diese Formulierung legt nae, dass man mit n + 1 Stützstellen auc eine Ordnung öer als n + 1 erreicen kann, was tatsäclic der Fall ist. Bemerkung 8.2. Es gilt n w i = b a i=0 da f 1 auf das Interpolationspolynom p n 1 fürt. Newton-Cotes-Formeln: Interpolatorisce Quadratur zu äquidistanten Stützstellen. Man untersceidet zwei Varianten: Variante a) Abgesclossene Newton-Cotes-Formel (a, b Stützstellen) x i = a + ih, i = 0,...,n, H = b a n Variante b) Offene Newton-Cotes-Formel (a, b keine Stützstellen) x i = a + (i + 1)H, i = 0,...,n, H = b a n + 2 Stützpunkte der abgesclossenen Formeln für n = 5 (unten) und der offenen Formeln für n = 3 (oben): 18 Roger Cotes, , engl. Matematiker 99

102 8 Quadraturen niedriger Ordnung Beacte: Die offenen Formeln benutzen Werte des Interpolationspolynoms außeralb des Intervalls der Stützstellen, das wird sic als ungünstig erweisen. Berecnung der Gewicte (abgesclossene Formeln). nac Konstr. gilt I (n) (f) (8.1) = n f(x i ) i=0 b a L (n) i (x)dx = (b a) n ( 1 b ) L (n) i (x)dx f(x i ). b a a } {{ } =:w i wird unab. von a, b Integration durc Substitution: x = g(s) = a + sh s = g 1 (x) = x a H, g (x) = H: w i def = 1 b a b a = 1 b a b a } {{ n } = 1 n n 0 H n j=0 i j L (n) i (x)dx Subst. = n 0 n j=0 i j (s j) (i j) ds. 1 b a i=0 g 1 (b) g 1 (a) [a + sh (a + jh)] [a + ih (a + jh)] ds L (n) i (a + sh) g (s)ds w i ist unabängig von a, b und kann für jedes n, i vorab berecnet werden. Nac Auswertung erält man folgende Formeln: Beispiel 8.3 (Newton-Cotes Formeln). Abgesclossene Formeln n = 1, 2, 3, H = b a n I (1) (f) = b a 2 I (2) (f) = b a 6 I (3) (f) = b a 8 Offene Formeln n = 0, 1, 2, H = b a n+2 ( ) a + b I (0) (f) = (b a)f 2 {f(a) + f(b)} (Trapez-, Senen-Trapezregel), { ( ) } a + b f(a) + 4f + f(b) (Simpson 19 -, Keplersce 20 Fassregel), 2 {f(a) + 3f(a + H) + 3f(b H) + f(b)} ( 3 8 -Regel). (Mittelpunkt-, Tangenten-Trapez-, Recteckregel), I (1) (f) = b a {f(a + H) + f(b H)}, 2 I (2) (f) = b a { 2f(a + H) f( a + b } ) + 2f(b H). 3 2 Weitere Beispiele in [Ran06]. 100

103 8.2 Newton-Cotes Formeln Bemerkung 8.4 (Negative Gewicte). Ab n = 7 für abgesclossene und n = 2 für offene Newton-Cotes-Formeln treten negative Gewicte w i auf. Dies ist aus folgenden Gründen ungünstig. Bei positivem Integranden f (Fläce, Volumen: f 1) und negativen Gewicten bestet wegen n i=0 w i = 1 eröte Gefar der Auslöscung. Konditionsbetractung: Sei f(x i ) gestört um y i mit y i ε so gilt: I (n) ( f) = n i=0 w i ( f(x i ) + y i ) = n w i f(x i ) + i=0 } {{ } I (n) (f) n w i y i i=0 } {{ } I (n) (f) wobei wir die Differenz abscätzen können zu (Dreiecksungleicung): I (n) ( f) I (n) (f) = I (n) n n (f) = w i y i ε w i. i=0 i=0 Sind alle w i positiv so gilt n n w i = w i = b a. i=0 i=0 Ansonsten kann der Verstärkungsfaktor größer werden. Welcen Feler beget man nun bei der numeriscen Integration? Satz 8.5 (Restglieder). Es gelten folgende Restglieddarstellungen: (i) Trapezregel: I(f) b a 2 {f(a) + f(b)} = (b a)3 f (ξ), 12 f C 2 [a, b]. (ii) Simpson-Regel: I(f) b a 6 (iii) Mittelpunktregel: { f(a) + 4f ( a + b 2 ) } (b a)5 + f(b) = 2880 f(4) (ξ), f C 4 [a, b]. ( ) a + b I(f) (b a)f = 2 (b a)3 f (ξ). f C 2 [a, b]. 24 Für gewisse Zwiscenstellen ξ [a, b]. Beweis: Der Feler bei der Polynominterpolation (Grad n) war: f(x) p(x) = f(n+1) (η(x)) (n + 1)! n (x x j ) Satz 4.5 j=0 101

104 8 Quadraturen niedriger Ordnung also b a f(x) p(x)dx = I(f) I (n) (f) = (i) Also speziell für die Trapezregel: I(f) I (1) (f) = 1 2 b a 1 (n + 1)! b a f (n+1) (η(x)) f (η(x))(x a)(x b) dx. } {{ } =:g(x) n (x x j )dx. Da f stetig und g(x) 0, x [a, b] gilt der verallgemeinerte erste Mittelwertsatz der Integralrecnung j=0 I(f) I (1) (f) = 1 2 f (ξ) b a (x a)(x b)dx = (b a)3 f (ξ) 12 ξ [a, b]. (ii, iii) siee [Ran06] (scwieriger wegen Vorzeicenwecseln von g(x)). Bemerkung 8.6. Mittelpunktregel at den alben Feler der Trapezregel bei nur einer f-auswertung. Restglieder aben immer die typisce Form C(b a) m+1 f (m) (ξ) 8.3 Summierte Quadraturformeln Eröen von n zur Genauigkeitssteigerung sceidet aus, da einige Gewicte w i ab n = 7 (abgesclossene Formeln, offene früer) negativ werden. die Lagrange-Interpolation zu äquidistanten Stützstellen nict punktweise konvergiert. Wie bei der Interpolation auc unterteilt man stattdessen das Integrationsintervall [a, b] in N Teilintervalle [x i, x i+1 ] x i = a + i, i = 0,...N 1, = b a N und wendet in jedem Teilintervall eine Quadraturformel fester Ordnung an: I (n) N 1 := I (n) [x i,x i+1 ] (f). i=0 Satz 8.7 (Restglied für summierte Quadraturen). Gilt für die verwendete Quadraturformel die Felerdarstellung I [xi,x i+1 ](f) I (n) [x i,x i+1 ] (f) = α n m+2 f (m+1) (ξ i ), ξ i [x i, x i+1 ], 102

105 8.3 Summierte Quadraturformeln für ein m n, so gilt für die entsprecend summierte Formel I(f) I (n) (f) = α n(b a) m+1 f (m+1) (ξ). ξ [a, b]. Die Trapezregel (n = m = 1) at Ordnung 2 und konvergiert mit 2, die Simpsonregel (n = 2, m = 3) at Ordnung 4 und konvergiert mit 4, man siet also, dass der Ordnungsbegriff gerade so gewält wurde, dass dieser Zusammenang gilt. Beweis: Zunäcst sei der Zwiscenwertsatz aus der Analysis wiederolt. Der lautet: g(x) stetig auf [α, β], dann zu jedem u [g(α), g(β)] mindestens ein η [α, β] so dass g(η) = u. (Jeder Zwiscenwert wird angenommen). Seien nun N Werte ξ i [a, b], i = 0,...,N 1 mit ξ i ξ i+1 gegeben. In jedem Intervall [ξ i, ξ i+1 ] gilt der Zwiscenwertsatz, g nimmt alle Werte zwiscen g min = min i=0,...,n 1 g(ξ i ) und g max = max i=0,...,n 1 g(ξ i ) an. Wegen 1 N 1 N i=0 g(ξ i) [g min, g max ] gilt N 1 1 g(ξ i ) = g(ξ) N i=0 N 1 i=0 g(ξ i ) = Ng(ξ) ξ [a, b]. Damit erält man nun: I(f) I (n) N 1 (f) = i=0 N 1 α n m+2 f (m+1) (ξ i ) = α n m+2 Beispiel 8.8 (Einige summierte Quadraturformeln). i=0 f (m+1) (ξ i ) = α n m+2 Nf (m+1) (ξ) = α n m+2b a f(m+1) (ξ) = α n (b a) (m+1) f (m+1) (ξ) mit ξ abängig von N. I(f) I (1) (ii) Summierte Simpson-Regel I (2) N 1 (f) = = I (1) N 1 (f) = i=0 = i=0 x i+1 x i 2 } {{ } = { N 1 f(a) + 2 (i) Summierte Trapezregel i=1 a) (f) = (b 2 f (ξ), 12 x i+1 x i 6 { f(a) + 1 N { f(x i ) + 4f i=1 f(x i ) {f(x i ) + f(x i+1 )} } f(x i ) + f(b) 2 ξ [a, b]. ( xi + x ) } i+1 + f(x i+1 ) 2 N 1 i=1 I(f) I (2) a (f) = b f (4) (ξ), ξ [a, b] f ( xi + x ) i+1 + f(b) 2 6 } 103

106 8 Quadraturen niedriger Ordnung (iii) Summierte Mittelpunktregel N 1 (f) = ( xi + x ) N 1 i+1 (x i+1 x i )f = 2 I (0) i=0 I(f) I (0) (f) = b a 24 2 f (ξ), ξ [a, b] i=0 f ( xi + x ) i+1 2 Bemerkung 8.9. Die summierte Simpson-Regel lässt sic aus summierter Trapez- und Mittelpunktregel zusammensetzen: I (2) (f) = 1 3 I(1) (f) I(0) (f). Die summierte Trapezregel zu dem näcst feineren Gitter erält man aus summierter Trapezund Mittelpunktregel des gröberen Gitters: I (1) 2 = 1 2 I(1) (f) I(0) (f) Diese Formeln erlauben eine ökonomiscere Auswertung bei fortgesetztem Halbieren durc Wiederverwendung von Funktionswerten sowie eine Felerscätzung. Beispiel 8.10 (Beispiele zu Quadraturformeln). Wir betracten folgende bestimmte Integrale: (i) Eine einface, unendlic oft differenzierbare Funktion: π/2 0 sin(x)dx = 1. (ii) Ein glatte Funktion aber mit großen öeren Ableitungen: x 2 dx = (iii) Eine nict unendlic oft differenzierbare Funktion (Halbkreis): 1 1 x 2 dx = π /2. 1 Summierte Trapezregel für (i). 104

107 8.3 Summierte Quadraturformeln I Feler #Fktausw e e e e e e e e e e e e e e e e e e e e e e Feler viertelt sic jeweils, und das von Anfang an. Weniger als wird mit double Genauigkeit nict erreict. Summierte Simpsonregel für (i). I Feler #Fktausw e e e e e e e e e e e e e e e e e e e e e e Feler reduziert sic jeweils um den Faktor 16 = ( 1 /2) 4, und das fast von Anfang an. Summierte Trapezregel für (ii). 105

108 8 Quadraturen niedriger Ordnung I Feler #Fktausw e e e e e e e e e e e e e e e e e e e e e e e e e e e e Felerveralten am Anfang unklar, erst spät stellt sic 2 ein. Summierte Simpsonregel für (ii). I Feler #Fktausw e e e e e e e e e e e e e e e e e e e e e e e e e e Bis 4096 Auswertungen ist Simpson sclecter als Trapez. Asymptotisce Konvergenzrate stellt sic erst für genügend kleines ein. Summierte Trapezregel für (iii). 106

109 8.3 Summierte Quadraturformeln I Feler #Fktausw e e e e e e e e e e e e e e e e e e e e e e e e e e e e Die Konvergenzordnung 2 wird nict erreict, sondern nur ein α mit α < 2 (siee unten). Summierte Simpsonregel für (iii). I Feler #Fktausw e e e e e e e e e e e e e e e e e e e e e e e e e e Die Simpsonregel zeigt dieselbe Konvergenzordnung wie die Trapezregel! Satz 8.7 liefert eine Konvergenzabscätzung der Form I(f) I (n) (f) Cm+1. Für die summierte Trapezregel gilt m = 1, man sprict von 2 Konvergenz, für die summierte Simpsonregel gilt m = 3, man at 4 Konvergenz. Wir aben geseen, dass die Konvergenzordnung kleiner als m + 1 sein kann, wenn die Funktion nict genügend oft differenzierbar ist. Experimentell können wir diese folgendermaßen bestimmen. 107

110 8 Quadraturen niedriger Ordnung Mit dem Ansatz e = I(f) I (n) (f) = Cα gilt und daraus eralten wir e /2 = C( /2) α e C α α = log ( e/2 e = ( 1 /2) α ) / ( ) 1 log. 2 Das so bestimmte α eißt experimental order of convergence (EOC). Im letzen Beispiel oben eralten wir α = 3 / Felerkontrolle Wir aben in Satz 8.7 gezeigt wie der Feler mit mer Stützstellen abnimmt. Dies nennt man eine a-priori Felerscranke. So eralten wir etwa für die summierte Trapezregel: I(f) I (1) (f) = b a 12 f (ξ) 2 b a max 12 f (ξ) 2. ξ [a,b] } {{ } =:C C ist allerdings im allgemeinen scwer zu bestimmen. In der Praxis würde man aber gerne wissen bei wievielen Stützstellen (bei welcem ) der Feler kleiner als eine vorgegebene Toleranz ist. Dazu wollen wir eine Metode zur a-posteriori Felerscätzung vorstellen. Idee: Die Simpson-Summe konvergiert scneller als die Trapezsumme (f genügend glatt), at also für genügend kleines einen kleineren Feler. Wir wollen den Feler in der Trapezsumme zum Gitter /2 abscätzen. Dazu scieben wir die Auswertung der Simpsonsumme dazwiscen: I(f) I (1) 2 Nun nutze die Dreiecksungleicung: I(f) I (1) 2 (f) = I(f) I (2) (f) I(f) I (2) (f) + I(2) (f) + I(2) (f) I(1) (f). 2 (f) I(1) (f). 2 Nun nimmt man an, dass die Simpsonsumme genauer ist als die Trapezsumme: I(f) I (2) (f) ω I(f) I (1) (f) mit 0 < ω < 1: 2 I(f) I (1) 2 (f) ω I(f) I (1) 2 Auflösen nac dem Feler in der Trapezsumme liefert: I(f) I (1) (f) ω I(2) (f) + I (2) (f) I(1) (f). 2 (f) I(1) (f)

111 8.5 Zusammenfassung Besonders ökonomisc lässt sic die Felerkontrolle zusammen mit Bemerkung 8.9 umsetzen (desalb aben wir oben die Trapezregel zu /2 und die Simpsonsumme zu verwendet): = b a; N = 1; I1 = (f(a) + f(b))/2; wile ( > ε) do I0 = 0; for (i = 0, i < N, i = i + 1) do I0 = I0 + f(a + (i + 0.5)); {Mittelpunktsumme} end for I2 = 1 3 I I0; {Simpson-Summe zu } I1 = 1 2 I I0; {Trapez-Summe zu /2} = 1 2; N = 2N; if ( 1 1 ω (I2 I1) TOL) ten return I1; {Liefere Trapez-Summe zu } end if end wile Die Felerkontrolle lässt sic so one zusätzlicen Aufwand erledigen. 8.5 Zusammenfassung In diesem Abscnitt aben wir die Newton-Cotes Formeln zur numeriscen Quadratur kennengelernt. Diese basieren auf der Polynominterpolation zu äquidistanten Stützwerten und exakter Integration des Interpolationspolynoms. Man untersceidet abgesclossene und offene Formeln. Die Scwierigkeiten der Polynominterpolation bei oem Grad übertragen sic auf die Quadratur. Das äussert sic z. B. in negativen Gewicten. Desalb verwendet man nict zu oen Grad und zusätzlic eine Aufspaltung des Integrals in Teilintervalle. Scließlic aben wir ein einfaces Verfaren zur Felerkontrolle kennengelernt. 109

112 8 Quadraturen niedriger Ordnung 110

113 9 Quadraturen öerer Ordnung Newton-Cotes Formeln zur numeriscen Quadratur eignen sic nict zur Integration mit oer Ordnung, da spätestens ab n = 7 negative Gewicte auftreten. Eine weitere Frage ist ob die Konvergenzordnung der Newton-Cotes Formeln scon optimal ist für die gegebene Anzal von Stützstellen (Funktionsauswertungen). Antwort: Nein! Gibt es Verfaren, die öere Ordnung one die Nacteile der Newton-Cotes Formeln erreicen? Wir werden in diesem Abscnitt zwei Ansätze vorstellen um oe Ordnung zu erreicen. 9.1 Romberg-Integration Satz 9.1 (Euler-MacLaurinsce 21 Summenformel). Sei f C 2m+2 [a, b] und einmal integrierbar, dann gilt I (1) } {{ (f) = } T rapezsumme! b a f(t)dt + m k=1 2k B ( ) 2k f (2k 1) (b) f (2k 1) (a) (2k)! + 2m+2 B 2m+2 (2m + 2)! (b a)f(2m+2) (ζ) } {{ } Restglied ζ [a, b] (9.1) mit B 0 = 1, B 2 = 1 6, B 4 = 1 30,..., den Bernoulli-Zalen22. Diese sind die konstanten Glieder B 2k = B 2k (0) der Bernoulli-Polynome B 1 (x) = x 1 2, B k (x) = kb k 1(x), k > 0, B 2k+1 (0) = B 2k+1 (1) = 0, k > 0. Beweis: ier nur ein kleiner Hinweis zum Beweis, Rest siee [Sto05, Kap. 3.3]. Setze B 1 (x) = x 1 2 B 1 (x) 1, also aben wir 1 Setze B 2 (x) = 2B 1(x) B 1 (x) = 1 2 B 2 (x) B 1 (t)g (t)dt = [ ] 1 B 1(t) g(t)dt = B } {{ } 1 (t)g(t) B 1 (t)g (t)dt partielle 0 Integration } {{ } 0 1 } {{ } g(1)/2+g(0)/2 rekursive Anwendung 1 0 B 2(t)g (t)dt = Colin Maclaurin, , scottiscer Matematiker 22 Jacob Bernoulli, , scweitzer Matematiker. [ ] 1 B 2 (t)g (t) B 2 (t)g (t)dt 111

114 9 Quadraturen öerer Ordnung Setze B 3 (x) = 3B 2(x) und B 3 (0) = B 3 (1) = 0 (dies legt auc die Konstante in B 2 (t) fest) und so fort. 1 0 B 2 (t)g (t)dt = Einsetzen der Gleicungen ineinander liefert: B 3(t)g (t)dt = 1 [ ] 1 B 3 (t)g (t) } {{ } 3 0 wg. Normierungsbed. g(t)dt = g(0) 2 + g(1) 1 ( ) B 2 (1)g (1) B 2 (0)g (0) } {{ 2 } } 2 {{ } I (1) P 1 1 k=1..., wobei = B 3 (t)g (t)dt 1 B 3 (t)g (t)dt 3 0 } {{ } Restglied Die ersten drei Terme aben also scon die Gestalt aus (9.1) für den Fall a = 0, b = 1, = 1. Es werden nur die geraden Bernoullipolynome B 2k benötigt, da die ungeraden aufgrund der Normierungsbedingung immer wegfallen. Der Rest ergibt sic mittels weiterer partieller Integration, Anwendung auf Teilintervalle [x k, x k+1 ], x k = k, Transformation auf allgemeines Intervall [a, b] und sorgfältige Anwendung des Mittelwertsatzes auf das Restglied. Satz 9.1 bedeutet, dass für die Trapezsumme folgende Darstellung gilt: (f) = τ 0 + τ }{{} τ τ m 2m +α } {{ } m+1 () 2m+2 (9.2) R b a f(x)dx I (1) unabängig von! nur ab. von f, a, b wobei die Konstanten τ i nict von der Scrittweite abängen. Diese sog. asymptotisce Entwicklung stellt ein Polynom in y = 2 dar. Bei der Extrapolation kombiniert man I (1) für versciedene so, dass möglicst viele Terme ausser τ 0 Null werden. Dazu das Beispiel 9.2. Wir setzen eine Linearkombination zweier Scrittweiten 1, 2 an: Nun wäle a 1, a 2 so, dass a 1 I (1) 1 (f) + a 2 I (1) 2 (f) = (a 1 + a 2 )τ 0 + (a a 2 2 2)τ 1 + O( 4 ). a 1 + a 2 = 1 und a a = 0. Dabei sind 2 1 und 2 2 bekannte Zalen. 112

115 9.1 Romberg-Integration Dieses lineare Gleicungssystem at die Lösung a 1 = Für 1 = und 2 = /2 gilt speziell 1 1 ( 1/ 2 ) 2, a 2 = 1 1 ( 2/ 1 ) I(1) /2 (f) 1 3 I(1) (f) = I(f) + O(4 ). Anstatt die Bedingungen an die Koeffizienten in Form eines linearen Gleicungssystemes aufzustellen kann man auc so vorgeen. Man betracte die Interpolationsaufgabe p( 2 i ) = I (1) i i = 0,...,n, d.. dem Quadrat der Scrittweite wird der Wert der entsprecenden Trapezsumme zugeordnet. Dann ist das Auswerten dieses Interpolationspolynoms an der Stelle 0 äquivalent zur Elimination der Terme τ 1 2,...,τ n 2 in der asymptotiscen Entwicklung. Da man ausseralb des Bereices der Stützstellen auswertet sprict man von Extrapolation. Speziell in irer Anwendung auf die Berecnung von Integralen mittels Trapezsummen untersciedlicer Scrittweiten eißt dieses Verfaren Romberg-Integration 23. Bei Anwendung auf allgemeine Diskretisierungsverfaren sprict man auc von Ricardson- Extrapolation 24. Zur praktiscen Durcfürung eignet sic besonders das Neville-Scema aus Satz 5.4 welces angepasst lautet: i = 0,...,n : p i,i ( 2 i ) = I (1) i (f) (p i,i sind Konstanten) k = 0,...,n i : p i,i+k (0) = p i,i+k 1 (0) 2 i p i+1,i+k (0) p i,i+k 1 (0) 2 i+k 2 i p i,i+k interpoliert Stützstellen 2 i bis 2 i+k Bei Interpolation von n + 1 Werten ( 2 i, I (1) i (f)), i = 0,...,n gilt dann p(0) = τ 0 + O( 2n+2 ) Aber: Anwendung dieser Metode erfordert dann eben auc f C 2n+2 [a, b]. 23 Werner Romberg, , deutscer Matematiker. 24 Lewis Fry Ricardson, , brit. Matematiker. 113

116 9 Quadraturen öerer Ordnung 9.2 Gauss-Integration Negative Gewicte bei Newton-Cotes treten wegen äquidistanten Stützstellen auf (Lagrange- Polynome oszillieren am Rand stark). Frage: Kann man die Situation durc Wal nict äquidistanter Stützstellen verbessern? Idee: Bestimme Gewicte w i und Stützstellen x i so, dass Polynome möglicst oen Grades exakt integriert werden. Beispiel 9.3. Finde x 1, x 2, w 1, w 2 so, dass p 3 (x) = a 0 + a 1 x + a 2 x 2 + a 3 x 3 in I = [ 1, 1] exakt integriert wird: 1 1 p 3 (x)dx = 2 w i p 3 (x i ) a 0 1dx +a 1 xdx+a 2 x 2 dx+a 3 x 3 dx = 1 } {{ } 1 } {{ } 1 } {{ } 1 } {{ } 2 0 2/3 0 i=1 w 1 (a 0 + a 1 x 1 + a 2 x a 3 x 3 1) + w 2 (a 0 + a 1 x 2 + a 2 x a 3 x 3 2) Koeffizientenvergleic (für die a i!) ergibt vier nictlineare Gleicungen: 2a 0 = a 0 (w 1 + w 2 ) 0a 1 = a 1 (w 1 x 1 + w 2 x 2 ) 2 3 a 2 0a 3 = a 2 (w 1 x w 2x 2 2 ) = a 3 (w 1 x w 2x 3 2 ) w 1 = w 2 = 1 x 1 = 1 3, x 2 = 1 3. Damit at man also mit zwei Stützstellen eine Quadraturformel mit Ordnung 4 eralten. Zum Vergleic: Die Trapezregel erreict mit zwei Stützstellen nur Ordnung 2. Newton-Cotes Formeln aben allgemein bei n + 1 Stützstellen nur die Ordnung n + 1 (das ist das Minimum). Im folgenden bescränken wir uns auf Quadraturformeln für das Eineitsintervall [ 1, 1]. Integrale über [a, b] berecnet man per Transformation. Man kann folgende Aussage zu nictäquidistanten interpolatoriscen Quadraturformeln zeigen. Satz 9.4. Die maximale Ordnung einer Quadraturformeln mit n + 1 Stützstellen ist 2n + 2 (d.. Polynome vom Grad 2n + 1 werden exakt integriert). Beweis: Angenommen die Ordnung wäre 2n + 3, d.. ein Polynom mit Grad 2n + 2, also insbesondere n q(x) = (x x i ) 2 würde exakt integriert werden. Dann gilt i=0 q(x) at Grad 2(n + 1) = 2n + 2. q(x) 0, x, und q(x) q(x)dx >

117 9.2 Gauss-Integration andererseits gilt q(x i ) = 0 an den Stützstellen und damit w i q(x i ) = 0 also Widerspruc! Die Bestimmung der Gewicte und Stützstellen im allgemeinen Fall zeigt der Satz 9.5 (Gauß-Quadratur). Es gibt genau eine interpolatorisce Quadraturformel zu n + 1 paarweise versciedenen Stützstellen in [ 1, 1] mit der Ordnung 2n + 2 (d.. der maximal möglicen Ordnung). Ire Stützstellen sind die Nullstellen λ 0,...λ n ( 1, 1) des (n+1)-ten Legendrepolynoms 25 L n+1 P n+1. Die Gewicte erält man mittels w i = 1 1 n i=0 j i ( x λj λ i λ j ) 2dx > 0 i = 0,...,n Beweis: siee [Ran06, Satz 3.4]. Die Legendrepolynome lauten L 0 (x) = 1, L 1 (x) = x, L n+1 (x) = 2n + 1 n + 1 L n(x) n n + 1 L n 1(x) i=0 i=1 i=2 i=3 i=4 i=5 i=6 y x Die Legendre-Polynome bilden ein Ortogonalsystem in folgendem Sinne: 1 25 Adrien-Marie Legendre, , frz. Matematiker. 1 L n (x)l m (x)dx = 0 n m. 115

118 9 Quadraturen öerer Ordnung Beispiel 9.6. Für n = 1, n = 2 ergibt sic: = b a 2, c = b+a 2 und { } I (1) (f) = b a 2 I (2) (f) = b a 18 f(c 1/3) + f(c + 1/3) { 5f(c 3/5) + 8f(c) + 5f(c + 3/5) } Ordnung 4 Ordnung 6 Hier wurde scon auf das allgemeine Intervall [a, b] transformiert. 9.3 Adaptive Quadratur Quadratur mit konstanter Scrittweite ist bei mancen Integranden ineffizient, betracte z. B. f(x) = x Peak y In so einem Fall möcte man die Scrittweite adaptiv, d.. angepasst an den speziellen Integranden wälen. Dazu bedient man sic eines lokalen Felerscätzers (oder Indikators), der angibt an welcer Stelle die Scrittweite weiter verkleinert werden muss. Es bietet sic an dies noc mit einer Felerkontrolle zu kombinieren. Grob ergibt sic das folgende Vorgeen: (1) Wäle eine Unterteilung G 0 = {x (0) i i = 0,...,N 0 }. Berecne das Integral I 0 bezüglic der Unterteilung G 0. Setze k = 0. x 116

119 9.3 Adaptive Quadratur (2) Berecne eine Scätzung für den Feler E k in I k. Falls E k < TOL sind wir fertig. (3) Verfeinere die Unterteilung G k zu G k+1 durc Hinzufügen von Punkten angepasst an den Integranden und setze k = k + 1. (4) Berecne I k zu G k und gee nac (2). Im folgenden bescränken wir uns auf einen einfacen Algoritmus one globale Felerkontrolle. Wir betracten das Prinzip von Arcimedes 26 : I 2 = f(x m) f(x l)+f(x r) 2 (x r x m + x m x l ) 1 2 g I 2 a = x l x m I 0 I 1 x r I 3 b Wir können das Integral (die Fläce) ierarcisc zerlegen in die Anteile I = I 0 + I wobei usw. I 0 Das Trapez (a,0), (b, 0), (b, f(b)), (a, f(a)). I 1 Das Dreieck (a, f(a)), (b, f(b)), ((a + b)/2, f((a + b)/2)). I 2 Das Dreieck (a, f(a)), ((a + b)/2, f((a + b)/2)), (a + 1 /4(b a), f(a + 1 /4(b a))). Die ierarciscen Zuwäcse berecnen sic wie folgt. Seien die Punkte (x l, f l ) und (x r, f r ) gegeben so berecnet sic die Fläce des Dreiecks mit (x m, f(x m )), x m = (x l + x r )/2 mittels ( I = f(x m ) f(x ) l) + f(x r ) xr x l 2 2 (Fläce eines Dreiecks : A = g /2). Der ierarcisce Zuwacs I dient gleiczeitig als lokaler Felerindikator. Ist er klein genug, so ist die Funktion dort gut angenäert und das Teilintervall muss nict weiter verfeinert werden. Es bietet sic die Formulierung als rekursive Funktion an: arci (x l, x r, f l, f r, l) : x m = (x e + x r )/2, f m = f(x m ); s = (f m (f l + f r )/2) (x r x l )/2; 26 Arcimedes von Syrakus, 287 v. Cr.-212 v. Cr., grieciscer Matematiker, Pysiker und Ingenieur. 117

120 9 Quadraturen öerer Ordnung if (s TOL l < l min ) ten return s+arci(x l, x m, f l, f m, l + 1)+arci(x m, x r, f m, f r, l + 1); else return s; end if Das Integral berecnet sic dann via I = (b a)(f(a) + f(b))/2 + arci(a, b, f(a), f(b), 0). Beispiel 9.7 (Beispiel zur numeriscen Quadratur). Wir betracten dieselben Funktionen wie in Beispiel 8.10: (i) Eine einface, unendlic oft differenzierbare Funktion: π/2 0 sin(x)dx = 1. (ii) Ein glatte Funktion aber mit großen öeren Ableitungen: x 2 dx = (iii) Eine nict unendlic oft differenzierbare Funktion (Halbkreis): 1 1 x 2 dx = π /2. 1 Versciedene Quadraturen für (i) aus Beispiel 9.7. Metode I Feler #Fktausw. Gauss e e e e e e e e Gauss e e e e e e e e Arc e e e e e e e e e e

121 9.3 Adaptive Quadratur Das Verfaren oer Ordnung zalt sic aus. Versciedene Quadraturen (ii) aus Beispiel 9.7. Metode I Feler #Fktausw. Trapez e e e e e e e e e e e e e e Arci e e e e e e e e e e e e e e e e e e Felerreduktion mit Arci ist von Anfang an quadratisc, allerdings überolt die Trapezsumme dann kräftig. Versciedene Quadraturen für (iii) aus Beispiel 9.7. Metode I Feler #Fktausw. Gauss e e e e e e e e e e Gauss e e e e e e e e e e Arci e e e e e e e e e e Hoe Ordnung lont sic nict wegen mangelnder Differenzierbarkeit. 119

122 9 Quadraturen öerer Ordnung 9.4 Merdimensionale Quadratur In der Praxis sind oft Integrale in mer als einer Raumdimension zu berecnen. Wie mact man das? Betracten wir zunäcst das Quadrat [ 1, 1] [ 1, 1]. Am simpelsten ist die Produktintegration zu realisieren: f(x, y)dxdy = n 1 w i f(x, y i )dx i=1 n i=1 n w i i=1 j=1 1 n w j f(x j, y i ) j=1 n w i w j f(x j, y i ) Dies lässt sic einfac auf d Raumdimensionen verallgemeinern. Zur Integration über komplex berandete Gebiete nutzt man den Transformationssatz für Integrale: 1 1 ( ) f(x, y)dxdy = f ϕ(ξ, η), ψ(ξ, η) (ϕ, ψ) (ξ, η) dξdη Ω wobei die Transformation 1 ( ϕ(ξ, η) ψ(ξ, η) das Gebiet [ 1, 1] [ 1, 1] auf Ω abbildet. Weiter ist (ϕ, ψ) (ξ, η) = det 1 ) : [ 1, 1] [ 1, 1] Ω ( ϕ ξ ϕ η (ξ, η) ψ (ξ, η) ψ ξ η (ξ, η) (ξ, η) die Determinante der (transponierten) Jacobimatrix 27 der Transformation. Bei komplizierteren Gebieten wendet man das stückweise an: Ω ) Carl Gustav Jacob Jacobi, , dt. Matematiker 120

123 9.5 Zusammenfassung Auc direkte Integrationsformeln für Dreiecke (Simplizes) sind möglic. Die Zerlegung eines Gebietes in Teilgebiete einfacer geometriscer Gestalt (Dreicke, Vierecke, Tetraeder, Hexaeder,... ) nennt man Triangulierung oder Gittergenerierung. Dies ist insbesondere in drei Raumdimensionen eine scwierige Aufgabe. Auc in mer als einer Raumdimensionen kann man ierarcisc adaptiv verfeinern: Links: Adaptives Dreiecks- und Vierecksgitter. Rects: Adaptives Tetraedergitter mit Bisektionsverfeinerung. 9.5 Zusammenfassung In diesem Abscnitt aben wir zwei Verfaren zur numeriscen Quadratur mit oer Ordnung vorgestellt: Die auf Extrapolation beruende Romberg-Integration und die auf nictäquidistanter interpolatoriscer Quadratur beruende Gauss-Integration. Beide Verfaren sind bei genügender Differenzierbarkeit des Integranden in der Lage beliebig oe Ordnung zu erreicen. Mit dem Prinzip von Arcimedes aben wir das wictige Gebiet der adaptiven Verfaren illustriert. Scließlic aben wir noc kurz vorgestellt wie man Integrale über merdimensionale Integrationsbereice berecnet. 121

124 9 Quadraturen öerer Ordnung 122

125 10 Lineare Gleicungssysteme und Gauß-Elimination 10.1 Motivation Einige Anwendungen linearer Gleicungssysteme aben wir scon kennengelernt: Bestimmen der Koeffizienten in einer Basisdarstellung. Interpolation mit kubiscen Splines. Lineare Integralgleicungen wie sie etwa bei der Radiosity-Metode auftreten. Weitere sind: Implizite Lösungsverfaren für lineare gewönlice Differentialgleicungssysteme. Mance Lösungsverfaren für lineare partielle Differentialgleicungen füren auf teils extrem große lineare Gleicungssysteme. Dies liegt daran, dass der Diskretisierungsfeler direkt mit der Größe des linearen Gleicungssystemes gekoppelt ist. Das numerisce Lösen nictlinearer algebraiscer Gleicungssysteme erfordert das merface Lösen von linearen Gleicungssystemen. Man siet, lineare Gleicungssysteme sind wirklic das Arbeitspferd der numeriscen Simulation. Auc die Leistung der größten Supercomputer der Welt wird mit der Anzal Fließkommaoperationen pro Sekunde gemessen, die bei der Lösung von linearen Gleicungssystemen erreict wird (Linpack Bencmark). Das zur Zeit scnellste System (Liste vom Juni 2007) ist die IBM BlueGene/L am Lawrence Livermore Lab, USA, mit Prozessoren. Diese Mascine erreict Fließkommaoperationen pro Sekunde (0.28 PF) bei der Lösung eines Gleicungssystemes mit der Dimension Siee ttp:// Ser oft treten lineare Gleicungssysteme als Teilprobleme in einer größeren Aufgbe auf. Wir wollen nun zwei Anwendungen betracten die direkt auf lineare Gleicungssysteme füren. Ausgleicsrecnung Ein Polynom p(x) = a 0 + a 1 x a n x n vom Grad n wird durc n + 1 paarweise versciedene Datenpunkte (x i, y i ), i = 0,...,n eindeutig bestimmt. Oft sind die Datenpunkte felerbeaftet und man versuct durc Messung von m + 1 > n + 1 Datenpunkten (zu mindestens n + 1 versciedenen x i ) den Messfeler auszumitteln. Eine Möglickeit dies zu tun ist es die n + 1 Koeffizienten a 0,...,a n derart zu bestimmen, dass die Funktion m g(a 0,...,a n ) = w i [p(x i ) y i ] 2 min i=0 minimiert wird. Dies nennt man Metode der kleinsten Quadrate oder Ausgleicsrecnung. Diese at der 24-järige Gauß 28 benutzt um die Banelemente des Asteroiden Ceres zu bestimmen. 28 Carl Friedric Gauß, , dt. Matematiker. 123

126 10 Lineare Gleicungssysteme und Gauß-Elimination Die Zalen w i sind Gewicte mit denen man das Vertrauen in die Messungen quantifizieren kann. Notwendig für ein Minimum von g ist die Bedingung g a j = 0, j = 0,...,n. Nac Einsetzen eralten wir: ( m n w i a j i=0 k=0 m n = i=0 k=0 ) 2 a k x k i y i = 2w i a k x k+j i ( m n w i 2 a k x k i y i )x j i i=0 m 2w i x j i y i i=0 k=0! = 0 j = 0,...,n. Dies fürt auf das lineare Gleicungssystem ( n m ) a k w i x k+j i = k=0 i=0 } {{ } n j,k m w i x j i y i i=0 } {{ } b j j = 0,...,n. Die Gleicungen Na = b eißen auc Normalengleicungen. Wegen N T = N ist N symmetrisc. Es gilt auc ξ T Nξ > 0, ξ 0, also N positiv definit. Daraus folgt die eindeutige Lösbarkeit von Na = b. Netzwerkanalyse Eine praktisce Aufgabenstellung, die direkt auf lineare Gleicungssysteme fürt ist die elektrisce Netzwerkanalyse. 3 R 1 R 2 R 3 R i g R 5 R 6 0 Zu bestimmen seien alle Zweigströme und Spannungen in dem oben angegebenen Netzwerk. 124

127 10.2 Aufgabenstellung Für dieses und noc ser viel allgemeinere Netzwerke wurden in der Elektrotecnik diverse Analyseverfaren entwickelt. Das Knotenpotentialverfaren fürt auf das lineare Gleicungssystem 1 R R R 5 1 R 3 1 R R 3 R R R 6 1 R 2 1 R R 2 R R R 4 für die Knotenpotentiale u 1, u 2, u 3. Implizit gilt u 0 = 0. Die Zweigspannungen ergeben sic dann als u 10 = u 1 u 0, u 12 = u 1 u 2, usw. u 1 u 2 u 3 = 0 0 i g Der Fluss von Wasser in Rorleitungssystemen lässt sic ganz änlic analysieren. Netzwerke besteend aus Widerständen, Kondensatoren und Spulen lassen sic bei armoniscer Anregung im eingescwungenen Zustand mit komplexwertigen linearen Gleicungssystemen bescreiben. Dies setzt sog. ideale Netzwerkelemente voraus Aufgabenstellung Wir wollen nun also das lineare Gleicungssystem Ax = b lösen mit A = a 11. a m1... a 1n.... a mn R m n, b = b 1. b m, x = x 1. x n R n. Ax = b eißt unterbestimmt falls m < n, quadratisc falls m = n und überbestimmt falls m > n. Ax = b ist genau dann lösbar (für beliebige m, n), wenn Rang(A) = Rang([A, b]) (Vorsict: ier stet nict eindeutig). Im quadratiscen Fall (den wir ier nur betracten wollen) sind folgende Aussagen äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar, d.. regulär, 125

128 10 Lineare Gleicungssysteme und Gauß-Elimination (ii) Rang(A) = n, (iii) det(a) 0, (iv) alle Eigenwerte von A sind ungleic Null. Hinsictlic A untersceidet man: vollbesetzte Matrizen Anzal Nictnullelemente von A ist O(n 2 ). Dies bedeutet insbesondere: Neme auf Nullen keine besondere Rücksict. Datenstruktur zur Speicerung der Matrix ist ein zweidimensionales Feld. dünnbesetzte Matrizen Anzal Nictnullelemente von A ist O(n) oder öcsten O(n log n). Das at zur Konsequenz: Es lont auf die Nullen Rücksict zu nemen und sie nict zu speicern. Dies erfordert spezielle Datenstrukturen. Hier gibt es versciedene Möglickeiten, je nac Struktur (Bandmatrix, Blockmatrix, beliebig). Bei vielen in der Praxis auftretenden dünnbesetzten Matrizen gilt, dass die Anzal der Nictnullelemente pro Zeile konstant ist (unabängig von n). Hinsictlic der Lösungsverfaren untersceidet man: direkte Verfaren Liefern in exakter Aritmetik nac vorab bekannter Zal von Recenoperationen für jedes invertierbare A und b die Lösung x. iterative Verfaren Diese konstruieren ausgeend von einem beliebigen Startwert x 0 eine Folge x 0, x 1,...,x k,... mit x x k 0 für k. Diese Verfaren sind vor allem geeignet für dünnbesetzte Matrizen. Oft ist bei diesen Verfaren der Aufwand pro Scritt O(n) und die wesentlice Frage ist wieviele Scritte notwendig sind Kondition der Lösung linearer Gleicungssysteme Bevor wir uns der Lösung von Ax = b zuwenden untersucen wir die Kondition dieser Aufgabe. Wir interessieren uns also für die Auswirkung von Änderungen in A bzw. b auf das Ergebnis x. Um das quantifizieren zu können benötigen wir den Begriff der Norm auf Vektoren und Matrizen. Definition 10.1 (Norm eines Vektors). Eine Abbildung. : R n R + eißt Norm wenn sie folgende Eigenscaften erfüllt: (i) x > 0 x R n \{0} (Definiteit) (ii) αx = α x, x R n, α R (positive Homogenität) (iii) x + y x + y, x, y R n (Dreiecksungleicung) 126

129 10.3 Kondition der Lösung linearer Gleicungssysteme Die drei wictigsten Vektornormen sind: x 1 = n x i (l 1 -Norm) i=1 ( n x 2 = i=0 x 2 i )1 2 x = max i=1,...,n x i (Euklidisce Norm, l 2 -Norm) (Maximum-Norm, l -Norm) Auc R n n stellt einen Vektorraum (der Dimension n 2 ) dar und Normen können entsprecend Definition 10.1 vereinbart werden. Man benötigt aber in der Praxis noc zusätzlice Eigenscaften Definition Eine Norm. : R n n R + eißt verträglic mit der Vektornorm. : R n R + wenn gilt Ax A x x R n. Definition Eine Norm. : R n n R + eißt Matrizennorm (oder submultiplikativ), wenn gilt AB A B A, B R n n. Die Frobeniusnorm n m A Fr = i=1 j=1 ist eine mit der euklidiscen Norm verträglice Matrizennorm. Zu einer beliebigen Vektornorm. erält man immer eine verträglice Matrizennorm mittels: Definition A := a 2 ij Ax sup x R n \{0} x = sup Ax x R n, x =1 eißt natürlice (oder zugeordnete) Matrixnorm zu.. Wictige Matrizennormen sind: A 1 = max j=1,...,n n a ij Spaltensummennorm, zug. zu. 1 i=1 A 2 = max{ λ 1 2 λ Eigenwert von A T A} Spektralnorm, zug. zu. 2 n A = max a ij Zeilensummennorm, zug. zu. i=1,...,n j=1 Damit können wir die folgende Aussage zur Kondition von Ax = b macen. 127

130 10 Lineare Gleicungssysteme und Gauß-Elimination Satz 10.5 (Störungssatz). Die Matrix A R n n sei regulär und es gelte für die Störungsmatrix δa < 1 A 1. Ist nun Ax = b so gilt für die Lösung des gestörten Systems (A+δA)(x+δx) = (b+δb) folgende Abscätzung: δx x κ(a) { δb 1 κ(a) δa b + δa }. A A Dabei ist. eine beliebige Vektornorm mit verträglicer Matrizennorm und die sogenannte Konditionszal von A. Beweis: siee [Ran06, Satz 4.1]. κ(a) = A 1 A Regel Der Feler in der Eingabe sei δa A 10 k δb, b 10 k und die Kondition der Matrix A sei κ(a) 10 s wobei 0 10 s 10 k 1 gelten soll. Dann gilt δx x 10 s 1 10 s 10 k 2 10 k 10 s k Man verliert also s Stellen Genauigkeit! (Vorer war der Feler in der k-ten Nackommastelle, dann ist er in der Stelle k s). Man kann auc zeigen, dass die Abscätzung im wesentlicen scarf ist [Ran06, S. 111]. Beispiel 10.7 (Kondition und Determinante). (a) Wir betracten die folgende 2 2 Matrix: A = Für die Kondition gilt also [ ε 1 ], A 1 = 1 [ ε A = max{2, 2 + ε}, A 1 = 1 ε ] 1 1 (1 + ε) 1 (2 + ε)2 max{2, 2 + ε}, κ(a) =. ε Hier ist det(a) = ε die Determinante von A. Im allgemeinen ist die Kleineit der Determinante aber kein gutes Maß für die Kondition wie folgendes Beispiel zeigt.. (b) Betracte B = [ ] [, B = ]. und damit κ(b) = 1 obwol det(b) =

131 10.4 Gauß - Elimination 10.4 Gauß - Elimination Wir bescränken uns ier auf quadratisce Systeme (m = n). Besonders leict lösbar sind Gleicungsysteme mit einer oberen Dreiecksmatrix: also a ij = 0 i > j und a ii 0 i = 1,...,n. a 11 x 1 + a 12 x a 1n x n = b 1 Sog. Rückwärtseinsetzen fürt zu dem Verfaren a 22 x a 2n x n = b 2 x n = b n a nn ; i = n 1,...,1 : x i = Um so ein Gleicungssystem zu lösen benötigt man aritmetisce Operationen.. a nn x n = b n ( b i n j=i+1 a ijx j ) a ii n 1 F Back (n) = (2i + 1) = n(n 1) + n = n 2 i=0 Die Gauß-Elimination formt das gegebene System Ax = b, welces eindeutig lösbar sein soll, scrittweise so um, dass eine obere Dreiecksmatrix entstet. Hierzu benutzt man die elementaren Umformungen: (i) Vertauscen zweier Gleicungen (ii) Addition des Vielfacen einer Gleicung zu einer anderen. Keine dieser Umformungen ändert die Lösung des linearen Gleicungssystems. Zur kompakteren Notation ordnet man die Matrix A und die recte Seite b in einer einzigen n n + 1 Matrix an: [ A (0), b (0)] [ ] = A, b. Oben kommt ein Superskript (0) dran, da es sic ier um die Ausgangssituation andelt. Wir bescreiben nun die Scritte des Verfarens. Bestimme r {1,...,n} so dass a (0) r1 0. Vertausce die Zeilen r und 1. Das Ergebnis bekommt nac dieser Operation bekommt eine Sclange drüber: ã (0) 11 0 ã(0) 12 ã (0) 1n [Ã(0), b (0)] =. ã (0) n1 ã (0) nn b(0) 1 b(0) n 129

132 10 Lineare Gleicungssysteme und Gauß-Elimination Das neue Element ã 11 nac dem Vertauscen eißt Pivotelement. Dies ist immer möglic, denn sonst wäre A nict regulär. Für alle i {2,...,n} subtraiere nun das ã(0) i1 ã (0) 11 In Formeln: =: q i1 -face der ersten Zeile von der i-ten Zeile. q i1 = ã(0) i1 ã (0) 11 ; j = 1,...,n : a (1) ij = ã (0) ij q i1 ã (0) 1j, b(1) (0) (0) i = b i q i1 b i Die so entstandene Matrix trägt den Superskript (1) (one Sclange). Wegen gilt: [ A (1), b (1)] = a (1) i1 = ã(0) i1 ã(0) i1 ã (0) 11 ã (0) 11 = 0 ã (0) 11 ã (0) 12 ã (0) 1n b(0) 1 0 a (1) 22 a (1) 2n b (1) a (1) n2 a (1) nn b (1) n Wir aben also die erste Spalte unteralb des Pivotelementes zu Null eliminiert. Nun verfare ebenso mit der Teilmatrix, die durc streicen der ersten Zeile bzw. Spalte entstet. D.. sorge für ã (1) 22 0 und eliminiere ã(1) 32...ã(1) n2. Nac k solcen Scritten ergibt sic scließlic folgende Situation: [ A (k), b (k)] = ã (0) 11 ã (0) 1n 0 ã (1) 22 ã (1) 2n a (k) kk a (k) kn a (k) nk. a (k) nn b(0) 1 b(1) 2 b (k) k. b (k) n. Als Algoritmus screibt sic das Ganze so: for (k = 1; k < n; k = k + 1) do Finde r {k,...,n} so dass a rk 0 und vertausce Zeilen k und r {sorge dafür, dass a kk 0} for (i = k + 1; i n; i = i + 1) do q ik = a ik /a kk ; for (j = k + 1; j n; j = j + 1) do a ij = a ij q ik a kj ; end for 130

133 10.4 Gauß - Elimination b i = b i q ik b k ; end for end for Bemerkung Elemente von A (k) werden jeweils mit denen von A (k+1) überscrieben. Das ursprünglice A und b steen somit nict mer zur Verfügung. Der gegebene Algoritmus ist nict numerisc stabil gegenüber Rundungsfelern. Dazu näcstes Mal mer. Für den Aufwand erält man: n 1 F Gauß (n) = n k } {{ } +(n k)[2 + 2(n k)] k=1 Multiplikatoren q ik n 1 = 2 (n k) 2 + O(n 2 ) k=1 = 2 3 n3 + O(n 2 ). Der oben angegebene naive Algoritmus nutzt den Cace in eutigen Prozessoren für große n nict gut aus. Es gibt jedoc cace-optimale Implementierungen, die Tatsace, dass O(n 3 ) Operationen auf O(n 2 ) Daten (Speicer für A, b) ausgefürt werden ausnutzen können. Die gesamte Prozedur zur Lösung von Ax = b bestet somit aus: (i) Bringe A auf obere Dreiecksgestalt. (ii) Löse Dreieckssystem durc Rückwärtseinsetzen. Beispiel Wir geben ein Beispiel zur Gauß-Elimination. Hier sind keine Zeilenvertauscungen notwendig. Das Pivotelement ist jeweils durc einen Kasten gekennzeicnet Scließlic liefert Rückwärtseinsetzen: x 4 = 9/9 = 1, x 3 = (17 7 1)/5 = 2, x 2 = ( )/1 = 3, x 1 = ( )/2 =

134 10 Lineare Gleicungssysteme und Gauß-Elimination 10.5 Zusammenfassung Lineare Gleicungssysteme Ax = b lösen ist die Standardaufgabe im Wissenscaftlicen Recnen. Die Konditionierung der Aufgabe ängt von der Konditionszal κ(a) = A A 1 der Matrix A ab. Als ein erstes Lösungsverfaren, welces insbesondere für dictbesetzte Matrizen geeignet ist, aben wir das Gaußsce Eliminationsverfaren kennengelernt. Der Aufwand für diese Metode beträgt O(n 3 ) bei A R n n. 132

135 11 Pivotisierung und LR-Zerlegung 11.1 Pivotisierung Für eine reguläre Matrix A fürt die Gauß-Elimination in exakter Aritmetik immer auf eine obere Dreiecksmatrix. Dabei wird in der Restspalte immer ein nictverscwindendes Pivotelement gefunden. Die Sace ändert sic, wenn wir das Gaußsce Verfaren in Fließkommaaritmetik durcfüren. Hier kann selbst ein einzelner Rundungsfeler fatale Auswirkungen aben. Dazu betracten wir ein Beispiel. Beispiel 11.1 (aus [GO96]). Wir betracten das 2 2 System [ ] [ x1 x 2 ] = [ 1 0 ]. (11.1) In exakter Aritmetik fürt das Gaußsce Verfaren nac Elimination von a 21 auf [ ] [ ] [ ] x = x 2 mit der Lösung x 1 = , x 2 = Nun füren wir das Verfaren in F(10, 4, 1) durc. Beim Multiplikator ergibt sic kein Rundungsfeler. Für das neue a 22 ergibt sic Hier wurde auf vier Stellen gerundet. Damit ergibt sic (one Feler) und q 21 = ( ) ( ) = a (1) 22 = ( ) ( ) = = b (1) 2 = ( ) ( ) = x 2 = b (1) 2 a (1) 22 = = 1, x 1 = ( ) ( ) =

136 11 Pivotisierung und LR-Zerlegung Es ist also keine Stelle im Ergebnis korrekt obwol nur an einer einzigen Stelle (in der Berecnung von a (1) 22 ) ein Rundungsfeler eingefürt wurde. Darüberinaus überprüfe man, dass für die Kondition von A gilt: κ(a) = 3. Demnac ist das System gut konditioniert! Der Algoritmus, so wie er ist, ist numerisc nict stabil. Das Problem ist offensictlic der große Multiplikator q 21 der aus dem ser kleinen a 11 resultiert und der dafür sorgt, dass das ursprünglice a 22 in a (1) 22 vollkommen ignoriert wird. Im Prinzip aben wir in Fließkommaaritmetik das System [ ] [ ] [ x1 1 = exakt gelöst, was eine völlig andere Lösung at als das ursprünglice (11.1) (Rückwärtsanalyse). Der große Multiplikator kann ganz einfac vermieden werden indem man eine Zeilenvertauscung durcfürt, d.. wir lösen [ ] [ ] [ ] 2 1 x =. (11.2) 1 1 Nun erält man x 2 x 2 q 21 = = , a (1) 22 = ( ) = = , b (1) 2 = = , x 2 = = 1, x 1 = ( ) = 0.5, was in F(10, 4, 1) völlig in Ordnung ist. Dies legt den folgenden Algoritmus nae. Als Pivotelement wälen wir immer das betragsgrößte Element der Spalte. for (k = 1; k < n; k = k + 1) do Finde r {k,...,n} so dass a rk maximal ist und vertausce Zeilen k und r if (a kk = 0) ten STOP, Matrix ist singulär; end if for (i = k + 1; i n; i = i + 1) do q ik = a ik /a kk ; for (j = k + 1; j n; j = j + 1) do a ij = a ij q ik a kj ; b i = b i q ik b k ; ] 134

137 11.1 Pivotisierung end for end for end for Man nennt dieses Vorgeen Spaltenpivotisierung. Im Prinzip kann man auc das betragsgrößte Element aus der kompletten Restmatrix {a ij i, j k} bestimmen und als Pivotelement verwendent. Dann sprict man von Totalpivotisierung. Dies erfordert zusätzlic noc Spaltenvertauscung (Umnummerieren von Unbekannten) und ist desalb etwas aufwendiger zu realisieren. Die Spaltenpivotisierung alleine ist allerdings immer noc nict ausreicend wie das folgende Beispiel zeigt. Beispiel 11.2 (ebenfalls aus [GO96]). Wir betracten das 2 2 System [ ][ x1 x 2 ] [ 10 6 = 0 welces aus (11.1) durc Multiplikation der ersten Zeile mit 10 6 entstet. Die Spaltenpivotisierung erfordert keine Vertauscung. Allerdings entstet für a (1) 22 = genau dasselbe Problem wie oben! Die Spaltenpivotisierung ist effektiver wenn man das Gleicungssystem vor der Elimination so skaliert, dass die betragsmäßigen Zeilensummen der Elemente in etwa gleic sind. Dies erreict man durc Multiplikation mit einer Diagonalmatrix von links: ( n 1. Ax = b DAx = Db mit d ii = a ij ) ]. j=1 Es gibt auc Gleicungssysteme, die immer one Pivotisierung eliminiert werden können. Dies sind: Reguläre, diagonaldominante Matrizen: n a ij a ii i = 1,...,n j=1 j i (gilt < statt ist die Matrix automatisc regulär). Positiv definite Matrizen: x, Ax > 0 x R n \ {0}, x, y = n x i y i. i=1 135

138 11 Pivotisierung und LR-Zerlegung 11.2 LR-Zerlegung Wir betracten die Gauß-Elimination one Zeilenvertauscung nun in Matrixform. Die Elimination des Elementes a ik lässt sic als Matrixmultiplikation von links screiben. Sei q ik = a { ik qik α = i β = k und Q ik die Matrix (Q ik ) α,β = a kk 0 sonst dann bescreibt (I Q ik )A die Subtraktion des q ik -facen der k-ten Zeile von A von der i-ten Zeile von A. Das siet man wie folgt: (I Q ik )A = A Q ik A } {{ } k B { 0 α i b αβ = q ik a kβ α = i i-te Zeile k i q ik i q ik a kβ Q ik A B Damit gilt für die komplette Gauß-Elimination auf obere Dreiecksgestalt: (I Q n,n 1 ) (I Q 32 ) (I Q } {{ } } {{ } 31 ) (I Q } {{ } 21 ) } {{ } letztes zu eliminierendes Element a 32 a 31 Die Matrix (I Q ik ) at eine einface Inverse, denn Elim. von a 21 A = (I Q ik )(I + Q ik ) = I + Q ik Q ik Q ik Q } {{ ik } = I = 0 da i > k denn (es genügt (Q ik Q ik ) ik zu betracten) n (Q ik ) iα (Q ik ) αk 0 α = k α = i α=1 was aber wegen i > k unmöglic ist. k k }{{} R. (11.3) recte obere Dreiecksmatrix. Ergebnis der Gauß-Elim. i q ik i q ik Q ik Q ik 136

139 11.2 LR-Zerlegung Dies zeigt (I Q ik ) 1 = I + Q ik Damit können wir (11.3) nac A auflösen in dem man von links mit den ganzen Inversen multipliziert: (I + Q 2,1 ) (I + Q n,n 1 )(I Q n,n 1 ) (I Q 2,1 )A = } {{ } =I (I + Q 2,1 ) (I + Q n,n 2 )(I + Q n,n 1 ) R. (11.4) } {{ } =L Es ergibt sic die sog. LR-Zerlegung A = LR mit einer unteren Dreiecksmatrix L (dies ist noc zu zeigen) und einer oberen Dreiecksmatrix R. Die Matrix L at folgende Gestalt: L = (I + Q 2,1 ) (I + Q n,n 2 )(I + Q n,n 1 ) = I + Q 2,1 +...Q n,n 2 + Q n,n 1 (11.5) Damit ist L eine untere Dreiecksmatrix und (L) α,α = 1, denn die Q i,k sind strikte untere Dreiecksmatrizen. Wir zeigen dies durc Induktion über die umgekerte Reienfolge der Elimination. (i) I + Q n,n 1 aus dem letzten Scritt at die geforderte Gestalt. (ii) Betracte den Scritt (I + Q ik )(I + Q i+1,k Q n,n 1 ) = I + Q i,k + } {{ } Q + Q i,k Q. Q Wir zeigen nun, dass Q i,k Q = 0. k k k i q ik i Q ik Q 137

140 11 Pivotisierung und LR-Zerlegung Es gilt ( ) Q i,k Q = α,β { 0 α i, da nur qi,k 0 α = i, β beliebig q i,k q k,β. Also betracte q k,β : β k: q k,β = 0, da Q strikte untere Dreiecksmatrix (blauer Teil in der Abbildung). β < k: im Scritt (i, k), k < i, sind in Q die Elemente zu den Indizes {(i, k ) k < i i i k k} sicer noc Null (grauer Bereic in der Abbildung). Damit ist aber auc q k,β = 0 (roter Bereic im Bild). Die algoritmisce Formulierung der LR-Zerlegung (one Pivotisierung) lautet: for (k = 1;k < n; k = k + 1) do for (i = k + 1;i n; i = i + 1) do a ik = a ik /a kk ; {Überscreibe a ik mit q ik = l ik } for (j = k + 1;j n; j = j + 1) do a ij = a ij a ik a kj ; end for end for end for Am Ende gilt l αα = 1 speicert man nict explizit ab. r αβ = a αβ für β α (oberes Dreieck), l αβ = a αβ für β < α (striktes unteres Dreieck). Beispiel Hier das Beispiel der LR-Zerlegung einer 4 4 Matrix, die wir scon aus Beispiel 10.9 kennen. Der Unterscied ist, dass die Multiplikatoren im unteren Dreieck gespeicert werden und dass die recte Seite b wegfällt Man überprüfe, dass LR = A gilt Bemerkung Die LR-Zerlegung lässt sic auc mit Pivotisierung durcfüren. Man erält dann eine Zerlegung PA = LR wobei P eine Permutationsmatrix ist, die die Zeilenvertauscungen bescreibt. Ausserdem sind untersciedlice Eliminationsreienfolgen möglic. Biser wurde die spaltenorientierte Variante betractet. 138

141 11.2 LR-Zerlegung Bemerkung Ist A eine symmetrisce und positiv definite Matrix, d.. A = A T und x T Ax > 0 x 0 dann kann A zerlegt werden in A = LDL T wobei D die Diagonale von R aus der LR-Zerlegung ist. Dies nennt man die Colesky-Zerlegung. Der Aufwand zur Berecnung ist alb so groß wie bei der LR-Zerlegung. Warum? Es gilt Man kann auc alternativ screiben Zur Lösung von Ax = b setzt man A = LR = LD D 1 R } {{ } =L T aus Symmetriegründen. A = L L T mit L = LD 1 /2, und muss dann zwei Dreieckssysteme lösen: (i) Ly = b, gefolgt von (ii) Rx = y. Ax = L}{{} Rx = b, =:y Die Auflösung der beiden Dreieckssystem als Algoritmus: for (i = 1;i n; i = i + 1) do for (j = 1;j < i; j = j + 1) do b i = b i l i,j y j ; y i = b i ; {da l ii = 1} end for end for for (i = n; i 1; i = i 1) do for (j = i + 1;i n; j = j + 1) do y i = y i r i,j x j,i ; x i = y i /r i,i ; end for end for Der Aufwand beträgt 2 3 n3 für die LR-Zerlegung und 2n 2 für das Auflösen der beiden Dreieckssysteme. ( ) D 1 /2 = d i,i. i,i Lont sic vor allem wenn man dasselbe Gleicungssystem zu mereren recten Seiten lösen muss. 139

142 11 Pivotisierung und LR-Zerlegung 11.3 Berecnung der Inversen Es sei e j = (0,..., }{{} 1,...,0) T der j-te Eineitsvektor. j-te Komp. Für eine beliebige Matrix B gilt dann Be j = j-te Spalte von B. Folglic ergibt das Lösen von Aa j = e j a j = A 1 e j die j-te Spalte von A 1. Dies ergibt folgenden Algoritmus zur Bestimmung von A 1 : 1. Berecne die LR-Zerlegung von A. 2. Löse Aa j = e j für j = 1,...,n. 3. Setze A 1 spaltenweise aus den a j zusammen. Der Aufwand beträgt somit 2 3 n3 + n 2n 2 = 8 3 n3 Berecnung der Inversen erfordert somit etwa den vierfacen Aufwand des Lösens eines linearen Gleicungssystemes. Es ist also im allgemeinen keine gute Idee erst A 1 auszurecnen um dann Ax = b mittels x = A 1 b zu berecnen Rangbestimmung Fürt das Eliminationsverfaren (oder die LR-Zerlegung zum Scluss auf a n,n = r n,n 0 so war die Ausgangsmatrix A regulär und es gilt Rang(A) = n. Wir nemen ier exakte Aritmetik an (keine Rundungsfeler). Kann dagegen im Scritt k (also bei der Bestimmung von a k,k ) mittels Totalpivotisierung (wictig! Spaltenpivotisierung nict ausreicend!) kein a k,k 0 bestimmt werden, so ist Rang(A) = k 1. Bemerkung: Dieser Algoritmus ist ser empfindlic gegen Rundungsfeler und es gibt bessere für A mit großer Kondition κ(a). 140

143 11.5 Tridiagonalsysteme 11.5 Tridiagonalsysteme Es gibt viele Algoritmen für lineare Gleicungssysteme mit spezieller gestalt. Wir betracten ier Gleicungssysteme mit Tridiagonalgestalt, wie sie bei den kubiscen Splines auftraten. Sei also eine Matrix mit Tridiagonalgestalt gegeben: A = a 1,1 a 1,2 0 a 2,1 a 2,2 a 2,3... a n 1,n 0 a n,n 1 a n,n. Diese sind ein Spezialfall von Bandmatrizen: a i,j = 0 für j < i m l und j > i + m r wobei m = m l + m r + 1 Bandbreite eißt. Ist die Gauß-Elimination für eine Tridiagonalmatrix one Pivotisierung durcfürbar (z.b. bei Diagonaldominanz), so ergibt sic der folgende einface Algoritmus (einfac die Nullstruktur beacten): for (i = 1;i < n; i = i + 1) do q = q i+1,i /q i,i ; a i+1,i+1 = a i+1,i+1 q a i,i+1 ; b i+1 = b i+1 q b i ; end for x n = b n /a n,n ; for (i = n 1; i 1; i = i 1) do x i = (b i a i,i+1 x i+1 )/a i,i ; end for Dieses Verfaren ist auc als Tomas-Algoritmus bekannt. Der Aufwand beträgt aritmetisce Operationen. (n 1) (n 1) 3 = 8(n 1) + 1 = O(n) 11.6 Zusammenfassung Mittels Beispielen wurde motiviert, dass die (Teil-) Pivotisierung notwendig ist um die Auswirkungen von Rundungsfelern in der Gauß-Elimination zu vermeiden. Trotzdem können sic bei sclect konditionierten Systemen Rundungsfeler akkumulieren. 141

144 11 Pivotisierung und LR-Zerlegung Die LR-Zerlegung wurde ergeleitet. Diese at denselben Aufwand wie die Gauß-Elimination und wird bei mereren recten Seiten vorteilaft. Scließlic aben wir noc kurz speziellere Probleme wie Inversenbildung, Rangbestimmung und Tridiagonalsysteme beandelt. 142

145 12 Iterative Lösung linearer Gleicungssysteme 12.1 Dünnbesetzte Matrizen Wir sind wieder interessiert an der Lösung von Ax = b, A R n n, x, b R n Definition 12.1 (Dünnbesetzte Matrix). Eine n n Matrix A eißt dünn besetzt, wenn sie O(n) statt n 2 Einträgen at. Hierbei denkt man an eine parametrisierte Scar von Matrizen (z.b. Bandmatrizen), sonst mact das O(n) keinen Sinn. Typisc ist etwa eine konstante Zal von Einträgen pro Zeile unabängig von n. Dies tritt etwa bei der Diskretisierung von partiellen Differentialgleicungen auf. Der Recenaufwand wird reduziert, wenn man nur mit den Nictnullelementen recnet. Beispiel: Gauß-Elimination für Tridiagonalmatrix Aufwand O(n). Aber: im Allgemeinen ist das leider nict so einfac. Es entstet ein sog. Fill in. Betracte A mit maximal 3 Elementen pro Zeile: m n Nictnullement Fill in Im L-Faktor entsteen O(m n) zusätzlice Einträge. Extrem ist folgendes Beispiel: 143

146 12 Iterative Lösung linearer Gleicungssysteme Links entstet aus der dünnbesetzten Matrix mit cirka 3n Einträgen eine vollbesetzte Matrix. Rects ist sind erste und letzte Zeile sowie erste und letzte Spalte vertausct worden. Nun entstet überaupt kein Fill in! Wir lernen: Menge des Fill in ängt von der Anordnung ab. Somit kann man auc nac einer optimalen Anordung fragen (fürt auf interessantes diskretes Optimierungsproblem). Eine grundsätzlic andere Idee sind iterative Lösungsverfaren. Ausgeend von einem Startwert x (0) R n konstruiert man eine Folge x (0), x (1),...,x (k),... mit der Eigenscaft lim k x(k) = x. Vorsict: k ist der Iterationsindex, keine Potenz! (deswegen Klammern!) Typiscerweise ist der Aufwand zur Berecnung von x (k) nur O(n), entsceidend ist nun die Anzal von Iterationen die man benötigt bis die Norm des Felers klein genug ist. x x (k) Weiter ist wictig: Um die Nullstruktur effektiv auszunutzen benötigt man spezielle Datenstrukturen Relaxationsverfaren Eine simple Idee zur Konstruktion von Iterationsverfaren ist die folgende. Beacte die i-te Gleicung in Ax = b: n a ij x j = b i j=1 und löse nac x i auf: x i = 1 ( b i a ij x j ). a ii j i Voraussetzung ist a ii 0 i = 1...n. Das get also nur für bestimmte Matrizen. Nun bearbeite alle Zeilen der Reie nac: gegeben x (k) for (i = 1; i ( n; i = i + 1) do x (k+1) i = 1 a ii b i j<i a ijx (k+1) j ) j>i a ijx (k) j end for 144

147 12.2 Relaxationsverfaren liefert x (k+1). Dieses Verfaren eißt Einzelscritt oder Gauß-Seidel 29 Verfaren und geört zu den Relaxationsverfaren. Der Aufwand zur Berecnung von x (k+1) aus x (k) ist proportional zur Anzal der Nictnullelemente, also O(n). Es stellen sic die Fragen: Unter welcen Bedingungen gilt lim k x (k) = x? Wie viele Iterationen benötigt man um zu erreicen für gegebenes ε? x x (k) ε Wie stellt man (effizient) fest, dass x x (k) ε erreict ist (x ist unbekannt!)? Bevor wir diese Fragen untersucen, wollen wir noc weitere Relaxationsverfaren angeben. Jacobi- oder Gesamtscrittverfaren x (k+1) i = 1 a ii ( b i j i ) a ij x (k) j gedämpftes Jacobi-Verfaren Für ω > 0 x (k+1) i = (1 ω)x (k) i + ω a ii ( b i j i ) a ij x (k) j SOR (successive overrelaxation) Verfaren Für ω (0, 2) x (k+1) i = (1 ω)x (k) i + ω ( b i a ij x (k+1) j a ii j<i j>i ) a ij x (k) j gedämpftes Ricardson Verfaren Für ω > 0 x (k+1) i = (1 ωa ii )x (k) i ( + ω b i j i ) a ij x (k) j Dies ist nict unmittelbar einsictig, sondern wird weiter unten klar. 29 Pilipp Ludwig von Seidel, , dt. Matematiker. 145

148 12 Iterative Lösung linearer Gleicungssysteme 12.3 Matrixscreibweise der Relaxationsverfaren Wir wollen nun die Relaxationsverfaren kompakter screiben. Dazu zerlege A = L + D + U mit l ij = { aij i > j 0 sonst, d ij = { aij i = j 0 sonst, u ij = { aij i < j 0 sonst also unteres Dreieck, Diagonale und oberes Dreieck. Für das gedämpfte Jacobi-Verfaren eralten wir x (k+1) i = (1 ω)x (k) i + ω a ii ( b i j i ) a ij x (k) j i = 1,...,n x (k+1) = (1 ω)x (k) + ωd 1 ( b (L + U)x (k)) = x (k) ωd 1 Dx (k) + ωd 1 ( b (L + U)x (k)) = x (k) ωd 1 ( b Ax (k)) Auc das Gauß-Seidel Verfaren lässt sic auf änlice Form bringen: x (k+1) i = 1 ( b i a ij x (k+1) j a ii j<i j>i ) a ij x (k) j i = 1,...,n j i a ij x (k+1) j = b i j>i a ij x (k) j i = 1,...,n (L + D)x (k+1) = b Ux (k) x (k+1) = (L + D) 1 (b Ux (k) ) = x (k) (L + D) 1 (L + D)x (k) + (L + D) 1 (b Ux (k) ) = x (k) + (L + D) 1 (b Ax (k) ). Die folgende Herleitung zeigt, dass diese Formulierung kein Zufall ist. Sei e (k) := x x (k) der Feler in der k-ten Iteration. Wir eralten aufgrund der Linearität: Ae (k) = A(x x (k) ) = Ax Ax (k) = b Ax (k) =: d (k) (12.1) Die Größe d (k) = b Ax (k) eißt Defekt und ist leict berecenbar. 146

149 12.4 Konvergenzanalyse Aus gegebenem x (k) ließe sic x mittels x = x (k) + e (k) = x (k) + A 1 (b Ax (k) ) ausberecnen. Allerdings ist Lösen von Ae = d nict leicter als Ax = b. Die Idee ist nun A in der Felergleicung (12.1) durc eine Matrix M zu ersetzen so dass M A, aber M leicter invertierbar. Somit erält man das Iterationsverfaren x (k+1) = x (k) + M 1 (b Ax (k) ). (12.2) Die Größe v = M 1 (b Ax (k) ), also die Lösung des Systems Mv = d (k) eißt Korrektur. Alle biserigen Verfaren lassen sic so screiben: M = ω 1 D M = L + D M = ω 1 I M = L + ω 1 D : gedämpftes Jacobi-Verfaren : Gauß-Seidel : Ricardson-Iteration : SOR Verfaren 12.4 Konvergenzanalyse Wir wollen nun überlegen unter welcen Umständen ein Relaxationsverfaren konvergiert. Für das allgemeine Iterationsverfaren ergibt sic Es ergibt sic die Felerfortpflanzungsgleicung x (k+1) = x (k) + M 1( b Ax (k)) x x (k+1) = x x (k) M 1( b Ax (k)) e (k+1) = e (k) M 1( Ax Ax (k)) = e (k) M 1 A (x x (k)) ( ) = I M 1 A e (k). } {{ } =:S e (k+1) = Se (k) 147

150 12 Iterative Lösung linearer Gleicungssysteme mit der Iterationsmatrix S = I M 1 A. Rekursives einsetzen ergibt: e (k) = Se (k 1) = S 2 e (k 2) =... = S k e (0). Gilt lim k S k = 0 (Nullmatrix) so konvergiert das Verfaren unabängig vom Startwert x (0). Wegen des linearen Zusammenanges e (k+1) = Se (k) eißen diese Verfaren auc lineare Iterationsverfaren. Eine allgemeine Auskunft über die Konvergenz gibt der nun folgende Satz. Satz Ein Iterationsverfaren der Form x (k+1) = x (k) + M 1 ( b Ax (k) ) unabängig vom Startwert genau dann wenn (S) < 1 mit dem Spektralradius einer Matrix. (S) = max{ λ λ ist Eigenwert von S} konvergiert Teilbeweis: Ist S diagonalisierbar (n linear unabängige Eigenvektoren), also S = TDT 1, so gilt S k = TDT 1 TDT 1...TDT 1 = TD k T 1 mit D k = λ k 1 λ k 2... λ k n Für den allgemeinen Fall sei auf [Ran06, Satz 6.1] verwiesen. 0 λ i < 1 i = 1...n. Konkret erfordert die Anwendung dieses Satzes also Aussagen über die Eigenwerte von S = I M 1 A. Dies ist im allgemeinen nict einfac. Relativ leict ist die Ricardson-Iteration für symmetrisc positiv definite Matrizen zu analysieren. Satz Sei A symmetrisc und positiv definit, dann konvergiert die gedämpfte Ricardson- Iteration für genügend kleines ω > 0. Beweis: Aus A s.p.d. folgt alle Eigenwerte sind reell und positiv, also gilt für das Spektrum von A σ(a) = {λ min (A) = λ 1, λ 2,...,λ n = λ max (A)} mit 0 < λ i λ i+1 i = 1,...,n 1. Das gedämpfte Ricardson-Verfaren, M = ω 1 I, at die Iterationsmatrix und diese at das Spektrum S ω = I M 1 A = I ωa σ(s ω ) = {µ i µ i = 1 ωλ i mit λ i σ(a)}. 148

151 12.5 Diagonaldominante Matrizen Wält man jetzt speziell ω = 1 λ max(a) so ergibt sic 0 = 1 λ max λ max µ i 1 λ min λ max = 1 1 κ 2 (A) κ 2 (A) = λ max. λ min Spektralkondition Wegen κ 2 (A) 1 gilt (S) < 1. Bemerkung Für typisce Anwendungen, etwa bei der numeriscen Lösung partieller Differentialgleicungen, werden die Matrizen ser groß und die spektrale Kondition steigt mit n an. So gilt etwa bei Lösung der Laplacegleicung in Ω R d mit Finiten Differenzen ( ) κ 2 (A) = O n 2 /d. Damit konvergiert das Verfaren umso sclecter je größer das Problem ist. Bemerkung Zur praktiscen Anwendung der Ricardson-Iteration benötigt man eine Scätzung für λ max (A). Man kann zeigen: ( λ max (A) max a ii + ) a ij. i=1,...,n j i (Satz von Gerscgorin) Diagonaldominante Matrizen Wir geben nun ein weiteres Konvergenzresultat für das Jacobi-, bzw. Gauß-Seidel Verfaren an. Dieses Resultat zeigt auc, dass die Symmetrie keine notwendige Vorrausetzung ist. Satz Erfüllt die Matrix A die starke Zeilensummenbedingung a ij < a ii i = 1,...,n j i so konvergieren sowol das Jacobi als auc das Gauß-Seidel Verfaren. Beweis: Aus e (k+1) = Se (k) folgt durc Bilden der Norm e (k+1) = Se (k) S e (k) für jede verträglice Matrixnorm. Wir verwenden ier die Maximumnorm mit Zeilensummennorm als zugeordneter Matrixnorm, siee Definition Wir zeigen nun S < 1 woraus unmittelbar die Konvergenz folgt. Jacobi-Verfaren: Es gilt S = I D 1 A = I D 1 (L + D + U) = D 1 (L + U) 149

152 12 Iterative Lösung linearer Gleicungssysteme und damit S = max n i=1,...,n j=1 s ij = max i=1,...,n n j=1 j i a ij a ii = max i=1,...,n 1 a ii a ij < 1. j i Gauß-Seidel: Für S gilt die Darstellung S = I (L + D) 1 A (L + D)S = (L + D) A = L + D (L + D + U) = U DS = U LS S = D 1 (U + LS) Komponentenweise eißt das für Sx: n (Sx) i = s ij x j = 1 ( a ij x j + ) a ij (Sx) j a ii j<i j=1 j>i Rekursion für (Sx) i. Betrag bilden und Dreiecksungleicung ergibt: (Sx) i 1 ( a ij x j + a ii j>i j<i ) a ij (Sx) j. Per Induktion zeigen wir nun : (Sx) i < x i = 1,...,n. Sei i = 1. Dann aben wir (Sx) i 1 a ii ( j>i ) 1 a ij x j x a ii Bis i 1 sei die Anname bewiesen. Für die i-te Zeile gilt dann (Sx) i 1 ( ) a ii j>i a ij x j + }{{} x Damit aben wir Sx < x gezeigt. j<i a ij (Sx) j } {{ } x Nun setzen wir das in die Definition der Matrixnorm ein: S = sup x 0 Sx x < 1. a ij < x. j>i x 1 a ii a ij < x. Das Resultat kann unter gewissen zusätzlicen Voraussetzungen (Irreduzibilität) auf den Fall j i a ij a ii verallgemeinert werden (scwac diagonaldominante Matrizen). Wir merken uns: Iterationsverfaren konvergieren nur für bestimmte Klassen von Matrizen. Für ingenieurrelevante Probleme sind oft keine Konvergenzaussagen möglic. j i 150

153 12.6 Praktisce Realisierung 12.6 Praktisce Realisierung Wir braucen noc ein Kriterium wann die Iteration abgebrocen werden kann. Aus Ae (k) = d (k) e (k) = A 1 d (k) eralten wir e (k) A 1 d (k) (für jede verträglice Matrixnorm) Es liegt nae den Defekt d (k) = b Ax (k) als Abbruckriterium eranzuzieen. Wegen b = Ax A x x b A relativen Feler: eralten wir außerdem für den interessanteren e (k) x A 1 d (k) x A 1 A d(k) b = κ(a) d(k) b. Bei großer Konditionszal kann desalb der Feler trotz kleinem d (k) groß sein. Eine Scätzung für κ(a) ist außerdem scwer erältlic. In der Praxis verwendet man äufig eine relative Abbrucbedingung der Form wobei d (0) der Defekt zum Startwert x (0) ist. d (k) < ε d (0) Mit einem geeigneten ε eralten wir dann folgenden Algoritmus: Gegeben seien x, b; Berecne d = b Ax; (Anfangsdefekt) Setze d0 = d ; wile ( d ε d0) do Löse Mv = d; Setze x = x + v; Setze d = d Av; end wile Diese Version vermeidet Rundungsfeler in der Berecnung des Defektes Datenstrukturen für dünnbesetzte Matrizen Wie nutzt man die Nullstruktur der Matrix A nun effektiv aus? A kann nict mer als zweidimensionales Feld gespeicert werden. Eine ser beliebte Datenstruktur ist compressed row storage (CRS). 151

154 12 Iterative Lösung linearer Gleicungssysteme Sei A R n n und m = # Nictnullelemente von A. Feld a[m] entält zeilenweise alle Nictnullelemente a[m] = a 00 a 02 a 11 a 13 a 14 a 20 a a 44 Feld j[m] entält zeilenweise jeweils die zugeörigen Spaltenindizes j[m] = Feld r[n + 1] entält die Startindizes für die jede Zeile r[n + 1] = Damit programmiert man die Matrix-Vektor-Multiplikation y = Ax als: for (i = 0; i < n; i = i + 1) do y[i] = 0; for (k = r[i]; k < r[i + 1]; k = k + 1) do y[i] = y[i] + a[k] x[j[k]]; end for end for 12.8 Abstiegsverfaren Wir kommen nun zu einer weiteren Klasse von Iterationsverfaren zur Lösung von linearen Gleicungssystemen, den sogenannten Abstiegsverfaren. Diese formulieren die Lösung des linearen Gleicungssystems als Minimierungsaufgabe um: Ax = b Satz Sei A eine symmetrisc positiv definite, n n Matrix, dann nimmt das Funktional F : R n R F(x) = 1 2 xt Ax b T x sein eindeutiges Minimum in x = A 1 b an. Beweis: Für ein beliebiges x setze x = x + v. Dann gilt: F(x) = 1 2 (x + v) T A(x + v) b T (x + v) = 1 (x ) T Ax + (x ) T Av + v T Ax +v T Av b T x b T v 2 } {{ } 2v T Ax = 1 2 (x ) T Ax b T x +v T (Ax b) + 1 } {{ } } {{ } 2 vt Av =0 = F(x ) vt Av. 152

155 12.8 Abstiegsverfaren Da A s.p.d. ist v T Av > 0 für alle v 0 und es gilt F(x) > F(x ) für alle x x, also ist x ein Minimum von F. Eindeutigkeit: Sei x weiteres Minimum, dann gilt für x = x + (x x ) F(x ) = F(x ) (x x ) T A(x x ) > F(x ) und somit Widerspruc zur Anname dass x ein Minimum. Diese Carakterisierung nutzt man nun folgendermaßen aus. Sei p (k) R n, p (k) 0 ein beliebiger Vektor, eine sog. Sucrictung, dann minimiere F entlang der Geraden x (k) + αp (k), das eißt Finde α (k) so dass F(x (k) + αp (k) ) mininimal wird. Diese eindimensionale Minimierungsaufgabe kann man einfac lösen: F(x (k) + αp (k) ) = F(x (k) ) + α(p (k) ) T (Ax (k) α 2 b } {{ } } {{ } ) + 2 (p(k) ) T Ap (k) =v d (k) (folgt aus dem Beweis oben) und damit d dα F(x(k) + αp (k) ) = (p (k) ) T (Ax (k) b) + α(p (k) ) T Ap (k)! = 0 α (k) = (p(k) ) T (b Ax (k) ) (p (k) ) T Ap (k) Wie wält man nun die Sucrictung p (k) im konkreten Fall? Man erinnere sic: Der Gradient F(x 0 ) einer Funktion F : R n R im Punkt x 0 ist ein Vektor, der senkrect auf der Niveaulinie {x R n F(x) = F(x 0 )} stet und in Rictung des größten Anstiegs von F zeigt. Metode des steilsten Abstiegs: Wäle die negative Gradientenrictung, also F x 1 (x (k) ) Man recnet für das Funktional F nac: p (k) = F(x (k) ) =. F x n (x (k) ). F(x (k) ) = b Ax (k) der Defekt! In algoritmiscer Form lautet das Gradientenverfaren wie folgt: 153

156 12 Iterative Lösung linearer Gleicungssysteme Gegeben x (0) ; Berecne d (0) = b Ax (0) ; for (k = 0, 1,...) do q = Ad (k) ; α (k) = (d(k) ) T d (k) (d (k) ) T q ; x (k+1) = x (k) + α (k) d (k) ; d (k+1) = d (k) α (k) q; end for Der Aufwand pro Iteration ist im wesentlicen ein Matrix-Vektor-Produkt. Für die Konvergenz des Verfarens kann man zeigen: (wobei x A = x T Ax die Energienorm ist). x x (k+1) A κ 2(A) 1 κ 2 (A) + 1 x x(k) A Das Gradientenverfaren konvergiert nict besser als das Gauß-Seidel-Verfaren. Die Konvergenzprobleme mact das folgende Beispiel anscaulic. Beispiel 12.8 (Zum Gradientenverfaren). Betracte A = [ ] [ 0, b = 0 ] F(x) = x x2 2 mit Minimum in (0, 0) T. Die Höenlinien von F sind Ellipsen. Es ist p (k+1) p (k) aber p (k+2) beinae parallel zu p (k). Dieser Effekt wird umso stärker je exzentriscer die Ellipsen sind, d.. je untersciedlicer die Eigenwerte von A. Es gibt Verbesserungen des Gradientenverfarens, z. B. das Verfaren der konjugierten Gradienten, die diesen Effekt vermeiden Zusammenfassung Dünnbesetzte Matrizen sind solce, die nur O(n) Nictnullelemente aben, wenn n n die Dimension der Matrix ist. Direkte Lösungsverfaren wie die LR-Zerlegung füren bei dünnbesetzten Matrizen oft zu einem Fill in der Matrix und damit zu unvertretbar oem Aufwand. 154

157 12.9 Zusammenfassung Iterative Verfaren eignen sic für solce Matrizen besser, da der Aufwand pro Scritt typiscerweise nur O(n) ist. Allerdings ist die Konvergenz nur für gewisse Klassen von Matrizen gewärleistet. Wir aben zwei Klassen von Iterationsverfaren kennengelernt, die Relaxationsverfaren und die Abstiegsverfaren. 155

158 12 Iterative Lösung linearer Gleicungssysteme 156

159 13 Lösung nictlinearer Gleicungssysteme 13.1 Aufgabenstellung Auc wenn lineare Modell so bequem und einfac zu lösen sind: Die Welt ist nictlinear! Seit f : I = [a, b] R eine stetige Funktion. Wir interessieren uns für die Lösung der Aufgabe wir sucen also eine Nullstelle einer Funktion. Finde x [a, b] : f(x) = 0, Ein Beispiel für eine solce Aufgabe atten wir scon: Die Stützstellen bei der Gauss-Quadratur sind die Nullstellen der Legendrepolynome. In der Praxis tritt diese Aufgabe äufig in öerdimensionalen Räumen auf, also Finde x 1,...x n : f i (x 1,...x n ) = 0 i = 1,...,n. Wenn man die Komponenten f i zu einer vektorwertigen Funktion f : R n R zusammenfasst screibt sic das kurz als f(x) = 0. Zunäcst bescränken wir uns aber auf n = Intervallscactelung (Bisektion) Als erste Metode zur Lösung nictlinearer Gleicungen betracten wir die Bisektion. Diese ist ser änlic zur binären Suce. Idee: Angenommen es existiert ein Teilintervall I 0 = [a 0, b 0 ] so dass f(a 0 ), f(b 0 ) versciedenes Vorzeicen aben, also f(a 0 ) f(b 0 ) < 0. So at wegen dem Zwiscenwertsatz (für stetige Funktionen) f mindestens eine Nullstelle in [a 0, b 0 ]. Dies fürt zu folgendem Algoritmus: Gegeben: I 0 = [a 0, b 0 ] mit f(a 0 ) f(b 0 ) < 0 und Toleranz ε; for (t = 0, 1,...) do x t = 1 2 (a t + b t ); {Mittelpunkt des Intervalles} if (f(x t ) = 0) ten break; {fertig!} end if if (f(a t )f(x t ) < 0) ten a t+1 = a t ; b t+1 = x t ; {Nullstelle in [a t, x t ]} else a t+1 = x t ; b t+1 = b t ; {f(x t )f(b t ) < 0 da V Z(x t ) = V Z(a t )!} end if 157

160 13 Lösung nictlinearer Gleicungssysteme if (b t a t < ε) ten break; {Feler ist akzeptabel} end if end for Nun zur Analyse des Verfarens. In jedem Scritt gilt a t a t+1 < b t+1 b t und b t+1 a t+1 = 1 2 b t a t = ( ) 1 t+1 b 0 a 0. 2 Wir alten folgende Eigenscaften fest: Die Konvergenzrate ist 1 2 pro Scritt. Die Bisektion ist numerisc ser stabil (unanfällig gegen Rundungsfeler) und insbesondere bei monotonen Funktionen die Metode der Wal. Ein Nacteil ist, dass die Metode nur für reelle Funktionen (also etwa nict für komplexwertige) anwendbar ist Fixpunktiteration Wir geben nun ein weiteres Verfaren an, welces die Nullstellensuce in eine Fixpunktsuce umformuliert. Zu gegebenem f : I R betracte die Hilfsfunktion g(x) = x + σf(x) mit 0 σ R. Offensictlic gilt g(x) = x x + σf(x) = x σf(x) = 0 f(x) = 0. Die Suce nac Nullstellen von f ist also äquivalent zur Suce nac Fixpunkten g(x) = x von g. Diese Suce nac Fixpunkten untersuct der folgende Satz. 158

161 13.3 Fixpunktiteration Satz 13.1 (Banacscer 30 Fixpunktsatz). Es sei I R ein nictleeres, abgesclossenes Intervall und g : I I eine Lipscitz 31 -stetige Abbildung g(x) g(y) q x y x, y I mit q < 1 (Kontraktion). Dann konvergiert die durc x (t+1) = g(x (t) ) generierte Folge für beliebige Startwerte gegen den eindeutigen Fixpunkt z I. Für den Feler gilt:. x (t) z q 1 q x(t) x (t 1) qt 1 q x(1) x (0) Beweis: Da g : I I ist x (t) = g(x (t 1) ) = g(g(x (t 2) )) =...g t (x (0) ) woldefiniert. Weiter gilt: x (t+1) x (t) = g(x (t) ) g(x (t 1) ) q x (t) x (t+1)... q t x (1) x (0) Wir zeigen nun, dass die x (t) eine Caucy-Folge bilden. Seien ε > 0 und m 1 gegeben x (t+m) x (t) x (t+m) x (t+m 1) + x (t+m 1) x (t+m 2) x (t+1) x (t) x (t+m) x (t+m 1) + x (t+m 1) x (t+m 2) x (t+1) x (t) q t+m 1 x (1) x (0) + q t+m 2 x (1) x (0) q t x (1) x (0) (q t+m 1 + q t+m q t ) x (1) x (0) q t 1 qm 1 q x(1) x (0) ε für t t(ε) groß genug. Wegen dem Vollständigkeitsaxiom konvergiert jede Caucy-Folge gegen einen Grenzwert z R. Wegen g : I I und I abgesclossen gilt z I. Felerabscätzung: x (t+m) x (t) x (t+m) x (t+m 1) x (t+1) + x (t) (wie oben) q m x (t) x (t 1) q x (t) x (t 1) (q m q) x (t) x (t 1) q 1 q x(t) x (t 1) Für m konvergiert x (t+m) gegen z, die recte Seite ist unabängig von m, also folgt z x (t) q 1 q x(t) x (t 1) qt 1 q x(1) x (0). 30 Stefan Banac, , polniscer Matematiker. 31 Rudolf O. S. Lipscitz, , dt. Matematiker. 159

162 13 Lösung nictlinearer Gleicungssysteme Eindeutigkeit: Sei z z ein weiterer Fixpunkt so gilt z z = g(z) g(z ) q z z 1 q (z z 0). Dies ist ein Widerspruc zu q < 1 (Lipscitz). Also ist z = z. Bemerkung Ein inreicende Bedingung für die Lipscitzstetigkeit von g ist g (x) q für alle x I. Aus dem Mittelwertsatz der Differentialrecnung folgern wir: g(x) g(y) x y = g (ξ) g(x) g(y) = g (ξ)(x y) g(x) g(y) = g (ξ) x y und somit die Lipscitzstetigkeit falls g (x) q für alle x I. Ist ausserdem q < 1 so at man die Kontraktionseigenscaft. Bemerkung g (x) q ist nur eine inreicende Bedingung für die Lipscitz-Stetigkeit. So aben wir etwa für die Funktion x : also Lipscitz-Stetigkeit mit Konstante 1. x y x y Es ist gerade die Stärke des Banacscen Fixpunktsatzes, dass die Differenzierbarkeit der Iterationsfunktion g nict erforderlic ist. Geometrisce Interpretation der Fixpunktiteration g(x 1 ) g(x 3 ) y = x g(x 2 ) g(x 0 ) g(x) x 0 x 1 x 3 x 2 Bemerkung Der Banacsce Fixpunktsatz kann auf Funktionen g : G R n, G R n, erweitert werden. Entsprecend ist wieder g(x) g(y) q x y, x, y G mit einem q < 1 zu fordern. Oben aben wir die iterative Lösung von Ax = b untersuct. Dies entsprict einer Nullstellensuce f(x) = b Ax =

163 13.4 Newton-Verfaren Die linearen Iterationsverfaren lauteten x (k+1) = x (k) + M 1 (b Ax (k) ) = (I M 1 A) x (k) + M } {{ } } {{ 1 } b = g(x (k) ). S c Untersucen wir die Lipscitz-Stetigkeit von g: g(x) g(y) = Sx Sy = S(x y) S x y. Für S < 1 eralten wir Konvergenz unabängig vom Startwert Newton-Verfaren Wir keren zurück zur Nullstellensuce f(x) = 0. Für das Newton-Verfaren wollen wir mit der geometriscen Idee beginnen. Am aktuellen Punkt x (t) ersetze die Funktion f durc ire Tangente und berecne deren Nullstelle. Das ist x (t+1). f(x (t) ) f(x (t+1) ) x (t) x (t+1) Formal lautet die Gleicung für die Tangente im Punkt x (t) T(x) = f (x (t) )(x x (t) ) + f(x (t) ). Die Nullstelle der Tangente eralten wir mittels T(x (t) ) = 0 f (x (t) )(x (t+1) x (t) ) + f(x (t) ) = 0 x (t+1) = x (t) f(x(t) ) f (x (t) ). Voraussetzung ist natürlic, dass f (x (t) ) 0, d.. es liegt insbesondere eine einface Nullstelle im Punkt x vor. Die Konvergenzeigenscaften des Newton-Verfarens bescreibt der folgende Satz. 161

164 13 Lösung nictlinearer Gleicungssysteme Satz Die Funktion f C 2 [a, b] abe in (a, b) eine Nullstelle z und es sei m := min a x b f (x) > 0, M := max a x b f (x). Sei > 0 so gewält, dass q = M 2m < 1, K (z) = {x R x z } [a, b]. Dann sind für jeden Startwert x (0) K (z) die Newton-Iterierten x (t) K (z) definiert und es gelten die Abscätzungen x (t) z 2m M q(2t ) bzw. x (t) z M 2m x(t) x (t 1) 2. Beweis: Siee [Ran06, Satz 5.1]. Bemerkung Das Newton-Verfaren konvergiert quadratisc : x (t) z C x (t) x (t 1) 2, x (t) z q 2t. Bisektion und Fixpunktiteration konvergieren nur linear : Z.B. C = 1, q = 0.1: x (t) z C x (t) x (t 1), x (t) z Cq t. t linear quadratisc Bei linearer Konvergenz ist die Zal der gültigen Ziffern proportional zu t, bei quadratiscer Konvergenz verdoppelt sic die Zal der gültigen Ziffern asymptotisc in jedem Scritt! Der Nacteil des Newton-Verfarens ist die lokale Konvergenz, d.. der Startwert muss inreicend nae an der Lösung liegen. Beispiel Wir betracten die Wurzelberecnung, d.. die Lösung von Das Newton-Verfaren lautet f(x) = x n a = 0 für a > 0. x (t+1) = x (t) f(x(t) ) f (x (t) ) = x(t) (x(t) ) n a n(x (t) ) n 1. z Konvergiert für jedes x (0) > 0 gegen die positive Wurzel, denn falls x (0) < z gilt x (1) > z und für x (t) > z fällt die Folge monoton. a 162

165 13.4 Newton-Verfaren Für den Fall n = 2 (d.. x 2 a = 0) ergibt sic quadratisce Konvergenz falls x (t) a < 2 a. Wir beandeln nun noc einige Varianten des Newton-Verfarens. Das sog. gedämpfte Newton-Verfaren lautet mit λ (t) (0, 1]. x (t+1) = x (t) λ (t) f(x(t) ) f (x (t) ) Man addiert also nict die volle Korrektur sondern dämpft diese mit dem Faktor λ (t). Bei geeigneter Wal von λ (t) kann man den Konvergenzbereic des Newton-Verfarens vergrößern. In der sog. Sekantenmetode vermeidet man die Berecnung von Ableitungen durc Verwendung zweier aufeinanderfolgender Punkte: f(x (t 1) ) f(x (t) ) x (t 1) x (t) x (t+1) Man ersetzt also die Tangente durc die Sekante: T(x) = f(x(t) ) f(x (t 1) ) x (t) x (t 1) (x x (t) ) + f(x (t) ) x (t+1) = x (t) f(x (t) x (t) x (t 1) ) f(x (t) ) f(x (t 1) ). Für die Konvergenz der Sekantenmetode kann man zeigen: x (t) z 2m M qγt γ t : Fibonacci-Zalen γ 0 = γ 1 = 1, γ t+1 = γ t + γ t 1. Dies entsprict einer Konvergenzordnung x (t) z C x (t) x (t 1) s, mit s = 1 2 (1 + 5) Goldener Scnitt. Ein Problem der Sekantenmetode ist die Empfindlickeit gegenüber Auslöscung. Weitere Alternative: Berecne f (x (t) ) im Newton-Verfaren durc numerisce Differentiation: 163

166 13 Lösung nictlinearer Gleicungssysteme Aufwendiger als Sekantenmetode, aber quadratisce Konvergenz. Auc empfindlic gegen Auslöscung. Falls f (x) nict exakt berecnet wird sprict man oft von Quasi-Newton-Verfaren Newton-Verfaren im R n Wir wenden uns nun der Lösung von zu. f i (x 1,...,x n ) = 0 i = 1,...,n f(x) = 0 mit x = (x 1,...,x n ) T und f : R n R n Taylorreie im R n liefert Verallgemeinerung der Tangente: f(x + x) = f(x) + J(x) x + Restglied. Hierbei ist J(x) die Jacobimatrix an der Stelle x: Nullstelle der Tangente liefert: (J(x)) i,j = f i x j (x) R n n. f(x (t) ) + J(x (t) )(x (t+1) x (t) )! =0 x (t+1) = x (t) (J(x)) 1 f(x (t) ). Jeder Scritt des Newton-Verfarens erfordert das Lösen eines linearen Gleicungssystems J(x (t+1) )v = f(x (t) ). Hierfür setzt man wieder direkte oder iterative Verfaren ein. Bei den inexakten oder Quasi-Newton-Verfaren wird dieses lineare Gleicungssystem nur näerungsweise gelöst, oder die Jacobi-Matrix nict in jedem Scritt neu aufgestellt Zusammenfassung Nictlineare algebraisce Gleicungen können nur iterativ gelöst werden. Daer ist bei allen vorgestellten Metoden die Konvergenz gegen eine Lösung nur unter einscränkenden Voraussetzungen sicergestellt. Für monontone Funktionen bietet sic die Bisektion an. 164

167 13.6 Zusammenfassung Die Fixpunktiteration erfordert, dass die Verfarensfunktion eine Kontraktion darstellt. Dafür konvergiert sie unabängig vom Startwert. Das Newtonverfaren erfordert Differenzierbarkeit der nictlinearen Funktion und konvergiert nur wenn der Startwert genügend nae an der Lösung liegt. Dafür ist es wegen der quadratiscen Konvergenz ser scnell. Sowol Fixpunktiteration als auc das Newton-Verfaren können auf Systeme erweitert werden. 165

168 13 Lösung nictlinearer Gleicungssysteme 166

169 14 Einfürung in Gewönlice Differentialgleicungen 14.1 Motivation Angenommen wir wollen das Wacstum einer Population von Bakterien, Fücsen,..., in Abängigkeit der Zeit ermitteln. Sei y(t) : [a, b] R die Anzal der Individuen der Population zur Zeit t. Dabei macen wir zwei Annamen: [a, b] ist das Zeitintervall in dem uns y(t) interessiert. Die Zal der Individuen ist eine kontinuierlice Größe. Wir vernaclässigen die räumlice Verteilung indem wir uns auf einen kleinen Raumbereic bescränken (etwa eine Petriscale). Sei nun t ein kleines Zeitintervall, dann macen wir die folgende Modellanname: Die Zuname der Zal der Individuen in t is proportional zu t und der Zal der Individuen zur Zeit t. In Formeln übersetzt eisst das λ eisst Wacstumsrate. y(t + t) } {{ } = y(t) }{{} + λ ty(t). } {{ } # Individuen am Ende des Intervalls # Individuen am Anfang des Intervalls Zuwacs Stellen wir die Gleicung etwas um so eralten wir y(t + t) y(t) t = λy(t) und für den Limes t gegen Null ergibt sic scließlic dy(t) dt = y (t) = λy(t). (14.1) So eine Gleicung nennt man eine Differentialgleicung, weil die unbekannte Funktion durc eine Bedingung an die Ableitung festgelegt wird. Eine Funktion y(t) : [a, b] R eisst Lösung der Differentialgleicung falls sie die Gleicung für alle t [a, b] erfüllt. Wir wollen uns nun die Lösungsmenge dieser Differentialgleicung überlegen. Eine Lösung errät man leict. Wegen ist y(t) = e λt offensictlic eine Lösung. d dt eλt = λe λt 167

170 14 Einfürung in Gewönlice Differentialgleicungen Diese Lösung kann man auc mit einer beliebigen Konstanten multiplizieren und erält weitere Lösungen d dt Ceλt }{{} y(t) = λ Ce λt. Sind dies nun alle Lösungen? Dazu überlegt man folgendermaßen. Sei y(t) eine beliebige Lösung von (14.1). Dann gilt: }{{} y(t) d (y(t)e λt) = y (t)e λt y(t)λe λt = ( y (t) λy(t) ) e λt = 0. dt } {{ } = 0 da y Lösung Wegen d ( dt y(t)e λt ) = 0 muss y(t)e λt = C sein für alle t. Somit aben alle Lösungen von (14.1) die Gestalt y(t) = Ce λt. Um die Lösung unserer Beispielgleicung eindeutig festzulegen müssen wir eine Zusätzlice Bedingung stellen, die die Konstante C in der allgemeinen Lösung festlegt. Eine natürlice Bedingung ist die Zal der Individuen zu Beginn des Zeitintervalles [a, b], also Dies nennt man einen Anfangswert. Hieraus erält man leict y(a) = Y. y(a) = Ce λa = Y C = Y e λa. Damit at das sogenannte Anfangswertproblem y (t) = λy(t), y(a) = Y die Lösung y(t) = Y e λ(t a). Das Wacstum einer Population erfordert Ressourcen, etwa Energie, z. B. in Form von Narung. Exponentielles Wacstum erfordert demnac unbegrenzte Verfügbarkeit von Ressourcen, was in der Realität nict beliebig lange möglic ist. Ein realisitisceres Modell für Wacstum nimmt an, dass es eine obere Grenze für die Größe der Population gibt. Legen wir dies Größe willkürlic auf 1 fest (entsprecend 100%) so erält man die Differentialgleicung: y (t) = λ(1 y(t))y(t) 168

171 14.2 Problemstellung Die neue Wacstumsrate λ(1 y(t)) wird Null, wenn y(t) = 1 erreict. Dies nennt man das logistisce Wacstumsmodell. Die Lösungsmenge dieser Gleicung ist viel scwieriger zu ermitteln. Wen es interessiert: [TT07, S. 176]. Für viele Differentialgleicungen lässt sic die Lösungsmenge überaupt nict in gesclossener Form angeben und man ist auf eine numerisce Lösung angewiesen Problemstellung Wir wollen in der Vorlesung Anfangswertaufgaben (AWA) der folgenden Form beandeln: Finde y(x) C 1 [a, b] so dass y (x) = f(x, y(x)), x [a, b], y(a) = Y (Anfangswert). (14.2) Diese Differentialgleicung ist gewönlic, da y nur eine Funktion in einer Variablen ist, d.. der Definitionsbereic ist eindimensional. skalar, da der Wertebereic eindimensional ist. explizit, da die Gleicung in der Form y (x) =... ist. erster Ordnung, da als öcste Ableitung nur eine erste Ableitung von y vorkommt. Wir wollen kurz darauf eingeen welce Verallgemeinerungen iervon es gibt. Systeme gewönlicer Differentialgleicungen Gesuct sind m > 1 Funktionen y i C 1 [a, b] so dass y i(x) = f i (x, y 1 (x),..., y m (x)), y i (a) = Y i i = 1,...,n, (Anfangswerte). i = 1,...,n, x [a, b], (14.3) Mittels y : R R n, y(x) = (y 1 (x),..., y m (x)) T, f : R R n R n, f(x, y) = (f 1 (x, y),..., f m (x, y)) T, kann man das in vektorieller Form screiben als y (x) = f(x, y(x)), x [a, b], y(a) = Y (Anfangswert). (14.4) Für jede Komponente ist eine Anfangsbedingung erforderlic. 169

172 14 Einfürung in Gewönlice Differentialgleicungen Gewönlice Differentialgleicungen öerer Ordnung Hier suct man eine n > 1 mal stetige differenzierbare Funktion y(x) C n [a, b] so dass d n y dy dxn(x) = f(x, y(x), dx (x),..., dn 1 y dxn 1(x)) x [a, b] y(a) = Y 0, dy dx (a) = Y 1,..., dn 1 y dx n 1(a) = Y n 1 (Anfangswerte). (14.5) Hier sind n Anfangsbedingungen erforderlic. Eine skalare, gewönlice Differentialgleicung n-ter Ordnung kann immer auf ein System mit n Komponenten reduziert werden. Dazu fürt man die Ableitungen bis zur Ordnung n 1 als zusätzlice Unbekannte ein: w 0 (x) = y(x), w 1 (x) = dy dx,..., w n 1(x) = dn 1 y dx (n 1). Damit erält man dann das System w 0(x) = w 1 (x),... w n 2(x) = w n 1 (x), w n 1(x) = f(x,w 0 (x),...,w n 1 (x)), w 0 (a) = Y 0,... w n 2 (a) = Y n 2, w n 1(a) = Y n 1. Aufgrund dieses Tricks werden wir gewönlice Differentialgleicungen öerer Ordnung nict weiter beandeln und annemen, dass man sie entsprecend auf ein System reduziert. Numerisc muss das nict unbedingt gescickt sein wie wir in der Einfürungsvorlesung bei dem Pendel geseen aben. Man kann auc zeigen, dass sic Systeme von Differentialgleicungen mit m Komponenten n-ter Ordnung auf ein System erster Ordnung mit mn Komponenten reduzieren lassen, [SK05]. Randwertprobleme Bei gewönlicen Differentialgleicungen öerer Ordnung muss man nict alle zusätzlicen Bedingungen am Anfang des Intervalls stellen. Wir betracten eine Gleicung zweiter Ordnung der folgenden Form. Finde y C 2 [a, b], so dass y (x) = f(x, y(x), y (x)) y(a) = Y a, y(b) = Y b. x [a, b], Hier ist also y am Anfang und Ende des Intervalls vorgegeben. Man sprict dann von einem Randwertproblem. Solce Aufgaben wollen wir ier nict beandeln. 170

173 14.2 Problemstellung Differential-algebraisce Systeme Hier at man zusätzlic zur gewönlicen Differentialgleicung noc eine algebraisce Nebenbedingung: y =f(x, y(x), z(x)) x [a, b], 0 =g(x, y(x), z(x)) x [a, b], y(a) =0. Hierbei sind y(x), z(x) und entsprecend f(x, y, z), g(x, y, z) vektorwertige Funktionen. Implizite Form der Differentialgleicung Hat die gewönlice Differentialgleicung die Form F(x, y(x), y (x)) = 0, y(a) = Y, x [a, b], sprict man von einer gewönlicen Differentialgleicung erster Ordnung in impliziter Form. Hierbei seien y und entsprecend F als vektorwertig angenommen. Oft sind Systeme in der impliziten Form differentiell-algebraisc, nämlic dann, wenn die Jacobimatrix von F bezüglic des dritten Arguments y singulär wird. Partielle Differentialgleicungen Gesuct ist eine Funktion in mer als einer Variablen und es sind Bedingungen an die partiellen Ableitungen gegeben. Finde y C 2 ([a, b] [c, d]) so dass 2 y x 2 1 (x 1, x 2 ) + 2 y x 2 (x 1, x 2 ) = f(x 1, x 2 ) 2 (x 1, x 2 ) (a, b) (c, d) y(x 1, x 2 ) = g(x 1, x 2 ) (x 1, x 2 ) [a, b] [c, d] (x 1 {a, b} x 2 {c, d}) Das ist die sogenannte Poisson-Gleicung in zwei Raumdimensionen. Partielle Differentialgleicungen beandeln wir in dieser Vorlesung nict! Delay-Gleicungen Eine sogenannte Delay-Gleicung at die Form y (x) = f(x, y(x), y(x τ)) x [a, b] y(x) = g(x) x [a τ, b] y (x) ängt also nict nur von y(x) sondern auc von y(x τ) ab. Beandeln wir auc nict! 171

174 14 Einfürung in Gewönlice Differentialgleicungen 14.3 Weitere Beispiele für gewönlice Differentialgleicungen Beispiel 14.1 (Einface Reaktion). Zwei Stoffe A und B reagieren zu einem Stoff C, also A + B C. Es seien c A (t) Konzentration (Stoffmenge, z.b. Mol pro Volumen) von A zur Zeit t. c B (t) Konzentration von B zur Zeit t. c C (t) Konzentration von C zur Zeit t. Für die Änderung der Konzentration von Stoff A in einem Zeitintervall t nemen wir an, dass diese proportional zu t und dem Produkt c A (t)c B (t) ist (da die Atome/Moleküle beider Stoffe zusammenkommen müssen): c A (t + t) = c A (t) k tc A (t)c B (t) c A(t) = kc A (t)c B (t) mit einem k > 0 (Reaktionsrate). Für die anderen beiden Komponenten erält man analog c B (t) = kc A(t)c B (t), c C (t) = kc A(t)c B (t). Beispiel 14.2 (Komplexe Reaktion). Eine Gleicgewictsreaktion der Form aa + bb k 1 k2 cc + dd wird modelliert durc das System c A(t) = R(t) c B(t) = R(t) c C(t) = R(t) c D(t) = R(t) mit R(t) = k 1 (c A (t)) a (c B (t)) b + k 2 (c C (t)) c (c D (t)) d c i (t 0 ) = C i ; i {A, B, C, D} c i (t) ist die Konzentration von Stoff i. Im cemiscen Gleicgewict gilt Dies ist das Massenwirkungsgesetz. c i(t) = 0 R(t) = 0 ca A cb B c c C cd D = k 2 k 1 = K eq. Beispiel 14.3 (N-Körper Problem, Astronomie). Betracte die Bewegung von N Körpern mit den Massen m i unter irem eigenen Scwerefeld. Unbekannt: Positionen x i (t) R 3 und Gescwindigkeiten v i (t) R 3. Position und Gescwindigkeit ängen zusammen über dx i (t) dt = v i (t); x i (t 0 ) = x i,0 ; i = 1,...,N 172

175 14.4 Zur Teorie gewönlicer Differentialgleicungen Gravitationskraft und zweites Newtonsces Gesetz gibt: 1 j N j i γm j m i (x j x i ) x j x i 2 dv i(t) dt x j x i = F dv i (t) i (t) = m i a i (t) = m i, i = 1,...,N dt = 1 j N j i γm j (x j x i ) x j x i 3 ; v i(t 0 ) = v i,0 ; i = 1,...,N Also 6N gekoppelte, nictlineare Differentialgleicungen. Wie man siet spielen gewönlice Differentialgleicungen in vielen versciedenen Gebieten eine Rolle. Und wir aben nur eine winzige Auswal gegeben. Bevor wir uns an die numerisce Lösung macen ist zu klären wann wir überaupt erwarten können, dass eine Anfangswertaufgabe eine Lösung besitzt und ob diese Eindeutig ist Zur Teorie gewönlicer Differentialgleicungen Satz 14.4 (Existenzsatz von Peano). Sei f : R R n R n stetig (in allen Argumenten) auf dem Streifen D = {(x, y) R R n x a α; y Y β} dann at das Problem y (x) = f(x, y(x)), y(a) = Y eine Lösung auf dem Intervall I = [a T, a + T] für ein gewisses T α welces von α, β und f abängt. Beweis: Siee [Ran]. Satz 14.5 (Stabilitätssatz). Die Funktion f : [a, b] R n R n sei Lipscitzstetig in der Variablen y, d.. es existiere eine Konstante L > 0 so dass f(x, y) f(x, z) L y z x [a, b], y, z R n. (14.6) Weiter seien y(x), z(x) Lösungen des Anfangswertproblems zu den zwei Startwerten Y bzw. Z dann gilt y(x) z(x) Y Z e L x a. Beweis: Siee [Ran]. Eine Folgerung aus dem Stabilitätssatz ist die Eindeutigkeit der Lösung, falls sie existiert. Allerdings können die Lösungen für kleine Änderungen in den Startwerten exponentiell scnell auseinander laufen. 173

176 14 Einfürung in Gewönlice Differentialgleicungen 14.5 Zusammenfassung Gewönlice Differentialgleicungen bescreiben eine Vielzal von Vorgängen in den Naturund Ingenieurwissenscaften. Wir betracten ier vor allem skalare Anfangswertaufgaben erster Ordnung. Stetigkeit der Funktion f sicert lolake Existenz und Lipscitzstetigkeit sicert Eindeutigkeit der Lösung. 174

177 15 Einige einface Verfaren 15.1 Expliziter Euler Wir betracten die AWA Aus der Taylorentwicklung y (x) = f(x, y(x)) in [a, b], y(a) = Y. y(x + ) = y(x) + y (x) y (x + ξ), für ein ξ [0, 1], eralten wir für die erste Ableitung: y y(x + ) y(x) (x) = +O(). (15.1) } {{ } Differenzenquotient Der Differenzenquotient, die sog. Vorwärtsdifferenz, liefert somit eine Approximation erster Ordnung an die Ableitung. Idee: Ersetze y (x) in der AWA durc den Differenzenquotienten und vernaclässige den Felerterm. Dazu wälen wir eine Unterteilung des Intervalles [a, b]: a = x (0) < x (1) <... < x (N 1) < x (N ) = b und setzen (j) = x (j) x (j 1), := max i {1,...,N } (j). Äquidistante Gitterpunkte: = (b a)/n und x (j) = a + j. Einsetzen des Differenzenquotienten in die AWA liefert y(x (j+1) ) y(x (j) ) (j+1) + O() = f(x (j), y(x (j) )) y(j+1) (j+1) y (j) = f(x (j), y (j) ). Umstellen und Hinzufügen der Anfangsbedingung liefert eine Rekursionsformel für die unbekannten Werte y (j) : y (j+1) = y (j) + (j+1) f(x (j), y (j) ), i = 0,...,N 1, (15.2) y (0) = Y. Hier aben wir y durc die sogenannte Gitterfunktion y ersetzt, da wegen Weglassen des Felerterms nur y (j) y(x(j) ) gilt. Dies ist ein sogenanntes explizites Verfaren, da der unbekannte Funktionswert y (j+1) alleine auf der linken Seite stet. Das Verfaren erlaubt eine einface Interpretation im skalaren Fall: 175

178 15 Einige einface Verfaren y (j) ( 1 f(x, y(x)) ) y(x) Man sprict daer auc von Eulerscem Polygonzugverfaren Impliziter Euler Hier verwenden wir die Taylorentwicklung y(x ) = y(x) y (x) y (x ξ), für ein ξ [0, 1], und eralten für die erste Ableitung: y (x) = Dies bezeicnet man als Rückwärtsdifferenz. y(x) y(x ) Einsetzen des Differenzenquotienten in die AWA liefert + O(). y(x (j+1) ) y(x (j) ) (j+1) + O() = f(x (j+1), y(x (j+1) )) y(j+1) (j+1) y (j) = f(x (j+1), y (j+1) ). Somit ergibt sic für die Werte an den Gitterpunkten x (j) : y (j+1) (j+1) f(x (j+1), y (j+1) ) = y (j) y (0) = Y ; (15.3) Dieses Verfaren nennt man implizit, da nict sofort nac y (j+1) aufgelöst werden kann. Implizite Verfaren erfordern im allgemeinen die Lösung eines nictlinearen algebraiscen Gleicungssystems: F(u) = u (j+1) f(x (j+1), u) y (j) =

179 15.3 Trapezregel Eine Möglickeit zur Lösung ist die Fixpunktiteration u (k+1) = g(u (k) ); g(u) = u F(u), also [ ] g(u) = u u (j+1) f(x (j+1), u) y (j) = (j+1) f(x (j+1), u) + y (j). Für die Lipscitzstetigkeit von g recnet man g(u) g(u ) = (j+1) f(x (j+1), u) + y (j) = (j+1) f(x (j+1), u) f(x (j+1), u ) (j+1) L u u. (j+1) f(x (j+1), u ) y (j) Für genügend kleines lässt sic das nictlineare System immer per Fixpunktiteration lösen. Allerdings ist diese Variante im allgemeinen nict effizient und man verwendet eer das Newton- Verfaren Trapezregel Aus y (x) = f(x, y(x)) folgt durc Integration über ein Teilintervall x (j+1) y (x)dx = x (j) ( x (j)) = ( y x (j+1)) y x (j+1) x (j) x (j+1) x (j) f(x, y(x))dx f(x, y(x))dx. Nun ersetze das Integral rects durc Auswertung mittels Trapezregel: y(x (j+1) ) y(x (j) ) = (j+1) 2 { } f(x (j), y(x (j) )) + f(x (j+1), y(x (j+1) )) + O( 3 ) (15.4) Im Vergleic zum expliziten bzw. impliziten Euler ist dieses Verfaren eine Ordnung genauer. Weglassen des Restglieds ergibt das implizite Rekursionsscema für y : y (j+1) (j+1) 2 f(x (j+1), y (j+1) ) = y (j) y (0) = Y. + (j+1) f(x (j), y (j) 2 ) 177

180 15 Einige einface Verfaren 15.4 Mittelpunktregel Die biser beandelten Verfaren sind alle so genannte Einscrittverfaren, da aus y (j) berecnet wird. Nun zeigen wir ein erstes Beispiel für ein Merscrittverfaren. Durc Integration des AWP über zwei Teilintervalle eralten wir: x (j+2) x (j) y (x)dx = x (j+2) x (j) f(x, y(x))dx. das y(j+1) Die Mittelpunktregel liefert bei (j+1) = (j+2) (!) y(x (j+2) ) y(x (j) ) = 2 (j+1) f(x (j+1), y(x (j+1) )) + O( 3 ). (15.5) Dies fürt dann zu der folgenden Rekursionsformel y (j+2) = y (j) y (0) = Y ; + 2(j+1) f(x (j+1), y (j+1) ) y (1) = Y + (1) f(a, y 0 ); expliziter Euler für y (1) ; Es andelt sic ier um ein explizites Zweiscrittverfaren mit besserer Felerordnung als das explizite Euler-Verfaren Anwendung auf ein Modellproblem Beispiel Wir lösen nun die AWA R λ < 0 mit der exakten Lösung y (x) = λy(x) in [a, b], y(a) = Y, y(x) = Y e λ(x a). Für die versciedenen oben beandelten Verfaren ergibt sic unter Einsetzen von f(x, y) = λy für eine äquidistante Scrittweite: Expliziter Euler y (j+1) = y (j) + λy(j) = (1 + λ)y(j). Impliziter Euler Da f linear ist kann man auflösen: y (j+1) λy (j+1) y (j+1) = = y (j) ( 1 1 λ ) y (j) 178

181 15.5 Anwendung auf ein Modellproblem Trapezregel y (j+1) 2 λy(j+1) y (j+1) = = y (j) + 2 λy(j) ( λ ) 1 2 λ y (j) Wegen y(x + ) = Y e λ(x+ a) = Y e λ(x a) e λ = e λ y(x) sind die Faktoren (1 + λ), 1 1 λ, λ 1 2 λ alles versciedene Approximationen von e λ. Mittelpunktregel y (j+2) = y (j) y (0) = y 0 ; + 2λy(j+1) y (1) = y 0 + λy 0 ; (expliziter Euler) Wir betracten nun Approximationen von e λ. Näerungslösung und Feler beim Modellproblem für expliziten Euler und Trapezregel. Felerordnung bei den versciedenen Verfaren. 179

182 15 Einige einface Verfaren 1 Approximationen von exp(*lambda) y exact EEuler: 1+*lambda IEuler: 1/(1-*lambda) Trapez: (1+0.5**lambda)/(1-0.5**lambda) *lambda 5 Approximationen von exp(*lambda) 0-5 y exact EEuler: 1+*lambda IEuler: 1/(1-*lambda) Trapez: (1+0.5**lambda)/(1-0.5**lambda) *lambda Der explizite Euler besitzt eine deutlic sclectere Approximation an e λ. Hier der Feler bei Anwendung des expliziten Euler auf das Modellproblem mit λ = 1 und Scrittweite = 0.1: x u( x) Feler e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e

183 15.5 Anwendung auf ein Modellproblem e e e e e e e e e e e e e e e e e e e e e-02 Feler nimmt mit x ab. Hier der Feler bei Anwendung der Trapezregel auf das Modellproblem mit λ = 1 und Scrittweite = 0.1: x u( x) Feler e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e-04 Feler kleiner als bei explizitem Euler. Metode u(4.0) Feler EEuler e e e e e e-05 IEuler e e e e e e-05 Trapez e e e e e e-09 Midpoint e e e e e e

184 15 Einige einface Verfaren Expliziter/Impliziter Euler konvergieren mit Ordnung 2. Trapez- und Mittelpunktregel konvergieren mit 2, Mittelpunktregel at eine sclectere Konstante Lineare Merscrittverfaren Wir betracten nun die allgemeine Konstruktion von Merscrittverfaren als eine wictige Verfarensklasse. Auc ier spielen die Lagrange-Polynome wieder eine Rolle. Der Einfaceit alber bescränken wir uns auf äquidistante Gitter, x (j) = a + j, = (b a)/n. Eine Erweiterung auf nictäquidistante Gitter ist jedoc möglic. Weiter beandeln wir ier nur den skalaren Fall. Die Erweiterung auf Systeme erfolgt durc komponentenweise Anwendung. Es gibt zwei Konstruktionsmetoden für lineare Merscrittverfaren: Mittels Integration oder mittels Differentiation. Für ein σ N aben wir x (n) x (n) y (x)dx = f(x, y(x))dx, x (n σ) x (n σ) ( y x (n)) ( = y x (n σ)) x (n) + f(x, y(x))dx x (n σ) (15.6) Idee: Lege nun ein Polynom vom Grad m 0 durc die Werte von f an den Stellen x (k m),...,x (k) : Beacte: p m,k = m f µ=0 ( ( x (k µ), y x (k µ))) L (m,k) µ (x). (15.7) Das Polynom benutzt die Stützwerte k m,...,k wobei k eventuell verscieden von n ist, und auc m verscieden von σ sein kann! L (m,k) µ (x (k ν) ) = δ µν, ν = 0,...,m sind Lagrangepolynome. Für den Interpolationsfeler des Polynoms eralten wir: f(x, y(x)) p m,k (x) = L(t) (m + 1)! f(m+1) (ξ x, y(ξ x )) = L(t) (m + 1)! y(m+2) (ξ x ) 182

185 15.6 Lineare Merscrittverfaren und m L(t) = (x x (k i) ). i=0 Einsetzen in (15.6) liefert wobei ( y x (n)) ( = y x (n σ)) + m f µ=0 E = y(m+2) (ξ x ) (m + 1)! ( x (k µ), y (x (k µ))) x (n) L (m,k) µ (x)dx + E, (15.8) x (n σ) x (n) x (n σ) i=0 m (x x (k i) )dx = O( m+2 ). Das Integral in der letzten Bezieung recnet man wieder zweckmäßig mittels der Transformation g(s) = a + (n σ + s) aus. Durc Weglassen des Felerterms erält man wieder eine Rekursionsgleicung für die Gitterfunktion y : y (n) = y (n σ) = y (n σ) + + m ( ) x (n) f x (k µ), y (k µ) 1 L (m,k) µ (x) dx } {{ } x } (n σ) {{ } =f (k µ) =β (µ) µ=0 m µ=0 β (µ) f (k µ). Dabei at man σ, k und m als freie Parameter in der Metode. (15.9) Je nac Wal von σ und k erält man untersciedlice Klassen von Verfaren, durc Wal von m erält man Verfaren untersciedlicer Ordnung inneralb der jeweiligen Klasse. Adams 32 -Basfort 33 -Formeln Für σ = 1 und k = n 1 erält man die Adams-Basfort- Formeln, die alle explizit sind. Für m = 0,..., 3 ergibt sic: m = 0 : m = 1 : m = 2 : m = 3 : y (n) y (n) y (n) y (n) = y (n 1) = y (n 1) f (n 1) ( = y (n 1) + 12 = y (n 1) f (n 1) ( 23f (n 1) (expliziter Euler) ) f (n 2) 16f (n 2) ) + 5f (n 3) ( 55f (n 1) 59f (n 2) + 37f (n 3) ) 9f (n 4). Startwertbestimmung. Offensictlic benötigt man bei der Anwendung der Metode m zusätzlice Startwerte. Diese muss man sic mit einem Einscrittverfaren verscaffen. Hier ist auf die entsprecende Ordnung zu acten. 32 Jon Couc Adams, , brit. Matematiker und Astronom. 33 Francis Basfort,

186 15 Einige einface Verfaren Adams-Moulton 34 -Formeln Für σ = 1 und k = n erält man die Adams-Moulton-Formeln, die alle implizit sind. Für m = 0,...,3 ergibt sic: m = 0 : m = 1 : m = 2 : m = 3 : y (n) y (n) y (n) y (n) = y (n 1) + f (n) ( = y (n 1) + 2 = y (n 1) + 12 = y (n 1) + 24 f (n) ( 5f (n) (impliziter Euler) ) + f (n 1) (Trapezregel) ) + 8f (n 1) f (n 2) ( 9f (n) + 19f (n 1) 5f (n 2) ) + f (n 3). Nyström-Formeln Für σ = 2 und k = n 1 erält man die Nyström-Formeln, die alle explizit sind. Für m = 0 ergibt sic: m = 0 : y (n) = y (n 2) + 2f (n 1) (Mittelpunktsregel). Milne-Simpson-Formeln Für σ = 2 und k = n erält man die Milne-Simpson-Formeln, die alle implizit sind. Für m = 2 ergibt sic: m = 2 : y (n) = y (n 2) + ( f (n) 3 + 4f (n 1) ) + f (n 2) (Simpson-Regel). Ein weiterer Zugang zu Merscrittformeln ergibt sic über die Differentiation. Hierzu legt man ein Polynom m-ten Grades durc m + 1 Werte von y: p m,k = m µ=0 y(x (k µ) )L (m,k) µ. Dieses lässt sic einfac differenzieren und man erält bei Auswertung an der Stelle x (n) : m µ=0 y(x (k µ) )L (m,k) µ (x (n) ) } {{ } p m,k (x(n) ) (Dies folgt durc Differenzieren der Felerdarstellung des Polynoms). 34 Forest Ray Moulton, , amerik. Astronom. = f(x (n), y(x (n) )) + O( m+1 ). (15.10) 184

187 15.7 Zusammenfassung Rückwärtsdifferenzenformeln Für die Wal k = n erält man die sogenannten Rückwärtsdifferenzenformeln (engl.: backward difference formulas): m = 1 : m = 2 : m = 3 : m = 4 : y (n) y (n) y (n 1) 4 3 y(n 1) = f (n) y(n 2) (impliziter Euler) = 2 3 f(n) y (n) y(n 1) y(n 2) 2 11 y(n 3) = 6 11 f(n) y (n) y(n 1) y(n 2) y(n 3) y(n 4) = f(n) Zusammenfassung In diesem Abscnitt aben wir einige der einfacsten numeriscen Lösungsverfaren für gewönlice Differentialgleicungen ergeleitet. Explizites und implizites Eulerverfaren basieren auf der Taylorreienentwicklung und Trapez- sowie Mittelpunktsregel auf entsprecenden Auswertungen des Integrals. Dann aben wir versciedene lineare Merscrittverfaren ergeleitet. Explizite Verfaren liefern direkt eine Approximation der Funktion aus Funktionswerten zu früeren Werten. Implizite Verfaren erfordern die Lösung einer nictlinearen algebraiscen Gleicung. Alle ier beandelten Verfaren lassen sic entsprecend auf Systeme von Differentialgleicungen erweitern. 185

188 15 Einige einface Verfaren 186

189 16 Konvergenz, Stabilität und dynamisce Systeme 16.1 Konvergenz von Einscrittverfaren Alle Einscrittverfaren lassen sic in die folgende Form bringen: y (j+1) ( ) = y (j) + (j+1) Φ x (j), y (j), x(j+1), y (j+1) (16.1) bringen. Beispiele: ( ) expliziter Euler Φ x (j), y (j), x(j+1), y (j+1) ( ) impliziter Euler Φ x (j), y (j), x(j+1), y (j+1) = f(x (j), y (j) ) = f(x (j+1), y (j+1) ) Φ eißt Verfarensfunktion. Eine wictige Rolle bei der Analyse der Verfaren spielt der Definition 16.1 (Lokaler Diskretisierungsfeler). Die Größe τ (j) := y(x(j+1) ) y(x (j) ) (j+1) Φ (x (j), y(x (j) ), x (j+1), y(x (j+1) )) eißt lokaler Diskretisierungsfeler. τ j entstet durc Einsetzen der exakten Lösung y an den Gitterpunkten in die Verfarensfunktion: y(x (j) ) + (j+1) Φ } {{ } (x (j), y(x (j) ), x (j+1), y(x (j+1) )) = } {{ } }{{} u. exakte Lsg. in x (j) Φ mit exakten Werten ausgewertet nac einem Scritt Nun vergleice u mit dem exakten Wert y(x (j+1) ) und teile durc : y(x (j+1) ) u (j+1) ( = y(x(j+1) ) y(x (j) ) (j+1) Φ x (j),y(x (j) ),x (j+1),y(x (j+1) ) ) = τ (j) (j+1). Beispiel Für den expliziten Euler Φ (x, y, x, y ) = f(x, y) eralten wir: τ (j) = y(x(j+1) ) y(x (j) ) (j+1) Φ (x (j), y (j), x (j+1), y (j+1) ) = y(x(j+1) ) y(x (j) ) (j+1) f(x (j), y (j) ) = y (x (j) ) + O() f(x (j), y (j) ) } {{ } Taylor, (15.1) = O() 187

190 16 Konvergenz, Stabilität und dynamisce Systeme Für die Trapezregel Φ (x, y, x, y ) = 1 2 (f(x, y) + f(x, y )) eralten wir = y(x(j+1) ) y(x (j) ) (j+1) 1 ( ) f(x (j), y (j) ) + f(x (j+1), y (j+1) ) [ 2 = 1 x (j+1) (j+1) f(x, y(x))dx (j+1) ( ) ] f(x (j), y (j) ) + f(x (j+1), y (j+1) ) x (j) 2 } {{ } τ (j) = O( 2 ) Dies fürt zu den beiden folgenden Definitionen Trapezregel O( 3 ), (15.4) Definition 16.3 (Konsistenz). Man nennt ein Verfaren konsistent, falls für den lokalen Diskretisierungsfeler gilt max τ (j) j γ() mit lim γ() = 0. 0 Hierbei ist. im Fall von Systemen eine beliebige Vektornorm, sonst der Betrag. Definition 16.4 (Konsistenzordnung). Ein Verfaren eißt konsistent von der Ordnung p falls max τ (j) j Kp für 0 und K unabängig von j und. Definition 16.5 (Konvergenz). Scließlic eißt ein Verfaren konvergent falls gilt Dies ist nict unbedingt das selbe γ wie oben. max y (i) j y(x(i) ) γ() mit lim γ() = 0. 0 Definition 16.6 (Konvergenzordnung). Ein Verfaren at die Konvergenzordnung p falls max y (i) j y(x(i) ) K p für 0. Dies ist nict unbedingt das selbe K wie oben. Man bezeicnet die Konsistenz auc als lokale Konvergenz und die eben definierte Konvergenz als globale Konvergenz. Mit diesen Definitionen formuliert man den folgenden Satz. Satz 16.7 (Konvergenzsatz). Das Einscrittverfaren sei konsistent von der Ordnung p und die Funktion Φ erfülle die Lipscitzbedingung Φ (x, y, x, y ) Φ (x,ỹ, x, ỹ ) Lmax( y ỹ, y ỹ ). (16.2) Dann gilt für einen festen Punkt x [a, b] und = x a N y (N) (also x = a + N) die Abscätzung pel x a 1 y( x) c. (16.3) L Wictig ist ierbei, dass x [a, b] fest gewält ist und 0 get. 188

191 16.2 Runge-Kutta-Verfaren Die Lipscitzbedingung der Verfarensfunktion folgt üblicerweise direkt aus der Lipscitzbedingung von f, die man onein für die Eindeutigkeit brauct. Dieses Resultat bedeutet: Bei Einscrittverfaren ist die Konvergenzordnung gleic der Konsistenzordnung. Bemerkung Bei Fließkomma-Aritmetik fester Stellenzal gibt es eine optimale Scrittweite. y (N) y( x) Rundungsfeler Diskretisierungsfeler opt 16.2 Runge-Kutta-Verfaren Wie konstruiert man nun Einscrittverfaren oer Ordnung? Allgemeine Runge 35 -Kutta 36 -Verfaren aben die Form m y (j+1) = y (j) + (j+1) γ l k l (x (j), y (j) ) mit k l (x (j), y (j) ) = f ( l=1 x (j) + α l (j+1), y (j) + (j+1) m ist die Stufenzal, γ l, α l, β lr parametrisieren die Verfaren. Man untersceidet folgende Klassen: 35 Carl Runge, , dt. Matematiker 36 Martin Wilelm Kutta, , dt. Matematiker m r=1 β lr k r (x (j), y (j) ) ). 189

192 16 Konvergenz, Stabilität und dynamisce Systeme explizit β lr = 0 für r l. diagonal implizit β lr = 0 für r > l. Erfordert das m-malige Lösen eines nictlinearen Gleicungssystems wie bei implizitem Euler. implizit Dies erfordert das Lösen eines nictlinearen Systems der m-facen Größe wie bei implizitem Euler. Beispiel 16.9 (Einige Runge-Kutta-Verfaren). Verfaren von Heun. Dieses explizite zweistufige Verfaren der Ordnung 2 lautet y (j+1) ( = y (j) 1 + (j+1) 2 k ) 2 k 2 k 1 = f(x (j), y (j) ) k 2 = f(x (j+1), y (j) + (j+1) k 1 ). 1 2 k k 2 stellt ein verbesserte Steigung dar. Impliziter Euler. Kann als einstufiges implizites Runge-Kutta-Verfaren der Ordnung 1 gescrieben werden: mit y (j+1) ( = y (j) + (j+1) f k 1 = f x (j+1), y (j+1) ( x (j) + (j+1), y (j) + (j+1) k 1 ). ) = y (j) + (j+1) k 1 Wie verstet man das? Impliziter Euler löst das System y (j+1) ( (j+1) f nac y (j+1) auf. Setzen wir formal y (j+1) äquivalent zu wie oben beauptet. k 1 = f = y (j) x (j+1), y (j+1) ) = y (j) + (j+1) k 1 in diese Bezieung ein so ist dies ( x (j+1), y (j) + (j+1) k 1 ) Verfaren von Alexander. Zweistufiges diagonal implizites Runge-Kutta-Verfaren der Ordnung 2: y (j+1) = y (j) + (j+1) [(1 α)k 1 + αk 2 ] ( ) k 1 = f x (j) + α (j+1), y (j) + α(j+1) k 1 ( k 2 = f x (j) + (j+1), y (j) + (j+1) [(1 α)k 1 + αk 2 ] ) 190

193 16.3 Verfarensstabilität mit α = 1 2/2. Klassisces Runge-Kutta-Verfaren. Vierstufiges explizites Verfaren der Ordnung 4: y (j+1) = y (j) k 1 = f(x (j), y (j) ) + (j+1) (k 1 + 2k 2 + 2k 3 + k 4 ) 6 k 2 = f(x (j) + (j+1), y (j) 2 k 3 = f(x (j) + (j+1), y (j) 2 + (j+1) k 1 ) 2 + (j+1) k 2 ) 2 k 4 = f(x (j) + (j+1), y (j) + (j+1) k 3 ) Verfarensstabilität Beispiel Wir wenden das explizite bzw. implizite Euler Verfaren auf das berümte Modellproblem y (x) = λy(x), R λ < 0 an. Für λ < 0 sind die Lösungen untersciedlic scnell abklingende e-funktionen. Die numeriscen Verfaren lauten wie bekannt: y (j+1) = (1 + λ)y (j), ( ) 1 y(j+1) = y (j) 1 λ. Zunäcst der implizite Euler für λ = 0.5, 1, 1.5, 2: 1 Impliziter Euler fuer lambda=-5,-10,-15, y x 191

194 16 Konvergenz, Stabilität und dynamisce Systeme Das Verfaren zeigt qualitativ das rictige Veralten. Nun der explizite Euler für λ = 0.5, 1, 1.5, 2, 2.1: y Expliziter Euler fuer lambda=-5,-10,-15,-20, x Das Verfaren zeigt für große λ qualitativ das falsce Veralten. Woran liegt das? Die Rekursionsgleicung für den expliziten Euler lautet y (j+1) = (1 + λ)y (j). Im Fall λ < 0, y(0) > 0 sind die Lösungen y(x) monoton fallend und positiv. Die numerisce Lösung ist für λ < 0 nict wacsend, nur dann wenn 1 + λ < λ > 1 < 2 λ. Die Scrittweit muss also genügend klein sein bei gegebenem λ. Für den impliziten Euler dagegen gilt folgendes: y (j+1) = 1 1 λ y(j) und 1 1 λ < 1 1 λ > 1 1 λ > 1 gilt > 0, λ < 0. Im allgemeinen kann λ C sein. Dies fürt zu der folgenden Definition. Definition (A-Stabilität). Ein numerisces Verfaren eißt absolut stabil, kurz A-stabil, wenn es angewandt auf das AWP y = λy, y(0) = Y, λ C, R(λ) 0 für jede Scrittweite eine nict wacsende Folge liefert. y (j) Y, j 0 192

195 16.4 Steife Systeme Bemerkung Über die biser beandelten Verfaren lässt sic folgendes sagen: Kein explizites Runge-Kutta-Verfaren ist A-stabil. Kein explizites lineares Merscrittverfaren ist A-stabil Impliziter Euler, Trapezregel, Alexander und BDF-2 sind A-stabil. Es gibt kein implizites, A-stabiles lineares Merscrittverfaren mit Konsistenzordnung größer 2. Es gibt A-stabile implizite Runge-Kutta-Verfaren beliebig oer Ordnung. Es gibt ausserdem noc eine ganze Reie weiterer Stabilitätsdefinitionen Steife Systeme Beispiel (aus [Sim]). Das lineare System gewönlicer Differentialgleicungen ( y 1 (x) y 2 (x) ) = ( ) ( y1 (x) y 2 (x) ), ( y1 (0) y 2 (0) ) = ( 1 0 ) at die Lösung y 1 (x) = 2e x e 1000x, y 2 (x) = 1e x + e 1000x. Die Lösung bestet aus zwei Anteilen: e x langsam abklingend, e 1000x scnell abklingend. Löst man mit explizitem Euler, so muss gelten: ( < min 2 1, 2 ) = Andererseits ist für x = bereits e = e , e d.. man siet in der Lösung nac kurzer Zeit nur den langsamen Anteil und möcte mit großem recnen. Systeme mit ser untersciedlic scnellen Lösungsanteilen eißen steif. Es existieren allerdings versciedene Definitionen, der Begriff ist scwer zu fassen. Zur numeriscen Lösung steifer Systeme benötigt man möglicst stabile Verfaren, etwa A- stabile Verfaren. Steife Systeme werden desalb besser mit impliziten Verfaren gelöst. 193

196 16 Konvergenz, Stabilität und dynamisce Systeme 16.5 Inärente Instabilität Satz 14.5 sagte: Seien y(x), z(x) Lösungen eines AWPs zu zwei versciedenen Startwerten Y, Z so gilt y(x) z(x) Y Z e L x a. Wir zeigen per Beispiel, dass diese Abscätzung scarf ist. Sei F C 1 [a, b] beliebig. Das AWP y (x) = λ{y(x) F(x)} + F (x), y(a) = Y at die Lösung y(x) = (Y F(a)) e λ(x a) + F(x) Beweis: Einsetzen liefert y (x) = (Y F(a)) λe λ(x a) + F (x) = λ{(y F(a))e λ(x a) + F(x) F(x)} + F (x) } {{ } =y(x) sowie y(a) = (Y F(a)) 1 + F(a) = Y. Für den speziellen Anfangswert Y = F(a) gilt Für Y = F(a) + ε ingegen gilt y(x) = F(x). y ε (x) = εe λ(x a) + F(x). Für λ > 0 laufen die Lösungen exponentiell auseinander, das Problem ist sclect konditioniert. Unabängig vom verwendeten Verfaren kann man das Problem nur für relativ kleine Intervalle [a, b] befriedigend genau lösen. Man sagt, das Problem sei inärent instabil Dynamisce Systeme Zum Scluss wollen wir noc einen kleinen Ausflug in die Welt der dynamiscen Systeme macen. Darunter verstet man das Studium des qualitativen Veraltens nictlinearer Systeme gewönlicer Differentialgleicungen. Betracten wir etwa das autonome System y (x) = f(y(x)), y(a) = Y, y(x) R n. 194

197 16.6 Dynamisce Systeme (autonom: f ängt nict von x ab). Zunäcst bestimmt man sog. kritisce Punkte oder Knoten in denen gilt f(y s ) = 0. In y s ist die Lösung stationär, d.. sie ändert sic nict. Nun studiert man das Veralten der Lösung in der Umgebung der stationären Punkte durc lineare Stabilitätsanalyse: Stabiler Punkt Alle Lösungen in der Näe des Punktes laufen in diesen inein. Beispiel: Abnemende Population. Instabiler Punkt Alle Lösung in der Näe des Punktes laufen von diesem weg. Beispiel: Auf der Spitze steendes Pendel mit starrer Stange. Sattelpunkt Es gibt in der Umgebung des Punktes Lösungen, die sowol in als auc weg laufen. Zentrumsknoten Lösungen laufen periodisc um den stationären Punkt. Beispiel: Pendel one Reibung. Stabiler Strudelpunkt Lösungen laufen oszillatorisc auf den stationären Punkt zu. Beispiel: pendel mit Dämpfung. Instabiler Strudelpunkt Lösungen laufen oszillatorisc vom stationären Punkt weg. All diese Pänomene kann man bereits bei linearen Systemen y(x) = Ay(x) beobacten. Bei nictlinearen Systemen gibt es noc weitere Möglickeiten, etwa den Grenzzyklus: Periodisce Bewegung, in die Lösungen ineinlaufen (stabiler Grenzzyklus) oder von dem Lösungen weglaufen (instabiler Grenzzyklus). Kritisce Punkte und Grenzzyklen eißen auc Attraktoren des dynamiscen Systems. Besondere Attraktoren stellen die strange attractors dar, die bei caotiscen Systemen auftreten können. Hier näern sic die Lösungen einer Punktmenge, sind aber nict periodisc. Wir werden nun einige Beispiele für das komplexe Veralten nictlinearer Systeme geben. Beispiel Wir betracten das gravitative N-Körper-Problem. Für i = 1,...,N sucen wir x i : [a, b] R 3 und v i : [a, b] R 3 : dx i (t) dt dv i (t) dt = v i (t), x i (a) = X i, = 1 j N j i γm j (x j x i ) x j x i 3, v i(a) = V i. Das System at keine stationären Punkte, da die Kraft nict Null werden kann. Die Bilder zu folgenden Aussagen findet man in Abbildung

198 16 Konvergenz, Stabilität und dynamisce Systeme Im Fall N = 2 gibt es im wesentlicen zwei Typen von Lösungen. Die beiden Körper sind gravitativ gebunden und umkreisen sic. Oder sie entfernen sic voneinander bei genügend oer Gescwindigkeit. Auc im Fall N = 3 gibt es periodisce Lösungen. Hier ist eine davon: Jeder Körper läuft auf einer Ellipsenban. Hier ist noc eine: Die Körper (gleicer Masse) laufen auf einer 8-förmigen Ban. Diese Lösung ist stabil und wurde erst 1993 gefunden! Meistens sind die Lösung aber instabil und ein Körper wird aus dem System gescleudert. Beim eingescränkten 3-Körper-Problem ist ein Körper ser viel leicter als als die anderen beiden (die einander umkreisen). Beim 3-Körper-Problem können caotisce Lösungen auftreten. Ist diese Lösung periodisc oder caotisc? Beispiel (Lorenz 37 -System). Das klassisce Beispiel für ein caotisces dynamisces System ist das Lorenz-System. Es lautet: y 1(x) = 10y 1 (x) + 10y 2 (x) y 2(x) = 28y 1 (x) y 2 (x) y 1 (x)y 3 (x) y 3(x) = y 1 (x)y 2 (x) 8 3 y 3(x). Als Startwert verwenden wir Y = (1, 2, 3) T. Die Bilder zu folgenden Aussagen findet man in Abbildung Die Lösung umkreist zwei Punkte im R 3 wobei z. B. die Zeiten zu denen die Lösung von der Umkreisung des einen auf die Umkreisung des anderen Punktes ser sensitiv von den Anfangsbedingungen abängt. Hier siet man die Lösung zu zwei leict versciedenen Anfangsbedingungen übereinandergezeicnet. Nac relativ kurzer Zeit aben sic die Lösungen weit auseinanderentwickelt. Das System ist inärent instabil. Bei caotiscen Systemen füren winzige Untersciede in den Anfangsbedingung nac einer gewissen Zeit zu ser untersciedlicen Lösungen (sog. Scmetterlingseffekt). Sie lassen sic desalb nur für eine gewisse Zeit vorersagen. So ist etwa das Wetter ein caotisces System (Lorenz at sein System in den 60er Jaren durc starke Vereinfacung der Navier-Stokes-Gleicungen, der Grundgleicung der Strömungsmecanik, entwickelt). Diese Systeme ersceinen zufällig im Sinne von nict vorersagbar. 37 Edward Norton Lorenz, geb. 1917, amerk. Matematiker und Meteorologe. 196

199 16.6 Dynamisce Systeme y y x x y y x x K3 Masse K1 Masse 1 K2 Masse y y x x Abbildung 26: Einige Lösungen des N -Körper-Problems. Von links oben nac rects unten: 2 Körper umkreisen sic, 2 ungebundene Körper, stabile Lösung des 3-KörperProblems, die Figur-8-Lösung von 1993, instabiles 3-Körper-Problem und Lösung des eingescränkten 3-Körper-Problems. 197

200 y3 16 Konvergenz, Stabilität und dynamisce Systeme y y y initial data 1 initial data y y Abbildung 27: Lösung des Lorenz-Systems. Oben: Eine Lösungstrajektorie bis T = 50. Unten: Lösungen zu den Startwerten Y = (1, 2, 3) T und Z = (1.5, 2, 3) T bis T =

201 16.7 Zusammenfassung Wictig ist jedoc, dass diese Systeme vollkommen deterministisc sind. Startet man mit gleicen Anfangswerten erält man jedes Mal dieselbe Lösung! Eine Möglickeit trotzdem zu gewissen Aussagen über solce System zu gelangen stellt die Stocastik dar, zu der wir nun kommen werden. Im Zusammenang mit dem Wetter gibt etwa der Hundertjärige Kalender Aussagen über das mittlere Veralten des Systems Zusammenfassung Der lokale Diskretisierungsfeler gibt Auskunft über das Konvergenzveralten eines Einscrittverfarens (sofern man die Lipscitzstetigkeit der Verfarensfunktion vorraussetzt). Ein konvergentes Verfaren liefert für 0 immer bessere Approximationen an die Lösung der Differentialgleicung. Bei mancen Verfaren muss die Scrittweite genügend klein sein, damit sie nict offensictlic falsce Ergebnisse liefern. Bei steifen Problemen sind solce Verfaren in der Regel ungeeignet, da sie dann ser ineffizient werden. Scließlic aben wir noc einige Beispiele für dynamisce Systeme betractet. Inärent instabile Systeme lassen sic nur über einen begrenzten Zeitraum mit ausreicender Genauigkeit vorersagen. 199

202 16 Konvergenz, Stabilität und dynamisce Systeme 200

203 17 Einfürung in die Warsceinlickeitsteorie Hinweis: Dieser Teil der Vorlesung stützt sic, im Gegensatz zum Numerikteil, stark auf ein einzelnes Buc, nämlic Scickinger, T. und A. Steger: Diskrete Strukturen 2. Springer, Daneben kann man auc noc eranzieen: Tescl, G. und S. Tescl: Matematik für Informatiker, Band 2: Analysis und Statistik. Springer, 2. Auflage, Determinismus und Zufall Bis jetzt aben wir ausscließlic deterministisce Modelle betractet. Beispiel waren: Pendel, N-Körper-Problem. Die gewönlice DGL at genau eine Lösung! Ob wir diese numerisce genau genug berecnen können ist eine andere Sace. Bei (ser) vielen praktiscen Anwendungen ist ein solces Vorgeen jedoc nict möglic. Wir wollen nun versciedene Arten des Zufalls bescreiben. Beispiel Beobacte ein Atom eines radioaktiven Elements und stelle fest ob es inneralb der näcsten Minute zerfällt. Die Pysik sagt: Man kann den Ausgang dieses Experiments nict undertprozentig vorersagen, da sic die Anfangsbedingungen nict exakt messen lassen (Unscärferelation). Besser ist es mit Warsceinlickeiten zu operieren. Man nennt dies natürlicen Zufall. Bemerkung Normalerweise beobactet man viele Atome gleiczeitig. Dies ist ein völlig anderes Problem! Das Veralten vieler Atome im Mittel lässt sic ser gut mit deterministiscen Metoden vorersagen, wie die statistisce Pysik lert. In diesem Fall ist das die lineare Differentialgleicung y = λy. Weitere Beispiele für natürlicen Zufall sind die inärent instabilen Probleme, etwa caotisce Systeme. Hier verindern unvermeidbare Ungenauigkeiten in der Erfassung der Anfangsbedingungen eine zuverlässige Vorersage. Eine andere Art von Zufall steckt in folgendem Beispiel. Beispiel Untersuce ob Prof. Bastian in der Klausur etwas zu Lagrange-Interpolation frägt. Hier kann es sein, dass Prof. Bastian dieses scon weiss, aber den Studenten nützt dies nicts, da sie es ja nict wissen. Dies ist Zufall aus Unsicereit bzw. mangelndem Wissen. 201

204 17 Einfürung in die Warsceinlickeitsteorie Von dieser Art sind viele Probleme in der Informatik Antwortzeit eines Großrecners oder Servers? Steigert eine Programmmodifikation den Durcsatz eines Routers? Wie ist ein Recnersystem felertolerant auszulegen? Das Problem liegt ier, wie oben, an mangelndem Wissen welce Situationen auf das Recensystem zukommen werden. Kombination deterministiscer und stocastiscer Aspekte. Beispiel 17.4 (Reinigung eines kontaminierten Grundwasserleiters). Verunreinigter Boden kann in mancen Fällen mittels der Pump and Treat Strategie gereinigt werden. Dazu pumpt man (oft viele Jare!) Wasser durc den Boden, welces anscließend gereinigt wird. Scadstoff Brunnen Brunnen Boden, Durclässigkeit k(x) Die Strömung durc den Boden lässt sic rect gut mit einem deterministiscen Modell, einer partiellen Differentialgleicung bescreiben. Allerdings entält dieses Modell als Parameter die Durclässigkeit k(x) des Bodens an der Stelle x. Für eine Realisierung des Permeabilitätsfeldes 202

205 17.1 Determinismus und Zufall lässt sic die Grundwasserströmung berecnen: Will man etwa die Frage beantworten Wie groß ist die Warsceinlickeit, dass 90% des Scadstoffes nac 1 Jar ausgewascen sind? so kann man Eine Reie möglicer (d.. pysikalisc sinnvoller) Durclässigkeitsfelder erzeugen sowie für jede dieser Realisierungen die Scadstoffauswascung berecnen. Hiermit kann man dann obige Frage beantworten. Dies nennt man auc Monte-Carlo-Metode. Ein andere Anwendung von Zufall in der Informatik sind Randomisierte Algoritmen. Hier wird der Ablauf eines Algoritmus durc den Zufall gesteuert. Beispiele sind: Quicksort: Hier wird durc die Wal des Pivotelements eine Menge von Zalen in zwei Teile zerlegt, die dann rekursiv sortiert werden. Zur Analyse des Algoritmus muss man mit Warsceinlickeiten operieren. Kollissionsauflösung im ursprünglicen Eternet. In mancen Fällen sind solce Algoritmen einfacer und/oder besser als deterministisce Algoritmen Stocastik, Statistik, Warsceinlickeitsrecnung: Oft werden diese Begriffe durceinander gebrauct. Hier der Versuc einer Erklärung. Warsceinlickeitsteorie: Teilgebiet der Matematik, Formale Untersucung zufallsbeeinflusster Vorgänge. Zufall im Sinne von nict vorersagbar. Statistik: Beobactend, bescreibend deskriptive Statistik: Verständlice Aufbereitung großer Datenmengen, Mittelwerte, Streuung, Diagramme,... induktive Statistik Scließen von Sticproben (beobacteten Ausprägungen von Zufallsgrößen) auf zugrundeliegende Gesetzmäßigkeiten (z.b. Parameter von Verteilungen). 203

Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination. Lehrstuhl für Angewandte Mathematik Wintersemester 2009/10. 14.

Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination. Lehrstuhl für Angewandte Mathematik Wintersemester 2009/10. 14. Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Wintersemester 2009/0 4. Januar 200 Instabilitäten

Mehr

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen 1. Quadratische Gleichungen Quadratische Gleichungen lassen sich immer auf die sog. normierte Form x 2 + px + = 0 bringen, in

Mehr

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. 13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. Sie heißt linear, wenn sie die Form y (n) + a n 1 y (n 1)

Mehr

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Prof. Dr. Volker Schulz Universität Trier / FB IV / Abt. Mathematik 8. November 2010 http://www.mathematik.uni-trier.de/ schulz/elan-ws1011.html

Mehr

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

7 Rechnen mit Polynomen

7 Rechnen mit Polynomen 7 Rechnen mit Polynomen Zu Polynomfunktionen Satz. Zwei Polynomfunktionen und f : R R, x a n x n + a n 1 x n 1 + a 1 x + a 0 g : R R, x b n x n + b n 1 x n 1 + b 1 x + b 0 sind genau dann gleich, wenn

Mehr

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion

Mehr

Numerische Simulation in der Luft- und Raumfahrttechnik

Numerische Simulation in der Luft- und Raumfahrttechnik Numerisce Simulation in der Luft- und Raumfarttecnik Dr. Felix Jägle, Prof. Dr. Claus-Dieter Munz (IAG) Universität Stuttgart Pfaffenwaldring, 70569 Stuttgart Email: felix.jaegle@iag.uni-stuttgart.de Inalt

Mehr

Vorkurs Mathematik Übungen zu Differentialgleichungen

Vorkurs Mathematik Übungen zu Differentialgleichungen Vorkurs Mathematik Übungen zu Differentialgleichungen Als bekannt setzen wir die folgenden Umformungen voraus: e ln(f(x)) = f(x) e f(x)+c = e f(x) e c e ln(f(x)) +c = f(x) e c = f(x) c f ( g(x) ) g (x)

Mehr

Mathematischer Vorbereitungskurs für Ökonomen

Mathematischer Vorbereitungskurs für Ökonomen Mathematischer Vorbereitungskurs für Ökonomen Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Gleichungen Inhalt: 1. Grundlegendes 2. Lineare Gleichungen 3. Gleichungen mit Brüchen

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr

Computerarithmetik ( )

Computerarithmetik ( ) Anhang A Computerarithmetik ( ) A.1 Zahlendarstellung im Rechner und Computerarithmetik Prinzipiell ist die Menge der im Computer darstellbaren Zahlen endlich. Wie groß diese Menge ist, hängt von der Rechnerarchitektur

Mehr

Primzahlen und RSA-Verschlüsselung

Primzahlen und RSA-Verschlüsselung Primzahlen und RSA-Verschlüsselung Michael Fütterer und Jonathan Zachhuber 1 Einiges zu Primzahlen Ein paar Definitionen: Wir bezeichnen mit Z die Menge der positiven und negativen ganzen Zahlen, also

Mehr

Hilfe zum neuen Online-Shop

Hilfe zum neuen Online-Shop Hilfe zum neuen Online-Sop Hier finden Sie umfassend bescrieben, wie Sie sic in unserem neuen Sop zurectfinden. Wenn Sie Fragen zur Kunden-Nr., Kunden-ID oder zum Passwort aben, rufen Sie uns bitte an:

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 13 Einheiten Definition 13.1. Ein Element u in einem Ring R heißt Einheit, wenn es ein Element v R gibt mit uv = vu = 1. DasElementv

Mehr

Informationsblatt Induktionsbeweis

Informationsblatt Induktionsbeweis Sommer 015 Informationsblatt Induktionsbeweis 31. März 015 Motivation Die vollständige Induktion ist ein wichtiges Beweisverfahren in der Informatik. Sie wird häufig dazu gebraucht, um mathematische Formeln

Mehr

DIFFERENTIALGLEICHUNGEN

DIFFERENTIALGLEICHUNGEN DIFFERENTIALGLEICHUNGEN GRUNDBEGRIFFE Differentialgleichung Eine Gleichung, in der Ableitungen einer unbekannten Funktion y = y(x) bis zur n-ten Ordnung auftreten, heisst gewöhnliche Differentialgleichung

Mehr

ANALYSIS Differenzialrechnung Kapitel 1 5

ANALYSIS Differenzialrechnung Kapitel 1 5 TELEKOLLEG MULTIMEDIAL ANALYSIS Differenzialrecnung Kapitel 5 Ferdinand Weber BRmedia Service GmbH Inaltsverzeicnis Jedes Kapitel beginnt mit der Seitenzal.. Das Tangentenproblem. Steigung einer Geraden

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

W-Rechnung und Statistik für Ingenieure Übung 11

W-Rechnung und Statistik für Ingenieure Übung 11 W-Rechnung und Statistik für Ingenieure Übung 11 Christoph Kustosz (kustosz@statistik.tu-dortmund.de) Mathematikgebäude Raum 715 Christoph Kustosz (kustosz@statistik.tu-dortmund.de) W-Rechnung und Statistik

Mehr

Die reellen Lösungen der kubischen Gleichung

Die reellen Lösungen der kubischen Gleichung Die reellen Lösungen der kubischen Gleichung Klaus-R. Löffler Inhaltsverzeichnis 1 Einfach zu behandelnde Sonderfälle 1 2 Die ganzrationale Funktion dritten Grades 2 2.1 Reduktion...........................................

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN

TECHNISCHE UNIVERSITÄT MÜNCHEN TECHISCHE UIVERSITÄT MÜCHE Zentrum Mathematik PRF. R.R. JÜRGE RICHTER-GEBERT, VAESSA KRUMMECK, MICHAEL PRÄHFER Höhere Mathematik für Informatiker I (Wintersemester 003/004) Aufgabenblatt 1 (4. ktober 003)

Mehr

183.580, WS2012 Übungsgruppen: Mo., 22.10.

183.580, WS2012 Übungsgruppen: Mo., 22.10. VU Grundlagen digitaler Systeme Übung 2: Numerik, Boolesche Algebra 183.580, WS2012 Übungsgruppen: Mo., 22.10. Aufgabe 1: Binäre Gleitpunkt-Arithmetik Addition & Subtraktion Gegeben sind die Zahlen: A

Mehr

Approximation durch Taylorpolynome

Approximation durch Taylorpolynome TU Berlin Fakultät II - Mathematik und Naturwissenschaften Sekretariat MA 4-1 Straße des 17. Juni 10623 Berlin Hochschultag Approximation durch Taylorpolynome Im Rahmen der Schülerinnen- und Schüler-Uni

Mehr

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b Aufgabe 1: Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. (a) Nehmen Sie lineares Wachstum gemäß z(t) = at + b an, wobei z die Einwohnerzahl ist und

Mehr

6.2 Scan-Konvertierung (Scan Conversion)

6.2 Scan-Konvertierung (Scan Conversion) 6.2 Scan-Konvertierung (Scan Conversion) Scan-Konvertierung ist die Rasterung von einfachen Objekten (Geraden, Kreisen, Kurven). Als Ausgabemedium dient meist der Bildschirm, der aus einem Pixelraster

Mehr

Numerisches Programmieren, Übungen

Numerisches Programmieren, Übungen Technische Universität München SoSe 0 Institut für Informatik Prof Dr Thomas Huckle Dipl-Math Jürgen Bräckle Nikola Tchipev, MSc Numerisches Programmieren, Übungen Musterlösung Übungsblatt: Zahlendarstellung,

Mehr

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte 50. Mathematik-Olympiade. Stufe (Regionalrunde) Klasse 3 Lösungen c 00 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 503 Lösung 0 Punkte Es seien

Mehr

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung Kapitel 3 Dynamische Systeme Definition 31: Ein Differentialgleichungssystem 1 Ordnung = f(t, y) ; y R N ; f : R R N R N heißt namisches System auf dem Phasenraum R N Der Parameter t wird die Zeit genannt

Mehr

Binäre Gleitkommazahlen

Binäre Gleitkommazahlen Binäre Gleitkommazahlen Was ist die wissenschaftliche, normalisierte Darstellung der binären Gleitkommazahl zur dezimalen Gleitkommazahl 0,625? Grundlagen der Rechnerarchitektur Logik und Arithmetik 72

Mehr

ZUKUNFT BILDEN. Die Bildungsinitiative der Region. Februar 2015. Journalistische Darstellungsformen. Teil 3

ZUKUNFT BILDEN. Die Bildungsinitiative der Region. Februar 2015. Journalistische Darstellungsformen. Teil 3 ZUKUNFT Februar 2015 Journalistisce Darstellungsformen Teil 3 Das Projekt zur Bildungsförderung für Auszubildende getragen von starken Partnern Initiatoren: Förderer und Stiftungspartner: INHALT Journalistisce

Mehr

8. Quadratische Reste. Reziprozitätsgesetz

8. Quadratische Reste. Reziprozitätsgesetz O Forster: Prizahlen 8 Quadratische Reste Rezirozitätsgesetz 81 Definition Sei eine natürliche Zahl 2 Eine ganze Zahl a heißt uadratischer Rest odulo (Abkürzung QR, falls die Kongruenz x 2 a od eine Lösung

Mehr

13.5 Der zentrale Grenzwertsatz

13.5 Der zentrale Grenzwertsatz 13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz Es seien X 1,...,X n (n N unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle

Mehr

Binärdarstellung von Fliesskommazahlen

Binärdarstellung von Fliesskommazahlen Binärdarstellung von Fliesskommazahlen 1. IEEE 754 Gleitkommazahl im Single-Format So sind in Gleitkommazahlen im IEEE 754-Standard aufgebaut: 31 30 24 23 0 S E E E E E E E E M M M M M M M M M M M M M

Mehr

Formale Systeme, WS 2012/2013 Lösungen zu Übungsblatt 4

Formale Systeme, WS 2012/2013 Lösungen zu Übungsblatt 4 Karlsruher Institut für Technologie Institut für Theoretische Informatik Prof. Dr. Peter H. Schmitt David Farago, Christoph Scheben, Mattias Ulbrich Formale Systeme, WS 2012/2013 Lösungen zu Übungsblatt

Mehr

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x

Mehr

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester 2015. gehalten von Harald Baum

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester 2015. gehalten von Harald Baum Fachschaft Mathematik und Informatik (FIM) LA I VORKURS Herbstsemester 2015 gehalten von Harald Baum 2. September 2015 Inhaltsverzeichnis 1. Stichpunkte zur Linearen Algebra I 2. Körper 3. Vektorräume

Mehr

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist. Matrizennorm Es seien r,s N Mit M r,s (R bezeichnen wir die Menge der reellen r s- Matrizen (also der linearen Abbildungen R s R r, und setze M s (R := M s,s (R (also die Menge der linearen Abbildungen

Mehr

3.1. Die komplexen Zahlen

3.1. Die komplexen Zahlen 3.1. Die komplexen Zahlen Es gibt viele Wege, um komplexe Zahlen einzuführen. Wir gehen hier den wohl einfachsten, indem wir C R als komplexe Zahlenebene und die Punkte dieser Ebene als komplexe Zahlen

Mehr

Lösungsvorschlag für die Probeklausuren und Klausuren zu Algebra für Informations- und Kommunikationstechniker bei Prof. Dr.

Lösungsvorschlag für die Probeklausuren und Klausuren zu Algebra für Informations- und Kommunikationstechniker bei Prof. Dr. Lösungsvorschlag für die Probeklausuren und Klausuren zu Algebra für Informations- und Kommunikationstechniker bei Prof. Dr. Kurzweil Florian Franzmann André Diehl Kompiliert am 10. April 2006 um 18:33

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Info zum Zusammenhang von Auflösung und Genauigkeit

Info zum Zusammenhang von Auflösung und Genauigkeit Da es oft Nachfragen und Verständnisprobleme mit den oben genannten Begriffen gibt, möchten wir hier versuchen etwas Licht ins Dunkel zu bringen. Nehmen wir mal an, Sie haben ein Stück Wasserrohr mit der

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Eines der am häufigsten auftretenden Standardprobleme der angewandten Mathematik ist das Lösen linearer Gleichungssysteme, etwa zur Netzwerkberechnung in der Elektrotechnik oder

Mehr

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland OECD Programme for International Student Assessment Deutschland PISA 2000 Lösungen der Beispielaufgaben aus dem Mathematiktest Beispielaufgaben PISA-Hauptstudie 2000 Seite 3 UNIT ÄPFEL Beispielaufgaben

Mehr

Vorlesung für Schüler

Vorlesung für Schüler Universität Siegen Facbereic Matematik Vorlesung für Scüler 1.12.2 Emmy-Noeter-Campus Prof. Dr. H. J. Reinardt Computerlösungen dynamiscer Probleme Zusammenfassung Es werden zunäcst einface dynamisce Probleme

Mehr

1 Mathematische Grundlagen

1 Mathematische Grundlagen Mathematische Grundlagen - 1-1 Mathematische Grundlagen Der Begriff der Menge ist einer der grundlegenden Begriffe in der Mathematik. Mengen dienen dazu, Dinge oder Objekte zu einer Einheit zusammenzufassen.

Mehr

Lösungen zum 3. Aufgabenblatt

Lösungen zum 3. Aufgabenblatt SS, Lineare Algebra Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com aufrufbar.

Mehr

Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen?

Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen? Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen können zwei Ebenen (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen? Wie heiÿt

Mehr

Korrelation (II) Korrelation und Kausalität

Korrelation (II) Korrelation und Kausalität Korrelation (II) Korrelation und Kausalität Situation: Seien X, Y zwei metrisch skalierte Merkmale mit Ausprägungen (x 1, x 2,..., x n ) bzw. (y 1, y 2,..., y n ). D.h. für jede i = 1, 2,..., n bezeichnen

Mehr

Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14. Auswahl vorausgesetzter Vorkenntnisse

Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14. Auswahl vorausgesetzter Vorkenntnisse UNIVERSITÄT DES SAARLANDES FACHRICHTUNG 6.1 MATHEMATIK Dipl.-Math. Kevin Everard Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14 Auswahl vorausgesetzter Vorkenntnisse

Mehr

Lineare Differentialgleichungen erster Ordnung erkennen

Lineare Differentialgleichungen erster Ordnung erkennen Lineare Differentialgleichungen erster Ordnung In diesem Kapitel... Erkennen, wie Differentialgleichungen erster Ordnung aussehen en für Differentialgleichungen erster Ordnung und ohne -Terme finden Die

Mehr

Name:... Matrikel-Nr.:... 3 Aufgabe Handyklingeln in der Vorlesung (9 Punkte) Angenommen, ein Student führt ein Handy mit sich, das mit einer Wahrscheinlichkeit von p während einer Vorlesung zumindest

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Grundbegriffe der Informatik

Grundbegriffe der Informatik Grundbegriffe der Informatik Kapitel 6: Induktives Vorgehen Thomas Worsch KIT, Institut für Theoretische Informatik Wintersemester 2015/2016 GBI Grundbegriffe der Informatik KIT, Institut für Theoretische

Mehr

!(0) + o 1("). Es ist damit möglich, dass mehrere Familien geschlossener Orbits gleichzeitig abzweigen.

!(0) + o 1(). Es ist damit möglich, dass mehrere Familien geschlossener Orbits gleichzeitig abzweigen. Bifurkationen an geschlossenen Orbits 5.4 167 der Schnittabbldung konstruiert. Die Periode T (") der zugehörigen periodischen Lösungen ergibt sich aus =! + o 1 (") beziehungsweise Es ist also t 0 = T (")

Mehr

Musterlösungen zur Linearen Algebra II Blatt 5

Musterlösungen zur Linearen Algebra II Blatt 5 Musterlösungen zur Linearen Algebra II Blatt 5 Aufgabe. Man betrachte die Matrix A := über dem Körper R und über dem Körper F und bestimme jeweils die Jordan- Normalform. Beweis. Das charakteristische

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Chemie Zusammenfassung KA 2

Chemie Zusammenfassung KA 2 Chemie Zusammenfassung KA 2 Wärmemenge Q bei einer Reaktion Chemische Reaktionen haben eine Gemeinsamkeit: Bei der Reaktion wird entweder Energie/Wärme frei (exotherm). Oder es wird Wärme/Energie aufgenommen

Mehr

Informationssysteme Gleitkommazahlen nach dem IEEE-Standard 754. Berechnung von Gleitkommazahlen aus Dezimalzahlen. HSLU T&A Informatik HS10

Informationssysteme Gleitkommazahlen nach dem IEEE-Standard 754. Berechnung von Gleitkommazahlen aus Dezimalzahlen. HSLU T&A Informatik HS10 Informationssysteme Gleitkommazahlen nach dem IEEE-Standard 754 Berechnung von Gleitkommazahlen aus Dezimalzahlen Die wissenschaftliche Darstellung einer Zahl ist wie folgt definiert: n = f * 10 e. f ist

Mehr

Numerische Verfahren und Grundlagen der Analysis

Numerische Verfahren und Grundlagen der Analysis Numerische Verfahren und Grundlagen der Analysis Rasa Steuding Hochschule RheinMain Wiesbaden Wintersemester 2011/12 R. Steuding (HS-RM) NumAna Wintersemester 2011/12 1 / 16 4. Groß-O R. Steuding (HS-RM)

Mehr

Ü b u n g s b l a t t 11

Ü b u n g s b l a t t 11 Mathe für Physiker I Wintersemester 0/04 Walter Oevel 8. 1. 004 Ü b u n g s b l a t t 11 Abgabe von Aufgaben am 15.1.004 in der Übung. Aufgabe 91*: (Differentialgleichungen, Separation. 10 Bonuspunkte

Mehr

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Zählen und Zahlbereiche Übungsblatt 1 1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Für alle m, n N gilt m + n = n + m. in den Satz umschreiben:

Mehr

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik Höhere Mathematik 3 Apl. Prof. Dr. Norbert Knarr FB Mathematik Wintersemester 2015/16 4. Homogene lineare Dierentialgleichungen 4.1. Grundbegrie 4.1.1. Denition. Es sei J R ein Intervall und a 0 ; : :

Mehr

2 Darstellung von Zahlen und Zeichen

2 Darstellung von Zahlen und Zeichen 2.1 Analoge und digitale Darstellung von Werten 79 2 Darstellung von Zahlen und Zeichen Computer- bzw. Prozessorsysteme führen Transformationen durch, die Eingaben X auf Ausgaben Y abbilden, d.h. Y = f

Mehr

Charakteristikenmethode im Beispiel

Charakteristikenmethode im Beispiel Charakteristikenmethode im Wir betrachten die PDE in drei Variablen xu x + yu y + (x + y )u z = 0. Das charakteristische System lautet dann ẋ = x ẏ = y ż = x + y und besitzt die allgemeine Lösung x(t)

Mehr

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN CHRISTIAN HARTFELDT. Zweiter Mittelwertsatz Der Mittelwertsatz Satz VI.3.4) lässt sich verallgemeinern zu Satz.. Seien f, g : [a, b] R auf [a,

Mehr

Was haben Beschleunigungs-Apps mit der Quadratur des Kreises zu tun?

Was haben Beschleunigungs-Apps mit der Quadratur des Kreises zu tun? Was aben Bescleunigungs-Apps mit der Quadratur des Kreises zu tun? Teilnemer: Jonatan Geuter Leonard Hackel Paul Hagemann Maximilian Kuc Amber Lucas Tobias Tieme Tobias Tiesse Niko Wolf Gruppenleiter:

Mehr

Kapitel 1. Zahlendarstellung. Prof. Dr. Dirk W. Hoffmann. Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik

Kapitel 1. Zahlendarstellung. Prof. Dr. Dirk W. Hoffmann. Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Kapitel 1 Zahlendarstellung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Zahlensystemkonvertierung Motivation Jede nichtnegative Zahl z lässt

Mehr

Numerische Differenziation

Numerische Differenziation In vielen Anwendungen ist es notwendig, Funktionen näerungsweise mit Hilfe eines numeriscen Verfarens zu differenzieren: Die analytisce Berecnung der Ableitung ist zum Beispiel unmöglic, wenn die zu differenzierende

Mehr

4. Versicherungsangebot

4. Versicherungsangebot 4. Versicherungsangebot Georg Nöldeke Wirtschaftswissenschaftliche Fakultät, Universität Basel Versicherungsökonomie (FS 11) Versicherungsangebot 1 / 13 1. Einleitung 1.1 Hintergrund In einem grossen Teil

Mehr

Grundlagen der Informatik

Grundlagen der Informatik Mag. Christian Gürtler Programmierung Grundlagen der Informatik 2011 Inhaltsverzeichnis I. Allgemeines 3 1. Zahlensysteme 4 1.1. ganze Zahlen...................................... 4 1.1.1. Umrechnungen.................................

Mehr

Numerisches Programmieren, Übungen

Numerisches Programmieren, Übungen Tecnisce Universität Müncen SoSe 2013 Institut für Informatik Prof. Dr. Tomas Huckle Dipl.-Inf. Cristop Riesinger Dipl.-Mat. Jürgen Bräckle Numerisces Programmieren, Übungen 2. Übungsblatt: Kondition,

Mehr

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt Methoden und Techniken an Beispielen erklärt Georg Anegg 5. November 009 Beispiel. Die Folge {a n } sei wie folgt definiert (a, d, q R, q ): a 0 a, a n+ a n q + d (n 0) Man bestimme eine explizite Darstellung

Mehr

2.12 Potenzreihen. 1. Definitionen. 2. Berechnung 2.12. POTENZREIHEN 207. Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen.

2.12 Potenzreihen. 1. Definitionen. 2. Berechnung 2.12. POTENZREIHEN 207. Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen. 2.2. POTENZREIHEN 207 2.2 Potenzreihen. Definitionen Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen. Eine Potenzreihe mit Entwicklungspunkt x 0 ist eine Reihe a n x x 0 n. Es gilt: es

Mehr

Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken?

Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken? UErörterung zu dem Thema Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken? 2000 by christoph hoffmann Seite I Gliederung 1. In zu großen Mengen ist alles schädlich. 2.

Mehr

Lösungen: zu 1. a.) 0 0 1 1 b.) 1 1 1 1 c.) 0 1 1 0 + 1 1 0 0 + 0 0 1 1 + 0 1 1 1 1 1 1 1 1 0 0 1 0 1 1 0 1

Lösungen: zu 1. a.) 0 0 1 1 b.) 1 1 1 1 c.) 0 1 1 0 + 1 1 0 0 + 0 0 1 1 + 0 1 1 1 1 1 1 1 1 0 0 1 0 1 1 0 1 Lösungen: zu 1. a.) 0 0 1 1 b.) 1 1 1 1 c.) 0 1 1 0 + 1 1 0 0 + 0 0 1 1 + 0 1 1 1 1 1 1 1 1 0 0 1 0 1 1 0 1 vorzeichenlose Zahl: 15 vorzeichenlose Zahl: 18 vorzeichenlose Zahl: 13 Zweierkomplement: - 1

Mehr

Anwendungen der Potenzreihenentwicklung: Approximation, Grenzwerte; Wachstum

Anwendungen der Potenzreihenentwicklung: Approximation, Grenzwerte; Wachstum Anwendungen der Potenzreienentwicklung: Approximation, Grenzwerte; Wacstum Lokale Näerung einer Funktion durc ganzrationale Funktionen Ganzrationale Funktionen aben viele angeneme Eigenscaften. Man weiß

Mehr

PowerPoint: Text. Text

PowerPoint: Text. Text PowerPoint: Anders als in einem verarbeitungsprogramm steht in PowerPoint der Cursor nicht automatisch links oben auf einem Blatt in der ersten Zeile und wartet auf eingabe. kann hier vielmehr frei über

Mehr

Universität Bonn, Institut für Angewandte Mathematik. WS 2012/2013 Prüfung Angewandte Mathematik und Statistik - Agrarwiss. /ELW

Universität Bonn, Institut für Angewandte Mathematik. WS 2012/2013 Prüfung Angewandte Mathematik und Statistik - Agrarwiss. /ELW Universität Bonn, Institut für Angewandte Mathematik Dr. Antje Kiesel WS 2012/2013 Prüfung Angewandte Mathematik und Statistik - Agrarwiss. /ELW 08.03.2013 Matrikelnummer Platz Name Vorname 1 2 3 4 5 6

Mehr

Statistische Thermodynamik I Lösungen zur Serie 1

Statistische Thermodynamik I Lösungen zur Serie 1 Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen

Mehr

6 Allgemeine Theorie des elektromagnetischen Feldes im Vakuum

6 Allgemeine Theorie des elektromagnetischen Feldes im Vakuum 6 ALLGEMEINE THEORIE DES ELEKTROMAGNETISCHEN FELDES IM VAKUUM 25 Vorlesung 060503 6 Allgemeine Theorie des elektromagnetischen Feldes im Vakuum 6.1 Grundaufgabe der Elektrodynamik Gegeben: Ladungsdichte

Mehr

Skript und Aufgabensammlung Terme und Gleichungen Mathefritz Verlag Jörg Christmann Nur zum Privaten Gebrauch! Alle Rechte vorbehalten!

Skript und Aufgabensammlung Terme und Gleichungen Mathefritz Verlag Jörg Christmann Nur zum Privaten Gebrauch! Alle Rechte vorbehalten! Mathefritz 5 Terme und Gleichungen Meine Mathe-Seite im Internet kostenlose Matheaufgaben, Skripte, Mathebücher Lernspiele, Lerntipps, Quiz und noch viel mehr http:// www.mathefritz.de Seite 1 Copyright

Mehr

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!. 040304 Übung 9a Analysis, Abschnitt 4, Folie 8 Die Wahrscheinlichkeit, dass bei n - maliger Durchführung eines Zufallexperiments ein Ereignis A ( mit Wahrscheinlichkeit p p ( A ) ) für eine beliebige Anzahl

Mehr

Rundung und Casting von Zahlen

Rundung und Casting von Zahlen W E R K S T A T T Rundung und Casting von Zahlen Intrexx 7.0 1. Einleitung In diesem Werkstattbeitrag erfahren Sie, wie Zahlenwerte speziell in Velocity, aber auch in Groovy, gerundet werden können. Für

Mehr

Zeichen bei Zahlen entschlüsseln

Zeichen bei Zahlen entschlüsseln Zeichen bei Zahlen entschlüsseln In diesem Kapitel... Verwendung des Zahlenstrahls Absolut richtige Bestimmung von absoluten Werten Operationen bei Zahlen mit Vorzeichen: Addieren, Subtrahieren, Multiplizieren

Mehr

Kapitel 15. Lösung linearer Gleichungssysteme

Kapitel 15. Lösung linearer Gleichungssysteme Kapitel 15. Lösung linearer Gleichungssysteme Lineare Gleichungssysteme Wir befassen uns nun mit der Lösung im allgemeinen nichthomogener linearer Gleichungssysteme in zweifacher Hinsicht. Wir studieren

Mehr

R ist freie Software und kann von der Website. www.r-project.org

R ist freie Software und kann von der Website. www.r-project.org R R ist freie Software und kann von der Website heruntergeladen werden. www.r-project.org Nach dem Herunterladen und der Installation von R kann man R durch Doppelklicken auf das R-Symbol starten. R wird

Mehr

Rekursionen (Teschl/Teschl 8.1-8.2)

Rekursionen (Teschl/Teschl 8.1-8.2) Rekursionen (Teschl/Teschl 8.1-8.2) Eine Rekursion kter Ordnung für k N ist eine Folge x 1, x 2, x 3,... deniert durch eine Rekursionsvorschrift x n = f n (x n 1,..., x n k ) für n > k, d. h. jedes Folgenglied

Mehr

http://bitschmiede.com post@bitschmiede.com Drucken von Webseiten Eine Anleitung, Version 1.0

http://bitschmiede.com post@bitschmiede.com Drucken von Webseiten Eine Anleitung, Version 1.0 http://bitschmiede.com post@bitschmiede.com Drucken von Webseiten Eine Anleitung, Version 1.0 Drucken von Webseiten Autor: Christian Heisch Technischer Verantwortlicher für die Webseitenumsetzung bei

Mehr

Wie löst man Mathematikaufgaben?

Wie löst man Mathematikaufgaben? Wie löst man Mathematikaufgaben? Manfred Dobrowolski Universität Würzburg Wie löst man Mathematikaufgaben? 1 Das Schubfachprinzip 2 Das Invarianzprinzip 3 Das Extremalprinzip Das Schubfachprinzip Verteilt

Mehr

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u.

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u. Universität Stuttgart Fachbereich Mathematik Prof. Dr. C. Hesse PD Dr. P. H. Lesky Dipl. Math. D. Zimmermann Msc. J. Köllner FAQ 3 Höhere Mathematik I 4..03 el, kyb, mecha, phys Vektorräume Vektorräume

Mehr

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge 2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten

Mehr

Gleichungen und Ungleichungen

Gleichungen und Ungleichungen Gleichungen Ungleichungen. Lineare Gleichungen Sei die Gleichung ax = b gegeben, wobei x die Unbekannte ist a, b reelle Zahlen sind. Diese Gleichung hat als Lösung die einzige reelle Zahl x = b, falls

Mehr

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen .3 Komplexe Potenzreihen und weitere komplexe Funktionen Definition.) komplexe Folgen: z n = x n + j. y n mit zwei reellen Folgen x n und y n.) Konvergenz: Eine komplexe Folge z n = x n + j. y n heißt

Mehr

Die innere Energie eines geschlossenen Systems ist konstant

Die innere Energie eines geschlossenen Systems ist konstant Rückblick auf vorherige Vorlesung Grundsätzlich sind alle möglichen Formen von Arbeit denkbar hier diskutiert: Mechanische Arbeit: Arbeit, die nötig ist um einen Massepunkt von A nach B zu bewegen Konservative

Mehr

Data Mining: Einige Grundlagen aus der Stochastik

Data Mining: Einige Grundlagen aus der Stochastik Data Mining: Einige Grundlagen aus der Stochastik Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 21. Oktober 2015 Vorwort Das vorliegende Skript enthält eine Zusammenfassung verschiedener

Mehr

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel Ausarbeitung zum Proseminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn zum Thema Simulation des Anlagenpreismodels von Simon Uphus im WS 09/10 Zusammenfassung

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

Stackelberg Scheduling Strategien

Stackelberg Scheduling Strategien Stackelberg Scheduling Strategien Von Tim Roughgarden Präsentiert von Matthias Ernst Inhaltsübersicht Einleitung Vorbetrachtungen Stackelberg Strategien Ergebnisse Seminar Algorithmische Spieltheorie:

Mehr