Nullstellenberechnung von nichtlinearen Funktionen

Ähnliche Dokumente
Nichtlineare Gleichungen

3 Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme

Numerisches Lösen von Gleichungen

Nichtlineare Gleichungssysteme

Kapitel 16 : Differentialrechnung

Nichtlineare Optimierung ohne Nebenbedingungen

Mathematik für Bauingenieure

Optimierung für Nichtmathematiker

8.3 Lösen von Gleichungen mit dem Newton-Verfahren

Iterative Verfahren, Splittingmethoden

Folgen, Reihen, Grenzwerte u. Stetigkeit

Theorie und Praxis geometrischer Algorithmen

Numerische Ableitung

Analysis I. 4. Beispielklausur mit Lösungen

Leitfaden a tx t

Höhere Mathematik für Physiker II

Übungen zur Vorlesung MATHEMATIK II

Gleichungen und Ungleichungen

Die Taylorreihe einer Funktion

Kap. 6: Iterative Lösung von Gleichungssystemen

18 Höhere Ableitungen und Taylorformel

ε δ Definition der Stetigkeit.

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}

6 Gleichungen und Gleichungssysteme

Numerische Verfahren zur Lösung nichtlinearer Gleichungen

Teil II. Nichtlineare Optimierung

Aus meiner Skriptenreihe: "Keine Angst vor "

Nichtlineare Gleichungen in einer Unbekannten

Weitere einfache Eigenschaften elementarer Funktionen

Zahlen und Gleichungen

Folgen und Reihen. 1 Konvergenz

Taylor-Entwicklung der Exponentialfunktion.

Nichtlineare Gleichungssysteme

( ) ( ) Schnittpunkt mit der y Achse P 0 y : Bedingung: y = f 0. y s s

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems

Kapitel 6 Folgen und Stetigkeit

2 Nullstellenbestimmung

Die Steigung m ist ein Quotient zweier Differenzen und heißt daher Differenzenquotient.

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Mitschrift Mathematik, Vorlesung bei Dan Fulea, 2. Semester

Musterlösung zu Blatt 11, Aufgabe 1

Lösungen zur Klausur A Grundkurs Mathematik für Wirtschaftswissenschaft

3.1.3 Newtonsche Interpolationsformel / Dividierte Differenzen

Mathematik Übungsblatt - Lösung. b) x=2

Zahlen und elementares Rechnen

REIHENENTWICKLUNGEN. [1] Reihen mit konstanten Gliedern. [2] Potenzreihen. [3] Reihenentwicklung von Funktionen. Eine kurze Einführung Herbert Paukert

3 Optimierung mehrdimensionaler Funktionen f : R n R

gebrochene Zahl gekürzt mit 9 sind erweitert mit 8 sind

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren Thomas Brox, Fabian Kuhn

15 Hauptsätze über stetige Funktionen

Repetitorium Mathe 1

Mathematische Grundlagen der Ökonomie Übungsblatt 8

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

Stetigkeit von Funktionen

Zahlenfolgen. Aufgabe 1 (Streichholzfiguren)

13. Übungsblatt zur Mathematik I für Maschinenbau

Konvergenz einer Folge. 1-E1 Ma 1 Lubov Vassilevskaya

Differenzial- und Integralrechnung II

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Vorkurs Mathematik 2016

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

4.7 Der Taylorsche Satz

In der Praxis werden wir häufig mit relativ komplexen Funktionen konfrontiert. y

Mathematik anschaulich dargestellt

Differenzialrechnung

Ferienkurs Analysis 1 - Wintersemester 2014/15. 1 Aussage, Mengen, Induktion, Quantoren

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Gleichungen, Ungleichungen, Beträge

Funktionsgrenzwerte, Stetigkeit

Polynominterpolation

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Folgerungen aus dem Auflösungsatz

A2.3 Lineare Gleichungssysteme

7.2.1 Zweite partielle Ableitungen

4.1. Grundlegende Definitionen. Elemente der Analysis I Kapitel 4: Funktionen einer Variablen. 4.2 Graphen von Funktionen

Iterative Lösung Linearer Gleichungssysteme

2. Spezielle anwendungsrelevante Funktionen

1 Potenzen und Polynome

Addition, Subtraktion und Multiplikation von komplexen Zahlen z 1 = (a 1, b 1 ) und z 2 = (a 2, b 2 ):

Arbeitsblatt 4: Kurvendiskussion - Von Skizzen zu Extremstellen-Bedingungen

TECHNISCHE UNIVERSITÄT MÜNCHEN

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

Berechnungen mit dem Horner-Schema

Aufstellen einer Funktionsgleichung nach vorgegebenen Eigenschaften

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

Kapitel 8: Suche nach Nullstellen und Extremwerten

Stetige Funktionen. Definition. Seien (X, d) und (Y, ϱ) metrische Räume und f : X Y eine Abbildung. D(f) X sei der Definitionsbereich von f.

2.12 Potenzreihen. 1. Definitionen. 2. Berechnung POTENZREIHEN 207. Der wichtigste Spezialfall von Funktionenreihen sind Potenzreihen.

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

n=1 a n mit reellen Zahlen a n einen

NICHTLINEARE GLEICHUNGSSYSTEME

Allgemeines Näherungsverfahren zur Lösung von f(x) = 0 - Fixpunkt-Iteration -

Algebra und Diskrete Mathematik, PS3. Sommersemester Prüfungsfragen

$Id: reihen.tex,v /06/12 10:59:50 hk Exp $ unendliche Summe. a 1 + a 2 + a 3 +.

Technische Universität München Zentrum Mathematik. Übungsblatt 4

Mathematik für Wirtschaftswissenschaftler. Universität Trier Wintersemester 2013 / 2014

Vorlesung. Funktionen/Abbildungen 1

KAPITEL 6. Nichtlineare Ausgleichsrechnung

Transkript:

Kapitel 3 Nullstellenberechnung von nichtlinearen Funktionen In dieser Vorlesung wird nur die Nullstellenberechnung reeller Funktionen einer reellen Variablen f : R R betrachtet. Man nennt die Nullstellen von nichtlinearen Funktionen auch Wurzeln. In der Praxis sind Nullstellenberechnungen mehrdimensionaler Funktionen von großer Bedeutung. Die Behandlung von Verfahren für solche Funktionen ist jedoch aus Zeitgründen nicht möglich. 3.1 Theorie Man unterscheidet zwei Normalformen von nichtlinearen Gleichungen, die Nullstellengleichung f 1 (x) = 0 (3.1) und die Fixpunktgleichung f 2 (x) = x. (3.2) Eine Zahl α R wird Fixpunkt von f 2 genannt, falls f 2 (α) = α. Jede Nullstellengleichung lässt äquivalent sich in eine Fixpunktgleichung überführen. Sei g (x) eine stetige Funktionen mit g (x) 0, dann wird (3.1) mit g (x) multipliziert und auf beiden Seiten wird x addiert: F 1 (x) := g (x) f 1 (x) + x = x. Eine Nullstelle von f 1 ist ein Fixpunkt von F 1 und umgekehrt. Subtrahiert man in (3.2) x, so erhält man die Nullstellengleichung F 2 (x) := f 2 (x) x = 0. Das heißt, ein Fixpunkt von f 2 ist eine Nullstelle von F 2 und umgekehrt. Bemerkung 3.1 Kondition des Wurzelfindens. Sei f 1 C 1 (a, b), betrachte f 1 (x) d = 0, d R. Man kann zeigen, dass das Problem des Findens der Wurzel nur dann wohldefiniert ist, wenn f 1 in einer Umgebung von d invertierbar ist. Sei α = f1 1 (d), f1 1 inverse Funktion (Umkehrfunktion). Mit der Differentiationsregel für die inverse Funktion erhält man ( ) f 1 1 1 (d) = f 1 (α). 31

Dann ist das Wurzelfinden einer nichtlinearen Gleichung gut konditioniert, falls die Wurzel α einfach ist, das heißt f 1 (α) 0, und f 1 (α) hinreichend weit von Null entfernt ist. Ansonsten ist das Problem schlecht konditioniert. Numerische Verfahren zur Lösung nichtlinearer Gleichungen sind im allgemeinen iterativ. Beginnend mit einem Startwert x (0) wird vom Verfahren eine Folge {x (k) } k 0 generiert, mit dem Ziel, dass lim k x(k) = α. Man möchte nun ein Maß für die Geschwindigkeit der Konvergenz haben, womit man dann die Effizienz von Verfahren beschreiben kann. Definition 3.2 Eine Folge {x (k) } konvergiert gegen α mit Ordnung p 1, falls eine Konstante C > 0 existiert, so dass gilt x (k+1) α x (k) α p C k k 0, wobei k 0 N ein geeigneter Index ist. Man sagt dann, dass die Methode von p ter Ordnung ist. Ist p = 1, so muss notwendigerweise C < 1 sein, damit {x (k) } gegen α konvergiert. In diesem Fall wird C Konvergenzfaktor der Methode genannt. Ob ein Iterationsverfahren überhaupt konvergiert, kann auch vom Startwert x (0) abhängen. Definition 3.3 Sei I die Menge aller zulässigen Startwerte. Gibt es eine Umgebung U (α) der Wurzel α (offene Menge, die α enthält), so dass ein Iterationsverfahren für alle x (0) U (α) konvergiert, so nennt man das Verfahren lokal konvergent. Konvergiert das Verfahren für alle x (0) I, dann wird es global konvergent genannt. Zur Lösung der Fixpunktgleichung (3.2) kann man das Iterationsverfahren x (k+1) = f 2 (x (k)), k = 0, 1,... (3.3) verwenden. MATLAB-Demo Zur Existenz eines Fixpunktes und zur Konvergenz der Iteration (3.3) gibt es folgenden berühmten Satz. Satz 3.4 Fixpunktsatz von Banach (1922). Die Funktion f 2 sei im abgeschlossenen Intervall I = [a, b] R kontraktiv, dass heißt: I wird durch f 2 in sich abgebildet, f 2 (I) I, f 2 ist Lipschitz stetig mit einer Lipschitz Konstanten L [0, 1): f 2 (x) f 2 (y) L x y x, y I. Dann besitzt f 2 in I genau einen Fixpunkt α und die nach der Iterationsvorschrift (3.3) berechnete Folge konvergiert gegen α für jeden Startwert x (0) I. Es gelten die Fehlerabschätzungen α x (k) L k α x (k) L 1 L x (1) x (0), 1 L x (k) x (k 1). 32

Beweis: HMI I, Literatur. Bemerkung 3.5 1. Die Aussagen des Banachschen Fixpunktsatzes gelten allgemein in Banach Räumen, also insbesondere auch für Funktionen f : R n R n, n N. 2. Ist f 2 in I stetig differenzierbar bis zum Rand, f 2 C 1 ([a, b]), so ist f 2 Lipschitz stetig und es gilt L = max x [a,b] f 2 (x). 3. Geometrische Deutung des Banachschen Fixpunktsatzes. b y = x I y = f 2 (x) y = f 2 (x) a a α I α b Sei f 2 differenzierbar in [a, b] und sei L < 1. Der Betrag des Anstiegs von f 2 ist kleiner als 1, siehe Bemerkung 2. Falls f 2 die Gerade y = x einmal geschnitten hat, kann es keinen zweiten Schnittpunkt geben, weil f 2 dann schneller ansteigen müsste als y = x. Das geht aber nicht, da y = (x) = 1. Dass überhaupt ein Schnittpunkt von f 2 und y = x existiert, folgt aus - f 2 bildet I in I ab, - f 2 ist stetig, - I ist abgeschlossen. Man kann leicht Beispiele dafür konstruieren, dass der Banachsche Fixpunktsatz nicht mehr gilt, wenn auch nur eine dieser drei Voraussetzungen nicht erfüllt ist. 4. Sei L > 0. Aus (3.3) und der Taylor Entwicklung von f 2 in α folgt x (k+1) α = f 2 (x (k)) ( ) f 2 (α) = f 2 (α) + f 2 (ξ) x (k) α f 2 (α) ) = f 2 (x (ξ) (k) α mit ξ [a, b]. Mit Bemerkung 2 hat man x (k+1) α x (k) α = f 2 (ξ) L. Die Konvergenzordnung ist also linear und der Konvergenzfaktor ist L. Die Konvergenzgeschwindigkeit ist desto besser, je kleiner L ist. Numerische Verfahren, die auf dem Prinzip der Fixpunktiteration beruhen, werden in den Abschnitten 3.3 und 3.4 behandelt. 33

3.2 Das Bisektions Verfahren Bei diesem Verfahren handelt es sich um das einfachste und sicherste Verfahren zur Berechnung einer Nullstelle einer stetigen Funktion im Intervall I = [a, b]. Dieses Verfahren lässt sich jedoch nicht auf höhere Dimensionen erweitern. Es beruht auf dem Zwischenwertsatz: Jede stetige Funktion f : [a, b] R nimmt jeden Funktionswert zwischen f (a) und f (b) an (falls f (a) f (b), ansonsten umgekehrt). Damit folgt aus f (a) f (b) < 0, dass f mindestens eine Nullstelle in [a, b] besitzt. Beim Bisektions Verfahren versucht man, ein genügend kleines Intervall zu finden, in dem eine Nullstelle von f liegt. Man muss zunächst Werte a und b finden, so dass f (a) und f (b) unterschiedliches Vorzeichen besitzen. Setze dann I 0 := [a, b]. Dann werden Teilintervalle I k := [a (k), b (k) ], k 0, I k I k 1, k 1, gesucht, so dass f ( a (k)) f ( b (k)) < 0. Das geschieht mit dem folgenden Algorithmus: Algorithm 3.6 Bisektions Verfahren. Setze a (0) := a, b (0) := b, x (0) := a(0) + b (0). 2 Iteration: falls k 0: - falls f ( x (k)) f ( a (k)) < 0, setze a (k+1) := a (k), b (k+1) := x (k), - falls f ( x (k)) f ( b (k)) < 0, setze a (k+1) := x (k), b (k+1) := b (k), anschließend setze x (k+1) := a(k+1) + b (k+1). 2 Abbruch: Man bricht das Bisektions Verfahren ab, falls - f ( x (k+1)) = 0, das heißt, man hat eine Nullstelle gefunden, - oder b (k+1) a (k+1) = Ik+1 < ε, wobei ε > 0 eine vorgegebene Toleranz ist, das heißt das Restintervall ist hinreichend klein. Nehme als Approximation an die Nullstelle den Mittelpunkt x (k+1) von I k+1. MATLAB Demo x 1 x 0 a 2 a 0 α b 1 b 0 a 1 b 2 f(x) Nun wird die Konvergenzgeschwindigkeit des Bisektions Verfahrens betrachtet. Es sind I 0 = b a, I k = I 0 2 k = b a 2 k, k 0. Sowohl die k te Iterierte x (k) als auch die Lösung α liegen im Intervall I k. Da x (k) der Mittelpunkt von I k ist, gilt für den absoluten Fehler e (k) x = (k) α I k 2 = b a 2 k+1 = lim k e (k) = 0. Das gilt für beliebige Startwerte a (0), b (0) mit f ( a (0)) f ( b (0)) < 0. Das Bisektions Verfahren ist also global konvergent. Sei ε > 0 gegeben. Gesucht ist die Anzahl von Bisektions Schritten, damit x (m) α < ε. a x (k) der Mittelpunkt von I k ist, ist das sicher erfüllt falls I m < 2ε b a log ((b a) /ε) < ε m > 1. 2m+1 log (2) 34

Man kann die Formel so interpretieren, als dass jede Bisektion die Genauigkeit um eine Dualstelle verbessert. Daraus folgt, dass man zur Verbesserung um eine Dezimalstelle log 2 (10) 3.32 Bisektionen benötigt. Insgesamt ist die Konvergenz der Bisektion zwar sicher, aber langsam. Die Konvergenz braucht nicht monoton zu sein, siehe Beispiele in der Literatur. Aus diesem Grunde passt das Bisektions Verfahren nicht in den Rahmen der Definition 3.2 über die Konvergenzordnung. Man kann also nicht von einer Methode erster Ordnung im Sinne dieser Definition sprechen. Die Bisektion eignet sich vor allem als Annäherungsverfahren an die Nullstelle, um einen Startwert für schnellere Iterationsverfahren zu finden, die nur lokal konvergent sind. 3.3 Das Sekanten Verfahren und Varianten Sei α I = [a, b] eine Nullstelle von f C 1 (I). Sei x nahe genug an α, o.b.d.a. mit x > α. Dann erhält man mit Taylor Entwicklung f (x) = f (α) + (x α) f (ξ), ξ (α, x). ξ α x f(x) Diese Beziehung kann man in die Fixpunktgleichung α = x f (x) f (α) f (ξ) = x f (x) f (ξ) (3.4) umformen, falls f (ξ) 0. Diese Eigenschaft ist zum Beispiel in einer Umgebung von α gesichert, falls α eine einfache Nullstelle von f ist. Die Verfahren, die in diesem Abschnitt vorgestellt werden, approximieren f (ξ) in (3.4) unter Benutzung von Werten von f. Die Grundidee der Approximation einer Ableitung besteht in der Verwendung einer finiten Differenz: f (x) f (x 1) f (x 2 ) x 1 x 2, wobei x 1, x 2 sich in einer Umgebung von x befinden. Sind x 1 oder x 2 relativ weit voneinanger oder von x entfernt, wird die Approximation relativ ungenau sein. Liegen andererseits x 1, x 2 sehr dicht beieinander, kann es sowohl im Zähler als auch im Nenner der finiten Differenz Auslöschung geben, was wiederum zu ungenauen Ergebnissen führen kann. Beim Sekanten Verfahren verwendet man f (ξ) f ( x (k)) f ( x (k 1)) x (k) x (k 1), k 0, wobei x (k 1), x (k) die beiden letzen Iterierten sind, siehe Abbildung 3.1. Man benötigt also zunächst zwei Startwerte x ( 1), x (0). Sind diese gegeben, so lautet das Sekanten Verfahren x (k+1) = x (k) x (k) x (k 1) ( f ( x (k)) f ( x (k 1))f x (k)), k 0. (3.5) 35

f(x) x (k) ξ x (k 1) Abbildung 3.1: Approximation einer Tangente durch eine Sekante. MATLAB Demo Zur die Konvergenz dieses Verfahrens gibt es folgende Aussage: Satz 3.7 Seien U (α) eine geeignete Umgebung von α, f C 2 (U (α)), f (α) 0 und f (α) 0. Falls die Startwerte x ( 1), x (0) U (α) hinreichend nahe an α gewählt werden, konvergiert die mit (3.5) berechnete Folge {x (k) } gegen α und die Konvergenzordnung ist p = ( 1 + 5 ) /2 1.62. Beweis: Literatur, zum Beispiel [SK06]. f(x) x (k+2) x (k+1) α x (k) x (k 1) Abbildung 3.2: Graphische Illustration zum Sekantenverfahren. Bemerkung 3.8 1. In der Praxis bricht man das Verfahren im allgemeinen ab, falls f ( x (m)) < ε oder x (m) x (m 1) < ε für eine vorgegebene Toleranz ε > 0. 2. Das Sekanten Verfahren ist lokal konvergent, aber im allgemeinen nicht global. 3. Man benötigt neben der Berechnung von f ( x (k)) im k ten Iterationsschritt keine zusätzliche Funktionswertberechnung, da man f ( x (k 1)) noch aus dem vorangegangenen Iterationsschritt kennt. 4. x (k+1) liegt nicht unbedingt im Intervall [x (k), x (k 1) ], siehe Abbildung 3.2. Das geschieht, wenn f ( x (k)) und f ( x (k 1)) gleiches Vorzeichen besitzen. 5. Verallgemeinerungen auf komplexe Nullstellen und Funktionen in Banach Räumen sind möglich. 6. Eine weitere Verallgemeinerung besteht darin, statt einer Sekante eine Parabel durch drei Punkte zu nehmen Verfahren von Muller, Konvergenzordnung 1.84. 36

Falls f ( x (k)) und f ( x (k 1)) gleiches Vorzeichen besitzen und fast gleichgroß sind, kann x (k+1) sehr weit entfernt von α liegen. Es kann sein, dass f für x (k+1) gar nicht definiert ist oder sehr große Werte annimmt, die zu einem Überlauf führen. Ein Verfahren, bei denen alle Iterierten x (k) im Intervall [x ( 1), x (0) ] liegen, und welches ebenfalls Sekanten benutzt, ist die Regula falsi (Regel des falschen Ansatzes). Anstatt die Sekante immer durch die letzten beiden Iterierten zu nehmen, verwendet man die Sekante durch ( x (k), f ( x (k))) ( und (x ) (k, f x ) )) (k, wobei k der größte Index kleiner als k ist, für welchen f ( x (k)) ( f x (k ) ) < 0 gilt. Für die Regula falsi benötigt man zwei Startwerte x ( 1), x (0) mit f ( x (0)) f ( x ( 1)) < 0. Die Iterationsvorschrift lautet MATLAB Demo x (k+1) = x (k) x (k) x ) ( (k f ( x (k)) f ( x )f x (k)), k 0. (3.6) (k ) Satz 3.9 Sei f C ( [x ( 1), x (0) ] ). Dann gilt für die mit (3.6) erzeugte Folge {x (k) }, dass x (k) [x ( 1), x (0) ], k 1 und lim k x (k) = α. Sind f C 2 ( [x ( 1), x (0) ] ), α eine einfache Nullstelle (f (α) 0) und f (α) 0, dann ist die Konvergenzordnung der Regula falsi gleich Eins. Beweis: Literatur, z.b. [SK06]. x (1) x ( 1) α x (2) x (0) In diesem Fall ist k = 1 für alle k. Das ist der schlechteste Fall, der dafür sorgt, dass im allgemeinen die Konvergenzordnung nicht größer als Eins ist. Bemerkung 3.10 1. Die Regula falsi ist global konvergent. Da sie im allgemeinen jedoch langsam ist, eignet sie sich for allem zur Beschaffung von Startwerten für lokal konvergente, schnellere Verfahren. 2. Gemessen an Funktionswertberechnungen, ist der Aufwand von Regula falsi und Sekanten Verfahren gleich. 3. Es gibt Varianten der Regula falsi, die eine bessere Konvergenzordnung besitzen, indem sie vermeiden, dass k fixiert wird: Illinois Algorithmus p = 3 3 1.442; Pegasus Verfahren, p 1.642. 4. Des weiteren gibt es Verfahren, die Bisektion (Sicherheit) und Sekanten Verfahren (Schnelligkeit) kombinieren, zum Beispiel das Verfahren von Dekker und Brent (1973), siehe [QSS04]. 37

3.4 Das Newton Verfahren - Newton 1669, - veröffentlicht von Wallis 1685, - in der heutigen Form von Raphson 1697, deshalb auch manchmal Newton Raphson Verfahren. Sei f : [a, b] R stetig differenzierbar. Das Newton Verfahren verwendet zur Approximation von f (ξ) in (3.4) den Wert der Ableitung von f an der Stelle x (k). Sei also x (0) gegeben, dann lautet das Newton Verfahren MATLAB Demo x (k+1) = x (k) f ( x (k)) f ( x (k)), k 0. (3.7) Satz 3.11 Seien f C 3 ([a, b]), α [a, b] und f (α) 0 (einfache Nullstelle). Dann existiert eine Umgebung U (α), so dass für jeden Startwert x (0) U (α) die mit (3.7) berechnete Folge {x (k) } gegen α konvergiert. Die Konvergenzordnung ist mindestens 2. Beweis: Literatur, zum Beispiel [SK06]. x (k+2) x (k) x (k+1) α In ( x (k), f ( x (k))) wird die Tangente angelegt. Der Schnittpunkt der Tangente mit der x Achse ist x (k+1). Bemerkung 3.12 1. Man bricht die Iteration ab, falls x (m) x (m 1) < ε oder f ( x (m) ) < ε für eine vorgegebene Toleranz ε > 0. 2. Das Newton Verfahren ist lokal konvergent, im allgemeinen jedoch nicht global. 3. Bei einer l fachen Nullstelle, l 2, konvergiert das Newton Verfahren (3.7) linear mit dem Konvergenzfaktor C = (l 1) /l. Ist die Vielfachheit der Nullstelle bekannt, so konvergiert das modifizierte Newton Verfahren x (k+1) = x (k) l f ( x (k)) f ( x (k)), k 0, quadratisch. 4. Das Newton Verfahren benötigt zwei Funktionsaufrufe pro Iteration, f ( x (k)) und f ( x (k)). Diesbezüglich ist es doppelt so teuer wie das Sekanten Verfahren. Zwei Schritte des Sekanten Verfahrens haben die Konvergenzordnung ( 1 + 5 ) 2 /4 2.62. Damit konvergiert, gemessen am Aufwand, das Sekanten Verfahren schneller. 38

5. Optimale Fixpunktiteration. Die Nullstellengleichung f (x) = 0 lässt sich äquivalent in die Fixpunktgleichung x = x + g (x) f (x), g (x) 0, umformen. Der Banachsche Fixpunktsatz 3.4 besagt, dass die Fixpunktiteration ( x (k+1) = x (k) + g x (k)) f (x (k)) desto schneller konvergiert, je kleiner die Lipschitz Konstante der rechten Seite der Fixpunktgleichung ist. Seien f (x), g (x) in U (α) stetig differenzierbar, dann folgt L = max (x + g (x) f (x)) = max 1 + x U(α) g (x) f (x) + g (x) f (x). x U(α) Man kann hoffen, dass L in U (α) klein ist, wenn für x = α der Ausdruck im Betrag verschwindet. Da f (α) = 0, folgt 1 + g (α) f (α) = 0 = g (α) = 1 f (α). Eine Funktion, die diese Bedingung erfüllt, ist g (x) = 1/f (x), womit man das Newton Verfahren erhält. Man erhält also das Newton Verfahren, indem man die Funktion g(x) in der Fixpunktgleichung so wählt, dass man auf eine möglichst kleine Lipschitz Konstante in U (α) ) hoffen kann. 6. Ist f C (U 2 (α), dann erhält man aus dem Banachschen Fixpunktsatz folgende hinreichende Bedingung für die Konvergenz des Newton Verfahrens: ( 1 > L = max x f (x) ) x U(α) f (x) = max x U(α) 1 (f (x)) 2 f (x) f (x) (f (x)) 2 = max x U(α) f (x) f (x) (f (x)) 2. 7. Die Übertragung des Newton Verfahrens auf komplexe Nullstellen und auf Banach Räume ist möglich. 3.5 Nullstellen von Polynomen Dieser Abschnitt stellt ein Verfahren vor, mit dem man alle Nullstellen eines Polynoms n p n (x) = a i x i = a n x n + a n 1 x n 1 +... + a 1 x + a 0, (3.8) i=0 a i R, i = 0,..., n, berechnen kann. Der Fundamentalsatz der Algebra besagt, dass p n (x) genau n Nullstellen in C besitzt, wobei mehrfache Nullstellen ihrer Vielfachheit gemäß gezählt werden. Des weiteren ist bekannt: n {1, 2} es gibt einfache Berechnungsvorschriften für die Nullstellen, n {3, 4} es gibt relativ komplizierte Berechnungsvorschriften für die Nullstellen, 39

n 5 es gibt im allgemeinen keine expliziten Berechnungsvorschriften für die Nullstellen. Das heißt, für Polynome mit n 3 ist die Nutzung numerischer Verfahren zu empfehlen, für n 5 ist sie im allgemeinen notwendig. Bevor wir zur Nullstellenberechnung kommen, wollen wir erst einmal ein Schema kennenlernen, mit dessen Hilfe man Funktionswerte eines Polynoms schnell berechnen kann. Nutzt man den naivsten Weg, jeden Summanden von (3.8) einzeln zu berechnen, so hat man für den i ten Summanden i Multiplikationen und zum Schluss n Additionen. Damit ist die Anzahl der Flops n i + n = n 2 i=0 (n + 1) + n = n2 2 + 3 2 n. Günstiger ist bereits, wenn man die Potenzen von x zwischendurch speichert: p := a 0 + a 1 x t := x for i = 2 : n t := tx p := p + a i t end Dieser Weg benötigt n Additionen und (2n 1) Multiplikationen, also 3n 1 Flops. Die Darstellung (3.8) ist nicht die einzig mögliche für ein Polynom. Äquivalent dazu ist p n (x) = a 0 + x (a 1 + x (a 2 + x (... + x (a n 1 + a n x)...))). (3.9) Nutzt man (3.9), so kann man p n (x) mit n Additionen und n Multiplikationen, also 2n Flops berechnen. Man nennt (3.9) auch eingebettete Multiplikation und (3.9) ist die Basis des sogenannten Horner Schemas (synthetische Division) zur Berechnung von p n (z): b n := a n for i = n 1 : 1 : 0 b i := a i + b i+1 z end Beispiel 3.13 n = 3: p 3 (z) = a 0 + z a 1 + z a 2 + a 3 z. }{{} b 3 }{{} b 2 } {{ } } {{ b 1 } b 0 Dieses Verfahren, veröffentlich von Horner (1818), findet man schon bei Newton über 100 Jahre früher. Damals hat man das Verfahren handschriftlich durchgeführt und dabei folgendes Schema entwickelt: p n a n a n 1 a n 2... a 1 a 0 z b n z b n 1 z... b 2 z b 1 z b n b n 1 b n 2... b 1 b 0 40

Das ist das sogenannte Horner Schema. Beispiel 3.14 Berechne p 3 (z) = 2z 3 + 20z 2 2z 13 an der Stelle z = 3: p 3-2 20-2 -13 3-6 42 120-2 14 40 107 Es ist p 3 (3) = 107. Man kann das Polynom p n (x) eindeutig zerlegen in p n (x) = p 0 + (x z) p n 1 (x), wobei p 0 eine Konstante ist und p n 1 (x) ein Polynom vom Grad n 1 (Polynomdivision). Setzt man x = z, so folgt p n (z) = b 0 = p 0, also folgt p n 1 (x) = p n (x) b 0. x z Man findet durch Nachrechnen Übungsaufgabe p n 1 (x) = b 1 + b 2 x +... + b n x n 1 = Einsetzen führt zu der Darstellung n b i x i 1 =: q n 1 (x). i=1 p n (x) = b 0 + (x z) q n 1 (x). (3.10) Ist z eine Nullstelle von p n (x), dann ist b 0 = 0 und man hat p n (x) = (x z) q n 1 (x). Die restlichen (n 1) Nullstellen von p n (x) sind nun gerade die Nullstellen von q n 1 (x). Man hat die Nullstelle z abgespalten. Diesen Vorgang nennt man Deflation. Auf dieser Basis kann man folgende allgemeine Strategie zur Berechnung aller Nullstellen von p n (x) angeben: 1. finde eine Nullstelle z von p n (x) mit einem geeigneten Verfahren, 2. berechne die Koeffizienten von q n 1 (x) mit dem Horner Schema, 3. setze p n 1 (x) := q n 1 (x), n := n 1, gehe zu 1. Beim ersten Punkt kann man das Newton Verfahren verwenden. Dazu benötigt man p n (z) und p n (z) für die gegenwärtige Iterierte z. Aus (3.10) folgt also p n (x) = q n 1 (x) + xq n 1 (x) zq n 1 (x), p n (z) = q n 1 (z). Diesen Wert kann man gemeinsam mit p n (z) mit dem erweiterten Horner Schema berechnen: p n a n a n 1 a n 2... a 1 a 0 z b n z b n 1 z... b 2 z b 1 z p n 1 b n b n 1 b n 2... b 1 b 0 = p n (z) z c n z c n 1 z... c 2 z c n c n 1 c n 2... c 1 = p n (z) 41

Beispiel 3.15 Berechne p 4 (z), p 4 (z) für p 4 (x) = 3x 4 5x 2 + 26x 17, z = 2. p 4 3 0-5 26-17 2 6 12 14 80 p 3 3 6 7 40 63 2 6 24 62 3 12 31 102 Damit sind 63 = p 4 (2) und p 4 (2) = 102. Dieses Vorgehen kann man erweitern, um alle Ableitungen von p n (x) an der Stelle z zu berechnen, vollständiges Horner Schema, siehe Literatur. Bemerkung 3.16 1. Die Verbindung von Newton Verfahren und Horner Schema zur Berechnung einer Nullstelle von p n (x) nennt man Newton Horner Verfahren. Ein Iterationsschritt benötigt 4n Flops (p n (z) : 2n, q n 1 (z) : 2 (n 1), eine Division, eine Subtraktion). 2. Beginnt man mit einer reellen Startnäherung, so erhält man beim Newton Horner Verfahren nur reelle Iterierte. Komplexe Nullstellen kann man so nicht finden. Sowohl das Newton Verfahren als auch das Horner Schema besitzen für komplexe Zahlen die gleiche Gestalt wie für reelle Zahlen. Verwendet man eine komplexe Startnäherung, so erhält man im allgemeinen komplexe Iterierte. Dazu benötigt man Computerarithmetik für komplexe Zahlen. Diese wird in MATLAB automatisch erledigt, falls komplexe Eingangsdaten vorliegen. MATLAB Demo von Newton Verfahren im Komplexen 3. Eine fortgesetzte Deflation erhöht den Einfluss von Rundungsfehlern. Um diesen gering zu halten, sollte man zwei Dinge beachten: Berechne zuerst die betragsmäßig kleinen Nullstellen, weil diese am anfälligsten gegen Rundungsfehler sind. Hat man eine Approximation für eine Nullstelle mit dem Newton Horner Verfahren gefunden, so nehme man diese Approximation als Startnäherung für das Newton Verfahren angewandt auf das Originalpolynom p n (x): Newton Horner Verfahren mit Verfeinerung. 4. In MATLAB erhält man alle Nullstellen eines Polynoms mit dem Befehl roots. 3.6 Abbruchkriterien für iterative Verfahren Ein wesentliches Problem in der Praxis sind Kriterien, mit denen man die Iteration abbricht. Eine erste Möglichkeit ist die Kontrolle des Residuums: Sei ε > 0 vorgegeben, dann breche die Iteration ab, falls f ( x (k) ) < ε. Es gibt jedoch Situationen, in denen dieses Kriterium entweder zu stark oder zu optimistisch ist, siehe Abbildung 3.3 Aus diesem Grunde ist es oft besser, die Änderung der Korrektur zu betrachten: Sei ε > 0 vorgegeben, dann breche die Iteration ab, falls x (k+1) x (k) < ε. Darüber hinaus sollte immer eine maximale Anzahl von Iterationen als Abbruchkriterium vorgegeben sein. 42

+ε f(x (k) ) ε α x (k) +ε ε α f(x (k) ) x (k) Abbildung 3.3: Links: Residuumkriterium zu stark, da f (α) sehr groß ist; rechts: Residuumkriterium zu optimistisch, da f (α) 0. 43