3 Numerische Behandlung der Tschebyscheff-Approximation

Ähnliche Dokumente
ε δ Definition der Stetigkeit.

27 Taylor-Formel und Taylor-Entwicklungen

Nichtlineare Gleichungssysteme

6. Übungsblatt zur Mathematik I für Maschinenbau

4. Vektorräume und Gleichungssysteme

Vorkurs Mathematik für Wirtschaftsingenieure und Wirtschaftsinformatiker

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Numerische Integration und Differentiation

18 Höhere Ableitungen und Taylorformel

Iterative Verfahren, Splittingmethoden

Kapitel 5. Stetige Funktionen 5.1. Stetigkeit

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

4 Elementare Vektorraumtheorie

3 Interpolation und Approximation

Klassifikation von partiellen Differentialgleichungen

2. Stetige lineare Funktionale

Funktionsgrenzwerte, Stetigkeit

Dierentialgleichungen 2. Ordnung

Thema 10 Gewöhnliche Differentialgleichungen

17. Penalty- und Barriere-Methoden

Kapitel VI. Euklidische Geometrie

Differentialgleichungen

2 Euklidische Vektorräume

Lösungsvorschläge zum 14. Übungsblatt.

gebrochene Zahl gekürzt mit 9 sind erweitert mit 8 sind

Kap 1: VEKTORRÄUME. (c) (λµ) v = λ (µ v) (b) λ (v + w) = (λ v) + (λ w) (d) 1 v = v

Mathematik für Bauingenieure

Lösungsvorschlag zu den Hausaufgaben der 8. Übung

Zahlen und Gleichungen

Lineare Gleichungssysteme

Lineare Gleichungssysteme

Mathematik für Anwender I. Beispielklausur I mit Lösungen

Wertetabelle : x 0 0, ,5 1. y = f(x) = x 2 0 0, ,25 1. Graph der Funktion :

6. Mathematik Olympiade 2. Stufe (Kreisolympiade) Klasse 12 Saison 1966/1967 Aufgaben und Lösungen

x 0 0, , Die Quadratfunktion ist für x 0 streng monoton fallend und für x 0 streng monoton steigend.

Optimalitätskriterien

Höhere Mathematik III WS 05/06 Lösungshinweis Aufgabe G 11 Blatt 2

Die Taylorreihe einer Funktion

Universität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla

7 Die Determinante einer Matrix

Vorlesung. Funktionen/Abbildungen 1

7.2.1 Zweite partielle Ableitungen

Analysis I. Vorlesung 9. Reihen

Testvorbereitung: Integrierender Faktor

Klausur zur Vordiplom-Prüfung

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.

1. Klausur. für bau immo tpbau

Wenn man eine Folge gegeben hat, so kann man auch versuchen, eine Summe. a 0 + a 1 + a 2 +

Proseminar: Primzahlen 1. Vortrag Der erweiterte euklidische Algorithmus

Corinne Schenka Vorkurs Mathematik WiSe 2012/13

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester gehalten von Harald Baum

Lösen einer Gleichung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren Thomas Brox, Fabian Kuhn

Höhere Mathematik II

4. Übungsblatt zur Mathematik I für Maschinenbau

Zusammenfassung Mathematik 2012 Claudia Fabricius

3 Nichtlineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme

4.7 Der Taylorsche Satz

Exponentialfunktion, Logarithmus

Kapitel 17. Determinanten

Lineare Gleichungssysteme

Stetigkeit. Kapitel 4. Stetigkeit. Peter Becker (H-BRS) Analysis Sommersemester / 543

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik

11. Übung zur Vorlesung. Zahlentheorie. im Wintersemester 2015/16

Lineare Gleichungssysteme

1 Mengen und Abbildungen

Kapitel 10. Integration. Josef Leydold Mathematik für VW WS 2015/16 10 Integration 1 / 35

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

(x 1. Vektoren. g: x = p + r u. p r (u1. x 2. u 2. p 2

Vektorgeometrie. Inhaltsverzeichnis. Fragen und Antworten. (bitte nur für den Eigengebrauch verwenden)

Lineare Gleichungssysteme

Minimale Anzahl von Hinweisen bei Sudoku

Bestimmung einer ersten

Beispielaufgaben rund um Taylor

3.3 Eigenwerte und Eigenräume, Diagonalisierung

Gleitspiegelung und Verkettungen von Spiegelung und Parallelverschiebung

Übungen zur Vorlesung MATHEMATIK II

Aufgaben für die 6. Übung zur Vorlesung Mathematik 2 für Informatiker: Analysis Sommersemester 2010

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

x A, x / A x ist (nicht) Element von A. A B, A B A ist (nicht) Teilmenge von B. A B, A B A ist (nicht) echte Teilmenge von B.

Analysis I. Vorlesung 16. Funktionenfolgen

f : x y = mx + t Der Graph einer linearen Funktion ist eine Gerade, welche die y-achse im Punkt S schneidet. = m 2 x 2 m x 1

Rekursiv aufzählbare Sprachen

n 1, n N \ {1}, 0 falls x = 0,

Verfahren zur Berechnung der Exponentialmatrix

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz

2 Stetigkeit und Differenzierbarkeit

Numerisches Lösen von Gleichungen

Lösungsvorschlag für die Probeklausuren und Klausuren zu Algebra für Informations- und Kommunikationstechniker bei Prof. Dr.

Analysis I. Universität Stuttgart, WS 05/06 M. Griesemer

Surjektive, injektive und bijektive Funktionen.

9.2 Invertierbare Matrizen

Wir beginnen mit der Definition eines metrischen Raumes, der in diesem Kapitel von zentraler Bedeutung ist. x, y, z X (Dreiecksungleichung).

Transkript:

Approximationstheorie 81 3 Numerische Behandlung der Tschebyscheff-Approximation Die Bestapproximation bezüglich einer Funktion f C(K) aus einem Haarschen Unterraum V C(K) läßt sich i.a. nicht in geschlossener Form angeben. Daher greift man auf Iterationsverfahren zurück. Man unterscheidet (1) Abstiegsverfahren (descent methods) : Erzeuge Funktionenfolge mit monoton fallendem Abstand zu f. Approximationsproblem als Optimierungsaufgabe mit unendlich vielen Nebenbedingungen. (2) Aufstiegsverfahren (ascent methods) : Erzeuge Funktionenfolge zusammen mit Folge von Referenzmengen und somit Folge unterer Schranken für den Fehler der Bestapproximation. Diese soll in jedem Schritt zunehmen. Wichtigster Vertreter: Remez-Algorithmus a. a Evgeny Yakovlevich Remez, russischer Mathematiker, 1896 1975 3 Numerische Behandlung der Tschebyscheff-Approximation TU Bergakademie Freiberg, WS 2008/09

Approximationstheorie 82 im Folgenden: Remez-Algorithmus für die Haarschen Unterräume P n von C[a, b], alles reell. Beim Remez-Algorithmus wird, im Falle dim V = n, in jedem Iterationsschritt ein Approximationsproblem auf einer (n + 1)-elementigen Menge K gelöst. Beachte: dies stellt den einfachsten nichttrivialen Fall dar, denn damit V ein n-dimensionaler Unterraum von C(K) ist, muss K mindestens n + 1 Punkte enthalten. Andernfalls reduziert sich die Approximationsaufgabe zu einer Interpolationsaufgabe. 3 Numerische Behandlung der Tschebyscheff-Approximation TU Bergakademie Freiberg, WS 2008/09

Approximationstheorie 83 3.1 Der Satz von Stiefel Spezialfall: K = {x 1, x 2,..., x n } (n-elementig). C(K) R n C(K) R n f(x 1 ) f. f(x n ) (normerhaltend) 3.1 Der Satz von Stiefel TU Bergakademie Freiberg, WS 2008/09

Approximationstheorie 84 Lemma 3.1 Sei V ein n-dimensionaler Haarscher Unterraum von C[a, b]. Sei ferner K = {x 0, x 1,..., x n } mit a x 0 < x 1 < < x n b und f K := max 0 i n f(x i). Dann ist die Bestapproximation an f C[a, b] aus V bezüglich K gerade die Lösung u der Interpolationsaufgabe u(x i ) = f(x i ) ( 1) i η, i = 0, 1,..., n, (3.1) mit passendem η R. Ferner ist f u K = η. 3.1 Der Satz von Stiefel TU Bergakademie Freiberg, WS 2008/09

Approximationstheorie 85 Lemma 3.2 Sei {v 1,..., v n } eine Basis des Haarschen Unterraumes V von C[a, b], K = {x 0, x 1,..., x n } und u wie in Lemma 3.1. (a) Die Koeffizienten von u = n k=1 α kv k und η sind die Lösungen des linearen Gleichungssystems n α k v k (x i ) + ( 1) i η = f(x i ) i = 0, 1,..., n, k=1 oder v 1 (x 0 )... v n (x 0 ) ( 1) 0. v 1 (x n )... v n (x n ) ( 1) n α 1. α n η = f(x 0 ). f(x n ). 3.1 Der Satz von Stiefel TU Bergakademie Freiberg, WS 2008/09

Approximationstheorie 86 (b) Die Lösungskomponente η dieses LGS besitzt die Darstellung η = n i=0 β if(x i ) mit Koeffizienten β i = ( 1) n+1+i det[v k (x j )] 1 k n;0 j n,j i det[v k (x j ) ( 1) j ] 1 k n;0 j n, i = 0, 1,..., n. Insbesondere sind diese unabhängig von f. (c) Das lineare Funktional l : C(K) R, g n β i g(x i ) (3.2) i=0 erfüllt l(v) = 0 v V, l = 1, sowie l(f u) = f u K. Normiert man sign β i = ( 1) i, so heißt l das den Punkten x 0, x 1,..., x n zugeordnete Funktional. 3.1 Der Satz von Stiefel TU Bergakademie Freiberg, WS 2008/09

Approximationstheorie 87 Aufgabe: Man bestimme das den Punkten { 1, 0, 1} zugeordnete Funktional für V = span{1, e x }. Wie lautet die Bestapproximation an f(x) = x aus V bezüglich { 1, 0, 1}? Satz 3.3 (Stiefel, 1959) Es seien a x 0 < x 1 < < x n+1 b, V = P n, f C[a, b] und f K := max f(x i). 0 i n+1 Das den Punkten x 0,..., x n+1 zugeordnete Funktional l ist durch l(g) = P n+1 i=0 λ ig(x i ) P n+1 i=0 ( 1)i λ i λ i := Y (x i x j ) 1 n+1 j=0 j i gegeben. Die Bestapproximation p an f aus P n bezüglich K erfüllt die Interpolationsbedingungen mit η := l(f) = f p K. p(x i ) = f(x i ) ( 1) i η, i = 0,..., n + 1, 3.1 Der Satz von Stiefel TU Bergakademie Freiberg, WS 2008/09

Approximationstheorie 88 Bei der praktischen Durchführung koppelt man die Berechnung des Interpolationspolynoms mit der von η. Seien q, q 0 P n+1 die Lösungen der Interpolationsaufgaben Schreibt man q(x i ) = f(x i ), q 0 (x i ) = ( 1) i, i = 0, 1,..., n + 1. q(x) = αx n+1 + q(x), q 0 (x) = α 0 x n+1 + q 0 (x), mit q, q 0 P n, so ist η = α/α 0 und p := q ηq 0 die Lösung des Approximationsproblems. Dies folgt aus (Lagrange-Darstellung) α α 0 = n+1 i=0 λ if(x i ) n+1 i=0 λ i( 1) i = l(f) = η und p(x i) = f(x i ) η( 1) i. 3.1 Der Satz von Stiefel TU Bergakademie Freiberg, WS 2008/09

Approximationstheorie 89 Aufgabe: Man bestimme das Funktional zur Approximation in P 1 auf den Punkten { 1, 0, 1} und die Bestapproximation an f(x) = ax 2 + bx + c, a 0, aus P 1 bezüglich g K = max{ g( 1), g(0), g(1) }. Lemma 3.4 Sei f C[a, b] und a x 0 < x 1 < < x n+1 b. Für die Lösung p des diskreten Approximationsproblems aus Satz 3.3 gelte η = f p K c > 0. Dann gilt für i = 0, 1,..., n x i+1 x i δ mit einer nur von f, c und V abhängenden Größe δ > 0. 3.1 Der Satz von Stiefel TU Bergakademie Freiberg, WS 2008/09

Approximationstheorie 90 3.2 Der Remez-Algorithmus Sei wieder V reeller n-dimensionaler Haarscher Unterraum von C[a, b]. Zu den Punkten a x (0) 0 < x (0) 1 < < x (0) n b (3.3) sei u (0) V die beste (diskrete) Approximation an f C[a, b] aus V. Laut Lemma 3.1 bilden die Punkte in (3.3) eine Alternante bezüglich u (0) und der diskreten Approximationsaufgabe. Bezüglich u (0) und der entsprechenden kontinuierlichen Approximationsaufgabe auf [a, b] bilden sie i.a. lediglich eine Referenz. Nach dem Satz von de la Vallée-Poussin (Satz??) gilt in diesem Fall zumindest f u (0),[a,b] min 0 i n f(x i) u (0) (x i ) =: η (0). 3.2 Der Remez-Algorithmus TU Bergakademie Freiberg, WS 2008/09

Approximationstheorie 91 Idee: Ersetze die Punkte {x (0) i } m i=0 durch einen neuen Satz {x(1) i } m i=0 derart, dass die Fehlerfunktion f u 0) an diesen ebenfalls alterniert, aber mit einem größeren Betrag als η (0). Berechne nun die Bestapproximation an f bezüglich der neuen Referenz {x (1) i } m i=0. 3.2 Der Remez-Algorithmus TU Bergakademie Freiberg, WS 2008/09

Approximationstheorie 92 Algorithmus 1 : Remez-Algorithmus. 1 Gegeben : f C[a, b], reeller Haarscher Unterraum V C[a, b], dim V = n. Wähle n + 1 Punkte a x (0) 0 < x (0) 1 < < x (0) n b und bestimme zu diesen die beste diskrete Approximation u (0) V an f 2 3 4 5 m := 0, e (0) := f u (0), η (0) := f u (0) (0),{x i } while e (m) η (m) > tol e (m) do m := m + 1 Bestimme neue alternierende Referenzpunkte a x (m) 0 < x (m) 1 < < x (m) n b mit min 0 i n e(m 1) (x (m) i ) η (m 1), 6 7 wobei jedoch e (m 1) (x (m) i ) = e (m 1) für mindestens ein i. Bestimme zu {x (m) i } n i=0 die diskrete Bestapproximation u (m) V. e (m) := f u (m), η (m) := f u (m) (m),{x i } 3.2 Der Remez-Algorithmus TU Bergakademie Freiberg, WS 2008/09

Approximationstheorie 93 Wesentlicher Vorgang: Referenzaustausch Für Konvergenz erforderlich: Hinzunahme eines Punktes ξ mit e (m 1) (ξ) = e (m 1). (3.4) Austausch weiterer Punkte nicht erforderlich, bewirkt jedoch wesentliche Bescheunigung der Konvergenz. Wir konzentrieren uns im Weiteren auf die Darstellung, wie ein Extremalpunkt ξ in die Referenz aufgenommen wird, der (3.4) erfüllt. Beachte: Alternieren der Vorzeichen darf durch Austausch nicht verlorengehen. Zur Vereinfachung setzen wir x (m 1) 1 := a, x (m 1) n+1 := b, m = 1, 2,.... 3.2 Der Remez-Algorithmus TU Bergakademie Freiberg, WS 2008/09

Approximationstheorie 94 Normalfall: Es gibt einen Index j {0,..., n} mit sign e (m 1) (ξ) = sign e (m 1) (x (m 1) j ) und In diesem Fall setzen wir x (m 1) j 1 ξ x (m 1) j+1. x (m) i := { ξ falls i = j, x (m 1) i falls i j, i = 0, 1,..., m. 3.2 Der Remez-Algorithmus TU Bergakademie Freiberg, WS 2008/09

Approximationstheorie 95 1. Ausnahmefall: (Neuer Referenzpunkt am linken Rand) Hier ist ξ < x (m 1) 0 und sign e (m 1) (ξ) = sign e (m 1) (x (m 1 0 ) und wir setzen { ξ falls i = 0, x (m) i := x (m 1) i 1 i = 1, 2,..., n. 2. Ausnahmefall: (Neuer Referenzpunkt am rechten Rand) Hier ist und wir setzen ξ > x (m 1) n und sign e (m 1) (ξ) = sign e (m 1) (x (m 1 n ) x (m) i := { ξ falls i = n, x (m 1) i+1 i = 0, 1,..., n 1. 3.2 Der Remez-Algorithmus TU Bergakademie Freiberg, WS 2008/09

Approximationstheorie 96 Bemerkung 3.5 Damit ist der sog. einfache Remez-Algorithmus beschrieben. Wenn man alle Punkte durch bessere ersetzen will, geht man bei den übrigen Punkten entsprechend vor. Satz 3.6 Sei V ein n-dimensionaler Haarscher Unterraum von C[a, b]. Dann konvergiert die vom Remez-Algorithmus erzeugte Folge von Näherungslösungen {u (m) } gegen die Bestapproximation. 3.2 Der Remez-Algorithmus TU Bergakademie Freiberg, WS 2008/09