3 Die Lösung der diskreten Poisson-Gleichung

Größe: px
Ab Seite anzeigen:

Download "3 Die Lösung der diskreten Poisson-Gleichung"

Transkript

1 Finite Elemente I 90 3 Die Lösung der diskreten Poisson-Gleichung Die Galerkin-Matrix der FE-Diskretisierung der Poisson-RWA (2.1) ist symmetrisch und positiv-definit (gilt nicht notwendig für andere Dgln.) Allen FE-Diskretisierungen gemeinsam: die Galerkin-Matrix ist dünn besetzt (sparse). Wir betrachten die Matrix aus Beispiel 2 (L-Gebiet). bilinear biquadratisch N h # Einträge 0 Anteil h # Einträge 0 Anteil % % % % % % % % % % 3 Die Lösung der diskreten Poisson-Gleichung TU Bergakademie Freiberg, SoS 2007

2 Finite Elemente I nz = 251 h = 0.25, bilineare Elemente nz = 313 h = 0.5, biquadratische Elemente 3 Die Lösung der diskreten Poisson-Gleichung TU Bergakademie Freiberg, SoS 2007

3 Finite Elemente I 92 1 Q1 finite element subdivision 1 Q2 finite element subdivision h = 0.25, bilineare Elemente h = 0.5, biquadratische Elemente 3 Die Lösung der diskreten Poisson-Gleichung TU Bergakademie Freiberg, SoS 2007

4 Finite Elemente I 93 Direkte oder iterative Verfahren? In der FE-Praxis wurde lange Zeit mit direkten Verfahren, also Varianten der Gauß-Elimination, gearbeitet. Stark verbreitet: frontal solvers. Hier wird die Faktorisierung der Matrix so früh wie möglich während der Assemblierung vorgenommen. Weiterentwicklungen auch heute noch relevant, auch als eigenständige Eliminationsverfahren, z.b. UMFPACK. Faustregel: in 2D reichen ausgereifte direkte, auf dünn-besetzte Matrizen spezialisierte Löser aus. Für 3D-Diskretisierungen muss auf Iterationsverahren zurückgegriffen werden. Vorteil direkter Verfahren: typischerweise als black box einsetzbar. Bei Iterationsverfahren ist deutlich mehr Expertise des Anwenders erforderlich. 3 Die Lösung der diskreten Poisson-Gleichung TU Bergakademie Freiberg, SoS 2007

5 Finite Elemente I Erste Iterationsverfahren Zunächst sei allgemein gegeben Ax = b, A C n n invertierbar, b C n. (3.1) Grundidee: Startnäherung x 0 A 1 b, Erzeuge rekursiv Folge {x m } m N mit lim m x m = A 1 b. 3.1 Erste Iterationsverfahren TU Bergakademie Freiberg, SoS 2007

6 Finite Elemente I 95 Die ersten Iterationsverfahren (Handrechnung!) beruhen auf Umstellung einzelner Gleichungen, Auflösen nach den entsprechenden Unbekannten und Wiedereinsetzen (Relaxation). Carl-Friedrich Gauß ( 1832), Normalgleichungen aus Astronomie, Landesvermessung, Unbekannte Ich empfehle Ihnen diesen Modus zur Nachahmung. Schwerlich werden Sie je wieder direkt eliminieren, wenigstens nicht, wenn Sie mehr als 2 Unbekannte haben. Das indirekte Verfahren lässt sich halb im Schlafe ausführen, oder man kann während desselben an andere Dinge denken. Brief von Gauß an Gerling, 1823 Carl Gustav Jacobi ( 1846) Ludwig Seidel ( 1862) Christian August Nagel (Sächsische Triangulation, ) 159 Unbekannte 3.1 Erste Iterationsverfahren TU Bergakademie Freiberg, SoS 2007

7 Finite Elemente I 96 Formale Beschreibung von Relaxationsverfahren durch Zerlegungen (splittings): A = M N, M invertierbar, (3.2a) überführt (3.1) in Fixpunktform Mx = Nx +b, zugehörige Fixpunktiteration x m+1 = Tx m + c, T = M 1 N, c = M 1 b. (3.2b) Typische algorithmische Umsetzung: Algorithmus 1 : Relaxationsverfahren Gegeben : A invertierbar, b, Startnäherung x 0 for m = 0, 1, 2... bis Abbruchkriterium erfüllt do r m b Ax m Löse Mh = r m x m+1 x m + h 3.1 Erste Iterationsverfahren TU Bergakademie Freiberg, SoS 2007

8 Finite Elemente I 97 Klassische Zerlegungen M = I Richardson-Verfahren M = D := diag(a) Jacobi-Verfahren, Einzelschrittverfahren M = D L, L = tril(a) Gauß-Seidel-Verfahren, Einzelschrittverfahren, Liebmann-Verfahren M = D ωl, ω R SOR-Verfahren (successive-overrelaxation) M = ω 2 ω ( 1 ω D L)D 1 ( 1 ω D U ), U := triu(a), ω R SSOR-Verfahren (symmetric SOR) 3.1 Erste Iterationsverfahren TU Bergakademie Freiberg, SoS 2007

9 Finite Elemente I 98 Für den Fehler x x m, x := A 1 b, der m-ten Iterierten aus (3.2b) gilt x x m+1 = (I M 1 A)(x x m ) = T (x x m ) = = T m (x x 0 ). Lemma 3.1 Für eine beliebige Matrix T C n n gilt lim T m = O ρ(t ) < 1. m Satz 3.2 Das durch die Zerlegung (3.2a) definierte Relaxationsverfahren (3.2b) konvergiert genau dann für alle Startnäherungen x 0, wenn für die Iterationsmatrix T = M 1 N gilt ρ(t ) < Erste Iterationsverfahren TU Bergakademie Freiberg, SoS 2007

10 Finite Elemente I Das CG-Verfahren Die Iterierten und Residuen des durch die Zerlegung (3.2a) definierten Relaxationsverfahrens (3.2b) sind gegeben durch also durch x m = x 0 + (I M 1 A) j M 1 r 0, m 1 j=0 M 1 r m = (I M 1 A) m M 1 r 0, m = 1, 2,... mit Polynomen x 0 + q m 1 (T )M 1 r 0 bzw. M 1 r m = p m (T )M 1 r 0 q m 1 (λ) = 1 + λ + + λ m 1 P m 1 bzw. p m (λ) = λ m P m

11 Finite Elemente I 100 Das CG-Verfahren (conjugate gradients), oder allgemein polynomiale Beschleunigungsverfahren, auch Krylov-Unterraumverfahren genannt, können als Iterationsverfahren interpretiert werden, bei denen die Iterierten bzw. Residuen die Form x m = x 0 + q m 1 (A)r 0, r m = p m (A)r 0, mit q m 1 P m 1, p m (λ) = 1 λq m 1 (λ) P m besitzen, wobei versucht wird, diese Polynome in jedem Schritt möglichst günstig zu wählen. Entscheidend: in jedem Schritt der Iteration ist nur eine Matrix-Vektor- Multiplikation mit der Koeffizientenmatrix A (bzw. der Iterationsmatrix T ) erforderlich.

12 Finite Elemente I Herleitung des CG-Verfahrens Gegeben: A R n n spd, b R n (komplexer Fall analog). Gesucht: Lösung x des LGS Ax = b. (3.3) Sei (, ) ein gegebenes Innenprodukt auf R n (mit zugehöriger Norm ). Wichtige Beobachtung: da A spd a ist durch (u, v) A := (Au, v), u, v R n, ebenfalls ein Innenprodukt gegeben, das A-Innenprodukt oder auch Energie- Innenprodukt (mit zugehöriger Norm A ). Da mit A auch A 1 spd, gilt dasselbe auch für (, ) A 1. a eigentlich: A selbstadjungiert bez. (, )

13 Finite Elemente I 102 Ausgangspunkt dieser Herleitung des CG-Verfahrens (siehe Numerik- Vorlesung): x löst (3.3) x minimiert φ(x ) = 1 2 (x, x ) A (b, x ) über R n. Minimierung auf Unterräumen: Anstatt auf ganz R n minimieren wir φ auf einer Folge geschachtelter affiner Unterräume der Gestalt S m = x 0 + V m, V m = span{p 1, p 2,..., p m }. Hierbei bilden p 1,..., p m eine Folge linear unabhängiger Richtungsvektoren. Als Näherungen x m x erhalten wir die Lösungen der Unterraumaufgaben Bestimme x m S m mit φ(x m ) = min x S m φ(x ).

14 Finite Elemente I 103 Wegen φ(x ) = 1 2 ( b Ax 2 A 1 b 2 A 1 ) ist die Minimierung von φ äquivalent zur Minimierung von b Ax A 1, d.h. gesucht ist ein x S m welches den Ausdruck b Ax A 1 = b Ax 0 Ap A 1 = r 0 Ap A 1 minimiert mit einem p V m. Äquivalent: bestimme Bestapproximation bez. A 1 Unterraum AV m. an r 0 aus dem Äquivalent: A 1 -orthogonale Projektion von r 0 nach AV m Charakterisierung: r 0 Ap A 1 Ap j, j = 1, 2,..., m,

15 Finite Elemente I 104 oder oder (p, p j ) A = (r 0, p j ), j = 1, 2,..., m, r m := b Ax m V m. Besitzt p die Koordinatendarstellung p = y 1 p y m p m, so erfüllt der Koordinatenvektor y = [y 1, y 2,..., y m ] R m das LGS [(p j, p i ) A ] m i,j=1y = [(r 0, p i )] m i=1. (3.4) Bemerkung: Wegen b Ax A 1 = A 1 b x A besitzt die Bestapproximation p V m auch die Eigenschaft, dass die zugehörige Approximation x m = x 0 + p den Fehler A 1 b x m bezüglich der A-Norm minimiert.

16 Finite Elemente I 105 Konjugierte Suchrichtungen Sind die Richtungsvektoren p j A-konjugiert (ein Synonym für A-orthogonal), so vereinfacht sich das LGS (3.4) für die Koordinaten: Die Koeffizientenmatrix wird diagonal, die Gleichungen sind entkoppelt, d.h. beim Übergang von V m nach V m+1 bleiben die Koeffizienten y 1,..., y m unverändert, es gilt y i = (r 0, p i ) (p i, p i ) A, i = 1, 2,..., m. Wir erhalten so folgenden Algorithmus:

17 Finite Elemente I 106 Algorithmus 2 : Verfahren der konjugierten Richtungen (CD-Verf.) Gegeben : A spd, b Bestimme Startnäherung x 0, berechne r 0 b Ax 0, m 0 while nicht konvergiert do m m + 1 Bestimme nächsten, zu p 1,..., p m 1 konjugierten Richtungsvektor p m α m (r m 1,p m ) (p m,p m ) A x m x m 1 + α m p m r m r m 1 α m Ap m Bemerkung: Eine Folge A-orthogonaler Suchrichtungen kann man erzeugen aus einer beliebigen Folge (linear unabhängiger) Vektoren p 1, p 2,... mit Hilfe des Gram-Schmidtschen Orthogonalisierungsverfahrens: p m = p m m 1 j=1 ( p m, p j ) A (p j, p j ) A p j, m = 1, (3.5)

18 Finite Elemente I 107 Lemma 3.3 Im m-ten Schritt des CD-Verfahrens gilt: p m A {p 1, p 2,..., p m 1 }, (3.6) r m {p 1, p 2,..., p m }, (3.7) p m {r 0, r 1,..., r m 1 }. (3.8) Lemma 3.4 Das CD-Verfahren berechnet die Lösung x von (3.3) nach einer endlichen Anzahl L n Schritten. Bemerkungen: 1. Die endliche Abbrucheigenschaft geht i.a. verloren bei rundungsbehafteter Rechnung. 2. Obwohl der Fehler die interessierende Größe, ist oft nur das Residuum verfügbar. Der nächste Satz gibt prinzipielle Beziehungen zwischen diesen an.

19 Finite Elemente I 108 Satz 3.5 Sei x eine Approximation an A 1 b. Dann gelten für den Fehler e := A 1 b x und das zugehörige Residuum r = b Ax r r A e A r e e A, (3.9) r 2 r 2 A e r e 2 e 2. (3.10) A Lemma 3.6 Im m-ten Schritt des CD-Verfahrens wird der Abstand in der A-Norm zur Lösung reduziert gemäß e m 1 2 A e m 2 A = (r m 1, p m ) 2 (p m, p m ) A.

20 Finite Elemente I 109 Konjugierte Gradienten A-orthogonale Suchrichtungen machen einen Iterationsschritt zwar effizient, müssen aber per se nicht zu schneller Konvergenz führen. (Warum?) Idee: Wähle in (3.5) den neuen Vektor p m+1 als Richtung stärkster Abnahme von φ an der Stelle x m : p m+1 = φ x =xm = b Ax m = r m, m > 1, p 1 = p 1 = r 0. Danach A-Orthogonalisierung gegen {p 1,..., p m }. Vorteil: Liefert solange neue Suchrichtungen bis Lösung gefunden. (Warum?) Aus dieser Wahl folgt sofort span{r 0, r 1,..., r m 1 } = span{p 1, p 2,..., p m }, m = 1, 2,..., L. (3.11)

21 Finite Elemente I 110 Wir erhalten so den Algorithmus 3 : CG-Verfahren (vorläufige Version) Gegeben : A spd, b Bestimme Startnäherung x 0, berechne r 0 b Ax 0 Setze m 0, p 1 r 0 while nicht konvergiert do m m + 1 α m (r m 1,p m ) (p m,p m ) A x m x m 1 + α m p m r m r m 1 α m Ap m p m+1 r m P m j=1 (ep m,p j ) A (p j,p j ) A p j

22 Finite Elemente I 111 Vereinfachungen: (1) Solange m < L ist α m 0 und aus r m = r m 1 α m Ap m folgt zunächst Ap m span{r m 1, r m } und allgemein span{ap 1, Ap 2,..., Ap m 1 } span{r 0, r 1,..., r m 1 } (3.11) = span{p 1, p 2,..., p m }. Da aber r m span{p 1,..., p m } nach (3.7) folgt hieraus r m A span{p 1,..., p m 1 } sodass Zeile 8 sich vereinfacht zu p m+1 r m (r m, p m ) A (p m, p m ) A p m =: r m + β m+1 p m. (3.12) (2) Aus p m = r m 1 + β m p m 1 folgt wegen r m 1 p m 1 für Zeile 5 α m = (r m 1, p m ) (p m, p m ) A = (r m 1, r m 1 ) (p m, p m ) A. (3.13)

23 Finite Elemente I 112 (3) Aus r m = r m 1 α m Ap m folgt (r m, r m ) = α m (r m, Ap m ) = α m (r m, p m ) A und daher wegen (3.13) für (3.12) β m+1 = (r m, p m ) A (p m, p m ) A = (r m, r m ) α m (p m, p m ) A = (r m, r m ) (r m 1, r m 1 ).

24 Finite Elemente I 113 Mit diesen Vereinfachungen erhalten wir die endgültige Formulierung des CG-Verfahrens: Algorithmus 4 : CG-Verfahren Gegeben : A spd, b Bestimme Startnäherung x 0, berechne r 0 b Ax 0 Setze m 0, p 1 r 0 while nicht konvergiert do m m + 1 α m (r m 1,r m 1 ) (p m,p m ) A x m x m 1 + α m p m r m r m 1 α m Ap m β m+1 (r m,r m ) (r m 1,r m 1 ) p m+1 r m + β m+1 p m

25 Finite Elemente I Eigenschaften des CG-Verfahrens Aufwand: Operationen pro Schritt: 1 Matrix-Vektor Produkt, 2 Innenprodukte, 3 Vektoraufdatierungen. Speicher: 4 Vektoren. Lemma 3.7 Für die Suchrichtungen des CG-Verfahrens gilt m 1 p m = r m 1 2 j=0 r j, m = 1, 2,..., L. (3.14) r j 2

26 Finite Elemente I 115 Satz 3.8 Beim CG-Verfahren gelten die Beziehungen (r m, p j ) = 0, 1 j m, 0 m L 1, (3.15) (r m, r j ) = 0, m j, 0 m, j L 1, (3.16) (r m, p j ) = r j 1 2, m + 1 j L, 0 m L 1, (3.17) (p m, p j ) A = 0, m j, 1 m, j L, (3.18) (p m, r m 1 ) A = p m 2 A, 1 m L, (3.19) (p m, r j ) A = 0, m + 1 j L 1, m = 1, 2..., L, (3.20) Lemma 3.9 Für die Residuen und Richtungsvektoren des CG-Verfahrens gelten (3.21) (p m, p j ) = r j 1 2 p m 2 r m 1 2, j m, (3.22) m 1 X p m 2 = r m β m p m 1 2 = r m 1 4 j=0 1 r j 2. (3.23)

27 Finite Elemente I 116 Lemma 3.10 Im m-ten Schritt des CG-Verfahrens gilt e m 1 2 A e m 2 A = α m r m 1 2 = p m 2 A p m 2 x m x m 1 2. (3.24) Für j < m gilt e j 2 A e m 2 A = α j+1 r j α m r m 1 2. (3.25) Die m-te Iterierte besitzt die Darstellung x m = x 0 + m α j p j = x 0 + j=1 m j=1 Satz 3.11 Im m-ten Schritt des CG-Verfahrens gilt e m 1 2 e m 2 = p m 2 p m 2 A e j 2 A e m 2 A r j 1 2 r j 1. (3.26) [ em 2 A + e m 1 2 ] A. (3.27) Insbesondere ist der CG-Fehler auch bezüglich der Norm monoton fallend.

28 Finite Elemente I 117 CG als Krylov-Unterraumverfahren Für A R n n und v R n heißt der Unterraum K m (A, v) := span{v, Av,..., A m 1 v} R n der m-te Krylov-Unterraum von A und v. Es ist Proposition 3.12 K m (A, v) = {p(a)v : p P m 1 }. 1. Die m-te CG-Iterierte liegt im affinen Unterraum x 0 + K m (A, r 0 ). 2. Für den Abbruchindex L des CG-Verfahrens gilt L = min { m : K m (A, r 0 ) = K m+1 (A, r 0 ) } = min { deg q : q monisch und q(a)r 0 = 0 }.

29 Finite Elemente I Konvergenz des CG-Verfahrens Die Rolle der Konditionszahl Bei einer n n-matrix A liefert das CG -Verfahren die Lösung von Ax = b nach L n Schritten (in exakter Arithmetik). In diesem Sinne konvergiert das CG-Verfahren immer gegen x = A 1 b. Gesucht sind hier obere Schranken für den Fehler x x m (m < L). Von entscheidender Bedeutung ist die Optimalitätseigenschaft x x m A = min p(a)(x x 0 ) A. p P m, p(0)=1 Sei Ω (0, ) eine kompakte Menge, welche die Eigenwerte von A enthält. Für jedes p m P m mit p m (0) = 1 gilt dann x x m A x x 0 A p m,ω := max λ Ω p m(λ).

30 Finite Elemente I 119 Alle echten Fehlerschranken für das CG-Verfahren basieren auf obiger (trivialer) Beobachtung: ausgehend von einer kompakten Obermenge Ω Λ(A) (typischerweise Ω = [λ min (A), λ max (A)]) versuchen wir, Polynome p m zu konstruieren mit p m (0) = 1, die auf Ω ein möglichst kleines Maximum haben. Dies führt auf natürliche Weise zu einer Aufgabe der polynomialen Bestapproximation: Bestimme p m P m, p m (0) = 1, sodass p m,ω = min p P m, p(0)=1 p,ω. Für Ω = Λ(A) ist die Abschätzung x x m A x x 0 A min p P m, p(0)=1 max p(λ) λ Λ(A) in folgendem Sinne scharf: Für jedes m existiert ein Startvektor x 0 = x 0 (m), sodass im m-ten Schritt Gleichheit gilt.

31 Finite Elemente I 120 Die Aufgabe, p m P m, p m (0) = 1, so zu bestimmen, dass p m,ω = min p P m, p(0)=1 p,ω ist lösbar für jedes m N 0 und jede kompakte Teilmenge Ω der komplexen Ebene. Die Lösung ist eindeutig, sofern Ω aus mindestens m Punkten besteht. Eine geschlossene Darstellung dieser Lösung existiert jedoch nur in Spezialfällen, etwa wenn Ω ein Intervall ist. Die Chebyshev-Polynome sind definiert durch T m (ξ) := cos(m arccos ξ) P m (ξ [ 1, 1], m = 0, 1,...) (3.28) Sie genügen der dreistufigen Rekursion T m (ξ) = 2ξ T m 1 (ξ) T m 2 (ξ) (m = 2, 3,...) mit T 0 (ξ) = 1 and T 1 (ξ) = ξ. Hieran erkennt man, dass T m tatsächlich ein Polynom vom Grad (exakt) m ist.

32 Finite Elemente I Graphen von T 0, T 1,... T 5 auf [ 1, 1].

33 Finite Elemente I 122 T m besitzt die m einfachen Nullstellen, ξ (m) k = cos((2k + 1)π/(2m)), k = 0,..., m 1, welche sämtlich in ( 1, 1) liegen. Es ist T m (ξ) 1 für alle ξ [ 1, 1]. Gleichheit gilt für η (m) k := cos(kπ/m), k = 0,..., m, genauer gesagt: T m (η (m) k ) = ( 1) k. Als nächstes transformieren wir die Polynome T m auf ein beliebiges reelles Intervall [δ γ, δ + γ] (0, + ), d.h., 0 < γ < δ. λ l(λ) := (λ δ)/γ ist eine Bijektion von [δ γ, δ + γ] auf [ 1, 1]. Die Umkehrabbildung ist ξ l 1 (ξ) = δ + ξγ. Wegen δ/γ < 1 gilt T m ( δ/γ) 0 und p m (λ) := T m(l(λ)) T m (l(0)) = T m((λ δ)/γ) T m ( δ/γ) (m = 0, 1,...) (3.29) ist somit eine Folge von Residualpolynomen, d.h., p m (0) = 1.

34 Finite Elemente I p 0 p 0 p 1 p p p 2 p 3 p 3 p 4 p p p Graphen von p 0, p 1,... p 5 auf [0, 2] bzw. auf [δ γ, δ + γ] = [1, 2].

35 Finite Elemente I 124 Lemma 3.13 Sei Ω := [δ γ, δ + γ] (0, ). Für die Polynome p m aus (3.29) gilt p m,ω = min p,ω. p P m, p(0)=1 Es verbleibt die Bestimmung von T m ( δ/γ). Hierzu setzen wir Es ist 0 < θ < 1 und θ := δ δ 2 γ 2 γ. max λ Ω p m(λ) = 1 T m ( δ/γ) = 2 θm 1 + θ 2m 2 θm (m = 0, 1,...).

36 Finite Elemente I 125 Satz 3.14 (Fehlerschranke für CG) Für die Näherungen des CG-Verfahrens gilt die Fehlerabschätzung ( κ+1 ) m κ 1 x x m A x x 0 A 1 T m ( κ+1 κ 1 ) = ( κ+1 κ 1 ) 2m 2 ( κ + 1 κ 1 ) m. Hierbei bezeichnet κ = cond 2 (A) = λ max (A)/λ min (A) die Konditionszahl von A bezüglich der Euklid-Norm. Diese Schranke ist (nahezu) scharf in folgendem Sinne: es gibt lineare Gleichungssysteme Ax = b (mit A R n n ) sowie cond 2 (A) = κ und Startnäherungen x 0 sodass x x n 1 A x x 0 A = 1 T n 1 ((κ + 1)/(κ 1)) (Setze A = diag( η 1,..., η n ) mit η j die Extremalstellen des transformierten Chebyshev-Polynoms p n 1.)

37 Finite Elemente I 126 Abbruchbedingung Typische Abbruchbedingung: iteriere bis e m A / e 0 A ɛ mit vorgegebener Toleranz ɛ > 0. Ausgehend von Satz 3.14 ist dies spätestens der Fall, wenn ( ) m ( κ 1 ɛ 2 = 2 1 2/ ) m κ κ /. κ Logarithmieren und die Approximation log(1 + x) x für x klein führt auf die Bedingung m 1 log ɛ κ. 2 2 Beispiel: Poisson-Gleichung, uniformes Gitter, bilineare FE. Hier gilt κ(a) = O(h 2 ). Dies bedeutet: bei Halbierung der Gitterweite verdoppelt sich die Anzahl Iterationen.

38 Finite Elemente I 127 Wir betrachten folgendes Beispiel: die symmetrische Matrix A = A(τ) definiert durch 1 falls i = j, a i,j = X i,j falls i j und X i,j τ, 0 sonst. wobei X i,j auf [0, 1] gleichverteilte Zufallsvariable bezeichnet. Man beachte: mit wachsendem τ nimmt die Anzahl von Null verschiedener Einträge in A ebenso zu wie die Konditionszahl. Für τ = 0.2 ist λ min (A) < 0, A also nicht mehr positiv definit. Wir erhalten so: τ nnz(a) λ min (A) λ max (A) cond 2 (A) θ 0.01 (schwarz) (magenta) (blau) (cyan)

39 Finite Elemente I 128 Wir wählen b = [1, 1,..., 1], x 0 Verfahrens durch. = 0 und führen 20 Schritte des CG x x m 2 x x m A

40 Finite Elemente I 129 Beobachtungen: Divergenz im Fall τ = 0.2. Im Fall τ = 0.1 wird der Fehler nach 20 Schritten nur auf 10 5 reduziert, bei den übrigen Beispielen mit kleineren Konditionszahlen beobachten wir rasche Konvergenz. Für τ = 0.01 erreicht der Fehler nach 9 Schritten den Bereich der Maschinengenauigkeit. In diesem Fall löst das CG-Verfahren Ax = b in etwa Flops und ist damit um den Faktor 700 schneller als die Cholesky-Zerlegung.

41 Finite Elemente I r m 2, mit r m = b Ax m r m 2, mit r m = r m 1 α m Ap m In der Praxis ist der Fehler nicht verfügbar und Abbruchkriterien basieren oft auf dem Residuum r m. In exakter Arithmetik ist es einerlei, ob wir r m = b Ax m oder die rekursive Formel aus dem Algorithmus auswerten, wobei die erste Variante eine weitere Matrix-Vekto- Multiplikation erfordert. In Gleitpunktrechnung kann der Unterschied allerdings dramatisch sein.

42 Finite Elemente I 131 Die obere Schranke aus Satz 3.14 ist in vielerlei Hinsicht unbefriedigend: Sie spiegelt nicht den Einfluß von r 0 (also b und x 0 ) wider. Sie hängt nur von den Extremaleigenwerten ab; die Verteilung der Eigenwerte innerhalb des Intervalls [λ min (A), λ max (A)] bleibt unberücksichtigt. In vielen für die Praxis relevanten Fällen ist die schranke aus Satz 3.14 viel zu pessimistisch. In vielen Fällen wird bei CG ein superlineares Konvergenzverhalten beobachtet. Dies ist erst vor kurzem nathematisch zufriedenstellend erklärt worden.

43 Finite Elemente I Vorkonditionierung Idee: Falls CG für gegebenes LGS zu langsam konvergiert, löse stattdessen ein äquivalentes, für das CG schneller konvergiert. Ein solches ist gegeben durch M 1 Ax = M 1 b, M geeignete spd Matrix. Die resultierenden Modifikationen des Algorithmus erhöhen den Aufwand um Die Lösung eines LGS mit der Matrix M in jedem Schritt, Die Speicherung eines weiteren Vektors z m, des vorkonditionierten Residuums.

44 Finite Elemente I 133 Algorithmus 5 : Vorkonditioniertes CG-Verfahren Gegeben : A spd, b, M spd Bestimme Startnäherung x 0, berechne r 0 b Ax 0 Löse Mz 0 = r 0 Setze m 0, p 1 z 0 while nicht konvergiert do m m + 1 α m (r m 1,z m 1 ) (p m,p m ) A x m x m 1 + α m p m r m r m 1 α m Ap m Löse Mz m = r m β m+1 (r m,z m ) (r m 1,z m 1 ) p m+1 z m + β m+1 p m

45 Finite Elemente I 134 Obwohl unverzichtbar in der Praxis ändert die Berücksichtigung von Vorkonditionierung wenig für die Konvergenzanalyse: es müssen lediglich folgende Ersetzungen vorgenommen werden: A M 1 A, b M 1 b, (x, y) (x, y) M := (Mx, y). Beachte: die M 1 A-Norm bezüglich (, ) M ist nichts als die A-Norm bezüglich (, ). Das vorkonditionierte CG-Verfahren minimiert also weiterhin die A-Norm der Fehlers.

46 Finite Elemente I Mehrgitterverfahren Grundidee: kombiniere Mehrere Schritte eines klassischen Relaxationsverfahren der Bauart (3.2): x x + B(b Ax) Glättung mit einem Schritt eines in gewisser Weise komplementären Verfahrens gleicher Bauart x x + C (b Ax) auch Unterraumkorrektur genannt. Grobgitterkorrektur, Vorteil: Bei vielen aus der Diskretisierung elliptischer RWA resultierenden LGS sind Mehrgitterverfahren optimal in dem Sinn, dass sie zur Lösung eines LGS der Dimension n nur O(n) Operationen erfordern. 3.3 Mehrgitterverfahren TU Bergakademie Freiberg, SoS 2007

47 Finite Elemente I 136 Ein Schritt eines solchen Verfahrens bestehend aus einer Grobgitterkorrektur (GGK) gefolgt von s Glättungsschritten ausgehend von der Näherung x m führt auf x m+1 = x m + [I (I BA) s (I CA)]A 1 (b Ax ), x x m+1 = (I BA) s (I CA)(x x m ). (3.30a) (3.30b) Normen: zu gegebenem Innenprodukt (, ) auf R n, A zum A-Innenprodukt (, ) A. Es gilt: x A = A 1/2 x für alle x R n, X A = A 1/2 XA 1/2 für alle X R n n. 3.3 Mehrgitterverfahren TU Bergakademie Freiberg, SoS 2007

48 Finite Elemente I 137 Fehler in der A-Norm: Kontraktionszahl: x x m A (I BA) s (I CA) A x x m 1 A κ := (I BA) s (I CA) A = (I A 1/2 BA 1/2 ) s (I A 1/2 CA 1/2 ) Entscheidend für die Konvergenzanalyse von Mehrgitterverfahren (MGV) ist nicht die naheliegende Abschätzung sondern κ I A 1/2 BA 1/2 s I A 1/2 CA 1/2 κ max { (I A 1/2 BA 1/2 ) s y : y R(I A 1/2 CA 1/2 ), y = I A 1/2 CA 1/2 }. (3.31) 3.3 Mehrgitterverfahren TU Bergakademie Freiberg, SoS 2007

49 Finite Elemente I 138 Gestalt der GGK-Matrix: Sei A R N N sowie n N, n < N, I N n R N n beliebig, I n N := ( I N n ) R n N, A n := I n N AI N n R n n. Dann definieren wir unter der Annahme, dass In N A n invertierbar ist, die Matrix der GGK als so gewählt wurde, dass C := I N n A 1 n I n N (3.32) Satz 3.15 Für die durch (3.32) definierte Matrix C gilt A 1/2 R(I A 1/2 CA 1/2 ) N (I n N) (3.33) sowie I A 1/2 CA 1/2 = 1. (3.34) 3.3 Mehrgitterverfahren TU Bergakademie Freiberg, SoS 2007

50 Finite Elemente I 139 Anwendung von Satz 3.15 auf (3.31) ergibt { } κ max (I A 1/2 BA 1/2 ) s y : y = 1, A 1/2 y N (IN n ) { } = max (I A 1/2 BA 1/2 ) s y : y = 1, y A 1/2 R(In N ) Fazit: Ziel ist es also, I N n so zu wählen, dass κ möglichst klein wird. Bemerkung 3.16 I A 1/2 CA 1/2 ist die A-orthogonale Projektion nach N (CA 1/2 ). 3.3 Mehrgitterverfahren TU Bergakademie Freiberg, SoS 2007

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische lineare Iterationsverfahren

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische lineare Iterationsverfahren III. Iterative Löser III.1 Direkte Löser und ihre Nachteile III.2 Klassische lineare Iterationsverfahren Typeset by FoilTEX 1 Erinnerung: Lineares Gleichungssystem bei FDM Diskretisierung einer linearen

Mehr

Begleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme

Begleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme Begleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik 1

Mehr

KAPITEL 1. Einleitung

KAPITEL 1. Einleitung KAPITEL 1 Einleitung Wir beschäftigen uns in dieser Vorlesung mit Verfahren aus der Numerischen linearen Algebra und insbesondere dem sogenannten Mehrgitterverfahren zur Lösung linearer Gleichungssysteme

Mehr

Begleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme

Begleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme Begleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik 1

Mehr

Iterative Lösung Linearer Gleichungssysteme

Iterative Lösung Linearer Gleichungssysteme Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:

Mehr

3. Lineare Gleichungssysteme

3. Lineare Gleichungssysteme 3. Lineare Gleichungssysteme 1 3.1. Problemstellung 2 3.2. Direkte Verfahren 3 3.3. Normen und Fehleranalyse 4 3.4. Iterative Verfahren 5 3.5. Konvergenz von linearen Iterationsverfahren 6 3.6. Gradienten-Verfahren

Mehr

Symmetrische Gleichungssysteme Das Verfahren konjugierter Gradienten

Symmetrische Gleichungssysteme Das Verfahren konjugierter Gradienten Symmetrische Gleichungssysteme Das Verfahren konjugierter Gradienten 1 / 20 Lineares Gleichungssystem Ax = f, n A[i, j]x j = f i j=1 für i = 1,..., n Voraussetzungen Matrix A sei symmetrisch: A[i, j] =

Mehr

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren 2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;

Mehr

Lineare Iterationsverfahren: Definitionen

Lineare Iterationsverfahren: Definitionen Lineare Iterationsverfahren: Definitionen 1. Ein Lösungsverfahren zur Berechnung von Ax = b heißt iterativ, falls ausgehend von einem Startwert x eine Folge x k von Iterierten bestimmt wird. 2. Ein Iterationsverfahren

Mehr

5.3.5 Abstiegs & Gradientenverfahren

5.3.5 Abstiegs & Gradientenverfahren 5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3.5 Abstiegs & Gradientenverfahren Die bisher kennengelernten Iterationsverfahren zur Approximation von linearen Gleichungssystemen haben

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 4. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 17. März 2016 Lineare Gleichungssysteme 1 Wiederholung: Normen, Jacobi-Matrix,

Mehr

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische Iterationsverfahren. III.3 GMRES und CG-Verfahren

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische Iterationsverfahren. III.3 GMRES und CG-Verfahren III. Iterative Löser III.1 Direkte Löser und ihre Nachteile III.2 Klassische Iterationsverfahren III.3 GMRES und CG-Verfahren Kapitel III (0) 1 Erinnerung: Lineares Gleichungssystem bei FDM Diskretisierung

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 11 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 2010 Prof. Dr. Klaus Höllig

Mehr

7. Iterative Lösung. linearer Gleichungssysteme

7. Iterative Lösung. linearer Gleichungssysteme 7. Iterative Lösung linearer Gleichungssysteme 1 Grundlagen (1) Zur Erinnerung: Gesucht ist die Lösung eines linearen Gleichungssystems a 0,0 x 0 +a 0,1 x 1 + a 0,n 1 x n 1 = b 0 a 1,0 x 0 +a 1,1 x 1 +

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der

Mehr

A 1 x = b, A 1 R m m, m := (n 1) 2, nh = 1, T I I T I. A 1 = 1 h 2 I T. T R (n 1) (n 1) und I ist die (n 1) (n 1)-Identitätsmatrix.

A 1 x = b, A 1 R m m, m := (n 1) 2, nh = 1, T I I T I. A 1 = 1 h 2 I T. T R (n 1) (n 1) und I ist die (n 1) (n 1)-Identitätsmatrix. KAPITEL 13. Große dünnbesetzte LGS, iterative Löser Erstes Beispielproblem: die diskretisierte Poisson-Gleichung wobei A 1 x = b, A 1 R m m, m := (n 1) 2, nh = 1, A 1 = 1 h 2 T I I T I......... I T I I

Mehr

Iterative Methoden zur Lösung von linearen Gleichungssystemen

Iterative Methoden zur Lösung von linearen Gleichungssystemen Iterative Methoden zur Lösung von linearen Gleichungssystemen (13.12.2011) Ziel Können wir wir die zeitabhängige Schrödinger-Gleichung lösen? φ(t) = e iht ψ(0) Typischerweise sind die Matrizen, die das

Mehr

38 Iterative Verfahren für lineare Gleichungssysteme

38 Iterative Verfahren für lineare Gleichungssysteme 38 Iterative Verfahren für lineare Gleichungssysteme 38.1 Motivation Viele praktische Probleme führen auf sehr große lineare Gleichungssysteme, bei denen die Systemmatrix dünn besetzt ist, d. h. nur wenige

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

4 Iterative Lösung Linearer Gleichungssysteme 4.1 Fixpunktiteration und Konvergenzsätze.

4 Iterative Lösung Linearer Gleichungssysteme 4.1 Fixpunktiteration und Konvergenzsätze. 4 Iterative Lösung Linearer Gleichungssysteme 4.1 Fixpunktiteration und Konvergenzsätze. Wir betrachten das lineare Gleichungssystem der Form Ax = b; (4.1.1) mit A R n n reguläre Matrix und b R n gegeben,

Mehr

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.

Mehr

Iterative Verfahren zur Lösung von Linearen Gleichungssystemen

Iterative Verfahren zur Lösung von Linearen Gleichungssystemen Kapitel 4 Iterative Verfahren zur Lösung von Linearen Gleichungssystemen Situation: A C n n schwach besetzt, n groß, b C n. Ziel: Bestimme x C n mit Ax = b. 4.1 Spliting-Methoden Die Grundidee ist hier

Mehr

Diplom VP Numerik 27. August 2007

Diplom VP Numerik 27. August 2007 Diplom VP Numerik 27. August 2007 Multiple-Choice-Test 30 Punkte Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine einzige Aussage angekreuzt, gilt diese

Mehr

8 Iterationsverfahren zur Lösung von Gleichungen

8 Iterationsverfahren zur Lösung von Gleichungen Numerik 396 8 Iterationsverfahren zur Lösung von Gleichungen Nichtlineare Gleichungssysteme (sogar eine nichtlineare Gleichung in einer Unbekannten) müssen fast immer iterativ gelöst werden (vgl. Kapitel

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme 2 Lineare Gleichungssysteme Wir betrachten das lineare Gleichungssystem Ax = b mit der n n-koeffizientenmatrix A und der rechten Seite b R n. Wir leiten zuerst eine Variante des Gauss-Algorithmus (LR-Zerlegung)

Mehr

Musterlösung. Aufgaben zu Iterative Lösung Linearer Gleichungssysteme. Vordiplomskurs Numerische Methoden Sommer 2008

Musterlösung. Aufgaben zu Iterative Lösung Linearer Gleichungssysteme. Vordiplomskurs Numerische Methoden Sommer 2008 Musterlösung Aufgaben zu Iterative Lösung Linearer Gleichungssysteme Vordiplomskurs Numerische Methoden Sommer 8. Betrachte das Gleichungssystem Ax b mit ( ( 3 A, b. 6 8 a Konvergiert das Jacobi Verfahren

Mehr

Das CG-Verfahren. Sven Wetterauer

Das CG-Verfahren. Sven Wetterauer Das CG-Verfahren Sven Wetterauer 06.07.2010 1 Inhaltsverzeichnis 1 Einführung 3 2 Die quadratische Form 3 3 Methode des steilsten Abstiegs 4 4 Methode der Konjugierten Richtungen 6 4.1 Gram-Schmidt-Konjugation.........................

Mehr

8 Iterationsverfahren zur Lösung von Gleichungssystemen

8 Iterationsverfahren zur Lösung von Gleichungssystemen Numerische Mathematik 378 8 Iterationsverfahren zur Lösung von Gleichungssystemen Nichtlineare Gleichungssysteme (sogar eine nichtlineare Gleichung in einer Unbekannten) müssen fast immer iterativ gelöst

Mehr

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x) 9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten

Mehr

Ausgleichsproblem. Definition (1.0.3)

Ausgleichsproblem. Definition (1.0.3) Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst

Mehr

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b.

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b. NumaMB F14 Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Bewertung: Vier Fragen richtig beantwortet

Mehr

Numerische Mathematik für Ingenieure (SoSe 2013)

Numerische Mathematik für Ingenieure (SoSe 2013) Numerische Mathematik für Ingenieure (SoSe 2013) PD Dr(USA) Maria Charina Auszüge aus Vorlesungsfolien von Prof Joachim Stöckler werden verwendet Für die Bereitstellung dieses Materials und der Tex-Files

Mehr

3 Numerische Behandlung der Tschebyscheff-Approximation

3 Numerische Behandlung der Tschebyscheff-Approximation Approximationstheorie 81 3 Numerische Behandlung der Tschebyscheff-Approximation Die Bestapproximation bezüglich einer Funktion f C(K) aus einem Haarschen Unterraum V C(K) läßt sich i.a. nicht in geschlossener

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung

Mehr

Diplom VP Numerik 28. August 2006

Diplom VP Numerik 28. August 2006 Diplom VP Numerik 8. August 6 Multiple-Choice-Test Punkte) Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine einzige Aussage angekreuzt, gilt diese Aufgabe

Mehr

Numerik II. Roland Pulch

Numerik II. Roland Pulch Numerik II Roland Pulch Institut für Mathematik und Informatik Mathematisch-Naturwissenschaftliche Fakultät Ernst-Moritz-Arndt-Universität Greifswald Skript zu Iterativer Lösung linearer Gleichungssysteme

Mehr

Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf

Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf Praktikum im Sommersemester 2012 Programmierpraktikum numerische Algorithmen (P2E1) (Numerische Lösung der Wärmeleitungsgleichung)

Mehr

Musterlösungen zur Leistungsnachweisklausur vom Studiengang Informatik, Ingenieurinformatik, Lehramt

Musterlösungen zur Leistungsnachweisklausur vom Studiengang Informatik, Ingenieurinformatik, Lehramt TU ILMENAU Institut für Mathematik Numerische Mathematik PD Dr. W. Neundorf Musterlösungen zur Leistungsnachweisklausur vom.0.006 Studiengang Informatik, Ingenieurinformatik, Lehramt 1. Lineare Algebra

Mehr

Iterative Löser: Einführung

Iterative Löser: Einführung Iterative Löser: Einführung Im vergangenen Semester wurden folgende Löser für LGS betrachtet: LU-Zerlegung (mit und ohne Pivotisierung) QR-Zerlegung (Householder und Givens) Lösung beliebiger, regulärer,

Mehr

Finite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015

Finite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015 Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 5 Aufgabe 8 (Speichertechniken) Finite Elemente Übung 5 a) Stellen Sie die Matrix

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 21 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,,255}, n = 1,,N, m = 1,,M dig Camera Realisierung von B η ist

Mehr

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

51 Numerische Berechnung von Eigenwerten und Eigenvektoren 5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,

Mehr

Lanczos Methoden. Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann. 15.

Lanczos Methoden. Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann. 15. Lanczos Methoden Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann 15. Juni 2005 Lanczos-Methoden Lanczos-Methoden sind iterative Verfahren zur

Mehr

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009 Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx

Mehr

Finite Elemente Methoden (aus der Sicht des Mathematikers)

Finite Elemente Methoden (aus der Sicht des Mathematikers) Finite Elemente Methoden (aus der Sicht des Mathematikers) Alfred Schmidt Übersicht: Partielle Differentialgleichungen, Approximation der Lösung, Finite Elemente, lineare und höhere Ansatzfunktionen, Dünn

Mehr

KAPITEL 7. Berechnung von Eigenwerten. Av = λv

KAPITEL 7. Berechnung von Eigenwerten. Av = λv KAPITEL 7. Berechnung von Eigenwerten Aufgabe: Sei A R n n eine reelle quadratische Matrix. Gesucht λ C und v C n, v 0, die der Eigenwertgleichung Av = λv genügen. Die Zahl λ heißt Eigenwert und der Vektor

Mehr

Lineares Gleichungssystem

Lineares Gleichungssystem Lineares Gleichungssystem Ein System von m linearen Gleichungen in n Unbekannten besteht aus einer Menge von algebraischen Relationen der Form n a ij x j = b i, i =,...,m, j= wobei a ij R, i m, j n, die

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

Iterative Verfahren für lineare Gleichungssysteme

Iterative Verfahren für lineare Gleichungssysteme Iterative Verfahren für lineare Gleichungssysteme Vorlesung Sommersemester 013 Humboldt-Universität zu Berlin Zeiten können noch nach Wunsch vereinbart werden! Kontakt: Dr. Rüdiger Müller Weierstraß-Institut

Mehr

Nichtlineare Ausgleichsrechnung

Nichtlineare Ausgleichsrechnung 10. Großübung Nichtlineare Ausgleichsrechnung Allgemeines Problem: Wir betrachten ein nichtlineares System F : R n R m mit (m > n, d.h. das System ist überbestimmt und F i (x g(t i ; x g i! 0 i 1,.., m.

Mehr

Kapitel 6. Iterationsverfahren für lineare Gleichungssysteme

Kapitel 6. Iterationsverfahren für lineare Gleichungssysteme Kapitel 6 Iterationsverfahren für lineare Gleichungssysteme Falls n sehr groß ist und falls die Matrix A dünn besetzt ist (sparse), dann wählt man zur Lösung von Ax = b im Allgemeinen iterative Verfahren.

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen IGPM RWTH Aachen Institut für Geometrie und Praktische Mathematik Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen

Mehr

Lösungen zu Blatt 13 der Übungen zur Vorlesung Numerik, LMU München, Wintersemester 2016/2017

Lösungen zu Blatt 13 der Übungen zur Vorlesung Numerik, LMU München, Wintersemester 2016/2017 Lösungen zu Blatt 13 der Übungen zur Vorlesung Numerik, LMU München, Wintersemester 01/017 Peter Philip, Sabine Bögli. Januar 017 1. 10 Punkte) a) Betrachten Sie R mit der Maximumsnorm. Berechnen Sie die

Mehr

Modulprüfung Numerische Mathematik 1

Modulprüfung Numerische Mathematik 1 Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Mathematik I für Biologen, Geowissenschaftler und Geoökologen 5. Dezember 2007 Definition : Tomographie (Fortsetzung) : Tomographie Definition: Ein lineares Gleichungssystem (LGS) ist ein System von n

Mehr

Lösung der Diplom-Vorprüfung Höhere Mathematik III/IV 6.8.005 1 Aufgabe N1 Gegeben seien A = 5-10 -5-10 8-10 -5-10 13 R 3 3 und b = a) Überprüfen Sie, ob die Matrix A positiv definit ist. b) Bestimmen

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme Vorlesungsskript HM-Numerik (SS 4): Kapitel Version: 9 Mai 4 Lineare Gleichungssysteme Gegeben: A R n n mit det(a) b R n Gesucht: x R n mit Ax = b Zeilenäquilibrierung Möchten zunächst die Kondition des

Mehr

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012)

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Technische Universität München Zentrum Mathematik, M1 Prof. Dr. Boris Vexler Dr. Ira Neitzel Dipl.-Math. Alana Kirchner 7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Diese Auswahl

Mehr

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

D-MAVT NUMERISCHE MATHEMATIK FS 14 K. Nipp, A. Hiltebrand Lösung vom Test 2

D-MAVT NUMERISCHE MATHEMATIK FS 14 K. Nipp, A. Hiltebrand Lösung vom Test 2 D-MAVT NUMERISCHE MATHEMATIK FS 4 K Nipp, A Hiltebrand Lösung vom Test Sei A ( 3 3 ) a) Bestimmen Sie κ(a), die Kondition von A (in der -Norm): κ(a) b) Berechnen Sie den Spektralradius von A: ρ(a) 4 c)

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Einführung in die numerische Mathematik

Einführung in die numerische Mathematik Prof. Dr. M. Günther K. Gausling, M.Sc. C. Hendricks, M.Sc. Sommersemester 4 Bergische Universität Wuppertal Fachbereich C Mathematik und Naturwissenschaften Angewandte Mathematik / Numerische Analysis

Mehr

Nichtlineare Gleichungen

Nichtlineare Gleichungen Nichtlineare Gleichungen Ein wichtiges Problem in der Praxis ist die Bestimmung einer Lösung ξ der Gleichung f(x) =, () d.h. das Aufsuchen einer Nullstelle ξ einer (nicht notwendig linearen) Funktion f.

Mehr

4.6 Berechnung von Eigenwerten

4.6 Berechnung von Eigenwerten 4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.

Mehr

4. Großübung. Lösung linearer Gleichungssysteme

4. Großübung. Lösung linearer Gleichungssysteme 4. Großübung Lösung linearer Gleichungssysteme Gesucht x, x, x 3, x 4 R, sodass gilt. mit A R 4 4, x R 4, b R 4 x x + 3x 3 + x 4 = 5 6x 3x 7x x 4 = 5 4x + 4x + 5x 3 5x 4 = 3 8x + x + x 3 + x 4 = 8 3 x

Mehr

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2. MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

Lösbarkeit linearer Gleichungssysteme

Lösbarkeit linearer Gleichungssysteme Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Erweiterungen der LR-Zerlegung

Erweiterungen der LR-Zerlegung Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen

Mehr

NICHTRESTRINGIERTE OPTIMIERUNG

NICHTRESTRINGIERTE OPTIMIERUNG 3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Lineare Algebra. 10. Übungsstunde. Steven Battilana.

Lineare Algebra. 10. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,

Mehr

Lineare Algebra und Geometrie II, Übungen

Lineare Algebra und Geometrie II, Übungen Lineare Algebra und Geometrie II, Übungen Gruppe (9 9 45 ) Sei A 2 Bestimmen Sie A und A Finden Sie weiters Vektoren u, v R 2 mit u und Au A, beziehungsweise v und Av A Zunächst die Berechnung der Norm

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen (für Informatiker) M. Grepl J. Berger & J.T. Frings Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2010/11 Problemstellung Lineare Gleichungssysteme, iterative Verfahren geg.:

Mehr

Übungsblatt

Übungsblatt Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Oliver Ernst Professur Numerische Mathematik Wintersemester 2015/16 Inhalt I 1 Einleitung 1.1 Lineare Gleichungssysteme 1.2 Matrixfunktionen 1.3 Modellreduktion 1.4 Eigenwertaufgaben

Mehr

Glättung durch iterative Verfahren

Glättung durch iterative Verfahren Numerische Methoden in der Finanzmathematik II Sommersemester 211 Glättung durch iterative Verfahren Vorlesung Numerische Methoden in der Finanzmathematik II Sommersemester 211 Numerische Methoden in der

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei

Mehr

Diplom VP Informatik / Numerik 2. September 2002

Diplom VP Informatik / Numerik 2. September 2002 Diplom VP Informatik / Numerik. September 00 Aufgabe Gegeben sei das lineare Gleichungssystem A x = b mit 0 4 0 0 0 0 A = 4 0 0 0 0 0 0 0 0 und b = 4 4 8 5. Punkte a Berechnen Sie die Cholesky Zerlegung

Mehr

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW Lineare Gleichungssysteme Lösen Sie folgende Gleichungssysteme über R: a) x + x + x = 6x + x + x = 4 x x x = x 7x x = 7 x x = b) x + x 4x + x 4 = 9 x + 9x x x

Mehr

9 Lineare Gleichungssysteme

9 Lineare Gleichungssysteme 9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik 4 Punkte Es gibt zu jeder der Aufgaben vier Teilaufgaben. Diese sind mit bzw. zu kennzeichnen hinschreiben. Es müssen

Mehr

7. Iterative Lösung. linearer Gleichungssysteme

7. Iterative Lösung. linearer Gleichungssysteme 7. Iterative Lösung linearer Gleichungssysteme 1 Grundlagen und Wiederholung (1) Die Grundlagen decken sich mit dem Stoff, der einen Teil des Kapitels 2 - Numerik ausmacht und bereits in Mathematik behandelt

Mehr

Näherungsverfahren zur Bestimmung der Nullstelle α sind iterativ, d.h. sie liefern eine Folge {x (k) } k=0 mit α = lim x (k). (3.0.

Näherungsverfahren zur Bestimmung der Nullstelle α sind iterativ, d.h. sie liefern eine Folge {x (k) } k=0 mit α = lim x (k). (3.0. 3 Nullstellenbestimmung von Funktionen Sei x f(x) eine reellwertige Funktion, definiert auf einem Intervall I = [a, b] R. suchen Nullstellen der Funktion f, d.h. Wir finde α R so, das f(α) = 0. (3.0.1)

Mehr

Finite Elemente I Konvergenzaussagen

Finite Elemente I Konvergenzaussagen Finite Elemente I 195 5 onvergenzaussagen 5 onvergenzaussagen TU Bergakademie Freiberg, SoS 2006 Finite Elemente I 196 5.1 Interpolation in Sobolev-Räumen Wesentlicher Baustein der FE-onvergenzanalyse

Mehr

Gruppe II Lineare Algebra

Gruppe II Lineare Algebra Pflichtbereichs Klausur in der Lehrerweiterbildung am 7.Juni 22 Bearbeiten Sie 3 der folgenden 6 Aufgaben, dabei aus jeder der beiden Gruppen (Lineare Algebra und Analysis) mindestens eine Aufgabe! Zur

Mehr

Begleitmaterial zur Vorlesung Numerik II

Begleitmaterial zur Vorlesung Numerik II Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: Lineare Algebra D-MATH, HS 04 Prof. Richard Pink Lösung zu Serie. [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: a) F (X) := X 5 X in R[X] und C[X]. b) F (X) := X 4 +X 3 +X in

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr