9 Lösung linearer Gleichungssysteme III: Iterative Methoden
|
|
- Ernst Maurer
- vor 7 Jahren
- Abrufe
Transkript
1 Numerik I. Version: Lösung linearer Gleichungssysteme III: Iterative Methoden Die Iterationsmethoden des vorherigen Kapitels werden normalerweise für nichtlineare Probleme verwendet, wobei es keine direkte Lösung (in endlich vielen Schritten) gibt. Manchmal sind diese Methoden auch für das lineare Gleichungssystem Ax = b ganz nützlich. Diese Verfahren konvergieren nur für eine ganz beschränkte Familie von Matrizen A, aber wenn das Verfahren konvergiert, dann ist die Konvergenz oft schnell, der Rechneraufwand relativ klein und die Programmierung einfach. Der Einfachheit halber nehmen wir an, dass A eine reguläre (quadratische) Matrix ist, folglich existiert eine eindeutige Lösung. Wir bringen Ax = b in die Form einer Fixpunktsgleichung durch Aufspaltung der Matrix A = B + (A B), wobei B eine schlau gewählte Matrix ist. Die Idee dieser Aufspaltung lautet: B wird der Hauptteil der Matrix, der schön (=leicht invertierbar) gewählt wird, und A B ist ihre Störung. Offenbar ist Ax = b zu äquivalent, oder einfach falls B invertierbar ist. Bx = (B A)x + b x = B 1[ (B A)x + b ] = (I B 1 A)x + B 1 b, Der Algorithmus ist ganz einfach (fast wie die zweijähriges-kind-methode ): fangen Sie mit einem Startvektor x (0) an, erzeugen Sie die Folge := (I B 1 A)x (n 1) + B 1 b (9.1) und drücken die Daumen. Die Matrix (I B 1 A) heißt die Iterationsmatrix des Verfahrens. Warnung: In diesem Kapitel benutzen wir obere Indizes für die Iterationschritte, und die unteren Indizes werden die Koordinaten der Vektoren indizieren. Die Matrizen werden von der Größe k k sein und der Index n bleibt für die Iterationsschritte vorbehalten. Wie kann man die Konvergenz in (9.1) vorhersagen? Sei δ := x der Fehler nach der n-ten Iteration. Aus Ax = b und B = (B A)x (n 1) + b erhält man B(δ ) = (B A)(δx (n 1) )
2 Numerik I. Version: d.h. δ = (I B 1 A)(δx (n 1) ) = (I B 1 A) n (δx (0) ) wobei δx (0) Differenz des Startwertes von der Lösung ist. Somit gilt Die Konvergenz des Verfahrens folgt aus dem Limes δ (I B 1 A) n δx (0). (9.2) (I B 1 A) n 0, falls n und die Geschwindigkeit dieses Limes liefert eine Abschätzung für die Geschwindigkeit der Konvergenz. Satz 9.1 Sei H eine quadratische Matrix. Dann sind die folgenden Eigenschaften äquivalent i) r(h) < 1 (Spektralradius, siehe Definition 3.34). ii) Es gilt H n 0. iii) Es existiert eine Vektornorm, so dass für die zugehörige Matrixnorm gilt H < 1. Beweis. Wenn H diagonalisierbar ist, H = V DV 1, λ 1 D = λ 2, V regulär... λ k dann gilt H n = V D n V 1. i) = ii). Wenn r(h) < 1, d.h. max j λ j < 1, dann gilt D n = r(h) n 0, somit H n 0. ii) = i) Wenn r(h) 1 ist, dann existiert mindestens ein Eigenvektor v Hv = λv mit λ 1 und damit wird H n v = λ n v nicht gegen Null konvergieren. iii) = ii). Trivial, aufgrund H n H n 0. Die Implikation ii) = iii) wird hier nicht bewiesen, da wir sie nicht brauchen, aber siehe [Platos Buch: Theorem 9.12]
3 Numerik I. Version: Wenn H nicht diagonalisierbar ist, betrachtet man die Jordan-Zerlegung, die immer existiert. Die obige Beweis funktioniert nicht nur für Diagonalmatrizen, sondern auch für jeden Jordan-Block (Aufgabe: Nachdenken!). λ 1 λ 1 J = λ 1 λ Als ein Korollar erhalten wir den folgenden Satz: Satz 9.2 Seien A, B reguläre k k Matrizen. Dann konvergiert die Iteration B = (B A)x (n 1) + b für alle Startwerte x 0 gegen die (eindeutige) Lösung x von Ax = b genau dann, wenn der Spektralradius von I B 1 A (Maximalbetrag der Eigenwerte) kleiner als 1 ist: Konvergenz r(i B 1 A) < 1 Im Fall der diagonalisierbaren Matrix I B 1 A ist die Konvergenzgeschwindigkeit exponentiell mit der Rate r := r(i B 1 A): x Kr n, (9.3) wobei die Konstante K vom Startwert x 0 abhängt. Für nichtdiagonalisierbare Matrizen ist die Abschätzung um einen Polynomfaktor schlechter: x Kn k r n (9.4) (aber für großes n ist dieser zusätzliche Faktor vernachlässigbar; die Funktion r n ist entscheidend). Beachten Sie, dass die Konvergenz von den Startwerten nicht mehr abhängt (im Gegensatz zum nichtlinearen Newton-Verfahren).
4 Numerik I. Version: Jacobi-Iterationsverfahren Die Kunst der Iterationsverfahren für Ax = b ist die gute Aufspaltung. Die einfachste ist die Jacobi-Aufspaltung einer quadratischen Matrix A = (a ij ) in Form A = L + D + R 0 a 11 a 21 0 a 22 A =: a 31 a a a k1 }... {{ a k,k 1 0 } } {{ a kk } =:L =:D 0 a 12 a a 1k 0 a a 2k.... ak 1,k 0 } {{ } =:R Diese unteren und oberen Dreiecksmatrizen L, R und die Diagonalmatrix D haben nichts mit der LR-Zerlegung (LU-factorization) oder mit der Diagonalisierung (A = V DV 1 ) zu tun. Sie sind einfach die Elemente der Matrix A unterhalb, oberhalb und auf der Diagonalen. Sei B := D und A B := L + R die Aufspaltung der Matrix A. Die Diagonalmatrix ist einfach zu invertieren, und man erhält die Formel oder koordinatenweise: = D 1 (L + R) x (n 1) + D 1 b (9.5) } {{ } I B 1 A i = 1 a ii ( bi j:j i a ij x (n 1) ) j (9.6) Die Summation ist für alle j ausgenommen j = i. Dieses Verfahren ist das Jacobi-Verfahren, auch Gesamtschrittverfahren genannt. Der Startvektor x (0) kann aus theoretischer Hinsicht völlig beliebig gewählt werden, da die Konvergenz davon nicht abhängt. Natürlich kann die Anzahl der Iterationsschritte, die notwendig sind, um eine geforderte Genauigkeit zu erreichen, durch eine gute Wahl des Startwertes reduziert werden. Außer wenn man einen besseren Hinweis hat, wählt man x (0) = 0. Wann konvergiert dieses Verfahren? Aufgrund des Satzes 9.2 muss man den Spektralradius von D 1 (L + R) berechnen, aber dies kann nicht so einfach sein. In den meistens Fällen funktioniert eher diese Relation umgekehrt: man benutzt die höheren Potenzen H n einer Matrix H, um den Spektralradius zu bestimmen. Der folgende Satz ist nicht optimal, aber er liefert eine sehr einfach überprüfbare (hinreichende aber nicht notwendige) Bedingung für die Konvergenz des Jacobi-Verfahrens. Satz 9.3 Sei A strikt diagonaldominant (Kapitel ). Dann ist das Jacobi-Verfahren konvergent. Die Konvergenzgeschwindigkeit ist durch (9.3) und (9.4) mit r := r(d 1 (L + R)) gegeben.
5 Numerik I. Version: Beweis. Die Iterationsmatrix ist a 0 12 a I B 1 A = D 1 a 21 (L + R) = a Strikte Diagonaldominanz bedeutet, dass insbesondere j:j i a ij a ii a 1k a 11 a 2k a 22 a k1 a kk... 0 < 1 für jedes 1 i n (9.7) A ist strikt diag.dom. D 1 (L + R) < 1 (Zeilensummennorm). (9.8) Dann folgen die Konvergenz und die Geschwindigkeit aus den Sätzen 9.1 (Teil (iii)= (i)) und 9.2. ( ) 1 2 Aufgabe 9.4 Sei A =. Zeigen Sie, dass A der Bedingung des Satzes 9.3 nicht 0 1 genügt, aber das Jacobi-Verfahren ist trotzdem konvergent. Aufgabe 9.5 Sei A eine quadratische Matrix so dass A t strikt diagonaldominant ist. Zeige, dass das Jacobi-Verfahren konvergent ist. Die Bedingung (9.7) scheint sehr einschränkend zu sein, insbesondere für große Matrizen. Trotzdem kann das Jacobi-Verfahren ganz nützlich sein für dünn besetzte Matrizen. Z.B. die Matrix B zur Lösung der zweiten Ableitungen bei der Splineinterpolation (4.50) ist strikt diagonaldominant. Die Matrix in (2.3) ist nicht strikt diagonaldominant, aber fast. Für tridiagonale Matrizen ist die Bedingung, dass das Diagonalelement größer als die zwei Elemente in den Nebendiagonalen ist, nicht so außergewöhnlich. Aufgabe 9.6 Lösen Sie ( ) ( ) x = zuerst mittels der Gauß-Elimination, dann mit dem Jacobi-Verfahren bis zwei Ziffern (Genauigkeit 10 2 ). Bestimme eine Abschätzung für die nötige Anzahl der Iterationsschritte, falls eine Genauigkeit 10 8 erfordert würde.
6 Numerik I. Version: Lösung: Die wahre Lösung ist x true = ( 1 2 ) (mittels Gauß, oder einfach nach scharf Anschauen ) ( ) 4 1 Die Matrix A = ist strikt diagonaldominant, also wird das Jacobi-Verfahren für 2 3 ( ) 0 beliebigen Startwert konvergieren. Sei x (0) = (ohne bessere Hinweise) und die Jacobi- 0 Formel (9.6) liefert 1 = 1 (6 1 x(n 1) 2 ) (9.9) 4 2 = 1 (8 2 x(n 1) 1 ). 3 (Sie sollten mit den Indizes SEHR VORSICHTIG sein!) Wir berechnen die Iteration bis auf drei Ziffern und streben nach der Stabilisierung der zweiten Ziffer Die nächste Iteration liefert x (1) 1 = 1 4 (6 1 0) = 3 2 = 1.5 x (1) 2 = 1 3 (8 2 0) = 8 3 = 2.33 Dann Dann Dann x (2) 1 = 1 4 ( ) = 5 6 = x (2) 2 = 1 3 ( ) = 5 3 = 1.66 x (3) 1 = 1 4 ( ) = = 1.08 x (3) 2 = 1 3 ( ) = 19 9 = 2.1 x (4) 1 = 1 19 ( ) = = 0.97 x (4) 2 = 1 13 ( ) = = 1.94 x (5) 1 = 1 ( ) = x (5) 2 = 1 ( ) = Dann x (6) 1 = 1 ( ) =
7 Numerik I. Version: x (6) 2 = 1 ( ) = und schließlich x (7) 1 = 1 ( ) = x (7) 2 = 1 ( ) = Da jetzt die Differenz zwischen aufeinanderfolgenden Elementen x (6) x (7) kleiner als 1% ist, beenden wir die Iteration. Diese nicht ganz strikte Daumenregel gilt fast immer bei den Verfahren, die exponentiell konvergent sind. Für die Abschätzung der Anzahl der Iterationsschritte bis zu einer Genauigkeit 10 8 müssen wir den größten Eigenwert von M := D 1 (L + R) = ( ) 1 ( ) 0 1 = 2 0 ( 0 ) 1/4 2/3 0 berechnen. Die Eigenwerte sind λ = ±1/ 6, also wird die Konvergenzgeschwindigkeit durch 1/ 6 bestimmt. Aufgrund der Abschätzung (9.3) sehen wir, dass der absolute Fehler bei jedem Schritt um einen Faktor 1/ 6 abnimmt: x true ( 1 6 ) n x (0) x true Hier ist der Startfehler x (0) x true in der Größenordnung O(1). Wir müssen also die Ungleichung 10 8 O(1) ( 1 ) n 6 lösen, d.h. n 8 ln 10/ ln(1/ 6) Die Faustregel ist 2-3 mehr Schritte dazu zuaddieren, da die Konstante K in (9.3) und der Startfehler nicht ganz genau berechnet wurden. Also man braucht etwa Schritte, um eine Genauigkeit 10 8 zu erreichen.
8 Numerik I. Version: Gauß-Seidel-Iterationsverfahren Viele andere iterative Methoden existieren, die auf verschiedenen Aufspaltungen der Matrix A beruhen. Das Gauß-Seidel-Verfahren (oder so genannte Einzelschrittverfahren) benutzt B = L + D, und der n-te Schritt der Iteration ist = (L + D) 1( b Rx (n 1)) oder = D 1( b L Rx (n 1)) (Aufgabe: Bitte nachprüfen, dass diese zwei Formeln äquivalent sind). In Koordinaten i = 1 ( i 1 bi a ij j a ii j=1 k j=i+1 a ij x (n 1) ) j (9.10) (Aufgabe: Bitte nachprüfen!). Beachten Sie, dass auf beiden Seiten erscheint, somit scheint die Gleichung implizit zu sein. Aber das ist nicht der Fall, wenn man die Koordinaten von in der Reihefolge 1, 2, 3... bestimmt: die Formel (9.10) für die Bestimmung von i benutzt nur die vorherigen Koordinaten von, nämlich 1, 2,..., i 1, die bei diesem Schritt schon zur Verfügung stehen. Diese Formel ist ganz ähnlich zur Formel des Jacobi-Verfahrens (9.5), aber in vielen Fällen funktioniert sie besser. Grob gesagt, das Jacobi-Verfahren behandelt A = L + D + R als die Störung seiner Diagonale D, das Gauß-Seidel-Verfahren betrachtet A als die Störung von L + D. Gauß-Seidel ist auch einfacher auf dem Rechner zu implementieren: Die Formel (9.10) erzeugt sukzessiv die neuen Updates der Koordinaten und es ist nur ein Vektor zu speichern. Vom dem theoretischen Standpunkt aus gilt das folgende Analogon des Satzes 9.3. Satz 9.7 Das Gauß-Seidel-Verfahren konvergiert für strikt diagonaldominante Matrizen. Die Konvergenzgeschwindigkeit ist durch (9.3) und (9.4) mit r := r((l + D) 1 R) gegeben. Beweisskizze. Der Hauptschritt ist der Beweis der Ungleichung (L + D) 1 R D 1 (L + R), dann folgt die Konvergenz aus (9.8) und aus den Sätzen 9.1 (Teil (iii)= (i)) und 9.2. Diese Ungleichung ist intuitiv klar: sehr grob gesagt, sie ist analog zu der arithmetischen Ungleichung R L + D L + R D für positive Zahlen. Der genaue Beweis befindet sich in [Plato: Theorem 10.24].
9 Numerik I. Version: Aufgabe 9.8 Betrachten Sie die obige Aufgabe ( ) ( ) x = und lösen Sie sie jetzt mit dem Gauß-Seidel-Verfahren bis zwei Ziffern (Genauigkeit 10 2 ). Bestimmen Sie eine Abschätzung für die nötige Anzahl der Iterationsschritte, falls eine Genauigkeit 10 8 gefordert würde. Lösung: Benutzen wir die Formel 1 = 1 (6 1 x(n 1) 2 ) 4 2 = 1 (8 2 x(n) 1 ) 3 Beachten Sie, die Abweichung von der Jacobi-Formel (9.9): in der zweiten Zeile befindet sich 1 statt x (n 1) 1! Die Iteration ist: Dann Dann x (1) 1 = 1 4 (6 1 0) = 3 2 = 1.5 x (1) 2 = 1 3 ( ) = 5 3 = 1.66 x (2) 1 = 1 4 ( ) = = 1.08 x (2) 2 = 1 13 ( ) = = 1.94 x (3) 1 = 1 ( ) = x (3) 2 = 1 ( ) = Dann x (4) 1 = 1 ( ) = x (4) 2 = 1 ( ) = und wir können die Iteration abbrechnen. Beachten Sie, dass die Iteration etwa zweimal schneller ist als beim Jacobi-Verfahren. Für die Abschätzung der Anzahl der Iterationsschritte bis eine Genauigkeit von 10 8 erreicht wird, müssen wir den größten Eigenwert von M = (L + D) 1 R = ( ) ( ) ( ) /4 = /6
10 Numerik I. Version: berechnen. Die Eigenwerte sind λ = 0, 1/6, also wird die Konvergenzgeschwindigkeit durch 1/6 bestimmt. Aufgrund der Abschätzung (9.3) sehen wir, dass der absolute Fehler bei jedem Schritt um einen Faktor 1/6 abnimmt: x true ( 1) n x (0) x true. 6 Hier ist der Startfehler x (0) x true von der Größenordnung O(1). Wir müssen also die Ungleichung 10 8 ( 1 6 lösen, d.h. n = 8 ln 10/ ln(1/6) = Nach der Faustregel brauchen wir etwa Schritte. Beachten Sie, dass die Eigenwerte der Iterationsmatrix des Gauß-Seidel-Verfahrens genau das Quadrat der Eigenwerte des Jacobi-Verfahrens sind, also ist die Iteration zweimal so schnell. Diese Relation gilt für alle tridiagonalen Matrizen: Satz 9.9 Sei A tridiagonal, dann gilt die folgende Relation für die Iterationsmatrizen des Jacobi- und Gauß-Seidel-Verfahrens: ) n r( (L + D) 1 R ) = [ r( D 1 (L + R) ) ] 2 Insbesondere ist das Gauß-Seidel-Verfahren für tridiagonale Systeme Ax = b zweimal schneller als das Jacobi-Verfahren. Für den Beweis, siehe [Plato: Kor ] Das folgende numerische Beispiel vergleicht das Jacobi- und Gauß-Seidel-Iterationsverfahren für Zufallsmatrizen. Die Schlussfolgerung dieses Tests ist: Strikt Diagonaldominanz ist ein restriktives hinreichendes Kriterium. Die Methoden konvergieren in der Praxis für weitere Matrizen. Der Grund dafür ist, dass die Diagonaldominanz eine Abschätzung der Iterationsmatrix bezüglich der Zeilensummennorm garantiert. Konvergenz gilt, falls mindestens eine Norm existiert, so dass die Norm der Iterationsmatrix kleiner als eins ist. Im Allgemeinen kann man die zwei Methoden nicht direkt vergleichen: In einigen Fällen ist Jacobi, in den anderen ist Gauß-Seidel besser. Aber für tridiagonale Matrizen konvergieren/divergieren die beiden Methoden gleichzeitig und die Konvergenz mit Gauß-Seidel ist zweimal schneller (wie Satz 9.9 behauptet).
11 Numerik I. Version: Die folgenden Resultate wurden von einem Programm von Nolan Leaky erhalten. Die Aufgabe war, diese zwei Verfahren für 100 zufällige Matrizen A und Eingabevektoren b zu testen (die Matrixelemente und Vektorkomponente wurden unabhängig aus der gleichmäßigen Verteilung auf [ 1, 1] ausgewählt). Die Iterationen wurden entweder bis zur Erreichung der vorgegebenen Genauigkeit oder bis zur Feststellung der Divergenz laufen gelassen. Lösung von 100 zufälligen 3 3 Systeme bis auf Genauigkeit 10 3 Anzahl der strikt diagonaldominanten Matrizen: 1 Anzahl der Matrizen, für die das Jacobi-Verfahren konvergiert: 12 Durchschnittliche Anzahl der nötigen Schritte: Anzahl der Matrizen, für die das Gauß-Seidel-Verfahren konvergiert: 12 Durchschnittliche Anzahl der nötigen Schritte: Lösung von 100 zufälligen 4 4 Systeme bis auf Genauigkeit 10 3 Anzahl der strikt diagonaldominanten Matrizen: 0 Anzahl der Matrizen, für die das Jacobi-Verfahren konvergiert: 2 Durchschnittliche Anzahl der nötigen Schritte: 124 Anzahl der Matrizen, für die das Gauß-Seidel-Verfahren konvergiert: 6 Durchschnittliche Anzahl der nötigen Schritte: Wie man erwarten kann, ist die Situation für tridiagonale Matrizen viel besser: Lösung von 100 zufälligen 3 3 tridiagonalen Systeme bis auf Genauigkeit 10 3 Anzahl der strikt diagonaldominanten Matrizen: 5 Anzahl der Matrizen, für die das Jacobi-Verfahren konvergiert: 30 Durchschnittliche Anzahl der nötigen Schritte: 49.4 Anzahl der Matrizen, für die das Gauß-Seidel-Verfahren konvergiert: 30 Durchschnittliche Anzahl der nötigen Schritte: 24.4 Lösung von 100 zufälligen 4 4 tridiagonalen Systeme bis auf Genauigkeit 10 3 Anzahl der strikt diagonaldominanten Matrizen: 1 Anzahl der Matrizen, für die das Jacobi-Verfahren konvergiert: 14 Durchschnittliche Anzahl der nötigen Schritte: Anzahl der Matrizen, für die das Gauß-Seidel-Verfahren konvergiert: 14 Durchschnittliche Anzahl der nötigen Schritte: 33.9
12 Numerik I. Version: Gauß-Seidel-Verfahren mit Relaxation Eine verbesserte Variante des Gauß-Seidel-Verfahrens ist das Gauß-Seidel-Verfahren mit Relaxation. Die Idee der Relaxation ist schon im Kapitel aufgetaucht (gedämpftes Newton- Verfahren). Das Ziel ist, das so genannte Überschießen [overshooting] zu vermeiden. Das Phänomen ist ganz intuitiv das folgende (in einer Dimension, der Einfachheit halber). Die Iterationsfolge approximiert die wahre Lösung x. Die beste Situation ist, wenn den Grenzwert monoton approximiert, z.b. x (1) x (2) x (3) ր x. Numerisch betrachtet ist diese Situation die stabilste. Es kann auch passieren, dass die Folge alternierend konvergiert, z.b. x (1) < x, dann x (2) > x und dann wieder x (3) < x, usw., doch x fällt bis Null ab. Dieses Schema kann potenziell gefährlich sein: x (2) ist auf der anderen Seite von x und es kann von x weiter weg liegen als x (1). In diesem Fall wäre es angebracht, x (2) z.b. durch den Mittelwert (x (1) + x (2) )/2 zu ersetzen. Im allgemeinen Fall kann man den nächsten Iterationswert x (n+1) durch einen gewichteten Durchschnitt [weighted average], ω + (1 ω)x (n 1), ersetzen. Im Fall nichtnegativer Gewichte, 0 ω 1, heißt dieses Vorgehen (Unter)relaxation. Ähnliche Tricks können für die Beschleunigung der Konvergenz im Fall der monotonen Konvergenz verwendet werden: Der nächste Iterationswert kann durch eine sogenannte Überrelaxation ersetzt werden: Statt betrachet man ω + (1 ω)x (n 1) = x (n 1) + ω( x (n 1) ) mit ω > 1, d.h. die Iteration wird absichtlich überschossen [overshooted]. x (1) x (2) x (3)... x x (1) x (3) x x (2) Monotone Konvergenz Alternierende Konvergenz Im Fall des Gauß-Seidel-Verfahrens läuft die Implementierung wie folgt: Man wählt eine Zahl 0 ω 2 und definiert := D 1( b L Rx (n 1)) und := ω + (1 ω)x (n 1),
13 Numerik I. Version: oder in Koordinaten und i = 1 ( i 1 bi a ij j a ii i j=1 := ω i n j=i+1 + (1 ω)x (n 1) i. a ij x (n 1) ) j In der Form einer Iterationsmatrix ist diese Iteration durch die Formel gegeben, wobei die Iterationsmatrix ist. (Aufgabe: Nachprüfen!) := H ω x (n 1) + ω(d + ωl) 1 b H ω := (D + ωl) 1[ (1 ω)d ωr ] = I ω(d + ωl) 1 A Für ω = 1 stimmt dieses Verfahren natürlich mit dem ursprünglichen Einzelschrittverfahren (Gauß-Seidel) überein. Für ω < 1 spricht man von Unter-, im Fall ω > 1 von Überrelaxation. Die Wahl ω (0, 2) führt zu einem divergenten Verfahren: Satz 9.10 Das Spektralradius r(h ω ) der Iterationsmatrix erfüllt: r(h ω ) ω 1 Beweis. Seien λ 1,...λ k die Eigenwerte von H ω : k [ ] λ j = det(h ω ) = det(d + ωl) 1 det (1 ω)d ωr k = (1 ω) } {{ } j=1 } {{ } = 1/a jj = (1 ω)a jj also muss der Betrag von mindestens einem Eigenwert wenigstens 1 ω sein. Es gibt keine allgemeine Regel für die beste Wahl von ω. Im Falle der tridiagonalen Matrizen gilt das Folgende: (für den Beweis, siehe [Plato: Thm ]) Satz 9.11 Es sei A tridiagonal und alle Eigenwerte von D 1 (L +R) liegen innerhalb ( 1, 1) (insbesondere sie sind reell). Dann wird das Minimum im Punkt erreicht und ω = r(h ω ) := min{r(h ω ) : 0 < ω < 2} r 2, r := r(d 1 (L + R)) r(h ω ) = ω 1 = 1 1 r r 2 Mit anderen Worten, ω ist die beste Wahl für den Relaxationsparameter. Die Voraussetzungen werden für jede symmetrische, positiv definite, tridiagonale Matrix erfüllt.
14 Numerik I. Version: Aufgabe 9.12 Bestimmen Sie den besten Relaxationsparameter für die Matrix B (4.50) in der Theorie der Splineinterpolation. Eine der wichtigsten Eigenschaften des Gauß-Seidel-Verfahrens ist, dass es für alle definiten (positiv oder negativ) Matrizen konvergent ist. Die Nachprüfung dieser Eigenschaft ist viel schwieriger als diejenige der strikten Diagonaldominanz. Doch in manchen Fällen folgt die positive Definitheit aus der Struktur des Problems. Z.B. die Matrix des Laplaceoperators (2.3) ist negativ definit. Die Korrelationsmatrizen in der Statistik sind positiv definit (manchmal nur semidefinit). Alle Matrizen der Form A = BB t sind positiv semidefinit (z.b. die Matrix der Normalgleichung beim linearen Ausgleichsproblem). Obwohl positive Semidefinitheit theoretisch für die Konvergenz nicht hinreichend ist, kann man das Problem oft regularisieren: Statt A einfach A + εc betrachten, wobei C positiv definit ist (z.b. die Identitätsmatrix), und später ε entfernen. Satz 9.13 Für eine symmetrische, positiv definite Matrix A ist das Gauß-Seidel-Verfahren mit beliebigem Relaxationsparamter ω (0, 2) konvergent. Beweis. Wir müssen beweisen, dass r(h ω ) < 1 für alle ω (0, 2) gilt. Mit elementarer Matrixalgebra berechnet man die Identität (Nachprüfen!) H ω = I ω(d + ωl) 1 A = I 2 [ 2A 1 ( 1 ω D + L)] 1 = I 2(Q + I) 1 = (Q I)(Q + I) 1 mit der Wahl Q := 2A 1 ( 1 ω D + L) I Wir zeigen, dass alle Eigenwerte von Q einen positiven Realteil besitzen. Mit anderen Worten, das Spektrum von Q (σ(q) Menge der Eigenwerte) liegt in der positiven komplexen Halbebene: σ(q) { λ C : Reλ > 0 }. (9.11) Sei λ ein Eigenwert von Q, d.h. λx = Qx = 2A 1 ( 1 ω D + L)x x für einen Vektor x 0. Daraus folgt λax = 2( 1 D + L)x Ax. ω
15 Numerik I. Version: Wir bilden das Skalarprodukt dieser Gleichung mit x und betrachten nur den Realteil beider Seiten. Wir benutzen x Ax = (x, Ax) R (da A symmetrisch ist) und die Identität 2 Re x Bx = 2 Re (x, Bx) = (x, Bx) + (x, Bx) = (x, Bx) + (Bx,x) = (x, (B + B )x) in der folgenden Berechnung: ( Reλ) x Ax = 2 Re x ( 1 ω D + L)x x Ax = x ( 2 ω D + L + ) }{{} L x x (D + L + R)x = ( 2 ω 1) x Dx > 0. =R (Hier L = R folgt aus der Symmetrie von A = L + D + R.) Wegen x Ax > 0, x Dx > 0 und ω (0, 2) folgt daraus, dass Reλ > 0, damit ist (9.11) bewiesen. Wegen H ω = (Q I)(Q+I) 1 gilt σ(h ω ) { λ 1 λ + 1 : λ σ(q)}. Einfache Arithmetik zeigt (Nachprüfen!) und dann folgt r(h ω ) < 1 aus (9.11). λ 1 < 1, für jedes λ mit Reλ > 0 λ + 1
Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren
Universität Hamburg SS 2005 Proseminar Numerik Leitung: Prof. W. Hofmann Vortrag von Markus Stürzekarn zum Thema: Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren Gegeben sei ein lineares
MehrIterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
Mehr2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren
2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 11 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 2010 Prof. Dr. Klaus Höllig
Mehr5 Iterationsverfahren für lineare Gleichungssysteme
5 Iterationsverfahren für lineare Gleichungssysteme Klassische Iterationsverfahren Sei A R N N und b R N. Wir wollen nun das LGS Ax = b iterativ lösen. Dazu betrachten wir die Komponenten m = 1,...,N:
Mehr3 Reihen. 3.1 Konvergenz und Divergenz. Die Eindeutigkeit nach Satz 13 ergibt schließlich (5). (6) folgt aus (2) und (1) wegen. 1 a +log ba.
Die Eindeutigkeit nach Satz 3 ergibt schließlich (5). (6) folgt aus (2) und () wegen Aussage (7) ergibt sich aus () und (6). 0 = log b = log b ( a a) = log b a +log ba. 3 Reihen 3. Konvergenz und Divergenz
Mehr4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung
4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax
MehrAnalysis I. Vorlesung 9. Reihen
Prof. Dr. H. Brenner Osnabrück WS 20/204 Analysis I Vorlesung 9 Reihen Wir haben in der siebten Vorlesung gesagt, dass man eine Dezimalentwicklung, also eine (unendliche) Ziffernfolge mit Ziffern zwischen
MehrBegleitmaterial zur Vorlesung Numerik I
Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik
MehrKLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG
KLAUSUR ZUR LINEAREN ALGEBRA I Wiederholungsprüfung MUSTERLÖSUNG. April 2008 Name: Studiengang: Aufgabe 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter
MehrKapitel 4. Reihen 4.1. Definition und Beispiele
Kapitel 4. Reihen 4.1. Definition und Beispiele Ist (a n ) eine Folge von Zahlen, so heißt der formale Ausdruck a ν = a 0 + a 1 + a 2 +... eine Reihe; die einzelnen a ν sind die Glieder dieser Reihe. Um
MehrKAPITEL 1. Einleitung
KAPITEL 1 Einleitung Wir beschäftigen uns in dieser Vorlesung mit Verfahren aus der Numerischen linearen Algebra und insbesondere dem sogenannten Mehrgitterverfahren zur Lösung linearer Gleichungssysteme
MehrLineare Algebra II 5. Übungsblatt
Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross / Mai Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Algebraisch abgeschlossener Körper) Ein Körper heißt algebraisch abgeschlossen,
MehrWiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
MehrNumerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
Mehr38 Iterative Verfahren für lineare Gleichungssysteme
38 Iterative Verfahren für lineare Gleichungssysteme 38.1 Motivation Viele praktische Probleme führen auf sehr große lineare Gleichungssysteme, bei denen die Systemmatrix dünn besetzt ist, d. h. nur wenige
MehrMusterlösung zur Klausur Lineare Algebra II für Lehramt 30.07.2012
Musterlösung zur Klausur Lineare Algebra II für Lehramt 30.07.0 Aufgabe : Entscheiden Sie in dieser Aufgabe, ob die Aussagen wahr oder falsch sind. Begründungen sind nicht erforderlich. Ein korrekt gesetztes
MehrNumerische Mathematik für Ingenieure (SoSe 2013)
Numerische Mathematik für Ingenieure (SoSe 2013) PD Dr(USA) Maria Charina Auszüge aus Vorlesungsfolien von Prof Joachim Stöckler werden verwendet Für die Bereitstellung dieses Materials und der Tex-Files
Mehr5 Numerische Mathematik
6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul
MehrMusterlösung. Aufgaben zu Iterative Lösung Linearer Gleichungssysteme. Vordiplomskurs Numerische Methoden Sommer 2008
Musterlösung Aufgaben zu Iterative Lösung Linearer Gleichungssysteme Vordiplomskurs Numerische Methoden Sommer 8. Betrachte das Gleichungssystem Ax b mit ( ( 3 A, b. 6 8 a Konvergiert das Jacobi Verfahren
Mehr2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p
Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.
MehrBegleitmaterial zur Vorlesung Numerik I
Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 55 Studienplanung Bachelor
MehrBegleitmaterial zur Vorlesung Numerik II
Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik
MehrKLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.
MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw
MehrAlgorithmus zur Berechnung der Jordannormalform
Algorithmus zur Berechnung der Jordannormalform Olivier Sète 19. Januar 2011 Inhaltsverzeichnis 1 Motivation 1 2 Algorithmus Wie und warum funktioniert das? 2 2.1 Zutat 1 Für einen Jordanblock.........................
MehrLösen der Matrizengleichung
Lösen der Matrizengleichung Oliver Deussen Lösungsverfahren K 1 letztes Kapitel: Berechnung der Formfaktoren F außerdem: B: zu berechnende Strahlung, E: gegebenes Eigenleuchten nun: Wie löst man K B =
Mehr4 Reihen und Finanzmathematik
4 Reihen und Finanzmathematik 4. Reihen Aus Folgen lassen sich durch Aufaddieren weitere Folgen konstruieren. Das sind die sogenannten Reihen, sie spielen in der Finanzmathematik eine wichtige Rolle. Sei
MehrNumerische Lösung linearer Gleichungssysteme
Kapitel 2 Numerische Lösung linearer Gleichungssysteme Dieses Kapitel behandelt numerische Verfahren zur Lösung linearer Gleichungssysteme der Gestalt Ax = b, A R n n, x, b R n (21) mit a 11 a 1n A = a
MehrTU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX
TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende
MehrNewton-Verfahren für ein Skalarfunktion
Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren
MehrKapitel 8. Lineare Gleichungssysteme III: iterative Verfahren
Kapitel 8. Lineare Gleichungssysteme III: iterative Verfahren Inhalt: 8.1 Fixpunkt-Iteration 8.2 Verfahren der konjugierten Gradienten 8.3 Anwendungsbeispiel Numerische Mathematik I 323 Kap. 8: Lineare
MehrBeispiellösung Serie 7
D-MAVT FS 2014 K. Nipp A. Hiltebrand NUMERISCHE MATHEMATIK Beispiellösung Serie 7 1. a) Exakt: 0.005 1 1 1 0.005 1 ( 1 0 200-199 L = 200 1 Rückwärts einsetzen Lz = b : z 1 = 0.5, z 2 = 1 100 = 99 Rx =
MehrFolgen und Grenzwerte
Wintersemester 2015/201 Folgen und Grenzwerte von Sven Grützmacher Dieser Vortrag wurde für den (von der Fachschaft organisierten) Vorkurs für die Studienanfänger an der Fakultät für Mathematik und Informatik
MehrFolgen und Reihen. Beschränkte Folge: Es gibt eine Zahl c = const.
Folgen und Reihen Folgen: Def.: Eine Abbildung a N K, n a(n) := a n (K = R C) wird Zahlenfolge genannt. Sie heißt reelle (komplexe) Zahlenfolge, falls K = R(C) ist. Symbole: a n K: Elemente der Folge,
Mehr(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren
Aufgabe Gegeben seien die Punkte A(,,, B(,,, C(,,. (a Geben Sie die Hesse-Normalform der Ebene E, welche die drei Punkte A, B und C enthält, an. (b Bestimmen Sie den Abstand des Punktes P (,, 5 zur Ebene
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrIterative Lösung Linearer Gleichungssysteme
Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:
MehrVF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.
IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei
MehrKonvergenz von Folgen
6 Konvergenz von Folgen Definition 6.1 Eine Folge in C (oder R) ist eine Abbildung f : N C (oder R). Schreibweise: (a n ) n N, (a n ), a 1, a 2... wobei a n = f(n). Beispiele: 1) (1 + 2 n ) n N, 3 2, 5
MehrKlausur zu Grundlagen der Computermathematik
Prof. Dr. Klaus Höllig. März 11 Klausur zu Grundlagen der Computermathematik en Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. a Die Folge A n x/ A n
MehrKlausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016
Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.
MehrKapitel 3. Iterative Verfahren für LGS. 3.1 Der Banach sche Fixpunktsatz. Definition 3.1:
Kapitel 3 Iterative Verfahren für LGS 3 Der Banach sche Fixpunktsatz Sei A R n n invertierbar und das LGS A x b gegeben Ein iteratives Verfahren besteht aus einer Berechnungsvorschrift x (j+) F ( x (j))
Mehr5.3.5 Abstiegs & Gradientenverfahren
5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3.5 Abstiegs & Gradientenverfahren Die bisher kennengelernten Iterationsverfahren zur Approximation von linearen Gleichungssystemen haben
MehrEigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)
Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein
MehrVektoren und Matrizen
Vektoren und Matrizen Einführung: Wie wir gesehen haben, trägt der R 2, also die Menge aller Zahlenpaare, eine Körperstruktur mit der Multiplikation (a + bi(c + di ac bd + (ad + bci Man kann jedoch zeigen,
MehrHöhere Mathematik III WS 05/06 Lösungshinweis Aufgabe G 11 Blatt 2
Höhere Mathematik III WS 5/6 Lösungshinweis Aufgabe G 11 Blatt Die zu optimierende Zielfunktion ist der Abstand zum Ursprung. Ein bekannter Trick (Vereinfachung der Rechnung) besteht darin, das Quadrat
MehrEinführung in die numerische Mathematik
Prof. Dr. M. Günther K. Gausling, M.Sc. C. Hendricks, M.Sc. Sommersemester 4 Bergische Universität Wuppertal Fachbereich C Mathematik und Naturwissenschaften Angewandte Mathematik / Numerische Analysis
Mehr8 Konvergenzkriterien und Häufungswerte von Folgen in R
8 Konvergenzkriterien und Häufungswerte von Folgen in R 8.1 Konvergenz monotoner Folgen 8.2 Die Zahl e 8.3 Existenz monotoner Teilfolgen 8.4 Auswahlprinzip von Bolzano-Weierstraß 8.5 Konvergenzkriterium
Mehr6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
MehrAusgleichsproblem. Definition (1.0.3)
Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst
MehrInstitut für Geometrie und Praktische Mathematik
RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben).
MehrAnalysis II. Vorlesung 48. Die Hesse-Form
Prof. Dr. H. Brenner Osnabrück SS 2014 Analysis II Vorlesung 48 Die Hesse-Form Wir sind natürlich auch an hinreichenden Kriterien für das Vorliegen von lokalen Extrema interessiert. Wie schon im eindimensionalen
MehrKapitel 1. Vektoren und Matrizen. 1.1 Vektoren
Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren
MehrEigenwerte (Teschl/Teschl 14.2)
Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =
MehrLineare Algebra und Geometrie II, Übungen
Lineare Algebra und Geometrie II, Übungen Gruppe (9 9 45 ) Sei A 2 Bestimmen Sie A und A Finden Sie weiters Vektoren u, v R 2 mit u und Au A, beziehungsweise v und Av A Zunächst die Berechnung der Norm
MehrKapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen
Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
MehrInexakte Newton Verfahren
Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme 4. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 17. März 2016 Lineare Gleichungssysteme 1 Wiederholung: Normen, Jacobi-Matrix,
MehrLösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 2016/17
Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 6/7 837 Aufgabe Punkte): Gegeben sei das lineare Gleichungssystem Ax = b mit A = 6 3 und
MehrD-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch. Musterlösung 6. x A 1 b. A 1 b A 1. x A ( A. gestört: x A 1 =
D-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch Musterlösung 6 1. a b exakt: x = c Die Inverse von A lautet x = A 1 b x = A 1 b x A 1 b x A 1 b x A 1 b A x b x κ A b x b 3 1 A 1 = gestört:
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der
MehrKapitel 3. Konvergenz von Folgen und Reihen
Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden
MehrPS Numerische Mathematik für LAK WS 08/09, LV-Nr.: , HS Übungsblatt (bis )
. Übungsblatt (bis 5.0.2008). Aufgabe. Skizzieren Sie die Einheitskugeln K (0,) im R 2 für die Normen, 2 und. 2. Aufgabe. Beweisen Sie x x 2 n x für alle x R n. 3. Aufgabe. Bestimmen Sie die relative Konditionszahl
MehrKAPITEL 6. Nichtlineare Ausgleichsrechnung
KAPITEL 6 Nichtlineare Ausgleichsrechnung Beispiel 61 Gedämpfte Schwingung: u + b m u + D m u = 0, Lösungen haben die Form: u(t) = u 0 e δt sin(ω d t + ϕ 0 ) Modell einer gedämpften Schwingung y(t; x 1,
Mehr4.6 Berechnung von Eigenwerten
4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.
MehrIterative Methoden zur Lösung von linearen Gleichungssystemen
Iterative Methoden zur Lösung von linearen Gleichungssystemen (13.12.2011) Ziel Können wir wir die zeitabhängige Schrödinger-Gleichung lösen? φ(t) = e iht ψ(0) Typischerweise sind die Matrizen, die das
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)
Mehr3. Lineare Gleichungssysteme
3. Lineare Gleichungssysteme 1 3.1. Problemstellung 2 3.2. Direkte Verfahren 3 3.3. Normen und Fehleranalyse 4 3.4. Iterative Verfahren 5 3.5. Konvergenz von linearen Iterationsverfahren 6 3.6. Gradienten-Verfahren
MehrEinführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB)
Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Prof. R. Leithner, Dipl. Phys. E. Zander Wintersemester 2010/2011 Kapitel 6 Eigenwerte
MehrDiplom VP Numerik 28. August 2006
Diplom VP Numerik 8. August 6 Multiple-Choice-Test Punkte) Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine einzige Aussage angekreuzt, gilt diese Aufgabe
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
MehrInstitut für Geometrie und Praktische Mathematik
RWTH Aachen Institut für Geometrie und Praktische Mathematik Multiple-Choice-Test NumaMB F08 (30 Punkte) Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine
Mehreps für alle x D. 4. Die Zahl 256 ist in M(2, 4, 6, 6) exakt darstellbar.
IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H13 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei
MehrIterative Verfahren: Allgemeines, Fixpunkt-Iteration, Nullstellen. Prof. U. Rüde - Algorithmik kontinuierlicher Systeme
Algorithmik kontinuierlicher Systeme Iterative Verfahren: Allgemeines, Fiunkt-Iteration, Nullstellen Motivation Viele numerische Probleme lassen sich nicht mit endlich vielen Schritten lösen Nullstellen
Mehr2 k k 1 k(k + 1) = 2n+1. n = 0 = k(k + 1) = 2n+1 n n. = 2 n+1 n + 2 (n + 1)(n + 2) + n. (n + 1)(n + 2)
Prof. Hesse Höhere Mathematik I und II Musterlösung 7. 0. 0, 80min Aufgabe (3 Punkte) Zeigen Sie mit vollständiger Induktion: Für alle n N gilt n k= k k k(k + ) = n+ n +. Induktionsanfang: k= Induktionsschluss
MehrZulassungsprüfung in Mathematik
der Deutschen Aktuarvereinigung e V Hinweise: Als Hilfsmittel sind ein Taschenrechner, eine mathematische Formelsammlung sowie entsprechende Literatur zugelassen Die Gesamtpunktzahl beträgt 9 Punkte Die
MehrMathematik I. Vorlesung 7. Folgen in einem angeordneten Körper
Prof. Dr. H. Brenner Osnabrück WS 009/010 Mathematik I Vorlesung 7 Folgen in einem angeordneten Körper Wir beginnen mit einem motivierenden Beispiel. Beispiel 7.1. Wir wollen die Quadratwurzel einer natürlichen
MehrLösung der Diplom-Vorprüfung Höhere Mathematik III/IV 6.8.005 1 Aufgabe N1 Gegeben seien A = 5-10 -5-10 8-10 -5-10 13 R 3 3 und b = a) Überprüfen Sie, ob die Matrix A positiv definit ist. b) Bestimmen
MehrQuadratische Formen und Definitheit
Universität Basel Wirtschaftswissenschaftliches Zentrum Quadratische Formen und Definitheit Dr. Thomas Zehrt Inhalt: 1. Quadratische Formen 2. Quadratische Approximation von Funktionen 3. Definitheit von
MehrKapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen
Kapitel 2: Lineare Gleichungssysteme 21 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,,255}, n = 1,,N, m = 1,,M dig Camera Realisierung von B η ist
Mehr2.6 Stetigkeit und Grenzwerte
2.6 Stetigkeit und Grenzwerte Anschaulich gesprochen ist eine Funktion stetig, wenn ihr Graph sich zeichnen lässt, ohne den Stift abzusetzen. Das ist natürlich keine präzise mathematische Definition und
Mehr4.4 Orthogonalisierungsverfahren und die QR-Zerlegung
4.4 Orthogonalisierungsverfahren und die QR-Zerlegung Die Zerlegung einer regulären Matrix A R n n in die beiden Dreiecksmatrizen L und R basiert auf der Elimination mit Frobeniusmatrizen, d.h. R = FA,
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme 1 Wiederholung Eine Menge von Vektoren a 1, a 2,, a k heisst linear unabhängig, wenn eine Linearkombination c 1 a 1 + c 2 a 2 + + c k a k = k c i a i (1) i=1 nur dann Null sein
MehrStetige Funktionen. Definition. Seien (X, d) und (Y, ϱ) metrische Räume und f : X Y eine Abbildung. D(f) X sei der Definitionsbereich von f.
Stetige Funktionen Abbildungen f : X Y, wobei X und Y strukturierte Mengen sind (wie z.b. Vektorräume oder metrische Räume), spielen eine zentrale Rolle in der Mathematik. In der Analysis sind Abbildungen
MehrNumerische Verfahren und Grundlagen der Analysis
Numerische Verfahren und Grundlagen der Analysis Rasa Steuding Hochschule RheinMain Wiesbaden Wintersemester 2011/12 R. Steuding (HS-RM) NumAna Wintersemester 2011/12 1 / 26 1. Folgen R. Steuding (HS-RM)
MehrBegleitmaterial zur Vorlesung Numerik I
Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 55 Studienplanung Bachelor
Mehr6. Rechnen mit Matrizen.
6. Rechnen mit Matrizen. In dieser Vorlesung betrachten wir lineare Gleichungs System. Wir betrachten lineare Gleichungs Systeme wieder von zwei Gesichtspunkten her: dem angewandten Gesichtspunkt und dem
Mehr4 Gleichungen und Ungleichungen
In diesem Kapitel werden Techniken zur Bestimmung der Lösungsmengen von Gleichungen und Ungleichungen rekapituliert. 4.1 Eindimensionale Gleichungen und Ungleichungen Eine Gleichung oder Ungleichung ohne
MehrLineare Algebra und analytische Geometrie II
Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 39 Definitheit von Bilinearformen Wir möchten die symmetrischen Bilinearformen über den reellen Zahlen klassifizieren.
MehrNumerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen
(für Informatiker) M. Grepl J. Berger & J.T. Frings Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2010/11 Problemstellung Lineare Gleichungssysteme, iterative Verfahren geg.:
Mehr7. Nichtlineare Gleichngssysteme. Problem 7: Sei f : R n R n stetig. Löse f(x) = 0.
7. Nichtlineare Gleichngssysteme Problem 7: Sei f : R n R n stetig. Löse f(x) = 0. Das Gleichungssystem f(x) = 0 lässt sich in die Fixpunktgleichung x = φ(x) umschreiben, wobei φ : D R n R n. Beispielsweise
MehrIm gesamten Kapitel sei Ω eine nichtleere Menge. Wir bezeichnen die Potenzmenge
1 Mengensysteme Ein Mengensystem ist eine Familie von Teilmengen einer Grundmenge und damit eine Teilmenge der Potenzmenge der Grundmenge. In diesem Kapitel untersuchen wir Mengensysteme, die unter bestimmten
MehrKonvergenz des Jacobi- und Gauß-Seidel-Verfahrens
Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens Bachelor-Arbeit im -Fach Bachelorstudiengang Mathematik der Mathematisch-Naturwissenschaftlichen Fakultät der Christian-Albrechts-Universität zu Kiel vorgelegt
Mehr(d) das zu Grunde liegende Problem gut konditioniert ist.
Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt
MehrMODULPRÜFUNG Numerische Methoden (Elektrotechnik, Meteorologie, Geodäsie und Geoinformatik)
Karlsruher Institut für Technologie KIT) Institut für Analysis Dr. S. Wugalter Herbst 7.9.7 MODULPRÜFUNG Numerische Methoden Elektrotechnik, Meteorologie, Geodäsie und Geoinformatik) Aufgabe 4 Punkte)
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Mehr6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation
MehrAnalysis I für Studierende der Ingenieurwissenschaften
Analysis I für Studierende der Ingenieurwissenschaften Ingenuin Gasser Department Mathematik Universität Hamburg Technische Universität Hamburg Harburg Wintersemester 2008/2009 1 Definition: Sei M R, alsom
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
Mehr