9 Lösung linearer Gleichungssysteme III: Iterative Methoden

Größe: px
Ab Seite anzeigen:

Download "9 Lösung linearer Gleichungssysteme III: Iterative Methoden"

Transkript

1 Numerik I. Version: Lösung linearer Gleichungssysteme III: Iterative Methoden Die Iterationsmethoden des vorherigen Kapitels werden normalerweise für nichtlineare Probleme verwendet, wobei es keine direkte Lösung (in endlich vielen Schritten) gibt. Manchmal sind diese Methoden auch für das lineare Gleichungssystem Ax = b ganz nützlich. Diese Verfahren konvergieren nur für eine ganz beschränkte Familie von Matrizen A, aber wenn das Verfahren konvergiert, dann ist die Konvergenz oft schnell, der Rechneraufwand relativ klein und die Programmierung einfach. Der Einfachheit halber nehmen wir an, dass A eine reguläre (quadratische) Matrix ist, folglich existiert eine eindeutige Lösung. Wir bringen Ax = b in die Form einer Fixpunktsgleichung durch Aufspaltung der Matrix A = B + (A B), wobei B eine schlau gewählte Matrix ist. Die Idee dieser Aufspaltung lautet: B wird der Hauptteil der Matrix, der schön (=leicht invertierbar) gewählt wird, und A B ist ihre Störung. Offenbar ist Ax = b zu äquivalent, oder einfach falls B invertierbar ist. Bx = (B A)x + b x = B 1[ (B A)x + b ] = (I B 1 A)x + B 1 b, Der Algorithmus ist ganz einfach (fast wie die zweijähriges-kind-methode ): fangen Sie mit einem Startvektor x (0) an, erzeugen Sie die Folge := (I B 1 A)x (n 1) + B 1 b (9.1) und drücken die Daumen. Die Matrix (I B 1 A) heißt die Iterationsmatrix des Verfahrens. Warnung: In diesem Kapitel benutzen wir obere Indizes für die Iterationschritte, und die unteren Indizes werden die Koordinaten der Vektoren indizieren. Die Matrizen werden von der Größe k k sein und der Index n bleibt für die Iterationsschritte vorbehalten. Wie kann man die Konvergenz in (9.1) vorhersagen? Sei δ := x der Fehler nach der n-ten Iteration. Aus Ax = b und B = (B A)x (n 1) + b erhält man B(δ ) = (B A)(δx (n 1) )

2 Numerik I. Version: d.h. δ = (I B 1 A)(δx (n 1) ) = (I B 1 A) n (δx (0) ) wobei δx (0) Differenz des Startwertes von der Lösung ist. Somit gilt Die Konvergenz des Verfahrens folgt aus dem Limes δ (I B 1 A) n δx (0). (9.2) (I B 1 A) n 0, falls n und die Geschwindigkeit dieses Limes liefert eine Abschätzung für die Geschwindigkeit der Konvergenz. Satz 9.1 Sei H eine quadratische Matrix. Dann sind die folgenden Eigenschaften äquivalent i) r(h) < 1 (Spektralradius, siehe Definition 3.34). ii) Es gilt H n 0. iii) Es existiert eine Vektornorm, so dass für die zugehörige Matrixnorm gilt H < 1. Beweis. Wenn H diagonalisierbar ist, H = V DV 1, λ 1 D = λ 2, V regulär... λ k dann gilt H n = V D n V 1. i) = ii). Wenn r(h) < 1, d.h. max j λ j < 1, dann gilt D n = r(h) n 0, somit H n 0. ii) = i) Wenn r(h) 1 ist, dann existiert mindestens ein Eigenvektor v Hv = λv mit λ 1 und damit wird H n v = λ n v nicht gegen Null konvergieren. iii) = ii). Trivial, aufgrund H n H n 0. Die Implikation ii) = iii) wird hier nicht bewiesen, da wir sie nicht brauchen, aber siehe [Platos Buch: Theorem 9.12]

3 Numerik I. Version: Wenn H nicht diagonalisierbar ist, betrachtet man die Jordan-Zerlegung, die immer existiert. Die obige Beweis funktioniert nicht nur für Diagonalmatrizen, sondern auch für jeden Jordan-Block (Aufgabe: Nachdenken!). λ 1 λ 1 J = λ 1 λ Als ein Korollar erhalten wir den folgenden Satz: Satz 9.2 Seien A, B reguläre k k Matrizen. Dann konvergiert die Iteration B = (B A)x (n 1) + b für alle Startwerte x 0 gegen die (eindeutige) Lösung x von Ax = b genau dann, wenn der Spektralradius von I B 1 A (Maximalbetrag der Eigenwerte) kleiner als 1 ist: Konvergenz r(i B 1 A) < 1 Im Fall der diagonalisierbaren Matrix I B 1 A ist die Konvergenzgeschwindigkeit exponentiell mit der Rate r := r(i B 1 A): x Kr n, (9.3) wobei die Konstante K vom Startwert x 0 abhängt. Für nichtdiagonalisierbare Matrizen ist die Abschätzung um einen Polynomfaktor schlechter: x Kn k r n (9.4) (aber für großes n ist dieser zusätzliche Faktor vernachlässigbar; die Funktion r n ist entscheidend). Beachten Sie, dass die Konvergenz von den Startwerten nicht mehr abhängt (im Gegensatz zum nichtlinearen Newton-Verfahren).

4 Numerik I. Version: Jacobi-Iterationsverfahren Die Kunst der Iterationsverfahren für Ax = b ist die gute Aufspaltung. Die einfachste ist die Jacobi-Aufspaltung einer quadratischen Matrix A = (a ij ) in Form A = L + D + R 0 a 11 a 21 0 a 22 A =: a 31 a a a k1 }... {{ a k,k 1 0 } } {{ a kk } =:L =:D 0 a 12 a a 1k 0 a a 2k.... ak 1,k 0 } {{ } =:R Diese unteren und oberen Dreiecksmatrizen L, R und die Diagonalmatrix D haben nichts mit der LR-Zerlegung (LU-factorization) oder mit der Diagonalisierung (A = V DV 1 ) zu tun. Sie sind einfach die Elemente der Matrix A unterhalb, oberhalb und auf der Diagonalen. Sei B := D und A B := L + R die Aufspaltung der Matrix A. Die Diagonalmatrix ist einfach zu invertieren, und man erhält die Formel oder koordinatenweise: = D 1 (L + R) x (n 1) + D 1 b (9.5) } {{ } I B 1 A i = 1 a ii ( bi j:j i a ij x (n 1) ) j (9.6) Die Summation ist für alle j ausgenommen j = i. Dieses Verfahren ist das Jacobi-Verfahren, auch Gesamtschrittverfahren genannt. Der Startvektor x (0) kann aus theoretischer Hinsicht völlig beliebig gewählt werden, da die Konvergenz davon nicht abhängt. Natürlich kann die Anzahl der Iterationsschritte, die notwendig sind, um eine geforderte Genauigkeit zu erreichen, durch eine gute Wahl des Startwertes reduziert werden. Außer wenn man einen besseren Hinweis hat, wählt man x (0) = 0. Wann konvergiert dieses Verfahren? Aufgrund des Satzes 9.2 muss man den Spektralradius von D 1 (L + R) berechnen, aber dies kann nicht so einfach sein. In den meistens Fällen funktioniert eher diese Relation umgekehrt: man benutzt die höheren Potenzen H n einer Matrix H, um den Spektralradius zu bestimmen. Der folgende Satz ist nicht optimal, aber er liefert eine sehr einfach überprüfbare (hinreichende aber nicht notwendige) Bedingung für die Konvergenz des Jacobi-Verfahrens. Satz 9.3 Sei A strikt diagonaldominant (Kapitel ). Dann ist das Jacobi-Verfahren konvergent. Die Konvergenzgeschwindigkeit ist durch (9.3) und (9.4) mit r := r(d 1 (L + R)) gegeben.

5 Numerik I. Version: Beweis. Die Iterationsmatrix ist a 0 12 a I B 1 A = D 1 a 21 (L + R) = a Strikte Diagonaldominanz bedeutet, dass insbesondere j:j i a ij a ii a 1k a 11 a 2k a 22 a k1 a kk... 0 < 1 für jedes 1 i n (9.7) A ist strikt diag.dom. D 1 (L + R) < 1 (Zeilensummennorm). (9.8) Dann folgen die Konvergenz und die Geschwindigkeit aus den Sätzen 9.1 (Teil (iii)= (i)) und 9.2. ( ) 1 2 Aufgabe 9.4 Sei A =. Zeigen Sie, dass A der Bedingung des Satzes 9.3 nicht 0 1 genügt, aber das Jacobi-Verfahren ist trotzdem konvergent. Aufgabe 9.5 Sei A eine quadratische Matrix so dass A t strikt diagonaldominant ist. Zeige, dass das Jacobi-Verfahren konvergent ist. Die Bedingung (9.7) scheint sehr einschränkend zu sein, insbesondere für große Matrizen. Trotzdem kann das Jacobi-Verfahren ganz nützlich sein für dünn besetzte Matrizen. Z.B. die Matrix B zur Lösung der zweiten Ableitungen bei der Splineinterpolation (4.50) ist strikt diagonaldominant. Die Matrix in (2.3) ist nicht strikt diagonaldominant, aber fast. Für tridiagonale Matrizen ist die Bedingung, dass das Diagonalelement größer als die zwei Elemente in den Nebendiagonalen ist, nicht so außergewöhnlich. Aufgabe 9.6 Lösen Sie ( ) ( ) x = zuerst mittels der Gauß-Elimination, dann mit dem Jacobi-Verfahren bis zwei Ziffern (Genauigkeit 10 2 ). Bestimme eine Abschätzung für die nötige Anzahl der Iterationsschritte, falls eine Genauigkeit 10 8 erfordert würde.

6 Numerik I. Version: Lösung: Die wahre Lösung ist x true = ( 1 2 ) (mittels Gauß, oder einfach nach scharf Anschauen ) ( ) 4 1 Die Matrix A = ist strikt diagonaldominant, also wird das Jacobi-Verfahren für 2 3 ( ) 0 beliebigen Startwert konvergieren. Sei x (0) = (ohne bessere Hinweise) und die Jacobi- 0 Formel (9.6) liefert 1 = 1 (6 1 x(n 1) 2 ) (9.9) 4 2 = 1 (8 2 x(n 1) 1 ). 3 (Sie sollten mit den Indizes SEHR VORSICHTIG sein!) Wir berechnen die Iteration bis auf drei Ziffern und streben nach der Stabilisierung der zweiten Ziffer Die nächste Iteration liefert x (1) 1 = 1 4 (6 1 0) = 3 2 = 1.5 x (1) 2 = 1 3 (8 2 0) = 8 3 = 2.33 Dann Dann Dann x (2) 1 = 1 4 ( ) = 5 6 = x (2) 2 = 1 3 ( ) = 5 3 = 1.66 x (3) 1 = 1 4 ( ) = = 1.08 x (3) 2 = 1 3 ( ) = 19 9 = 2.1 x (4) 1 = 1 19 ( ) = = 0.97 x (4) 2 = 1 13 ( ) = = 1.94 x (5) 1 = 1 ( ) = x (5) 2 = 1 ( ) = Dann x (6) 1 = 1 ( ) =

7 Numerik I. Version: x (6) 2 = 1 ( ) = und schließlich x (7) 1 = 1 ( ) = x (7) 2 = 1 ( ) = Da jetzt die Differenz zwischen aufeinanderfolgenden Elementen x (6) x (7) kleiner als 1% ist, beenden wir die Iteration. Diese nicht ganz strikte Daumenregel gilt fast immer bei den Verfahren, die exponentiell konvergent sind. Für die Abschätzung der Anzahl der Iterationsschritte bis zu einer Genauigkeit 10 8 müssen wir den größten Eigenwert von M := D 1 (L + R) = ( ) 1 ( ) 0 1 = 2 0 ( 0 ) 1/4 2/3 0 berechnen. Die Eigenwerte sind λ = ±1/ 6, also wird die Konvergenzgeschwindigkeit durch 1/ 6 bestimmt. Aufgrund der Abschätzung (9.3) sehen wir, dass der absolute Fehler bei jedem Schritt um einen Faktor 1/ 6 abnimmt: x true ( 1 6 ) n x (0) x true Hier ist der Startfehler x (0) x true in der Größenordnung O(1). Wir müssen also die Ungleichung 10 8 O(1) ( 1 ) n 6 lösen, d.h. n 8 ln 10/ ln(1/ 6) Die Faustregel ist 2-3 mehr Schritte dazu zuaddieren, da die Konstante K in (9.3) und der Startfehler nicht ganz genau berechnet wurden. Also man braucht etwa Schritte, um eine Genauigkeit 10 8 zu erreichen.

8 Numerik I. Version: Gauß-Seidel-Iterationsverfahren Viele andere iterative Methoden existieren, die auf verschiedenen Aufspaltungen der Matrix A beruhen. Das Gauß-Seidel-Verfahren (oder so genannte Einzelschrittverfahren) benutzt B = L + D, und der n-te Schritt der Iteration ist = (L + D) 1( b Rx (n 1)) oder = D 1( b L Rx (n 1)) (Aufgabe: Bitte nachprüfen, dass diese zwei Formeln äquivalent sind). In Koordinaten i = 1 ( i 1 bi a ij j a ii j=1 k j=i+1 a ij x (n 1) ) j (9.10) (Aufgabe: Bitte nachprüfen!). Beachten Sie, dass auf beiden Seiten erscheint, somit scheint die Gleichung implizit zu sein. Aber das ist nicht der Fall, wenn man die Koordinaten von in der Reihefolge 1, 2, 3... bestimmt: die Formel (9.10) für die Bestimmung von i benutzt nur die vorherigen Koordinaten von, nämlich 1, 2,..., i 1, die bei diesem Schritt schon zur Verfügung stehen. Diese Formel ist ganz ähnlich zur Formel des Jacobi-Verfahrens (9.5), aber in vielen Fällen funktioniert sie besser. Grob gesagt, das Jacobi-Verfahren behandelt A = L + D + R als die Störung seiner Diagonale D, das Gauß-Seidel-Verfahren betrachtet A als die Störung von L + D. Gauß-Seidel ist auch einfacher auf dem Rechner zu implementieren: Die Formel (9.10) erzeugt sukzessiv die neuen Updates der Koordinaten und es ist nur ein Vektor zu speichern. Vom dem theoretischen Standpunkt aus gilt das folgende Analogon des Satzes 9.3. Satz 9.7 Das Gauß-Seidel-Verfahren konvergiert für strikt diagonaldominante Matrizen. Die Konvergenzgeschwindigkeit ist durch (9.3) und (9.4) mit r := r((l + D) 1 R) gegeben. Beweisskizze. Der Hauptschritt ist der Beweis der Ungleichung (L + D) 1 R D 1 (L + R), dann folgt die Konvergenz aus (9.8) und aus den Sätzen 9.1 (Teil (iii)= (i)) und 9.2. Diese Ungleichung ist intuitiv klar: sehr grob gesagt, sie ist analog zu der arithmetischen Ungleichung R L + D L + R D für positive Zahlen. Der genaue Beweis befindet sich in [Plato: Theorem 10.24].

9 Numerik I. Version: Aufgabe 9.8 Betrachten Sie die obige Aufgabe ( ) ( ) x = und lösen Sie sie jetzt mit dem Gauß-Seidel-Verfahren bis zwei Ziffern (Genauigkeit 10 2 ). Bestimmen Sie eine Abschätzung für die nötige Anzahl der Iterationsschritte, falls eine Genauigkeit 10 8 gefordert würde. Lösung: Benutzen wir die Formel 1 = 1 (6 1 x(n 1) 2 ) 4 2 = 1 (8 2 x(n) 1 ) 3 Beachten Sie, die Abweichung von der Jacobi-Formel (9.9): in der zweiten Zeile befindet sich 1 statt x (n 1) 1! Die Iteration ist: Dann Dann x (1) 1 = 1 4 (6 1 0) = 3 2 = 1.5 x (1) 2 = 1 3 ( ) = 5 3 = 1.66 x (2) 1 = 1 4 ( ) = = 1.08 x (2) 2 = 1 13 ( ) = = 1.94 x (3) 1 = 1 ( ) = x (3) 2 = 1 ( ) = Dann x (4) 1 = 1 ( ) = x (4) 2 = 1 ( ) = und wir können die Iteration abbrechnen. Beachten Sie, dass die Iteration etwa zweimal schneller ist als beim Jacobi-Verfahren. Für die Abschätzung der Anzahl der Iterationsschritte bis eine Genauigkeit von 10 8 erreicht wird, müssen wir den größten Eigenwert von M = (L + D) 1 R = ( ) ( ) ( ) /4 = /6

10 Numerik I. Version: berechnen. Die Eigenwerte sind λ = 0, 1/6, also wird die Konvergenzgeschwindigkeit durch 1/6 bestimmt. Aufgrund der Abschätzung (9.3) sehen wir, dass der absolute Fehler bei jedem Schritt um einen Faktor 1/6 abnimmt: x true ( 1) n x (0) x true. 6 Hier ist der Startfehler x (0) x true von der Größenordnung O(1). Wir müssen also die Ungleichung 10 8 ( 1 6 lösen, d.h. n = 8 ln 10/ ln(1/6) = Nach der Faustregel brauchen wir etwa Schritte. Beachten Sie, dass die Eigenwerte der Iterationsmatrix des Gauß-Seidel-Verfahrens genau das Quadrat der Eigenwerte des Jacobi-Verfahrens sind, also ist die Iteration zweimal so schnell. Diese Relation gilt für alle tridiagonalen Matrizen: Satz 9.9 Sei A tridiagonal, dann gilt die folgende Relation für die Iterationsmatrizen des Jacobi- und Gauß-Seidel-Verfahrens: ) n r( (L + D) 1 R ) = [ r( D 1 (L + R) ) ] 2 Insbesondere ist das Gauß-Seidel-Verfahren für tridiagonale Systeme Ax = b zweimal schneller als das Jacobi-Verfahren. Für den Beweis, siehe [Plato: Kor ] Das folgende numerische Beispiel vergleicht das Jacobi- und Gauß-Seidel-Iterationsverfahren für Zufallsmatrizen. Die Schlussfolgerung dieses Tests ist: Strikt Diagonaldominanz ist ein restriktives hinreichendes Kriterium. Die Methoden konvergieren in der Praxis für weitere Matrizen. Der Grund dafür ist, dass die Diagonaldominanz eine Abschätzung der Iterationsmatrix bezüglich der Zeilensummennorm garantiert. Konvergenz gilt, falls mindestens eine Norm existiert, so dass die Norm der Iterationsmatrix kleiner als eins ist. Im Allgemeinen kann man die zwei Methoden nicht direkt vergleichen: In einigen Fällen ist Jacobi, in den anderen ist Gauß-Seidel besser. Aber für tridiagonale Matrizen konvergieren/divergieren die beiden Methoden gleichzeitig und die Konvergenz mit Gauß-Seidel ist zweimal schneller (wie Satz 9.9 behauptet).

11 Numerik I. Version: Die folgenden Resultate wurden von einem Programm von Nolan Leaky erhalten. Die Aufgabe war, diese zwei Verfahren für 100 zufällige Matrizen A und Eingabevektoren b zu testen (die Matrixelemente und Vektorkomponente wurden unabhängig aus der gleichmäßigen Verteilung auf [ 1, 1] ausgewählt). Die Iterationen wurden entweder bis zur Erreichung der vorgegebenen Genauigkeit oder bis zur Feststellung der Divergenz laufen gelassen. Lösung von 100 zufälligen 3 3 Systeme bis auf Genauigkeit 10 3 Anzahl der strikt diagonaldominanten Matrizen: 1 Anzahl der Matrizen, für die das Jacobi-Verfahren konvergiert: 12 Durchschnittliche Anzahl der nötigen Schritte: Anzahl der Matrizen, für die das Gauß-Seidel-Verfahren konvergiert: 12 Durchschnittliche Anzahl der nötigen Schritte: Lösung von 100 zufälligen 4 4 Systeme bis auf Genauigkeit 10 3 Anzahl der strikt diagonaldominanten Matrizen: 0 Anzahl der Matrizen, für die das Jacobi-Verfahren konvergiert: 2 Durchschnittliche Anzahl der nötigen Schritte: 124 Anzahl der Matrizen, für die das Gauß-Seidel-Verfahren konvergiert: 6 Durchschnittliche Anzahl der nötigen Schritte: Wie man erwarten kann, ist die Situation für tridiagonale Matrizen viel besser: Lösung von 100 zufälligen 3 3 tridiagonalen Systeme bis auf Genauigkeit 10 3 Anzahl der strikt diagonaldominanten Matrizen: 5 Anzahl der Matrizen, für die das Jacobi-Verfahren konvergiert: 30 Durchschnittliche Anzahl der nötigen Schritte: 49.4 Anzahl der Matrizen, für die das Gauß-Seidel-Verfahren konvergiert: 30 Durchschnittliche Anzahl der nötigen Schritte: 24.4 Lösung von 100 zufälligen 4 4 tridiagonalen Systeme bis auf Genauigkeit 10 3 Anzahl der strikt diagonaldominanten Matrizen: 1 Anzahl der Matrizen, für die das Jacobi-Verfahren konvergiert: 14 Durchschnittliche Anzahl der nötigen Schritte: Anzahl der Matrizen, für die das Gauß-Seidel-Verfahren konvergiert: 14 Durchschnittliche Anzahl der nötigen Schritte: 33.9

12 Numerik I. Version: Gauß-Seidel-Verfahren mit Relaxation Eine verbesserte Variante des Gauß-Seidel-Verfahrens ist das Gauß-Seidel-Verfahren mit Relaxation. Die Idee der Relaxation ist schon im Kapitel aufgetaucht (gedämpftes Newton- Verfahren). Das Ziel ist, das so genannte Überschießen [overshooting] zu vermeiden. Das Phänomen ist ganz intuitiv das folgende (in einer Dimension, der Einfachheit halber). Die Iterationsfolge approximiert die wahre Lösung x. Die beste Situation ist, wenn den Grenzwert monoton approximiert, z.b. x (1) x (2) x (3) ր x. Numerisch betrachtet ist diese Situation die stabilste. Es kann auch passieren, dass die Folge alternierend konvergiert, z.b. x (1) < x, dann x (2) > x und dann wieder x (3) < x, usw., doch x fällt bis Null ab. Dieses Schema kann potenziell gefährlich sein: x (2) ist auf der anderen Seite von x und es kann von x weiter weg liegen als x (1). In diesem Fall wäre es angebracht, x (2) z.b. durch den Mittelwert (x (1) + x (2) )/2 zu ersetzen. Im allgemeinen Fall kann man den nächsten Iterationswert x (n+1) durch einen gewichteten Durchschnitt [weighted average], ω + (1 ω)x (n 1), ersetzen. Im Fall nichtnegativer Gewichte, 0 ω 1, heißt dieses Vorgehen (Unter)relaxation. Ähnliche Tricks können für die Beschleunigung der Konvergenz im Fall der monotonen Konvergenz verwendet werden: Der nächste Iterationswert kann durch eine sogenannte Überrelaxation ersetzt werden: Statt betrachet man ω + (1 ω)x (n 1) = x (n 1) + ω( x (n 1) ) mit ω > 1, d.h. die Iteration wird absichtlich überschossen [overshooted]. x (1) x (2) x (3)... x x (1) x (3) x x (2) Monotone Konvergenz Alternierende Konvergenz Im Fall des Gauß-Seidel-Verfahrens läuft die Implementierung wie folgt: Man wählt eine Zahl 0 ω 2 und definiert := D 1( b L Rx (n 1)) und := ω + (1 ω)x (n 1),

13 Numerik I. Version: oder in Koordinaten und i = 1 ( i 1 bi a ij j a ii i j=1 := ω i n j=i+1 + (1 ω)x (n 1) i. a ij x (n 1) ) j In der Form einer Iterationsmatrix ist diese Iteration durch die Formel gegeben, wobei die Iterationsmatrix ist. (Aufgabe: Nachprüfen!) := H ω x (n 1) + ω(d + ωl) 1 b H ω := (D + ωl) 1[ (1 ω)d ωr ] = I ω(d + ωl) 1 A Für ω = 1 stimmt dieses Verfahren natürlich mit dem ursprünglichen Einzelschrittverfahren (Gauß-Seidel) überein. Für ω < 1 spricht man von Unter-, im Fall ω > 1 von Überrelaxation. Die Wahl ω (0, 2) führt zu einem divergenten Verfahren: Satz 9.10 Das Spektralradius r(h ω ) der Iterationsmatrix erfüllt: r(h ω ) ω 1 Beweis. Seien λ 1,...λ k die Eigenwerte von H ω : k [ ] λ j = det(h ω ) = det(d + ωl) 1 det (1 ω)d ωr k = (1 ω) } {{ } j=1 } {{ } = 1/a jj = (1 ω)a jj also muss der Betrag von mindestens einem Eigenwert wenigstens 1 ω sein. Es gibt keine allgemeine Regel für die beste Wahl von ω. Im Falle der tridiagonalen Matrizen gilt das Folgende: (für den Beweis, siehe [Plato: Thm ]) Satz 9.11 Es sei A tridiagonal und alle Eigenwerte von D 1 (L +R) liegen innerhalb ( 1, 1) (insbesondere sie sind reell). Dann wird das Minimum im Punkt erreicht und ω = r(h ω ) := min{r(h ω ) : 0 < ω < 2} r 2, r := r(d 1 (L + R)) r(h ω ) = ω 1 = 1 1 r r 2 Mit anderen Worten, ω ist die beste Wahl für den Relaxationsparameter. Die Voraussetzungen werden für jede symmetrische, positiv definite, tridiagonale Matrix erfüllt.

14 Numerik I. Version: Aufgabe 9.12 Bestimmen Sie den besten Relaxationsparameter für die Matrix B (4.50) in der Theorie der Splineinterpolation. Eine der wichtigsten Eigenschaften des Gauß-Seidel-Verfahrens ist, dass es für alle definiten (positiv oder negativ) Matrizen konvergent ist. Die Nachprüfung dieser Eigenschaft ist viel schwieriger als diejenige der strikten Diagonaldominanz. Doch in manchen Fällen folgt die positive Definitheit aus der Struktur des Problems. Z.B. die Matrix des Laplaceoperators (2.3) ist negativ definit. Die Korrelationsmatrizen in der Statistik sind positiv definit (manchmal nur semidefinit). Alle Matrizen der Form A = BB t sind positiv semidefinit (z.b. die Matrix der Normalgleichung beim linearen Ausgleichsproblem). Obwohl positive Semidefinitheit theoretisch für die Konvergenz nicht hinreichend ist, kann man das Problem oft regularisieren: Statt A einfach A + εc betrachten, wobei C positiv definit ist (z.b. die Identitätsmatrix), und später ε entfernen. Satz 9.13 Für eine symmetrische, positiv definite Matrix A ist das Gauß-Seidel-Verfahren mit beliebigem Relaxationsparamter ω (0, 2) konvergent. Beweis. Wir müssen beweisen, dass r(h ω ) < 1 für alle ω (0, 2) gilt. Mit elementarer Matrixalgebra berechnet man die Identität (Nachprüfen!) H ω = I ω(d + ωl) 1 A = I 2 [ 2A 1 ( 1 ω D + L)] 1 = I 2(Q + I) 1 = (Q I)(Q + I) 1 mit der Wahl Q := 2A 1 ( 1 ω D + L) I Wir zeigen, dass alle Eigenwerte von Q einen positiven Realteil besitzen. Mit anderen Worten, das Spektrum von Q (σ(q) Menge der Eigenwerte) liegt in der positiven komplexen Halbebene: σ(q) { λ C : Reλ > 0 }. (9.11) Sei λ ein Eigenwert von Q, d.h. λx = Qx = 2A 1 ( 1 ω D + L)x x für einen Vektor x 0. Daraus folgt λax = 2( 1 D + L)x Ax. ω

15 Numerik I. Version: Wir bilden das Skalarprodukt dieser Gleichung mit x und betrachten nur den Realteil beider Seiten. Wir benutzen x Ax = (x, Ax) R (da A symmetrisch ist) und die Identität 2 Re x Bx = 2 Re (x, Bx) = (x, Bx) + (x, Bx) = (x, Bx) + (Bx,x) = (x, (B + B )x) in der folgenden Berechnung: ( Reλ) x Ax = 2 Re x ( 1 ω D + L)x x Ax = x ( 2 ω D + L + ) }{{} L x x (D + L + R)x = ( 2 ω 1) x Dx > 0. =R (Hier L = R folgt aus der Symmetrie von A = L + D + R.) Wegen x Ax > 0, x Dx > 0 und ω (0, 2) folgt daraus, dass Reλ > 0, damit ist (9.11) bewiesen. Wegen H ω = (Q I)(Q+I) 1 gilt σ(h ω ) { λ 1 λ + 1 : λ σ(q)}. Einfache Arithmetik zeigt (Nachprüfen!) und dann folgt r(h ω ) < 1 aus (9.11). λ 1 < 1, für jedes λ mit Reλ > 0 λ + 1

Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren

Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren Universität Hamburg SS 2005 Proseminar Numerik Leitung: Prof. W. Hofmann Vortrag von Markus Stürzekarn zum Thema: Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren Gegeben sei ein lineares

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren 2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 11 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 2010 Prof. Dr. Klaus Höllig

Mehr

5 Iterationsverfahren für lineare Gleichungssysteme

5 Iterationsverfahren für lineare Gleichungssysteme 5 Iterationsverfahren für lineare Gleichungssysteme Klassische Iterationsverfahren Sei A R N N und b R N. Wir wollen nun das LGS Ax = b iterativ lösen. Dazu betrachten wir die Komponenten m = 1,...,N:

Mehr

3 Reihen. 3.1 Konvergenz und Divergenz. Die Eindeutigkeit nach Satz 13 ergibt schließlich (5). (6) folgt aus (2) und (1) wegen. 1 a +log ba.

3 Reihen. 3.1 Konvergenz und Divergenz. Die Eindeutigkeit nach Satz 13 ergibt schließlich (5). (6) folgt aus (2) und (1) wegen. 1 a +log ba. Die Eindeutigkeit nach Satz 3 ergibt schließlich (5). (6) folgt aus (2) und () wegen Aussage (7) ergibt sich aus () und (6). 0 = log b = log b ( a a) = log b a +log ba. 3 Reihen 3. Konvergenz und Divergenz

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

Analysis I. Vorlesung 9. Reihen

Analysis I. Vorlesung 9. Reihen Prof. Dr. H. Brenner Osnabrück WS 20/204 Analysis I Vorlesung 9 Reihen Wir haben in der siebten Vorlesung gesagt, dass man eine Dezimalentwicklung, also eine (unendliche) Ziffernfolge mit Ziffern zwischen

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG KLAUSUR ZUR LINEAREN ALGEBRA I Wiederholungsprüfung MUSTERLÖSUNG. April 2008 Name: Studiengang: Aufgabe 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter

Mehr

Kapitel 4. Reihen 4.1. Definition und Beispiele

Kapitel 4. Reihen 4.1. Definition und Beispiele Kapitel 4. Reihen 4.1. Definition und Beispiele Ist (a n ) eine Folge von Zahlen, so heißt der formale Ausdruck a ν = a 0 + a 1 + a 2 +... eine Reihe; die einzelnen a ν sind die Glieder dieser Reihe. Um

Mehr

KAPITEL 1. Einleitung

KAPITEL 1. Einleitung KAPITEL 1 Einleitung Wir beschäftigen uns in dieser Vorlesung mit Verfahren aus der Numerischen linearen Algebra und insbesondere dem sogenannten Mehrgitterverfahren zur Lösung linearer Gleichungssysteme

Mehr

Lineare Algebra II 5. Übungsblatt

Lineare Algebra II 5. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross / Mai Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Algebraisch abgeschlossener Körper) Ein Körper heißt algebraisch abgeschlossen,

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

38 Iterative Verfahren für lineare Gleichungssysteme

38 Iterative Verfahren für lineare Gleichungssysteme 38 Iterative Verfahren für lineare Gleichungssysteme 38.1 Motivation Viele praktische Probleme führen auf sehr große lineare Gleichungssysteme, bei denen die Systemmatrix dünn besetzt ist, d. h. nur wenige

Mehr

Musterlösung zur Klausur Lineare Algebra II für Lehramt 30.07.2012

Musterlösung zur Klausur Lineare Algebra II für Lehramt 30.07.2012 Musterlösung zur Klausur Lineare Algebra II für Lehramt 30.07.0 Aufgabe : Entscheiden Sie in dieser Aufgabe, ob die Aussagen wahr oder falsch sind. Begründungen sind nicht erforderlich. Ein korrekt gesetztes

Mehr

Numerische Mathematik für Ingenieure (SoSe 2013)

Numerische Mathematik für Ingenieure (SoSe 2013) Numerische Mathematik für Ingenieure (SoSe 2013) PD Dr(USA) Maria Charina Auszüge aus Vorlesungsfolien von Prof Joachim Stöckler werden verwendet Für die Bereitstellung dieses Materials und der Tex-Files

Mehr

5 Numerische Mathematik

5 Numerische Mathematik 6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul

Mehr

Musterlösung. Aufgaben zu Iterative Lösung Linearer Gleichungssysteme. Vordiplomskurs Numerische Methoden Sommer 2008

Musterlösung. Aufgaben zu Iterative Lösung Linearer Gleichungssysteme. Vordiplomskurs Numerische Methoden Sommer 2008 Musterlösung Aufgaben zu Iterative Lösung Linearer Gleichungssysteme Vordiplomskurs Numerische Methoden Sommer 8. Betrachte das Gleichungssystem Ax b mit ( ( 3 A, b. 6 8 a Konvergiert das Jacobi Verfahren

Mehr

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 55 Studienplanung Bachelor

Mehr

Begleitmaterial zur Vorlesung Numerik II

Begleitmaterial zur Vorlesung Numerik II Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik

Mehr

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2. MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw

Mehr

Algorithmus zur Berechnung der Jordannormalform

Algorithmus zur Berechnung der Jordannormalform Algorithmus zur Berechnung der Jordannormalform Olivier Sète 19. Januar 2011 Inhaltsverzeichnis 1 Motivation 1 2 Algorithmus Wie und warum funktioniert das? 2 2.1 Zutat 1 Für einen Jordanblock.........................

Mehr

Lösen der Matrizengleichung

Lösen der Matrizengleichung Lösen der Matrizengleichung Oliver Deussen Lösungsverfahren K 1 letztes Kapitel: Berechnung der Formfaktoren F außerdem: B: zu berechnende Strahlung, E: gegebenes Eigenleuchten nun: Wie löst man K B =

Mehr

4 Reihen und Finanzmathematik

4 Reihen und Finanzmathematik 4 Reihen und Finanzmathematik 4. Reihen Aus Folgen lassen sich durch Aufaddieren weitere Folgen konstruieren. Das sind die sogenannten Reihen, sie spielen in der Finanzmathematik eine wichtige Rolle. Sei

Mehr

Numerische Lösung linearer Gleichungssysteme

Numerische Lösung linearer Gleichungssysteme Kapitel 2 Numerische Lösung linearer Gleichungssysteme Dieses Kapitel behandelt numerische Verfahren zur Lösung linearer Gleichungssysteme der Gestalt Ax = b, A R n n, x, b R n (21) mit a 11 a 1n A = a

Mehr

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende

Mehr

Newton-Verfahren für ein Skalarfunktion

Newton-Verfahren für ein Skalarfunktion Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren

Mehr

Kapitel 8. Lineare Gleichungssysteme III: iterative Verfahren

Kapitel 8. Lineare Gleichungssysteme III: iterative Verfahren Kapitel 8. Lineare Gleichungssysteme III: iterative Verfahren Inhalt: 8.1 Fixpunkt-Iteration 8.2 Verfahren der konjugierten Gradienten 8.3 Anwendungsbeispiel Numerische Mathematik I 323 Kap. 8: Lineare

Mehr

Beispiellösung Serie 7

Beispiellösung Serie 7 D-MAVT FS 2014 K. Nipp A. Hiltebrand NUMERISCHE MATHEMATIK Beispiellösung Serie 7 1. a) Exakt: 0.005 1 1 1 0.005 1 ( 1 0 200-199 L = 200 1 Rückwärts einsetzen Lz = b : z 1 = 0.5, z 2 = 1 100 = 99 Rx =

Mehr

Folgen und Grenzwerte

Folgen und Grenzwerte Wintersemester 2015/201 Folgen und Grenzwerte von Sven Grützmacher Dieser Vortrag wurde für den (von der Fachschaft organisierten) Vorkurs für die Studienanfänger an der Fakultät für Mathematik und Informatik

Mehr

Folgen und Reihen. Beschränkte Folge: Es gibt eine Zahl c = const.

Folgen und Reihen. Beschränkte Folge: Es gibt eine Zahl c = const. Folgen und Reihen Folgen: Def.: Eine Abbildung a N K, n a(n) := a n (K = R C) wird Zahlenfolge genannt. Sie heißt reelle (komplexe) Zahlenfolge, falls K = R(C) ist. Symbole: a n K: Elemente der Folge,

Mehr

(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren

(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren Aufgabe Gegeben seien die Punkte A(,,, B(,,, C(,,. (a Geben Sie die Hesse-Normalform der Ebene E, welche die drei Punkte A, B und C enthält, an. (b Bestimmen Sie den Abstand des Punktes P (,, 5 zur Ebene

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Iterative Lösung Linearer Gleichungssysteme

Iterative Lösung Linearer Gleichungssysteme Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:

Mehr

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf. IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei

Mehr

Konvergenz von Folgen

Konvergenz von Folgen 6 Konvergenz von Folgen Definition 6.1 Eine Folge in C (oder R) ist eine Abbildung f : N C (oder R). Schreibweise: (a n ) n N, (a n ), a 1, a 2... wobei a n = f(n). Beispiele: 1) (1 + 2 n ) n N, 3 2, 5

Mehr

Klausur zu Grundlagen der Computermathematik

Klausur zu Grundlagen der Computermathematik Prof. Dr. Klaus Höllig. März 11 Klausur zu Grundlagen der Computermathematik en Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. a Die Folge A n x/ A n

Mehr

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016 Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.

Mehr

Kapitel 3. Iterative Verfahren für LGS. 3.1 Der Banach sche Fixpunktsatz. Definition 3.1:

Kapitel 3. Iterative Verfahren für LGS. 3.1 Der Banach sche Fixpunktsatz. Definition 3.1: Kapitel 3 Iterative Verfahren für LGS 3 Der Banach sche Fixpunktsatz Sei A R n n invertierbar und das LGS A x b gegeben Ein iteratives Verfahren besteht aus einer Berechnungsvorschrift x (j+) F ( x (j))

Mehr

5.3.5 Abstiegs & Gradientenverfahren

5.3.5 Abstiegs & Gradientenverfahren 5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3.5 Abstiegs & Gradientenverfahren Die bisher kennengelernten Iterationsverfahren zur Approximation von linearen Gleichungssystemen haben

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

Vektoren und Matrizen

Vektoren und Matrizen Vektoren und Matrizen Einführung: Wie wir gesehen haben, trägt der R 2, also die Menge aller Zahlenpaare, eine Körperstruktur mit der Multiplikation (a + bi(c + di ac bd + (ad + bci Man kann jedoch zeigen,

Mehr

Höhere Mathematik III WS 05/06 Lösungshinweis Aufgabe G 11 Blatt 2

Höhere Mathematik III WS 05/06 Lösungshinweis Aufgabe G 11 Blatt 2 Höhere Mathematik III WS 5/6 Lösungshinweis Aufgabe G 11 Blatt Die zu optimierende Zielfunktion ist der Abstand zum Ursprung. Ein bekannter Trick (Vereinfachung der Rechnung) besteht darin, das Quadrat

Mehr

Einführung in die numerische Mathematik

Einführung in die numerische Mathematik Prof. Dr. M. Günther K. Gausling, M.Sc. C. Hendricks, M.Sc. Sommersemester 4 Bergische Universität Wuppertal Fachbereich C Mathematik und Naturwissenschaften Angewandte Mathematik / Numerische Analysis

Mehr

8 Konvergenzkriterien und Häufungswerte von Folgen in R

8 Konvergenzkriterien und Häufungswerte von Folgen in R 8 Konvergenzkriterien und Häufungswerte von Folgen in R 8.1 Konvergenz monotoner Folgen 8.2 Die Zahl e 8.3 Existenz monotoner Teilfolgen 8.4 Auswahlprinzip von Bolzano-Weierstraß 8.5 Konvergenzkriterium

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Ausgleichsproblem. Definition (1.0.3)

Ausgleichsproblem. Definition (1.0.3) Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben).

Mehr

Analysis II. Vorlesung 48. Die Hesse-Form

Analysis II. Vorlesung 48. Die Hesse-Form Prof. Dr. H. Brenner Osnabrück SS 2014 Analysis II Vorlesung 48 Die Hesse-Form Wir sind natürlich auch an hinreichenden Kriterien für das Vorliegen von lokalen Extrema interessiert. Wie schon im eindimensionalen

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

Lineare Algebra und Geometrie II, Übungen

Lineare Algebra und Geometrie II, Übungen Lineare Algebra und Geometrie II, Übungen Gruppe (9 9 45 ) Sei A 2 Bestimmen Sie A und A Finden Sie weiters Vektoren u, v R 2 mit u und Au A, beziehungsweise v und Av A Zunächst die Berechnung der Norm

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 4. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 17. März 2016 Lineare Gleichungssysteme 1 Wiederholung: Normen, Jacobi-Matrix,

Mehr

Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 2016/17

Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 2016/17 Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden - Wintersemester 6/7 837 Aufgabe Punkte): Gegeben sei das lineare Gleichungssystem Ax = b mit A = 6 3 und

Mehr

D-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch. Musterlösung 6. x A 1 b. A 1 b A 1. x A ( A. gestört: x A 1 =

D-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch. Musterlösung 6. x A 1 b. A 1 b A 1. x A ( A. gestört: x A 1 = D-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch Musterlösung 6 1. a b exakt: x = c Die Inverse von A lautet x = A 1 b x = A 1 b x A 1 b x A 1 b x A 1 b A x b x κ A b x b 3 1 A 1 = gestört:

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der

Mehr

Kapitel 3. Konvergenz von Folgen und Reihen

Kapitel 3. Konvergenz von Folgen und Reihen Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden

Mehr

PS Numerische Mathematik für LAK WS 08/09, LV-Nr.: , HS Übungsblatt (bis )

PS Numerische Mathematik für LAK WS 08/09, LV-Nr.: , HS Übungsblatt (bis ) . Übungsblatt (bis 5.0.2008). Aufgabe. Skizzieren Sie die Einheitskugeln K (0,) im R 2 für die Normen, 2 und. 2. Aufgabe. Beweisen Sie x x 2 n x für alle x R n. 3. Aufgabe. Bestimmen Sie die relative Konditionszahl

Mehr

KAPITEL 6. Nichtlineare Ausgleichsrechnung

KAPITEL 6. Nichtlineare Ausgleichsrechnung KAPITEL 6 Nichtlineare Ausgleichsrechnung Beispiel 61 Gedämpfte Schwingung: u + b m u + D m u = 0, Lösungen haben die Form: u(t) = u 0 e δt sin(ω d t + ϕ 0 ) Modell einer gedämpften Schwingung y(t; x 1,

Mehr

4.6 Berechnung von Eigenwerten

4.6 Berechnung von Eigenwerten 4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.

Mehr

Iterative Methoden zur Lösung von linearen Gleichungssystemen

Iterative Methoden zur Lösung von linearen Gleichungssystemen Iterative Methoden zur Lösung von linearen Gleichungssystemen (13.12.2011) Ziel Können wir wir die zeitabhängige Schrödinger-Gleichung lösen? φ(t) = e iht ψ(0) Typischerweise sind die Matrizen, die das

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)

Mehr

3. Lineare Gleichungssysteme

3. Lineare Gleichungssysteme 3. Lineare Gleichungssysteme 1 3.1. Problemstellung 2 3.2. Direkte Verfahren 3 3.3. Normen und Fehleranalyse 4 3.4. Iterative Verfahren 5 3.5. Konvergenz von linearen Iterationsverfahren 6 3.6. Gradienten-Verfahren

Mehr

Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB)

Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Prof. R. Leithner, Dipl. Phys. E. Zander Wintersemester 2010/2011 Kapitel 6 Eigenwerte

Mehr

Diplom VP Numerik 28. August 2006

Diplom VP Numerik 28. August 2006 Diplom VP Numerik 8. August 6 Multiple-Choice-Test Punkte) Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine einzige Aussage angekreuzt, gilt diese Aufgabe

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Institut für Geometrie und Praktische Mathematik Multiple-Choice-Test NumaMB F08 (30 Punkte) Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine

Mehr

eps für alle x D. 4. Die Zahl 256 ist in M(2, 4, 6, 6) exakt darstellbar.

eps für alle x D. 4. Die Zahl 256 ist in M(2, 4, 6, 6) exakt darstellbar. IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H13 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei

Mehr

Iterative Verfahren: Allgemeines, Fixpunkt-Iteration, Nullstellen. Prof. U. Rüde - Algorithmik kontinuierlicher Systeme

Iterative Verfahren: Allgemeines, Fixpunkt-Iteration, Nullstellen. Prof. U. Rüde - Algorithmik kontinuierlicher Systeme Algorithmik kontinuierlicher Systeme Iterative Verfahren: Allgemeines, Fiunkt-Iteration, Nullstellen Motivation Viele numerische Probleme lassen sich nicht mit endlich vielen Schritten lösen Nullstellen

Mehr

2 k k 1 k(k + 1) = 2n+1. n = 0 = k(k + 1) = 2n+1 n n. = 2 n+1 n + 2 (n + 1)(n + 2) + n. (n + 1)(n + 2)

2 k k 1 k(k + 1) = 2n+1. n = 0 = k(k + 1) = 2n+1 n n. = 2 n+1 n + 2 (n + 1)(n + 2) + n. (n + 1)(n + 2) Prof. Hesse Höhere Mathematik I und II Musterlösung 7. 0. 0, 80min Aufgabe (3 Punkte) Zeigen Sie mit vollständiger Induktion: Für alle n N gilt n k= k k k(k + ) = n+ n +. Induktionsanfang: k= Induktionsschluss

Mehr

Zulassungsprüfung in Mathematik

Zulassungsprüfung in Mathematik der Deutschen Aktuarvereinigung e V Hinweise: Als Hilfsmittel sind ein Taschenrechner, eine mathematische Formelsammlung sowie entsprechende Literatur zugelassen Die Gesamtpunktzahl beträgt 9 Punkte Die

Mehr

Mathematik I. Vorlesung 7. Folgen in einem angeordneten Körper

Mathematik I. Vorlesung 7. Folgen in einem angeordneten Körper Prof. Dr. H. Brenner Osnabrück WS 009/010 Mathematik I Vorlesung 7 Folgen in einem angeordneten Körper Wir beginnen mit einem motivierenden Beispiel. Beispiel 7.1. Wir wollen die Quadratwurzel einer natürlichen

Mehr

Lösung der Diplom-Vorprüfung Höhere Mathematik III/IV 6.8.005 1 Aufgabe N1 Gegeben seien A = 5-10 -5-10 8-10 -5-10 13 R 3 3 und b = a) Überprüfen Sie, ob die Matrix A positiv definit ist. b) Bestimmen

Mehr

Quadratische Formen und Definitheit

Quadratische Formen und Definitheit Universität Basel Wirtschaftswissenschaftliches Zentrum Quadratische Formen und Definitheit Dr. Thomas Zehrt Inhalt: 1. Quadratische Formen 2. Quadratische Approximation von Funktionen 3. Definitheit von

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 21 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,,255}, n = 1,,N, m = 1,,M dig Camera Realisierung von B η ist

Mehr

2.6 Stetigkeit und Grenzwerte

2.6 Stetigkeit und Grenzwerte 2.6 Stetigkeit und Grenzwerte Anschaulich gesprochen ist eine Funktion stetig, wenn ihr Graph sich zeichnen lässt, ohne den Stift abzusetzen. Das ist natürlich keine präzise mathematische Definition und

Mehr

4.4 Orthogonalisierungsverfahren und die QR-Zerlegung

4.4 Orthogonalisierungsverfahren und die QR-Zerlegung 4.4 Orthogonalisierungsverfahren und die QR-Zerlegung Die Zerlegung einer regulären Matrix A R n n in die beiden Dreiecksmatrizen L und R basiert auf der Elimination mit Frobeniusmatrizen, d.h. R = FA,

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 1 Wiederholung Eine Menge von Vektoren a 1, a 2,, a k heisst linear unabhängig, wenn eine Linearkombination c 1 a 1 + c 2 a 2 + + c k a k = k c i a i (1) i=1 nur dann Null sein

Mehr

Stetige Funktionen. Definition. Seien (X, d) und (Y, ϱ) metrische Räume und f : X Y eine Abbildung. D(f) X sei der Definitionsbereich von f.

Stetige Funktionen. Definition. Seien (X, d) und (Y, ϱ) metrische Räume und f : X Y eine Abbildung. D(f) X sei der Definitionsbereich von f. Stetige Funktionen Abbildungen f : X Y, wobei X und Y strukturierte Mengen sind (wie z.b. Vektorräume oder metrische Räume), spielen eine zentrale Rolle in der Mathematik. In der Analysis sind Abbildungen

Mehr

Numerische Verfahren und Grundlagen der Analysis

Numerische Verfahren und Grundlagen der Analysis Numerische Verfahren und Grundlagen der Analysis Rasa Steuding Hochschule RheinMain Wiesbaden Wintersemester 2011/12 R. Steuding (HS-RM) NumAna Wintersemester 2011/12 1 / 26 1. Folgen R. Steuding (HS-RM)

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 55 Studienplanung Bachelor

Mehr

6. Rechnen mit Matrizen.

6. Rechnen mit Matrizen. 6. Rechnen mit Matrizen. In dieser Vorlesung betrachten wir lineare Gleichungs System. Wir betrachten lineare Gleichungs Systeme wieder von zwei Gesichtspunkten her: dem angewandten Gesichtspunkt und dem

Mehr

4 Gleichungen und Ungleichungen

4 Gleichungen und Ungleichungen In diesem Kapitel werden Techniken zur Bestimmung der Lösungsmengen von Gleichungen und Ungleichungen rekapituliert. 4.1 Eindimensionale Gleichungen und Ungleichungen Eine Gleichung oder Ungleichung ohne

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 39 Definitheit von Bilinearformen Wir möchten die symmetrischen Bilinearformen über den reellen Zahlen klassifizieren.

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen (für Informatiker) M. Grepl J. Berger & J.T. Frings Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2010/11 Problemstellung Lineare Gleichungssysteme, iterative Verfahren geg.:

Mehr

7. Nichtlineare Gleichngssysteme. Problem 7: Sei f : R n R n stetig. Löse f(x) = 0.

7. Nichtlineare Gleichngssysteme. Problem 7: Sei f : R n R n stetig. Löse f(x) = 0. 7. Nichtlineare Gleichngssysteme Problem 7: Sei f : R n R n stetig. Löse f(x) = 0. Das Gleichungssystem f(x) = 0 lässt sich in die Fixpunktgleichung x = φ(x) umschreiben, wobei φ : D R n R n. Beispielsweise

Mehr

Im gesamten Kapitel sei Ω eine nichtleere Menge. Wir bezeichnen die Potenzmenge

Im gesamten Kapitel sei Ω eine nichtleere Menge. Wir bezeichnen die Potenzmenge 1 Mengensysteme Ein Mengensystem ist eine Familie von Teilmengen einer Grundmenge und damit eine Teilmenge der Potenzmenge der Grundmenge. In diesem Kapitel untersuchen wir Mengensysteme, die unter bestimmten

Mehr

Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens

Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens Bachelor-Arbeit im -Fach Bachelorstudiengang Mathematik der Mathematisch-Naturwissenschaftlichen Fakultät der Christian-Albrechts-Universität zu Kiel vorgelegt

Mehr

(d) das zu Grunde liegende Problem gut konditioniert ist.

(d) das zu Grunde liegende Problem gut konditioniert ist. Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt

Mehr

MODULPRÜFUNG Numerische Methoden (Elektrotechnik, Meteorologie, Geodäsie und Geoinformatik)

MODULPRÜFUNG Numerische Methoden (Elektrotechnik, Meteorologie, Geodäsie und Geoinformatik) Karlsruher Institut für Technologie KIT) Institut für Analysis Dr. S. Wugalter Herbst 7.9.7 MODULPRÜFUNG Numerische Methoden Elektrotechnik, Meteorologie, Geodäsie und Geoinformatik) Aufgabe 4 Punkte)

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

Analysis I für Studierende der Ingenieurwissenschaften

Analysis I für Studierende der Ingenieurwissenschaften Analysis I für Studierende der Ingenieurwissenschaften Ingenuin Gasser Department Mathematik Universität Hamburg Technische Universität Hamburg Harburg Wintersemester 2008/2009 1 Definition: Sei M R, alsom

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr