Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren
|
|
- Sebastian Holzmann
- vor 7 Jahren
- Abrufe
Transkript
1 Universität Hamburg SS 2005 Proseminar Numerik Leitung: Prof. W. Hofmann Vortrag von Markus Stürzekarn zum Thema: Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren Gegeben sei ein lineares Gleichungssytem in der Form Ax = b mit A C n n und b C n. Die Grundidee der vorgestellten iterativen Methoden zur Lösung des Systems ist eine Zerlegung der Matrix A nach folgendem Schema: A = B + (A B), B C n n Somit ist das LGS äquivalent zu: (B + (A B))x = b Bx = (B A)x + b Ist die Matrix B regulär, so erhält man: x = B 1 (B A)x + B 1 b und die Lösung des LGS ist Fixpunkt der vektorwertigen Funktion f : C n C n, x f(x) = B 1 (B A)x + B 1 b. Nach dem Verfahren der sukzessiven Iteration iteriert man also gemäß = B 1 (B A)x m + B 1 b, (1) um das LGS Ax = b zu lösen. Aufgrund der Zerlegung der Matrix A wird dieser Ansatz auch als Splitting-Methode bezeichnet. 1. Jacobi-Verfahren Das Jacobi-Verfahren mit regulärer Matrix A C n n setzt zur iterativen Lösung eines LGS voraus, dass für die Diagonalelemente von A gilt: 0, i = 1,..., n Gemäß (1) setzen wir B := D := diag(a) mit der regulären Diagonalmatrix D, die einfach zu invertieren ist. Das führt zum 1
2 Jacobi-Verfahren: = D 1 (D A) x m + D } {{ } } {{ 1 } b := G J (x m ) (2) =:M =:N J J Die Matrix M J wird Iterationsmatrix des Jacobi-Verfahrens genannt. Insgesamt haben wir für die Iterierten x m folgende Komponentenschreibweise: i = 1 b i a i x m für i = 1,..., n und m = 0, 1, 2,... (3) Die neue Iterierte wird also ausschließlich mit der alten Iterierten x m berechnet, weshalb diese Methode auch als Gesamtschrittverfahren bezeichnet wird. G J ist eine Abbildung des C n in sich. Die für die Existenz einer Lösung notwendige Selbstabbildungseigenschaft ist also gemäß dem Fixpunktsatz von Banach erfüllt. Damit das Jacobi- Verfahren gegen die Lösung des LGS konvergiert, muss zusätzlich die Konktraktionseigenschaft gelten. Für einander zugeordnete oder zumindestens passende Matrix- und Vektornormen gilt: G J (x) G J (y) = M J x + N J b (M J y + N J b) = M J x M J y = D 1 (D A)(x y) D 1 (D A) (x y) x, y C n Findet man also Matrixnormen, so dass D 1 (D A) = M J < 1 gilt, so ist die Kontraktionseigenschaft erfüllt und das Jacobi-Verfahren konvergiert für eden beliebigen Startwert gegen die Lösung. In der Numerikvorlesung wurde das folgende notwendige und gleichzeitig hinreichende, aber schwer nachzuprüfende Kriterium für die Existenz einer Matrixnorm mit M < 1 für M C n n bewiesen: Satz 1.1: Es gibt genau dann eine einer Vektornorm zugeordnete Matrixnorm mit M < 1 für M C n n, wenn gilt wobei ρ(m) < 1, ρ(m) := max i { λ i : λ i = Eigenwert von M} der betragsmäßig größte Eigenwert von M ist. Zum Beweis verweise ich auf das Numerik-Skript von Prof. Hofmann, S.156/157. ρ(m) wird auch der Spektralradius von M genannt. Je kleiner dieser ist, desto schneller konvergiert ein Verfahren, wenn M dessen Iterationsmatrix ist. Im folgenden Satz sind für drei bekannte Matrixnormen einfacher nachzuprüfende Kriterien zusammengefasst, die hinreichend, edoch nicht notwendig für die Konvergenz sind: 2
3 Satz 1.2: Erfüllt die reguläre Matrix A C n n mit 0, i = 1,..., n das starke Zeilensummenkriterium q := max i=1,...,n oder das starke Spaltensummenkriterium q 1 := max,...,n oder das Quadratsummenkriterium i=1 i a i < 1 a i < 1 q 2 := i, i ( ) 2 ai < 1 dann konvergiert das Jacobi-Verfahren bei beliebigem Startvektor x 0 und für beliebige rechte Seite b C n gegen A 1 b. C n In vielen Anwendungen erfüllt die Matrix A nicht das starke, sondern nur das schwache Zeilensummenkriterium, was wie folgt definiert ist: Definition 1.3: Eine Matrix A C n n erfüllt das schwache Zeilensummenkriterium, wenn gilt: a) a i 1, i = 1,..., n b) Es existiert mindestens eine Zeile i {1,..., n} mit a i < 1. Erfüllt die Matrix A edoch gewisse Voraussetzungen, so kann auch für diesen Fall die Konvergenz nachgewiesen werden. Dazu definieren wir die Zerlegbarkeit einer Matrix: Definition 1.4: Eine Matrix A C n n heißt zerlegbar, wenn es nichtleere Teilmengen N 1 und N 2 von N := {1, 2,..., n} gibt mit: a) N 1 N 2 = b) N 1 N 2 = N c) für edes r N 1 und edes s N 2 gilt a rs = 0 A heißt unzerlegbar, wenn A nicht zerlegbar ist. 3
4 Die Eigenschaft der Unzerlegbarkeit einer Matrix ist gemäß der Definition also ausschließlich von der Besetzungsstruktur dieser abhängig. Die Frage der Konvergenz des Jacobi-Verfahrens im Falle der Erfüllung des schwachen Zeilensummenkriteriums wird mit dieser Definition nun beanwortet durch folgenden Satz: Satz 1.5: Ist eine Matrix A C n n unzerlegbar und erfüllt sie das schwache Zeilensummenkriterium, so konvergiert das Jacobi-Verfahren bei beliebigem Startvektor x 0 C n und für beliebige rechte Seite b C n gegen A 1 b. Für den Beweis des Satzes benötigen wir u.a. den Satz von Gerschgorin, der in der Numerikvorlesung bewiesen wurde und der hier nochmals zitiert wird: Satz von Gerschgorin: Sei die Matrix A C n n, dann gilt: a) Alle Eigenwerte liegen in der Vereinigung der Kreise Z i := z C : z a i b) Alle Eigenwerte liegen in der Vereinigung der Kreise S := z C : z a a i c) Jede Zusammenhangskomponente von Z i oder S enthält genau so viele Eigenwerte, wie Kreise an der Komponente beteiligt sind. Der Beweis ist im Numerik-Skript von Prof. Hofmann auf S.175/176 zu finden. Es folgt der Beweis von Satz 1.5: Die Matrix A C n n erfülle das schwache Zeilensummenkriterium und sei unzerlegbar. Da alle Diagonalelemente der Iterationsmatrix M J des Jacobi-Verfahrens gleich 0 sind und somit nach Gerschgorin alle Z i und S den Mittelpunkt 0 haben, gilt für M J : Z i = z C n : z 0 a i 1, i = 1,..., n Außerdem müssen alle Eigenwerte auch in {Z i } {S } liegen, also folgt, dass alle Eigenwerte von M J betragsmäßig auf keinen Fall größer als 1 sein können und somit einen Betrag kleiner gleich 1 aufweisen müssen. Somit bleibt zu zeigen, dass kein Eigenwert von M J den Betrag 1 hat, wodurch nach Satz 1.1 die Konvergenz folgen würde, da dann der betragsmäßig größte Eigenwert von M J echt kleiner als 1 ist. Annahme: Es gibt einen Eigenwert λ C von M J mit λ = 1. Sei v Eigenvektor zum Eigenwert λ mit v = 1. Wir bilden die beiden Indexmengen i=1 i N 1 := { i i N, x i = 1} und N 2 := N\N 1, 4
5 wobei N wie in Definition 1.4 gewählt ist. Wegen M J v = λv gilt für alle i N: a i v = λv i und somit folgt wegen λ = 1 und v = 1: v i = λ v i a i v a i 1 (4) Ist i N 1, so gilt v i = 1, für diese i steht also in (4) überall Gleichheit. Da nach Voraussetzung das schwache Zeilensummenkriterium gilt, muss es nach Defintion 1.3 ein k N geben, so dass k a k a kk < 1 gilt, woraus folgt, dass für dieses k auch v k < 1 gilt, wie man aus (4) abliest. Daraus folgt N 2, denn k N 2. Weiterhin ist A per Voraussetzung unzerlegbar, was nun bedeutet: r N 1, s N 2 mit a rs 0, denn sonst wäre A zerlegbar. Für dieses r N 1 und s N 2 gilt nun aber wegen s N 2 und a rs 0: a rs a rr v s < a rs a rr, wodurch ein Summand aus (4) echt vergrößert wird und somit dort keine Gleichheit stehen kann. Dies ist aber ein Widerspruch dazu, dass für alle i N 1, also insbesondere auch für i = r, in (4) Gleichheit gilt. Unter der Voraussetzung, dass A unzerlegbar ist und dem schwachen Zeilensummenkriterium genügt, kann es also keinen Eigenwert λ C von M J mit λ = 1 geben. 2. Gauß-Seidel-Verfahren Ausgehend vom Jacobi-Verfahren betrachten wird dessen Komponentenschreibweise (3) und gehen wie folgt vor: Zuerst wird die erste Komponente 1 der neuen Iterierten mittels 1 = 1 b 1 a 1 x m a 11 berechnet. Zur Berechnung der zweiten Komponenten 2 setzen wir 1 anstelle von x m 1 in (3) ein und erhalten: 2 = 1 b 2 a 21 1 a 2 x m a 22 Die dritte Komponente 3 ergibt sich, indem wir 1 sowie 2 anstelle von x m 1 und in (3) einsetzen. Wir erhalten: x m 2 3 = 1 a 33 b =2 a 3 =3 a 3 x m =4
6 Wir führen dies fort und somit ergibt sich für die i-te Komponente des Gauß-Seidel-Verfahrens folgende Schreibweise: i = 1 i 1 b i a i =i+1 a i x m für i = 1,..., n und m = 0, 1, 2,... (5) Dieses Verfahren zieht zur Berechnung der i-ten Komponente der neuen Iterierten also neben den Komponenten der alten Iterierten x m die (i 1) bereits bekannten Komponenten der neuen Iterierten heran. Deshalb wird auch die Bezeichnung Einzelschrittverfahren verwendet. Zur Ermittlung der Matrixschreibweise formen wir (5) um zu: 1 i 1 a i 1 i + i = 1 a i = 1 b i b i =i+1 =i+1 a i x m a i x m i a i = =i+1 a i x m + b i (6) Wir zerlegen die Ausgangsmatrix A des LGS gemäß A = L + R + D, wobei L = (l i ) i,,...,n mit l i = eine strikte linke untere Dreiecksmatrix, R = (r i ) i,,...,n mit r i = { ai, i > 0, sonst { ai, i < 0, sonst eine strikte rechte obere Dreiecksmatrix ist und D wie vorher als D = diag(a) gewählt wurde. Somit ist (6) die Komponentenschreibweise folgender Gleichung: Wir formen um und erhalten das (D + L) = Rx m + b Gauß-Seidel-Verfahren: = (D + L) 1 R x m + (D + L) 1 b := G G (x m ) (7) } {{ } } {{ } =:M G =:N G Analog zum Jacobi-Verfahren sind Kontraktionseigenschaft und somit auch Konvergenz dann gesichert, wenn man Matrixnormen findet, so dass (D + L) 1 R = M G < 1 gilt. Da edoch die Matrix (D + L) nicht so einfach wie zuvor die Matrix D zu invertieren ist, wäre das Nachprüfen der zu Satz 1.1 analogen Kriterien auch deutlich aufwendiger. Dass edoch das starke Zeilensummenkriterium auch für die Konvergenz des Gauß-Seidel-Verfahren hinreichend ist, zeigt folgender Satz, der in der Numerikvorlesung bewiesen wurde. 6
7 Satz 2.1: Erfüllt die reguläre Matrix A C n n mit 0, i = 1,..., n das starke Zeilensummenkriterium q := max i=1,...,n a i < 1 so konvergiert das Gauß-Seidel-Verfahren bei beliebigem Startvektor x 0 C n und für beliebige rechte Seite b C n gegen A 1 b. Der Beweis ist ebenfalls im Numerik-Skript von Prof. Hofmann zu finden, siehe S.153/154. Im Allgemeinen konvergiert das Gauß-Seidel-Verfahren öfter und schneller als das Jacobi- Verfahren, da es bereits errechnete Komponenten der nächsten Iterierten, also bessere Näherungen, noch im gleichen Schritt weiterverwendet. 3. Relaxationsverfahren Unser Ziel ist es in diesem Abschnitt, eine Verbesserung der Konvergenzgeschwindigkeit des Jacobi-Verfahrens zu erreichen. Ausgehend vom allgemeinen Fall (1) formen wir = B 1 (B A)x m + B 1 b, durch Ausmultiplizieren und Ausklammern von B 1 um zu: = x m + B 1 (b Ax m ) } {{ } =:r m Man kann also als Korrektur von x m unter dem Vektor r m verstehen. Die Grundidee der Relaxationsverfahren ist nun eine Gewichtung des Vektors r m mit einem ω R + : = x m + ωb 1 (b Ax m ) (8) Dadurch wird die Lösung des LGS nicht beeinflusst, denn der gesuchte Fixpunkt ˆx von (1) ist ebenfalls Fixpunkt von (8) und somit Lösung des LGS, was man durch Einsetzen nachprüft. Wir formen etzt (8) um und erhalten: = (I ωb 1 A) x m + ωb } {{ } } {{ 1 } b (9) =:M(ω) =:N(ω) Wir suchen nun die bestmögliche Gewichtung von r m, das heißt das optimale ω, so dass der Spektralradius der Iterationsmatrix M(ω) minimal wird. Wir bestimmen ω also gemäß: ω = min α R + ρ(m(α)) Der Gewichtungsfaktor ω wird auch Relaxationsparameter genannt und (9) wird für ω < 1 als Unterrelaxationsverfahren und für ω > 1 als Überrelaxationsverfahren bezeichnet. 7
8 3.1 Jacobi-Relaxationsverfahren Ersetzen wir in (8) wie im Jacobi-Verfahren die Matrix B durch D, so erhalten wir = x m + ωd 1 (b Ax m ), (10) woraus analog zu (9) folgendes Verfahren hervorgeht: Jacobi-Relaxationsverfahren: = (I ωd 1 A) x m + ωd } {{ } } {{ 1 } b (11) =:M J (ω) =:N J (ω) Die Komponentenschreibweise des Verfahrens wird durch (10) geliefert: i = x m i + ω b i a i x m = (1 ω)x m i + ω b i a i x m für i = 1,..., n und m = 0, 1, 2... (12) Der folgende Satz beantwortet die Frage nach dem optimalen Relaxationsparameter ω: Satz 3.1.1: Die Iterationsmatrix des Jacobi-Verfahrens M J habe nur reelle Eigenwerte λ 1... λ n mit den zugehörigen linear unabhängigen Eigenvektoren u 1,..., u n und es gelte ρ(m J ) < 1. Dann besitzt die Iterationsmatrix M J (ω) des Jacobi-Relaxationsverfahrens die Eigenwerte µ i = 1 ω + ωλ i für i = 1,..., n, und es gilt ω opt =: ω = min α R + ρ(m J(α)) = 2 2 λ 1 λ n Beweis: Zunächst wird die erste Aussage bewiesen. Mit (11) und D 1 (D A)u i = D 1 (L + R)u i = M J u i = λ i u i für i = 1,..., n erhalten wir für die Eigenwerte der Iterationsmatrix M J (ω) des Jacobi-Relaxationsverfahrens: M J (ω)u i = (I ωd 1 A)u i = ( I ω(d 1 (L + R) + D 1 D) ) u i = ( I ωi ωd 1 (L + R) ) u i = ( (1 ω)i ωd 1 (L + R) ) u i = (1 ω + ωλ i )u i für i = 1,..., n Aufgrund der linearen Unabhängigkeit der Eigenvektoren u 1,..., u n existieren keine weiteren Eigenwerte. 8
9 Es folgt der Beweis der zweiten Aussage: Gemäß den Voraussetzungen des Satzes und wegen ω R + gilt für die Eigenwerte µ i (ω) = 1 ω + ωλ i, i = 1,..., n, der Iterationsmatrix M J (ω) des Jacobi-Relaxationsverfahrens: µ 1 (ω)... µ n (ω) (13) Um den betragsmäßig größten Eigenwert von M J (ω) möglichst klein zu halten, liegt die Idee Nahe, ω so bestimmen, dass kleinster und größter Eigenwert µ 1 (ω) und µ n (ω) von M J (ω) symmetrisch zum Nullpunkt verteilt sind, sie also den selben Betrag aufweisen. Folgende Bedingung wird also an den optimalen Relaxationsparameter ω gestellt: Durch (13) und (14) werden folgende Aussagen impliziert: µ n (ω ) = µ 1 (ω ) (14) µ 1 (ω ) < 0 < µ n (ω ) (15) Aus (14) erhalten wir: µ 1 (ω ) = µ n (ω ) = ρ(m J (ω )) (16) µ n (ω ) = 1 ω + ω λ n = (1 ω + ω λ 1 ) = µ 1 (ω ) Wir lösen nach ω auf und erhalten wie im Satz: ω = 2 2 λ 1 λ n > 0 Jetzt müssen wir noch die Optimalität von ω nachweisen. Sei ω > ω. Somit folgt mit (15) für µ 1 (ω) und µ 1 (ω ) : Hieraus folgt mit (16): µ 1 (ω) = 1 ω (1 λ 1 ) < 1 ω (1 λ 1 ) = µ 1 (ω ) < 0 } {{ } >0 ρ(m J (ω)) µ 1 (ω) > µ 1 (ω ) = ρ(m J (ω ) Sei nun ω < ω. Analog zu vorher folgt mit (15) für µ n (ω) und µ n (ω ) : µ n (ω) = 1 ω (1 λ n ) > 1 ω (1 λ n ) = µ n (ω ) > 0 } {{ } >0 Hieraus folgt analog zu vorher mit (16): ρ(m J (ω)) µ n (ω) > µ n (ω ) = ρ(m J (ω ) Damit ist der Satz bewiesen, denn für edes beliebige ω ω gilt was gleichbedeutend ist mit: ρ(m J (ω)) > ρ(m J (ω ), ω = ω opt = min ω R + ρ(m J(ω)) 9
10 Wir verdeutlichen noch den Verlauf der Relaxationsfunktion f ω : R R, λ f ω (λ) = 1 ω + ωλ, für nichtoptimale Parameter ω 1 und ω 2 sowie für den optimalen Parameter ω bezüglich gegebener Eigenwerte λ 1 und λ n ( 1, 1). Für die Relaxationsfunktion gilt per Definition f ω (λ i ) = µ i (ω), i = 1,..., n, wodurch man die Wahl von ω durch die Bedingung (14) in der Zeichnung ablesen kann. f ω. 1. f ω (λ n ) 1 f ω1. λ 1 1. λ n f ω2 f ω (λ 1 ) f ω 1 λ 4. Abschließender Vergleich Zum Schluss wollen wir die drei vorgestellten Verfahren anhand eines einfachen Beispiels vergleichen. Wir setzen: A := sowie b := A erfüllt das schwache Zeilensummenkriterium und die Lösung des LGS Ax = b ist offensichtlich x = (1, 2, 3) T. 1) Jacobi-Verfahren: Die Eigenwerte der Iterationsmatrix M J lauten λ , λ und λ und somit gilt für den Spektralradius ρ(m J ) = λ ) Gauß-Seidel-Verfahren: Die Eigenwerte von M G lauten hier κ 1 = 0, κ und κ und für den Spektralradius gilt ρ(m G ) = κ
11 3) Jacobi-Relaxationsverfahren: Wir erhalten den optimalen Parameter ω gemäß Satz aus den Eigenwerten des Jacobi- Verfahrens: ω = 2 2 λ 1 λ Somit gilt für die Eigenwerte von M J (ω ) nach Satz 3.1.1: µ i = 1 ω + ω λ i, i = 1, 2, 3 = µ 1 = µ , µ Hieraus erhält man den Spektralradius von M J (ω ) als ρ(m J (ω )) = µ 1 = µ Es ist also zu erwarten, dass das Gauß-Seidel-Verfahren in diesem Fall am schnellsten konvergiert, da hier der Spektralradius der Iterationsmatrix mit Abstand am kleinsten ist. Auffällig ist, dass die Wahl von ω bereits zu einer deutlichen Verkleinerung des Spektralradius geführt hat und somit für das Jacobi-Relaxationsverfahren eine deutlich schnellere Konvergenz als im Jacobi-Verfahren erwartet werden kann, für das wir eher mit langsamer Konvergenz rechnen. Der Iterationsverlauf der drei Verfahren wird in der folgenden Tabelle für den Startvektor x 0 = (10, 10, 10) T aufgezeigt: Jacobi-Verfahren Gauß-Seidel-Verf. Jacobi-Relaxationsv. m x m 1 x m 2 x m 3 x m 1 x m 2 x m 3 x m 1 x m 2 x m Wie zuvor vermutet, konvergiert das Jacobi-Verfahren äußerst langsam, das Jacobi-Relaxationsverfahren schon deutlich schneller und das Gauß-Seidel-Verfahren schließlich am schnellsten. Um eine Genauigkeit von A 1 b x m < 10 6 zu erreichen, braucht das Jacobi- Verfahren hier 194 Iterationen, das Gauß-Seidel-Verfahren 17 Iterationen und das Jacobi- Relaxationsverfahren 42 Iterationen. Literatur [1] Andreas Meister, Numerik linearer Gleichungssysteme (1999, Vieweg): Abschnitt [2] Wolf Hofmann, Numerische Mathematik (SS 2004 / WS 2005, Universität Hamburg): 11 Iterative Lösung linearer und nichtlinearer Gleichungen [3] H. Werner, R. Schaback, Numerische Mathematik (2001, Universität Göttingen): S , 11
Iterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
MehrBegleitmaterial zur Vorlesung Numerik I
Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 55 Studienplanung Bachelor
Mehr9 Lösung linearer Gleichungssysteme III: Iterative Methoden
Numerik I. Version: 24.06.08 246 9 Lösung linearer Gleichungssysteme III: Iterative Methoden Die Iterationsmethoden des vorherigen Kapitels werden normalerweise für nichtlineare Probleme verwendet, wobei
MehrKAPITEL 1. Einleitung
KAPITEL 1 Einleitung Wir beschäftigen uns in dieser Vorlesung mit Verfahren aus der Numerischen linearen Algebra und insbesondere dem sogenannten Mehrgitterverfahren zur Lösung linearer Gleichungssysteme
MehrBegleitmaterial zur Vorlesung Numerik I
Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik
MehrBegleitmaterial zur Vorlesung Numerik II
Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik
Mehr4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung
4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax
MehrLineare Algebra II 5. Übungsblatt
Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross / Mai Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Algebraisch abgeschlossener Körper) Ein Körper heißt algebraisch abgeschlossen,
Mehr5 Iterationsverfahren für lineare Gleichungssysteme
5 Iterationsverfahren für lineare Gleichungssysteme Klassische Iterationsverfahren Sei A R N N und b R N. Wir wollen nun das LGS Ax = b iterativ lösen. Dazu betrachten wir die Komponenten m = 1,...,N:
MehrAlgorithmus zur Berechnung der Jordannormalform
Algorithmus zur Berechnung der Jordannormalform Olivier Sète 19. Januar 2011 Inhaltsverzeichnis 1 Motivation 1 2 Algorithmus Wie und warum funktioniert das? 2 2.1 Zutat 1 Für einen Jordanblock.........................
MehrTU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX
TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende
Mehr2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren
2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;
MehrKapitel 8. Lineare Gleichungssysteme III: iterative Verfahren
Kapitel 8. Lineare Gleichungssysteme III: iterative Verfahren Inhalt: 8.1 Fixpunkt-Iteration 8.2 Verfahren der konjugierten Gradienten 8.3 Anwendungsbeispiel Numerische Mathematik I 323 Kap. 8: Lineare
MehrKLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG
KLAUSUR ZUR LINEAREN ALGEBRA I Wiederholungsprüfung MUSTERLÖSUNG. April 2008 Name: Studiengang: Aufgabe 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter
MehrIterative Lösung Linearer Gleichungssysteme
Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:
MehrLösungen zum Aufgabenblatt Nr. 1: Konstruktion der reellen Zahlen
Lösungen zum Aufgabenblatt Nr. 1: Konstruktion der reellen Zahlen Aufgabe 1: Es sei D die Menge aller rationalen Dedekind-Mengen, also D := { M 2 Q M is Dedekind-Menge }. Auf der Menge D definieren wir
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der
MehrBegleitmaterial zur Vorlesung Numerik I
Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 55 Studienplanung Bachelor
MehrMusterlösung zur Klausur Lineare Algebra II für Lehramt 30.07.2012
Musterlösung zur Klausur Lineare Algebra II für Lehramt 30.07.0 Aufgabe : Entscheiden Sie in dieser Aufgabe, ob die Aussagen wahr oder falsch sind. Begründungen sind nicht erforderlich. Ein korrekt gesetztes
MehrNumerische Lösung linearer Gleichungssysteme
Kapitel 2 Numerische Lösung linearer Gleichungssysteme Dieses Kapitel behandelt numerische Verfahren zur Lösung linearer Gleichungssysteme der Gestalt Ax = b, A R n n, x, b R n (21) mit a 11 a 1n A = a
MehrHöhere Mathematik III WS 05/06 Lösungshinweis Aufgabe G 11 Blatt 2
Höhere Mathematik III WS 5/6 Lösungshinweis Aufgabe G 11 Blatt Die zu optimierende Zielfunktion ist der Abstand zum Ursprung. Ein bekannter Trick (Vereinfachung der Rechnung) besteht darin, das Quadrat
Mehr5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme
5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme Als zweite Hauptanwendung des Banachschen Fixpunktsatzes besprechen wir in diesem Kapitel die iterative Lösung linearer Gleichungssysteme. Die
MehrMusterlösung. Aufgaben zu Iterative Lösung Linearer Gleichungssysteme. Vordiplomskurs Numerische Methoden Sommer 2008
Musterlösung Aufgaben zu Iterative Lösung Linearer Gleichungssysteme Vordiplomskurs Numerische Methoden Sommer 8. Betrachte das Gleichungssystem Ax b mit ( ( 3 A, b. 6 8 a Konvergiert das Jacobi Verfahren
MehrNumerische Mathematik für Ingenieure (SoSe 2013)
Numerische Mathematik für Ingenieure (SoSe 2013) PD Dr(USA) Maria Charina Auszüge aus Vorlesungsfolien von Prof Joachim Stöckler werden verwendet Für die Bereitstellung dieses Materials und der Tex-Files
Mehr38 Iterative Verfahren für lineare Gleichungssysteme
38 Iterative Verfahren für lineare Gleichungssysteme 38.1 Motivation Viele praktische Probleme führen auf sehr große lineare Gleichungssysteme, bei denen die Systemmatrix dünn besetzt ist, d. h. nur wenige
MehrIm gesamten Kapitel sei Ω eine nichtleere Menge. Wir bezeichnen die Potenzmenge
1 Mengensysteme Ein Mengensystem ist eine Familie von Teilmengen einer Grundmenge und damit eine Teilmenge der Potenzmenge der Grundmenge. In diesem Kapitel untersuchen wir Mengensysteme, die unter bestimmten
MehrKapitel 3. Iterative Verfahren für LGS. 3.1 Der Banach sche Fixpunktsatz. Definition 3.1:
Kapitel 3 Iterative Verfahren für LGS 3 Der Banach sche Fixpunktsatz Sei A R n n invertierbar und das LGS A x b gegeben Ein iteratives Verfahren besteht aus einer Berechnungsvorschrift x (j+) F ( x (j))
MehrNumerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
Mehr(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren
Aufgabe Gegeben seien die Punkte A(,,, B(,,, C(,,. (a Geben Sie die Hesse-Normalform der Ebene E, welche die drei Punkte A, B und C enthält, an. (b Bestimmen Sie den Abstand des Punktes P (,, 5 zur Ebene
Mehr2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p
Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.
MehrKap 1: VEKTORRÄUME. (c) (λµ) v = λ (µ v) (b) λ (v + w) = (λ v) + (λ w) (d) 1 v = v
Kap 1: VEKTORRÄUME Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung ϕ : I X, i ϕ(i) = x i, wobei die Menge I in diesem Zusammenhang auch Indexmenge genannt wird. Man schreibt vereinfacht
MehrZufallsvariablen: Die allgemeine Definition
KAPITEL 8 Zufallsvariablen: Die allgemeine Definition 8.1. Zufallsvariablen Bis zu diesem Zeitpunkt haben wir ausschließlich Zufallsvariablen mit endlich oder abzählbar vielen Werten (also diskrete Zufallsvariablen)
Mehr8 Konvergenzkriterien und Häufungswerte von Folgen in R
8 Konvergenzkriterien und Häufungswerte von Folgen in R 8.1 Konvergenz monotoner Folgen 8.2 Die Zahl e 8.3 Existenz monotoner Teilfolgen 8.4 Auswahlprinzip von Bolzano-Weierstraß 8.5 Konvergenzkriterium
MehrNewton-Verfahren für ein Skalarfunktion
Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren
MehrÜberbestimmte Gleichungssysteme
Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare
Mehr5 Numerische Iterationsverfahren
In diesem Kapitel besprechen wir numerische Iterationsverfahren (insbesondere Fixpunktverfahren) als eine weitere Lösungsmethode zur Lösung von linearen Gleichungssystemen (Kapitel 4) sowie zur Lösung
MehrAnalysis I für Studierende der Ingenieurwissenschaften
Analysis I für Studierende der Ingenieurwissenschaften Ingenuin Gasser Department Mathematik Universität Hamburg Technische Universität Hamburg Harburg Wintersemester 2008/2009 1 Definition: Sei M R, alsom
Mehr5 Numerische Mathematik
6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul
Mehr8. Übungsblatt zur Mathematik I für Maschinenbau
Fachbereich Mathematik Prof. Dr. M. Joswig Dr. habil. Sören Kraußhar Dipl.-Math. Katja Kulas 8. Übungsblatt zur Mathematik I für Maschinenbau Gruppenübung WS / 6..-.. Aufgabe G (Matrixinversion mit Gauß-Algorithmus
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme 4. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 17. März 2016 Lineare Gleichungssysteme 1 Wiederholung: Normen, Jacobi-Matrix,
Mehr4.6 Berechnung von Eigenwerten
4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.
MehrMusterlösungen zur Leistungsnachweisklausur vom Studiengang Informatik, Ingenieurinformatik, Lehramt
TU ILMENAU Institut für Mathematik Numerische Mathematik PD Dr. W. Neundorf Musterlösungen zur Leistungsnachweisklausur vom.0.006 Studiengang Informatik, Ingenieurinformatik, Lehramt 1. Lineare Algebra
Mehr2 Rationale und reelle Zahlen
2 reelle Es gibt Mathematik mit Grenzwert (Analysis) und Mathematik ohne Grenzwert (z.b Algebra). Grenzwerte existieren sicher nur dann, wenn der Zahlbereich vollständig ist, also keine Lücken aufweist
Mehr3 Reihen. 3.1 Konvergenz und Divergenz. Die Eindeutigkeit nach Satz 13 ergibt schließlich (5). (6) folgt aus (2) und (1) wegen. 1 a +log ba.
Die Eindeutigkeit nach Satz 3 ergibt schließlich (5). (6) folgt aus (2) und () wegen Aussage (7) ergibt sich aus () und (6). 0 = log b = log b ( a a) = log b a +log ba. 3 Reihen 3. Konvergenz und Divergenz
MehrWiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
MehrKapitel 4. Reihen 4.1. Definition und Beispiele
Kapitel 4. Reihen 4.1. Definition und Beispiele Ist (a n ) eine Folge von Zahlen, so heißt der formale Ausdruck a ν = a 0 + a 1 + a 2 +... eine Reihe; die einzelnen a ν sind die Glieder dieser Reihe. Um
Mehrλ(a n ) n 1 = (λa n ) n 1. Abbildung 1: Graph einer Folge. b n = arctan(n), f n = cos(nπ), g n = n 2, h n = ( 1) n n.
Folgen Es sei X eine beliebige Menge. Eine Folge mit Werten in X ist eine Abbildung von N nach X. Es wird also jeder natürlichen Zahl n (dem Index) ein Element a n aus X zugeordnet (das n-te Folgenglied).
MehrEinführung in die numerische Mathematik
Prof. Dr. M. Günther K. Gausling, M.Sc. C. Hendricks, M.Sc. Sommersemester 4 Bergische Universität Wuppertal Fachbereich C Mathematik und Naturwissenschaften Angewandte Mathematik / Numerische Analysis
MehrKapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen
Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung
MehrNumerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen
(für Informatiker) M. Grepl J. Berger & J.T. Frings Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2010/11 Problemstellung Lineare Gleichungssysteme, iterative Verfahren geg.:
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 11 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 2010 Prof. Dr. Klaus Höllig
MehrBanach scher Fixpunktsatz. 1) D ist abgeschlossen und konvex; 2) f ist selbstabbildend, d.h. f(d) D;
Institut für Geometrie und Praktische Mathematik Höhere Mathematik IV (für Elektrotechniker und Technische Informatiker) - Numerik - SS 2007 Dr. S. Börm, Dr. M. Larin Banach scher Fixpunktsatz Gegeben
Mehry x x y ( 2x 3y + z x + z
Matrizen Aufgabe Sei f R R 3 definiert durch ( ) x 3y x f = x + y y x Berechnen Sie die Matrix Darstellung von f Aufgabe Eine lineare Funktion f hat die Matrix Darstellung A = 0 4 0 0 0 0 0 Berechnen Sie
MehrErweiterungen der LR-Zerlegung
Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme 1 Wiederholung Eine Menge von Vektoren a 1, a 2,, a k heisst linear unabhängig, wenn eine Linearkombination c 1 a 1 + c 2 a 2 + + c k a k = k c i a i (1) i=1 nur dann Null sein
MehrVF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.
IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei
MehrÜbungen zur Mathematik Blatt 1
Blatt 1 Aufgabe 1: Bestimmen Sie die Fourier-Reihe der im Bild skizzierten periodischen Funktion, die im Periodenintervall [ π, π] durch die Gleichung f(x) = x beschrieben wird. Zeichnen Sie die ersten
MehrKAPITEL 6. Nichtlineare Ausgleichsrechnung
KAPITEL 6 Nichtlineare Ausgleichsrechnung Beispiel 61 Gedämpfte Schwingung: u + b m u + D m u = 0, Lösungen haben die Form: u(t) = u 0 e δt sin(ω d t + ϕ 0 ) Modell einer gedämpften Schwingung y(t; x 1,
Mehr4.4 Orthogonalisierungsverfahren und die QR-Zerlegung
4.4 Orthogonalisierungsverfahren und die QR-Zerlegung Die Zerlegung einer regulären Matrix A R n n in die beiden Dreiecksmatrizen L und R basiert auf der Elimination mit Frobeniusmatrizen, d.h. R = FA,
MehrKapitel 1. Vektoren und Matrizen. 1.1 Vektoren
Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren
Mehreps für alle x D. 4. Die Zahl 256 ist in M(2, 4, 6, 6) exakt darstellbar.
IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H13 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei
MehrLineare Algebra und Geometrie II, Übungen
Lineare Algebra und Geometrie II, Übungen Gruppe (9 9 45 ) Sei A 2 Bestimmen Sie A und A Finden Sie weiters Vektoren u, v R 2 mit u und Au A, beziehungsweise v und Av A Zunächst die Berechnung der Norm
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme Nichtlineare Gleichungen oder Gleichungssysteme müssen in vielen Anwendungen der Mathematik gelöst werden. Typischerweise werden die Lösungen nichtlinearer Gleichungen
Mehr5.3.5 Abstiegs & Gradientenverfahren
5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3.5 Abstiegs & Gradientenverfahren Die bisher kennengelernten Iterationsverfahren zur Approximation von linearen Gleichungssystemen haben
MehrKonvergenz von Folgen
6 Konvergenz von Folgen Definition 6.1 Eine Folge in C (oder R) ist eine Abbildung f : N C (oder R). Schreibweise: (a n ) n N, (a n ), a 1, a 2... wobei a n = f(n). Beispiele: 1) (1 + 2 n ) n N, 3 2, 5
MehrLineare Abhängigkeit und Unabhängigkeit. 1-E Ma 1 Lubov Vassilevskaya
Lineare Abhängigkeit und Unabhängigkeit -E Ma Lubov Vassilevskaya Eindimensionaler Raum Abb. -: Zwei nicht gleiche Vektoren auf der gleichen Gerade Jeden Vektor, der auf einer Geraden liegt, kann man durch
MehrArithmetik und Algebra
Willkommen Gliederung "Hallo Welt!" für Fortgeschrittene Friedrich-Alexander-Universität Erlangen-Nürnberg Institut für Informatik Lehrstuhl 2 7. Juni 2005 Willkommen Gliederung Gliederung 1 Repräsentation
Mehr3. Übungsblatt Aufgaben mit Lösungen
. Übungsblatt Aufgaben mit Lösungen Aufgabe 6: Gegeben seien die Ebene E : 4x + x + 8 =, der Punkt P = ( und die Gerade H : x(λ = (4,, + λ(,,, λ R. (a Bestimmen Sie eine Gerade durch den Punkt P, die senkrecht
MehrDie Lineare Algebra-Methode. Mahir Kilic
Die Lineare Algebra-Methode Mahir Kilic 23. Juni 2004 1 Einführung 1.1 Überblick Im Allgemein benutzt man die Lineare Algebra-Methode in der Kombinatorik wie folgt: Für die Bestimmung einer Obergrenze
MehrQR-Algorithmus. Proseminar - Numerische Mathematik Sommersemester Universität Hamburg Fachbereich Mathematik geleitet von Prof.
QR-Algorithmus Proseminar - Numerische Mathematik Sommersemester 2005 - Universität Hamburg Fachbereich Mathematik geleitet von Prof. Wolf Hofmann 1 Im Laufe der Jahre wurde immer wieder versucht, die
MehrLineare Algebra und Numerische Mathematik für D-BAUG
R Käppeli L Herrmann W Wu Herbstsemester 26 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 2 Aufgabe 2 Welche der folgenden Aussagen sind korrekt? (i) Jedes
MehrInexakte Newton Verfahren
Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n
MehrKapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen
Kapitel 2: Lineare Gleichungssysteme 21 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,,255}, n = 1,,N, m = 1,,M dig Camera Realisierung von B η ist
MehrKlausur zu Grundlagen der Computermathematik
Prof. Dr. Klaus Höllig 14. Oktober 2010 Klausur zu Grundlagen der Computermathematik en Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. a Die Folge A
MehrKonvergenz des Jacobi- und Gauß-Seidel-Verfahrens
Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens Bachelor-Arbeit im -Fach Bachelorstudiengang Mathematik der Mathematisch-Naturwissenschaftlichen Fakultät der Christian-Albrechts-Universität zu Kiel vorgelegt
MehrMusterlösung zur Probeklausur zur Angewandten Diskreten Mathematik Dr. Hartmut Lanzinger, Hans- Peter Reck
Musterlösung zur Probeklausur zur Angewandten Diskreten Mathematik Dr. Hartmut Lanzinger, Hans- Peter Reck Gesamtpunktzahl: 114 Punkte, 100 Punkte= 100 %, keine Abgabe 1. Es seien m = 1155 und n = 1280.
MehrD-MATH, D-PHYS, D-CHAB Analysis I HS 2017 Prof. Manfred Einsiedler. Lösung 4
D-MATH, D-PHYS, D-CHAB Analysis I HS 017 Prof. Manfred Einsiedler Lösung 4 Hinweise 1. Zeigen Sie, dass inf X die kleinste obere Schranke von X ist.. Dass z 1, z Lösungen sind, kann man durch Einsetzen
MehrVF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b.
NumaMB F14 Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Bewertung: Vier Fragen richtig beantwortet
MehrÜ b u n g s b l a t t 15
Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 2. 7. 2007 Ü b u n g s b l a t t 15 Hier ist zusätzliches Übungsmaterial zur Klausurvorbereitung quer durch die Inhalte der Vorlesung. Eine
MehrLösung der Diplom-Vorprüfung Höhere Mathematik III/IV Aufgabe N1 (LR-Zerlegung mit Pivotisierung) Gegeben seien R 3.
Lösung der Diplom-Vorprüfung Höhere Mathematik III/IV 7.7.6 Aufgabe N (LR-Zerlegung mit Pivotisierung) Gegeben seien 6 8 A = 8 6 R und b = 6 R. a) Berechnen Sie die LR-Zerlegung von A mit Spaltenpivotisierung.
MehrFolgen und Grenzwerte
Wintersemester 2015/201 Folgen und Grenzwerte von Sven Grützmacher Dieser Vortrag wurde für den (von der Fachschaft organisierten) Vorkurs für die Studienanfänger an der Fakultät für Mathematik und Informatik
MehrLineare Algebra II 9. Übungsblatt
Lineare Algebra II 9. Übungsblatt Fachbereich Mathematik SS Prof. Dr. Kollross 5./6. Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest: ohne Benutzung des Skripts und innerhalb von Minuten!)
MehrInstitut für Geometrie und Praktische Mathematik
RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben).
MehrModulprüfung Numerische Mathematik 1
Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel
MehrInstitut für Geometrie und Praktische Mathematik
RWTH Aachen IGPM RWTH Aachen Institut für Geometrie und Praktische Mathematik Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen
Mehrwww.mathe-aufgaben.com
Abiturprüfung Mathematik Baden-Württemberg (ohne CAS) Pflichtteil Aufgaben Aufgabe : ( VP) Bilden Sie die erste Ableitung der Funktion f mit f(x) = x sin( x + ) Aufgabe : ( VP) Berechnen Sie das Integral
MehrAusgleichsproblem. Definition (1.0.3)
Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst
MehrEinführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB)
Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Prof. R. Leithner, Dipl. Phys. E. Zander Wintersemester 2010/2011 Kapitel 6 Eigenwerte
MehrKlausur DI/LA F 2006 LA : 1
Klausur DI/LA F 26 LA : Aufgabe (4+2=6 Punkte): Gegeben seien die Matrix A und der Vektor b mit λ A = λ und b = λ a) Bestimmen Sie die Werte λ R, für welche das Gleichungssystem Ax = b genau eine, keine
MehrNumerik II. Roland Pulch
Numerik II Roland Pulch Institut für Mathematik und Informatik Mathematisch-Naturwissenschaftliche Fakultät Ernst-Moritz-Arndt-Universität Greifswald Skript zu Iterativer Lösung linearer Gleichungssysteme
Mehr1 Elemente der Wahrscheinlichkeitstheorie
H.-J. Starkloff Unendlichdimensionale Stochastik Kap. 01 11. Oktober 2010 1 1 Elemente der Wahrscheinlichkeitstheorie 1.1 Messbare Räume Gegeben seien eine nichtleere Menge Ω und eine Menge A von Teilmengen
MehrFixpunkt-Iterationen
Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 3. März 2016 Nichtlineare Gleichungen, Fixpunkt-Iterationen 1 Wiederholung Aufgabentypen
MehrWie in der reellen Analysis üblich notiert man Folgen f in der Form
2.1.3 Folgen und Konvergenz Viele aus der Analysisvorlesung bekannte Begriffe lassen sich in den Bereich der metrischen Räume verallgemeinern. Diese Verallgemeinerung hat sich als sehr nützliches mathematisches
MehrÜbungen zum Ferienkurs Lineare Algebra WS 14/15
Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen
MehrProf. Dr. Elmar Grosse-Klönne Institut für Mathematik
Prof. Dr. Elmar Grosse-Klönne Institut für Mathematik Lineare Algebra Analytische Geometrie I* Übungsaufgaben, Blatt Musterlösungen Aufgabe. Es seien A, B, C Teilmengen einer Menge X. Zeige: i A B C =
MehrBeispiellösung Serie 7
D-MAVT FS 2014 K. Nipp A. Hiltebrand NUMERISCHE MATHEMATIK Beispiellösung Serie 7 1. a) Exakt: 0.005 1 1 1 0.005 1 ( 1 0 200-199 L = 200 1 Rückwärts einsetzen Lz = b : z 1 = 0.5, z 2 = 1 100 = 99 Rx =
MehrD-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch. Musterlösung 6. x A 1 b. A 1 b A 1. x A ( A. gestört: x A 1 =
D-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch Musterlösung 6 1. a b exakt: x = c Die Inverse von A lautet x = A 1 b x = A 1 b x A 1 b x A 1 b x A 1 b A x b x κ A b x b 3 1 A 1 = gestört:
MehrÜberbestimmte Gleichungssysteme, Regression
Überbestimmte Gleichungssysteme, Regression 8. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas MUL 16. Mai 2013 C. Brand, E. Hausenblas 8. Vorlesung 1 / 19 Gliederung 1 Überbestimmte
MehrKap. 6: Iterative Lösung von Gleichungssystemen
Kap. 6: Iterative Lösung von Gleichungssystemen 6.1 Einleitung In vielen Anwendungen sind Gleichungssysteme zu lösen, in denen die Unbekannten nichtlinear auftreten. Beispiel: Der Betrag der Gravitationskraft
MehrDonnerstag, 11. Dezember 03 Satz 2.2 Der Name Unterraum ist gerechtfertigt, denn jeder Unterraum U von V ist bzgl.
Unterräume und Lineare Hülle 59 3. Unterräume und Lineare Hülle Definition.1 Eine Teilmenge U eines R-Vektorraums V heißt von V, wenn gilt: Unterraum (U 1) 0 U. (U ) U + U U, d.h. x, y U x + y U. (U )
Mehr