Kapitel 8. Lineare Gleichungssysteme III: iterative Verfahren

Größe: px
Ab Seite anzeigen:

Download "Kapitel 8. Lineare Gleichungssysteme III: iterative Verfahren"

Transkript

1 Kapitel 8. Lineare Gleichungssysteme III: iterative Verfahren Inhalt: 8.1 Fixpunkt-Iteration 8.2 Verfahren der konjugierten Gradienten 8.3 Anwendungsbeispiel Numerische Mathematik I 323

2 Kap. 8: Lineare Gleichungssysteme III: iterative Verfahren Ziel: Lösung des linearen Gleichungssystems mit regulärer Matrix A R n n, b R n. Ax = b Das Gaußsche Eliminationsverfahren erfordert bei Bandmatrizen mit der Bandbreite m den Aufwand 1 3 nm2. Für große Matrizen (n > 10 6, m > 10 2 ) sind dies bereits Rechenoperationen. Bei vielen Aufgaben für zwei- und dreidimensionale Modelle treten Matrizen mit sehr vielen Nullen in den Matrixeinträgen auf, die keine echte Bandstruktur aufweisen. Das Gaußsche Eliminationsverfahren würde zum Auffüllen vieler dieser Stellen führen. Iterationsverfahren bestimmen die Lösung x näherungsweise und nutzen dabei die Struktur der Matrix A aus, indem sie nur auf die von Null verschiedenen Einträge der Matrix A zugreifen. Dies ermöglicht eine kompakte Speicherung dünn besetzter Matrizen (matlab sparse ) und spart Rechenoperationen. Gute iterative Verfahren haben die Komplexität O(nm), wobei m die durchschnittliche Anzahl der von Null verschiedenen Einträge pro Zeile der Matrix ist. Numerische Mathematik I 324

3 Allgemeine Form der Fixpunkt-Iteration 8.1 Fixpunkt-Iteration Allgemeine Form der Fixpunkt-Iteration Mit einer beliebigen invertierbaren Matrix C R n n gilt die Äquivalenz Ax = b Cx = Cx Ax +b x = (I C 1 A)x +C 1 b. Man versucht C so zu wählen, dass zu gegebenem Vektor x (k) der neue Vektor mit wenig Aufwand zu berechnen ist, x (k+1) = (I C 1 A)x (k) +C 1 b die Iterationsfunktion φ : R n R n, φ(x) = (I C 1 A)x +C 1 b kontrahierend ist und eine möglichst kleine Kontraktionszahl besitzt. Zuerst betrachten wir zwei Verfahren, die wenig Aufwand zur Berechnung von x (k+1) erfordern. Numerische Mathematik I 325

4 Gesamtschrittverfahren (Jacobi-Verfahren) Gesamtschrittverfahren (Jacobi-Verfahren) Die Matrix A habe Diagonalelemente a ii Wähle beliebigen Startvektor x (0) R n, z.b. x (0) i 2. Für k = 0,1,2,... = bi a ii. für i = 1,2,...,n: ( löse die i-te Gleichung nach x i ) x (k+1) i = 1 n a ii b i a ij x (k) j. j=1 j i Einzelschrittverfahren (Gauß-Seidel-Verfahren) Die Matrix A habe Diagonalelemente a ii Wähle beliebigen Startvektor x (0) R n, z.b. x (0) i 2. Für k = 0,1,2,... = bi a ii. für i = 1,2,...,n: ( löse die i-te Gleichung nach x i ) x (k+1) i = 1 i 1 n b i a ij x (k+1) j a ij x (k) j. a ii j=1 j=i+1 Numerische Mathematik I 326

5 Beispiel: eindimensionales Modellproblem Beispiel: eindimensionales Modellproblem Zur numerischen Lösung des Randwertproblems 2. Ordnung u (x) = f(x), x [0,1], mit u(0) = u(1) = 0 führt man die übliche Diskretisierung u (x k ) 2u(x k) u(x k 1 ) u(x k+1 ) h 2, h = 1 n+1, x k = kh, 0 k n+1, durch und löst das lineare Gleichungssystem Au = b mit der Tridiagonalmatrix A = R n n zur rechten Seite b k = h 2 f(x k ), 1 k n. Für spätere Zwecke halten wir fest: die Eigenwerte von A sind ( ) kπ λ k = 2 1 cos, 1 k n, n+1 und zugehörige Eigenvektoren sind ( v k = sin jkπ ). n +1 1 j n Numerische Mathematik I 327

6 Beispiel: eindimensionales Modellproblem Zu f(x) 1 sowie n = 4 ist die exakte Lösung u = (2,3,3,2) T. Gesamt- und Einzelschrittverfahren liefern die Werte der folgenden Tabellen. Tabelle 8.1: GSV zum 1-dim. Modellproblem, h = 1 5 x (0) x (1) x (2) x (3) x (4) x (5) x (6) x (7) x (20) Tabelle 8.2: ESV zum 1-dim. Modellproblem, h = 1 5 x (0) x (1) x (2) x (3) x (4) x (5) x (6) x (7) x (20) Numerische Mathematik I 328

7 Darstellung der Iterationsfunktion Darstellung der Iterationsfunktion Die Matrix A wird in drei Teile zerlegt gemäß A = L+D +R mit 0 0 a a 12 a 1n.. a..... L = , D =, R = an 1,n a n1 a n,n a nn 0 0 Proposition a) Die Iterationsfunktion des Gesamtschrittverfahrens lautet φ GSV (x) = (I D 1 A)x +D 1 b. b) Die Iterationsfunktion des Einzelschrittverfahrens lautet φ ESV (x) = (I (L+D) 1 A)x +(L +D) 1 b. Wir nennen J := (I D 1 A) = D 1 (L +R), H 1 := (I (L+D) 1 A) = (L +D) 1 R, die Iterationsmatrizen der beiden Verfahren. (Gesamtschrittverfahren) (Einzelschrittverfahren) Numerische Mathematik I 329

8 Konvergenz der Fixpunktiteration Konvergenz der Fixpunktiteration bei beliebigem Startvektor x (0) R n Satz x (k+1) = (I C 1 A)x (k) +C 1 b (8.1.1) Die Matrizen A und C seien regulär, der Vektor x sei die eindeutige Lösung des linearen Gleichungssystems Ax = b, und B := I C 1 A bezeichne die Iterationsmatrix in (8.1.1). Dann sind die folgenden Aussagen äquivalent: (i) Die Fixpunktiteration (8.1.1) konvergiert bei beliebigem Startvektor x (0) R n gegen x. (ii) B hat den Spektralradius ρ(b) = max{ λ ; λ Eigenwert von B} < 1. (iii) Es gibt eine natürliche Matrixnorm. auf R n n mit B < 1. Numerische Mathematik I 330

9 Natürliche Matrixnormen Erinnerung an 2.1.2, Numerik I: Natürliche Matrixnormen Die Funktion q : R n n R heißt natürliche Matrixnorm, wenn es eine Norm. auf dem R n gibt mit q(a) = max{ Ax ; x R n, x = 1}. Beispiele natürlicher Matrixnormen: a) Zeilensummennorm A, Spaltensummennorm A 1 und Spektralnorm A 2, siehe und (Numerik I). b) Es sei T R n n regulär. Dann ist durch x T := T 1 x, x R n, eine Norm auf R n definiert. Die zugehörige natürliche Matrixnorm ist A T := T 1 AT = max{ Ax T ; x R n, x T = 1}. Numerische Mathematik I 331

10 Hilfssatz zum Spektralradius von Matrizen Die Äquivalenz von (ii) und(iii): Hilfssatz zum Spektralradius von Matrizen Gegeben sei die Matrix B R n n mit Spektralradius ρ(b). a) Für jede natürliche Matrixnorm q : R n n R gilt ρ(b) q(b). b) Zu beliebigem ǫ > 0 existiert eine natürliche Matrixnorm q : R n n R mit q(b) ρ(b)+ǫ. Insgesamt gilt also: ρ(b) = inf{q(b) : q ist natürliche Matrixnorm auf R n n }. Bemerkung: a) In Kapitel 2 (Einführung der Spektralnorm) wurde gezeigt, dass für hermitesche Matrizen A C n n der Spektralradius und die Spektralnorm übereinstimmen: ρ(a) = A 2. b) Der Satz liefert die fundamentale Beziehung ρ(b) = limsup k wobei. eine beliebige Matrixnorm sein darf. ( B k ) 1/k, (8.1.2) Numerische Mathematik I 332

11 Hilfssatz zum Spektralradius von Matrizen Beweis: (a) Mit der zugehörigen Vektornorm. auf R n ist Bx = λx = λ x für jeden Eigenvektor zum betragsgrößten Eigenwert λ, also auch q(b) = B op λ. In Teil (b) wird eine reguläre Matrix T = T 1 T 2 zur Definition einer natürlichen Matrixnorm konstruiert. Hierbei dient T 1 zur Erstellung der Jordan-Normalform von B λ 1 d T 1 1 BT 1 =, λ n 1 d n 1 wobei λ 1,...,λ n die Eigenwerte von B und d 1,...,d n 1 entweder 0 oder 1 sind. Die Matrix T 2 = diag(1,ǫ,...,ǫ n 1 ) liefert eine Skalierung der Nicht-Diagonalelemente λ 1 ǫd T 1 2 T 1 1 BT 1 T 2 = λ n 1 λ n. ǫd n 1 Mit T = T 1 T 2 liefert die natürliche Matrixnorm q : R n n R, q(a) = A T, den Wert q(b) = T 1 2 T 1 1 BT 1 T 2 = max{ λ 1 +ǫd 1,..., λ n 1 +ǫd n 1, λ n } ρ(b)+ǫ. λ n Numerische Mathematik I 333

12 Hilfssatz zum Spektralradius von Matrizen Beweis von 8.1.6: x sei die Lösung von Ax = b, also gilt x = Bx +c. Wir setzen e (k) := x (k) x und erhalten e (k+1) = x (k+1) x = Bx (k) +c Bx c = Be (k), also e (k) = B k e (0). Daher ist (i) in Satz äquivalent zur Beziehung lim k Bk y = 0 für alle y R n. (8.1.3) 1. Die Bedingung (ii) in ist notwendig für (i): Falls (ii) nicht erfüllt ist, besitzt B einen Eigenwert λ C mit λ > 1. Sei w C n \{0} ein zugehöriger Eigenvektor. Dann ist B k w = λ k w = λ k w w keine Nullfolge, also konvergiert wenigstens eine der Folgen B k (Rew), B k (Imw) nicht gegen den Nullvektor. Dies widerspricht (8.1.3). 2. Die Bedingung (iii) (und damit auch (ii)) in ist hinreichend für (i): Sei q eine natürliche Matrixnorm (mit zugehöriger Vektornorm. ), für die q(b) < 1 gilt. Dann folgt für alle y R n und k N also ist (8.1.3) erfüllt. B k y q(b) B k 1 y (q(b)) k y, Numerische Mathematik I 334

13 Satz: lineare Konvergenz der Fixpunktiteration Die Konvergenz ist i.a. linear, also von der Form O(q k ), wobei q = ρ(b) der Spektralradius von B ist: Satz: lineare Konvergenz der Fixpunktiteration Falls die Fixpunktiteration (8.1.1) bei beliebigem Startwert x (0) gegen die Lösung x von Ax = b konvergiert, so gilt Bemerkung: lim sup k ( x (k) x ) 1/k ρ(b). x (0) x a) Falls L := q(b) < 1 mit einer natürlichen Matrixnorm q gilt, so ist die Iterationsfunktion φ sogar kontrahierend bzgl. der zugehörigen Vektornorm auf R n, die Kontraktionskonstante ist L. Deshalb gelten in diesem Fall sogar die a-priori und a-posteriori Fehlerabschätzungen des Banachschen Fixpunktsatzes??. Diese sollten als Abbruchkriterien verwendet werden. b) Selbst wenn q(b) 1, aber ρ(b) < 1 gilt, so wird nach einigen Schritten die lineare Konvergenz e (k) 0 mit der Geschwindigkeit ρ(b) k k0 sichtbar. Dies liegt an der fundamentalen Beziehung (8.1.2). Numerische Mathematik I 335

14 Satz: lineare Konvergenz der Fixpunktiteration Beweis: Aus der Voraussetzung und Satz folgt ρ := ρ(b) < 1. Sei ǫ > 0 und q eine natürliche Matrixnorm mit q(b) < ρ+ǫ. Dann gilt für den Fehler e (k) = x (k) x in der zugehörigen Vektornorm Es folgt in dieser speziellen Vektornorm ( e (k) = B k e (0) q(b) k e (0) (ρ+ǫ) k e (0). lim sup k x (k) x x (0) x ) 1/k ρ+ǫ. Da auf R n alle Normen äquivalent sind, folgt für jede weitere Norm ( ) 1/k x (k) x lim sup k x (0) x ρ+ǫ. Weil ǫ > 0 beliebig gewählt werden kann, folgt die Behauptung. Numerische Mathematik I 336

15 Definition und Satz: GSV und ESV für stark diagonaldominante Matrizen Es folgen zwei Anwendungen von Satz Definition und Satz: GSV und ESV für stark diagonaldominante Matrizen Eine Matrix A R n n heißt stark diagonaldominant, falls a ii > n a ij für alle 1 i n. j=1 j i Ist A stark diagonaldominant, so gilt für die Iterationsmatrizen J und H 1 ρ(j) J < 1, ρ(h 1 ) J < 1. Numerische Mathematik I 337

16 Definition und Satz: GSV und ESV für stark diagonaldominante Matrizen Beweis: Die Voraussetzung liefert a ii 0 für alle i. Also sind J und H 1 wohldefiniert. Die erste Abschätzung folgt sofort aus ρ(j) J = D 1 1 (L +R) = max a ij < 1. 1 i n a ii j i Sei nun µ C ein Eigenwert von H 1 mit zugehörigem Eigenvektor w und w = 1. Dann ist µw = (D +L) 1 Rw = µ(d +L)w = Rw = µw = D 1 (µl +R)w. (8.1.4) Daraus erhalten wir µ = µw = D 1 (µl +R)w D 1 (µl +R) 1 i 1 n = max µa ij + a ij. 1 i n a ii j=1 j=i+1 (8.1.5) Die Annahme µ 1 führt zum Widerspruch 1 i 1 n µ max µa ij + µa ij < µ. 1 i n a ii j=1 j=i+1 Also gilt µ < 1 und (8.1.5) ergibt 1 i 1 n µ max a ij + a ij = J < 1. 1 i n a ii j=1 j=i+1 Numerische Mathematik I 338

17 Definition: Schwach diagonaldominante Matrix In der Praxis treten häufig Matrizen auf, die ein etwas schwächeres Kriterium erfüllen Definition: Schwach diagonaldominante Matrix Eine Matrix A R n n heißt schwach diagonaldominant, wenn a ii n a ij für alle 1 i n, j=1 j i und wenn mindestens ein 1 r n existiert mit a rr > n a rj. j=1 j r Numerische Mathematik I 339

18 Definition: Unzerlegbare Matrix Zusätzlich verlangt man eine weitere Eigenschaft: Definition: Unzerlegbare Matrix Eine Matrix A R n n heißt zerlegbar, wenn es zwei nichtleere Indexmengen I,J {1,2,...,n} gibt mit und I J = {1,2,...,n}, I J =, a i,j = 0 für alle i I, j J. Mit anderen Worten: A ist zerlegbar, wenn es eine Permutationsmatrix P gibt, so dass [ ] PAP T A11 0 = A 21 A 22 gilt. Falls keine solche Zerlegung existiert, heißt A unzerlegbar oder auch irreduzibel. Die Irreduzibilität lässt sich auch so feststellen: Zu beliebigen Indizes 0 r,s n gibt es eine Kette weiterer Indizes k 1,...,k m mit a r,k1 0, a k1,k 2 0, a k2,k a km,s 0. (8.1.6) Numerische Mathematik I 340

19 Satz: GSV und ESV für schwach diagonaldominante unzerlegbare Matrizen Nun lässt sich Satz erweitern Satz: GSV und ESV für schwach diagonaldominante unzerlegbare Matrizen Die Matrix A R n n sei schwach diagonaldominant und unzerlegbar. Dann gilt: a) A ist regulär, b) alle Diagonalelemente a ii sind ungleich 0, c) sowohl das Gesamtschrittverfahren als auch das Einzelschrittverfahren konvergieren für jeden Startvektor x (0). Numerische Mathematik I 341

20 Satz: GSV und ESV für schwach diagonaldominante unzerlegbare Matrizen Beweis: Da A unzerlegbar ist, enthält A keine Nullzeile. Aus der schwachen Diagonaldominanz folgt dann a ii > 0 für alle i, und die Matrizen J und H 1 sind wohldefiniert. Wie in folgt aus der schwachen Diagonaldominanz ρ(j) J 1, ρ(h 1 ) J 1. Wir müssen also nur ausschließen, dass Eigenwerte vom Betrag 1 auftreten. Angenommen, es existiert ein Eigenwert λ C von J mit λ = 1. Sei v zugehöriger Eigenvektor mit v = 1. Der Index r sei gegeben mit v r = 1. Aus λv = Jv folgt (in jeder Zeile i) v i = λv i 1 a ij v j, 1 i n. (8.1.7) a ii j i Für einen Index s liefert die schwache Diagonaldominanz sowie v j 1 v s 1 a sj < 1. a ss j s Wegen v r = 1 ist r s. Aufgrund der Unzerlegbarkeit existiert eine Kette r,k 1,...,k m,s wie in (8.1.6). Wir erhalten aus (8.1.7) den Widerspruch v km. v r 1 a km,km a km,j v j + a km,s }{{} j k m,s 0 v s < 1, 1 a rr a r,j v j + a r,k1 v k1 }{{} < 1. j r,k 1 0 Numerische Mathematik I 342

21 Satz: Konvergenz von ESV für positiv-definite Matrizen Für H 1 verläuft der Beweis von ähnlich, siehe dazu (8.1.5). Für eine weitere Klasse von Matrizen konvergiert das Einzelschrittverfahren Satz: Konvergenz von ESV für positiv-definite Matrizen Falls A positiv definit ist, so konvergiert das Einzelschrittverfahren. Numerische Mathematik I 343

22 Satz: Konvergenz von ESV für positiv-definite Matrizen Beweis: Die Diagonalelemente von A erfüllen a ii > 0, also ist H 1 wohldefiniert. Wir definieren zunächst die Vektornorm x A := x T Ax und zeigen für die zugehörige Operatornorm H 1 A = max{ H 1 x A ; x A = 1} < 1. Dann ist auch ρ(h 1 ) H 1 A < 1 (Hilfssatz 8.1.8). Man beachte die Äquivalenz H 1 A < 1 x T H T 1 AH 1x < x T Ax für alle x 0 x T (A H T 1 AH 1)x > 0 für alle x 0. Mit X := (D +L) 1 und der Symmetrie von A = L+D +L T (also R = L T ) folgt und weiter A H T 1 AH 1 H 1 = XR = X(A+X 1 ) = I +XA, = A (I +XA) T A(I +XA) = A (I +AX T )A(I +XA) = A A AX T A AXA AX T AXA = (AX T A+AXA+AX T AXA) = AX T (X 1 +(X T ) 1 +A) XA }{{} = D = AX T DXA = (XA) T D(XA). Die Diagonalmatrix D ist positiv definit (wegen a ii > 0 wie oben), X und A sind regulär, also ist (XA) T D(XA) ebenfalls positiv definit (Sylvesterscher Trägheitssatz). q.e.d. Numerische Mathematik I 344

23 Das SOR (=successive over-relaxation)-verfahren Um die Konvergenz beim ESV zu beschleunigen, wird in jedem Berechnungsschritt (innere Schleife des ESV) eine Verlängerung der Korrektur vorgenommen: Das SOR (=successive over-relaxation)-verfahren Die Matrix A habe Diagonalelemente a ii 0. Weiter sei ω R. (ω wird Relaxationsparameter genannt.) 1. Wähle beliebigen Startvektor x (0) R n, z.b. x (0) i 2. Für k = 0,1,2,... für i = 1,2,...,n x (k+1) i = 1 i 1 b i a ii j=1 a ij x (k+1) j n j=i+1 = bi a ii. a ij x (k) j x (k+1) i = ω x (k+1) i +(1 ω)x (k) i. Bemerkung: Eine entsprechende Änderung beim Gesamtschrittverfahren liefert das JOR-Verfahren; dies wird hier nicht diskutiert. Numerische Mathematik I 345

24 Beispiel: Beispiel: Tabelle 8.3: SOR zum 1-dim. Modellproblem aus 8.1.4, h = 1 5, ω = 1.2 x (0) x (1) x (2) x (3) x (4) x (5) x (6) x (7) x (13) Tabelle 8.4: SOR zum 1-dim. Modellproblem aus 8.1.4, h = 1 5, ω = 1.3 x (0) x (1) x (2) x (3) x (4) x (5) x (6) x (7) x (9) Zur Wahl des optimalen Relaxationsparameters vgl.?? Numerische Mathematik I 346

25 Iterationsfunktion des SOR-Verfahrens Iterationsfunktion des SOR-Verfahrens Mit A = L+D +R wie in lautet die Iterationsfunktion des SOR-Verfahrens φ SOR (x) = H ω x +ω(d +ωl) 1 b. mit der Iterationsmatrix H ω = (D +ωl) 1 ((1 ω)d ωr). Herleitung: Umstellung der Gleichungen in gibt Dies lautet a ii x (k+1) i 1 i +ω a ij x (k+1) j j=1 = ωb i ω n j=i+1 a ij x (k) j +(1 ω)a ii x (k) i. (D +ωl)x (k+1) = ωb +((1 ω)d ωr)x (k). Bemerkung: Für ω = 1 ist φ SOR = φ ESV in Numerische Mathematik I 347

26 Satz: Konvergenzanalyse Satz: Konvergenzanalyse a) von Kahan: Für beliebiges A mit Diagonalelementen a ii 0 und beliebiges ω R ist ρ(h ω ) ω 1. Die Konvergenz des SOR-Verfahrens kann also höchstens für ω (0, 2) eintreten. b) von Reich und Ostrowski: Für jede positiv definite Matrix A und jedes ω (0,2) gilt ρ(h ω ) < 1, also ist das SOR-Verfahren konvergent. Numerische Mathematik I 348

27 Satz: Konvergenzanalyse Beweis: a) Mit L = D 1 L und R = D 1 R schreibt man H ω um in H ω = (D +ωl) 1 ((1 ω)d ωr) = (I +ω L) 1 D 1 D ((1 ω)i ω R). }{{} = I Weil L und R strikte untere bzw. obere Dreiecksmatrizen sind, folgt deth ω = det(i +ω L) 1 det((1 ω)i ω R) = (1 ω) n. Weil deth ω gleich dem Produkt aller Eigenwerte von H ω ist, folgt ρ(h ω) 1 ω. b) Wir zeigen H ω A < 1 wie in Dies ist wieder äquivalent zur positiven Definitheit der Matrix A H T ωah ω. Mit X := (D +ωl) 1 und R = A D L ist H ω = X((1 ω)d ω(a D L)) = X(D+ωL ωa) = X( X 1 ωa) = I +ωxa. Weiter ergibt sich wie in A H T ω AHω = ωaxt (X 1 +(X T ) 1 +ωa) XA }{{} = (2 ω)d = ω(2 ω)ax T DXA mit der positiv definiten Matrix AX T DXA aus Weil ω(2 ω) > 0 für alle ω (0,2) gilt, ist alles gezeigt. Numerische Mathematik I 349

28 Beispiel: Beispiel: Die Modellmatrix A = tridiag( 1,2, 1) R n n in Beispiel besitzt die Eigenwerte ( ) kπ λ k = 2 1 cos, 1 k n. n+1 Einfache Rechnung ergibt für J = D 1 (L +R) = 1 (2I A) die Eigenwerte 2 Mit h := 1 n+1 ist µ k = cos kπ n+1. ρ(j) = cosπh = 1 π2 h 2 +O(h 4 ), 2 ρ(h 1 ) = ρ(j) 2 = cos 2 πh = 1 π 2 h 2 +O(h 4 ), ω 1 für ω ω, ρ(h ω) = ( 1 ωρ(j)+ 2 ω 4 2 ρ(j) 2 4(ω 1)) für ω < ω. Der Wert ω = ω 2 = 1+ (1,2) liefert das Minimum 1 ρ(j) 2 ρ(h ω ) = ω 1 = 1 1 ρ(j) ρ(j) 2 = 1 sinπh 1+sinπh = 1 2πh +O(h2 ). Dies ist eine deutliche Verbesserung der Rate der linearen Konvergenz. Numerische Mathematik I 350

29 Diskussion: Diskussion: Die im Beispiel gemachte Beobachtung trifft bei Matrizen eines speziellen Typs zu, die bei der Diskretisierung partieller Dgl n auftreten. In diesen Spezialfällen ( M-Matrizen) gilt ρ(h 1 ) = ρ(j) 2 < 1 und ρ(h ω) hat die in angegebene Form. Das absolute Minimum liegt beim optimalen Relaxationsparameter 1 < ω 2 = 1+ 1 ρ(j) < 2, 2 es hat den Wert ρ(h ω ) = ω 1 = 1 1 ρ(j) ρ(j) < 1. 2 ρ(j) ρ(h 1 ) ρ(h ω ) ω linkes Bild, s. Beispiel rechtes Bild ω * = Numerische Mathematik I 351

Numerische Mathematik für Ingenieure (SoSe 2013)

Numerische Mathematik für Ingenieure (SoSe 2013) Numerische Mathematik für Ingenieure (SoSe 2013) PD Dr(USA) Maria Charina Auszüge aus Vorlesungsfolien von Prof Joachim Stöckler werden verwendet Für die Bereitstellung dieses Materials und der Tex-Files

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 21 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,,255}, n = 1,,N, m = 1,,M dig Camera Realisierung von B η ist

Mehr

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren 2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

KAPITEL 1. Einleitung

KAPITEL 1. Einleitung KAPITEL 1 Einleitung Wir beschäftigen uns in dieser Vorlesung mit Verfahren aus der Numerischen linearen Algebra und insbesondere dem sogenannten Mehrgitterverfahren zur Lösung linearer Gleichungssysteme

Mehr

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme Als zweite Hauptanwendung des Banachschen Fixpunktsatzes besprechen wir in diesem Kapitel die iterative Lösung linearer Gleichungssysteme. Die

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

38 Iterative Verfahren für lineare Gleichungssysteme

38 Iterative Verfahren für lineare Gleichungssysteme 38 Iterative Verfahren für lineare Gleichungssysteme 38.1 Motivation Viele praktische Probleme führen auf sehr große lineare Gleichungssysteme, bei denen die Systemmatrix dünn besetzt ist, d. h. nur wenige

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische lineare Iterationsverfahren

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische lineare Iterationsverfahren III. Iterative Löser III.1 Direkte Löser und ihre Nachteile III.2 Klassische lineare Iterationsverfahren Typeset by FoilTEX 1 Erinnerung: Lineares Gleichungssystem bei FDM Diskretisierung einer linearen

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen (für Informatiker) M. Grepl J. Berger & J.T. Frings Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2010/11 Problemstellung Lineare Gleichungssysteme, iterative Verfahren geg.:

Mehr

Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens

Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens Bachelor-Arbeit im -Fach Bachelorstudiengang Mathematik der Mathematisch-Naturwissenschaftlichen Fakultät der Christian-Albrechts-Universität zu Kiel vorgelegt

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

4 Iterative Lösung Linearer Gleichungssysteme 4.1 Fixpunktiteration und Konvergenzsätze.

4 Iterative Lösung Linearer Gleichungssysteme 4.1 Fixpunktiteration und Konvergenzsätze. 4 Iterative Lösung Linearer Gleichungssysteme 4.1 Fixpunktiteration und Konvergenzsätze. Wir betrachten das lineare Gleichungssystem der Form Ax = b; (4.1.1) mit A R n n reguläre Matrix und b R n gegeben,

Mehr

Iterative Lösung Linearer Gleichungssysteme

Iterative Lösung Linearer Gleichungssysteme Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:

Mehr

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.

Mehr

3. Lineare Gleichungssysteme

3. Lineare Gleichungssysteme 3. Lineare Gleichungssysteme 1 3.1. Problemstellung 2 3.2. Direkte Verfahren 3 3.3. Normen und Fehleranalyse 4 3.4. Iterative Verfahren 5 3.5. Konvergenz von linearen Iterationsverfahren 6 3.6. Gradienten-Verfahren

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 11 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 2010 Prof. Dr. Klaus Höllig

Mehr

Kapitel 6. Iterationsverfahren für lineare Gleichungssysteme

Kapitel 6. Iterationsverfahren für lineare Gleichungssysteme Kapitel 6 Iterationsverfahren für lineare Gleichungssysteme Falls n sehr groß ist und falls die Matrix A dünn besetzt ist (sparse), dann wählt man zur Lösung von Ax = b im Allgemeinen iterative Verfahren.

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

D-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch. Musterlösung 6. x A 1 b. A 1 b A 1. x A ( A. gestört: x A 1 =

D-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch. Musterlösung 6. x A 1 b. A 1 b A 1. x A ( A. gestört: x A 1 = D-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch Musterlösung 6 1. a b exakt: x = c Die Inverse von A lautet x = A 1 b x = A 1 b x A 1 b x A 1 b x A 1 b A x b x κ A b x b 3 1 A 1 = gestört:

Mehr

KAPITEL 5. Nichtlineare Gleichungssysteme

KAPITEL 5. Nichtlineare Gleichungssysteme KAPITEL 5. Nichtlineare Gleichungssysteme Beispiel 5.1. Gravitationskraft zwischen zwei Punktmassen m 1 und m 2 mit gegenseitigem Abstand r: F = G m 1m 2 r 2, wobei G = 6.67 10 11 Nm 2 /kg. Gravitationsfeld

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 53 Norm von Endomorphismen und Matrizen Definition 53.1. Es seien V und W endlichdimensionale normierte K-

Mehr

4.6 Berechnung von Eigenwerten

4.6 Berechnung von Eigenwerten 4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.

Mehr

EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK II 1. Numerische Lineare Algebra. Prof. Dr. Hans Babovsky. Institut für Mathematik

EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK II 1. Numerische Lineare Algebra. Prof. Dr. Hans Babovsky. Institut für Mathematik EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK II 1 Numerische Lineare Algebra Prof. Dr. Hans Babovsky Institut für Mathematik Technische Universität Ilmenau 1 Version vom Sommer 2010 INHALTSVERZEICHNIS 1 Inhaltsverzeichnis

Mehr

5 Numerische Iterationsverfahren

5 Numerische Iterationsverfahren In diesem Kapitel besprechen wir numerische Iterationsverfahren (insbesondere Fixpunktverfahren) als eine weitere Lösungsmethode zur Lösung von linearen Gleichungssystemen (Kapitel 4) sowie zur Lösung

Mehr

7. Iterative Lösung. linearer Gleichungssysteme

7. Iterative Lösung. linearer Gleichungssysteme 7. Iterative Lösung linearer Gleichungssysteme 1 Grundlagen (1) Zur Erinnerung: Gesucht ist die Lösung eines linearen Gleichungssystems a 0,0 x 0 +a 0,1 x 1 + a 0,n 1 x n 1 = b 0 a 1,0 x 0 +a 1,1 x 1 +

Mehr

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische Iterationsverfahren. III.3 GMRES und CG-Verfahren

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische Iterationsverfahren. III.3 GMRES und CG-Verfahren III. Iterative Löser III.1 Direkte Löser und ihre Nachteile III.2 Klassische Iterationsverfahren III.3 GMRES und CG-Verfahren Kapitel III (0) 1 Erinnerung: Lineares Gleichungssystem bei FDM Diskretisierung

Mehr

Kapitel 4: Nichtlineare Nullstellenprobleme

Kapitel 4: Nichtlineare Nullstellenprobleme Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 4: Nichtlineare Nullstellenprobleme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 2015 HM: Numerik (SS

Mehr

Begleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme

Begleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme Begleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik 1

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme 2 Lineare Gleichungssysteme Wir betrachten das lineare Gleichungssystem Ax = b mit der n n-koeffizientenmatrix A und der rechten Seite b R n. Wir leiten zuerst eine Variante des Gauss-Algorithmus (LR-Zerlegung)

Mehr

Lineare Iterationsverfahren: Definitionen

Lineare Iterationsverfahren: Definitionen Lineare Iterationsverfahren: Definitionen 1. Ein Lösungsverfahren zur Berechnung von Ax = b heißt iterativ, falls ausgehend von einem Startwert x eine Folge x k von Iterierten bestimmt wird. 2. Ein Iterationsverfahren

Mehr

3 Lineare Differentialgleichungen

3 Lineare Differentialgleichungen 3 Lineare Differentialgleichungen In diesem Kapitel behandeln wir die allgemeine Theorie linearer Differentialgleichungen Sie werden zahlreiche Parallelen zur Theorie linearer Gleichungssysteme feststellen,

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Kapitel 5 Iterative Verfahren für LGS

Kapitel 5 Iterative Verfahren für LGS Kapitel 5 Iterative Verfahren für LGS Einführung Matrixnormen Splitting Verfahren Mehrgitter (Multigrid) Verfahren Gradientenverfahren Vorkonditionierung CG-Verfahren Abbruch von iterativen Verfahren Zusammenfassung

Mehr

(d) das zu Grunde liegende Problem gut konditioniert ist.

(d) das zu Grunde liegende Problem gut konditioniert ist. Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Ziel: Iterative Lösung der (nichtlinearen) Gleichung f(x) = 0.

Ziel: Iterative Lösung der (nichtlinearen) Gleichung f(x) = 0. 6.4 Fixpunkt-Iteration Ziel: Iterative Lösung der (nichtlinearen) Gleichung f(x) = 0. Möglichkeiten: Bisektionsverfahren (Intervallhalbierung) Newton-Verfahren, x k+1 = x k f(x k) f (x k ) für k = 0, 1,

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme I Lineare Gleichungssysteme 1. Gauß Algorithmus Gegeben: Ein lineares Gleichungssystem (GLS) A x = b mit einer regulären (n, n) Koeffizientenmatrix A und der rechten Seite b. Da A regulär, ist das GLS

Mehr

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei

Mehr

Lineare Gleichungssysteme: direkte Verfahren

Lineare Gleichungssysteme: direkte Verfahren Sechste Vorlesung, 24. April 2008, Inhalt Lineare Gleichungssysteme: direkte Verfahren Dreiecksmatrizen Gauß-Elimination LR-Zerlegung Anwendungen: Determinante, Inverse 1 Lösungsverfahren für lineare Gleichungssysteme

Mehr

Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren

Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren Universität Hamburg SS 2005 Proseminar Numerik Leitung: Prof. W. Hofmann Vortrag von Markus Stürzekarn zum Thema: Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren Gegeben sei ein lineares

Mehr

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

51 Numerische Berechnung von Eigenwerten und Eigenvektoren 5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,

Mehr

Mathematik für Physiker, Informatiker und Ingenieure

Mathematik für Physiker, Informatiker und Ingenieure Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel V SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 6. Vorlesung 170004 Numerische Methoden I Clemens Brand 25. März 2010 Nachträge Gliederung Nachträge it Nachträge Wichtige Begriffe Eine Zusammenfassung der Folien 8 16 der letzten

Mehr

Finite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015

Finite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015 Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 5 Aufgabe 8 (Speichertechniken) Finite Elemente Übung 5 a) Stellen Sie die Matrix

Mehr

Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf

Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf Praktikum im Sommersemester 2012 Programmierpraktikum numerische Algorithmen (P2E1) (Numerische Lösung der Wärmeleitungsgleichung)

Mehr

Banach scher Fixpunktsatz. 1) D ist abgeschlossen und konvex; 2) f ist selbstabbildend, d.h. f(d) D;

Banach scher Fixpunktsatz. 1) D ist abgeschlossen und konvex; 2) f ist selbstabbildend, d.h. f(d) D; Institut für Geometrie und Praktische Mathematik Höhere Mathematik IV (für Elektrotechniker und Technische Informatiker) - Numerik - SS 2007 Dr. S. Börm, Dr. M. Larin Banach scher Fixpunktsatz Gegeben

Mehr

8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren

8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren 8. Vorlesung, 5. April 2017 170 004 Numerische Methoden I Eigenwerte und Eigenvektoren 1 Eigenwerte und Eigenvektoren Gegeben ist eine n n-matrix A. Gesucht sind ein vom Nullvektor verschiedener Vektor

Mehr

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β

Mehr

Modulprüfung Numerische Mathematik 1

Modulprüfung Numerische Mathematik 1 Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel

Mehr

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1 D-MAVT Lineare Algebra II FS 8 Prof. Dr. N. Hungerbühler Lösungen Serie. Welche der folgenden Vektoren sind Eigenvektoren der Matrix? (a) (,, ). Ein Vektor v ist Eigenvektor von A :=, falls Av ein skalares

Mehr

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009 Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx

Mehr

Algorithmik kontinuierlicher Systeme

Algorithmik kontinuierlicher Systeme Algorithmik kontinuierlicher Systeme Iterative Verfahren (2/2) Ziel dieser Vorlesung Wie schnell können wir Gleichungssysteme lösen? O(n 3 ) LR- oder QR-Zerlegung: Immer anwendbar Komplexität im Allgemeinen

Mehr

5.1 Iterative Lösung linearer Gleichungssysteme

5.1 Iterative Lösung linearer Gleichungssysteme 5.1 Iterative Lösung linearer Gleichungssysteme à Gegeben: A Œ Ñ n,n regulär, b Œ Ñ n Gesucht: x èè Œ Ñ n : Ax èè = b bzw. Iterationsverfahren: x H0L Œ Ñ n, x Hm+1L := GHx HmL L, m=0,1,..., mit x HmL ô

Mehr

8 Iterationsverfahren zur Lösung von Gleichungssystemen

8 Iterationsverfahren zur Lösung von Gleichungssystemen Numerische Mathematik 378 8 Iterationsverfahren zur Lösung von Gleichungssystemen Nichtlineare Gleichungssysteme (sogar eine nichtlineare Gleichung in einer Unbekannten) müssen fast immer iterativ gelöst

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

Numerische Mathematik für Ingenieure und Physiker

Numerische Mathematik für Ingenieure und Physiker Willi Törnig Peter Spellucci Numerische Mathematik für Ingenieure und Physiker Band 1: Numerische Methoden der Algebra Zweite, überarbeitete und ergänzte Auflage Mit 15 Abbildungen > Springer-Verlag Berlin

Mehr

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23 Kapitel 5 Eigenwerte 5. Definition und Beispiele Wir sehen uns ein System dreier schwingender Kugeln der Massen m, m und m 3 an, die durch Federn aneinander gekoppelt sein sollen. m k m k 3 m 3 x ( t x

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 20.12.13 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1. Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x

Mehr

4.4 Hermitesche Formen

4.4 Hermitesche Formen 44 Hermitesche Formen Wie üblich bezeichnen wir das komplex konjugierte Element von ζ = a + bi C (a, b R) mit ζ = a bi Definition 441 Sei V ein C-Vektorraum Eine hermitesche Form (HF) auf V ist eine Abbildung

Mehr

Kapitel 5. Lösung nichtlinearer Gleichungen

Kapitel 5. Lösung nichtlinearer Gleichungen Kapitel 5. Lösung nichtlinearer Gleichungen 5.1 Nullstellen reeller Funktionen, Newton-Verfahren 5.2 Das Konvergenzverhalten iterativer Verfahren 5.3 Methode der sukzessiven Approximation 5.4 Das Newton-Verfahren

Mehr

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=

Mehr

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v

Mehr

Numerik I. Universität zu Köln SS 2009 Mathematisches Institut Prof. Dr. C. Tischendorf Dr. M. Selva,

Numerik I. Universität zu Köln SS 2009 Mathematisches Institut Prof. Dr. C. Tischendorf Dr. M. Selva, Universität zu Köln SS 009 Mathematisches Institut Prof. Dr. C. Tischendorf Dr. M. Selva, mselva@math.uni-koeln.de Numerik I Musterlösung 1. praktische Aufgabe, Bandmatrizen Bei der Diskretisierung von

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik 4 Punkte Es gibt zu jeder der Aufgaben vier Teilaufgaben. Diese sind mit bzw. zu kennzeichnen hinschreiben. Es müssen

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

18.4 Das Newton-Verfahren

18.4 Das Newton-Verfahren 18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift

Mehr

Erweiterungen der LR-Zerlegung

Erweiterungen der LR-Zerlegung Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen

Mehr

Newton-Verfahren für ein Skalarfunktion

Newton-Verfahren für ein Skalarfunktion Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren

Mehr

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können

Mehr

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen 3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange

Mehr

i j m f(y )h i h j h m

i j m f(y )h i h j h m 10 HÖHERE ABLEITUNGEN UND ANWENDUNGEN 56 Speziell für k = 2 ist also f(x 0 + H) = f(x 0 ) + f(x 0 ), H + 1 2 i j f(x 0 )h i h j + R(X 0 ; H) mit R(X 0 ; H) = 1 6 i,j,m=1 i j m f(y )h i h j h m und passendem

Mehr

Numerische Behandlung von linearen Gleichungssystemen

Numerische Behandlung von linearen Gleichungssystemen Numerische Behandlung von linearen Gleichungssystemen Der Gauÿ'sche Algorithmus Der Gauÿ'sche Algorithmus ist schon besprochen worden. Er eignet sich zwar prinzipiell gut zur Bestimmung der Lösung eines

Mehr

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist: Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,

Mehr

9 Lineare Gleichungssysteme

9 Lineare Gleichungssysteme 9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.

Mehr

Skript zur Vorlesung: Einführung in die numerische Mathematik

Skript zur Vorlesung: Einführung in die numerische Mathematik Skript zur Vorlesung: Einführung in die numerische Mathematik Numerische Lineare Algebra Prof Dr PE Kloeden Institut für Mathematik Johann Wolfgang Goethe Universität Zimmer 0, Robert-Mayer-Straße 0 Telefon:

Mehr

5 Numerische Mathematik

5 Numerische Mathematik 6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul

Mehr

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012)

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Technische Universität München Zentrum Mathematik, M1 Prof. Dr. Boris Vexler Dr. Ira Neitzel Dipl.-Math. Alana Kirchner 7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Diese Auswahl

Mehr

Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen

Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen Proseminar Lineare Algebra SS10 Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen Simon Strahlegger Heinrich-Heine-Universität Betreuung: Prof. Dr. Oleg Bogopolski Inhaltsverzeichnis:

Mehr

Multiplikationen und Divisionen Hauptarbeit des Algorithmus liegt somit in der Berechnung der LR-Zerlegung. (n 1)n(2n 1) 6. = n3 3 n2.

Multiplikationen und Divisionen Hauptarbeit des Algorithmus liegt somit in der Berechnung der LR-Zerlegung. (n 1)n(2n 1) 6. = n3 3 n2. KAPITEL LINEARE GLEICHUNGSSYSTEME 7 Rechenaufwand der LR-Zerlegung: A A : n Divisionen, n 2 Multiplikationen und Additionen A L, R: Also insgesamt n j= j2 + j = n3 3 n 3 Multiplikationen und Divisionen

Mehr

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

Ausgleichsproblem. Definition (1.0.3)

Ausgleichsproblem. Definition (1.0.3) Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst

Mehr

Lösungsskizze zur Wiederholungsserie

Lösungsskizze zur Wiederholungsserie Lineare Algebra D-MATH, HS Prof. Richard Pink Lösungsskizze zur Wiederholungsserie. [Aufgabe] Schreibe die lineare Abbildung f : Q Q 5, x +x +x x x +x +6x f x := x +x +8x x x +x +x. x +x +5x als Linksmultiplikation

Mehr