Numerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen
|
|
- Bettina Fürst
- vor 6 Jahren
- Abrufe
Transkript
1 (für Informatiker) M. Grepl J. Berger & J.T. Frings Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2010/11
2 Problemstellung Lineare Gleichungssysteme, iterative Verfahren geg.: A R n n, b R n, n 1, A dünnbesetzt; ges.: x R n, so dass Ax = b, wobei a 1,1 a 1,2 a 1,n x 1 b 1 a 2,1 a 2,2 a 2,n A =......, x = x 2., b = b 2. a n,1 a n,2 a n,n x n b n und die meisten a i,j = 0 sind. Annahme: A nichtsingulär, d.h. det(a) 0 Spalten von A bilden eine Basis in R n Ax = b eindeutig lösbar.
3 Suchmaschinenranking PageRank Internet mit 3 Webseiten A B C Gegeben: Webseiten A, B und C Verlinkung der Seiten Gesucht: PageRank PR( ) von A, B und C Modell des Zufalls-Surfers: PR(A) PR(B) = 1 d PR(C) 1 }{{}}{{} x = d }{{} PR(A) PR(B) PR(C) }{{} 1 d 3 e + d Ḡ x
4 Suchmaschinenranking PageRank Internet mit 3 Webseiten A B C Gegeben: Webseiten A, B und C Verlinkung der Seiten Gesucht: PageRank PR( ) von A, B und C Modell des Zufalls-Surfers: PR(A) PR(B) = 1 d d PR(C) PR(A) PR(B) PR(C) (I d Ḡ) x = 1 d 3 e (LGS)
5 Suchmaschinenranking PageRank Größe des Index bei Google: September 2005: > 8 Milliarden Anzahl der indizierten Seiten seitdem nicht mehr gelistet. The World s Largest Matrix Computation (C. Moler) Berechnungsverfahren: PR(p i ) = 1 d N + d oder in Matrix-Vektor-Notation p j I(p i ) x = 1 d N e + d Ḡ x. mit x = [PR(p 1 ) PR(p 2 )...] T. PR(p j ) O(p j ).
6 Suchmaschinenranking PageRank Berechnungsverfahren: Iterativ Initialisiere: x(t = 0) = 1 N Löse (Fixpunktgleichung) x(t + 1) = 1 d N e + d Ḡ x(t). bis x(t + 1) x(t) < ε. Algebraisch Für t (stationärer Zustand) ergibt sich x = 1 d N e + d Ḡ x. Lösung des Gleichungssystems (I d Ḡ) x = 1 d N e.
7 Suchmaschinenranking PageRank Power Method Gleichung lässt sich auch schreiben als ( ) 1 d x = N E + d Ḡ x = G x. da Ḡ Übergangswahrscheinlichkeiten darstellt, und N x eine Wahrscheinlichkeitsverteilung mit i=1 x i = 1 ist. Lösung mit Power Method Initialisiere: x(t = 0) = 1 N Löse (Fixpunktgleichung) x(t + 1) = G x(t). bis x(t + 1) x(t) < ε. Hier: eindeutiger max. EW λ max = 1 (Perron-Frobenius)
8 Suchmaschinenranking PageRank Connectivity Matrix G von "Harvard 500" (Stand: August 2003) nz = 2636 Elemente: , nnz(g) = 2636, density =
9 Poisson-Gleichung Gesucht u C 2 (Ω) C( Ω), Ω = [0, 1] 2, so daß Beispiel 12.4.: Lösung der diskretisierten Poisson-Gleichung u = 1 in Ω, Für den Fall f 1, g 0, h = 2 6 (n = 64): u = 0 auf Ω. Typisches Beispiel: Wärmeleitungsgleichung, Diffusionsgleichung
10 Poisson-Gleichung Diskretisierung mit Finite Differenzen Verfahren: Regelmäßiges quadratisches Gitter mit Schrittweite h = 1 n Ersetzen der Ableitungen durch Finite Differenzen Gesucht ist x R m, m = (n 1) 2, so dass Ax = b mit A R m m T I 4 1 A = 1 I T I h , T = I T I I T 1 4, T R (n 1) (n 1) und der Identitätsmatrix.I R (n 1) (n 1).
11 Anzahl der Unbekannten ist bei d Ortsvariablen proportional zu h d. Dünnbesetzte lineare Gleichungssysteme Dünnbesetztheit: Poisson-Gleichung Steifigkeitsmatrizen sind immer dünnbesetzt, d. h. nur eine gleichmäßig beschränkte Anzahl von Einträgen pro Zeile ist von Null verschieden. Diskretisierung mit Finite Differenzen Verfahren: spy(a) nz = 1065 Dahmen-Reusken Elemente: 50625, nnz(g) = 1065, Kapitel density 13 =
12 Poisson-Gleichung Eigenschaften von Steifigkeitsmatrizen: Hochdimensionalität Anzahl der Unbekannten h d bei d Ortsvariablen Dünnbesetztheit Blockstruktur Bei Diskretisierung auf regelmäßigen Rechteckgittern Schlechte Kondition Diskrete Poisson-Gleichung: κ(a) = ( ) 2 2 πh Symmetrie, Positiv-Definitheit Diagonaldominanz (strikt für <) a i,j a i,i für alle i, j i
13 Poisson-Gleichung Nichtnullelemente von L bei der Cholesky-Zerlegung der Matrix A 1 : Problem des "fill in" bei Cholesky-Zerlegung A = LDL T : spy(l) 0 50 Fill-in bei einem direkten Löser Bemerkung Als direkter Löser für ein Gleichungssystem mit der Matrix A 1 würde sich die Cholesky-Zerlegung A 1 = LDL T anbieten. 200 Nichtnulleinträge der Matrizen A 1 und L: nz = 3389 h 1/16 1/32 1/64 1/128 nz(a 1 ) h 2 nz(l) h 3 Dahmen-Reusken Kapitel 13 6 Das Verhalten nz(l) h 3 gegenüber nz(a 1 ) 5h 2 zeigt den ungünsti-
14 Dünnbesetzte Matrizen in Matlab Löse A x = b x = inv(a)b x = Aˆ(-1)b x = A\b Sparse Matrices Matlab is slow only if you use it incorrectly. (Mathworks) Wenn A dünnbesetzt ist, ist der Code langsam, wenn man den folgenden Befehl zu oft benutzt : A(i, j) = Warum? Hat damit zu tun, wie Matlab Matrizen speichert...
15 Dünnbesetzte Matrizen in Matlab Beispiel, wie dünnbesetzte Matrizen in Matlab gespeichert werden: Was passiert, wenn wir den folgenden Befehl eingeben? C(3,1) = 42
16 Dünnbesetzte Matrizen in Matlab Vorher: Nachher:
17 Dünnbesetzte Matrizen in Matlab Der Befehl C(3,1) = 42 benötigt Zeit, die proportional zu den Einträgen in C ist, die ungleich null sind Besseres Vorgehen: drei Vektoren generieren, die die Reihen und Spalten und zugehörige Einträge beinhalten: I(...) =... ; J(...) =... ; X(...) =... ; Zusammenbau der Matrix mit: A = sparse(i,j,x,n,n); Doppelte Einträge werden summiert (z.b. beim Finite Differenzen Code) Preallocate memory (spalloc).
18 Aufgabe Für A R n n (nichtsingulär) und b R n ist das Gleichungssystem A x = b zu lösen. Wir nehmen an, daß n groß (n 1000) und A dünnbesetzt ist. Beispiele: Google-Matrix Markov-Ketten Netzwerkanalyse Diskretisierung von (partiellen) DGL (Finite Differenzen, Finite Elemente, Finite Volumen)...
19 Erinnerung: Nachiteration Sei x 0 eine näherungweise Lösung von A x = b mit Residuum r 0 = b Ax 0.
20 Erinnerung: Nachiteration Sei x 0 eine näherungweise Lösung von A x = b mit Residuum r 0 = b Ax 0. Der Fehler, δ 0 = x x 0, erfüllt A δ 0 = A x A x 0 = b A x 0 = r 0
21 Erinnerung: Nachiteration Sei x 0 eine näherungweise Lösung von A x = b mit Residuum r 0 = b Ax 0. Der Fehler, δ 0 = x x 0, erfüllt A δ 0 = A x A x 0 = b A x 0 = r 0 Exakte Lösung ergibt sich aus x = x 0 + δ 0 = x 0 + A 1 (b A x 0 )
22 Erinnerung: Nachiteration Sei x 0 eine näherungweise Lösung von A x = b mit Residuum r 0 = b Ax 0. Der Fehler, δ 0 = x x 0, erfüllt A δ 0 = A x A x 0 = b A x 0 = r 0 Exakte Lösung ergibt sich aus x = x 0 + δ 0 = x 0 + A 1 (b A x 0 ) Problem: Lösung des LGS benötigt. A δ 0 = b A x 0
23 Erinnerung: Nachiteration Sei x 0 eine näherungweise Lösung von A x = b mit Residuum r 0 = b Ax 0. Der Fehler, δ 0 = x x 0, erfüllt A δ 0 = A x A x 0 = b A x 0 = r 0 Exakte Lösung ergibt sich aus x = x 0 + δ 0 = x 0 + A 1 (b A x 0 ) Problem: Lösung des LGS benötigt. aber... A δ 0 = b A x 0
24 Annahme: wir haben eine näherungweise Lösung x 0 Idee: x = x 0 + A 1 (b A x 0 )
25 Annahme: wir haben eine näherungweise Lösung x 0 x = x 0 + C(b A x 0 ) Idee: Ersetze A 1 durch C, wobei A 1 durch C "gut" approximiert wird, und der Aufwand der Matrix-Vektor Multiplikation Cy gering ist.
26 Annahme: wir haben eine näherungweise Lösung x 0 x k+1 = x k + C(b A x k ), k = 0, 1, 2,... Idee: Ersetze A 1 durch C, wobei A 1 durch C "gut" approximiert wird, und der Aufwand der Matrix-Vektor Multiplikation Cy gering ist. Führe Iteration für k = 0, 1, 2,... ein.
27 Annahme: wir haben eine näherungweise Lösung x 0 x k+1 = x k + C(b A x k ), k = 0, 1, 2,... Idee: Ersetze A 1 durch C, wobei A 1 durch C "gut" approximiert wird, und der Aufwand der Matrix-Vektor Multiplikation Cy gering ist. Führe Iteration für k = 0, 1, 2,... ein. Fixpunktiteration: x k+1 = x k + C(b A x k ) := Φ(x k ), k = 0, 1, 2,....
28 Fixpunktgleichung Φ(x) := x + C(b A x) mit geeignetem C R n n nichtsingulär. Fixpunktiteration x k+1 = Φ(x k ) = x k + C(b A x k ) = (I CA)x k + Cb, k = 0, 1, 2,...
29 Fixpunktgleichung Φ(x) := x + C(b A x) mit geeignetem C R n n nichtsingulär. Fixpunktiteration x k+1 = Φ(x k ) = x k + C(b A x k ) = (I CA)x k + Cb, k = 0, 1, 2,... Für den Fehler e k := x k x ergibt sich also e k+1 = x k+1 x = Φ(x k ) Φ(x ) = (I CA)e k e k = (I CA) k e 0, k = 0, 1, 2,...
30 Satz 13.3 Das Verfahren konvergiert für jeden Startwert x 0 gegen die Lösung x des Gleichungssystems genau dann, wenn ρ(i CA) < 1 gilt, wobei ρ(i CA) der Spektralradius, also der betragsmäßig größte Eigenwert, von I CA ist.
31 Satz 13.3 Das Verfahren konvergiert für jeden Startwert x 0 gegen die Lösung x des Gleichungssystems genau dann, wenn ρ(i CA) < 1 gilt, wobei ρ(i CA) der Spektralradius, also der betragsmäßig größte Eigenwert, von I CA ist. Folgerung 13.5 Für eine beliebige Vektornorm mit zugehöriger Operatornorm gilt: x k x I CA k x 0 x, k = 0, 1, 2,... Die Konvergenz ist für jeden Startwert x 0 gesichert, falls für irgendeine Norm die Bedingung erfüllt ist. I CA < 1
32 Konvergenzrate Dünnbesetzte lineare Gleichungssysteme Maß für die Konvergenzgeschwindigkeit: ρ(i CA).
33 Konvergenzrate Maß für die Konvergenzgeschwindigkeit: ρ(i CA). Je kleiner ρ(i CA) ist, desto schneller wird der Fehler reduziert.
34 Konvergenzrate Dünnbesetzte lineare Gleichungssysteme Maß für die Konvergenzgeschwindigkeit: ρ(i CA). Je kleiner ρ(i CA) ist, desto schneller wird der Fehler reduziert. Mittlere Fehlerreduktion in k Iterationsschritten ( ) e k 1 k σ k = λ e 0 1 = ρ(i CA) für k
35 Konvergenzrate Dünnbesetzte lineare Gleichungssysteme Maß für die Konvergenzgeschwindigkeit: ρ(i CA). Je kleiner ρ(i CA) ist, desto schneller wird der Fehler reduziert. Mittlere Fehlerreduktion in k Iterationsschritten ( ) e k 1 k σ k = λ e 0 1 = ρ(i CA) für k Reduktion des Anfangfehlers e 0 um Faktor 1 e benötigt k = ( ln σ k ) 1 Iterationsschritte
36 Konvergenzrate Dünnbesetzte lineare Gleichungssysteme Maß für die Konvergenzgeschwindigkeit: ρ(i CA). Je kleiner ρ(i CA) ist, desto schneller wird der Fehler reduziert. Mittlere Fehlerreduktion in k Iterationsschritten ( ) e k 1 k σ k = λ e 0 1 = ρ(i CA) für k Reduktion des Anfangfehlers e 0 um Faktor 1 e benötigt k = ( ln σ k ) 1 Iterationsschritte Asymptotische Konvergenzrate ln(ρ(i CA))
37 Wahl von C Zu A R n n wähle C R n n so, daß A 1 durch C genügend gut in dem Sinne approximiert wird, daß ρ(i CA) möglichst klein ist. die Operation y Cy mit möglichst geringem Aufwand durchführbar ist. Beachte: Bei den meisten iterativen Verfahren wird die Operation y Cy durchgeführt, ohne daß die Matrix C explizit berechnet wird.
38 Komplexität Zum Vergleich der unterschiedliche Verfahren, gehen wir davon aus, daß eine Klasse von Gleichungssytemen Ax = b vorliegt vorgegeben ist, mit welchem Faktor R ein (beliebiger) Startfehler reduziert werden soll ( e k = 1 R e0 ) Komplexität eines iterativen Verfahrens Größenordnung der Anzahl arithmetischer Operationen, die benötigt werden, um für das vorliegende Problem eine Fehlerreduktion um den Faktor R zu erreichen.
39 Jakobi Gauß-Seidel SOR Conjugate Gradients (später)
40 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Problemstellung Lineare Gleichungssysteme, iterative Verfahren geg.: A R n n, b R n, det(a) 0, und n 1, A dünnbesetzt; ges.: x R n, so dass Ax = b, wobei a 1,1 a 1,2 a 1,n x 1 b 1 a 2,1 a 2,2 a 2,n A =......, x = x 2., b = b 2. a n,1 a n,2 a n,n x n b n und die meisten a i,j = 0 sind. Vorgehen x k+1 = x k + C(b A x k ), k = 0, 1, 2,....
41 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Definition Definiere die Zerlegung A = D L U wobei a 1, a 2,2 0 D =......, 0 0 a n,n a 1,2 a 1,n. L = a. 2, , U = an 1,n. a n,1 a n,n
42 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Definition Diagonaldominanz Eine Matrix A R n n heißt strikt diagonaldominat, falls gilt n a i,j < a i,i. j=1 j i Zeilen-/Spaltensummenkriterium Eine Matrix A R n n erfüllt das starke Zeilensummenkriterium (bzw. Spaltensummenkriterium), wenn n a max i,j i a i,i < 1, n a bzw. max i,j j a i,i < 1. j=1 j i i=1 j i
43 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Jacobi-Verfahren Beim Jacobi- oder Gesamtschrittverfahren: Die Iterationsvorschrift lautet C = (diag(a)) 1 = D 1. x k+1 = (I D 1 A) x k + D 1 b, d.h. in Komponentenschreibweise ergibt sich: Algorithmus 13.7 (Jacobi-Verfahren) Gegeben: Startvektor x 0 R n. Für k = 0, 1,... berechne: ( x k+1 i = a 1 i,i b i n ) a i,j x k j, i = 1, 2,..., n j=1 j i
44 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Jacobi-Verfahren Vorgehen: Löse i-te Gleichung nach der i-ten Unbekannte x i auf. Verwende Werte aus dem vorherigen Iterationsschritt für die übrigen Unbekannten (x j, j i). Beachte: x k und x k+1 müssen gespeichert werden Verfahren leicht parallelisierbar Rechenaufwand. Der Rechenaufwand pro Iterationsschritt ist beim Jacobi-Verfahren angewandt auf eine dünnbesetzte Matrix A R n n vergleichbar mit einer Matrix-Vektor-Multiplikation A x, beansprucht also O(n) Operationen.
45 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Konvergenz Satz 13.9 Für das Jacobi-Verfahren gelten folgende Konvergenzkriterien: Falls A als auch 2D A symmetrisch positiv definit sind, folgt ρ(i D 1 A) < 1. Falls A irreduzibel diagonaldominant ist, gilt ρ(i D 1 A) I D 1 A < 1. Satz: hinreichende Bedingung Das Jacobi-Verfahren konvergiert, falls A das starke Zeilensummen- oder Spaltensummenkriterium erfüllt.
46 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Beispiel Beispiel Das Diffusionsproblem mit der Matrix A 1. Es gilt ρ(i CA) = ρ(i D 1 A 1 ) = max{ h2 λ λ Eigenwert von A 1 } = 1 2 sin 2 ( 1 2 πh) = cos(πh) π2 h 2. Für die asymptotische Konvergenzrate gilt somit ln(ρ(i D 1 A 1 )) ln(1 1 2 π2 h 2 ) 1 2 π2 h 2. Um einen Startfehler um einen Faktor R zu reduzieren, sind etwa K = Iterationsschritte erforderlich. ln R ln ρ(i D 1 A 1 ) 2 π 2 h 2 ln R Beachte: Die geschätzte Anzahl der notwendigen Iterationsschritte wächst in Abhängigkeit der Schrittweite h wie die Konditionszahlen der betreffenden Matrizen. Dahmen-Reusken Kapitel Numerisches 13 Rechnen 15
47 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Beispiel Sei # die Anzahl von Iterationsschritten, die zur Reduktion des Startfehlers um einen Faktor R = 10 3 benötigt werden, und K die theoretische Schätzung von # aus: Ergebnisse: K = ln 103 ln(cos πh) 2 π 2 h 2 ln 103. h 1/40 1/80 1/160 1/320 # K Komplexität. Da m h 2, folgt, daß K m Iterationsschritte benötigt werden. Da jeder Schritt einen zu m proportionalen Aufwand erfordert, ergibt sich, daß die Komplexität des Jacobi-Verfahrens (für diese Problemstellung) etwa c m 2 ist.
48 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Beispiel Gleichungssystem x 1 x 2 x 3 x 4 x 5 =
49 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Beispiel Konvergenz
50 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Gauß-Seidel-Verfahren Beim Gauß-Seidel- oder Einzelschrittverfahren: Die Iterationsvorschrift lautet C = (D L) 1. x k+1 = (I (D L) 1 A) x k + (D L) 1 b, oder (D L) x k+1 = U x k + b, d.h. in Komponentenschreibweise ergibt sich: Algorithmus (Gauß-Seidel-Verfahren) Gegeben: Startvektor x 0 R n. Für k = 0, 1,... berechne: ( x k+1 i = a 1 i,i b i i 1 a i,j x k+1 j n ) a i,j x k j, i = 1, 2,..., n. j=1 j=i+1
51 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Gauß-Seidel-Verfahren Vorgehen: Löse i-te Gleichung nach der i-ten Unbekannte x i auf. Verwende die bereits vorher berechneten Komponenten der neuen Annäherung. Beachte: Nur ein Vektor muss gespeichert werden Verfahren nicht mehr einfach parallelisierbar Ergebnis hängt von der Reihenfolge der Berechnung ab. Rechenaufwand. Für eine dünnbesetzte Matrix A R n n ist der Rechenaufwand pro Iterationsschritt beim Gauß-Seidel-Verfahren vergleichbar mit dem Aufwand beim Jacobi-Verfahren, beträgt also O(n) Operationen.
52 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Konvergenz Satz Für das Gauß-Verfahren gelten folgende Konvergenzkriterien: Falls A symmetrisch positiv definit sind, folgt ρ(i (D L) 1 A) < 1 Falls A irreduzibel diagonaldominant ist, gilt ρ(i (D L) 1 A) I (D L) 1 A < 1. Satz: hinreichende Bedingung Das Gauß-Seidel-Verfahren konvergiert, falls A das starke Zeilensummen- oder Spaltensummenkriterium erfüllt.
53 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Beispiel Beispiel Das Diffusionsproblem mit der Matrix A 1. Dafür gilt: ρ(i CA 1 ) = ρ(i (D L) 1 A 1 ) = (ρ(i D 1 A 1 )) 2 Hieraus ergibt sich: ρ(i CA 1 ) = cos 2 (πh) 1 π 2 h 2. ln(ρ(i (D L) 1 A 1 )) ln(1 π 2 h 2 ) π 2 h 2. Um einen Startfehler um einen Faktor R zu reduzieren sind (asymptotisch) etwa K Iterationsschritte erforderlich, wobei Ergebnisse: K = ln R ln(ρ(i (D L) 1 A 1 )) 1 π 2 ln R. h2 h 1/40 1/80 1/160 1/320 # K Dahmen-Reusken Kapitel Numerisches 13 Rechnen 20
54 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Beispiel Komplexität Für das Gauß-Seidel-Verfahren angewandt auf die diskrete Poisson- Gleichung A 1 x = b, A 1 R m m, m = (n 1) 2, n = 1 h ist die Komplexität c m 2 Operationen. Dahmen-Reusken Kapitel 13 21
55 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Beispiel Konvergenz
56 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Successive Over-Relaxation In vielen Fällen ist die Veränderung der x i von Iteration zu Iteration immer in die gleiche Richtung Korrektur ("over-relaxing") des Iterationsschritts kann die Konvergenz verbessern
57 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Successive Over-Relaxation Iterationsvorschrift bei Gauß-Seidel-Verfahren: ( x k+1 i = x k i + a 1 i,i b i i 1 a i,j x k+1 j n ) a i,j x k j, i = 1,..., n. j=1 Algorithmus (SOR-Verfahren) j=i Gegeben: Startvektor x 0 R n, Parameter ω (0, 2). Für k = 0, 1,... berechne: ( = x k i + ω a 1 i,i b i i 1 a i,j x k+1 j n a i,j x k j x k+1 i j=1 Dies entspricht der Iterationsvorschrift j=i ( 1 ω D L) xk+1 = ( 1 ω D L) xk A x k + b, d.h. C = ( 1 ω D L) 1. ), i = 1,..., n.
58 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Successive Over-Relaxation Rechenaufwand. Beim SOR-Verfahren ist der Rechenaufwand pro Iterationsschritt vergleichbar mit dem Aufwand beim Gauß- Rechenaufwand. Seidel-Verfahren, Beim also O(n) SOR-Verfahren Operationen ist der für Rechenaufwand ein dünnbesetztes pro Iterationsschritt A R n n. vergleichbar dem Aufwand beim Gauß-Seidel- Verfahren, also O(n) Operationen für eine dünnbesetzte Matrix Konvergenz A R n n. Satz Sei M ω := I ( 1 ω D L) 1 A die Iterationsmatrix des SOR-Verfahrens. Es gilt: ρ(m ω ) ω 1. Für A s.p.d. gilt: ρ(m ω ) < 1 für alle ω (0, 2). Sei A irreduzibel diagonaldominant mit a i,j 0 für alle i j und a i,i > 0 für alle i. Dann gilt: ρ(m ω ) < 1 für alle ω (0, 1]. Dahmen-Reusken Numerisches Kapitel 13Rechnen 24
59 Beispiel Jacobi-Verfahren Gauß-Seidel-Verfahren Die Diffusionsgleichung wie in den Beispielen SOR-Verfahren13.10 und für den Fall h = Beispiel Anzahl der Iterationen in Abhängigkeit von ω: Anzahl der Iterationen in Abhängigkeit von ω (h = ) Dahmen-Reusken Numerisches Kapitel 13Rechnen 25
60 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Optimaler Wert von ω Optimaler Wert von ω Der optimale Wert von ω ist stark problemabhängig. Für die meisten Probleme ist dieser optimale Wert nicht bekannt. Eine Ausnahme bildet die diskretisierte Poisson-Gleichung (Matrix A 1 ): Der optimale Wert von ω ist stark problemabhängig Für die meisten Probleme ist der optimal Wert nicht bekannt Ausnahme: diskrete Poisson-Gleichung (Matrix A 1 ) Satz Wir betrachten die diskretisierte Poisson-Gleichung A 1 x = b. Sei µ := ρ(i D 1 A 1 ) < 1 der Spektralradius der Iterationsmatrix des Jacobi-Verfahrens. Sei M ω die Iterationsmatrix des SOR-Verfahrens. Dann ist ρ(m ω ) für den Relaxationsparameter 2 2 ω opt := = 1 + µ µ µ 2 optimal und ρ(m ωopt ) = ω opt 1.
61 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Komplexität Komplexität. Für die diskretisierte Poisson-Gleichung A 1 x = b ergibt sich beim SOR-Verfahren mit dem optimalen ω-wert eine sehr große Komplexitätsverbesserung im Vergleich zum Jacobi- und zum Gauß-Seidel- Verfahren. ( ) 2 cos(πh) ρ(m ωopt ) = ω opt 1 = = 1 sin(πh) 1 + sin(πh) 1 + sin(πh) 1 2πh. ln R K = ln ρ(m ωopt ) 1 2πh ln R ln R m. 2π Da der Aufwand pro Iteration proportional zu m ist, hat dieses Verfahren eine Komplexität (für die vorliegende Problemstellung) von c m 1.5 Operationen.
62 Beispiel Dünnbesetzte lineare Gleichungssysteme Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Beispiel Poisson-Gleichung A 1 x = b mit x 0, b und R wie in Beispiel Wir verwenden das SOR-Verfahren mit ω = ω opt. Ergebnisse: h 1/40 1/80 1/160 1/320 # K Dahmen-Reusken Kapitel 13 29
63 Jacobi-Verfahren Gauß-Seidel-Verfahren SOR-Verfahren Beispiel Konvergenz
64 Viele Problem in der Praxis führen auf große dünnbesetzte lineare Gleichungssysteme Direkte Verfahren Berechnung der Lösung bis auf Rundungsfehler in O(n 3 ) Operationen Problem des "fill-in" bei dünnbesetzten Matrizen Bestimmung der Lösung näherungweise Konvergenz hängt von Spektralradius ρ(i CA) ab Wenn A das strenge Zeilen- oder Spaltensummenkriterium erfüllt, konvergieren das Jacobi-Verfahren, das Gauss- Seidel-Verfahren, und Succesive Over-Relaxation.
Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler
Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 3/4 (.3.4). (a) Für z = + i und z = 3 4i berechne man z z und z z. Die Ergebnisse sind in kartesischer Form anzugeben.
MehrNumerisches Programmieren
Technische Universität München SoSe 213 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Jürgen Bräckle Numerisches Programmieren 2. Programmieraufgabe: Lineare
MehrKevin Caldwell. 18.April 2012
im Rahmen des Proseminars Numerische Lineare Algebra von Prof.Dr.Sven Beuchler 18.April 2012 Gliederung 1 2 3 Mathematische Beschreibung von naturwissenschaftlich-technischen Problemstellungen führt häufig
MehrWie Google Webseiten bewertet. François Bry
Wie Google Webseiten bewertet François Bry Heu6ge Vorlesung 1. Einleitung 2. Graphen und Matrizen 3. Erste Idee: Ranking als Eigenvektor 4. Fragen: Exisi6ert der Eigenvektor? Usw. 5. Zweite Idee: Die Google
MehrDünn besetzte Matrizen. Unterschiede in Speicherbedarf und Rechenzeit im Vergleich zu voll besetzten Matrizen. Besetzungsmuster mit spy.
170 005 Übungen zu Numerische Methoden I Fünfte Übungseinheit 21. März, 22. und 23. April 2013 Inhalt der fünften Übungseinheit: Dünn besetzte Matrizen. Unterschiede in Speicherbedarf und Rechenzeit im
Mehr2 Lineare Gleichungssysteme
Beispiel.5: Funktion von Runge (V) Beispiel Martin-Luther-Universität Halle-Wittenberg, NWF III, Institut für Mathematik Martin Arnold: Grundkurs Numerische Mathematik (WiS 27/8) Abbildung.3: Interpolation
MehrNumerisches Programmieren
Technische Universität München SS 2012 Institut für Informatik Prof Dr Thomas Huckle Dipl-Inf Christoph Riesinger Dipl-Math Alexander Breuer Dipl-Math Dipl-Inf Jürgen Bräckle Dr-Ing Markus Kowarschik Numerisches
MehrPageRank-Algorithmus
Proseminar Algorithms and Data Structures Gliederung Gliederung 1 Einführung 2 PageRank 3 Eziente Berechnung 4 Zusammenfassung Motivation Motivation Wir wollen eine Suchmaschine bauen, die das Web durchsucht.
MehrNumerische Behandlung des Eigenwertproblems
Numerische Behandlung des Eigenwertproblems Zusammenfassung Das Ziel dieses Vortrages ist, zwei gute Methoden für die numerische Bestimmung der Eigenwerte zu zeigen und wie man diese mit Matlab anwenden
MehrSchnelle Lösung großer Gleichungssysteme
Schnelle Lösung großer Gleichungssysteme Anton Schüller 1 Ulrich Trottenberg 1,2 Roman Wienands 2 1 Fraunhofer-Institut Algorithmen und Wissenschaftliches Rechnen SCAI 2 Mathematisches Institut der Universität
MehrOptimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz
Optimale Steuerung Kevin Sieg Fachbereich für Mathematik und Statistik Universität Konstanz 14. Juli 2010 1 / 29 Aufgabenstellung 1 Aufgabenstellung Aufgabenstellung 2 Die zusammengesetzte Trapezregel
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Eines der am häufigsten auftretenden Standardprobleme der angewandten Mathematik ist das Lösen linearer Gleichungssysteme, etwa zur Netzwerkberechnung in der Elektrotechnik oder
MehrElemente der Analysis II
Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel
MehrKAPITEL 3. Lineare Gleichungssysteme, direkte Lösungsverfahren
KAPITEL 3. Lineare Gleichungssysteme, direkte Lösungsverfahren Beispiel 3.2. Gesucht u(x), das eine Differentialgleichung vom Typ u (x) + λ(x)u(x) = f(x), x [0,], mit den Randbedingungen u(0) = u() = 0
MehrBerechnung von Eigenwerten und Eigenvektoren
Kapitel 5 Berechnung von Eigenwerten und Eigenvektoren 5.1 Einführung Bemerkung 5.1 Aufgabenstellung. Diese Kapitel behandelt numerische Verfahren zur Lösung des Eigenwertproblems. Gegeben sei A R n n.
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel
MehrEigenwerte und Eigenvektoren von Matrizen
Eigenwerte und Eigenvektoren von Matrizen Das Eigenwertproblem Sei A eine quadratische Matrix vom Typ m,m. Die Aufgabe, eine Zahl λ und einen dazugehörigen Vektor x zu finden, damit Ax = λx ist, nennt
MehrUntersuchung dünnbesetzter QR-Verfahren bei der Berechnung dünnbesetzter approximativer Inverser
Technische Universität München Institut für Informatik Untersuchung dünnbesetzter QR-Verfahren bei der Berechnung dünnbesetzter approximativer Inverser Diplomarbeit im Fach Informatik Andreas Roy Aufgabensteller
MehrTEILWEISE ASYNCHRONE ALGORITHMEN
TEILWEISE ASYNCHRONE ALGORITHMEN FRANK LANGBEIN Literatur: D. Berseas, J. Tsitsilis: Parallel and distributed computatoin, pp. 48 489 URI: http://www.langbein.org/research/parallel/ Modell teilweiser asynchroner
MehrNichtlineare Optimierungsprobleme mit Komplexität
Definition eines Nichtlinearen Optimierungsproblemes (NLP) min f (x) bzw. min f (x) s.d. x S x S wobei die zulässige Menge S R n typischerweise definiert ist durch S {x R n : h(x) =, c(x) } für Gleichungs-
MehrLineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen
Wir betrachten in diesem Abschnitt das lineare Ausgleichsproblem Ax b 2 = min! (1) Heinrich Voss voss@tu-harburgde Hamburg University of Technology Institute for Numerical Simulation mit gegebenem A R
MehrOhne Mathematik undenkbar!
Die tägliche - Suche: Ohne Mathematik undenkbar! Dipl.-Wirt.Math. Jan Maruhn FB IV - Mathematik Universität Trier 29. März 2006 29. März 2006 Seite 1 Gliederung Einleitung und Motivation Das Internet als
MehrLineare Gleichungssysteme
Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der
MehrPraktikum Wissenschaftliches Rechnen 3. Aufgabenblatt
Institut für Wissenschaftliches Rechnen Technische Universität Braunschweig Prof. Hermann G. Matthies, Ph. D. Dipl.-inform. Oliver Kayser-Herold Praktikum Wissenschaftliches Rechnen 3. Aufgabenblatt Wir
MehrEinführung in die Vektor- und Matrizenrechnung. Matrizen
Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:
MehrKAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:
KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand
Mehr3.3 Eigenwerte und Eigenräume, Diagonalisierung
3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.
MehrGoogle s PageRank. Eine Anwendung von Matrizen und Markovketten. Vortrag im Rahmen der Lehrerfortbildung an der TU Clausthal 23.
Google s PageRank Eine Anwendung von Matrizen und Markovketten Vortrag im Rahmen der Lehrerfortbildung an der TU Clausthal 23. September 2009 Dr. Werner Sandmann Institut für Mathematik Technische Universität
MehrKapitel 15. Lösung linearer Gleichungssysteme
Kapitel 15. Lösung linearer Gleichungssysteme Lineare Gleichungssysteme Wir befassen uns nun mit der Lösung im allgemeinen nichthomogener linearer Gleichungssysteme in zweifacher Hinsicht. Wir studieren
MehrLineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme
Übung Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme Diese Übung beschäftigt sich mit Grundbegriffen der linearen Algebra. Im Speziellen werden lineare Abbildungen, sowie
MehrÜbungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009
Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.
MehrAngewandte Umweltsystemanalyse: Finite-Elemente-Methode (FEM)
Angewandte Umweltsystemanalyse: Finite-Elemente-Methode (FEM) Prof. Dr.-Ing. habil. Olaf Kolditz 1 Helmholtz Centre for Environmental Research UFZ, Leipzig 2 Technische Universität Dresden TUD, Dresden
MehrWir unterscheiden folgende drei Schritte im Design paralleler Algorithmen:
1 Parallele Algorithmen Grundlagen Parallele Algorithmen Grundlagen Wir unterscheiden folgende drei Schritte im Design paralleler Algorithmen: Dekomposition eines Problems in unabhängige Teilaufgaben.
MehrAustausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen
Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:
MehrFB IV Mathematik Universität Trier. Präsentation von Nadja Wecker
FB IV Mathematik Universität Trier Präsentation von Nadja Wecker 1) Einführung Beispiele 2) Mathematische Darstellung 3) Numerischer Fluss für Diffusionsgleichung 4) Konvergenz 5) CFL-Bedingung 6) Zusammenfassung
Mehr1 Lineare Gleichungssysteme
MLAN1 1 LINEARE GLEICHUNGSSYSTEME 1 Literatur: K Nipp/D Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4 Auflage, 1998, oder neuer 1 Lineare Gleichungssysteme Zu den grundlegenden
MehrTeil II. Nichtlineare Optimierung
Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene
MehrLineare Algebra (Mathe I) für Wirtschaftsinformatiker; Zusammenfassung
Lineare Algebra (Mathe I) für Wirtschaftsinformatiker; Zusammenfassung Artur Trzewik sw562@uni-essen.de v1., 26.3.1998 korrigiert 16. Februar 2 Zusammenfassung Warnung: für die Richtigkeit der Definitionnen
MehrTangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:
Tangentengleichung Wie Sie wissen, gibt die erste Ableitung einer Funktion deren Steigung an. Betrachtet man eine fest vorgegebene Stelle, gibt f ( ) also die Steigung der Kurve und somit auch die Steigung
MehrLösungen zum 3. Aufgabenblatt
SS, Lineare Algebra Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com aufrufbar.
Mehr7 Die Determinante einer Matrix
7 Die Determinante einer Matrix ( ) a11 a Die Determinante einer 2 2 Matrix A = 12 ist erklärt als a 21 a 22 det A := a 11 a 22 a 12 a 21 Es ist S 2 = { id, τ}, τ = (1, 2) und sign (id) = 1, sign (τ) =
MehrInstallation. Arbeiten mit der MATLAB-Entwicklungsumgebung. MATLAB als Taschenrechner mit Matrix- und Vektorrechnung.
Installation. Arbeiten mit der MATLAB-Entwicklungsumgebung. MATLAB als Taschenrechner mit Matrix- und Vektorrechnung. Die heutige Sitzung dient dem ersten Kennenlernen von MATLAB. Wir wollen MATLAB zuerst
MehrMathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz
Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen
MehrSuchmaschinen und Markov-Ketten 1 / 42
Suchmaschinen und Markov-Ketten 1 / 42 Zielstellung 1 Wir geben einen kurzen Überblick über die Arbeitsweise von Suchmaschinen für das Internet. Eine Suchmaschine erwartet als Eingabe ein Stichwort oder
MehrRekursionen (Teschl/Teschl 8.1-8.2)
Rekursionen (Teschl/Teschl 8.1-8.2) Eine Rekursion kter Ordnung für k N ist eine Folge x 1, x 2, x 3,... deniert durch eine Rekursionsvorschrift x n = f n (x n 1,..., x n k ) für n > k, d. h. jedes Folgenglied
Mehr17. Penalty- und Barriere-Methoden
H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende
MehrIm Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b
Aufgabe 1: Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. (a) Nehmen Sie lineares Wachstum gemäß z(t) = at + b an, wobei z die Einwohnerzahl ist und
MehrBestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
MehrSatz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die
Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Rückwärtsgleichung P (t) = QP (t), P (0) = E eine minimale nicht negative Lösung (P (t) : t 0). Die Lösung bildet eine Matrix Halbgruppe, d.h. P (s)p
MehrLineare Gleichungssysteme. Lineare Gleichungssysteme. LR Zerlegung ohne Pivotsuche. Zerlegung regulärer Matrizen
Heinrich Voss voss@tu-harburg.de Hamburg University of Technology Institute for Numerical Simulation Betrachte ein lineares Gleichungssystem Ax = b (1) Es sei A C n n eine gegebene regulär Matrix. Dann
MehrMathematik 1. Inhaltsverzeichnis. Prof. Dr. K. Melzer. karin.melzer@hs-esslingen.de http://www.hs-esslingen.de/de/mitarbeiter/karin-melzer.
Mathematik 1 Prof Dr K Melzer karinmelzer@hs-esslingende http://wwwhs-esslingende/de/mitarbeiter/karin-melzerhtml Inhaltsverzeichnis 1 Matrizenrechnung 2 11 Matrixbegri 2 12 Spezielle Matrizen 3 13 Rechnen
MehrLineare Gleichungssysteme und Gauß'scher Algorithmus
Zurück Letzter Update 7... Lineare Gleichungssysteme und Gauß'scher Algorithmus In der Mathematik bezeichnet man mit Matrix ein rechteckiges Schema, in dem Zahlen oder Funktionen angeordnet werden. Hier
MehrNumerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
MehrCharakteristikenmethode im Beispiel
Charakteristikenmethode im Wir betrachten die PDE in drei Variablen xu x + yu y + (x + y )u z = 0. Das charakteristische System lautet dann ẋ = x ẏ = y ż = x + y und besitzt die allgemeine Lösung x(t)
MehrEinführung in die finite Elemente Methode
Einführung in die finite Elemente Methode Andreas Stahel Juni 24 Zusammenfassung In einem ersten Abschnitt werden die Grundideen der Methode der Finiten Elemente an einem einfachen System von Stäben illustriert.
MehrOptimierung mit Matlab
Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof. Dr. L. Cromme Computerbasierte Mathematische Modellierung für Mathematiker, Wirtschaftsmathematiker, Informatiker im Wintersemester
MehrVorlesung 12 22. bzw. 23. Januar 2014. Determinanten 1. Cramersche Regel
Vorlesung 2 22 bzw 23 Januar 204 Lineares Gleichungssystem a a 2 b b 2 = F a a 2 a 3 b b 2 b 3 c c 2 c 3 = V V =< a, b c > c b a b a F V Seite 70 a x + a 2 x 2 + a 3 x 3 b = 0 < a x + a 2 x 2 + a 3 x 3
MehrNichtlineare Optimierung ohne Nebenbedingungen
Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt
MehrGleitkommaarithmetik und Pivotsuche bei Gauß-Elimination. Lehrstuhl für Angewandte Mathematik Wintersemester 2009/10. 14.
Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Wintersemester 2009/0 4. Januar 200 Instabilitäten
MehrOPERATIONS-RESEARCH (OR)
OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:
MehrHöhere Mathematik für Ingenieure IV. Volker John
Höhere Mathematik für Ingenieure IV Volker John Sommersemester 2007 Inhaltsverzeichnis I Weiterführende Integralrechung 2 1 Kurvenintegrale 3 11 Kurven 3 12 Skalares Kurvenintegral 4 13 Vektorielles Kurvenintegral
MehrMathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011
Mathematik für Informatiker II Christoph Eisinger Sommersemester 211 Beispiellösungen zur Probeklausur Aufgabe 1 Gegeben sind die Polynome f, g, h K[x]. Zu zeigen: Es gibt genau dann Polynome h 1 und h
MehrMaple-Skripte. A.1 Einleitung. A.2 Explizite Zweischritt-Runge-Kutta-Verfahren. Bei der Ausführung
A Maple-Skripte A.1 Einleitung Bei der Ausführung mechanischer Rechnungen können Computeralgebra-Programme sehr nützlich werden. Wenn man genau weiß, was eingesetzt, umgeformt, zusammengefaßt oder entwickelt
MehrInformationsverarbeitung im Bauwesen
V14 1 / 30 Informationsverarbeitung im Bauwesen Markus Uhlmann Institut für Hydromechanik WS 2009/2010 Bemerkung: Verweise auf zusätzliche Information zum Download erscheinen in dieser Farbe V14 2 / 30
Mehr6 Lösung linearer Gleichungssysteme I: LR-Zerlegung und Verwandte
Numerik I Version: 240608 40 6 Lösung linearer Gleichungssysteme I: LR-Zerlegung und Verwandte Die zwei wichtigsten Aufgaben der linearen Algebra: Lösung linearer Gleichungssysteme: Ax = b, wobei die n
MehrRisikomessung und Value at Risk Wintersemester 2013/14
Risikomessung und Value at Risk Wintersemester 2013/14 Walter Sanddorf-Köhle Statistik und Ökonometrie Foliensatz Nr. 11 Version vom 24. Januar 2014 1 / 45 6.5.1 Bisherige Vorgehensweise zur Berechnung
MehrÜbungsaufgaben mit Lösungsvorschlägen
Otto-Friedrich-Universität Bamberg Lehrstuhl für Medieninformatik Prof. Dr. Andreas Henrich Dipl. Wirtsch.Inf. Daniel Blank Einführung in das Information Retrieval, 8. Mai 2008 Veranstaltung für die Berufsakademie
MehrKapitel 5 Netzwerkanalyse
1/19 Kapitel 5 Netzwerkanalyse 5.1 Einleitung Ein elektrisches lineares Netzwerk besteht aus elementaren Bauelementen wie lineare, passive Zweipole (z.b. ohmsche Widerstände) und ideale aktive Zweipole
MehrModellierung und Simulation eines Biogasreaktors. Dissertation. zur Erlangung des Doktorgrades. der Naturwissenschaften. vorgelegt beim Fachbereich 12
Modellierung und Simulation eines Biogasreaktors Dissertation zur Erlangung des Doktorgrades der Naturwissenschaften vorgelegt beim Fachbereich 12 der Johann Wolfgang Goethe-Universität in Frankfurt am
Mehrhttp://www.mathematik.uni-kl.de/ gramlich
Vorwort MATLAB ist inzwischen in vielen Hochschulen, Universitäten und Fachhochschulen gleichermaßen ein etabliertes Programmsystem, das sowohl im Fach Mathematik selbst als auch in noch stärkerem Maße
Mehr(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu
Herleitung der oppenecker-formel (Wiederholung) Für ein System ẋ Ax + Bu (B habe Höchstrang) wird eine Zustandsregelung u x angesetzt. Der geschlossene egelkreis gehorcht der Zustands-Dgl. ẋ (A B)x. Die
MehrModellierung, Simulation, Optimierung Diskretisierung 1
Modellierung, Simulation, Optimierung Diskretisierung Prof. Michael Resch Dr. Martin Bernreuther, Dr. Natalia Currle-Linde, Dr. Martin Hecht, Uwe Küster, Dr. Oliver Mangold, Melanie Mochmann, Christoph
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Sei K ein Körper, a ij K für 1 i m, 1 j n. Weiters seien b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2... a m1
MehrDistributed Graph Layout for Sensor Networks
Distributed Graph Layout for Sensor Networks Ausarbeitung zum Seminar Zeichnen von Graphen (WS04/05) Prof. Dr. Ulrik Brandes Basierend auf dem gleichnamigen Artikel von C. Gotsman und Y. Koren, Proceedings
MehrPageRank-Algorithmus
PageRank-Algorithmus Benedikt Wolters Matr.-Nr. 300037 31. Januar 2012 Proseminar Algorithms and Data Structures WS 2011/12 Lehrstuhl für Informatik 2, RWTH Aachen Betreuer: Dipl.-Inform. Haidi Yue 1 1
MehrBildverarbeitung Herbstsemester 2012. Kanten und Ecken
Bildverarbeitung Herbstsemester 01 Kanten und Ecken 1 Inhalt Einführung Kantendetektierung Gradientenbasierende Verfahren Verfahren basierend auf der zweiten Ableitung Eckpunkterkennung Harris Corner Detector
MehrZur Numerik großdimensionaler Eigenwertprobleme. Werner Vogt Technische Universität Ilmenau Institut für Mathematik Postfach 100565 98684 Ilmenau
Zur Numerik großdimensionaler Eigenwertprobleme Werner Vogt Technische Universität Ilmenau Institut für Mathematik Postfach 100565 98684 Ilmenau Ilmenau, den 8.11.2004 1 Einführung 1 Zusammenfassung Der
MehrFaktorisierung ganzer Zahlen mittels Pollards ρ-methode (1975)
Dass das Problem, die Primzahlen von den zusammengesetzten zu unterscheiden und letztere in ihre Primfaktoren zu zerlegen zu den wichtigsten und nützlichsten der ganzen Arithmetik gehört und den Fleiss
MehrLineare Programmierung
Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in
Mehrklar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s
Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen
MehrÜbungen zur Numerischen Mathematik 2 Sommersemester 2014. Übungsblatt 13
Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Prof. Dr. Dres. h.c. Hans Georg Bock Dr. Christian Kirches Dipl.-Phys. Simon Lenz Übungen zur Numerischen Mathematik 2 Sommersemester
Mehr3. Grundlagen der Linearen Programmierung
3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations
MehrVorlesung 3 MINIMALE SPANNBÄUME
Vorlesung 3 MINIMALE SPANNBÄUME 72 Aufgabe! Szenario: Sie arbeiten für eine Firma, die ein Neubaugebiet ans Netz (Wasser, Strom oder Kabel oder...) anschließt! Ziel: Alle Haushalte ans Netz bringen, dabei
MehrFinite Differenzen und Elemente
Dietrich Marsal Finite Differenzen und Elemente Numerische Lösung von Variationsproblemen und partiellen Differentialgleichungen Mit 64 Abbildungen Springer-Verlag Berlin Heidelberg NewYork London Paris
MehrBlack Jack - Kartenzählen
Black Jack - Kartenzählen Michael Gabler 24.01.2012 Literatur: N. Richard Werthamer: Risk and Reward - The Science of Casino Blackjack, Springer Black Jack - Kartenzählen 1 Wie zähle ich Karten? Historisches
MehrLösung des Kleinste-Quadrate-Problems
Lösung des Kleinste-Quadrate-Problems Computergestützte Statistik Lisakowski, Christof 15.05.2009 Lisakowski, Christof ()Lösung des Kleinste-Quadrate-Problems 15.05.2009 1 / 34 Themen 1 Problemstellung
Mehr7down Zusatzaufgaben. Mathias Ziebarth und Joachim Breitner. 13. März 2008
7down Zusatzaufgaben Mathias Ziebarth und Joachim Breitner 13. März 2008 1 Problem 1 Unser Programm hat folgende Lösungen berechnet: Testfall 1 153131 141441 973493 330529 869017 876927 Testfall 2 279841
MehrEine Kurzanleitung zu Mathematica
MOSES Projekt, GL, Juni 2003 Eine Kurzanleitung zu Mathematica Wir geben im Folgenden eine sehr kurze Einführung in die Möglichkeiten, die das Computer Algebra System Mathematica bietet. Diese Datei selbst
MehrEinführung in MATLAB
Kapitel 4 Einführung in MATLAB 41 Allgemeines MATLAB ist eine kommerzielle mathematische Software zur Lösung mathematischer Probleme und zur graphischen Darstellung der Ergebnisse Die Verfahren in MATLAB
MehrSuchmaschinen: Für einen sich rasant ändernden Suchraum gigantischer Größe sind Anfragen ohne merkliche Reaktionszeit zu beantworten.
Die Größe des Netzes Schätzungen gehen weit auseinander: Über eine Milliarde im Gebrauch befindliche IP-Adressen Zwischen 20 Milliarden und einer Billion indizierte Webseiten. Ungefähr 200 Millionen Websites
MehrEinführung in Mathcad 14.0 2011 H.
Einführung in Mthc. H. Glvnik Eitieren von Termen Tet schreiben mit Shift " + + Nvigtion mit Leertste un Cursor + Löschen mit Shift + Entf + + 5 sin( ) + Arten von Gleichheitszeichen Definition eines Terms
MehrÜbungen zum Ferienkurs Lineare Algebra WS 14/15
Übungen zum Ferienkurs Lineare Algebra WS 14/15 Linearkombinationen, Basen, Lineare Abbildungen 2.1 Lineare Unabhängigkeit Sind die folgenden Vektoren linear unabhängig? (a) 1, 2, 3 im Q Vektorraum R (b)
MehrLINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow
LINEARE ALGERA Ferienkurs Hanna Schäfer Philipp Gadow INHALT Eigenwerte und Eigenvektoren. asiswechsel.2 Eigenwertgleichung 2.3 Diagonalisierbarkeit 5.4 Trigonalisierung 8.5 Zusatzmaterial 8 Aufgaben 9
MehrLU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen.
Zusätze zum Gelben Rechenbuch LU-Zerlegung Peter Furlan Verlag Martina Furlan Inhaltsverzeichnis Definitionen 2 (Allgemeine) LU-Zerlegung 2 3 Vereinfachte LU-Zerlegung 3 4 Lösung eines linearen Gleichungssystems
Mehr11. Primfaktorzerlegungen
78 Andreas Gathmann 11 Primfaktorzerlegungen Euch ist sicher aus der Schule bekannt, dass sich jede positive ganze Zahl a als Produkt a = p 1 p n von Primzahlen schreiben lässt, und dass diese Darstellung
MehrStatistik I für Wirtschaftswissenschaftler Klausur am 06.07.2007, 14.00 16.00.
1 Statistik I für Wirtschaftswissenschaftler Klausur am 06.07.2007, 14.00 16.00. Bitte unbedingt beachten: a) Gewertet werden alle 9 gestellten Aufgaben. b) Lösungswege sind anzugeben. Die Angabe des Endergebnisses
Mehr3.2 Aufbau des Betriebsabrechnungsbogens
3.2 Aufbau des Betriebsabrechnungsbogens Kennzeichnung: Zentrales Instrument der Kostenstellenrechnung Tabellarischer Aufbau: Der BAB enthält zeilenweise die Kostenarten und spaltenweise die Kostenstellen
Mehr