Kapitel 6. Iterationsverfahren für lineare Gleichungssysteme
|
|
- Arwed Fromm
- vor 6 Jahren
- Abrufe
Transkript
1 Kapitel 6 Iterationsverfahren für lineare Gleichungssysteme Falls n sehr groß ist und falls die Matrix A dünn besetzt ist (sparse), dann wählt man zur Lösung von Ax = b im Allgemeinen iterative Verfahren. Definition 6. Seien A, B, C n n Matrizen. Das Paar (B,C) heißt Zerlegung (engl. splitting) von A, falls B ist invertierbar ist und A = B C gilt. Mittels einer Zerlegung definiert man ein Iterationsverfahren zur Lösung von Ax = b, nämlich mittels Bx (k+) = Cx (k) +b. (6.) Falls x (k) x für k, dann ist x offenbar eine Lösung von Ax = b. Man möchte B so bestimmen, dass (i) die Iteration (6.) möglichst schnell konvergiert; (ii) das Gleichungssystem (6.) einfach lösbar ist. Beispiel 6. Sei A = [a ij ] gegeben. Wir definieren a a 3... a n a a 3... a n L = a 3 a 3., U = an,n a n a n... a n,n und D = diag(a ii ). Dann gilt offenbar A = L+D+U. (i) Verfahren von Jacobi (Gesamtschrittverfahren): B := D und C := L U (notwendige Voraussetzung: a ii ) (ii) Verfahren von Richardson: B := I und C := I A (immer definiert, billig, selten konvergent) (iii) Verfahren von Gauß-Seidel (Einzelschrittverfahren): B := D+L und C := U (notwendige Voraussetzung: a ii ) 95
2 Iterationsverfahren für lineare Gleichungssysteme 96 Bei allen drei Verfahren ist die Iteration (6.) leicht lösbar. Das Jacobi-Verfahren lautet: Berechne für i =,...,n ( ) x (k+) i = i n b i a ij x (k) j a ij x (k) j. a ii j=i+ Das Gauß-Seidel-Verfahren lautet: Berechne für i =,...,n ( ) x (k+) i = i n b i a ij x (k+) j a ij x (k) j. a ii j=i+ Dabei stehen die neuen und alten Komponenten von x stets im selben Vektor, z.b. im i-ten Schritt der (k + )-ten Iteration x = [x (k+),...,x (k+) i,,x (k) i+,...,x(k) n ]T. Das Verfahren von Jacobi ist parallelisierbar, jenes von Gauß-Seidel nicht. Wann konvergieren diese Verfahren? Wegen Bx (k+) = Cx (k) +b, A = B C und der geforderten Invertierbarkeit von B gilt x (k+) = Hx (k) +d mit H = B C und d = B b. Das ist gerade eine Fixpunktaufgabe. Satz 6.3 Die Iteration x (k+) = Hx (k) +d konvergiert (d.h. x (k) x ), falls der Spektralradius von H kleiner als ist, d.h. Offensichtlich gilt dann Ax = b. Beweis: Wegen x (k) = H k x () + (H) := max{ λ ; λ ist Eigenwert von H} <. (6.) ( ) H k +...+H+I d = H k x () +(I H) (I H k )d kommt es auf die Potenzen von H an. Falls (6.) gilt, gehen die Potenzen gegen Null (Jordan sche Normalform). Auch für die Konvergenzgeschwindigkeit ist der Spektralradius von H ausschlaggebend. Subtrahiert man die beiden Gleichungen voneinander, so erhält man x (k+) = Hx (k) +d und x = Hx +d x (k+) x = H(x (k) x ) =... = H k+ (x () x ).
3 Iterationsverfahren für lineare Gleichungssysteme 97 Somit gilt x (k) x x () x Hk. Bemerkung: Für beliebige (quadratische) Matrizen K gilt Insbesondere ist (K) K. (K) = lim k K k /k. Satz 6.4 Sei A eine n n Matrix. Falls A diagonaldominant ist, d.h. n a ii > a ij, i =,...,n, j i dann konvergieren Jacobi- und Gauß-Seidel-Verfahren. Beweis: Wie führen den Beweis für das Jacobi-Verfahren aus. Wegen B C = D (L+U) gilt a ij i j, (B C) ij = a ii i = j. Somit ist B C = max i n (B C) ij <, und das Resultat folgt wegen (B C) B C. Eine Matrix heißt schwach diagonaldominant, falls n a ii a ij, i =,...,n, j i und für mindestens ein i die strenge Ungleichung gilt. Beispiel 6.5 Die Matrix A = ist schwach diagonaldominant.
4 Iterationsverfahren für lineare Gleichungssysteme 98 Falls die Matrix A nur schwach diagonaldominant ist, braucht man zusätzliche strukturelle Eigenschaften von A, um die Konvergenz des Einzel- und Gesamtschrittverfahrens zu garantieren. Definition 6.6 Eine n n Matrix A heißt zerfallend, wenn es eine echte Teilmenge J {,,...,n} gibt mit a ij = für i J, j J. Eine zerfallende Matrix hat nach Umnummerierung der Gleichungen und Variablen die Blockstruktur [ ] A A A mit A und A quadratisch. Damit kann die Lösung des Gleichungssystems auf die Lösung von zwei kleineren Systemen zurückgeführt werden. Für nicht-zerfallende Matrizen gilt folgender Satz (ohne Beweis): Satz 6.7 Sei A eine n n Matrix. Falls A nicht zerfallend und schwach diagonaldominant ist, dann konvergieren Jacobi- und Gauß-Seidel-Verfahren. Gedämpfte Iteration. Es handelt sich dabei um eine Methode, den Spektralradius der Iterationsmatrix H zu verkleinern. Wir definieren x (k+) = ω(h x (k) +d)+( ω) x (k), ω R, ω mit einem Dämpfungsparameter ω. Setzt man H ω := ωh+( ω)i, so erhält man x (k+) = H ω x (k) +ωd, mit derselben Lösung wie das ursprüngliche Problem x = H ω x+ωd x = ωhx+x ωx+ωd x = Hx+d. Definition 6.8 Gegeben sei ein Iterationsverfahren x (k+) = Hx (k) + d. Dann heißt x (k+) = H ω x (k) + ωd (zugehöriges) Relaxationsverfahren. Die Zahl ω heißt Relaxationsparameter. Man nennt den Fall ω > Überrelaxation und ω < Unterrelaxation. Bei Einzelschrittverfahren (z.b. Gauß-Seidel) verwendet man die bereits berechneten Werte x (k+),...,x (k+) i anstelle von x (k),...,x (k) i zur Relaxation. Man spricht dann von sukzessiver Relaxation. Das SOR-Verfahren. Aus der Gauß-Seidel-Iteration erhält man (D+L)x (k+) = Ux (k) +b (D+L) x (k+) = ω( U x (k) +b)+( ω)d x (k) +( ω)l x (k+) ( ) (D+ωL) x (k+) = ( ω)d ωu x (k) +ωb Definition 6.9 Sei A = L+D+U wie vorher. Das Iterationsverfahren x (k+) = H ω x (k) +d ) mit H ω = (D+ωL) (( ω)d ωu und d = ω(d+ωl) b heißt SOR-Verfahren (sukzessive Überrelaxation).
5 Iterationsverfahren für lineare Gleichungssysteme 99 Satz 6. Sei A eine symmetrische, positiv definite Matrix und ω (,). Dann konvergiert das SOR-Verfahren zur Lösung von Ax = b. Beweis: Wir zeigen (H ω ) <. Sei λ ein Eigenwert von H ω und v ein zugehöriger Eigenvektor, H ω v = λv. Dann ist ( ) ( ω)d ωu } {{ } D ωa+ωl v = λ ( D+ωL ) v (6.3) und weiters ωav = (λ ) ( D+ωL ) v. Wir setzen α = v ( D+ωL ) v. Da A positiv definit vorausgesetzt wurde, ist ( λ)α = ωv Av =: β >, insbesondere λ. Weiters ist (wegen der Symmetrie von A) L T = U und somit Somit ist wegen (6.3) α = v ( D+ωL ) v = v ( D+ωU ) v. λα+α = v ( λ(d+ωl)+d+ωu ) v = v ( D+ωL ωa+d+ωu ) v = ( ω)v Dv >. In der letzten Ungleichung wurde die Identität d ii = e T i Ae i > verwendet. Also ergibt sich < λα+α = β ( λ λ + ) = β λ λλ+ λ λ λ = β λ λ. Somit ist λ > und damit λ <. Wie lautet der optimale Relaxationsparameter, welcher einen minimalen Spektralradius von H ω ergibt? Diese Frage kann nur in Spezialfällen beantwortet werden (vgl. Literatur; Dissertation von Young). SSOR-Verfahren. Falls die Matrix A symmetrisch ist (U = L T ), dann ist die Iterationsmatrix H = (D+L) L T des Gauß-Seidel-Verfahrens nicht notwendig symmetrisch. Um Symmetrie zu erhalten, definiert man das Gauß-Seidel-Verfahren in Rückwärtsrichtung durch (D+U)x (k+) = Lx (k) +b. Man tauscht also U mit L aus und löst von unten nach oben auf. Das SSOR-Verfahren ist die Kombination aus einem SOR-Schritt in Vorwärtsrichtung mit einem in Rückwärtsrichtung. Es besitzt eine symmetrische Iterationsmatrix und wird vor allem als Vorkonditionierer verwendet.
6 Iterationsverfahren für lineare Gleichungssysteme Blockweise Iterationen. Eine Verallgemeinerung der bisher vorgestellten Iterationen sind Blockiterationen. Die Matrix A sei in Blöcke zerlegt A A... A n A A... A n A = A n A n... A nn Wir definieren wieder eine Zerlegung (in Blöcke) A A 3... A n A A 3... A n L = A 3 A 3., U = An,n A n A n... A n,n und D = blockdiag[a,...,a nn ]. Mit dieser Zerlegung lassen sich wie vorher Jacobi-, Gauß-Seidel und SOR-Verfahren definieren. Einziger Unterschied ist, dass nun alle Operationen blockweise definiert sind. Beispiel 6. Das Block-Jacobi-Verfahren für das Gleichungssystem [ ][ ] [ ] A A x b = A A x b lautet 6. Mehrgitterverfahren A x (k+) = A x (k) +b, A x (k+) = A x (k) +b. Mehrgitterverfahren (multigrid methods) wurden in den späten 7er Jahren des. Jahrhunderts entdeckt. Es handelt sich um iterative Verfahren, die strukturierte Gleichungssysteme in N Unbekannten mit O(N) Operationen lösen. Die bis dahin bekannten iterativen Löser benötigten typischerweise O(N 3/ ) Operationen. Das Beschleunigungspotential der neuen Verfahren ist N; bei N = 8 bedeutet das z.b. Minuten Rechenzeit anstatt 66 Stunden D Modellproblem Wir betrachten das -D elliptische Randwertproblem u (x) = f(x), x (,); u() = u() =. Zur numerischen Lösung zerlegen wir das Intervall [,] in N + äquidistante Teile mit der Gitterweite h = /(N +) und den Stützstellen x j = jh und approximieren u (x j ) = u(x j+)+u(x j ) u(x j ) h +O(h ).
7 Iterationsverfahren für lineare Gleichungssysteme Damit ergibt sich für die Unbekannten w j u(x j ) das lineare Gleichungssystem Aw = b mit b j = f(x j ). Die Systemmatrix A hat Bandstruktur A = h (In Raumdimension lautet diese Matrix A I+I A. In Raumdimension 3 hat sie eine entsprechende Gestalt.) 6.. Analyse der Jacobi-Iteration Wir schreiben A = D C, wobei D die Diagonale von A bezeichnet. Die Jacobi-Iteration lautet Dw (k+) = Cw (k) +b, beziehungsweise w (k+) = w (k) D ( Aw (k) b ) }{{}. Defekt von w (k) Wir betrachten im Folgenden eine gedämpfte Jacobi-Iteration w (k+) = w (k) ϑd ( Aw (k) b ), < ϑ. (6.4) Im Beispiel ist D = h I. Mit ω = ϑ/ lautet die Iteration (6.4) somit w (k+) = w (k) ωh ( Aw (k) b ), < ω /. Wir analysieren die Eigenschaften dieser Iteration mittels diskrete Fourieranalyse. Die Eigenwerte µ j und die dazugehörigen Eigenvektoren v j von A lauten sin(jπh) µ j = 4 h sin (jhπ/), v j = sin(jπh)., sin(njπh) wobei j =,...,N. Die Überprüfung erfolgt durch Nachrechnen mittels Summensätze der Winkelfunktionen (Av j ) n = [ ] sin ( (n )jπh ) sin ( njπh ) h sin ( (n+)jπh ) ( = sin(njπh) ( cos(jπh) )) h = h sin(njπh) ( cos (jπh/) ) = 4 h sin (jπh/) sin(njπh) = (µ j v j ) n.
8 Iterationsverfahren für lineare Gleichungssysteme Hier wurde insbesondere die Relation cosϕ = cos ϕ sin ϕ = cos ϕ = sin ϕ verwendet. Die Iterationsmatrix H der gedämpften Jacobi-Iteration lautet H = I ωh A. Diese Matrix hat dieselben Eigenvektoren wie A, ihre Eigenwerte lauten jedoch l j = l j (ω) = ωh µ j = 4ωsin (jπh/), j =,...,N. Abbildung 6. zeigt links die ersten vier (niederfrequenten) Eigenvektoren und rechts die letzten vier (hochfrequenten) Eigenvektoren von H im Fall N =. Abbildung 6.: Eigenvektoren von H für den Fall N =. Das linke Bild zeigt die niederfrequenten Vektoren v (blau; Kreise), v (rot; Sterne), v 3 (cyan; Quadrate) und v 4 (magenta; Rauten). Das rechte Bild zeigt die hochfrequenten Vektoren v (blau; Kreise) und v (rot; Sterne). Wir betrachten nun die Fehler der Jacobi-Iteration, dargestellt in der Basis der Eigenvektoren. Sei N w () w = α j v j. Wegen w (k+) = Hw (k) +b und w = Hw+b gilt N w () w = H(w () w) = H α j v j = N α j Hv j = N α j l j v j und allgemein w (k) w = N α j l k j v j = N β j v j, k. Diese Formel zusammen mit Abb. 6. zeigt für ω = /4 folgendes: Für niedrige Frequenzen (d.h. kleines j) gilt β j α j ; für hohe Frequenzen gilt hingegen: β j α j. Die hochfrequenten Fehler werden bei ω = /4 somit ausgezeichnet gedämpft. Man sagt, das Verfahren besitzt eine sehr gute Glättungseigenschaft (smooting property).
9 Iterationsverfahren für lineare Gleichungssysteme 3 ω=/4 ω=/ Abbildung 6.: Eigenwerte 4ωsin (jhπ/) des ungedämpften Jacobi-Verfahrens (ω = /) und des mit ω = /4 gedämpften Verfahrens als Funktion von x = jh, < x <. Bemerkung 6. Die Analyse in -D und 3-D erfolgt ähnlich. In -D lauten die Eigenwerte und Eigenvektoren der Systemmatrix µ j +µ k und v j v k für j,k N mit µ j und v j aus dem -D Fall Zweigitterverfahren Gesucht ist eine Lösung w des linearen Gleichungssystems Aw = b (zur Gitterweite h). Ausgehend von einem Startwert w () führen wir einige gedämpfte Jacobi-Iterationen aus und erhalten w, dessen Fehler v = w w glatt ist (d.h. keine hochfrequenten Anteile besitzt). Offensichtlich ist v gerade die gesuchte Korrektur zur exakten Lösung. Man beachte, dass v i.a. sehr groß ist. Für den Defekt d der Näherung w gilt d = Aw b = Aw Aw = Av. Somit erfüllt die gesuchte Korrektur eine Gleichung vom selben Typ wie die ursprüngliche Gleichung. Die entscheidende Idee ist: eine glatte Funktion v kann auch auf einem gröberen Gitter gut approximiert werden. Sei ĥ = h und  die zugehörige Systemmatrix für das gröbere Gitter. Das gröbere Gitter hat um den Faktor d weniger Gitterpunkte, wobei d =,,3 die Raumdimension bezeichnet. Man löst  v = d, wobei d die Restriktion (Einschränkung) von d auf das gröbere Gitter ist d = Rd. Beispiel 6.3 (i) Die triviale Restriktion lautet Rd(x) = d(x) für x = jh (auf dem groben Gitter). Hier wurde die intuitive Kurzschreibweise d(kh) = d k für Gitterfunktionen verwendet. Die obige Bedingung lautet daher d j = d j. (ii) Eine bessere Restriktion erhält man mit Rd(x) = ( ) d(x h)+d(x)+d(x+h) 4 für x = jh auf dem groben Gitter.
10 Iterationsverfahren für lineare Gleichungssysteme 4 Denken wir uns für den Moment die Gleichung auf dem groben Gitter exakt gelöst, also v = Â d. Die gesuchte Korrektur ist offenbar nur auf dem groben Gitter definiert. Um eine Näherung an v zu erhalten, muss man sie auf das feine Gitter fortsetzen. Diesen Prozess nennt man Prolongation v = P v. Im Folgenden verwenden wir lineare Interpolation als Prolongation v(x) für x = jĥ P v(x) = = jh, ( ) v(x+h)+ v(x h) für x = (j +)h, vgl. auch Abb (j )h jh (j+)h Abbildung 6.3: Prolongation durch lineare Interpolation. Mit Hilfe der Prolongation der Grobgitterkorrektur ergibt sich die verbesserte Näherungslösung zu w neu = w v. Algorithmus (Zweigitterverfahren). Gegeben sei w (k). (i) Glättungsschritt: Man berechnet w mittels einiger gedämpfter Jacobi-Iterationen. (ii) Grobgitterkorrektur: Berechne Defekt am feinen Gitter d = Aw b Restriktion des Defekts auf das grobe Gitter d = Rd Löse Gleichung auf grobem Gitter v = Â d Prolongation auf das feine Gitter v = P v Korrektur am feinen Gitter w (k+) = w v Konvergenz des Zweigitterverfahrens Wir untersuchen obiges Zweigitterverfahren für ω = /4. Die Zwei-Gitter-Iteration lautet mit der Iterationsmatrix w (k+) = Mw (k) +Nb M = (I PÂ RA)H ν bei ν gedämpften Jacobi-Iterationen. Man hat Konvergenz, falls (M) <.
11 Iterationsverfahren für lineare Gleichungssysteme 5 Satz 6.4 (a) Der Spektralradius der Iterationsmatrix M = M(ν) erfüllt (M) max { x( x) ν +x ν ( x); x / } =: ν <. (b) Für die Spektralnorm M = (MT M) gilt } M max{ x ( x) ν +x ν ( x) ; x / =: ζ ν <. Eine einfache Rechnung ergibt die nachstehende Tabelle: Man zeigt weiters, dass für ν gilt: ν 3 4 ν / /4 /8.83 ζ ν / /4.5.6 ν eν, ζ ν ν. Beweis: Einfache (aber langwierige) Rechnung. Man verwendet dazu die angepasste Basis v j von Eigenvektoren. Wahl von ν. Der Aufwand für ν Glättungen ist in etwa doppelt so hoch wie für ν Glättungen. Somit sind zwei Iterationen mit ν Glättungsschritten besser als eine Iteration mit ν Glättungsschritten, falls ζ ν ζ ν ζ ν, d.h. ζ ν. In der Praxis heißt das: Man verwendet gedämpfte Jacobi-Iterationen Mehrgitterverfahren Man wählt Gitterweiten h = H, h = H, h = H 4,..., h l = H l und sucht für die feinste Gitterweite die Lösung des linearen Gleichungssystems A l w l = b l. (Der Index l deutet hier an, dass dieses Gleichungssystem zur Gitterweite h l gehört.) Abbildung 6.4: Drei ineinander geschachtelte Gitter mit, 9 und 49 Punkten.
12 Iterationsverfahren für lineare Gleichungssysteme S R S R S R S R E P P P P 4 3 Abbildung 6.5: V-Zyklus (oben) und W-Zyklus (unten) einer Mehrgitteriteration. Hierbei bedeutet S Glättung, R Restriktion, E Auswertung und P Prolongation (nach Hackbusch, 985). Wendet man ein Zweigitterverfahren an, so benötigt man die Lösung von A l w l = d l (Defektkorrektur am Grobgitter). Diese Gleichung löst man wieder iterativ mit dem Zweigitterverfahren und erhält ein neues Gleichungssystem A l w l = d l auf einem noch gröberen Gitter, usw. Auf dem gröbsten Gitter löst man das System direkt (im Extremfall eine einzige Gleichung!). Je nachdem, ob man jeweils eine oder zwei Zwei- Gitter-Iterationen pro Niveau ausführt, spricht man von einem V-Zyklus bzw. von einem W-Zyklus, vgl. Abb Algorithmus. MGM(l, w, b) Falls l =, setze w = A b. Sonst: w = Ergebnis von ν Jacobi-Iterationen zum Startwert w d = R(A l w b) v = für j =,...,γ: MGM(l,v,d) w = w Pv Beim V-Zyklus ist γ =, beim W-Zyklus ist γ =.
13 Iterationsverfahren für lineare Gleichungssysteme 7 Aufwand des Verfahrens. Sei N die Anzahl der Gleichungen am feinsten Gitter. Glättung, Restriktion und Prolongation sind O(N) Operationen mit kleiner O(...)-Konstante, falls man mit sparse matrix Techniken arbeitet. Die Anzahl der Gleichungen nimmt pro Niveau etwa um den Faktor d ab, wobei d die Raumdimension bezeichnet. Weiters wird am Niveau l das Niveau k gerade γ l k ( k l) aufgerufen. Somit ist der Gesamtaufwand der Iteration ( C N +γ N N N ) d +γ +...+γl +C d (l )d = O(N). Die neue Konstante lautet abhängig von d und γ: γ = γ = d = C lc d = 4 3 C C d = C 4 3 C Das Multigridverfahren ist somit in beliebigen Raumdimensionen ein O(N)-Prozess. Varianten verwenden andere Glättungsiterationen (meist Gauß-Seidel) oder Nachglätten (d.h. weitere Glättungsschritte nach der Grobgitterkorrektur) sowie andere Restriktionen und Prolongantionen. 6. Das Verfahren der konjugierten Gradienten Das Verfahren der konjugierten Gradienten geht auf Hestenes und Stiefel (95) zurück. Es wird auch als cg-verfahren bezeichnet (vom Englischen conjugate gradients methods). Im ganzen Abschnitt sei A eine reelle, symmetrische, positiv definite n n Matrix (eine sg. spd-matrix) und b R n ein Vektor. (Typischerweise ist hier n sehr groß und A dünn besetzt.) Die Aufgabe löse Ax = b ist somit äquivalent zur Aufgabe minimiere xt Ax b T x. Wir bezeichnen im Folgenden mit, das Standardskalarprodukt im R n. Diespd-Matrix A definiert ein (dazu äquivalentes) Skalarprodukt, A mittels und eine Norm die sg. Energienorm (bezüglich A). y,z A = y,az = Ay,z y A = y,y A, Definition 6.5 Sei A eine reelle, symmetrische, positiv definite n n Matrix und u,v zwei Vektoren im R n. Man nennt u A-orthogonal zu v (in Zeichen: u A v) wenn gilt: u,v A =. In der älteren Literatur spricht man auch von A-konjugiert.
38 Iterative Verfahren für lineare Gleichungssysteme
38 Iterative Verfahren für lineare Gleichungssysteme 38.1 Motivation Viele praktische Probleme führen auf sehr große lineare Gleichungssysteme, bei denen die Systemmatrix dünn besetzt ist, d. h. nur wenige
MehrNumerische Mathematik für Ingenieure (SoSe 2013)
Numerische Mathematik für Ingenieure (SoSe 2013) PD Dr(USA) Maria Charina Auszüge aus Vorlesungsfolien von Prof Joachim Stöckler werden verwendet Für die Bereitstellung dieses Materials und der Tex-Files
MehrIterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
MehrLineare Iterationsverfahren: Definitionen
Lineare Iterationsverfahren: Definitionen 1. Ein Lösungsverfahren zur Berechnung von Ax = b heißt iterativ, falls ausgehend von einem Startwert x eine Folge x k von Iterierten bestimmt wird. 2. Ein Iterationsverfahren
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 11 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 2010 Prof. Dr. Klaus Höllig
MehrKapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen
Kapitel 2: Lineare Gleichungssysteme 21 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,,255}, n = 1,,N, m = 1,,M dig Camera Realisierung von B η ist
MehrKapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen
Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung
Mehr3. Lineare Gleichungssysteme
3. Lineare Gleichungssysteme 1 3.1. Problemstellung 2 3.2. Direkte Verfahren 3 3.3. Normen und Fehleranalyse 4 3.4. Iterative Verfahren 5 3.5. Konvergenz von linearen Iterationsverfahren 6 3.6. Gradienten-Verfahren
MehrNumerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
Mehr7. Iterative Lösung. linearer Gleichungssysteme
7. Iterative Lösung linearer Gleichungssysteme 1 Grundlagen (1) Zur Erinnerung: Gesucht ist die Lösung eines linearen Gleichungssystems a 0,0 x 0 +a 0,1 x 1 + a 0,n 1 x n 1 = b 0 a 1,0 x 0 +a 1,1 x 1 +
MehrInstitut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf
Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf Praktikum im Sommersemester 2012 Programmierpraktikum numerische Algorithmen (P2E1) (Numerische Lösung der Wärmeleitungsgleichung)
MehrGlättung durch iterative Verfahren
Numerische Methoden in der Finanzmathematik II Sommersemester 211 Glättung durch iterative Verfahren Vorlesung Numerische Methoden in der Finanzmathematik II Sommersemester 211 Numerische Methoden in der
Mehr5 Interpolation und Approximation
5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)
MehrNewton-Verfahren für ein Skalarfunktion
Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren
MehrLineare Algebra: Determinanten und Eigenwerte
: und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b
Mehr2 Lineare Gleichungssysteme
2 Lineare Gleichungssysteme Wir betrachten das lineare Gleichungssystem Ax = b mit der n n-koeffizientenmatrix A und der rechten Seite b R n. Wir leiten zuerst eine Variante des Gauss-Algorithmus (LR-Zerlegung)
MehrDer CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
MehrAusgleichsproblem. Definition (1.0.3)
Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst
MehrBegleitmaterial zur Vorlesung Numerik I
Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik
MehrKonvergenz des Jacobi- und Gauß-Seidel-Verfahrens
Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens Bachelor-Arbeit im -Fach Bachelorstudiengang Mathematik der Mathematisch-Naturwissenschaftlichen Fakultät der Christian-Albrechts-Universität zu Kiel vorgelegt
MehrNumerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen
(für Informatiker) M. Grepl J. Berger & J.T. Frings Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2010/11 Problemstellung Lineare Gleichungssysteme, iterative Verfahren geg.:
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
MehrMathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen
Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β
MehrWiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der
Mehr2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p
Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.
Mehr51 Numerische Berechnung von Eigenwerten und Eigenvektoren
5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,
MehrKapitel 5 Iterative Verfahren für LGS
Kapitel 5 Iterative Verfahren für LGS Einführung Matrixnormen Splitting Verfahren Mehrgitter (Multigrid) Verfahren Gradientenverfahren Vorkonditionierung CG-Verfahren Abbruch von iterativen Verfahren Zusammenfassung
MehrKapitel 1. Vektoren und Matrizen. 1.1 Vektoren
Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren
MehrLösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016
Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b
MehrModulprüfung Numerische Mathematik 1
Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
MehrInexakte Newton Verfahren
Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n
MehrVektorräume und Lineare Abbildungen
Vektorräume und Lineare Abbildungen Patricia Doll, Selmar Binder, Lukas Bischoff, Claude Denier ETHZ D-MATL SS 07 11.04.2007 1 Vektorräume 1.1 Definition des Vektorraumes (VR) 1.1.1 Grundoperationen Um
MehrLineare Algebra II 11. Übungsblatt
Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross 9 / Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest (Bearbeitung innerhalb von Minuten und ohne Benutzung des
MehrSysteme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.
Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x
Mehr4 Fehlerabschätzungen und Konvergenz der FEM
4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und
MehrKapitel II. Vektoren und Matrizen
Kapitel II. Vektoren und Matrizen Vektorräume A Körper Auf der Menge R der reellen Zahlen hat man zwei Verknüpfungen: Addition: R R R(a, b) a + b Multiplikation: R R R(a, b) a b (Der Malpunkt wird oft
Mehr7 Lineare Abbildungen und Skalarprodukt
Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u
MehrIterative Lösung Linearer Gleichungssysteme
Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:
MehrMusterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen
Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können
MehrP AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3
Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare
MehrKLAUSUR. Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.:
KLAUSUR Lineare Algebra (E-Techniker/Mechatroniker/W-Ingenieure/Informatiker).3. (W. Koepf) Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.: Für jede Aufgabe gibt es Punkte. Zum Bestehen der Klausur
MehrFixpunkt-Iterationen
Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 27. Februar 2014 Gliederung Wiederholung: Gleichungstypen, Lösungsverfahren Grundprinzip
MehrOrthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen
Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).
MehrLineare Gleichungssysteme Hierarchische Matrizen
Kompaktkurs Lineare Gleichungssysteme Hierarchische Matrizen M. Bebendorf, O. Steinbach O. Steinbach Lineare Gleichungssysteme SIMNET Kurs 24. 27.4.26 / 6 Numerische Simulation stationäre und instationäre
MehrFinite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015
Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 5 Aufgabe 8 (Speichertechniken) Finite Elemente Übung 5 a) Stellen Sie die Matrix
MehrAufgaben zu Kapitel 20
Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v
Mehr5 Numerische Mathematik
6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
Mehr1 Matrizenrechnung zweiter Teil
MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten
MehrÜbungen zum Ferienkurs Lineare Algebra WS 14/15
Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen
MehrKAPITEL 5. Nichtlineare Gleichungssysteme
KAPITEL 5. Nichtlineare Gleichungssysteme Beispiel 5.1. Gravitationskraft zwischen zwei Punktmassen m 1 und m 2 mit gegenseitigem Abstand r: F = G m 1m 2 r 2, wobei G = 6.67 10 11 Nm 2 /kg. Gravitationsfeld
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
Mehr3 Lineare Differentialgleichungen
3 Lineare Differentialgleichungen In diesem Kapitel behandeln wir die allgemeine Theorie linearer Differentialgleichungen Sie werden zahlreiche Parallelen zur Theorie linearer Gleichungssysteme feststellen,
MehrÜbungsblatt
Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen
MehrLineare Algebra und analytische Geometrie II
Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 53 Norm von Endomorphismen und Matrizen Definition 53.1. Es seien V und W endlichdimensionale normierte K-
MehrNumerische Verfahren zur Lösung der Monge-Ampère-Gleichung
Verfahren zur Lösung der Monge-Ampère-Gleichung Yasemin Hafizogullari Institut für Geometrie und Praktische Mathematik RWTH Aachen Seminar zu aktuellen Themen der Numerik im Wintersemester 2010/2011 1
Mehry (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)
9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten
Mehr42 Orthogonalität Motivation Definition: Orthogonalität Beispiel
4 Orthogonalität 4. Motivation Im euklidischen Raum ist das euklidische Produkt zweier Vektoren u, v IR n gleich, wenn die Vektoren orthogonal zueinander sind. Für beliebige Vektoren lässt sich sogar der
MehrBrückenkurs Mathematik. Mittwoch Freitag
Brückenkurs Mathematik Mittwoch 5.10. - Freitag 14.10.2016 Vorlesung 4 Dreiecke, Vektoren, Matrizen, lineare Gleichungssysteme Kai Rothe Technische Universität Hamburg-Harburg Montag 10.10.2016 0 Brückenkurs
Mehr14 Skalarprodukt Abstände und Winkel
4 Skalarprodukt Abstände und Winkel Um Abstände und Winkel zu definieren benötigen wir einen neuen Begriff. Zunächst untersuchen wir die Länge eines Vektors v. Wir schreiben dafür v und sprechen auch von
Mehr6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
MehrEigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
Mehr6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn
Mehr5 Lineare Gleichungssysteme und Determinanten
5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von
Mehr5 Numerische Iterationsverfahren
In diesem Kapitel besprechen wir numerische Iterationsverfahren (insbesondere Fixpunktverfahren) als eine weitere Lösungsmethode zur Lösung von linearen Gleichungssystemen (Kapitel 4) sowie zur Lösung
Mehr2.5 Gauß-Jordan-Verfahren
2.5 Gauß-Jordan-Verfahren Definition 2.5.1 Sei A K (m,n). Dann heißt A in zeilenreduzierter Normalform, wenn gilt: [Z1] Der erste Eintrag 0 in jeder Zeile 0 ist 1. [Z2] Jede Spalte, die eine 1 nach [Z1]
Mehr5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme
5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme Als zweite Hauptanwendung des Banachschen Fixpunktsatzes besprechen wir in diesem Kapitel die iterative Lösung linearer Gleichungssysteme. Die
Mehr6. Normale Abbildungen
SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
Mehra 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:
Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag
MehrAUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW
AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW Lineare Gleichungssysteme Lösen Sie folgende Gleichungssysteme über R: a) x + x + x = 6x + x + x = 4 x x x = x 7x x = 7 x x = b) x + x 4x + x 4 = 9 x + 9x x x
Mehr9 Metrische und normierte Räume
9 Metrische und normierte Räume Idee: Wir wollen Abstände zwischen Punkten messen. Der Abstand soll eine reelle Zahl 0 sein (ohne Dimensionsangabe wie Meter...). 9.1 Definition Sei X eine Menge. Eine Metrik
Mehr3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
Mehr4 Lineare Abbildungen und Matrizen
Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)
MehrNichtlineare Gleichungssysteme
Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei
Mehr4 Fehlerabschätzungen und Konvergenz der FEM
4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und
MehrHauptachsentransformation: Eigenwerte und Eigenvektoren
Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr7 Mehrgitterverfahren. Themen: Newton-Verfahren Nichtlineare CG-Verfahren Nichtlineare Mehrgitterverfahren
7 Mehrgitterverfahren Themen: Newton-Verfahren Nichtlineare CG-Verfahren Nichtlineare Mehrgitterverfahren 7.7 Beispiele nichtlinearer elliptischer Differentialgleichungen Nichtlineare elliptische Differentialgleichungen
MehrNumerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren
Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren
Mehrd) Produkte orthogonaler Matrizen sind wieder orthogonal.
Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =
Mehr5 Lineare Algebra (Teil 3): Skalarprodukt
5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale
MehrMatrizenoperationen mit FORTRAN
Kapitel 2 Matrizenoperationen mit FORTRAN 21 Grundlagen Bei vielen Anwendungen müssen große zusammenhängende Datenmengen gespeichert und verarbeitet werden Deshalb ist es sinnvoll, diese Daten nicht als
Mehr1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen
1 Zum Aufwärmen 1.1 Notationen In diesem Teil der Vorlesung bezeichnen wir Körper mit K, Matrizen mit Buchstaben A,B,..., Vektoren mit u,v,w,... und Skalare mit λ,µ,... Die Menge der m n Matrizen bezeichnen
Mehr4.4 Hermitesche Formen
44 Hermitesche Formen Wie üblich bezeichnen wir das komplex konjugierte Element von ζ = a + bi C (a, b R) mit ζ = a bi Definition 441 Sei V ein C-Vektorraum Eine hermitesche Form (HF) auf V ist eine Abbildung
MehrKapitel VI. Euklidische Geometrie
Kapitel VI. Euklidische Geometrie 1 Abstände und Lote Wiederholung aus Kapitel IV. Wir versehen R n mit dem Standard Skalarprodukt x 1 y 1.,. := x 1 y 1 +... + x n y n x n y n Es gilt für u, v, w R n und
MehrEuklidische und unitäre Vektorräume
Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein
MehrKlausur zur Vorlesung Lineare Algebra II, SoSe 2016,
Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren
MehrAnwendungen der Differentialrechnung
KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle
Mehr6 Lineare Gleichungssysteme
6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α
MehrMerkblatt zur Funktionalanalysis
Merkblatt zur Funktionalanalysis Literatur: Hackbusch, W.: Theorie und Numerik elliptischer Differentialgleichungen. Teubner, 986. Knabner, P., Angermann, L.: Numerik partieller Differentialgleichungen.
MehrErweiterungen der LR-Zerlegung
Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen
MehrAufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010
Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und
MehrWir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems
Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest
Mehr