Kapitel 6. Iterationsverfahren für lineare Gleichungssysteme

Größe: px
Ab Seite anzeigen:

Download "Kapitel 6. Iterationsverfahren für lineare Gleichungssysteme"

Transkript

1 Kapitel 6 Iterationsverfahren für lineare Gleichungssysteme Falls n sehr groß ist und falls die Matrix A dünn besetzt ist (sparse), dann wählt man zur Lösung von Ax = b im Allgemeinen iterative Verfahren. Definition 6. Seien A, B, C n n Matrizen. Das Paar (B,C) heißt Zerlegung (engl. splitting) von A, falls B ist invertierbar ist und A = B C gilt. Mittels einer Zerlegung definiert man ein Iterationsverfahren zur Lösung von Ax = b, nämlich mittels Bx (k+) = Cx (k) +b. (6.) Falls x (k) x für k, dann ist x offenbar eine Lösung von Ax = b. Man möchte B so bestimmen, dass (i) die Iteration (6.) möglichst schnell konvergiert; (ii) das Gleichungssystem (6.) einfach lösbar ist. Beispiel 6. Sei A = [a ij ] gegeben. Wir definieren a a 3... a n a a 3... a n L = a 3 a 3., U = an,n a n a n... a n,n und D = diag(a ii ). Dann gilt offenbar A = L+D+U. (i) Verfahren von Jacobi (Gesamtschrittverfahren): B := D und C := L U (notwendige Voraussetzung: a ii ) (ii) Verfahren von Richardson: B := I und C := I A (immer definiert, billig, selten konvergent) (iii) Verfahren von Gauß-Seidel (Einzelschrittverfahren): B := D+L und C := U (notwendige Voraussetzung: a ii ) 95

2 Iterationsverfahren für lineare Gleichungssysteme 96 Bei allen drei Verfahren ist die Iteration (6.) leicht lösbar. Das Jacobi-Verfahren lautet: Berechne für i =,...,n ( ) x (k+) i = i n b i a ij x (k) j a ij x (k) j. a ii j=i+ Das Gauß-Seidel-Verfahren lautet: Berechne für i =,...,n ( ) x (k+) i = i n b i a ij x (k+) j a ij x (k) j. a ii j=i+ Dabei stehen die neuen und alten Komponenten von x stets im selben Vektor, z.b. im i-ten Schritt der (k + )-ten Iteration x = [x (k+),...,x (k+) i,,x (k) i+,...,x(k) n ]T. Das Verfahren von Jacobi ist parallelisierbar, jenes von Gauß-Seidel nicht. Wann konvergieren diese Verfahren? Wegen Bx (k+) = Cx (k) +b, A = B C und der geforderten Invertierbarkeit von B gilt x (k+) = Hx (k) +d mit H = B C und d = B b. Das ist gerade eine Fixpunktaufgabe. Satz 6.3 Die Iteration x (k+) = Hx (k) +d konvergiert (d.h. x (k) x ), falls der Spektralradius von H kleiner als ist, d.h. Offensichtlich gilt dann Ax = b. Beweis: Wegen x (k) = H k x () + (H) := max{ λ ; λ ist Eigenwert von H} <. (6.) ( ) H k +...+H+I d = H k x () +(I H) (I H k )d kommt es auf die Potenzen von H an. Falls (6.) gilt, gehen die Potenzen gegen Null (Jordan sche Normalform). Auch für die Konvergenzgeschwindigkeit ist der Spektralradius von H ausschlaggebend. Subtrahiert man die beiden Gleichungen voneinander, so erhält man x (k+) = Hx (k) +d und x = Hx +d x (k+) x = H(x (k) x ) =... = H k+ (x () x ).

3 Iterationsverfahren für lineare Gleichungssysteme 97 Somit gilt x (k) x x () x Hk. Bemerkung: Für beliebige (quadratische) Matrizen K gilt Insbesondere ist (K) K. (K) = lim k K k /k. Satz 6.4 Sei A eine n n Matrix. Falls A diagonaldominant ist, d.h. n a ii > a ij, i =,...,n, j i dann konvergieren Jacobi- und Gauß-Seidel-Verfahren. Beweis: Wie führen den Beweis für das Jacobi-Verfahren aus. Wegen B C = D (L+U) gilt a ij i j, (B C) ij = a ii i = j. Somit ist B C = max i n (B C) ij <, und das Resultat folgt wegen (B C) B C. Eine Matrix heißt schwach diagonaldominant, falls n a ii a ij, i =,...,n, j i und für mindestens ein i die strenge Ungleichung gilt. Beispiel 6.5 Die Matrix A = ist schwach diagonaldominant.

4 Iterationsverfahren für lineare Gleichungssysteme 98 Falls die Matrix A nur schwach diagonaldominant ist, braucht man zusätzliche strukturelle Eigenschaften von A, um die Konvergenz des Einzel- und Gesamtschrittverfahrens zu garantieren. Definition 6.6 Eine n n Matrix A heißt zerfallend, wenn es eine echte Teilmenge J {,,...,n} gibt mit a ij = für i J, j J. Eine zerfallende Matrix hat nach Umnummerierung der Gleichungen und Variablen die Blockstruktur [ ] A A A mit A und A quadratisch. Damit kann die Lösung des Gleichungssystems auf die Lösung von zwei kleineren Systemen zurückgeführt werden. Für nicht-zerfallende Matrizen gilt folgender Satz (ohne Beweis): Satz 6.7 Sei A eine n n Matrix. Falls A nicht zerfallend und schwach diagonaldominant ist, dann konvergieren Jacobi- und Gauß-Seidel-Verfahren. Gedämpfte Iteration. Es handelt sich dabei um eine Methode, den Spektralradius der Iterationsmatrix H zu verkleinern. Wir definieren x (k+) = ω(h x (k) +d)+( ω) x (k), ω R, ω mit einem Dämpfungsparameter ω. Setzt man H ω := ωh+( ω)i, so erhält man x (k+) = H ω x (k) +ωd, mit derselben Lösung wie das ursprüngliche Problem x = H ω x+ωd x = ωhx+x ωx+ωd x = Hx+d. Definition 6.8 Gegeben sei ein Iterationsverfahren x (k+) = Hx (k) + d. Dann heißt x (k+) = H ω x (k) + ωd (zugehöriges) Relaxationsverfahren. Die Zahl ω heißt Relaxationsparameter. Man nennt den Fall ω > Überrelaxation und ω < Unterrelaxation. Bei Einzelschrittverfahren (z.b. Gauß-Seidel) verwendet man die bereits berechneten Werte x (k+),...,x (k+) i anstelle von x (k),...,x (k) i zur Relaxation. Man spricht dann von sukzessiver Relaxation. Das SOR-Verfahren. Aus der Gauß-Seidel-Iteration erhält man (D+L)x (k+) = Ux (k) +b (D+L) x (k+) = ω( U x (k) +b)+( ω)d x (k) +( ω)l x (k+) ( ) (D+ωL) x (k+) = ( ω)d ωu x (k) +ωb Definition 6.9 Sei A = L+D+U wie vorher. Das Iterationsverfahren x (k+) = H ω x (k) +d ) mit H ω = (D+ωL) (( ω)d ωu und d = ω(d+ωl) b heißt SOR-Verfahren (sukzessive Überrelaxation).

5 Iterationsverfahren für lineare Gleichungssysteme 99 Satz 6. Sei A eine symmetrische, positiv definite Matrix und ω (,). Dann konvergiert das SOR-Verfahren zur Lösung von Ax = b. Beweis: Wir zeigen (H ω ) <. Sei λ ein Eigenwert von H ω und v ein zugehöriger Eigenvektor, H ω v = λv. Dann ist ( ) ( ω)d ωu } {{ } D ωa+ωl v = λ ( D+ωL ) v (6.3) und weiters ωav = (λ ) ( D+ωL ) v. Wir setzen α = v ( D+ωL ) v. Da A positiv definit vorausgesetzt wurde, ist ( λ)α = ωv Av =: β >, insbesondere λ. Weiters ist (wegen der Symmetrie von A) L T = U und somit Somit ist wegen (6.3) α = v ( D+ωL ) v = v ( D+ωU ) v. λα+α = v ( λ(d+ωl)+d+ωu ) v = v ( D+ωL ωa+d+ωu ) v = ( ω)v Dv >. In der letzten Ungleichung wurde die Identität d ii = e T i Ae i > verwendet. Also ergibt sich < λα+α = β ( λ λ + ) = β λ λλ+ λ λ λ = β λ λ. Somit ist λ > und damit λ <. Wie lautet der optimale Relaxationsparameter, welcher einen minimalen Spektralradius von H ω ergibt? Diese Frage kann nur in Spezialfällen beantwortet werden (vgl. Literatur; Dissertation von Young). SSOR-Verfahren. Falls die Matrix A symmetrisch ist (U = L T ), dann ist die Iterationsmatrix H = (D+L) L T des Gauß-Seidel-Verfahrens nicht notwendig symmetrisch. Um Symmetrie zu erhalten, definiert man das Gauß-Seidel-Verfahren in Rückwärtsrichtung durch (D+U)x (k+) = Lx (k) +b. Man tauscht also U mit L aus und löst von unten nach oben auf. Das SSOR-Verfahren ist die Kombination aus einem SOR-Schritt in Vorwärtsrichtung mit einem in Rückwärtsrichtung. Es besitzt eine symmetrische Iterationsmatrix und wird vor allem als Vorkonditionierer verwendet.

6 Iterationsverfahren für lineare Gleichungssysteme Blockweise Iterationen. Eine Verallgemeinerung der bisher vorgestellten Iterationen sind Blockiterationen. Die Matrix A sei in Blöcke zerlegt A A... A n A A... A n A = A n A n... A nn Wir definieren wieder eine Zerlegung (in Blöcke) A A 3... A n A A 3... A n L = A 3 A 3., U = An,n A n A n... A n,n und D = blockdiag[a,...,a nn ]. Mit dieser Zerlegung lassen sich wie vorher Jacobi-, Gauß-Seidel und SOR-Verfahren definieren. Einziger Unterschied ist, dass nun alle Operationen blockweise definiert sind. Beispiel 6. Das Block-Jacobi-Verfahren für das Gleichungssystem [ ][ ] [ ] A A x b = A A x b lautet 6. Mehrgitterverfahren A x (k+) = A x (k) +b, A x (k+) = A x (k) +b. Mehrgitterverfahren (multigrid methods) wurden in den späten 7er Jahren des. Jahrhunderts entdeckt. Es handelt sich um iterative Verfahren, die strukturierte Gleichungssysteme in N Unbekannten mit O(N) Operationen lösen. Die bis dahin bekannten iterativen Löser benötigten typischerweise O(N 3/ ) Operationen. Das Beschleunigungspotential der neuen Verfahren ist N; bei N = 8 bedeutet das z.b. Minuten Rechenzeit anstatt 66 Stunden D Modellproblem Wir betrachten das -D elliptische Randwertproblem u (x) = f(x), x (,); u() = u() =. Zur numerischen Lösung zerlegen wir das Intervall [,] in N + äquidistante Teile mit der Gitterweite h = /(N +) und den Stützstellen x j = jh und approximieren u (x j ) = u(x j+)+u(x j ) u(x j ) h +O(h ).

7 Iterationsverfahren für lineare Gleichungssysteme Damit ergibt sich für die Unbekannten w j u(x j ) das lineare Gleichungssystem Aw = b mit b j = f(x j ). Die Systemmatrix A hat Bandstruktur A = h (In Raumdimension lautet diese Matrix A I+I A. In Raumdimension 3 hat sie eine entsprechende Gestalt.) 6.. Analyse der Jacobi-Iteration Wir schreiben A = D C, wobei D die Diagonale von A bezeichnet. Die Jacobi-Iteration lautet Dw (k+) = Cw (k) +b, beziehungsweise w (k+) = w (k) D ( Aw (k) b ) }{{}. Defekt von w (k) Wir betrachten im Folgenden eine gedämpfte Jacobi-Iteration w (k+) = w (k) ϑd ( Aw (k) b ), < ϑ. (6.4) Im Beispiel ist D = h I. Mit ω = ϑ/ lautet die Iteration (6.4) somit w (k+) = w (k) ωh ( Aw (k) b ), < ω /. Wir analysieren die Eigenschaften dieser Iteration mittels diskrete Fourieranalyse. Die Eigenwerte µ j und die dazugehörigen Eigenvektoren v j von A lauten sin(jπh) µ j = 4 h sin (jhπ/), v j = sin(jπh)., sin(njπh) wobei j =,...,N. Die Überprüfung erfolgt durch Nachrechnen mittels Summensätze der Winkelfunktionen (Av j ) n = [ ] sin ( (n )jπh ) sin ( njπh ) h sin ( (n+)jπh ) ( = sin(njπh) ( cos(jπh) )) h = h sin(njπh) ( cos (jπh/) ) = 4 h sin (jπh/) sin(njπh) = (µ j v j ) n.

8 Iterationsverfahren für lineare Gleichungssysteme Hier wurde insbesondere die Relation cosϕ = cos ϕ sin ϕ = cos ϕ = sin ϕ verwendet. Die Iterationsmatrix H der gedämpften Jacobi-Iteration lautet H = I ωh A. Diese Matrix hat dieselben Eigenvektoren wie A, ihre Eigenwerte lauten jedoch l j = l j (ω) = ωh µ j = 4ωsin (jπh/), j =,...,N. Abbildung 6. zeigt links die ersten vier (niederfrequenten) Eigenvektoren und rechts die letzten vier (hochfrequenten) Eigenvektoren von H im Fall N =. Abbildung 6.: Eigenvektoren von H für den Fall N =. Das linke Bild zeigt die niederfrequenten Vektoren v (blau; Kreise), v (rot; Sterne), v 3 (cyan; Quadrate) und v 4 (magenta; Rauten). Das rechte Bild zeigt die hochfrequenten Vektoren v (blau; Kreise) und v (rot; Sterne). Wir betrachten nun die Fehler der Jacobi-Iteration, dargestellt in der Basis der Eigenvektoren. Sei N w () w = α j v j. Wegen w (k+) = Hw (k) +b und w = Hw+b gilt N w () w = H(w () w) = H α j v j = N α j Hv j = N α j l j v j und allgemein w (k) w = N α j l k j v j = N β j v j, k. Diese Formel zusammen mit Abb. 6. zeigt für ω = /4 folgendes: Für niedrige Frequenzen (d.h. kleines j) gilt β j α j ; für hohe Frequenzen gilt hingegen: β j α j. Die hochfrequenten Fehler werden bei ω = /4 somit ausgezeichnet gedämpft. Man sagt, das Verfahren besitzt eine sehr gute Glättungseigenschaft (smooting property).

9 Iterationsverfahren für lineare Gleichungssysteme 3 ω=/4 ω=/ Abbildung 6.: Eigenwerte 4ωsin (jhπ/) des ungedämpften Jacobi-Verfahrens (ω = /) und des mit ω = /4 gedämpften Verfahrens als Funktion von x = jh, < x <. Bemerkung 6. Die Analyse in -D und 3-D erfolgt ähnlich. In -D lauten die Eigenwerte und Eigenvektoren der Systemmatrix µ j +µ k und v j v k für j,k N mit µ j und v j aus dem -D Fall Zweigitterverfahren Gesucht ist eine Lösung w des linearen Gleichungssystems Aw = b (zur Gitterweite h). Ausgehend von einem Startwert w () führen wir einige gedämpfte Jacobi-Iterationen aus und erhalten w, dessen Fehler v = w w glatt ist (d.h. keine hochfrequenten Anteile besitzt). Offensichtlich ist v gerade die gesuchte Korrektur zur exakten Lösung. Man beachte, dass v i.a. sehr groß ist. Für den Defekt d der Näherung w gilt d = Aw b = Aw Aw = Av. Somit erfüllt die gesuchte Korrektur eine Gleichung vom selben Typ wie die ursprüngliche Gleichung. Die entscheidende Idee ist: eine glatte Funktion v kann auch auf einem gröberen Gitter gut approximiert werden. Sei ĥ = h und  die zugehörige Systemmatrix für das gröbere Gitter. Das gröbere Gitter hat um den Faktor d weniger Gitterpunkte, wobei d =,,3 die Raumdimension bezeichnet. Man löst  v = d, wobei d die Restriktion (Einschränkung) von d auf das gröbere Gitter ist d = Rd. Beispiel 6.3 (i) Die triviale Restriktion lautet Rd(x) = d(x) für x = jh (auf dem groben Gitter). Hier wurde die intuitive Kurzschreibweise d(kh) = d k für Gitterfunktionen verwendet. Die obige Bedingung lautet daher d j = d j. (ii) Eine bessere Restriktion erhält man mit Rd(x) = ( ) d(x h)+d(x)+d(x+h) 4 für x = jh auf dem groben Gitter.

10 Iterationsverfahren für lineare Gleichungssysteme 4 Denken wir uns für den Moment die Gleichung auf dem groben Gitter exakt gelöst, also v = Â d. Die gesuchte Korrektur ist offenbar nur auf dem groben Gitter definiert. Um eine Näherung an v zu erhalten, muss man sie auf das feine Gitter fortsetzen. Diesen Prozess nennt man Prolongation v = P v. Im Folgenden verwenden wir lineare Interpolation als Prolongation v(x) für x = jĥ P v(x) = = jh, ( ) v(x+h)+ v(x h) für x = (j +)h, vgl. auch Abb (j )h jh (j+)h Abbildung 6.3: Prolongation durch lineare Interpolation. Mit Hilfe der Prolongation der Grobgitterkorrektur ergibt sich die verbesserte Näherungslösung zu w neu = w v. Algorithmus (Zweigitterverfahren). Gegeben sei w (k). (i) Glättungsschritt: Man berechnet w mittels einiger gedämpfter Jacobi-Iterationen. (ii) Grobgitterkorrektur: Berechne Defekt am feinen Gitter d = Aw b Restriktion des Defekts auf das grobe Gitter d = Rd Löse Gleichung auf grobem Gitter v = Â d Prolongation auf das feine Gitter v = P v Korrektur am feinen Gitter w (k+) = w v Konvergenz des Zweigitterverfahrens Wir untersuchen obiges Zweigitterverfahren für ω = /4. Die Zwei-Gitter-Iteration lautet mit der Iterationsmatrix w (k+) = Mw (k) +Nb M = (I PÂ RA)H ν bei ν gedämpften Jacobi-Iterationen. Man hat Konvergenz, falls (M) <.

11 Iterationsverfahren für lineare Gleichungssysteme 5 Satz 6.4 (a) Der Spektralradius der Iterationsmatrix M = M(ν) erfüllt (M) max { x( x) ν +x ν ( x); x / } =: ν <. (b) Für die Spektralnorm M = (MT M) gilt } M max{ x ( x) ν +x ν ( x) ; x / =: ζ ν <. Eine einfache Rechnung ergibt die nachstehende Tabelle: Man zeigt weiters, dass für ν gilt: ν 3 4 ν / /4 /8.83 ζ ν / /4.5.6 ν eν, ζ ν ν. Beweis: Einfache (aber langwierige) Rechnung. Man verwendet dazu die angepasste Basis v j von Eigenvektoren. Wahl von ν. Der Aufwand für ν Glättungen ist in etwa doppelt so hoch wie für ν Glättungen. Somit sind zwei Iterationen mit ν Glättungsschritten besser als eine Iteration mit ν Glättungsschritten, falls ζ ν ζ ν ζ ν, d.h. ζ ν. In der Praxis heißt das: Man verwendet gedämpfte Jacobi-Iterationen Mehrgitterverfahren Man wählt Gitterweiten h = H, h = H, h = H 4,..., h l = H l und sucht für die feinste Gitterweite die Lösung des linearen Gleichungssystems A l w l = b l. (Der Index l deutet hier an, dass dieses Gleichungssystem zur Gitterweite h l gehört.) Abbildung 6.4: Drei ineinander geschachtelte Gitter mit, 9 und 49 Punkten.

12 Iterationsverfahren für lineare Gleichungssysteme S R S R S R S R E P P P P 4 3 Abbildung 6.5: V-Zyklus (oben) und W-Zyklus (unten) einer Mehrgitteriteration. Hierbei bedeutet S Glättung, R Restriktion, E Auswertung und P Prolongation (nach Hackbusch, 985). Wendet man ein Zweigitterverfahren an, so benötigt man die Lösung von A l w l = d l (Defektkorrektur am Grobgitter). Diese Gleichung löst man wieder iterativ mit dem Zweigitterverfahren und erhält ein neues Gleichungssystem A l w l = d l auf einem noch gröberen Gitter, usw. Auf dem gröbsten Gitter löst man das System direkt (im Extremfall eine einzige Gleichung!). Je nachdem, ob man jeweils eine oder zwei Zwei- Gitter-Iterationen pro Niveau ausführt, spricht man von einem V-Zyklus bzw. von einem W-Zyklus, vgl. Abb Algorithmus. MGM(l, w, b) Falls l =, setze w = A b. Sonst: w = Ergebnis von ν Jacobi-Iterationen zum Startwert w d = R(A l w b) v = für j =,...,γ: MGM(l,v,d) w = w Pv Beim V-Zyklus ist γ =, beim W-Zyklus ist γ =.

13 Iterationsverfahren für lineare Gleichungssysteme 7 Aufwand des Verfahrens. Sei N die Anzahl der Gleichungen am feinsten Gitter. Glättung, Restriktion und Prolongation sind O(N) Operationen mit kleiner O(...)-Konstante, falls man mit sparse matrix Techniken arbeitet. Die Anzahl der Gleichungen nimmt pro Niveau etwa um den Faktor d ab, wobei d die Raumdimension bezeichnet. Weiters wird am Niveau l das Niveau k gerade γ l k ( k l) aufgerufen. Somit ist der Gesamtaufwand der Iteration ( C N +γ N N N ) d +γ +...+γl +C d (l )d = O(N). Die neue Konstante lautet abhängig von d und γ: γ = γ = d = C lc d = 4 3 C C d = C 4 3 C Das Multigridverfahren ist somit in beliebigen Raumdimensionen ein O(N)-Prozess. Varianten verwenden andere Glättungsiterationen (meist Gauß-Seidel) oder Nachglätten (d.h. weitere Glättungsschritte nach der Grobgitterkorrektur) sowie andere Restriktionen und Prolongantionen. 6. Das Verfahren der konjugierten Gradienten Das Verfahren der konjugierten Gradienten geht auf Hestenes und Stiefel (95) zurück. Es wird auch als cg-verfahren bezeichnet (vom Englischen conjugate gradients methods). Im ganzen Abschnitt sei A eine reelle, symmetrische, positiv definite n n Matrix (eine sg. spd-matrix) und b R n ein Vektor. (Typischerweise ist hier n sehr groß und A dünn besetzt.) Die Aufgabe löse Ax = b ist somit äquivalent zur Aufgabe minimiere xt Ax b T x. Wir bezeichnen im Folgenden mit, das Standardskalarprodukt im R n. Diespd-Matrix A definiert ein (dazu äquivalentes) Skalarprodukt, A mittels und eine Norm die sg. Energienorm (bezüglich A). y,z A = y,az = Ay,z y A = y,y A, Definition 6.5 Sei A eine reelle, symmetrische, positiv definite n n Matrix und u,v zwei Vektoren im R n. Man nennt u A-orthogonal zu v (in Zeichen: u A v) wenn gilt: u,v A =. In der älteren Literatur spricht man auch von A-konjugiert.

38 Iterative Verfahren für lineare Gleichungssysteme

38 Iterative Verfahren für lineare Gleichungssysteme 38 Iterative Verfahren für lineare Gleichungssysteme 38.1 Motivation Viele praktische Probleme führen auf sehr große lineare Gleichungssysteme, bei denen die Systemmatrix dünn besetzt ist, d. h. nur wenige

Mehr

Numerische Mathematik für Ingenieure (SoSe 2013)

Numerische Mathematik für Ingenieure (SoSe 2013) Numerische Mathematik für Ingenieure (SoSe 2013) PD Dr(USA) Maria Charina Auszüge aus Vorlesungsfolien von Prof Joachim Stöckler werden verwendet Für die Bereitstellung dieses Materials und der Tex-Files

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Lineare Iterationsverfahren: Definitionen

Lineare Iterationsverfahren: Definitionen Lineare Iterationsverfahren: Definitionen 1. Ein Lösungsverfahren zur Berechnung von Ax = b heißt iterativ, falls ausgehend von einem Startwert x eine Folge x k von Iterierten bestimmt wird. 2. Ein Iterationsverfahren

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 11 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 2010 Prof. Dr. Klaus Höllig

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 21 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,,255}, n = 1,,N, m = 1,,M dig Camera Realisierung von B η ist

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung

Mehr

3. Lineare Gleichungssysteme

3. Lineare Gleichungssysteme 3. Lineare Gleichungssysteme 1 3.1. Problemstellung 2 3.2. Direkte Verfahren 3 3.3. Normen und Fehleranalyse 4 3.4. Iterative Verfahren 5 3.5. Konvergenz von linearen Iterationsverfahren 6 3.6. Gradienten-Verfahren

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

7. Iterative Lösung. linearer Gleichungssysteme

7. Iterative Lösung. linearer Gleichungssysteme 7. Iterative Lösung linearer Gleichungssysteme 1 Grundlagen (1) Zur Erinnerung: Gesucht ist die Lösung eines linearen Gleichungssystems a 0,0 x 0 +a 0,1 x 1 + a 0,n 1 x n 1 = b 0 a 1,0 x 0 +a 1,1 x 1 +

Mehr

Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf

Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf Praktikum im Sommersemester 2012 Programmierpraktikum numerische Algorithmen (P2E1) (Numerische Lösung der Wärmeleitungsgleichung)

Mehr

Glättung durch iterative Verfahren

Glättung durch iterative Verfahren Numerische Methoden in der Finanzmathematik II Sommersemester 211 Glättung durch iterative Verfahren Vorlesung Numerische Methoden in der Finanzmathematik II Sommersemester 211 Numerische Methoden in der

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

Newton-Verfahren für ein Skalarfunktion

Newton-Verfahren für ein Skalarfunktion Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme 2 Lineare Gleichungssysteme Wir betrachten das lineare Gleichungssystem Ax = b mit der n n-koeffizientenmatrix A und der rechten Seite b R n. Wir leiten zuerst eine Variante des Gauss-Algorithmus (LR-Zerlegung)

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Ausgleichsproblem. Definition (1.0.3)

Ausgleichsproblem. Definition (1.0.3) Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens

Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens Bachelor-Arbeit im -Fach Bachelorstudiengang Mathematik der Mathematisch-Naturwissenschaftlichen Fakultät der Christian-Albrechts-Universität zu Kiel vorgelegt

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen (für Informatiker) M. Grepl J. Berger & J.T. Frings Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2010/11 Problemstellung Lineare Gleichungssysteme, iterative Verfahren geg.:

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der

Mehr

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.

Mehr

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

51 Numerische Berechnung von Eigenwerten und Eigenvektoren 5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,

Mehr

Kapitel 5 Iterative Verfahren für LGS

Kapitel 5 Iterative Verfahren für LGS Kapitel 5 Iterative Verfahren für LGS Einführung Matrixnormen Splitting Verfahren Mehrgitter (Multigrid) Verfahren Gradientenverfahren Vorkonditionierung CG-Verfahren Abbruch von iterativen Verfahren Zusammenfassung

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016 Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b

Mehr

Modulprüfung Numerische Mathematik 1

Modulprüfung Numerische Mathematik 1 Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

Vektorräume und Lineare Abbildungen

Vektorräume und Lineare Abbildungen Vektorräume und Lineare Abbildungen Patricia Doll, Selmar Binder, Lukas Bischoff, Claude Denier ETHZ D-MATL SS 07 11.04.2007 1 Vektorräume 1.1 Definition des Vektorraumes (VR) 1.1.1 Grundoperationen Um

Mehr

Lineare Algebra II 11. Übungsblatt

Lineare Algebra II 11. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross 9 / Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest (Bearbeitung innerhalb von Minuten und ohne Benutzung des

Mehr

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1. Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x

Mehr

4 Fehlerabschätzungen und Konvergenz der FEM

4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und

Mehr

Kapitel II. Vektoren und Matrizen

Kapitel II. Vektoren und Matrizen Kapitel II. Vektoren und Matrizen Vektorräume A Körper Auf der Menge R der reellen Zahlen hat man zwei Verknüpfungen: Addition: R R R(a, b) a + b Multiplikation: R R R(a, b) a b (Der Malpunkt wird oft

Mehr

7 Lineare Abbildungen und Skalarprodukt

7 Lineare Abbildungen und Skalarprodukt Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u

Mehr

Iterative Lösung Linearer Gleichungssysteme

Iterative Lösung Linearer Gleichungssysteme Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:

Mehr

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können

Mehr

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3 Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare

Mehr

KLAUSUR. Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.:

KLAUSUR. Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.: KLAUSUR Lineare Algebra (E-Techniker/Mechatroniker/W-Ingenieure/Informatiker).3. (W. Koepf) Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.: Für jede Aufgabe gibt es Punkte. Zum Bestehen der Klausur

Mehr

Fixpunkt-Iterationen

Fixpunkt-Iterationen Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 27. Februar 2014 Gliederung Wiederholung: Gleichungstypen, Lösungsverfahren Grundprinzip

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

Lineare Gleichungssysteme Hierarchische Matrizen

Lineare Gleichungssysteme Hierarchische Matrizen Kompaktkurs Lineare Gleichungssysteme Hierarchische Matrizen M. Bebendorf, O. Steinbach O. Steinbach Lineare Gleichungssysteme SIMNET Kurs 24. 27.4.26 / 6 Numerische Simulation stationäre und instationäre

Mehr

Finite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015

Finite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015 Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 5 Aufgabe 8 (Speichertechniken) Finite Elemente Übung 5 a) Stellen Sie die Matrix

Mehr

Aufgaben zu Kapitel 20

Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v

Mehr

5 Numerische Mathematik

5 Numerische Mathematik 6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen

Mehr

KAPITEL 5. Nichtlineare Gleichungssysteme

KAPITEL 5. Nichtlineare Gleichungssysteme KAPITEL 5. Nichtlineare Gleichungssysteme Beispiel 5.1. Gravitationskraft zwischen zwei Punktmassen m 1 und m 2 mit gegenseitigem Abstand r: F = G m 1m 2 r 2, wobei G = 6.67 10 11 Nm 2 /kg. Gravitationsfeld

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

3 Lineare Differentialgleichungen

3 Lineare Differentialgleichungen 3 Lineare Differentialgleichungen In diesem Kapitel behandeln wir die allgemeine Theorie linearer Differentialgleichungen Sie werden zahlreiche Parallelen zur Theorie linearer Gleichungssysteme feststellen,

Mehr

Übungsblatt

Übungsblatt Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 53 Norm von Endomorphismen und Matrizen Definition 53.1. Es seien V und W endlichdimensionale normierte K-

Mehr

Numerische Verfahren zur Lösung der Monge-Ampère-Gleichung

Numerische Verfahren zur Lösung der Monge-Ampère-Gleichung Verfahren zur Lösung der Monge-Ampère-Gleichung Yasemin Hafizogullari Institut für Geometrie und Praktische Mathematik RWTH Aachen Seminar zu aktuellen Themen der Numerik im Wintersemester 2010/2011 1

Mehr

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x) 9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten

Mehr

42 Orthogonalität Motivation Definition: Orthogonalität Beispiel

42 Orthogonalität Motivation Definition: Orthogonalität Beispiel 4 Orthogonalität 4. Motivation Im euklidischen Raum ist das euklidische Produkt zweier Vektoren u, v IR n gleich, wenn die Vektoren orthogonal zueinander sind. Für beliebige Vektoren lässt sich sogar der

Mehr

Brückenkurs Mathematik. Mittwoch Freitag

Brückenkurs Mathematik. Mittwoch Freitag Brückenkurs Mathematik Mittwoch 5.10. - Freitag 14.10.2016 Vorlesung 4 Dreiecke, Vektoren, Matrizen, lineare Gleichungssysteme Kai Rothe Technische Universität Hamburg-Harburg Montag 10.10.2016 0 Brückenkurs

Mehr

14 Skalarprodukt Abstände und Winkel

14 Skalarprodukt Abstände und Winkel 4 Skalarprodukt Abstände und Winkel Um Abstände und Winkel zu definieren benötigen wir einen neuen Begriff. Zunächst untersuchen wir die Länge eines Vektors v. Wir schreiben dafür v und sprechen auch von

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn

Mehr

5 Lineare Gleichungssysteme und Determinanten

5 Lineare Gleichungssysteme und Determinanten 5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von

Mehr

5 Numerische Iterationsverfahren

5 Numerische Iterationsverfahren In diesem Kapitel besprechen wir numerische Iterationsverfahren (insbesondere Fixpunktverfahren) als eine weitere Lösungsmethode zur Lösung von linearen Gleichungssystemen (Kapitel 4) sowie zur Lösung

Mehr

2.5 Gauß-Jordan-Verfahren

2.5 Gauß-Jordan-Verfahren 2.5 Gauß-Jordan-Verfahren Definition 2.5.1 Sei A K (m,n). Dann heißt A in zeilenreduzierter Normalform, wenn gilt: [Z1] Der erste Eintrag 0 in jeder Zeile 0 ist 1. [Z2] Jede Spalte, die eine 1 nach [Z1]

Mehr

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme Als zweite Hauptanwendung des Banachschen Fixpunktsatzes besprechen wir in diesem Kapitel die iterative Lösung linearer Gleichungssysteme. Die

Mehr

6. Normale Abbildungen

6. Normale Abbildungen SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW Lineare Gleichungssysteme Lösen Sie folgende Gleichungssysteme über R: a) x + x + x = 6x + x + x = 4 x x x = x 7x x = 7 x x = b) x + x 4x + x 4 = 9 x + 9x x x

Mehr

9 Metrische und normierte Räume

9 Metrische und normierte Räume 9 Metrische und normierte Räume Idee: Wir wollen Abstände zwischen Punkten messen. Der Abstand soll eine reelle Zahl 0 sein (ohne Dimensionsangabe wie Meter...). 9.1 Definition Sei X eine Menge. Eine Metrik

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

4 Lineare Abbildungen und Matrizen

4 Lineare Abbildungen und Matrizen Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei

Mehr

4 Fehlerabschätzungen und Konvergenz der FEM

4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

7 Mehrgitterverfahren. Themen: Newton-Verfahren Nichtlineare CG-Verfahren Nichtlineare Mehrgitterverfahren

7 Mehrgitterverfahren. Themen: Newton-Verfahren Nichtlineare CG-Verfahren Nichtlineare Mehrgitterverfahren 7 Mehrgitterverfahren Themen: Newton-Verfahren Nichtlineare CG-Verfahren Nichtlineare Mehrgitterverfahren 7.7 Beispiele nichtlinearer elliptischer Differentialgleichungen Nichtlineare elliptische Differentialgleichungen

Mehr

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren

Mehr

d) Produkte orthogonaler Matrizen sind wieder orthogonal.

d) Produkte orthogonaler Matrizen sind wieder orthogonal. Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

Matrizenoperationen mit FORTRAN

Matrizenoperationen mit FORTRAN Kapitel 2 Matrizenoperationen mit FORTRAN 21 Grundlagen Bei vielen Anwendungen müssen große zusammenhängende Datenmengen gespeichert und verarbeitet werden Deshalb ist es sinnvoll, diese Daten nicht als

Mehr

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen

1 Zum Aufwärmen. 1.1 Notationen. 1.2 Lineare Abbildungen und Matrizen. 1.3 Darstellungsmatrizen 1 Zum Aufwärmen 1.1 Notationen In diesem Teil der Vorlesung bezeichnen wir Körper mit K, Matrizen mit Buchstaben A,B,..., Vektoren mit u,v,w,... und Skalare mit λ,µ,... Die Menge der m n Matrizen bezeichnen

Mehr

4.4 Hermitesche Formen

4.4 Hermitesche Formen 44 Hermitesche Formen Wie üblich bezeichnen wir das komplex konjugierte Element von ζ = a + bi C (a, b R) mit ζ = a bi Definition 441 Sei V ein C-Vektorraum Eine hermitesche Form (HF) auf V ist eine Abbildung

Mehr

Kapitel VI. Euklidische Geometrie

Kapitel VI. Euklidische Geometrie Kapitel VI. Euklidische Geometrie 1 Abstände und Lote Wiederholung aus Kapitel IV. Wir versehen R n mit dem Standard Skalarprodukt x 1 y 1.,. := x 1 y 1 +... + x n y n x n y n Es gilt für u, v, w R n und

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016, Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

Merkblatt zur Funktionalanalysis

Merkblatt zur Funktionalanalysis Merkblatt zur Funktionalanalysis Literatur: Hackbusch, W.: Theorie und Numerik elliptischer Differentialgleichungen. Teubner, 986. Knabner, P., Angermann, L.: Numerik partieller Differentialgleichungen.

Mehr

Erweiterungen der LR-Zerlegung

Erweiterungen der LR-Zerlegung Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen

Mehr

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010 Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und

Mehr

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest

Mehr