KAPITEL 1. Einleitung

Größe: px
Ab Seite anzeigen:

Download "KAPITEL 1. Einleitung"

Transkript

1 KAPITEL 1 Einleitung Wir beschäftigen uns in dieser Vorlesung mit Verfahren aus der Numerischen linearen Algebra und insbesondere dem sogenannten Mehrgitterverfahren zur Lösung linearer Gleichungssysteme der Form (1.1) Au = f, wobei A R n n, u, f R n and n N. Zur Lösung linearer Gleichungssysteme der Form (1.1) findet man im wesentlichen zwei grundlegende Ansätze Direkte Verfahren und iterative Verfahren Mehrgitterverfahren gehören zur Klasse der iterativen Verfahren und sind unter den folgenden Eigenschaften des LGS (1.1) besonders effizient n groß, n > 10 3 A ist dünnbesetzt, i.e. die Zahl der nicht verschwindenden Einträge in der Matrix ist von der Größenordnung O(n). Große und dünnbesetzte LGS (und LGS selbst) entstehen bei der Diskretisierung (elliptischer) partieller Differentialgleichungen, zum Beispiel der zweidimensionalen Poissongleichung auf dem Einheitsquadrat, u = f, u = u(x), x (0, 1) 2 wobei die Lösung am Rand des Einheitsquadrat vorgeschrieben ist (Dirichlet Problem). Wir werden uns in Abschnitt 1.2 exemplarisch mit der Diskretisierung dieser Gleichung beschäftigen. 1. Grundlegende Definition und Notationen Das euklidische Skalarprodukt zweier Vektoren im R n ist definiert als u, v 2 = u i v i, u, v R n i=1 Definition 1.1. Eine symmetrische Matrix A, i.e. A = A T, A R n n heißt positiv definit (kurz: SPD), falls u, Au 2 0, u 0 Wir bezeichnen mit u, v A das durch die Matrix A induzierte Skalarprodukt, i.e. u, v A = u, Av 2 1

2 2 1. EINLEITUNG Wir werden im weiteren Verlauf mit den folgenden Normen arbeiten: u 2 = u, u 1/2 2 (Euklidische Norm) u A = u, u 1/2 2 (A ist SPD) u 1 = u i i=1 u = max 1 i n u i Energienormen und Skalarprodukte: wir bezeichnen mit u A und, A die Energienorm und das zugehörige innere Produkt, falls die Matrix A aus einer Diskretisierung einern partiellen Differentialgleichung zweiter Ordnung entsteht. Matrixnormen definieren wir über A = sup u R n, u 0 wobei eine Vektornorm bezeichnet. Au u, A Rn n Definition 1.2. Wir bezeichnen mit σ(a) das Spektrum einer Matrix A: σ(a) = {λ C : λ ist ein Eigenwert von A} und ρ(a) = max λ λ σ(a) ist der Spektralradius der Matrix A. Eine wichtige Beobachtung ist dabei: Die Matrixnorm beschränkt den Spektralradius, i.e. ρ(a) A (unabhängig von der gewählten Matrixnorm) und für Hermitesche Matrizen, i.e. A = A (A ist die konjugiert komplexe Matrix zu A), gilt sogar wobei Andere gebräuchliche Matrixnormen sind ρ(a) = A 2 A 2 = ρ(a T A) 1/2 A B = B 1/2 AB 1/2 2, B ist SPD A 1 = max 1 j n a ij (Spaltensummennorm) A = max i=1 1 i n j=1 a ij (Zeilensummennorm) Für Matrizen A, B R n n lassen sich die folgenden Ordnungsrelationen definieren A < B a ij < b ij i, j = 1,..., n A B a ij b ij i, j = 1,..., n

3 2. LINEARE GLEICHUNGSSYSTEME UND PARTIELLE DIFFERENTIALGLEICHUNGEN 3 Definition 1.3. Eine Matrix A nennt man M Matrix, falls (1) a ii > 0, i = 1,..., n (2) a ij 0 i j (3) A ist nichtsingulär und A 1 0. Diskretisierungen partieller Differentialgleichungen, die man aus Finiten Differenzen oder Finiten Elementen erhält ergeben typischerweise M Matrizen. Einer gegebenen Matrix läßt sich ein Graph zu ordnen: Sei I = {1,..., n} und A R n n eine gegebene Matrix. Ein Graph G A (V, E) besteht aus einer Menge V = {v 1,..., v n } von n geordneten Knoten und eine Menge E von gerichteten Kanten, sodass e i,j E existiert (e i,j verbindet die beiden Knoten v i und v j ), genau dann wenn a i,j 0, i j gilt. Für einen Knoten v i definiert man die Menge der Nachbarn N i mittels N i = {v j V : e i,j E} sowie deg(v j ) = N i, wobei N i die Anzahl der Elemente der Menge N i bezeichnet. Beispiel 1.4. A = , v 1 v 2 Definition 1.5. Man nennt eine Matrix irreduzibel, falls ein Knoten v i V mit jedem anderen Knoten v j V, i j, verbunden ist, nicht notwendigerweise direkt, also über eine existierende Kante e i,j, sondern vielmehr über eine entsprechende Folge von Kanten e k,l. Bemerkung 1.6. Erfüllt eine irreduzible Matrix A die beiden Eigenschaften: (1) a ii a ij i = 1,..., n i j (2) a ii > a ij für mindestens eini i j so ist A eine M Matrix. 2. Lineare Gleichungssysteme und Partielle Differentialgleichungen Wir starten mit der folgenden eindimensionalen Poissongleichung in (0, 1): u = f x (0, 1) u(0) = 0 u(1) = 0 Mit Hilfe des regulären Gitters { Ω h = x i (0, 1) : x i = ih, i = 1,..., n, h = 1 } n + 1 und einer Approximation der zweiten Ableitung mittels zentraler Differenzen erhalten wir das folgende LGS Au = f, A R n n, u, f R n und n N v 3

4 4 1. EINLEITUNG Die Matrix A wird gewöhnlich als Steifigkeitsmatrix bezeichnet: 2 1 A = h , f i = f(x i ) Im zweidimensionalen Fall haben wir u = f in (0, 1) 2 u(x) = 0 für x Ω Die zugehörige Steifigkeitsmatrix des LGS Au = f lautet nun Z I n A = 1 I n Z I n h , Z = I n Z I n Z I n wobei I n R n n die Einheitsmatrix bezeichnet Beispiel 1.7. Für den Fall n = 2 ergibt sich konkret: v 1 v Graph G A(V, E) ist irreduzibel v v 4 n=2 3. Klassische iterative Methods Klassische direkte Verfahren, wie etwa die Gauß Elimination, haben einen Speicherplatzbedarf der Größenordnung O(n 2 ), einen Rechenaufwand der Größenordnung O(n 3 ) und berücksichtigen nicht, dass eine Matrix dünnbesetzt ist.

5 3. KLASSISCHE ITERATIVE METHODS 5 Als eine Alternative für große LGS bieten sich daher iterative Verfahren, die allgemein in der Form u (k) = Φ (k) ( u (k 1),..., u (0)) dargestellt werden können. Das oben formulierte Iterationsverfahren sollte die folgenden Eigenschaften besitzen: die Folge {u (k) } k N konvergiert möglichst schnell, die Abbildung Φ (k) sollte sich möglichst einfach berechnen lassen, zum Beispiel bei dünnbesetzten Matrizen einem Rechenaufwand der Größenordnung O(n). Zur Herleitung eines iterativen Verfahrens bietet sich direkt eine Fixpunktiteration an: Au = f u = (I A)u + f = Φ(u) = T u + f sodass u (k) = Φ(u k 1 ) = T u k 1 + f Diese Vorschrift bezeichnet man als Richardson Iteration. Satz 1.8. Die Fixpunktiteration u (k) = T u (k 1) + f konvergiert mit jedem Startwert u 0, genau dann wenn ρ(t ) < 1. Eine hinreichende Bedingung zur Konvergenz des obigen Iterationsverfahrens ist offensichtlich T < 1 in einer geeigneten Matrixnorm, sodass u (k) u T k u (0) u Dies bedeutet ebenfalls, dass die Konvergenzgeschwindigkeit entscheidend von dem Wert T abhängig ist. Die Richardson Iteration basiert auf der Iterationsmatrix T = I A. Ist die Matrix A SPD, so liegt das Spektrum σ(a) von A auf der positiven reellen Achse der komplexen Ebene C. Dies bedeutet, dass das Spektrum von T = I A links von z = 1 liegt und dies bedeutet: ρ(t ) < 1 ρ(a) < 2 Damit ist die Richardson Iteration für praktische Anwendungen ungeeeignet: im Fall der ein dimensionalen Poissongleichung wachsen die Eigenwerte der Matrix A mit der Ordnung O(n 2 ), wobei n die Zahl der Unbekannten bezeichnet. Um diese unzureichende Konvergenzeigenschaft zu umgehen, verwendet man eine sogenannte Präkonditionierung oder Vorkonditionierung: anstelle des Systems Au = f betrachten wir das System M 1 Au = M 1 f, wobei die Matrix M einen Präkonditionierer oder Vorkonditionierer bezeichnet. Unter Verwendung eines Präkonditionierers lautet die Fixpunktiteration u (k) = u (k 1) + M 1 (f Au (k 1) ) und die Iterationsmatrix ist nun gegeben durch T = I M 1 A. Die beiden klassischen iterativen Verfahren lassen sich mittels eines Prkonditionierers folgendermaßen darstellen:

6 6 1. EINLEITUNG 1) Das Jacobi Verfahren oder auch Gesamtschrittverfahren ist ein sogenanntes Splitting Verfahren, basiert also auf einer Zerlegung der Matrix A in der Form A = L + D + U, Dabei ist L eine obere und U eine untere Dreiecksmatrix sowie D = diag(a). Wählt man als Vorkonditionierer nun M = D so ergibt sich die Iterationsmatrix T = I D 1 A Die zugehörige Fixpunktiteration konvergiert, falls A strikt diagonal dominant ist, i.e. a ii > a ij i = 1,..., n. j=1 2) Das Verfahren von Gauß Seidel oder auch Einzelschrittverfahren verwendet den Präkonditionierer M = L + D und als Iterationsmatrix ergibt sich T = I (L + D) 1 A = I (L + D) 1 (L + D + U) = (D + L) 1 U Das Gauß Seidel Verfahren konvergiert für jede SPD Matrix. Eine weitere Klasse klassischer Iterationsverfahren sind die sogenannten Relaxationsverfahren die auf der folgenden Vorschrift basieren: u (k) = ω(t u (k 1) + M 1 f) + (1 ω)u (k 1) = T ω u (k 1) + ωm 1 f where T ω = ωt + (1 ω)i. Man nennt eine Verfahren eine Unterrelaxation, falls ω < 1 gilt bzw. für ω > 1 Überrelaxation. Beispiel 1.9. Ist A eine SPD Matrix, so ist der optimale Relaxationsparameter der Richardson Iteration gegeben durch 2 ω = λ max (A) + λ min (A) und ρ(t ω ) = λ max(a) λ min (A) λ max (A) + λ min (A) < 1 Optimal bedeutet hier, dass für den obigen Wert von ω der Spektralradius der Iterationsmatrix minimal wird. Bei der SOR Methode (successive overrelaxation method) verwendet man das Splitting A = L + D + U und die Iterationsvorschrift u (k) = T ω u (k 1) + ωmω 1 f T ω = (D + ωl) 1 [(1 ω)d ωu] M ω = D + ωl mit ω (1, 2). Im Fall ω = 1 ist das SOR Verfahren identisch mit dem Gauß Seidel Verfahren.

7 3. KLASSISCHE ITERATIVE METHODS 7 Eine Reihe anderer iterativer Verfahren lassen sich mit Hilfe eines regulären Splittings der Matrix A herleiten (siehe dazu Varga, Matrix Iterative Analysis, Prentice Hall, 1962): Definition Das Matrix M definiert ein reguläres Splitting von A in der Form A = M N, falls M regulär ist und M 1 0 sowie N 0 gilt. Mit Hilfe eines regulären Splittings definiert man nun eine Iterationsmatrix der Form T = I M 1 A. Es gilt Ist A eine reguläre Matrix, so gilt T = I M 1 A = M 1 (M A) = M 1 N = (A + N) 1 N M 1 N = (A + N) 1 N = (A + N) 1 AA 1 N = (A 1 (A + N)) 1 A 1 N = (I + G) 1 G wobei G = A 1 N. Sei nun v ein Eigenvektor von G zum zugehörigen Eigenwert λ. Dann gilt: (I + G) 1 Gv = λ 1 + λ v i.e. v ist ein Eigenvektor von T zum zugehörigen Eigenwert µ = λ 1 + λ In umgekehrter Richtung sei µ ein Eigenwert von (I + G) 1 G mit (I + G) 1 Gz = µz so gilt Gz = µ(i + G)z und es muß gelten µ 1 und daher Gz = µ 1 µ = λz Damit läßt sich leicht die folgende Konvergenzaussage beweisen: Satz Ist A = M N ein reguläres Splitting und gilt A 1 0, so folgt Daher konvergiert das Iterationsverfahren für jeden beliebigen Startwert u (0). ρ(t ) = ρ(a 1 N) 1 + ρ(a 1 N) < 1 u (k) = (I M 1 A)u (k 1) + M 1 f Für reguläre Splittings existieren ein Reihe weitere Resultate: Beispiel Ist A eine SPD Matrix und M so gewählt, dass die Matrix N = M A symmetrisch und positiv semidefinit ist. Dann ist die Energienorm der Iterationsmatrix T = I M 1 A beschränkt durch T A < 1 (siehe dazu Hackbusch, Iterative Solution of Large Sparse Systems of Equations, Springer, 1994).

Numerische Mathematik für Ingenieure (SoSe 2013)

Numerische Mathematik für Ingenieure (SoSe 2013) Numerische Mathematik für Ingenieure (SoSe 2013) PD Dr(USA) Maria Charina Auszüge aus Vorlesungsfolien von Prof Joachim Stöckler werden verwendet Für die Bereitstellung dieses Materials und der Tex-Files

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 11 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 2010 Prof. Dr. Klaus Höllig

Mehr

38 Iterative Verfahren für lineare Gleichungssysteme

38 Iterative Verfahren für lineare Gleichungssysteme 38 Iterative Verfahren für lineare Gleichungssysteme 38.1 Motivation Viele praktische Probleme führen auf sehr große lineare Gleichungssysteme, bei denen die Systemmatrix dünn besetzt ist, d. h. nur wenige

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 21 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,,255}, n = 1,,N, m = 1,,M dig Camera Realisierung von B η ist

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen (für Informatiker) M. Grepl J. Berger & J.T. Frings Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2010/11 Problemstellung Lineare Gleichungssysteme, iterative Verfahren geg.:

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme 2 Lineare Gleichungssysteme Wir betrachten das lineare Gleichungssystem Ax = b mit der n n-koeffizientenmatrix A und der rechten Seite b R n. Wir leiten zuerst eine Variante des Gauss-Algorithmus (LR-Zerlegung)

Mehr

Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens

Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens Konvergenz des Jacobi- und Gauß-Seidel-Verfahrens Bachelor-Arbeit im -Fach Bachelorstudiengang Mathematik der Mathematisch-Naturwissenschaftlichen Fakultät der Christian-Albrechts-Universität zu Kiel vorgelegt

Mehr

3. Lineare Gleichungssysteme

3. Lineare Gleichungssysteme 3. Lineare Gleichungssysteme 1 3.1. Problemstellung 2 3.2. Direkte Verfahren 3 3.3. Normen und Fehleranalyse 4 3.4. Iterative Verfahren 5 3.5. Konvergenz von linearen Iterationsverfahren 6 3.6. Gradienten-Verfahren

Mehr

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.

Mehr

Mathematische Grundlagen

Mathematische Grundlagen Mathematische Grundlagen 1 / 16 Vektorraum u R n, u = (u 1,..., u n ), u k R Euklidisches Skalarprodukt Euklidische Vektornorm (u, v) = u k v k u 2 = (u, u) = n u 2 k Vektoren u, v R n heißen orthogonal,

Mehr

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme Als zweite Hauptanwendung des Banachschen Fixpunktsatzes besprechen wir in diesem Kapitel die iterative Lösung linearer Gleichungssysteme. Die

Mehr

Glättung durch iterative Verfahren

Glättung durch iterative Verfahren Numerische Methoden in der Finanzmathematik II Sommersemester 211 Glättung durch iterative Verfahren Vorlesung Numerische Methoden in der Finanzmathematik II Sommersemester 211 Numerische Methoden in der

Mehr

Iterative Lösung Linearer Gleichungssysteme

Iterative Lösung Linearer Gleichungssysteme Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:

Mehr

Lineare Gleichungssysteme Hierarchische Matrizen

Lineare Gleichungssysteme Hierarchische Matrizen Kompaktkurs Lineare Gleichungssysteme Hierarchische Matrizen M. Bebendorf, O. Steinbach O. Steinbach Lineare Gleichungssysteme SIMNET Kurs 24. 27.4.26 / 6 Numerische Simulation stationäre und instationäre

Mehr

Lineare Iterationsverfahren: Definitionen

Lineare Iterationsverfahren: Definitionen Lineare Iterationsverfahren: Definitionen 1. Ein Lösungsverfahren zur Berechnung von Ax = b heißt iterativ, falls ausgehend von einem Startwert x eine Folge x k von Iterierten bestimmt wird. 2. Ein Iterationsverfahren

Mehr

7. Iterative Lösung. linearer Gleichungssysteme

7. Iterative Lösung. linearer Gleichungssysteme 7. Iterative Lösung linearer Gleichungssysteme 1 Grundlagen (1) Zur Erinnerung: Gesucht ist die Lösung eines linearen Gleichungssystems a 0,0 x 0 +a 0,1 x 1 + a 0,n 1 x n 1 = b 0 a 1,0 x 0 +a 1,1 x 1 +

Mehr

5 Numerische Iterationsverfahren

5 Numerische Iterationsverfahren In diesem Kapitel besprechen wir numerische Iterationsverfahren (insbesondere Fixpunktverfahren) als eine weitere Lösungsmethode zur Lösung von linearen Gleichungssystemen (Kapitel 4) sowie zur Lösung

Mehr

Numerische Verfahren zur Lösung der Monge-Ampère-Gleichung, Teil II

Numerische Verfahren zur Lösung der Monge-Ampère-Gleichung, Teil II für zur Lösung der Monge-Ampère-Gleichung, Teil II Andreas Platen Institut für Geometrie und Praktische Mathematik RWTH Aachen Seminar zur Approximationstheorie im Wintersemester 2009/2010 1 / 27 Gliederung

Mehr

Numerische Mathematik für Ingenieure und Physiker

Numerische Mathematik für Ingenieure und Physiker Willi Törnig Peter Spellucci Numerische Mathematik für Ingenieure und Physiker Band 1: Numerische Methoden der Algebra Zweite, überarbeitete und ergänzte Auflage Mit 15 Abbildungen > Springer-Verlag Berlin

Mehr

Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf

Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf Praktikum im Sommersemester 2012 Programmierpraktikum numerische Algorithmen (P2E1) (Numerische Lösung der Wärmeleitungsgleichung)

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 20.12.13 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Kapitel 5 Iterative Verfahren für LGS

Kapitel 5 Iterative Verfahren für LGS Kapitel 5 Iterative Verfahren für LGS Einführung Matrixnormen Splitting Verfahren Mehrgitter (Multigrid) Verfahren Gradientenverfahren Vorkonditionierung CG-Verfahren Abbruch von iterativen Verfahren Zusammenfassung

Mehr

Finite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015

Finite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015 Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 5 Aufgabe 8 (Speichertechniken) Finite Elemente Übung 5 a) Stellen Sie die Matrix

Mehr

5 Numerische Mathematik

5 Numerische Mathematik 6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK II 1. Numerische Lineare Algebra. Prof. Dr. Hans Babovsky. Institut für Mathematik

EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK II 1. Numerische Lineare Algebra. Prof. Dr. Hans Babovsky. Institut für Mathematik EINFÜHRUNG IN DIE NUMERISCHE MATHEMATIK II 1 Numerische Lineare Algebra Prof. Dr. Hans Babovsky Institut für Mathematik Technische Universität Ilmenau 1 Version vom Sommer 2010 INHALTSVERZEICHNIS 1 Inhaltsverzeichnis

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei

Mehr

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB)

Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Prof. R. Leithner, Dipl. Phys. E. Zander Wintersemester 2010/2011 Kapitel 8 Partielle

Mehr

Finite Elemente. bzw. F + E K = 1. (1)

Finite Elemente. bzw. F + E K = 1. (1) Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 25 Finite Elemente Übung 2 Aufgabe 6 (Eulerscher Polyedersatz für Triangulierung)

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

D-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch. Musterlösung 6. x A 1 b. A 1 b A 1. x A ( A. gestört: x A 1 =

D-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch. Musterlösung 6. x A 1 b. A 1 b A 1. x A ( A. gestört: x A 1 = D-ITET, D-MATL Numerische Methoden SS 2006 Prof. R. Jeltsch Musterlösung 6 1. a b exakt: x = c Die Inverse von A lautet x = A 1 b x = A 1 b x A 1 b x A 1 b x A 1 b A x b x κ A b x b 3 1 A 1 = gestört:

Mehr

Ökonometrische Analyse

Ökonometrische Analyse Institut für Statistik und Ökonometrie, Freie Universität Berlin Ökonometrische Analyse Dieter Nautz, Gunda-Alexandra Detmers Rechenregeln für Matrizen Notation und Matrixeigenschaften: Eine Matrix A der

Mehr

(d) das zu Grunde liegende Problem gut konditioniert ist.

(d) das zu Grunde liegende Problem gut konditioniert ist. Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt

Mehr

3 Lineare Differentialgleichungen

3 Lineare Differentialgleichungen 3 Lineare Differentialgleichungen In diesem Kapitel behandeln wir die allgemeine Theorie linearer Differentialgleichungen Sie werden zahlreiche Parallelen zur Theorie linearer Gleichungssysteme feststellen,

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Kapitel 3. Konvergenz von Folgen und Reihen

Kapitel 3. Konvergenz von Folgen und Reihen Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden

Mehr

Zwei-Level-Verfahren zur Lösung Linearer Gleichungssysteme mit nichtsingulärer unsymmetrischer M-Matrix

Zwei-Level-Verfahren zur Lösung Linearer Gleichungssysteme mit nichtsingulärer unsymmetrischer M-Matrix Zwei-Level-Verfahren zur Lösung Linearer Gleichungssysteme mit nichtsingulärer unsymmetrischer M-Matrix Diplomarbeit von Florian Goßler Technische Universität Berlin Fakultät II - Institut für Mathematik

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 53 Norm von Endomorphismen und Matrizen Definition 53.1. Es seien V und W endlichdimensionale normierte K-

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

II. Elliptische Probleme

II. Elliptische Probleme II. Elliptische Probleme II.1 Finite Differenzen: Grundidee II.2 Konvergenzaussagen II.3 Allgemeine Randbedingungen II.4 Gekrümmte Ränder Kapitel II (0) 1 Dirichlet Randwerte mit finiten Differenzen Einfachster

Mehr

Erweiterungen der LR-Zerlegung

Erweiterungen der LR-Zerlegung Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 12. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 14, 2017 1 Erinnerung: Determinanten, Orthogonale/unitäre Matrizen Sei A R 2 2, dann kann die Inverse

Mehr

Das Prinzip der Suchmaschine Google TM

Das Prinzip der Suchmaschine Google TM /9 Das Prinzip der Suchmaschine Google TM Numerische Mathematik WS 20/2 Basieren auf dem Paper The $25,000,000,000 Eigenvector: The Linear Algebra behind Google von Kurt Bryan und Tanya Leise (SIAM Review,

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3 Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare

Mehr

Parallelrechnern. 12. März Technische Universität Chemnitz. Der Jacobi-Davidson Algorithmus auf. Parallelrechnern. Patrick Kürschner.

Parallelrechnern. 12. März Technische Universität Chemnitz. Der Jacobi-Davidson Algorithmus auf. Parallelrechnern. Patrick Kürschner. Technische Universität Chemnitz 12. März 2008 - sweise Gliederung - sweise - sweise Eigenwertprobleme Ziel: Lösung von Eigenwertproblemen Dabei: Ax = λx Matrix A C n n sehr groß, dünnbesetzt (sparse) Gesucht:

Mehr

Brückenkurs Mathematik. Mittwoch Freitag

Brückenkurs Mathematik. Mittwoch Freitag Brückenkurs Mathematik Mittwoch 5.10. - Freitag 14.10.2016 Vorlesung 4 Dreiecke, Vektoren, Matrizen, lineare Gleichungssysteme Kai Rothe Technische Universität Hamburg-Harburg Montag 10.10.2016 0 Brückenkurs

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

KAPITEL 7. Berechnung von Eigenwerten. Av = λv

KAPITEL 7. Berechnung von Eigenwerten. Av = λv KAPITEL 7. Berechnung von Eigenwerten Aufgabe: Sei A R n n eine reelle quadratische Matrix. Gesucht λ C und v C n, v 0, die der Eigenwertgleichung Av = λv genügen. Die Zahl λ heißt Eigenwert und der Vektor

Mehr

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2. MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw

Mehr

Kapitel 2. Zahlenbereiche

Kapitel 2. Zahlenbereiche Kapitel 2. Zahlenbereiche 2.3. Reelle Zahlen Erweiterung des Zahlenbereichs der natürlichen Zahlen Ganze Zahlen Z := {..., 3, 2, 1, 0, 1, 2, 3,... } = N {0} N. Rationale Zahlen Q := { m n m Z, n N }. Beachte:

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

9 Vektorräume mit Skalarprodukt

9 Vektorräume mit Skalarprodukt 9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden

Mehr

Numerische Behandlung von linearen Gleichungssystemen

Numerische Behandlung von linearen Gleichungssystemen Numerische Behandlung von linearen Gleichungssystemen Der Gauÿ'sche Algorithmus Der Gauÿ'sche Algorithmus ist schon besprochen worden. Er eignet sich zwar prinzipiell gut zur Bestimmung der Lösung eines

Mehr

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte Mathematik I Matrizen In diesem Kapitel werden wir lernen was Matrizen sind und wie man mit Matrizen rechnet. Matrizen ermöglichen eine kompakte Darstellungsform vieler mathematischer Strukturen. Zum Darstellung

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen

Mehr

2 Direkte Lösungsverfahren für lineare Gleichungen

2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei x = (x n ) n=1,...,n R N, A = (a m,n ) m=1,...,m, n=1,...,n R M,N. a) Sei 1 m n N. Dann ist x[m : n] = (x k ) k=m,...,n R 1+n m Teilvektor von x. b) Seien 1 m 1 m 2 M, 1 n 1 n 2 N. Dann ist A[m

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

Merkblatt zur Funktionalanalysis

Merkblatt zur Funktionalanalysis Merkblatt zur Funktionalanalysis Literatur: Hackbusch, W.: Theorie und Numerik elliptischer Differentialgleichungen. Teubner, 986. Knabner, P., Angermann, L.: Numerik partieller Differentialgleichungen.

Mehr

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen 11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen Ziel: Wir wollen lokale Extrema von Funktionen f : M R untersuchen, wobei M R n eine k-dimensionale Untermannigfaltigkeit des

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

Lineare Algebra II Lösungen zu ausgewählten Aufgaben

Lineare Algebra II Lösungen zu ausgewählten Aufgaben Lineare Algebra II Lösungen zu ausgewählten Aufgaben Blatt 2, Aufgabe 3 a) Wir zeigen, daß das Ideal (2, X) kein Hauptideal in Z[X] ist. (Dieses Ideal besteht aus allen Elementen in Z[X], die von der Form

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β

Mehr

NUMERISCHE MATHEMATIK I

NUMERISCHE MATHEMATIK I NUMERISCHE MATHEMATIK I Vorlesungsskript, Sommersemester 2011 Christian Clason Stand vom 29. September 2011 Institut für Mathematik und Wissenschaftliches Rechnen Karl-Franzens-Universität Graz INHALTSVERZEICHNIS

Mehr

Differentialgeometrie von Kurven und Flächen

Differentialgeometrie von Kurven und Flächen Differentialgeometrie von Kurven und Flächen Inhaltsverzeichnis:. Hilfsmittel Fritzsche 2. Parametrisierte Kurven Ballnus, 29.0. 3. Ebene Krümmung Ballnus, 05.. 4. Raumkurven Stergiou, 2.. 5. Globale Eigenschaften

Mehr

Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren

Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren Universität Hamburg SS 2005 Proseminar Numerik Leitung: Prof. W. Hofmann Vortrag von Markus Stürzekarn zum Thema: Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren Gegeben sei ein lineares

Mehr

Fortgeschrittene Mathematik Raum und Funktionen

Fortgeschrittene Mathematik Raum und Funktionen Fortgeschrittene Mathematik Raum und Funktionen Thomas Zehrt Universität Basel WWZ Thomas Zehrt (Universität Basel WWZ) R n und Funktionen 1 / 33 Outline 1 Der n-dimensionale Raum 2 R 2 und die komplexen

Mehr

Klausur zur Mathematik II (Modul: Lineare Algebra II)

Klausur zur Mathematik II (Modul: Lineare Algebra II) Technische Universität Hamburg-Harburg Institut für Mathematik Prof. Dr. Wolfgang Mackens Wintersemester 0/04 Klausur zur Mathematik II (Modul: Lineare Algebra II) 05.0.04 Sie haben 60 Minuten Zeit zum

Mehr

Mathematik für Physiker, Informatiker und Ingenieure

Mathematik für Physiker, Informatiker und Ingenieure Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel V SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de

Mehr

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009 Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx

Mehr

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen Fachbereich Mathematik/Informatik 6. Juni 0 Prof. Dr. H. Brenner Mathematik für Anwender II Testklausur mit Lösungen Aufgabe. Definiere die folgenden (kursiv gedruckten) Begriffe. () Ein Skalarprodukt

Mehr

Numerische Simulation mit finiten Elementen. O. Rheinbach

Numerische Simulation mit finiten Elementen. O. Rheinbach Numerische Simulation mit finiten Elementen O. Rheinbach Numerische Simulation mit finiten Elementen INHALT 0.1 Finite Differenzen in 2D 1. Einleitung 1.1 Vorbemerkungen 1.2 Rand- und Anfangswertaufgaben

Mehr

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

51 Numerische Berechnung von Eigenwerten und Eigenvektoren 5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,

Mehr

Kapitel 4 Lineare Gleichungssysteme

Kapitel 4 Lineare Gleichungssysteme 1. Direkte Verfahren Kapitel 4 Lineare Gleichungssysteme Grundbaustein vieler numerischer Verfahren zur Lösung von partiellen oder gewöhnlicher Differentialgleichungen und von nichtlinearen Optimierungsproblemen

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Matrizen: Theorie und Anwendungen

Matrizen: Theorie und Anwendungen Einführungsvortrag der Lehrerfortbildung am 23 September 2009 Markoff-Ketten, Call-Center und Google s PageRank: Zur Theorie und Anwendungen von Matrizen von Harm Pralle Institut für Mathematik Technische

Mehr

Multiplikationen und Divisionen Hauptarbeit des Algorithmus liegt somit in der Berechnung der LR-Zerlegung. (n 1)n(2n 1) 6. = n3 3 n2.

Multiplikationen und Divisionen Hauptarbeit des Algorithmus liegt somit in der Berechnung der LR-Zerlegung. (n 1)n(2n 1) 6. = n3 3 n2. KAPITEL LINEARE GLEICHUNGSSYSTEME 7 Rechenaufwand der LR-Zerlegung: A A : n Divisionen, n 2 Multiplikationen und Additionen A L, R: Also insgesamt n j= j2 + j = n3 3 n 3 Multiplikationen und Divisionen

Mehr

Lineare Algebra. 10. Übungsstunde. Steven Battilana.

Lineare Algebra. 10. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,

Mehr

Zeigen Sie, dass der einzige Gruppenhomomorphismus von (G, ) nach (Z 5, +) die Abbildung Φ : G Z 5

Zeigen Sie, dass der einzige Gruppenhomomorphismus von (G, ) nach (Z 5, +) die Abbildung Φ : G Z 5 Aufgabe I (4 Punkte) Es sei G : {e, g, g, g } eine 4-elementige Gruppe mit neutralem Element e Die Verknüpfung auf G werde mit bezeichnet Außerdem seien in G folgende Gleichungen erfüllt: g g g und g g

Mehr

Nichtlineare Gleichungen, mehrere Unbekannte

Nichtlineare Gleichungen, mehrere Unbekannte Dritte Vorlesung, 6. März 2008, Inhalt Aufarbeiten von Themen der letzten Vorlesung, und Nichtlineare Gleichungen, mehrere Unbekannte Systeme nichtlinearer Gleichungen Vektor- und Matrixnormen Fixpunkt-Iteration,

Mehr

18.4 Das Newton-Verfahren

18.4 Das Newton-Verfahren 18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Euklidische und unitäre Vektorräume In allgemeinen Vektorräumen gibt es keine Möglichkeit der Längenmessung von Vektoren und der Winkelmessung zwischen zwei Vektoren. Dafür ist eine zusätzliche Struktur

Mehr