Algorithmik kontinuierlicher Systeme

Größe: px
Ab Seite anzeigen:

Download "Algorithmik kontinuierlicher Systeme"

Transkript

1 Algorithmik kontinuierlicher Systeme Iterative Verfahren (2/2)

2 Ziel dieser Vorlesung Wie schnell können wir Gleichungssysteme lösen? O(n 3 ) LR- oder QR-Zerlegung: Immer anwendbar Komplexität im Allgemeinen optimal Aber: n kann sehr groß werden Können wir wichtige Spezialfälle schneller lösen? Iterative Verfahren! 2

3 Wieso lineare Gleichungssysteme? Das einfachste sinnvolle Modell Können effizient ausgewertet werden Nichtlineare Probleme können linear approximiert werden 3

4 Motivation Mit linearen Gleichungssystemen können wir vor Tsunamis und Hurricanes warnen Auswirkungen globaler Erwärmung abschätzen Krebs frühzeitig diagnostizieren Autos, Flugzeuge etc. sicherer machen 4

5 Briefwechsel Am 26. Dezember 1823 schreibt C.F. Gauss an seinen Schüler Christian Gerling [ ] 5

6 [ ] 6

7 7

8 Iterative Verfahren Der Brief von Gauss im Jahre 1823 beschreibt das erste iterative Lösungsverfahren Das Verfahren wurde erst 1874 von Ludwig Seidel publiziert Varianten vom Gauss-Seidel-Verfahren sind das Jacobi- Verfahren und das SOR-Verfahren Vorteile: Schneller als Gauss-Elimination weniger anfällig gegen Rechenfehler 8

9 Fragestellungen der Algorithmik Algorithmik: Was ist der zugrundeliegende Algorithmus? Wann ist der Algorithmus anwendbar? Wie schnell ist der Algorithmus? Können wir weitere Verbesserungen vornehmen? Diese Fragen sind gleichzeitig der Fahrplan dieser Vorlesung 9

10 Kurzer Werbeblock Junior Consulting Team e.v. gemeinnütziger Verein von Studenten professionelle Unternehmensberatung Studenten der FAU und TH Nürnberg Website: jct.de Meinungsumfrage unter lang=de 10

11 Übersicht Was ist der zugrundeliegende Algorithmus? Wann ist der Algorithmus anwendbar? Wie schnell ist der Algorithmus? Können wir weitere Verbesserungen vornehmen? 11

12 Von 1823 nach 2017 Die Matrixnotation wurde erst 1850 eingeführt! Heute würde man schreiben a 6b 7 4c5 = d

13 Von 1823 nach 2017 Startwert: x 0 = T Koeffizient d optimieren: x 1 = T Residuum berechnen: b Ax 1 = T nächster Koeffizient, Residuum weiter verkleinern 13

14 Das Residuum Definition: r = b A x Das Residuum ist ein Maß für den absoluten Fehler, denn A( x e) =b A x Ae = b Ae = b A x {z } r Je nach Gestalt von A wird der Fehler mehr oder weniger gut durch das Residuum beschrieben In jedem Fall gilt aber r =0, e =0 14

15 Von 1823 nach 2017 Tabelle mit Residuen In jedem Schritt wir das Residuum kleiner Gauss wählt stets den Koeffizienten mit dem größten Residuum 15

16 Von 1823 nach 2017 Am Ende werden alle Korrekturen aufsummiert Nach 7 Schritten ist das Verfahren konvergiert 16

17 Der Gauss-Seidel-Algorithmus Gauss-Seidel in Python: x = np.zeros((n,1)) while np.linalg.norm(b - x) > eps: for k in range(n): left = sum(a[k,0:k] * x[0:k,0]) right = sum(a[k,k+1:] * x[k+1:,0]) x[k] = (b[k] - left - right) / a[k,k] return x Im Wesentlichen wird pro Zeile a[k,k] so gesetzt, dass in dieser Zeile das Residuum gleich 0 ist Anders als bei Gauss werden die Zeilen einfach zyklisch durchlaufen 17

18 Problem des Gauss-Seidel Verfahrens Problem: inhärent sequentiell x = np.zeros((n,1)) while np.linalg.norm(b - x) > eps: for k in range(n): left = sum(a[k,0:k] * x[0:k,0]) right = sum(a[k,k+1:] * x[k+1:,0]) x[k] = (b[k] - left - right) / a[k,k] return x Immer wenn a[k,k-j] 0 hängt x[k] von x[k-j] ab! Im allgemeinen nicht parallel ausführbar 18

19 Jacobi-Verfahren Besser parallelisierbar: Jacobi-Verfahren x = np.zeros((n,1)) while np.linalg.norm(b - x) > eps: x_new = np.zeros((n,1)) for k in range(n): left = sum(a[k,0:k] * x[0:k,0]) right = sum(a[k,k+1:] * x[k+1:,0]) x_new[k] = (b[k] - left - right)/a[k,k] return x_new Nachteil: Neue, bessere Werte x[k-j] werden ignoriert 19

20 Relaxation Konvergenzbeschleunigung durch Relaxation: Ersetze x i+1 durch! x i+1 +(1!) x i! > 1 : Überrelaxation 0 <! < 1 : Unterrelaxation x i+1 x i+1 tmp x i+1 x i+1 tmp x i SOR = Successive Over Relaxation 1 <! < 2 Gauss-Seidel! =1 20

21 SOR-Verfahren Schnellere Konvergenz durch Überrelaxation x = np.zeros((n,1)) while np.linalg.norm(b - x) > eps: for k in range(n): left = sum(a[k,0:k] * x[0:k,0]) right = sum(a[k,k+1:] * x[k+1:,0]) x_tmp = (b[k] - left - right)/a[k,k] x[k] = (1 - w) * x[k] + x_tmp * w return x 21

22 Übersicht Was ist der zugrundeliegende Algorithmus? Wann ist der Algorithmus anwendbar? Wie schnell ist der Algorithmus? Können wir weitere Verbesserungen vornehmen? 22

23 Mathematische Analyse Wir splitten die Matrix A = L + D + R strikte untere Dreiecksmatrix L Diagonale D strikte obere Dreiecksmatrix R D = 2 3 a a , L = 0 0 a nn a , R = a n1 a n a 12 a 1n 0 0 a 2n und schreiben Gauss-Seidel: Jacobi: (L + D) x i+1 + Rx i = b Dx i+1 +(L + R) x i = b 23

24 Gauss-Seidel-Iterationsschritt Gauss-Seidel (L + D) x i+1 + Rx i = b x i+1 =(L + D) 1 (b Rx i ) for k in range(n): left = sum(a[k,0:k] * x[0:k,0]) right = sum(a[k,k+1:] * x[k+1:,0]) x[k] = (b[k] - left - right) / a[k,k] Wichtig: (L + D) wird nicht wirklich invertiert! Stattdessen: Vorwärtssubstitution 24

25 Jacobi-Iterationsschritt Jacobi Dx i+1 +(L + R) x i = b x i+1 = D 1 (b (L + R) x i ) for k in range(n): x_new = np.zeros((n,1)) left = sum(a[k,0:k] * x[0:k,0]) right = sum(a[k,k+1:] * x[k+1:,0]) x_new[k] = (b[k] - left - right) / a[k,k] Keine Datenabhängigkeiten, es wird jeweils einfach durch das Diagonalelement geteilt 25

26 SOR-Iterationsschritt SOR ( 1! D + L)xi+1 +((1 1! )D + R) xi = b x i+1 =(D +!L) 1 (!b (!R +(! 1)D) x i ) for k in range(n): left = sum(a[k,0:k] * x[0:k,0]) right = sum(a[k,k+1:] * x[k+1:,0]) x_tmp = (b[k] - left - right)/a[k,k] x[k] = (1-w)*x[k] + x_tmp*w Fazit: Iterative Verfahren können elegant mathematisch modelliert werden 26

27 Allgemeine Splitting-Verfahren Allgemein Splitte A =  + E einfach invertierbare Matrix  Restmatrix E Iteration x i+1 =  1 (b Ex i ) Resultat: Fixpunkt-Iteration für für affine Abbildungen: (x) =Vx+ d wobei und V =  1 E d =  1 b 27

28 Fixpunkt-Iteration für affine Abbildungen: (x) =Vx+ d Dabei ist V eine n n Matrix und d ein n - Vektor Fragen: Wann konvergiert diese Folge? Gegen welchen Wert konvergiert sie? Wie schnell konvergiert sie? 28

29 Allgemeine Konvergenzanalyse Wann konvergiert die Folge x i+1 = Vx i + d? hinreichende Bedingung: V < 1 für irgendeine Operatornorm. ebenfalls hinreichende Bedingung: < 1 für alle Eigenwerte von V bzw. Spektralradius (V ) < 1 Konvergenz-Geschwindigkeit: linear (Banachscher Fixpunktsatz) x i x 0 = C (V ) i In der Praxis: Konvergenzgeschwindigkeit ist problemabhängig Nur für einfache Beispiele lässt sich der Spektralradius abschätzen 29

30 Konvergenzanalyse - Theorie Ob Jacobi-, Gauss-Seidel oder SOR-Verfahren konvergieren hängt somit vom Spektralradius der jeweiligen Iterationsmatrizen ab: Im Einzelnen mit A = L + D + R (V J ): V J = D 1 (L + R) (V GS ): V GS = (L + D) 1 R (V SOR ): V SOR = ( 1! D + L) 1 ((! 1)/!D + R) 30

31 Praktische Konvergenzkriterien Ist A strikt diagonaldominant, d.h. nx a i,i > a i,j 8i 2 1,...,n j=1 j6=i Dann konvergieren Gauss-Seidel, Jacobi und SOR- Verfahren (für 0 <! < 2 ) Ist A positiv definit (alle Eigenwerte positiv), dann konvergiert das SOR-Verfahren für 0 <! < 2 und damit auch das Gauss-Seidel Verfahren Ist sowohl A, als auch D 2A positiv definit, dann konvergiert auch das Jacobi-Verfahren 31

32 Konvergenzanalyse SOR-Verfahren Ist (!) der Spektralradius der Iterationsmatrix V SOR (!) des SOR-Verfahrens, so ist ein typischer Verlauf des Spektralradius ρ(ω) 1 ρ GS ρ opt 0 1 ω opt 2 ω 32

33 Diagonaldominanz und Unzerlegbarkeit Eine Matrix heißt schwach-diagonaldominant, wenn nx a i,i a i,j 8i 2 1,...,n Beispiele: j=1 j6=i Eine Matrix heißt unzerlegbar, wenn der Graph von A (Kanten für alle von Null verschiedenen Einträge) stark zusammenhängend ist, d.h. es gibt zwischen beliebigen Knoten einen durchgehenden Pfad

34 Wichtiges praktisches Konvergenzkriterium Wichtigstes praktisches Resultat: Ist A unzerlegbar und schwach-diagonaldominant, dann konvergieren Gauss-Seidel-, Jacobi- und SOR-Verfahren Schwache Diagonaldominanz ist typisch bei Modellen mit Erhaltungsgrößen (z.b. Energie, Masse, Impuls) Die wirkliche Welt ist unzerlegbar 34

35 Weitere Hinweise zur Konvergenz Bei SOR und Gauss-Seidel hängt das Ergebnis auch von der Reihenfolge der Unbekannten ab, bei Jacobi nicht Erfahrungsgemäß konvergiert das Gauss-Seidel-Verfahren etwa doppelt so schnell wie das Jacobi-Verfahren Splitting-Verfahren konvergieren nicht in jedem Fall, sondern nur für bestimmte Problemklassen Oft hängt der Spektralradius auch von der Größe des Gleichungssystems ab, d.h. je größer das Problem desto schlechter konvergieren diese Verfahren 35

36 Übersicht Was ist der zugrundeliegende Algorithmus? Wann ist der Algorithmus anwendbar? Wie schnell ist der Algorithmus? Können wir weitere Verbesserungen vornehmen? 36

37 Effizienz von iterativen Verfahren Beispiel: Diskretisierung der Poisson-Gleichung Kontinuierlich: u =0 Diskret: 4u i,j u i+1,j u i 1,j u i,j+1 u i,j 1 =0 u i,j+1 u i-1,j u i,j u i+1,j y j u i,j-1 x i 37

38 Modellproblem: Temperaturverteilung 4Das -1 resultierende -1-1 Gleichungssystem (ui+1,j + ui,j+1 + ui-1,j + ui,j-1 - u4ui,j)= 1,1 0 u 1,n u 2, u 2,n = u n,n 4u i,j u i+1,j u i 1,j u i,j+1 u i,j 1 =0 0 38

39 Modellproblem: Temperaturverteilung Achtung: Das (N + 1) (N + 1) Gitter U ist nicht Koeffizienten-Matrix! Die Werte im Innern des Gitters sind die Unbekannten! Matrix des Gleichungssystems hat Größe (N 1) 4! Rechte Seite enthält vorgegebene Randwerte und Temperaturquellen an den Gitterpunkten (dies ist eine Verallgemeinerung des Problems). Aufstellen der Matrix in geeignetem Sparse-Matrix-Format Alternativ (besser): Direkte (Matrix-freie) Implementierung eines iterativen Verfahrens 39

40 Modellproblem Matrixfreie Implementierung des SOR-Verfahrens def SOR(U, F, h, omega): for iy in range(1, m-1): for ix in range(1, n-1): U_tmp = (2*h*h * F[iy, ix] + U[iy-1, ix] + U[iy+1, ix] + U[iy, ix-1] + U[iy, ix+1]) * 0.25 U[iy, ix] = U[iy, ix]*(1-omega) + omega*u_tmp return U 40

41 Experimente zur Konvergenzgeschwindigkeit Gauss-Seidel vs. Jacobi Konvergenz in Abhängigkeit von h Relaxationsparameter U(x, y) = cos(2 x) cos(2 y) 41

42 Erkenntnisse Das Gauss-Seidel-Verfahren ist in etwa doppelt so schnell wie das Jacobi-Verfahren Beide benötigen etwa O(n) Iterationen Das SOR-Verfahren benötigt bei optimalem Relaxationsparameter nur O( p n) Iterationen Der optimale Relaxationsparameter wächst mit der Systemgröße Diese Aussagen gelten nicht generell, aber für viele ähnliche Probleme 42

43 Iterationen abschätzen In der Praxis ist es typisch, dass der Spektralradius von Iterationsmatrizen nahe 1 ist. Die Tendenz ist GS/J 1 n SOR 1 p n Fazit: Vorsicht bei sehr großen Gleichungssystemen! 43

44 Übersicht Was ist der zugrundeliegende Algorithmus? Wann ist der Algorithmus anwendbar? Wie schnell ist der Algorithmus? Können wir weitere Verbesserungen vornehmen? 44

45 Verbesserungen Unmittelbar anwendbare Techniken Durchlaufreihenfolge geschickt wählen Matrixfreie Implementierung Dynamische Anpassung des Relaxationsparameters Fortgeschrittene Techniken Mehrere Iterationen speichern und sinnvoll ausnutzen, führt zu Krylov-Unterraum-Verfahren, z.b. CG, GMRES Hierarchische Gleichungssysteme konstruieren um unterschiedliche Frequenzen jeweils Optimal zu behandeln -> Mehrgitterverfahren Kombinationen aus verschiedenen Verfahren, z.b. Systeme vorkonditionieren 45

46 Zusammenfassung Umformung von Ax = b über A = Â + E zu einem iterativen Verfahren x i+1 = Â 1 (b Ex i ) Allgemeine Form: (x) =Vx+ d Entscheidend für die lineare Konvergenz ist (V ) < 1 Faustregeln Gauss-Seidel konvergiert doppelt so schnell wie Jacobi Gauss-Seidel und Jacobi benötigen O(n) Iterationsschritte, SOR nur O( p n) (im Idealfall) Nur Jacobi ist einfach parallelisierbar 46

47 LGS : direkte Verfahren vs. iterative Verfahren In der Theorie: exakte Lösung vs. Näherungslösung Rundungsfehler vs. Iterationsfehler DV: Rundungsfehler pflanzen sich fort u.u. mit Verstärkung IV: Iterations- und Rundungsfehler werden abgeschwächt IV : schnell eine (grobe) Näherung, kann ggf. abbrechen. DV : erst am Ende kennt man die Lösung Oftmals genügt eine Näherungslösung Aufwand: voll besetzt : O(n 3 ) vs. O(n 3 ) bzw. O(n 2.5 ) dünn besetzt: O(n 2 ) vs. O(n 2 ) bzw. O(n 1.5 ) je größer die Matrix und je dünner sie besetzt ist, desto interessanter werden iterative Verfahren 47

48 48

49 Besser Python programmieren Die meisten Teilnehmer haben die Übungen sehr gut gemeistert Wir freuen uns auf Feedback -> Evaluation Dennoch gibt es einige kleine Tricks, wie man sich das Leben einfacher machen kann PS: Manche dieser Dinge sind sogar Prüfungsrelevant 49

50 Arrays und Listen Listen eindimensional (können aber verschachtelt werden) primitiver Python Datentyp, besondere Syntax keine Mathematische Bedeutung NumPy Arrays "Nur" eine Bibliothek Beliebig viele Dimensionen Automatisches Broadcasting mathematischer Operatoren Können als Matrix verwendet werden Effiziente Implementierung Müssen explizit angelegt werden 50

51 Arrays und Listen Bitte weniger solchen Code: res = [] for i in range(n): res.append(de_casteljau(p, P0)) P0 += d return np.array(res) Besser: res = np.zeros(n) for i in range(n): res[i] = de_casteljau(p, P0 + i * d) 51

52 Matrixmultiplikation Operator erlaubt es, Matrizen zu multiplizieren b - x A == R Genauer: Operator multipliziert zweidimensionale NumPy Arrays, als wären sie Matrizen 52

53 Indexnotation In Python können nicht nur einzelne Elemente eines Arrays, sondern auch ganze Zeilen, Spalten oder generelle Slices ausgewählt werden Diese Notation spart typischerweise mindestens eine for- Schleife und macht den Code damit lesbarer for k in range(n): left = sum(a[k,0:k] * x[k, 0:k]) right = sum(a[k,k+1:] * x[k,k+1:]) x[k] = (b[k] - left - right) / a[k,k] 53

54 Indexnotation (2) Mehrere eindimensionale Indices: A[5][6][7] Mehrdimensionale Indizierung: A[5,6,7] Vorteile letzterer Syntax: Performance Lesbarkeit geringere Fehleranfälligkeit Wichtige Features von Indizes: Start, (exklusives) Ende, Schrittweite Negative Indices greifen auf das Ende zu 54

55 Beispiel zur Indexnotation moire.py: Wählen Sie von einem gegebenen Bild nur die N-te Zeile und Spalte aus return image[::n, ::N] Außerdem: Man kann eine Jacobi-Iteration auf einem Rechteck in nur einer einzigen Zeile schreiben 55

56 Tupel, Listen, Arrays & Funktionsaufrufe Runde Klammern Funktionsaufruf: foo(x,y) Konstruieren Tupel: (5, 6, y) Klammern von Ausdrücken (5 + 6) (5) ist kein Tupel, (5,) schon Eckige Klammern Array, Tupel oder Listenindex: foo[x] Konstruieren Listen: [1, 2, 3, 4] Nicht verwirren lassen, z.b. bei ((2,3,4))[2] 56

57 Referenzsemantik In Python wird nie implizit kopiert Insbesondere NumPy Slices zeigen immer auf die ursprünglichen Daten Im Zweifel eine Kopie anlegen >>> A = np.array([2,3,4]) >>> B = A[:] >>> C = B[1:2] >>> C[0] = 5 >>> print(a) array([2,5,4]) 57

58 Krone für den langsamsten Code 2017 Berechnung von Primzahlen über Wilson's Theorem def is_prime(n): if n == 0 or n == 1: return False return (factorial(n-1)+1) % n == 0 Leider: Der Aufruf is_prime( ) terminiert nicht, oder ist SEHR ineffizient 58

59 Betrugsversuche Öffentliche Tests Unsere Tests Wir prüfen auf init, code u.ä. Wir haben zusätzliche Testfälle Wir prüfen verdächtige Funktionsaufrufe Unser Testsystem ist sehr gut gesichert Bleibt anständig! Wir erstellen die Übungen, um euch auf das Leben vorzubereiten, nicht um euch zu quälen. Wenn ihr mit einer Aufgabe unzufrieden seid, nutzt die Evaluation! 59

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.

Mehr

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme Als zweite Hauptanwendung des Banachschen Fixpunktsatzes besprechen wir in diesem Kapitel die iterative Lösung linearer Gleichungssysteme. Die

Mehr

Iterative Lösung Linearer Gleichungssysteme

Iterative Lösung Linearer Gleichungssysteme Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:

Mehr

Matrizenoperationen mit FORTRAN

Matrizenoperationen mit FORTRAN Kapitel 2 Matrizenoperationen mit FORTRAN 21 Grundlagen Bei vielen Anwendungen müssen große zusammenhängende Datenmengen gespeichert und verarbeitet werden Deshalb ist es sinnvoll, diese Daten nicht als

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme 2 Lineare Gleichungssysteme Wir betrachten das lineare Gleichungssystem Ax = b mit der n n-koeffizientenmatrix A und der rechten Seite b R n. Wir leiten zuerst eine Variante des Gauss-Algorithmus (LR-Zerlegung)

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine

Mehr

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html [email protected]

Mehr

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Inhaltsverzeichnis Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Auf dieser Seite werden Matrizen und Vektoren fett gedruckt, um sie von Zahlen zu unterscheiden. Betrachtet wird das

Mehr

Numerische Mathematik für Ingenieure und Physiker

Numerische Mathematik für Ingenieure und Physiker Willi Törnig Peter Spellucci Numerische Mathematik für Ingenieure und Physiker Band 1: Numerische Methoden der Algebra Zweite, überarbeitete und ergänzte Auflage Mit 15 Abbildungen > Springer-Verlag Berlin

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

2.2 Lineare Gleichungssysteme (LGS)

2.2 Lineare Gleichungssysteme (LGS) 2.2 Lineare Gleichungssysteme (LGS) Definition 2.2.. Ein LGS über einem Körper K von m Gleichungen in n Unbekannten x,..., x n ist ein Gleichungssystem der Form a x + a 2 x 2 +... + a n x n = b a 2 x +

Mehr

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,

Mehr

Lineare Gleichungssysteme Hierarchische Matrizen

Lineare Gleichungssysteme Hierarchische Matrizen Kompaktkurs Lineare Gleichungssysteme Hierarchische Matrizen M. Bebendorf, O. Steinbach O. Steinbach Lineare Gleichungssysteme SIMNET Kurs 24. 27.4.26 / 6 Numerische Simulation stationäre und instationäre

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

Kevin Caldwell. 18.April 2012

Kevin Caldwell. 18.April 2012 im Rahmen des Proseminars Numerische Lineare Algebra von Prof.Dr.Sven Beuchler 18.April 2012 Gliederung 1 2 3 Mathematische Beschreibung von naturwissenschaftlich-technischen Problemstellungen führt häufig

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

18.4 Das Newton-Verfahren

18.4 Das Newton-Verfahren 18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

3 Lineare Differentialgleichungen

3 Lineare Differentialgleichungen 3 Lineare Differentialgleichungen In diesem Kapitel behandeln wir die allgemeine Theorie linearer Differentialgleichungen Sie werden zahlreiche Parallelen zur Theorie linearer Gleichungssysteme feststellen,

Mehr

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden: Inverse Matritzen Spezialfall: Die Gleichung ax b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a a 1 gelöst werden: ax b x b a a 1 b. Verallgemeinerung auf Ax b mit einer n nmatrix A: Wenn es

Mehr

Übungspaket 23 Mehrdimensionale Arrays

Übungspaket 23 Mehrdimensionale Arrays Übungspaket 23 Mehrdimensionale Arrays Übungsziele: Skript: Deklaration und Verwendung mehrdimensionaler Arrays Kapitel: 49 Semester: Wintersemester 2016/17 Betreuer: Kevin, Matthias, Thomas und Ralf Synopsis:

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

Lineare Gleichungssysteme und Matrizen

Lineare Gleichungssysteme und Matrizen Kapitel 11 Lineare Gleichungssysteme und Matrizen Ein lineares Gleichungssystem (lgs) mit m linearen Gleichungen in den n Unbekannten x 1, x 2,..., x n hat die Gestalt: Mit a 11 x 1 + a 12 x 2 + a 13 x

Mehr

Übungspaket 23 Mehrdimensionale Arrays

Übungspaket 23 Mehrdimensionale Arrays Übungspaket 23 Mehrdimensionale Arrays Übungsziele: Skript: Deklaration und Verwendung mehrdimensionaler Arrays Kapitel: 49 Semester: Wintersemester 2016/17 Betreuer: Kevin, Matthias, Thomas und Ralf Synopsis:

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,

Mehr

1 Stückweise konstante Funktionen (ca =10 Punkte)

1 Stückweise konstante Funktionen (ca =10 Punkte) Einführung in die wissenschaftliche Programmierung Klausur Seite 1/5 Name, Vorname, Unterschrift: Matrikelnummer: 1 Stückweise konstante Funktionen (ca. 4+2+4=10 Punkte) In dieser Aufgabe soll eine Klasse

Mehr

Modellieren in der Angewandten Geologie II. Sebastian Bauer

Modellieren in der Angewandten Geologie II. Sebastian Bauer Modellieren in der Angewandten Geologie II Geohydromodellierung Institut für Geowissenschaften Christian-Albrechts-Universität zu Kiel CAU 3-1 Die Finite Elemente Method (FEM) ist eine sehr allgemeine

Mehr

Newton-Verfahren für ein Skalarfunktion

Newton-Verfahren für ein Skalarfunktion Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren

Mehr

( ) Lineare Gleichungssysteme

( ) Lineare Gleichungssysteme 102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

9 Lösung linearer Gleichungssysteme III: Iterative Methoden

9 Lösung linearer Gleichungssysteme III: Iterative Methoden Numerik I. Version: 24.06.08 246 9 Lösung linearer Gleichungssysteme III: Iterative Methoden Die Iterationsmethoden des vorherigen Kapitels werden normalerweise für nichtlineare Probleme verwendet, wobei

Mehr

Parallele und verteilte Programmierung

Parallele und verteilte Programmierung Thomas Rauber Gudula Rünger Parallele und verteilte Programmierung Mit 165 Abbildungen und 17 Tabellen Jp Springer Inhaltsverzeichnis 1. Einleitung 1 Teil I. Architektur 2. Architektur von Parallelrechnern

Mehr

Serie 10: Inverse Matrix und Determinante

Serie 10: Inverse Matrix und Determinante D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die

Mehr

Ausgewählte Lösungen zu den Übungsblättern 4-5

Ausgewählte Lösungen zu den Übungsblättern 4-5 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische

Mehr

Entwurf eines FPGA-Cores zur Simulationsbeschleunigung zeitkontinuierlicher Modelle im HiL Kontext

Entwurf eines FPGA-Cores zur Simulationsbeschleunigung zeitkontinuierlicher Modelle im HiL Kontext Entwurf eines FPGA-Cores zur Simulationsbeschleunigung zeitkontinuierlicher Modelle im HiL Kontext Till Fischer 03.11.2011 FZI Forschungszentrum Informatik Embedded Systems & Sensors Engineering (ESS)

Mehr

7.1 Matrizen und Vektore

7.1 Matrizen und Vektore 7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit

Mehr

Das CG-Verfahren. Sven Wetterauer

Das CG-Verfahren. Sven Wetterauer Das CG-Verfahren Sven Wetterauer 06.07.2010 1 Inhaltsverzeichnis 1 Einführung 3 2 Die quadratische Form 3 3 Methode des steilsten Abstiegs 4 4 Methode der Konjugierten Richtungen 6 4.1 Gram-Schmidt-Konjugation.........................

Mehr

Der Kern einer Matrix

Der Kern einer Matrix Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis

Mehr

[Nächste Frage: wie wissen wir, ob Spaltenvektoren eine Basis bilden? Siehe L6.1] , enthält eine Basis v. V, nämlich und somit das ganze V.

[Nächste Frage: wie wissen wir, ob Spaltenvektoren eine Basis bilden? Siehe L6.1] , enthält eine Basis v. V, nämlich und somit das ganze V. Kriterien für Invertierbarkeit einer Matrix Eine lineare Abbildung falls und nur falls ist bijektiv, d.h. ihre Matrix ist invertierbar, (i) für jede Basis, die Bildvektoren auch eine Basis, bilden; (intuitiv

Mehr

Lösungen zum 5. Aufgabenblatt

Lösungen zum 5. Aufgabenblatt SS 2012, Lineare Algebra 1 Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com

Mehr

18.2 Implizit definierte Funktionen

18.2 Implizit definierte Funktionen 18.2 Implizit definierte Funktionen Ziel: Untersuche Lösungsmengen von nichtlinearen Gleichungssystemen g(x) = 0 mit g : D R m, D R n, d.h. betrachte m Gleichungen für n Unbekannte mit m < n, d.h. wir

Mehr

Matrizen und Determinanten, Aufgaben

Matrizen und Determinanten, Aufgaben Matrizen und Determinanten, Aufgaben Inhaltsverzeichnis 1 Multiplikation von Matrizen 1 11 Lösungen 3 2 Determinanten 6 21 Lösungen 7 3 Inverse Matrix 8 31 Lösungen 9 4 Matrizengleichungen 11 41 Lösungen

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh ([email protected]) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2016 Lineare Gleichungssysteme Schwerpunkte: Interpretation und Verständnis der Gleichungen Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik unter

Mehr

Skalarprodukte (Teschl/Teschl Kap. 13)

Skalarprodukte (Teschl/Teschl Kap. 13) Skalarprodukte (Teschl/Teschl Kap. ) Sei V Vektorraum über R. Ein Skalarprodukt auf V ist eine Abbildung V V R, (x, y) x, y mit den Eigenschaften () x, y = y, x (symmetrisch), () ax, y = a x, y und x +

Mehr

Nichtlineare Gleichungen, mehrere Unbekannte

Nichtlineare Gleichungen, mehrere Unbekannte Dritte Vorlesung, 6. März 2008, Inhalt Aufarbeiten von Themen der letzten Vorlesung, und Nichtlineare Gleichungen, mehrere Unbekannte Systeme nichtlinearer Gleichungen Vektor- und Matrixnormen Fixpunkt-Iteration,

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren

Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren Universität Hamburg SS 2005 Proseminar Numerik Leitung: Prof. W. Hofmann Vortrag von Markus Stürzekarn zum Thema: Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren Gegeben sei ein lineares

Mehr

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear

Mehr

Das inhomogene System. A x = b

Das inhomogene System. A x = b Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbestimmten hat immer mindestens die Lösung 0. Ist r der Rang von A, so hat das System n r Freiheitsgrade. Insbesondere gilt: Ist

Mehr

Kapitel 5. LU Zerlegung. 5.1 L- und U-Matrizen

Kapitel 5. LU Zerlegung. 5.1 L- und U-Matrizen Kapitel 5 LU Zerlegung In vielen Fällen interessiert uns die inverse Matrix A 1 gar nicht. Stattdessen suchen wir die Lösung der Matrixgleichung Ax = b bzw. x = A 1 b 5.1) für einen oder wenige Vektoren

Mehr

Lineare Gleichungssysteme - Grundlagen

Lineare Gleichungssysteme - Grundlagen Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente

Mehr

A2.3 Lineare Gleichungssysteme

A2.3 Lineare Gleichungssysteme A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen

Mehr

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $ Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

2.2 Lineare Gleichungssysteme

2.2 Lineare Gleichungssysteme Lineare Algebra I WS 2015/16 c Rudolf Scharlau 55 22 Lineare Gleichungssysteme Das Lösen von Gleichungen (ganz unterschiedlichen Typs und unterschiedlichen Schwierigkeitsgrades) gehört zu den Grundproblemen

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Poelchau-Oberschule Berlin A. Mentzendorff September 2007 Lineare Gleichungssysteme Inhaltsverzeichnis 1 Grundlagen 2 2 Das Lösungsverfahren von Gauß 4 3 Kurzschreibweise und Zeilensummenkontrolle 6 4

Mehr

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.

Mehr

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen 3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange

Mehr

Lösung Semesterendprüfung (Nachprüfung)

Lösung Semesterendprüfung (Nachprüfung) MLAE Mathematik: Lineare Algebra für Ingenieure Frühlingssemester 6 Dr. Christoph Kirsch ZHAW Winterthur Lösung Semesterendprüfung (Nachprüfung Aufgabe : Aufgabe : a Gemäss Def. der Vorlesung müssen wir

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Mathematik I für Biologen, Geowissenschaftler und Geoökologen 28. November 2011 Definition Beispiel: Wassermengen und Konzentrationen in einem Fluss Beispiel Zeilenstufenform Beispiel (Fortsetzung) Anhang

Mehr

Mathematik IT 2 (Lineare Algebra)

Mathematik IT 2 (Lineare Algebra) Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof Dr L Cromme Mathematik IT (Lineare Algebra für die Studiengänge Informatik, IMT und ebusiness im Sommersemester 3 Lineare Gleichungssysteme

Mehr

Inhalt Kapitel I: Nichtlineare Gleichungssysteme

Inhalt Kapitel I: Nichtlineare Gleichungssysteme Inhalt Kapitel I: Nichtlineare Gleichungssysteme I Nichtlineare Gleichungssysteme I. Nullstellenbestimmung von Funktionen einer Veränderlichen I.2 I.3 Newton-Verfahren Kapitel I (UebersichtKapI) 3 Bisektionsverfahren

Mehr

Vorlesung, 26. Mai 2011, Inhalt. Eigenwerte und Eigenvektoren. Gewöhnliche Differentialgleichungen

Vorlesung, 26. Mai 2011, Inhalt. Eigenwerte und Eigenvektoren. Gewöhnliche Differentialgleichungen Vorlesung, 26. Mai 2011, Inhalt Eigenwerte und Eigenvektoren Gewöhnliche Differentialgleichungen 1 Eigenwerte und Eigenvektoren Es sei A eine n n-matrix, x ein vom Nullvektor verschiedener Vektor und λ

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,

Mehr

Serie 8: Fakultativer Online-Test

Serie 8: Fakultativer Online-Test Prof Norbert Hungerbühler Lineare Algebra I Serie 8: Fakultativer Online-Test ETH Zürich - D-MAVT HS 215 1 Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen Die Nachbesprechung

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1. Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x

Mehr

20 Kapitel 2: Eigenwertprobleme

20 Kapitel 2: Eigenwertprobleme 20 Kapitel 2: Eigenwertprobleme 2.3 POTENZMETHODE Die Potenzmethode oder Vektoriteration ist eine sehr einfache, aber dennoch effektive Methode zur Bestimmung des betragsmäßig größten Eigenwertes. Um die

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare

Mehr

Dreiecksysteme und LR-Faktorzerlegung

Dreiecksysteme und LR-Faktorzerlegung Dreiecksysteme und 06.05.2011 Dreiecksysteme und Inhaltsverzeichnis 1 Dreieckssysteme Vorwärts-Substitution (Zeilen-Version) Rückwärts-Substitution (Zeilen-Version) Vorwärts-Substitution (Spalten-Version)

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Das Lösen linearer Gleichungssysteme

Das Lösen linearer Gleichungssysteme Das Lösen linearer Gleichungssysteme Lineare Gleichungen Die Gleichung a 1 x 1 + a 2 x 2 +... + a n x n = b ist eine lineare Gleichung in den n Variablen x 1, x 2,..., x n. Die Zahlen a 1, a 2,..., a n

Mehr

Zugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II

Zugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II Zugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II Matrixzugriff Wir wollen nun unsere Einführung in die Arbeit mit Vektoren und Matrizen in MATLAB

Mehr

1.Übung Mathematik I

1.Übung Mathematik I 1Übung Mathematik I 1) Ist folgende Aussage eine Implikation? ( Begründung!) (( A B) -> ( A C) ) = > (C A) 2 Onkel Dagobert wurde Geld aus seinem Geldspeicher gestohlen Er hat drei Tatverdächtige: Die

Mehr

WiMa-Praktikum 1. Woche 8

WiMa-Praktikum 1. Woche 8 WiMa-Praktikum 1 Universität Ulm, Sommersemester 2017 Woche 8 Lernziele In diesem Praktikum sollen Sie üben und lernen: Besonderheiten der For-Schleife in Matlab Wiederholung des Umgangs mit Matrizen und

Mehr

Funktionen mehrerer Variabler

Funktionen mehrerer Variabler Vektoranalysis Funktionen mehrerer Variabler Wir untersuchen allgemein vektorwertige Funktionen von vektoriellen Argumenten, wobei zunächst nur reelle Vektoren zugelassen seien. Speziell betrachten wir:

Mehr

mit "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor"

mit Skalarprodukt aus i-tem Zeilenvektor und j-tem Spaltenvektor Zusammenfassung Matrizen Transponierte: Addition: mit Skalare Multiplikation: Matrixmultiplikation: m x p m x n n x p mit ES "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor" "Determinante"

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG. Serie 6

Lineare Algebra und Numerische Mathematik für D-BAUG. Serie 6 R. Hiptmair S. Pintarelli E. Spindler Herbstsemester 2014 Lineare Algebra und Numerische Mathematik für D-BAUG Serie 6 ETH Zürich D-MATH Einleitung. Diese Serie behandelt nochmals das Rechnen mit Vektoren

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010 Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und

Mehr

Lösung (die Geraden laufen parallel) oder unendlich viele Lösungen.

Lösung (die Geraden laufen parallel) oder unendlich viele Lösungen. 1 Albert Ludwigs Universität Freiburg Abteilung Empirische Forschung und Ökonometrie Mathematik für Wirtschaftswissenschaftler Dr. Sevtap Kestel Winter 2008 Kapitel 16 Determinanten und inverse Matrizen

Mehr

3.4 Der Gaußsche Algorithmus

3.4 Der Gaußsche Algorithmus 94 34 Der Gaußsche Algorithmus Wir kommen jetzt zur expliziten numerischen Lösung des eingangs als eine Motivierung für die Lineare Algebra angegebenen linearen Gleichungssystems 341 n 1 a ik x k = b i,

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel

Mehr

Kurze Geschichte der linearen Algebra

Kurze Geschichte der linearen Algebra Kurze Geschichte der linearen Algebra Dipl.-Inform. Wolfgang Globke Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 20 Entwicklung Die Historische Entwicklung

Mehr