Algorithmik kontinuierlicher Systeme
|
|
|
- Nele Sternberg
- vor 8 Jahren
- Abrufe
Transkript
1 Algorithmik kontinuierlicher Systeme Iterative Verfahren (2/2)
2 Ziel dieser Vorlesung Wie schnell können wir Gleichungssysteme lösen? O(n 3 ) LR- oder QR-Zerlegung: Immer anwendbar Komplexität im Allgemeinen optimal Aber: n kann sehr groß werden Können wir wichtige Spezialfälle schneller lösen? Iterative Verfahren! 2
3 Wieso lineare Gleichungssysteme? Das einfachste sinnvolle Modell Können effizient ausgewertet werden Nichtlineare Probleme können linear approximiert werden 3
4 Motivation Mit linearen Gleichungssystemen können wir vor Tsunamis und Hurricanes warnen Auswirkungen globaler Erwärmung abschätzen Krebs frühzeitig diagnostizieren Autos, Flugzeuge etc. sicherer machen 4
5 Briefwechsel Am 26. Dezember 1823 schreibt C.F. Gauss an seinen Schüler Christian Gerling [ ] 5
6 [ ] 6
7 7
8 Iterative Verfahren Der Brief von Gauss im Jahre 1823 beschreibt das erste iterative Lösungsverfahren Das Verfahren wurde erst 1874 von Ludwig Seidel publiziert Varianten vom Gauss-Seidel-Verfahren sind das Jacobi- Verfahren und das SOR-Verfahren Vorteile: Schneller als Gauss-Elimination weniger anfällig gegen Rechenfehler 8
9 Fragestellungen der Algorithmik Algorithmik: Was ist der zugrundeliegende Algorithmus? Wann ist der Algorithmus anwendbar? Wie schnell ist der Algorithmus? Können wir weitere Verbesserungen vornehmen? Diese Fragen sind gleichzeitig der Fahrplan dieser Vorlesung 9
10 Kurzer Werbeblock Junior Consulting Team e.v. gemeinnütziger Verein von Studenten professionelle Unternehmensberatung Studenten der FAU und TH Nürnberg Website: jct.de Meinungsumfrage unter lang=de 10
11 Übersicht Was ist der zugrundeliegende Algorithmus? Wann ist der Algorithmus anwendbar? Wie schnell ist der Algorithmus? Können wir weitere Verbesserungen vornehmen? 11
12 Von 1823 nach 2017 Die Matrixnotation wurde erst 1850 eingeführt! Heute würde man schreiben a 6b 7 4c5 = d
13 Von 1823 nach 2017 Startwert: x 0 = T Koeffizient d optimieren: x 1 = T Residuum berechnen: b Ax 1 = T nächster Koeffizient, Residuum weiter verkleinern 13
14 Das Residuum Definition: r = b A x Das Residuum ist ein Maß für den absoluten Fehler, denn A( x e) =b A x Ae = b Ae = b A x {z } r Je nach Gestalt von A wird der Fehler mehr oder weniger gut durch das Residuum beschrieben In jedem Fall gilt aber r =0, e =0 14
15 Von 1823 nach 2017 Tabelle mit Residuen In jedem Schritt wir das Residuum kleiner Gauss wählt stets den Koeffizienten mit dem größten Residuum 15
16 Von 1823 nach 2017 Am Ende werden alle Korrekturen aufsummiert Nach 7 Schritten ist das Verfahren konvergiert 16
17 Der Gauss-Seidel-Algorithmus Gauss-Seidel in Python: x = np.zeros((n,1)) while np.linalg.norm(b - x) > eps: for k in range(n): left = sum(a[k,0:k] * x[0:k,0]) right = sum(a[k,k+1:] * x[k+1:,0]) x[k] = (b[k] - left - right) / a[k,k] return x Im Wesentlichen wird pro Zeile a[k,k] so gesetzt, dass in dieser Zeile das Residuum gleich 0 ist Anders als bei Gauss werden die Zeilen einfach zyklisch durchlaufen 17
18 Problem des Gauss-Seidel Verfahrens Problem: inhärent sequentiell x = np.zeros((n,1)) while np.linalg.norm(b - x) > eps: for k in range(n): left = sum(a[k,0:k] * x[0:k,0]) right = sum(a[k,k+1:] * x[k+1:,0]) x[k] = (b[k] - left - right) / a[k,k] return x Immer wenn a[k,k-j] 0 hängt x[k] von x[k-j] ab! Im allgemeinen nicht parallel ausführbar 18
19 Jacobi-Verfahren Besser parallelisierbar: Jacobi-Verfahren x = np.zeros((n,1)) while np.linalg.norm(b - x) > eps: x_new = np.zeros((n,1)) for k in range(n): left = sum(a[k,0:k] * x[0:k,0]) right = sum(a[k,k+1:] * x[k+1:,0]) x_new[k] = (b[k] - left - right)/a[k,k] return x_new Nachteil: Neue, bessere Werte x[k-j] werden ignoriert 19
20 Relaxation Konvergenzbeschleunigung durch Relaxation: Ersetze x i+1 durch! x i+1 +(1!) x i! > 1 : Überrelaxation 0 <! < 1 : Unterrelaxation x i+1 x i+1 tmp x i+1 x i+1 tmp x i SOR = Successive Over Relaxation 1 <! < 2 Gauss-Seidel! =1 20
21 SOR-Verfahren Schnellere Konvergenz durch Überrelaxation x = np.zeros((n,1)) while np.linalg.norm(b - x) > eps: for k in range(n): left = sum(a[k,0:k] * x[0:k,0]) right = sum(a[k,k+1:] * x[k+1:,0]) x_tmp = (b[k] - left - right)/a[k,k] x[k] = (1 - w) * x[k] + x_tmp * w return x 21
22 Übersicht Was ist der zugrundeliegende Algorithmus? Wann ist der Algorithmus anwendbar? Wie schnell ist der Algorithmus? Können wir weitere Verbesserungen vornehmen? 22
23 Mathematische Analyse Wir splitten die Matrix A = L + D + R strikte untere Dreiecksmatrix L Diagonale D strikte obere Dreiecksmatrix R D = 2 3 a a , L = 0 0 a nn a , R = a n1 a n a 12 a 1n 0 0 a 2n und schreiben Gauss-Seidel: Jacobi: (L + D) x i+1 + Rx i = b Dx i+1 +(L + R) x i = b 23
24 Gauss-Seidel-Iterationsschritt Gauss-Seidel (L + D) x i+1 + Rx i = b x i+1 =(L + D) 1 (b Rx i ) for k in range(n): left = sum(a[k,0:k] * x[0:k,0]) right = sum(a[k,k+1:] * x[k+1:,0]) x[k] = (b[k] - left - right) / a[k,k] Wichtig: (L + D) wird nicht wirklich invertiert! Stattdessen: Vorwärtssubstitution 24
25 Jacobi-Iterationsschritt Jacobi Dx i+1 +(L + R) x i = b x i+1 = D 1 (b (L + R) x i ) for k in range(n): x_new = np.zeros((n,1)) left = sum(a[k,0:k] * x[0:k,0]) right = sum(a[k,k+1:] * x[k+1:,0]) x_new[k] = (b[k] - left - right) / a[k,k] Keine Datenabhängigkeiten, es wird jeweils einfach durch das Diagonalelement geteilt 25
26 SOR-Iterationsschritt SOR ( 1! D + L)xi+1 +((1 1! )D + R) xi = b x i+1 =(D +!L) 1 (!b (!R +(! 1)D) x i ) for k in range(n): left = sum(a[k,0:k] * x[0:k,0]) right = sum(a[k,k+1:] * x[k+1:,0]) x_tmp = (b[k] - left - right)/a[k,k] x[k] = (1-w)*x[k] + x_tmp*w Fazit: Iterative Verfahren können elegant mathematisch modelliert werden 26
27 Allgemeine Splitting-Verfahren Allgemein Splitte A =  + E einfach invertierbare Matrix  Restmatrix E Iteration x i+1 =  1 (b Ex i ) Resultat: Fixpunkt-Iteration für für affine Abbildungen: (x) =Vx+ d wobei und V =  1 E d =  1 b 27
28 Fixpunkt-Iteration für affine Abbildungen: (x) =Vx+ d Dabei ist V eine n n Matrix und d ein n - Vektor Fragen: Wann konvergiert diese Folge? Gegen welchen Wert konvergiert sie? Wie schnell konvergiert sie? 28
29 Allgemeine Konvergenzanalyse Wann konvergiert die Folge x i+1 = Vx i + d? hinreichende Bedingung: V < 1 für irgendeine Operatornorm. ebenfalls hinreichende Bedingung: < 1 für alle Eigenwerte von V bzw. Spektralradius (V ) < 1 Konvergenz-Geschwindigkeit: linear (Banachscher Fixpunktsatz) x i x 0 = C (V ) i In der Praxis: Konvergenzgeschwindigkeit ist problemabhängig Nur für einfache Beispiele lässt sich der Spektralradius abschätzen 29
30 Konvergenzanalyse - Theorie Ob Jacobi-, Gauss-Seidel oder SOR-Verfahren konvergieren hängt somit vom Spektralradius der jeweiligen Iterationsmatrizen ab: Im Einzelnen mit A = L + D + R (V J ): V J = D 1 (L + R) (V GS ): V GS = (L + D) 1 R (V SOR ): V SOR = ( 1! D + L) 1 ((! 1)/!D + R) 30
31 Praktische Konvergenzkriterien Ist A strikt diagonaldominant, d.h. nx a i,i > a i,j 8i 2 1,...,n j=1 j6=i Dann konvergieren Gauss-Seidel, Jacobi und SOR- Verfahren (für 0 <! < 2 ) Ist A positiv definit (alle Eigenwerte positiv), dann konvergiert das SOR-Verfahren für 0 <! < 2 und damit auch das Gauss-Seidel Verfahren Ist sowohl A, als auch D 2A positiv definit, dann konvergiert auch das Jacobi-Verfahren 31
32 Konvergenzanalyse SOR-Verfahren Ist (!) der Spektralradius der Iterationsmatrix V SOR (!) des SOR-Verfahrens, so ist ein typischer Verlauf des Spektralradius ρ(ω) 1 ρ GS ρ opt 0 1 ω opt 2 ω 32
33 Diagonaldominanz und Unzerlegbarkeit Eine Matrix heißt schwach-diagonaldominant, wenn nx a i,i a i,j 8i 2 1,...,n Beispiele: j=1 j6=i Eine Matrix heißt unzerlegbar, wenn der Graph von A (Kanten für alle von Null verschiedenen Einträge) stark zusammenhängend ist, d.h. es gibt zwischen beliebigen Knoten einen durchgehenden Pfad
34 Wichtiges praktisches Konvergenzkriterium Wichtigstes praktisches Resultat: Ist A unzerlegbar und schwach-diagonaldominant, dann konvergieren Gauss-Seidel-, Jacobi- und SOR-Verfahren Schwache Diagonaldominanz ist typisch bei Modellen mit Erhaltungsgrößen (z.b. Energie, Masse, Impuls) Die wirkliche Welt ist unzerlegbar 34
35 Weitere Hinweise zur Konvergenz Bei SOR und Gauss-Seidel hängt das Ergebnis auch von der Reihenfolge der Unbekannten ab, bei Jacobi nicht Erfahrungsgemäß konvergiert das Gauss-Seidel-Verfahren etwa doppelt so schnell wie das Jacobi-Verfahren Splitting-Verfahren konvergieren nicht in jedem Fall, sondern nur für bestimmte Problemklassen Oft hängt der Spektralradius auch von der Größe des Gleichungssystems ab, d.h. je größer das Problem desto schlechter konvergieren diese Verfahren 35
36 Übersicht Was ist der zugrundeliegende Algorithmus? Wann ist der Algorithmus anwendbar? Wie schnell ist der Algorithmus? Können wir weitere Verbesserungen vornehmen? 36
37 Effizienz von iterativen Verfahren Beispiel: Diskretisierung der Poisson-Gleichung Kontinuierlich: u =0 Diskret: 4u i,j u i+1,j u i 1,j u i,j+1 u i,j 1 =0 u i,j+1 u i-1,j u i,j u i+1,j y j u i,j-1 x i 37
38 Modellproblem: Temperaturverteilung 4Das -1 resultierende -1-1 Gleichungssystem (ui+1,j + ui,j+1 + ui-1,j + ui,j-1 - u4ui,j)= 1,1 0 u 1,n u 2, u 2,n = u n,n 4u i,j u i+1,j u i 1,j u i,j+1 u i,j 1 =0 0 38
39 Modellproblem: Temperaturverteilung Achtung: Das (N + 1) (N + 1) Gitter U ist nicht Koeffizienten-Matrix! Die Werte im Innern des Gitters sind die Unbekannten! Matrix des Gleichungssystems hat Größe (N 1) 4! Rechte Seite enthält vorgegebene Randwerte und Temperaturquellen an den Gitterpunkten (dies ist eine Verallgemeinerung des Problems). Aufstellen der Matrix in geeignetem Sparse-Matrix-Format Alternativ (besser): Direkte (Matrix-freie) Implementierung eines iterativen Verfahrens 39
40 Modellproblem Matrixfreie Implementierung des SOR-Verfahrens def SOR(U, F, h, omega): for iy in range(1, m-1): for ix in range(1, n-1): U_tmp = (2*h*h * F[iy, ix] + U[iy-1, ix] + U[iy+1, ix] + U[iy, ix-1] + U[iy, ix+1]) * 0.25 U[iy, ix] = U[iy, ix]*(1-omega) + omega*u_tmp return U 40
41 Experimente zur Konvergenzgeschwindigkeit Gauss-Seidel vs. Jacobi Konvergenz in Abhängigkeit von h Relaxationsparameter U(x, y) = cos(2 x) cos(2 y) 41
42 Erkenntnisse Das Gauss-Seidel-Verfahren ist in etwa doppelt so schnell wie das Jacobi-Verfahren Beide benötigen etwa O(n) Iterationen Das SOR-Verfahren benötigt bei optimalem Relaxationsparameter nur O( p n) Iterationen Der optimale Relaxationsparameter wächst mit der Systemgröße Diese Aussagen gelten nicht generell, aber für viele ähnliche Probleme 42
43 Iterationen abschätzen In der Praxis ist es typisch, dass der Spektralradius von Iterationsmatrizen nahe 1 ist. Die Tendenz ist GS/J 1 n SOR 1 p n Fazit: Vorsicht bei sehr großen Gleichungssystemen! 43
44 Übersicht Was ist der zugrundeliegende Algorithmus? Wann ist der Algorithmus anwendbar? Wie schnell ist der Algorithmus? Können wir weitere Verbesserungen vornehmen? 44
45 Verbesserungen Unmittelbar anwendbare Techniken Durchlaufreihenfolge geschickt wählen Matrixfreie Implementierung Dynamische Anpassung des Relaxationsparameters Fortgeschrittene Techniken Mehrere Iterationen speichern und sinnvoll ausnutzen, führt zu Krylov-Unterraum-Verfahren, z.b. CG, GMRES Hierarchische Gleichungssysteme konstruieren um unterschiedliche Frequenzen jeweils Optimal zu behandeln -> Mehrgitterverfahren Kombinationen aus verschiedenen Verfahren, z.b. Systeme vorkonditionieren 45
46 Zusammenfassung Umformung von Ax = b über A = Â + E zu einem iterativen Verfahren x i+1 = Â 1 (b Ex i ) Allgemeine Form: (x) =Vx+ d Entscheidend für die lineare Konvergenz ist (V ) < 1 Faustregeln Gauss-Seidel konvergiert doppelt so schnell wie Jacobi Gauss-Seidel und Jacobi benötigen O(n) Iterationsschritte, SOR nur O( p n) (im Idealfall) Nur Jacobi ist einfach parallelisierbar 46
47 LGS : direkte Verfahren vs. iterative Verfahren In der Theorie: exakte Lösung vs. Näherungslösung Rundungsfehler vs. Iterationsfehler DV: Rundungsfehler pflanzen sich fort u.u. mit Verstärkung IV: Iterations- und Rundungsfehler werden abgeschwächt IV : schnell eine (grobe) Näherung, kann ggf. abbrechen. DV : erst am Ende kennt man die Lösung Oftmals genügt eine Näherungslösung Aufwand: voll besetzt : O(n 3 ) vs. O(n 3 ) bzw. O(n 2.5 ) dünn besetzt: O(n 2 ) vs. O(n 2 ) bzw. O(n 1.5 ) je größer die Matrix und je dünner sie besetzt ist, desto interessanter werden iterative Verfahren 47
48 48
49 Besser Python programmieren Die meisten Teilnehmer haben die Übungen sehr gut gemeistert Wir freuen uns auf Feedback -> Evaluation Dennoch gibt es einige kleine Tricks, wie man sich das Leben einfacher machen kann PS: Manche dieser Dinge sind sogar Prüfungsrelevant 49
50 Arrays und Listen Listen eindimensional (können aber verschachtelt werden) primitiver Python Datentyp, besondere Syntax keine Mathematische Bedeutung NumPy Arrays "Nur" eine Bibliothek Beliebig viele Dimensionen Automatisches Broadcasting mathematischer Operatoren Können als Matrix verwendet werden Effiziente Implementierung Müssen explizit angelegt werden 50
51 Arrays und Listen Bitte weniger solchen Code: res = [] for i in range(n): res.append(de_casteljau(p, P0)) P0 += d return np.array(res) Besser: res = np.zeros(n) for i in range(n): res[i] = de_casteljau(p, P0 + i * d) 51
52 Matrixmultiplikation Operator erlaubt es, Matrizen zu multiplizieren b - x A == R Genauer: Operator multipliziert zweidimensionale NumPy Arrays, als wären sie Matrizen 52
53 Indexnotation In Python können nicht nur einzelne Elemente eines Arrays, sondern auch ganze Zeilen, Spalten oder generelle Slices ausgewählt werden Diese Notation spart typischerweise mindestens eine for- Schleife und macht den Code damit lesbarer for k in range(n): left = sum(a[k,0:k] * x[k, 0:k]) right = sum(a[k,k+1:] * x[k,k+1:]) x[k] = (b[k] - left - right) / a[k,k] 53
54 Indexnotation (2) Mehrere eindimensionale Indices: A[5][6][7] Mehrdimensionale Indizierung: A[5,6,7] Vorteile letzterer Syntax: Performance Lesbarkeit geringere Fehleranfälligkeit Wichtige Features von Indizes: Start, (exklusives) Ende, Schrittweite Negative Indices greifen auf das Ende zu 54
55 Beispiel zur Indexnotation moire.py: Wählen Sie von einem gegebenen Bild nur die N-te Zeile und Spalte aus return image[::n, ::N] Außerdem: Man kann eine Jacobi-Iteration auf einem Rechteck in nur einer einzigen Zeile schreiben 55
56 Tupel, Listen, Arrays & Funktionsaufrufe Runde Klammern Funktionsaufruf: foo(x,y) Konstruieren Tupel: (5, 6, y) Klammern von Ausdrücken (5 + 6) (5) ist kein Tupel, (5,) schon Eckige Klammern Array, Tupel oder Listenindex: foo[x] Konstruieren Listen: [1, 2, 3, 4] Nicht verwirren lassen, z.b. bei ((2,3,4))[2] 56
57 Referenzsemantik In Python wird nie implizit kopiert Insbesondere NumPy Slices zeigen immer auf die ursprünglichen Daten Im Zweifel eine Kopie anlegen >>> A = np.array([2,3,4]) >>> B = A[:] >>> C = B[1:2] >>> C[0] = 5 >>> print(a) array([2,5,4]) 57
58 Krone für den langsamsten Code 2017 Berechnung von Primzahlen über Wilson's Theorem def is_prime(n): if n == 0 or n == 1: return False return (factorial(n-1)+1) % n == 0 Leider: Der Aufruf is_prime( ) terminiert nicht, oder ist SEHR ineffizient 58
59 Betrugsversuche Öffentliche Tests Unsere Tests Wir prüfen auf init, code u.ä. Wir haben zusätzliche Testfälle Wir prüfen verdächtige Funktionsaufrufe Unser Testsystem ist sehr gut gesichert Bleibt anständig! Wir erstellen die Übungen, um euch auf das Leben vorzubereiten, nicht um euch zu quälen. Wenn ihr mit einer Aufgabe unzufrieden seid, nutzt die Evaluation! 59
Iterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)
M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.
5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme
5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme Als zweite Hauptanwendung des Banachschen Fixpunktsatzes besprechen wir in diesem Kapitel die iterative Lösung linearer Gleichungssysteme. Die
Iterative Lösung Linearer Gleichungssysteme
Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:
Matrizenoperationen mit FORTRAN
Kapitel 2 Matrizenoperationen mit FORTRAN 21 Grundlagen Bei vielen Anwendungen müssen große zusammenhängende Datenmengen gespeichert und verarbeitet werden Deshalb ist es sinnvoll, diese Daten nicht als
Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
2 Lineare Gleichungssysteme
2 Lineare Gleichungssysteme Wir betrachten das lineare Gleichungssystem Ax = b mit der n n-koeffizientenmatrix A und der rechten Seite b R n. Wir leiten zuerst eine Variante des Gauss-Algorithmus (LR-Zerlegung)
Der CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR
LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine
Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok
Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html [email protected]
Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix
Inhaltsverzeichnis Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Auf dieser Seite werden Matrizen und Vektoren fett gedruckt, um sie von Zahlen zu unterscheiden. Betrachtet wird das
Numerische Mathematik für Ingenieure und Physiker
Willi Törnig Peter Spellucci Numerische Mathematik für Ingenieure und Physiker Band 1: Numerische Methoden der Algebra Zweite, überarbeitete und ergänzte Auflage Mit 15 Abbildungen > Springer-Verlag Berlin
3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
2.2 Lineare Gleichungssysteme (LGS)
2.2 Lineare Gleichungssysteme (LGS) Definition 2.2.. Ein LGS über einem Körper K von m Gleichungen in n Unbekannten x,..., x n ist ein Gleichungssystem der Form a x + a 2 x 2 +... + a n x n = b a 2 x +
Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung
Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,
Lineare Gleichungssysteme Hierarchische Matrizen
Kompaktkurs Lineare Gleichungssysteme Hierarchische Matrizen M. Bebendorf, O. Steinbach O. Steinbach Lineare Gleichungssysteme SIMNET Kurs 24. 27.4.26 / 6 Numerische Simulation stationäre und instationäre
1 Matrizenrechnung zweiter Teil
MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten
Nichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
Überbestimmte Gleichungssysteme
Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare
Kevin Caldwell. 18.April 2012
im Rahmen des Proseminars Numerische Lineare Algebra von Prof.Dr.Sven Beuchler 18.April 2012 Gliederung 1 2 3 Mathematische Beschreibung von naturwissenschaftlich-technischen Problemstellungen führt häufig
6 Lineare Gleichungssysteme
6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α
18.4 Das Newton-Verfahren
18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift
Numerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)
Inexakte Newton Verfahren
Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n
3 Lineare Differentialgleichungen
3 Lineare Differentialgleichungen In diesem Kapitel behandeln wir die allgemeine Theorie linearer Differentialgleichungen Sie werden zahlreiche Parallelen zur Theorie linearer Gleichungssysteme feststellen,
Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:
Inverse Matritzen Spezialfall: Die Gleichung ax b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a a 1 gelöst werden: ax b x b a a 1 b. Verallgemeinerung auf Ax b mit einer n nmatrix A: Wenn es
Übungspaket 23 Mehrdimensionale Arrays
Übungspaket 23 Mehrdimensionale Arrays Übungsziele: Skript: Deklaration und Verwendung mehrdimensionaler Arrays Kapitel: 49 Semester: Wintersemester 2016/17 Betreuer: Kevin, Matthias, Thomas und Ralf Synopsis:
Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
Lineare Gleichungssysteme und Matrizen
Kapitel 11 Lineare Gleichungssysteme und Matrizen Ein lineares Gleichungssystem (lgs) mit m linearen Gleichungen in den n Unbekannten x 1, x 2,..., x n hat die Gestalt: Mit a 11 x 1 + a 12 x 2 + a 13 x
Übungspaket 23 Mehrdimensionale Arrays
Übungspaket 23 Mehrdimensionale Arrays Übungsziele: Skript: Deklaration und Verwendung mehrdimensionaler Arrays Kapitel: 49 Semester: Wintersemester 2016/17 Betreuer: Kevin, Matthias, Thomas und Ralf Synopsis:
Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,
1 Stückweise konstante Funktionen (ca =10 Punkte)
Einführung in die wissenschaftliche Programmierung Klausur Seite 1/5 Name, Vorname, Unterschrift: Matrikelnummer: 1 Stückweise konstante Funktionen (ca. 4+2+4=10 Punkte) In dieser Aufgabe soll eine Klasse
Modellieren in der Angewandten Geologie II. Sebastian Bauer
Modellieren in der Angewandten Geologie II Geohydromodellierung Institut für Geowissenschaften Christian-Albrechts-Universität zu Kiel CAU 3-1 Die Finite Elemente Method (FEM) ist eine sehr allgemeine
Newton-Verfahren für ein Skalarfunktion
Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren
( ) Lineare Gleichungssysteme
102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv
8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte
Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)
9 Lösung linearer Gleichungssysteme III: Iterative Methoden
Numerik I. Version: 24.06.08 246 9 Lösung linearer Gleichungssysteme III: Iterative Methoden Die Iterationsmethoden des vorherigen Kapitels werden normalerweise für nichtlineare Probleme verwendet, wobei
Parallele und verteilte Programmierung
Thomas Rauber Gudula Rünger Parallele und verteilte Programmierung Mit 165 Abbildungen und 17 Tabellen Jp Springer Inhaltsverzeichnis 1. Einleitung 1 Teil I. Architektur 2. Architektur von Parallelrechnern
Serie 10: Inverse Matrix und Determinante
D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die
Ausgewählte Lösungen zu den Übungsblättern 4-5
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Ausgewählte en zu den Übungsblättern -5 Aufgabe, Lineare Unabhängigkeit
Nichtlineare Gleichungssysteme
Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische
Entwurf eines FPGA-Cores zur Simulationsbeschleunigung zeitkontinuierlicher Modelle im HiL Kontext
Entwurf eines FPGA-Cores zur Simulationsbeschleunigung zeitkontinuierlicher Modelle im HiL Kontext Till Fischer 03.11.2011 FZI Forschungszentrum Informatik Embedded Systems & Sensors Engineering (ESS)
7.1 Matrizen und Vektore
7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit
Das CG-Verfahren. Sven Wetterauer
Das CG-Verfahren Sven Wetterauer 06.07.2010 1 Inhaltsverzeichnis 1 Einführung 3 2 Die quadratische Form 3 3 Methode des steilsten Abstiegs 4 4 Methode der Konjugierten Richtungen 6 4.1 Gram-Schmidt-Konjugation.........................
Der Kern einer Matrix
Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis
[Nächste Frage: wie wissen wir, ob Spaltenvektoren eine Basis bilden? Siehe L6.1] , enthält eine Basis v. V, nämlich und somit das ganze V.
Kriterien für Invertierbarkeit einer Matrix Eine lineare Abbildung falls und nur falls ist bijektiv, d.h. ihre Matrix ist invertierbar, (i) für jede Basis, die Bildvektoren auch eine Basis, bilden; (intuitiv
Lösungen zum 5. Aufgabenblatt
SS 2012, Lineare Algebra 1 Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com
18.2 Implizit definierte Funktionen
18.2 Implizit definierte Funktionen Ziel: Untersuche Lösungsmengen von nichtlinearen Gleichungssystemen g(x) = 0 mit g : D R m, D R n, d.h. betrachte m Gleichungen für n Unbekannte mit m < n, d.h. wir
Matrizen und Determinanten, Aufgaben
Matrizen und Determinanten, Aufgaben Inhaltsverzeichnis 1 Multiplikation von Matrizen 1 11 Lösungen 3 2 Determinanten 6 21 Lösungen 7 3 Inverse Matrix 8 31 Lösungen 9 4 Matrizengleichungen 11 41 Lösungen
Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh ([email protected]) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
Lineare Gleichungssysteme
Brückenkurs Mathematik TU Dresden 2016 Lineare Gleichungssysteme Schwerpunkte: Interpretation und Verständnis der Gleichungen Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik unter
Skalarprodukte (Teschl/Teschl Kap. 13)
Skalarprodukte (Teschl/Teschl Kap. ) Sei V Vektorraum über R. Ein Skalarprodukt auf V ist eine Abbildung V V R, (x, y) x, y mit den Eigenschaften () x, y = y, x (symmetrisch), () ax, y = a x, y und x +
Nichtlineare Gleichungen, mehrere Unbekannte
Dritte Vorlesung, 6. März 2008, Inhalt Aufarbeiten von Themen der letzten Vorlesung, und Nichtlineare Gleichungen, mehrere Unbekannte Systeme nichtlinearer Gleichungen Vektor- und Matrixnormen Fixpunkt-Iteration,
Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren
Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren
Matrizen, Determinanten, lineare Gleichungssysteme
Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n
Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren
Universität Hamburg SS 2005 Proseminar Numerik Leitung: Prof. W. Hofmann Vortrag von Markus Stürzekarn zum Thema: Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren Gegeben sei ein lineares
6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme
6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear
Das inhomogene System. A x = b
Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbestimmten hat immer mindestens die Lösung 0. Ist r der Rang von A, so hat das System n r Freiheitsgrade. Insbesondere gilt: Ist
Kapitel 5. LU Zerlegung. 5.1 L- und U-Matrizen
Kapitel 5 LU Zerlegung In vielen Fällen interessiert uns die inverse Matrix A 1 gar nicht. Stattdessen suchen wir die Lösung der Matrixgleichung Ax = b bzw. x = A 1 b 5.1) für einen oder wenige Vektoren
Lineare Gleichungssysteme - Grundlagen
Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente
A2.3 Lineare Gleichungssysteme
A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen
$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $
Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit
2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
2.2 Lineare Gleichungssysteme
Lineare Algebra I WS 2015/16 c Rudolf Scharlau 55 22 Lineare Gleichungssysteme Das Lösen von Gleichungen (ganz unterschiedlichen Typs und unterschiedlichen Schwierigkeitsgrades) gehört zu den Grundproblemen
Lineare Gleichungssysteme
Poelchau-Oberschule Berlin A. Mentzendorff September 2007 Lineare Gleichungssysteme Inhaltsverzeichnis 1 Grundlagen 2 2 Das Lösungsverfahren von Gauß 4 3 Kurzschreibweise und Zeilensummenkontrolle 6 4
2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p
Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.
3 Elementare Umformung von linearen Gleichungssystemen und Matrizen
3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange
Lösung Semesterendprüfung (Nachprüfung)
MLAE Mathematik: Lineare Algebra für Ingenieure Frühlingssemester 6 Dr. Christoph Kirsch ZHAW Winterthur Lösung Semesterendprüfung (Nachprüfung Aufgabe : Aufgabe : a Gemäss Def. der Vorlesung müssen wir
Lineare Gleichungssysteme
Mathematik I für Biologen, Geowissenschaftler und Geoökologen 28. November 2011 Definition Beispiel: Wassermengen und Konzentrationen in einem Fluss Beispiel Zeilenstufenform Beispiel (Fortsetzung) Anhang
Mathematik IT 2 (Lineare Algebra)
Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof Dr L Cromme Mathematik IT (Lineare Algebra für die Studiengänge Informatik, IMT und ebusiness im Sommersemester 3 Lineare Gleichungssysteme
Inhalt Kapitel I: Nichtlineare Gleichungssysteme
Inhalt Kapitel I: Nichtlineare Gleichungssysteme I Nichtlineare Gleichungssysteme I. Nullstellenbestimmung von Funktionen einer Veränderlichen I.2 I.3 Newton-Verfahren Kapitel I (UebersichtKapI) 3 Bisektionsverfahren
Vorlesung, 26. Mai 2011, Inhalt. Eigenwerte und Eigenvektoren. Gewöhnliche Differentialgleichungen
Vorlesung, 26. Mai 2011, Inhalt Eigenwerte und Eigenvektoren Gewöhnliche Differentialgleichungen 1 Eigenwerte und Eigenvektoren Es sei A eine n n-matrix, x ein vom Nullvektor verschiedener Vektor und λ
Methode der kleinsten Quadrate
Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,
Serie 8: Fakultativer Online-Test
Prof Norbert Hungerbühler Lineare Algebra I Serie 8: Fakultativer Online-Test ETH Zürich - D-MAVT HS 215 1 Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen Die Nachbesprechung
4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung
4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax
Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.
Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x
20 Kapitel 2: Eigenwertprobleme
20 Kapitel 2: Eigenwertprobleme 2.3 POTENZMETHODE Die Potenzmethode oder Vektoriteration ist eine sehr einfache, aber dennoch effektive Methode zur Bestimmung des betragsmäßig größten Eigenwertes. Um die
Lineare Gleichungssysteme
Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare
Dreiecksysteme und LR-Faktorzerlegung
Dreiecksysteme und 06.05.2011 Dreiecksysteme und Inhaltsverzeichnis 1 Dreieckssysteme Vorwärts-Substitution (Zeilen-Version) Rückwärts-Substitution (Zeilen-Version) Vorwärts-Substitution (Spalten-Version)
9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
Das Lösen linearer Gleichungssysteme
Das Lösen linearer Gleichungssysteme Lineare Gleichungen Die Gleichung a 1 x 1 + a 2 x 2 +... + a n x n = b ist eine lineare Gleichung in den n Variablen x 1, x 2,..., x n. Die Zahlen a 1, a 2,..., a n
Zugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II
Zugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II Matrixzugriff Wir wollen nun unsere Einführung in die Arbeit mit Vektoren und Matrizen in MATLAB
1.Übung Mathematik I
1Übung Mathematik I 1) Ist folgende Aussage eine Implikation? ( Begründung!) (( A B) -> ( A C) ) = > (C A) 2 Onkel Dagobert wurde Geld aus seinem Geldspeicher gestohlen Er hat drei Tatverdächtige: Die
WiMa-Praktikum 1. Woche 8
WiMa-Praktikum 1 Universität Ulm, Sommersemester 2017 Woche 8 Lernziele In diesem Praktikum sollen Sie üben und lernen: Besonderheiten der For-Schleife in Matlab Wiederholung des Umgangs mit Matrizen und
Funktionen mehrerer Variabler
Vektoranalysis Funktionen mehrerer Variabler Wir untersuchen allgemein vektorwertige Funktionen von vektoriellen Argumenten, wobei zunächst nur reelle Vektoren zugelassen seien. Speziell betrachten wir:
mit "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor"
Zusammenfassung Matrizen Transponierte: Addition: mit Skalare Multiplikation: Matrixmultiplikation: m x p m x n n x p mit ES "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor" "Determinante"
Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)
Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein
Lineare Algebra und Numerische Mathematik für D-BAUG. Serie 6
R. Hiptmair S. Pintarelli E. Spindler Herbstsemester 2014 Lineare Algebra und Numerische Mathematik für D-BAUG Serie 6 ETH Zürich D-MATH Einleitung. Diese Serie behandelt nochmals das Rechnen mit Vektoren
5 Interpolation und Approximation
5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)
Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010
Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und
Lösung (die Geraden laufen parallel) oder unendlich viele Lösungen.
1 Albert Ludwigs Universität Freiburg Abteilung Empirische Forschung und Ökonometrie Mathematik für Wirtschaftswissenschaftler Dr. Sevtap Kestel Winter 2008 Kapitel 16 Determinanten und inverse Matrizen
3.4 Der Gaußsche Algorithmus
94 34 Der Gaußsche Algorithmus Wir kommen jetzt zur expliziten numerischen Lösung des eingangs als eine Motivierung für die Lineare Algebra angegebenen linearen Gleichungssystems 341 n 1 a ik x k = b i,
Elemente der Analysis II
Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel
Kurze Geschichte der linearen Algebra
Kurze Geschichte der linearen Algebra Dipl.-Inform. Wolfgang Globke Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 20 Entwicklung Die Historische Entwicklung
