Institut für Geometrie und Praktische Mathematik Mathematisches Praktikum (MaPra) Wintersemester Aufgabe 4
|
|
- Gesche Grosser
- vor 6 Jahren
- Abrufe
Transkript
1 Rheinisch-Westfälische Technische Hochschule Institut für Geometrie und Praktische Mathematik Mathematisches Praktikum (MaPra) Wintersemester 2007 Prof. Dr. Wolfgang Dahmen Dr. Karl-Heinz Brakhage Aufgabe 4 Bearbeitungszeit: Drei Wochen (Abgabe bis Donnerstag, den 6. Dezember 2007) Bearbeitungshinweis: Es sollen auch eigene Tests erstellt werden. Diese sollen bereits eine Woche vor Abgabefrist vorgeführt werden, um böse Überaschungen zu vermeiden. Mathematischer Hintergrund: Iterative Verfahren für lineare Gleichungssysteme Elemente von C++: Klassen, dynamische Speicherverwaltung, Überladen von Operatoren, Makefiles 20 Punkte Long ago oder: Vor ziemlich genau 184 Jahren C.F.Gauß schrieb in einem Brief vom an Gerling: Ich empfehle Ihnen diesen Modus zur Nachahmung. Schwerlich werden Sie je wieder direct elimineren, wenigstens nicht wenn Sie mehr als 2 Unbekannte haben. Das indirecte Verfahren lässt sich halb im Schlafe ausführen, oder man kann während desselben an andere Dinge denken. Bemerkung: Während seinen Berechnungen stieß Gauß immer wieder auf Gleichungssysteme die zu groß waren, als dass er sie mit der direkten Methode der Gauß-Elimination berechnen konnte. Darum entwickelte er um 1820 das wohl erste Iterationsverfahren: Das Gauß-Seidel Verfahren (auch bekannt als Einzelschrittverfahren). Iterative Verfahren Was ist iteratives Lösen linearer Gleichungssysteme? Iteratives Lösen linearer Gleichungssysteme ist ein Approximationsverfahren zum Bestimmen der Lösung eines Gleichungssystems. Im Gegensatz hierzu stehen die direkten Verfahren zum Lösen linearer Gleichungssysteme (z.b: Gaußsches Eliminationsverfahren). Bei den direkten Verfahren kommt man nach endlich vielen Schritten zur genauen Lösung des Gleichungssystems. Bei den iterativen Verfahren nähert man sich in jedem Schritt der Lösung. Warum iterative Verfahren? In Zeiten ohne Rechner war es so gut wie unmöglich, mit dem direkten Verfahren größere Gleichungssysteme zu lösen, da diese enorm viel Rechenaufwand erfordern. Es war also notwendig, Verfahren zu entwickeln, mit denen man schneller an die Lösung kam. 1
2 Direkte Verfahren sind zwar für jede Dimension anwendbar, der benötigte Rechenaufwand (O(n 3 )) steigt aber mit der Dimension so stark an, dass man zur Lösung von Gleichungssystemen mit 10 5, 10 6 oder noch mehr Unbekannten auch große Rechner gut beschäfftigen kann. Wichtiges Beispiele für das Auftreten großer Gleichungssysteme sind die Diskretiserung partieller Differentialgleichungen, Computertomographie usw. In diesen Fällen sind die Matrizen meist schwach besetzt (d.h sie enthalten viele Nullen), und eignen sich besonders gut zur iterativen Lösung. Vorteile von Iterationsverfahren gegenüber direkter Verfahren Je größer die Dimension des Gleichungssystems, desto schneller ist das Iterationsverfahren (meistens) im Vergleich zu den direkten Verfahren. Schon nach wenigen Schritten erhält man oft eine ziemlich genaue Lösung. Durch die Rundungsfehler im Rechner besonders bei schlecht konditionierten Matrizen liefert das Iterationsverfahren sogar meist genauere Ergebnisse als das direkte Verfahren. Darum wurde auch die Methode der Nachiteration entwickelt (auf das Ergebnis des direkten Verfahrens wird ein iteratives Verfahren angewandt siehe Numerische Analysis). Bei den direkten Verfahren zur Lösung eines linearen Gleichungssystems A x = b wird die Koeffizientenmatrix A im Laufe der Rechnung verändert. Ist die Dimension von A (dünn besetzt) sehr groß, so ist das veränderte A im allgemeinen nicht im Hauptspeicher darstellbar. Direkte Verfahren sind daher oft nicht mehr möglich bzw. es ist ein sehr aufwendiger Datentransfers nötig. Iterative Verfahren veändern die Koeffizientenmatrix nicht, sondern berechnen sukkzessiv Näherungsvektoren für die Lösung und benötigen daher weniger Speicherplatz. Auch der Nachteil iterativer Verfahren soll nicht verschwiegen werden: Man muss prüfen, ob sie konvergieren. Das ist oft nicht ganz einfach. Weiterhin muss man sich ein geeignetes Abbruchkriterium überlegen. Aufgabenstellung endlich Mit Hilfe einer gut konzipierten Library für Matrizen und Vektoren lassen sich iterative Verfahren zur Lösung von linearen Gleichungssystemen mit einem sehr geringen Aufwand an Progammiertätigkeit implementieren. Dies soll mittels der bereits in der Vorbereitung erläuterten Matrix- und Vektorklasse an einigen Beispielen erprobt werden. Ziel ist es, Algorithmen so zu formulieren, dass sie im Wesentlichen mit Matrix-Vektor- Multiplikationen durchführbar sind. Dabei gehen wir aus Zeitgründen nicht auf die Ausnutzung der Struktur der Matrizen (dünn besetzt) ein. Wir merken uns aber, dass dies die Verfahren erst wirklich effektiv macht. Wir wollen hier drei (Pflicht-)Beispiele behandeln. Diese sind 1) Gesamtschrittverfahren das warm up, 2) konjugierte Gradienten das cg-verfahren für positiv definite Matrizen, 3) cgls ein cg-verfahren für lineare Ausgleichsprobleme. Dieses wird z.b. in der Computertomographie eingesetzt. Sie sollten danach in der Lage sein, jederzeit weitere Algorithmen hinzuzufügen. Dies könnte etwa die L-R- Zerlegung sein oder z.b. die ebenfalls in der Numerischen Analysis behandelteq-r-zerlegung. 2
3 Gesamtschrittverfahren (Jacobiverfahren entwickelt 1845 von Carl Gustav Jacobi) Löst man in einem linearen Gleichungssystem (A R n n ) A x = b die i-te Gleichung nach x i auf, so erhält man das Gesamtschrittverfahren. Zerlegt man A in A = A L +D+A R, wobei A L eine strikte untere Dreiecksmatrix und A R eine strikte obere Dreiecksmatrix sind, so lässt sich die so gewonnene Gleichung schreiben als x = D 1 (b (A L + A R )x). Die Multiplikation eines Vektors mit der Inversen einer Diagonalmatrix D bewirkt, dass jede Komponente des Vektors durch das entsprechende Diagonalelement geteilt wird. Weiterhin wird D nicht als Matrix sondern als Vektor d (D = diag{d 1,..., d n }) gespeichert. Die Operation D 1 y lässt sich dann mit dem Operator / als Vektor-Vektor-Operation y/d in der Vektorklasse implementieren. Damit lautet der Algorithmus des Gesamtschrittverfahrens (für A x = b) wie folgt: Zu beliebigem Startvektor x (0) : x (k+1) = (b (A L + A R )x (k) )/d bis stop Bleiben die Fragen, unter welchen Voraussetzungen konvergiert das Verfahren und was heißt stop. Es gibt ein Konvergenzkriterium, das sich auch einfach überprüfen läßt: Satz: Das Gesamtschrittverfahren konvergiert für streng diagonaldominante Matrizen A ( a ii > j i a ij ) für jedem Startwert x (0). Die Iteration soll abgebrochen werden (Bedingung stop), wenn eine maximale Anzahl von Schritten (k max ) überschritten wird bzw. das Residuum kleiner als ein vorgegebenes ε wird. Hier noch einige Hinweise / Bemerkungen: 1. A L + A R speichern wir in A. 2. Es werden nicht alle Iterationsvektoren gespeichert! 3. Das Residuum läßt sich ((b (A L + A R )x (k) ) speichern) einfach beerechnen. 4. Streng genommen müssen wir zwischen Residuenvektor r (k) = b Ax (k) und Residuum r (k) 2 unterscheiden. 5. Ein kleines Residuum bedeutet nicht zwangsweise das Vorliegen einer guten Lösung. 6. Bevor iteriert wird, überprüfen wir, ob das Konvergenzkriterium erfüllt ist. konjugierte Gradienten das cg-verfahren Das Verfahren der konjugierten Gradienten für symmetrisch positiv definite (spd) Matrizen A ist eines der effizientesten Verfahren für lineare Gleichungsysteme A x = b überhaupt. Wir formulieren zunächst den Algorithmus: Für A spd und zu beliebigem Startvektor x (0) : r (0) = b Ax (0), d (0) = r (0) α k = r (k) 2 2 /((Ad(k) )d (k) ) // Ad (k) für später speichern x (k+1) = x (k) + α k d (k) r (k+1) = r (k) α k Ad (k) β k = r (k+1) 2 2 / r(k) 2 2 // r (k+1) 2 2 für später speichern d (k+1) = r (k+1) + β k d (k) 3
4 bis stop Bleiben wieder die Fragen, unter welchen Voraussetzungen konvergiert das Verfahren und was heißt stop. Konvergenzkriterium: Satz: Für A R n n spd findet das cg-verfahren nach höchstens n Schritten die exakte Lösung. Wenn wir also die Eigenschaft spd voraussetzen, konvergiert das Verfahren für jeden beliebigen Startwert. Die Iteration soll wieder abgebrochen werden (Bedingung stop), wenn eine maximale Anzahl von Schritten (k max ) überschritten wird bzw. das Residuum kleiner als ein vorgegebenes ε wird. Hier noch einige Hinweise / Bemerkungen: 1. Für A spd ist x A := x T Ax eine Norm, die sogenannte Energienorm. 2. Der Name konjugierte Gradienten erklärt sich wie folgt: Die Minimierung des quadratischen Funktionals Φ(x) = 1/2 x T Ax x T b führt auf die notwendige Bedingung gradφ(x) = Ax b = 0 (A spd ist dann hinreichend für ein Minimum). Wenn man Φ(x) nun schrittweise mittels des Ansatzes x (k+1) = x (k) + α k d (k) minimiert, so sind mit obiger Wahl die d (k) bzgl. A konjugiert, d.h.: (d (k+1) ) T Ad (k) = 0. Ein cg-verfahren für lineare Ausgleichsprobleme cgls Zu dem linearen Ausgleichsproblem Ax b 2 min gehört bekanntlich (Numerische Analysis) das Normalgleichungssystem A T Ax = A T b mit der hat A vollen Rang spd Matrix A T A. Leider ist A T A meist schlecht konditioniert und für dünnbesetzte A s ist A T A meist nicht mehr dünn besetzt. Das Verfahren der konjugierten Gradienten kann aber so umformuliert werden, dass beide Probleme umgangen werden. Wir benutzen zwei Residuen(vektoren): r (k) = b Ax (k) und s (k) = A T b A T Ax (k) = A T r (k). Da wir in unseren Klassen nicht zwischen Zeilen- und Spaltenvektoren unterscheiden, können wir in der Implementierung statt A T r (k) auch r (k) A benutzen. Damit lässt sich der Algorithmus wie folgt formulieren: Für A R m n mit vollem Rang und zu beliebigem Startvektor x (0) : r (0) = b Ax (0) s (0) = A T r (0) d (0) = s (0) α k = s (k) 2 2 / Ad(k) 2 2 // Ad (k) für später speichern x (k+1) = x (k) + α k d (k) r (k+1) = r (k) α k Ad (k) s (k+1) = A T r (k+1) β k = s (k+1) 2 2 / s(k) 2 2 d (k+1) = s (k+1) + β k d (k) bis stop Das stop Kriterium wählen wir wie beim cg-verfahren maximale Anzahl von Schritten oder Residuum unter einer vorgegeben Schranke ε ( s (k) 2 ε). What to do Im Lastenheft (s.u.) steht diesmal, dass Sie sich selbst zunächst geeignete Tests und Testbeispiele überlegen müssen. Dies muss im Pflichtenheft (s.u.) abgearbeitet werden, D.h.: Sie müssen die Tests und Testbeispiele erstellen und diese auch (mit Begründung der Auswahl) dokumentieren. In der Praxis ist dies meistens ein entscheidender Schritt zum Erfolg, denn normalerweise hat man ja kein programmiertes Referenzverfahren, das die eigenen Ergebnisse testet. Sie sollten Ihre Programmiertätigkeit soweit vorantreiben, dass Sie die 4
5 eigenen Tests nach zwei Wochen abschließen und vorführen. In der letzten Bearbeitungswoche sollen dann Tests mit von uns gestellten Beispielen durchgeführt werden. Um dies ohne große Umstellung bewerkstelligen zu können, sind ein paar Grundsätze zu beachten. Da wir nur ein einheitliches stop-kriterium vorgegeben haben, können alle drei Verfahren folgendermaßen implementiert werden int gsv ( Matrix &A, const Vektor &b, Vektor &x0, int k max, double &eps ); int cg ( Matrix &A, const Vektor &b, Vektor &x0, int k max, double &eps ); int cgls ( Matrix &A, const Vektor &b, Vektor &x0, int k max, double &eps ); A darf (Gesamtschrittverfahren) modifiziert werden, muss aber beim Verlassen der Funktion (Unterprogramm) wieder wie beim Eingang besetzt sein. Es brauchen und sollen auch keine weiteren Matrizen und/oder arrays von Vektoren angelegt werden. Ist die Dimension des Vektors x0 1, so soll das Unterprogramm selbst einen Startvektor bestimmen. Beim Aufruf steht in eps die gewünschte Genauigkeit (Residuum). Beim Rücksprung soll eps die erreichte Genauigkeit enthalten. Der Rückgabewert der Funktion ist die Anzahl der durchgeführten Schritte (falls >0) bzw. ein Fehlercode. Dabei sollen folgende Fehler berücksichtigt werden. 0: k max Iterationen erreicht (auch in diesem Fall soll aber eps die erreichte Genauigkeit enthalten); -1: Voraussetzung nicht erfüllt (gsv: A nicht diagonaldominant, cg: A nicht symmetrisch, cgls: m<n); -2: Dimensionen von A, b und x0 passen nicht zusammen. Medizinische Anwendungen Zum Abschluss noch einige Worte Zur Anwendung bei der Computertomographie. Eine gute Übersicht findet sich in dem auf der Web-Seite aufliegenden Artikel Mathematik fürs Leben am Beispiel der Computertomographie. Hier nur soviel: Ein Scan mit Bildpunkten führt (in jeder Schicht!!) auf Unbekannte. Da das System überbestimmt sein muss, hat man ca Gleichungen. cgls braucht dafür nur ca Iterationen, um akzeptable Lösung zu bekommen. Die Kernspin-Tomographie, auch Magnet-Resonanz-Tomographie (MRT) genannt, ist eine diagnostische Technik zur Darstellung der inneren Organe und Gewebe mit Hilfe von Magnetfeldern und Radiowellen. Das technische Prinzip wurde 1946 von Bloch und Purcell unabhängig voneinander entdeckt und bald in Physik und Chemie angewandt erhielten die beiden Wissenschaftler den Nobelpreis (in Physik) für ihre Entdeckung. Die Weiterentwicklung zu einer Technik in der Medizin, mit Hilfe derer Bilder erzeugt werden können, wurde im wesentlichen durch Lauterbur (Chemiker) und Mansfield (Physiker) im Jahr 1973 vorangetrieben. Dafür bekamen sie 2003 den Nobelpreis für Medizin. Praktisch verfügbar ist das Verfahren seit Lastenheft Der Auftraggeber erstellt das Lastenheft. Nach der DIN enthält es die Gesamtheit der Forderungen an die Lieferungen und Leistungen eines Auftragnehmers. Zugleich dient das Lastenheft auch als Grundlage beim Einholen von Angeboten. Konkret umfasst ein solches Heft die technischen und inhaltlichen Vorgaben, die an die Software gestellt werden. Auch ein Web-Projekt lässt sich als Software-Projekt begreifen (und da es Software-Projekte schon seit den 60er Jahren gibt, kann die geballte Praxis-Erfahrung auch dem Web-Projektmanagement nicht schaden). Pflichtenheft Dienstleister erstellen ein Pflichtenheft. Es enthält nach DIN die vom Auftragnehmer erarbeiteten Realisierungsvorgaben und beschreibt die Umsetzung des vom Auftraggeber vorgegebenen Lastenhefts. Das Pflichtenheft bildet die Basis für die vertraglich festgehaltenen Leistungen des Auftragnehmers. Dienstleister und Kunden legen sich fest und sichern sich ab. Kein Dienstleister kann mehr sagen, dies und das sei nicht eingeplant gewesen - und der Kunde kann nicht einfach Forderungen nachlegen. 5
Iterative Lösung Linearer Gleichungssysteme
Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:
MehrIII. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische lineare Iterationsverfahren
III. Iterative Löser III.1 Direkte Löser und ihre Nachteile III.2 Klassische lineare Iterationsverfahren Typeset by FoilTEX 1 Erinnerung: Lineares Gleichungssystem bei FDM Diskretisierung einer linearen
MehrInstitut für Geometrie und Praktische Mathematik Mathematisches Praktikum (MaPra) Sommersemester Aufgabe 5
Rheinisch-Westfälische Technische Hochschule Institut für Geometrie und Praktische Mathematik Mathematisches Praktikum (MaPra) Sommersemester 2009 Prof. Dr. Wolfgang Dahmen Dipl.-Math. Dipl.-Phys. Kolja
Mehr38 Iterative Verfahren für lineare Gleichungssysteme
38 Iterative Verfahren für lineare Gleichungssysteme 38.1 Motivation Viele praktische Probleme führen auf sehr große lineare Gleichungssysteme, bei denen die Systemmatrix dünn besetzt ist, d. h. nur wenige
MehrLineare Iterationsverfahren: Definitionen
Lineare Iterationsverfahren: Definitionen 1. Ein Lösungsverfahren zur Berechnung von Ax = b heißt iterativ, falls ausgehend von einem Startwert x eine Folge x k von Iterierten bestimmt wird. 2. Ein Iterationsverfahren
MehrLineare Gleichungssysteme: direkte Verfahren
Sechste Vorlesung, 24. April 2008, Inhalt Lineare Gleichungssysteme: direkte Verfahren Dreiecksmatrizen Gauß-Elimination LR-Zerlegung Anwendungen: Determinante, Inverse 1 Lösungsverfahren für lineare Gleichungssysteme
MehrKapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen
Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung
MehrInstitut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf
Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf Praktikum im Sommersemester 2012 Programmierpraktikum numerische Algorithmen (P2E1) (Numerische Lösung der Wärmeleitungsgleichung)
MehrNumerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
MehrDer CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
MehrIterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
Mehr9 Lineare Gleichungssysteme
9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der
MehrFinite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015
Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 5 Aufgabe 8 (Speichertechniken) Finite Elemente Übung 5 a) Stellen Sie die Matrix
Mehr3. Lineare Gleichungssysteme
3. Lineare Gleichungssysteme 1 3.1. Problemstellung 2 3.2. Direkte Verfahren 3 3.3. Normen und Fehleranalyse 4 3.4. Iterative Verfahren 5 3.5. Konvergenz von linearen Iterationsverfahren 6 3.6. Gradienten-Verfahren
MehrEinführung in die numerische Mathematik
Prof. Dr. M. Günther K. Gausling, M.Sc. C. Hendricks, M.Sc. Sommersemester 204 Bergische Universität Wuppertal Fachbereich C Mathematik und Naturwissenschaften Angewandte Mathematik / Numerische Analysis
MehrWirtschaftsmathematik Plus für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik Plus für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2012/13 Hochschule Augsburg Lineare : Einführung Beispiele linearer a) b) c) 2x 1 3x 2 = 1 x 1 +
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der
MehrErweiterungen der LR-Zerlegung
Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen
Mehr7. Iterative Lösung. linearer Gleichungssysteme
7. Iterative Lösung linearer Gleichungssysteme 1 Grundlagen (1) Zur Erinnerung: Gesucht ist die Lösung eines linearen Gleichungssystems a 0,0 x 0 +a 0,1 x 1 + a 0,n 1 x n 1 = b 0 a 1,0 x 0 +a 1,1 x 1 +
MehrMatrizenoperationen mit FORTRAN
Kapitel 2 Matrizenoperationen mit FORTRAN 21 Grundlagen Bei vielen Anwendungen müssen große zusammenhängende Datenmengen gespeichert und verarbeitet werden Deshalb ist es sinnvoll, diese Daten nicht als
MehrGliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung
Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,
MehrOrthogonale Matrix. Definition 4.19
Orthogonale Matrix Ausgleichsprobleme sind häufig schlecht konditioniert. Matrix des Normalengleichungssystems kann nahezu singulär sein. Spezielle Matrixzerlegung für höhere numerische Stabilität: QR-Zerlegung
MehrKAPITEL 1. Einleitung
KAPITEL 1 Einleitung Wir beschäftigen uns in dieser Vorlesung mit Verfahren aus der Numerischen linearen Algebra und insbesondere dem sogenannten Mehrgitterverfahren zur Lösung linearer Gleichungssysteme
MehrÜberbestimmte Gleichungssysteme
Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare
MehrBeginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)
M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.
MehrKapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen
Kapitel 2: Lineare Gleichungssysteme 21 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,,255}, n = 1,,N, m = 1,,M dig Camera Realisierung von B η ist
MehrAusgleichsproblem. Definition (1.0.3)
Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst
MehrNumerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren
Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren
MehrSpezielle Matrixformen
Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß
MehrMultiplikationen und Divisionen Hauptarbeit des Algorithmus liegt somit in der Berechnung der LR-Zerlegung. (n 1)n(2n 1) 6. = n3 3 n2.
KAPITEL LINEARE GLEICHUNGSSYSTEME 7 Rechenaufwand der LR-Zerlegung: A A : n Divisionen, n 2 Multiplikationen und Additionen A L, R: Also insgesamt n j= j2 + j = n3 3 n 3 Multiplikationen und Divisionen
MehrLR Zerlegung. Michael Sagraloff
LR Zerlegung Michael Sagraloff Beispiel eines linearen Gleichungssystems in der Ökonomie (Input-Output Analyse Wir nehmen an, dass es 3 Güter G, G, und G 3 gibt Dann entspricht der Eintrag a i,j der sogenannten
Mehr7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012)
Technische Universität München Zentrum Mathematik, M1 Prof. Dr. Boris Vexler Dr. Ira Neitzel Dipl.-Math. Alana Kirchner 7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Diese Auswahl
MehrCramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,...
Cramersche Regel Satz 2.4. Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei A j := (a,...,a j,b,a j+,...,a n ) also die Matrix, die entsteht, wenn in A die j-spalte durch den
Mehr2 Lineare Gleichungssysteme
2 Lineare Gleichungssysteme Wir betrachten das lineare Gleichungssystem Ax = b mit der n n-koeffizientenmatrix A und der rechten Seite b R n. Wir leiten zuerst eine Variante des Gauss-Algorithmus (LR-Zerlegung)
MehrNumerische Methoden I Schriftliche Prüfung Gruppe A 23. Jan :00-14:00 (120 min)
Lehrstuhl für Angewandte Mathematik Montanuniversität Leoben 70 004 Numerische Methoden I Schriftliche Prüfung Gruppe A 23. Jan. 207 2:00-4:00 (20 min) Name Matrikelnummer Mündliche Prüfung: Bitte markieren
MehrBegleitmaterial zur Vorlesung Numerik I
Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik
Mehr8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrIII. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische Iterationsverfahren. III.3 GMRES und CG-Verfahren
III. Iterative Löser III.1 Direkte Löser und ihre Nachteile III.2 Klassische Iterationsverfahren III.3 GMRES und CG-Verfahren Kapitel III (0) 1 Erinnerung: Lineares Gleichungssystem bei FDM Diskretisierung
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
MehrMethode der kleinsten Quadrate
Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,
Mehr6. Vorlesung. Rechnen mit Matrizen.
6. Vorlesung. Rechnen mit Matrizen. In dieser Vorlesung betrachten wir lineare Gleichungs System. Wir betrachten lineare Gleichungs Systeme wieder von zwei Gesichtspunkten her: dem angewandten Gesichtspunkt
MehrNumerische Mathematik für Ingenieure (SoSe 2013)
Numerische Mathematik für Ingenieure (SoSe 2013) PD Dr(USA) Maria Charina Auszüge aus Vorlesungsfolien von Prof Joachim Stöckler werden verwendet Für die Bereitstellung dieses Materials und der Tex-Files
Mehr3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
Mehr5 Numerische Mathematik
6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul
Mehr(d) das zu Grunde liegende Problem gut konditioniert ist.
Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt
Mehr1.4 Stabilität der Gauß-Elimination
KAPIEL 1. LINEARE GLEICHUNGSSYSEME 18 1.4 Stabilität der Gauß-Elimination Bezeichne x die exakte Lösung von Ax = b bzw. ˆx die mit einem (zunächst beliebigen Algorithmus berechnete Näherungslösung (inklusive
MehrNumerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
MehrNumerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen
(für Informatiker) M. Grepl J. Berger & J.T. Frings Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2010/11 Problemstellung Lineare Gleichungssysteme, iterative Verfahren geg.:
Mehr9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrInexakte Newton Verfahren
Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n
MehrMatrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix
Inhaltsverzeichnis Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Auf dieser Seite werden Matrizen und Vektoren fett gedruckt, um sie von Zahlen zu unterscheiden. Betrachtet wird das
MehrBasiswissen Matrizen
Basiswissen Matrizen Mathematik GK 32 Definition (Die Matrix) Eine Matrix A mit m Zeilen und n Spalten heißt m x n Matrix: a a 2 a 4 A a 2 a 22 a 24 a 4 a 42 a 44 Definition 2 (Die Addition von Matrizen)
MehrLinear Systems and Least Squares
Linear Systems and Least Squares Vortragender: Gelin Jiofack Nguedong Betreuer: Prof. Dr. Joachim Weickert Proseminar: Matrixmethoden in Datenanalyse und Mustererkennung Wintersemester 2015/2016 18. November
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme 6. Vorlesung 170004 Numerische Methoden I Clemens Brand 25. März 2010 Nachträge Gliederung Nachträge it Nachträge Wichtige Begriffe Eine Zusammenfassung der Folien 8 16 der letzten
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Mehrd) Produkte orthogonaler Matrizen sind wieder orthogonal.
Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =
MehrLösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016
Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b
MehrLINEARE ALGEBRA II. FÜR PHYSIKER
LINEARE ALGEBRA II FÜR PHYSIKER BÁLINT FARKAS 4 Rechnen mit Matrizen In diesem Kapitel werden wir zunächst die so genannten elementaren Umformungen studieren, die es ermöglichen eine Matrix auf besonders
MehrLineare Algebra. 10. Übungsstunde. Steven Battilana.
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,
MehrLineare Gleichungssysteme und Matrizen
Kapitel 11 Lineare Gleichungssysteme und Matrizen Ein lineares Gleichungssystem (lgs) mit m linearen Gleichungen in den n Unbekannten x 1, x 2,..., x n hat die Gestalt: Mit a 11 x 1 + a 12 x 2 + a 13 x
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 11 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 2010 Prof. Dr. Klaus Höllig
MehrIn diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen.
Kapitel 4 Lineare Gleichungssysteme 4 Problemstellung und Einführung In diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen Lineares Gleichungssystem: Gesucht ist
MehrNumerisches Programmieren, Übungen
Technische Universität München SoSe 3 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Jürgen Bräckle Numerisches Programmieren, Übungen Musterlösung 3. Übungsblatt:
Mehra 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:
Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag
MehrNumerik I. Universität zu Köln SS 2009 Mathematisches Institut Prof. Dr. C. Tischendorf Dr. M. Selva,
Universität zu Köln SS 009 Mathematisches Institut Prof. Dr. C. Tischendorf Dr. M. Selva, mselva@math.uni-koeln.de Numerik I Musterlösung 1. praktische Aufgabe, Bandmatrizen Bei der Diskretisierung von
MehrLineare Algebra und Numerische Mathematik für D-BAUG. Serie 6
R. Hiptmair S. Pintarelli E. Spindler Herbstsemester 2014 Lineare Algebra und Numerische Mathematik für D-BAUG Serie 6 ETH Zürich D-MATH Einleitung. Diese Serie behandelt nochmals das Rechnen mit Vektoren
MehrLineare Algebra. 2. Übungsstunde. Steven Battilana. battilana.uk/teaching
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 6, 017 1 Erinnerung: Lineare Gleichungssysteme LGS Der allgemeine Fall hat m lineare Gleichungen, n
Mehr1 Matrizenrechnung zweiter Teil
MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten
MehrLineare Gleichungssysteme, LR-Zerlegung
Prof Thomas Richter 2 Juni 27 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomasrichter@ovgude Material zur Vorlesung Algorithmische Mathematik II am 22627 Lineare Gleichungssysteme,
MehrAlgorithmik III Algorithmen und Modelle für kontinuierliche Datenstrukturen
Algorithmik III Algorithmen und Modelle für kontinuierliche Datenstrukturen Iterationsverfahren: Konvergenzanalyse und Anwendungen Ulrich Rüde Lehrstuhl für Systemsimulation Sommersemester 2007 U. Rüde,
MehrKLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.
MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,
Mehr8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
Mehr4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung
4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax
MehrNumerische Mathematik für Ingenieure und Physiker
Willi Törnig Peter Spellucci Numerische Mathematik für Ingenieure und Physiker Band 1: Numerische Methoden der Algebra Zweite, überarbeitete und ergänzte Auflage Mit 15 Abbildungen > Springer-Verlag Berlin
MehrMatrizen, Determinanten, lineare Gleichungssysteme
Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n
Mehr3.4 Der Gaußsche Algorithmus
94 34 Der Gaußsche Algorithmus Wir kommen jetzt zur expliziten numerischen Lösung des eingangs als eine Motivierung für die Lineare Algebra angegebenen linearen Gleichungssystems 341 n 1 a ik x k = b i,
MehrLineare Algebra I (WS 12/13)
Lineare Algebra I (WS 12/13) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 18.10.2012 Alexander Lytchak 1 / 12 Lineare Gleichungssysteme Wir untersuchen nun allgemeiner Gleichungssysteme der
Mehrbekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR
LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine
Mehr5 Eigenwerte und die Jordansche Normalform
Mathematik für Ingenieure II, SS 9 Freitag 6 $Id: jordantex,v 7 9/6/ :8:5 hk Exp $ 5 Eigenwerte und die Jordansche Normalform 5 Die Jordansche Normalform Nachdem wir bisher das Vorgehen zur Berechnung
Mehr3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit
3 Lineare Algebra (Teil : Lineare Unabhängigkeit 3. Der Vektorraum R n Die Menge R n aller n-dimensionalen Spalten a reeller Zahlen a,..., a n R bildet bezüglich der Addition a b a + b a + b. +. :=. (53
MehrLineare Gleichungssysteme Hierarchische Matrizen
Kompaktkurs Lineare Gleichungssysteme Hierarchische Matrizen M. Bebendorf, O. Steinbach O. Steinbach Lineare Gleichungssysteme SIMNET Kurs 24. 27.4.26 / 6 Numerische Simulation stationäre und instationäre
MehrBegleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme
Begleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik 1
MehrNichtlineare Gleichungssysteme
Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische
Mehr05. Lineare Gleichungssysteme
05 Lineare Gleichungssysteme Wir betrachten ein System von m Gleichungen in n Unbestimmten (Unbekannten) x 1,, x n von der Form a 11 x 1 + a 12 x 2 + a 13 x 3 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + a
MehrGaußsche Ausgleichsrechnung
Kapitel 6 Gaußsche Ausgleichsrechnung 6. Gaußsche Methode der kleinsten Fehlerquadrate Die Gaußsche Methode der kleinsten Fehlerquadrate wurde 89 von C.F. Gauß in dem Aufsatz Theorie der Bewegung der Himmelkörper
MehrBrückenkurs Mathematik. Mittwoch Freitag
Brückenkurs Mathematik Mittwoch 5.10. - Freitag 14.10.2016 Vorlesung 4 Dreiecke, Vektoren, Matrizen, lineare Gleichungssysteme Kai Rothe Technische Universität Hamburg-Harburg Montag 10.10.2016 0 Brückenkurs
MehrKapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49
Kapitel 2 Matrixalgebra Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49 Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS.
MehrKapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49
Kapitel 2 Matrixalgebra Josef Leydold Mathematik für VW WS 207/8 2 Matrixalgebra / 49 Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS.
MehrMatrixalgebra. Kapitel 2. Ein sehr einfaches Leontief-Modell. Matrix. Ein sehr einfaches Leontief-Modell. Vektor. Spezielle Matrizen I
Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS Kapitel 2 Matrixalgebra Technologiematrix und wöchentliche Nachfrage (in Werteinheiten):
MehrKapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben
Kapitel 16 Aufgaben Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2 Bekanntlich gilt im Allgemeinen
MehrAufgaben zu Kapitel 16
Aufgaben zu Kapitel 16 1 Aufgaben zu Kapitel 16 Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2
Mehr5 Lineare Gleichungssysteme und Determinanten
5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von
MehrNumerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)
MehrKurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen
Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)
MehrWiMa-Praktikum 1. Woche 8
WiMa-Praktikum 1 Universität Ulm, Sommersemester 2017 Woche 8 Lernziele In diesem Praktikum sollen Sie üben und lernen: Besonderheiten der For-Schleife in Matlab Wiederholung des Umgangs mit Matrizen und
MehrLineares Gleichungssystem - Vertiefung
Lineares Gleichungssystem - Vertiefung Die Lösung Linearer Gleichungssysteme ist das "Gauß'sche Eliminationsverfahren" gut geeignet - schon erklärt unter Z02. Alternativ kann mit einem Matrixformalismus
MehrNumerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben
Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Das Nelder Mead Verfahren Sei f : R n R eine (nicht
Mehr3 Lineare Algebra Vektorräume
3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +
Mehr