Institut für Geometrie und Praktische Mathematik Mathematisches Praktikum (MaPra) Wintersemester Aufgabe 4

Größe: px
Ab Seite anzeigen:

Download "Institut für Geometrie und Praktische Mathematik Mathematisches Praktikum (MaPra) Wintersemester Aufgabe 4"

Transkript

1 Rheinisch-Westfälische Technische Hochschule Institut für Geometrie und Praktische Mathematik Mathematisches Praktikum (MaPra) Wintersemester 2007 Prof. Dr. Wolfgang Dahmen Dr. Karl-Heinz Brakhage Aufgabe 4 Bearbeitungszeit: Drei Wochen (Abgabe bis Donnerstag, den 6. Dezember 2007) Bearbeitungshinweis: Es sollen auch eigene Tests erstellt werden. Diese sollen bereits eine Woche vor Abgabefrist vorgeführt werden, um böse Überaschungen zu vermeiden. Mathematischer Hintergrund: Iterative Verfahren für lineare Gleichungssysteme Elemente von C++: Klassen, dynamische Speicherverwaltung, Überladen von Operatoren, Makefiles 20 Punkte Long ago oder: Vor ziemlich genau 184 Jahren C.F.Gauß schrieb in einem Brief vom an Gerling: Ich empfehle Ihnen diesen Modus zur Nachahmung. Schwerlich werden Sie je wieder direct elimineren, wenigstens nicht wenn Sie mehr als 2 Unbekannte haben. Das indirecte Verfahren lässt sich halb im Schlafe ausführen, oder man kann während desselben an andere Dinge denken. Bemerkung: Während seinen Berechnungen stieß Gauß immer wieder auf Gleichungssysteme die zu groß waren, als dass er sie mit der direkten Methode der Gauß-Elimination berechnen konnte. Darum entwickelte er um 1820 das wohl erste Iterationsverfahren: Das Gauß-Seidel Verfahren (auch bekannt als Einzelschrittverfahren). Iterative Verfahren Was ist iteratives Lösen linearer Gleichungssysteme? Iteratives Lösen linearer Gleichungssysteme ist ein Approximationsverfahren zum Bestimmen der Lösung eines Gleichungssystems. Im Gegensatz hierzu stehen die direkten Verfahren zum Lösen linearer Gleichungssysteme (z.b: Gaußsches Eliminationsverfahren). Bei den direkten Verfahren kommt man nach endlich vielen Schritten zur genauen Lösung des Gleichungssystems. Bei den iterativen Verfahren nähert man sich in jedem Schritt der Lösung. Warum iterative Verfahren? In Zeiten ohne Rechner war es so gut wie unmöglich, mit dem direkten Verfahren größere Gleichungssysteme zu lösen, da diese enorm viel Rechenaufwand erfordern. Es war also notwendig, Verfahren zu entwickeln, mit denen man schneller an die Lösung kam. 1

2 Direkte Verfahren sind zwar für jede Dimension anwendbar, der benötigte Rechenaufwand (O(n 3 )) steigt aber mit der Dimension so stark an, dass man zur Lösung von Gleichungssystemen mit 10 5, 10 6 oder noch mehr Unbekannten auch große Rechner gut beschäfftigen kann. Wichtiges Beispiele für das Auftreten großer Gleichungssysteme sind die Diskretiserung partieller Differentialgleichungen, Computertomographie usw. In diesen Fällen sind die Matrizen meist schwach besetzt (d.h sie enthalten viele Nullen), und eignen sich besonders gut zur iterativen Lösung. Vorteile von Iterationsverfahren gegenüber direkter Verfahren Je größer die Dimension des Gleichungssystems, desto schneller ist das Iterationsverfahren (meistens) im Vergleich zu den direkten Verfahren. Schon nach wenigen Schritten erhält man oft eine ziemlich genaue Lösung. Durch die Rundungsfehler im Rechner besonders bei schlecht konditionierten Matrizen liefert das Iterationsverfahren sogar meist genauere Ergebnisse als das direkte Verfahren. Darum wurde auch die Methode der Nachiteration entwickelt (auf das Ergebnis des direkten Verfahrens wird ein iteratives Verfahren angewandt siehe Numerische Analysis). Bei den direkten Verfahren zur Lösung eines linearen Gleichungssystems A x = b wird die Koeffizientenmatrix A im Laufe der Rechnung verändert. Ist die Dimension von A (dünn besetzt) sehr groß, so ist das veränderte A im allgemeinen nicht im Hauptspeicher darstellbar. Direkte Verfahren sind daher oft nicht mehr möglich bzw. es ist ein sehr aufwendiger Datentransfers nötig. Iterative Verfahren veändern die Koeffizientenmatrix nicht, sondern berechnen sukkzessiv Näherungsvektoren für die Lösung und benötigen daher weniger Speicherplatz. Auch der Nachteil iterativer Verfahren soll nicht verschwiegen werden: Man muss prüfen, ob sie konvergieren. Das ist oft nicht ganz einfach. Weiterhin muss man sich ein geeignetes Abbruchkriterium überlegen. Aufgabenstellung endlich Mit Hilfe einer gut konzipierten Library für Matrizen und Vektoren lassen sich iterative Verfahren zur Lösung von linearen Gleichungssystemen mit einem sehr geringen Aufwand an Progammiertätigkeit implementieren. Dies soll mittels der bereits in der Vorbereitung erläuterten Matrix- und Vektorklasse an einigen Beispielen erprobt werden. Ziel ist es, Algorithmen so zu formulieren, dass sie im Wesentlichen mit Matrix-Vektor- Multiplikationen durchführbar sind. Dabei gehen wir aus Zeitgründen nicht auf die Ausnutzung der Struktur der Matrizen (dünn besetzt) ein. Wir merken uns aber, dass dies die Verfahren erst wirklich effektiv macht. Wir wollen hier drei (Pflicht-)Beispiele behandeln. Diese sind 1) Gesamtschrittverfahren das warm up, 2) konjugierte Gradienten das cg-verfahren für positiv definite Matrizen, 3) cgls ein cg-verfahren für lineare Ausgleichsprobleme. Dieses wird z.b. in der Computertomographie eingesetzt. Sie sollten danach in der Lage sein, jederzeit weitere Algorithmen hinzuzufügen. Dies könnte etwa die L-R- Zerlegung sein oder z.b. die ebenfalls in der Numerischen Analysis behandelteq-r-zerlegung. 2

3 Gesamtschrittverfahren (Jacobiverfahren entwickelt 1845 von Carl Gustav Jacobi) Löst man in einem linearen Gleichungssystem (A R n n ) A x = b die i-te Gleichung nach x i auf, so erhält man das Gesamtschrittverfahren. Zerlegt man A in A = A L +D+A R, wobei A L eine strikte untere Dreiecksmatrix und A R eine strikte obere Dreiecksmatrix sind, so lässt sich die so gewonnene Gleichung schreiben als x = D 1 (b (A L + A R )x). Die Multiplikation eines Vektors mit der Inversen einer Diagonalmatrix D bewirkt, dass jede Komponente des Vektors durch das entsprechende Diagonalelement geteilt wird. Weiterhin wird D nicht als Matrix sondern als Vektor d (D = diag{d 1,..., d n }) gespeichert. Die Operation D 1 y lässt sich dann mit dem Operator / als Vektor-Vektor-Operation y/d in der Vektorklasse implementieren. Damit lautet der Algorithmus des Gesamtschrittverfahrens (für A x = b) wie folgt: Zu beliebigem Startvektor x (0) : x (k+1) = (b (A L + A R )x (k) )/d bis stop Bleiben die Fragen, unter welchen Voraussetzungen konvergiert das Verfahren und was heißt stop. Es gibt ein Konvergenzkriterium, das sich auch einfach überprüfen läßt: Satz: Das Gesamtschrittverfahren konvergiert für streng diagonaldominante Matrizen A ( a ii > j i a ij ) für jedem Startwert x (0). Die Iteration soll abgebrochen werden (Bedingung stop), wenn eine maximale Anzahl von Schritten (k max ) überschritten wird bzw. das Residuum kleiner als ein vorgegebenes ε wird. Hier noch einige Hinweise / Bemerkungen: 1. A L + A R speichern wir in A. 2. Es werden nicht alle Iterationsvektoren gespeichert! 3. Das Residuum läßt sich ((b (A L + A R )x (k) ) speichern) einfach beerechnen. 4. Streng genommen müssen wir zwischen Residuenvektor r (k) = b Ax (k) und Residuum r (k) 2 unterscheiden. 5. Ein kleines Residuum bedeutet nicht zwangsweise das Vorliegen einer guten Lösung. 6. Bevor iteriert wird, überprüfen wir, ob das Konvergenzkriterium erfüllt ist. konjugierte Gradienten das cg-verfahren Das Verfahren der konjugierten Gradienten für symmetrisch positiv definite (spd) Matrizen A ist eines der effizientesten Verfahren für lineare Gleichungsysteme A x = b überhaupt. Wir formulieren zunächst den Algorithmus: Für A spd und zu beliebigem Startvektor x (0) : r (0) = b Ax (0), d (0) = r (0) α k = r (k) 2 2 /((Ad(k) )d (k) ) // Ad (k) für später speichern x (k+1) = x (k) + α k d (k) r (k+1) = r (k) α k Ad (k) β k = r (k+1) 2 2 / r(k) 2 2 // r (k+1) 2 2 für später speichern d (k+1) = r (k+1) + β k d (k) 3

4 bis stop Bleiben wieder die Fragen, unter welchen Voraussetzungen konvergiert das Verfahren und was heißt stop. Konvergenzkriterium: Satz: Für A R n n spd findet das cg-verfahren nach höchstens n Schritten die exakte Lösung. Wenn wir also die Eigenschaft spd voraussetzen, konvergiert das Verfahren für jeden beliebigen Startwert. Die Iteration soll wieder abgebrochen werden (Bedingung stop), wenn eine maximale Anzahl von Schritten (k max ) überschritten wird bzw. das Residuum kleiner als ein vorgegebenes ε wird. Hier noch einige Hinweise / Bemerkungen: 1. Für A spd ist x A := x T Ax eine Norm, die sogenannte Energienorm. 2. Der Name konjugierte Gradienten erklärt sich wie folgt: Die Minimierung des quadratischen Funktionals Φ(x) = 1/2 x T Ax x T b führt auf die notwendige Bedingung gradφ(x) = Ax b = 0 (A spd ist dann hinreichend für ein Minimum). Wenn man Φ(x) nun schrittweise mittels des Ansatzes x (k+1) = x (k) + α k d (k) minimiert, so sind mit obiger Wahl die d (k) bzgl. A konjugiert, d.h.: (d (k+1) ) T Ad (k) = 0. Ein cg-verfahren für lineare Ausgleichsprobleme cgls Zu dem linearen Ausgleichsproblem Ax b 2 min gehört bekanntlich (Numerische Analysis) das Normalgleichungssystem A T Ax = A T b mit der hat A vollen Rang spd Matrix A T A. Leider ist A T A meist schlecht konditioniert und für dünnbesetzte A s ist A T A meist nicht mehr dünn besetzt. Das Verfahren der konjugierten Gradienten kann aber so umformuliert werden, dass beide Probleme umgangen werden. Wir benutzen zwei Residuen(vektoren): r (k) = b Ax (k) und s (k) = A T b A T Ax (k) = A T r (k). Da wir in unseren Klassen nicht zwischen Zeilen- und Spaltenvektoren unterscheiden, können wir in der Implementierung statt A T r (k) auch r (k) A benutzen. Damit lässt sich der Algorithmus wie folgt formulieren: Für A R m n mit vollem Rang und zu beliebigem Startvektor x (0) : r (0) = b Ax (0) s (0) = A T r (0) d (0) = s (0) α k = s (k) 2 2 / Ad(k) 2 2 // Ad (k) für später speichern x (k+1) = x (k) + α k d (k) r (k+1) = r (k) α k Ad (k) s (k+1) = A T r (k+1) β k = s (k+1) 2 2 / s(k) 2 2 d (k+1) = s (k+1) + β k d (k) bis stop Das stop Kriterium wählen wir wie beim cg-verfahren maximale Anzahl von Schritten oder Residuum unter einer vorgegeben Schranke ε ( s (k) 2 ε). What to do Im Lastenheft (s.u.) steht diesmal, dass Sie sich selbst zunächst geeignete Tests und Testbeispiele überlegen müssen. Dies muss im Pflichtenheft (s.u.) abgearbeitet werden, D.h.: Sie müssen die Tests und Testbeispiele erstellen und diese auch (mit Begründung der Auswahl) dokumentieren. In der Praxis ist dies meistens ein entscheidender Schritt zum Erfolg, denn normalerweise hat man ja kein programmiertes Referenzverfahren, das die eigenen Ergebnisse testet. Sie sollten Ihre Programmiertätigkeit soweit vorantreiben, dass Sie die 4

5 eigenen Tests nach zwei Wochen abschließen und vorführen. In der letzten Bearbeitungswoche sollen dann Tests mit von uns gestellten Beispielen durchgeführt werden. Um dies ohne große Umstellung bewerkstelligen zu können, sind ein paar Grundsätze zu beachten. Da wir nur ein einheitliches stop-kriterium vorgegeben haben, können alle drei Verfahren folgendermaßen implementiert werden int gsv ( Matrix &A, const Vektor &b, Vektor &x0, int k max, double &eps ); int cg ( Matrix &A, const Vektor &b, Vektor &x0, int k max, double &eps ); int cgls ( Matrix &A, const Vektor &b, Vektor &x0, int k max, double &eps ); A darf (Gesamtschrittverfahren) modifiziert werden, muss aber beim Verlassen der Funktion (Unterprogramm) wieder wie beim Eingang besetzt sein. Es brauchen und sollen auch keine weiteren Matrizen und/oder arrays von Vektoren angelegt werden. Ist die Dimension des Vektors x0 1, so soll das Unterprogramm selbst einen Startvektor bestimmen. Beim Aufruf steht in eps die gewünschte Genauigkeit (Residuum). Beim Rücksprung soll eps die erreichte Genauigkeit enthalten. Der Rückgabewert der Funktion ist die Anzahl der durchgeführten Schritte (falls >0) bzw. ein Fehlercode. Dabei sollen folgende Fehler berücksichtigt werden. 0: k max Iterationen erreicht (auch in diesem Fall soll aber eps die erreichte Genauigkeit enthalten); -1: Voraussetzung nicht erfüllt (gsv: A nicht diagonaldominant, cg: A nicht symmetrisch, cgls: m<n); -2: Dimensionen von A, b und x0 passen nicht zusammen. Medizinische Anwendungen Zum Abschluss noch einige Worte Zur Anwendung bei der Computertomographie. Eine gute Übersicht findet sich in dem auf der Web-Seite aufliegenden Artikel Mathematik fürs Leben am Beispiel der Computertomographie. Hier nur soviel: Ein Scan mit Bildpunkten führt (in jeder Schicht!!) auf Unbekannte. Da das System überbestimmt sein muss, hat man ca Gleichungen. cgls braucht dafür nur ca Iterationen, um akzeptable Lösung zu bekommen. Die Kernspin-Tomographie, auch Magnet-Resonanz-Tomographie (MRT) genannt, ist eine diagnostische Technik zur Darstellung der inneren Organe und Gewebe mit Hilfe von Magnetfeldern und Radiowellen. Das technische Prinzip wurde 1946 von Bloch und Purcell unabhängig voneinander entdeckt und bald in Physik und Chemie angewandt erhielten die beiden Wissenschaftler den Nobelpreis (in Physik) für ihre Entdeckung. Die Weiterentwicklung zu einer Technik in der Medizin, mit Hilfe derer Bilder erzeugt werden können, wurde im wesentlichen durch Lauterbur (Chemiker) und Mansfield (Physiker) im Jahr 1973 vorangetrieben. Dafür bekamen sie 2003 den Nobelpreis für Medizin. Praktisch verfügbar ist das Verfahren seit Lastenheft Der Auftraggeber erstellt das Lastenheft. Nach der DIN enthält es die Gesamtheit der Forderungen an die Lieferungen und Leistungen eines Auftragnehmers. Zugleich dient das Lastenheft auch als Grundlage beim Einholen von Angeboten. Konkret umfasst ein solches Heft die technischen und inhaltlichen Vorgaben, die an die Software gestellt werden. Auch ein Web-Projekt lässt sich als Software-Projekt begreifen (und da es Software-Projekte schon seit den 60er Jahren gibt, kann die geballte Praxis-Erfahrung auch dem Web-Projektmanagement nicht schaden). Pflichtenheft Dienstleister erstellen ein Pflichtenheft. Es enthält nach DIN die vom Auftragnehmer erarbeiteten Realisierungsvorgaben und beschreibt die Umsetzung des vom Auftraggeber vorgegebenen Lastenhefts. Das Pflichtenheft bildet die Basis für die vertraglich festgehaltenen Leistungen des Auftragnehmers. Dienstleister und Kunden legen sich fest und sichern sich ab. Kein Dienstleister kann mehr sagen, dies und das sei nicht eingeplant gewesen - und der Kunde kann nicht einfach Forderungen nachlegen. 5

Iterative Lösung Linearer Gleichungssysteme

Iterative Lösung Linearer Gleichungssysteme Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:

Mehr

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische lineare Iterationsverfahren

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische lineare Iterationsverfahren III. Iterative Löser III.1 Direkte Löser und ihre Nachteile III.2 Klassische lineare Iterationsverfahren Typeset by FoilTEX 1 Erinnerung: Lineares Gleichungssystem bei FDM Diskretisierung einer linearen

Mehr

Institut für Geometrie und Praktische Mathematik Mathematisches Praktikum (MaPra) Sommersemester Aufgabe 5

Institut für Geometrie und Praktische Mathematik Mathematisches Praktikum (MaPra) Sommersemester Aufgabe 5 Rheinisch-Westfälische Technische Hochschule Institut für Geometrie und Praktische Mathematik Mathematisches Praktikum (MaPra) Sommersemester 2009 Prof. Dr. Wolfgang Dahmen Dipl.-Math. Dipl.-Phys. Kolja

Mehr

38 Iterative Verfahren für lineare Gleichungssysteme

38 Iterative Verfahren für lineare Gleichungssysteme 38 Iterative Verfahren für lineare Gleichungssysteme 38.1 Motivation Viele praktische Probleme führen auf sehr große lineare Gleichungssysteme, bei denen die Systemmatrix dünn besetzt ist, d. h. nur wenige

Mehr

Lineare Iterationsverfahren: Definitionen

Lineare Iterationsverfahren: Definitionen Lineare Iterationsverfahren: Definitionen 1. Ein Lösungsverfahren zur Berechnung von Ax = b heißt iterativ, falls ausgehend von einem Startwert x eine Folge x k von Iterierten bestimmt wird. 2. Ein Iterationsverfahren

Mehr

Lineare Gleichungssysteme: direkte Verfahren

Lineare Gleichungssysteme: direkte Verfahren Sechste Vorlesung, 24. April 2008, Inhalt Lineare Gleichungssysteme: direkte Verfahren Dreiecksmatrizen Gauß-Elimination LR-Zerlegung Anwendungen: Determinante, Inverse 1 Lösungsverfahren für lineare Gleichungssysteme

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung

Mehr

Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf

Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf Praktikum im Sommersemester 2012 Programmierpraktikum numerische Algorithmen (P2E1) (Numerische Lösung der Wärmeleitungsgleichung)

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

9 Lineare Gleichungssysteme

9 Lineare Gleichungssysteme 9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der

Mehr

Finite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015

Finite Elemente. Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 2015 Dr. S.-J. Kimmerle Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Wintertrimester 5 Aufgabe 8 (Speichertechniken) Finite Elemente Übung 5 a) Stellen Sie die Matrix

Mehr

3. Lineare Gleichungssysteme

3. Lineare Gleichungssysteme 3. Lineare Gleichungssysteme 1 3.1. Problemstellung 2 3.2. Direkte Verfahren 3 3.3. Normen und Fehleranalyse 4 3.4. Iterative Verfahren 5 3.5. Konvergenz von linearen Iterationsverfahren 6 3.6. Gradienten-Verfahren

Mehr

Einführung in die numerische Mathematik

Einführung in die numerische Mathematik Prof. Dr. M. Günther K. Gausling, M.Sc. C. Hendricks, M.Sc. Sommersemester 204 Bergische Universität Wuppertal Fachbereich C Mathematik und Naturwissenschaften Angewandte Mathematik / Numerische Analysis

Mehr

Wirtschaftsmathematik Plus für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik Plus für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik Plus für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2012/13 Hochschule Augsburg Lineare : Einführung Beispiele linearer a) b) c) 2x 1 3x 2 = 1 x 1 +

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der

Mehr

Erweiterungen der LR-Zerlegung

Erweiterungen der LR-Zerlegung Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen

Mehr

7. Iterative Lösung. linearer Gleichungssysteme

7. Iterative Lösung. linearer Gleichungssysteme 7. Iterative Lösung linearer Gleichungssysteme 1 Grundlagen (1) Zur Erinnerung: Gesucht ist die Lösung eines linearen Gleichungssystems a 0,0 x 0 +a 0,1 x 1 + a 0,n 1 x n 1 = b 0 a 1,0 x 0 +a 1,1 x 1 +

Mehr

Matrizenoperationen mit FORTRAN

Matrizenoperationen mit FORTRAN Kapitel 2 Matrizenoperationen mit FORTRAN 21 Grundlagen Bei vielen Anwendungen müssen große zusammenhängende Datenmengen gespeichert und verarbeitet werden Deshalb ist es sinnvoll, diese Daten nicht als

Mehr

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,

Mehr

Orthogonale Matrix. Definition 4.19

Orthogonale Matrix. Definition 4.19 Orthogonale Matrix Ausgleichsprobleme sind häufig schlecht konditioniert. Matrix des Normalengleichungssystems kann nahezu singulär sein. Spezielle Matrixzerlegung für höhere numerische Stabilität: QR-Zerlegung

Mehr

KAPITEL 1. Einleitung

KAPITEL 1. Einleitung KAPITEL 1 Einleitung Wir beschäftigen uns in dieser Vorlesung mit Verfahren aus der Numerischen linearen Algebra und insbesondere dem sogenannten Mehrgitterverfahren zur Lösung linearer Gleichungssysteme

Mehr

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 21 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,,255}, n = 1,,N, m = 1,,M dig Camera Realisierung von B η ist

Mehr

Ausgleichsproblem. Definition (1.0.3)

Ausgleichsproblem. Definition (1.0.3) Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst

Mehr

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

Multiplikationen und Divisionen Hauptarbeit des Algorithmus liegt somit in der Berechnung der LR-Zerlegung. (n 1)n(2n 1) 6. = n3 3 n2.

Multiplikationen und Divisionen Hauptarbeit des Algorithmus liegt somit in der Berechnung der LR-Zerlegung. (n 1)n(2n 1) 6. = n3 3 n2. KAPITEL LINEARE GLEICHUNGSSYSTEME 7 Rechenaufwand der LR-Zerlegung: A A : n Divisionen, n 2 Multiplikationen und Additionen A L, R: Also insgesamt n j= j2 + j = n3 3 n 3 Multiplikationen und Divisionen

Mehr

LR Zerlegung. Michael Sagraloff

LR Zerlegung. Michael Sagraloff LR Zerlegung Michael Sagraloff Beispiel eines linearen Gleichungssystems in der Ökonomie (Input-Output Analyse Wir nehmen an, dass es 3 Güter G, G, und G 3 gibt Dann entspricht der Eintrag a i,j der sogenannten

Mehr

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012)

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Technische Universität München Zentrum Mathematik, M1 Prof. Dr. Boris Vexler Dr. Ira Neitzel Dipl.-Math. Alana Kirchner 7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Diese Auswahl

Mehr

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,...

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,... Cramersche Regel Satz 2.4. Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei A j := (a,...,a j,b,a j+,...,a n ) also die Matrix, die entsteht, wenn in A die j-spalte durch den

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme 2 Lineare Gleichungssysteme Wir betrachten das lineare Gleichungssystem Ax = b mit der n n-koeffizientenmatrix A und der rechten Seite b R n. Wir leiten zuerst eine Variante des Gauss-Algorithmus (LR-Zerlegung)

Mehr

Numerische Methoden I Schriftliche Prüfung Gruppe A 23. Jan :00-14:00 (120 min)

Numerische Methoden I Schriftliche Prüfung Gruppe A 23. Jan :00-14:00 (120 min) Lehrstuhl für Angewandte Mathematik Montanuniversität Leoben 70 004 Numerische Methoden I Schriftliche Prüfung Gruppe A 23. Jan. 207 2:00-4:00 (20 min) Name Matrikelnummer Mündliche Prüfung: Bitte markieren

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische Iterationsverfahren. III.3 GMRES und CG-Verfahren

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische Iterationsverfahren. III.3 GMRES und CG-Verfahren III. Iterative Löser III.1 Direkte Löser und ihre Nachteile III.2 Klassische Iterationsverfahren III.3 GMRES und CG-Verfahren Kapitel III (0) 1 Erinnerung: Lineares Gleichungssystem bei FDM Diskretisierung

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,

Mehr

6. Vorlesung. Rechnen mit Matrizen.

6. Vorlesung. Rechnen mit Matrizen. 6. Vorlesung. Rechnen mit Matrizen. In dieser Vorlesung betrachten wir lineare Gleichungs System. Wir betrachten lineare Gleichungs Systeme wieder von zwei Gesichtspunkten her: dem angewandten Gesichtspunkt

Mehr

Numerische Mathematik für Ingenieure (SoSe 2013)

Numerische Mathematik für Ingenieure (SoSe 2013) Numerische Mathematik für Ingenieure (SoSe 2013) PD Dr(USA) Maria Charina Auszüge aus Vorlesungsfolien von Prof Joachim Stöckler werden verwendet Für die Bereitstellung dieses Materials und der Tex-Files

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

5 Numerische Mathematik

5 Numerische Mathematik 6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul

Mehr

(d) das zu Grunde liegende Problem gut konditioniert ist.

(d) das zu Grunde liegende Problem gut konditioniert ist. Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt

Mehr

1.4 Stabilität der Gauß-Elimination

1.4 Stabilität der Gauß-Elimination KAPIEL 1. LINEARE GLEICHUNGSSYSEME 18 1.4 Stabilität der Gauß-Elimination Bezeichne x die exakte Lösung von Ax = b bzw. ˆx die mit einem (zunächst beliebigen Algorithmus berechnete Näherungslösung (inklusive

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl J. Berger & J.T. Frings. Institut für Geometrie und Praktische Mathematik RWTH Aachen (für Informatiker) M. Grepl J. Berger & J.T. Frings Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2010/11 Problemstellung Lineare Gleichungssysteme, iterative Verfahren geg.:

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Inhaltsverzeichnis Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Auf dieser Seite werden Matrizen und Vektoren fett gedruckt, um sie von Zahlen zu unterscheiden. Betrachtet wird das

Mehr

Basiswissen Matrizen

Basiswissen Matrizen Basiswissen Matrizen Mathematik GK 32 Definition (Die Matrix) Eine Matrix A mit m Zeilen und n Spalten heißt m x n Matrix: a a 2 a 4 A a 2 a 22 a 24 a 4 a 42 a 44 Definition 2 (Die Addition von Matrizen)

Mehr

Linear Systems and Least Squares

Linear Systems and Least Squares Linear Systems and Least Squares Vortragender: Gelin Jiofack Nguedong Betreuer: Prof. Dr. Joachim Weickert Proseminar: Matrixmethoden in Datenanalyse und Mustererkennung Wintersemester 2015/2016 18. November

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 6. Vorlesung 170004 Numerische Methoden I Clemens Brand 25. März 2010 Nachträge Gliederung Nachträge it Nachträge Wichtige Begriffe Eine Zusammenfassung der Folien 8 16 der letzten

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

d) Produkte orthogonaler Matrizen sind wieder orthogonal.

d) Produkte orthogonaler Matrizen sind wieder orthogonal. Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =

Mehr

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016 Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b

Mehr

LINEARE ALGEBRA II. FÜR PHYSIKER

LINEARE ALGEBRA II. FÜR PHYSIKER LINEARE ALGEBRA II FÜR PHYSIKER BÁLINT FARKAS 4 Rechnen mit Matrizen In diesem Kapitel werden wir zunächst die so genannten elementaren Umformungen studieren, die es ermöglichen eine Matrix auf besonders

Mehr

Lineare Algebra. 10. Übungsstunde. Steven Battilana.

Lineare Algebra. 10. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,

Mehr

Lineare Gleichungssysteme und Matrizen

Lineare Gleichungssysteme und Matrizen Kapitel 11 Lineare Gleichungssysteme und Matrizen Ein lineares Gleichungssystem (lgs) mit m linearen Gleichungen in den n Unbekannten x 1, x 2,..., x n hat die Gestalt: Mit a 11 x 1 + a 12 x 2 + a 13 x

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 11 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 2010 Prof. Dr. Klaus Höllig

Mehr

In diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen.

In diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen. Kapitel 4 Lineare Gleichungssysteme 4 Problemstellung und Einführung In diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen Lineares Gleichungssystem: Gesucht ist

Mehr

Numerisches Programmieren, Übungen

Numerisches Programmieren, Übungen Technische Universität München SoSe 3 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Jürgen Bräckle Numerisches Programmieren, Übungen Musterlösung 3. Übungsblatt:

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

Numerik I. Universität zu Köln SS 2009 Mathematisches Institut Prof. Dr. C. Tischendorf Dr. M. Selva,

Numerik I. Universität zu Köln SS 2009 Mathematisches Institut Prof. Dr. C. Tischendorf Dr. M. Selva, Universität zu Köln SS 009 Mathematisches Institut Prof. Dr. C. Tischendorf Dr. M. Selva, mselva@math.uni-koeln.de Numerik I Musterlösung 1. praktische Aufgabe, Bandmatrizen Bei der Diskretisierung von

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG. Serie 6

Lineare Algebra und Numerische Mathematik für D-BAUG. Serie 6 R. Hiptmair S. Pintarelli E. Spindler Herbstsemester 2014 Lineare Algebra und Numerische Mathematik für D-BAUG Serie 6 ETH Zürich D-MATH Einleitung. Diese Serie behandelt nochmals das Rechnen mit Vektoren

Mehr

Lineare Algebra. 2. Übungsstunde. Steven Battilana. battilana.uk/teaching

Lineare Algebra. 2. Übungsstunde. Steven Battilana. battilana.uk/teaching Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 6, 017 1 Erinnerung: Lineare Gleichungssysteme LGS Der allgemeine Fall hat m lineare Gleichungen, n

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

Lineare Gleichungssysteme, LR-Zerlegung

Lineare Gleichungssysteme, LR-Zerlegung Prof Thomas Richter 2 Juni 27 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomasrichter@ovgude Material zur Vorlesung Algorithmische Mathematik II am 22627 Lineare Gleichungssysteme,

Mehr

Algorithmik III Algorithmen und Modelle für kontinuierliche Datenstrukturen

Algorithmik III Algorithmen und Modelle für kontinuierliche Datenstrukturen Algorithmik III Algorithmen und Modelle für kontinuierliche Datenstrukturen Iterationsverfahren: Konvergenzanalyse und Anwendungen Ulrich Rüde Lehrstuhl für Systemsimulation Sommersemester 2007 U. Rüde,

Mehr

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2. MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

Numerische Mathematik für Ingenieure und Physiker

Numerische Mathematik für Ingenieure und Physiker Willi Törnig Peter Spellucci Numerische Mathematik für Ingenieure und Physiker Band 1: Numerische Methoden der Algebra Zweite, überarbeitete und ergänzte Auflage Mit 15 Abbildungen > Springer-Verlag Berlin

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

3.4 Der Gaußsche Algorithmus

3.4 Der Gaußsche Algorithmus 94 34 Der Gaußsche Algorithmus Wir kommen jetzt zur expliziten numerischen Lösung des eingangs als eine Motivierung für die Lineare Algebra angegebenen linearen Gleichungssystems 341 n 1 a ik x k = b i,

Mehr

Lineare Algebra I (WS 12/13)

Lineare Algebra I (WS 12/13) Lineare Algebra I (WS 12/13) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 18.10.2012 Alexander Lytchak 1 / 12 Lineare Gleichungssysteme Wir untersuchen nun allgemeiner Gleichungssysteme der

Mehr

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Ingenieure II, SS 9 Freitag 6 $Id: jordantex,v 7 9/6/ :8:5 hk Exp $ 5 Eigenwerte und die Jordansche Normalform 5 Die Jordansche Normalform Nachdem wir bisher das Vorgehen zur Berechnung

Mehr

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit 3 Lineare Algebra (Teil : Lineare Unabhängigkeit 3. Der Vektorraum R n Die Menge R n aller n-dimensionalen Spalten a reeller Zahlen a,..., a n R bildet bezüglich der Addition a b a + b a + b. +. :=. (53

Mehr

Lineare Gleichungssysteme Hierarchische Matrizen

Lineare Gleichungssysteme Hierarchische Matrizen Kompaktkurs Lineare Gleichungssysteme Hierarchische Matrizen M. Bebendorf, O. Steinbach O. Steinbach Lineare Gleichungssysteme SIMNET Kurs 24. 27.4.26 / 6 Numerische Simulation stationäre und instationäre

Mehr

Begleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme

Begleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme Begleitmaterial zur Vorlesung Numerik linearer Gleichungssysteme Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik 1

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische

Mehr

05. Lineare Gleichungssysteme

05. Lineare Gleichungssysteme 05 Lineare Gleichungssysteme Wir betrachten ein System von m Gleichungen in n Unbestimmten (Unbekannten) x 1,, x n von der Form a 11 x 1 + a 12 x 2 + a 13 x 3 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + a

Mehr

Gaußsche Ausgleichsrechnung

Gaußsche Ausgleichsrechnung Kapitel 6 Gaußsche Ausgleichsrechnung 6. Gaußsche Methode der kleinsten Fehlerquadrate Die Gaußsche Methode der kleinsten Fehlerquadrate wurde 89 von C.F. Gauß in dem Aufsatz Theorie der Bewegung der Himmelkörper

Mehr

Brückenkurs Mathematik. Mittwoch Freitag

Brückenkurs Mathematik. Mittwoch Freitag Brückenkurs Mathematik Mittwoch 5.10. - Freitag 14.10.2016 Vorlesung 4 Dreiecke, Vektoren, Matrizen, lineare Gleichungssysteme Kai Rothe Technische Universität Hamburg-Harburg Montag 10.10.2016 0 Brückenkurs

Mehr

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49 Kapitel 2 Matrixalgebra Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49 Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS.

Mehr

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49 Kapitel 2 Matrixalgebra Josef Leydold Mathematik für VW WS 207/8 2 Matrixalgebra / 49 Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS.

Mehr

Matrixalgebra. Kapitel 2. Ein sehr einfaches Leontief-Modell. Matrix. Ein sehr einfaches Leontief-Modell. Vektor. Spezielle Matrizen I

Matrixalgebra. Kapitel 2. Ein sehr einfaches Leontief-Modell. Matrix. Ein sehr einfaches Leontief-Modell. Vektor. Spezielle Matrizen I Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS Kapitel 2 Matrixalgebra Technologiematrix und wöchentliche Nachfrage (in Werteinheiten):

Mehr

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben Kapitel 16 Aufgaben Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2 Bekanntlich gilt im Allgemeinen

Mehr

Aufgaben zu Kapitel 16

Aufgaben zu Kapitel 16 Aufgaben zu Kapitel 16 1 Aufgaben zu Kapitel 16 Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2

Mehr

5 Lineare Gleichungssysteme und Determinanten

5 Lineare Gleichungssysteme und Determinanten 5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)

Mehr

WiMa-Praktikum 1. Woche 8

WiMa-Praktikum 1. Woche 8 WiMa-Praktikum 1 Universität Ulm, Sommersemester 2017 Woche 8 Lernziele In diesem Praktikum sollen Sie üben und lernen: Besonderheiten der For-Schleife in Matlab Wiederholung des Umgangs mit Matrizen und

Mehr

Lineares Gleichungssystem - Vertiefung

Lineares Gleichungssystem - Vertiefung Lineares Gleichungssystem - Vertiefung Die Lösung Linearer Gleichungssysteme ist das "Gauß'sche Eliminationsverfahren" gut geeignet - schon erklärt unter Z02. Alternativ kann mit einem Matrixformalismus

Mehr

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Das Nelder Mead Verfahren Sei f : R n R eine (nicht

Mehr

3 Lineare Algebra Vektorräume

3 Lineare Algebra Vektorräume 3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +

Mehr