Allgemeine numerische Methoden

Größe: px
Ab Seite anzeigen:

Download "Allgemeine numerische Methoden"

Transkript

1 Allgemeine numerische Methoden Dr.-Ing. Jens Uwe Böhrnsen INSTITUT FÜR ANGEWANDTE MECHANIK Technische Universität Braunschweig Spielmannstraße 3806 Braunschweig Autor Prof. Dr.-Ing. Martin Schanz TECHNISCHE UNIVERSITÄT GRAZ Institut für Baumechanik Technikerstraße Graz, Österreich April 00

2

3 Vorwort Dieses Skript zur Vorlesung Allgemeine numerische Methoden richtet sich an Studenteninnen und Studenten des Bauwesens und des Maschinenbaus im Masterstudium. Im Ingenieurwesen werden in zunehmender Weise numerische Methoden eingesetzt, um physikalische Modelle zu simulieren. Die Anwendung numerischer Verfahren ohne Kenntnisse der Algorithmen, sozusagen als Black Box angewandt, führt oft auf fehlerhafte Ergebnisse. Daher soll hier eine Einführung in eine Reihe von grundlegenden numerischen Verfahren und ihre Eigenschaften gegeben werden. Ausgewählt wurden Verfahren, die insbesondere in der Mechanik benötigt werden, jedoch auch in anderen Fachgebieten zum Einsatz kommen. Das erste Kapitel beschäftigt sich mit der Lösung von linearen Gleichungssystemen, welche immer auftreten, wenn ein System durch mehr als eine Unbekannte beschreibbar ist. Es werden hier sowohl direkte, als auch iterative Gleichungslöser vorgestellt. Im nächsten Kapitel wird die Interpolation besprochen, die nicht nur zur Erstellung von Kurven durch gegebene Punkte benötigt wird, sondern auch Grundlage für einige der nachfolgenden Verfahren bildet. So basieren die numerischen Integrationsformeln, welche im dritten Kapitel vorgestellt werden, auf einer Polynominterpolation des Integranden. In diesem Kapitel werden auch die weit verbreiteten Gaußschen Quadraturformeln eingeführt. Wurde zu Beginn die Lösung von algebraischen Gleichungssystemen behandelt, so folgt im vierten Kapitel nun die numerische Lösung von Differentialgleichungssystemen. Den Abschluß bilden Verfahren zur Lösung von nichtlinearen Gleichungen. Aufbauend auf mathematischen Kenntnissen, wie sie im Vordiplom vermittelt werden, werden die ausgewählten Algorithmen hergeleitet und an Beispielen erläutert. Auf Beweise wurde aus Gründen der Übersichtlichkeit bewußt verzichtet. Dennoch werden an einigen Stellen Begriffe aus der Funktionalanalysis benötigt, die im Anhang kurz dargestellt sind, so daß ein Studium entsprechender Lehrbücher der Funktionalanalysis zum Verständnis nicht erforderlich ist. Da die Methoden im Vordergrund stehen, und nicht die Implementierung auf dem Computer, werden keine Kenntnisse einer speziellen Programmiersprache vorausgesetzt. Selbstverständlich erleichtert eine gewisse Erfahrung mit einer Programmiersprache das Verständnis, aber auch ein Leser ohne Kenntnisse der EDV kann dem Vorlesungsstoff folgen. Die im folgenden vorgestellten Beispiele, die mit dem Computer gelöst wurden, sind als C++ Programm-Code auf unserem Web-Server per http verfügbar. Als begleitende Literatur sind die Bücher von SCHWARZ [8], von HERRMANNN [5, 6], von SCHWETLICK,KRETSCHMAR [9] und von STOER, BULIRSCH [0, ] zu empfehlen. Dabei sind die beiden Bände von HERRMANN als Aufgabensammlung mit kurzen und prägnanten Zusammenfassungen der Theorie und die beiden Bände von STOER,BULIRSCH als mathema-

4 tische Grundlage hervorzuheben. Da der computerorientierte Aspekt der Numerik hier eine nur untergeordnete Rolle spielt, sollten die Bücher von ÜBERHUBER [4, 5] nicht unerwähnt bleiben. In diesen zwei Bänden wird u.a. die Implementierung von Algorithmen auf dem Computer und die Hintergründe einer effizienten Programmierung ausführlich behandelt. Weiterhin ist dort eine sehr umfangreiche Sammlung von Hinweisen auf sowohl kommerzielle, als auch frei verfügbare numerische Software zu finden. Abschließend hoffe ich, mit diesem Inhalt dem Leser eine Einführung in die Numerik und ein Gefühl für die Problematik der Numerik vermitteln zu können. Braunschweig, im Frühjahr 00 Jens Uwe Böhrnsen

5 Inhaltsverzeichnis Lineare Gleichungssysteme. Matrixeigenschaften und Fehlerabschätzungen Matrixeigenschaften Fehlerabschätzung Gaußscher Algorithmus LU-Zerlegung Cholesky-Zerlegung Tridiagonale Gleichungssysteme Iterative Gleichungslöser Jacobi- und Gauß-Seidel-Verfahren Relaxationsverfahren Interpolation. Lagrange-Interpolation Newton-Interpolation Hermite-Interpolation Fehlerabschätzung bei Polynominterpolation Spline-Interpolation B-Splines Integration und Differentiation Interpolatorische Quadraturformeln Gaußsche Quadraturformeln Numerische Differentiation Gewöhnliche Differentialgleichungen Einschrittverfahren Einige einfache Verfahren Konsistenz und Konvergenz von Einschrittverfahren Runge-Kutta-Verfahren Lineare Mehrschrittverfahren Konsistenz von Mehrschrittverfahren Einige gebräuchliche Verfahren i

6 4..3 Nullstabilität und Konvergenz Nichtlineare Gleichungen Konvergenz von Iterationsverfahren Skalare Gleichungen Bisektions-Verfahren Newton-Verfahren Sekanten-Verfahren Systeme nichtlinearer Gleichungen Newton-Verfahren A Mathematik 97 A. Normen A. Legendre-Polynome A.3 Die Taylor-Reihe B Aufgaben 0 ii

7 Kapitel Lineare Gleichungssysteme Die Lösung linearer Gleichungssysteme spielt in der Numerik eine zentrale Rolle, da viele Probleme der angewandten Mathematik auf diese Aufgabe zurückgeführt werden. Es münden die meisten Diskretisierungsverfahren wie z.b. die Finite Element oder Finite Differenzen Methode in ein lineares Gleichungssystem. Ein lineares Gleichungssystem besteht meistens nur solche sollen hier betrachtet werden aus n linearen Gleichungen für n Unbekannte. Es kann also in der Form a x + a x a n x n = b a x + a x a n x n = b.. a n x + a n x a nn x n = b n (.) oder in Matrixschreibweise a... a n x b Ax = b mit A =.. x =. b =. (.) a n... a nn x n b n dargestellt werden. Da genau so viel Unbekannte x i wie Gleichungen existieren, ist die Matrix A ein quadratische (n n) Matrix. Weiterhin soll vorausgesetzt werden, daß A regulär ist, also det A 0 gilt. Diese Voraussetzung sichert die Existenz einer Lösung des Gleichungssystems (.). Das Lösen solcher Systeme erfolgt bei direkten Gleichungslösern häufig auf der Basis des Gaußschen Algorithmus, welcher die Matrix A in eine Rechtsdreiecksmatrix umformt, und dann durch sogenanntes Rückwärtseinsetzen die Lösung berechnet. Eine andere Möglichkeit das Gleichungssystem zu lösen, ist die Anwendung iterativer Verfahren, die sich, ausgehend von einem Startvektor, an die tatsächliche Lösung heraniterieren. Ob tatsächlich die richtige Lösung berechnet wird, hängt bei beiden Möglichkeiten entschieden von gewissen Eigenschaften der Matrix A ab. Daher werden hier zuerst einige Begriffe aus der linearen Algebra eingeführt.

8 . Matrixeigenschaften und Fehlerabschätzungen Lineare Gleichungssysteme. Matrixeigenschaften und Fehlerabschätzungen.. Matrixeigenschaften Diagonal dominante Matrix Eine für die Gleichungslösung sehr angenehme Eigenschaft der Matrix A ist die Dominanz der Diagonalelemente. Dies ist wie folgt definiert: Diagonal Dominanz Eine Matrix A heißt diagonal dominant, falls in jeder Zeile der Betrag des Diagonalelementes größer ist als die Summe der Beträge der übrigen Matrixelemente derselben Zeile. Es gilt also a ii > n k= k i a ik, i =,,...,n. (.3) Gleichungssysteme, die mit solchen Matrizen beschrieben werden, haben sehr gutmütige Lösungseigenschaften. Ein Beispiel für eine diagonal dominante Matrix ist: 5 A = 0 3 (.4) 0 Positiv definite Matrix Eine in der Praxis sehr oft erfüllte, und sehr nützliche, Eigenschaft der Matrix A ist die positive Definitheit. Positiv Definite Matrizen werden z.b. bei der Finiten Element Methode erzeugt. Diese Eigenschaft ist folgendermaßen definiert: Positive Definitheit Eine (n n) Matrix A heißt positiv definit, wenn gilt: i) A ist symmetrisch, d.h. A T = A ii) x T Ax > 0 für alle x R n und x 0 Ist oben im Punkt ii) das > Zeichen nicht erfüllt, sondern nur ein, dann spricht man von einer semi definiten Matrix, und falls ein < Zeichen gilt, heißt die Matrix negativ definit. Es gilt der Zusammenhang: wenn A positiv definit ist, dann ist A negativ definit. (Anmerkung: Es gibt auch Definitionen der positiven Definitheit, bei denen die Symmetrie der Matrix A nicht Voraussetzung ist.) Im folgenden sind Bedingungen für die positive Definitheit einer Matrix A angegeben: Notwendige Bedingungen A existiert und ist positiv definit

9 Lineare Gleichungssysteme. Matrixeigenschaften und Fehlerabschätzungen alle Diagonalelemente von A sind positiv Notwendige und hinreichende Bedingungen alle Hauptunterdeterminanten sind echt größer Null alle Eigenwerte sind positiv A läßt sich durch elementare Gaußsche Zeilenumformungen in eine Dreiecksmatrix mit positiven Diagonalelementen überführen A läßt sich in R nach Cholesky zerlegen Die letzten beiden Bedingungen greifen etwas voraus auf Verfahren, die in den folgenden Kapiteln beschrieben werden. Unter den Hauptunterdeterminanten, oder auch Hauptabschnittsdeterminanten oder Hauptminoren genannt, versteht man die Determinante a... a k det.. a k... a kk, k =,...,n. (.5) BEISPIEL.. : Positiv definite Matrizen Welche der folgenden Matrizen sind positiv definit? (a) (b) (c) Zu (a): Da zwei Elemente auf der Hauptdiagonalen a und a 33 kleiner Null sind, ist diese Matrix nicht positiv definit. Zu (b): Als Entscheidungskriterium werden hier die Hauptabschnittsdeterminanten benutzt. Die erste lautet ( ) det = 0. Damit ist ebenfalls gezeigt, daß diese Matrix nicht positiv definit ist. Zu (c): Diese Matrix ist nicht symmetrisch, also auch nicht positiv definit... Fehlerabschätzung Alle Rechnungen auf einem Computer haben nur eine endliche Genauigkeit, d.h. es können nur eine beschränkte Anzahl von exakten Stellen angegeben werden. Dies trifft nicht nur auf Ergebnisse zu, sondern auch schon auf die Darstellung der Zahlen, im Falle eines linearen Gleichungssystems also der Koeffizienten a i j und der rechten Seite b i. Zusätzlich zu diesen Darstellungsfehlern kommen noch Rundungsfehler aus etwaigen vorherigen Rechnungen, deren 3

10 . Matrixeigenschaften und Fehlerabschätzungen Lineare Gleichungssysteme Resultat das Gleichungssystem ist, hinzu. Deshalb soll hier der mögliche Einfluß von Fehlern in den Ausgangsdaten auf die Lösung x untersucht werden. Es stellt sich damit die Frage, wie groß ist die Änderung x der Lösung x falls die Matrix A um A und die rechte Seite b um b geändert werden? Dabei sollen A und b kleine Störungen sein, so daß auch die Matrix A + A noch regulär ist. Damit ist x + x Lösung des Gleichungssystems (A + A)(x + x) = b + b. (.6) Durch Ausmultiplizieren und Umformen erhält man die Änderung x = ( I + A A ) A [ b Ax]. (.7) Betrachtet man nun die Norm x bezogen auf die Norm von x x x ( I + A A ) [ A A + b ] x (.8) so erhält man mit der Abschätzung (Beweis siehe [0]) ( I + A A ) A A für A A < (.9) die Fehlerabschätzung des gestörten Gleichungssystems (.6) x x cond(a) cond(a) A A [ A A + b ] b. (.0) Die benutzte Matrixnorm muß selbstverständlich zur benutzten Vektornorm verträglich sein (bzgl. Normen und Konditionszahl siehe Anhang A.). An der Abschätzung (.0) erkennt man deutlich, daß die Lösung wesentlich von der Konditionszahl cond(a) abhängt. BEISPIEL.. : Kondition und Fehlerabschätzung Gegeben sei die Matrix ( ) A = 3 3 (a) Berechnen Sie die Konditionszahl von A (.) (b) Wieviel richtige Mantissenstellen können in der Lösung x des linearen Gleichungssystems Ax = b bei g-stelliger Gleitkommarechnung erwartet werden, wenn für den relativen Fehler gilt A A b b 5 0 g? (.) Zu (a): Für die in Anhang A. angegebenen Matrixnormen und ergibt sich A = A = , (.3) 4

11 Lineare Gleichungssysteme. Gaußscher Algorithmus und mit deta = die inverse Matrix zu A = ( ) 3 3. (.4) Mit den Normen A = A = 6667 (.5) erhält man dann die Konditionszahl cond(a) = A A = A A = (.6) Mit der Spektralnorm würde die Konditionszahl cond(a) = lauten. Daran ist zu erkennen, daß unterschiedliche Definitionen der Normen nicht zu den gleichen Werten, und damit auch nicht zu gleichen Konditionszahlen führen müssen. Zu (b): Der relative Fehler kann nach Formel (.0) berechnet werden. Es gilt näherungsweise x x g 5 0 g 4 = 0 g+5 0 g+5 (.7) Falls nun g sehr viel größer als 5 ist, z.b. bei 6-stelliger Gleitkommarechnung g = 6, so ist der Nenner, und damit der relative Fehler x x 4 0 (g 5). (.8) Damit können für einen relativen Fehler von 5 0 g für die vorgegebenen Größen nur ca. g 5 richtige Mantissenstellen erwartet werden.. Gaußscher Algorithmus Der Gaußsche Algorithmus verfolgt das Ziel ein Gleichungssystem so umzuformen, daß die Unbekannten sukzessive durch Rückwärtseinsetzen berechnet werden können. Dazu muß die Matrix A in eine Rechtsdreiecksmatrix umgeformt werden. Dabei werden folgende Operationen auf die Matrix angewandt: Vertauschen von Zeilen Multiplikation einer ganzen Zeile mit einer Zahl 0 Addition eines Vielfachen einer Zeile zu einer anderen. 5

12 . Gaußscher Algorithmus Lineare Gleichungssysteme Diese Operationen verändern das gegebene Gleichungssystem nicht, wenn auch gleichzeitig die rechte Seite b entsprechend umgeformt wird. Dazu wird das Gleichungssystem in der Form a [ ]... a n b A b =... (.9) a n... a nn b n dargestellt. Subtrahiert man nun das l i = a i a -fache der ersten Zeile von den i-ten Zeilen (i =,3,...,n) erhält man ein System, das in der ersten Spalte nur ein Element a 0 enthält Die restlichen Elemente sind durch a a... a n b [ ] 0 a ()... a () n b () A b =.... a () ik 0 a () n... a () nn b () n = a ik l i a k b () i = b i l i b i,k =,3,...,n. (.0) (.) gegeben. Es wurde stillschweigend vorausgesetzt, daß a 0 ist. Dieses Element nennt man Pivotelement oder auch einfach Pivot. Nach dieser Umformung enthält nur noch die erste Zeile des entsprechenden Gleichungssystems die Unbekannte x. Diese könnte also durch die übrigen x i ausgedrückt werden, die wiederum aus dem verbleibendem System der Koeffizienten a () i j berechnet werden können. Unter der Annahme a () 0 (dies ist das Pivot des zweiten Schrittes) kann nun auch die zweite Spalte unterhalb von a () zu Null gezwungen werden. Setzt man dies n-mal fort, so erhält man eine Rechtsdreiecksmatrix U (engl. upperdiagonal matrix) mit den Elementen [ ] [ ] A b = U c = u u... u n c 0 u... u n c u nn c n (.) u ik = a (i ) ik a (0) ik = a ik k = i,i +,...,n c i = b (i ) i b (0) (.3) i = b i für alle i =,,...,n. In der Form Ux = c kann das Gleichungssystem durch sogenanntes Rückwärtseinsetzen ] x i = [c i u ik x k (.4) u ii n k=i+ gelöst werden. Der Begriff Rückwärtseinsetzen resultiert aus der Tatsache, daß das Gleichungssystem in umgekehrter Reihenfolge, also mit x n beginnend, gelöst wird. 6

13 Lineare Gleichungssysteme. Gaußscher Algorithmus BEISPIEL.. : Gaußsches Eliminationsverfahren Das Gleichungssystem x + 3x 5x 3 = 0 4x + 8x 3x 3 = 9 6x + x + 4x 3 = (.5) soll mit dem Gaußschen Eliminationsverfahren gelöst werden. In zwei Schritten kann das Gleichungssystem in eine Rechtsdreiecksmatrix umgeformt werden (.6) Das Rückwärtseinsetzen ergibt die Unbekannten x 3 = x = 7 = 3 x = = (.7) In der Herleitung der Gaußelimination wurde immer vorausgesetzt, daß das Pivotelement ungleich Null ist, da sonst durch Null dividiert würde. Daß nicht nur solche Pivotelemente ausgeschlossen werden müssen, sondern daß auch andere Pivotelemente Probleme aufwerfen soll das nächste Beispiel zeigen. BEISPIEL.. : Ungünstige Pivotelemente Das lineare Gleichungssystem ( )( x x ) = ( ) 0.5 (.8) soll exakt und mit der Gaußelimination mit zweistelliger Gleitkommarechnung gelöst werden. Das Gleichungssystem wird im ersten Schritt (Pivot a = ) zu [ ] [ ] (.9) umgeformt. Daraus lassen sich in exakter Rechnung die Lösungen x = = und x = = berechnen. Mit zweistelliger Gleitkommarechnung lautet der erste Schritt [ ] [ ] 0.50E 0.0E E 0.0E (.30) 0.0E + 0.0E + 0.0E E E + und führt auf das Ergebnis 0.0E + 3 x = 0.99E + x = E x = E + x x = 0 7 (.3)

14 . Gaußscher Algorithmus Lineare Gleichungssysteme Das gerundete Ergebnis für x mag ja noch zufriedenstellend sein, aber x = 0 ist unakzeptabel. Schuld an dieser Ungenauigkeit ist eine Stellenauslöschung durch das sehr kleine Pivotelement a = Natürlich ist der Wert nicht absolut zu klein, sondern nur im Vergleich zu den anderen Matrixelementen. Der Unterschied sind 3 Kommastellen, also mehr als in der Gleitkommarechnung in Beispiel.. an signifikanten Stellen mit einbezogen wurden. Um solche Effekte, und auch Pivotelemente gleich Null zu vermeiden werden Zeilen und Spalten getauscht. Wie und wann ein Tausch stattfindet wird nach einer gewissen Pivotstrategie entschieden. Eine sehr oft benutzte und äußerst effektive Strategie ist die sogenannte partielle Pivotisierung oder Spaltenpivotisierung. Darunter versteht man das folgende Vorgehen. In jedem Schritt wird das Pivotelement betragsmäßig mit allen unter ihm in der gleichen Spalte stehenden Elementen verglichen. Von all diesen Elementen wird das betragsmäßig größte ausgesucht, und die Zeile mit der aktuellen vertauscht. BEISPIEL..3 : Gaußelimination mit Spaltenpivotisierung Das lineare Gleichungssystem ( )( ) ( ) x 0.5 = x (.3) soll mit der Gaußelimination mit zweistelliger Gleitkommarechnung und Spaltenpivotisierung gelöst werden. Im ersten Schritt werden die Elemente der ersten Zeile verglichen. a ist größer als a, also werden erste und zweite Zeile vertauscht. [ 0.50E 0.0E E + 0.0E + 0.0E + ] [ 0.0E + 0.0E + 0.0E E 0.0E ] (.33) Danach wurde die Dreiecksgestalt erzeugt, indem das fache der ersten Zeile von der zweiten abgezogen wurde. [ ] [ ] 0.0E + 0.0E + 0.0E + 0.0E + 0.0E + 0.0E + (.34) 0.50E 0.0E E Auf Grund der Rundung auf zwei Stellen verändern sich die Elemente der zweiten Zeile bis auf das erste Element nicht. Mit diesem Gleichungssystem erhält man das Ergebnis x = 0.50 und x = In Beispiel..3 ist mit Spaltenpivotisierung ein deutlich besseres Ergebnis erzielt worden. Es können jedoch Beispiele erzeugt werden, bei denen eine Spaltenpivotisierung nicht ausreichend ist. In solchen Fällen wird eine totale Pivotisierung durchgeführt. Darunter versteht man eine Zeilenund Spaltenvertauschung, so daß das betragsgrößte Element der Restmatrix (die noch keine Dreiecksstruktur hat) an die Stelle des Pivots gesetzt wird. Dieses Verfahren ist zwar sehr gut, jedoch sehr aufwendig. Keine Pivotstrategie benötigen die diagonal dominanten und positiv definiten Matrizen, da diese Eigenschaften automatisch ein gutmütiges Verhalten der Gaußelimination sicherstellen. 8

15 Lineare Gleichungssysteme. Gaußscher Algorithmus Welche Zeilen vertauscht wurden, wird in einer Permutationsmatrix P vermerkt. Eine Permutationsmatrix ist eine Matrix, die pro Zeile maximal einmal den Wert, ansonsten nur Nullen stehen hat. Ausgehend von einer Einheitsmatrix werden in dieser Permutationsmatrix die gleichen Zeilen vertauscht wie in der Matrix A. Im Falle von Beispiel..3 hätte diese Matrix die Gestalt P = ( 0 0). Solche Permutationsmatrizen werden für jeden Eliminationsschritt angelegt, und am Ende der Elimination nach z.b. k-schritten entsprechend P = P k P k... P multipliziert. Findet in einem Schritt kein Tausch statt, dann muß die Permutationsmatrix, die ja dann die Einheitsmatrix ist, nicht mit einbezogen werden... LU-Zerlegung Die LU-Zerlegung, oder auch LR-Zerlegung genannt, ist keine neue Lösungsmöglichkeit für lineare Gleichungssysteme, sondern nur eine effektivere Darstellung der gewöhnlichen Gaußelimination. Führt man die Gaußelimination wie oben gezeigt durch, so muß man bei einer neuerlichen Rechnung für das gleiche System aber mit anderer rechten Seite die Zerlegung nochmal durchführen. Merkt man sich jedoch die jeweiligen Multiplikationen mit den l i j, so kann die Zerlegung nochmal auf eine neue rechte Seite angewandt werden. Dieser Grundgedanke der LU-Zerlegung fundiert auf dem Satz LU-Zerlegung Zu jeder regulären Matrix A existiert eine Permutationsmatrix P, so daß PA in das Produkt einer Linksdreiecksmatrix L und einer Rechtsdreiecksmatrix U zerlegbar ist gemäß PA = LU. (.35) In obigem Satz ist die Rechtsdreiecksmatrix U die Matrix aus (.) und die entsprechende Linksdreiecksmatrix L enthält unterhalb der Hauptdiagonalen, welche mit Einsen belegt ist, die Werte l i j. Multipliziert man nun das Gleichungssystem (.) mit der Permutationsmatrix P PAx = Pb L}{{} Ux = Pb, (.36) =y so erhält man die Gleichungslösung mit Hilfe der LU-Zerlegung nach dem Schema: PA = LU Ly = Pb Ux = y Zerlegung von PA Vorwärtseinsetzen zur Berechnung der Hilfsgröße y Rückwärtseinsetzen zur Berechnung der Lösung x (.37) An diesem Algorithmus ist leicht zu erkennen, daß hier die Gaußelimination nicht verändert wurde, sondern nur so gespeichert wurde, damit für eine neue rechte Seite b die Zerlegung nicht noch ein zweites Mal durchgeführt werden muß. Die Motivation für dieses Vorgehen ist nach einer Aufwandsabschätzung der einzelnen Schritte sofort ersichtlich. Als wesentliche Operationen werden nur Divisionen und Multiplikationen 9

16 . Gaußscher Algorithmus Lineare Gleichungssysteme gezählt. Die LU-Zerlegung wird mit Z LU = ( 3 n 3 n ) Operationen bewältigt, das Vorwärtseinsetzen benötigt Z V = ( n n ) Operationen und das Rückwärtseinsetzen Z R = ( n + n ) Operationen. Damit ergibt sich ein Gesamtaufwand von Z Gauß = 3 n3 + n 3 n (.38) wesentlichen Rechenoperationen. Damit ist der Aufwand proportional n 3, d.h. bei großen Systemen macht sich der Aufwand für das Einsetzen nicht mehr bemerkbar. Zur Umsetzung der LU-Zerlegung auf dem Rechner sollte man noch erwähnen, daß die Matrizen L und U nicht separat abgespeichert werden, sondern auf dem Speicherplatz der Matrix A abgelegt werden, da die Matrix A nach der Zerlegung nicht mehr gebraucht wird. Weiterhin wird auch die Permutationsmatrix nicht explizit aufgebaut, sondern nur in einem Vektor vermerkt, welche Zeilen miteinander vertauscht werden. Damit wird auch das Produkt Pb nicht berechnet, sondern nur die Zeilen des Vektors b entsprechend vertauscht. Ohne eine Pivotstrategie könnte eine Gleichungslösung z.b. folgendermaßen programmiert werden: // LU Zerlegung mit altem Speicher // for (k=0; k<n-; k++) { z=./mat[k][k]; for (i=k+; i<n; i++) { mat[i][k]=mat[i][k]*z; for (j=k+; j<n; j++) mat[i][j]-=mat[k][j]*mat[i][k]; } } // Vorwaerts Einsetzen // for (j=0;j<n;j++) { x[j]=rechte_seite[j]; // copy {b} --> {x} for (i=0;i<j;i++) x[j]-=mat[j][i]*x[i]; // Solve [L]{y} = {b} } // Rueckwaerts Einsetzen // for (j=n-;j>=0;j--) { // Solve [U]{x} = {y} for (i=+j; i < n; i++) x[j]-=mat[j][i]*x[i]; x[j]=x[j]/mat[j][j]; } Dieses Beispielprogramm wurde in C++ programmiert, es ist aber leicht auf andere Programmiersprachen übertragbar. In diesem Beispiel wurde auch der Speicherplatz für den Hilfsvektor y eingespart, und auf dem Ergebnisvektor x zwischengespeichert. Nicht unerwähnt bleiben sollte die Möglichkeit, sozusagen als Nebenprodukt der LU-Zerlegung, die Determinante der Matrix A einfach zu berechnen. Mit der Zerlegung (.35) gilt für die Determinante deta = ±det(pa) det(pa) = det(lu) = detl detu = 0 n k= u kk. (.39)

17 Lineare Gleichungssysteme. Gaußscher Algorithmus Damit ist die Determinantenberechnung auf n Multiplikationen reduziert. BEISPIEL..4 : LU-Zerlegung Das Gleichungssystem Ax = b soll mit der LU-Zerlegung und Spaltenpivotisierung für A = 6 b = b = (.40) gelöst werden. Im ersten Schritt wird zuerst die erste mit der zweiten Zeile getauscht (.4) Der Vektor b wird genau wie der Vektor b einfach an die Matrix A angehängt. Der obige Zeilentausch ergibt die Permutationsmatrix P und durch Abziehen des -fachen der ersten Zeile von der. und 3. Zeile den Eliminationschritt [ ] P = 0 0 A b = (.4) Der letzte Schritt ist nur noch ein Vertauschen der letzten beiden Zeilen. Damit erhält man folgende Permutationsmatrix P = P P = = 0 0 (.43) Die beiden Matrizen der LU-Zerlegung lauten folglich L = 0 U = 0 3, (.44) wobei in L auch der Zeilentausch durchgeführt wurde, jedoch nur für die Elemente unterhalb der Hauptdiagonalen. Durch einfaches Ausmultiplizieren kann man sich überzeugen, daß die Zerlegung tatsächlich richtig ist. Die Lösung kann nun durch Rückwärtseinsetzen erfolgen, da das Vorwärtseinsetzen zur Bestimmung des Hilfsvektors y, sowohl für b als auch für b, schon implizit mitberechnet wurde. Das Rückwärtseinsetzen liefert für beide rechte Seiten die Ergebnisse x = x = (.45)

18 . Gaußscher Algorithmus Lineare Gleichungssysteme.. Cholesky-Zerlegung Die LU-Zerlegung ist für alle Matrizen geeignet. Liegt jedoch speziell eine positiv definite Matrix A vor, so wäre es wünschenswert, wenn die Zerlegung die Symmetrieeigenschaft der Matrix ausnützen würde. Die Cholesky-Zerlegung nutzt diese Eigenschaft, und zerlegt die Matrix A in A = LL T, (.46) eine untere Dreiecksmatrix L und deren Transponierte. Die Matrix L hat nichts mit der gleichnamigen Matrix der LU-Zerlegung zu tun. Sie berechnet sich nach l ii = aii l ik für i =,,...,n i k= l ji = i [a ji l ii k= l jk l ik ] für j = i +,...,n. (.47) Mit dieser Zerlegung kann dann entsprechend dem Algorithmus (.37) der LU-Zerlegung das Gleichungsystem gelöst werden A = LL T Zerlegung von A Ly = b Vorwärtseinsetzen zur Berechnung der Hilfsgröße y L T x = y Rückwärtseinsetzen zur Berechnung der Lösung x. (.48) Eine Pivotisierung ist unnötig, da positiv definite Matrizen automatisch in einer für die Numerik günstigen Form vorliegen. Würde man die Cholesky-Zerlegung auf eine zwar symmetrische, aber nicht positiv definite Matrix anwenden, so kann die Zerlegung durchgeführt werden, aber nicht in R sondern in C, da dann Wurzeln aus negativen Zahlen berechnet werden müßten. Der ganze Algorithmus (.48) ist dann in C durchzuführen, und ergibt ein reelles Ergebnis. Will man die komplexe Rechnung umgehen, so ist eine ähnliche Zerlegung möglich, mit den Matrixelementen A = LDL T (.49) i d ii = a ii j= l ji = i [a ji d ii l i jd j j für i =,,...,n k= l jk l ik d kk ] für j = i +,...,n. (.50) In dieser Zerlegung entspricht L der Matrix L aus der LU-Zerlegung und die Matrix D ist eine Diagonalmatrix mit den Pivotelementen der Gaußelimination auf der Diagonalen. Für diese Zerlegung muß die Matrix A zwar nur symmetrisch, aber sie darf jedoch nicht indefinit sein.

19 Lineare Gleichungssysteme. Gaußscher Algorithmus Obwohl die Cholesky-Zerlegung zur Lösung von einem linearen Gleichungssystem n Quadratwurzeln benötigt, die bei der LU-Zerlegung nicht benötigt werden, hat sie den Vorteil, daß die Zerlegung unter Wahrung der Symmetrie erfolgt. Insgesamt benötigt die Gleichungslösung nach Cholesky nur Z Cholesky = 6 n3 + 3 n + 3 n (.5) wesentliche Operationen. Für sehr große Systeme dominiert hier, ebenso wie bei der LU- Zerlegung, der Term n 3, jedoch nur mit einem halb so großen Vorfaktor. Damit hat das Cholesky- Verfahren nur den halben Aufwand verglichen mit der normalen Gaußelimination oder der LU- Zerlegung...3 Tridiagonale Gleichungssysteme In der Anwendung treten häufig schwach besetzte Matrizen auf, die meistens auch noch nur in einem Band um die Hauptdiagonale Elemente ungleich Null haben. Solche Matrizen nennt man Bandmatrizen. Eine besonders einfach und numerisch sehr effektiv zu behandelnde Form ist eine Matrix, die nur auf der Hauptdiagonalen und den beiden Nebendiagonalen Elemente ungleich Null besitzt. Diese Matrizen nennt man tridiagonal. Bei einem Gleichungssystem, daß durch solche Matrizen beschrieben wird, enthält die i-te Gleichung nur die Unbekannten x i,x i und x i+. Diese Eigenschaft kann zur Gleichungslösung ausgenutzt werden. Setzt man voraus, daß ein Zeilen- oder Spaltentausch unnötig ist, also z.b. eine diagonal dominante oder sogar positiv definite Matrix A vorliegt, dann existiert eine Dreieckszerlegung A = LU mit bidiagonalen Matrizen L und U. Die Zerlegung lautet also α β γ α β γ α 3 β γ 3 α 4 β γ 4 α 5 = l l l l 4 m β m β m 3 β m 4 β m 5 (.5) für den Fall n = 5. Eingesetzt wurde auch schon, daß die Nebendiagonale von U die Elemente β i enthält. Die restlichen Unbekannten können dann durch Koeffizientenvergleich bestimmt werden. Sie werden mit dem Startwert m = α sukzessive aus l i = γ } i m i für i =,,...,n (.53) = α i+ l i β i m i+ bestimmt. Das Vorwärtseinsetzen Ly = b vereinfacht sich dann zu y i = b i l i y i für i =,3,...,n und y = b. (.54) Das Rückwärtseinsetzen Ux = y ist entsprechend einfach x i = m i (y i β i x i+ ) für i = n,n,..., mit x n = y n m n. (.55) 3

20 .3 Iterative Gleichungslöser Lineare Gleichungssysteme Die Gleichungslösung für tridiagonale Systeme reduziert sich damit im wesentlichen auf drei einfache Schleifen über n. Die Zahl der wesentlichen Operationen beträgt für alle drei Lösungsschritte Z tridiagonal Gauß = 5n 4. (.56) Der Aufwand ist damit nur proportional n verglichen zu n 3 bei der Gleichungslösung vollbesetzter Systeme. Ist die Voraussetzung, daß eine Pivotsuche überflüssig ist, nicht erfüllt kann ebenfalls ein Algorithmus definiert werden, der eine Aufwandsordnung von n hat, jedoch doppelt soviele Operationen wie obiger benötigt..3 Iterative Gleichungslöser Alle Varianten der Gaußschen Gleichungslösung eines linearen Systems liefern bei exakter Arithmetik, also abgesehen von Rundungsfehlern, die genaue Lösung. Hier sollen nun einige gängige iterative Verfahren zur Gleichungslösung beschrieben werden. Im Gegensatz zu den oben genannten liefern diese Verfahren auch dann nicht die genaue Lösung, wenn die Arithmetik exakt wäre. Oft sind sie jedoch effektiver als direkte Methoden, da sie eventuell weniger Rechenzeit benötigen und manchmal den Rundungsfehler reduzieren. Ein besonders geeigneter Anwendungsfall sind schwach besetzte Gleichungssysteme mit einer großen Anzahl von Unbekannten. Ein iteratives Verfahren zum Lösen eines Gleichungssystems Ax = b beginnt mit einer Anfangsnäherung x (0) der Lösung x und berechnet nach der Vorschrift x (k+) = Mx (k) + s k =,,... (.57) eine Folge von Werten x (k), die gegen die exakte Lösung konvergieren. Wie die Matrix M und der Vektor s von A und b abhängen, ist vom jeweiligen Verfahren abhängig. Damit ein Verfahren jedoch konvergiert, was nicht selbstverständlich ist, muß die Matrix M der folgenden Bedingung genügen: Notwendiges und hinreichendes Konvergenzkriterium Das Iterationsverfahren (.57) ist konvergent für jeden beliebigen Startvektor x (0) genau dann, wenn der Spektralradius der Iterationsmatrix M kleiner als ist: ρ(m) <. (.58) Im folgenden werden nun zwei sehr einfache Verfahren, die auf der Zerlegung der Matrix A = L + D + R basieren, vorgestellt und anschließend ein Verfahren, das zu der Gruppe der sogenannten Relaxationsverfahren gehört. 4

21 Lineare Gleichungssysteme.3 Iterative Gleichungslöser.3. Jacobi- und Gauß-Seidel-Verfahren Die hier vorgestellten Jacobi- und Gauß-Seidel-Verfahren werden sehr oft auch Gesamt- und Einzelschrittverfahren genannt. Für beide Verfahren wird die Matrix A in eine Linksdreiecksmatrix L, eine Diagonalmatrix D und eine Rechtsdreiecksmatrix R A = L + D + R (.59) zerlegt. Dabei beinhaltet die Matrix L den linken Teil unterhalb der Hauptdiagonalen von A, die Matrix D die Hauptdiagonale und R die Elemente von A oberhalb der Hauptdiagonalen. Solch eine Zerlegung ist bei jeder regulären Matrix möglich. Sind nun alle Hauptdiagonalelemente ungleich Null, kann die Diagonalmatrix D invertiert werden. Damit kann das Jacobi-Verfahren formuliert werden Dx (k+) = (L + R)x (k) + b M JV = D (L + R), s JV = D b. (.60) Ist auch die Matrix L + D invertierbar, so erhält man das Gauß-Seidel-Verfahren (L + D)x (k+) = Rx (k) + b M GSV = (L + D) R, s GSV = (L + D) b. (.6) Für beide Verfahren gilt die Konvergenzbedingung (.58), die jedoch nur äußerst umständlich nachzuprüfen ist, da ja für die Bestimmung des Spektralradius die Eigenwerte der Matrix M berechnet werden müssen. Zwei hinreichende Kriterien für die Konvergenz beider Verfahren sind das starke Zeilensummenkriterium oder das starke Spaltensummenkriterium. Die Kriterien sind folgendermaßen definiert: starkes Zeilensummenkriterium und entsprechend n j= j i starkes Spaltensummenkriterium n i= i j a i j < a ii i n (.6) a i j < a j j j n. (.63) In beiden Kriterien gilt echt das kleiner Zeichen, d.h. die Diagonalelemente müssen echt größer sein als entweder die Summe der Beträge aller anderen Elemente in der gleichen Zeile, oder die Summe der Beträge aller anderen Elemente in der gleiche Spalte. Matrizen, die eine dieser beiden Bedingungen erfüllen, nennt man stark diagonaldominant (siehe Kapitel..). Es kann gezeigt werden, daß das Gauß-Seidel-Verfahren für den Sonderfall einer positiv definiten Matrix A konvergiert. Daraus irgendwelche Konvergenzeigenschaften des Jacobi-Verfahrens abzuleiten ist nicht zulässig. Es gilt für M JV 0 lediglich folgender Zusammenhang: 0 < ρ(m JV ) < 0 < ρ(m GSV ) < ρ(m JV ) < (.64) ρ(m JV ) > ρ(m GSV ) > ρ(m JV ) > (.65) 5

22 .3 Iterative Gleichungslöser Lineare Gleichungssysteme Der Zusammenhang (.64) bedeutet, wenn das Jacobi-Verfahren konvergiert, dann konvergiert auch das Gauß-Seidel-Verfahren. Der Zusammenhang (.65) besagt weiterhin, wenn das Jacobi- Verfahren nicht konvergiert, dann divergiert auch das Gauß-Seidel-Verfahren. Dabei ist immer die Voraussetzung M JV 0 zu beachten, die bedeutet, daß alle Elemente der Matrix M JV größer oder gleich Null sind. Eine Indexschreibweise der beiden vorgestellten Methoden kann ebenfalls angegeben werden. Die Herleitung hierzu ist sehr anschaulich, und soll deshalb hier kurz skizziert werden. Angenommen es ist ein Gleichungssystem mit z.b. 3 Unbekannten a x + a x + a 3 x 3 = b a x + a x + a 3 x 3 = b (.66) a 3 x + a 3 x + a 33 x 3 = b 3 zu lösen, so kann man jede Zeile nach einer Unbekannten auflösen. Dies führt auf die drei Gleichungen x = a (b a x a 3 x 3 ) x = a (b a x a 3 x 3 ) x 3 = a 33 (b 3 a 3 x a 3 x ), (.67) die jede als Bestimmungsgleichung für eine Variable benutzt werden könnte. Setzt man nun auf der rechten Seite von (.67) entweder einen Startwert x (0) oder Ergebnisse aus vorherigen Iterationsschritten x (k) ein, so kann tatsächlich ein Ergebnisvektor x (k+) bestimmt werden. Für die i-te Komponente eines Gleichungssystems mit n Unbekannten lautet dies x (k+) i = a ii b i n j= j i a i j x (k) j. (.68) Vergleicht man diese Berechnungsvorschrift mit (.60), so erkennt man das Jacobi-Verfahren. Beim Jacobi-Verfahren werden zur Berechnung der x (k+) i die Ergebnisse aus den vorherigen Iterationsschritten benutzt. Man könnte aber doch für den Wert x (k+) i auch schon die Werte x (k+) j für j < i benutzen, da die ja schon berechnet sind, und genauer sein sollten als x (k) j. Damit erhält man das Gauß-Seidel-Verfahren ( ) x (k+) i = i b i a ii a i j x (k+) n j a i j x (k) j. (.69) j= j=i+ Auch hier kann man die Matrixbeschreibung (.6) erkennen. Aus dieser Herleitung und aus den Konvergenzbetrachtungen (.64) könnte man schlußfolgern, daß das Gauß-Seidel-Verfahren schneller konvergiert als das Jacobi-Verfahren. Dies ist auch oft der Fall, kann aber nicht verallgemeinert werden. 6

23 Lineare Gleichungssysteme.3 Iterative Gleichungslöser BEISPIEL.3. : Gleichungslösung mit Jacobi- und Gauß-Seidel-Verfahren Das Gleichungssystem Ax = b mit A = 3 0 b = 5 (.70) soll mit dem Jacobi- und dem Gauß-Seidel-Verfahren gelöst werden. Da die Matrix A offensichtlich stark diagonaldominant ist, ist die Konvergenz beider iterativen Verfahren gesichert. Die Matrixzerlegung ergibt hier die Matrizen L = D = R = (.7) Daraus können die Iterationsmatrizen M JV und M GSV mit den zugehörigen Vektoren s JV und s GSV berechnet werden. Dies wird aber nicht explizit durchgeführt, sondern es werden die Formeln (.68) für das Jacobi-Verfahren und (.69) für das Gauß-Seidel-Verfahren benutzt. Mit dem Startvektor x (0) = ( ) T wird die Iteration begonnen. Die exakte Lösung lautet x = ( ) T. Die Iteration wird in beiden Fällen abgebrochen, wenn gilt x (k) x (k ) x (k) < 0 4. (.7) Die Ergebnisse der Berechnung sind in Tabelle. auf 4 Nachkommastellen gerundet angegeben. Es ist deutlich zu erkennen, daß für diesen Fall das Gauß-Seidel-Verfahren wesentlich schneller konvergiert..3. Relaxationsverfahren In Beispiel.3. konvergierte das Gauß-Seidel-Verfahren sehr schnell. Dies ist jedoch nicht der Normalfall, sondern es können durchaus 30 oder 40 Iterationen nötig sein. Um die Konvergenzgeschwindigkeit zu erhöhen, und damit die Anzahl der Iterationen zu verringern, liegt der Gedanke nahe, die Iterationsmatrix M GSV und s GSV etwas zu verändern. Multipliziert man diese Größen mit einem Faktor ω, so erhält man die sogenannten Relaxationsverfahren x (k+) = ( ω)x (k) + ωd [ b Lx (k+) Rx (k)]. (.73) Für ω = erkennt man das Gauß-Seidel-Verfahren (.6), wählt man ω < spricht man von Unterrelaxation und für ω > erhält man das sogenannte SOR-Verfahren. Der Name SOR stammt aus dem englischen und bedeutet sukzessive Überrelaxation. Es ist durchaus verbreitet auch bei ω < von SOR-Verfahren zu sprechen. 7

24 .3 Iterative Gleichungslöser Lineare Gleichungssysteme Jacobi-Verfahren Gauß-Seidel-Verfahren k x (k) x (k) x (k) 3 x (k) 4 x (k) x (k) x (k) 3 x (k) Tabelle.: Ergebnis des Jacobi- und Gauß-Seidel-Verfahrens für Gleichung (.7) Ein anderer Zugang zu den Relaxationsverfahren erhält man, wenn die Iterationsvorschrift (.69) des Gauß-Seidel-Verfahrens in einer sogenannten Korrekturform ( ) x (k+) i = x (k) i + a ii b i i j= a i j x (k+) j n j=i a i j x (k) j = x (k) i + c (k) i (.74) dargestellt wird. Multipliziert man nun den Korrekturterm c (k) i mit dem Relaxationsparameter ω, so führt dies auf die Indexschreibweise des SOR-Verfahrens ( ) x (k+) i = x (k) i + ω a ii b i = ( ω)x (k) i + ω a ii i j= ( a i j x (k+) j b i i j= n j=i a i j x (k) j a i j x (k+) j ) n a i j x (k) j. j=i+ (.75) Für die Anwendung stellt sich nun die Frage nach der Konvergenz des SOR-Verfahrens, und nach der Wahl des Relaxationsparameters ω. Allgemeine Aussagen über das Konvergenzverhalten des SOR-Verfahrens sind nicht möglich. Im Einzelfall muß nachgeprüft werden, ob die Iterationsmatrix einen Spektralradius kleiner besitzt. Für eine bestimmte Gruppe von Matrizen ist jedoch eine Aussage möglich. Konvergenz des SOR-Verfahrens Ist die Matrix A symmetrisch und sind ihre Diagonalelemente positiv, so konvergiert das SOR-Verfahren genau dann, wenn A positiv definit ist und 0 < ω < gilt. Ist die Matrix stark diagonaldominant, so konvergiert das SOR-Verfahren für 0 < ω. 8

25 Lineare Gleichungssysteme.3 Iterative Gleichungslöser Beachtet man, daß für ω = das SOR-Verfahren mit dem Gauß-Seidel-Verfahren identisch ist, so zeigt dieser Satz auch die Konvergenz für dieses Verfahren. Die Berechnung eines optimalen ω opt ist für eine gewisse Klasse von Matrizen A möglich, dazu siehe []. In der Anwendung kann jedoch die Abschätzung [5] mit und ω opt = + µ x (k+) x (k) q = lim k x (k) x (k ) (.76) µ = ( + q ) q ω start benutzt werden. Darin bezeichnet ω start ein gewähltes ω, mit dem solange iteriert wird, bis die Werte q sich nicht mehr ändern. Danach wird mit der Abschätzung (.76) ein optimales ω opt berechnet, und eine neue Rechnung gestartet. Konvergieren die q in der ersten Phase nicht, sondern oszillieren sie, so war das ω start zu groß. BEISPIEL.3. : SOR-Verfahren Lösen Sie das lineare Gleichungsystem Ax = b mit 5 3 A = 6 4 b = 4 (.77) mit dem SOR-Verfahren, wobei als Relaxationsparameter ω = 0.9 und als Startvektor x (0) = 0 gewählt werde. Die vorgegebene Matrix ist nicht symmetrisch, und damit auch nicht positiv definit, aber sie ist stark diagonaldominant. Damit konvergiert das SOR-Verfahren, wenn 0 < ω gilt. Mit dem vorgegebenen ω ist die Konvergenz also sichergestellt. Das exakte Ergebnis lautet x = 0.5. (.78) Das Verfahren konvergiert auch tatsächlich nach Schritten, wenn man eine Genauigkeit von 0 5 voraussetzt. Würde man den Satz bezüglich der Konvergenz ignorieren, erhält man hier das erstaunliche Ergebnis, daß das Verfahren trotzdem konvergiert, und zwar 3 mal so schnell. Es wird dabei ein ω opt =.64 berechnet. Die Berechnung von ω opt nach (.76) liefert jedoch immer ein ω >. Die Ergebnisse des Relaxationsverfahrens für ω = 0.9 und ω opt sind in Tabelle. zusammengefaßt. Im Vergleich dazu würde das Jacobi-Verfahren bei gleicher Problemstellung nach 9 Iterationsschritten und das Gauß-Seidel-Verfahren nach 7 Iterationsschritten bei gleicher Genauigkeit abbrechen. 9

26 .3 Iterative Gleichungslöser Lineare Gleichungssysteme ω = 0.9 ω =.64 k x (k) x (k) x (k) 3 x (k) x (k) x (k) Tabelle.: Ergebnis des SOR-Verfahrens für Gleichung (.77) 0

27 Kapitel Interpolation Die Interpolation befaßt sich mit der Problematik, eine Funktion zu bestimmen, die eine gegebene Menge von Werten darstellt. Der elementare Typ der Interpolation besteht darin ein Polynom auf eine Ansammlung von Werten zurückzuführen. Eine klassische Anwendung war die Interpolation von tabellarisch beschriebenen Funktionen, wenn ein Wert zwischen zwei angegebenen Werten berechnet werden sollte. Im Zeitalter der Computer ist diese Anwendung jedoch verschwunden, da viele elementare, vormals tabellierte, Funktionen mittlerweile auf jedem Taschenrechner verfügbar sind. Heute werden Interpolationsverfahren eingesetzt, wenn z.b. nur diskrete Werte einer Rechnung oder Messung bekannt sind, und Werte, die zwischen den Meßwerten liegen, bestimmt werden sollen. Die Grundaufgabe der Interpolation besteht also darin, durch eine Reihe von Punkten (x i,y i ),i = 0,,...,n eine geeignete Kurve hindurchzulegen. Graphisch geschieht das mit Hilfe eines Kurvenlineals, numerisch mit Hilfe einer Funktion f (x), die an den Stellen x i, den sogenannten Stützstellen, die gegebenen Werte y i als Funktionswerte annimmt. Dieser Sachverhalt wird mathematisch durch die Interpolationsbedingung f (x i ) = y i, i = 0,,...,n (.) beschrieben. Ein lineares Interpolationsproblem liegt vor, wenn die Funktion f linear von den Parametern a i f (x) = a 0 f 0 (x) + a f (x) a n f n (x) (.) abhängt. Zu dieser Klasse von Interpolationen gehört die Polynominterpolation und die trigonometrische Interpolation P n (x) = a 0 + a x + a x a n x n (.3) P n (x) = a 0 + a e ix + a e ix a n e nix (.4) mit der imaginären Einheit i =. Die trigonometrische Interpolation wird vorwiegend zur numerischen Fourieranalyse von Meßreihen benutzt.

28 . Lagrange-Interpolation Interpolation Zu den nichtlinearen Interpolationsproblemen gehören die Interpolationen durch rationale Funktionen R(x) = a 0 + a x + a x a n x n b 0 + b x + b x b m x m (.5) und durch Exponentialsummen P n (x) = a 0 e λ 0x + a e λ x + a e λ x a n e λ nx. (.6) Hier werden anschließend nur Polynominterpolationen behandelt. Der folgende Satz formuliert die Existenz und Eindeutigkeit von Polynominterpolationen (Beweis siehe [8]). Existenz und Eindeutigkeit von Polynominterpolationen Zu beliebigen (n+) Stützpunkten (x i,y i ),i = 0,,...,n mit paarweise verschiedenen Stützstellen x i x j für alle i j existiert genau ein Interpolationspolynom P n (x) mit der Eigenschaft (.), dessen Grad höchstens gleich n ist. Damit ist sichergestellt, daß es für jedes Interpolationsproblem eine Lösung gibt.. Lagrange-Interpolation Entsprechend der Interpolationbedingung (.) muß das zu suchende Polynom an den Stützstellen x i die geforderten Werte y i annehmen. Weiterhin ist durch den obigen Satz über die Existenz und Eindeutigkeit von Polynominterpolationen bekannt, daß ein solches Polynom höchstens vom Grade n ist. Da die gesuchte Interpolation über mehrere Stützpunkte (x i,y i ) geht, wird es sinnvoll sein, für jede Stützstelle jeweils ein Polynom zu finden, das dann auf den anderen Stellen verschwindet. Die Lagrange-Polynome L i (x) = n j=0 j i ( x x j ) ( xi x j ) = (x x 0)...(x x i )(x x i+ )...(x x n ) (x i x 0 )...(x i x i )(x i x i+ )...(x i x n ) i = 0,,...,n (.7) erfüllen offensichtlich beide Eigenschaften, es ist vom Grad n und hat die Eigenschaft {, für i = k L i (x k ) = δ ik = k = 0,,...,n, (.8) 0, für i k d.h. das Polynom L i (x) ist nur an der Stützstelle x i ungleich Null. Damit setzt sich das Interpolationspolynom folgendermaßen zusammen P n (x) = n i=0 y i L i (x). (.9) Setzt man die Eigenschaft (.8) in (.9) ein, so erkennt man die geforderte Interpolationseigenschaft (.). Damit ist ein Interpolationspolynom gefunden, das Lagrangesche Interpolationsformel genannt wird.

29 Interpolation. Lagrange-Interpolation Für die Umsetzung auf dem Rechner ist die Darstellung (.9) mit L i (x) nach (.7) sehr ungünstig. Das Polynom P n (x) kann unter der Voraussetzung x x i für alle i = 0,,...,n entsprechend ( ) n n x x n j n P n (x) = y i ( ) = y i n xi x j x x i ( ) xi x j (x x k ) (.0) i=0 j=0 j i i=0 umgeformt werden. Für diese Umformung wurde der Bruch in der Mitte von Gleichung (.0) um (x x i ) erweitert. Definiert man nun die sogenannten Stützkoeffizienten λ i = n j=0 j i ( xi x j ) = n j=0 j i j=0 j i die nur von den Stützstellen x i abhängen, und die Hilfsgröße k=0 ( ) i = 0,,...,n, (.) xi x j µ i = λ i x x i i = 0,,...,n, (.) die von der Stelle x, also der Stelle, an der interpoliert wird, abhängt, kann (.0) entsprechend einfacher P n (x) = [ n i=0 ] n µ i y i (x x k ) (.3) k=0 dargestellt werden. Allerdings ist der letzte Faktor mit dem Produkt immer noch sehr aufwendig zu berechnen. Formuliert man das Polynom P n (x) für die speziellen Werte y i =, also eine konstante Funktion, so muß P n (x) = für alle x gelten. Damit folgt aus (.3) also = [ n i=0 n k=0 ] n µ i (x x k ), k=0 (x x k ) = n i=0 µ i. (.4) Gleichung (.4) ist zwar für den Spezialfall einer konstanten Funktion berechnet, da aber das Produkt n k=0 (x x k ) unabhängig von dieser Funktion ist, gilt die Identität (.4) auch für beliebige y i. Somit erhält man die Darstellung P n (x) = 3 n i=0 µ i y i n (.5) µ i i=0

30 . Lagrange-Interpolation Interpolation für die Lagrangesche Interpolationsformel. Man nennt (.5) auch die baryzentrische Formel der Lagrange-Interpolation. Damit ist die Rechentechnik der Lagrange-Interpolation bestimmt. Zuerst werden die, nur von den Stützstellen x i abhängigen, Stützkoeffizienten λ i berechnet, und danach die Formel (.5) mit (.) für jede gewünschte Stelle x = x k ausgewertet. Auf den ersten Blick erfordert die Berechnung der Stützkoeffizienten λ i n(n + ) Multiplikationen. Formel (.) kann jedoch durch den i-ten Stützkoeffizienten für n + Stützstellen x 0,x,...,x n kann für weitere Stützstellen x n+ die Stützkoeffizienten λ (n+) i aus den schon bekannten Stützkoeffizienten λ (n) i nach eine Rekursionsformel ersetzt werden. Bezeichnet man mit λ (n) i λ (n+) i = λ(n) i berechnet werden. Der fehlende Koeffizient λ (n) i n i=0 x i x n+ i = 0,,...,n (.6) wird durch die Beziehung λ (n) i = 0 für n (.7) bestimmt. Zur rekursiven Berechnung der Stützkoeffizienten λ (n) i fehlt nun nur noch der Startwert λ (0) 0. Für n = mit den Stützstellen x 0 und x erhält man λ () 0 = (x 0 x ) = λ(0). Ein Vergleich mit (.6) zeigt, daß λ (0) 0 = gelten muß. Mit der Rekursionsformel (.6) reduziert sich der Berechnungsaufwand auf n(n + ) Multiplikationen. Im Spezialfall von äquidistanten Stützstellen kann für die Stützkoeffizienten eine einfache geschlossene Formel angegeben werden. Sind die Stützstellen monoton wachsend sortiert, also x 0,x = x 0 + h,...,x i = x 0 + ih,...,x n = x 0 + nh (.8) mit der Schrittweite h = x x 0, so können die Stützkoeffizienten mit der Rekursionsformel λ 0 =, λ i = λ i n i + i i =,,...,n (.9) berechnet werden. Das ergibt dann nur n wesentliche Operationen (Multiplikationen und Divisionen). BEISPIEL.. : Lagrange-Interpolation Für die gegebenen Stützstellen x 0 = 0,x =.5,x =.5 und x 3 = 4.5 und die gegebenen Werte y 0 =,y =,y = und y 3 = sollen die Werte an den Stellen x =.7 und x =. berechnet werden. Mit 4 gegebenen Stützstellen kann maximal ein Polynom der Ordnung n = 3 bestimmt werden. Mit der Rekursionsvorschrift (.6) werden die λ (k) i berechnet. Die Ergebnisse sind im 4

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren 2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Institut für Geometrie und Praktische Mathematik Multiple-Choice-Test NumaMB F08 (30 Punkte) Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine

Mehr

Lösung der Diplom-Vorprüfung Höhere Mathematik III/IV Aufgabe N1 (LR-Zerlegung mit Pivotisierung) Gegeben seien R 3.

Lösung der Diplom-Vorprüfung Höhere Mathematik III/IV Aufgabe N1 (LR-Zerlegung mit Pivotisierung) Gegeben seien R 3. Lösung der Diplom-Vorprüfung Höhere Mathematik III/IV 7.7.6 Aufgabe N (LR-Zerlegung mit Pivotisierung) Gegeben seien 6 8 A = 8 6 R und b = 6 R. a) Berechnen Sie die LR-Zerlegung von A mit Spaltenpivotisierung.

Mehr

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine

Mehr

Lineare Gleichungssysteme: direkte Verfahren

Lineare Gleichungssysteme: direkte Verfahren Sechste Vorlesung, 24. April 2008, Inhalt Lineare Gleichungssysteme: direkte Verfahren Dreiecksmatrizen Gauß-Elimination LR-Zerlegung Anwendungen: Determinante, Inverse 1 Lösungsverfahren für lineare Gleichungssysteme

Mehr

Matrixzerlegungen. 6. Vorlesung Numerische Methoden I. Clemens Brand. 2. April Nachträge und Wiederholung. Links-Rechts- Zerlegung

Matrixzerlegungen. 6. Vorlesung Numerische Methoden I. Clemens Brand. 2. April Nachträge und Wiederholung. Links-Rechts- Zerlegung Matrixzerlegungen. 6. Vorlesung 170004 Numerische Methoden I Clemens Brand QR- QR- 2. April 2009 Gliederung Elimination faktorisiert A = L R QR- QR- QR- QR- Eine Zusammenfassung der Folien 6 14 der letzten

Mehr

Numerik für Informatiker und Bioinformatiker. Daniel Weiß

Numerik für Informatiker und Bioinformatiker. Daniel Weiß Numerik für Informatiker und Bioinformatiker Daniel Weiß SS 202 Folgende Literatur bildet die Grundlage dieser Vorlesung: P Deuflhard, A Hohmann, Numerische Mathematik, Eine algorithmisch orientierte Einführung,

Mehr

Klausur Numerische Mathematik (für Elektrotechniker), Samstag, 19. August 2017

Klausur Numerische Mathematik (für Elektrotechniker), Samstag, 19. August 2017 Verständnisfragen-Teil (5 Punkte) Jeder der 5 Verständnisfragenblöcke besteht aus 5 Verständnisfragen. Werden alle 5 Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block

Mehr

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf. IGPM RWTH Aachen Verständnisfragen-Teil NumaMB H11 (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Es müssen mindestens zwei

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 4. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 17. März 2016 Lineare Gleichungssysteme 1 Wiederholung: Normen, Jacobi-Matrix,

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.

Mehr

Diplom VP Numerik 28. August 2006

Diplom VP Numerik 28. August 2006 Diplom VP Numerik 8. August 6 Multiple-Choice-Test Punkte) Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine einzige Aussage angekreuzt, gilt diese Aufgabe

Mehr

Kapitel 2: Lineare Gleichungssysteme

Kapitel 2: Lineare Gleichungssysteme Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 2: Lineare Gleichungssysteme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 205 HM: Numerik (SS 205), Kapitel

Mehr

Diplom VP Numerik 27. August 2007

Diplom VP Numerik 27. August 2007 Diplom VP Numerik 27. August 2007 Multiple-Choice-Test 30 Punkte Bei jeder MC-Aufgabe ist mindestens eine Aussage korrekt. Wird dennoch bei einer MC-Aufgabe keine einzige Aussage angekreuzt, gilt diese

Mehr

KAPITEL 1. Einleitung

KAPITEL 1. Einleitung KAPITEL 1 Einleitung Wir beschäftigen uns in dieser Vorlesung mit Verfahren aus der Numerischen linearen Algebra und insbesondere dem sogenannten Mehrgitterverfahren zur Lösung linearer Gleichungssysteme

Mehr

38 Iterative Verfahren für lineare Gleichungssysteme

38 Iterative Verfahren für lineare Gleichungssysteme 38 Iterative Verfahren für lineare Gleichungssysteme 38.1 Motivation Viele praktische Probleme führen auf sehr große lineare Gleichungssysteme, bei denen die Systemmatrix dünn besetzt ist, d. h. nur wenige

Mehr

Erweiterungen der LR-Zerlegung

Erweiterungen der LR-Zerlegung Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen

Mehr

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)

Mehr

A2.3 Lineare Gleichungssysteme

A2.3 Lineare Gleichungssysteme A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen

Mehr

Lineare Gleichungssysteme, LR-Zerlegung

Lineare Gleichungssysteme, LR-Zerlegung Prof Thomas Richter 2 Juni 27 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomasrichter@ovgude Material zur Vorlesung Algorithmische Mathematik II am 22627 Lineare Gleichungssysteme,

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

3. Lineare Gleichungssysteme

3. Lineare Gleichungssysteme 3. Lineare Gleichungssysteme 1 3.1. Problemstellung 2 3.2. Direkte Verfahren 3 3.3. Normen und Fehleranalyse 4 3.4. Iterative Verfahren 5 3.5. Konvergenz von linearen Iterationsverfahren 6 3.6. Gradienten-Verfahren

Mehr

Numerisches Programmieren, Übungen

Numerisches Programmieren, Übungen Technische Universität München WiSe 7 / 8 Institut für Informatik Univ.-Prof. Dr. Hans-Joachim Bungartz Michael Obersteiner Philipp Samfass Numerisches Programmieren, Übungen Musterlösung 8. Übungsblatt:

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 11 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 2010 Prof. Dr. Klaus Höllig

Mehr

Iterative Lösung Linearer Gleichungssysteme

Iterative Lösung Linearer Gleichungssysteme Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:

Mehr

4. Übungsblatt zur Mathematik II für Inf, WInf

4. Übungsblatt zur Mathematik II für Inf, WInf Fachbereich Mathematik Prof Dr Streicher Dr Sergiy Nesenenko Pavol Safarik SS 010 11 15 Mai 4 Übungsblatt zur Mathematik II für Inf, WInf Gruppenübung Aufgabe G13 (Basistransformation) ( ) 15 05 Die lineare

Mehr

5 Numerische Mathematik

5 Numerische Mathematik 6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme Vorlesungsskript HM-Numerik (SS 4): Kapitel Version: 9 Mai 4 Lineare Gleichungssysteme Gegeben: A R n n mit det(a) b R n Gesucht: x R n mit Ax = b Zeilenäquilibrierung Möchten zunächst die Kondition des

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Numerisches Programmieren, Übungen

Numerisches Programmieren, Übungen Technische Universität München SoSe 8 Institut für Informatik Prof. Dr. Thomas Huckle Michael Rippl Fabio Gratl Numerisches Programmieren, Übungen Musterlösung 3. Übungsblatt: Gaußelimination mit Pivotsuche,

Mehr

Lineare Algebra 1. Roger Burkhardt

Lineare Algebra 1. Roger Burkhardt Lineare Algebra 1 Roger Burkhardt roger.burkhardt@fhnw.ch Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 2 Rechenoperationen und Gesetze Gleichheit

Mehr

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

4. Großübung. Lösung linearer Gleichungssysteme

4. Großübung. Lösung linearer Gleichungssysteme 4. Großübung Lösung linearer Gleichungssysteme Gesucht x, x, x 3, x 4 R, sodass gilt. mit A R 4 4, x R 4, b R 4 x x + 3x 3 + x 4 = 5 6x 3x 7x x 4 = 5 4x + 4x + 5x 3 5x 4 = 3 8x + x + x 3 + x 4 = 8 3 x

Mehr

Lösung der Diplom-Vorprüfung Höhere Mathematik III/IV 6.8.005 1 Aufgabe N1 Gegeben seien A = 5-10 -5-10 8-10 -5-10 13 R 3 3 und b = a) Überprüfen Sie, ob die Matrix A positiv definit ist. b) Bestimmen

Mehr

Numerische Mathematik für Ingenieure (SoSe 2013)

Numerische Mathematik für Ingenieure (SoSe 2013) Numerische Mathematik für Ingenieure (SoSe 2013) PD Dr(USA) Maria Charina Auszüge aus Vorlesungsfolien von Prof Joachim Stöckler werden verwendet Für die Bereitstellung dieses Materials und der Tex-Files

Mehr

Multiplikationen und Divisionen Hauptarbeit des Algorithmus liegt somit in der Berechnung der LR-Zerlegung. (n 1)n(2n 1) 6. = n3 3 n2.

Multiplikationen und Divisionen Hauptarbeit des Algorithmus liegt somit in der Berechnung der LR-Zerlegung. (n 1)n(2n 1) 6. = n3 3 n2. KAPITEL LINEARE GLEICHUNGSSYSTEME 7 Rechenaufwand der LR-Zerlegung: A A : n Divisionen, n 2 Multiplikationen und Additionen A L, R: Also insgesamt n j= j2 + j = n3 3 n 3 Multiplikationen und Divisionen

Mehr

IV. Matrizenrechnung. Gliederung. I. Motivation. Lesen mathematischer Symbole. III. Wissenschaftliche Argumentation. i. Rechenoperationen mit Matrizen

IV. Matrizenrechnung. Gliederung. I. Motivation. Lesen mathematischer Symbole. III. Wissenschaftliche Argumentation. i. Rechenoperationen mit Matrizen Gliederung I. Motivation II. Lesen mathematischer Symbole III. Wissenschaftliche Argumentation IV. Matrizenrechnung i. Rechenoperationen mit Matrizen ii. iii. iv. Inverse einer Matrize Determinante Definitheit

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 5 Aufgabe 5.1 Kommutierende Matrizen In der Vorlesung und vergangenen

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 2015 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8 Such-Algorithmen

Mehr

3 Lineare Gleichungssysteme

3 Lineare Gleichungssysteme Lineare Gleichungssysteme Wir wissen bereits, dass ein lineares Gleichungssystem genau dann eindeutig lösbar ist, wenn die zugehörige Matrix regulär ist. In diesem Kapitel lernen wir unterschiedliche Verfahren

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,...

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,... Cramersche Regel Satz 2.4. Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei A j := (a,...,a j,b,a j+,...,a n ) also die Matrix, die entsteht, wenn in A die j-spalte durch den

Mehr

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b.

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b. NumaMB F14 Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Bewertung: Vier Fragen richtig beantwortet

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 2017 Dr. Stefanie Demirci Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8

Mehr

LR Zerlegung. Michael Sagraloff

LR Zerlegung. Michael Sagraloff LR Zerlegung Michael Sagraloff Beispiel eines linearen Gleichungssystems in der Ökonomie (Input-Output Analyse Wir nehmen an, dass es 3 Güter G, G, und G 3 gibt Dann entspricht der Eintrag a i,j der sogenannten

Mehr

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische lineare Iterationsverfahren

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische lineare Iterationsverfahren III. Iterative Löser III.1 Direkte Löser und ihre Nachteile III.2 Klassische lineare Iterationsverfahren Typeset by FoilTEX 1 Erinnerung: Lineares Gleichungssystem bei FDM Diskretisierung einer linearen

Mehr

Übungen zur Linearen Algebra, Kap. 1 bis Kap. 3

Übungen zur Linearen Algebra, Kap. 1 bis Kap. 3 Übungen zur Linearen Algebra, Kap. bis Kap. 3. Gegeben seien die beiden Matrizen Berechnen Sie Lösungen zu Übung 6 3 4, B = ( 3 5 4 A B, B A, (A B, (B A Dies ist fast eine reine Rechenaufgabe. Wir wollen

Mehr

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

MODULPRÜFUNG Numerische Methoden (Elektrotechnik, Meteorologie, Geodäsie und Geoinformatik)

MODULPRÜFUNG Numerische Methoden (Elektrotechnik, Meteorologie, Geodäsie und Geoinformatik) Karlsruher Institut für Technologie KIT) Institut für Analysis Dr. S. Wugalter Herbst 7.9.7 MODULPRÜFUNG Numerische Methoden Elektrotechnik, Meteorologie, Geodäsie und Geoinformatik) Aufgabe 4 Punkte)

Mehr

$Id: lgs.tex,v /11/26 08:24:56 hk Exp hk $ Definition 5.1: Ein lineares Gleichungssystem besteht aus m linearen Gleichungen

$Id: lgs.tex,v /11/26 08:24:56 hk Exp hk $ Definition 5.1: Ein lineares Gleichungssystem besteht aus m linearen Gleichungen $Id: lgs.tex,v 1.2 2008/11/26 08:24:56 hk Exp hk $ II. Lineare Algebra 5 Lineare Gleichungssysteme Definition 5.1: Ein lineares Gleichungssystem besteht aus m linearen Gleichungen a 11 x 1 + a 12 x 2 +

Mehr

Polynominterpolation

Polynominterpolation Polynominterpolation In der numerischen Mathematik versteht man unter Polynominterpolation die Suche nach einem Polynom, welches exakt durch vorgegebene Punkte (z. B. aus einer Messreihe) verläuft. Dieses

Mehr

4.2.5 Das Cholesky-Verfahren

4.2.5 Das Cholesky-Verfahren S. Ulbrich: Mathematik IV für Elektrotechnik, Mathematik III für Informatik 34 4.2.5 Das Cholesky-Verfahren Für allgemeine invertierbare Matrizen kann das Gauß-Verfahren ohne Pivotsuche zusammenbrechen

Mehr

In diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen.

In diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen. Kapitel 4 Lineare Gleichungssysteme 4 Problemstellung und Einführung In diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen Lineares Gleichungssystem: Gesucht ist

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

(d) das zu Grunde liegende Problem gut konditioniert ist.

(d) das zu Grunde liegende Problem gut konditioniert ist. Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt

Mehr

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte Mathematik I Matrizen In diesem Kapitel werden wir lernen was Matrizen sind und wie man mit Matrizen rechnet. Matrizen ermöglichen eine kompakte Darstellungsform vieler mathematischer Strukturen. Zum Darstellung

Mehr

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 21 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,,255}, n = 1,,N, m = 1,,M dig Camera Realisierung von B η ist

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 55 Studienplanung Bachelor

Mehr

B - 8 Gauß - Elimination (1850) Lineare Systeme in zwei Variablen

B - 8 Gauß - Elimination (1850) Lineare Systeme in zwei Variablen B - 8 Die Grundlage dieses Verfahrens ist die Beobachtung, daß für zwei Funktionen f (x) und g(x) eines Vektors x und jeden beliebigen Skalar λ gilt: f (x) = 0 f (x) = 0 g(x) = 0 g(x) λf (x) = 0 } {{ }

Mehr

Lineare Algebra 1. Roger Burkhardt

Lineare Algebra 1. Roger Burkhardt Lineare Algebra 1 Roger Burkhardt roger.burkhardt@fhnw.ch Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 3 und lineare Gleichungssysteme und

Mehr

Musterlösungen zur Leistungsnachweisklausur vom Studiengang Informatik, Ingenieurinformatik, Lehramt

Musterlösungen zur Leistungsnachweisklausur vom Studiengang Informatik, Ingenieurinformatik, Lehramt TU ILMENAU Institut für Mathematik Numerische Mathematik PD Dr. W. Neundorf Musterlösungen zur Leistungsnachweisklausur vom.0.006 Studiengang Informatik, Ingenieurinformatik, Lehramt 1. Lineare Algebra

Mehr

19. Januar Universität Erlangen-Nürnberg Department Mathematik PD Dr. Markus Bause. . Danach liefert die Gauss-Elinination. .

19. Januar Universität Erlangen-Nürnberg Department Mathematik PD Dr. Markus Bause. . Danach liefert die Gauss-Elinination. . Universität Erlangen-Nürnberg Department Mathematik PD Dr Markus Bause Numerik I 9 Januar A Gegeben sei die Matrix A = a Führen Sie eine Zeilenskalierung der Matrix durch Klausur b Bestimmen Sie mit Hilfe

Mehr

Mathematik I Herbstsemester 2018 Kapitel 8: Lineare Algebra 8.2 Determinanten

Mathematik I Herbstsemester 2018 Kapitel 8: Lineare Algebra 8.2 Determinanten Mathematik I Herbstsemester 2018 Kapitel 8: Lineare Algebra 8.2 Determinanten Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/ farkas 1 / 44 8. Lineare Algebra: 2. Determinanten Ein einführendes

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben).

Mehr

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016 Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen IGPM RWTH Aachen Institut für Geometrie und Praktische Mathematik Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen

Mehr

PS Numerische Mathematik für LAK WS 08/09, LV-Nr.: , HS Übungsblatt (bis )

PS Numerische Mathematik für LAK WS 08/09, LV-Nr.: , HS Übungsblatt (bis ) . Übungsblatt (bis 5.0.2008). Aufgabe. Skizzieren Sie die Einheitskugeln K (0,) im R 2 für die Normen, 2 und. 2. Aufgabe. Beweisen Sie x x 2 n x für alle x R n. 3. Aufgabe. Bestimmen Sie die relative Konditionszahl

Mehr

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Inhaltsverzeichnis Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Auf dieser Seite werden Matrizen und Vektoren fett gedruckt, um sie von Zahlen zu unterscheiden. Betrachtet wird das

Mehr

Inverse Matrix. 1-E Ma 1 Lubov Vassilevskaya

Inverse Matrix. 1-E Ma 1 Lubov Vassilevskaya Inverse Matrix -E Ma Lubov Vassilevskaya Inverse Matrix Eine n-reihige, quadratische Matrix heißt regulär, wenn ihre Determinante einen von Null verschiedenen Wert besitzt. Anderenfalls heißt sie singulär.

Mehr

Numerisches Programmieren, Übungen

Numerisches Programmieren, Übungen Technische Universität München SoSe 3 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Jürgen Bräckle Numerisches Programmieren, Übungen Musterlösung 3. Übungsblatt:

Mehr

Mathematik I Herbstsemester 2014 Kapitel 8: Lineare Algebra 8.2 Determinanten

Mathematik I Herbstsemester 2014 Kapitel 8: Lineare Algebra 8.2 Determinanten Mathematik I Herbstsemester 2014 Kapitel 8: Lineare Algebra 8.2 Determinanten www.math.ethz.ch/education/bachelor/lectures/hs2014/other/mathematik1 BIOL Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 11 1. Juni 2010 Rechenregeln für Determinanten Satz 62. (Determinanten von Dreiecksmatrizen) Es sei A eine obere oder untere n n-dreiecksmatrix.

Mehr

1 Einführung Gleichungen und 2 Unbekannte Gleichungen und 3 Unbekannte... 4

1 Einführung Gleichungen und 2 Unbekannte Gleichungen und 3 Unbekannte... 4 Wirtschaftswissenschaftliches Zentrum 3 Universität Basel Mathematik 2 Dr Thomas Zehrt Lineare Gleichungssysteme Inhaltsverzeichnis Einführung 2 2 Gleichungen und 2 Unbekannte 2 2 3 Gleichungen und 3 Unbekannte

Mehr

4.6 Berechnung von Eigenwerten

4.6 Berechnung von Eigenwerten 4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.

Mehr

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Begleitmaterial zur Vorlesung Numerik II

Begleitmaterial zur Vorlesung Numerik II Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik

Mehr

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2. MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw

Mehr

Lösung Semesterendprüfung

Lösung Semesterendprüfung MNUM Mathematik: Numerische Methoden Herbstsemester 17 Dr Christoph Kirsch ZHAW Winterthur Aufgabe 1 : Lösung Semesterendprüfung Wir schreiben zuerst die Gleichungen f(x i ; a, a 1, a y i, i 1,,, 1, als

Mehr

Lineare Algebra 1. Roger Burkhardt

Lineare Algebra 1. Roger Burkhardt Lineare Algebra 1 Roger Burkhardt roger.burkhardt@fhnw.ch Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 1 Einführung Lineare Gleichungen Definition

Mehr

Matrizenoperationen mit FORTRAN

Matrizenoperationen mit FORTRAN Kapitel 2 Matrizenoperationen mit FORTRAN 21 Grundlagen Bei vielen Anwendungen müssen große zusammenhängende Datenmengen gespeichert und verarbeitet werden Deshalb ist es sinnvoll, diese Daten nicht als

Mehr

Numerische Behandlung von linearen Gleichungssystemen

Numerische Behandlung von linearen Gleichungssystemen Numerische Behandlung von linearen Gleichungssystemen Der Gauÿ'sche Algorithmus Der Gauÿ'sche Algorithmus ist schon besprochen worden. Er eignet sich zwar prinzipiell gut zur Bestimmung der Lösung eines

Mehr

Rechenaufwand der LR- und LDL T - Zerlegung

Rechenaufwand der LR- und LDL T - Zerlegung 6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für

Mehr

Partialbruchzerlegung

Partialbruchzerlegung Partialbruchzerlegung Lucas Kunz 27. Januar 207 Inhaltsverzeichnis Theorie 2. Definition.................................... 2.2 Nullstellen höheren Grades........................... 2.3 Residuen-Formel................................

Mehr

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016 Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b

Mehr

9 Lineare Gleichungssysteme

9 Lineare Gleichungssysteme 9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der

Mehr

Copyright, Page 1 of 5 Die Determinante

Copyright, Page 1 of 5 Die Determinante wwwmathematik-netzde Copyright, Page 1 of 5 Die Determinante Determinanten sind ein äußerst wichtiges Instrument zur Untersuchung von Matrizen und linearen Abbildungen Außerhalb der linearen Algebra ist

Mehr

Brückenkurs Mathematik. Mittwoch Freitag

Brückenkurs Mathematik. Mittwoch Freitag Brückenkurs Mathematik Mittwoch 5.10. - Freitag 14.10.2016 Vorlesung 4 Dreiecke, Vektoren, Matrizen, lineare Gleichungssysteme Kai Rothe Technische Universität Hamburg-Harburg Montag 10.10.2016 0 Brückenkurs

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr