4 Numerische Lineare Algebra



Ähnliche Dokumente
Lineare Gleichungssysteme, LR-Zerlegung

4.4 Orthogonalisierungsverfahren und die QR-Zerlegung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren

Erweiterungen der LR-Zerlegung

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Numerische Lösung linearer Gleichungssysteme

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

Numerisches Programmieren, Übungen

Aufwand und Komplexität Vorlesung vom Komplexität und Effizienz

4. Großübung. Lösung linearer Gleichungssysteme

Lineare Algebra II 5. Übungsblatt

Lineare Gleichungssysteme: direkte Verfahren

Begleitmaterial zur Vorlesung Numerik I

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang

3 Lineare Gleichungssysteme

Lineare Algebra und Geometrie II, Übungen

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

Musterlösung zur Klausur Lineare Algebra II für Lehramt

Diagonalisierbarkeit symmetrischer Matrizen

6 Symmetrische Matrizen und quadratische Formen

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,...

Numerisches Programmieren, Übungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

Lineare Algebra 1. Roger Burkhardt

4.2.3 LR-Zerlegung für diagonaldominante Matrizen

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG

3.6 Eigenwerte und Eigenvektoren

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

LR Zerlegung. Michael Sagraloff

4.6 Berechnung von Eigenwerten

Begleitmaterial zur Vorlesung Numerik I

42 Orthogonalität Motivation Definition: Orthogonalität Beispiel

(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren

Computergestützte Mathematik zur Linearen Algebra

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q:

Spezielle Matrixformen

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix

Matrixzerlegungen. 6. Vorlesung Numerische Methoden I. Clemens Brand. 2. April Nachträge und Wiederholung. Links-Rechts- Zerlegung

4.2.5 Das Cholesky-Verfahren

37 Gauß-Algorithmus und lineare Gleichungssysteme

Matrix: Eine rechteckige Anordnung reeller Zahlen a ij (i = 1,..., n i ; j = 1,..., m) in Zeilen und Spalten. Die a ij heiÿen Elemente von A.

Hilfsblätter Lineare Algebra

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Vektor und Matrixnormen Vorlesung vom

Institut für Geometrie und Praktische Mathematik

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren

Kapitel 3 Lineare Algebra

Vektor und Matrixnormen Vorlesung vom

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

3 Lineare Algebra Vektorräume

Kapitel 2: Lineare Gleichungssysteme

KAPITEL 1. Einleitung

9.2 Invertierbare Matrizen

Cramersche Regel. Satz 2.26

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:

1 Matrizenrechnung zweiter Teil

Rechenaufwand der LR- und LDL T - Zerlegung

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung

6 Eigenwerte und Eigenvektoren

Lösung Serie 11: Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung

Euklidische und unitäre Vektorräume

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Der Rang einer Matrix A. Beispiel

Ökonometrische Analyse

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

IV. Matrizenrechnung. Gliederung. I. Motivation. Lesen mathematischer Symbole. III. Wissenschaftliche Argumentation. i. Rechenoperationen mit Matrizen

und Unterdeterminante

und Unterdeterminante

4 Funktionenfolgen und normierte Räume

Basiswissen Matrizen

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

7.3 Unitäre Operatoren

6. Rechnen mit Matrizen.

Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination. Lehrstuhl für Angewandte Mathematik Wintersemester 2009/

Direkte Verfahren für Lineare Gleichungssysteme

Transkript:

In der linearen Algebra wird die Struktur von linearen Abbildungen T : V W zwischen endlich-dimensionalen Vektorräumen untersucht In der numerischen linearen Algebra befassen wir uns mit einigen praktischen Fragestellungen der linearen Algebra Schwerpunkt der Anwendung ist das Lösen von linearen Gleichungen, also das Auffinden von x V, so dass für ein b W gilt T(x) = b Weiter werden wir Verfahren zur Berechnung von Eigenwerten linearer Abbildungen sowie zur Orthogonalisierung von Vektoren kennenlernen Die meisten Probleme der linearen Algebra treten als Teilprobleme anderer Verfahren auf Große lineare Gleichungssysteme müssen zur Diskretisierung von Differentialgleichungen, aber zb auch bei der Approximation von Funktionen gelöst werden Effiziente numerische Quadraturregeln benötigen zur Konstruktion die Nullstellen orthogonaler Polynome Orthogonalisierungsverfahren spielen aber auch eine Rolle bei der Lösung von großen Gleichungssystemen 41 Grundlagen der linearen Algebra Wir sammeln zunächst einige Definitionen und grundlegende Resultate Es sei V stets ein Vektorraum über dem Körper K Üblicherweise betrachten wir den Raum der reellwertigen Vektoren V = R n Definition 41 (Basis) Eine Teilmenge B V eines Vektorraums über K heißt Basis, falls sich jedes Element v V eindeutig als Linearkombination der Basisvektoren B = {v 1,, v n } darstellen lässt: n v = α i v i, α i K i=1 Die eindeutige Darstellbarkeit jedes v V durch Basisvektoren erlaubt es, den Vektorraum V mit dem Vektorraum der Koeffizientenvektoren α K n zu identifizieren Daher können wir uns in diesem Abschnitt im wesentlichen auf diesen Raum (bzw auf R n ) beschränken Alle Eigenschaften und Resultate übertragen sich auf V Definition 42 (Norm) Eine Abbildung : V R + heißt Norm, falls sie die folgenden drei Eigenschaften besitzt: 1 Definitheit: x 0, x = 0 x = 0, 2 Linearität: αx = α x x V, α K, 3 Dreiecksungleichung: x + y x + y, x, y V 111

Ein Vektorraum mit Norm heißt normierter Raum Häufig verwendete Normen sind die Maximumsnorm, die euklidische Norm 2 sowie die l 1 -Norm 1 : x := max i=1,,n x i, x 2 := ( n x 2 i i=1 ) 1 2, x 1 := n x i i=1 Im Vektorraum R n sowie in allen endlich-dimensionalen Vektorräumen gilt der folgende wichtige Satz: Satz 43 (Normäquivalenz) Zu zwei beliebigen Normen sowie im endlichdimensionalen Vektorraum V existiert eine Konstante c > 0 so dass gilt: 1 c x x c x x V Dieser Satz bedeutet, dass alle Normen in endlich-dimensionalen Vektorräumen äquivalent sind Da Normen wesentlich für den Konvergenzbegriff sind, bedeutet dieses Resultat, dass eine Folge x n x, welche bzgl einer Norm konvergiert auch bzgl jeder anderen Norm konvergiert Auch dieser Zusammenhang ist typisch für endlich-dimensionale Räume und gilt zb nicht in Funktionenräumen So gilt zb für die Funktionenfolge f n (x) = exp( nx 2 ) : f n 0 L 2 ([ 1,1]) 0, jedoch f n 0 0, bezüglich der L 2 -Norm sowie der Maximumsnorm: ( 1 f L 2 ([ 1,1]) := 1 f(x) dx) 1 2, f := sup f(x) x [ 1,1] Neben Normen spielen Räume, in denen ein Skalarprodukt existiert eine wichtige Rolle: Definition 44 (Skalarprodukt) Eine Abbildung (, ) : V V K heißt Skalarprodukt, falls sie die folgenden Eigenschaften besitzt: 1 Definitheit: (x, x) > 0 x V, x 0, (x, x) = 0 x = 0 2 Linearität: (x, αy + z) = α(x, y) + (x, z) x, y, z V, α K, 3 Symmetrie: (x, y) = (y, x) x, y V In reellen Räumen gilt die echte Symmetrie (x, y) = (y, x) Das bekannteste Skalarprodukt ist das euklidische Skalarprodukt für Vektoren x, y R n n (x, y) 2 = x T y = x i y i i=1 112

41 Grundlagen der linearen Algebra Vektorräume mit Skalarprodukt werden Prähilberträume genannt (Ein Prähilbertraum heißt Hilbertraum, falls er vollständig, also ein Banachraum ist) Komplexe Vektorräumen mit Skalarprodukt nennt man auch unitäre Räume, im Reellen spricht man von euklidischen Räumen Skalarprodukte sind eng mit Normen verwandt: Satz 45 (Induzierte Norm) Es sei V ein Vektorraum mit Skalarprodukt Dann ist durch auf V die induzierte Norm gegeben x = (x, x), x V, Beweis: Übung! Die euklidische Norm ist die vom euklidischen Skalarprodukt induzierte Norm: x 2 = (x, x) 1 2 2 Einige wichtige Sätze gelten für Paare aus Skalarprodukt und induzierter Norm: Satz 46 Es sei V ein Vektorraum mit Skalarprodukt (, ) und induzierter Norm Dann gilt die Cauchy-Schwarz Ungleichung: sowie die Parallelogrammidentität: (x, y) x y x, y V, x + y 2 + x y 2 = 2 x 2 + 2 y 2 x, y V Beweis: Übung Mit Hilfe des Skalarproduktes 44 können wir den Begriff der Orthogonalität einführen: zwei Vektoren x, y V heißen orthogonal, falls (x, y) = 0 Eine der Aufgaben der numerischen linearen Algebra ist die Orthogonalisierung (oder auch Orthonormalisierung) von gegebenen Systemen von Vektoren: Definition 47 (Orthonormalbasis) Eine Basis B = {v 1,, v n } von V heißt Orthogonalbasis bezüglich des Skalarproduktes (, ), falls gilt: (φ i, φ j ) = 0 i j, und Orthonormalbasis falls gilt: (φ i, φ j ) = δ ij, mit dem Kronecker-Symbol δ ij 113

Mit unterschiedlichen Skalarprodukten existieren unterschiedliche Orthonormalbasen zu ein und demselben Vektorraum V Orthogonalität stimmt dann im Allgemeinen nicht mit dem geometrischen Orthogonalitätsbegriff des euklidischen Raums überein: Beispiel 48 (Skalarprodukte und Orthonormalbasis) Es sei V = R 2 Durch (x, y) 2 := x 1 y 1 + x 2 y 2, (x, y) ω = 2 x 1 y 1 + x 2 y 2, sind zwei verschiedene Skalarprodukte gegeben Das erste ist das euklidische Skalarprodukt Die Skalarprodukteigenschaften des zweiten sind einfach zu überprüfen Durch x 1 = 1 2 (1, 1) T, x 2 = 1 2 ( 1, 1) T, ist eine Orthonormalbasis bezüglich (, ) 2 gegeben Es gilt jedoch: (x 1, x 2 ) ω = 1 1 (2 1) = 0 2 2 Eine Orthonormalbasis erhalten wir zb durch x 1 = 1 3 (1, 1) T, x 2 = 1 2 ( 1, 2)T, Orthonormalbasen werden für zahlreiche numerische Verfahren benötigt, bei der Gauß schen Quadratur, bei der Gauß-Approximation von Funktionen und zb für die QR-Zerlegung einer Matrix Wir betrachten nun den Vektorraum aller R n m -Matrizen Auch dieser Vektorraum ist endlich-dimensional und prinzipiell können wir den Vektorraum der n m-matrizen mit dem Vektorraum der (nm)-vektoren identifizieren Von besonderem Interesse ist für uns der Vektorraum der quadratischen R n n -Matrizen: Definition 49 (Eigenwerte, Eigenvektoren) Die Eigenwerte λ einer Matrix A R n n sind definiert als Nullstellen des charakteristischen Polynoms: det(a λi) = 0 Die Menge aller Eigenwerte einer Matrix heißt das Spektrum σ(a) := {λ C, λ Eigenwert von A} Der Spektralradius spr : R n n R + ist der betragsmäßig größte Eigenwert: spr(a) := max{ λ, λ σ(a)} Ein Element w R n heißt Eigenvektor zu Eigenwert λ, falls gilt: Aw = λw 114

41 Grundlagen der linearen Algebra Bei der Untersuchung von linearen Gleichungssystemen Ax = b stellt sich zunächst die Frage, ob ein solches Gleichungssystem überhaupt lösbar ist und ob die Lösung eindeutig ist Wir fassen zusammen: Satz 410 (Reguläre Matrix) Für eine quadratische Matrix A R n n sind die folgenden Aussagen äquivalent: 1 Die Matrix A ist regulär 2 Die transponierte Matrix A T ist regulär 3 Die Inverse A 1 ist regulär 4 Das lineare Gleichungssystem Ax = b ist für jedes b R n eindeutig lösbar 5 Es gilt det(a) 0 6 Alle Eigenwerte von A sind ungleich Null Wir definieren weiter: Definition 411 (positiv definit) Eine Matrix A K n n heißt positiv definit, falls (Ax, x) > 0 x 0 Umgekehrt können wir aus der definierenden Eigenschaft der positiven Definitheit einer Matrix ablesen: falls A positiv definit ist, so ist durch (A, ) ein Skalarprodukt gegeben Es gilt: Satz 412 (Positiv definite Matrizen) Es sei A R n n eine symmetrische Matrix Dann ist A genau dann positiv definit, falls alle (reellen) Eigenwerte von A positiv sind Dann sind alle Diagonalelemente von A positiv und das betragsmäßig größte Element steht auf der Diagonalen Beweis: (i) Es sei A eine symmetrische Matrix mit einer Orthonormalbasis aus Eigenvektoren w 1,, w n A sei positiv definit Dann gilt für beliebigen Eigenvektor w i mit Eigenwert λ i : 0 < (Aw i, w i ) = λ i (w i, w i ) = λ i Umgekehrt seien alle λ i positiv Für x = n i=1 α i w i gilt: (Ax, x) = (λ i α i ω i, α j ω j ) = i,j i λ i α 2 i > 0 (ii) A sei nun eine reelle, positiv definite Matrix Es sei e i der i-te Einheitsvektor Dann gilt: 0 < (Ae i, e i ) = a ii 115

Dh, alle Diagonalelemente sind positiv (iii) Entsprechend wählen wir nun x = e i sign(a ij )e j Wir nehmen an, dass a ji = a ij das betragsmäßig größte Element der Matrix sei Dann gilt: 0 < (Ax, x) = a ii sign(a ij )(a ij + a ji ) + a jj = a ii + a ji 2 a ij 0 Aus diesem Widerspruch folgt die letzte Aussage des Satzes: das betragsmäßig größte Element muss ein Diagonalelement sein Für Normen auf dem Raum der Matrizen definieren wir weitere Struktureigenschaften: Definition 413 (Matrixnormen) Eine Norm : R n n R + heißt Matrizenorm, falls sie submultiplikativ ist: AB A B A, B R n n Sie heißt verträglich mit einer Vektornorm : R n R +, falls gilt: Ax A x A R n n, x R n Eine Matrixnorm : R n n R + heißt von einer Vektornorm : R n R + induziert, falls gilt: Ax A := max x 0 x Es ist leicht nachzuweisen, dass jede von einer Vektornorm induzierte Matrixnorm mit dieser auch verträglich ist Verträglich mit der euklidischen Norm ist aber auch die Frobeniusnorm 1 2 n A F :=, a 2 ij i,j=1 welche nicht von einer Vektor-Norm induziert ist Für allgemeine Normen auf dem Vektorraum der Matrizen gilt nicht notwendigerweise I = 1, wobei I R n n die Einheitsmatrix ist Dieser Zusammenhang gilt aber für jede von einer Vektornorm induzierte Matrixnorm Wir fassen im folgenden Satz die wesentlichen induzierten Matrixnormen zusammen: Satz 414 (Induzierte Matrixnormen) Die aus der euklidischen Vektornorm, der Maximumsnorm sowie der l 1 -Norm induzierten Matrixnormen sind die Spektralnorm 2, die maximale Zeilensumme, sowie die maximale Spaltensumme 1 : A 2 = spr(a T A), spr(b) := max{ λ, λ ist Eigenwert von B}, m A = max a ij, A 1 = i=1,,n j=1 n max j=1,,m i=1 a ij 116

41 Grundlagen der linearen Algebra Beweis: (i) Es gilt: A 2 Ax 2 2 2 = sup x 0 x 2 2 (Ax, Ax) (A T Ax, x) = sup x 0 x 2 = sup 2 x 0 x 2 2 Die Matrix A T A ist symmetrisch und hat als solche nur reelle Eigenwerte Sie besitzt eine Orthonormalbasis ω i R n von Eigenvektoren mit Eigenwerten λ i 0 Alle Eigenwerte λ i sind größer gleich Null, denn: λ i = λ i (ω i, ω i ) = (A T Aω i, ω i ) = (Aω i, Aω i ) = Aω i 2 0 Es sei x R n beliebig mit Basisdarstellung x = i α iω i Es gilt dann wegen (ω i, ω j ) 2 = δ ij die Beziehung x 2 2 = i α2 i sowie mit dem Koeffizientenvektor α Rn : A 2 ( i 2 = sup α ia T Aω i, i α iω i ) α 0 = sup α 0 i λ iα 2 i i α2 i i α2 i max i λ i ( i = sup α iλ i ω i, i α iω i ) α 0 i α2 i Es sei nun umgekehrt durch λ k der größte Eigenwert gegeben Dann gilt für α i = δ ki : 0 max λ i = λ k = i i λ i α 2 i A 2 2 (ii) Wir zeigen das Ergebnis exemplarisch für die Maximumsnorm: m Ax = max a ij x j i sup x =1 Jede Summe nimmt ihr Maximum an, falls x j = 1 und falls das Vorzeichen x j so gewählt wird, dass a ij x j 0 für alle j = 1,, m Dann gilt: Ax = max i j=1 m a ij j=1 Als Nebenresultat erhalten wir, dass jeder Eigenwert betragsmäßig durch die Spektralnorm der Matrix A beschränkt ist Es gilt sogar mit beliebiger Matrixnorm und verträglicher Vektornorm für einen Eigenwert λ mit zugehörigem Eigenvektor w R n von A: λ = λ w w = Aw w A w w = A Eine einfache Schranke für den betragsmäßig größten Eigenwert erhält man also durch Analyse beliebiger (verträglicher) Matrixnormen Aus Satz 414 folgern wir weiter, dass für symmetrische Matrizen die 2 -Norm mit dem Spektralradius der Matrix selbst übereinstimmt, daher der Name Spektralnorm 117

42 Lösungsmethoden für lineare Gleichungssysteme Das Lösen von linearen Gleichungssystemen ist eine der wichtigsten numerischen Aufgaben Viele Probleme sind nicht unmittelbar als lineares Gleichungssystem formuliert, in vielen Anwendungen treten allerdings ständig (unter Umständen sehr große) lineare Gleichungssysteme auf Groß bedeutet in Anwendungen, dass Gleichungssysteme mit vielen Millionen Unbekannten gelöst werden müssen Wir werden uns in diesem Abschnitt ausschließlich mit reellwertigen Matrizen A R n n befassen Methoden zum Lösen von linearen Gleichungsystemen klassifiziert man als direkte Verfahren, welche die Lösung des Gleichungssystems unmittelbar und bis auf Rundungsfehlereinflüsse exakt berechnen und iterative Verfahren, welche die Lösung durch eine Fixpunktiteration approximieren Hier befassen wir uns ausschließlich mit direkten Methoden Iterative Verfahren sind Gegenstand von Kapitel 5 Als einführendes Beispiel betrachten wir das einfache Gleichungssystem ( ) ( ) ( ) 0988 0959 x 0087 = 0992 0963 y 0087 mit der Lösung (x, y) T = (3, 3) T Wir bestimmen die Lösung numerisch durch Gauß- Elimination mit dreistelliger Rechengenauigkeit Die Gauß-Elimination setzen wir dabei als bekannt voraus: ( 0988 0959 ) 0087 0992 0963 0087 0992/0998 ( 0988 0959 ) 0087 0988 0960 00866 ( 0988 0959 0087 ) 0 0001 00004 Mit Hilfe der Gauß-Elimination haben wir die Matrix A auf eine Dreiecksgestalt transformiert Die rechte Seite b wurde entsprechend modifiziert Das resultierende Dreieckssystem kann nun sehr einfach durch Rückwärtseinsetzen gelöst werden (bei dreistelliger Rechnung): 0001y = 00004 y = 04, 0988x = 0087 0959 ( 04) 0471 x = 0477 Wir erhalten also (x, y) = (0477, 04) Der relative Fehler der numerischen Lösung beträgt somit fast 90% Die numerische Aufgabe, ein Gleichungssystem zu lösen scheint also entweder generell sehr schlecht konditioniert zu sein (siehe Kapitel 1), oder aber das Eliminationsverfahren zur Lösung eines linearen Gleichungssystems ist numerisch sehr instabil und nicht gut geeignet Der Frage nach der Konditionierung und Stabilität gehen wir im folgenden Abschnitt auf den Grund 118

42 Lösungsmethoden für lineare Gleichungssysteme In der praktischen Anwendung treten sehr große Gleichungssysteme Ax = b auf Bei der numerischen Approximation von partiellen Differentialgleichungen müssen Matrizen A R n n der Dimension n > 1 000 000 invertiert werden (Man nennt das Lösen eines linearen Gleichungssystems oft invertieren, auch wenn die Inverse A 1 nicht wirklich aufgestellt wird) Hinzu kommt, dass ein solches lineares Gleichungssystem oft wiederholt (viele 1 000 mal) gelöst werden muss (zb bei der Diskretisierung von instationären Differentialgleichungen, oder bei nichtlinearen Gleichungen) Neben der Stabilität des Lösungsprozesses wird auch die numerische Effizienz eine große Rolle spielen Man versuche, eine 20 20-Matrix mit dem Gauß schen Eliminationsverfahren zu invertieren! 421 Störungstheorie & Stabilitätsanalyse von linearen Gleichungssystemen Zu einer quadratischen, regulären Matrix A R n n sowie einem Vektor b R n betrachten wir das lineare Gleichungssystem Ax = b Durch numerische Fehler, Rundungsfehler oder bloße Eingabefehler zum Beispiel durch Messungenauigkeiten liegen sowohl A als auch b nur gestört vor: à x = b Dabei sei à = A + δa sowie b = b + δb, mit Störung δa sowie δb Wir kommen nun zur Kernaussage dieses Abschnitts und wollen die Fehlerverstärkung beim Lösen von linearen Gleichungssystemen betrachten Fehler können dabei in der Matrix A als auch in der rechten Seite b auftauchen Wir betrachten zunächst Störungen der rechten Seite: Satz 415 (Störung der rechten Seite) Durch x R n sei die Lösung des linearen Gleichungsystems Ax = b gegeben Es sei δb eine Störung der rechten Seite b = b + δb und x die Lösung des gestörten Gleichungssystems Dann gilt: mit der Konditionszahl der Matrix δx x cond(a) δb b, cond(a) = A A 1 Beweis: Es sei eine beliebige Matrixnorm mit verträglicher Vektornorm Für die Lösung x R n und gestörte Lösung x R n gilt: x x = A 1 (A x Ax) = A 1 ( b b) = A 1 δb Also: δx x A 1 δb x b b = A 1 δb b Ax x A δb A 1 } {{ } b =:cond(a) 119

Bemerkung 416 (Konditionszahl einer Matrix) Die Konditionszahl einer Matrix spielt die entscheidende Rolle in der numerischen Linearen Algebra Betrachten wir etwa die Konditionierung der Matrix-Vektor Multiplikation y = Ax so erhalten wir bei gestörter Eingabe x = x + δx wieder: δy y cond(a) δx x Die Konditionszahl einer Matrix hängt von der gewählten Norm ab Da jedoch alle Matrixnormen im R n n äquivalent sind, sind auch alle Konditionsbegriffe äquivalent Mit Satz 414 folgern wir für symmetrische Matrizen für den Spezialfall cond s (A): cond 2 (A) = A 2 A 1 2 = max{ λ, λ Eigenwert von A} min{ λ, λ Eigenwert von A} Wir betrachten nun den Fall, dass die Matrix A eines linearen Gleichungssystems mit einer Störung δa versehen ist Es stellt sich zunächst die Frage, ob die gestörte Matrix à = A + δa überhaupt noch regulär ist Hilfsatz 417 Es sei durch eine von der Vektornorm induzierte Matrixnorm gegeben Weiter sei B R n n eine Matrix mit B < 1 Dann ist die Matrix I + B regulär und es gilt die Abschätzung: (I + B) 1 1 1 B Beweis: Es gilt: (I + B)x x Bx (1 B ) x Da 1 B > 0 ist durch I + B eine injektive Abbildung gegeben Also ist I + B eine reguläre Matrix Weiter gilt: 1 = I = (I + B)(I + B) 1 = (I + B) 1 + B(I + B) 1 (I + B) 1 B (I + B) 1 = (I + B) 1 (1 B ) > 0 Mit diesem Hilfsatz können wir im Folgenden auch auf die Störung der Matrix eingehen: Satz 418 (Störung der Matrix) Es sei x R n die Lösung des linearen Gleichungssystems Ax = b und à = A + δa einer gestörte Matrix mit δa A 1 1 Für die gestörte Lösung x gilt: δx x cond(a) δa 1 cond(a) δa / A A Beweis: Wir betrachten den Fall, dass die rechte Seite nicht gestört ist: δb = 0 Dann gilt für Lösung x sowie gestörte Lösung x und Fehler δx := x x: (A + δa) x = b (A + δa)x = b + δax δx = [A + δa] 1 δax 120

42 Lösungsmethoden für lineare Gleichungssysteme Da laut Voraussetzung A 1 δa A 1 δa < 1 folgt mit Hilfsatz 417: δx A 1 [I + A 1 δa] 1 δa x A 1 1 A 1 δa x δa Das Ergebnis erhalten wir durch zweimaliges Erweitern mit A / A sowie mit der Voraussetzung 0 A 1 δa < 1 Diese beiden Störungssätze können einfach kombiniert werden, um gleichzeitig die Störung durch rechte Seite und Matrix abschätzen zu können: Satz 419 (Störungssatz für lineare Gleichungssysteme) Es sei x R n die Lösung des linearen Gleichungssystems Ax = b mit einer regulären Matrix A R n n Für die Lösung x R n des gestörten Systems à x = b mit Störungen δb = b b und δa = à A gilt unter der Voraussetzung δa < 1 A 1 die Abschätzung: δx x ( cond(a) δb 1 cond(a) δa / A b + δa ), A mit der Konditionszahl cond(a) = A A 1 Beweis: Wir kombinieren die Aussagen von Satz 415 und 418 Hierzu sei x die Lösung von Ax = b, x die gestörte Lösung à x = b und ˆx die Lösung zu gestörter rechter Seite Aˆx = b Dann gilt: x x x ˆx + ˆx x cond(a) δb b + Die Aussage folgt mit (beachte δa < A 1 1 ) cond(a) 1 cond(a) δa A δa A 0 cond(a) δa A < A 1 A 1 A A 1 1 Mit diesem Ergebnis kehren wir zum einführenden Beispiel aus Abschnitt 42 zurück: ( ) 0988 0959 A = 0992 0963 ( ) A 1 8301 8267 8552 8517 In der maximalen Zeilensummennorm gilt: A 1 = 1955, A 1 1 17079, cond 1 (A) 33370 121

Das Lösen eines linearen Gleichungssystems mit der Matrix A ist also äußerst schlecht konditioniert Hieraus resultiert der enorme Rundungsfehler im Beispiel zu Beginn des Kapitels Wir halten hier fest: bei großer Konditionszahl ist die Konditionierung des Problems sehr schlecht, dh der große Fehler ist immanent mit der Aufgabe verbunden und nicht unbedingt auf ein Stabilitätsproblem des Verfahrens zurückzuführen 422 Das Gauß sche Eliminationsverfahren und die LR-Zerlegung Das wichtigste Verfahren zum Lösen eines linearen Gleichungsystems Ax = b mit quadratischer Matrix A R n n ist das Gauß sche Eliminationsverfahren: durch Elimination der Einträge unterhalb der Diagonale wird die Matrix A R n n in den ersten n 1 Schritten auf eine obere rechte Dreiecksgestalt gebracht: 0 0 0 0 0 0 0 0 0 Mit der Dreiecksmatrix R R n n (R = (r ij ) n i,j=1 mit r ij = 0 für i > j) kann das reduzierte Gleichungssystem Rx = b, durch Rückwärtseinsetzen gelöst werden Wir betrachten zunächst diese Rückwärtseinsetzen: Algorithmus 420 (Rückwärtseinsetzen) Es sei R n n eine rechte obere Dreiecksmatrix Die Lösung x R n von Rx = b ist gegeben durch: 1 Setze x n = r 1 nnb n 2 Für i = n 1,, 1 x i = r 1 ii b i n j=i+1 r ij x j Es gilt: Satz 421 (Rückwärtseinsetzen) Es sei R R n n eine rechte obere Dreiecksmatrix mit r ii 0 Dann ist die Matrix R regulär und das Rückwärtseinsetzen erfordert arithmetische Operationen N R (n) = n2 2 + O(n) 122

42 Lösungsmethoden für lineare Gleichungssysteme Beweis: Es gilt det(r) = r ii 0 Also ist die Matrix R regulär Jeder Schritt der Rückwärtseinsetzen besteht aus Additionen, Multiplikationen und Division durch die Diagonalelemente Bei r ii 0 ist jeder Schritt durchführbar Zur Berechnung von x i sind n (i+1) Multiplikationen und Additionen notwendig Hinzu kommt eine Division pro Schritt Dies ergibt: n + n 1 i=1 ( n (i + 1) ) = n + (n 1)n (n 1) n(n 1) 2 = n2 n + 2 2 Die Transformation von A auf Dreiecksgestalt geschieht durch zeilenweise Elimination: a 11 a 12 a 13 a 1n a 11 a 12 a 13 a 1n a 21 a 22 a 23 a 2n 0 a (1) 22 a (1) 23 a (1) 2n a 31 a 32 a 33 a3n 0 a (1) 32 a (3) (1) 33 a 3n a n1 a n2 a n3 a nn 0 a (1) n2 a (1) n3 a (1) nn a 11 a 12 a 13 a 1n 0 a (1) 22 a (1) 23 a (1) 2n 0 0 a (2) (2) 33 a 3n A (n 1) =: R 0 0 a (2) n3 a (2) nn Beginnend mit A (0) := A werden sukzessive Matrizen A (i) erzeugt, mit A (n 1) =: R Dabei wird in Schritt i des Verfahrens die Spalte i-te Spalte von A (i 1) unterhalb der Diagonalen eliminiert Dies geschieht durch Subtraktion des g (i) k -fachen der i-ten Zeile von der k-ten Hierbei gilt: g (i) k := a(i 1) ki a (i 1) ii Im i-ten Eliminationschritt bleiben die ersten i 1 Zeilen und Spalten unverändert Der i-te Eliminationsschritt lässt sich kompakt in Form einer Matrix-Matrix Multiplikation schreiben A (i) = F (i) A (i 1), mit der Eliminationsmatrix (alle nicht spezifizierten Einträge sind Null): 1 F (i) := 1 g (i), g (i) k i+1 g n (i) 1 := a(i 1) ki a (i 1) ii 123

Mehrfache Anwendung von Eliminationsmatrizen führt zu der Darstellung: R = A (n 1) = F (n 1) A (n 2) = F (n 1) F (n 2) A (n 3) = } F (n 1) {{ F (1) } A (0) = FA (41) =:F Matrizen mit der Gestalt der Eliminationsmatrizen F (i) heißen Frobeniusmatrix Es gilt der folgende Satz: Satz 422 (Frobeniusmatrix) Jede Frobeniusmatrix F (i) R n n ist regulär und es gilt: 1 F (i) := 1 g i+1 g n 1 1 [F (i) ] 1 := Für zwei Frobeniusmatrizen F (i1) und F (i2) mit i 1 < i 2 gilt: 1 1 g (i 1) i 1 +1 1 F (i1) F (i2) = F (i1) + F (i2) I = 1 g (i 2) i 2 +1 g (i 1) n g (i 2) 1 g i+1 g n 1 n 1 Beweis: Nachrechnen! Bei der Multiplikation von Frobeniusmatrizen ist darauf zu achten, dass diese nicht kommutativ ist Es gilt: F (i 2) F (i 1) F (i 1) + F (i 2) I für i 1 < i 2! Aus dem Multiplikationsverhalten von Frobeniusmatrizen können wir für i 1 < i 2 < i 3 eine einfache Verallgemeinerung ableiten: F (i 1) F (i 2) F (i 3) = F (i 1) (F (i 2) + F (i 3 I)F (i 1) F (i 2) + F (i 1) F (i 3 F (i 1) = F (i 1) + F (i 2) I + F (i 1) + F (i 3) I F (i 1) = F (i 1) + F (i 2) + F (i 3) 2I 124

42 Lösungsmethoden für lineare Gleichungssysteme Wir setzen nun (41) fort und mit F (i) := [F (i) ] 1 gilt bei Verwendung von Satz 422 zunächst, dass F als Produkt von regulären Matrizen selbst regulär ist Also folgt: A = F 1 R = [F (n 1) F (1) ] 1 R = } F (1) {{ F (n 1) } R =:L Die Matrix L ist nach der Verallgemeinerung von Satz 422 eine untere Dreiecksmatrix mit Diagonaleinträgen 1: Wir fassen zusammen: 1 g (1) 2 1 g (1) L = 3 g (2) 3 1 g (1) 4 g (2) 4 g (3) 4 1 g n (1) g n (2) g n (n 1) 1 Satz 423 (LR-Zerlegung) Es sei A R n n eine quadratische, reguläre Matrix Angenommen alle bei der Elimination auftretenden Diagonalelemente a (i 1) ii seien ungleich Null Dann existiert die eindeutig bestimmte LR-Zerlegung in eine rechte obere reguläre Dreiecksmatrix R R n n sowie in eine linke untere reguläre Dreiecksmatrix L R n n mit Diagonaleinträgen 1 Die Aufwand zur Durchführung der LR-Zerlegung beträgt arithmetische Operationen 1 3 n3 + O(n 2 ) Beweis: (i) Eindeutigkeit Angenommen, es existieren zwei LR-Zerlegungen A = L 1 R 1 = L 2 R 2 L 1 2 L 1 = R 2 R 1 1 Das Produkt von Dreiecksmatrizen ist wieder eine Dreiecksmatrix, also müssen beide Produkte Diagonalmatrizen sein Das Produkt L 1 2 L 1 hat nur Einsen auf der Diagonale, also folgt L 1 2 L 1 = R 2 R1 1 = I, und somit L 1 = L 2 und R 1 = R 2 (ii) Durchführbarkeit Jeder Schritt der Elimination ist durchführbar, solange nicht durch a (i 1) ii = 0 geteilt werden muss Die Matrix F ist per Konstruktion regulär und somit existiert auch die Matrix L (iii) Aufwand Im i-ten Eliminationsschritt A (i) = F (i) A (i 1) 125

sind zunächst n (i + 1) arithmetische Operationen zur Berechnung der g (i) j für j = i + 1,, n notwendig Die Matrix-Matrix Multiplikation betrifft nur alle Elemente a kl mit k > i sowie l > i Es gilt: a (i) kl = a (i 1) kl + g (i) k a(i) ik, k, l = i + 1,, n Hierfür sind (n (i + 1)) 2 arithmetische Operationen notwendig Insgesamt summiert sich der Aufwand in den n 1 Schritten zu: n 1 { N LR (n) = n (i + 1) + (n (i + 1)) 2 } n 1 { = n 2 n i(1 + 2n) + i 2}, i=1 i=1 und mit den bekannten Summenformeln folgt: N LR (n) = (n 1)n 2 (n 1)n n(n 1) (n 1)n(2n 1) (1 + 2n) + = 1 2 6 3 n3 2n 2 + 5 3 n Die LR-Zerlegung kann nun zum Lösen von linearen Gleichungssystemen verwendet werden: Algorithmus 424 (Lösen von linearen Gleichungsystemen mit der LR-Zerlegung) Es sei A R n n eine reguläre Matrix, für welche die LR-Zerlegung existiert 1 Berechne die LR-Zerlegung A = LR in linke untere und rechte obere Dreiecksmatrix 2 Löse das Gleichungssystem Ax = b durch Vorwärts- und Rückwärtseinsetzen: (i) Ly = b (ii) Rx = y Die Vorwärtselimination läuft entsprechend der Rückwärtseinsetzen in Algorithmus 420 und gemäß Satz 421 benötigt sie O(n 2 ) Operationen Das eigentliche Lösen eines linearen Gleichungsystems ist weit weniger aufwendig als das Erstellen der Zerlegung In vielen Anwendungsproblemen, etwa bei der Diskretisierung von parabolischen Differentialgleichungen, müssen sehr viele Gleichungssysteme mit unterschiedlichen rechten Seiten aber identischen Matrizen hintereinander gelöst werden Hier bietet es sich an, die Zerlegung nur einmal zu erstellen und dann wiederholt anzuwenden 126

42 Lösungsmethoden für lineare Gleichungssysteme Bemerkung 425 (Praktische Aspekte) Die Matrix L ist eine linke untere Dreiecksmatrix mit Einsen auf der Diagonale Die bekannten Diagonalelemente müssen demnach nicht gespeichert werden Ebenso müssen die Nullelemente der Matrizen A (i) unterhalb der Diagonale nicht gespeichert werden Es bietet sich an, die Matrizen L und R in der gleichen quadratischen Matrix zu speichern In Schritt i gilt dann: a 11 a 12 a 13 a 1n l 21 a (1) 22 a (1) 23 l 31 l 32 a (2) 33 Ã (i) = l i+1,i a (i) i+1,i+1 a (i) i+1,n l n1 l n2 l n,i a (i) n,i+1 a (i) nn Dabei sind die fett gedruckten Werte die Einträge von L Die Werte oberhalb der Linie ändern sich im Verlaufe des Verfahrens nicht mehr und bilden bereits die Einträge L sowie R Pivotierung Das Element a (i 1) ii wird das Pivot-Element genannt Bisher musste dieses Element stets ungleich Null sein Dies ist jedoch für reguläre Matrizen nicht zwingend notwendig Wir betrachten als Beispiel die Matrix 1 4 2 A := 2 8 1 1 2 1 Im ersten Schritt zur Erstellung der LR-Zerlegung ist a (0) 11 = 1 und es gilt: 1 0 0 1 4 2 A (1) = F (1) 1 4 2 A = 2 1 0 2 8 1 = 0 0 3 1 0 1 1 2 1 0 2 1 An dieser Stelle bricht der Algorithmus ab, denn es gilt a (1) 22 = 0 Wir könnten den Algorithmus jedoch mit der Wahl a (i) 32 = 2 als neues Pivot-Element weiterführen Dies geschieht systematisch durch Einführen einer Pivotisierung Im i-ten Schritt des Verfahrens wird zunächst ein geeignetes Pivot-Element a ki in der i-ten Spalte gesucht Die k-te und i-te Zeile werden getauscht und die LR-Zerlegung kann nicht weiter durchgeführt werden Das 127

Tauschen von k-ter und i-ter Zeile erfolgt durch Multiplikation mit einer Pivot-Matrix: 1 1 0 0 0 1 0 1 0 P ki := 0 1 0 1 0 0 0 1 1 Es gilt p ki jj = 1 für j k und j i sowie pki = pki ik Wir fassen einige Eigenschaften von P zusammen: = 1, alle anderen Elemente sind Null Satz 426 (Pivot-Matrizen) Es sei P = P kl die Pivot-Matrix mit Pii kl = 1 für i k, l und Pkl kl = Plk kl = 1 Die Anwendung P kl A von links tauscht k-te und l-te Zeile von A, die Anwendung AP kl von rechts tauscht k-te und l-te Spalte Es gilt: P 2 = I P 1 = P Beweis: Übung In Schritt i der LR-Zerlegung suchen wir nun zunächst das Pivot-Element: Algorithmus 427 (Pivot-Suche) In Schritt i suche Index k i, so dass Bestimme die Pivot-Matrix als P (i) := P ki Im Anschluss bestimmen wir A (i) als a ki = max j i a ji A (i) = F (i) P (i) A (i 1) Die Pivotisierung sorgt dafür, dass alle Elemente g (i) k = a (i 1) ki durch 1 beschränkt sind Insgesamt erhalten wir die Zerlegung: /a (i 1) ii von F (i) im Betrag R = A (n 1) = F (n 1) P (n 1) F (1) P (1) A (42) Die Pivot-Matrizen kommutieren nicht mit A oder den F (i) Daher ist ein Übergang zur LR-Zerlegung nicht ohne weitere möglich Wir definieren: F (i) := P (n 1) P (i+1) F (i) P (i+1) P (n 1) 128

42 Lösungsmethoden für lineare Gleichungssysteme Die Matrix F (i) entsteht durch mehrfache Zeilen- und Spaltenvertauschung von F (i) Dabei werden nur Zeilen und Spalten j > i vertauscht Die Matrix F (i) hat die gleiche Besetzungsstruktur wie F (i) und insbesondere nur Einsen auf der Diagonale Dh, sie ist wieder eine Frobeniusmatrix und Satz 422 gilt weiter Es sind lediglich die Einträge in der i-ten Spalte unterhalb der Diagonale permutiert Für die Inverse gilt entsprechend: L (i) := [ F (i) ] 1 = P (n 1) P (i+1) L (i) P (i+1) P (n 1) Die gleichzeitige Vertauschung von Zeilen und Spalten lässt die Diagonalelemente unverändert Die Matrix L (i) ist wieder eine Frobeniusmatrix, es werden nur die Elemente der Spalte l ij, i > j permutiert Wir formen (42) durch geschicktes Einfügen von Permutationsmatrizen um: R = F (n 1) F (n 2) F (1) P } (n 1) {{ P (1) } A =:P Diesen Prozess mache man sich anhand eines einfachen Beispiels klar: Mit L (i) = [ F (i) ] 1 gilt dann: R = F (3) P (3) F (2) P (2) F (1) P (1) A = F (3) P (3) F (2) } P (3) {{ P (3) } P (2) F (1) } P (2) P (3) {{ P (3) P (2) } P (1) A =I =I = F }{{} (3) } P (3) F {{ (2) P (3) } } P (3) P (2) F {{ (1) P (2) P (3) } } P (3) P {{ (2) P (1) } A = F (3) = F (2) = F (1) =P L (1) (n 1) } {{ L } R = PA =: L Da L (i) wieder Frobeniusmatrizen sind, gilt weiter mit Satz 422: L = L (1) = n 1 i=1 L (n 1) L (i) (n 2)I = P (n 1) ( L (n 1) + P (n 1) ( L (n 2) + + P (2) F (1) P (2)) P (n 2)) P (n 1) (n 2)I Beim Erstellen der LR-Zerlegung müssen also nicht nur die A (i) sondern auch die bisher berechneten L (i) permutiert werden Wir fassen zusammen: Satz 428 (LR-Zerlegung mit Pivotisierung) Es sei A R n n eine reguläre Matrix Es existiert eine LR-Zerlegung PA = LR, wobei P ein Produkt von Pivot-Matrizen ist, L eine untere Dreiecksmatrix mit Diagonaleinträgen eins und R eine rechte obere Dreiecksmatrix Die LR-Zerlegung ohne Pivotisierung P = I ist eindeutig, falls sie existiert 129

Beweis: Übung Die Pivotisierung dient einerseits dazu, die Durchführbarkeit der LR-Zerlegung sicherzustellen Auf der anderen Seite kann durch geeignete Pivotisierung die Stabilität der Gauß-Elimination verbessert werden Durch Wahl eines Pivot-Elements a ki mit maximaler relativer Größe (bezogen auf die Zeile) kann die Gefahr der Auslöschung verringert werden Beispiel 429 (LR-Zerlegung ohne Pivotierung) Es sei: 23 18 10 12 A = 14 11 07, b = 21, 08 43 21 06 und die Lösung des linearen Gleichungssystems Ax = b ist gegeben durch (Angabe mit fünfstelliger Genauigkeit): 034995 x 098024 21595 Für die Matrix A gilt cond (A) = A A 1 72 12 87 Die Aufgabe ist also gut konditioniert, eine Fehlerverstärkung um höchstens eine Stelle ist zu erwarten Wir erstellen zunächst die LR-Zerlegung (dreistellige Rechnung) Dabei schreiben wir die Einträge von L fettgedruckt in die Ergebnismatrix: 1 0 0 1 0 0 23 18 10 F (1) = 14 23 1 0 0609 1 0, [L (1), A (1) ] 0609 00038 131 08 23 0 1 0348 0 1 0348 367 175 Im zweiten Schritt gilt: F (2) 1 0 0 1 0 0 = 0 1 0 0 1 0, 0 367 00038 1 0 966 1 23 18 10 [L (2) L (1), A (2) ] 0609 00038 131 0348 966 1270 Die LR-Zerlegung ergibt sich als: 1 0 0 23 18 10 L = 0609 1 0, R := 0 00038 131 0348 966 1 0 0 1270 Wir lösen das Gleichungssystem nun durch Vorwärts- und Rückwärtseinsetzen: Zunächst gilt: A x = L }{{} R x = b =y y 1 = 12, y 2 = 21 0609 12 283, y 3 = 06 0348 12 + 966 283 2730 130

42 Lösungsmethoden für lineare Gleichungssysteme Und schließlich: x 3 = 2730 1270 215, x 283 + 131 215 12 + 18 355 215 2 = 355, x 1 = 237 00038 23 Für die Lösung x gilt: 237 x = 355, 215 x x 2 x 2 14, dh ein Fehler von 140 Prozent, obwohl wir nur Rundungsfehler und noch keine gestörte Eingabe betrachtet haben Dieses Negativbeispiel zeigt die Bedeutungder Pivotisierung Im zweiten Schritt wurde als Pivot-Element mit 00038 ein Wert Nahe bei 0 gewählt Hierdurch entstehen Werte von sehr unterschiedlicher Größenordnung in den Matrizen L und R Dies wirkt sich ungünstig auf die weitere Stabilität aus Beispiel 430 (LR-Zerlegung mit Pivotisierung) Wir setzen das Beispiel in Schritt 2 fort und suchen zunächst das Pivot-Element: 23 18 10 [L (1), A (1) ] = 0609 00038 131, P (2) 1 0 0 = 0 0 1 0348 367 175 0 1 0 Also, pivotisiert: 23 18 10 [ L (1), Ã(1) ] = 0348 367 175 0609 00038 131 Weiter folgt nun: F (2) 1 0 0 1 0 0 = 0 1 0 0 1 0 0 00038 367 1 0 000104 1 23 18 10 [L (2) L(1), Ã(2) ] 0348 367 175 0609 0001040 131 Wir erhalten die Zerlegung: 1 0 0 23 18 10 LR = PA, L 1 0 0 := 0348 1 0, R := 0 367 175, P := 0 0 1 0609 000104 1 0 0 131 0 1 0 Das Lineare Gleichungssystem lösen wir in der Form: PAx = L }{{} Rx = Pb =y 131

Zunächst gilt für die rechte Seite: b = Pb = (12, 06, 21) T und Vorwärtseinsetzen in Ly = b ergibt y 1 = 12, y 2 = 06 0348 12 0182, y 3 = 21 0609 12 000104 0182 283 Als Näherung x erhalten wir: mit einem relativen Fehler also von nur 002% statt 140% 035 x = 098 216 x x 2 x 2 00002, Die Beispiele zeigen, dass die berechnete LR-Zerlegung in praktischer Anwendung natürlich keine echte Zerlegung, sondern aufgrund von Rundungsfehlern nur eine Näherung der Matrix A LR ist Man kann durch Berechnung von LR leicht die Probe machen und den Fehler A LR bestimmen Die LR-Zerlegung ist eines der wichtigsten direkten Verfahren zum Lösen von linearen Gleichungssystemen Der Aufwand zur Berechnung der LR-Zerlegung steigt allerdings mit dritter Ordnung sehr schnell Selbst auf modernen Computern übersteigt die Laufzeit für große Gleichungssysteme schnell eine sinnvolle Grenze: n Operationen Zeit 100 300 000 30 µs 1 000 300 10 6 30 ms 10 000 300 10 9 30 s 100 000 300 10 12 10 h 1 000 000 300 10 15 1 Jahr Tabelle 41: Rechenzeit zum Erstellen der LR-Zerlegung einer Matrix A R n n auf einem Rechner mit 10 GigaFLOPS Bei der Diskretisierung von partiellen Differentialgleichungen treten Gleichungssysteme mit n = 10 6 10 9 auf Die Matrizen verfügen dann aber über Struktureigenschaften wie Symmetrie, oder über ein besonders dünnes Besetzungsmuster (in jeder Zeile sind nur einige wenige ungleich Null) Die linearen Gleichungsysteme, die bei der Finite-Elemente Diskretisierung der Laplace-Gleichung (beschreibt die Ausdehnung einer Membran) entstehen haben zb unabhänging von n nur 5 Einträge pro Zeile Die so entstehenden linearen Gleichungsysteme lassen sich bei effizienter Implementierung der LR-Zerlegung auch bei n = 1 000 000 in weniger als einer Minute lösen 132