FEHLERABSCHÄTZUNG MITTELS KONDITION

Größe: px
Ab Seite anzeigen:

Download "FEHLERABSCHÄTZUNG MITTELS KONDITION"

Transkript

1 3 FEHLERABSCHÄTZUNG MITTELS KONDITION Im Folgenden soll eine Abschätzung für den Fehler, der beimlöseneineslgsauftritt,untersucht werden. Dazu erweitern wir zunächst Definition..7 des absoluten und relativen Fehlers auf Vektoren aus dem R n. 3. ABSOLUTE UND RELATIVE FEHLER Es sei x R n eine Approximation von x R n.alsfehler bezeichnet man e = x x und zu einer gegebenen Vektornorm ist x x der absolute Fehler von x. Esseix 0,dannbeschreibt x x x = e x den relativen Fehler von x. Relative Fehler in der -Norm können durch eine Aussage über die Anzahl korrekter Stellen von x ausgedrückt werden, d.h. x x x 0 p, falls die betragsgrößte Komponente von x näherungsweise p korrekte signifikante Stellen hat. 3. FEHLERABSCHÄTZUNG & KONDITION Wir wollen nun zwei wichtige Fragestellungen untersuchen, welche bei dem numerischen Lösen von linearen Gleichungssystemen (LGS) auftreten. Zum einen betrachten wir eine Näherungslösung x zu der Lösung x von Ax = b. WelcheRückschlüssekannmanvonderGrößedes Residuums r := b A x auf den Fehler e = x x ziehen? Des Weiteren rechnet man im Allgemeinen mit endlicher Genauigkeit auf einem Rechner. Welche Einflüsse haben dabei Störungen der Ausgangsdaten auf die Lösung x? Zu einer Matrix A R n n und einem Vektor x R n sei A eine beliebige Matrixnorm und x eine dazu verträgliche Vektornorm (d.h. Ax A x ). Nach Definition des Fehlers e und Residuums r gilt Ae = Ax A x = b A x = r. Daraus folgt Mit folgt für den relativen Fehler die Abschätzung Dies motiviert den Begriff der Konditionszahl. e = A r A r. b = Ax A x e x A r = A A r b b. (3.) A

2 50 Kapitel 3: Fehlerabschätzung mittels Kondition Definition 3.. (Konditionszahl) Man bezeichnet κ(a) = A A (3.) als die Konditionszahl der Matrix A bezüglich der verwendeten Matrixnorm. Beispiel 3.. Man betrachte das LGS Ax = b mit A = b := (b j ) b j := 5 k= k + j ( j 5). Für die Matrixnormen und die Konditionszahlen erhält man in den Fällen p =,, A =.83, A = 4380, κ (A) = , A , A , κ (A) , A =.83, A = 4380, κ (A) = κ (A). Sei die exakte Lösung x =(,...,) T.Istnun x =( ε)x, danngilt e x = εx x = ε! und d.h. r = b A x = Ax A x = A(x ( ε)x) =εax = εb, r b = ε. Obwohl die Konditionzahl sehr groß ist, verhält sich bei dieser Störung e r x wie b.obige Abschätzung ist offensichtlich eine worst case Abschätzug. Betrachten wir nun x =( ,.669, ,.7679, ) T. (3.3) A habe die Eigenwerte 0 λ < < λ 5 mit den zugehörigen Eigenvektoren ϕ,...,ϕ 5, ϕ j =.Manbeachte,dass x in (3.3) so gewählt ist, dass x x ϕ gilt und x ϕ 0.04 ϕ ϕ ϕ ϕ 5, d.h. x von ϕ 5 dominiert wird. Dann erhalten wir e b x r 0.4 κ (A), e b x r 0.89 κ (A), e b x r 0.74 κ (A) und schätzen dann in der richtigen Größenordung ab! Aufgabe 3..3 Es sei A R n n eine positiv definite Matrix. Die Eigenwerte von Matrix A seien 0 <λ... λ n mit den zugehörigen Eigenvektoren ϕ,...,ϕ n ( ϕ j =). i) Es sei x R n \{0}, b := Ax und x = cx (0 c R). Man zeige x x x b b A x =.

3 Abschnitt 3.: Fehlerabschätzung & Kondition 5 ii) Man zeige κ (A) =λ n /λ. iii) Es sei x = cϕ n, c 0, b := Ax und x = x + ϕ.manzeige x x x b b A x = κ (A). Untersuchen wir nun, welchen Einfluss kleine Störungen in den Ausgangsdaten A, b auf die Lösung x des linearen Gleichungssystems haben können, d.h. wir sind interessiert an der Empfindlichkeit der Lösung x auf Störungen in den Koeffizienten. Die genaue Frage lautet: Wie groß kann die Änderung δx der Lösung x von Ax = b sein, falls die Matrix um δa und b durch δb gestört sind. Dabei seien δa und δb kleine Störungen, so dass A+δA immer noch regulär ist. Es sei x + δx die Lösung zu Teilweises Ausmultiplizieren liefert und somit mit Ax = b (A + δa)(x + δx) =(b + δb). Ax + δa x +(A + δa)δx = b + δb δx =(A + δa) (δb δa x) =(I + A δa) A (δb δa x). Für eine submultiplikative Matrixnorm und eine dazu verträgliche Vektornorm ergibt sich somit δx (I + A δa) A ( δb + δa x ) und wir erhalten die Abschätzung ( ) δx δb x (I + A δa) A x + δa. (3.4) Wir zeigen in Lemma 3..6, dass für B < die Abschätzung (I + B) B existiert. Setzen wir nun B = A δa und A δa < (d.h. δa ist eine kleine Störung von A)voraus und erweitern auf der rechten Seite mit A,soerhaltenwirunterAusnutzungderVerträglichkeit der Normen und mit Ax = b δx x A A ( δb A δa A A A δa Wir halten das Ergebnis nun in einem Satz fest. A x + δa ) A ( δb b + δa ). A Satz 3..4 Es sei A R n n regulär und x R n die exakte Lösung von Ax = b. Dierechte Seite b sei um δb gestört und für die Störung von A gelte κ(a) δa / A = A δa < und A + δa ist immer noch regulär. Dann gilt für die Lösung x des gestörten Systems mit Koeffizientenmatrix A + δa und rechter Seite b + δb x x x κ(a) κ(a) δa A ( δb b + δa A ). (3.5)

4 5 Kapitel 3: Fehlerabschätzung mittels Kondition Bemerkung 3..5 Die Konditionszahl κ(a) der Koeffizientenmatrix A ist folglich die entscheidende Größe, welche die Empfindlichkeit der Lösung bzgl. der Störungen δa und δb beschreibt. Es bleibt folgendes Lemma zu beweisen: Lemma 3..6 (Neumann-Reihe) Sei A R n n, eine submultiplikative Matrixnorm und A <. Dannist(I A) regulär und (I A) = A k (Neumann-Reihe) (3.6) mit k=0 (I A) A. (3.7) Beweis. Mit A <, dersubmultiplikativitätunddersummenformelfürdiegeometrische Reihe erhält man m m A k A k A k = < (m N). (3.8) A k=0 k=0 k=0 Der Raum R n n ist isomorph zu R n (siehe Anhang A.). In [Analysis II, Beispiel 8.4.6] wurde gezeigt, dass R n vollständig ist bezüglich irgendeiner Norm auf R n.somitistr n n vollständig bezüglich und aus der absoluten Konvergenz folgt die Konvergenz von k=0 Ak.Ebenso folgt aus A k A k 0 für k die Konvergenz von lim k Ak =0.Weitergiltdie Gleichung ( Teleskopsumme ) ( m ) A k (I A) =I A m+ (m N). (3.9) k=0 Der Grenzübergang von (3.9) führt zur Gleichung ( ) A k (I A) =I. (3.0) k=0 Das bedeutet, I A ist regulär und (I A) geometrische Reihe erhält man schließlich (I A) lim womit der Satz bewiesen ist. N k=0 N A k lim = k=0 Ak.MitderSummenformelfürdie N k=0 N A k = A, (3.) Zum Ende des Kapitels wollen wir nun den praktischen Nutzen der Abschätzung (3.5) in einer Faustregel festhalten. Bei einer d-stelligen dezimalen Gleitkommarechnung können die relativen Fehler der Ausgangsgrößen für beliebige, kompatible Normen von der Größenordnung δa A 5 0 d δb b 5 0 d sein. Ist die Konditionszahl κ(a) 0 α mit 5 0 α d, soergibtdieabschätzung(3.5) δx x 0α d+. Das heißt, dass δx maximal in der Größenordnung der (d α )-ten Dezimalstelle von x liegen kann und dies motiviert folgende Daumenregel:

5 Abschnitt 3.: Fehlerabschätzung & Kondition 53 Bemerkung 3..7 (Daumenregel zur Genauigkeit) Wird Ax = b mit d-stelliger dezimaler Gleitkommarechnung gelöst, und beträgt die Konditionszahl κ(a) 0 α,sosind,bezogenauf die betragsgrößte Komponente, nur (d α ) Dezimalstellen sicher. Notiz MATLAB-Beispiel: Es ist bekannt, dass die Gauß-Elemination selbst mit Spaltenpivotstrategie zu überraschend ungenauen Ergebnissen beim Lösen von linearen Gleichungssystemen führen kann, obwohl die Matrix gut konditioniert ist. Betrachten wir hierzu die von Wilkinson angegebene pathologische Matrix. A = >> A=toeplitz([,-ones(,59)],... [,zeros(,59)]); >> A(:,60)=; >> cond(a) ans = % rel. gut konditioniert >> randn( state, 3383) >> x=randn(60,); >> b=a*x; >> x=a\b; >> norm(x-x)/norm(x) ans = % großer rel. Fehler Bemerkung 3..8 Das Beispiel lässt vermuten, dass das Gauß-Verfahren über dieganzemenge der invertierbaren Matrizen betrachtet nicht stabil ist. Fü r d i e i n d e r P r a x i s a u f t r e t e n d e n M a t r i z e n, ist das Gauß-Verfahren mit Spaltenpivotierung jedoch in der Regel stabil. Für eine weitere Stabilitätsanalyse des Gauß-Verfahrens sei auf [Deuflhard/Hohmann], die grundlegenden Artikel von Wilkinson [Wilkinson65, Wilkinson69] sowie auf die Übersichtsartikel [Higham, Discroll/Maki] verwiesen.

6 54 Kapitel 3: Fehlerabschätzung mittels Kondition

7 4 ITERATIVE LÖSUNG LINEARER GLEICHUNGSSYSTEME Die in Kapitel beschriebenen direkten Verfahren gehen überwiegend von beliebigen vollbesetzten Matrizen aus. Viele praktischen Probleme führen aber zuder Aufgabe, ein sehr großes lineares Gleichungssystem Ax = b zu lösen, bei dem A R n n nur schwachbesetzt ist, d.h. viele Nulleinträge besitzt. Die bisherigen Verfahren nutzen diese spezielle Struktur nicht aus und führen beim Lösen des LGSteilweise sogar zu vollbesetzten Zwischenmatrizen. Man betrachte dazu folgendes Beispiel. Beispiel 4.0. Zu der Matrix A = lautet die LR-Zerlegung mit A = L R 3 L = 3, R = Obwohl A nur in der ersten Zeile und Spalte sowie auf der Diagonalen Nichtnulleinträge besitzt, sind L und R vollbesetzt.! Bemerkung 4.0. Ist die Bandbreite einer Matrix groß und in jeder Zeile treten nur wenige Nichtnulleinträge auf, dann ist ein Bandlöser teuer und die folgenden Verfahren liefern gute Alternativen. Aus den oben genannten Gründen wurden schon früh iterative VerfahrenzurLösungvonLGS herangezogen. Bei diesen Verfahren wird ausgehend von einem Startvektorx (0) eine Folge von Vektoren x (0) x () x ()... mittels einer Iterationsvorschirft x (i+) = φ(x (i) ), i =0,,... (4.) erzeugt, die gegen die gesuchte Lösung x konvergiert. In den folgenden Abschnitten werden sowohl die klassischen Iterationsverfahren, die bereits Mitte des 9. Jahrhunderts entdeckt wurden, als auch das Gradientenverfahren sowie das 95 von Hestenes undstiefelentwickelteverfahren der konjugierten Gradienten vorgestellt. Allen diesen Verfahren ist gemein, dass ein einzelner Iterationsschritt x (i) x (i+) einen Rechenaufwand erfordert, welcher vergleichbar ist mit der Multiplikation von A mit einem Vektor, d.h. insbesondere mit einem geringen Aufwand, sofern A schwachbesetzt ist. Im Gegensatz zu den

8 56 Kapitel 4: Iterative Lösung linearer Gleichungssysteme direkten Verfahren liefern diese Iterationsverfahren die exakte Lösung x des LGS im Allgemeinen nicht mehr nach endlich vielen Schritten. Da man aber in der Regel an der Lösung x nur bis auf eine vorgegebene Genauigkeit ɛ interessiert ist, die von der Genauigkeit der Eingabedaten abhängt (vgl. Kapitel und 3), scheint dieses Vorgehen sinnvoll. 4. KLASSISCHE ITERATIONSVERFAHREN Gegeben sei eine reguläre Matrix A R n n und ein lineares Gleichungssystem Ax = b mit der exakten Lösung x. MitHilfeeinerbeliebigenregulärenMatrixB R n n erhält man Iterationsvorschriften der Form (4.) aus der Gleichung Bx +(A B)x = b, indem man setzt und nach x (i+) auflöst Bx (i+) +(A B)x (i) = b x (i+) = x (i) B (Ax (i) b) = (I B A)x (i) + B b. (4.) Jede Wahl einer nichtsingulären Matrix B führt zu einem möglichen Iterationsverfahren. wird umso brauchbarer, je besser B die folgenden Kriterien erfüllt i) B ist leicht zu invertieren (einfache Realisierbarkeit) Es ii) die Eigenwerte von (I B A) sollen möglichst kleine Beträge haben. (Konvergenzeigenschaft) Wir wollen hier nun einige Beispiele angeben. Dazu verwenden wirfolgende(additive)standardzerlegung A = L + D + R, wobei D eine Diagonalmatrix, L eine strikte untere Dreiecksmatrix und R eine strikte obere Dreiecksmatrix seien. Die Wahl i) B = γi liefert das Richardson-Verfahren ii) B = D liefert das Jacobi-Verfahren (Gesamtschrittverfahren) iii) B = L + D oder B = D + R liefert das Gauß-Seidel-Verfahren (Einzelschrittverfahren). Was zeichnet nun die einzelnen Verfahren aus? Betrachten wirdazueinbeispiel. Beispiel 4.. Zu gegebenem n N und A = R n n,b= R n,x (0) = 0 R n

9 Abschnitt 4.: Klassische Iterationsverfahren 57 bestimmen wir die Konvergenzrate c =max k x x (k+) x x (k), für das Jacobi- und das Gauß-Seidel-Verfahren (B = D + R), d.h. den Faktor, um den der Fehler in der -Norm in jedem Iterationsschritt mindestens reduziert wird. MATLAB-Funktion: runkonvergenz.m n = 0; e = ones(n,); 3 A = spdiags([e -*e e], -:, n, n); 4 x_ex = rand(n,); % exakte Loesung 5 b = A * x_ex; % exakte rechte Seite 6 x{} = rand(n,); % zufaelliger Startv. 7 x{}=x{}; 8 W{} = triu(a); % Gauss-Seidel 9 W{} = diag(diag(a)); % Jacobi 0 for j = :length(x) error_old = norm(x{j}-x_ex); for k = : 0 3 x{j} = x{j} + W{j} \ (b-a*x{j}); 4 error_new = norm(x{j}-x_ex); 5 quot{j}(k) = error_new/error_old; 6 error_old = error_new; 7 end 8 end 9 plot(:0,quot{}, m-s,:0,quot{}, k:* ); 0 xlabel( Anzahl der Iterationen ), ylabel( Kontraktion ) legend({ Gauss-Seidel-Verf., Jacobi-Verfahren },4) Konvergenzrate Gauss Seidel Verf. Jacobi Verf Anzahl der Iterationen Abb. 4.: Kontraktionszahlen für Gesamt- und Einzelschrittverfahren.

10 58 Kapitel 4: Iterative Lösung linearer Gleichungssysteme Dem numerischen Experiment kann man entnehmen, dass in diesem Fall beide Verfahren konvergieren, da die Konvergenzerate jeweils kleiner ist, und dass das Gauß-Seidel-Verfahren schneller konvergiert, da die Konvergenzrate hier kleiner ist. In der praktischen Anwendung kann man bei dem Gauß-Seidel-Verfahren mit B = L + D folgende Formulierung verwenden, um die Anzahl der Operationen zu reduzieren da x (i+) =(L + D) (b Rx (i) ), x (i+) = x (i) B (Ax (i) b) = x (i) B ([(A B)+B] x (i) b) = x (i) B (A B)x (i) B Bx (i) + B b = B (b (A B)x (i) ) gilt und mit B = L + D und A B = R folgt x (i+) =(L + D) (b Rx (i) ). Ein Schritt des Gauß-Seidel-Verfahrens ist also etwa so aufwendig wie eine Matrix-Vektor- Multiplikation. Ähnlich kann man auch für B = D + R vorgehen, d.h. x (i+) =(D + R) (b Lx (i) ). Schließlich vereinfacht man das Jacobi-Verfahren zu sowie das Richardson-Verfahren zu x (i+) = D (b (L + R)x (i) ) x (i+) = x (i) + γ (b Ax(i) ). 4. KONVERGENZ ITERATIVER VERFAHREN Es sei x Lösung von Ax = b.mit(4.)erhaltenwir x x (k) = x B b (I B A)x (k ) = Ix B Ax (I B A)x (k ) =(I B A)(x x (k ) )=... =(I B A) k (x x (0) ). Die Konvergenz des dargestellten Verfahrens hängt also nur vondeneigenschaftenderiterationsmatrix I B A ab. Es sei C eine beliebige komplexwertige (n n)-matrix, λ i := λ i (C) (i =,...,n)seiendieeigenwertevonc.dannbezeichnenwirmit ϱ(c) := max i n { λ i(c) } den Spektralradius von C. BevorwireinKonvergenzkriteriumangeben,bereitenwirnoch den Begriff der Jordanschen Normalform vor.

11 Abschnitt 4.: Konvergenz iterativer Verfahren 59 Definition 4.. (Jordan-, bzw. Elementarmatrix) Eine Matrix E k (λ) C k k heißt Jordanmatrix (oder Elementarmatrix) zum Eigenwert λ, wenn λ E k (λ) =.... (4.3) 0 λ Satz 4.. (Jordansche Normalform (siehe z.b. [Fischer])) Zu jeder Matrix A C n n existiert eine reguläre Matrix T C n n,sodass A = T JT, wobei J, diedurchdiepaare(λ,n ),...,(λ k,n k ) mit λ i C, n i (eindeutig bis auf die Reihenfolge) bestimmte Jordansche Normalform E n (λ ) 0 J =... 0 E nk (λ k ) von A ist. Satz 4..3 (Konvergenzkriterium) Es sei C C n n.diefolge(c k ) k N ist genau dann eine Nullfolge, wenn ϱ(c) < gilt. Beweis. Sei zunächst ϱ(c). DanngibteseinenEigenwertλ mit λ und einen Vektor x 0mit Cx = λx. WegenC k x = λ k x und lim k λ k 0kann folglich (C k ) k N keine Nullfolge sein. Die Bedingung ϱ(c) < ist somit notwendig. Sei nun ϱ(c) <.Weil(TCT ) k = TC k T fürjede Ähnlichkeitstransformation T gilt, reicht es, lim k (TCT ) k =0zu zeigen. Die Matrix C lässt sich durch Ähnlichkeitstransformation auf die Jordansche Normalform J transformieren. Wir zeigen, dass lim k J k =0gilt, wenn alle Eigenwerte λ,...,λ n dem Betrag nach kleiner Eins sind. Dazu sei λ µ E µ = E nµ (λ µ )=... Cnµ nµ 0 λ µ eine Elementarmatrix zum Eigenwert λ µ der Jordanschen Normalform J von C.Daoffenbar J k = E k E k... E k l mit l n gilt, genügt es, das Konvergenzverhalten einer Jordanmatrix E µ zu untersuchen. Wir schreiben E µ in der Form E µ = λ µ I + S mit S =... Cnµ nµ 0 0

12 60 Kapitel 4: Iterative Lösung linearer Gleichungssysteme und bilden Eµ k =(λ µi + S) k.nachanwendungderbinomialentwicklungundunterbeachtung von S nµ =0erhält man die Beziehung min{k, n µ } ( ) k Eµ k = λ k ν µ S ν. ν Für feste ν hat man mit ( ) k k! k(k )... (k ν +) = = k ν ν ν!(k ν)!... ν die Abschätzung Da λ µ < ist, strebt und mit ( k ν ) ν=0 λ k ν µ λk ν µ k ν. k log λ µ + ν log(k) für k λ k ν µ k ν exp((k ν)log λ µ + ν log k) ( ) folgt die Konvergenz lim k k λ k ν µ ν =0.Damitistgezeigt,dass(Ek µ ) k N eine Nullfolge ist und somit auch die Behauptung. Um die Konvergenz der Richardson-Iteration mathematisch zubeweisen,mussderspektralradius der Iterationsmatrix bestimmt werden. Während man diesen in dem Spezialfall einer symmetrischen, positiv definiten Matrix A exakt angeben und somit Konvergenzaussagen treffen kann, vgl. Aufgabe 4..4, so ist dies im allgemeinen Fall analytisch nicht möglich und numerisch sehr aufwendig. Es ist daher das Ziel der nächsten beiden Abschnitte, aus einfachen algebraischen Eigenschaften der Matrix A auf die Konvergenz der Jacobi- bzw. Gauß-Seidel-Iteration zu schließen. Anders als in Satz 4..3 sind die Ergebnisse in diesen beiden Abschnitten hinreichende Konvergenzkriterien, im Allgemeinen aber nicht notwendig. Aufgabe 4..4 (Konvergenz des Richardson-Verfahrens für positiv definite Matrizen) Es sei A R n n symmetrisch und positiv definit mit λ min und λ max als kleinsten bzw. größten Eigenwert. Man beweise folgende Aussagen: (a) Für die Iterationsmatrix C R (γ) =I γ A des Richardson-Verfahrens gilt ϱ(c R (γ)) = max { γ λ max, γ λ min } γ R \{0}. (b) Das Richardson-Verfahren konvergiert genau dann, wenn γ> λmax gilt. (c) γ := λmax+λ min minimiert den Spektralradius ϱ(c G (γ)) für γ R \{0}. (d) Es gilt ϱ(c G (γ )) = λmax λ min λ max+λ min. 4.3 KONVERGENZ DES JACOBI-VERFAHRENS BeidemJacobi-Verfahren (auch Gesamtschrittverfahren genannt) werden alle Komponenten des Lösungsvektors in einem Iterationsschritt gleichzeitig korrigiert. Die Iterationsvorschrift lautet x (i+) = D (b (L + R)x (i) ), d.h. die Iterationsmatrix ist C J = I D A = D (L + R).

13 Abschnitt 4.3: Konvergenz des Jacobi-Verfahrens 6 Satz 4.3. (Starkes Zeilen- und Spaltensummenkriterium) Es sei A C n n.dasjacobi- Verfahren konvergiert für jeden Startvektor x (0) C n,wennfür die Matrix A das i) (starke Zeilensummenkriterium) a ii > a ik, für i =,,...,n, k= k i d.h. A ist strikt diagonaldominant, oder das ii) (starke Spaltensummenkriterium) a kk > a ik, für k =,,...,n, i= i k d.h. A T ist strikt diagonaldominant, erfüllt ist. Für den Beweis von Satz 4.3. benötigen wir das folgende Lemma. Lemma 4.3. Es sei A C n n.danngiltfür jede natürliche p-matrixnorm ϱ(a) A p. Beweis. Jeder Eigenwert λ von A mit zugehörigem Eigenvektor x genügt für jede natürliche p- Matrixnorm p der Beziehung Ax p = λ x p und damit der Abschätzung A p λ. Beweis von Satz i) Die Iterationsmatrix des Jacobi-Verfahrens ist C J = I D A = D (L + R). Wenn das starke Zeilensummenkriterium erfüllt ist, gilt die Abschätzung 0 a, a, a,n a, a, a, 0 a,3 a, a,n a,. C J = = max an, a n,n an,n a nn 0 i n j= j i a ij a ii <. Lemma 4.3. liefert dann die Behauptung i). ii) Ist für A das starke Spaltensummenkriterium (ii) erfüllt, so gilt (i) für A T.Alsokonvergiertdas Jacobi-Verfahren für A T und es ist daher wegen Satz 4..3 ϱ(c) < für C = I D A T.Nun hat C die gleichen Eigenwerte wie C T und wie D C T D = I D A = C J.Alsoistauch ϱ(c J ) <, d.h.dasjacobi-verfahrenistauchfürdiematrixa konvergent. Definition Eine Matrix A R n n heißt zerlegbar (reduzibel), wenn es nichtleere Teilmengen N und N der Indexmenge N := {,,...,n} gibt mit den Eigenschaften i) N N = ii) N N = N iii) a ij =0für alle i N und j N

14 6 Kapitel 4: Iterative Lösung linearer Gleichungssysteme Eine Matrix, die nicht zerlegbar ist, heißt unzerlegbar (irreduzibel). Beispiel i) a... a k A = a N... a NN a N+,... a N+,N a N+,N+... a N+,N.... a N,... a N,N a N,N+... a N,N Die Teilmengen N = {,,...,N},N = {N +,...,N} haben alle in der Definition geforderten Eigenschaften. Somit ist A zerlegbar. ii) Eine Tridiagonalmatrix mit nicht verschwindenden Nebendiagonal- und Diagonalelementen ist unzerlegbar. Bemerkung Dass eine Matrix A unzerlegbar (irreduzibel) ist, kann man häufig leicht mit Hilfe des der Matrix A zugeordneten (gerichteten) Graphen G(A) zeigen. Wenn A eine n n- Matrix ist, so besteht G(A) aus n Knoten K,...,K n und es gibt eine gerichtete Kante K i K j in G(A) genau dann, wenn a ij 0.Man zeigt leicht, dass A genau dann unzerlegbar ist, falls der Graph G(A) in dem Sinne zusammenhängend ist, dass es für jedes Knotenpaar (K i,k j ) in G(A) einen gerichteten Weg K i nach K j gibt. 0 A = 4 0, 0 3 G(A) : K K K 3 Abb. 4.: Beispiel einer zerlegbaren Matrix A und ihres Graphen G(A). Definition (Schwaches Zeilen- und Spaltensummenkriterium) Eine Matrix A R n n erfüllt das schwache Zeilensummenkriterium, falls a µν a µµ ν= ν µ für alle Zeilen µ =,...,ngilt, d.h. A ist diagonaldominant, und a µ0ν < a µ0µ0 ν= ν µ 0 für mindestens einen Index µ 0 {,...,n} erfüllt ist. Eine Matrix A R n n erfüllt das schwache Spaltensummenkriterium,wennA T das schwache Zeilensummenkriterium erfüllt. Satz (Schwaches Zeilensummenkriterium) Es sei A R n n eine irreduzible Matrix, die das schwache Zeilensummenkriterium erfüllt. Dann ist das Jacobi-Verfahren konvergent. ZumBeweisvon Satz4.3.7werden wir direkt den Spektralradius der Iterationsmatrix abschätzen. Die wesentliche Beobachtung dabei ist, dass jede irreduzible Matrix, die das schwache Zeilensummenkriterium erfüllt, bereits regulär ist.

15 Abschnitt 4.3: Konvergenz des Jacobi-Verfahrens 63 Lemma Jede irreduzible Matrix M R n n,diedasschwachezeilensummenkriterium erfüllt, ist regulär und für die Diagonalelemente gilt m jj 0(j =,...,n). Beweis. Wir nehmen an, M sei nicht regulär, d.h. es existiert ein x K n \{0} mit Mx =0. Insbesondere folgt aus der Dreiecksungleichung m jj x j m jl x l + l=0 }{{} =0 m jl x l l= l j m jl x l für alle j =,...,n. (4.4) Wir definieren die Indexmengen J := {j : x j = x } und K := {k : x k < x }. Offensichtlich gilt J K =, J K = {,...,n} und J. WäreK =, sokönnte man in (4.4) die x j -undx l -Terme herauskürzen und erhielte einen Widerspruch zum schwachen Zeilensummenkriterium. Also gilt auch K,undaufgrundderIrreduzibilitätvonM existieren Indizes j J und k K mit m jk 0.Mitdiesemergibtsich m jj l= l j m jl x l x j m jl, l= l j denn der Quotient ist stets wegen x j = x und er ist < für l = k K. Alsoerhalten wir einen Widerspruch zum schwachen Zeilensummenkriterium von M, d.h. M ist regulär. Gäbe es schließlich ein triviales Diagonalelement m jj =0,sofolgteausdemschwachenZeilensummenkriterium, dass bereits die j-te Zeile die Nullzeile wäre. Da M regulär ist, folgt insbesondere m jj 0für alle j =,...,n. l= l j Beweis von Satz Wegen a jj 0für alle j =,...,n ist C J = D (A D) wohldefiniert. Um ϱ(c J ) < zu zeigen, beweisen wir, dass M := C J λi für λ C mit λ regulär ist. Da A irreduzibel ist, ist auch A D irreduzibel, denn es wird lediglich die Diagonale verändert. C J entsteht durch zeilenweise Multiplikation von A D mit Werten 0.Deshalbist auch C J irreduzibel. Da M und C J sich nur auf der Diagonale unterscheiden, ist M irreduzibel. Aufgrund des schwachen Zeilensummenkriteriums von A gilt m jk = k= k j k= k j c (J) jk = k= k j a jk a jj λ = m jj für alle j =,...,n. und für mindestens einen Index j gilt diese Ungleichung strikt. Also erfüllt M auch das schwache Zeilensummenkriterium und ist nach Lemma insgesamt regulär. Aufgabe Manzeige, dassdasjacobi-verfahren auchkonvergent istunter der Annahme, dass A R n n irreduzibel ist und das schwache Spaltensummenkriterium erfüllt.

16 64 Kapitel 4: Iterative Lösung linearer Gleichungssysteme 4.4 KONVERGENZ DES GAUSS-SEIDEL-VERFAHRENS Die Iterationsvorschrift des Gauß-Seidel-Verfahrens (auch Einzelschrittverfahren genannt) für B = L + D lautet x (i+) =(L + D) (b Rx (i) ), d.h. die Iterationsmatrix ist C GS = (L + D) R; die Iterationsvorschrift des Gauß-Seidel-Verfahrens für B = D + R lautet x (i+) =(D + R) (b Lx (i) ), mit Iterationsmatrix CGS = (D + R) L. Satz 4.4. (Konvergenzsatz) Es sei A R n n eine reguläre Matrix, die das starke Zeilensummenkriterium oder das starke Spaltensummenkriterium erfüllt. Dann sind beide Varianten des Gauß-Seidel-Verfahrens zur Lösung des linearen Gleichungssystems Ax = b konvergent. Beweis. Sei das starke Zeilensummenkriterium erfüllt. Die Iterationsmatrizen des Gauß-Seidel- Verfahrens mit B = L + D bzw. des Jacobi-Verfahrens sind C GS := (L + D) R bzw. C J := D (L + R). WenndasstarkeZeilensummenkriteriumerfülltist,giltdie Abschätzung C J = max i n j= j i a ij a ii <. Es sei jetzt y R n beliebig und z = C GS y.durchvollständigeinduktionbeweisenwir,dassalle Komponenten z i des Vektors z der Abschätzung z i j= j i a ij a ii y genügen. Dazu schreiben wir die Gleichung z = C GS y um in (L + D)z = Ry und schätzen ab: z j= a j a y j j= a j a y. Schreiben wir das Gauß-Seidel-Verfahren mit B = L + D in der Form x (k+) i = i b i a ij x (k+) j a ij x (k) j ( i n), a ii j= j=i+ so folgt daraus dann mit der Induktionsvoraussetzung z i i a ij z j + a ij y j a ii j= j=i+ IH i a ij C J + a ij y a ii j= j=i+ j= j i a ij a ii y.

17 Abschnitt 4.4: Konvergenz des Gauß-Seidel-Verfahrens 65 Hiermit erhält man die Abschätzung C GS y = z C J y y R n und somit C GS C J <. (4.5) Da ϱ( (L + D) R)=ϱ(C GS ) C GS,folgtdarausdieKonvergenzdesGauß-Seidel- Verfahrens für B = L + D. Um die Konvergenz des Gauß-Seidel-Verfahrens für B = D + R mit C GS = (D + R) L nachzuweisen, betrachten wir zunächst folgende Permutationsmatrix P = = P T R n n. Die Matrix à = PAPT geht aus A durch simultane Zeilen- und Spaltenvertauschungen hervor, sodass die Gültigkeit des starken Zeilensummenkriteriums auchfürã vorliegt. Mit dem oben Bewiesenen gilt somit ϱ( ( L + D) R) <, wobei und daher L = PRP T D = PDP T R = PLP T >ϱ( (PRP T + PDP T ) PLP T )=ϱ( (P (R + D)P T ) PLP T ) = ϱ( P (R + D) P T PLP T )=ϱ( P (R + D) LP T ) = ϱ( (R + D) L). Also ist ϱ( C GS )=ϱ( (D + R) L) < und somit das Gauß-Seidel-Verfahren für B = D + R konvergent. Sei nun das starke Spaltensummenkriterium erfüllt. Dann erfüllt A T das starke Zeilensummenkriterium und beide Varianten des Gauß-Seidel-Verfahrens konvergieren für A T.MitderStandardzerlegung von A T A T = L T + D T + R T, wobei L T = R T, D T = D und R T = L T ist, gilt somit ϱ( (R T + D) L T )=ϱ( (L T + D T ) R T ) <, ϱ( (L T + D) R T )=ϱ( (R T + D T ) L T ) <. Hieraus ergibt sich die Konvergenz des Gauß-Seidel-Verfahrens für B = L + D ϱ(c GS )=ϱ( (L + D) R)=ϱ( (L + D)(L + D) R (L + D) ) = ϱ( R (L + D) )=ϱ( (L T + D) R T ) < sowie für B = D + R ϱ( C GS )=ϱ( (D + R) L)=ϱ( (D + R)(D + R) L (D + R) ) = ϱ( L (D + R) )=ϱ( (D + R T ) L T ) <. Damit sind alle Aussagen des Satzes bewiesen.

18 66 Kapitel 4: Iterative Lösung linearer Gleichungssysteme Bemerkung 4.4. Häufig verleitet (4.5) zu der falschen Schlussfolgerung, dass das Gauß-Seidel- Verfahren schneller als das Jacobi-Verfahren konvergiert,wenndiematrixstriktdiagonaldomi- nant ist. Beispiel Dass bei strikter Diagonaldominanz einer regulären Matrix A R n n aus C GS C J < nicht ϱ(c GS ) ϱ(c J ) folgen muss, sieht man, wenn man die Matrix A folgendermaßen wählt: A = Dann besitzen die zugehörigen Iterationsmatrizen C GS = (L + D) R = C J = nämlich die Spektralradien ϱ(c GS )=(4 5)/ und ϱ(c J )=/ sowie die Maximumnormen C GS =3/ und C J =40/ Bemerkung Mit Bezug auf das letzte Beispiel halten wir fest: Ist eine Matrix A strikt diagonaldominant, gilt für die Iterationsmatrizen C GS C J <, esfolgtimallgemeinen aber nicht ϱ(c GS ) ϱ(c J ). Bemerkung Ebenfalls wäre die Schlussfolgerung aus Satz 4.4., dass eine Form des Gauß- Seidel-Verfahrens genau dann konvergent ist, wenn es die andere ist, falsch. Es gibt Beispiele regulärer Matrizen, für die ϱ(c GS ) <, aberϱ( C GS ) bzw. ϱ( C GS ) <, aberϱ(c GS ). Man betrachte dazu folgendes Beispiel. Beispiel Gegeben sei die reguläre Matrix Die zugehörigen Iterationsmatrizen 0 A = C GS = (L + D) R = C GS = (D + R) L = besitzen die Spektralradien ϱ(c GS )=0< sowie ϱ( C GS )=+ 3 >,d.h.dasgauß-seidel- Verfahren für B = L + D ist konvergent, für B = D + R jedoch divergent. Satz (Schwaches Zeilensummenkriterium) Ist A R n n irreduzibel und erfüllt das schwache Zeilensummenkriterium, so sind beide Varianten des Gauß-Seidel-Verfahrens konvergent.

19 Abschnitt 4.4: Konvergenz des Gauß-Seidel-Verfahrens 67 Beweis. Die Wohldefiniertheit von C GS = (L + D) R und C GS = (D + R) L ist wieder klar. Wir betrachten W := C GS λi sowie W := C GS λi für λ C mit λ. Durch Multiplikation mit (L+D) sieht man, dass W genau dann regulär ist, wenn M := R+λL+λD regulär ist. Analog folgt durch Multiplikation mit (D+R),dass W genau dann regulär ist, wenn M := L+λD +λr es ist. Offensichtlich erben M und M die Irreduzibilität von A = D +L+R. Ferner erfüllen M und M das schwache Zeilensummenkriterium, denn es gilt sowie j m jk = λ a jk + k= k j k= j m jk = a jk + λ k= k j k= k=j+ k=j+ a jk λ a jk λ a jk λ a jj = m jj k= k j a jk λ a jj = m jj fürj =,...,nmit strikter Ungleichung jeweils für mindestens einen Index j.nachlemma4.3.8 sind M und M regulär. Insgesamt erhalten wir wie zuvor ϱ(c GS ) < und ϱ( C GS ) <. Aufgabe Man zeige, dass beide Formen des Gauß-Seidel-Verfahrens auch konvergent sind unter der Annahme, dass A R n n irreduzibel ist und das schwache Spaltensummenkriterium erfüllt. ( ) a b Beispiel Es sei A = mit a, b, c, d C. DiezugehörigeIterationsmatrixzum c d Jacobi-Verfahren lautet somit C J := D (L + R) = k= k j ( a 0 )( 0 ) b 0 d c 0 = ( ) 0 b a c. d 0 Das charakteristische Polynom hierzu lautet p(λ) =λ bc ad und hat Nullstellen λ, = ± Entsprechend erhält man für die Gauß-Seidel-Verfahren C GS := (L + D) R = ( )( ) ( ) d 0 0 b 0 bd = ad ad c a 0 0 bc, 0 ad C GS := (D + R) L = ( )( ) ( d b 0 0 bc ) = ad 0 ad 0 a c 0 ac. ad 0 In beiden Fällen lautet das charakteristiscshe Polynom p(λ) =λ(λ bc/ad) und hat Nullstellen womit ϱ(c J )= bc ad λ =0, und λ = bc ad. ϱ(c GS )=ϱ( C GS )= bc ad gilt. Man beachte C J = C J =max{ b/a, c/d } sowie b ( c + d ) b max{ c, d } C GS =, C GS =, ad ad C c ( a + b ) GS =, ad C c max{ a, b } GS =. ad bc ad.

20 68 Kapitel 4: Iterative Lösung linearer Gleichungssysteme Wir können somit für A aus R festhalten: Konvergiert das Jacobi- oder Gauß-Seidel-Verfahren, so konvergiert auch das jeweilige andere. Und im Falle der Konvergenz, konvergiert das Gauß- Seidel doppelt so schnell wie das Jacobi-Verfahren. Gilt dies immer, bzw. kann dies ggf. einfach charakterisiert werden? Aufgabe Man nutze das letzte Beispiel, um zu zeigen, dass aus C J < im Allgemeinen C GS C J < nicht folgt. (Z.B. a = d =,b= c =/3 in der Matrix von Beispiel liefert ein Gegenbeispiel). Definition 4.4. Eine Matrix A R m n heißt nichtnegativ, wenn alle Koeffizienten a ij von A nichtnegativ sind. Satz 4.4. (von Stein und Rosenberg) Die Iterationsmatrix C J R n n des Jacobi-Verfahrens sei nichtnegativ. Dann gilt genau eine der folgenden Aussagen: i) ϱ(c J )=ϱ(c GS )=0 ii) ϱ(c J )=ϱ(c GS )= iii) 0 <ϱ(c GS ) <ϱ(c J ) < iv) <ϱ(c J ) <ϱ(c GS ) Beweis. Siehe [Hämmerlin/Hoffmann]. Die Voraussetzung C J 0 ist insbesondere dann erfüllt, wenn die Matrix A positive Diagonalelemente und nichtpositive Nichtdiagonalelemente besitzt, d.h. a ii > 0, a ik 0 für i k. Dieser Fall liegt auch im folgenden Beispiel vor. Beispiel A = 0 0 C J = D (L + R) = Die Iterationsmatrix ist nichtnegativ, ϱ(c J )= < und somit folgt, dass das Gauß-Seidel-Verfahren schneller ist als das Jacobi-Verfahren! Bemerkung Dass das Gauß-Seidel-Verfahren nicht immer besser sein mussalsdasjacobi- Verfahren oder aus der Divergenz des Jacobi-Verfahrens nicht auch die Divergenz des Gauß- Seidel-Verfahrens folgen muss, zeigen die folgenden beiden Beispiele. Beispiel (Jacobi- immer schlechter als Gauß-Seidel-Verfahren?) i) Die Iterationsmatrizen C J bzw. C GS zur Matrix A = 0

21 Abschnitt 4.4: Konvergenz des Gauß-Seidel-Verfahrens 69 lauten 0 0 C J = bzw. C GS = (L + D) R = mit den Spektralradien ϱ(c J )=0und ϱ(c GS ) ii) Die Iterationsmatrizen C J bzw. C GS zur Matrix 3 A = 3 lauten C J = bzw. C GS = (L + D) R = mit den Spektralradien ϱ(c J ).457 und ϱ(c GS ) <. Bemerkungen i) Die obigen Iterationsverfahren ließen sich in der Form x (k+) = B (B A)x (k) + B b = Cx (k) + d schreiben. Da die Iterationsmatrix C für alle k konstant ist, spricht man von stationären Iterationsverfahren. ii) Das quantitative Verhalten solch stationärer Verfahren lässt sich durch die Einführung eines (Relaxations-) Parameters ω verbessern: x (k+) = ω(cx (k) + d)+( ω)x (k). Für 0 <ω< spricht man von einem Unterrelaxationsverfahren und für ω> von einem Überrelaxationsverfahren. Mankannzeigen,dassderoptimaleParameterfüreine positiv definite Matrix A beim gedämpften Jacobiverfahren ω opt = λ min (D A)+λ max (D A) lautet und für das überrelaxierte Gauß-Seidel-Verfahren (SOR = successive overrelaxation method) angewandt auf eine positiv definite Matrix A = L+D+L T ergibt sich der optimale Parameter zu ω opt = + λ min (D A)+λ max ((D +L)D (D +L T )A ). Ergebnisse für allgemeinere Fälle findet man z.b. bei [Niethammer]. iii) Die Bedeutung der oben genannten Iterationsverfahren liegt heute weniger in deren unmittelbarem Einsatz zur Lösung von Ax = b, sondernaufgrundderen Glättungseigenschaften als Beschleuniger anderer moderner Verfahren(vorkonditioniertes konjugiertes Gradienten Verfahren, Mehrgitter).

22 70 Kapitel 4: Iterative Lösung linearer Gleichungssysteme 4.5 ABBRUCH-KRITERIEN Da ein Iterationsverfahren aufeinanderfolgende Näherungen der Lösung liefert, ist ein praktischer Test notwendig, um das Verfahren zu stoppen, wenn die gewonnene Approximation genau genug ist. Da es nicht möglich ist, den Fehler x x (k),d.h.denabstandzureigentlichen(gesuchten) Lösung, zu bestimmen, müssen andere Quantitäten gewonnen werden, die meist auf dem Residuum r = b Ax basieren. Die hier vorgestellten Verfahren liefern eine Folge (x (i) ) von Vektoren die gegen den Vektor x streben, welcher Lösung des linearen Gleichungssystems Ax = b ist. Um effizient zu sein, muss die Methode wissen, wann sie abbrechen soll. Eine gute Methode sollte i) feststellen, ob der Fehler e (i) := x x (i) klein genug ist, ii) abbrechen, falls der Fehler nicht weiter kleiner wird oder nur noch sehr langsam, und iii) den maximalen Aufwand, der zur Iteration verwendet wird, beschränken. Das folgende Abbruchkriterium ist eine einfache, aber häufig genügende Variante. Man muss hierzu die Quantitäten maxit, b, tol und wenn möglich auch A (und A )zurverfügungstellen. Dabei ist die natürliche Zahl maxit die maximale Anzahl an möglichen Iterationen des Verfahrens, die reelle Zahl A eine Norm von A, (JedeeinigermaßenvernünftigeApproximationdes betragsgrößten Eintrags in A genügt schon.) die reelle Zahl b eine Norm von b, (Auchhiergenügteineeinigermaßenvernünftige Approximation des betragsgrößten Eintrags in b.) die reelle Zahl tol eine Schranke für die Größe des Residuums bzw. des Fehlers. MATLAB-Beispiel: Beispiel eines vernünftigen Abbruchkriteriums k = 0; while k = k + ; % Berechne die Approximation xˆ(k) % Berechne das Residuum rˆ(k) = b - A xˆ(k) % Berechne norm_ak = A * xˆ(k), norm_rk = rˆ(k) % und norm_b = b if (k >= maxit) ( norm_rk <= tol * max( norm_ak, norm_b ) ) break end end Da sich nach einigen Iterationen der Term Ax (k) nicht mehr groß ändert, braucht man diesen nicht immer neu zu bestimmen. Zu bestimmen ist eigentlich e (k) = A r (k) A r (k).manbeachte,dassman A B bei den bisherigen Verfahren mit Lemma 3..6 zur Neumannschen-Reihe abschätzen kann. Es gilt x (k+) = B (B A)x (k) + B b = Cx (k) + d und B A = I B (B A) =I C sowie A B = (I C) C.

23 Abschnitt 4.6: Gradienten Verfahren GRADIENTEN VERFAHREN Im Folgenden nehmen wir stets an, dass A R n n positiv definit (s.p.d.) ist. (4.6) Wir ordnen nun dem Gleichungssystem Ax = b die Funktion f : R n R, f(x) := xt Ax b T x zu. Der Gradient von f ist f (x) = (A + AT )x b.daa = A T nach Voraussetzung (4.6), lautet die Ableitung f (x) = f(x) =Ax b. Notwendig für ein Minimum von f ist das Verschwinden des Gradienten, d.h. Ax = b. Dadie Hesse-Matrix f (x) = A positiv definit ist, liegt für die Lösung von Ax = b tatsächlich ein Minimum vor. Mit arg min y R n f(y) bezeichnen wir denjenigen Wert aus Rn,derdenTermf minimiert, d.h. f(x) =min y R n f(y), falls x =argmin f(y). y R n Idee: Ax = b x =argmin y R n f(y) mit f(y) := yt Ay b T y, f : R n R. Bewiesen haben wir soeben das folgende Lemma. Lemma 4.6. Es sei A R n n positiv definit, dann gilt Ax = b x =argmin y R n f(y). Alternativer Beweis zu Lemma Ein zweiter Beweis folgt aus der Darstellung f(x) =f(x )+ (x x ) T A(x x ) mit x := A b. (4.7) Hieraus folgt f(x) >f(x ) für x x,d.h.x := A b ist das eindeutige Minimum von f.man beachte dabei, dass (4.7) ein Sonderfall der folgenden Entwicklung von f um einen beliebigen Wert x R n ist, welche sich durch ausmultiplizieren zeigen lässt: f(x) =f( x)+ A x b, x x + A(x x),x x Folgerung: MankannalsoVerfahrenzurnumerischenOptimierung/Minimierung verwenden. Der Gradient ist die Richtung des steilsten Anstiegs, also kann man f als Abstiegsrichtung wählen und entlang dieser Geraden ein Minimum suchen.

24 7 Kapitel 4: Iterative Lösung linearer Gleichungssysteme Gradientenverfahren (allgemein): Es sei Ω R n, f :Ω R,x 0 Ω Startwert, für k =,, 3,... ) Bestimmung der Abstiegsrichtung: d k = f(x k ) ) Liniensuche: suche auf der Geraden {x k +td k : t 0} Ω ein Minimum, d.h. bestimme α k 0:f(x k + α k d k ) f(x k ) x k+ = x k + α k d k. Daraus folgt f(x 0 ) f(x ) f(x )... Für die quadratische Funktionen f(x) = xt Ax b T x und Ω=R n kann man ) und ) leicht berechnen: Da f(x) =Ax b, ergibtsichd k = f(x k )=b Ax k.seip R n \{0} und F (λ) :=f(x + λp),danngiltfürdieliniensuche F (λ) = f(x + λp) = x + λp, A(x + λp) b, x + λp = x, Ax b, x + λ p, Ax b + λ p, Ap (4.8) = f(x)+λ p, Ax b + λ p, Ap Da p 0 nach Voraussetzung, folgt p, Ap > 0. F ist also eine quadratische Funktion mit positivem führenden Koeffizienten. Somit folgt aus 0! = F (λ) = p, Ax b + λ p, Ap, (4.9) dass der Parameter λ opt (x, p) = p, b Ax p, Ap. (4.0) zu gegebenem Vektor p R n \{0} das Funktional F (λ) :=f(x + λp) minimiert. Für allgemeine Funktionen f wird die Liniensuche angenähert, z.b. mit der Schrittweitenregel von Armijo. ϕ k (σ) :=f(x k + σd k ) f(x k )+γσ( f(x k )) T d k f(x k )+σ( f(x k )) T d k akzeptierter Bereich σ Abb. 4.3: Optimale Wahl des Dämpfungsparameters

25 Abschnitt 4.6: Gradienten Verfahren 73 Schrittweitenregel von Armijo: Wähle β (0, ) (z.b. β = )undγ (0, ) (z.b. γ [0 3, 0 ]) Bestimme die größte Schrittweite σ k {,β,β,β 3,...} mit f(x k ) f(x k + σ k d k ) γσ k f(x k ) T d k, d.h. f(x k + σ k d k ) f(x k )+γσ k f(x k ) T d k. Formulieren wir nun das Gradientenverfahren mit der optimalen Schrittweite (4.0) in folgendem Algorithmus. Algorithmus 4.6.: Gradientenverfahren: Ax = b Input: Initial guess x 0 r 0 := b Ax 0 Iteration: k =0,,... a k := Ar k λ opt := r k,r k / r k,a k x k+ := x k + λ opt r k r k+ := r k λ opt a k Man beachte r k+ = b Ax k+ = b A(x k + λ opt r k )=r k λ opt Ar k Wir untersuchen nun die Konvergenz des Verfahrens für quadratische Funktionen. Hierzu bietet sich die sogenannte Energienorm an x A := x T Ax, (A R n n ) (beachte: alle Normen auf dem R n sind äquivalent). Lemma 4.6. Es sei A R n n positiv definit und x R n erfülle Ax = b.danngilt Beweis. Es gilt x k+ x A x k x A ( r k,r k ) r k,ar k r k,a. r k f(x k+ )=f(x k + λ opt r k )= λ opt r k,ar k λ opt r k,r k + f(x k ) = f(x k )+ r k,r k r k,ar k r k,r k r k,ar k = f(x k) r k,r k r k,ar k (4.)

26 74 Kapitel 4: Iterative Lösung linearer Gleichungssysteme Für die exakte Lösung x von Ax = b gilt für x R n f(x )+ x x A = x,ax b, x + (x x ),A(x x ) also mit (4.) = x,ax x,b + x, Ax x, Ax + x,ax = x,ax b + x, Ax x, b = f(x), d.h. x x A =(f(x) f(x )) x k+ x A =f(x k+ ) f(x )=f(x k+ ) f(x k )+ x k x A = x k x A r k,r k r k,ar k Mit r k = b Ax k = A(x x k ) folgt wegen die Behauptung. x k x A = x x k A = (x x k ),A(x x k ) = A A(x x k ),r k = r k,a r k Frage: Was sagt Lemma 4.6. bzgl. der Konvergenz und Kondition aus? Lemma (Kantorowitsch Ungleichung) Es sei A R n n positiv definit und κ := κ (A) := A A.Danngiltfür alle x R \{0} x, Ax x, A x x, x ( κ + κ ) 4 Beweis. Die Eigenwerte von A seien geordnet gemäß 0 <λ λ... λ n,κ= λ n λ Da A symmetrisch ist, existiert eine orthonormale Matrix Q mit Q T AQ =Λ= diag (λ i ).Für y = Q T x gilt dann x T Ax = x T QΛQ T x = y T Λy = λ i yi, x T A x = x T QΛ Q T x = i= sowie x T x = x T QQ T x = y T y,also ( )( ) x, Ax x, A λ i yi λ i y ( i x i i x, x = y 4 = λ i z i)( i= i= mit z i := und somit y i.manbeachte n z y i =.Fürλ α λ n folgt i= 0 (α λ )(α λ n )=α α(λ + λ n )+λ λ n i= λ i z i λ λ n + λ k λ k(λ + λ n ) λ λ n λ k + λ k λ + λ n (k =,...,n). λ i yi ) (4.)

27 Abschnitt 4.6: Gradienten Verfahren 75 Es gilt nun λ λ n d.h. i= λ i z i + λ i z i = i= ( ) ( ) ( ) λ λ n λ λ n λ λ n + λ z + + λ z λ n z n λ +λ n, λ λ λ n i= λ i z i λ + λ n λ λ λ n mit λ := n λ i z i.somitlässtsich(4.)abschätzendurch i= x, Ax x, A x x, x Für welches λ wird nun das Polynom h maximal? d.h. λ λ + λ n λ λ λ n }{{} =:h(λ) h (λ) = λ + λ n λ λ = λ + λ n λ! =0 λ = λ + λ n λ λ n λ λ n λ λ n λ λ n h (λ) = < 0 λ maximiert h λ λ n ( max h(λ) λ [λ =h(λ )= (λ + λ n ) = λ +,λ n] 4 λ λ n 4 λ n λn λ ) = ( κ ) + κ. 4 Satz Es sei A R n n positiv definit. Dann gilt für das Gradientenverfahren ( ) κ k x k x A x 0 x A κ + Beweis. Lemma 4.6. liefert die Abschätzung x k+ x A x k x A und mit Lemma ergibt sich ( r k,r k ) r k,ar k r k,a. r k ( κ r k,r k ( κ r k,ar k r k,a r k 4 ) + κ ) 4 + κ = ( κ + κ ) = κ ++κ 4 κ ++κ = κ κ + κ +κ + = ( ) κ. κ + Bemerkungen i) Für große κ gilt κ κ + = κ κ + }{{} κ + κ +, also sehr nahe bei, d.h. geringe Konvergenzgeschwindigkeit!

28 76 Kapitel 4: Iterative Lösung linearer Gleichungssysteme ii) Dies tritt auch schon bei einfachen Beispielen auf: A = ( 0 0 a ),a,b= ( ) 0 0 und x 0 = ( ) a daraus folgt (Übung). ( xk+ y k+ ) ( ) xk = ρ y k mit ρ = a a + wegen a = κ (A) ist das genau die Rate aus Satz 4.6.4! iii) Anschaulich sieht man ein Zick Zack Verhalten der Iteration. 4.7 VERFAHREN DER KONJUGIERTEN GRADIENTEN entstanden 95 von Hestenes und Stiefel enormer Gewinn an Bedeutung 97 durch Vorkonditionierung gehören zu den schnellsten Verfahren, werden heute sehr oft verwandt für die D Standard Matrix ab Systemgröße besser als Gauß bei zusätzlich erheblich geringerem Speicherbedarf. Idee: Vermeide Zick Zack Verhalten durch Verwendung von Orthogonalität bzgl. x, y A = x T Ay, dies ergibt konjugierte Gradienten : cg-verfahren (conjugate gradient) Bemerkungen 4.7. i) Zwei Vektoren x, y R n heißen konjugiert oder A-orthogonal, falls(x, y) A =0. ii) {x,...,x k } paarweise konjugiert, d.h. (x i,x j ) A = δ ij x i A,x i 0(i, j {,...,k}), impliziert: {x,...,x k } sind linear unabhängig. iii) Jeder Vektor x R n besitzt eine eindeutige Entwicklung x = α k d k (4.3) k= bezüglich konjugierter Richtungen {d,...,d n }.Aus(4.3)folgt (x, d i ) A = k= α k (d k,d i ) A }{{} =δ ik d i A = α i d i A, also α k = dt k Ax d T k Ad k (k =,...,n). (4.4)

29 Abschnitt 4.7: Verfahren der konjugierten Gradienten 77 iv) Für die Lösung x von Ax = b gilt offenbar α i = dt i b d T i Ad i Lemma 4.7. Seien {d,...,d n } konjugierte Richtungen. Für jedes x 0 R n und x k = x k + α k d k,α k = rt k d k d T k Ad,r k := b Ax k (k ) (4.5) k gilt nach (höchstens) n Schritten x n = A b. Beweis. Aus (4.4), (4.5) folgt für x = A b, x x 0 = k= Da d k zu d i, i k,konjugiertist,gilt also α k d k mit α k = dt k A(x x 0 ) d T k Ad k ( k ) d T k A(x k x 0 )=d T k A k α i d i = i= i= α i = dt k (b Ax 0) d T k Ad k d T k Ad i }{{} =0, da i k =0, d T k A(x x 0 ) = d T k A(x x k )+d T k A(x k x 0 ) }{{} =0 = d T k (b Ax k ) =d T k r k α k = α k.. Bemerkungen i) r k = b Ax k wird als Residuum von Ax = b bzgl x k bezeichnet. ii) Lemma 4.7. besagt, dass das Verfahren ein direktes Verfahren ist, welches nach n Iterationen konvergiert. A sparse O(n ) (dies ist nicht optimal). iii) Wie in (4.9) gilt d.h. d dλ f(x k + λd k )=λ d k,ad k + d k, (Ax k b), f(x k )=f(x k + α k d k )=min λ R f(x k + λd k ), dann ist λ opt = d k, (Ax k b) d k,ad k = r k,d k d k,ad k = α k. Satz Seien {d,...,d n } konjugierte Richtungen und r k (k =0,...,n ), die durch (4.5) definierten Residuen. Dann gilt r T k d j =0 bzw. r k U k := span{d,...,d k } ( k n, j k). (4.6)

30 78 Kapitel 4: Iterative Lösung linearer Gleichungssysteme Beweis. Nach (4.5) gilt für k {,...,n} r k = b Ax k = r k α k Ad k = r k α k Ad k α k Ad k = = r 0 Daraus folgt nun für j k womit der Satz bewiesen ist. r T k d j = r T 0 d j k α l d T l Ad j l= = r0 T d j α j d T j Ad j = r0 T d j rt j d j d T j Ad d T j Ad j j j =(r0 T rt j )d j = α l d T l Ad j =0 Frage: Wie sind nun die d k und damit erzeugten Teilräume span{d,...,d k } zu wählen? l= k α j Ad j. Falls r 0 0gilt (sonst ist x 0 schon die gesuchte Lösung) setzt man d = r 0. Für k =,, 3,...verfahren wir wie folgt. Falls r k 0(sonst ist x k schon die gesuchte Lösung), gewinnt man formal d k+ mittels des Gram-Schmidtschen-Orthogonalisierungsverfahren aus r k und den schon bestimmten konjugierten Richtungen d,...,d k,d.h. d k+ = r k k j= j= r k,ad j d j,ad j d j. (4.7) Aufgabe Man zeige induktiv, dass die so erzeugten A-orthogonalen Richtungen d k+ span{r 0,...,r k } und d k+ span{r 0,...,r k } erfüllen für 0 k n mit r k 0. Damit das ganze Verfahren effizient wird, benötigen wir noch folgendeeigenschaft Ad k U k+ := span{d,...,d k+ } = span{r 0,...,r k }, wenn r k 0gilt. Denn daraus ergibt sich r k,ad j =0für j k und (4.7) verkürzt sich zu d k+ = r k r k,ad k d k,ad k } {{ } =:β k+ d k. (4.8) (Beweis: Aus der Definition von r k = r k α k Ad k folgt sofort Ad k {r 0,...,r k },da r k U k und α k 0gilt. Die Gleichheit von U k und {r 0,...,r k } ergibt sich aus Aufgabe ) Für den Algorithmus schreiben wir nur noch α k,β k um: α k = rt k d k d T k Ad k und r T k d k = r T k r k β k r T k d k }{{} =0 also α k = rt k r k d T k Ad k (4.9)

31 Abschnitt 4.7: Verfahren der konjugierten Gradienten 79 und wegen α k r T k Ad k =(r k r k ) T r k = r T k r k β k+ = rt k Ad k d T k Ad k = rt k r k α k d T k Ad k = rt k r k rk T r. (4.0) k Bemerkung Die Ausdrücke (4.9), (4.0) haben sich als numerisch stabiler und Speicherplatz-optimal herausgestellt. Algorithmus 4.7.: Konjugiertes Gradientenverfahren (cg-verfahren): Ax = b Input: Initial guess x 0 r 0 := b Ax 0 ρ 0 := r 0,r 0 d := r 0 Iteration: k =,,... as long as k n and r k 0 a k := Ad k α k := ρ k / d k,a k x k := x k + α k d k r k := r k α k a k ρ k := r k,r k d k+ := r k + ρ k ρ k d k Satz Es sei A positiv definit. Für das cg-verfahren gilt folgende Abschätzung ( ) k κ x x k A x x 0 A. κ + Beweis. Der Beweis gliedert sich in 4 Schritte. Es sei e k := x x k. () Zuerst zeigt man induktiv, dass Polynome p k P k, k =0,...,n, existierenmit e k = p k (A)e 0, p k (0) =. (4.) k =0: klar! k k: Ausder Definition (4.5) folgt α k d k = x k x k = x x k (x x k )=e k e k,bzw.e k = e k α k d k.

32 80 Kapitel 4: Iterative Lösung linearer Gleichungssysteme Mit (4.8) ergibt sich nun also d k = r k β k d k = b Ax k β k α k (e k e k ) = A(x x k )+ β k (e k e k ) α ( ) k βk = I + A e k β k e k α k α k {( ) IH βk = I + A p k (A) β } k p k (A) e 0, α k α }{{ k } =: q k (A), q k P k IH e k = e k α k d k = pk (A)e 0 α k d k =[p k (A) α k q k (A)] e }{{} 0 =:p k (A) () Nun zeigt man, dass für alle q k P k mit q k (0) = die Ungleichung e k A q k (A)e 0 A gilt. Zuerst halten wir r k = b Ax k = A(x x k )=Ae k fest. Des Weiteren gilt e k A = e T k Ae k = rk T e k k = rk T e k + σ j r j für beliebige σ 0,...,σ k R (rj T r k = δ jk ) j=0 k = rk T e k + σ j Ae j j=0 k =(Ae k ) T p k (A)+ σ j Ap j (A) e 0. j=0 Sei q k P k mit q k (0) = beliebig. Da die {p 0,...,p k } linear unabhängig sind, folgt aus der letzten Umformung, dass es eindeutig bestimmte σ 0,..., σ k existieren mit k q k (t) =p k (t)+ σ j tp j (t). j=0 Mit σ i = σ i und der Ungleichung von Cauchy-Schwarz folgt also Wir haben somit gezeigt, dass gilt. e k A = e k,aq k (A)e 0 = A ek,a qk (A)e 0 CSU A e k A q k (A)e 0 = e k A q k (A)e 0 A. e k A q k (A)e 0 A für alle q k P k,q k (0) = (4.)

33 Abschnitt 4.7: Verfahren der konjugierten Gradienten 8 (3) Die Eigenwerte von A seien 0 <λ min = λ... λ n = λ max.esgeltea = QΛQ T mit QQ T = Q T Q = I und Λ=diag(λ,...,λ n ).Beachtetmanq k (A) =q k (QΛQ T )= Qq k (Λ)Q T,soschätztmanwiefolgtab q k (A)e 0 A = e T 0 Qq k (Λ) Q T QΛQ T Qq k (Λ) Q T e 0 = e T 0 Qq k (Λ) Λ q k (Λ) Q T e 0 (4.3) ( ) max {q k(λ) } e T 0 λ {λ QΛQT e 0 max q k(λ) e T 0 Ae 0,,...,λ n} λ [λ min,λ max] d.h. es gilt q k (A)e 0 A e 0 A max q k(λ). λ [λ,λ n] (4) Man sucht nun Polynome p k,diedierechteseiteminimieren.mankannzeigen,dassdie Tschebyscheff Polynome T k : R R (k =0,,...)definiertals T k (x) := [ ( x + k ( x ) + x ) ] k x auf [, ] folgende Eigenschaften haben T k () =, T k (x) x und minimal bzgl. unter allen Polynomen p P k mit p() = sind (siehe Aufgabe 4.7.9). Gesucht ist nun eine Transformation, die [λ min,λ max ] auf [, ] abbildet. Somit ist T ( ) k (z) :=T λmax+λ min z k λ min λ max minimal bzgl. auf [λ min,λ max ] unter allen Polynomen aus p P k mit p(λ max )=.Manwähltalso auf [0,λ max ],q k (0) =. Daraus folgt und T k q k (z) :=T k ( λmax + λ min z λ min λ max min q k (0)= )/ T k ( λmax + λ min λ min λ max max q k(λ) ( ) λ [λ,λ n] T λmax+λ min k λ min λ max ( ) ( ) λmax + λ min = λ min λ max T λmax + λ min k = λ max λ min T k mit z = κ+ κ,also z + z = κ + κ + κ +κ + κ +κ (κ ) = κ (κ ++ κ)= ) ( ) κ + ( z + ) k z κ ( κ +) ( κ +)( κ ) = κ + κ. Bemerkung Im letzten Beweis wurde unter (3) (siehe (4.3)) gezeigt,dass q k (A)e 0 A max λ {λ,...,λ n} q(λ) e 0 A gilt. Daraus folgt sofort, dass das cg-verfahren nach m-schritten terminiert, wenn das Spektrum von A nur m verschiedene Eigenwerte besitzt.

34 8 Kapitel 4: Iterative Lösung linearer Gleichungssysteme Aufgabe (Tschebyscheff-Polynome) Die Tschebyscheff -Polynome T n bezüglich des Skalarprodukts f(x)g(x) (f,g) ω := dx x und werden standardisiert durch T n () =. Man zeige, dass die Tschebyscheff -Polynome folgende Eigenschaften besitzen: sind orthogonal (i) Sie haben stets ganzzahlige Koeffizienten (ii) Der höchste Koeffizient von T n ist a n = n (iii) T n ist stets eine gerade Funktion, falls n gerade und eine ungerade, falls n ungerade ist (iv) T n () =, T n ( ) = ( ) n (v) T n (x) für x [, ] (vi) Die Nullstellen von T n (x) sind ( ) k x k := cos n π, (k =,...,n) (vii) cos(k arccos(x)), x ; T k (x) = cosh(k arcosh(x)), x ; ( ) k cosh(k arcosh( x)), x. (viii) Die Tschebyscheff -Polynome besitzen die globale Darstellung T k (x) = [ ( x + k ( x ) + x ) ] k x, wobei x R (ix) T n (x) nimmt seinen maximalen Wert im Intervall [, ] an den sogenannten Tschebyscheff -Abszissen x k =cos( kπ n ) für k =0,...,nan, d.h. ( ) kπ T n (x) = x = x k =cos, k =0,...,n. n (x) Für x R erfüllen die Tschebyscheff -Polynome die folgende Drei-Term-Rekursion T 0 (x) =,T (x) =x, T k (x) =xt k (x) T k (x), k Ergänzend seien für n =0,...,5 die T n explizit angegeben und diese grafisch dargestellt: T 0 = T 3 =4x 3 3x T = x T 4 =8x 4 8x + T =x T 5 =6x 5 0x 3 +5x

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme Als zweite Hauptanwendung des Banachschen Fixpunktsatzes besprechen wir in diesem Kapitel die iterative Lösung linearer Gleichungssysteme. Die

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest

Mehr

20 Kapitel 2: Eigenwertprobleme

20 Kapitel 2: Eigenwertprobleme 20 Kapitel 2: Eigenwertprobleme 2.3 POTENZMETHODE Die Potenzmethode oder Vektoriteration ist eine sehr einfache, aber dennoch effektive Methode zur Bestimmung des betragsmäßig größten Eigenwertes. Um die

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Kapitel 3. Konvergenz von Folgen und Reihen

Kapitel 3. Konvergenz von Folgen und Reihen Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden

Mehr

18.4 Das Newton-Verfahren

18.4 Das Newton-Verfahren 18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift

Mehr

Konvergenz im quadratischen Mittel - Hilberträume

Konvergenz im quadratischen Mittel - Hilberträume CONTENTS CONTENTS Konvergenz im quadratischen Mittel - Hilberträume Contents 1 Ziel 2 1.1 Satz........................................ 2 2 Endlich dimensionale Vektorräume 2 2.1 Defintion: Eigenschaften

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

1 Grundlagen der Numerik

1 Grundlagen der Numerik 1 Grundlagen der Numerik 1.1 Gleitpunkt-Arithmetik Es gibt nur endlich viele Zahlen auf dem Computer. Gleitpunktzahl: x = σmb E σ: Vorzeichen B: Basis (feste Zahl >1); M: Mantisse E: Exponent B = 2 : Dualzahl

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Iterative Lösung Linearer Gleichungssysteme

Iterative Lösung Linearer Gleichungssysteme Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Das CG-Verfahren. Sven Wetterauer

Das CG-Verfahren. Sven Wetterauer Das CG-Verfahren Sven Wetterauer 06.07.2010 1 Inhaltsverzeichnis 1 Einführung 3 2 Die quadratische Form 3 3 Methode des steilsten Abstiegs 4 4 Methode der Konjugierten Richtungen 6 4.1 Gram-Schmidt-Konjugation.........................

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Iterative Verfahren zur Lösung von Linearen Gleichungssystemen

Iterative Verfahren zur Lösung von Linearen Gleichungssystemen Kapitel 4 Iterative Verfahren zur Lösung von Linearen Gleichungssystemen Situation: A C n n schwach besetzt, n groß, b C n. Ziel: Bestimme x C n mit Ax = b. 4.1 Spliting-Methoden Die Grundidee ist hier

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Teil 3 Wintersemester 2016/17 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2016 Steven Köhler Wintersemester 2016/17 Inhaltsverzeichnis Teil 1 Teil

Mehr

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

5 Potenzreihenansatz und spezielle Funktionen

5 Potenzreihenansatz und spezielle Funktionen 5 Potenzreihenansatz und spezielle Funktionen In diesem Kapitel betrachten wir eine Methode zur Lösung linearer Differentialgleichungen höherer Ordnung, die sich anwenden läßt, wenn sich alle Koeffizienten

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Rechenaufwand der LR- und LDL T - Zerlegung

Rechenaufwand der LR- und LDL T - Zerlegung 6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für

Mehr

,...) ist eine Folge, deren Glieder der Null beliebig nahe kommen. (iii) Die Folge a n = ( 1) n + 1 n oder (a n) = (0, 3 2, 2 3, 5 4, 4 5

,...) ist eine Folge, deren Glieder der Null beliebig nahe kommen. (iii) Die Folge a n = ( 1) n + 1 n oder (a n) = (0, 3 2, 2 3, 5 4, 4 5 3 Folgen 3.1 Definition und Beispiele Eine Abbildung a : Æ Ê heißt (reelle) Zahlenfolge. Statt a(n) schreiben wir kürzer a n und bezeichnen die ganze Folge mit (a n ) n Æ oder einfach (a n ), was aber

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)

Mehr

3. Übungsblatt zur Lineare Algebra I für Physiker

3. Übungsblatt zur Lineare Algebra I für Physiker Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte

Mehr

Lösungen zu den Hausaufgaben zur Analysis II

Lösungen zu den Hausaufgaben zur Analysis II Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin

Mehr

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D. Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Wintersemester 2014/15 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax

Mehr

Aufgaben zu Kapitel 20

Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Newton-Verfahren für ein Skalarfunktion

Newton-Verfahren für ein Skalarfunktion Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren

Mehr

Kapitel 5 KONVERGENZ

Kapitel 5 KONVERGENZ Kapitel 5 KONVERGENZ Fassung vom 21. April 2002 Claude Portenier ANALYSIS 75 5.1 Metrische Räume 5.1 Metrische Räume DEFINITION 1 Sei X eine Menge. Eine Abbildung d : X X! R + heißt Metrik oder Distanz

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Konstruktion der reellen Zahlen

Konstruktion der reellen Zahlen Konstruktion der reellen Zahlen Zur Wiederholung: Eine Menge K (mit mindestens zwei Elementen) heißt Körper, wenn für beliebige Elemente x, y K eindeutig eine Summe x+y K und ein Produkt x y K definiert

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung Lineare Differentialgleichungen Ausblick auf die heutige Vorlesung Lineare autonome Differentialgleichungen 2 Bestimmung des Fundamentalsystems 3 Jordansche Normalform

Mehr

8 Iterationsverfahren zur Lösung von Gleichungssystemen

8 Iterationsverfahren zur Lösung von Gleichungssystemen Numerische Mathematik 378 8 Iterationsverfahren zur Lösung von Gleichungssystemen Nichtlineare Gleichungssysteme (sogar eine nichtlineare Gleichung in einer Unbekannten) müssen fast immer iterativ gelöst

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Nichtlineare Gleichungen

Nichtlineare Gleichungen Nichtlineare Gleichungen Ein wichtiges Problem in der Praxis ist die Bestimmung einer Lösung ξ der Gleichung f(x) =, () d.h. das Aufsuchen einer Nullstelle ξ einer (nicht notwendig linearen) Funktion f.

Mehr

Definition 7.1. Der Coxeter Graph zu W ist der ungerichtete gewichtete Graph Γ W = (V, E), mit Eckenmenge V und Kantenmenge E, gegeben durch V = und

Definition 7.1. Der Coxeter Graph zu W ist der ungerichtete gewichtete Graph Γ W = (V, E), mit Eckenmenge V und Kantenmenge E, gegeben durch V = und 7. Coxeter Graphen Um die endlichen Spiegelungsgruppen zu klassifizieren, wollen wir ihnen nun Graphen zuordnen, die die Gruppen bis auf Isomorphie eindeutig bestimmen. Im Folgenden sei wie vorher Π Φ

Mehr

3 Nichtlineare Gleichungssysteme

3 Nichtlineare Gleichungssysteme 3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )

Mehr

5 Teilmengen von R und von R n

5 Teilmengen von R und von R n 5 Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,...,x n ) : x i R} = R }... {{ R }. n mal Für x R ist x der Abstand zum Nullpunkt. Die entsprechende Verallgemeinerung

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

Seminar Einführung in die Kunst mathematischer Ungleichungen

Seminar Einführung in die Kunst mathematischer Ungleichungen Seminar Einführung in die Kunst mathematischer Ungleichungen Geometrie und die Summe von Quadraten Clara Brünn 25. April 2016 Inhaltsverzeichnis 1 Einleitung 2 1.1 Geometrie allgemein.................................

Mehr

Lösungen zum 9. Übungsblatt zur Vorlesung Höhere Mathematik II für biw/ciw/mach/mage/vt

Lösungen zum 9. Übungsblatt zur Vorlesung Höhere Mathematik II für biw/ciw/mach/mage/vt Karlsruher Institut für Technologie Institut für Algebra und Geometrie PD Dr. F. Hettlich Dr. S. Schmitt Dipl.-Math. J. Kusch Karlsruhe, den 09.06.20 Lösungen zum 9. Übungsblatt zur Vorlesung Höhere Mathematik

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153 3.3. SKALARPRODUKTE 153 Hierzu müssen wir noch die Eindeutigkeit (Unabhängigkeit von der Wahl der Basis bzw. des Koordinatensystems) zeigen. Sei hierzu β eine Bilinearform und q die entsprechende quadratische

Mehr

18 Höhere Ableitungen und Taylorformel

18 Höhere Ableitungen und Taylorformel 8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a

Mehr

Numerische Mathematik für Ingenieure und Physiker

Numerische Mathematik für Ingenieure und Physiker Willi Törnig Peter Spellucci Numerische Mathematik für Ingenieure und Physiker Band 1: Numerische Methoden der Algebra Zweite, überarbeitete und ergänzte Auflage Mit 15 Abbildungen > Springer-Verlag Berlin

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,

Mehr

Das Newton Verfahren.

Das Newton Verfahren. Das Newton Verfahren. Ziel: Bestimme eine Nullstelle einer differenzierbaren Funktion f :[a, b] R. Verwende die Newton Iteration: x n+1 := x n f x n) f x n ) für f x n ) 0 mit Startwert x 0. Das Verfahren

Mehr

9 Vektorräume mit Skalarprodukt

9 Vektorräume mit Skalarprodukt 9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden

Mehr

= ( n x j x j ) 1 / 2

= ( n x j x j ) 1 / 2 15 Skalarprodukte 77 15 Skalarprodukte 15.1 Einführung. a) Ab jetzt sei stets K = R oder K = C, da Wurzeln eine wichtige Rolle spielen werden. b) Nach dem Satz des Pythagoras ist die Länge eines Vektors

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0. Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales

Mehr

Ferienkurs Analysis 1, SoSe Unendliche Reihen. Florian Beye August 15, 2008

Ferienkurs Analysis 1, SoSe Unendliche Reihen. Florian Beye August 15, 2008 Ferienkurs Analysis 1, SoSe 2008 Unendliche Reihen Florian Beye August 15, 2008 1 Reihen und deren Konvergenz Definition 1.1. Eine reelle bzw. komplexe Reihe ist eine unendliche Summe über die Glieder

Mehr

n=1 a n mit reellen Zahlen a n einen

n=1 a n mit reellen Zahlen a n einen 4 Unendliche Reihen 4. Definition und Beispiele Ein altes Problem der Analysis ist es, einer Reihe mit reellen Zahlen einen Wert zuzuordnen. Ein typisches Beispiel ist die unendliche Reihe + +..., die

Mehr

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen 3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange

Mehr

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016, Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

40 Lokale Extrema und Taylor-Formel

40 Lokale Extrema und Taylor-Formel 198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische

Mehr

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben Kapitel 16 Aufgaben Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2 Bekanntlich gilt im Allgemeinen

Mehr

Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren

Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren Universität Hamburg SS 2005 Proseminar Numerik Leitung: Prof. W. Hofmann Vortrag von Markus Stürzekarn zum Thema: Jacobi- und Gauß-Seidel-Verfahren, Jacobi-Relaxationsverfahren Gegeben sei ein lineares

Mehr

4 Affine Koordinatensysteme

4 Affine Koordinatensysteme 4 Affine Koordinatensysteme Sei X φ ein affiner Raum und seien p,, p r X Definition: Nach ( c ist der Durchschnitt aller affinen Unterräume Z X, welche die Menge {p,,p r } umfassen, selbst ein affiner

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20 Gleichmäßige Konvergenz für Folgen und Reihen von Funktionen 20.1 Folgen und Reihen von Funktionen 20.3 Die Supremumsnorm 20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20.7 Das Cauchy-Kriterium

Mehr

1 Euklidische und unitäre Vektorräume

1 Euklidische und unitäre Vektorräume 1 Euklidische und unitäre Vektorräume In diesem Abschnitt betrachten wir reelle und komplexe Vektorräume mit Skalarprodukt. Dieses erlaubt uns die Länge eines Vektors zu definieren und (im Fall eines reellen

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

Berechnung von Eigenwerten und Eigenvektoren

Berechnung von Eigenwerten und Eigenvektoren Kapitel 5 Berechnung von Eigenwerten und Eigenvektoren 5.1 Einführung Bemerkung 5.1 Aufgabenstellung. Diese Kapitel behandelt numerische Verfahren zur Lösung des Eigenwertproblems. Gegeben sei A R n n.

Mehr

Erweiterte Koordinaten

Erweiterte Koordinaten Erweiterte Koordinaten Sei K n ein n dimensionaler affiner Raum Die erweiterten Koordinaten des Punktes x x n K n sind x x n Kn+ (Das ist für alle K sinnvoll, weil in jedem Körper K wohldefiniert ist In

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen

Mehr

Zahlen und metrische Räume

Zahlen und metrische Räume Zahlen und metrische Räume Natürliche Zahlen : Die natürlichen Zahlen sind die grundlegendste Zahlenmenge, da man diese Menge für das einfache Zählen verwendet. N = {1, 2, 3, 4,...} bzw. N 0 = {0, 1, 2,

Mehr

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear

Mehr

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute

Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute 3.4 PageRank Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute Wichtigkeit von Webseiten; nicht Relevanz bezüglich Benutzeranfrage. Anfrageunabhängiges Ranking. Ausgangspunkt: Eingangsgrad.

Mehr

Kapitel 5. Vektorräume mit Skalarprodukt

Kapitel 5. Vektorräume mit Skalarprodukt Kapitel 5 Vektorräume mit Skalarprodukt 119 120 Kapitel V: Vektorräume mit Skalarprodukt 5.1 Elementare Eigenschaften des Skalarprodukts Dienstag, 20. April 04 Wollen wir in einem Vektorraum wie in der

Mehr

Übungen zu Lineare Algebra und Geometrie 1

Übungen zu Lineare Algebra und Geometrie 1 Übungen zu Lineare Algebra und Geometrie 1 Andreas Čap Sommersemester 2015 Wiederholung grundlegender Begriffe (1 Bestimme Kern und Bild der linearen Abbildung f : R 3 R 3, die gegeben ist durch f(x, y,

Mehr

3 Lineare Differentialgleichungen

3 Lineare Differentialgleichungen 3 Lineare Differentialgleichungen In diesem Kapitel behandeln wir die allgemeine Theorie linearer Differentialgleichungen Sie werden zahlreiche Parallelen zur Theorie linearer Gleichungssysteme feststellen,

Mehr

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x

Mehr

4 Lineare Abbildungen und Matrizen

4 Lineare Abbildungen und Matrizen Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt

Mehr