Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB)

Größe: px
Ab Seite anzeigen:

Download "Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB)"

Transkript

1 Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB) Prof. R. Leithner, Dipl. Phys. E. Zander Wintersemester 2010/2011

2 Kapitel 5 Lineare Systeme Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/2

3 Lineare Systeme Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/3

4 Lineare Systeme Viele Probleme in angewandten Wissenschaften führen auf die Lösung linearer Systeme Ax = b A = (a ij ) quadratische Matrix n n, x und b Spaltenvektoren Komponentenweise Form: a 11 x 1 + a 12 x a 1n x n = b 1 a 21 x 1 + a 22 x a 2n x n = b 2... a n1 x 1 + a n2 x a nn x n = b n Numerische Verfahren zur Lösung von linearen Systemen notwendig Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/4

5 Beispiel 1: Hydraulik Hydraulisches System, Quelle mit konstantem Druck p = 10 bar Durchflussmenge Q j durch Rohr j abhängig von der Druckdifferenz p j k j L j Q j = p j k j hydraulischer Widerstand, L j Rohrlänge (Achtung: gilt nur für laminare Strömungen!) Quelle: A. Quarteroni, F. Saleri Austritt bei Atmosphärendruck (vereinbart auf 0 bar) Massenbilanz Summe der Durchflussmengen Null in jedem Knoten Beispiel: Knoten 1 (hineingehender Strom negativ) Q 1 + Q 2 + Q 3 + Q 4 = 0 Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/5

6 Beispiel 1: Hydraulik Einsetzen führt auf c 1 (p 1 10) + c 2 p 2 p 1 ) +c 3 (p 4 p 1 ) + c 4 (p 3 p 1 ) = 0 mit c i = 1/(k i L i ) (k i und L i siehe Quarteroni) Umformen oder (c 1 + c 2 + c 3 + c 4 )p 1 + c 2 p 2 + c 4 p 3 + c 3 p 4 = 10c p p p p 4 = 2 Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/6

7 Beispiel 2: Spektrometrie Betrachte Gasgemisch aus n verschiedenen Komponenten Gesucht: Partialdruck p j von Komponente j Untersuchung mit Massenspektrometer (Galvanometer): zeigt verschiedene Ausschläge h i je nach Masse/Ladungsverhältnis n s ij p j = h i j=1 Sensitivitätskoeffizienten s ij bestimmt an reinen Gasen Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/7

8 Wirtschaft: Input-Output-Analyse Betrachte n Fabriken, Fabrik i erzeugt x i Einheiten von Gut i Verbrauch von Gut i am Markt ist b i Verbrauch von Gut i durch Fabrik j ist c ij x j (zur Erzeugung von x j Einheiten von Gut j) Quelle: A. Quarteroni, F. Saleri Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/8

9 Wirtschaft: Input-Output-Analyse Für das einzelne Gut i gilt im Gleichgewicht von Angebot und Nachfrage n x i = c ij x j + b i j=1 Definiere C = (c ij ) b = (b i ) A = I C Für die Gesamtproduktion x gilt dann: Ax = b Anmerkung: dieses Modell wird auch als Leontief-Modell bezeichnet (Nobel-Preis 1973) Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/9

10 Lösung linearer Systeme Lösung von Ax = b existiert genau dann, wenn A nicht singulär ist (d.h. det(a) 0) Versuch: Berechnung mit Cramerscher Regel x i = det(a) det(a i ) wobei A i aus A entsteht indem die i-te Spalte durch b ersetzt wird Berechnung der Determinanten einer n n Matrix mit Hilfe der Laplace-Entwicklung erfordert 2n! Operationen Für alle zusammen 2(n + 1)! Operationen Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/10

11 Lösung linearer Systeme Zeitbedarf für die Lösung von Ax = b mit der Cramerschen Regel auf einem Computer mit 10 9 flops: n = Stunden n = Jahre n = Jahre nicht effizient genug für praktische Anwendungen Anmerkung: die Laplace-Entwicklung zur Berechnung der Determinanten ist numerisch nicht stabil, sollte daher nicht verwendet werden Folgerung: bessere Verfahren werden benötigt Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/11

12 LU-Faktorisierung Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/12

13 LU-Faktorisierung Grundidee: der LU-Faktorisierung 1 Zerlege Matrix A in eine untere (Engl. lower L) und eine obere (Engl. upper U) Dreiecksmatrix A = LU 2 Dann löse hintereinander Ly = b Ux = y Hintergrund: Lösung der Gleichungssysteme mit oberer/unterer Dreiecksmatrix ist einfach und schnell durchzuführen Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/13

14 LU-Faktorisierung Lösung des Systems Ly = b Form der unteren Dreiecksmatrix L l l 21 l l 31 l 32 l l n1 l n2 l n3 l nn Führt auf die Gleichungen l 11 y 1 = b 1 l 21 y 1 + l 22 y 2 = b 2 l 31 y 1 + l 32 y 2 + l 33 y 3 = b 3 Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/14

15 LU-Faktorisierung - Vorwärtseinsetzung Lösung durch Vorwärtseinsetzung y 1 = 1 b 1 l 11 y i = 1 i 1 b i l ij y j l ii für i = 2,..., n j=1 Benötigte Operationen für Unbekannte y i : i 1 Additionen, i 1 Multiplikationen, 1 Division Operationen insgesamt: n n (i 1) = n 2 i=1 i=1 Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/15

16 LU-Faktorisierung - Rückwärtseinsetzung Lösung von Ux = y durch Rückwärtseinsetzung x n = 1 y n u nn x i = 1 n y i u ij x j u ii für i = n 1,..., 1 j=i+1 Rückwärtseinsetzen benötigt ebenfalls n 2 Operationen Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/16

17 LU-Faktorisierung Gesucht: Algorithmus um L und U aus A zu berechnen Berechnung am Beispiel A R 2 2 Gleichung A = LU äquivalent zu [ ] [ ] [ ] l11 0 u11 u 11 a11 a = 12 l 21 l 22 0 u 22 a 21 a 22 Daraus folgt: l 11 u 11 = a 11 l 11 u 12 = a 12 l 21 u 11 = a 21 l 21 u 12 + l 22 u 22 = a 22 Gleichungen sind unterbestimmt: mehr Unbekannte als Gleichungen Diagonalelemente l ii werden willkürlich auf 1 gesetzt Gleichungen können dann nach u 11, u 12, l 21, u 22 aufgelöst werden Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/17

18 LU-Faktorisierung Für eine 3 3 Matrix ergibt sich: l 11 u 11 = a 11 l 11 u 12 = a 12 l 11 u 13 = a 13 l 21 u 11 = a 21 l 21 u 12 + l 22 u 22 = a 22 l 21 u 13 + l 22 u 23 = a 23 l 31 u 11 = a 31 l 31 u 11 + l 32 u 22 = a 32 l 31 u 13 + l 32 u 23 + l 33 u 33 = a 33 Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/18

19 LU-Faktorisierung Vorgehen für Matrix beliebiger Dimension n Elemente von L und U erfüllen min(i,j) l ir u rj = a ij r=1 für i, j = 1,..., n System ist unterbestimmt (n 2 Gleichungen, n 2 + n Unbekannte) Setze Diagonalelemente von L gleich 1 Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/19

20 LU-Faktorisierung - Gauß-Algorithmus Dann berechne mit Gauß-Algorithmus (setze a (1) ij = a ij ) für i = k + 1,..., n l ik = a (k) ik /a(k) kk für j = k + 1,..., n Pivotelemente a (k) kk a (k+1) ij = a (k) ij l ik a (k) kj müssen von Null verschieden sein Obere Dreiecksmatrix U gegeben durch u ij = a (i) ij Gauß-Faktorisierung benötigt 2n 3 /3 Operationen Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/20

21 LU-Faktorisierung - Speicheroptimierung Matrizen A (k) müssen nicht extra gespeichert werden Speicherschema nach Schritt k im Gauß-Algorithmus: a (1) 11 a (1) a (1) l 21 a (2) 1n a (2) 2n l k1... l k,k 1 a (k) kk... a (k) kn.... l n1... l n,k 1 a (k) nk... a (k) nn A (k) (eingerahmt) werden in der Ursprungsmatrix A gespeichert Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/21

22 LU-Faktorisierung - Implementierung function A= lu_gauss (A) [n,m]= size (A); if n~=m; error ( A ist keine quadratische Matrix ); else for k = 1:n -1 if A(k,k )==0, error ( Pivot ist null ); end for i = k +1: n A(i,k) = A(i,k)/A(k,k); for j = k +1: n A(i,j) = A(i,j) - A(i,k)*A(k,j); end end end end Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/22

23 LU-Faktorisierung - Beispiel Beispiel: LU-Zerlegung einer 4 4-Matrix und Lösung durch Vorwärtsbzw. Rückwärtseinsetzen >> A= hilbert (4); >> A= lu_gauss (A); >> y (1)= b (1); for i =2: 4; y = [y; b(i)-a(i,1:i -1)* y (1:i -1)]; end >> x (4)= y (4)/ A (4,4); >> for i = 3: -1:1; x(i)= (y(i)-a(i,i +1:4)* x(i +1:4))/ A(i,i); end Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/23

24 LU-Faktorisierung - Aufwand Aufwand für die Faktorisierung mit dem Gauß-Algorithmus für n n-matrizen mit n = 10, 20,..., 100 Quelle: A. Quarteroni, F. Saleri Verlauf entspricht sehr genau dem theoretischen Aufwand von 2n 3 /3 Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/24

25 LU-Faktorisierung Gauß-Faktorisierung wird in Matlab in folgenden Befehlen benutzt [L,U]=lu(A) berechnet die LU-Zerlegung von A inv(a) berechnet die inverse Matrix A 1 Achtung: dies ist numerisch selten sinnvoll! A\b löst das lineare System Ax = b det(a) berechnet die Determinante von A Berechnung der Determinanten mit Hilfe der LU-Zerlegung aufgrund n det(a) = det(lu) = det(l) det(u) = k=1 u kk Matlab benutzt intern die sehr effiziente Bibliothek LAPACK (lineare Algebra Routinen in FORTRAN) Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/25

26 LU-Faktorisierung - Probleme Gesucht: Lösung des linearen Systems 1 1 ɛ 3 5 ɛ A = 2 2 2, b = für ɛ R Lösung x = (1, 1, 1) T unabhängig von ɛ LU-Faktorisierung für ɛ = 1: L = 2 1 0, U = Für ɛ = 0: Gauß-Algorithmus nicht durchführbar, da Division durch 0 (obwohl die Matrix nicht singulär ist!) Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/26

27 LU-Faktorisierung Für welche Matrizen existiert die Gauß-Faktorisierung? Satz (Existenz der Gauß-Faktorisierung) Für eine gegebene Matrix A R n n existiert seine Gauß-Faktorisierung genau dann, wenn alle Hauptuntermatrizen A i von A der Ordnung i = 1,..., n 1 (also A eingeschränkt auf die i ersten Zeilen und Spalten) nichtsingulär sind. Klassen von Matrizen, für die der Satz erfüllt ist: Symmetrisch positiv definite Matrizen Diagonaldominante Matrizen Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/27

28 Cholesky-Faktorisierung Falls A symmetrisch positiv definit ist, existiert eine besonders effiziente Zerlegung A = HH T dabei ist H untere Dreiecksmatrix Anzahl Operationen für die Cholesky-Faktorisierung n 3 /3 Berechnung: setze h 11 = a 11 ( ) h ij = 1 j 1 a ij h ik h jk h jj i 1 h ii = aii k=1 In Matlab mit chol(a) k=1 h 2 ik Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/28

29 Pivotisierung Betrachte Matrix A: A = A (1) = Nach dem ersten Schritt des Gauß-Algorithmus erhalten wir: A (2) = Problem: Pivotelement a 2 22 ist null Idee: Zeilen 2 und 3 vertauschen A (2) = Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/29

30 Pivotisierung Folgerung: auch Matrizen für die die Voraussetzungen nicht gelten, können faktorisiert werden, wenn die Matrix entsprechend permutiert wird Problem: richtige Permutation nicht a priori bekannt aber: Permutation kann während des Prozesses durchgeführt werden P wird am Anfang gleich der Einheitsmatrix gesetzt. Wenn bei der Faktorisierung Zeilen r und s von A vertauscht werden, tauscht man die Spalten r und s von P, so dass gilt: PA = LU Dann löst man Ly = Pb Ux = y Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/30

31 Pivotisierung - Beispiel Betrachte folgende Matrix: A = Zerlege mit Programm lu Gauss in Faktoren L und Ũ Die Faktoren sind sehr ungenau: A LŨ = Alle Pivotelemente bei der Zerlegung sind ungleich Null Allerdings: manche Pivotelemente sehr klein Auslöschung Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/31

32 Pivotisierung Lösung: Zeilenpivotisierung 1 Suche in jedem Schritt k das betragsmäßig größte Pivotelement a (k) ik (mit i = k,..., n) 2 Dieses sei in Zeile r 3 Vertausche Zeile k mit Zeile r 4 Merke die Vertauschung in einer Permutationsmatrix P In Matlab: Befehl lu berechnet Gauß-Faktorisierung mit Zeilenpivotisierung Aufruf: [L,U,P]=lu(A), dann gilt L*U=P*A Hinweis: beim verkürzten Aufruf [M,U]=lu(A) gilt M=P *L Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/32

33 Pivotisierung - Algorithmus Gauß-Algorithmus mit Zeilenpivotisierung: für i = k + 1,..., n finde r, so dass a (k) rk = max j=k,...,n a(k) jk, vertausche Zeile k mit Zeile r l ik = a (k) ik /a(k) kk für j = k + 1,..., n a (k+1) ij = a (k) ij l ik a (k) kj Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/33

34 Konditionszahl Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/34

35 Genauigkeit der Faktorisierung Produkt LU nicht exakt gleich A (Rundungsfehler) Dämpfung mit Pivotisierung, aber: Wie genau ist das Verfahren? Beispiel: Faktorisierung der Hilbert-Matrix mit Elementen a ij = 1/(i + j 1) der Dimension n. Beispiel mit n = 3: 1 1/2 1/3 A 3 = 1/2 1/3 1/4 1/3 1/4 1/5 Wähle b n so dass x n = (1, 1,..., 1) T ist (d.h. berechne b n = A n x n ) Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/35

36 Genauigkeit der Faktorisierung Berechne relativen Fehler in der Lösung E n = x n x n / x n in Abhängigkeit von n (siehe Abbildung, durchgezogene Linie) Quelle: A. Quarteroni, F. Saleri Fehler größer 1000% für n 13 (Aber: R n = L n U n P n A n gleich Nullmatrix, gestrichelte Linie ) Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/36

37 Störungsrechnung Annahme: numerische Lösung des Systems Ax = b ist die exakte Lösung des gestörten Systems (A + δa) x = b + δb (*) δa und δb hängen vom speziellen Verfahren ab Untersuche erst einfachen Fall: δa = 0 und δb 0 Weitere Annahme: A symmetrisch positiv definit (d.h. A = A T und x T Ax > 0 für alle x 0) Aus (*) und Ax = b folgt x x = A 1 δb somit für den relativen Fehler E rel = x x / x = A 1 δb / x Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/37

38 Störungsrechnung A laut Annahme symmetrisch positiv definit Eigenvektoren v i bilden Orthonormalbasis von R n Es gilt also Av i = λ i v i vi T v j = δ ij Es lässt sich folgern (Eigenwertgleichung) (Orthonormalität) Aw λ max w, A 1 w 1 λ min w Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/38

39 Beweis der Abschätzung Beweis von Aw λ max w. Es gilt: Aw 2 = (Aw, Aw) n = (A w i v i, A = ( = i=1 n λ i w i v i, i=1 n w j v j ) j=1 n λ j w j v j ) j=1 n λ i λ j w i w j (v i, v j ) i,j=1 Definition der Norm Entwicklung von w in der Eigenvektorbasis v i Eigenvektoren: Av i = λ i v i Ausklammern und umstellen = n i=1 λ2 i wi 2 Orthogonalität (v i, v j ) = δ ij λ 2 n max i=1 w2 i = λ 2 max w 2 Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/39

40 Konditionszahl Beweis von A 1 w 1 λ min w folgt ähnlich Damit A 1 δb 1 λ min δb und Ax = b λ max x : x x E rel = = A 1 δb λ max δb x x λ min x Konstante K(A) = λ max λ min heißt spektrale Konditionszahl der Matrix A Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/40

41 Kondition - Beispiel >> A =[1 2; 2 5] A = >> lambda = eig (A) lambda = >> lambda (2)/ lambda (1) ans = >> cond (A) ans = Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/41

42 Konditionszahl Faustregel 1: Kondition klein Ax = b leicht zu lösen Kondition groß Aufwand sehr hoch, geringe Genauigkeit der Lösung Faustregel 2: bei einer Konditionszahl K(A) = 10 k verliert beim lösen des Gleichungssystems k Stellen an numerischer Genauigkeit In Matlab mit cond(a) für dünnbesetzte Matrizen mit condest(a) Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/42

43 Kondition - Beispiel Vergleich der Konditionszahl mit tatsächlichem Fehler Beispiel: Berechne Hilbert-Matrix 1/1 1/2 1/n 1/2 1/3 1/(n + 1) A n = /n 1/(n + 1) 1/(2n 1) Kondition K(A n ) der Hilbert-Matrix steigt exponentiell mit n Vergleiche für verschiedene n den Fehler x x mit dem erwarteten Verlust an numerischer Genauigkeit ɛ M K(A n ) Standardtrick: wähle die Lösung x als bekannt (z.b. x = (1,..., 1) T ) und berechne damit die rechte Seite b = Ax Fehler x x kann genau berechnet werden Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/43

44 Kondition und Fehler N =3:10; for n=n x= ones (n,1); A= hilb (n); b=a*x; xn=a\b; err (n)= norm (x-xn ); cnd (n)= cond (A)* eps ; end semilogy ( N, err (N), x-, N, cnd (N), o -. ) legend ({ Fehler, Kondition * eps }, Location, best ) Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/44

45 Kondition und Fehler Vergleich Kondition und Fehler: Fehler x n x n liegt immer unter der Abschätzung ɛ M K(A n ) Fehler Kondition*eps Quelle: eigenes Bild Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/45

46 Residuum als Fehlerschätzer Für das Residuum gilt: r = b A x Falls x exakte Lösung, dann Residuum r ist null, andernfalls ungleich null Residuum r möglicher Fehlerschätzer für x x Aus δb = A( x x) = A x b = r folgt: x x K(A) r x b Wenn K(A) klein ist gilt: kleines Residuum kleiner Fehler Diese Folgerung gilt nicht, wenn K(A) groß ist (1) Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/46

47 Tridiagonale Systeme Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/47

48 Lösen tridiagonaler Systeme Viele Anwendungen führen auf Matrizen der Form a 1 c 1 0. A = e 2 a cn 1 0 e n a n Matrix heißt tridiagonal, da nur Elemente auf der Haupt- und den beiden Nebendiagonalen ungleich Null sind Gauß-Faktorisierung ergibt bidiagonale Matrizen L und U α 1 c 1 0. L = β U = 0 α cn 1 0 β n α n Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/48

49 Lösen tridiagonaler Systeme Bestimmung der Koeffizienten α i und β i über die Gleichung LU = A Wir erhalten für i = 2,..., n α 1 = a 1 β i = e i α i 1 α i = a i β i c i 1 Jetzt Vorwärtseinsetzen (Ly = b) y 1 = b 1, y i = b i β i y i 1 (i = 2,..., n), dann Rückwärtseinsetzen (Ux = y) x n = y n /α n, x i = (y i c i x i+1 )/α i (i = n 1,..., 1) Rechenaufwand ist linear Algorithmus benötigt O(n) Operationen Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/49

50 Thomas-Algorithmus - Laufzeitanalyse time = [ ]; N= round ( linspace (200,100000,40)) for n = N n b= ones (n,1); a =2* b; c =3* b; T= spdiags ([b a c], -1:1,n,n); rhs = T* ones (n,1); tic ; x=t\ rhs ; time = [time, toc ]; end plot ( N, time, o- ) xlabel ( n ) ylabel ( time ) Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/50

51 Thomas-Algorithmus - Laufzeitanalyse Matlab benutzt automatisch den Thomas-Algorithmus zur Lösung tridiagonaler Systeme, erkennbar an der linearen Laufzeit time n x 10 4 Quelle: eigenes Bild Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/51

52 Zusammenfassung Die LU-Faktorisierung von A besteht in der Berechnung einer unteren Dreiecksmatrix L und einer oberen Dreiecksmatrix U, so dass A = LU; Die LU-Faktorisierung ist, falls sie existiert, nicht eindeutig und wird bestimmt, indem zusätzlich n Koeffizienten von L oder von U fixiert werden. Setzt man etwa alle Diagonalkoeffizienten von L gleich 1, erhält man die sogenannte Gauß-Faktorisierung; Die Gauß-Faktorisierung kann nur dann berechnet werden, falls die Hauptuntermatrizen der Ordnung 1 bis n 1 nichtsingulär sind; andernfalls ist mindestens ein Pivotelement gleich null; sie ist überdies eindeutig, falls det(a) = 0; Falls ein Pivotelement gleich null erzeugt wird, können wir ein neues Pivotelement erhalten, indem wir in geeigneter Weise zwei Zeilen oder Spalten miteinander vertauschen (Pivotisierung); Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/52

53 Zusammenfassung Zur Berechnung der Faktoren L und U sind etwa 2n 3 /3 Operationen notwendig. Im Fall tridiagonaler Matrizen ist der Rechenaufwand hingegen nur mehr von der Ordnung n Operationen; Auf symmetrische, positiv definite Matrizen können wir die Cholesky-Faktorisierung A = HH T anwenden, wobei H eine untere Dreiecksmatrix ist. Der Rechenaufwand ist von der Ordnung n 3 /3 Operationen; Die Empfindlichkeit der Lösung eines linearen Gleichungssystems gegenüber Störungen in den Daten hängt von der Konditionszahl der Matrix ab. Falls diese groß ist, können kleine Störungen in den Koeffizienten der Matrix und der rechten Seite sehr ungenaue Lösungen bewirken. Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/53

54 Iterative Verfahren Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/54

55 Iterative Verfahren Idee iterativer Verfahren: Konstruiere eine Folge von Vektoren x (k) mit k = 0, 1,..., die gegen die exakte Lösung konvergiert, d.h.: lim k x(k) = x Mögliche Strategie: wähle geeignete Matrix B (abhängig von A) und Vektor g (abhängig von A, B und b) und berechne: x (k+1) = Bx (k) + g (*) Für x = A 1 b muss folgende Konsistenzbedingung erfüllt sein: x = Bx + g (**) Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/55

56 Iterative Verfahren Fehler im k-ten Schritt e (k). Aus (*) und (**) folgt nun: e (k+1) = Be (k) B heißt Iterationsmatrix des Verfahrens Falls B symmetrisch positiv definit gilt e (k+1) = Be (k) ρ(b) e (k) ρ(b) heißt Spektralradius von B, maximaler Betrag der Eigenwerte von B Von e (0) an k mal iterieren liefert: e (k) ρ(b) k e (0) Wenn ρ(b) < 1, dann e (k) 0, d.h. das Verfahren konvergiert Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/56

57 Iterative Verfahren Theorem (Konvergenz iterativer Verfahren) Notwendige und hinreichende Bedingung zur Konvergenz eines iterativen Verfahrens der Form x (k+1) = Bx (k) + g mit Startwert x (0), dass die Konsistenzbedingung x = Bx + g (*) (**) erfüllt, ist, dass ρ(b) < 1 ist. Überdies, je kleiner ρ(b), desto geringer ist die Anzahl notwendiger Iterationen, damit sich der Anfangsfehler um einen gegebenen Faktor verkleinert. Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/57

58 Konstruktion iterativer Verfahren Bisher: Konstruktion einer geeigneten Iterationsmatrix offen gelassen Allgemeine Technik: additive Zerlegung (oder Splitting) der Matrix A A = P + (A P) P heißt Vorkonditionierer (engl. preconditioner) von A Es gilt dann: Px = (P A)x + b Die allgemeine Form (*) des Iterationsverfahrens erhält man, indem man setzt. B = P 1 (P A) = I P 1 A g = P 1 b und Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/58

59 Konstruktion iterativer Verfahren Die Iterationsvorschrift für ein Splittingverfahren ist also Px (k+1) = (P A)x (k) + b daraus folgt P(x (k+1) x (k) ) = r (k) wobei r (k) = b Ax (k) das Residuum in der k-ten Iteration ist In jedem Schritt muss ein lineares System der Form Pz (k) = r (k) gelöst werden. Die neue Iterierte ist dann x (k+1) = x (k) + z (k). Matrix P so wählen, dass das Lösen von (*) schnell geht (*) Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/59

60 Das Jacobi-Verfahren Wenn Diagonaleinträge von A groß sind gegen die Nichtdiagonaleinträge wähle: a 11 0 P = D =... 0 a nn Die Iterationsvorschrift wird damit Dx (k+1) = b (A D)x (k) Iterationsmatrix des Jacobi-Verfahrens 0 a 12 /a 11 a 1n /a 11 B = D 1 a 21 /a 22 0 a 2n /a 22 (D A) =..... a n1 /a nn a n2 /a nn 0 Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/60

61 Konvergenz des Jacobi-Verfahrens Theorem (Konvergenz Jacobi-Verfahrens) Falls die Matrix A des linearen Gleichungssystems Ax = b streng zeilendiagonaldominant ist, konvergiert das Jacobi-Verfahren. Beweis: Wir müssen zeigen, dass dann ρ(b) < 1 ist Sei λ Eigenwert von B und v zugehöriger Eigenvektor, dann: n b ij v j = λv i j=1 Annahme: max k v k = 1 (geht immer, Eigenvektoren können beliebig skaliert werden), dann: n λ = b ij v j = n n b ij v j a ij a ii 1 j=1 j=1,j i j=1,j i Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/61

62 Das Jacobi-Verfahren Iterationsvorschrift komponentenweise für i = 1,..., n x (k+1) i = 1 n b i a ij x (k) j a ii j=1,j i mit Startvektor x (0) = (x (0) 1,..., x(0) n ) T Entspricht der üblichen Implementierung des Jacobi-Verfahrens Löse nacheinander für i = 1,..., n Zeile i nach x i auf Achtung: Implementierung in Matrix-Form (siehe nächste Folie) nicht effizient, nur zu Demonstrationszwecken Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/62

63 Implementierung Jacobi-Verfahren function [x, iter ]= jacobi (A,b,x0, maxiter, reltol ) D= diag ( diag (A )); x=x0; r=b-a*x; for norm_r0 = norm (r); iter =1: maxiter z=d\r; x=x+z; r=b-a*x; errest = norm (r)/ norm_r0 ; if errest < reltol ; break ; end end if errest > reltol warning ( Jacobi did not converge... ); end Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/63

64 Das Gauß-Seidel Verfahren Iterationsvorschrift für das Jacobi-Verfahren x (k+1) i = 1 n b i a ij x (k) j a ii j=1,j i benutzt bereits berechnete Werte x (k+1) j für j < i nicht Vermutung: höhere Konvergenzgeschwindigkeit, wenn diese Werte benutzt werden x (k+1) i = 1 a ii i 1 b i j=1 a ij x (k+1) j Dieses Verfahren heißt Gauß-Seidel-Verfahren n j=i+1, a ij x (k) j Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/64

65 Gauß-Seidel-Verfahren Aktualisierung der Komponenten beim Gauß-Seidel-Verfahren sequentiell Dagegen: beim Jacobi-Verfahren ist parallele Abarbeitung möglich Vorkonditioniermatrix beim Gauß-Seidel-Verfahren: P = D + E hier: E untere Dreicksmatrix mit e ij = a ij für i > j. Iterationsmatrix B = (D + E) 1 (P A) Verallgemeinerung: Relaxationsverfahren mit P = 1 ω D + E Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/65

66 Konvergenz des Gauß-Seidel-Verfahrens Das Gauß-Seidel-Verfahren konvergiert sicher für streng zeilendiagonaldominante Matrizen symmetrisch positive definite Matrizen Gauß-Seidel-Verfahren oft, aber nicht immer schneller als das Jacobi-Verfahren aber: kein allgemeines Resultat, nur für Spezialfälle bewiesen Beispiel: tridiagonale Matrizen Jacobi- und Gauß-Seidel-Verfahren entweder beide divergent oder beide konvergent Wenn konvergent: Gauß-Seidel-Verfahren konvergiert schneller Spektralradius der Iterationsmatrix bei Gauß-Seidel gleich dem Quadrat des Spektralradius bei Jacobi Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/66

67 Abbruch iterativer Verfahren Wann soll ein iteratives Verfahren abgebrochen werden? Theoretisch: unendlich viele Iterationen notwendig Praktisch: nicht sinnvoll und nicht nötig Es genügt oft eine Approximation x (k), wenn der Fehler kleiner als Toleranz ɛ ist Fehler unbekannt: a-posteriori-fehlerschätzer wird benötigt Abschätzung (nach oben) des Fehlers aus bekannten Größen Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/68

68 Fehlerschätzer für iterative Verfahren Erste Möglichkeit: Residuum r (k) = b Ax (k) Breche Verfahren nach Schritt k min ab, wenn r (k min) ɛ b Mit der bereits früher hergeleiteten Abschätzung x x K(A) r x b und x = x (kmin) sowie r = r (kmin) folgt e (kmin) ɛk(a) x Abschätzung für den relativen Fehler nur sinnvoll, wenn die Konditionszahl K(A) klein ist Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/69

69 Fehlerschätzer für iterative Verfahren Alternative Möglichkeit: Verwendung des Inkrements δ (k) = x (k+1) x (k) und Abbruch wenn δ (k min) ɛ b Wenn die Iterationsmatrix B symmetrisch positiv definit ist, gilt e (k) = e (k+1) δ (k) ρ(b) e (k) + δ (k) Da ρ(b) < 1 für konvergente Verfahren, folgt: e (k) 1 1 ρ(b) δ(k) Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/70

70 Beispiel: Fehlerschätzer Betrachte folgende tridiagonale Matrix A = Löse mit Jacobi- und Gauss-Seide-Verfahren und Toleranz 10 5 und Abbruchkriterium, dass auf den Fehlerschätzer basierend auf dem Inkrement benutzt Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/71

71 Beispiel: Fehlerschätzer Abbruch nach ca Iterationen mit Fehler Fehler deutlich größer als vorgegebene Toleranz von 10 5! Grund: Spektralradius der Iterationsmatrix ρ(b) = sehr nah bei 1 und Faktor 1/(1 ρ) im Fehlerschätzer Anderes Beispiel: Matrix mit 3 auf der Diagonalen statt 2001 Konvergiert nach 17 Iterationen, Fehler ca wie per Toleranz vorgegeben Grund: Spektralradius für diese Matrix , Fehlerschätzer funktioniert deutlich besser Anmerkung: bei beiden Matrizen konvergiert Gauss-Seidel doppelt so schnell wie Jacobi, da A streng diagonaldominant ist Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/72

72 Beispiel: Fehlerschätzer Quelle: A. Quarteroni, F. Saleri Fehlers (durchgezogen) bzw. Residuum (gestrichelt) logarithmisch aufgetragen über der Anzahl der Iterationen für das vorige Beispiel Trotz starker Reduktion des Residuums, keine Abnahme des Fehlers Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/73

73 Gradientenverfahren Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/74

74 Stationäre und instationäre iterative Verfahren Betrachte das Verfahren P(x (k+1) x (k) ) = r (k) und führe den Faktor α (k) ein P(x (k+1) x (k) ) = α (k) r (k) Wenn α (k) konstant ist, heißt das Verfahren stationär (z.b. Jacobi oder Gauß-Seidel) Wenn α (k) variiert, heißt das Verfahren instationär Matrix P heißt auch hier Vorkonditionierer Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/75

75 Stationärer Fall Betrachte stationären Fall, d.h. α (k) = const. Annahme: A und P symmetrisch und positiv definit, dann gilt: Das Verfahren P(x (k+1) x (k) ) = αr (k) konvergiert genau dann, wenn 0 < α < 1/λ max (P 1 A) Das optimale α opt, für das der Spektralradius der Iterationsmatrix B ein Minimum annimmt, ist 2 α opt = λ min + λ max Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/76

76 Gradientenverfahren Sei z (k) = P 1 r (k) das sogenannte vorkonditionierte Residuum und A und P wiederum symmetrisch und positiv definit Ferner werde α (k) folgendermaßen gewählt α (k) = (z(k) ) T r (k) (z (k) ) T Ar (k) Dann konvergiert das Verfahren P(x (k+1) x (k) ) = α (k) r (k) Dieses heißt vorkonditioniertes Gradientenverfahren Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/77

77 Gradientenverfahren In beiden der vorigen Fälle (stationär und instationär) gilt die Konvergenzabschätzung ( K(P e (k) 1 ) k A) 1 A K(P 1 A) + 1 Hierbei ist v A = v T Av die sogenannte (zur Matrix A gehörige ) Energienorm Kleinster und größter Eigenwert von P 1 A unbekannt daher ist das instationäre dem stationären Verfahren vorzuziehen Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/78

78 Implementierung des Gradientenverfahrens Sei ein beliebiger Startvektor x (0) gegeben, berechne r (0) = b Ax (0) und dann für jede Iteration Pz (k) = r (k) α (k) = (z(k) ) T r (k) (z (k) ) T Ar (k) x (k+1) = x (k) + α (k) z (k) r (k+1) = r (k) + α (k) Az (k) Das stationäre Verfahren erhält man, indem man α (k) durch ein konstantes α ersetzt Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/79

79 Vorkonditionierung Konvergenzgeschwindigkeit ist sehr gering, wenn P 1 A schlecht konditioniert ist Gilt selbst, wenn α = α opt, da ρ(b αopt ) 1 Daher besonders wichtig: geeignete Wahl der vorkonditionierenden Matrix Schwieriger Kompromiss zwischen guter Dämpfung der Konditionszahl einerseits und nicht zu hohem Aufwand beim Lösen mit dem Vorkonditionierer Entwicklung guter Vorkonditionierer ist immer noch aktuelles Forschungsthema Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/80

80 Vergleich Konvergenzverhalten Vergleich der Konvergenzverhaltens des Jacobi-, Gauß-Seidel- und Gradientenverfahrens Betrachte lineares System [ ] [ ] x = mit Startvektor x (0) = [1, 1/2] T Matrix ist symmetrisch und positiv definit Exakte Lösung ist x = [3/5, 1/5] T Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/81

81 Vergleich Konvergenzverhalten Quelle: A. Quarteroni, F. Saleri Relatives Residuum r (k) / r (0) (vertikal) über Anzahl Iterationen (horizontal) Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/82

82 Zusammenfassung Ein iteratives Verfahren zur Lösung eines linearen Systems konstruiert, ausgehend von einem Startvektor x (0), eine Folge von Vektoren x (k), von denen man verlangt, daß sie gegen die exakte Lösung für k konvergieren; Hinreichende und notwendige Bedingung für die Konvergenz eines iterativen Verfahrens für jedes beliebig gewählte x (0) ist, dass der Spektralradius der Iterationsmatrix kleiner als 1 ist; Die klassischen Iterationsverfahren sind das Jacobi- und das Gauß-Seidel-Verfahren. Hinreichend für die Konvergenz dieser Verfahren ist, dass die Matrix des zu lösenden Systems streng diagonaldominant ist (im Fall des Gauß-Seidel-Verfahrens auch symmetrisch und positiv definit); Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/83

83 Zusammenfassung Im Richardson-Verfahren wird die Konvergenz beschleunigt, indem in jedem Iterationsschritt ein Parameter und (eventuell) eine geeignete vorkonditionierende Matrix eingeführt wird; Es gibt zwei mögliche Abbruchkriterien für ein iteratives Verfahren: die Kontrolle des Residuums und die Kontrolle des Inkrements. Ersteres ist aussagekräftig, falls die Matrix des Systems gut konditioniert ist, das zweite, falls der Spektralradius der Iterationsmatrix strikt kleiner als 1 ist. Prof. R. Leithner, E. Zander Einführung in numerische Methoden für Ingenieure 5/84

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Rechenaufwand der LR- und LDL T - Zerlegung

Rechenaufwand der LR- und LDL T - Zerlegung 6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für

Mehr

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme

5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme Als zweite Hauptanwendung des Banachschen Fixpunktsatzes besprechen wir in diesem Kapitel die iterative Lösung linearer Gleichungssysteme. Die

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Matrizenoperationen mit FORTRAN

Matrizenoperationen mit FORTRAN Kapitel 2 Matrizenoperationen mit FORTRAN 21 Grundlagen Bei vielen Anwendungen müssen große zusammenhängende Datenmengen gespeichert und verarbeitet werden Deshalb ist es sinnvoll, diese Daten nicht als

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

20 Kapitel 2: Eigenwertprobleme

20 Kapitel 2: Eigenwertprobleme 20 Kapitel 2: Eigenwertprobleme 2.3 POTENZMETHODE Die Potenzmethode oder Vektoriteration ist eine sehr einfache, aber dennoch effektive Methode zur Bestimmung des betragsmäßig größten Eigenwertes. Um die

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.

Mehr

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)

Mehr

8. Elemente der linearen Algebra 8.5 Quadratische Matrizen und Determinanten

8. Elemente der linearen Algebra 8.5 Quadratische Matrizen und Determinanten Einheitsmatrix Die quadratische Einheitsmatrix I n M n,n ist definiert durch I n = 1 0 0 0 1 0 0 0 1 (Auf der Hauptdiagonalen stehen Einsen, außerhalb Nullen Durch Ausmultiplizieren sieht man I n A = A

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.

Mehr

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

Iterative Lösung Linearer Gleichungssysteme

Iterative Lösung Linearer Gleichungssysteme Iterative Lösung Linearer Gleichungssysteme E. Olszewski, H. Röck, M. Watzl 1. Jänner 00 E. Olszewski, H. Röck, M. Watzl: WAP (WS 01/0) 1 Vorwort C.F.Gauß in einem Brief vom 6.1.18 an Gerling:

Mehr

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,

Mehr

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung Kapitel 2: Matrizen 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung 2.1 Matrizen M = n = 3 m = 3 n = m quadratisch M ij : Eintrag von M in i-ter

Mehr

Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination. Lehrstuhl für Angewandte Mathematik Wintersemester 2009/10. 14.

Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination. Lehrstuhl für Angewandte Mathematik Wintersemester 2009/10. 14. Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Wintersemester 2009/0 4. Januar 200 Instabilitäten

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

( ) Lineare Gleichungssysteme

( ) Lineare Gleichungssysteme 102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

Kapitel 5. LU Zerlegung. 5.1 L- und U-Matrizen

Kapitel 5. LU Zerlegung. 5.1 L- und U-Matrizen Kapitel 5 LU Zerlegung In vielen Fällen interessiert uns die inverse Matrix A 1 gar nicht. Stattdessen suchen wir die Lösung der Matrixgleichung Ax = b bzw. x = A 1 b 5.1) für einen oder wenige Vektoren

Mehr

4.2.3 LR-Zerlegung für diagonaldominante Matrizen

4.2.3 LR-Zerlegung für diagonaldominante Matrizen 4.2 Lösungsmethoden für lineare Gleichungssysteme 4.2.3 LR-Zerlegung für diagonaldominante Matrizen Satz 4.28 besagt, dass die LR-Zerlegung für beliebige reguläre Matrizen mit Pivotierung möglich ist.

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

1 Grundlagen der Numerik

1 Grundlagen der Numerik 1 Grundlagen der Numerik 1.1 Gleitpunkt-Arithmetik Es gibt nur endlich viele Zahlen auf dem Computer. Gleitpunktzahl: x = σmb E σ: Vorzeichen B: Basis (feste Zahl >1); M: Mantisse E: Exponent B = 2 : Dualzahl

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix

Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Inhaltsverzeichnis Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Auf dieser Seite werden Matrizen und Vektoren fett gedruckt, um sie von Zahlen zu unterscheiden. Betrachtet wird das

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D. Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

Vorlesung 12 22. bzw. 23. Januar 2014. Determinanten 1. Cramersche Regel

Vorlesung 12 22. bzw. 23. Januar 2014. Determinanten 1. Cramersche Regel Vorlesung 2 22 bzw 23 Januar 204 Lineares Gleichungssystem a a 2 b b 2 = F a a 2 a 3 b b 2 b 3 c c 2 c 3 = V V =< a, b c > c b a b a F V Seite 70 a x + a 2 x 2 + a 3 x 3 b = 0 < a x + a 2 x 2 + a 3 x 3

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,

Mehr

Numerische Mathematik für Ingenieure und Physiker

Numerische Mathematik für Ingenieure und Physiker Willi Törnig Peter Spellucci Numerische Mathematik für Ingenieure und Physiker Band 1: Numerische Methoden der Algebra Zweite, überarbeitete und ergänzte Auflage Mit 15 Abbildungen > Springer-Verlag Berlin

Mehr

4 Vorlesung: 21.11. 2005 Matrix und Determinante

4 Vorlesung: 21.11. 2005 Matrix und Determinante 4 Vorlesung: 2111 2005 Matrix und Determinante 41 Matrix und Determinante Zur Lösung von m Gleichungen mit n Unbekannten kann man alle Parameter der Gleichungen in einem rechteckigen Zahlenschema, einer

Mehr

Nullstellenberechnung von nichtlinearen Funktionen

Nullstellenberechnung von nichtlinearen Funktionen Kapitel 3 Nullstellenberechnung von nichtlinearen Funktionen In dieser Vorlesung wird nur die Nullstellenberechnung reeller Funktionen einer reellen Variablen f : R R betrachtet. Man nennt die Nullstellen

Mehr

[Nächste Frage: wie wissen wir, ob Spaltenvektoren eine Basis bilden? Siehe L6.1] , enthält eine Basis v. V, nämlich und somit das ganze V.

[Nächste Frage: wie wissen wir, ob Spaltenvektoren eine Basis bilden? Siehe L6.1] , enthält eine Basis v. V, nämlich und somit das ganze V. Kriterien für Invertierbarkeit einer Matrix Eine lineare Abbildung falls und nur falls ist bijektiv, d.h. ihre Matrix ist invertierbar, (i) für jede Basis, die Bildvektoren auch eine Basis, bilden; (intuitiv

Mehr

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor) Matrizenrechnung. Matrizen Matrizen sind bereits im Kapitel Lineare Gleichungssysteme aufgetreten. Unter einer (m n) -Matrix A verstehen wir ein rechteckiges Zahlenschema mit m Zeilen und n Spalten. Der.

Mehr

KAPITEL 3. Lineare Gleichungssysteme, direkte Lösungsverfahren

KAPITEL 3. Lineare Gleichungssysteme, direkte Lösungsverfahren KAPITEL 3. Lineare Gleichungssysteme, direkte Lösungsverfahren Beispiel 3.2. Gesucht u(x), das eine Differentialgleichung vom Typ u (x) + λ(x)u(x) = f(x), x [0,], mit den Randbedingungen u(0) = u() = 0

Mehr

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben Kapitel 16 Aufgaben Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2 Bekanntlich gilt im Allgemeinen

Mehr

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden: Inverse Matritzen Spezialfall: Die Gleichung ax b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a a 1 gelöst werden: ax b x b a a 1 b. Verallgemeinerung auf Ax b mit einer n nmatrix A: Wenn es

Mehr

Klausur zur Vordiplom-Prüfung

Klausur zur Vordiplom-Prüfung Technische Universität Hamburg-Harburg SS 25 Arbeitsbereich Mathematik Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren 22. Juli 25 Sie haben 9 Minuten Zeit zum Bearbeiten der

Mehr

Theoretische Fragen zu ausgewählten Themen in Lineare Algebra

Theoretische Fragen zu ausgewählten Themen in Lineare Algebra Theoretische Fragen zu ausgewählten Themen in Lineare Algebra { Oren Halvani, Jonathan Weinberger } TU Darmstadt 25. Juni 2009 Inhaltsverzeichnis 1 Determinanten................................................

Mehr

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen 3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow LINEARE ALGERA Ferienkurs Hanna Schäfer Philipp Gadow INHALT Lineare Gleichungssysteme und Determinanten. Lineare Gleichungssysteme.2 Determinanten 3 iii 2 LINEARE GLEIHUNGSSYSTEME UND DETERMINANTEN KAPITEL

Mehr

4 Lineare Abbildungen und Matrizen

4 Lineare Abbildungen und Matrizen Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt

Mehr

Lineare Gleichungssysteme - Grundlagen

Lineare Gleichungssysteme - Grundlagen Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente

Mehr

Serie 8: Fakultativer Online-Test

Serie 8: Fakultativer Online-Test Prof Norbert Hungerbühler Lineare Algebra I Serie 8: Fakultativer Online-Test ETH Zürich - D-MAVT HS 215 1 Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen Die Nachbesprechung

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A 133 e 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 2. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 Schritte des

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Lineare Gleichungssysteme treten oft als Teilprobleme bei numerischen Verfahren auf, zb: Lineare Ausgleichsprobleme (Normalgleichungen) Partielle Differentialgleichungen bei manchen

Mehr

36 2 Lineare Algebra

36 2 Lineare Algebra 6 Lineare Algebra Quadratische Matrizen a a n sei jetzt n m, A, a ij R, i, j,, n a n a nn Definition Eine quadratische Matrix A heißt invertierbar genau dann, wenn es eine quadratische Matrix B gibt, so

Mehr

mit "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor"

mit Skalarprodukt aus i-tem Zeilenvektor und j-tem Spaltenvektor Zusammenfassung Matrizen Transponierte: Addition: mit Skalare Multiplikation: Matrixmultiplikation: m x p m x n n x p mit ES "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor" "Determinante"

Mehr

Das CG-Verfahren. Sven Wetterauer

Das CG-Verfahren. Sven Wetterauer Das CG-Verfahren Sven Wetterauer 06.07.2010 1 Inhaltsverzeichnis 1 Einführung 3 2 Die quadratische Form 3 3 Methode des steilsten Abstiegs 4 4 Methode der Konjugierten Richtungen 6 4.1 Gram-Schmidt-Konjugation.........................

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

Lineare Algebra. Gymnasium Immensee SPF PAM. Bettina Bieri

Lineare Algebra. Gymnasium Immensee SPF PAM. Bettina Bieri Lineare Algebra Gymnasium Immensee SPF PAM Bettina Bieri 6. Oktober 2011 Inhaltsverzeichnis 1 Matrizen 1 1.1 Einleitung............................. 1 1.2 Der Begriff Matrix........................ 1 1.2.1

Mehr

Zugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II

Zugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II Zugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II Matrixzugriff Wir wollen nun unsere Einführung in die Arbeit mit Vektoren und Matrizen in MATLAB

Mehr

Numerische Lösung linearer Gleichungssysteme

Numerische Lösung linearer Gleichungssysteme Kapitel 2 Numerische Lösung linearer Gleichungssysteme Dieses Kapitel behandelt numerische Verfahren zur Lösung linearer Gleichungssysteme der Gestalt Ax = b, A R n n, x, b R n (21) mit a 11 a 1n A = a

Mehr

Mathematik I Herbstsemester 2014 Kapitel 8: Lineare Algebra 8.1 Reelle Matrizen

Mathematik I Herbstsemester 2014 Kapitel 8: Lineare Algebra 8.1 Reelle Matrizen Mathematik I Herbstsemester 2014 Kapitel 8: Lineare Algebra 81 Reelle Matrizen Prof Dr Erich Walter Farkas http://wwwmathethzch/ farkas 1 / 31 1 2 3 4 2 / 31 Transponierte einer Matrix 1 Transponierte

Mehr

Zusammenfassung zum Thema Vektor- und Matrizenrechnung

Zusammenfassung zum Thema Vektor- und Matrizenrechnung Zusammenfassung zum Thema Vektor- und Matrizenrechnung Mathematischer Vorkurs für Physiker und Naturwissenschaftler WS 2014/2015 Grundbegriffe der Linearen Algebra Viele physikalische Größen (Geschwindigkeit,

Mehr

Copyright, Page 1 of 5 Die Determinante

Copyright, Page 1 of 5 Die Determinante wwwmathematik-netzde Copyright, Page 1 of 5 Die Determinante Determinanten sind ein äußerst wichtiges Instrument zur Untersuchung von Matrizen und linearen Abbildungen Außerhalb der linearen Algebra ist

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest

Mehr

Wirtschaftsmathematik Formelsammlung

Wirtschaftsmathematik Formelsammlung Wirtschaftsmathematik Formelsammlung Binomische Formeln Stand März 2015 (a + b) 2 = a 2 +2ab + b 2 (a b) 2 = a 2 2ab + b 2 (a + b) (a b) =a 2 b 2 Fakultät (Faktorielle) n! =1 2 3 4 (n 1) n Intervalle Notation

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

A2.3 Lineare Gleichungssysteme

A2.3 Lineare Gleichungssysteme A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Kapitel 3. Konvergenz von Folgen und Reihen

Kapitel 3. Konvergenz von Folgen und Reihen Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

Die Folien der vierten Vorlesung sind, weil großteils noch nicht behandelt,hier nochmal enthalten:

Die Folien der vierten Vorlesung sind, weil großteils noch nicht behandelt,hier nochmal enthalten: Fünfte Vorlesung, 18. März 2010, Inhalt Gleichungssysteme Die Folien der vierten Vorlesung sind, weil großteils noch nicht behandelt,hier nochmal enthalten: Matrizenrechnung Lineare Gleichungssysteme:

Mehr

Lineare Algebra. Teil III. Inhaltsangabe

Lineare Algebra. Teil III. Inhaltsangabe Teil III Lineare Algebra Inhaltsangabe 3 Lineare Algebra 22 3.1 Einführung.......................... 22 3.2 Matrizen und Vektoren.................... 23 3.3 Spezielle Matrizen...................... 24

Mehr

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010 Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und

Mehr

Vektor und Matrixnormen Vorlesung vom

Vektor und Matrixnormen Vorlesung vom Vektor und Matrixnormen Vorlesung vom 18.12.15 Grundlagen: Matrix Vektor und Matrixprodukt. Lineare Räume. Beispiele. Problem: Berechne die Lösung x von Ax = b zu gegebenem A R n,n und b R n. Ziele: Konditionsanalyse

Mehr

Lösung (die Geraden laufen parallel) oder unendlich viele Lösungen.

Lösung (die Geraden laufen parallel) oder unendlich viele Lösungen. 1 Albert Ludwigs Universität Freiburg Abteilung Empirische Forschung und Ökonometrie Mathematik für Wirtschaftswissenschaftler Dr. Sevtap Kestel Winter 2008 Kapitel 16 Determinanten und inverse Matrizen

Mehr

MATLAB Einführung. Numerische Methoden für ITET und MATL Dr. S. May, D. Devaud. ETH Zürich, Seminar for Applied Mathematics

MATLAB Einführung. Numerische Methoden für ITET und MATL Dr. S. May, D. Devaud. ETH Zürich, Seminar for Applied Mathematics Numerische Methoden für ITET und MATL 2016 ETH Zürich, Seminar for Applied Mathematics Dr. S. May, D. Devaud Frame 2 MATLAB Auf ETH Computer vorinstalliert Auf Heim PC: von www.ides.ethz.ch herunterladen

Mehr

45 Eigenwerte und Eigenvektoren

45 Eigenwerte und Eigenvektoren 45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.

Mehr

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Kapitel 3 Lineare Gleichungssysteme 3.1. Einleitung Beispiel 1 3 Kinder haben eingekauft. Franz hat 4 Lakritzen, 2 Schokoriegel und 5 Kaugummis

Mehr

Newton-Verfahren für ein Skalarfunktion

Newton-Verfahren für ein Skalarfunktion Newton-Verfahren für ein Skalarfunktion Für eine Näherungsberechnung von Nullstellen einer reellen Funktion f(x) : R R benutzt man das Newton-Verfahren: x (n+1) = x (n) f(x (n) )/f (x (n) ). Das Newton-Verfahren

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...

Mehr

Überbestimmte Gleichungssysteme, Regression

Überbestimmte Gleichungssysteme, Regression Überbestimmte Gleichungssysteme, Regression 8. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas MUL 16. Mai 2013 C. Brand, E. Hausenblas 8. Vorlesung 1 / 19 Gliederung 1 Überbestimmte

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

Zusammenfassung zu Numerische Mathematik I

Zusammenfassung zu Numerische Mathematik I Sara Adams Zusammenfassung zu Numerik I - WS 003/04 Inhaltsverzeichnis Zusammenfassung zu Numerische Mathematik I Sara Adams 11. August 004 Diese Zusammenfassung basiert auf der Vorlesung Numerische Mathematik

Mehr

Quadratische Formen und Definitheit

Quadratische Formen und Definitheit Universität Basel Wirtschaftswissenschaftliches Zentrum Quadratische Formen und Definitheit Dr. Thomas Zehrt Inhalt: 1. Quadratische Formen 2. Quadratische Approximation von Funktionen 3. Definitheit von

Mehr

5 Die Allgemeine Lineare Gruppe

5 Die Allgemeine Lineare Gruppe 5 Die Allgemeine Lineare Gruppe Gegeben sei eine nicht leere Menge G und eine Abbildung (Verknüpfung) : G G G, (a, b) a b( a mal b ) Das Bild a b von (a, b) heißt Produkt von a und b. Andere gebräuchliche

Mehr

Mathematik IT 2 (Lineare Algebra)

Mathematik IT 2 (Lineare Algebra) Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof Dr L Cromme Mathematik IT (Lineare Algebra für die Studiengänge Informatik, IMT und ebusiness im Sommersemester 3 Lineare Gleichungssysteme

Mehr