4 Direkte Verfahren für spezielle Systeme

Größe: px
Ab Seite anzeigen:

Download "4 Direkte Verfahren für spezielle Systeme"

Transkript

1 Numerische Mathematik Direkte Verfahren für spezielle Systeme 4.1 Die Cholesky-Zerlegung Satz 4.1 Es sei A = [a i,j ] R n n [C n n ] symmetrisch [Hermitesch]. Dann sind die folgenden Aussagen äquivalent: (a) A ist positiv definit, d.h. x T Ax > 0 x R n \ {0 } [x H Ax > 0 x C n \ {0 }]. (b) Alle Eigenwerte von A sind positiv. (c) Alle Hauptuntermatrizen von A sind positiv definit. (d) Es gibt eine orthogonale Matrix U R n n (d.h. U T U = I n ) [eine unitäre Matrix U C n n (d.h. U H U = I n )] und positive Zahlen λ 1, λ 2,..., λ n mit U T AU = diag(λ 1, λ 2,..., λ n ) [U H AU = diag(λ 1, λ 2,..., λ n )]. (e) Für alle regulären Matrizen X ist X T AX [X H AX] positiv definit. 4 Direkte Verfahren für spezielle Systeme Technische Universität Bergakademie Freiberg

2 Numerische Mathematik 151 Satz 4.2 Es sei A R n n [C n n ] symmetrisch [Hermitesch]. A ist genau dann positiv definit, wenn es eine reguläre untere Dreiecksmatrix L R n n [C n n ] gibt mit A = LL T [A = LL H ] (Cholesky-Zerlegung). (André-Louis Cholesky, ) Bemerkung 4.3 Statt der in Satz 4.2 beschriebenen Cholesky-Zerlegung wird oft die rationale (oder wurzelfreie) Cholesky-Zerlegung A = L 1 DL T 1 [A = L 1 DL H 1 ] verwendet. Hier ist L 1 eine normierte untere -Matrix und D eine Diagonalmatrix mit positiven Hauptdiagonalelementen. Mit = diag(l) gilt L 1 = L 1 und D = Die Cholesky-Zerlegung Technische Universität Bergakademie Freiberg

3 Numerische Mathematik 152 Pseudocode: Cholesky-Zerlegung for j = 1 : n do ( l j,j := a j,j ) 1/2 j 1 k=1 l2 j,k for i = j + ( 1 : n do l i,j := a i,j ) j 1 k=1 l i,kl j,k /l j,j Aufwand: 1 3 n3 + O(n 2 ) flops. Bemerkung: Der untere -Anteil von A wird kann mit L überschrieben werden. Der (echte) obere -Anteil von A wird im Algorithmus nicht verwendet. 4.1 Die Cholesky-Zerlegung Technische Universität Bergakademie Freiberg

4 Numerische Mathematik 153 Lösung eines linearen Gleichungssystems Ax = b, A s.p.d. [H.p.d.] durch Cholesky-Zerlegung: 1: Berechne Cholesky-Zerlegung A = LL T 2: Löse Ly = b 3: Löse L T x = y Dieses Verfahren ist rückwärtsstabil: Satz 4.4 Die in Gleitpunktarithmetik mit Rundungseinheit u durch Cholesky- Zerlegung berechnete Lösung x des linearen Gleichungssystems Ax = b mit einer symmetrisch positiv-definiten Matrix A genügt einer Gleichung (A + A) x = b mit A 3n 2 u A. 4.1 Die Cholesky-Zerlegung Technische Universität Bergakademie Freiberg

5 Numerische Mathematik Bandmatrizen, Tridiagonalmatrizen Man nennt A = [a i,j ] C n n eine Bandmatrix mit unterer Bandbreite b L und oberer Bandbreite b R, falls a i,j = 0 für i j > b L und für j i > b R gilt. Eine Bandmatrix T mit b L = b R = 1 heißt Tridiagonalmatrix: a 1 c 1 b 2 a 2 c 2 T = tridiag(b, a, c) = b n 1 a n 1 c n 1 b n a n 4.2 Bandmatrizen, Tridiagonalmatrizen Technische Universität Bergakademie Freiberg

6 Numerische Mathematik 155 Besitzt die Tridiagonalmatrix T eine LR-Zerlegung, dann hat diese die Form 1 r 1 c 1 l 2 1. r.. 2 T = r n 1 c n 1 l n 1 mit r 1 = a 1 und l j = b j /r j 1, r j = a j l j c j 1 (j = 2, 3,..., n). r n Ist Gauß-Elimination ohne Pivotsuche für T x = d durchführbar, so erfordert sie also einen Aufwand von nur 3(n 1) Gleitpunktoperationen. 4.2 Bandmatrizen, Tridiagonalmatrizen Technische Universität Bergakademie Freiberg

7 Numerische Mathematik 156 Dies ist aber nur bei speziellen (z.b. diagonaldominanten) T stabil: Beispiel. Sei T = tridiag(2, 1, 3) R n n und d R n so gewählt, dass x = [1, 1,..., 1] T das System T x = d löst. Gauß-Elimination liefert die Lösung x. x x 2 / x 2 x x 2 / x 2 n (ohne Spaltenpivotsuche) (mit Spaltenpivotsuche) Bandmatrizen, Tridiagonalmatrizen Technische Universität Bergakademie Freiberg

8 Numerische Mathematik 157 Spaltenpivotisierung führt allerdings zu einem sog. fill-in, d.h. auf Positionen, wo die Einträge der Ausgangsmatrix T Null waren, können in der LR-Zerlegung von Null verschiedene Elemente auftreten was zusätzlichen Speicherplatz erfordert. Bei Tridiagonalmatrizen liefert Gauß-Elimination mit Spaltenpivotsuche eine LR-Zerlegung der Form , d.h. der fill-in beschränkt sich auf eine zusätzliche Diagonale in R. 4.2 Bandmatrizen, Tridiagonalmatrizen Technische Universität Bergakademie Freiberg

9 Numerische Mathematik 158 Analoge Eigenschaften besitzt die Gauß-Elimination bei allgemeinen Bandmatrizen mit unterer Bandbreite b L und oberer Bandbreite b R : Der Aufwand zur Berechnung der LR-Zerlegung beträgt (etwa) (2b L b R + 1)n flops. Wird nicht pivotisiert, so entsteht kein fill-in, d.h. L besitzt untere Bandbreite b L und R besitzt obere Bandbreite b R. Bei Spaltenpivotsuche verändert sich die Struktur von L nicht, R allerdings besitzt i.allg. obere Bandbreite b L + b R. Bei weniger strukturierten schwach besetzen Matrizen werden Umordnungsstrategien (z.b. reverse Cuthill-McKee) zur Bandbreitenminimierung eingesetzt (vgl. den nächsten Abschnitt). 4.2 Bandmatrizen, Tridiagonalmatrizen Technische Universität Bergakademie Freiberg

10 Numerische Mathematik Schwach besetzte Matrizen Schwach besetzte Matrizen sind (üblicherweise sehr große) Matrizen, bei denen viele Einträge den Wert Null besitzen, oder pragmatischer: Matrizen mit so vielen Nulleinträgen, dass es sinnvoll ist, Algorithmen einzusetzen, die weder diese Nulleinträge speichern noch auf ihnen operieren. Wieviel fill-in bei der LR-Zerlegung schwach besetzter Matrizen auftritt, hängt entscheidend von der Nummerierung der Zeilen und Spalten ab: Für A = Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg

11 Numerische Mathematik 160 liefert Gauß-Elimination (mit Spaltenpivotsuche) P A = , also eine (nahezu) voll besetzte LR-Zerlegung. (P entspricht der Permutation ( ).) Vertauscht man in A die erste und letzte Zeile sowie die erste und letzte Spalte, so ergibt sich für B = A([ ], [ ]) eine viel schwächer besetzte LR-Zerlegung, 4.3 Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg

12 Numerische Mathematik 161 B = , also keinerlei fill-in. Wir beschreiben mit der umgekehrten Cuthill-McKee-Nummerierung eine Heuristik, die sich bei symmetrischen Problemen bewährt hat. Ziel ist es, die Zeilen und Spalten von A so umzunummerieren, dass die Bandbreite möglichst klein wird. 4.3 Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg

13 Numerische Mathematik 162 Wie benötigen den Begriff des gerichteten Graphen einer Matrix A C n n (vorläufig beliebig). Der Graph G(A) = (N, V ) von A besteht aus n = dim(a) Knoten P 1, P 2,..., P n, die zusammen die Knotenmenge N bilden. Für jedes Element a i,j 0 wird P i mit P j durch eine gerichtete Kante verbunden (von P i nach P j ). Falls a i,i 0 ist, so wird P i mit einer geschlossenen Schleife versehen. Die Gesamtheit aller Kanten bildet die Kantenmenge V. (Bei symmetrischen Matrizen oder allgemeiner bei Matrizen mit symmetrischer Besetzungsstruktur kann man auf die Orientierung der Kanten natürlich verzichten.) Der Grad d i eines Knotens P i ist durch d i := {j : a i,j 0} definiert. 4.3 Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg

14 Numerische Mathematik 163 Beispiel. A = G(A) : P 2 P 1 P 3 P 4 d 1 = 1, d 2 = 2, d 3 = d 4 = Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg

15 Numerische Mathematik 164 Cuthill-McKee-Nummerierung (CMK) für symmetrisches A R n n : 1: Wähle (beliebigen) Knoten aus G(A) als Knoten P 1 2: for i = 1, 2,..., n 1 do 3: Nummeriere die (noch unnummerierten) Nachbarn von P i nach aufsteigendem Grad 4: Entferne alle Kanten zwischen bereits nummerierten Knoten und bestimme die Grade der noch unnummerierten Knoten bez. dieses neuen Graphen. Bemerkungen. Diese Nummerierung ist nur möglich, wenn G(A) zusammenhängend ist, d.h. wenn jeder Knoten von jedem anderen Knoten aus in G(A) erreichbar ist. Ist [π(1), π(2),..., π(n)] die CMK-Nummerierung, so ist die umgekehrte Cuthill-McKee-Nummerierung durch [π(n), π(n 1),..., π(1)] definert. 4.3 Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg

16 Numerische Mathematik nz = nz = nz = nz = Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg

17 Numerische Mathematik 166 Legende. Links oben wird die Struktur der symmetrischen positiv definiten Matrix A = CC T (auf die Bedeutung dieser Matrix wird später eingegangen) gezeigt, wobei die nichtsymmetrische Matrix C R aus der Modellierung eines chemischen Betriebs stammt (zu Details siehe chemimp/impcolb.html). Rechts oben ist die Besetztheitsstruktur des Cholesky-Faktors L T A von A geplottet. Sei P die Permutationsmatrix, die zur umgekehrten Cuthill-McKee-Nummerierung gehört, dann ist B = P AP T (links unten) und L T B der zugehörige Cholesky-Faktor. # entries (i, j) A L A B L B 0 (i j) 503 (28%) 1073 (61%) 503 (28%) 657 (37%) 4.3 Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg

18 Numerische Mathematik 167 Weiteres Beispiel: Finite-Element Modell eines Tragflächenprofils. Graph von A 4.3 Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg

19 Numerische Mathematik A (4235 x 4235) 0 A (nach umgekehrter CMK Nummerierung) Bandbreite: Bandbreite: Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg

20 Numerische Mathematik Vandermondesche Matrizen x 0 x 1 x 2 x n V = V (x 0, x 1, x 2,..., x n ) = x 2 0 x 2 1 x 2 2 x 2 n..... C (n+1) (n+1) x n 0 x n 1 x n 2 x n n heißt Vandermondesche Matrix (Alexandre Théophile Vandermonde, ). Es gilt det(v (x 0, x 1,..., x n )) = i>j(x i x j ), insbesondere ist V genau dann regulär, wenn die x j paarweise verschieden sind. 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg

21 Numerische Mathematik 170 V ist zwar voll besetzt, besitzt aber eine sehr spezielle Struktur. Man erwartet, dass diese ausgenutzt werden kann zur Konstruktion von Algorithmen, die LGSe mit Koeffizientenmatrix V bzw. LGSe der Form ( V T a = f V R (n+1) (n+1), f R n+1) (LGS) mit deutlich weniger als O(n 3 ) Flops lösen. Wir betrachten die folgende polynomiale Interpolationsaufgabe: Zu gegebenen (paarweise verschiedenen) Knoten x 0, x 1,..., x n R und gegebenen Funktionswerten f 0, f 1,..., f n R soll ein Interpolationspolynom p(x) = a n x n + a n 1 x n a 1 x + a 0 P n (mit reellen Koeffizienten a 0, a 1,..., a n = n + 1 Freiheitsgrade) vom Grad n konstruiert werden, das die n + 1 Interpolationsbedingungen erfüllt. p(x i ) = f i (i = 0, 1,..., n) (IP) 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg

22 Numerische Mathematik 171 Satz 4.5 Die Probleme (LGS) und (IP) sind äquivalent: Der Vektor a = [a 0, a 1,..., a n ] T R n+1 löst das LGS V T a = f genau dann, wenn das Polynom p(x) = a n x n + a n 1 x n a 1 x + a 0 P n die Interpolationsbedingungen (IP) erfüllt. Bemerkung 4.6 Damit ist unsere Interpolationsaufgabe genau dann eindeutig lösbar, wenn die Knoten {x i } n i=0 paarweise verschieden sind, d.h. es gibt in diesem Fall genau ein Polynom p P n, das den Bedingungen (IP) genügt. 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg

23 Numerische Mathematik 172 Wir lösen V T a = f dadurch, dass wir die Koeffizienten des Interpolationspolynoms p in Newton-Form berechnen. Letztere verwendet die dividierten Differenzen der Wertepaare {(x i, f i )} n i=0, welche wie folgt definiert sind: Sind i 0, i 1,..., i k {0, 1,..., n} paarweise verschieden, so setzen wir f i0,i 1,...,i k := f i 1,i 2,...,i k f i0,i 1,...,i k 1 x ik x i0 (k 1). Satz 4.7 (Newton, 1669) Bezüglich der dividierten Differenzen lässt sich das Interpolationspolynom p in Newton-Form darstellen. p(x) = f 0 + f 0,1 (x x 0 ) + f 0,1,2 (x x 0 )(x x 1 ) + + f 0,1,...,n (x x 0 )(x x 1 ) (x x n 1 ) 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg

24 Numerische Mathematik 173 Die dividierten Differenzen der Wertepaare {(x i, f i )} n i=0 kann man sukzessive durch spaltenweises Auffüllen des Newton-Tableaus generieren. Für n = 4 erhält man beispielsweise x i k = 0 k = 1 k = 2 k = 3 k = 4 x 0 f 0 f 0,1 x 1 f 1 f 0,1,2 f 1,2 f 0,1,2,3 x 2 f 2 f 1,2,3 f 0,1,2,3,4 f 2,3 f 1,2,3,4 x 3 f 3 f 2,3,4 x 4 f 4 f 3,4 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg

25 Numerische Mathematik 174 Folgender Algorithmus berechnet die dividierten Differenzen: Gegeben: Wertepaare {x i, f i } n i=0, x i paarweise verschieden for k = 0 : n 1 do for j = n : 1 : k + 1 do f j := (f j f j 1 )/(x j x j k 1 ) Die im weiteren Verlauf nicht mehr benötigten Differenzen werden im obigen Algorithmus überschrieben. Dadurch wird kein zusätzlicher Speicherplatz benötigt. Am Ende stehen die dividierten Differenzen f 0, f 0,1, f 0,1,...,n in den Variablen f 0, f 1,..., f n. Aufwand: 3 2 (n2 + n) Flops. 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg

26 Numerische Mathematik 175 Um aus der Newton-Darstellung p(x) = n f 0,1,...,k k 1 k=0 j=0 (x x j ) die Koeffizienten in p(x) = a 0 + a 1 x + + a n x n zu ermitteln, beachte man, dass die Rekursion p n (x) := f 0,1,...,n, p k (x) := f 0,1,...,k + (x x k )p k+1 (x) (k = n 1, n 2,..., 0) mit p 0 (x) = p(x) endet. Durch Koeffizientenvergleich in dieser Rekursion erhält man folgenden Algorithmus. 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg

27 Numerische Mathematik 176 Gegeben: Dividierte Differenzen der Newton-Darstellung in den Variablen f 0,...,f n, zugehörige x-werte x 0,..., x n paarweise verschieden. for k = n 1 : 1 : 0 do for j = k : n 1 do f j := f j f j+1 x k Am Ende stehen die Koeffizienten a 0,..., a n in den Variablen f 0,..., f n. Aufwand: n 2 + n Flops. Fazit: Da das Hintereinanderausführen der beiden vorangehenden Algorithmen die Koeffizienten {a i } n i=0 des Interpolationspolynoms der Wertepaare {(x i, f i )} n i=0 in 5 2 n2 + O(n) Flops liefert, ist damit auch die äquivalente Aufgabe, das LGS V T a = f zu lösen, mit derselben Komplexität gelöst. 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg

28 Numerische Mathematik 177 Mit den (n + 1) (n + 1)-Matrizen D k := diag(1,..., 1, x }{{} k+1 x 0,..., x n x n k+1 ), L k (α) := k = 0, 1,..., n 1, wobei k+1 [ Ik O O T n+1 k ] T n+1 k = tridiag( α, 1, 0) R (n+1 k), (n+1 k), α R, definieren wir eine normierte untere -Matrix L sowie eine obere -Matrix R gemäß L := L n 1 (x n 1 )L n 2 (x n 2 )... L 0 (x 0 ), R := L 0 (1) T D 1 0 L 1(1) T D L n 1 (1) T D 1 n 1., 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg

29 Numerische Mathematik 178 Satz 4.8 Für V = V (x 0, x 1,..., x n ) ist V 1 = RL. Mit anderen Worten: Der Algorithmus zur Lösung von V T a = f berechnet implizit eine RL-Zerlegung von V 1. Dies kann zur Lösung von LGSen der Bauart V z = b verwendet werden. Der folgende Algorithmus berechnet z = V 1 b in 5n 2 /2 Flops. Eingabedaten sind x 0, x 1,..., x n (paarweise verschieden), so dass V = V (x 0, x 1,..., x n ), und b = [b 0, b 1,..., b n ] T. Die rechte Seite b wird mit der Lösung z überschrieben. 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg

30 Numerische Mathematik 179 for k=0:n-1 for j=n:-1:k+1 b(j)=b(j)-x(k)*b(j-1) end end for k=n-1:-1:0 for j=k+1:n b(j)=b(j)/(x(j)-x(j-k-1) end for j=k:n-1 b(j)=b(j)-b(j+1) end end 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg

31 Numerische Mathematik Toeplitz-Matrizen Eine Matrix T heißt Toeplitz-Matrix Otto Toeplitz, ), wenn sie die Form t 0 t 1 t 2 t n 1 t 1 t 0 t 1.. T = t 2 t 1 t t 0 t 1 t 1 n t 1 t 0 besitzt, also konstante Einträge auf jeder Diagonalen besitzt (T = [t i j ] 1 i,j n C n n ). 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg

32 Numerische Mathematik 181 Jede Toeplitz-Matrix ist persymmetrisch, d.h. symmetrisch zur NO-SW- Diagonalen. Formal: 1 T E = ET T mit E :=. 1 Beachte: Ist T invertierbar und persymmetrisch, so ist auch T 1 persymmetrisch (besitzt aber i.a. keine Toeplitz-Struktur), denn E 2 = I. Wir interessieren uns hier ausschließlich für symmetrisch positiv definite Toeplitz-Matrizen. O.B.d.A. können wir dann von t 0 = 1 ausgehen. Im Folgenden seien also 1 = t 0, t 1,..., t n 1 so gewählt, dass die symmetrische Toeplitz-Matrix T = [t i j ] positiv definit ist. 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg

33 Numerische Mathematik 182 Zunächst lösen wir positiv definite Toeplitz-Systeme mit spezieller rechter Seite (sog. Yule-Walker-Gleichungen): 1 t 1 t n 1 y 1 t 1. t =,.. t 1. t n 1 oder kurz: T n y = t n. t n 1 t 1 1 Hierzu nehmen wir an, wir hätten das k-te Yule-Walker-System y n T k y = t k, t k = [t 1,..., t k ] T, bereits gelöst und zeigen, dass das (k + 1)-te System dann in O(k) Schritten gelöst werden kann. t n 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg

34 Numerische Mathematik 183 Dazu zerlegen wir das (k + 1)-te System wie folgt: [ ] [ ] [ ] Tk E k t k z tk T k z + αe k t k = t k. tk T E =, d.h. k 1 α tk T E kz + α = t k+1. Wir erhalten t k+1 z = T 1 k ( t k αe k t k ) = y αt 1 k E kt k, α = t k+1 t T k E k z. Wegen der Persymmetrie von T 1 k z = y αe k T 1 k t k = y + αe k y gilt T 1 k E k = E k T 1 k und damit α = t k+1 t T k E k (y + αe k y) = (t k+1 + t T k E k y + αt T k y) und schließlich α = t k+1 + t T k E ky 1 + t T k y. 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg

35 Numerische Mathematik 184 Wegen [ ] T [ ] [ ] I Ek y Tk E k t k I Ek y [ Tk O ] O 1 t T k E k 1 O 1 = O 1 + t T k y und da T k+1 positiv definit, ist 1 + t T k y > 0. Damit ist der k-te Schritt des Algorithmus von Durbin vollendet, den wir nun folgendermaßen zusammenfassen können: 1: y 1 = t 1 2: for k = 1, 2,..., n 1 do 3: β k = 1 + t T k y k 4: α k = (t [ k+1 + tk T E ky k ] )/β k yk + α k E k y k 5: y k+1 = α k 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg

36 Numerische Mathematik 185 Diese Variante benötigt 3n 2 + O(n) Flops. Durch Ausnutzung einiger der obigen Beziehungen ist es jedoch möglich, den Rechenaufwand noch etwas zu reduzieren. Man beachte nämlich [ ] β k = 1 + tk T y k = 1 + [tk 1 T yk 1 + α k 1 E k 1 y k 1 t k ] = 1 + t T k 1y k 1 }{{} β k 1 = (1 α 2 k 1)β k 1. α k 1 T + α k 1 (t k + tk 1E k 1 y k 1 ) }{{} α k 1 β k 1 Durch Einbeziehung dieser zusätzlichen Rekursion gelangt man zur endgültigen Fassung des Toeplitz-Matrizen Technische Universität Bergakademie Freiberg

37 Numerische Mathematik 186 Algorithmus zur Lösung eines Yule-Walker-Systems [J. Durbin (1960)]. Gegeben: 1 = t 0, t 1,..., t n 1, t n, so dass T n = [t i j ] spd ist. Gesucht: y = T 1 n t n. 1: y(1) = -t(1); beta = 1; alpha = -t(1); 2: for k=1:n-1, 3: beta = (1-alpha*alpha)*beta; 4: alpha = -(t(k+1) + t(k:-1:1) *y(1:k)) / beta; 5: y(1:k) = y(1:k) + alpha*y(k:-1:1); 6: y(k+1) = alpha; 7: end Aufwand: 2n 2 + O(n) flops. 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg

38 Numerische Mathematik 187 Wir betrachten nun symmetrisch positiv definite Toeplitz-Systeme mit beliebiger rechter Seite: 1 t 1 t n 1 x 1 b 1. t =,.. t 1. b n 1 t n 1 t 1 1 oder kurz T n x = b. Wir gehen dabei wieder von der Lösung des Systems T k x = b k, b k = [b 1,..., b k ] T (4.1) aus und bestimmen daraus die Lösung des nächstgrößeren Systems [ ] [ ] [ ] Tk E k t k v bk tk T E =, t k = [t 1,..., t k ] T. (4.2) k 1 µ b k+1 x n b n 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg

39 Numerische Mathematik 188 Wir nehmen ferner an, die Lösung y des k-ten Yule-Walker-Systems T k y = t k sei verfügbar. Wegen T k v + µe k t k = b k folgt und somit v = T 1 k (b k µe k t k ) = x µ T 1 k E k }{{} =E k T 1 k t k = x + µe k y, d.h. µ = b k+1 t T k E k v = b k+1 t T k E k x µt T k y µ = b k+1 t T k E kx 1 + t T k y. Damit ist der Schritt von (4.1) nach (4.2) in 6k + 1 Operationen vollzogen. Bei diesem Algorithmus zur Lösung eines Toeplitz-Systems mit beliebiger rechter Seite werden also gleichzeitig das System T n x = b und die Yule-Walker- Gleichung T n y = t n schrittweise gelöst. 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg

40 Numerische Mathematik 189 Algorithmus zur Lösung eines spd Toeplitz-Systems [N. Levinson (1947)]. Gegeben: 1 = t 0, t 1,..., t n 1, so dass T n = [t i j ] spd ist, b R n. Gesucht: x = T 1 n b. 1: y(1) = -t(1); x(1) = b(1); beta = 1; alpha = -t(1); 2: for k=1:n-1, 3: beta = (1-alpha*alpha)*beta; 4: mu = (b(k+1) - t(1:k) *x(k:-1:1)) / beta; 5: x(1:k) = x(1:k) + mu*y(k:-1:1); 6: x(k+1) = mu; 7: if k < n-1, 8: alpha = -(t(k+1) + t(1:k) *y(k:-1:1)) / beta; 9: y(1:k) = y(1:k) + alpha*y(k:-1:1); 10: y(k+1) = alpha; 11: end 12: end Aufwand: 4n 2 + O(n) flops. 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg

41 Numerische Mathematik 190 Schließlich bestimmen wir die Inverse einer spd Toeplitz-Matrix T n, die wir wie folgt partitionieren: [ ] 1 [ ] A Et B v Tn 1 A = T n 1, = =, t = t t T E 1 v T n 1. γ E = E n 1, Aus [ ] [ ] [ ] A Et v 0 = t T E 1 γ 1 folgt zunächst Av = γet, γ = 1 t T Ev. Löst y die (n 1)-te Yule-Walker-Gleichung Ay = t, so gilt v = γa 1 Et = γea 1 t = γey, γ = 1 γt T y, d.h. γ = 1/(1 + t T y). 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg

42 Numerische Mathematik 191 Damit sind die letzte Zeile und Spalte von Tn 1 bestimmt, und es verbleibt die Bestimmung einer Rekursion für die Matrix B. Hierzu beachte man, dass wegen AB + Etv T = I n 1 sowie A 1 Et = EA 1 t = Ey = v/γ folgt B = A 1 A 1 Etv T = A 1 + vv T /γ. Da A 1 persymmetrisch, d.h. [A 1 ] ij = [A 1 ] n j,n i, erhalten wir die Beziehung b ij = [A 1 ] ij + v iv j γ = [A 1 ] n j,n i + v iv j γ = b n j,n i v n jv n i γ + v iv j γ (4.3) = b n j,n i + 1 γ (v iv j v n j v n i ). 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg

43 Numerische Mathematik 192 Dies zeigt, dass B zwar nicht persymmetrisch ist, aber wir können einen Eintrag b ij durch Spiegelung an der NO-SW-Diagonalen bestimmen. Unter zusätzlicher Ausnutzung der Persymmetrie von Tn 1 können wir deshalb B vom Rand nach innen berechnen. In der folgenden schematischen Darstellung des Algorithmus anhand eines 6 6 Beispieles stehen die Symbole u und b für unbekannte bzw. bereits bestimmte Matrixeinträge von Tn 1. Wir beginnen mit der berechneten letzten Zeile und Spalte und nutzen dann abwechselnd die Persymmetrie von Tn 1 und Formel (4.3). u u u u u b b b b b b b b b b b b b u u u u u b b u u u u b b u u u b b u u u u u b b u u u u b b u u u b b u u u u u b b u u u u b b u u u b b u u u u u b b u u u u b b b b b b b b b b b b b b b b b b b b b b b b b 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg

44 Numerische Mathematik 193 b b b b b b b b b b b b b b u u b b b b u u b b b b b b b b b b b b b b b b b b b b b b u b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b. b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b Den Algorithmus von Trench erhält man, wenn man noch berücksichtigt, dass Tn 1 als sowohl symmetrische als auch persymmetrische Matrix durch ihren oberen Keil bestimmt ist, d.h. im Fall n = 6 durch den Anteil. 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg

45 Numerische Mathematik 194 Algorithmus [W. F. Trench (1964)]: Loese T_{n-1} y = -t(1:n) mit dem Algorithmus von Durbin gamma = 1/(1 + t(1:n-1) *y(1:n-1); v(1:n-1) = gamma*y(n-1:-1:1); B(1,1) = gamma; B(1,2:n) = v(n-1:-1:1) ; for i=2:floor((n-1)/2)+1, for j=1:n-i+1, B(i,j) = B(i-1,j-1)+... (v(n+1-j)*v(n+1-i)-v(i-1)*v(j-1)) / gamma; end end Aufwand: 13 4 n2 + O(n) (!) Flops. Wie erwähnt werden nur b i,j mit i j, i + j n + 1 berechnet. 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg

Numerische Mathematik

Numerische Mathematik Numerische Mathematik Oliver Ernst Professur Numerische Mathematik Sommersemester 2015 Inhalt I 1 Einführung und Begriffe 1.1 Mathematische Modellbildung und numerische Simulation am Beispiel eines Wasserkreislaufs

Mehr

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine

Mehr

2 Direkte Lösungsverfahren für lineare Gleichungen

2 Direkte Lösungsverfahren für lineare Gleichungen 2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei L R N N eine normierte untere Dreiecksmatrix und b R N. Dann ist L invertierbar und das Lineare Gleichungssystem (LGS) Ly = b ist mit O(N 2

Mehr

Kapitel 2: Lineare Gleichungssysteme

Kapitel 2: Lineare Gleichungssysteme Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 2: Lineare Gleichungssysteme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 205 HM: Numerik (SS 205), Kapitel

Mehr

8 Polynominterpolation

8 Polynominterpolation 8 Polynominterpolation Interpolations-Aufgabe: Von einer glatten Kurve seien nur lich viele Punktewerte gegeben. Wähle einen lichdimensionalen Funktionenraum. Konstruiere nun eine Kurve in diesem Funktionenraum

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2. MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw

Mehr

Lineare Gleichungssysteme: direkte Verfahren

Lineare Gleichungssysteme: direkte Verfahren Sechste Vorlesung, 24. April 2008, Inhalt Lineare Gleichungssysteme: direkte Verfahren Dreiecksmatrizen Gauß-Elimination LR-Zerlegung Anwendungen: Determinante, Inverse 1 Lösungsverfahren für lineare Gleichungssysteme

Mehr

8 Interpolation. 8.1 Problemstellung. Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen. x 0 < x 1 <... < x n.

8 Interpolation. 8.1 Problemstellung. Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen. x 0 < x 1 <... < x n. 8 Interpolation 81 Problemstellung Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen x 0 < x 1 < < x n Eingabedaten: (x 0, f 0 ),(x 1, f 1 ),,(x n, f n ) Gegebene Daten (x j, f j ) Analysis

Mehr

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v

Mehr

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)

Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.

Mehr

5 Lineare Gleichungssysteme und Determinanten

5 Lineare Gleichungssysteme und Determinanten 5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von

Mehr

3 Lineare Algebra Vektorräume

3 Lineare Algebra Vektorräume 3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +

Mehr

Numerisches Programmieren, Übungen

Numerisches Programmieren, Übungen Technische Universität München SoSe 3 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Jürgen Bräckle Numerisches Programmieren, Übungen Musterlösung 3. Übungsblatt:

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

Einführung in die numerische Mathematik

Einführung in die numerische Mathematik Prof. Dr. M. Günther K. Gausling, M.Sc. C. Hendricks, M.Sc. Sommersemester 204 Bergische Universität Wuppertal Fachbereich C Mathematik und Naturwissenschaften Angewandte Mathematik / Numerische Analysis

Mehr

Erweiterungen der LR-Zerlegung

Erweiterungen der LR-Zerlegung Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen

Mehr

2 Direkte Lösungsverfahren für lineare Gleichungen

2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei x = (x n ) n=1,...,n R N, A = (a m,n ) m=1,...,m, n=1,...,n R M,N. a) Sei 1 m n N. Dann ist x[m : n] = (x k ) k=m,...,n R 1+n m Teilvektor von x. b) Seien 1 m 1 m 2 M, 1 n 1 n 2 N. Dann ist A[m

Mehr

Kurzform. Choleskyzerlegung. Julia Hoeboer. 13. Mai 2011

Kurzform. Choleskyzerlegung. Julia Hoeboer. 13. Mai 2011 Choleskyzerlegung Julia Hoeboer 13 Mai 2011 Inhalt: LDM T Zerlegung LDL T Zerlegung Cholesky Zerlegung Person Berechnung Gaxpy Algorithmus Effektivität LDM T Zerlegung LDM T Zerlegung lässt sich aus LR

Mehr

3 Matrizen und Lineare Gleichungssysteme

3 Matrizen und Lineare Gleichungssysteme 3 Matrizen und LGS Pink: Lineare Algebra HS 2014 Seite 38 3 Matrizen und Lineare Gleichungssysteme 3.1 Definitionen Sei K ein Körper, und seien m,n,l natürliche Zahlen. Definition: Eine Matrix mit m Zeilen

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 213 Prof. Dr. Erich Walter Farkas Kapitel 7: Lineare Algebra Kapitel 7.5: Eigenwerte und Eigenvektoren einer quadratischen Matrix Prof. Dr. Erich Walter Farkas Mathematik

Mehr

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 12. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 14, 2017 1 Erinnerung: Determinanten, Orthogonale/unitäre Matrizen Sei A R 2 2, dann kann die Inverse

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

Rechenaufwand der LR- und LDL T - Zerlegung

Rechenaufwand der LR- und LDL T - Zerlegung 6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für

Mehr

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016 Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009 Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx

Mehr

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen

Kapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung

Mehr

4 Lineare Ausgleichsrechnung

4 Lineare Ausgleichsrechnung Numerik I 15 4 Lineare Ausgleichsrechnung Die folgende Tabelle zeigt die Bevölkerungsentwicklung in den U.S.A. 19 191 192 193 194 75.995 91.972 15.711 123.23 131.669 195 196 197 198 199 15.697 179.323

Mehr

In diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen.

In diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen. Kapitel 4 Lineare Gleichungssysteme 4 Problemstellung und Einführung In diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen Lineares Gleichungssystem: Gesucht ist

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Orthogonale Matrix. Definition 4.19

Orthogonale Matrix. Definition 4.19 Orthogonale Matrix Ausgleichsprobleme sind häufig schlecht konditioniert. Matrix des Normalengleichungssystems kann nahezu singulär sein. Spezielle Matrixzerlegung für höhere numerische Stabilität: QR-Zerlegung

Mehr

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen

Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)

Mehr

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 5 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Ingenieure II, SS 9 Freitag 6 $Id: jordantex,v 7 9/6/ :8:5 hk Exp $ 5 Eigenwerte und die Jordansche Normalform 5 Die Jordansche Normalform Nachdem wir bisher das Vorgehen zur Berechnung

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte

Mehr

LR Zerlegung. Michael Sagraloff

LR Zerlegung. Michael Sagraloff LR Zerlegung Michael Sagraloff Beispiel eines linearen Gleichungssystems in der Ökonomie (Input-Output Analyse Wir nehmen an, dass es 3 Güter G, G, und G 3 gibt Dann entspricht der Eintrag a i,j der sogenannten

Mehr

Klausurähnliche Aufgaben

Klausurähnliche Aufgaben Sommersemester 2007/08 Lineare Algebra Klausurähnliche Aufgaben Aufgabe 1 Seien v 1, v 2, v 3, v 4, v 5, v 6 die Vektoren in R 5 mit v 1 = (1, 2, 3, 1, 2), v 2 = (2, 4, 6, 2, 4), v 3 = ( 1, 1, 3, 0, 3),

Mehr

Blockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 :

Blockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 : Blockmatrizen Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 : 2 1 3 1 1 0 1 0 1 0 0 2 1 1 11 1 1 4 0 1 0 1 0 1 4 1 0 2 1 0 1 0 1 0 3 1 2 1 = 2 4 3 5 11 1 1 4 0 1 0 1 0 1 5 1 2 1 2 4 3 5

Mehr

Rückwärts-Einsetzen. Bei einem linearen Gleichungssystem in oberer Dreiecksform, nacheinander bestimmt werden: r n,n x n = b n. = x n = b n /r n,n

Rückwärts-Einsetzen. Bei einem linearen Gleichungssystem in oberer Dreiecksform, nacheinander bestimmt werden: r n,n x n = b n. = x n = b n /r n,n Rückwärts-Einsetzen Bei einem linearen Gleichungssystem in oberer Dreiecksform, r 1,1 r 1,n x 1 b 1..... =., } 0 {{ r n,n } x n b n R mit det R = r 1,1 r n,n 0 können die Unbekannten x n,..., x 1 nacheinander

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

4 Der Gauß Algorithmus

4 Der Gauß Algorithmus 4 Der Gauß Algorithmus Rechenverfahren zur Lösung homogener linearer Gleichungssysteme Wir betrachten ein GLS (1) a 11 x 1 + a 1 x + + a 1n x n = a 1 x 1 + a x + + a n x n = a m1 x 1 + a m x + + a mn x

Mehr

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren

Mehr

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q:

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q: Lineare Algebra D-MATH, HS 214 Prof Richard Pink Serie 5 1 [Aufgabe] Invertieren Sie folgende Matrizen über Q: 1 a) 1 1 1 1 1 2 1 1 1 b) 1 2 1 1 1 1 2 1 1 1 1 2 1 2 3 1 c) 1 3 3 2 2 1 5 3 1 2 6 1 [Lösung]

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der

Mehr

10. Übung zur Linearen Algebra I -

10. Übung zur Linearen Algebra I - . Übung zur Linearen Algebra I - en Kommentare an Hannes.Klarner@FU-Berlin.de FU Berlin. WS 29-. Aufgabe 37 i Für welche α R besitzt das lineare Gleichungssystem 4 αx + αx 2 = 4x + α + 2x 2 = α genau eine,

Mehr

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x) 9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

51 Numerische Berechnung von Eigenwerten und Eigenvektoren 5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Serie 10: Inverse Matrix und Determinante

Serie 10: Inverse Matrix und Determinante D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die

Mehr

Direkte Verfahren für Lineare Gleichungssysteme

Direkte Verfahren für Lineare Gleichungssysteme Kapitel 1 Direkte Verfahren für Lineare Gleichungssysteme 11 Einführung (mündlich) 12 Das Gaußsche Eliminationsverfahren Es sei A IK n n eine invertierbare Matrix und b IK n ein gegebener Vektor Gesucht

Mehr

Höhere Mathematik für die Fachrichtung Physik

Höhere Mathematik für die Fachrichtung Physik Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Michael Hott, M. Sc. WS 5/.. Höhere Mathematik für die Fachrichtung Physik Lösungsvorschläge zum 4. Übungsblatt Aufgabe

Mehr

7.2 Die adjungierte Abbildung

7.2 Die adjungierte Abbildung 7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)

Mehr

1.4 Stabilität der Gauß-Elimination

1.4 Stabilität der Gauß-Elimination KAPIEL 1. LINEARE GLEICHUNGSSYSEME 18 1.4 Stabilität der Gauß-Elimination Bezeichne x die exakte Lösung von Ax = b bzw. ˆx die mit einem (zunächst beliebigen Algorithmus berechnete Näherungslösung (inklusive

Mehr

Matrizen und Determinanten, Aufgaben

Matrizen und Determinanten, Aufgaben Matrizen und Determinanten, Aufgaben Inhaltsverzeichnis 1 Multiplikation von Matrizen 1 11 Lösungen 3 2 Determinanten 6 21 Lösungen 7 3 Inverse Matrix 8 31 Lösungen 9 4 Matrizengleichungen 11 41 Lösungen

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Gaußsche Ausgleichsrechnung

Gaußsche Ausgleichsrechnung Kapitel 6 Gaußsche Ausgleichsrechnung 6. Gaußsche Methode der kleinsten Fehlerquadrate Die Gaußsche Methode der kleinsten Fehlerquadrate wurde 89 von C.F. Gauß in dem Aufsatz Theorie der Bewegung der Himmelkörper

Mehr

Lineare Algebra für Physiker 11. Übungsblatt

Lineare Algebra für Physiker 11. Übungsblatt Lineare Algebra für Physiker 11. Übungsblatt Fachbereich Mathematik SS 01 Prof. Dr. Matthias Schneider./. Juli 01 Dr. Silke Horn Dipl.-Math. Dominik Kremer Gruppenübung Aufgabe G1 (Minitest) (a) Welche

Mehr

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1. Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x

Mehr

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

3. Übungsblatt zur Lineare Algebra I für Physiker

3. Übungsblatt zur Lineare Algebra I für Physiker Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte

Mehr

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung

Gliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,

Mehr

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,...

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,... Cramersche Regel Satz 2.4. Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei A j := (a,...,a j,b,a j+,...,a n ) also die Matrix, die entsteht, wenn in A die j-spalte durch den

Mehr

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte Mathematik I Matrizen In diesem Kapitel werden wir lernen was Matrizen sind und wie man mit Matrizen rechnet. Matrizen ermöglichen eine kompakte Darstellungsform vieler mathematischer Strukturen. Zum Darstellung

Mehr

Mathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11

Mathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11 Mathematik für Wirtschaftswissenschaftler, WS / Musterlösungen zu Aufgabenblatt Aufgabe 76: Bestimmen Sie mittels Gauß-Elimination die allgemeine Lösung der folgenden linearen Gleichungssysteme Ax b: a)

Mehr

Matrizenoperationen mit FORTRAN

Matrizenoperationen mit FORTRAN Kapitel 2 Matrizenoperationen mit FORTRAN 21 Grundlagen Bei vielen Anwendungen müssen große zusammenhängende Datenmengen gespeichert und verarbeitet werden Deshalb ist es sinnvoll, diese Daten nicht als

Mehr

R 3 und U := [e 2, e 3 ] der von e 2, e 3 erzeugte

R 3 und U := [e 2, e 3 ] der von e 2, e 3 erzeugte Aufgabe ( Es seien e =, e = Untervektorraum (, e = ( R und U := [e, e ] der von e, e erzeugte Weiter sei G := {A GL(, R A e = e und A U U} (a Zeigen Sie, dass G eine Untergruppe von GL(, R ist (b Geben

Mehr

7 Matrizen über R und C

7 Matrizen über R und C Mathematik für Physiker I, WS 06/07 Montag 9 $Id: matrixtex,v 7 06//9 :58: hk Exp $ 7 Matrizen über R und C 7 Addition und Multiplikation von Matrizen In der letzten Sitzung haben wir begonnen uns mit

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Numerik I. Universität zu Köln SS 2009 Mathematisches Institut Prof. Dr. C. Tischendorf Dr. M. Selva,

Numerik I. Universität zu Köln SS 2009 Mathematisches Institut Prof. Dr. C. Tischendorf Dr. M. Selva, Universität zu Köln SS 009 Mathematisches Institut Prof. Dr. C. Tischendorf Dr. M. Selva, mselva@math.uni-koeln.de Numerik I Musterlösung 1. praktische Aufgabe, Bandmatrizen Bei der Diskretisierung von

Mehr

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen 12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn

Mehr

Lösbarkeit linearer Gleichungssysteme

Lösbarkeit linearer Gleichungssysteme Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 5 Aufgabe 5.1 Kommutierende Matrizen In der Vorlesung und vergangenen

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Serie 8: Fakultativer Online-Test

Serie 8: Fakultativer Online-Test Prof Norbert Hungerbühler Lineare Algebra I Serie 8: Fakultativer Online-Test ETH Zürich - D-MAVT HS 215 1 Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen Die Nachbesprechung

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 12 8. Juni 2010 Kapitel 10. Lineare Gleichungssysteme (Fortsetzung) Umformung auf obere Dreiecksgestalt Determinantenberechnung mit dem Gauß-Verfahren

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Linear Systems and Least Squares

Linear Systems and Least Squares Linear Systems and Least Squares Vortragender: Gelin Jiofack Nguedong Betreuer: Prof. Dr. Joachim Weickert Proseminar: Matrixmethoden in Datenanalyse und Mustererkennung Wintersemester 2015/2016 18. November

Mehr

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012)

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Technische Universität München Zentrum Mathematik, M1 Prof. Dr. Boris Vexler Dr. Ira Neitzel Dipl.-Math. Alana Kirchner 7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Diese Auswahl

Mehr

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

4 Lineare Abbildungen und Matrizen

4 Lineare Abbildungen und Matrizen Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt

Mehr