4 Direkte Verfahren für spezielle Systeme
|
|
- Gerhardt Wagner
- vor 7 Jahren
- Abrufe
Transkript
1 Numerische Mathematik Direkte Verfahren für spezielle Systeme 4.1 Die Cholesky-Zerlegung Satz 4.1 Es sei A = [a i,j ] R n n [C n n ] symmetrisch [Hermitesch]. Dann sind die folgenden Aussagen äquivalent: (a) A ist positiv definit, d.h. x T Ax > 0 x R n \ {0 } [x H Ax > 0 x C n \ {0 }]. (b) Alle Eigenwerte von A sind positiv. (c) Alle Hauptuntermatrizen von A sind positiv definit. (d) Es gibt eine orthogonale Matrix U R n n (d.h. U T U = I n ) [eine unitäre Matrix U C n n (d.h. U H U = I n )] und positive Zahlen λ 1, λ 2,..., λ n mit U T AU = diag(λ 1, λ 2,..., λ n ) [U H AU = diag(λ 1, λ 2,..., λ n )]. (e) Für alle regulären Matrizen X ist X T AX [X H AX] positiv definit. 4 Direkte Verfahren für spezielle Systeme Technische Universität Bergakademie Freiberg
2 Numerische Mathematik 151 Satz 4.2 Es sei A R n n [C n n ] symmetrisch [Hermitesch]. A ist genau dann positiv definit, wenn es eine reguläre untere Dreiecksmatrix L R n n [C n n ] gibt mit A = LL T [A = LL H ] (Cholesky-Zerlegung). (André-Louis Cholesky, ) Bemerkung 4.3 Statt der in Satz 4.2 beschriebenen Cholesky-Zerlegung wird oft die rationale (oder wurzelfreie) Cholesky-Zerlegung A = L 1 DL T 1 [A = L 1 DL H 1 ] verwendet. Hier ist L 1 eine normierte untere -Matrix und D eine Diagonalmatrix mit positiven Hauptdiagonalelementen. Mit = diag(l) gilt L 1 = L 1 und D = Die Cholesky-Zerlegung Technische Universität Bergakademie Freiberg
3 Numerische Mathematik 152 Pseudocode: Cholesky-Zerlegung for j = 1 : n do ( l j,j := a j,j ) 1/2 j 1 k=1 l2 j,k for i = j + ( 1 : n do l i,j := a i,j ) j 1 k=1 l i,kl j,k /l j,j Aufwand: 1 3 n3 + O(n 2 ) flops. Bemerkung: Der untere -Anteil von A wird kann mit L überschrieben werden. Der (echte) obere -Anteil von A wird im Algorithmus nicht verwendet. 4.1 Die Cholesky-Zerlegung Technische Universität Bergakademie Freiberg
4 Numerische Mathematik 153 Lösung eines linearen Gleichungssystems Ax = b, A s.p.d. [H.p.d.] durch Cholesky-Zerlegung: 1: Berechne Cholesky-Zerlegung A = LL T 2: Löse Ly = b 3: Löse L T x = y Dieses Verfahren ist rückwärtsstabil: Satz 4.4 Die in Gleitpunktarithmetik mit Rundungseinheit u durch Cholesky- Zerlegung berechnete Lösung x des linearen Gleichungssystems Ax = b mit einer symmetrisch positiv-definiten Matrix A genügt einer Gleichung (A + A) x = b mit A 3n 2 u A. 4.1 Die Cholesky-Zerlegung Technische Universität Bergakademie Freiberg
5 Numerische Mathematik Bandmatrizen, Tridiagonalmatrizen Man nennt A = [a i,j ] C n n eine Bandmatrix mit unterer Bandbreite b L und oberer Bandbreite b R, falls a i,j = 0 für i j > b L und für j i > b R gilt. Eine Bandmatrix T mit b L = b R = 1 heißt Tridiagonalmatrix: a 1 c 1 b 2 a 2 c 2 T = tridiag(b, a, c) = b n 1 a n 1 c n 1 b n a n 4.2 Bandmatrizen, Tridiagonalmatrizen Technische Universität Bergakademie Freiberg
6 Numerische Mathematik 155 Besitzt die Tridiagonalmatrix T eine LR-Zerlegung, dann hat diese die Form 1 r 1 c 1 l 2 1. r.. 2 T = r n 1 c n 1 l n 1 mit r 1 = a 1 und l j = b j /r j 1, r j = a j l j c j 1 (j = 2, 3,..., n). r n Ist Gauß-Elimination ohne Pivotsuche für T x = d durchführbar, so erfordert sie also einen Aufwand von nur 3(n 1) Gleitpunktoperationen. 4.2 Bandmatrizen, Tridiagonalmatrizen Technische Universität Bergakademie Freiberg
7 Numerische Mathematik 156 Dies ist aber nur bei speziellen (z.b. diagonaldominanten) T stabil: Beispiel. Sei T = tridiag(2, 1, 3) R n n und d R n so gewählt, dass x = [1, 1,..., 1] T das System T x = d löst. Gauß-Elimination liefert die Lösung x. x x 2 / x 2 x x 2 / x 2 n (ohne Spaltenpivotsuche) (mit Spaltenpivotsuche) Bandmatrizen, Tridiagonalmatrizen Technische Universität Bergakademie Freiberg
8 Numerische Mathematik 157 Spaltenpivotisierung führt allerdings zu einem sog. fill-in, d.h. auf Positionen, wo die Einträge der Ausgangsmatrix T Null waren, können in der LR-Zerlegung von Null verschiedene Elemente auftreten was zusätzlichen Speicherplatz erfordert. Bei Tridiagonalmatrizen liefert Gauß-Elimination mit Spaltenpivotsuche eine LR-Zerlegung der Form , d.h. der fill-in beschränkt sich auf eine zusätzliche Diagonale in R. 4.2 Bandmatrizen, Tridiagonalmatrizen Technische Universität Bergakademie Freiberg
9 Numerische Mathematik 158 Analoge Eigenschaften besitzt die Gauß-Elimination bei allgemeinen Bandmatrizen mit unterer Bandbreite b L und oberer Bandbreite b R : Der Aufwand zur Berechnung der LR-Zerlegung beträgt (etwa) (2b L b R + 1)n flops. Wird nicht pivotisiert, so entsteht kein fill-in, d.h. L besitzt untere Bandbreite b L und R besitzt obere Bandbreite b R. Bei Spaltenpivotsuche verändert sich die Struktur von L nicht, R allerdings besitzt i.allg. obere Bandbreite b L + b R. Bei weniger strukturierten schwach besetzen Matrizen werden Umordnungsstrategien (z.b. reverse Cuthill-McKee) zur Bandbreitenminimierung eingesetzt (vgl. den nächsten Abschnitt). 4.2 Bandmatrizen, Tridiagonalmatrizen Technische Universität Bergakademie Freiberg
10 Numerische Mathematik Schwach besetzte Matrizen Schwach besetzte Matrizen sind (üblicherweise sehr große) Matrizen, bei denen viele Einträge den Wert Null besitzen, oder pragmatischer: Matrizen mit so vielen Nulleinträgen, dass es sinnvoll ist, Algorithmen einzusetzen, die weder diese Nulleinträge speichern noch auf ihnen operieren. Wieviel fill-in bei der LR-Zerlegung schwach besetzter Matrizen auftritt, hängt entscheidend von der Nummerierung der Zeilen und Spalten ab: Für A = Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg
11 Numerische Mathematik 160 liefert Gauß-Elimination (mit Spaltenpivotsuche) P A = , also eine (nahezu) voll besetzte LR-Zerlegung. (P entspricht der Permutation ( ).) Vertauscht man in A die erste und letzte Zeile sowie die erste und letzte Spalte, so ergibt sich für B = A([ ], [ ]) eine viel schwächer besetzte LR-Zerlegung, 4.3 Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg
12 Numerische Mathematik 161 B = , also keinerlei fill-in. Wir beschreiben mit der umgekehrten Cuthill-McKee-Nummerierung eine Heuristik, die sich bei symmetrischen Problemen bewährt hat. Ziel ist es, die Zeilen und Spalten von A so umzunummerieren, dass die Bandbreite möglichst klein wird. 4.3 Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg
13 Numerische Mathematik 162 Wie benötigen den Begriff des gerichteten Graphen einer Matrix A C n n (vorläufig beliebig). Der Graph G(A) = (N, V ) von A besteht aus n = dim(a) Knoten P 1, P 2,..., P n, die zusammen die Knotenmenge N bilden. Für jedes Element a i,j 0 wird P i mit P j durch eine gerichtete Kante verbunden (von P i nach P j ). Falls a i,i 0 ist, so wird P i mit einer geschlossenen Schleife versehen. Die Gesamtheit aller Kanten bildet die Kantenmenge V. (Bei symmetrischen Matrizen oder allgemeiner bei Matrizen mit symmetrischer Besetzungsstruktur kann man auf die Orientierung der Kanten natürlich verzichten.) Der Grad d i eines Knotens P i ist durch d i := {j : a i,j 0} definiert. 4.3 Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg
14 Numerische Mathematik 163 Beispiel. A = G(A) : P 2 P 1 P 3 P 4 d 1 = 1, d 2 = 2, d 3 = d 4 = Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg
15 Numerische Mathematik 164 Cuthill-McKee-Nummerierung (CMK) für symmetrisches A R n n : 1: Wähle (beliebigen) Knoten aus G(A) als Knoten P 1 2: for i = 1, 2,..., n 1 do 3: Nummeriere die (noch unnummerierten) Nachbarn von P i nach aufsteigendem Grad 4: Entferne alle Kanten zwischen bereits nummerierten Knoten und bestimme die Grade der noch unnummerierten Knoten bez. dieses neuen Graphen. Bemerkungen. Diese Nummerierung ist nur möglich, wenn G(A) zusammenhängend ist, d.h. wenn jeder Knoten von jedem anderen Knoten aus in G(A) erreichbar ist. Ist [π(1), π(2),..., π(n)] die CMK-Nummerierung, so ist die umgekehrte Cuthill-McKee-Nummerierung durch [π(n), π(n 1),..., π(1)] definert. 4.3 Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg
16 Numerische Mathematik nz = nz = nz = nz = Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg
17 Numerische Mathematik 166 Legende. Links oben wird die Struktur der symmetrischen positiv definiten Matrix A = CC T (auf die Bedeutung dieser Matrix wird später eingegangen) gezeigt, wobei die nichtsymmetrische Matrix C R aus der Modellierung eines chemischen Betriebs stammt (zu Details siehe chemimp/impcolb.html). Rechts oben ist die Besetztheitsstruktur des Cholesky-Faktors L T A von A geplottet. Sei P die Permutationsmatrix, die zur umgekehrten Cuthill-McKee-Nummerierung gehört, dann ist B = P AP T (links unten) und L T B der zugehörige Cholesky-Faktor. # entries (i, j) A L A B L B 0 (i j) 503 (28%) 1073 (61%) 503 (28%) 657 (37%) 4.3 Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg
18 Numerische Mathematik 167 Weiteres Beispiel: Finite-Element Modell eines Tragflächenprofils. Graph von A 4.3 Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg
19 Numerische Mathematik A (4235 x 4235) 0 A (nach umgekehrter CMK Nummerierung) Bandbreite: Bandbreite: Schwach besetzte Matrizen Technische Universität Bergakademie Freiberg
20 Numerische Mathematik Vandermondesche Matrizen x 0 x 1 x 2 x n V = V (x 0, x 1, x 2,..., x n ) = x 2 0 x 2 1 x 2 2 x 2 n..... C (n+1) (n+1) x n 0 x n 1 x n 2 x n n heißt Vandermondesche Matrix (Alexandre Théophile Vandermonde, ). Es gilt det(v (x 0, x 1,..., x n )) = i>j(x i x j ), insbesondere ist V genau dann regulär, wenn die x j paarweise verschieden sind. 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg
21 Numerische Mathematik 170 V ist zwar voll besetzt, besitzt aber eine sehr spezielle Struktur. Man erwartet, dass diese ausgenutzt werden kann zur Konstruktion von Algorithmen, die LGSe mit Koeffizientenmatrix V bzw. LGSe der Form ( V T a = f V R (n+1) (n+1), f R n+1) (LGS) mit deutlich weniger als O(n 3 ) Flops lösen. Wir betrachten die folgende polynomiale Interpolationsaufgabe: Zu gegebenen (paarweise verschiedenen) Knoten x 0, x 1,..., x n R und gegebenen Funktionswerten f 0, f 1,..., f n R soll ein Interpolationspolynom p(x) = a n x n + a n 1 x n a 1 x + a 0 P n (mit reellen Koeffizienten a 0, a 1,..., a n = n + 1 Freiheitsgrade) vom Grad n konstruiert werden, das die n + 1 Interpolationsbedingungen erfüllt. p(x i ) = f i (i = 0, 1,..., n) (IP) 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg
22 Numerische Mathematik 171 Satz 4.5 Die Probleme (LGS) und (IP) sind äquivalent: Der Vektor a = [a 0, a 1,..., a n ] T R n+1 löst das LGS V T a = f genau dann, wenn das Polynom p(x) = a n x n + a n 1 x n a 1 x + a 0 P n die Interpolationsbedingungen (IP) erfüllt. Bemerkung 4.6 Damit ist unsere Interpolationsaufgabe genau dann eindeutig lösbar, wenn die Knoten {x i } n i=0 paarweise verschieden sind, d.h. es gibt in diesem Fall genau ein Polynom p P n, das den Bedingungen (IP) genügt. 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg
23 Numerische Mathematik 172 Wir lösen V T a = f dadurch, dass wir die Koeffizienten des Interpolationspolynoms p in Newton-Form berechnen. Letztere verwendet die dividierten Differenzen der Wertepaare {(x i, f i )} n i=0, welche wie folgt definiert sind: Sind i 0, i 1,..., i k {0, 1,..., n} paarweise verschieden, so setzen wir f i0,i 1,...,i k := f i 1,i 2,...,i k f i0,i 1,...,i k 1 x ik x i0 (k 1). Satz 4.7 (Newton, 1669) Bezüglich der dividierten Differenzen lässt sich das Interpolationspolynom p in Newton-Form darstellen. p(x) = f 0 + f 0,1 (x x 0 ) + f 0,1,2 (x x 0 )(x x 1 ) + + f 0,1,...,n (x x 0 )(x x 1 ) (x x n 1 ) 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg
24 Numerische Mathematik 173 Die dividierten Differenzen der Wertepaare {(x i, f i )} n i=0 kann man sukzessive durch spaltenweises Auffüllen des Newton-Tableaus generieren. Für n = 4 erhält man beispielsweise x i k = 0 k = 1 k = 2 k = 3 k = 4 x 0 f 0 f 0,1 x 1 f 1 f 0,1,2 f 1,2 f 0,1,2,3 x 2 f 2 f 1,2,3 f 0,1,2,3,4 f 2,3 f 1,2,3,4 x 3 f 3 f 2,3,4 x 4 f 4 f 3,4 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg
25 Numerische Mathematik 174 Folgender Algorithmus berechnet die dividierten Differenzen: Gegeben: Wertepaare {x i, f i } n i=0, x i paarweise verschieden for k = 0 : n 1 do for j = n : 1 : k + 1 do f j := (f j f j 1 )/(x j x j k 1 ) Die im weiteren Verlauf nicht mehr benötigten Differenzen werden im obigen Algorithmus überschrieben. Dadurch wird kein zusätzlicher Speicherplatz benötigt. Am Ende stehen die dividierten Differenzen f 0, f 0,1, f 0,1,...,n in den Variablen f 0, f 1,..., f n. Aufwand: 3 2 (n2 + n) Flops. 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg
26 Numerische Mathematik 175 Um aus der Newton-Darstellung p(x) = n f 0,1,...,k k 1 k=0 j=0 (x x j ) die Koeffizienten in p(x) = a 0 + a 1 x + + a n x n zu ermitteln, beachte man, dass die Rekursion p n (x) := f 0,1,...,n, p k (x) := f 0,1,...,k + (x x k )p k+1 (x) (k = n 1, n 2,..., 0) mit p 0 (x) = p(x) endet. Durch Koeffizientenvergleich in dieser Rekursion erhält man folgenden Algorithmus. 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg
27 Numerische Mathematik 176 Gegeben: Dividierte Differenzen der Newton-Darstellung in den Variablen f 0,...,f n, zugehörige x-werte x 0,..., x n paarweise verschieden. for k = n 1 : 1 : 0 do for j = k : n 1 do f j := f j f j+1 x k Am Ende stehen die Koeffizienten a 0,..., a n in den Variablen f 0,..., f n. Aufwand: n 2 + n Flops. Fazit: Da das Hintereinanderausführen der beiden vorangehenden Algorithmen die Koeffizienten {a i } n i=0 des Interpolationspolynoms der Wertepaare {(x i, f i )} n i=0 in 5 2 n2 + O(n) Flops liefert, ist damit auch die äquivalente Aufgabe, das LGS V T a = f zu lösen, mit derselben Komplexität gelöst. 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg
28 Numerische Mathematik 177 Mit den (n + 1) (n + 1)-Matrizen D k := diag(1,..., 1, x }{{} k+1 x 0,..., x n x n k+1 ), L k (α) := k = 0, 1,..., n 1, wobei k+1 [ Ik O O T n+1 k ] T n+1 k = tridiag( α, 1, 0) R (n+1 k), (n+1 k), α R, definieren wir eine normierte untere -Matrix L sowie eine obere -Matrix R gemäß L := L n 1 (x n 1 )L n 2 (x n 2 )... L 0 (x 0 ), R := L 0 (1) T D 1 0 L 1(1) T D L n 1 (1) T D 1 n 1., 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg
29 Numerische Mathematik 178 Satz 4.8 Für V = V (x 0, x 1,..., x n ) ist V 1 = RL. Mit anderen Worten: Der Algorithmus zur Lösung von V T a = f berechnet implizit eine RL-Zerlegung von V 1. Dies kann zur Lösung von LGSen der Bauart V z = b verwendet werden. Der folgende Algorithmus berechnet z = V 1 b in 5n 2 /2 Flops. Eingabedaten sind x 0, x 1,..., x n (paarweise verschieden), so dass V = V (x 0, x 1,..., x n ), und b = [b 0, b 1,..., b n ] T. Die rechte Seite b wird mit der Lösung z überschrieben. 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg
30 Numerische Mathematik 179 for k=0:n-1 for j=n:-1:k+1 b(j)=b(j)-x(k)*b(j-1) end end for k=n-1:-1:0 for j=k+1:n b(j)=b(j)/(x(j)-x(j-k-1) end for j=k:n-1 b(j)=b(j)-b(j+1) end end 4.4 Vandermondesche Matrizen Technische Universität Bergakademie Freiberg
31 Numerische Mathematik Toeplitz-Matrizen Eine Matrix T heißt Toeplitz-Matrix Otto Toeplitz, ), wenn sie die Form t 0 t 1 t 2 t n 1 t 1 t 0 t 1.. T = t 2 t 1 t t 0 t 1 t 1 n t 1 t 0 besitzt, also konstante Einträge auf jeder Diagonalen besitzt (T = [t i j ] 1 i,j n C n n ). 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg
32 Numerische Mathematik 181 Jede Toeplitz-Matrix ist persymmetrisch, d.h. symmetrisch zur NO-SW- Diagonalen. Formal: 1 T E = ET T mit E :=. 1 Beachte: Ist T invertierbar und persymmetrisch, so ist auch T 1 persymmetrisch (besitzt aber i.a. keine Toeplitz-Struktur), denn E 2 = I. Wir interessieren uns hier ausschließlich für symmetrisch positiv definite Toeplitz-Matrizen. O.B.d.A. können wir dann von t 0 = 1 ausgehen. Im Folgenden seien also 1 = t 0, t 1,..., t n 1 so gewählt, dass die symmetrische Toeplitz-Matrix T = [t i j ] positiv definit ist. 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg
33 Numerische Mathematik 182 Zunächst lösen wir positiv definite Toeplitz-Systeme mit spezieller rechter Seite (sog. Yule-Walker-Gleichungen): 1 t 1 t n 1 y 1 t 1. t =,.. t 1. t n 1 oder kurz: T n y = t n. t n 1 t 1 1 Hierzu nehmen wir an, wir hätten das k-te Yule-Walker-System y n T k y = t k, t k = [t 1,..., t k ] T, bereits gelöst und zeigen, dass das (k + 1)-te System dann in O(k) Schritten gelöst werden kann. t n 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg
34 Numerische Mathematik 183 Dazu zerlegen wir das (k + 1)-te System wie folgt: [ ] [ ] [ ] Tk E k t k z tk T k z + αe k t k = t k. tk T E =, d.h. k 1 α tk T E kz + α = t k+1. Wir erhalten t k+1 z = T 1 k ( t k αe k t k ) = y αt 1 k E kt k, α = t k+1 t T k E k z. Wegen der Persymmetrie von T 1 k z = y αe k T 1 k t k = y + αe k y gilt T 1 k E k = E k T 1 k und damit α = t k+1 t T k E k (y + αe k y) = (t k+1 + t T k E k y + αt T k y) und schließlich α = t k+1 + t T k E ky 1 + t T k y. 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg
35 Numerische Mathematik 184 Wegen [ ] T [ ] [ ] I Ek y Tk E k t k I Ek y [ Tk O ] O 1 t T k E k 1 O 1 = O 1 + t T k y und da T k+1 positiv definit, ist 1 + t T k y > 0. Damit ist der k-te Schritt des Algorithmus von Durbin vollendet, den wir nun folgendermaßen zusammenfassen können: 1: y 1 = t 1 2: for k = 1, 2,..., n 1 do 3: β k = 1 + t T k y k 4: α k = (t [ k+1 + tk T E ky k ] )/β k yk + α k E k y k 5: y k+1 = α k 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg
36 Numerische Mathematik 185 Diese Variante benötigt 3n 2 + O(n) Flops. Durch Ausnutzung einiger der obigen Beziehungen ist es jedoch möglich, den Rechenaufwand noch etwas zu reduzieren. Man beachte nämlich [ ] β k = 1 + tk T y k = 1 + [tk 1 T yk 1 + α k 1 E k 1 y k 1 t k ] = 1 + t T k 1y k 1 }{{} β k 1 = (1 α 2 k 1)β k 1. α k 1 T + α k 1 (t k + tk 1E k 1 y k 1 ) }{{} α k 1 β k 1 Durch Einbeziehung dieser zusätzlichen Rekursion gelangt man zur endgültigen Fassung des Toeplitz-Matrizen Technische Universität Bergakademie Freiberg
37 Numerische Mathematik 186 Algorithmus zur Lösung eines Yule-Walker-Systems [J. Durbin (1960)]. Gegeben: 1 = t 0, t 1,..., t n 1, t n, so dass T n = [t i j ] spd ist. Gesucht: y = T 1 n t n. 1: y(1) = -t(1); beta = 1; alpha = -t(1); 2: for k=1:n-1, 3: beta = (1-alpha*alpha)*beta; 4: alpha = -(t(k+1) + t(k:-1:1) *y(1:k)) / beta; 5: y(1:k) = y(1:k) + alpha*y(k:-1:1); 6: y(k+1) = alpha; 7: end Aufwand: 2n 2 + O(n) flops. 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg
38 Numerische Mathematik 187 Wir betrachten nun symmetrisch positiv definite Toeplitz-Systeme mit beliebiger rechter Seite: 1 t 1 t n 1 x 1 b 1. t =,.. t 1. b n 1 t n 1 t 1 1 oder kurz T n x = b. Wir gehen dabei wieder von der Lösung des Systems T k x = b k, b k = [b 1,..., b k ] T (4.1) aus und bestimmen daraus die Lösung des nächstgrößeren Systems [ ] [ ] [ ] Tk E k t k v bk tk T E =, t k = [t 1,..., t k ] T. (4.2) k 1 µ b k+1 x n b n 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg
39 Numerische Mathematik 188 Wir nehmen ferner an, die Lösung y des k-ten Yule-Walker-Systems T k y = t k sei verfügbar. Wegen T k v + µe k t k = b k folgt und somit v = T 1 k (b k µe k t k ) = x µ T 1 k E k }{{} =E k T 1 k t k = x + µe k y, d.h. µ = b k+1 t T k E k v = b k+1 t T k E k x µt T k y µ = b k+1 t T k E kx 1 + t T k y. Damit ist der Schritt von (4.1) nach (4.2) in 6k + 1 Operationen vollzogen. Bei diesem Algorithmus zur Lösung eines Toeplitz-Systems mit beliebiger rechter Seite werden also gleichzeitig das System T n x = b und die Yule-Walker- Gleichung T n y = t n schrittweise gelöst. 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg
40 Numerische Mathematik 189 Algorithmus zur Lösung eines spd Toeplitz-Systems [N. Levinson (1947)]. Gegeben: 1 = t 0, t 1,..., t n 1, so dass T n = [t i j ] spd ist, b R n. Gesucht: x = T 1 n b. 1: y(1) = -t(1); x(1) = b(1); beta = 1; alpha = -t(1); 2: for k=1:n-1, 3: beta = (1-alpha*alpha)*beta; 4: mu = (b(k+1) - t(1:k) *x(k:-1:1)) / beta; 5: x(1:k) = x(1:k) + mu*y(k:-1:1); 6: x(k+1) = mu; 7: if k < n-1, 8: alpha = -(t(k+1) + t(1:k) *y(k:-1:1)) / beta; 9: y(1:k) = y(1:k) + alpha*y(k:-1:1); 10: y(k+1) = alpha; 11: end 12: end Aufwand: 4n 2 + O(n) flops. 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg
41 Numerische Mathematik 190 Schließlich bestimmen wir die Inverse einer spd Toeplitz-Matrix T n, die wir wie folgt partitionieren: [ ] 1 [ ] A Et B v Tn 1 A = T n 1, = =, t = t t T E 1 v T n 1. γ E = E n 1, Aus [ ] [ ] [ ] A Et v 0 = t T E 1 γ 1 folgt zunächst Av = γet, γ = 1 t T Ev. Löst y die (n 1)-te Yule-Walker-Gleichung Ay = t, so gilt v = γa 1 Et = γea 1 t = γey, γ = 1 γt T y, d.h. γ = 1/(1 + t T y). 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg
42 Numerische Mathematik 191 Damit sind die letzte Zeile und Spalte von Tn 1 bestimmt, und es verbleibt die Bestimmung einer Rekursion für die Matrix B. Hierzu beachte man, dass wegen AB + Etv T = I n 1 sowie A 1 Et = EA 1 t = Ey = v/γ folgt B = A 1 A 1 Etv T = A 1 + vv T /γ. Da A 1 persymmetrisch, d.h. [A 1 ] ij = [A 1 ] n j,n i, erhalten wir die Beziehung b ij = [A 1 ] ij + v iv j γ = [A 1 ] n j,n i + v iv j γ = b n j,n i v n jv n i γ + v iv j γ (4.3) = b n j,n i + 1 γ (v iv j v n j v n i ). 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg
43 Numerische Mathematik 192 Dies zeigt, dass B zwar nicht persymmetrisch ist, aber wir können einen Eintrag b ij durch Spiegelung an der NO-SW-Diagonalen bestimmen. Unter zusätzlicher Ausnutzung der Persymmetrie von Tn 1 können wir deshalb B vom Rand nach innen berechnen. In der folgenden schematischen Darstellung des Algorithmus anhand eines 6 6 Beispieles stehen die Symbole u und b für unbekannte bzw. bereits bestimmte Matrixeinträge von Tn 1. Wir beginnen mit der berechneten letzten Zeile und Spalte und nutzen dann abwechselnd die Persymmetrie von Tn 1 und Formel (4.3). u u u u u b b b b b b b b b b b b b u u u u u b b u u u u b b u u u b b u u u u u b b u u u u b b u u u b b u u u u u b b u u u u b b u u u b b u u u u u b b u u u u b b b b b b b b b b b b b b b b b b b b b b b b b 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg
44 Numerische Mathematik 193 b b b b b b b b b b b b b b u u b b b b u u b b b b b b b b b b b b b b b b b b b b b b u b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b. b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b Den Algorithmus von Trench erhält man, wenn man noch berücksichtigt, dass Tn 1 als sowohl symmetrische als auch persymmetrische Matrix durch ihren oberen Keil bestimmt ist, d.h. im Fall n = 6 durch den Anteil. 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg
45 Numerische Mathematik 194 Algorithmus [W. F. Trench (1964)]: Loese T_{n-1} y = -t(1:n) mit dem Algorithmus von Durbin gamma = 1/(1 + t(1:n-1) *y(1:n-1); v(1:n-1) = gamma*y(n-1:-1:1); B(1,1) = gamma; B(1,2:n) = v(n-1:-1:1) ; for i=2:floor((n-1)/2)+1, for j=1:n-i+1, B(i,j) = B(i-1,j-1)+... (v(n+1-j)*v(n+1-i)-v(i-1)*v(j-1)) / gamma; end end Aufwand: 13 4 n2 + O(n) (!) Flops. Wie erwähnt werden nur b i,j mit i j, i + j n + 1 berechnet. 4.5 Toeplitz-Matrizen Technische Universität Bergakademie Freiberg
Numerische Mathematik
Numerische Mathematik Oliver Ernst Professur Numerische Mathematik Sommersemester 2015 Inhalt I 1 Einführung und Begriffe 1.1 Mathematische Modellbildung und numerische Simulation am Beispiel eines Wasserkreislaufs
Mehrbekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR
LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine
Mehr2 Direkte Lösungsverfahren für lineare Gleichungen
2 Direkte Lösungsverfahren für lineare Gleichungen (2.1) Sei L R N N eine normierte untere Dreiecksmatrix und b R N. Dann ist L invertierbar und das Lineare Gleichungssystem (LGS) Ly = b ist mit O(N 2
MehrKapitel 2: Lineare Gleichungssysteme
Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 2: Lineare Gleichungssysteme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 205 HM: Numerik (SS 205), Kapitel
Mehr8 Polynominterpolation
8 Polynominterpolation Interpolations-Aufgabe: Von einer glatten Kurve seien nur lich viele Punktewerte gegeben. Wähle einen lichdimensionalen Funktionenraum. Konstruiere nun eine Kurve in diesem Funktionenraum
Mehr1 Matrizenrechnung zweiter Teil
MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten
MehrKLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.
MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw
MehrLineare Gleichungssysteme: direkte Verfahren
Sechste Vorlesung, 24. April 2008, Inhalt Lineare Gleichungssysteme: direkte Verfahren Dreiecksmatrizen Gauß-Elimination LR-Zerlegung Anwendungen: Determinante, Inverse 1 Lösungsverfahren für lineare Gleichungssysteme
Mehr8 Interpolation. 8.1 Problemstellung. Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen. x 0 < x 1 <... < x n.
8 Interpolation 81 Problemstellung Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen x 0 < x 1 < < x n Eingabedaten: (x 0, f 0 ),(x 1, f 1 ),,(x n, f n ) Gegebene Daten (x j, f j ) Analysis
MehrLineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v
MehrBeginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)
M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.
Mehr5 Lineare Gleichungssysteme und Determinanten
5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von
Mehr3 Lineare Algebra Vektorräume
3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +
MehrNumerisches Programmieren, Übungen
Technische Universität München SoSe 3 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Jürgen Bräckle Numerisches Programmieren, Übungen Musterlösung 3. Übungsblatt:
Mehr5 Interpolation und Approximation
5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)
MehrEinführung in die numerische Mathematik
Prof. Dr. M. Günther K. Gausling, M.Sc. C. Hendricks, M.Sc. Sommersemester 204 Bergische Universität Wuppertal Fachbereich C Mathematik und Naturwissenschaften Angewandte Mathematik / Numerische Analysis
MehrErweiterungen der LR-Zerlegung
Prof. Thomas Richter 6. Juli 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg thomas.richter@ovgu.de Material zur Vorlesung Algorithmische Mathematik II am 06.07.2017 Erweiterungen
Mehr2 Direkte Lösungsverfahren für lineare Gleichungen
(2.1) Sei x = (x n ) n=1,...,n R N, A = (a m,n ) m=1,...,m, n=1,...,n R M,N. a) Sei 1 m n N. Dann ist x[m : n] = (x k ) k=m,...,n R 1+n m Teilvektor von x. b) Seien 1 m 1 m 2 M, 1 n 1 n 2 N. Dann ist A[m
MehrKurzform. Choleskyzerlegung. Julia Hoeboer. 13. Mai 2011
Choleskyzerlegung Julia Hoeboer 13 Mai 2011 Inhalt: LDM T Zerlegung LDL T Zerlegung Cholesky Zerlegung Person Berechnung Gaxpy Algorithmus Effektivität LDM T Zerlegung LDM T Zerlegung lässt sich aus LR
Mehr3 Matrizen und Lineare Gleichungssysteme
3 Matrizen und LGS Pink: Lineare Algebra HS 2014 Seite 38 3 Matrizen und Lineare Gleichungssysteme 3.1 Definitionen Sei K ein Körper, und seien m,n,l natürliche Zahlen. Definition: Eine Matrix mit m Zeilen
MehrMathematik II Frühjahrssemester 2013
Mathematik II Frühjahrssemester 213 Prof. Dr. Erich Walter Farkas Kapitel 7: Lineare Algebra Kapitel 7.5: Eigenwerte und Eigenvektoren einer quadratischen Matrix Prof. Dr. Erich Walter Farkas Mathematik
MehrLineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching
Lineare Algebra 12. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 14, 2017 1 Erinnerung: Determinanten, Orthogonale/unitäre Matrizen Sei A R 2 2, dann kann die Inverse
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrSpezielle Matrixformen
Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß
MehrMathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren
Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/
Mehr5 Lineare Algebra (Teil 3): Skalarprodukt
5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale
MehrRechenaufwand der LR- und LDL T - Zerlegung
6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für
MehrLösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016
Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
MehrEigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009
Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx
MehrKapitel 2: Lineare Gleichungssysteme. 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen
Kapitel 2: Lineare Gleichungssysteme 2.1 Motivation: Bildverarbeitung Sei B = (B(n, m)) ein N M stochastisches Feld mit ZVen B(n, m) : Ω {0,...,255}, n = 1,...,N, m = 1,...,M. dig. Camera Realisierung
Mehr4 Lineare Ausgleichsrechnung
Numerik I 15 4 Lineare Ausgleichsrechnung Die folgende Tabelle zeigt die Bevölkerungsentwicklung in den U.S.A. 19 191 192 193 194 75.995 91.972 15.711 123.23 131.669 195 196 197 198 199 15.697 179.323
MehrIn diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen.
Kapitel 4 Lineare Gleichungssysteme 4 Problemstellung und Einführung In diesem Kapitel betrachten wir direkte Verfahren zur Lösung von linearen Gleichungssystemen Lineares Gleichungssystem: Gesucht ist
Mehr6 Lineare Gleichungssysteme
6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
Mehr3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
Mehr8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrOrthogonale Matrix. Definition 4.19
Orthogonale Matrix Ausgleichsprobleme sind häufig schlecht konditioniert. Matrix des Normalengleichungssystems kann nahezu singulär sein. Spezielle Matrixzerlegung für höhere numerische Stabilität: QR-Zerlegung
MehrKurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen
Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)
MehrLineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte
Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)
MehrMischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.
Kapitel 5 Lineare Algebra 5 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
Mehr5 Eigenwerte und die Jordansche Normalform
Mathematik für Ingenieure II, SS 9 Freitag 6 $Id: jordantex,v 7 9/6/ :8:5 hk Exp $ 5 Eigenwerte und die Jordansche Normalform 5 Die Jordansche Normalform Nachdem wir bisher das Vorgehen zur Berechnung
MehrWiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
MehrBegleitmaterial zur Vorlesung Numerik I
Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik
MehrEigenwerte und Eigenvektoren
Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte
MehrLR Zerlegung. Michael Sagraloff
LR Zerlegung Michael Sagraloff Beispiel eines linearen Gleichungssystems in der Ökonomie (Input-Output Analyse Wir nehmen an, dass es 3 Güter G, G, und G 3 gibt Dann entspricht der Eintrag a i,j der sogenannten
MehrKlausurähnliche Aufgaben
Sommersemester 2007/08 Lineare Algebra Klausurähnliche Aufgaben Aufgabe 1 Seien v 1, v 2, v 3, v 4, v 5, v 6 die Vektoren in R 5 mit v 1 = (1, 2, 3, 1, 2), v 2 = (2, 4, 6, 2, 4), v 3 = ( 1, 1, 3, 0, 3),
MehrBlockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 :
Blockmatrizen Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 : 2 1 3 1 1 0 1 0 1 0 0 2 1 1 11 1 1 4 0 1 0 1 0 1 4 1 0 2 1 0 1 0 1 0 3 1 2 1 = 2 4 3 5 11 1 1 4 0 1 0 1 0 1 5 1 2 1 2 4 3 5
MehrRückwärts-Einsetzen. Bei einem linearen Gleichungssystem in oberer Dreiecksform, nacheinander bestimmt werden: r n,n x n = b n. = x n = b n /r n,n
Rückwärts-Einsetzen Bei einem linearen Gleichungssystem in oberer Dreiecksform, r 1,1 r 1,n x 1 b 1..... =., } 0 {{ r n,n } x n b n R mit det R = r 1,1 r n,n 0 können die Unbekannten x n,..., x 1 nacheinander
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
Mehr4 Der Gauß Algorithmus
4 Der Gauß Algorithmus Rechenverfahren zur Lösung homogener linearer Gleichungssysteme Wir betrachten ein GLS (1) a 11 x 1 + a 1 x + + a 1n x n = a 1 x 1 + a x + + a n x n = a m1 x 1 + a m x + + a mn x
MehrNumerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren
Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren
MehrSerie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q:
Lineare Algebra D-MATH, HS 214 Prof Richard Pink Serie 5 1 [Aufgabe] Invertieren Sie folgende Matrizen über Q: 1 a) 1 1 1 1 1 2 1 1 1 b) 1 2 1 1 1 1 2 1 1 1 1 2 1 2 3 1 c) 1 3 3 2 2 1 5 3 1 2 6 1 [Lösung]
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der
Mehr10. Übung zur Linearen Algebra I -
. Übung zur Linearen Algebra I - en Kommentare an Hannes.Klarner@FU-Berlin.de FU Berlin. WS 29-. Aufgabe 37 i Für welche α R besitzt das lineare Gleichungssystem 4 αx + αx 2 = 4x + α + 2x 2 = α genau eine,
Mehry (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)
9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten
MehrMatrizen, Determinanten, lineare Gleichungssysteme
Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n
Mehr51 Numerische Berechnung von Eigenwerten und Eigenvektoren
5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,
Mehr3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
MehrSerie 10: Inverse Matrix und Determinante
D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die
MehrDirekte Verfahren für Lineare Gleichungssysteme
Kapitel 1 Direkte Verfahren für Lineare Gleichungssysteme 11 Einführung (mündlich) 12 Das Gaußsche Eliminationsverfahren Es sei A IK n n eine invertierbare Matrix und b IK n ein gegebener Vektor Gesucht
MehrHöhere Mathematik für die Fachrichtung Physik
Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Michael Hott, M. Sc. WS 5/.. Höhere Mathematik für die Fachrichtung Physik Lösungsvorschläge zum 4. Übungsblatt Aufgabe
Mehr7.2 Die adjungierte Abbildung
7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)
Mehr1.4 Stabilität der Gauß-Elimination
KAPIEL 1. LINEARE GLEICHUNGSSYSEME 18 1.4 Stabilität der Gauß-Elimination Bezeichne x die exakte Lösung von Ax = b bzw. ˆx die mit einem (zunächst beliebigen Algorithmus berechnete Näherungslösung (inklusive
MehrMatrizen und Determinanten, Aufgaben
Matrizen und Determinanten, Aufgaben Inhaltsverzeichnis 1 Multiplikation von Matrizen 1 11 Lösungen 3 2 Determinanten 6 21 Lösungen 7 3 Inverse Matrix 8 31 Lösungen 9 4 Matrizengleichungen 11 41 Lösungen
Mehr18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1
UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
MehrGaußsche Ausgleichsrechnung
Kapitel 6 Gaußsche Ausgleichsrechnung 6. Gaußsche Methode der kleinsten Fehlerquadrate Die Gaußsche Methode der kleinsten Fehlerquadrate wurde 89 von C.F. Gauß in dem Aufsatz Theorie der Bewegung der Himmelkörper
MehrLineare Algebra für Physiker 11. Übungsblatt
Lineare Algebra für Physiker 11. Übungsblatt Fachbereich Mathematik SS 01 Prof. Dr. Matthias Schneider./. Juli 01 Dr. Silke Horn Dipl.-Math. Dominik Kremer Gruppenübung Aufgabe G1 (Minitest) (a) Welche
MehrSysteme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.
Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x
MehrLösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink
Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung
Mehr3. Übungsblatt zur Lineare Algebra I für Physiker
Fachbereich Mathematik Prof. Dr. Mirjam Dür Dipl. Math. Stefan Bundfuss. Übungsblatt zur Lineare Algebra I für Physiker WS 5/6 6. Dezember 5 Gruppenübung Aufgabe G (Basis und Erzeugendensystem) Betrachte
MehrMathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen
Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β
MehrÜbungen zum Ferienkurs Lineare Algebra WS 14/15
Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen
Mehr6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation
Mehrund Unterdeterminante
Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,
MehrGliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung
Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,
MehrCramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,...
Cramersche Regel Satz 2.4. Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei A j := (a,...,a j,b,a j+,...,a n ) also die Matrix, die entsteht, wenn in A die j-spalte durch den
MehrMatrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte
Mathematik I Matrizen In diesem Kapitel werden wir lernen was Matrizen sind und wie man mit Matrizen rechnet. Matrizen ermöglichen eine kompakte Darstellungsform vieler mathematischer Strukturen. Zum Darstellung
MehrMathematik für Wirtschaftswissenschaftler, WS 10/11 Musterlösungen zu Aufgabenblatt 11
Mathematik für Wirtschaftswissenschaftler, WS / Musterlösungen zu Aufgabenblatt Aufgabe 76: Bestimmen Sie mittels Gauß-Elimination die allgemeine Lösung der folgenden linearen Gleichungssysteme Ax b: a)
MehrMatrizenoperationen mit FORTRAN
Kapitel 2 Matrizenoperationen mit FORTRAN 21 Grundlagen Bei vielen Anwendungen müssen große zusammenhängende Datenmengen gespeichert und verarbeitet werden Deshalb ist es sinnvoll, diese Daten nicht als
MehrR 3 und U := [e 2, e 3 ] der von e 2, e 3 erzeugte
Aufgabe ( Es seien e =, e = Untervektorraum (, e = ( R und U := [e, e ] der von e, e erzeugte Weiter sei G := {A GL(, R A e = e und A U U} (a Zeigen Sie, dass G eine Untergruppe von GL(, R ist (b Geben
Mehr7 Matrizen über R und C
Mathematik für Physiker I, WS 06/07 Montag 9 $Id: matrixtex,v 7 06//9 :58: hk Exp $ 7 Matrizen über R und C 7 Addition und Multiplikation von Matrizen In der letzten Sitzung haben wir begonnen uns mit
Mehr5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21
5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11
MehrNumerik I. Universität zu Köln SS 2009 Mathematisches Institut Prof. Dr. C. Tischendorf Dr. M. Selva,
Universität zu Köln SS 009 Mathematisches Institut Prof. Dr. C. Tischendorf Dr. M. Selva, mselva@math.uni-koeln.de Numerik I Musterlösung 1. praktische Aufgabe, Bandmatrizen Bei der Diskretisierung von
Mehr12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen
12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn
MehrLösbarkeit linearer Gleichungssysteme
Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P. Grohs T. Welti F. Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 5 Aufgabe 5.1 Kommutierende Matrizen In der Vorlesung und vergangenen
Mehr6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
MehrSerie 8: Fakultativer Online-Test
Prof Norbert Hungerbühler Lineare Algebra I Serie 8: Fakultativer Online-Test ETH Zürich - D-MAVT HS 215 1 Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen Die Nachbesprechung
MehrMathematik für Naturwissenschaftler II SS 2010
Mathematik für Naturwissenschaftler II SS 2010 Lektion 12 8. Juni 2010 Kapitel 10. Lineare Gleichungssysteme (Fortsetzung) Umformung auf obere Dreiecksgestalt Determinantenberechnung mit dem Gauß-Verfahren
MehrLineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
MehrLinear Systems and Least Squares
Linear Systems and Least Squares Vortragender: Gelin Jiofack Nguedong Betreuer: Prof. Dr. Joachim Weickert Proseminar: Matrixmethoden in Datenanalyse und Mustererkennung Wintersemester 2015/2016 18. November
Mehr7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012)
Technische Universität München Zentrum Mathematik, M1 Prof. Dr. Boris Vexler Dr. Ira Neitzel Dipl.-Math. Alana Kirchner 7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Diese Auswahl
Mehr5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit
ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem
Mehr9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrEigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
Mehr4 Lineare Abbildungen und Matrizen
Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt
Mehr