KAPITEL 7. Berechnung von Eigenwerten. Av = λv
|
|
- Juliane Ingrid Ursler
- vor 6 Jahren
- Abrufe
Transkript
1 KAPITEL 7. Berechnung von Eigenwerten Aufgabe: Sei A R n n eine reelle quadratische Matrix. Gesucht λ C und v C n, v 0, die der Eigenwertgleichung Av = λv genügen. Die Zahl λ heißt Eigenwert und der Vektor v Eigenvektor zum Eigenwert λ. Die Skalierung von v ist frei wählbar. Die Aufgabe: gesucht (λ, v), so daß Av λv = 0, v = 1 ist nichtlinear in den Unbekannten (λ, v). Dahmen-Reusken Kapitel 7 1
2 Beispiel 7.1. Gesucht die Zahl λ und die Funktion u(x), die die Differentialgleichung mit den Randbedingungen u (x) λr(x)u(x) = 0, x (0,1), u(0) = u(1) = 0 erfüllen. Hierbei ist r > 0 eine bekannte stetige Funktion. Wir betrachten dazu Gitterpunkte x j = jh, j = 0,..., n, h = 1 n, und ersetzen u (x j ) durch die Differenz u(x j + h) 2u(x j ) + u(x j h) h 2, j = 1,2,..., n 1. Dahmen-Reusken Kapitel 7 2
3 Es ergibt sich ein Gleichungssystem Au λru = 0 für die Unbekannten λ und u i u(x i ), i = 1,2,..., n 1, wobei A = 1 h 2 Sei , R = r(x 1 ) r(x 2 )... r(x n 1 ) R 1/2 = diag( r(x 1 ),..., r(x n 1 )), R 1/2 := (R 1/2 ) 1, v := R 1/2 u, B := R 1/2 AR 1/2. Man erhält die transformierte Gleichung also ein Eigenwertproblem. Bv = λv,. Dahmen-Reusken Kapitel 7 3
4 Beispiel 7.3. Ein System linearer gekoppelter gewöhnlicher Differentialgleichungen: wobei z = z(t), t [0, T]. z = Az + b, z(0) = z 0, Annahmen: A R n n und b R n hängen nicht von t ab und A ist diagonalisierbar: Av i = λ i v i, i = 1,2,..., n. Sei Λ = diag(λ 1,..., λ n ), V = (v 1 v 2... v n ), und damit AV = V Λ. Dahmen-Reusken Kapitel 7 4
5 So erhält man aus V 1 z = V 1 AV V 1 z + V 1 b, y := V 1 z, c := V 1 b das System y = Λy + c von entkoppelten skalaren Gleichungen der Form y i = λ iy i + c i, i = 1,2,..., n. Hier ergibt sich einfach die Lösung y i (t) = z 0 i eλ it + c i λ i ( e λ i t 1 ), wobei z 0 i := ( V 1 z 0) i. Dahmen-Reusken Kapitel 7 5
6 7.2 Einige theoretische Grundlagen Lemma 7.4. λ ist ein Eigenwert von A genau dann, wenn det(a λi) = 0. Beweis: Av = λv (A λi)v = 0 (v 0). Somit ist die Matrix A λi singulär. Letzteres ist zu det(a λi) = 0 äquivalent. Deshalb: Berechnung der Eigenwerte Bestimmung der Nullstellen des charakteristischen Polynoms := det(a λi). Der Weg über die Nullstellen ist im allgemeinen ein untaugliches Vorgehen und nur für sehr kleine n akzeptabel. Dahmen-Reusken Kapitel 7 6
7 Beispiel 7.5. A = I hat Eigenwerte λ i = 1 und Eigenvektoren v i = e i, i = 1,..., n. Das Eigenwertproblem Ax = λx ist gut konditioniert (Satz 7.17): Sei µ ein Eigenwert der Matrix A + E, wobei E mit E 2 ǫ eine Störung der Matrix A ist. Dann gilt die Abschätzung 1 µ ǫ. Das charakteristische Polynom p(λ) := det(a λi): n p(λ) = (1 λ) n = ( n) ( λ) k k k=0 = ( n) ( n) ( n) λ + λ 2 ( n) λ ( 1) n( n) λ n n Dahmen-Reusken Kapitel 7 7
8 Bei einer (kleinen) Störung ǫ > 0 des Koeffizienten ( ) n 0 = 1 erhält man das gestörte Polynom p ǫ (λ) = 1 ǫ ( n) ( n) λ + λ 2 ( n) λ ( 1) n ( n) λ n n = p(λ) ǫ mit den Nullstellen p ǫ ( λ) = 0 (1 λ) n ǫ = 0 λ = 1 + ǫ 1/n (falls n ungerade) oder λ = 1 ± ǫ 1/n (falls n gerade). Dahmen-Reusken Kapitel 7 8
9 Die Menge aller paarweise verschiedenen Eigenwerte σ(a) = { λ C det(a λi) = 0 } bezeichnet man als das Spektrum von A. Matrizen A und B heißen ähnlich, falls es eine nichtsinguläre Matrix T gibt, so daß gilt. B = T 1 AT Lemma 7.6. Ähnliche Matrizen haben das gleiche Spektrum: für beliebiges nichtsinguläres T. Beweis σ(a) = σ(t 1 AT) det(t 1 AT λi) = det(t 1 (A λi)t) = det(t 1 )det(a λi)det(t) = det(a λi). Dahmen-Reusken Kapitel 7 9
10 Schur-Faktorisierung Satz 7.7 (Komplexe Schur-Faktorisierung) Zu jeder Matrix A C n n gibt es eine unitäre Matrix Q C n n, so daß Q AQ = λ 1 λ gilt. Dabei ist {λ 1,..., λ n } = σ(a). λ n =: R Dahmen-Reusken Kapitel 7 10
11 Satz 7.8 (Reelle Schur-Faktorisierung) Zu jeder Matrix A R n n gibt es eine orthogonale Matrix Q R n n, so daß Q T AQ = R 11 R R mm =: R gilt. Dabei sind alle Matrizen R ii (i = 1,..., m) reell und besitzen entweder die Ordnung eins (d.h. R ii R) oder die Ordnung zwei (d.h. R ii R 2 2 ). Im letzten Fall hat R ii ein Paar von konjugiert komplexen Eigenwerten. Die Menge aller Eigenwerte der Matrizen R ii (i = 1,..., m) ist gerade das Spektrum der Matrix A.
12 R n n Folgerung Jede reelle symmetrische Matrix A läßt sich mittels einer orthogonalen Matrix Q ähnlich auf eine Diagonalmatrix D transformieren: Q 1 AQ = D = diag(λ 1,..., λ n ). A besitzt somit nur reelle Eigenwerte und n linear unabhängige zueinander orthogonale Eigenvektoren (nämlich die Spalten von Q). Dahmen-Reusken Kapitel 7 11
13 7.3 Eigenwertabschätzungen Eigenschaften Seien A, B R n n. Dann gilt (i) Falls A nichtsingulär: (ii) λ σ(a) = λ σ(a), (iii) σ(a) = σ(a T ), (iv) σ(ab) = σ(ba). λ σ(a) λ 1 σ(a 1 ), Satz Für alle λ σ(a) gilt λ A. Dahmen-Reusken Kapitel 7 12
14 Satz Seien K i := { z C z a i,i j i a i,j }, i = 1,2,..., n, die sogenannten Gerschgorin-Kreise. Dann gilt, daß alle Eigenwerte von A in der Vereinigung aller dieser Kreise liegen: σ(a) ( n i=1 K i). Folgerung Seien Ki T die Gerschgorin-Kreise für A T : Ki T := { z C z a i,i a j,i }, i = 1,2,..., n, j i dann folgt aus Eigenschaft 7.11 (iii) und Satz 7.13: σ(a) ( ( n i=1 K i) ( n i=1 KT i )). Falls A symmetrisch ist, sind alle Eigenwerte reell, also gilt: σ(a) ( n i=1 (K i R) ). Dahmen-Reusken Kapitel 7 13
15 Beispiel Die Matrix A = hat das Spektrum σ(a) = {3.43 ± 0.14i, 1.86}. Die Gerschgorin-Kreise sind in Abb.7.1 dargestellt. Die Matrix A = hat das Spektrum σ(a) = {1.27, 3.00, 4.73}. Die Gerschgorin-Kreise liefern σ(a) ([1,3] [1,5] [3,5]), also σ(a) [1, 5]. Dahmen-Reusken Kapitel 7 14
16 σ(a) ( 3 i=1 K i ) : Abbildung 7.1. σ(a) ( 3 i=1 K T i ) : 2i.. 2i K3 T. K. K.... i.. i K K2 T K1 T σ(a) (( 3 2i i=1 K i ) ( 3 i=1 K i K T K T K T i )) : Dahmen-Reusken Kapitel 7 15
17 7.4 Kondition des Eigenwertproblems Satz Sei A R n n eine diagonalisierbare Matrix: V 1 AV = diag(λ 1,..., λ n ). Sei µ ein Eigenwert der gestörten Matrix A + E, dann gilt mit p = 1,2,. min λ i µ V p V 1 p E p, 1 i n Beachte: die absolute Kondition der Eigenwerte hängt von der Konditionszahl κ p (V ) V p V 1 p der Eigenvektormatrix V ab und nicht von der Konditionszahl der Matrix A. Dahmen-Reusken Kapitel 7 16
18 Für eine symmetrische Matrix ist das Problem der Bestimmung der Eigenwerte immer gut konditioniert: Satz Sei A R n n eine symmetrische Matrix und µ ein Eigenwert der gestörten Matrix A + E. Dann gilt min λ i µ E 2. 1 i n Dahmen-Reusken Kapitel 7 17
19 Für nichtsymmetrische Matrizen kann das Problem der Eigenwertbestimmung schlecht konditioniert sein, obgleich A selbst eine moderate Konditionszahl hat. Beispiel Sei A = ( ) 1 1 α 2, 0 < α 1 1 2, mit Eigenwerten und zugehörigen Eigenvektoren ( ) λ 1 = 1 α, v 1 1 =, λ α 2 = 1 + α, v 2 = Es gilt V 1 AV = ( λ1 0 0 λ 2 ) mit V = ( ) 1 1. α α ( ) 1. α κ 2 (A) = A 2 A α 2, κ 2(V ) = V 2 V 1 2 = 1 α. Dahmen-Reusken Kapitel 7 18
20 Sei E = ( 0 0 α 3 (2 + α) 0 ). Die gestörte Matrix hat Eigenwerte A + E = ( 1 1 α 2 (1 + α) 2 1 ) µ 1 = 1 α(1 + α) = λ 1 α 2, µ 2 = 1 + α(1 + α) = λ 2 + α 2, also gilt µ i λ i = α 2 = 1 α 3 (2 + α) 2 + α α = α κ 2(V ) E 2. Dahmen-Reusken Kapitel 7 19
21 7.5 Vektoriteration Sei A diagonalisierbar, d.h., es existiert eine Basis aus Eigenvektoren von A: v 1, v 2,..., v n C n. Diese Vektoren v i werden so skaliert, daß v i 2 = 1, i = 1,..., n, gilt. Außerdem nehmen wir an: λ 1 > λ 2 λ 3... λ n. Ein beliebiger Startvektor x 0 R n läßt sich darstellen als x 0 = c 1 v 1 + c 2 v c n v n. Wir nehmen ferner an, daß x 0 so gewählt ist, daß c 1 0. Dahmen-Reusken Kapitel 7 20
22 Wendet man eine k-te Potenz von A auf x 0 an, ergibt sich A k x 0 = n j=1 c j A k v j = n j=1 c j λ k j vj. wobei x k := A k x 0 = λ k 1{ c1 v 1 + r k 2 = O n j=2 ( λ 2 λ 1 ( λj λ 1 ) k c j v j} =: λ k 1( c1 v 1 + r k), k ) (k ). Folglich strebt x k = A k x 0 in die Richtung des Vektors v 1 : α k x k = v 1 + c 1 1 rk mit α k := (λ k 1 c 1) 1. Dahmen-Reusken Kapitel 7 21
23 Für die Annäherung des betragsmäßig größten Eigenwertes λ 1 kann man nun verwenden. Es gilt also λ (k) = (xk ) T Ax k x k 2 2 λ (k) (α = λ k x k ) T (α k+1 x k+1 ) 1 α k x k 2 2 = λ O( 1 + O( λ 2 k λ ) 1 λ 2 = (xk ) T x k+1 x k 2 2 ( λ = λ k O( 2 k ) ), λ ) λ 1 1 = λ 1 (v 1 + c 1 1 rk ) T (v 1 + c 1 1 rk+1 ) v 1 + c 1 1 rk 2 2 λ (k) λ 1 = O ( λ 2 k ). λ 1 Dahmen-Reusken Kapitel 7 22
24 Bemerkung Falls A symmetrisch ist, sind die Eigenvektoren v i orthogonal. Man kann zeigen, daß sogar gilt. λ (k) λ 1 = O ( λ 2 2k ) λ 1 Dahmen-Reusken Kapitel 7 23
25 Da x k 2, falls λ 1 > 1, und x k 2 0 falls λ 1 < 1, ist es zweckmäßig, die Iterierten x k zu skalieren. Insgesamt ergibt sich folgender Algorithmus 7.20 (Vektoriteration/Potenzmethode) Wähle Startvektor y 0 mit y 0 2 = 1. Für k = 0,1,2,... berechne ỹ k+1 = Ay k λ (k) = (y k ) T ỹ k+1 y k+1 = ỹ k+1/ ỹ k+1 2. Mit x 0 := y 0 kann man über Induktion einfach zeigen, daß gilt. y k = xk x k 2 = Ak x 0 A k x 0 2 Dahmen-Reusken Kapitel 7 24
26 Beispiel A = hat das Spektrum σ(a) = {5,8,6, 4 2}, also λ 1 = 8, λ 2 λ 1 = 3 4. k λ (k) λ 1 λ (k) λ 1 λ (k 1) λ Dahmen-Reusken Kapitel 7 25
27 Beispiel Wir betrachten die symmetrische Matrix A = mit dem Spektrum σ(a) = {3,9, 36}, also k λ (k) λ 1 λ 1 = 36, λ 2 λ 1 = 1 4. λ (k) λ 1 λ (k 1) λ 1 q k = λ(k) λ (k 1) λ (k 1) λ (k 2) q k 1 q k (λ (k) λ (k 1) ) e e e e e e e e e e 6 Dahmen-Reusken Kapitel 7 26
28 Beispiel Wir betrachten das Eigenwertproblem in Beispiel 7.1 mit R = I, also Ax = λx, (A R (n 1) (n 1) wie in (7.3)). Für die Matrix A ist eine explizite Formel für die Eigenwerte bekannt: Wegen λ n k = 4 h 2 sin2 ( 1 2 kπh), k = 1,2,..., n 1, h := 1 n. λ 2 λ 1 = π2 h 2 + O(h 4 ) ewartet man langsame Konvergenz λ (k) λ 1 für h 1. Für h = 1 30 : k λ (k) λ 1 λ (k) λ 1 λ (k 1) λ e e e e e Dahmen-Reusken Kapitel 7 27
29 7.6 Inverse Vektoriteration Angenommen, wir hätten eine Annäherung µ λ i eines beliebigen Eigenwertes λ i der Matrix A zur Verfügung, so daß µ λ i < µ λ j für alle j i. Zur Berechnung von (λ i µ) 1, und damit von λ i, kann man die Vektoriteration auf (A µi) 1 anwenden: Algorithmus 7.24.(Inverse Vektoriteration mit Spektralverschiebung) Wähle Startvektor y 0 mit y 0 2 = 1. Für k = 0,1,2,... : Löse (A µi)ỹ k+1 = y k λ (k) := 1 (y k ) T ỹ k+1 + µ y k+1 := ỹ k+1/ ỹ k+1 2. Dahmen-Reusken Kapitel 7 28
30 Es gilt: λ (k) := 1 (y k ) T ỹ k+1 + µ λ i für k. Die Konvergenzgeschwindigkeit wird durch das Verhältnis zwischen 1 λ i µ und dem betragsmäßig zweitgrößten Eigenwert von (A µi) 1, also durch den Faktor max j i 1 λ j µ 1 λ i µ = bestimmt. Hieraus schließen wir: 1 min j i λ j µ 1 λ i µ = λ i µ min j i λj µ Ist µ eine besonders gute Schätzung von λ i, so gilt λ i µ min j i λj µ 1, das Verfahren konvergiert in diesem Fall sehr rasch. Dahmen-Reusken Kapitel 7 29
31 Beispiel Wir betrachten die Matrix aus Beispiel 7.21 und wenden zur Berechnung des Eigenwerts λ 4 = 4 den Algorithmus 7.24 mit µ = 3.5 und y 0 = 1 (1,1,1,1,1) T an. 5 Resultate: k λ (k) λ 4 λ (k) λ 4 λ (k 1) λ e e e e e e Für den theoretischen Konvergenzfaktor ergibt sich λ 4 µ min j 4 λj µ = λ min j 4 λj = = 1 3. Dahmen-Reusken Kapitel 7 30
32 Für die inverse Vektoriteration, wobei man den Parameter µ nach jedem Schritt auf die jeweils aktuellste Annäherung λ (k) von λ 4 = 4 setzt, µ 0 := 3.5, µ k = λ (k 1) für k 1, ist die Konvergenz viel schneller: k λ (k) λ 4 λ (k) λ 4 λ (k 1) λ 4 2 λ (k) λ (k 1) e e e e e e e e e e e Die Konvergenzgeschwindigkeit ist nun quadratisch statt linear. In der vierten Spalte kann man sehen, daß die Fehlerschätzung λ (k) λ λ 1 (k) λ (k+1) befriedigend ist. Dahmen-Reusken Kapitel 7 31
33 7.7 QR-Verfahren Der QR-Algorithmus ist eng mit der sogenannten Unterraumiteration verwandt. Letztere Methode, die sich als Verallgemeinerung der Vektoriteration interpretieren läßt, wird erst behandelt. Algorithmus 7.26 (Stabile Unterraumiteration) Wähle eine orthogonale Startmatrix Q 0 R n n. Für k = 0,1,2,... berechne B = AQ k, eine QR-Zerlegung von B: B =: Q k+1 R k+1, mit Q k+1 orthogonal und R k+1 eine obere Dreiecks-matrix. Notation: Q k = (q 1 k q2 k... qn k ) und V j = v 1,..., v j, 1 j n, der von den Eigenvektoren v 1,..., v j aufgespannte Unterraum. Dahmen-Reusken Kapitel 7 32
34 Sei S j k := Ak q 1 0, Ak q 2 0,..., Ak q j 0 = Bild Ak (q 1 0 q qj 0 ). Nun kann man den Zusammenhang der Räume S j k zu den Q k herstellen, indem man per Induktion zeigt, daß gilt. Für x S j k sei Man kann zeigen: q 1 k, q2 k,..., qj k = Sj k d(v j, x) := min v V j v x 2 d(v j, S j k ) := max { d(v j, x) x S j k, x 2 = 1 }. d(v j, S j k ) = O( λ j+1 λ j k ), k für j = 1,2,..., n 1. Dahmen-Reusken Kapitel 7 33
35 Für die j-te Spalte q j k der Matrix Q k ergibt sich, wegen q j k Sj k V j (k ): und somit q j k = j l=1 α l v l + e k, mit e k 0 (k ), = Wegen S j k V j: Aq j j k = α l Av l + ẽ k (ẽ k := Ae k ) l=1 j l=1 α l λ l v l + ẽ k mit ẽ k 0 (k ). Aq j j k = β l,k qk l + ê k, mit ê k 0 (k ). l=1 Dahmen-Reusken Kapitel 7 34
36 Für i > j erhält man, wegen der Orthogonalität (q i k )T q l k = 0, i l: (q i k )T Aq j k = (qi k )T ê k 0 (k ). Hieraus folgt: Die Folge Q T k AQ k konvergiert für k gegen eine obere Dreiecksmatrix. Dahmen-Reusken Kapitel 7 35
37 Zusammenfassend Sei {Q k } k 0 die Folge orthogonaler Matrizen aus der Unterraumiteration, und A k := Q T k AQ k. Es gilt: σ(a k ) = σ(a) für alle k. Q T k AQ k = A k R = ( ) (k ). Die Diagonaleinträge der Matrix A k sind Annäherungen für die Eigenwerte der Matrix A. Es gilt r i,i = λ i, i = 1,..., n, d.h., die Eigenwerte stehen nach Größe sortiert auf der Diagonale von R. Für k streben die Fehler in diesen Annäherungen gegen 0, wobei die Konvergenzgeschwindigkeit durch die Faktoren λ j+1, λ j j = 1,2,..., n 1, bestimmt ist. Dahmen-Reusken Kapitel 7 36
38 Beispiel Sei A = 1 2 0, mit Eigenwerten λ 1 = 3, λ 2 = 2, λ 3 = 1 und Q die Startmatrix wie in (7.45). Resultate der Unterraumiteration: A 1 = , A 5 = A 15 = ,. und σ(a) = σ(a 1 ) = σ(a 5 ) = σ(a 15 ) diag(a 15 ) = {3.00,2.00,1.00}. Dahmen-Reusken Kapitel 7 37
39 Bemerkung Da wir in diesem Abschnitt annehmen, daß die Matrix A nur einfache Eigenwerte besitzt, hat die reelle Schur-Faktorisierung von A die Form Q T AQ = R, Aus der oben diskutierten Analyse der Unterraumiteration folgt, daß diese Methode eine Folge Q k, k = 0,1,2,..., von orthogonalen Matrizen mit der Eigenschaft Q T k AQ k = A k R liefert, wobei R eine obere Dreiecksmatrix ist. Offensichtlich ergibt die Unterraumiteration eine näherungsweise Konstruktion der reellen Schur-Faktorisierung. Dahmen-Reusken Kapitel 7 38
40 7.7.2 QR-Algorithmus Die über die Unterraumiteration definierten Matrizen A k können einfach rekursiv (d.h. A k aus A k 1 ) berechnet werden. Lemma Sei à 0 := Q T 0 AQ 0, wobei Q 0 die in Algorithmus 7.26 gewählte orthogonale Startmatrix ist, und sei à k, k = 1,2,..., definiert durch à k 1 =: QR (die QR-Zerlegung von à k 1, mit r i,i 0) à k Dann gilt := RQ. à k = A k, k = 0,1,2,..., wobei A k = Q T k AQ k die in (7.51) definierte Matrix ist. Dahmen-Reusken Kapitel 7 39
41 Aufgrund von Lemma 7.32 läßt sich folgende einfache Methode zur Berechnung der Matrizen A k = Q T k AQ k, k = 1,2,..., formulieren: Algorithmus 7.33 (QR-Algorithmus) Gegeben: A R n n und eine orthogonale Matrix Q 0 R n n (z.b. Q 0 = I). Berechne A 0 = Q T 0 AQ 0. Für k = 1,2,... berechne A k 1 =: QR (QR-Zerlegung von A k 1 ) A k := RQ. Dahmen-Reusken Kapitel 7 40
42 Beispiel Für die symmetrische Matrix A aus Beispiel mit σ(a) = {3,9, 36} liefert der QR-Algorithmus mit Q 0 = I folgende Resultate: A 3 = , A 6 = Für die Matrix A aus Beispiel 7.9 mit σ(a) = {9,27 + 9i,27 9i} ergeben sich mit Q 0 = I folgende Resultate: A 3 = , A6 = , ) ( Der 2 2-Diagonalblock Eigenwerte ± 8.993i. der Matrix A 6 hat die Dahmen-Reusken Kapitel 7 41
43 Bemerkungen Die Konvergenz des QR-Verfahrens wird sehr langsam sein, falls es ein j gibt, für das λ j+1 λ 1 gilt. j Der Aufwand pro Schritt beim QR-Verfahren ist erheblich, da man jedes mal die QR-Zerlegung einer n n-matrix (z.b. mit Householder-Spiegelungen) und das Produkt RQ berechnen muß. Der Aufwand pro Iteration ist i.a. O(n 3 ) Multiplikationen/Divisionen. Der QR-Algorithmus 7.33 ist daher im allgemeinen kein effizientes Verfahren! Dahmen-Reusken Kapitel 7 42
44 7.7.3 Praktische Durchführung des QR-Algorithmus Transformation auf Hessenbergform Eine Matrix B R n n heißt obere Hessenberg-Matrix, falls B die Gestalt hat. B = In Beispiel 7.35 wird gezeigt, wie man eine Matrix A über eine orthogonale Ähnlichkeitstransformation, d.h. Q T AQ, mit Q orthogonal auf obere Hessenbergform bringen kann. Dahmen-Reusken Kapitel 7 43
45 Beispiel Sei die Matrix gegeben. Man setze und v 1 := A = Q 1 := , Q v 1 := I 2 v1 (v 1 ) T (v 1 ) T v 1 R Q v 1. Dahmen-Reusken Kapitel 7 44
46 Dann ergibt sich Q 1 A = Bei der Multiplikation von Q 1 A mit Q 1 bleiben die Null-Einträge in der ersten Spalte erhalten: Ã := Q 1 AQ 1 =
47 Sei und v 2 := ( ) 12 5 Dann ergibt sich + 13 Q 2 Ã = ( ) 1 0 = Q 2 := Â := Q 2 ÃQ 2 = ( ) 25, Q 5 v 2 := I 2 v2 (v 2 ) T (v 2 ) T v 2 R2 2, Qv , Dahmen-Reusken Kapitel 7 45
48 Sei Q = Q 1 Q 2, also Q T = Q T 2 QT 1 = Q 2Q 1, dann gilt Q T AQ = Q 2 Q 1 AQ 1 Q 2 = Â, wobei  eine obere Hessenberg-Matrix ist. Man kann eine Matrix A R n n durch Householder- Transformationen auf eine zu A ähnliche Matrix mit oberer Hessenberggestalt bringen. Rechenaufwand Der Rechenaufwand der Ähnlichkeitstransformation auf Hessenbergform über Householder-Transformationen ist etwa 5 3 n3 Operationen. Dahmen-Reusken Kapitel 7 46
49 Wir nehmen im weiteren an, daß A eine nicht-reduzierbare obere Hessenberg-Matrix ist. Wenn A eine nicht-reduzierbare obere Hessenbergmatrix ist, kann man die Identität als Anfangsmatrix bei der Unterraumiteration (also auch beim QR-Algorithmus) nehmen. Das folgende Resultat zeigt, daß im QR-Algorithmus die obere Hessenberggestalt erhalten bleibt. Lemma Sei A k 1 R n n eine obere Hessenberg-Matrix und A k 1 := QR (QR-Zerlegung von A k 1 ) A k := RQ der Iterationsschritt im QR-Algorithmus 7.33, dann ist auch A k eine obere Hessenberg-Matrix. Dahmen-Reusken Kapitel 7 47
50 Aufgrund dieses Ergebnisses ergibt sich als zweiter Vorteil der Transformation auf Hessenberggestalt eine starke Reduktion des Rechenaufwandes: Bemerkung Dadurch, daß man beim QR-Algorithmus in einer Vorbearbeitungsphase die Matrix auf obere Hessenbergform bringt, braucht man nur die QR-Zerlegung einer Hessenberg-Matrix A k 1 zu berechnen. Falls man dazu Givens-Rotationen verwendet, ist der Aufwand für die Berechnung A k 1 =: QR, A k := RQ nur O(n 2 ) Operationen. Falls A symmetrisch ist, ist dieser Aufwand nur O(n) Operationen. Dahmen-Reusken Kapitel 7 48
51 Wegen der oberen Hessenberggestalt der Matrizen A k zeigt das Konvergenzverhalten der Subdiagonalelemente a (k) i+1,i 0 für k (i = 1,2,... n 1) gerade die Konvergenzgeschwindigkeit. Wir betrachten die Matrix A = A 0 = Die Matrizen A k, k 1 haben dann alle eine obere Hessenberg-Gestalt. In Abb.7.2 wird die Größe der Einträge a (k) i+1,i (i = 1,2,3,4) für k = 0,1,2,...,20 dargestellt. Für k = 20 ergibt sich das Resultat: σ(a) = σ(a 20 ) {14.15, 9.53, 5.16, 1.50, 0.34}. Dahmen-Reusken Kapitel 7 49
52 Abbildung 7.2. : a (k) 5,4, : a (k) 4,3, : a (k) 3,2, + : a (k) 2, k a (k) 2,1 a (k) 4,3 c 1 (0.67) k c 1 λ 2 c 3 (0.29) k c 3 λ 4 k, λ 1 k, λ 3 a (k) 3,2 a (k) 5,4 c 2 (0.54) k c 2 λ 3 c 4 (0.22) k c 5 λ 5 k, λ 2 k. λ 4 Dahmen-Reusken Kapitel 7 50
53 QR-Verfahren mit Sprektalverschiebung Angenommen, wir hätten eine Annäherung µ λ i eines Eigenwertes λ i der Matrix A zur Verfügung, so daß µ λ i µ λ j für alle j i Seien τ 1 > τ 2 >... > τ n > 0 die Eigenwerte der Matrix A µi, dann ist τ n = λ i µ und τ n τ n 1 1. Algorithmus 7.40 (QR-Algorithmus + Spektralverschiebung). Gegeben: eine nicht reduzierbare Hessenberg-Matrix A R n n. A 0 := A. Für k = 1,2,...: Bestimme µ k 1 R. A k 1 µ k 1 I =: QR (QR-Zerlegung von A k 1 µ k 1 I). A k := RQ + µ k 1 I Dahmen-Reusken Kapitel 7 51
54 Eine geeignete Wahl für den Verschiebungsparameter: µ k 1 = a (k 1) n,n Mit dieser Spektralverschiebung wird das Subdiagonalelement a (k) n,n 1 sehr rasch gegen 0 streben. Im allgemeinen ist die Konvergenzgeschwindigkeit sogar quadratisch. A k = λ i  λ i Der QR-Algorithmus kann dann mit der Matrix  fortgesetzt werden.., Dahmen-Reusken Kapitel 7 52
55 Beispiel Wir betrachten die Matrix A aus Beispiel 7.39 und wenden den QR- Algorithmus 7.40 an, wobei µ k 1 wie oben genommen wird. Sobald das Subdiagonalelement a (k) a 5,4 die Bedingung (k) 5,4 < erfüllt, wird nur noch die 4 4 Matrix links oben weiter bearbeitet. usw. Für k = 17 ergibt sich A 17 = e e e e Dahmen-Reusken Kapitel 7 53
56 Abbildung 7.3. : a (k) 5,4, : a (k) 4,3, : a (k) 3,2, + : a (k) 2, k Dahmen-Reusken Kapitel 7 54
Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009
Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx
MehrEinführung in die Grundlagen der Numerik
Einführung in die Grundlagen der Numerik Institut für Numerische Simulation Rheinische Friedrich-Wilhelms-Universität Bonn Wintersemester 2014/2015 Definition Eigenwertproblem Zu einer Matrix A R n n sind
Mehr20 Kapitel 2: Eigenwertprobleme
20 Kapitel 2: Eigenwertprobleme 2.3 POTENZMETHODE Die Potenzmethode oder Vektoriteration ist eine sehr einfache, aber dennoch effektive Methode zur Bestimmung des betragsmäßig größten Eigenwertes. Um die
MehrBerechnung von Eigenwerten und Eigenvektoren
Kapitel 5 Berechnung von Eigenwerten und Eigenvektoren 5.1 Einführung Bemerkung 5.1 Aufgabenstellung. Diese Kapitel behandelt numerische Verfahren zur Lösung des Eigenwertproblems. Gegeben sei A R n n.
Mehr51 Numerische Berechnung von Eigenwerten und Eigenvektoren
5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,
MehrEigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)
Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein
Mehr5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit
ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem
MehrEigenwertaufgaben. Heinrich Voss. TUHH Heinrich Voss Kapitel / 80.
Heinrich Voss voss@tu-harburg.de Hamburg University of Technology Institute for Numerical Simulation TUHH Heinrich Voss Kapitel 6 2010 1 / 80 Wir betrachten in diesem Kapitel die numerische Behandlung
Mehr8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren
8. Vorlesung, 5. April 2017 170 004 Numerische Methoden I Eigenwerte und Eigenvektoren 1 Eigenwerte und Eigenvektoren Gegeben ist eine n n-matrix A. Gesucht sind ein vom Nullvektor verschiedener Vektor
MehrEigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
Mehr2 EIGENWERTPROBLEME. Av = λv
EIGENWERTPROBLEME Viele numerische Lösungsansätze von z.b. physikalischen Problemen erfordern die Lösung eines sogenannten Eigenwertproblems. Zu einer Matrix A R n n finde man eine Zahl λ C und einen Vektor
Mehr12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen
12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn
MehrKlausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2
Mehr18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1
UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive
MehrEigenwerte und Eigenvektoren
Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte
Mehrund Unterdeterminante
Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,
Mehr6 Die Schursche Normalform und einige Klassen von Matrizen
ME Lineare Algebra HT 28 111 6 Die Schursche Normalform und einige Klassen von Matrizen 61 Die Schur-Normalform und Hauptvektoren Für nichtdiagonalisierbare Matrizen gibt es andere Normalformen: Jordan-
MehrDeterminanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y.
Determinanten Motivation: Man betrachte das lineare Gleichungssystem [ [ [ a b x u = (1) c d y v Sei obda a und c Dann ist (1) äquivalent zu [ [ ca cb x = ac ad y und ferner zu [ [ ca cb x ad cb y Falls
Mehr45 Eigenwerte und Eigenvektoren
45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.
Mehr3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
Mehr46 Eigenwerte und Eigenvektoren symmetrischer Matrizen
46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46.1 Motivation Symmetrische Matrizen (a ij = a ji für alle i, j) kommen in der Praxis besonders häufig vor. Gibt es für sie spezielle Aussagen über
Mehr47 Singulärwertzerlegung
47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar
MehrRückblick auf die letzte Vorlesung
Rückblick auf die letzte Vorlesung Lineare Differentialgleichungen Ausblick auf die heutige Vorlesung Lineare autonome Differentialgleichungen 2 Bestimmung des Fundamentalsystems 3 Jordansche Normalform
MehrLineare Algebra: Determinanten und Eigenwerte
: und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b
MehrSpezielle Matrixformen
Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß
MehrLineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching
Lineare Algebra 12. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 14, 2017 1 Erinnerung: Determinanten, Orthogonale/unitäre Matrizen Sei A R 2 2, dann kann die Inverse
MehrDifferentialgleichungen für Ingenieure WS 06/07
Differentialgleichungen für Ingenieure WS 06/07 6. Vorlesung Michael Karow Themen heute: 1. Die geschlossene Lösungsformel für lineare DGL mit konstanten Koeffizienten. 2. Die Matrixexponentialfunktion
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrErgänzungsmaterial zum Buch Numerik für Ingenieure und Naturwissenschaftler
RHEINISCH-WESTFÄLISCHE TECHNISCHE HOCHSCHULE AACHEN Institut für Geometrie und Praktische Mathematik Ergänzungsmaterial zum Buch Numerik für Ingenieure und Naturwissenschaftler Wolfgang Dahmen und Arnold
MehrEigenwerte, Diagonalisierbarkeit, charakteristisches Polynom
Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse
MehrSysteme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.
Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema
1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und
Mehr6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
MehrKlausur zur Vorlesung Lineare Algebra II, SoSe 2016,
Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren
MehrLineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.
Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren
MehrHauptachsentransformation: Eigenwerte und Eigenvektoren
Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
MehrMathematische Grundlagen
Mathematische Grundlagen 1 / 16 Vektorraum u R n, u = (u 1,..., u n ), u k R Euklidisches Skalarprodukt Euklidische Vektornorm (u, v) = u k v k u 2 = (u, u) = n u 2 k Vektoren u, v R n heißen orthogonal,
Mehr(d) das zu Grunde liegende Problem gut konditioniert ist.
Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt
Mehr3 Lineare Algebra Vektorräume
3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +
Mehra b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,
Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist
MehrOrthogonale Matrix. Definition 4.19
Orthogonale Matrix Ausgleichsprobleme sind häufig schlecht konditioniert. Matrix des Normalengleichungssystems kann nahezu singulär sein. Spezielle Matrixzerlegung für höhere numerische Stabilität: QR-Zerlegung
Mehr1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von
1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von Wachstumsraten Bestimmung von Maximal- und Minimalwerten von
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
MehrHenning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich
Henning Krause Lineare Algebra Julia Sauter SS 27 Klausur 2.9.27 mit Lösungsvorschlag Jan Geuenich Aufgabe (4 Punkte: Sei n N und seien A und B zwei (n n-matrizen über einem Körper K. Wahr Falsch (a Es
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 12
Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=
MehrKLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008
KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008 MUSTERLÖSUNG Name: Studiengang: Aufgabe 1 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter die Aufgabenstellung
MehrMathematik für Physiker, Informatiker und Ingenieure
Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel V SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de
MehrAnleitung zu Blatt 4 Differentialgleichungen I für Studierende der Ingenieurwissenschaften
Fachbereich Mathematik der Universität Hamburg WiSe / Dr Hanna Peywand Kiani 722 Anleitung zu Blatt 4 Differentialgleichungen I für Studierende der Ingenieurwissenschaften Lineare Differentialgleichungssysteme,
MehrMC-Serie 11: Eigenwerte
D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung
MehrD-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den
D-ITET. D-MATL, RW Lineare Algebra HS 7 Dr. V. Gradinaru T. Welti Online-Test Einsendeschluss: Sonntag, den..7 : Uhr Dieser Test dient, seriös bearbeitet, als Repetition des bisherigen Vorlesungsstoffes
MehrÜberbestimmte Gleichungssysteme
Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare
Mehr9. Übungsblatt zur Mathematik I für Maschinenbau
Fachbereich Mathematik Prof. Dr. M. Joswig Dr. habil. Sören Kraußhar Dipl.-Math. Katja Kulas 9. Übungsblatt zur Mathematik I für Maschinenbau Gruppenübung WS /..-4.. Aufgabe G (Koordinatentransformation)
MehrKapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrMathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))
Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 18 Vielfachheiten und diagonalisierbare Abbildungen Satz 18.1. Es sei K ein Körper und es sei V ein endlichdimensionaler K- Vektorraum.
MehrLösbarkeit linearer Gleichungssysteme
Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn
MehrKAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit.
KAPITEL 8 Normalformen Definition 8.1 (Blockmatrizen). Sind 1. Blockmatrizen A K m 1 n 1,B K m 1 n 2,C K m 2 n 1 und D K m 2 n 2 so nennet man die Matrix X = ( A B C D ) K (m 1+m 2 ) (n 1 +n 2 ) eine Blockmatrix
MehrKAPITEL 5. Nichtlineare Gleichungssysteme
KAPITEL 5. Nichtlineare Gleichungssysteme Beispiel 5.1. Gravitationskraft zwischen zwei Punktmassen m 1 und m 2 mit gegenseitigem Abstand r: F = G m 1m 2 r 2, wobei G = 6.67 10 11 Nm 2 /kg. Gravitationsfeld
MehrKapitel 1. Vektoren und Matrizen. 1.1 Vektoren
Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren
Mehr7.2 Die adjungierte Abbildung
7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)
MehrLösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016
Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b
MehrSerie 12: Eigenwerte und Eigenvektoren
D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie : Eigenwerte und Eigenvektoren Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom 7 und 9 Dezember Finden Sie für folgende
Mehrd) Produkte orthogonaler Matrizen sind wieder orthogonal.
Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =
MehrDas QZ-Verfahren. vorgelegt von Janina Gnutzmann. Erstgutachter: Prof. Dr. Steffen Börm Zweitgutachter: Dipl.-Math.
Das QZ-Verfahren Bachelor-Arbeit im 1-Fach Bachelorstudiengang Mathematik der Mathematisch-Naturwissenschaftlichen Fakultät der Christian-Albrechts-Universität zu Kiel vorgelegt von Janina Gnutzmann Erstgutachter:
MehrAussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013
Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert
MehrVorlesung, 26. Mai 2011, Inhalt. Eigenwerte und Eigenvektoren. Gewöhnliche Differentialgleichungen
Vorlesung, 26. Mai 2011, Inhalt Eigenwerte und Eigenvektoren Gewöhnliche Differentialgleichungen 1 Eigenwerte und Eigenvektoren Es sei A eine n n-matrix, x ein vom Nullvektor verschiedener Vektor und λ
MehrAussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9
Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert
MehrAUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW
AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW Lineare Gleichungssysteme Lösen Sie folgende Gleichungssysteme über R: a) x + x + x = 6x + x + x = 4 x x x = x 7x x = 7 x x = b) x + x 4x + x 4 = 9 x + 9x x x
MehrLösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink
Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung
MehrKlausur zur Vordiplom-Prüfung
Technische Universität Hamburg-Harburg SS 25 Arbeitsbereich Mathematik Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren 22. Juli 25 Sie haben 9 Minuten Zeit zum Bearbeiten der
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
Mehr5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21
5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11
MehrLineare Algebra für Physiker 11. Übungsblatt
Lineare Algebra für Physiker 11. Übungsblatt Fachbereich Mathematik SS 01 Prof. Dr. Matthias Schneider./. Juli 01 Dr. Silke Horn Dipl.-Math. Dominik Kremer Gruppenübung Aufgabe G1 (Minitest) (a) Welche
MehrLineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
MehrEigenwerte (Teschl/Teschl 14.2)
Eigenwerte (Teschl/Teschl 4.2 Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =
Mehr3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
MehrL7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert
L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors
MehrKLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.
MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw
MehrRechenaufwand der LR- und LDL T - Zerlegung
6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für
MehrLineare Algebra. 13. Übungsstunde. Steven Battilana.
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch January 2, 27 Erinnerung Berechnung von Eigenwerten und Eigenvektoren Gegeben: A E n n (falls F : V V lineare Abbildung gegeben ist,
MehrMethode der kleinsten Quadrate
Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,
MehrHöhere Mathematik für die Fachrichtung Physik
Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Michael Hott, M. Sc. WS 5/.. Höhere Mathematik für die Fachrichtung Physik Lösungsvorschläge zum 4. Übungsblatt Aufgabe
MehrKapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung
Kapitel 2: Matrizen 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung 2.1 Matrizen M = n = 3 m = 3 n = m quadratisch M ij : Eintrag von M in i-ter
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der
MehrDer CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
MehrKLAUSUR. Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.:
KLAUSUR Lineare Algebra (E-Techniker/Mechatroniker/W-Ingenieure/Informatiker).3. (W. Koepf) Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.: Für jede Aufgabe gibt es Punkte. Zum Bestehen der Klausur
MehrÖkonometrische Analyse
Institut für Statistik und Ökonometrie, Freie Universität Berlin Ökonometrische Analyse Dieter Nautz, Gunda-Alexandra Detmers Rechenregeln für Matrizen Notation und Matrixeigenschaften: Eine Matrix A der
MehrAussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016
Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert
MehrD-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 011 Tom Ilmanen. Musterlösung 12. a ij = v i,av j (A ist symmetrisch) = Av i,v j
D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 0 Tom Ilmanen Musterlösung 2. Falls b := (v,,v n ) eine Orthonormalbasis von V ist, dann lassen sich die Komponenten von einem Vektor v = n i= t i v i bezüglich
MehrLineare Algebra II 3. Übungsblatt
Lineare Algebra II 3. Übungsblatt Fachbereich Mathematik SS 2011 Prof. Dr. Kollross 27./28. April 2011 Susanne Kürsten Tristan Alex Minitest Aufgabe M1 (Formale Polynome) Betrachten Sie die folgenden Polynome
MehrErweiterte Koordinaten
Erweiterte Koordinaten Sei K n ein n dimensionaler affiner Raum Die erweiterten Koordinaten des Punktes x x n K n sind x x n Kn+ (Das ist für alle K sinnvoll, weil in jedem Körper K wohldefiniert ist In
Mehr1 Einstimmung 2. 2 Allgemeine Eigenwertprobleme Berechnung von Eigenwerten und Eigenvektoren Wichtige Eigenschaften...
Wirtschaftswissenschaftliches Zentrum 4 Universität Basel Mathematik 2 Dr Thomas Zehrt Eigenwerte und Eigenvektoren Inhaltsverzeichnis Einstimmung 2 2 Allgemeine Eigenwertprobleme 5 2 Berechnung von Eigenwerten
Mehr5 Lineare Gleichungssysteme und Determinanten
5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von
MehrBegleitmaterial zur Vorlesung Numerik I
Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik
Mehr4 Lineare Abbildungen Basisdarstellungen
4 Lineare Abbildungen Basisdarstellungen (4.1) Seien V,W endlich dimensionale K-Vektorräume, und sei T : V W linear. Sei {v 1,...,v } Basis von V und {w 1,...,w M } Basis von W. Sei T (v j ) = M a kj w
Mehr1 Die Jordansche Normalform
Matthias Tischler Karolina Stoiber Ferienkurs Lineare Algebra für Physiker WS 4/5 A Die Jordansche Normalform Vierter Tag (9.03.205) Im Zusammenhang mit der Lösung komplexer Differentialgleichungssysteme
Mehr9 Lineare Gleichungssysteme
9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der
Mehr