KAPITEL 7. Berechnung von Eigenwerten. Av = λv

Größe: px
Ab Seite anzeigen:

Download "KAPITEL 7. Berechnung von Eigenwerten. Av = λv"

Transkript

1 KAPITEL 7. Berechnung von Eigenwerten Aufgabe: Sei A R n n eine reelle quadratische Matrix. Gesucht λ C und v C n, v 0, die der Eigenwertgleichung Av = λv genügen. Die Zahl λ heißt Eigenwert und der Vektor v Eigenvektor zum Eigenwert λ. Die Skalierung von v ist frei wählbar. Die Aufgabe: gesucht (λ, v), so daß Av λv = 0, v = 1 ist nichtlinear in den Unbekannten (λ, v). Dahmen-Reusken Kapitel 7 1

2 Beispiel 7.1. Gesucht die Zahl λ und die Funktion u(x), die die Differentialgleichung mit den Randbedingungen u (x) λr(x)u(x) = 0, x (0,1), u(0) = u(1) = 0 erfüllen. Hierbei ist r > 0 eine bekannte stetige Funktion. Wir betrachten dazu Gitterpunkte x j = jh, j = 0,..., n, h = 1 n, und ersetzen u (x j ) durch die Differenz u(x j + h) 2u(x j ) + u(x j h) h 2, j = 1,2,..., n 1. Dahmen-Reusken Kapitel 7 2

3 Es ergibt sich ein Gleichungssystem Au λru = 0 für die Unbekannten λ und u i u(x i ), i = 1,2,..., n 1, wobei A = 1 h 2 Sei , R = r(x 1 ) r(x 2 )... r(x n 1 ) R 1/2 = diag( r(x 1 ),..., r(x n 1 )), R 1/2 := (R 1/2 ) 1, v := R 1/2 u, B := R 1/2 AR 1/2. Man erhält die transformierte Gleichung also ein Eigenwertproblem. Bv = λv,. Dahmen-Reusken Kapitel 7 3

4 Beispiel 7.3. Ein System linearer gekoppelter gewöhnlicher Differentialgleichungen: wobei z = z(t), t [0, T]. z = Az + b, z(0) = z 0, Annahmen: A R n n und b R n hängen nicht von t ab und A ist diagonalisierbar: Av i = λ i v i, i = 1,2,..., n. Sei Λ = diag(λ 1,..., λ n ), V = (v 1 v 2... v n ), und damit AV = V Λ. Dahmen-Reusken Kapitel 7 4

5 So erhält man aus V 1 z = V 1 AV V 1 z + V 1 b, y := V 1 z, c := V 1 b das System y = Λy + c von entkoppelten skalaren Gleichungen der Form y i = λ iy i + c i, i = 1,2,..., n. Hier ergibt sich einfach die Lösung y i (t) = z 0 i eλ it + c i λ i ( e λ i t 1 ), wobei z 0 i := ( V 1 z 0) i. Dahmen-Reusken Kapitel 7 5

6 7.2 Einige theoretische Grundlagen Lemma 7.4. λ ist ein Eigenwert von A genau dann, wenn det(a λi) = 0. Beweis: Av = λv (A λi)v = 0 (v 0). Somit ist die Matrix A λi singulär. Letzteres ist zu det(a λi) = 0 äquivalent. Deshalb: Berechnung der Eigenwerte Bestimmung der Nullstellen des charakteristischen Polynoms := det(a λi). Der Weg über die Nullstellen ist im allgemeinen ein untaugliches Vorgehen und nur für sehr kleine n akzeptabel. Dahmen-Reusken Kapitel 7 6

7 Beispiel 7.5. A = I hat Eigenwerte λ i = 1 und Eigenvektoren v i = e i, i = 1,..., n. Das Eigenwertproblem Ax = λx ist gut konditioniert (Satz 7.17): Sei µ ein Eigenwert der Matrix A + E, wobei E mit E 2 ǫ eine Störung der Matrix A ist. Dann gilt die Abschätzung 1 µ ǫ. Das charakteristische Polynom p(λ) := det(a λi): n p(λ) = (1 λ) n = ( n) ( λ) k k k=0 = ( n) ( n) ( n) λ + λ 2 ( n) λ ( 1) n( n) λ n n Dahmen-Reusken Kapitel 7 7

8 Bei einer (kleinen) Störung ǫ > 0 des Koeffizienten ( ) n 0 = 1 erhält man das gestörte Polynom p ǫ (λ) = 1 ǫ ( n) ( n) λ + λ 2 ( n) λ ( 1) n ( n) λ n n = p(λ) ǫ mit den Nullstellen p ǫ ( λ) = 0 (1 λ) n ǫ = 0 λ = 1 + ǫ 1/n (falls n ungerade) oder λ = 1 ± ǫ 1/n (falls n gerade). Dahmen-Reusken Kapitel 7 8

9 Die Menge aller paarweise verschiedenen Eigenwerte σ(a) = { λ C det(a λi) = 0 } bezeichnet man als das Spektrum von A. Matrizen A und B heißen ähnlich, falls es eine nichtsinguläre Matrix T gibt, so daß gilt. B = T 1 AT Lemma 7.6. Ähnliche Matrizen haben das gleiche Spektrum: für beliebiges nichtsinguläres T. Beweis σ(a) = σ(t 1 AT) det(t 1 AT λi) = det(t 1 (A λi)t) = det(t 1 )det(a λi)det(t) = det(a λi). Dahmen-Reusken Kapitel 7 9

10 Schur-Faktorisierung Satz 7.7 (Komplexe Schur-Faktorisierung) Zu jeder Matrix A C n n gibt es eine unitäre Matrix Q C n n, so daß Q AQ = λ 1 λ gilt. Dabei ist {λ 1,..., λ n } = σ(a). λ n =: R Dahmen-Reusken Kapitel 7 10

11 Satz 7.8 (Reelle Schur-Faktorisierung) Zu jeder Matrix A R n n gibt es eine orthogonale Matrix Q R n n, so daß Q T AQ = R 11 R R mm =: R gilt. Dabei sind alle Matrizen R ii (i = 1,..., m) reell und besitzen entweder die Ordnung eins (d.h. R ii R) oder die Ordnung zwei (d.h. R ii R 2 2 ). Im letzten Fall hat R ii ein Paar von konjugiert komplexen Eigenwerten. Die Menge aller Eigenwerte der Matrizen R ii (i = 1,..., m) ist gerade das Spektrum der Matrix A.

12 R n n Folgerung Jede reelle symmetrische Matrix A läßt sich mittels einer orthogonalen Matrix Q ähnlich auf eine Diagonalmatrix D transformieren: Q 1 AQ = D = diag(λ 1,..., λ n ). A besitzt somit nur reelle Eigenwerte und n linear unabhängige zueinander orthogonale Eigenvektoren (nämlich die Spalten von Q). Dahmen-Reusken Kapitel 7 11

13 7.3 Eigenwertabschätzungen Eigenschaften Seien A, B R n n. Dann gilt (i) Falls A nichtsingulär: (ii) λ σ(a) = λ σ(a), (iii) σ(a) = σ(a T ), (iv) σ(ab) = σ(ba). λ σ(a) λ 1 σ(a 1 ), Satz Für alle λ σ(a) gilt λ A. Dahmen-Reusken Kapitel 7 12

14 Satz Seien K i := { z C z a i,i j i a i,j }, i = 1,2,..., n, die sogenannten Gerschgorin-Kreise. Dann gilt, daß alle Eigenwerte von A in der Vereinigung aller dieser Kreise liegen: σ(a) ( n i=1 K i). Folgerung Seien Ki T die Gerschgorin-Kreise für A T : Ki T := { z C z a i,i a j,i }, i = 1,2,..., n, j i dann folgt aus Eigenschaft 7.11 (iii) und Satz 7.13: σ(a) ( ( n i=1 K i) ( n i=1 KT i )). Falls A symmetrisch ist, sind alle Eigenwerte reell, also gilt: σ(a) ( n i=1 (K i R) ). Dahmen-Reusken Kapitel 7 13

15 Beispiel Die Matrix A = hat das Spektrum σ(a) = {3.43 ± 0.14i, 1.86}. Die Gerschgorin-Kreise sind in Abb.7.1 dargestellt. Die Matrix A = hat das Spektrum σ(a) = {1.27, 3.00, 4.73}. Die Gerschgorin-Kreise liefern σ(a) ([1,3] [1,5] [3,5]), also σ(a) [1, 5]. Dahmen-Reusken Kapitel 7 14

16 σ(a) ( 3 i=1 K i ) : Abbildung 7.1. σ(a) ( 3 i=1 K T i ) : 2i.. 2i K3 T. K. K.... i.. i K K2 T K1 T σ(a) (( 3 2i i=1 K i ) ( 3 i=1 K i K T K T K T i )) : Dahmen-Reusken Kapitel 7 15

17 7.4 Kondition des Eigenwertproblems Satz Sei A R n n eine diagonalisierbare Matrix: V 1 AV = diag(λ 1,..., λ n ). Sei µ ein Eigenwert der gestörten Matrix A + E, dann gilt mit p = 1,2,. min λ i µ V p V 1 p E p, 1 i n Beachte: die absolute Kondition der Eigenwerte hängt von der Konditionszahl κ p (V ) V p V 1 p der Eigenvektormatrix V ab und nicht von der Konditionszahl der Matrix A. Dahmen-Reusken Kapitel 7 16

18 Für eine symmetrische Matrix ist das Problem der Bestimmung der Eigenwerte immer gut konditioniert: Satz Sei A R n n eine symmetrische Matrix und µ ein Eigenwert der gestörten Matrix A + E. Dann gilt min λ i µ E 2. 1 i n Dahmen-Reusken Kapitel 7 17

19 Für nichtsymmetrische Matrizen kann das Problem der Eigenwertbestimmung schlecht konditioniert sein, obgleich A selbst eine moderate Konditionszahl hat. Beispiel Sei A = ( ) 1 1 α 2, 0 < α 1 1 2, mit Eigenwerten und zugehörigen Eigenvektoren ( ) λ 1 = 1 α, v 1 1 =, λ α 2 = 1 + α, v 2 = Es gilt V 1 AV = ( λ1 0 0 λ 2 ) mit V = ( ) 1 1. α α ( ) 1. α κ 2 (A) = A 2 A α 2, κ 2(V ) = V 2 V 1 2 = 1 α. Dahmen-Reusken Kapitel 7 18

20 Sei E = ( 0 0 α 3 (2 + α) 0 ). Die gestörte Matrix hat Eigenwerte A + E = ( 1 1 α 2 (1 + α) 2 1 ) µ 1 = 1 α(1 + α) = λ 1 α 2, µ 2 = 1 + α(1 + α) = λ 2 + α 2, also gilt µ i λ i = α 2 = 1 α 3 (2 + α) 2 + α α = α κ 2(V ) E 2. Dahmen-Reusken Kapitel 7 19

21 7.5 Vektoriteration Sei A diagonalisierbar, d.h., es existiert eine Basis aus Eigenvektoren von A: v 1, v 2,..., v n C n. Diese Vektoren v i werden so skaliert, daß v i 2 = 1, i = 1,..., n, gilt. Außerdem nehmen wir an: λ 1 > λ 2 λ 3... λ n. Ein beliebiger Startvektor x 0 R n läßt sich darstellen als x 0 = c 1 v 1 + c 2 v c n v n. Wir nehmen ferner an, daß x 0 so gewählt ist, daß c 1 0. Dahmen-Reusken Kapitel 7 20

22 Wendet man eine k-te Potenz von A auf x 0 an, ergibt sich A k x 0 = n j=1 c j A k v j = n j=1 c j λ k j vj. wobei x k := A k x 0 = λ k 1{ c1 v 1 + r k 2 = O n j=2 ( λ 2 λ 1 ( λj λ 1 ) k c j v j} =: λ k 1( c1 v 1 + r k), k ) (k ). Folglich strebt x k = A k x 0 in die Richtung des Vektors v 1 : α k x k = v 1 + c 1 1 rk mit α k := (λ k 1 c 1) 1. Dahmen-Reusken Kapitel 7 21

23 Für die Annäherung des betragsmäßig größten Eigenwertes λ 1 kann man nun verwenden. Es gilt also λ (k) = (xk ) T Ax k x k 2 2 λ (k) (α = λ k x k ) T (α k+1 x k+1 ) 1 α k x k 2 2 = λ O( 1 + O( λ 2 k λ ) 1 λ 2 = (xk ) T x k+1 x k 2 2 ( λ = λ k O( 2 k ) ), λ ) λ 1 1 = λ 1 (v 1 + c 1 1 rk ) T (v 1 + c 1 1 rk+1 ) v 1 + c 1 1 rk 2 2 λ (k) λ 1 = O ( λ 2 k ). λ 1 Dahmen-Reusken Kapitel 7 22

24 Bemerkung Falls A symmetrisch ist, sind die Eigenvektoren v i orthogonal. Man kann zeigen, daß sogar gilt. λ (k) λ 1 = O ( λ 2 2k ) λ 1 Dahmen-Reusken Kapitel 7 23

25 Da x k 2, falls λ 1 > 1, und x k 2 0 falls λ 1 < 1, ist es zweckmäßig, die Iterierten x k zu skalieren. Insgesamt ergibt sich folgender Algorithmus 7.20 (Vektoriteration/Potenzmethode) Wähle Startvektor y 0 mit y 0 2 = 1. Für k = 0,1,2,... berechne ỹ k+1 = Ay k λ (k) = (y k ) T ỹ k+1 y k+1 = ỹ k+1/ ỹ k+1 2. Mit x 0 := y 0 kann man über Induktion einfach zeigen, daß gilt. y k = xk x k 2 = Ak x 0 A k x 0 2 Dahmen-Reusken Kapitel 7 24

26 Beispiel A = hat das Spektrum σ(a) = {5,8,6, 4 2}, also λ 1 = 8, λ 2 λ 1 = 3 4. k λ (k) λ 1 λ (k) λ 1 λ (k 1) λ Dahmen-Reusken Kapitel 7 25

27 Beispiel Wir betrachten die symmetrische Matrix A = mit dem Spektrum σ(a) = {3,9, 36}, also k λ (k) λ 1 λ 1 = 36, λ 2 λ 1 = 1 4. λ (k) λ 1 λ (k 1) λ 1 q k = λ(k) λ (k 1) λ (k 1) λ (k 2) q k 1 q k (λ (k) λ (k 1) ) e e e e e e e e e e 6 Dahmen-Reusken Kapitel 7 26

28 Beispiel Wir betrachten das Eigenwertproblem in Beispiel 7.1 mit R = I, also Ax = λx, (A R (n 1) (n 1) wie in (7.3)). Für die Matrix A ist eine explizite Formel für die Eigenwerte bekannt: Wegen λ n k = 4 h 2 sin2 ( 1 2 kπh), k = 1,2,..., n 1, h := 1 n. λ 2 λ 1 = π2 h 2 + O(h 4 ) ewartet man langsame Konvergenz λ (k) λ 1 für h 1. Für h = 1 30 : k λ (k) λ 1 λ (k) λ 1 λ (k 1) λ e e e e e Dahmen-Reusken Kapitel 7 27

29 7.6 Inverse Vektoriteration Angenommen, wir hätten eine Annäherung µ λ i eines beliebigen Eigenwertes λ i der Matrix A zur Verfügung, so daß µ λ i < µ λ j für alle j i. Zur Berechnung von (λ i µ) 1, und damit von λ i, kann man die Vektoriteration auf (A µi) 1 anwenden: Algorithmus 7.24.(Inverse Vektoriteration mit Spektralverschiebung) Wähle Startvektor y 0 mit y 0 2 = 1. Für k = 0,1,2,... : Löse (A µi)ỹ k+1 = y k λ (k) := 1 (y k ) T ỹ k+1 + µ y k+1 := ỹ k+1/ ỹ k+1 2. Dahmen-Reusken Kapitel 7 28

30 Es gilt: λ (k) := 1 (y k ) T ỹ k+1 + µ λ i für k. Die Konvergenzgeschwindigkeit wird durch das Verhältnis zwischen 1 λ i µ und dem betragsmäßig zweitgrößten Eigenwert von (A µi) 1, also durch den Faktor max j i 1 λ j µ 1 λ i µ = bestimmt. Hieraus schließen wir: 1 min j i λ j µ 1 λ i µ = λ i µ min j i λj µ Ist µ eine besonders gute Schätzung von λ i, so gilt λ i µ min j i λj µ 1, das Verfahren konvergiert in diesem Fall sehr rasch. Dahmen-Reusken Kapitel 7 29

31 Beispiel Wir betrachten die Matrix aus Beispiel 7.21 und wenden zur Berechnung des Eigenwerts λ 4 = 4 den Algorithmus 7.24 mit µ = 3.5 und y 0 = 1 (1,1,1,1,1) T an. 5 Resultate: k λ (k) λ 4 λ (k) λ 4 λ (k 1) λ e e e e e e Für den theoretischen Konvergenzfaktor ergibt sich λ 4 µ min j 4 λj µ = λ min j 4 λj = = 1 3. Dahmen-Reusken Kapitel 7 30

32 Für die inverse Vektoriteration, wobei man den Parameter µ nach jedem Schritt auf die jeweils aktuellste Annäherung λ (k) von λ 4 = 4 setzt, µ 0 := 3.5, µ k = λ (k 1) für k 1, ist die Konvergenz viel schneller: k λ (k) λ 4 λ (k) λ 4 λ (k 1) λ 4 2 λ (k) λ (k 1) e e e e e e e e e e e Die Konvergenzgeschwindigkeit ist nun quadratisch statt linear. In der vierten Spalte kann man sehen, daß die Fehlerschätzung λ (k) λ λ 1 (k) λ (k+1) befriedigend ist. Dahmen-Reusken Kapitel 7 31

33 7.7 QR-Verfahren Der QR-Algorithmus ist eng mit der sogenannten Unterraumiteration verwandt. Letztere Methode, die sich als Verallgemeinerung der Vektoriteration interpretieren läßt, wird erst behandelt. Algorithmus 7.26 (Stabile Unterraumiteration) Wähle eine orthogonale Startmatrix Q 0 R n n. Für k = 0,1,2,... berechne B = AQ k, eine QR-Zerlegung von B: B =: Q k+1 R k+1, mit Q k+1 orthogonal und R k+1 eine obere Dreiecks-matrix. Notation: Q k = (q 1 k q2 k... qn k ) und V j = v 1,..., v j, 1 j n, der von den Eigenvektoren v 1,..., v j aufgespannte Unterraum. Dahmen-Reusken Kapitel 7 32

34 Sei S j k := Ak q 1 0, Ak q 2 0,..., Ak q j 0 = Bild Ak (q 1 0 q qj 0 ). Nun kann man den Zusammenhang der Räume S j k zu den Q k herstellen, indem man per Induktion zeigt, daß gilt. Für x S j k sei Man kann zeigen: q 1 k, q2 k,..., qj k = Sj k d(v j, x) := min v V j v x 2 d(v j, S j k ) := max { d(v j, x) x S j k, x 2 = 1 }. d(v j, S j k ) = O( λ j+1 λ j k ), k für j = 1,2,..., n 1. Dahmen-Reusken Kapitel 7 33

35 Für die j-te Spalte q j k der Matrix Q k ergibt sich, wegen q j k Sj k V j (k ): und somit q j k = j l=1 α l v l + e k, mit e k 0 (k ), = Wegen S j k V j: Aq j j k = α l Av l + ẽ k (ẽ k := Ae k ) l=1 j l=1 α l λ l v l + ẽ k mit ẽ k 0 (k ). Aq j j k = β l,k qk l + ê k, mit ê k 0 (k ). l=1 Dahmen-Reusken Kapitel 7 34

36 Für i > j erhält man, wegen der Orthogonalität (q i k )T q l k = 0, i l: (q i k )T Aq j k = (qi k )T ê k 0 (k ). Hieraus folgt: Die Folge Q T k AQ k konvergiert für k gegen eine obere Dreiecksmatrix. Dahmen-Reusken Kapitel 7 35

37 Zusammenfassend Sei {Q k } k 0 die Folge orthogonaler Matrizen aus der Unterraumiteration, und A k := Q T k AQ k. Es gilt: σ(a k ) = σ(a) für alle k. Q T k AQ k = A k R = ( ) (k ). Die Diagonaleinträge der Matrix A k sind Annäherungen für die Eigenwerte der Matrix A. Es gilt r i,i = λ i, i = 1,..., n, d.h., die Eigenwerte stehen nach Größe sortiert auf der Diagonale von R. Für k streben die Fehler in diesen Annäherungen gegen 0, wobei die Konvergenzgeschwindigkeit durch die Faktoren λ j+1, λ j j = 1,2,..., n 1, bestimmt ist. Dahmen-Reusken Kapitel 7 36

38 Beispiel Sei A = 1 2 0, mit Eigenwerten λ 1 = 3, λ 2 = 2, λ 3 = 1 und Q die Startmatrix wie in (7.45). Resultate der Unterraumiteration: A 1 = , A 5 = A 15 = ,. und σ(a) = σ(a 1 ) = σ(a 5 ) = σ(a 15 ) diag(a 15 ) = {3.00,2.00,1.00}. Dahmen-Reusken Kapitel 7 37

39 Bemerkung Da wir in diesem Abschnitt annehmen, daß die Matrix A nur einfache Eigenwerte besitzt, hat die reelle Schur-Faktorisierung von A die Form Q T AQ = R, Aus der oben diskutierten Analyse der Unterraumiteration folgt, daß diese Methode eine Folge Q k, k = 0,1,2,..., von orthogonalen Matrizen mit der Eigenschaft Q T k AQ k = A k R liefert, wobei R eine obere Dreiecksmatrix ist. Offensichtlich ergibt die Unterraumiteration eine näherungsweise Konstruktion der reellen Schur-Faktorisierung. Dahmen-Reusken Kapitel 7 38

40 7.7.2 QR-Algorithmus Die über die Unterraumiteration definierten Matrizen A k können einfach rekursiv (d.h. A k aus A k 1 ) berechnet werden. Lemma Sei à 0 := Q T 0 AQ 0, wobei Q 0 die in Algorithmus 7.26 gewählte orthogonale Startmatrix ist, und sei à k, k = 1,2,..., definiert durch à k 1 =: QR (die QR-Zerlegung von à k 1, mit r i,i 0) à k Dann gilt := RQ. à k = A k, k = 0,1,2,..., wobei A k = Q T k AQ k die in (7.51) definierte Matrix ist. Dahmen-Reusken Kapitel 7 39

41 Aufgrund von Lemma 7.32 läßt sich folgende einfache Methode zur Berechnung der Matrizen A k = Q T k AQ k, k = 1,2,..., formulieren: Algorithmus 7.33 (QR-Algorithmus) Gegeben: A R n n und eine orthogonale Matrix Q 0 R n n (z.b. Q 0 = I). Berechne A 0 = Q T 0 AQ 0. Für k = 1,2,... berechne A k 1 =: QR (QR-Zerlegung von A k 1 ) A k := RQ. Dahmen-Reusken Kapitel 7 40

42 Beispiel Für die symmetrische Matrix A aus Beispiel mit σ(a) = {3,9, 36} liefert der QR-Algorithmus mit Q 0 = I folgende Resultate: A 3 = , A 6 = Für die Matrix A aus Beispiel 7.9 mit σ(a) = {9,27 + 9i,27 9i} ergeben sich mit Q 0 = I folgende Resultate: A 3 = , A6 = , ) ( Der 2 2-Diagonalblock Eigenwerte ± 8.993i. der Matrix A 6 hat die Dahmen-Reusken Kapitel 7 41

43 Bemerkungen Die Konvergenz des QR-Verfahrens wird sehr langsam sein, falls es ein j gibt, für das λ j+1 λ 1 gilt. j Der Aufwand pro Schritt beim QR-Verfahren ist erheblich, da man jedes mal die QR-Zerlegung einer n n-matrix (z.b. mit Householder-Spiegelungen) und das Produkt RQ berechnen muß. Der Aufwand pro Iteration ist i.a. O(n 3 ) Multiplikationen/Divisionen. Der QR-Algorithmus 7.33 ist daher im allgemeinen kein effizientes Verfahren! Dahmen-Reusken Kapitel 7 42

44 7.7.3 Praktische Durchführung des QR-Algorithmus Transformation auf Hessenbergform Eine Matrix B R n n heißt obere Hessenberg-Matrix, falls B die Gestalt hat. B = In Beispiel 7.35 wird gezeigt, wie man eine Matrix A über eine orthogonale Ähnlichkeitstransformation, d.h. Q T AQ, mit Q orthogonal auf obere Hessenbergform bringen kann. Dahmen-Reusken Kapitel 7 43

45 Beispiel Sei die Matrix gegeben. Man setze und v 1 := A = Q 1 := , Q v 1 := I 2 v1 (v 1 ) T (v 1 ) T v 1 R Q v 1. Dahmen-Reusken Kapitel 7 44

46 Dann ergibt sich Q 1 A = Bei der Multiplikation von Q 1 A mit Q 1 bleiben die Null-Einträge in der ersten Spalte erhalten: Ã := Q 1 AQ 1 =

47 Sei und v 2 := ( ) 12 5 Dann ergibt sich + 13 Q 2 Ã = ( ) 1 0 = Q 2 := Â := Q 2 ÃQ 2 = ( ) 25, Q 5 v 2 := I 2 v2 (v 2 ) T (v 2 ) T v 2 R2 2, Qv , Dahmen-Reusken Kapitel 7 45

48 Sei Q = Q 1 Q 2, also Q T = Q T 2 QT 1 = Q 2Q 1, dann gilt Q T AQ = Q 2 Q 1 AQ 1 Q 2 = Â, wobei  eine obere Hessenberg-Matrix ist. Man kann eine Matrix A R n n durch Householder- Transformationen auf eine zu A ähnliche Matrix mit oberer Hessenberggestalt bringen. Rechenaufwand Der Rechenaufwand der Ähnlichkeitstransformation auf Hessenbergform über Householder-Transformationen ist etwa 5 3 n3 Operationen. Dahmen-Reusken Kapitel 7 46

49 Wir nehmen im weiteren an, daß A eine nicht-reduzierbare obere Hessenberg-Matrix ist. Wenn A eine nicht-reduzierbare obere Hessenbergmatrix ist, kann man die Identität als Anfangsmatrix bei der Unterraumiteration (also auch beim QR-Algorithmus) nehmen. Das folgende Resultat zeigt, daß im QR-Algorithmus die obere Hessenberggestalt erhalten bleibt. Lemma Sei A k 1 R n n eine obere Hessenberg-Matrix und A k 1 := QR (QR-Zerlegung von A k 1 ) A k := RQ der Iterationsschritt im QR-Algorithmus 7.33, dann ist auch A k eine obere Hessenberg-Matrix. Dahmen-Reusken Kapitel 7 47

50 Aufgrund dieses Ergebnisses ergibt sich als zweiter Vorteil der Transformation auf Hessenberggestalt eine starke Reduktion des Rechenaufwandes: Bemerkung Dadurch, daß man beim QR-Algorithmus in einer Vorbearbeitungsphase die Matrix auf obere Hessenbergform bringt, braucht man nur die QR-Zerlegung einer Hessenberg-Matrix A k 1 zu berechnen. Falls man dazu Givens-Rotationen verwendet, ist der Aufwand für die Berechnung A k 1 =: QR, A k := RQ nur O(n 2 ) Operationen. Falls A symmetrisch ist, ist dieser Aufwand nur O(n) Operationen. Dahmen-Reusken Kapitel 7 48

51 Wegen der oberen Hessenberggestalt der Matrizen A k zeigt das Konvergenzverhalten der Subdiagonalelemente a (k) i+1,i 0 für k (i = 1,2,... n 1) gerade die Konvergenzgeschwindigkeit. Wir betrachten die Matrix A = A 0 = Die Matrizen A k, k 1 haben dann alle eine obere Hessenberg-Gestalt. In Abb.7.2 wird die Größe der Einträge a (k) i+1,i (i = 1,2,3,4) für k = 0,1,2,...,20 dargestellt. Für k = 20 ergibt sich das Resultat: σ(a) = σ(a 20 ) {14.15, 9.53, 5.16, 1.50, 0.34}. Dahmen-Reusken Kapitel 7 49

52 Abbildung 7.2. : a (k) 5,4, : a (k) 4,3, : a (k) 3,2, + : a (k) 2, k a (k) 2,1 a (k) 4,3 c 1 (0.67) k c 1 λ 2 c 3 (0.29) k c 3 λ 4 k, λ 1 k, λ 3 a (k) 3,2 a (k) 5,4 c 2 (0.54) k c 2 λ 3 c 4 (0.22) k c 5 λ 5 k, λ 2 k. λ 4 Dahmen-Reusken Kapitel 7 50

53 QR-Verfahren mit Sprektalverschiebung Angenommen, wir hätten eine Annäherung µ λ i eines Eigenwertes λ i der Matrix A zur Verfügung, so daß µ λ i µ λ j für alle j i Seien τ 1 > τ 2 >... > τ n > 0 die Eigenwerte der Matrix A µi, dann ist τ n = λ i µ und τ n τ n 1 1. Algorithmus 7.40 (QR-Algorithmus + Spektralverschiebung). Gegeben: eine nicht reduzierbare Hessenberg-Matrix A R n n. A 0 := A. Für k = 1,2,...: Bestimme µ k 1 R. A k 1 µ k 1 I =: QR (QR-Zerlegung von A k 1 µ k 1 I). A k := RQ + µ k 1 I Dahmen-Reusken Kapitel 7 51

54 Eine geeignete Wahl für den Verschiebungsparameter: µ k 1 = a (k 1) n,n Mit dieser Spektralverschiebung wird das Subdiagonalelement a (k) n,n 1 sehr rasch gegen 0 streben. Im allgemeinen ist die Konvergenzgeschwindigkeit sogar quadratisch. A k = λ i  λ i Der QR-Algorithmus kann dann mit der Matrix  fortgesetzt werden.., Dahmen-Reusken Kapitel 7 52

55 Beispiel Wir betrachten die Matrix A aus Beispiel 7.39 und wenden den QR- Algorithmus 7.40 an, wobei µ k 1 wie oben genommen wird. Sobald das Subdiagonalelement a (k) a 5,4 die Bedingung (k) 5,4 < erfüllt, wird nur noch die 4 4 Matrix links oben weiter bearbeitet. usw. Für k = 17 ergibt sich A 17 = e e e e Dahmen-Reusken Kapitel 7 53

56 Abbildung 7.3. : a (k) 5,4, : a (k) 4,3, : a (k) 3,2, + : a (k) 2, k Dahmen-Reusken Kapitel 7 54

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009 Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx

Mehr

Einführung in die Grundlagen der Numerik

Einführung in die Grundlagen der Numerik Einführung in die Grundlagen der Numerik Institut für Numerische Simulation Rheinische Friedrich-Wilhelms-Universität Bonn Wintersemester 2014/2015 Definition Eigenwertproblem Zu einer Matrix A R n n sind

Mehr

20 Kapitel 2: Eigenwertprobleme

20 Kapitel 2: Eigenwertprobleme 20 Kapitel 2: Eigenwertprobleme 2.3 POTENZMETHODE Die Potenzmethode oder Vektoriteration ist eine sehr einfache, aber dennoch effektive Methode zur Bestimmung des betragsmäßig größten Eigenwertes. Um die

Mehr

Berechnung von Eigenwerten und Eigenvektoren

Berechnung von Eigenwerten und Eigenvektoren Kapitel 5 Berechnung von Eigenwerten und Eigenvektoren 5.1 Einführung Bemerkung 5.1 Aufgabenstellung. Diese Kapitel behandelt numerische Verfahren zur Lösung des Eigenwertproblems. Gegeben sei A R n n.

Mehr

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

51 Numerische Berechnung von Eigenwerten und Eigenvektoren 5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem

Mehr

Eigenwertaufgaben. Heinrich Voss. TUHH Heinrich Voss Kapitel / 80.

Eigenwertaufgaben. Heinrich Voss. TUHH Heinrich Voss Kapitel / 80. Heinrich Voss voss@tu-harburg.de Hamburg University of Technology Institute for Numerical Simulation TUHH Heinrich Voss Kapitel 6 2010 1 / 80 Wir betrachten in diesem Kapitel die numerische Behandlung

Mehr

8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren

8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren 8. Vorlesung, 5. April 2017 170 004 Numerische Methoden I Eigenwerte und Eigenvektoren 1 Eigenwerte und Eigenvektoren Gegeben ist eine n n-matrix A. Gesucht sind ein vom Nullvektor verschiedener Vektor

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

2 EIGENWERTPROBLEME. Av = λv

2 EIGENWERTPROBLEME. Av = λv EIGENWERTPROBLEME Viele numerische Lösungsansätze von z.b. physikalischen Problemen erfordern die Lösung eines sogenannten Eigenwertproblems. Zu einer Matrix A R n n finde man eine Zahl λ C und einen Vektor

Mehr

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen 12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

6 Die Schursche Normalform und einige Klassen von Matrizen

6 Die Schursche Normalform und einige Klassen von Matrizen ME Lineare Algebra HT 28 111 6 Die Schursche Normalform und einige Klassen von Matrizen 61 Die Schur-Normalform und Hauptvektoren Für nichtdiagonalisierbare Matrizen gibt es andere Normalformen: Jordan-

Mehr

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y.

Determinanten. Motivation: Man betrachte das lineare Gleichungssystem =. (1) y = Sei o.b.d.a a 0 und c 0. Dann ist (1) äquivalent zu. = ac ad y. Determinanten Motivation: Man betrachte das lineare Gleichungssystem [ [ [ a b x u = (1) c d y v Sei obda a und c Dann ist (1) äquivalent zu [ [ ca cb x = ac ad y und ferner zu [ [ ca cb x ad cb y Falls

Mehr

45 Eigenwerte und Eigenvektoren

45 Eigenwerte und Eigenvektoren 45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46.1 Motivation Symmetrische Matrizen (a ij = a ji für alle i, j) kommen in der Praxis besonders häufig vor. Gibt es für sie spezielle Aussagen über

Mehr

47 Singulärwertzerlegung

47 Singulärwertzerlegung 47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung Lineare Differentialgleichungen Ausblick auf die heutige Vorlesung Lineare autonome Differentialgleichungen 2 Bestimmung des Fundamentalsystems 3 Jordansche Normalform

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 12. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 14, 2017 1 Erinnerung: Determinanten, Orthogonale/unitäre Matrizen Sei A R 2 2, dann kann die Inverse

Mehr

Differentialgleichungen für Ingenieure WS 06/07

Differentialgleichungen für Ingenieure WS 06/07 Differentialgleichungen für Ingenieure WS 06/07 6. Vorlesung Michael Karow Themen heute: 1. Die geschlossene Lösungsformel für lineare DGL mit konstanten Koeffizienten. 2. Die Matrixexponentialfunktion

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Ergänzungsmaterial zum Buch Numerik für Ingenieure und Naturwissenschaftler

Ergänzungsmaterial zum Buch Numerik für Ingenieure und Naturwissenschaftler RHEINISCH-WESTFÄLISCHE TECHNISCHE HOCHSCHULE AACHEN Institut für Geometrie und Praktische Mathematik Ergänzungsmaterial zum Buch Numerik für Ingenieure und Naturwissenschaftler Wolfgang Dahmen und Arnold

Mehr

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse

Mehr

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1. Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016, Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Mathematische Grundlagen

Mathematische Grundlagen Mathematische Grundlagen 1 / 16 Vektorraum u R n, u = (u 1,..., u n ), u k R Euklidisches Skalarprodukt Euklidische Vektornorm (u, v) = u k v k u 2 = (u, u) = n u 2 k Vektoren u, v R n heißen orthogonal,

Mehr

(d) das zu Grunde liegende Problem gut konditioniert ist.

(d) das zu Grunde liegende Problem gut konditioniert ist. Aufgabe 0: (6 Punkte) Bitte kreuzen Sie die richtige Lösung an. Es ist jeweils genau eine Antwort korrekt. Für jede richtige Antwort erhalten Sie einen Punkt, für jede falsche Antwort wird Ihnen ein Punkt

Mehr

3 Lineare Algebra Vektorräume

3 Lineare Algebra Vektorräume 3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

Orthogonale Matrix. Definition 4.19

Orthogonale Matrix. Definition 4.19 Orthogonale Matrix Ausgleichsprobleme sind häufig schlecht konditioniert. Matrix des Normalengleichungssystems kann nahezu singulär sein. Spezielle Matrixzerlegung für höhere numerische Stabilität: QR-Zerlegung

Mehr

1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von

1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von 1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von Wachstumsraten Bestimmung von Maximal- und Minimalwerten von

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich

Henning Krause Lineare Algebra Julia Sauter SS 2017 Klausur mit Lösungsvorschlag Jan Geuenich Henning Krause Lineare Algebra Julia Sauter SS 27 Klausur 2.9.27 mit Lösungsvorschlag Jan Geuenich Aufgabe (4 Punkte: Sei n N und seien A und B zwei (n n-matrizen über einem Körper K. Wahr Falsch (a Es

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Technische Universität München Zentrum Mathematik. Übungsblatt 12 Technische Universität München Zentrum Mathematik Mathematik 1 (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 12 Hausaufgaben Aufgabe 12.1 Sei f : R 3 R 3 gegeben durch f(x) :=

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008

KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008 KLAUSUR ZUR LINEAREN ALGEBRA II 19. Juli 2008 MUSTERLÖSUNG Name: Studiengang: Aufgabe 1 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter die Aufgabenstellung

Mehr

Mathematik für Physiker, Informatiker und Ingenieure

Mathematik für Physiker, Informatiker und Ingenieure Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel V SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de

Mehr

Anleitung zu Blatt 4 Differentialgleichungen I für Studierende der Ingenieurwissenschaften

Anleitung zu Blatt 4 Differentialgleichungen I für Studierende der Ingenieurwissenschaften Fachbereich Mathematik der Universität Hamburg WiSe / Dr Hanna Peywand Kiani 722 Anleitung zu Blatt 4 Differentialgleichungen I für Studierende der Ingenieurwissenschaften Lineare Differentialgleichungssysteme,

Mehr

MC-Serie 11: Eigenwerte

MC-Serie 11: Eigenwerte D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung

Mehr

D-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den

D-ITET. D-MATL, RW Lineare Algebra HS 2017 Dr. V. Gradinaru T. Welti. Online-Test 2. Einsendeschluss: Sonntag, den D-ITET. D-MATL, RW Lineare Algebra HS 7 Dr. V. Gradinaru T. Welti Online-Test Einsendeschluss: Sonntag, den..7 : Uhr Dieser Test dient, seriös bearbeitet, als Repetition des bisherigen Vorlesungsstoffes

Mehr

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

9. Übungsblatt zur Mathematik I für Maschinenbau

9. Übungsblatt zur Mathematik I für Maschinenbau Fachbereich Mathematik Prof. Dr. M. Joswig Dr. habil. Sören Kraußhar Dipl.-Math. Katja Kulas 9. Übungsblatt zur Mathematik I für Maschinenbau Gruppenübung WS /..-4.. Aufgabe G (Koordinatentransformation)

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ))

Mathematik I. Vorlesung 18. Vielfachheiten und diagonalisierbare Abbildungen. µ λ = dim(eig λ (ϕ)) Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 18 Vielfachheiten und diagonalisierbare Abbildungen Satz 18.1. Es sei K ein Körper und es sei V ein endlichdimensionaler K- Vektorraum.

Mehr

Lösbarkeit linearer Gleichungssysteme

Lösbarkeit linearer Gleichungssysteme Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn

Mehr

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit.

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit. KAPITEL 8 Normalformen Definition 8.1 (Blockmatrizen). Sind 1. Blockmatrizen A K m 1 n 1,B K m 1 n 2,C K m 2 n 1 und D K m 2 n 2 so nennet man die Matrix X = ( A B C D ) K (m 1+m 2 ) (n 1 +n 2 ) eine Blockmatrix

Mehr

KAPITEL 5. Nichtlineare Gleichungssysteme

KAPITEL 5. Nichtlineare Gleichungssysteme KAPITEL 5. Nichtlineare Gleichungssysteme Beispiel 5.1. Gravitationskraft zwischen zwei Punktmassen m 1 und m 2 mit gegenseitigem Abstand r: F = G m 1m 2 r 2, wobei G = 6.67 10 11 Nm 2 /kg. Gravitationsfeld

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

7.2 Die adjungierte Abbildung

7.2 Die adjungierte Abbildung 7.2 Die adjungierte Abbildung Definition 7.2.1 Eine lineare Abbildung f : V K heißt lineares Funktional oder Linearform. (Diese Definition gilt für beliebige K-Vektorräume, nicht nur für innere Produkträume.)

Mehr

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016 Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b

Mehr

Serie 12: Eigenwerte und Eigenvektoren

Serie 12: Eigenwerte und Eigenvektoren D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie : Eigenwerte und Eigenvektoren Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom 7 und 9 Dezember Finden Sie für folgende

Mehr

d) Produkte orthogonaler Matrizen sind wieder orthogonal.

d) Produkte orthogonaler Matrizen sind wieder orthogonal. Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =

Mehr

Das QZ-Verfahren. vorgelegt von Janina Gnutzmann. Erstgutachter: Prof. Dr. Steffen Börm Zweitgutachter: Dipl.-Math.

Das QZ-Verfahren. vorgelegt von Janina Gnutzmann. Erstgutachter: Prof. Dr. Steffen Börm Zweitgutachter: Dipl.-Math. Das QZ-Verfahren Bachelor-Arbeit im 1-Fach Bachelorstudiengang Mathematik der Mathematisch-Naturwissenschaftlichen Fakultät der Christian-Albrechts-Universität zu Kiel vorgelegt von Janina Gnutzmann Erstgutachter:

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Vorlesung, 26. Mai 2011, Inhalt. Eigenwerte und Eigenvektoren. Gewöhnliche Differentialgleichungen

Vorlesung, 26. Mai 2011, Inhalt. Eigenwerte und Eigenvektoren. Gewöhnliche Differentialgleichungen Vorlesung, 26. Mai 2011, Inhalt Eigenwerte und Eigenvektoren Gewöhnliche Differentialgleichungen 1 Eigenwerte und Eigenvektoren Es sei A eine n n-matrix, x ein vom Nullvektor verschiedener Vektor und λ

Mehr

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW Lineare Gleichungssysteme Lösen Sie folgende Gleichungssysteme über R: a) x + x + x = 6x + x + x = 4 x x x = x 7x x = 7 x x = b) x + x 4x + x 4 = 9 x + 9x x x

Mehr

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

Klausur zur Vordiplom-Prüfung

Klausur zur Vordiplom-Prüfung Technische Universität Hamburg-Harburg SS 25 Arbeitsbereich Mathematik Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren 22. Juli 25 Sie haben 9 Minuten Zeit zum Bearbeiten der

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Lineare Algebra für Physiker 11. Übungsblatt

Lineare Algebra für Physiker 11. Übungsblatt Lineare Algebra für Physiker 11. Übungsblatt Fachbereich Mathematik SS 01 Prof. Dr. Matthias Schneider./. Juli 01 Dr. Silke Horn Dipl.-Math. Dominik Kremer Gruppenübung Aufgabe G1 (Minitest) (a) Welche

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte (Teschl/Teschl 4.2 Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert

L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren. Gegeben. Gesucht: Diagonalform: Finde und! Definition: Eigenvektor, Eigenwert L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors

Mehr

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2. MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw

Mehr

Rechenaufwand der LR- und LDL T - Zerlegung

Rechenaufwand der LR- und LDL T - Zerlegung 6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für

Mehr

Lineare Algebra. 13. Übungsstunde. Steven Battilana.

Lineare Algebra. 13. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch January 2, 27 Erinnerung Berechnung von Eigenwerten und Eigenvektoren Gegeben: A E n n (falls F : V V lineare Abbildung gegeben ist,

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,

Mehr

Höhere Mathematik für die Fachrichtung Physik

Höhere Mathematik für die Fachrichtung Physik Karlsruher Institut für Technologie Institut für Analysis Dr. Christoph Schmoeger Michael Hott, M. Sc. WS 5/.. Höhere Mathematik für die Fachrichtung Physik Lösungsvorschläge zum 4. Übungsblatt Aufgabe

Mehr

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung Kapitel 2: Matrizen 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung 2.1 Matrizen M = n = 3 m = 3 n = m quadratisch M ij : Eintrag von M in i-ter

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Beispiel: Feder Masse System festes Ende Feder k 1 Masse m 1 k 2 m 2 k 3 m 3 k 4 festes Ende u 0 = 0 Federkraft y 1 Verschiebung u 1 y 2 u 2 y 3 u 3 y 4 u 4 = 0 Grundlagen der

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

KLAUSUR. Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.:

KLAUSUR. Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.: KLAUSUR Lineare Algebra (E-Techniker/Mechatroniker/W-Ingenieure/Informatiker).3. (W. Koepf) Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.: Für jede Aufgabe gibt es Punkte. Zum Bestehen der Klausur

Mehr

Ökonometrische Analyse

Ökonometrische Analyse Institut für Statistik und Ökonometrie, Freie Universität Berlin Ökonometrische Analyse Dieter Nautz, Gunda-Alexandra Detmers Rechenregeln für Matrizen Notation und Matrixeigenschaften: Eine Matrix A der

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 011 Tom Ilmanen. Musterlösung 12. a ij = v i,av j (A ist symmetrisch) = Av i,v j

D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 011 Tom Ilmanen. Musterlösung 12. a ij = v i,av j (A ist symmetrisch) = Av i,v j D-MATH, D-PHYS, D-CHEM Lineare Algebra II SS 0 Tom Ilmanen Musterlösung 2. Falls b := (v,,v n ) eine Orthonormalbasis von V ist, dann lassen sich die Komponenten von einem Vektor v = n i= t i v i bezüglich

Mehr

Lineare Algebra II 3. Übungsblatt

Lineare Algebra II 3. Übungsblatt Lineare Algebra II 3. Übungsblatt Fachbereich Mathematik SS 2011 Prof. Dr. Kollross 27./28. April 2011 Susanne Kürsten Tristan Alex Minitest Aufgabe M1 (Formale Polynome) Betrachten Sie die folgenden Polynome

Mehr

Erweiterte Koordinaten

Erweiterte Koordinaten Erweiterte Koordinaten Sei K n ein n dimensionaler affiner Raum Die erweiterten Koordinaten des Punktes x x n K n sind x x n Kn+ (Das ist für alle K sinnvoll, weil in jedem Körper K wohldefiniert ist In

Mehr

1 Einstimmung 2. 2 Allgemeine Eigenwertprobleme Berechnung von Eigenwerten und Eigenvektoren Wichtige Eigenschaften...

1 Einstimmung 2. 2 Allgemeine Eigenwertprobleme Berechnung von Eigenwerten und Eigenvektoren Wichtige Eigenschaften... Wirtschaftswissenschaftliches Zentrum 4 Universität Basel Mathematik 2 Dr Thomas Zehrt Eigenwerte und Eigenvektoren Inhaltsverzeichnis Einstimmung 2 2 Allgemeine Eigenwertprobleme 5 2 Berechnung von Eigenwerten

Mehr

5 Lineare Gleichungssysteme und Determinanten

5 Lineare Gleichungssysteme und Determinanten 5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

4 Lineare Abbildungen Basisdarstellungen

4 Lineare Abbildungen Basisdarstellungen 4 Lineare Abbildungen Basisdarstellungen (4.1) Seien V,W endlich dimensionale K-Vektorräume, und sei T : V W linear. Sei {v 1,...,v } Basis von V und {w 1,...,w M } Basis von W. Sei T (v j ) = M a kj w

Mehr

1 Die Jordansche Normalform

1 Die Jordansche Normalform Matthias Tischler Karolina Stoiber Ferienkurs Lineare Algebra für Physiker WS 4/5 A Die Jordansche Normalform Vierter Tag (9.03.205) Im Zusammenhang mit der Lösung komplexer Differentialgleichungssysteme

Mehr

9 Lineare Gleichungssysteme

9 Lineare Gleichungssysteme 9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der

Mehr