Numerische Lineare Algebra

Größe: px
Ab Seite anzeigen:

Download "Numerische Lineare Algebra"

Transkript

1 Numerische Lineare Algebra Oliver Ernst Professur Numerische Mathematik Wintersemester 2015/16

2 Inhalt I 1 Einleitung 1.1 Lineare Gleichungssysteme 1.2 Matrixfunktionen 1.3 Modellreduktion 1.4 Eigenwertaufgaben 2 Krylov-Unterraumverfahren 2.1 Projektionen 2.2 Orthogonale Projektionsverfahren 2.3 Krylov-Unterräume 3 Lineare Gleichungssysteme 3.1 Lösungsstrategien 3.2 Selbstadjungierte Probleme 3.3 Das Verfahren der konjugierten Gradienten 3.4 Das LSQR-Verfahren für lineare Ausgleichsprobleme 3.5 Vorkonditionierung 4 Matrixfunktionen 4.1 Erste Definition mithilfe der Jordanschen Normalform 4.2 Hermitesche Polynominterpolation Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 2 / 310

3 Inhalt II 4.3 Alternative Darstellungen von Matrixfunktionen 4.4 Resolventenintegrale 4.5 Ein Beispiel 5 Krylov-Verfahren für Matrixfunktionen 5.1 Schranken für f(a) 5.2 Fehlerschranken für Krylov-Verfahren 5.3 Die Konvergenz des CG-Verfahens 6 Das QR-Verfahren für Eigenwertaufgaben 6.1 Reduktion auf Hessenberg-Gestalt 6.2 Vektoriteration 6.3 QR-Iteration Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/16 3 / 310

4 Inhalt 1 Einleitung 2 Krylov-Unterraumverfahren 3 Lineare Gleichungssysteme 4 Matrixfunktionen 5 Krylov-Verfahren für Matrixfunktionen 6 Das QR-Verfahren für Eigenwertaufgaben Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

5 Vorbemerkungen Nach dem Satz von Abel-Ruffini sind Polynomgleichungen ab Grad 5 nicht durch Wurzelziehen lösbar. Die Nullstellen des Polynoms p(z) = z n + a n 1 z n a 1 z + a 0 sind die Eigenwerte seiner Frobenius-Begleitmatrix 0 a a 1 A = C n n. 1 0 a n 2 1 a n 1 Ein Verfahren zur Berechnung von Eigenwerten mit endlich vielen Schritten würde somit zu einer Formel für die Nullstellen eines Polynomes führen. Das in diesem Kapitel betrachtete Verfahren, die QR-Iteration, berechnet die Schur-Zerlegung einer n n Matrix in O(n 3 ) Operationen. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

6 Vorbemerkungen Direkte Verfahren zur Berechnung der Eigenwerte einer Matrix A C n n beruhen darauf, die Matrix schrittweise in eine Form zu überführen, an der man die Eigenwerte ablesen kann. Da Ähnlichkeitstransformationen die Eigenwerte unverändert lassen, kommen diese hierfür in Frage. Ähnlichkeitstransformation auf Diagonalform ist nur für diagonalisierbare Matrizen möglich. Unitäre Transformation auf Diagonalform (attraktiver, weil numerisch stabiler) geht sogar nur für normale Matrizen. Satz 6.1 (Schur-Zerlegung) Jede Matrix A C n n läßt sich durch unitäre Ähnlichkeitstransformation in obere Dreiecksgestalt überführen, d.h. es existieren eine unitäte Matrix U sowie eine obere Dreiecksmatrix T mit A = UTU H bzw. U H AU = T (Schur-Form). Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

7 Vorbemerkungen Ist eine Schur-Zerlegung U H AU = T vorhanden und gilt Tx = λx, so ist Ux ein Eigenvektor von A zum Eigenwert λ. Es genügt also, Eigenvektoren von T zu bestimmen. Ist λ = t i,i einfacher Eigenwert von T so gilt (T λi )x = 0, oder T 11 λi T 12 T 13 0 = 0 T 0 T 23 O 0 T 33 λi x 1 x 2 x 3 Da λ einfach ist, sind T 11 λi und T 33 λi invertierbar. (T 11 λi )x 1 + T 12 x 2 + T 13 x 3 = T 23 x 3 (T 33 λi )x 3 Insbesondere folgt aus (T 33 λi )x 3 = 0 auch x 3 = 0 und somit (T 11 λi )x 1 = T 12 x 2. Setzt man x 2 = 1, so ergibt sich (T 11 λi ) 1 T 12 x = 1 0. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

8 Vorbemerkungen Das QR-Verfahren besteht prinzipiell aus einer (geschickt gewählten) Folge unitärer Ähnlichkeitstransformationen, die A immer näher an Schur-Form bringen. Man kann den Rechenaufwand für diese Transformationen reduzieren, indem man A zunächst (ebenfalls unitär ähnlich) auf obere Hessenberg-Gestalt bringt. Der Aufwand hierfür beträgt O(n 3 ) Rechenoperationen. Für unitäre Ähnlichkeitstransformation angewandt auf Hessenberg-Matrizen beträgt der Aufwand O(n 2 ) Operationen. Im Allgemeinen konvergiert das QR-Verfahren dann in O(n) Schritten, woraus sich ein Gesamtaufwand von O(n 3 ) ergibt. (Ohne Hessenberg-Reduktion O(n 4 ).) Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

9 Inhalt 1 Einleitung 2 Krylov-Unterraumverfahren 3 Lineare Gleichungssysteme 4 Matrixfunktionen 5 Krylov-Verfahren für Matrixfunktionen 6 Das QR-Verfahren für Eigenwertaufgaben 6.1 Reduktion auf Hessenberg-Gestalt 6.2 Vektoriteration 6.3 QR-Iteration Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

10 Reduktion auf Hessenberg-Gestalt Eine Matrix A = [a i,j ] C n n heißt obere Hessenberg-Matrix, falls a i,j = 0 falls i > j + 1. Im 6 6-Beispiel: ( bezeichnet beliebige Einträge, i.a. 0) Satz 6.2 Zur jeder Matrix A C n n existiert eine unitäre Matrix U C n n sodass obere Hessenberg-Matrix ist. U H AU = H Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

11 Reduktion auf Hessenberg-Gestalt Algorithmus 13 : Transformation auf Hessenberg-Gestalt. Gegeben : A C n n. 1 for k = 1 to n 2 do 2 [v, β] house(a(k + 1 : n, k)) 3 A(k + 1 : n, k : n) (I βvv H )A(k + 1 : n, k : n) 4 A(1 : n, k + 1 : n) A(1 : n, k + 1 : n)(i βvv H ) Dabei liefert die Funktion [v, β] = house(x ) zu x C n einen Vektor v C n, den sog. Householder-Vektor, mit v 1 = 1 sowie β R sodass P = I βvv H unitär und Px = x 2 x 1 x 1 e 1. Dieser Algorithmus erfordert 10n 3 /3 Flops, 4n 3 /3 zusätzliche Flops falls U explizit benötigt wird. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

12 Reduktion auf Hessenberg-Gestalt Wir zeigen das Vorgehen der Reduktion auf Hessenberg-Gestalt durch Householder- Transformationen anhand einer beliebigen 6 6-Matrix A auf. Bezeichnet P 1 C (n 1) (n 1) eine Householder-Transformation, welche den Vektor A(2 : n, 1) auf ein Vielfaches von e 1 C n 1 abbildet, so ergibt [ ] 1 0 P1 H T A = 0 P1 = Anschließende Multiplikation von rechts mit P 1 lässt die erste Spalte unverändert, sodass wir mit A 1 := P1 H AP 1 eine zu A unitär ähnliche Matrix erhalten mit Nullen unterhalb der ersten Nebendiagonalen in der ersten Spalte. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

13 Reduktion auf Hessenberg-Gestalt Mit der zweiten Spalte verfahren wir analog: bildet die Householder-Matrix P 2 C (n 2) (n 2) den Vektor A 1 (3 : n, 2) auf ein Vielfaches von e 1 C n 3 ab, so wirkt die unitäre Matrix von links multipliziert [ ] P2 H I2 O = O P 2 nur auf die Zeilen 3 bis n, analog P 3 von rechts multipliziert nur auf Spalten 3 bis n, und wir erhalten A 2 = (P 1 P 2 ) H A(P 1 P 2 ) = Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

14 Reduktion auf Hessenberg-Gestalt In 2 weiteren Schritten mit immer kleineren Householder-Transformationen erhalten wir P A 3 2 A3 = 0 P A4 = Die unitäre Transformation auf obere Hessenberg-Gestalt lautet insgesamt A 4 = U H AU, U = P 1 P 2 P 3 P 4. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

15 Inhalt 1 Einleitung 2 Krylov-Unterraumverfahren 3 Lineare Gleichungssysteme 4 Matrixfunktionen 5 Krylov-Verfahren für Matrixfunktionen 6 Das QR-Verfahren für Eigenwertaufgaben 6.1 Reduktion auf Hessenberg-Gestalt 6.2 Vektoriteration 6.3 QR-Iteration Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

16 Vektoriteration Der Prototyp aller numerischer Eigenwertverfahren ist die sog. Vektoriteration nach von Mises, auch Potenzmethode (engl. power method) genannt. Es beruht auf der Tatsache, dass für (nahezu) jeden Vektor q C n die Vektorfolge q, Aq, A 2 q, A 3 q,... asymptotisch in Richtung eines Eigenvektors von A zum betragsgrößten Eigenwert zeigt. In seiner einfachsten Form lautet das Verfahren wie folgt: Algorithmus 14 : Vektoriteration nach von Mises. Gegeben : A C n n, q 0 C n. 1 for k = 1 to... do 2 z k Aq k 1 3 q k z k / z k 2 4 µ k q H k Aq k Wie man sieht, wird, allein schon um Gleitpunktüber-/unterlauf zu vermeiden, der Vektor zusätzlich in jedem Schritt normiert. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

17 Vektoriteration Lemma 6.3 Sei A C n n und u C n \ {0}. Der Ausdruck Au µu 2 wird minimiert für µ = u H Au u H u (Rayleigh-Quotient). Ferner ist Au µu u. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

18 Vektoriteration Ist A diagonalisierbar mit Eigenwerten λ 1 > λ 2 λ n 1 λ n und einer Basis {v j } n j=1 aus zugehörigen Eigenvektoren, so gilt mit Startvektor q = γ 1 v γ n v n, für die Richtung der Iterierten im k-ten Schritt A k q = λ k 1γ 1 v λ k nγ n v n ( ( ) k = λ k λ2 1 γ 1 v 1 + γ 2 v λ k 1γ 1 v 1. λ 1 ( λn λ 1 ) k γ n v n ) Sofern nur γ 1 0 klingen die übrigen Komponenten der Iterierten (linear) ab mit mindestens der Rate λ 2 /λ 1. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

19 Vektoriteration Wir betrachten die Matrix (MATLAB-Notation) A = diag(100 : 1 : 1) + 1 triu(ones(100), 1) 3 mit Eigenwerten Λ(A) = {1, 2,..., 100}. und wenden die Vektoriteration an mit Startvektoren q 0 = ones(100, 1) bzw. q 0 = 99 j=1 v j. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

20 Vektoriteration q 0 = ones(100, 1) : Aq k µ k q k 2 (q k, v 100 ) 100 µ k Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

21 Vektoriteration q 0 = v v 99 : Aq k µ k q k 2 (q k, v 100 ) 100 µ k (q k, v 99 ) 99 µ k Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

22 Inverse Iteration Ist man an einem anderen als dem dominanten Eigenpaar interessiert, leistet die einfache Vektoriteration nicht das Gewünschte. Ist man jedoch bereit, in jedem Schritt ein lineares Gleichungssystem zu lösen, so kann man die Vektoriteration anstatt auf A auf die Matrix (A σi ) 1 anwenden. Den Parameter σ bezeichnet man dabei als Shift ( Verschiebung ). Der betragsgrößte Eigenwert der geshifteten Matrix ist gegeben durch 1 λ(σ) σ λ(σ) := arg min λ σ. λ Λ(A) Durch geeignete Wahl von σ kann man so die Konvergenz der Vektoriteration steuern. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

23 Inverse Iteration Algorithmus 15 : Inverse Iteration. Gegeben : A C n n, q 0 C n, σ C \ Λ(A). 1 for k = 1 to... do 2 z k (A σi ) 1 q k 1 3 q k z k / z k 2 4 µ k q H k Aq k Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

24 Inhalt 1 Einleitung 2 Krylov-Unterraumverfahren 3 Lineare Gleichungssysteme 4 Matrixfunktionen 5 Krylov-Verfahren für Matrixfunktionen 6 Das QR-Verfahren für Eigenwertaufgaben 6.1 Reduktion auf Hessenberg-Gestalt 6.2 Vektoriteration 6.3 QR-Iteration Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

25 Simultane Iteration Die Erweiterung der Vektoriteration auf mehrere (orthogonal gehaltene) Vektoren ist als simultane Iteration (simultaneous/subspace/orthogonal iteration) bekannt. Algorithmus 16 : Simultane Iteration. Gegeben : A C n n, Q 0 C n p mit orthonormalen Spalten. 1 for k = 1 to... do 2 Z k AQ k 1 3 QR-Zerlegung Z k = Q k R k Satz 6.4 Sei A C n n diagonalisierbar mit A = X ΛX 1, die Beträge der Eigenwerte von A paarweise verschieden und alle Hauptuntermatrizen von X invertierbar. Dann konvergiert bei simultaner Iteration mit p = n und Startvektor Q 0 = I die Folge der Matrizen A k := Qk HAQ k gegen eine obere Dreiecksmatrix, auf deren Hauptdiagonalen die Eigenwerte von A in Reihenfolge abnehmenden Betrags erscheinen. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

26 QR-Iteration Algorithmus 17 : QR-Iteration. Gegeben : A C n n, A 0 := A. 1 for k = 0 to... do 2 A k = Q k R k (QR-Zerlegung) 3 A k+1 R k Q k. Wegen A k+1 = R k Q k = Q H k Q kr k Q k = Q H k A kq k sind A k+1 und A k unitär ähnlich. Lemma 6.5 Für die durch Algorithmus 17 erzeugte Folge {A k } gilt A k = Q k HA Q k, wobei Q k die durch simultane Iteration mit Startmatrix Q 0 = I bezeichnet. Somit konvergiert A k gegen obere Dreicksform, sofern die Eigenwerte von A paarweise verschiedene Beträge besitzen. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

27 QR-Iteration Als nächstes beschleunigen wir die Konvergenz der QR-Iteration durch Einbringen von Shifts: Algorithmus 18 : QR-Iteration mit Shifts. Gegeben : A C n n, A 0 := A. 1 for k = 0 to... do 2 Wähle Shift σ k nahe an einem Eigenwert von A 3 A k σ k I = Q k R k (QR-Zerlegung) 4 A k+1 R k Q k + σ k I. Lemma 6.6 A k und A k+1 sind unitär ähnlich. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

28 QR-Iteration Bemerkung Ist R k regulär, so gilt auch A k+1 = R k A k R 1 k. 2 Ist σ k ein Eigenwert von A k, so konvergiert die QR-Iteration in einem Schritt. 3 Ist σ k kein (exakter) Eigenwert, so sehen wir [A k+1 ] n,n dann als konvergiert an, wenn die restlichen Einträge der Zeile A k+1 (n, 1 : n 1) hinreichend klein geworden sind. 4 Wahl geeigneter Shifts: Konvergenz gegen Schur-Form beginnt bei A(n, n); genauer: σ k = A(n, n) führt zu quadratischer Konvergenz von A(n, n) gegen einen Eigenwert von A. Bei reeller Matrix A: Konvergenz gegen komplexen Eigenwert möglich. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

29 QR-Iteration Besitzt A k Hessenberg-Gestalt, so kann man den QR-Schritt A k σ k I = Q k R k, A k+1 R k Q k + σ k I so durchführen, dass die Hessenberg-Struktur erhalten bleibt, indem man die QR- Zerlegung mit Givens-Rotationen durchführt. Im folgenden 5 5-Beispiel wird die obere Dreiecksstruktur nach sukzessiver Multiplikation mit Givens-Rotationen erreicht: G j,j+1, j = 1,..., n 1, Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

30 QR-Iteration G 0 1, G 3,4 0 G 0 0 4, Fasst man alle n 1 Givens-Rotationen zusammen als so ergibt sich G 2,3 Q H := G n 1,n G n 2,n 1 G 1,2, Q H A = R, oder A = QR Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

31 QR-Iteration Die Matrix Q = G H 1,2 G H n 1,n ist aufgrund des Besetzungsmusters ihrer Faktoren ebenfalls obere Hessenberg-Matrix. (Dies folgt auch aus dem zu A = QR äquivalenten Ausdruck Q = AR 1.) Demzufolge ist mit A k auch obere Hessenberg-Matrix. Satz 6.8 A k+1 = R k Q k + σ k I Beim QR-Schritt mit einfachem Shift bleibt die obere Hessenberg-Struktur erhalten. Eine effiziente Implementierung des QR-Verfahrens arbeitet mit impliziten Shifts, d.h. die QR-Zerlegung der Hessenberg-Matrizen wird implizit als Produkt von elementaren unitären Matrizen konstruiert. Hierzu ist eine Tatsache hilfreich, die als implizites Q-Theorem bekannt ist. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

32 QR-Iteration Definition 6.9 Eine obere Hessenberg-Matrix H = [h i,j ] n i,j=1 Cn n heißt unreduziert (engl. unreduced), falls h k+1,k 0 k = 1, 2,..., n 1. Satz 6.10 Ein Eigenwert λ Λ(A) einer unreduzierten Hessenberg-Matrix A C n n besitzt geometrische Vielfachheit Eins. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

33 QR-Iteration Satz 6.11 (Implizites Q-Theorem) Seien A C n n sowie zwei unitäre Matrizen Q = [q 1,..., q n ] und V = [v 1,..., v n ] gegeben, für welche die Matrizen H = [h i,j ] = Q H AQ und G = [g i,j ] = V H AV obere Hessenberg-Gestalt besitzen. Ferner sei k := min{j : h j+1,j k = n falls H unreduziert. Gilt dann v 1 = q 1, so gelten auch = 0} bzw. v j = ϑ j q j mit ϑ j = 1, h j+1,j = g j+1,j, j = 2,..., k. Falls k < n, so ist auch g k+1,k = 0. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

34 QR-Iteration Interpretation: Sind G = V H AV und H = Q H AQ zwei unreduzierte Hessenberg-Matrizen und besitzen die unitären Matrizen V und Q die gleiche erste Spalte, so sind G und H im Wesentlichen gleich, d.h. es gilt G = D 1 HD mit einer Diagonalmatrix D = diag(ϑ 1,..., ϑ n ), ϑ j = 1. Die implizite Berechnung der QR-Schritts A k+1 = Q H k A kq k geschieht nun wie folgt: 1 Berechne die erste Spalte von Q k (skalares Vielfaches der ersten Spalte von A k σ k I, ergibt sich also durch Nomierung). 2 Bestimme restliche Spalten von Q k so, dass Q k unitär und A k+1 unreduzierte obere Hessenberg-Matrix. Das implizite Q-Theorem stellt dann sicher, dass wir dann A k+1 bis auf Faktoren vom Betrag eins berechnet haben. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

35 QR-Iteration Wir illustrieren den impliziten QR-Schritt an folgendem 5 5 Beispiel: A 0 liege in unreduzierter Hessenberg-Gestalt vor. c 1 s 1 s 1 c 1 G1 H = 1 1, G 1 H AG 1 = G2 H = c 2 s 2 s 2 c 2 1, G 2 H A 1 G 2 = Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

36 QR-Iteration 1 G3 H = 1 G4 H = 1 1 c 3 s 3 s 3 c 3, G 3 H A 2 G 3 = , G4 H A c 4 s 4 3 G 4 = s 4 c Diese sukzessive Wahl der Givens-Rotationen nennt man auch bulge chasing, da die von der ersten orthogonalen Ähnlichkeitstransformation erzeugte Beule in der (3,1)-Position schrittweise entlang der zweiten unteren Nebendiagonalen gescheucht wird. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

37 QR-Iteration Insgesamt besitzt nun Q H AQ wieder obere Hessenberg-Gestalt, mit c 1 s 1 Q := G 1 G 2 G 3 G 4 = s 2 s 3. s 4 Die erste Spalte von Q lautet [c 1, s 2, 0,..., 0] T. Nach dem impliziten Q-Theorem bestimmt diese (bis auf Faktoren vom Betrag Eins) die restlichen Spalten von Q. Wir wählen nun die erste Spalte von Q als skalares Vielfaches der ersten Spalte von A σi, also [a 11 σ, a 21, 0,..., 0] T. Damit ist Q bereits der linke Faktor aus der QR-Zerlegung von A σi. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

38 QR-Iteration Komplexe Arithmetik ist etwa viermal teurer als reelle. Daher wäre es von Vorteil, für reelle Matrizen die QR-Iteration auch in reeller Arithmetik durchzuführen. Man nutzt dabei die Tatsache aus, dass nichtreelle Eigenwerte reeller Matrizen als konjugiert-komplexe Paare auftreten. Der Doppelshift-Algorithmus von Francis nutzt gleichzeitig die konjugiertkomplexen Shifts σ und σ: Lemma 6.12 A 0 σi = Q 1 R 1 A 1 = R 1 Q 1 + σi, d.h. A 1 = Q T 1 A 0 Q 1, A 1 σi = Q 2 R 2, A 2 = R 2 Q 2 + σi, d.h. A 2 = Q T 2 A 1 Q 2 = Q T 2 Q T 1 A 0 Q 1 Q 2. Die orthogonalen Matrizen Q 1, Q 2 können so gewählt werden, dass sie (und damit A 2 ) reell sind und die erste Spalte von Q 1 Q 2 leicht zu berechnen ist. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

39 QR-Iteration Zur Wahl von (einfachen und doppelten) Shifts: Beim einfachen Shift hatten für A k hatten wir σ = A k (n, n) gewählt. Für einen Doppelshift wählt man σ und σ als die beiden Eigenwerte des rechten unteren 2-Blocks A k (n 1 : n, n 1 : n). Dieser Block konvergiert dann entweder gegen eine 2 2 Diagonalmatrix oder gegen eine 2 2-Matrix deren (konjugiert-komplexe) Eigenwerte auch Eigenwerte von A sind. Eigenwerte werden als konvergiert betrachtet sobald a n,n 1 bzw. a n 1,n 2 hinreichend klein geworden sind. Man kann zeigen: im Allgemeinen konvergieren diese Einträge quadratisch gegen Null. In der Praxis sind nicht mehr als zwei Iterationen pro Eigenwert erforderlich. Es sei erwähnt, dass trotz erfolgreichen Einsatzes dieses Verfahrens seit 60 Jahren noch einige Detailfragen bei der Konvergenzanalyse des QR-Verfahrens offen bleiben. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

40 QR-Iteration Konvergenz der QR-Iteration: Unter realistischen Annahmen kann man zeigen, dass das QR-Verfahren quadratisch konvergiert. Für hermitesche Matrizen erhöht sich diese Konvergenzordnung auf kubisch. Das hermitesche QR-Verfahren kann auch zur Berechnung der Singulärwertzerlegung eingesetzt werden. Oliver Ernst (NM) Numerische Lineare Algebra Wintersemester 2015/ / 310

4.6 Berechnung von Eigenwerten

4.6 Berechnung von Eigenwerten 4.6 Berechnung von Eigenwerten Neben der Festlegung auf den betragsgrößten Eigenwert hat die Potenzmethode den Nachteil sehr langsamer Konvergenz, falls die Eigenwerte nicht hinreichend separiert sind.

Mehr

Begleitmaterial zur Vorlesung Numerik II

Begleitmaterial zur Vorlesung Numerik II Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik

Mehr

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

51 Numerische Berechnung von Eigenwerten und Eigenvektoren 5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,

Mehr

KAPITEL 7. Berechnung von Eigenwerten. Av = λv

KAPITEL 7. Berechnung von Eigenwerten. Av = λv KAPITEL 7. Berechnung von Eigenwerten Aufgabe: Sei A R n n eine reelle quadratische Matrix. Gesucht λ C und v C n, v 0, die der Eigenwertgleichung Av = λv genügen. Die Zahl λ heißt Eigenwert und der Vektor

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte Teschl/Teschl 4. Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x 0, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren

8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren 8. Vorlesung, 5. April 2017 170 004 Numerische Methoden I Eigenwerte und Eigenvektoren 1 Eigenwerte und Eigenvektoren Gegeben ist eine n n-matrix A. Gesucht sind ein vom Nullvektor verschiedener Vektor

Mehr

Berechnung der Determinante

Berechnung der Determinante Berechnung der Determinante Verhalten der Determinante unter elementaren Zeilenoperationen: Das Vertauschen zweier Zeilen/Spalten der Matrix A ändert nur das Vorzeichen der Determinante, d.h: i, j {1,...,

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

20 Kapitel 2: Eigenwertprobleme

20 Kapitel 2: Eigenwertprobleme 20 Kapitel 2: Eigenwertprobleme 2.3 POTENZMETHODE Die Potenzmethode oder Vektoriteration ist eine sehr einfache, aber dennoch effektive Methode zur Bestimmung des betragsmäßig größten Eigenwertes. Um die

Mehr

MC-Serie 11: Eigenwerte

MC-Serie 11: Eigenwerte D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung

Mehr

Klausurähnliche Aufgaben

Klausurähnliche Aufgaben Sommersemester 2007/08 Lineare Algebra Klausurähnliche Aufgaben Aufgabe 1 Seien v 1, v 2, v 3, v 4, v 5, v 6 die Vektoren in R 5 mit v 1 = (1, 2, 3, 1, 2), v 2 = (2, 4, 6, 2, 4), v 3 = ( 1, 1, 3, 0, 3),

Mehr

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: Lineare Algebra D-MATH, HS 04 Prof. Richard Pink Lösung zu Serie. [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: a) F (X) := X 5 X in R[X] und C[X]. b) F (X) := X 4 +X 3 +X in

Mehr

Lineare Algebra und Geometrie II, Übungen

Lineare Algebra und Geometrie II, Übungen Lineare Algebra und Geometrie II, Übungen Gruppe (9 9 45 ) Sei A 2 Bestimmen Sie A und A Finden Sie weiters Vektoren u, v R 2 mit u und Au A, beziehungsweise v und Av A Zunächst die Berechnung der Norm

Mehr

6 Die Schursche Normalform und einige Klassen von Matrizen

6 Die Schursche Normalform und einige Klassen von Matrizen ME Lineare Algebra HT 28 111 6 Die Schursche Normalform und einige Klassen von Matrizen 61 Die Schur-Normalform und Hauptvektoren Für nichtdiagonalisierbare Matrizen gibt es andere Normalformen: Jordan-

Mehr

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX Übungsaufgaben zum Lehrgebiet Numerische Mathematik - Serie 2 Beweise Sie folgende

Mehr

Sommer 2017 Musterlösung

Sommer 2017 Musterlösung Sommer 7 Musterlösung. (5 Punkte) a) Sei V ein Vektorraum über K und sei T End(V ). Geben Sie die Definition eines Eigenwertes von T und zeigen Sie für endlichdimensionales V, dass λ K genau dann ein Eigenwert

Mehr

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet.

(also ) Oft wird Zusammenhang zwischen und mit einem Index angedeutet, z.b. wird der Eigenvektor v. durch gekennzeichnet. L7 Diagonalisierung einer Matrix: Eigenwerte und Eigenvektoren Viele Anwendungen in der Physik: z.b. Bestimmung der - Haupträgheitsmomente eines starren Körpers durch Diagonalisierung des Trägheitstensors

Mehr

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 13. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 3. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 29, 27 Erinnerung Satz. Axiomatischer Zugang, Eigenschaften der Determinante. Die Abbildung det :

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Klausur zur Mathematik II (Modul: Lineare Algebra II) Sie haben 60 Minuten Zeit zum Bearbeiten der Klausur.

Klausur zur Mathematik II (Modul: Lineare Algebra II) Sie haben 60 Minuten Zeit zum Bearbeiten der Klausur. Technische Universität Hamburg-Harburg Institut für Mathematik Prof. Dr. Wolfgang Mackens Sommersemester 03 Klausur zur Mathematik II (Modul: Lineare Algebra II) 4.08.03 Sie haben 60 Minuten Zeit zum Bearbeiten

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen 12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 215 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 12 Aufgabe 121 Matrixpotenzen und Eigenwerte Diese Aufgabe ist

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

QR-Algorithmus. Proseminar - Numerische Mathematik Sommersemester Universität Hamburg Fachbereich Mathematik geleitet von Prof.

QR-Algorithmus. Proseminar - Numerische Mathematik Sommersemester Universität Hamburg Fachbereich Mathematik geleitet von Prof. QR-Algorithmus Proseminar - Numerische Mathematik Sommersemester 2005 - Universität Hamburg Fachbereich Mathematik geleitet von Prof. Wolf Hofmann 1 Im Laufe der Jahre wurde immer wieder versucht, die

Mehr

Kapitel 5 : Eigenwerte und Eigenvektoren

Kapitel 5 : Eigenwerte und Eigenvektoren Kapitel 5 : Eigenwerte und Eigenvektoren 5.1 Definition und allgemeine Eigenschaften Definition 5.1 Sei A eine quadratische (n n)-matrix. λ C heißt Eigenwert von A, wenn ein Vektor x C n mit x 0 existiert,

Mehr

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit

Mehr

Serie a) Welche der folgenden Vektoren sind Eigenvektoren der Matrix 1 0 1? 0 1 1

Serie a) Welche der folgenden Vektoren sind Eigenvektoren der Matrix 1 0 1? 0 1 1 Prof. Norbert Hungerbühler Serie Lineare Algebra II ETH Zürich - D-MAVT. a Welche der folgenden Vektoren sind Eigenvektoren der Matrix? i (,,. ii (,,. iii (,,. iv (, 3,. v (,,. Ein Vektor v ist Eigenvektor

Mehr

Lanczos Methoden. Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann. 15.

Lanczos Methoden. Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann. 15. Lanczos Methoden Stefan Grell Im Rahmen eines Proseminar zur Numerischen Mathematik unter der Leitung von Prof. Wolf Hofmann 15. Juni 2005 Lanczos-Methoden Lanczos-Methoden sind iterative Verfahren zur

Mehr

10 Unitäre Vektorräume

10 Unitäre Vektorräume 10 Unitäre Vektorräume Pink: Lineare Algebra 2014/15 Seite 98 10 Unitäre Vektorräume Die Theorie komplexer Vektorräume mit Skalarprodukt folgt denselben Linien wie die Theorie reeller Vektorräume mit Skalarprodukt;

Mehr

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1 D-MAVT Lineare Algebra II FS 8 Prof. Dr. N. Hungerbühler Lösungen Serie. Welche der folgenden Vektoren sind Eigenvektoren der Matrix? (a) (,, ). Ein Vektor v ist Eigenvektor von A :=, falls Av ein skalares

Mehr

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung

Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung Zurück Stand 4.. 6 Eigenwerte/Eigenvektoren/Eigenräume/Diagonalisierung Im Allgemeinen werden Vektoren durch Multiplikation mit einer Matrix gestreckt und um einen bestimmten Winkel gedreht. Es gibt jedoch

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

Lineare Algebra 1. Roger Burkhardt

Lineare Algebra 1. Roger Burkhardt Lineare Algebra 1 Roger Burkhardt [email protected] Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 2 Rechenoperationen und Gesetze Gleichheit

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 5. April 2018 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF

TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS. Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF TECHNISCHE UNIVERSITÄT MÜNCHEN FERIENKURS Lineare Algebra FLORIAN NIEDERREITER & AILEEN WOLF 07.03.2016-11.03.2016 Inhaltsverzeichnis Inhaltsverzeichnis 1 Darstellungsmatrizen 2 2 Diagonalisierbarkeit

Mehr

47 Singulärwertzerlegung

47 Singulärwertzerlegung 47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar

Mehr

3 Eigenwertberechnung

3 Eigenwertberechnung 3 Eigenwertberechnung (3.) Definition Eine Matrix A R, heißt (obere) Block-Dreiecksmatrix, wenn ein n existiert, sodass A[n + :, : n] = 0 gilt, d.h.: A = ( ) A[ : n, : n] A[ : n,n + : ] 0 A[n + :,n + :

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

7.3 Unitäre Operatoren

7.3 Unitäre Operatoren Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren

Mehr

QR-Iteration. Ax = λx Q T AQQ T x = λq T x.

QR-Iteration. Ax = λx Q T AQQ T x = λq T x. Lehrstuhl für Numerische Mathemati QR-Iteration Vorüberlegung: Die Multipliation mit einer orthonormalen Matrix Q heißt Ähnlicheitstransformation. Die Eigenwerte einer Matrix A bleiben unter einer Ähnlicheitstransformation

Mehr

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit.

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit. KAPITEL 8 Normalformen Definition 8.1 (Blockmatrizen). Sind 1. Blockmatrizen A K m 1 n 1,B K m 1 n 2,C K m 2 n 1 und D K m 2 n 2 so nennet man die Matrix X = ( A B C D ) K (m 1+m 2 ) (n 1 +n 2 ) eine Blockmatrix

Mehr

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46.1 Motivation Symmetrische Matrizen (a ij = a ji für alle i, j) kommen in der Praxis besonders häufig vor. Gibt es für sie spezielle Aussagen über

Mehr

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem

Mehr

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt

Mehr

5.2 Diagonalisierbarkeit und Trigonalisierung

5.2 Diagonalisierbarkeit und Trigonalisierung HINWEIS: Sie finden hier eine vorläufige Kurzfassung des Inhalts; es sind weder Beweise ausgeführt noch ausführliche Beispiele angegeben. Bitte informieren Sie sich in der Vorlesung. c M. Roczen und H.

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Die Top 10 der Algorithmen Der QR-Algorithmus

Die Top 10 der Algorithmen Der QR-Algorithmus Die Top 10 der Algorithmen Der QR-Algorithmus Hans Hansen TU Chemnitz WS 04/05 17. Januar 2005 1 INHALTSVERZEICHNIS 2 Inhaltsverzeichnis 1 Geschichte 3 2 Die Grundidee 3 3 Ähnlichkeitstransformationen

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 53 Norm von Endomorphismen und Matrizen Definition 53.1. Es seien V und W endlichdimensionale normierte K-

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren

Mehr

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren

2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren 2. Lineare Gleichungssysteme: direkte und iterative Lösungsverfahren Problem (P2): Löse Ax = b, A R n und b R. 2.1 Satz: Die folgenden Aussagen sind äquivalent: (i) Ax = b ist für jedes b eindeutig lösbar;

Mehr

Lösbarkeit linearer Gleichungssysteme

Lösbarkeit linearer Gleichungssysteme Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte

Mehr

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching

Lineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching Lineare Algebra. Übungsstunde Steven Battilana [email protected] battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v

Mehr

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen. Definition: Lineare Abbildung Lineare Abbildungen Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen. 8.1 Definition: Lineare Abbildung Eine Funktion f : V Ñ W zwischen

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte (Teschl/Teschl 4.2 Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

3 Lineare Gleichungssysteme

3 Lineare Gleichungssysteme Lineare Gleichungssysteme Wir wissen bereits, dass ein lineares Gleichungssystem genau dann eindeutig lösbar ist, wenn die zugehörige Matrix regulär ist. In diesem Kapitel lernen wir unterschiedliche Verfahren

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

45 Eigenwerte und Eigenvektoren

45 Eigenwerte und Eigenvektoren 45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.

Mehr

4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit

4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit 4.4 Simultane Diagonalisierbarkeit und Trigonalisierbarkeit Definition 4.41. Eine Familie F linearer Operatoren heißt vertauschbar oder kommutierend, wenn für je zwei Operatoren U,T in F gilt: UT = TU.

Mehr

Basiswissen Matrizen

Basiswissen Matrizen Basiswissen Matrizen Mathematik GK 32 Definition (Die Matrix) Eine Matrix A mit m Zeilen und n Spalten heißt m x n Matrix: a a 2 a 4 A a 2 a 22 a 24 a 4 a 42 a 44 Definition 2 (Die Addition von Matrizen)

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Ingenieure II, SS 9 Dienstag $Id: jordantex,v 8 9// 4:48:9 hk Exp $ $Id: quadrattex,v 9// 4:49: hk Exp $ Eigenwerte und die Jordansche Normalform Matrixgleichungen und Matrixfunktionen Eine

Mehr

Einführung Eigenwerte

Einführung Eigenwerte Einführung Eigenwerte Bei der Modellierung von Stabweren, entstehen folgende Systeme: p = Ax mit A = ENE T, Verschiebungsvetor x und Lastvetor p und Diagonalmatrix N mit den Materialeigenschaften. Betrachtet

Mehr

Einführung in die Grundlagen der Numerik

Einführung in die Grundlagen der Numerik Einführung in die Grundlagen der Numerik Institut für Numerische Simulation Rheinische Friedrich-Wilhelms-Universität Bonn Wintersemester 2014/2015 Definition Eigenwertproblem Zu einer Matrix A R n n sind

Mehr

4 Funktionenfolgen und normierte Räume

4 Funktionenfolgen und normierte Räume $Id: norm.tex,v 1.57 2018/06/08 16:27:08 hk Exp $ $Id: jordan.tex,v 1.34 2018/07/12 20:08:29 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Am Ende der letzten Sitzung hatten wir zwei

Mehr

Mathematische Grundlagen

Mathematische Grundlagen Mathematische Grundlagen 1 / 16 Vektorraum u R n, u = (u 1,..., u n ), u k R Euklidisches Skalarprodukt Euklidische Vektornorm (u, v) = u k v k u 2 = (u, u) = n u 2 k Vektoren u, v R n heißen orthogonal,

Mehr

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Ingenieure II, SS 9 Freitag 6 $Id: jordantex,v 7 9/6/ :8:5 hk Exp $ 5 Eigenwerte und die Jordansche Normalform 5 Die Jordansche Normalform Nachdem wir bisher das Vorgehen zur Berechnung

Mehr

Iterative Methoden zur Lösung von linearen Gleichungssystemen

Iterative Methoden zur Lösung von linearen Gleichungssystemen Iterative Methoden zur Lösung von linearen Gleichungssystemen (13.12.2011) Ziel Können wir wir die zeitabhängige Schrödinger-Gleichung lösen? φ(t) = e iht ψ(0) Typischerweise sind die Matrizen, die das

Mehr

29 Lineare Algebra 2 (SS 2009) 4.9. Das charakteristische Polynom sei Produkt von linearen Polynomen.

29 Lineare Algebra 2 (SS 2009) 4.9. Das charakteristische Polynom sei Produkt von linearen Polynomen. 9 Lineare Algebra (SS 009) 49 Das charakteristische Polynom sei Produkt von linearen Polynomen 49 Das charakteristische Polynom sei Potenz eines linearen Polynoms Wir betrachten nun eine Matrix A, sodass

Mehr

Serie 12: Eigenwerte und Eigenvektoren

Serie 12: Eigenwerte und Eigenvektoren D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie : Eigenwerte und Eigenvektoren Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom 7 und 9 Dezember Finden Sie für folgende

Mehr