Eigenwertaufgaben. Heinrich Voss. TUHH Heinrich Voss Kapitel / 80.

Größe: px
Ab Seite anzeigen:

Download "Eigenwertaufgaben. Heinrich Voss. TUHH Heinrich Voss Kapitel / 80."

Transkript

1 Heinrich Voss Hamburg University of Technology Institute for Numerical Simulation TUHH Heinrich Voss Kapitel / 80

2 Wir betrachten in diesem Kapitel die numerische Behandlung von vollbesetzten. TUHH Heinrich Voss Kapitel / 80

3 Wir betrachten in diesem Kapitel die numerische Behandlung von vollbesetzten. Abschnitt 6.1 Abschnitt 6.2 Abschnitt 6.3 Ergebnisse aus Lineare Algebra Potenzmethode QR Algorithmus TUHH Heinrich Voss Kapitel / 80

4 Vorbetrachtungen Da Eigenwerte und Eigenvektoren reeller Matrizen komplex sein können, betrachten wir gleich für A C n n das spezielle Eigenwertproblem. Ax = λx (1) TUHH Heinrich Voss Kapitel / 80

5 Vorbetrachtungen Da Eigenwerte und Eigenvektoren reeller Matrizen komplex sein können, betrachten wir gleich für A C n n das spezielle Eigenwertproblem. Ax = λx (1) Besitzt (1) eine nichttriviale Lösung x C n \ {0}, so heißt λ eine Eigenwert von A und x ein zugehöriger Eigenvektor. TUHH Heinrich Voss Kapitel / 80

6 Vorbetrachtungen Da Eigenwerte und Eigenvektoren reeller Matrizen komplex sein können, betrachten wir gleich für A C n n das spezielle Eigenwertproblem. Ax = λx (1) Besitzt (1) eine nichttriviale Lösung x C n \ {0}, so heißt λ eine Eigenwert von A und x ein zugehöriger Eigenvektor. Die Menge aller Eigenwerte einer Matrix A heißt das Spektrum von A und wird mit σ(a) bezeichnet. TUHH Heinrich Voss Kapitel / 80

7 Vorbetrachtungen Genauer heißt x 0 mit (1) ein Rechtseigenvektor von A zu λ. TUHH Heinrich Voss Kapitel / 80

8 Vorbetrachtungen Genauer heißt x 0 mit (1) ein Rechtseigenvektor von A zu λ. Ist λ eine Eigenwert von A, so besitzt auch die Gleichung y H (A λi) = 0 (2) nichttriviale Lösungen. Jedes y C n, das die Gleichung (2) erfüllt, heißt ein Linkseigenvektor von A. TUHH Heinrich Voss Kapitel / 80

9 Vorbetrachtungen Genauer heißt x 0 mit (1) ein Rechtseigenvektor von A zu λ. Ist λ eine Eigenwert von A, so besitzt auch die Gleichung y H (A λi) = 0 (2) nichttriviale Lösungen. Jedes y C n, das die Gleichung (2) erfüllt, heißt ein Linkseigenvektor von A. Die Notation ist hier nicht einheitlich. In einigen Büchern werden die nichttrivialen Lösungen von y T (A λi) = 0 die Linkseigenvektoren von A genannt. TUHH Heinrich Voss Kapitel / 80

10 Vorbetrachtungen Genauer heißt x 0 mit (1) ein Rechtseigenvektor von A zu λ. Ist λ eine Eigenwert von A, so besitzt auch die Gleichung y H (A λi) = 0 (2) nichttriviale Lösungen. Jedes y C n, das die Gleichung (2) erfüllt, heißt ein Linkseigenvektor von A. Die Notation ist hier nicht einheitlich. In einigen Büchern werden die nichttrivialen Lösungen von y T (A λi) = 0 die Linkseigenvektoren von A genannt. Wenn wir nur von Eigenvektoren sprechen, so sind stets Rechtseigenvektoren gemeint. TUHH Heinrich Voss Kapitel / 80

11 Vorbetrachtungen Die Eigenwerte von A sind die Nullstellen des charakteristischen Polynoms χ(λ) := det(a λi). TUHH Heinrich Voss Kapitel / 80

12 Vorbetrachtungen Die Eigenwerte von A sind die Nullstellen des charakteristischen Polynoms χ(λ) := det(a λi). Ist λ ein k-fache Nullstelle von χ (ist also das Polynom χ(λ) durch (λ λ) k aber nicht durch (λ λ) k+1 teilbar), so heißt k die algebraische Vielfachheit von λ. TUHH Heinrich Voss Kapitel / 80

13 Vorbetrachtungen Die Eigenwerte von A sind die Nullstellen des charakteristischen Polynoms χ(λ) := det(a λi). Ist λ ein k-fache Nullstelle von χ (ist also das Polynom χ(λ) durch (λ λ) k aber nicht durch (λ λ) k+1 teilbar), so heißt k die algebraische Vielfachheit von λ. Da χ den Grad n besitzt, besitzt also A genau n Eigenwerte, wenn man jeden Eigenwert entsprechend seiner algebraischen Vielfachheit zählt. TUHH Heinrich Voss Kapitel / 80

14 Vorbetrachtungen Die Eigenwerte von A sind die Nullstellen des charakteristischen Polynoms χ(λ) := det(a λi). Ist λ ein k-fache Nullstelle von χ (ist also das Polynom χ(λ) durch (λ λ) k aber nicht durch (λ λ) k+1 teilbar), so heißt k die algebraische Vielfachheit von λ. Da χ den Grad n besitzt, besitzt also A genau n Eigenwerte, wenn man jeden Eigenwert entsprechend seiner algebraischen Vielfachheit zählt. Die geometrische Vielfachheit eines Eigenwerts λ ist die Dimension des Lösungsraums des linearen Gleichungssystems (A λi)x = 0. TUHH Heinrich Voss Kapitel / 80

15 Vorbetrachtungen Die Eigenwerte von A sind die Nullstellen des charakteristischen Polynoms χ(λ) := det(a λi). Ist λ ein k-fache Nullstelle von χ (ist also das Polynom χ(λ) durch (λ λ) k aber nicht durch (λ λ) k+1 teilbar), so heißt k die algebraische Vielfachheit von λ. Da χ den Grad n besitzt, besitzt also A genau n Eigenwerte, wenn man jeden Eigenwert entsprechend seiner algebraischen Vielfachheit zählt. Die geometrische Vielfachheit eines Eigenwerts λ ist die Dimension des Lösungsraums des linearen Gleichungssystems (A λi)x = 0. Nach LA Satz 8.18 ist für jeden Eigenwert die geometrische Vielfachheit kleiner oder gleich der algebraischen Vielfachheit. TUHH Heinrich Voss Kapitel / 80

16 Vorbetrachtungen Gilt B = X 1 AX mit einer regulären Matrix X C n n, so heißen die Matrizen A und B ähnlich, den Übergang von A zu B nennt man eine Ähnlichkeitstransformation. TUHH Heinrich Voss Kapitel / 80

17 Vorbetrachtungen Gilt B = X 1 AX mit einer regulären Matrix X C n n, so heißen die Matrizen A und B ähnlich, den Übergang von A zu B nennt man eine Ähnlichkeitstransformation. Ähnliche Matrizen besitzen (vgl. LA Satz 8.15) dieselben Eigenwerte einschließlich ihrer algebraischen und geometrischen Vielfachheit. TUHH Heinrich Voss Kapitel / 80

18 Vorbetrachtungen Gilt B = X 1 AX mit einer regulären Matrix X C n n, so heißen die Matrizen A und B ähnlich, den Übergang von A zu B nennt man eine Ähnlichkeitstransformation. Ähnliche Matrizen besitzen (vgl. LA Satz 8.15) dieselben Eigenwerte einschließlich ihrer algebraischen und geometrischen Vielfachheit. Naheliegend ist es nun, die Matrix A, deren Eigenwerte bestimmt werden sollen, durch geeignete Ähnlichkeitstransformationen auf eine Gestalt zu bringen, aus der man die Eigenwerte (oder jedenfalls Näherungen hierfür) von A leicht ablesen kann oder für die das Eigenwertproblem leichter gelöst werden kann. TUHH Heinrich Voss Kapitel / 80

19 Vorbetrachtungen Gilt B = X 1 AX mit einer regulären Matrix X C n n, so heißen die Matrizen A und B ähnlich, den Übergang von A zu B nennt man eine Ähnlichkeitstransformation. Ähnliche Matrizen besitzen (vgl. LA Satz 8.15) dieselben Eigenwerte einschließlich ihrer algebraischen und geometrischen Vielfachheit. Naheliegend ist es nun, die Matrix A, deren Eigenwerte bestimmt werden sollen, durch geeignete Ähnlichkeitstransformationen auf eine Gestalt zu bringen, aus der man die Eigenwerte (oder jedenfalls Näherungen hierfür) von A leicht ablesen kann oder für die das Eigenwertproblem leichter gelöst werden kann. Da folgende Lemma ermöglicht es, die Dimension des Eigenwertproblems zu reduzieren. TUHH Heinrich Voss Kapitel / 80

20 Lemma Besitzt A C n n eine Blockzerlegung ( ) A11 A A = 12 O A 22 mit A 11 C m m, A 22 C n m n m, so gilt σ(a) = σ(a 11 ) σ(a 22 ). (3) TUHH Heinrich Voss Kapitel / 80

21 Beweis Es gelte ( A11 A Ax = 12 O A 22 mit x 1 C m und x 2 C n m. ) ( x1 x 2 ) ( x1 = λ x 2 ) TUHH Heinrich Voss Kapitel / 80

22 Beweis Es gelte ( A11 A Ax = 12 O A 22 mit x 1 C m und x 2 C n m. ) ( x1 x 2 ) ( x1 = λ x 2 ) Gilt x 2 0, so ist A 22 x 2 = λx 2 und λ σ(a 22 ). TUHH Heinrich Voss Kapitel / 80

23 Beweis Es gelte ( A11 A Ax = 12 O A 22 mit x 1 C m und x 2 C n m. ) ( x1 x 2 ) ( x1 = λ x 2 ) Gilt x 2 0, so ist A 22 x 2 = λx 2 und λ σ(a 22 ). Ist x 2 = 0, so gilt A 11 x 1 = λx 1 und λ σ(a 11 ). Es ist also σ(a) σ(a 11 ) σ(a 22 ). TUHH Heinrich Voss Kapitel / 80

24 Beweis Es gelte ( A11 A Ax = 12 O A 22 mit x 1 C m und x 2 C n m. ) ( x1 x 2 ) ( x1 = λ x 2 ) Gilt x 2 0, so ist A 22 x 2 = λx 2 und λ σ(a 22 ). Ist x 2 = 0, so gilt A 11 x 1 = λx 1 und λ σ(a 11 ). Es ist also σ(a) σ(a 11 ) σ(a 22 ). Zählt man alle Eigenwerte entsprechend ihrer algebraischen Vielfachheit, so besitzt A n Eigenwerte, A 11 m Eigenwerte und A 22 n m Eigenwerte. Damit kann die Inklusion nicht echt sein, und es ist (3) bewiesen. TUHH Heinrich Voss Kapitel / 80

25 Jordansche Normalform Ist J die Jordansche Normalform der Matrix A und X 1 AX = J, so kann man (vgl. LA Abschnitt 8.5) alle Eigenwerte und Eigenvektoren (und auch Hauptvektoren) von A aus J und der Transformationsmatrix X sofort ablesen. TUHH Heinrich Voss Kapitel / 80

26 Jordansche Normalform Ist J die Jordansche Normalform der Matrix A und X 1 AX = J, so kann man (vgl. LA Abschnitt 8.5) alle Eigenwerte und Eigenvektoren (und auch Hauptvektoren) von A aus J und der Transformationsmatrix X sofort ablesen. Trotzdem wird die Jordansche Normalform in der numerischen Mathematik nicht verwendet. Den Grund zeigt TUHH Heinrich Voss Kapitel / 80

27 Beispiel Die Störung J α := Rn n α der Jordanschen Normalform J 0 mit dem n-fachen Eigenwert 0 besitzt das charakteristische Polynom χ α (λ) = ( 1) n (λ n α). TUHH Heinrich Voss Kapitel / 80

28 Beispiel Die Störung J α := Rn n α der Jordanschen Normalform J 0 mit dem n-fachen Eigenwert 0 besitzt das charakteristische Polynom χ α (λ) = ( 1) n (λ n α). J α besitzt also n verschiedene Nullstellen, und ist daher auf Diagonalgestalt transformierbar. Dies zeigt, dass die Struktur der Jordanschen Normalform nicht stabil unter kleinen Störungen ist. TUHH Heinrich Voss Kapitel / 80

29 Unitäre Transformationen Wir betrachten ferner nicht beliebige Ähnlichkeitstransformationen, denn die nichtsinguläre Transformationsmatrix X kann schlecht konditioniert sein. TUHH Heinrich Voss Kapitel / 80

30 Unitäre Transformationen Wir betrachten ferner nicht beliebige Ähnlichkeitstransformationen, denn die nichtsinguläre Transformationsmatrix X kann schlecht konditioniert sein. In diesem Fall ist die Transformation X 1 AX anfällig für Rundungsfehler. TUHH Heinrich Voss Kapitel / 80

31 Unitäre Transformationen Wir betrachten ferner nicht beliebige Ähnlichkeitstransformationen, denn die nichtsinguläre Transformationsmatrix X kann schlecht konditioniert sein. In diesem Fall ist die Transformation X 1 AX anfällig für Rundungsfehler. Um dies auszuschließen, beschränken wir uns auf unitäre Transformationsmatrizen U, für die also gilt U H U = I. Für diese ist Ux 2 2 = (Ux) H (Ux) = x H U H Ux = x H x = x 2 2 für alle x C n, daher gilt U 2 = 1, und da mit U auch U 1 = U H unitär ist, erhält man κ 2 (U) = 1. TUHH Heinrich Voss Kapitel / 80

32 Schursche Normalform Wir wissen (vgl. LA Satz 8.31), dass man genau die normalen Matrizen mit unitären Matrizen auf Diagonalgestalt transformieren kann. TUHH Heinrich Voss Kapitel / 80

33 Schursche Normalform Wir wissen (vgl. LA Satz 8.31), dass man genau die normalen Matrizen mit unitären Matrizen auf Diagonalgestalt transformieren kann. Allgemeine Matrizen kann man auf obere Dreiecksgestalt transformieren, aus der man dann wieder die Eigenwerte unmittelbar ablesen kann. TUHH Heinrich Voss Kapitel / 80

34 Schursche Normalform Wir wissen (vgl. LA Satz 8.31), dass man genau die normalen Matrizen mit unitären Matrizen auf Diagonalgestalt transformieren kann. Allgemeine Matrizen kann man auf obere Dreiecksgestalt transformieren, aus der man dann wieder die Eigenwerte unmittelbar ablesen kann. Satz 6.3 [Schursche Normalform] Es sei A C n n. Dann existiert eine unitäre Matrix U, so dass obere Dreiecksgestalt besitzt. U H AU = T (4) TUHH Heinrich Voss Kapitel / 80

35 Schursche Normalform Wir wissen (vgl. LA Satz 8.31), dass man genau die normalen Matrizen mit unitären Matrizen auf Diagonalgestalt transformieren kann. Allgemeine Matrizen kann man auf obere Dreiecksgestalt transformieren, aus der man dann wieder die Eigenwerte unmittelbar ablesen kann. Satz 6.3 [Schursche Normalform] Es sei A C n n. Dann existiert eine unitäre Matrix U, so dass obere Dreiecksgestalt besitzt. U H AU = T (4) T heißt Schursche Normalform der Matrix A. TUHH Heinrich Voss Kapitel / 80

36 Bemerkung Besitzt A die Schur Zerlegung U H AU = diag {λ 1,..., λ n } + N mit einer strikten oberen Dreiecksmatrix N, so gilt unabhängig von der Wahl von U für die Schur Norm n n N 2 S = UH AU 2 S λ j 2 = A 2 S λ j 2. j=1 j=1 TUHH Heinrich Voss Kapitel / 80

37 Bemerkung Besitzt A die Schur Zerlegung U H AU = diag {λ 1,..., λ n } + N mit einer strikten oberen Dreiecksmatrix N, so gilt unabhängig von der Wahl von U für die Schur Norm n n N 2 S = UH AU 2 S λ j 2 = A 2 S λ j 2. j=1 j=1 Es gilt N 2 S = 0 genau dann, wenn A eine normale Matrix ist. TUHH Heinrich Voss Kapitel / 80

38 Bemerkung Besitzt A die Schur Zerlegung U H AU = diag {λ 1,..., λ n } + N mit einer strikten oberen Dreiecksmatrix N, so gilt unabhängig von der Wahl von U für die Schur Norm n n N 2 S = UH AU 2 S λ j 2 = A 2 S λ j 2. j=1 j=1 Es gilt N 2 S = 0 genau dann, wenn A eine normale Matrix ist. N S =: (A) heißt die Abweichung von A von der Normalität. TUHH Heinrich Voss Kapitel / 80

39 Quasidreiecksgestalt Bei der bisherigen Behandlung der Ähnlichkeitstransformationen haben wir einen wichtigen Aspekt nicht berücksichtigt. Ist die Ausgangsmatrix A reell, so wird man nur orthogonale Matrizen U (d.h. reelle unitäre Matrizen) zur Transformation benutzen, da sonst U H AU komplexe Elemente enthält. TUHH Heinrich Voss Kapitel / 80

40 Quasidreiecksgestalt Bei der bisherigen Behandlung der Ähnlichkeitstransformationen haben wir einen wichtigen Aspekt nicht berücksichtigt. Ist die Ausgangsmatrix A reell, so wird man nur orthogonale Matrizen U (d.h. reelle unitäre Matrizen) zur Transformation benutzen, da sonst U H AU komplexe Elemente enthält. Besitzt A komplexe Eigenwerte, so kann A hiermit offenbar nicht auf obere Dreiecksgestalt transformiert werden (die Diagonale enthält ja die Eigenwerte). TUHH Heinrich Voss Kapitel / 80

41 Quasidreiecksgestalt Bei der bisherigen Behandlung der Ähnlichkeitstransformationen haben wir einen wichtigen Aspekt nicht berücksichtigt. Ist die Ausgangsmatrix A reell, so wird man nur orthogonale Matrizen U (d.h. reelle unitäre Matrizen) zur Transformation benutzen, da sonst U H AU komplexe Elemente enthält. Besitzt A komplexe Eigenwerte, so kann A hiermit offenbar nicht auf obere Dreiecksgestalt transformiert werden (die Diagonale enthält ja die Eigenwerte). Da mit λ C \ R auch λ Eigenwert von A ist (das charakteristische Polynom hat reelle Koeffizienten!), kann man A auf Quasidreiecksgestalt transformieren. TUHH Heinrich Voss Kapitel / 80

42 Quasidreiecksgestalt Dabei heißt eine Matrix R Quasidreiecksmatrix, falls R 11 R 12 R R 1k O R 22 R R 2k R = O O O... R kk obere Blockdreiecksgestalt besitzt und die Diagonalblöcke R jj alle die Dimension 1 oder 2 besitzen. TUHH Heinrich Voss Kapitel / 80

43 Reelle Schur Form Sei A R n n. Dann existiert eine orthogonale Matrix U, so dass U T AU quasidreieckig ist. U kann so gewählt werden, dass jeder 2 2 Diagonalblock R jj nur komplexe Eigenwerte besitzt. TUHH Heinrich Voss Kapitel / 80

44 Störungssätze Viele Verfahren zur Bestimmung von Eigenwerten bestehen darin, Matrizen X k zu bestimmen, so dass X 1 k AX k mehr und mehr einer Diagonalmatrix gleicht. TUHH Heinrich Voss Kapitel / 80

45 Störungssätze Viele Verfahren zur Bestimmung von Eigenwerten bestehen darin, Matrizen X k zu bestimmen, so dass X 1 k AX k mehr und mehr einer Diagonalmatrix gleicht. Wir fragen daher, wie gut die Eigenwerte einer Matrix durch ihre Diagonalelemente approximiert werden. TUHH Heinrich Voss Kapitel / 80

46 Satz von Gerschgorin Sei Dann gilt A := (a ij ) C n n, z i := n a ij, s j := j=1 j i n a ij. i=1 i j TUHH Heinrich Voss Kapitel / 80

47 Satz von Gerschgorin Sei Dann gilt A := (a ij ) C n n, z i := n a ij, s j := j=1 j i n a ij. i=1 i j (i) Alle Eigenwerte von A liegen in der Vereinigung der Kreise Z i := {z C : z a ii z i }. TUHH Heinrich Voss Kapitel / 80

48 Satz von Gerschgorin Sei Dann gilt A := (a ij ) C n n, z i := n a ij, s j := j=1 j i n a ij. i=1 i j (i) Alle Eigenwerte von A liegen in der Vereinigung der Kreise Z i := {z C : z a ii z i }. (ii) Alle Eigenwerte von A liegen in der Vereinigung der Kreise S j := {z C : z a jj s j }. TUHH Heinrich Voss Kapitel / 80

49 Satz von Gerschgorin Sei Dann gilt A := (a ij ) C n n, z i := n a ij, s j := j=1 j i n a ij. i=1 i j (i) Alle Eigenwerte von A liegen in der Vereinigung der Kreise Z i := {z C : z a ii z i }. (ii) Alle Eigenwerte von A liegen in der Vereinigung der Kreise S j := {z C : z a jj s j }. (iii) Jede Zusammenhangskomponente von n Z i bzw. i=1 n S j enthält genau so viele Eigenwerte von A wie Kreise an der Komponente beteiligt sind, wobei Kreise und Eigenwerte entsprechend ihrer (algebraischen) Vielfachheit gezählt sind. j=1 TUHH Heinrich Voss Kapitel / 80

50 Beweis (i): Sei Ax = λx, x 0. Dann gilt (λ a ii )x i = j i a ij x j für alle i. TUHH Heinrich Voss Kapitel / 80

51 Beweis (i): Sei Ax = λx, x 0. Dann gilt (λ a ii )x i = j i a ij x j für alle i. Sei i {1,..., n} ein Index mit x i = x. Dann folgt λ a ii a ij x j x i z i, j i }{{} 1 und daher gilt λ Z i. TUHH Heinrich Voss Kapitel / 80

52 Beweis (i): Sei Ax = λx, x 0. Dann gilt (λ a ii )x i = j i a ij x j für alle i. Sei i {1,..., n} ein Index mit x i = x. Dann folgt λ a ii a ij x j x i z i, j i }{{} 1 und daher gilt λ Z i. (ii) folgt aus (i), da A und A T dieselben Eigenwerte besitzen. TUHH Heinrich Voss Kapitel / 80

53 Beweis cnt. (iii) Wir betrachten für t [0, 1] A(t) := D + t(a D) mit D := diag {a 11,..., a nn }. TUHH Heinrich Voss Kapitel / 80

54 Beweis cnt. (iii) Wir betrachten für t [0, 1] A(t) := D + t(a D) mit D := diag {a 11,..., a nn }. Dann sind für A(t) die Radien der Kreise Z i (t) bzw. S j (t) gleich tz i bzw. ts j und die Mittelpunkte a ii bzw. a jj. TUHH Heinrich Voss Kapitel / 80

55 Beweis cnt. (iii) Wir betrachten für t [0, 1] A(t) := D + t(a D) mit D := diag {a 11,..., a nn }. Dann sind für A(t) die Radien der Kreise Z i (t) bzw. S j (t) gleich tz i bzw. ts j und die Mittelpunkte a ii bzw. a jj. Offenbar ist die Behauptung für t = 0 richtig. Wächst nun t, so bleibt wegen der stetigen Abhängigkeit der Eigenwerte von den Elementen der Matrix A(t), also von t, die Anzahl der Kreise und Eigenwerte in einer Komponente konstant, solange sie nicht mit einer anderen Komponente zusammenstößt. TUHH Heinrich Voss Kapitel / 80

56 Beweis cnt. (iii) Wir betrachten für t [0, 1] A(t) := D + t(a D) mit D := diag {a 11,..., a nn }. Dann sind für A(t) die Radien der Kreise Z i (t) bzw. S j (t) gleich tz i bzw. ts j und die Mittelpunkte a ii bzw. a jj. Offenbar ist die Behauptung für t = 0 richtig. Wächst nun t, so bleibt wegen der stetigen Abhängigkeit der Eigenwerte von den Elementen der Matrix A(t), also von t, die Anzahl der Kreise und Eigenwerte in einer Komponente konstant, solange sie nicht mit einer anderen Komponente zusammenstößt. Geschieht dies, so addieren sich die Kreise und Eigenwerte. Die Behauptung ist also für alle t 0 und damit für A = A(1) richtig. TUHH Heinrich Voss Kapitel / 80

57 Bemerkung Die Aussage (iii) lässt sich nicht verschärfen zu: In jedem Kreis S i bzw. Z j liegt mindestens ein Eigenwert von A, TUHH Heinrich Voss Kapitel / 80

58 Bemerkung Die Aussage (iii) lässt sich nicht verschärfen zu: In jedem Kreis S i bzw. Z j liegt mindestens ein Eigenwert von A, denn sei A = ( ) TUHH Heinrich Voss Kapitel / 80

59 Bemerkung Die Aussage (iii) lässt sich nicht verschärfen zu: In jedem Kreis S i bzw. Z j liegt mindestens ein Eigenwert von A, denn sei A = ( ) Dann sind die Eigenwerte λ 1/2 = ± 2, und es liegt kein Eigenwert in Z 1 = S 2 = {z : z 1}. TUHH Heinrich Voss Kapitel / 80

60 Bemerkung Die Aussage (iii) lässt sich nicht verschärfen zu: In jedem Kreis S i bzw. Z j liegt mindestens ein Eigenwert von A, denn sei A = ( ) Dann sind die Eigenwerte λ 1/2 = ± 2, und es liegt kein Eigenwert in Z 1 = S 2 = {z : z 1}. Für viele Eigenwert Routinen kann man zeigen, dass die berechneten Eigenwerte λ 1,..., λ n die exakten Eigenwerte einer gestörten Matrix A + E sind, wobei E eine kleine Norm besitzt. TUHH Heinrich Voss Kapitel / 80

61 Bemerkung Die Aussage (iii) lässt sich nicht verschärfen zu: In jedem Kreis S i bzw. Z j liegt mindestens ein Eigenwert von A, denn sei A = ( ) Dann sind die Eigenwerte λ 1/2 = ± 2, und es liegt kein Eigenwert in Z 1 = S 2 = {z : z 1}. Für viele Eigenwert Routinen kann man zeigen, dass die berechneten Eigenwerte λ 1,..., λ n die exakten Eigenwerte einer gestörten Matrix A + E sind, wobei E eine kleine Norm besitzt. Wir fragen daher, wie Störungen die Eigenwerte einer Matrix beeinflussen. Beispielhaft hierfür ist: TUHH Heinrich Voss Kapitel / 80

62 Satz von Bauer Fike Es sei A diagonalisierbar. TUHH Heinrich Voss Kapitel / 80

63 Satz von Bauer Fike Es sei A diagonalisierbar. Ist µ Eigenwert von A + E C n n und X 1 AX = Λ = diag {λ 1,..., λ n }, TUHH Heinrich Voss Kapitel / 80

64 Satz von Bauer Fike Es sei A diagonalisierbar. Ist µ Eigenwert von A + E C n n und X 1 AX = Λ = diag {λ 1,..., λ n }, so gilt min λ µ κ p(x) E p. λ σ(a) TUHH Heinrich Voss Kapitel / 80

65 Satz von Bauer Fike Es sei A diagonalisierbar. Ist µ Eigenwert von A + E C n n und X 1 AX = Λ = diag {λ 1,..., λ n }, so gilt min λ µ κ p(x) E p. λ σ(a) Dabei bezeichnet p die von der Höldernorm n x p := x j p j=1 1/p, p 1, induzierte Matrixnorm und κ p die Kondition bzgl. p. TUHH Heinrich Voss Kapitel / 80

66 Satz von Bauer Fike Es sei A diagonalisierbar. Ist µ Eigenwert von A + E C n n und X 1 AX = Λ = diag {λ 1,..., λ n }, so gilt min λ µ κ p(x) E p. λ σ(a) Dabei bezeichnet p die von der Höldernorm n x p := x j p j=1 1/p, p 1, induzierte Matrixnorm und κ p die Kondition bzgl. p. TUHH Heinrich Voss Kapitel / 80

67 Beweis Für µ σ(a) ist die Aussage trivial. Sei also µ / σ(a). TUHH Heinrich Voss Kapitel / 80

68 Beweis Für µ σ(a) ist die Aussage trivial. Sei also µ / σ(a). Da X 1 (A + E µi)x singulär ist, ist auch I + (Λ µi) 1 (X 1 EX) = (Λ µi) 1 X 1 (A + E µi)x singulär. TUHH Heinrich Voss Kapitel / 80

69 Beweis Für µ σ(a) ist die Aussage trivial. Sei also µ / σ(a). Da X 1 (A + E µi)x singulär ist, ist auch I + (Λ µi) 1 (X 1 EX) = (Λ µi) 1 X 1 (A + E µi)x singulär. Also existiert y C n, y p = 1 mit y + (Λ µi) 1 (X 1 EX)y = 0 TUHH Heinrich Voss Kapitel / 80

70 Beweis cnt. Hieraus folgt 1 = y p = (Λ µi) 1 (X 1 EX)y p max (Λ µi) 1 (X 1 EX)z p z p=1 = (Λ µi) 1 X 1 1 EX p 1 min λ µ X p E p X p, λ σ(a) TUHH Heinrich Voss Kapitel / 80

71 Beweis cnt. Hieraus folgt 1 = y p = (Λ µi) 1 (X 1 EX)y p max (Λ µi) 1 (X 1 EX)z p z p=1 = (Λ µi) 1 X 1 1 EX p 1 min λ µ X p E p X p, λ σ(a) wobei ausgenutzt wurde, dass die p Norm einer Diagonalmatrix gleich dem Betrag des betragsmaximalen Elements der Matrix ist. TUHH Heinrich Voss Kapitel / 80

72 Korollar Für normale Matrizen erhält man insbesondere TUHH Heinrich Voss Kapitel / 80

73 Korollar Für normale Matrizen erhält man insbesondere Korollar 6.9 Es sei A eine normale Matrix und µ ein Eigenwert von A + E C n n. Dann gilt min λ σ(a) λ µ E 2 TUHH Heinrich Voss Kapitel / 80

74 Korollar Für normale Matrizen erhält man insbesondere Korollar 6.9 Es sei A eine normale Matrix und µ ein Eigenwert von A + E C n n. Dann gilt min λ σ(a) λ µ E 2 Beweis Da A normal ist, kann man in Satz 6.8 X unitär wählen, und die Behauptung folgt dann aus κ 2 (X) = 1. TUHH Heinrich Voss Kapitel / 80

75 Potenzmethods Wir betrachten in diesem Abschnitt ein Verfahren zur Bestimmung des betragsgrößten Eigenwerts und zugehörigen Eigenvektors, eine Modifikation hiervon, um auch andere Eigenwerte zu berechnen und eine simultane Variante. TUHH Heinrich Voss Kapitel / 80

76 Potenzmethods Wir betrachten in diesem Abschnitt ein Verfahren zur Bestimmung des betragsgrößten Eigenwerts und zugehörigen Eigenvektors, eine Modifikation hiervon, um auch andere Eigenwerte zu berechnen und eine simultane Variante. Wir besprechen die Methoden vor allem zum besseren Verständnis des dann im nächsten Abschnitt folgenden Arbeitspferdes zur Berechnung von Eigenwerten und Eigenvektoren, des QR Algorithmus. TUHH Heinrich Voss Kapitel / 80

77 Potenzmethods Wir betrachten für A C n n die spezielle Eigenwertaufgabe Ax = λx. (1) TUHH Heinrich Voss Kapitel / 80

78 Potenzmethods Wir betrachten für A C n n die spezielle Eigenwertaufgabe Ax = λx. (1) Es sei A diagonalisierbar, Ax i = λ i x i, i = 1,..., n, und es besitze A einen dominanten Eigenwert λ 1, d.h. λ 1 > λ 2... λ n. (2) TUHH Heinrich Voss Kapitel / 80

79 Potenzmethods Es sei u 0 C n, u 0 0, gegeben. TUHH Heinrich Voss Kapitel / 80

80 Potenzmethods Es sei u 0 C n, u 0 0, gegeben. Multipliziert man u 0 =: n α i x i i=1 m mal mit der Matrix A, so folgt { n A m u 0 = α i λ m i x i = λ m 1 α 1 x 1 + i=1 n i=2 ( ) } m λi α i x i. (3) λ 1 TUHH Heinrich Voss Kapitel / 80

81 Potenzmethods Es sei u 0 C n, u 0 0, gegeben. Multipliziert man u 0 =: n α i x i i=1 m mal mit der Matrix A, so folgt { n A m u 0 = α i λ m i x i = λ m 1 α 1 x 1 + i=1 n i=2 ( ) } m λi α i x i. (3) λ 1 Wegen (2) konvergiert daher die Folge {λ m 1 A m u 0 } gegen ein Vielfaches von x 1, falls α 1 0 gilt, d.h. {A m u 0 } konvergiert gegen die Eigenrichtung span{x 1 } zum dominanten Eigenwert λ 1, wenn der Startvektor u 0 eine Komponente in Richtung von x 1 besitzt. TUHH Heinrich Voss Kapitel / 80

82 Potenzmethods Gilt λ 1 1, so erhält man für große m Exponentenüberlauf oder -unterlauf. Man wird also die Folge {A m u 0 } noch geeignet normieren und erhält die Potenzmethode oder das von Mises Verfahren. TUHH Heinrich Voss Kapitel / 80

83 Potenzmethods Gilt λ 1 1, so erhält man für große m Exponentenüberlauf oder -unterlauf. Man wird also die Folge {A m u 0 } noch geeignet normieren und erhält die Potenzmethode oder das von Mises Verfahren. Sei irgendeine Norm auf C n und u 0 C n \ {0}. TUHH Heinrich Voss Kapitel / 80

84 Potenzmethods Gilt λ 1 1, so erhält man für große m Exponentenüberlauf oder -unterlauf. Man wird also die Folge {A m u 0 } noch geeignet normieren und erhält die Potenzmethode oder das von Mises Verfahren. Sei irgendeine Norm auf C n und u 0 C n \ {0}. Algorithmus 6.14 [Potenzmethode] 1: for m=0,1,... until convergence do 2: v m+1 = Au m ; 3: k m+1 = v m+1 ; 4: u m+1 = v m+1 /k m+1 ; 5: end for TUHH Heinrich Voss Kapitel / 80

85 Potenzmethods Häufig wird eine andere Skalierung der erzeugten Folge gewählt, die billiger ist als die Normierung. Sei dazu l C n ein gegebener Vektor. Hiermit iterieren wir gemäß TUHH Heinrich Voss Kapitel / 80

86 Potenzmethods Häufig wird eine andere Skalierung der erzeugten Folge gewählt, die billiger ist als die Normierung. Sei dazu l C n ein gegebener Vektor. Hiermit iterieren wir gemäß Algorithmus 6.15 [Potenzmethode] 1: for m=0,1,... until convergence do 2: v m+1 = Au m ; 3: k m+1 = l H v m+1 ; 4: u m+1 = v m+1 /k m+1 ; 5: end for TUHH Heinrich Voss Kapitel / 80

87 Konvergenzsatz Es sei λ 1 dominanter Eigenwert von A und u 0 := n α i x i i=1 mit α 1 0 und l C n. TUHH Heinrich Voss Kapitel / 80

88 Konvergenzsatz Es sei λ 1 dominanter Eigenwert von A und u 0 := n α i x i i=1 mit α 1 0 und l C n. Es seien u m und k m nach Algorithmus 6.15 berechnet. Gilt dann l H u m 0 für alle m N und l H x 1 0, so ist lim k m = λ 1, m lim m um = 1 l H x 1 x 1. TUHH Heinrich Voss Kapitel / 80

89 Beweis Offensichtlich gilt u m = A m u 0 /l H A m u 0. TUHH Heinrich Voss Kapitel / 80

90 Beweis Offensichtlich gilt u m = A m u 0 /l H A m u 0. Daher ist und aus k m = l H v m = l H Au m 1 = l H A Am 1 u 0 l H A m 1 u 0 = lh A m u 0 l H A m 1 u 0, lim m λ m 1 A m u 0 = α 1 x 1 TUHH Heinrich Voss Kapitel / 80

91 Beweis Offensichtlich gilt u m = A m u 0 /l H A m u 0. Daher ist und aus folgt k m = l H v m = l H Au m 1 = l H A Am 1 u 0 l H A m 1 u 0 = lh A m u 0 l H A m 1 u 0, lim m λ 1 1 k m = lim m λ m 1 A m u 0 = α 1 x 1 lim m lh (λ m 1 A m u 0 ) lim m lh (λ (m 1) 1 A m 1 u 0 ) = 1, TUHH Heinrich Voss Kapitel / 80

92 Beweis cnt. d.h. lim m k m = λ 1 TUHH Heinrich Voss Kapitel / 80

93 Beweis cnt. d.h. lim m k m = λ 1 und A m u 0 lim m um = lim m l H A m u 0 α 1 x 1 + n i=2 = α i(λ i /λ 1 ) m x i α 1 l H x 1 + n i=2 α 1(λ i /λ 1 ) m l H x i = x 1 l H x 1. TUHH Heinrich Voss Kapitel / 80

94 Bemerkungen 1. Eine häufige Wahl von l ist l = e k für ein k {1,..., n}, d.h. man normiert im Eigenvektor die k te Komponente zu 1, wobei man nicht vorhersagen kann, welches k geeignet ist. TUHH Heinrich Voss Kapitel / 80

95 Bemerkungen 1. Eine häufige Wahl von l ist l = e k für ein k {1,..., n}, d.h. man normiert im Eigenvektor die k te Komponente zu 1, wobei man nicht vorhersagen kann, welches k geeignet ist. 2. Ist A R n n nichtnegativ und irreduzibel, so ist der zum Spektralradius gehörende Eigenvektor positiv, und man kann l = (1, 1,..., 1) T wählen, wenn u 0 positive Komponenten hat. TUHH Heinrich Voss Kapitel / 80

96 Bemerkungen 1. Eine häufige Wahl von l ist l = e k für ein k {1,..., n}, d.h. man normiert im Eigenvektor die k te Komponente zu 1, wobei man nicht vorhersagen kann, welches k geeignet ist. 2. Ist A R n n nichtnegativ und irreduzibel, so ist der zum Spektralradius gehörende Eigenvektor positiv, und man kann l = (1, 1,..., 1) T wählen, wenn u 0 positive Komponenten hat. 3. Wir haben α 1 0 vorausgesetzt. Diese Voraussetzung ist nicht einschneidend, denn durch Rundungsfehler wird (fast immer) ein u m erzeugt, das eine Komponente in Richtung von x 1 besitzt. TUHH Heinrich Voss Kapitel / 80

97 Bemerkungen 1. Eine häufige Wahl von l ist l = e k für ein k {1,..., n}, d.h. man normiert im Eigenvektor die k te Komponente zu 1, wobei man nicht vorhersagen kann, welches k geeignet ist. 2. Ist A R n n nichtnegativ und irreduzibel, so ist der zum Spektralradius gehörende Eigenvektor positiv, und man kann l = (1, 1,..., 1) T wählen, wenn u 0 positive Komponenten hat. 3. Wir haben α 1 0 vorausgesetzt. Diese Voraussetzung ist nicht einschneidend, denn durch Rundungsfehler wird (fast immer) ein u m erzeugt, das eine Komponente in Richtung von x 1 besitzt. 4. Ist λ 1 mehrfacher Eigenwert von A und A diagonalähnlich, so bleiben alle Überlegungen richtig, wenn nur u 0 eine Komponente in Richtung des Eigenraumes von A zu λ 1 besitzt oder eine solche durch Rundungsfehler erzeugt wird. TUHH Heinrich Voss Kapitel / 80

98 Bemerkungen 5. Ist A R n n mit λ 1 = λ 2 > λ 3... λ n und λ 1 λ 2 (also λ 1 = λ 2 oder λ 1 = λ 2 ), so erhält man keine Konvergenz, sondern es treten in der Folge {u m } Oszillationen auf. Auch in diesem Fall kann man aus (drei aufeinanderfolgenden Elementen) der Folge {u m } Näherungen für die zu λ 1 und λ 2 gehörenden Eigenvektoren ermitteln. Eine ausführliche Diskussion findet man in Zurmühl, pp. 283 ff. TUHH Heinrich Voss Kapitel / 80

99 Bemerkungen 5. Ist A R n n mit λ 1 = λ 2 > λ 3... λ n und λ 1 λ 2 (also λ 1 = λ 2 oder λ 1 = λ 2 ), so erhält man keine Konvergenz, sondern es treten in der Folge {u m } Oszillationen auf. Auch in diesem Fall kann man aus (drei aufeinanderfolgenden Elementen) der Folge {u m } Näherungen für die zu λ 1 und λ 2 gehörenden Eigenvektoren ermitteln. Eine ausführliche Diskussion findet man in Zurmühl, pp. 283 ff. 6. Schließlich haben wir vorausgesetzt, dass A diagonalisierbar ist. Ist dies nicht erfüllt, so muss man u 0 als Linearkombination von Hauptvektoren darstellen und erhält ebenfalls Konvergenz des Verfahrens (vgl. Collatz, pp. 325 ff.). TUHH Heinrich Voss Kapitel / 80

100 Bemerkungen 7. Für die Konvergenzgeschwindigkeit gilt mit q := max λ i i=2,...,m λ 1 TUHH Heinrich Voss Kapitel / 80

101 Bemerkungen 7. Für die Konvergenzgeschwindigkeit gilt mit q := max λ i i=2,...,m λ 1 k m+1 λ 1 = = l H A m+1 u 0 l H A m u 0 λ 1 = 1 l H A m u 0 lh (A m+1 u 0 λ 1 A m u 0 ) ( λ m+1 n ( ( ) m+1 ( ) ) ) m 1 λi λi l H A m u 0 lh α i x i λ 1 λ 1 i=2 λ m+1 1 n m l H A m u 0 l 2 α i λ i λ i 1 λ 1 x i 2 Cq m (4) i=2 λ 1 d.h. wir haben lineare Konvergenz mit dem Konvergenzfaktor q. TUHH Heinrich Voss Kapitel / 80

102 Bemerkungen 7. Für die Konvergenzgeschwindigkeit gilt mit q := max λ i i=2,...,m λ 1 k m+1 λ 1 = = l H A m+1 u 0 l H A m u 0 λ 1 = 1 l H A m u 0 lh (A m+1 u 0 λ 1 A m u 0 ) ( λ m+1 n ( ( ) m+1 ( ) ) ) m 1 λi λi l H A m u 0 lh α i x i λ 1 λ 1 i=2 λ m+1 1 n m l H A m u 0 l 2 α i λ i λ i 1 λ 1 x i 2 Cq m (4) i=2 λ 1 d.h. wir haben lineare Konvergenz mit dem Konvergenzfaktor q. Ist also λ 1 von den Beträgen der übrigen Eigenwerte gut getrennt, so erhält man rasche Konvergenz, i.a. ist das Verfahren aber sehr langsam. TUHH Heinrich Voss Kapitel / 80

103 Bemerkungen 8. Bisweilen kann die Konvergenzgeschwindigkeit durch eine Spektralverschiebung verbessert werden, d.h. betrachte A + αi, α C. Dann gehen die Eigenwerte über in λ i + α, und die Konvergenzgeschwindigkeit wird bestimmt durch q := max λ i + α i=2,...,n λ 1 + α. Die Verbesserung hierdurch ist meistens unwesentlich. TUHH Heinrich Voss Kapitel / 80

104 Inverse Iteration Eine erhebliche Beschleunigung der von Mises Iteration erhält man durch die inverse Iteration, die 1944 von Wielandt eingeführt wurde bei der Stabilitätsanalyse von Strukturen, die kleine Störungen bekannter Systeme sind. In diesem Fall sind gute Approximationen für die relevanten Eigenwerte bekannt, und man erhält (wie wir noch sehen werden) rasche Konvergenz. TUHH Heinrich Voss Kapitel / 80

105 Inverse Iteration Eine erhebliche Beschleunigung der von Mises Iteration erhält man durch die inverse Iteration, die 1944 von Wielandt eingeführt wurde bei der Stabilitätsanalyse von Strukturen, die kleine Störungen bekannter Systeme sind. In diesem Fall sind gute Approximationen für die relevanten Eigenwerte bekannt, und man erhält (wie wir noch sehen werden) rasche Konvergenz. Heute wird die inverse Iteration vor allem verwendet zur Bestimmung von Eigenvektoren, wenn wenige Eigenwerte und Eigenvektoren gesucht sind. TUHH Heinrich Voss Kapitel / 80

106 Inverse Iteration Sei λ λ i für alle i. Dann besitzt die Matrix (λi A) 1 die Eigenwerte 1/(λ λ i ) und die Eigenvektoren stimmen mit denen von A überein. TUHH Heinrich Voss Kapitel / 80

107 Inverse Iteration Sei λ λ i für alle i. Dann besitzt die Matrix (λi A) 1 die Eigenwerte 1/(λ λ i ) und die Eigenvektoren stimmen mit denen von A überein. Führt man die von Mises Iteration für (λi A) 1 aus und gilt λ λ i < λ λ j, j = 1,..., n, j i, 1 mit einem einfachen Eigenwert λ i von A, so ist λ λ i dominanter Eigenwert von (λi A) 1 und die Konvergenzgeschwindigkeit wird bestimmt durch q := max λ λ i j i λ λ j. TUHH Heinrich Voss Kapitel / 80

108 Inverse Iteration Sei λ λ i für alle i. Dann besitzt die Matrix (λi A) 1 die Eigenwerte 1/(λ λ i ) und die Eigenvektoren stimmen mit denen von A überein. Führt man die von Mises Iteration für (λi A) 1 aus und gilt λ λ i < λ λ j, j = 1,..., n, j i, 1 mit einem einfachen Eigenwert λ i von A, so ist λ λ i dominanter Eigenwert von (λi A) 1 und die Konvergenzgeschwindigkeit wird bestimmt durch q := max λ λ i j i λ λ j. Ist also λ eine gute Näherung für λ i, so erhält man sehr schnelle Konvergenz. TUHH Heinrich Voss Kapitel / 80

109 Inverse Iteration; feste Shifts 1: for m=0,1,... until convergence do 2: solve (λi A)v m+1 = u m ; 3: k m+1 = l H v m+1 ; 4: u m+1 = v m+1 /k m+1 ; 5: end for TUHH Heinrich Voss Kapitel / 80

110 Inverse Iteration; feste Shifts 1: for m=0,1,... until convergence do 2: solve (λi A)v m+1 = u m ; 3: k m+1 = l H v m+1 ; 4: u m+1 = v m+1 /k m+1 ; 5: end for Wie für die Potenzmethode erhält man im Fall λ λ i < λ λ j für alle j i u m x i l H x i, k m 1 λ λ i unter den entsprechenden Voraussetzungen α i 0, l H v m 0, l H x i 0. TUHH Heinrich Voss Kapitel / 80

111 Inverse Iteration; variable Shifts Die Konvergenz ist natürlich linear. Dies wird verbessert, wenn man λ gleichzeitig iteriert: TUHH Heinrich Voss Kapitel / 80

112 Inverse Iteration; variable Shifts Die Konvergenz ist natürlich linear. Dies wird verbessert, wenn man λ gleichzeitig iteriert: Algorithmus 6.19 [Inverse Iteration; variable Shifts] 1: for m=0,1,... until convergence do 2: solve (λ m I A)v m+1 = u m for v m+1 3: k m+1 = l H v m+1 ; 4: u m+1 = v m+1 /k m+1 ; 5: λ m+1 = λ m 1/k m+1 ; 6: end for TUHH Heinrich Voss Kapitel / 80

113 Inverse Iteration; variable Shifts Die Konvergenz ist natürlich linear. Dies wird verbessert, wenn man λ gleichzeitig iteriert: Algorithmus 6.19 [Inverse Iteration; variable Shifts] 1: for m=0,1,... until convergence do 2: solve (λ m I A)v m+1 = u m for v m+1 3: k m+1 = l H v m+1 ; 4: u m+1 = v m+1 /k m+1 ; 5: λ m+1 = λ m 1/k m+1 ; 6: end for Es gilt ja k m+1 1 λ λ i. Hieraus erhält man eine Schätzung λ (m+1) für λ i durch k m+1 1/(λ (m) λ (m+1) ), und damit die Aufdatierung des Shifts in Algorithmus 6.19 TUHH Heinrich Voss Kapitel / 80

114 Konvergenzsatz Sei λ ein algebraisch einfacher Eigenwert von A mit zugehörigem Eigenvektor ũ, und es gelte l H ũ = l H u 0 = 1. TUHH Heinrich Voss Kapitel / 80

115 Konvergenzsatz Sei λ ein algebraisch einfacher Eigenwert von A mit zugehörigem Eigenvektor ũ, und es gelte l H ũ = l H u 0 = 1. Dann konvergiert das Verfahren in Algorithmus 6.19 lokal quadratisch gegen λ bzw. ũ. TUHH Heinrich Voss Kapitel / 80

116 Konvergenzsatz Sei λ ein algebraisch einfacher Eigenwert von A mit zugehörigem Eigenvektor ũ, und es gelte l H ũ = l H u 0 = 1. Dann konvergiert das Verfahren in Algorithmus 6.19 lokal quadratisch gegen λ bzw. ũ. Beweis Wir zeigen, dass das Verfahren genau die Iterationsvorschrift des Newton-Verfahrens für das Gleichungssystem F (u, λ) := ist und dass F (ũ, λ) nichtsingulär ist. ( ) λu Au l H u 1 = ( ) 0 0 TUHH Heinrich Voss Kapitel / 80

117 Konvergenzsatz Sei λ ein algebraisch einfacher Eigenwert von A mit zugehörigem Eigenvektor ũ, und es gelte l H ũ = l H u 0 = 1. Dann konvergiert das Verfahren in Algorithmus 6.19 lokal quadratisch gegen λ bzw. ũ. Beweis Wir zeigen, dass das Verfahren genau die Iterationsvorschrift des Newton-Verfahrens für das Gleichungssystem F (u, λ) := ( ) λu Au l H u 1 = ( ) 0 0 ist und dass F (ũ, λ) nichtsingulär ist. Dann folgt die quadratische Konvergenz sowohl für den Eigenvektor als auch den Eigenwert aus einem Satz in Mathematik III. Wir werden auf das Newton Verfahren in Kapitel 7 eingehen. TUHH Heinrich Voss Kapitel / 80

118 Beweis cnt. Es gilt F (u, λ) = ( ) λi A u l H. 0 TUHH Heinrich Voss Kapitel / 80

119 Beweis cnt. Es gilt F (u, λ) = ( ) λi A u l H. 0 Das Newton-Verfahren ist also gegeben durch ( ) ( ) ( ) λ(m) I A u m u m+1 u m λ(m) u l H = m Au m 0 λ (m+1) λ (m) l H u m 1 TUHH Heinrich Voss Kapitel / 80

120 Beweis cnt. Es gilt F (u, λ) = ( ) λi A u l H. 0 Das Newton-Verfahren ist also gegeben durch ( ) ( ) ( ) λ(m) I A u m u m+1 u m λ(m) u l H = m Au m 0 λ (m+1) λ (m) l H u m 1 d.h. (λ (m) I A)u m+1 + ( ) λ (m+1) λ (m) u m = 0 l H u m+1 = 1, und dies ist äquivalent Algorithmus TUHH Heinrich Voss Kapitel / 80

121 Beweis cnt. Es sei d.h. ( F (ũ, λ) v = 0 µ) ( λi A)v + µũ = 0, l H v = 0. TUHH Heinrich Voss Kapitel / 80

122 Beweis cnt. Es sei d.h. ( F (ũ, λ) v = 0 µ) ( λi A)v + µũ = 0, l H v = 0. Im Falle µ = 0 gilt ( λi A)v = 0, d.h., da λ ein einfacher Eigenwert von A ist, v = αũ für ein α C, und es folgt 0 = l H v = αl H ũ = α. TUHH Heinrich Voss Kapitel / 80

123 Beweis cnt. Es sei d.h. ( F (ũ, λ) v = 0 µ) ( λi A)v + µũ = 0, l H v = 0. Im Falle µ = 0 gilt ( λi A)v = 0, d.h., da λ ein einfacher Eigenwert von A ist, v = αũ für ein α C, und es folgt 0 = l H v = αl H ũ = α. Im Falle µ 0 gilt und daher ( λi A)v = µũ 0, ( λi A) 2 v = µ( λi A)ũ = 0. TUHH Heinrich Voss Kapitel / 80

124 Beweis cnt. Es sei d.h. ( F (ũ, λ) v = 0 µ) ( λi A)v + µũ = 0, l H v = 0. Im Falle µ = 0 gilt ( λi A)v = 0, d.h., da λ ein einfacher Eigenwert von A ist, v = αũ für ein α C, und es folgt 0 = l H v = αl H ũ = α. Im Falle µ 0 gilt und daher ( λi A)v = µũ 0, ( λi A) 2 v = µ( λi A)ũ = 0. v ist also ein Hauptvektor 2. Stufe, und daher besitzt λ mindestens die algebraische Vielfachheit 2. TUHH Heinrich Voss Kapitel / 80

125 Bemerkung Man entnimmt dem Beweis sofort, dass das Verfahren in Algorithmus 6.18 auch dann lokal konvergiert, wenn A nicht diagonalisierbar ist. TUHH Heinrich Voss Kapitel / 80

126 Bemerkung Man entnimmt dem Beweis sofort, dass das Verfahren in Algorithmus 6.18 auch dann lokal konvergiert, wenn A nicht diagonalisierbar ist. Die inverse Iteration konvergiert sogar kubisch, wenn die Matrix A symmetrisch ist und wenn die Näherung für den Eigenwert aufdatiert wird mit dem Rayleighschen Quotienten λ (m) = (um ) H Au m u m 2. 2 TUHH Heinrich Voss Kapitel / 80

127 Bemerkung Man entnimmt dem Beweis sofort, dass das Verfahren in Algorithmus 6.18 auch dann lokal konvergiert, wenn A nicht diagonalisierbar ist. Die inverse Iteration konvergiert sogar kubisch, wenn die Matrix A symmetrisch ist und wenn die Näherung für den Eigenwert aufdatiert wird mit dem Rayleighschen Quotienten λ (m) = (um ) H Au m u m 2. 2 Diese Aufdatierung ist auch bei nicht symmetrischen Matrizen sinnvoll wegen des folgenden Lemmas. Man erhält dann wie in Abschnitt 8 quadratische Konvergenz (s. Stewart, pp. 346 ff.). TUHH Heinrich Voss Kapitel / 80

128 Lemma Sei A C n n beliebig, x C n, und für µ C der zugehörige Defekt. r(µ) := Ax µx TUHH Heinrich Voss Kapitel / 80

129 Lemma Sei A C n n beliebig, x C n, und für µ C der zugehörige Defekt. r(µ) := Ax µx Dann gilt r(µ) 2 = min! µ = x H Ax x 2. 2 TUHH Heinrich Voss Kapitel / 80

130 Lemma Sei A C n n beliebig, x C n, und für µ C der zugehörige Defekt. r(µ) := Ax µx Dann gilt r(µ) 2 = min! µ = x H Ax x 2. 2 Beweis r(µ) 2 = min! ist ein lineares Ausgleichsproblem zur Bestimmung von µ mit der Koeffizientenmatrix x und der rechten Seite Ax. Die Normalgleichung hierzu lautet x H xµ = x H Ax. TUHH Heinrich Voss Kapitel / 80

131 Inverse Iteration Auf den ersten Blick scheint es eine Schwierigkeit bei der inversen Iteration zu sein, dass die Koeffizientenmatrix λ (m) I A des zu lösenden linearen Gleichungssystems bei Konvergenz von λ (m) gegen einen Eigenwert von A mehr und mehr singulär wird, die Kondition also wächst und damit der Fehler der Lösung des Gleichungssystems wächst. TUHH Heinrich Voss Kapitel / 80

132 Inverse Iteration Auf den ersten Blick scheint es eine Schwierigkeit bei der inversen Iteration zu sein, dass die Koeffizientenmatrix λ (m) I A des zu lösenden linearen Gleichungssystems bei Konvergenz von λ (m) gegen einen Eigenwert von A mehr und mehr singulär wird, die Kondition also wächst und damit der Fehler der Lösung des Gleichungssystems wächst. Man kann jedoch zeigen (vgl. Chatelin, pp. 217 ff.), dass (bei gut konditionierten Problemen) der Fehler, der bei der Lösung von (λ (m) I A)v m+1 = u m gemacht wird, vornehmlich die Richtung des Eigenvektors zu λ, also die gewünschte Richtung, hat. TUHH Heinrich Voss Kapitel / 80

133 QR Algorithmus Der QR Algorithmus dient dazu, alle Eigenwerte einer Matrix A C n n zu bestimmen. TUHH Heinrich Voss Kapitel / 80

134 QR Algorithmus Der QR Algorithmus dient dazu, alle Eigenwerte einer Matrix A C n n zu bestimmen. Er wurde von Francis und Kublanovskaya unabhängig voneinander im Jahr 1961 eingeführt. TUHH Heinrich Voss Kapitel / 80

135 QR Algorithmus Der QR Algorithmus dient dazu, alle Eigenwerte einer Matrix A C n n zu bestimmen. Er wurde von Francis und Kublanovskaya unabhängig voneinander im Jahr 1961 eingeführt. Er wird heute als das beste Verfahren zur Lösung der vollständigen Eigenwertaufgabe für nichtsymmetrische Probleme angesehen. TUHH Heinrich Voss Kapitel / 80

136 Grundform des QR Algorithmus Es sei A 0 := A. Die Grundform des QR Algorithmus ist gegeben durch TUHH Heinrich Voss Kapitel / 80

137 Grundform des QR Algorithmus Es sei A 0 := A. Die Grundform des QR Algorithmus ist gegeben durch Algorithmus 6.24 [QR Algorithmus; Grundform] 1: for i=0,1,... until convergence do 2: Zerlege A i = Q i R i (QR Zerlegung) 3: A i+1 = R i Q i ; 4: end for TUHH Heinrich Voss Kapitel / 80

138 Grundform des QR Algorithmus Es sei A 0 := A. Die Grundform des QR Algorithmus ist gegeben durch Algorithmus 6.24 [QR Algorithmus; Grundform] 1: for i=0,1,... until convergence do 2: Zerlege A i = Q i R i (QR Zerlegung) 3: A i+1 = R i Q i ; 4: end for Die durch den QR Algorithmus erzeugten Matrizen A i sind einander ähnlich und damit ähnlich zu A, denn es gilt A i+1 = R i Q i = Q H i (Q i R i )Q i = Q H i A i Q i. TUHH Heinrich Voss Kapitel / 80

139 Konvergenzsatz Es seien die Eigenwerte von A C n n dem Betrage nach voneinander verschieden und angeordnet gemäß λ 1 > λ 2 > > λ n > 0. (5) TUHH Heinrich Voss Kapitel / 80

140 Konvergenzsatz Es seien die Eigenwerte von A C n n dem Betrage nach voneinander verschieden und angeordnet gemäß λ 1 > λ 2 > > λ n > 0. (5) Es sei A = XΛX 1, und es besitze die Matrix Y := X 1 eine LR Zerlegung. TUHH Heinrich Voss Kapitel / 80

141 Konvergenzsatz Es seien die Eigenwerte von A C n n dem Betrage nach voneinander verschieden und angeordnet gemäß λ 1 > λ 2 > > λ n > 0. (5) Es sei A = XΛX 1, und es besitze die Matrix Y := X 1 eine LR Zerlegung. Dann konvergiert der QR Algorithmus im Wesentlichen, d.h. für A i := (a (i) jk ) j,k gilt lim i a(i) jk = 0 für j > k lim i a(i) kk = λ k für k = 1,..., n. TUHH Heinrich Voss Kapitel / 80

142 Bemerkung Am Ende sind die Eigenwerte von A in A i der Größe der Beträge nach geordnet. TUHH Heinrich Voss Kapitel / 80

143 Bemerkung Am Ende sind die Eigenwerte von A in A i der Größe der Beträge nach geordnet. Beispiel 6.29 Die Matrix A = besitzt die Eigenwerte λ 1 = 3, λ 2 = 2 und λ 3 = 1, und für die Matrix der Eigenvektoren gilt (bis auf die Normierung) X = und X 1 = TUHH Heinrich Voss Kapitel / 80

144 Beispiel Die Voraussetzungen von Satz 6.27 sind also erfüllt. TUHH Heinrich Voss Kapitel / 80

145 Beispiel Die Voraussetzungen von Satz 6.27 sind also erfüllt. Man erhält A 10 = e e e TUHH Heinrich Voss Kapitel / 80

146 Bemerkung Wegen (5) ist A diagonalisierbar, d.h. X und damit Y existieren. TUHH Heinrich Voss Kapitel / 80

147 Bemerkung Wegen (5) ist A diagonalisierbar, d.h. X und damit Y existieren. Die einzige Forderung in Satz 6.27 an die Matrix X ist also, dass Y := X 1 eine LR Zerlegung besitzt. TUHH Heinrich Voss Kapitel / 80

148 Bemerkung Wegen (5) ist A diagonalisierbar, d.h. X und damit Y existieren. Die einzige Forderung in Satz 6.27 an die Matrix X ist also, dass Y := X 1 eine LR Zerlegung besitzt. Verzichtet man hierauf, so erhält man lim i a(i) kk = λ π(k) für eine Permutation π von {1,..., n} (vgl. Wilkinson, p. 519 ff.). TUHH Heinrich Voss Kapitel / 80

149 Beispiel Für die Matrix A = mit den Eigenwerten λ 1 = 3, λ 2 = 2, λ 3 = 1 und den Eigenvektoren X = und X 1 = ist die Voraussetzung von Satz 6.27 nicht erfüllt. TUHH Heinrich Voss Kapitel / 80

150 Beispiel Für die Matrix A = mit den Eigenwerten λ 1 = 3, λ 2 = 2, λ 3 = 1 und den Eigenvektoren X = und X 1 = ist die Voraussetzung von Satz 6.27 nicht erfüllt. Die Matrix X 1 (1 : 2, 1 : 2) ist singulär. TUHH Heinrich Voss Kapitel / 80

151 Beispiel Die orthogonale Iteration liefert nach 30 Schritten A 30 = 1.16e e e TUHH Heinrich Voss Kapitel / 80

152 Beispiel Die orthogonale Iteration liefert nach 30 Schritten A 30 = 1.16e e e Die Diagonalelemente scheinen also gegen die Eigenwerte zu konvergieren, wobei sie allerdings nicht nach der Betragsgöße geordnet sind. Diese Konvergenz würde auch bei exakter Rechnung eintreten (vgl. Bemerkung 6.30). TUHH Heinrich Voss Kapitel / 80

153 Beispiel Die orthogonale Iteration liefert nach 30 Schritten A 30 = 1.16e e e Die Diagonalelemente scheinen also gegen die Eigenwerte zu konvergieren, wobei sie allerdings nicht nach der Betragsgöße geordnet sind. Diese Konvergenz würde auch bei exakter Rechnung eintreten (vgl. Bemerkung 6.30). Iteriert man weiter, so erhält man (durch Rundungsfehler) e A 70 = 1.48e e e TUHH Heinrich Voss Kapitel / 80

154 Bemerkungen Ist A R n n, so gilt Q k R n n, R k R n n für alle k, und der ganze Algorithmus verläuft in R. TUHH Heinrich Voss Kapitel / 80

155 Bemerkungen Ist A R n n, so gilt Q k R n n, R k R n n für alle k, und der ganze Algorithmus verläuft in R. Sind alle Eigenwerte betragsmäßig verschieden, so sind sie alle reell, und der QR Algorithmus konvergiert. Besitzt A jedoch komplexe Eigenwerte, so kann die Grundform nicht konvergieren. TUHH Heinrich Voss Kapitel / 80

156 Bemerkungen Ist A R n n, so gilt Q k R n n, R k R n n für alle k, und der ganze Algorithmus verläuft in R. Sind alle Eigenwerte betragsmäßig verschieden, so sind sie alle reell, und der QR Algorithmus konvergiert. Besitzt A jedoch komplexe Eigenwerte, so kann die Grundform nicht konvergieren. Ist A C n n Hermitesch, so sind alle A m Hermitesch, und A m konvergiert unter den Voraussetzungen von Satz 6.27 gegen eine Diagonalmatrix. TUHH Heinrich Voss Kapitel / 80

157 Beschleunigung des QR Algorithmus Ein Nachteil der Grundform des QR Algorithmus ist, dass sie sehr aufwendig ist. Ist A voll besetzt, so benötigt man in jedem Schritt O(n 3 ) Operationen zur Bestimmung der QR Zerlegung. Dies wird im nächsten Unterabschnitt verbessert. TUHH Heinrich Voss Kapitel / 80

Berechnung von Eigenwerten und Eigenvektoren

Berechnung von Eigenwerten und Eigenvektoren Kapitel 5 Berechnung von Eigenwerten und Eigenvektoren 5.1 Einführung Bemerkung 5.1 Aufgabenstellung. Diese Kapitel behandelt numerische Verfahren zur Lösung des Eigenwertproblems. Gegeben sei A R n n.

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow LINEARE ALGERA Ferienkurs Hanna Schäfer Philipp Gadow INHALT Eigenwerte und Eigenvektoren. asiswechsel.2 Eigenwertgleichung 2.3 Diagonalisierbarkeit 5.4 Trigonalisierung 8.5 Zusatzmaterial 8 Aufgaben 9

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

Eigenwerte und Eigenvektoren von Matrizen

Eigenwerte und Eigenvektoren von Matrizen Eigenwerte und Eigenvektoren von Matrizen Das Eigenwertproblem Sei A eine quadratische Matrix vom Typ m,m. Die Aufgabe, eine Zahl λ und einen dazugehörigen Vektor x zu finden, damit Ax = λx ist, nennt

Mehr

11 Normalformen von Matrizen

11 Normalformen von Matrizen 11 Normalformen von Matrizen Wir wenden uns in diesem Kapitel noch einmal der Untersuchung linearer Abbildungen auf endlichdimensionalen Vektorräumen und deren Darstellung mittels Matrizen zu Speziell

Mehr

Numerische Behandlung des Eigenwertproblems

Numerische Behandlung des Eigenwertproblems Numerische Behandlung des Eigenwertproblems Zusammenfassung Das Ziel dieses Vortrages ist, zwei gute Methoden für die numerische Bestimmung der Eigenwerte zu zeigen und wie man diese mit Matlab anwenden

Mehr

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen Wir betrachten in diesem Abschnitt das lineare Ausgleichsproblem Ax b 2 = min! (1) Heinrich Voss voss@tu-harburgde Hamburg University of Technology Institute for Numerical Simulation mit gegebenem A R

Mehr

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:

Mehr

7 Die Determinante einer Matrix

7 Die Determinante einer Matrix 7 Die Determinante einer Matrix ( ) a11 a Die Determinante einer 2 2 Matrix A = 12 ist erklärt als a 21 a 22 det A := a 11 a 22 a 12 a 21 Es ist S 2 = { id, τ}, τ = (1, 2) und sign (id) = 1, sign (τ) =

Mehr

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten: KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand

Mehr

7 Rechnen mit Polynomen

7 Rechnen mit Polynomen 7 Rechnen mit Polynomen Zu Polynomfunktionen Satz. Zwei Polynomfunktionen und f : R R, x a n x n + a n 1 x n 1 + a 1 x + a 0 g : R R, x b n x n + b n 1 x n 1 + b 1 x + b 0 sind genau dann gleich, wenn

Mehr

Lösungen zum 3. Aufgabenblatt

Lösungen zum 3. Aufgabenblatt SS, Lineare Algebra Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com aufrufbar.

Mehr

11. Primfaktorzerlegungen

11. Primfaktorzerlegungen 78 Andreas Gathmann 11 Primfaktorzerlegungen Euch ist sicher aus der Schule bekannt, dass sich jede positive ganze Zahl a als Produkt a = p 1 p n von Primzahlen schreiben lässt, und dass diese Darstellung

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel

Mehr

Zur Numerik großdimensionaler Eigenwertprobleme. Werner Vogt Technische Universität Ilmenau Institut für Mathematik Postfach 100565 98684 Ilmenau

Zur Numerik großdimensionaler Eigenwertprobleme. Werner Vogt Technische Universität Ilmenau Institut für Mathematik Postfach 100565 98684 Ilmenau Zur Numerik großdimensionaler Eigenwertprobleme Werner Vogt Technische Universität Ilmenau Institut für Mathematik Postfach 100565 98684 Ilmenau Ilmenau, den 8.11.2004 1 Einführung 1 Zusammenfassung Der

Mehr

Fakultät für Mathematik und Informatik. Seminar über angewandte Analysis. Sommersemester 2007. Der Kreissatz von Gerschgorin

Fakultät für Mathematik und Informatik. Seminar über angewandte Analysis. Sommersemester 2007. Der Kreissatz von Gerschgorin Fakultät für Mathematik und Informatik Lehrgebiet angewandte Mathematik Prof. Dr. H. Linden Dipl.-Math. H.-J. Schäfer Seminar über angewandte Analysis Sommersemester 2007 Der Kreissatz von Gerschgorin

Mehr

17. Penalty- und Barriere-Methoden

17. Penalty- und Barriere-Methoden H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Eines der am häufigsten auftretenden Standardprobleme der angewandten Mathematik ist das Lösen linearer Gleichungssysteme, etwa zur Netzwerkberechnung in der Elektrotechnik oder

Mehr

Vorlesung 12 22. bzw. 23. Januar 2014. Determinanten 1. Cramersche Regel

Vorlesung 12 22. bzw. 23. Januar 2014. Determinanten 1. Cramersche Regel Vorlesung 2 22 bzw 23 Januar 204 Lineares Gleichungssystem a a 2 b b 2 = F a a 2 a 3 b b 2 b 3 c c 2 c 3 = V V =< a, b c > c b a b a F V Seite 70 a x + a 2 x 2 + a 3 x 3 b = 0 < a x + a 2 x 2 + a 3 x 3

Mehr

Kevin Caldwell. 18.April 2012

Kevin Caldwell. 18.April 2012 im Rahmen des Proseminars Numerische Lineare Algebra von Prof.Dr.Sven Beuchler 18.April 2012 Gliederung 1 2 3 Mathematische Beschreibung von naturwissenschaftlich-technischen Problemstellungen führt häufig

Mehr

KAPITEL 3. Lineare Gleichungssysteme, direkte Lösungsverfahren

KAPITEL 3. Lineare Gleichungssysteme, direkte Lösungsverfahren KAPITEL 3. Lineare Gleichungssysteme, direkte Lösungsverfahren Beispiel 3.2. Gesucht u(x), das eine Differentialgleichung vom Typ u (x) + λ(x)u(x) = f(x), x [0,], mit den Randbedingungen u(0) = u() = 0

Mehr

Kapitel 4. Euklidische Ringe und die Jordansche Normalform. 4.1 Euklidische Ringe

Kapitel 4. Euklidische Ringe und die Jordansche Normalform. 4.1 Euklidische Ringe Kapitel 4 Euklidische Ringe und die Jordansche Normalform 4.1 Euklidische Ringe Die Ringe der ganzen Zahlen, Z, sowie Polynomringe über Körpern, K[X], wobei K ein Körper ist, haben die folgenden Gemeinsamheiten:

Mehr

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme Übung Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme Diese Übung beschäftigt sich mit Grundbegriffen der linearen Algebra. Im Speziellen werden lineare Abbildungen, sowie

Mehr

Aufgabe 1. Sei A Mat(n n, R) mit Eigenwert 3. Dann gilt: Eig(A, 3) = Kern(A + 3E n ).

Aufgabe 1. Sei A Mat(n n, R) mit Eigenwert 3. Dann gilt: Eig(A, 3) = Kern(A + 3E n ). Aufgabe Sei A Mat(n n, R) Eigenwert 3. Dann gilt: Eig(A, 3) = Kern(3A E n ). Sei A Mat(n n, R) Eigenwert 3. Dann gilt: Eig(A, 3) = Kern(A 3E n ). Sei A Mat(n n, R) Eigenwert 3. Dann gilt: Eig(A, 3) = Bild(A

Mehr

Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination. Lehrstuhl für Angewandte Mathematik Wintersemester 2009/10. 14.

Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination. Lehrstuhl für Angewandte Mathematik Wintersemester 2009/10. 14. Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Wintersemester 2009/0 4. Januar 200 Instabilitäten

Mehr

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b Aufgabe 1: Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. (a) Nehmen Sie lineares Wachstum gemäß z(t) = at + b an, wobei z die Einwohnerzahl ist und

Mehr

Mathematik III für Ingenieure

Mathematik III für Ingenieure Mathematik III für Ingenieure im Bachelor-Studiengang Maschinenbau Vorlesung Wintersemester 21/211 B. Schuster aktualisert am 27. Januar 211 Inhalt I. Eigenwerte und Eigenvektoren 1 1. Komplexe Matrizen

Mehr

Musterlösungen zur Linearen Algebra II Blatt 5

Musterlösungen zur Linearen Algebra II Blatt 5 Musterlösungen zur Linearen Algebra II Blatt 5 Aufgabe. Man betrachte die Matrix A := über dem Körper R und über dem Körper F und bestimme jeweils die Jordan- Normalform. Beweis. Das charakteristische

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

1 Lineare Gleichungssysteme

1 Lineare Gleichungssysteme MLAN1 1 LINEARE GLEICHUNGSSYSTEME 1 Literatur: K Nipp/D Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4 Auflage, 1998, oder neuer 1 Lineare Gleichungssysteme Zu den grundlegenden

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

A Matrix-Algebra. A.1 Definition und elementare Operationen

A Matrix-Algebra. A.1 Definition und elementare Operationen A Matrix-Algebra In diesem Anhang geben wir eine kompakte Einführung in die Matrizenrechnung bzw Matrix-Algebra Eine leicht lesbare Einführung mit sehr vielen Beispielen bietet die Einführung in die Moderne

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Seminararbeit für das SE Reine Mathematik- Graphentheorie Seminararbeit für das SE Reine Mathematik- Graphentheorie Der binäre Rang, der symplektische Graph, die Spektralzerlegung und rationale Funktionen Vortrag am 24.01.2012 Heike Farkas 0410052 Inhaltsverzeichnis

Mehr

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011 Mathematik für Informatiker II Christoph Eisinger Sommersemester 211 Beispiellösungen zur Probeklausur Aufgabe 1 Gegeben sind die Polynome f, g, h K[x]. Zu zeigen: Es gibt genau dann Polynome h 1 und h

Mehr

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x

Mehr

6 Lösung linearer Gleichungssysteme I: LR-Zerlegung und Verwandte

6 Lösung linearer Gleichungssysteme I: LR-Zerlegung und Verwandte Numerik I Version: 240608 40 6 Lösung linearer Gleichungssysteme I: LR-Zerlegung und Verwandte Die zwei wichtigsten Aufgaben der linearen Algebra: Lösung linearer Gleichungssysteme: Ax = b, wobei die n

Mehr

2 Die Darstellung linearer Abbildungen durch Matrizen

2 Die Darstellung linearer Abbildungen durch Matrizen 2 Die Darstellung linearer Abbildungen durch Matrizen V und V seien Vektorräume über einem Körper K. Hom K (V, V ) bezeichnet die Menge der K linearen Abbildungen von V nach V. Wir machen Hom K (V, V )

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Lineare Gleichungssysteme. Lineare Gleichungssysteme. LR Zerlegung ohne Pivotsuche. Zerlegung regulärer Matrizen

Lineare Gleichungssysteme. Lineare Gleichungssysteme. LR Zerlegung ohne Pivotsuche. Zerlegung regulärer Matrizen Heinrich Voss voss@tu-harburg.de Hamburg University of Technology Institute for Numerical Simulation Betrachte ein lineares Gleichungssystem Ax = b (1) Es sei A C n n eine gegebene regulär Matrix. Dann

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag. $Id: quadrat.tex,v.5 9//5 ::59 hk Exp $ $Id: orthogonal.tex,v.4 9// ::54 hk Exp $ $Id: fourier.tex,v. 9// :: hk Exp $ Symmetrische Matrizen und quadratische

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Ergänzungen zur Analysis I

Ergänzungen zur Analysis I 537. Ergänzungsstunde Logik, Mengen Ergänzungen zur Analysis I Die Behauptungen in Satz 0.2 über die Verknüpfung von Mengen werden auf die entsprechenden Regelnfür die Verknüpfung von Aussagen zurückgeführt.

Mehr

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik Höhere Mathematik 3 Apl. Prof. Dr. Norbert Knarr FB Mathematik Wintersemester 2015/16 4. Homogene lineare Dierentialgleichungen 4.1. Grundbegrie 4.1.1. Denition. Es sei J R ein Intervall und a 0 ; : :

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

Risikomessung und Value at Risk Wintersemester 2013/14

Risikomessung und Value at Risk Wintersemester 2013/14 Risikomessung und Value at Risk Wintersemester 2013/14 Walter Sanddorf-Köhle Statistik und Ökonometrie Foliensatz Nr. 11 Version vom 24. Januar 2014 1 / 45 6.5.1 Bisherige Vorgehensweise zur Berechnung

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Linearkombinationen, Basen, Lineare Abbildungen 2.1 Lineare Unabhängigkeit Sind die folgenden Vektoren linear unabhängig? (a) 1, 2, 3 im Q Vektorraum R (b)

Mehr

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt Methoden und Techniken an Beispielen erklärt Georg Anegg 5. November 009 Beispiel. Die Folge {a n } sei wie folgt definiert (a, d, q R, q ): a 0 a, a n+ a n q + d (n 0) Man bestimme eine explizite Darstellung

Mehr

Lineare Algebra - alles was man wissen muß

Lineare Algebra - alles was man wissen muß Statistik für Bioinformatiker SoSe 3 Rainer Spang Lineare Algebra - alles was man wissen muß Der Titel ist natürlich gelogen, aber was wir hier zusammengetragen haben ist zumindest ein Anfang. Weniger

Mehr

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 3/4 (.3.4). (a) Für z = + i und z = 3 4i berechne man z z und z z. Die Ergebnisse sind in kartesischer Form anzugeben.

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Sei K ein Körper, a ij K für 1 i m, 1 j n. Weiters seien b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2... a m1

Mehr

Kapitel 15. Lösung linearer Gleichungssysteme

Kapitel 15. Lösung linearer Gleichungssysteme Kapitel 15. Lösung linearer Gleichungssysteme Lineare Gleichungssysteme Wir befassen uns nun mit der Lösung im allgemeinen nichthomogener linearer Gleichungssysteme in zweifacher Hinsicht. Wir studieren

Mehr

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen.

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen. Zusätze zum Gelben Rechenbuch LU-Zerlegung Peter Furlan Verlag Martina Furlan Inhaltsverzeichnis Definitionen 2 (Allgemeine) LU-Zerlegung 2 3 Vereinfachte LU-Zerlegung 3 4 Lösung eines linearen Gleichungssystems

Mehr

Semidiskretisierung der PDA-Systeme

Semidiskretisierung der PDA-Systeme Kapitel 4 Semidisretisierung der PDA-Systeme Eine Möglicheit zur numerischen Behandlung von Anfangsrandwertproblemen partieller Differentialgleichungen ist die Linienmethode method of lines, MOL, vgl.

Mehr

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg Nikos Canterakis Lehrstuhl für Mustererkennung, Universität Freiburg Gliederung 8 Projektive Invarianz und das kanonische Kamerapaar Kanonisches Kamerapaar aus gegebener Fundamentalmatrix Freiheitsgrade

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr

Musterlösungen zu Prüfungsaufgaben über gewöhnliche Differentialgleichungen Prüfungsaufgabe a) Gegeben sei die lineare Differentialgleichung

Musterlösungen zu Prüfungsaufgaben über gewöhnliche Differentialgleichungen Prüfungsaufgabe a) Gegeben sei die lineare Differentialgleichung Musterlösungen zu n über gewöhnliche Differentialgleichungen a) Gegeben sei die lineare Differentialgleichung y + - y = e - ln, > 0 Man gebe die allgemeine Lösung der homogenen Gleichung an Wie lautet

Mehr

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist. Matrizennorm Es seien r,s N Mit M r,s (R bezeichnen wir die Menge der reellen r s- Matrizen (also der linearen Abbildungen R s R r, und setze M s (R := M s,s (R (also die Menge der linearen Abbildungen

Mehr

Beispiel 11.2. Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) =

Beispiel 11.2. Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) = Funktionentheorie, Woche Funktionen und Polstellen. Meromorphe Funktionen Definition.. Sei U C offen und sei f : U gilt, nennt man f meromorph auf U: Ĉ eine Funktion. Wenn folgendes. P := f hat keine Häufungspunkte;.

Mehr

Algebraische Kurven. Vorlesung 26. Die Schnittmultiplizität

Algebraische Kurven. Vorlesung 26. Die Schnittmultiplizität Prof. Dr. H. Brenner Osnabrück SS 2012 Algebraische Kurven Vorlesung 26 Die Schnittmultiplizität Es seien zwei ebene algebraische Kurven C,D A 2 K gegeben, die keine Komponente gemeinsam haben. Dann besteht

Mehr

7 Lineare Abbildungen und Lineare Gleichungssysteme

7 Lineare Abbildungen und Lineare Gleichungssysteme 7 LINEARE ABBILDUNGEN UND LINEARE GLEICHUNGSSYSTEME 5 7 Lineare Abbildungen und Lineare Gleichungssysteme 7 Lineare Abbildungen 7 Abbildungen: Eine Verallgemeinerungen des Funktionsbegriffs Bemerkung:

Mehr

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum

Mehr

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 ) Aufgabe 65. Ganz schön span(n)end. Gegeben sei folgende Menge M von 6 Vektoren v, v,..., v 6 R 4 aus Aufgabe P 6: M = v =, v =, v =, v 4 =, v 5 =, v 6 = Welche der folgenden Aussagen sind wahr? span(v,

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

Invariantentheorie. Vorlesung 5. Invariantenringe zu Untergruppen

Invariantentheorie. Vorlesung 5. Invariantenringe zu Untergruppen Prof. Dr. H. Brenner Osnabrück WS 2012/2013 Invariantentheorie Vorlesung 5 Invariantenringe zu Untergruppen Proposition 5.1. Es sei R G R eine Operation einer Gruppe G auf einem kommutativen Ring durch

Mehr

Der implizit neugestartete Arnoldialgorithmus in Theorie und Praxis. Stud.Ing. Christian Schröder

Der implizit neugestartete Arnoldialgorithmus in Theorie und Praxis. Stud.Ing. Christian Schröder Der implizit neugestartete Arnoldialgorithmus in Theorie und Praxis Stud.Ing. Christian Schröder Oktober 2002 Inhaltsverzeichnis I Theorie 1 1 Eigenwerte... 1 1.1 Schurzerlegung..........................

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 13 Einheiten Definition 13.1. Ein Element u in einem Ring R heißt Einheit, wenn es ein Element v R gibt mit uv = vu = 1. DasElementv

Mehr

Erinnerung/Zusammenfassung zu Abbildungsmatrizen

Erinnerung/Zusammenfassung zu Abbildungsmatrizen Erinnerung/Zusammenfassung zu Abbildungsmatrizen Thomas Coutandin (cthomas@student.ethz.ch) 7. November 2 Abbildungsmatrizen Im Folgenden betrachten wir stets endlich dimensionale K-Vektorräume (K irgend

Mehr

Bildverarbeitung Herbstsemester 2012. Kanten und Ecken

Bildverarbeitung Herbstsemester 2012. Kanten und Ecken Bildverarbeitung Herbstsemester 01 Kanten und Ecken 1 Inhalt Einführung Kantendetektierung Gradientenbasierende Verfahren Verfahren basierend auf der zweiten Ableitung Eckpunkterkennung Harris Corner Detector

Mehr

Lineare Algebra (Mathe I) für Wirtschaftsinformatiker; Zusammenfassung

Lineare Algebra (Mathe I) für Wirtschaftsinformatiker; Zusammenfassung Lineare Algebra (Mathe I) für Wirtschaftsinformatiker; Zusammenfassung Artur Trzewik sw562@uni-essen.de v1., 26.3.1998 korrigiert 16. Februar 2 Zusammenfassung Warnung: für die Richtigkeit der Definitionnen

Mehr

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Computer Vision: 3D-Geometrie D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Lochkamera Modell C Projektionszentrum, Optische Achse, Bildebene, P Hauptpunkt (optische Achse kreuzt die Bildebene),

Mehr

Kochen mit Jordan. Vorbereitungen. Schnellzubereitung. JNF für Genießer wenn s noch etwas mehr sein darf

Kochen mit Jordan. Vorbereitungen. Schnellzubereitung. JNF für Genießer wenn s noch etwas mehr sein darf Kochen mit Jordan Vorbereitungen Man nehme eine Matrix A R n n und bestimme ihr charakteristisches Polynom p(λ) = (λ c ) r (λ c j ) rj C[X] Dabei gilt: algebraische Vielfachheit r j ˆ= Länge des Jordanblocks

Mehr

Extremwertverteilungen

Extremwertverteilungen Seminar Statistik Institut für Stochastik 12. Februar 2009 Gliederung 1 Grenzwertwahrscheinlichkeiten 2 3 MDA Fréchet MDA Weibull MDA Gumbel 4 5 6 Darstellung von multivariaten, max-stabilen Verteilungsfunktionen

Mehr

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Prof. Dr. Volker Schulz Universität Trier / FB IV / Abt. Mathematik 8. November 2010 http://www.mathematik.uni-trier.de/ schulz/elan-ws1011.html

Mehr

Vorwort. Günter M. Gramlich. Lineare Algebra. Eine Einführung ISBN: 978-3-446-43035-8. Weitere Informationen oder Bestellungen unter

Vorwort. Günter M. Gramlich. Lineare Algebra. Eine Einführung ISBN: 978-3-446-43035-8. Weitere Informationen oder Bestellungen unter Vorwort Günter M. Gramlich Lineare Algebra Eine Einführung ISBN: 978-3-446-43035-8 Weitere Informationen oder Bestellungen unter http://www.hanser.de/978-3-446-43035-8 sowie im Buchhandel. Carl Hanser

Mehr

Absolute Stetigkeit von Maßen

Absolute Stetigkeit von Maßen Absolute Stetigkeit von Maßen Definition. Seien µ und ν Maße auf (X, Ω). Dann heißt ν absolut stetig bezüglich µ (kurz ν µ ), wenn für alle A Ω mit µ(a) = 0 auch gilt dass ν(a) = 0. Lemma. Sei ν ein endliches

Mehr

Kapitel IR:III (Fortsetzung)

Kapitel IR:III (Fortsetzung) Kapitel IR:III (Fortsetzung) III. Retrieval-Modelle Modelle und Prozesse im IR Klassische Retrieval-Modelle Bool sches Modell Vektorraummodell Retrieval-Modelle mit verborgenen Variablen Algebraisches

Mehr

2 Lineare Gleichungssysteme

2 Lineare Gleichungssysteme Beispiel.5: Funktion von Runge (V) Beispiel Martin-Luther-Universität Halle-Wittenberg, NWF III, Institut für Mathematik Martin Arnold: Grundkurs Numerische Mathematik (WiS 27/8) Abbildung.3: Interpolation

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Mathematik 1. Inhaltsverzeichnis. Prof. Dr. K. Melzer. karin.melzer@hs-esslingen.de http://www.hs-esslingen.de/de/mitarbeiter/karin-melzer.

Mathematik 1. Inhaltsverzeichnis. Prof. Dr. K. Melzer. karin.melzer@hs-esslingen.de http://www.hs-esslingen.de/de/mitarbeiter/karin-melzer. Mathematik 1 Prof Dr K Melzer karinmelzer@hs-esslingende http://wwwhs-esslingende/de/mitarbeiter/karin-melzerhtml Inhaltsverzeichnis 1 Matrizenrechnung 2 11 Matrixbegri 2 12 Spezielle Matrizen 3 13 Rechnen

Mehr

TEILWEISE ASYNCHRONE ALGORITHMEN

TEILWEISE ASYNCHRONE ALGORITHMEN TEILWEISE ASYNCHRONE ALGORITHMEN FRANK LANGBEIN Literatur: D. Berseas, J. Tsitsilis: Parallel and distributed computatoin, pp. 48 489 URI: http://www.langbein.org/research/parallel/ Modell teilweiser asynchroner

Mehr

3.1. Die komplexen Zahlen

3.1. Die komplexen Zahlen 3.1. Die komplexen Zahlen Es gibt viele Wege, um komplexe Zahlen einzuführen. Wir gehen hier den wohl einfachsten, indem wir C R als komplexe Zahlenebene und die Punkte dieser Ebene als komplexe Zahlen

Mehr

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen

Mehr

ARBEITSUNTERLAGEN ZUR VORLESUNG UND ÜBUNG AN DER UNIVERSITÄT DES SAARLANDES LINEARE OPTIMIERUNG

ARBEITSUNTERLAGEN ZUR VORLESUNG UND ÜBUNG AN DER UNIVERSITÄT DES SAARLANDES LINEARE OPTIMIERUNG ¾ REITSUNTERLGEN ZUR VORLESUNG UND ÜUNG N DER UNIVERSITÄT DES SRLNDES LINERE OPTIMIERUNG IM SS Lineare Optimierung (SS ). ufgabe (Graphische Lineare Optimierung) Nach einem anstrengenden Semester steht

Mehr

Vorlesung. 1 Zahlentheorie in Z. Leitfaden. 1.1 Teilbarkeit. Angela Holtmann. Algebra und Zahlentheorie. (natürliche Zahlen ohne die Null)

Vorlesung. 1 Zahlentheorie in Z. Leitfaden. 1.1 Teilbarkeit. Angela Holtmann. Algebra und Zahlentheorie. (natürliche Zahlen ohne die Null) Algebra und Zahlentheorie Vorlesung Algebra und Zahlentheorie Leitfaden 1 Zahlentheorie in Z Bezeichnungen: Z := {..., 3, 2, 1, 0, 1, 2, 3,...} (ganze Zahlen) und N := {1, 2, 3,...} (natürliche Zahlen

Mehr

Numerisches Programmieren

Numerisches Programmieren Technische Universität München SoSe 213 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Jürgen Bräckle Numerisches Programmieren 2. Programmieraufgabe: Lineare

Mehr

Satz 25 A sei eine (n n)-matrix über K

Satz 25 A sei eine (n n)-matrix über K Satz 25 Satz 25 A sei eine (n n)-matrix über K Satz 25 A sei eine (n n)-matrix über K mit paarweise verschiedenen Eigenwerten λ 1,...,λ m. Satz 25 A sei eine (n n)-matrix über K mit paarweise verschiedenen

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

Dirk Hachenberger Mathematik für Informatiker

Dirk Hachenberger Mathematik für Informatiker Dirk Hachenberger Mathematik für Informatiker ein Imprint von Pearson Education München Boston San Francisco Harlow, England Don Mills, Ontario Sydney Mexico City Madrid Amsterdam Inhaltsverzeichnis Vorwort

Mehr

http://www.mathematik.uni-kl.de/ gramlich

http://www.mathematik.uni-kl.de/ gramlich Vorwort MATLAB ist inzwischen in vielen Hochschulen, Universitäten und Fachhochschulen gleichermaßen ein etabliertes Programmsystem, das sowohl im Fach Mathematik selbst als auch in noch stärkerem Maße

Mehr

Übungsaufgaben LAAG I. für Lehramtsstudenten GS, MS, BS

Übungsaufgaben LAAG I. für Lehramtsstudenten GS, MS, BS Doz.Dr. Norbert Koksch TU DRESDEN Fachrichtung Mathematik, Institut für Analysis Übungsaufgaben LAAG I für Lehramtsstudenten GS, MS, BS Logik: Übungsaufgabe 1. Begründen Sie, ob es sich um eine Aussage

Mehr

Algorithmen II Vorlesung am 15.11.2012

Algorithmen II Vorlesung am 15.11.2012 Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales

Mehr

Zur Numerik linearer Gleichungssysteme. Werner Vogt Technische Universität Ilmenau Institut für Mathematik Postfach 100565 98684 Ilmenau

Zur Numerik linearer Gleichungssysteme. Werner Vogt Technische Universität Ilmenau Institut für Mathematik Postfach 100565 98684 Ilmenau Zur Numerik linearer Gleichungssysteme Werner Vogt Technische Universität Ilmenau Institut für Mathematik Postfach 100565 98684 Ilmenau Ilmenau, den 1.11.2004 1 Direkte Verfahren für lineare Gleichungssysteme

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

Leitfaden Lineare Algebra: Determinanten

Leitfaden Lineare Algebra: Determinanten Leitfaden Lineare Algebra: Determinanten Die symmetrische Gruppe S n. Eine Permutation σ der Menge S ist eine bijektive Abbildung σ : S S. Ist S eine endliche Menge, so reicht es zu verlangen, dass σ injektiv

Mehr

Lösung des Kleinste-Quadrate-Problems

Lösung des Kleinste-Quadrate-Problems Lösung des Kleinste-Quadrate-Problems Computergestützte Statistik Lisakowski, Christof 15.05.2009 Lisakowski, Christof ()Lösung des Kleinste-Quadrate-Problems 15.05.2009 1 / 34 Themen 1 Problemstellung

Mehr