Diskrete Wahrscheinlichkeitstheorie

Größe: px
Ab Seite anzeigen:

Download "Diskrete Wahrscheinlichkeitstheorie"

Transkript

1 SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München Sommersemester 2013

2 Teil VI Markov-Ketten

3 Markov-Ketten Markov-Ketten modellieren mehrstufige Experimente mit unendlich vielen Stufen. Der Ausgang einer Stufe bestimmt welches Experiment in der nächsten Stufe ausgeführt wird.

4 Erinnerung: Markov-Diagramme Definition 173 Ein (verallgemeinertes) Markov-Diagramm D = (Q, T, δ) besteht aus

5 Erinnerung: Markov-Diagramme Definition 173 Ein (verallgemeinertes) Markov-Diagramm D = (Q, T, δ) besteht aus einer (nicht notwendigerweise endlichen) Menge Q von Zuständen,

6 Erinnerung: Markov-Diagramme Definition 173 Ein (verallgemeinertes) Markov-Diagramm D = (Q, T, δ) besteht aus einer (nicht notwendigerweise endlichen) Menge Q von Zuständen, einer Menge T Q Q von Transitionen, und

7 Erinnerung: Markov-Diagramme Definition 173 Ein (verallgemeinertes) Markov-Diagramm D = (Q, T, δ) besteht aus einer (nicht notwendigerweise endlichen) Menge Q von Zuständen, einer Menge T Q Q von Transitionen, und einer W keitsfunktion δ : T (0, 1], die Folgendes erfüllt für jeden Zustand q: δ(q, q ) = 1. (q,q ) T

8 Definition einer Markov-Kette Definition 174 Eine W keitsverteilung oder Verteilung für ein Markov-Diagramm mit Zustandsmange Q ist eine Funktion v : Q [0, 1] mit der Eigenschaft v(q) = 1. q Q Definition 175 Eine Markov-Kette ist ein Tuple M = (Q, T, δ, π 0 ), wobei:

9 Definition einer Markov-Kette Definition 174 Eine W keitsverteilung oder Verteilung für ein Markov-Diagramm mit Zustandsmange Q ist eine Funktion v : Q [0, 1] mit der Eigenschaft v(q) = 1. q Q Definition 175 Eine Markov-Kette ist ein Tuple M = (Q, T, δ, π 0 ), wobei: (Q, T, δ) ist ein Markov-Diagramm und

10 Definition einer Markov-Kette Definition 174 Eine W keitsverteilung oder Verteilung für ein Markov-Diagramm mit Zustandsmange Q ist eine Funktion v : Q [0, 1] mit der Eigenschaft v(q) = 1. q Q Definition 175 Eine Markov-Kette ist ein Tuple M = (Q, T, δ, π 0 ), wobei: (Q, T, δ) ist ein Markov-Diagramm und π 0 : Q [0, 1] ist die Anfangsverteilung.

11 Definition einer Markov-Kette Definition 174 Eine W keitsverteilung oder Verteilung für ein Markov-Diagramm mit Zustandsmange Q ist eine Funktion v : Q [0, 1] mit der Eigenschaft v(q) = 1. q Q Definition 175 Eine Markov-Kette ist ein Tuple M = (Q, T, δ, π 0 ), wobei: (Q, T, δ) ist ein Markov-Diagramm und π 0 : Q [0, 1] ist die Anfangsverteilung. Eine Markov-Kette ist endlich bzw. abzählbar, wenn Q endlich bzw. abzählbar ist.

12 Die ménàge a trois von Armand, Bertrand und Cécile I Beispiel 176 (Heute im Theatiner, 18:00)

13 Die ménàge a trois von Armand, Bertrand und Cécile II Fragen von Armand an Denis, der sich in W keitstheorie auskennt:

14 Die ménàge a trois von Armand, Bertrand und Cécile II Fragen von Armand an Denis, der sich in W keitstheorie auskennt: Heute Morgen (Donnerstag) ist Cécile zu Bertrand gegangen. Mit welcher W keit wird sie den Sonntag mit mir verbringen?

15 Die ménàge a trois von Armand, Bertrand und Cécile II Fragen von Armand an Denis, der sich in W keitstheorie auskennt: Heute Morgen (Donnerstag) ist Cécile zu Bertrand gegangen. Mit welcher W keit wird sie den Sonntag mit mir verbringen? Wenn Cécile mich verlässt, wie lange dauert es im Schnitt, bis Sie zurückkommt?

16 Die ménàge a trois von Armand, Bertrand und Cécile II Fragen von Armand an Denis, der sich in W keitstheorie auskennt: Heute Morgen (Donnerstag) ist Cécile zu Bertrand gegangen. Mit welcher W keit wird sie den Sonntag mit mir verbringen? Wenn Cécile mich verlässt, wie lange dauert es im Schnitt, bis Sie zurückkommt? Wenn diese Situation für immer so weiter geht, wieviel Prozent der Tage wird Cécile mit mir verbringen?

17 Die ménàge a trois von Armand, Bertrand und Cécile II Fragen von Armand an Denis, der sich in W keitstheorie auskennt: Heute Morgen (Donnerstag) ist Cécile zu Bertrand gegangen. Mit welcher W keit wird sie den Sonntag mit mir verbringen? Wenn Cécile mich verlässt, wie lange dauert es im Schnitt, bis Sie zurückkommt? Wenn diese Situation für immer so weiter geht, wieviel Prozent der Tage wird Cécile mit mir verbringen? Wir untersuchen Methoden, um diese Fragen zu beantworten.

18 W keitsraum einer Markov-Kette I Definition 177 Ein Pfad einer Markov-Kette M = (Q, T, δ, Q 0 ) ist eine endliche oder unendliche Sequenz σ = q 0 q 1... q k... von Zuständen mit k 0 und (q i, q i+1 ) T für alle q i q i+1 in σ.

19 W keitsraum einer Markov-Kette I Definition 177 Ein Pfad einer Markov-Kette M = (Q, T, δ, Q 0 ) ist eine endliche oder unendliche Sequenz σ = q 0 q 1... q k... von Zuständen mit k 0 und (q i, q i+1 ) T für alle q i q i+1 in σ. Π bzw. Π ω bezeichnen die Menge aller endlichen bzw. unendlichen Pfaden von M.

20 W keitsraum einer Markov-Kette I Definition 177 Ein Pfad einer Markov-Kette M = (Q, T, δ, Q 0 ) ist eine endliche oder unendliche Sequenz σ = q 0 q 1... q k... von Zuständen mit k 0 und (q i, q i+1 ) T für alle q i q i+1 in σ. Π bzw. Π ω bezeichnen die Menge aller endlichen bzw. unendlichen Pfaden von M. σ(k) bezeichnet den Zustand q k, d.h. σ = σ(0) σ(1)... σ(k)....

21 W keitsraum einer Markov-Kette I Definition 177 Ein Pfad einer Markov-Kette M = (Q, T, δ, Q 0 ) ist eine endliche oder unendliche Sequenz σ = q 0 q 1... q k... von Zuständen mit k 0 und (q i, q i+1 ) T für alle q i q i+1 in σ. Π bzw. Π ω bezeichnen die Menge aller endlichen bzw. unendlichen Pfaden von M. σ(k) bezeichnet den Zustand q k, d.h. σ = σ(0) σ(1)... σ(k).... Die Konkatenation von σ Π und σ Π Π ω wird mit σ σ oder σ σ bezeichnet. Sei σ Π ein endlicher Pfad. Die von σ generierte Zylindermenge Cyl(σ) ist die Menge aller unendlichen Pfaden σ Π ω mit σ als Präfix.

22 W keitsraum einer Markov-Kette II Definition 178 Der W keitsraum einer abzählbaren Markov-Kette M mit Anfangsverteilung Q 0 ist die Triple (Ω, A, Pr) mit

23 W keitsraum einer Markov-Kette II Definition 178 Der W keitsraum einer abzählbaren Markov-Kette M mit Anfangsverteilung Q 0 ist die Triple (Ω, A, Pr) mit Ω = Π ω.

24 W keitsraum einer Markov-Kette II Definition 178 Der W keitsraum einer abzählbaren Markov-Kette M mit Anfangsverteilung Q 0 ist die Triple (Ω, A, Pr) mit Ω = Π ω. A enthält die von den Zylindermengen generierten Borel sche Mengen, d.h.: Cyl(σ) A für jedes σ Π. Wenn A A, dann Ω \ A A. Wenn A 1, A 2,... A, dann i=1 A i A.

25 W keitsraum einer Markov-Kette II Definition 178 Der W keitsraum einer abzählbaren Markov-Kette M mit Anfangsverteilung Q 0 ist die Triple (Ω, A, Pr) mit Ω = Π ω. A enthält die von den Zylindermengen generierten Borel sche Mengen, d.h.: Cyl(σ) A für jedes σ Π. Wenn A A, dann Ω \ A A. Wenn A 1, A 2,... A, dann i=1 A i A. Die W keitsfunktion Pr ist die einzige Funktion, die n 1 Pr [Cyl(q 0 q 1... q n )] = Q 0 (q 0 ) δ(q i, q i+1 ) und die Kolmogorov-Axiome erfüllt. i=0

26 Zufallsvariablen einer Markov-Kette Definition 179 Sei M = (Q, T, δ, Q 0 ) eine abzählbare Markov-Kette. Für jedes t N 0 bezeichnet X t die Zufallsvariable X t : Ω Q mit X t (σ) = σ(t).

27 Zufallsvariablen einer Markov-Kette Definition 179 Sei M = (Q, T, δ, Q 0 ) eine abzählbare Markov-Kette. Für jedes t N 0 bezeichnet X t die Zufallsvariable X t : Ω Q mit X t (σ) = σ(t). X t gibt den Zustand der Kette zum Zeitpunkt t.

28 Zufallsvariablen einer Markov-Kette Definition 179 Sei M = (Q, T, δ, Q 0 ) eine abzählbare Markov-Kette. Für jedes t N 0 bezeichnet X t die Zufallsvariable X t : Ω Q mit X t (σ) = σ(t). X t gibt den Zustand der Kette zum Zeitpunkt t. X t ist wohldefiniert: Man kann leicht zeigen, dass für jeden Zustand q Q die Menge X t = q Borel ist.

29 Zufallsvariablen einer Markov-Kette Definition 179 Sei M = (Q, T, δ, Q 0 ) eine abzählbare Markov-Kette. Für jedes t N 0 bezeichnet X t die Zufallsvariable X t : Ω Q mit X t (σ) = σ(t). X t gibt den Zustand der Kette zum Zeitpunkt t. X t ist wohldefiniert: Man kann leicht zeigen, dass für jeden Zustand q Q die Menge X t = q Borel ist. Für alle t 0 gilt: Pr[X t+1 = q X t = q] = δ(q, q ) Pr[X t+1 = q t+1 X t = q t,..., X 0 = q 0 ] = δ(q, q ).

30 25. Übergangswahrscheinlichkeiten

31 Übergangsw keiten I: Ubergangsmatrix Definition 180 Sei M = (Q, T, δ, Q 0 ) eine endliche Markov-Kette mit Q = {q 1,..., q n }. Die n n Matrix P = (p ij ) 0 i,j<n mit p ij = δ(q i, q j ) = Pr[X t+1 = q j X t = q i ] ist die Übergangsmatrix von M.

32 Übergangsw keiten I: Ubergangsmatrix Definition 180 Sei M = (Q, T, δ, Q 0 ) eine endliche Markov-Kette mit Q = {q 1,..., q n }. Die n n Matrix P = (p ij ) 0 i,j<n mit p ij = δ(q i, q j ) = Pr[X t+1 = q j X t = q i ] ist die Übergangsmatrix von M. Beispiel 181 Die Matrix der Armand-Bertrand-Cécile-Kette (mit q 1 := Armand und q 2 := Bertrand) ist: ( ) P =

33 Übergangsw keiten II: Berechnung Sei Q t = ( Pr[X t = q 1 ],... Pr[X t = q n ] )

34 Übergangsw keiten II: Berechnung Sei Q t = ( Pr[X t = q 1 ],... Pr[X t = q n ] ) Es gilt Pr[X 0 = q k ] = Q 0 (q k ) n Pr[X t+1 = q k ] = Pr[X t+1 = q k X t = q i ] Pr[X t = q i ] = i=1 n p ik Pr[X t = q i ] i=1

35 Übergangsw keiten II: Berechnung Sei Q t = ( Pr[X t = q 1 ],... Pr[X t = q n ] ) Es gilt Pr[X 0 = q k ] = Q 0 (q k ) n Pr[X t+1 = q k ] = Pr[X t+1 = q k X t = q i ] Pr[X t = q i ] = i=1 n p ik Pr[X t = q i ] i=1 also n (Q t+1 ) k = p ik (Q t ) i i=1

36 Übergangsw keiten II: Berechnung Sei Q t = ( Pr[X t = q 1 ],... Pr[X t = q n ] ) Es gilt Pr[X 0 = q k ] = Q 0 (q k ) n Pr[X t+1 = q k ] = Pr[X t+1 = q k X t = q i ] Pr[X t = q i ] = i=1 n p ik Pr[X t = q i ] i=1 also (Q t+1 ) k = und in Matrixschreibweise n p ik (Q t ) i i=1 Q t+1 = Q t P

37 Übergangsw keiten III: Berechnung Mit der Matrixschreibweise erhalten wir für alle t, k N Q t = Q 0 P t Q t+k = Q t P k

38 Übergangsw keiten III: Berechnung Mit der Matrixschreibweise erhalten wir für alle t, k N Q t = Q 0 P t Q t+k = Q t P k Beispiel 182 (Erste Frage von Armand) Heute Morgen (Donnerstag) ist Cécile zu Bertrand gegangen. Mit welcher W keit wird sie den Sonntag mit mir verbringen?

39 Übergangsw keiten III: Berechnung Mit der Matrixschreibweise erhalten wir für alle t, k N Q t = Q 0 P t Q t+k = Q t P k Beispiel 182 (Erste Frage von Armand) Heute Morgen (Donnerstag) ist Cécile zu Bertrand gegangen. Mit welcher W keit wird sie den Sonntag mit mir verbringen? Modellierung: Sei Q 0 = (0, 1). Gesucht wird Q 3 (q 1 ) = Pr[X 3 = q 1 ].

40 Übergangsw keiten III: Berechnung Mit der Matrixschreibweise erhalten wir für alle t, k N Q t = Q 0 P t Q t+k = Q t P k Beispiel 182 (Erste Frage von Armand) Heute Morgen (Donnerstag) ist Cécile zu Bertrand gegangen. Mit welcher W keit wird sie den Sonntag mit mir verbringen? Modellierung: Sei Q 0 = (0, 1). Gesucht wird Q 3 (q 1 ) = Pr[X 3 = q 1 ]. Q 3 = Q 0 P 3 = (0, 1) ( ) = (0.219, 0.781)

41 Übergangsw keiten III: Berechnung Mit der Matrixschreibweise erhalten wir für alle t, k N Q t = Q 0 P t Q t+k = Q t P k Beispiel 182 (Erste Frage von Armand) Heute Morgen (Donnerstag) ist Cécile zu Bertrand gegangen. Mit welcher W keit wird sie den Sonntag mit mir verbringen? Modellierung: Sei Q 0 = (0, 1). Gesucht wird Q 3 (q 1 ) = Pr[X 3 = q 1 ]. Q 3 = Q 0 P 3 = (0, 1) Die W keit beträgt somit ( ) = (0.219, 0.781)

42 Übergangsw keiten IV: Exponentiation von Matrizen Wenn P diagonalisierbar ist, so existiert eine Diagonalmatrix D und eine invertierbare Matrix B mit P = B D B 1

43 Übergangsw keiten IV: Exponentiation von Matrizen Wenn P diagonalisierbar ist, so existiert eine Diagonalmatrix D und eine invertierbare Matrix B mit und somit P = B D B 1 P k = B D k B 1 wobei D k sehr leicht zu berechnen ist.

44 Übergangsw keiten IV: Exponentiation von Matrizen Wenn P diagonalisierbar ist, so existiert eine Diagonalmatrix D und eine invertierbare Matrix B mit und somit P = B D B 1 P k = B D k B 1 wobei D k sehr leicht zu berechnen ist. Die Diagonale von D enthält die Eigenwerte von P, d.h., die λ-lösungen der Gleichung P v = λv

45 Übergangsw keiten IV: Exponentiation von Matrizen Wenn P diagonalisierbar ist, so existiert eine Diagonalmatrix D und eine invertierbare Matrix B mit und somit P = B D B 1 P k = B D k B 1 wobei D k sehr leicht zu berechnen ist. Die Diagonale von D enthält die Eigenwerte von P, d.h., die λ-lösungen der Gleichung P v = λv Die Spalten von B sind die Eigenvektoren von P, d.h., die v-lösungen derselben Gleichung.

46 Übergangsw keiten IV: Berechnung von D und B Beispiel 183 P = ( 0.8 )

47 Übergangsw keiten IV: Berechnung von D und B Beispiel 183 P = ( 0.8 ) Eigenwerte: Nullstellen des charakteristischen Polynoms P λ I = 0.8 λ λ

48 Übergangsw keiten IV: Berechnung von D und B Beispiel 183 P = ( 0.8 ) Eigenwerte: Nullstellen des charakteristischen Polynoms P λ I = 0.8 λ λ = λ2 1.7λ Wir erhalten: λ 1 = 0.7 und λ 2 = 1.

49 Übergangsw keiten IV: Berechnung von D und B Beispiel 183 P = ( 0.8 ) Eigenwerte: Nullstellen des charakteristischen Polynoms P λ I = 0.8 λ λ = λ2 1.7λ Wir erhalten: λ 1 = 0.7 und λ 2 = 1. Dazugehörige Eigenvektoren: ( ) 2 ν 1 = und ν 1 2 = ( ) 1. 1

50 Übergangsw keiten V: Berechnung von D und B Damit gilt D = ( ) B = 0 1 ( 1 1 B 1 = ( ) )

51 Übergangsw keiten V: Berechnung von D und B Damit gilt D = ( ) B = 0 1 ( 1 1 B 1 = Es ergibt sich z.b. ( ) ( ) ( P = ( ) ) ) ( )

52 Übergangsw keiten V: Berechnung von D und B Damit gilt D = ( ) B = 0 1 ( 1 1 B 1 = Es ergibt sich z.b. ( ) ( ) ( P = ( ) ) ) ( ) Wir berechnen die W keit, dass Cécile am 10. Juli bei Armand bzw. Bertrand ist, wenn sie den 1. Juli bei Bertrand verbringt: ( ) Q 10 = (0, 1) = (0.324, 0.676)

53 26. Ankunftsw keiten und Übergangszeiten

54 Ankunftsw keiten und Übergangszeiten Wir untersuchen Fragestellungen auf, die sich auf zwei bestimmte Zustände q i und q j beziehen: Wie wahrscheinlich ist es, von q i irgendwann nach q j zu kommen? Wie viele Schritte benötigt die Kette im Mittel, um von q i nach q j zu gelangen?

55 Ankunftsw keiten und Übergangszeiten Wir untersuchen Fragestellungen auf, die sich auf zwei bestimmte Zustände q i und q j beziehen: Wie wahrscheinlich ist es, von q i irgendwann nach q j zu kommen? Wie viele Schritte benötigt die Kette im Mittel, um von q i nach q j zu gelangen? Bemerkung: Die zweite Frage wurde schon im Wesentlichen im Abschnitt Markov-Diagramme betrachtet.

56 Übergangszeiten Definition 184 Sei T j die Zufallsvariable { min{n 0 Xn (σ) = q T j (σ) := j } wenn Menge nichtleer sonst

57 Übergangszeiten Definition 184 Sei T j die Zufallsvariable { min{n 0 Xn (σ) = q T j (σ) := j } wenn Menge nichtleer sonst Die bedingte Zufallsvariable T ij := T j X 0 = q i nennen wir die Übergangszeit (engl. hitting time) von q i nach q j.

58 Übergangszeiten Definition 184 Sei T j die Zufallsvariable { min{n 0 Xn (σ) = q T j (σ) := j } wenn Menge nichtleer sonst Die bedingte Zufallsvariable T ij := T j X 0 = q i nennen wir die Übergangszeit (engl. hitting time) von q i nach q j. T ij zählt die Anzahl der Schritte, die für den Weg von q i nach q j benötigt werden. Notation: h ij := E[T ij ] (falls der bedingte Erwartungswert existiert).

59 Rückkehrzeiten Im Fall q i = q j gilt T ii = 0 weil die Kette schon in q i ist. Wir untersuchen auch, wie lange es dauert, bis Zustand q i zu einem späteren Zeitpunkt wieder besucht wird.

60 Rückkehrzeiten Im Fall q i = q j gilt T ii = 0 weil die Kette schon in q i ist. Wir untersuchen auch, wie lange es dauert, bis Zustand q i zu einem späteren Zeitpunkt wieder besucht wird. Definition 185 Sei T j die Zufallsvariable { T j(σ) min{n 1 Xn (σ) = q := j } wenn Menge nichtleer sonst

61 Rückkehrzeiten Im Fall q i = q j gilt T ii = 0 weil die Kette schon in q i ist. Wir untersuchen auch, wie lange es dauert, bis Zustand q i zu einem späteren Zeitpunkt wieder besucht wird. Definition 185 Sei T j die Zufallsvariable { T j(σ) min{n 1 Xn (σ) = q := j } wenn Menge nichtleer sonst Die bedingte Zufallsvariable T i := T i X 0 = q i ist die Rückkehrzeit (engl. recurrence time) von q i. Notation: h i := E[T i ] (falls der bedingte Erwartungswert existiert).

62 Ankunfts- und Rückkehrw keiten Definition 186 Die Ankunftsw keit f ij, vom Zustand q i nach beliebig vielen Schritten in den Zustand q j zu gelangen ist definiert durch f ij := Pr[T j < X 0 = q i ]. Die Rückkehrw keit f i, vom Zustand q i nach beliebig vielen Schritten (mindestens 1) zurück zum Zustand q i zu kehren ist definiert durch f i := Pr[T i < X 0 = q i ].

63 Ein Beispiel Beispiel 187 1,0 1,0 0,5 0, ,5 0,5

64 Ein Beispiel Beispiel 187 1,0 1,0 0,5 0, ,5 Für alle σ Π ω gilt 0,5 T 0 (σ) = 1 T 01 (σ) = T 02 (σ) = T 03 (σ) = { 1 falls X 1 (σ) = 0 T 10 (σ) = falls X 1 (σ) = 2

65 Ein Beispiel Beispiel 187 1,0 1,0 0,5 0, ,5 Für alle σ Π ω gilt 0,5 Es gilt auch T 0 (σ) = 1 T 01 (σ) = T 02 (σ) = T 03 (σ) = { 1 falls X 1 (σ) = 0 T 10 (σ) = falls X 1 (σ) = 2 f 10 = 0.5, f 32 = 1, f 2 = 1 und h 10 =, h 32 = 2

66 Berechnung von f ij und h ij I Lemma 188 Für die erwarteten Übergangs-/Rückkehrzeiten gilt h ij = 1 + k j p ik h kj für alle q i, q j Q, q i q j h j = 1 + k j p jk h kj für alle q j Q sofern die Erwartungswerte h ij und h kj existieren.

67 Berechnung von f ij und h ij I Lemma 188 Für die erwarteten Übergangs-/Rückkehrzeiten gilt h ij = 1 + k j p ik h kj für alle q i, q j Q, q i q j h j = 1 + k j p jk h kj für alle q j Q sofern die Erwartungswerte h ij und h kj existieren. Für die Ankunfts-/Rückkehrwahrscheinlichkeiten gilt analog f ij = p ij + k j p ik f kj für alle q i, q j Q, q i q j f j = p jj + k j p jk f kj für alle q j Q

68 Berechnung von f ij und h ij II Beweis für f ij : Sei q i q j. Es gilt Pr[T ij < X 1 = q k ] = Pr[T kj < ] für q k q j Pr[T ij < X 1 = q j ] = 1

69 Berechnung von f ij und h ij II Beweis für f ij : Sei q i q j. Es gilt Pr[T ij < X 1 = q k ] = Pr[T kj < ] für q k q j Pr[T ij < X 1 = q j ] = 1 und damit f ij = Pr[T ij < ] =

70 Berechnung von f ij und h ij II Beweis für f ij : Sei q i q j. Es gilt Pr[T ij < X 1 = q k ] = Pr[T kj < ] für q k q j Pr[T ij < X 1 = q j ] = 1 und damit f ij = Pr[T ij < ] = Pr[T ij < X 1 = q k ] p ik q k Q

71 Berechnung von f ij und h ij II Beweis für f ij : Sei q i q j. Es gilt Pr[T ij < X 1 = q k ] = Pr[T kj < ] für q k q j Pr[T ij < X 1 = q j ] = 1 und damit f ij = Pr[T ij < ] = Pr[T ij < X 1 = q k ] p ik q k Q = p ij + k j Pr[T kj < ] p ik

72 Berechnung von f ij und h ij II Beweis für f ij : Sei q i q j. Es gilt Pr[T ij < X 1 = q k ] = Pr[T kj < ] für q k q j Pr[T ij < X 1 = q j ] = 1 und damit f ij = Pr[T ij < ] = Pr[T ij < X 1 = q k ] p ik = p ij + k j q k Q Pr[T kj < ] p ik = p ij + k j p ik f kj

73 Berechnung von f ij und h ij II Beweis für f ij : Sei q i q j. Es gilt Pr[T ij < X 1 = q k ] = Pr[T kj < ] für q k q j Pr[T ij < X 1 = q j ] = 1 und damit f ij = Pr[T ij < ] = Pr[T ij < X 1 = q k ] p ik = p ij + k j q k Q Pr[T kj < ] p ik = p ij + k j p ik f kj Die Ableitung für f j ist analog.

74 Berechnung von f ij und h ij III Beweis für h ij : Sei q i q j. Es gilt E[T ij X 1 = q k ] = 1 + E[T kj ] für q k q j E[T ij X 1 = q j ] = 1

75 Berechnung von f ij und h ij III Beweis für h ij : Sei q i q j. Es gilt und damit E[T ij X 1 = q k ] = 1 + E[T kj ] für q k q j E[T ij X 1 = q j ] = 1 h ij = E[T ij ]

76 Berechnung von f ij und h ij III Beweis für h ij : Sei q i q j. Es gilt E[T ij X 1 = q k ] = 1 + E[T kj ] für q k q j E[T ij X 1 = q j ] = 1 und damit h ij = E[T ij ] = E[T ij X 1 = q k ] p ik q k Q

77 Berechnung von f ij und h ij III Beweis für h ij : Sei q i q j. Es gilt E[T ij X 1 = q k ] = 1 + E[T kj ] für q k q j E[T ij X 1 = q j ] = 1 und damit h ij = E[T ij ] = E[T ij X 1 = q k ] p ik q k Q = p ij + k j(1 + E[T kj ]) p ik

78 Berechnung von f ij und h ij III Beweis für h ij : Sei q i q j. Es gilt E[T ij X 1 = q k ] = 1 + E[T kj ] für q k q j E[T ij X 1 = q j ] = 1 und damit h ij = E[T ij ] = E[T ij X 1 = q k ] p ik q k Q = p ij + (1 + E[T kj ]) p ik = 1 + h kj p ik k j k j

79 Berechnung von f ij und h ij III Beweis für h ij : Sei q i q j. Es gilt E[T ij X 1 = q k ] = 1 + E[T kj ] für q k q j E[T ij X 1 = q j ] = 1 und damit h ij = E[T ij ] = E[T ij X 1 = q k ] p ik q k Q = p ij + k j (1 + E[T kj ]) p ik = 1 + k j h kj p ik Die Ableitung für h j analog.

80 Berechnung von f ij und h ij IV Beispiel 189 1,0 0,5 0,5 1, ,5 0,5

81 Berechnung von f ij und h ij IV Beispiel 189 1,0 0,5 0,5 1, ,5 0,5 Für die Übergangszeiten für die Zustände 2 und 3 erhalten wir die Gleichungen h 23 = 1 h 32 = h 32 h 2 = 1 + h 32 h 3 = h 23

82 Berechnung von f ij und h ij IV Beispiel 189 1,0 0,5 0,5 1, ,5 0,5 Für die Übergangszeiten für die Zustände 2 und 3 erhalten wir die Gleichungen mit Lösung h 23 = 1 h 32 = h 32 h 2 = 1 + h 32 h 3 = h 23 h 23 = 1 h 32 = 2 h 2 = 3 h 3 = 1.5

83 Berechnung von f ij und h ij V Beispiel 190 (Zweite Frage von Armand) Wenn Cécile mich verlässt, wie lange dauert es im Schnitt, bis sie zurückkommt?

84 Berechnung von f ij und h ij V Beispiel 190 (Zweite Frage von Armand) Wenn Cécile mich verlässt, wie lange dauert es im Schnitt, bis sie zurückkommt? Armand interessiert sich für h 21 für die Kette mit ( ) P =

85 Berechnung von f ij und h ij V Beispiel 190 (Zweite Frage von Armand) Wenn Cécile mich verlässt, wie lange dauert es im Schnitt, bis sie zurückkommt? Armand interessiert sich für h 21 für die Kette mit ( ) P = Wir erhalten das Gleichungssystem h 12 = 1 + p 11 h 12 = h 12 h 21 = 1 + p 22 h 21 = h 21 h 1 = 1 + p 12 h 21 = h 21 h 2 = 1 + p 21 h 12 = h 12

86 Berechnung von f ij und h ij V Beispiel 190 (Zweite Frage von Armand) Wenn Cécile mich verlässt, wie lange dauert es im Schnitt, bis sie zurückkommt? Armand interessiert sich für h 21 für die Kette mit ( ) P = Wir erhalten das Gleichungssystem h 12 = 1 + p 11 h 12 = h 12 h 21 = 1 + p 22 h 21 = h 21 h 1 = 1 + p 12 h 21 = h 21 h 2 = 1 + p 21 h 12 = h 12 mit Lösung h 12 = 5 h 21 = 10 h 1 = 3 h 2 = 1.5

87 Das Gamblers Ruin Problem I Beispiel 191 Cécile entscheidet, Armand und Bertrand sollen Poker spielen, bis einer von ihnen bankrott ist. Sie zieht dann endgültig beim Gewinner ein. Frage 2: Wieviele Runden müssen im Schnitt gespielt werden?

88 Das Gamblers Ruin Problem I Beispiel 191 Cécile entscheidet, Armand und Bertrand sollen Poker spielen, bis einer von ihnen bankrott ist. Sie zieht dann endgültig beim Gewinner ein. Armand und Bertrand verfügen jeweils über Kapital a und m a.

89 Das Gamblers Ruin Problem I Beispiel 191 Cécile entscheidet, Armand und Bertrand sollen Poker spielen, bis einer von ihnen bankrott ist. Sie zieht dann endgültig beim Gewinner ein. Armand und Bertrand verfügen jeweils über Kapital a und m a. In jeder Pokerrunde setzen beide jeweils eine Geldeinheit.

90 Das Gamblers Ruin Problem I Beispiel 191 Cécile entscheidet, Armand und Bertrand sollen Poker spielen, bis einer von ihnen bankrott ist. Sie zieht dann endgültig beim Gewinner ein. Armand und Bertrand verfügen jeweils über Kapital a und m a. In jeder Pokerrunde setzen beide jeweils eine Geldeinheit. Armand gewinnt jedes Spiel mit W keit p und Bertrand mit W keit q := 1 p.

91 Das Gamblers Ruin Problem I Beispiel 191 Cécile entscheidet, Armand und Bertrand sollen Poker spielen, bis einer von ihnen bankrott ist. Sie zieht dann endgültig beim Gewinner ein. Armand und Bertrand verfügen jeweils über Kapital a und m a. In jeder Pokerrunde setzen beide jeweils eine Geldeinheit. Armand gewinnt jedes Spiel mit W keit p und Bertrand mit W keit q := 1 p. Frage 1: Mit welcher W keit zieht Cécile bei Armand ein?

92 Das Gamblers Ruin Problem I Beispiel 191 Cécile entscheidet, Armand und Bertrand sollen Poker spielen, bis einer von ihnen bankrott ist. Sie zieht dann endgültig beim Gewinner ein. Armand und Bertrand verfügen jeweils über Kapital a und m a. In jeder Pokerrunde setzen beide jeweils eine Geldeinheit. Armand gewinnt jedes Spiel mit W keit p und Bertrand mit W keit q := 1 p. Frage 1: Mit welcher W keit zieht Cécile bei Armand ein? Frage 2: Wieviele Runden müssen im Schnitt gespielt werden?

93 Das Gamblers Ruin Problem II Frage 1: Mit welcher W keit zieht Cécile bei Armand ein? Wir modellieren das Spiel durch die Markov-Kette ½ Ô Ô Ô Ô ½ Ñ ½ Ñ Õ Õ Õ Õ Die Zustände modellieren das aktuelle Kapital von Armand.

94 Das Gamblers Ruin Problem II Frage 1: Mit welcher W keit zieht Cécile bei Armand ein? Wir modellieren das Spiel durch die Markov-Kette ½ Ô Ô Ô Ô ½ Ñ ½ Ñ Õ Õ Õ Õ Die Zustände modellieren das aktuelle Kapital von Armand. Die W keit, mit der Armand Bertrand in den Ruin treibt is f a,m.

95 Das Gamblers Ruin Problem II Frage 1: Mit welcher W keit zieht Cécile bei Armand ein? Wir modellieren das Spiel durch die Markov-Kette ½ Ô Ô Ô Ô ½ Ñ ½ Ñ Õ Õ Õ Õ Die Zustände modellieren das aktuelle Kapital von Armand. Die W keit, mit der Armand Bertrand in den Ruin treibt is f a,m. Wir erhalten f 0,m = 0 f i,m = p f i+1,m + q f i 1,m für 1 i < m 1 f m 1,m = p + q f m 2,m f m,m = 1

96 Das Gamblers Ruin Problem III Die Gleichungen können umgeschrieben werden zu f 0,m = 0 f 1,m = ξ f i+1,m = (1/p) f i,m (q/p) f i 1,m für 1 i < m

97 Das Gamblers Ruin Problem III Die Gleichungen können umgeschrieben werden zu f 0,m = 0 f 1,m = ξ f i+1,m = (1/p) f i,m (q/p) f i 1,m für 1 i < m mit ξ so gewählt, dass f m,m = 1 erfüllt ist.

98 Das Gamblers Ruin Problem III Die Gleichungen können umgeschrieben werden zu f 0,m = 0 f 1,m = ξ f i+1,m = (1/p) f i,m (q/p) f i 1,m für 1 i < m mit ξ so gewählt, dass f m,m = 1 erfüllt ist. Es ergibt sich für p 1/2 (Fall p = 1/2 analog): ( f i,m = p ξ ( ) ) i 1 p 2p 1 1 ξ = p ( p 1 2p 1 ) m ) ( 1 p p

99 Das Gamblers Ruin Problem III Die Gleichungen können umgeschrieben werden zu f 0,m = 0 f 1,m = ξ f i+1,m = (1/p) f i,m (q/p) f i 1,m für 1 i < m mit ξ so gewählt, dass f m,m = 1 erfüllt ist. Es ergibt sich für p 1/2 (Fall p = 1/2 analog): ( f i,m = p ξ ( ) ) i 1 p 2p 1 1 ξ = p ( p 1 2p 1 ( 1 p p ) m ) und insgesamt 1 f a,m = 1 ( ) a 1 p p ( ) m 1 p p

100 Das Gamblers Ruin Problem IV Frage 2: Wieviele Runden müssen im Schnitt gespielt werden? Wir betrachten die Zufallsvariable U i := Anzahl der Schritte von q i nach q 0 oder q m

101 Das Gamblers Ruin Problem IV Frage 2: Wieviele Runden müssen im Schnitt gespielt werden? Wir betrachten die Zufallsvariable U i := Anzahl der Schritte von q i nach q 0 oder q m Mit d i := E[U i ] gilt d 0 = 0 d i = q d i 1 + p d i für 1 i < m d m = 0

102 Das Gamblers Ruin Problem IV Frage 2: Wieviele Runden müssen im Schnitt gespielt werden? Wir betrachten die Zufallsvariable U i := Anzahl der Schritte von q i nach q 0 oder q m Mit d i := E[U i ] gilt d 0 = 0 d i = q d i 1 + p d i für 1 i < m d m = 0 Der Speziallfall p = q = 1/2 ist besonders einfach: d i = i (m i) für alle i = 0,..., m womit unabhängig vom Startzustand das Spiel im Mittel nach höchstens m 2 Schritten beendet ist.

103 27. Stationäre Verteilung

104 Stationäre Verteilung I: Motivation Die Übergangsmatrix der ABC-Kette erfüllt für alle t N: P t = B D t B 1 = ( ) ( ) ( 0.7 t 0 1/3 1/3 0 1 t 1/3 2/3 )

105 Stationäre Verteilung I: Motivation Die Übergangsmatrix der ABC-Kette erfüllt für alle t N: P t = B D t B 1 = ( ) ( ) ( 0.7 t 0 1/3 1/3 0 1 t 1/3 2/3 ) Für t erhalten wir ( ) ( ) ( lim P t /3 1/3 = t /3 2/3 ) = ( 1/3 2/3 1/3 2/3 )

106 Stationäre Verteilung I: Motivation Die Übergangsmatrix der ABC-Kette erfüllt für alle t N: P t = B D t B 1 = ( ) ( ) ( 0.7 t 0 1/3 1/3 0 1 t 1/3 2/3 ) Für t erhalten wir ( ) ( ) ( lim P t /3 1/3 = t /3 2/3 ) = ( 1/3 2/3 1/3 2/3 ) und so gilt für eine beliebige Anfangsverteilung Q 0 = (a, 1 a) ( 1/3 2/3 lim Q t = lim Q 0 P t = (a, 1 a) t t 1/3 2/3 ) = ( 1 3, 2 ) 3

107 Stationäre Verteilung II: Motivation Das System konvergiert also unabhängig von der Anfangsverteilung in die feste Verteilung π = (1/3, 2/3). (3) Stimmt die intuitive Antwort auf Armands dritte Frage? Wie kann die Frage überhaupt formalisiert werden?

108 Stationäre Verteilung II: Motivation Das System konvergiert also unabhängig von der Anfangsverteilung in die feste Verteilung π = (1/3, 2/3). Intuitive Antwort auf Armands dritte Frage: Die Verteilung der Zeit, die Cécile bei Armand und Bertrand verbringt, konvergiert gegen: 1/3 der Zeit bei Armand, 2/3 bei Bertrand.

109 Stationäre Verteilung II: Motivation Das System konvergiert also unabhängig von der Anfangsverteilung in die feste Verteilung π = (1/3, 2/3). Intuitive Antwort auf Armands dritte Frage: Die Verteilung der Zeit, die Cécile bei Armand und Bertrand verbringt, konvergiert gegen: 1/3 der Zeit bei Armand, 2/3 bei Bertrand. Offene Punkte:

110 Stationäre Verteilung II: Motivation Das System konvergiert also unabhängig von der Anfangsverteilung in die feste Verteilung π = (1/3, 2/3). Intuitive Antwort auf Armands dritte Frage: Die Verteilung der Zeit, die Cécile bei Armand und Bertrand verbringt, konvergiert gegen: 1/3 der Zeit bei Armand, 2/3 bei Bertrand. Offene Punkte: (1) Konvergiert jede Kette in eine feste Verteilung unabhängig von der Anfangsverteilung?

111 Stationäre Verteilung II: Motivation Das System konvergiert also unabhängig von der Anfangsverteilung in die feste Verteilung π = (1/3, 2/3). Intuitive Antwort auf Armands dritte Frage: Die Verteilung der Zeit, die Cécile bei Armand und Bertrand verbringt, konvergiert gegen: 1/3 der Zeit bei Armand, 2/3 bei Bertrand. Offene Punkte: (1) Konvergiert jede Kette in eine feste Verteilung unabhängig von der Anfangsverteilung? (2) Wenn so, wie kann diese Verteilung berechnet werden?

112 Stationäre Verteilung II: Motivation Das System konvergiert also unabhängig von der Anfangsverteilung in die feste Verteilung π = (1/3, 2/3). Intuitive Antwort auf Armands dritte Frage: Die Verteilung der Zeit, die Cécile bei Armand und Bertrand verbringt, konvergiert gegen: 1/3 der Zeit bei Armand, 2/3 bei Bertrand. Offene Punkte: (1) Konvergiert jede Kette in eine feste Verteilung unabhängig von der Anfangsverteilung? (2) Wenn so, wie kann diese Verteilung berechnet werden? (3) Stimmt die intuitive Antwort auf Armands dritte Frage? Wie kann die Frage überhaupt formalisiert werden?

113 Stationäre Verteilung III: Motivation Wenn eine Kette immer in eine Verteilung π konvergiert, dann muss sie mit π als Anfangsverteilung in π bleiben.

114 Stationäre Verteilung III: Motivation Wenn eine Kette immer in eine Verteilung π konvergiert, dann muss sie mit π als Anfangsverteilung in π bleiben. Wir erwarten also π P = π d.h., π soll Eigenvektor von P zum Eigenwert 1 sein (bezüglich Multiplikation von links). In der Tat gilt: π P = (1/3, 2/3) ( ) = (1/3, 2/3) = π

115 Stationäre Verteilung IV: Definition Definition 192 Sei P die Übergangsmatrix einer Markov-Kette. Einen Zustandsvektor π mit π = π P nennen wir stationäre Verteilung der Markov-Kette.

116 Stationäre Verteilung IV: Definition Definition 192 Sei P die Übergangsmatrix einer Markov-Kette. Einen Zustandsvektor π mit π = π P nennen wir stationäre Verteilung der Markov-Kette. Umformulierung der Frage (a): Besitzen alle Markov-Ketten die Eigenschaft, dass sie unabhängig von der Anfangsverteilung in eine bestimmte stationäre Verteilung konvergieren?

117 Stationäre Verteilung IV: Definition Definition 192 Sei P die Übergangsmatrix einer Markov-Kette. Einen Zustandsvektor π mit π = π P nennen wir stationäre Verteilung der Markov-Kette. Umformulierung der Frage (a): Besitzen alle Markov-Ketten die Eigenschaft, dass sie unabhängig von der Anfangsverteilung in eine bestimmte stationäre Verteilung konvergieren? Nein!

118 Stationäre Verteilung IV: Definition Definition 192 Sei P die Übergangsmatrix einer Markov-Kette. Einen Zustandsvektor π mit π = π P nennen wir stationäre Verteilung der Markov-Kette. Umformulierung der Frage (a): Besitzen alle Markov-Ketten die Eigenschaft, dass sie unabhängig von der Anfangsverteilung in eine bestimmte stationäre Verteilung konvergieren? Nein! ½ ½ Õ Diese Kette hat unendlich viele zwei stationäre Verteilungen: (a, 0, 1 a) für alle a [0, 1] Ô

119 Stationäre Verteilung V: Irreduzible Ketten Definition 193 Eine Markov-Kette heißt irreduzibel, wenn es für alle Zustandspaare q i, q j eine Zahl n N gibt, so dass (P n ) ij > 0. Wir bezeichen p (n) ij := (P n ) ij. Äquivalente Definition: Eine Markov-Kette heißt irreduzibel, wenn ihr Markov-Diagramm stark zusammenhängend ist.

120 Stationäre Verteilung V: Irreduzible Ketten Definition 193 Eine Markov-Kette heißt irreduzibel, wenn es für alle Zustandspaare q i, q j eine Zahl n N gibt, so dass (P n ) ij > 0. Wir bezeichen p (n) ij := (P n ) ij. Äquivalente Definition: Eine Markov-Kette heißt irreduzibel, wenn ihr Markov-Diagramm stark zusammenhängend ist. Lemma 194 Für irreduzible endliche Markov-Ketten gilt für alle Zustände q i, q j Q: (a) f ij = Pr[T ij < ] = 1, und (b) der Erwartungswert h ij = E[T ij ] existiert.

121 Stationäre Verteilung VI: Irreduzible Ketten Beweis: Zu (b): Sei q k Q beliebig. Es gibt n k mit p (n k) kj > 0. Sei n := max k {n k } und p := min k {p (n k) kj }.

122 Stationäre Verteilung VI: Irreduzible Ketten Beweis: Zu (b): Sei q k Q beliebig. Es gibt n k mit p (n k) kj > 0. Sei n := max k {n k } und p := min k {p (n k) kj }. Wir unterteilen die Zeit in Phasen zu n Schritten. Wir nennen eine Phase erfolgreich, wenn während dieser Phase ein Besuch bei q j stattfindet.

123 Stationäre Verteilung VI: Irreduzible Ketten Beweis: Zu (b): Sei q k Q beliebig. Es gibt n k mit p (n k) kj > 0. Sei n := max k {n k } und p := min k {p (n k) kj }. Wir unterteilen die Zeit in Phasen zu n Schritten. Wir nennen eine Phase erfolgreich, wenn während dieser Phase ein Besuch bei q j stattfindet. Die Anzahl von Phasen bis zur ersten erfolgreichen Phase können wir durch eine geometrische Verteilung mit Parameter p abschätzen. Die erwartete Anzahl von Phasen ist somit höchstens 1/p.

124 Stationäre Verteilung VI: Irreduzible Ketten Beweis: Zu (b): Sei q k Q beliebig. Es gibt n k mit p (n k) kj > 0. Sei n := max k {n k } und p := min k {p (n k) kj }. Wir unterteilen die Zeit in Phasen zu n Schritten. Wir nennen eine Phase erfolgreich, wenn während dieser Phase ein Besuch bei q j stattfindet. Die Anzahl von Phasen bis zur ersten erfolgreichen Phase können wir durch eine geometrische Verteilung mit Parameter p abschätzen. Die erwartete Anzahl von Phasen ist somit höchstens 1/p. Es folgt h ij (1/p) n und f ij = Pr[T ij < ] = 1.

125 Stationäre Verteilung VII: Irreduzible Ketten Satz 195 Eine irreduzible endliche Markov-Kette besitzt eine eindeutige stationäre Verteilung π und es gilt π(q j ) = 1/h j für alle q j Q.

126 Stationäre Verteilung VII: Irreduzible Ketten Satz 195 Eine irreduzible endliche Markov-Kette besitzt eine eindeutige stationäre Verteilung π und es gilt π(q j ) = 1/h j für alle q j Q. Beweis: (a) Z.z.: Es gibt einen Vektor π 0 mit π = π P.

127 Stationäre Verteilung VII: Irreduzible Ketten Satz 195 Eine irreduzible endliche Markov-Kette besitzt eine eindeutige stationäre Verteilung π und es gilt π(q j ) = 1/h j für alle q j Q. Beweis: (a) Z.z.: Es gibt einen Vektor π 0 mit π = π P. Sei e := (1,..., 1) T und sei I die Einheitsmatrix. Es gilt P e = e. (Einträge einer Zeile von P addieren sich zu 1).

128 Stationäre Verteilung VII: Irreduzible Ketten Satz 195 Eine irreduzible endliche Markov-Kette besitzt eine eindeutige stationäre Verteilung π und es gilt π(q j ) = 1/h j für alle q j Q. Beweis: (a) Z.z.: Es gibt einen Vektor π 0 mit π = π P. Sei e := (1,..., 1) T und sei I die Einheitsmatrix. Es gilt P e = e. (Einträge einer Zeile von P addieren sich zu 1). Daraus folgt 0 = P e e = (P I)e. Damit ist die Matrix P I singulär.

129 Stationäre Verteilung VII: Irreduzible Ketten Satz 195 Eine irreduzible endliche Markov-Kette besitzt eine eindeutige stationäre Verteilung π und es gilt π(q j ) = 1/h j für alle q j Q. Beweis: (a) Z.z.: Es gibt einen Vektor π 0 mit π = π P. Sei e := (1,..., 1) T und sei I die Einheitsmatrix. Es gilt P e = e. (Einträge einer Zeile von P addieren sich zu 1). Daraus folgt 0 = P e e = (P I)e. Damit ist die Matrix P I singulär. Es gibt also π 0 mit (P T I) π = 0.

130 Stationäre Verteilung VIII: Irreduzible Ketten (b) Z.z.: Wenn π = π P für π 0, dann π(q j ) = 1/h j für alle q j Q. Wir betrachten zwei Fälle:

131 Stationäre Verteilung VIII: Irreduzible Ketten (b) Z.z.: Wenn π = π P für π 0, dann π(q j ) = 1/h j für alle q j Q. Wir betrachten zwei Fälle: Fall 1. q i Q π(q i ) 0.

132 Stationäre Verteilung VIII: Irreduzible Ketten (b) Z.z.: Wenn π = π P für π 0, dann π(q j ) = 1/h j für alle q j Q. Wir betrachten zwei Fälle: Fall 1. q i Q π(q i ) 0. O.B.d.A. sei q i Q π(q i) = 1.

133 Stationäre Verteilung VIII: Irreduzible Ketten (b) Z.z.: Wenn π = π P für π 0, dann π(q j ) = 1/h j für alle q j Q. Wir betrachten zwei Fälle: Fall 1. q i Q π(q i ) 0. O.B.d.A. sei q i Q π(q i) = 1. Für jeden Zustand q j Q gilt (Lemma 194 und 188) π(q i )h ij = π(q i ) 1 + p ik h kj k j für q i q j π(q j )h j = π(q j ) 1 + p jk h kj k j

134 Stationäre Verteilung IX: Irreduzible Ketten Addition der Gleichungen ergibt π(q j )h j + π(q i )h ij = π(q i ) + π(q i )p ik h kj q i q j q i Q q i Q q k q j

135 Stationäre Verteilung IX: Irreduzible Ketten Addition der Gleichungen ergibt π(q j )h j + π(q i )h ij = π(q i ) + π(q i )p ik h kj q i q j q i Q q i Q q k q j Mit q i Q π(q i) = 1 folgt π(q j )h j + π(q i )h ij = 1 + π(q i )p ik h kj q i q j q i Q q k q j

136 Stationäre Verteilung IX: Irreduzible Ketten Addition der Gleichungen ergibt π(q j )h j + π(q i )h ij = π(q i ) + π(q i )p ik h kj q i q j q i Q q i Q q k q j Mit q i Q π(q i) = 1 folgt π(q j )h j + π(q i )h ij = 1 + π(q i )p ik h kj q i q j q i Q q k q j = 1 + π(q i )p ik h kj q k q j q i Q

137 Stationäre Verteilung IX: Irreduzible Ketten Addition der Gleichungen ergibt π(q j )h j + π(q i )h ij = π(q i ) + π(q i )p ik h kj q i q j q i Q q i Q q k q j Mit q i Q π(q i) = 1 folgt π(q j )h j + π(q i )h ij = 1 + π(q i )p ik h kj q i q j q i Q q k q j = 1 + π(q i )p ik = 1 + h kj q k q j q i Q q k q j h kj π(q k )

138 Stationäre Verteilung IX: Irreduzible Ketten Addition der Gleichungen ergibt π(q j )h j + π(q i )h ij = π(q i ) + π(q i )p ik h kj q i q j q i Q q i Q q k q j Mit q i Q π(q i) = 1 folgt π(q j )h j + π(q i )h ij = 1 + π(q i )p ik h kj q i q j q i Q q k q j = 1 + π(q i )p ik und so π(q j )h j = 1. = 1 + h kj q k q j q i Q q k q j h kj π(q k )

139 Stationäre Verteilung X: Irreduzible Ketten Fall 2. q i Q π(q i ) = 0.

140 Stationäre Verteilung X: Irreduzible Ketten Fall 2. q i Q π(q i ) = 0. Dieselbe Rechnung ergibt nun π(q j )h j + π(q i )h ij = 0 + π(q i )p ik h kj q i q j q i Q q k q j = h kj π(q k ) q k q j

141 Stationäre Verteilung X: Irreduzible Ketten Fall 2. q i Q π(q i ) = 0. Dieselbe Rechnung ergibt nun π(q j )h j + π(q i )h ij = 0 + π(q i )p ik h kj q i q j q i Q q k q j = h kj π(q k ) q k q j Es folgt π(q j ) = 0 für alle q j Q, im Widerspruch zu π 0.

142 Stationäre Verteilung X: Irreduzible Ketten Fall 2. q i Q π(q i ) = 0. Dieselbe Rechnung ergibt nun π(q j )h j + π(q i )h ij = 0 + π(q i )p ik h kj q i q j q i Q q k q j = h kj π(q k ) q k q j Es folgt π(q j ) = 0 für alle q j Q, im Widerspruch zu π 0. Dieser Fall ist also eigentlich nicht möglich.

143 Stationäre Verteilung XI: Aperiodische Ketten Auch wenn eine Markov-Kette eine eindeutige stationäre Verteilung besitzt, so muss sie nicht für jede Anfangsverteilung in diese Verteilung konvergieren.

144 Stationäre Verteilung XI: Aperiodische Ketten Auch wenn eine Markov-Kette eine eindeutige stationäre Verteilung besitzt, so muss sie nicht für jede Anfangsverteilung in diese Verteilung konvergieren. Beispiel: ½ 0 1 ½

145 Stationäre Verteilung XI: Aperiodische Ketten Auch wenn eine Markov-Kette eine eindeutige stationäre Verteilung besitzt, so muss sie nicht für jede Anfangsverteilung in diese Verteilung konvergieren. Beispiel: ½ 0 1 Als Anfangsverteilung nehmen { wir π 0 = (1, 0) an. Es gilt: (1, 0) falls t gerade, π t = (0, 1) sonst. Die Kette pendelt also zwischen den beiden Vektoren (1, 0) und (0, 1) hin und her. ½

146 Stationäre Verteilung XI: Aperiodische Ketten Auch wenn eine Markov-Kette eine eindeutige stationäre Verteilung besitzt, so muss sie nicht für jede Anfangsverteilung in diese Verteilung konvergieren. Beispiel: ½ 0 1 Als Anfangsverteilung nehmen { wir π 0 = (1, 0) an. Es gilt: (1, 0) falls t gerade, π t = (0, 1) sonst. Die Kette pendelt also zwischen den beiden Vektoren (1, 0) und (0, 1) hin und her. Die eindeutige stationäre Verteilung ist (1/2, 1/2). ½

147 Stationäre Verteilung XII: Aperiodische Ketten Definition 196 Die Periode eines Zustands q j ist die größte Zahl ξ N, so dass gilt: {n N 0 p (n) jj > 0} {i ξ i N 0 }

148 Stationäre Verteilung XII: Aperiodische Ketten Definition 196 Die Periode eines Zustands q j ist die größte Zahl ξ N, so dass gilt: {n N 0 p (n) jj > 0} {i ξ i N 0 } Ein Zustand mit Periode ξ = 1 heißt aperiodisch. Eine Markov-Kette ist aperiodisch, wenn alle Zustände aperiodisch sind.

149 Stationäre Verteilung XIII: Aperiodische Ketten Lemma 197 Ein Zustand q i Q ist genau dann aperiodisch, wenn es ein n 0 N gibt mit p (n) ii > 0 für alle n n 0.

150 Stationäre Verteilung XIII: Aperiodische Ketten Lemma 197 Ein Zustand q i Q ist genau dann aperiodisch, wenn es ein n 0 N gibt mit p (n) ii > 0 für alle n n 0. Beweis: ( ) Aus p (n 0) ii > 0 und p (n 0+1) ii > 0 folgt ξ = 1.

151 Stationäre Verteilung XIII: Aperiodische Ketten Lemma 197 Ein Zustand q i Q ist genau dann aperiodisch, wenn es ein n 0 N gibt mit p (n) ii > 0 für alle n n 0. Beweis: ( ) Aus p (n 0) ii > 0 und p (n 0+1) ii > 0 folgt ξ = 1. ( ) Wenn q i aperiodisch ist, dann gibt es teilerfremde a, b N mit p (a) ii > 0 und p (b) ii > 0.

152 Stationäre Verteilung XIII: Aperiodische Ketten Lemma 197 Ein Zustand q i Q ist genau dann aperiodisch, wenn es ein n 0 N gibt mit p (n) ii > 0 für alle n n 0. Beweis: ( ) Aus p (n 0) ii > 0 und p (n 0+1) ii > 0 folgt ξ = 1. ( ) Wenn q i aperiodisch ist, dann gibt es teilerfremde a, b N mit p (a) ii > 0 und p (b) ii > 0. Ein bekannter Fakt der elementaren Zahlentheorie besagt: Da a, b N teilerfremd gibt es n 0 N, so dass für alle n n 0 es nichtnegative Zahlen x, y N 0 gibt mit n = xa + yb.

153 Stationäre Verteilung XIII: Aperiodische Ketten Lemma 197 Ein Zustand q i Q ist genau dann aperiodisch, wenn es ein n 0 N gibt mit p (n) ii > 0 für alle n n 0. Beweis: ( ) Aus p (n 0) ii > 0 und p (n 0+1) ii > 0 folgt ξ = 1. ( ) Wenn q i aperiodisch ist, dann gibt es teilerfremde a, b N mit p (a) ii > 0 und p (b) ii > 0. Ein bekannter Fakt der elementaren Zahlentheorie besagt: Da a, b N teilerfremd gibt es n 0 N, so dass für alle n n 0 es nichtnegative Zahlen x, y N 0 gibt mit n = xa + yb. Es folgt p (n) ii > 0 für alle n n 0 und wir sind fertig.

154 Stationäre Verteilung XIV: Aperiodische Ketten > 0 gilt genau dann, wenn das Markov-Diagramm einen Pfad von q i nach q i der Länge n hat. p (n) ii

155 Stationäre Verteilung XIV: Aperiodische Ketten > 0 gilt genau dann, wenn das Markov-Diagramm einen Pfad von q i nach q i der Länge n hat. p (n) ii Es folgt: Wenn q i eine Schleife hat (d.h. p ii > 0 gilt), dann ist q i aperiodisch.

156 Stationäre Verteilung XIV: Aperiodische Ketten > 0 gilt genau dann, wenn das Markov-Diagramm einen Pfad von q i nach q i der Länge n hat. p (n) ii Es folgt: Wenn q i eine Schleife hat (d.h. p ii > 0 gilt), dann ist q i aperiodisch. Damit kann eine Kette folgendermaßen durch eine aperiodische Kette simuliert werden: Füge an jedem Zustand eine Schleife an mit W keit 1/2. Halbiere die W keiten an allen übrigen Kanten. ¼ ½ ¼ ¼ ¼ ¼ ¼ ¼ ¼ ½ ¼ ¼ ½ ¼

157 Stationäre Verteilung XIV: Aperiodische Ketten > 0 gilt genau dann, wenn das Markov-Diagramm einen Pfad von q i nach q i der Länge n hat. p (n) ii Es folgt: Wenn q i eine Schleife hat (d.h. p ii > 0 gilt), dann ist q i aperiodisch. Damit kann eine Kette folgendermaßen durch eine aperiodische Kette simuliert werden: Füge an jedem Zustand eine Schleife an mit W keit 1/2. Halbiere die W keiten an allen übrigen Kanten. ¼ ½ ¼ ¼ ¼ ¼ ¼ ¼ ¼ ½ ¼ ¼ ½ ¼ Bei irreduziblen Ketten genügt es, eine einzige Schleife einzuführen.

158 Stationäre Verteilung XV: Ergodische Ketten

159 Stationäre Verteilung XV: Ergodische Ketten Definition 198 Irreduzible, aperiodische Markov-Ketten nennt man ergodisch.

160 Stationäre Verteilung XV: Ergodische Ketten Definition 198 Irreduzible, aperiodische Markov-Ketten nennt man ergodisch. Satz 199 (Fundamentalsatz für ergodische Markov-Ketten) Für jede ergodische endliche Markov-Kette M = (Q, T, δ, Q 0 ) gilt lim Q n = π, n wobei π die eindeutige stationäre Verteilung von M bezeichnet.

161 Stationäre Verteilung XV: Ergodische Ketten Definition 198 Irreduzible, aperiodische Markov-Ketten nennt man ergodisch. Satz 199 (Fundamentalsatz für ergodische Markov-Ketten) Für jede ergodische endliche Markov-Kette M = (Q, T, δ, Q 0 ) gilt lim Q n = π, n wobei π die eindeutige stationäre Verteilung von M bezeichnet. Bemerkung: π ist unabhängig von der Anfangsverteilung!

162 Stationäre Verteilung XVI: Ergodische Ketten Beweis: (Skizze.) Wir zeigen, dass für beliebige q i, q k gilt Daraus folgt die Behauptung, da π n (q k ) = q i Q Q 0 (q i ) p (n) ik lim n p(n) ik = π k. π(q k) Q 0 (q i ) = π(q k ). q i Q

163 Stationäre Verteilung XVI: Ergodische Ketten Beweis: (Skizze.) Wir zeigen, dass für beliebige q i, q k gilt Daraus folgt die Behauptung, da π n (q k ) = q i Q Q 0 (q i ) p (n) ik lim n p(n) ik = π k. π(q k) Q 0 (q i ) = π(q k ). q i Q Wir betrachten das Produkt zweier Kopien der Kette mit Zuständen (q i, q j ) und Übergangsw keiten δ((q i, q j ), (q i, q j )) = p ii p jj Diese Produktkette ist ebenfalls ergodisch.

164 Stationäre Verteilung XVII: Ergodische Ketten Sei H die Zufallsvariable, die die kleinste Zeit angibt, an die sich die Kette in einen Zustand der Gestalt (q, q) befindet.

165 Stationäre Verteilung XVII: Ergodische Ketten Sei H die Zufallsvariable, die die kleinste Zeit angibt, an die sich die Kette in einen Zustand der Gestalt (q, q) befindet. Aus Lemma 194 und der Endlichkeit der Markov-Kette folgt Pr[H < ] = 1 und E[H] < unabhängig von der Anfangsverteilung.

166 Stationäre Verteilung XVII: Ergodische Ketten Sei H die Zufallsvariable, die die kleinste Zeit angibt, an die sich die Kette in einen Zustand der Gestalt (q, q) befindet. Aus Lemma 194 und der Endlichkeit der Markov-Kette folgt Pr[H < ] = 1 und E[H] < unabhängig von der Anfangsverteilung. Seien X t, Y t Zufallsvariablen, die den Zustand der ersten bzw. der zweiten Komponente angeben.

167 Stationäre Verteilung XVII: Ergodische Ketten Sei H die Zufallsvariable, die die kleinste Zeit angibt, an die sich die Kette in einen Zustand der Gestalt (q, q) befindet. Aus Lemma 194 und der Endlichkeit der Markov-Kette folgt Pr[H < ] = 1 und E[H] < unabhängig von der Anfangsverteilung. Seien X t, Y t Zufallsvariablen, die den Zustand der ersten bzw. der zweiten Komponente angeben. Für ein festes t gilt Pr[X t = q t H] = Pr[Y t = q t H] und somit auch Pr[X t = q, t H] = Pr[Y t = q, t H].

168 Stationäre Verteilung XVIII: Ergodische Ketten Wir wählen ein q i Q und setzen für die Anfangsverteilung Q 0 der Produktkette { Q 0 (q, q π(q ) = ) wenn q = q i 0 sonst Intuition: die erste Komponente startet im Zustand q i, die zweite startet (und bleibt) in der stationären Verteilung π.

169 Stationäre Verteilung XVIII: Ergodische Ketten Wir wählen ein q i Q und setzen für die Anfangsverteilung Q 0 der Produktkette { Q 0 (q, q π(q ) = ) wenn q = q i 0 sonst Intuition: die erste Komponente startet im Zustand q i, die zweite startet (und bleibt) in der stationären Verteilung π. Wir erhalten für alle q k Q und n 1 p (n) ik π(q k) = Pr[X n = q k ] Pr[Y n = q k ]

170 Stationäre Verteilung XVIII: Ergodische Ketten Wir wählen ein q i Q und setzen für die Anfangsverteilung Q 0 der Produktkette { Q 0 (q, q π(q ) = ) wenn q = q i 0 sonst Intuition: die erste Komponente startet im Zustand q i, die zweite startet (und bleibt) in der stationären Verteilung π. Wir erhalten für alle q k Q und n 1 p (n) ik π(q k) = Pr[X n = q k ] Pr[Y n = q k ]

171 Stationäre Verteilung XVIII: Ergodische Ketten Wir wählen ein q i Q und setzen für die Anfangsverteilung Q 0 der Produktkette { Q 0 (q, q π(q ) = ) wenn q = q i 0 sonst Intuition: die erste Komponente startet im Zustand q i, die zweite startet (und bleibt) in der stationären Verteilung π. Wir erhalten für alle q k Q und n 1 p (n) ik π(q k) = Pr[X n = q k ] Pr[Y n = q k ] = Pr[X n = q k, n H] + Pr[X n = q k, n < H] Pr[Y n = q k, n H] Pr[Y n = q k, n < H]

172 Stationäre Verteilung XIX: Ergodische Ketten Mit Pr[X t = q, t H] = Pr[Y t = q, t H] gilt p (n) ik π(q k) = Pr[X n = q k, n < H] Pr[Y n = q k, n < H]

173 Stationäre Verteilung XIX: Ergodische Ketten Mit Pr[X t = q, t H] = Pr[Y t = q, t H] gilt p (n) ik π(q k) = Pr[X n = q k, n < H] Pr[Y n = q k, n < H] und wegen Pr[A B] Pr[A C] Pr[A] folgt p (n) ik π(q k) Pr[n < H]

174 Stationäre Verteilung XIX: Ergodische Ketten Mit Pr[X t = q, t H] = Pr[Y t = q, t H] gilt p (n) ik π(q k) = Pr[X n = q k, n < H] Pr[Y n = q k, n < H] und wegen Pr[A B] Pr[A C] Pr[A] folgt p (n) ik π(q k) Pr[n < H] Da Pr[H < ] = 1, gilt lim Pr[n < H] = 0, d.h. n für alle q i, q k Q. lim n p(n) ik = π(q k)

175 Stationäre Verteilung XX: Ergodische Ketten Sei q Q und k 0. Seien X k q und B q die Zufallsvariablen mit X k q (σ) = B q (σ) = { 1 falls σ(k) = q 0 sonst Xq Xq n lim n n wenn der Grenzwert existiert sonst Satz 200 (Ergodischer Satz (ohne Beweis)) Für jeden Zustand q einer ergodischen endlichen Kette mit stationärer Verteilung π gilt Pr[B q = π(q)] = 1.

176 Stationäre Verteilung XXI: Ergodische Ketten Beispiel 201 (Armands dritte Frage) Wenn unsere ménàge a trois für immer so weiter geht, wieviel Prozent der Tage wird Cécile mit mir verbringen?

177 Stationäre Verteilung XXI: Ergodische Ketten Beispiel 201 (Armands dritte Frage) Wenn unsere ménàge a trois für immer so weiter geht, wieviel Prozent der Tage wird Cécile mit mir verbringen? Armand fragt nach der Verteilung von B q1.

178 Stationäre Verteilung XXI: Ergodische Ketten Beispiel 201 (Armands dritte Frage) Wenn unsere ménàge a trois für immer so weiter geht, wieviel Prozent der Tage wird Cécile mit mir verbringen? Armand fragt nach der Verteilung von B q1. Der ergodische Satz zeigt, dass B q1 den Wert 1/3 mit W keit 1 nimmt.

179 Stationäre Verteilung XXI: Ergodische Ketten Beispiel 201 (Armands dritte Frage) Wenn unsere ménàge a trois für immer so weiter geht, wieviel Prozent der Tage wird Cécile mit mir verbringen? Armand fragt nach der Verteilung von B q1. Der ergodische Satz zeigt, dass B q1 den Wert 1/3 mit W keit 1 nimmt. Cécile wird auf langer Sicht mit W keit 1 ein drittel der Tage mit Armand verbringen.

Die Abbildung zeigt die Kette aus dem "

Die Abbildung zeigt die Kette aus dem ½ Ô ½ 0 1 2 Õ Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem " gamblers ruin problem\ fur m = 2. Man sieht sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0;

Mehr

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1 Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010 Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und

Mehr

Einführung in Markoff-Ketten

Einführung in Markoff-Ketten Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die

Mehr

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung Kapitel 2: Matrizen 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung 2.1 Matrizen M = n = 3 m = 3 n = m quadratisch M ij : Eintrag von M in i-ter

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Lösungen Wintersemester 2016/17 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2016 Steven Köhler Wintersemester 2016/17 Kapitel I: Mengen Aufgabe

Mehr

Satz 18 (Satz von der totalen Wahrscheinlichkeit)

Satz 18 (Satz von der totalen Wahrscheinlichkeit) Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte

Mehr

45 Eigenwerte und Eigenvektoren

45 Eigenwerte und Eigenvektoren 45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.

Mehr

Diagonalisieren. Nikolai Nowaczyk Lars Wallenborn

Diagonalisieren. Nikolai Nowaczyk  Lars Wallenborn Diagonalisieren Nikolai Nowaczyk http://mathniknode/ Lars Wallenborn http://wwwwallenbornnet/ 16-18 März 01 Inhaltsverzeichnis 1 Matrizen 1 11 Einschub: Invertierbarkeit

Mehr

1 A dp = P(A B). (1.3)

1 A dp = P(A B). (1.3) Markov-etten Seminar Stochastik vom 4-500 Version Oktober 00 Markus Penz Vorbemerkungen zu bedingten Wahrscheinlichkeiten Sei (Ω, F,P) ein Wahrscheinlichkeitsraum und X : Ω R eine F-messbare sowie integrierbare

Mehr

LANGZEITVERHALTEN VON MARKOW-KETTEN

LANGZEITVERHALTEN VON MARKOW-KETTEN LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte

Mehr

LANGZEITVERHALTEN VON MARKOW-KETTEN

LANGZEITVERHALTEN VON MARKOW-KETTEN LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger Stefan Lell 2. Juli 2 Aufgabe. Sei t Q und A t = t 4t + 2 2t + 2 t t 2t 2t Mat 3Q a Bestimmen Sie die Eigenwerte von A t in Abhängigkeit

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

DynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten

DynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten DynaTraffic Modelle und mathematische Prognosen Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten Worum geht es? Modelle von Verkehrssituationen Graphen: Kanten, Knoten Matrixdarstellung

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung

Mehr

Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die

Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Rückwärtsgleichung P (t) = QP (t), P (0) = E eine minimale nicht negative Lösung (P (t) : t 0). Die Lösung bildet eine Matrix Halbgruppe, d.h. P (s)p

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Klausur zur Vorlesung,,Algorithmische Mathematik II

Klausur zur Vorlesung,,Algorithmische Mathematik II Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese

Mehr

MC-Serie 11: Eigenwerte

MC-Serie 11: Eigenwerte D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D. Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion

Mehr

Übungen zu Zahlentheorie für TM, SS 2013

Übungen zu Zahlentheorie für TM, SS 2013 Übungen zu Zahlentheorie für TM, SS 2013 zusammengestellt von Johannes Morgenbesser Übungsmodus: Ausarbeitung von 10 der Beisiele 1 38, 5 der Beisiele A O und 15 der Beisiele i xxxi. 1. Zeigen Sie, dass

Mehr

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.

Lineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar. Lineare Algebra I Prof. Dr. M. Rost Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar http://www.math.uni-bielefeld.de/~rost/la1 Erinnerungen und Ergänzungen zur Vorlesung: Hinweis:

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Lineare Algebra. I. Vektorräume. U. Stammbach. Professor an der ETH-Zürich

Lineare Algebra. I. Vektorräume. U. Stammbach. Professor an der ETH-Zürich Lineare Algebra U Stammbach Professor an der ETH-Zürich I Vektorräume Kapitel I Vektorräume 1 I1 Lineare Gleichungssysteme 1 I2 Beispiele von Vektorräumen 7 I3 Definition eines Vektorraumes 8 I4 Linearkombinationen,

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0. Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales

Mehr

Seminar zur Zahlentheorie Spezialfälle des Satzes von Fermat

Seminar zur Zahlentheorie Spezialfälle des Satzes von Fermat Seminar zur Zahlentheorie Spezialfälle des Satzes von Fermat Vortrag von Kristina Rupp und Benjamin Letschert am 29.01.2008 Inhaltsverzeichnis 13 Speziallfälle des Satzes von Fermat 1 13.1 Der Große Satz

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

Lineare Abhängigkeit

Lineare Abhängigkeit Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x

Mehr

n=1 a n mit reellen Zahlen a n einen

n=1 a n mit reellen Zahlen a n einen 4 Unendliche Reihen 4. Definition und Beispiele Ein altes Problem der Analysis ist es, einer Reihe mit reellen Zahlen einen Wert zuzuordnen. Ein typisches Beispiel ist die unendliche Reihe + +..., die

Mehr

4. Vektorräume und Gleichungssysteme

4. Vektorräume und Gleichungssysteme technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume

Mehr

4.13. Permutationen. Definition. Eine Permutation der Elementen {1,..., n} ist eine bijektive Abbildung

4.13. Permutationen. Definition. Eine Permutation der Elementen {1,..., n} ist eine bijektive Abbildung 43 Permutationen Definition Eine Permutation der Elementen {,, n} ist eine bijektive Abbildung σ : {,,n} {,,n} Es ist leicht zu sehen, dass die Hintereinanderführung zweier Permutationen ergibt wieder

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen

Mehr

Etwas Topologie. Handout zur Vorlesung Semi-Riemannsche Geometrie, SS 2004 Dr. Bernd Ammann

Etwas Topologie. Handout zur Vorlesung Semi-Riemannsche Geometrie, SS 2004 Dr. Bernd Ammann Etwas Topologie Handout zur Vorlesung Semi-Riemannsche Geometrie, SS 2004 Dr. Bernd Ammann Literatur Abraham, Marsden, Foundations of Mechanics, Addison Wesley 1978, Seiten 3 17 Definition. Ein topologischer

Mehr

ε δ Definition der Stetigkeit.

ε δ Definition der Stetigkeit. ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

Aufgaben zu Kapitel 15

Aufgaben zu Kapitel 15 Aufgaben zu Kapitel 5 Aufgaben zu Kapitel 5 Verständnisfragen Aufgabe 5 Zeigen Sie, dass die Menge K m n aller m n-matrizen über einem Körper K mit komponentenweiser Addition und skalarer Multiplikation

Mehr

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A 133 e 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 2. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 Schritte des

Mehr

( ) Lineare Gleichungssysteme

( ) Lineare Gleichungssysteme 102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv

Mehr

Elemente von S n = Aut([1, n]) heißen Permutationen. Spezielle Permutationen sind Transpositionen und Zyklen. (Vergl. Skript S

Elemente von S n = Aut([1, n]) heißen Permutationen. Spezielle Permutationen sind Transpositionen und Zyklen. (Vergl. Skript S Begriffe Faser: Es sei f : M N eine Abbildung von Mengen. Es sei n N. Die Menge f 1 ({n}) M nennt man die Faser in n. (Skript Seite 119). Parallel: Zwei Vektoren v und w heißen parallel, wenn für einen

Mehr

Algorithmus zur Berechnung der Jordannormalform

Algorithmus zur Berechnung der Jordannormalform Algorithmus zur Berechnung der Jordannormalform Olivier Sète 19. Januar 2011 Inhaltsverzeichnis 1 Motivation 1 2 Algorithmus Wie und warum funktioniert das? 2 2.1 Zutat 1 Für einen Jordanblock.........................

Mehr

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,

Mehr

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen 3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange

Mehr

2. Symmetrische Gruppen

2. Symmetrische Gruppen 14 Andreas Gathmann 2 Symmetrische Gruppen Im letzten Kapitel haben wir Gruppen eingeführt und ihre elementaren Eigenschaften untersucht Wir wollen nun eine neue wichtige Klasse von Beispielen von Gruppen

Mehr

also ist Sx m eine Cauchyfolge und somit konvergent. Zusammen sagen die Sätze 11.1 und 11.2, dass B (X) ein abgeschlossenes zweiseitiges

also ist Sx m eine Cauchyfolge und somit konvergent. Zusammen sagen die Sätze 11.1 und 11.2, dass B (X) ein abgeschlossenes zweiseitiges 11. Kompakte Operatoren Seien X, Y Banachräume, und sei T : X Y ein linearer Operator. Definition 11.1. T heißt kompakt, enn T (B) eine kompakte Teilmenge von Y ist für alle beschränkten Mengen B X. Wir

Mehr

Einführung in die Theoretische Informatik

Einführung in die Theoretische Informatik Technische Universität München Fakultät für Informatik Prof. Tobias Nipkow, Ph.D. Dr. Werner Meixner, Dr. Alexander Krauss Sommersemester 2010 Lösungsblatt 3 14. Mai 2010 Einführung in die Theoretische

Mehr

Algebraische Kurven. Holger Grzeschik

Algebraische Kurven. Holger Grzeschik Algebraische Kurven Holger Grzeschik 29.04.2004 Inhaltsübersicht 1.Einführung in die Theorie algebraischer Kurven 2.Mathematische Wiederholung Gruppen, Ringe, Körper 3.Allgemeine affine Kurven 4.Singuläre

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

Konvergenz, Filter und der Satz von Tychonoff

Konvergenz, Filter und der Satz von Tychonoff Abschnitt 4 Konvergenz, Filter und der Satz von Tychonoff In metrischen Räumen kann man topologische Begriffe wie Stetigkeit, Abschluss, Kompaktheit auch mit Hilfe von Konvergenz von Folgen charakterisieren.

Mehr

Variante A. Hinweise

Variante A. Hinweise Lehrstuhl C für Mathematik (Analsis Prof. Dr. Y. Guo Aachen, den 6..3 Klausur zur Höheren Mathematik I WS /3 Variante A Hinweise Zugelassene Hilfsmittel: Als Hilfsmittel zugelassen sind handschriftliche

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7 Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7 Timo Stöcker Erstsemestereinführung Informatik TU Dortmund 22. März 2011 Heute Themen Lineare Gleichungssysteme Matrizen Timo Stöcker https://fsinfo.cs.tu-dortmund.de/studis/ese/vorkurse/mathe

Mehr

Lösungsvorschläge Blatt 4

Lösungsvorschläge Blatt 4 Theoretische Informatik Departement Informatik Prof. Dr. Juraj Hromkovič http://www.ita.inf.ethz.ch/theoinf16 Lösungsvorschläge Blatt 4 Zürich, 21. Oktober 2016 Lösung zu Aufgabe 10 (a) Wir zeigen mit

Mehr

DIPLOMARBEIT. Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung

DIPLOMARBEIT. Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung Studiengang Diplom-Mathematik mit Schwerpunkt Biowissenschaften DIPLOMARBEIT Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung von: Christina Boll geb. Wolf

Mehr

Am Dienstag, den 16. Dezember, ist Eulenfest. 1/48

Am Dienstag, den 16. Dezember, ist Eulenfest. 1/48 Am Dienstag, den 16. Dezember, ist Eulenfest. 1/48 Grundbegriffe der Informatik Einheit 12: Erste Algorithmen in Graphen Thomas Worsch Universität Karlsruhe, Fakultät für Informatik Wintersemester 2008/2009

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

Erweiterte Koordinaten

Erweiterte Koordinaten Erweiterte Koordinaten Sei K n ein n dimensionaler affiner Raum Die erweiterten Koordinaten des Punktes x x n K n sind x x n Kn+ (Das ist für alle K sinnvoll, weil in jedem Körper K wohldefiniert ist In

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

κ(k) k K S Algorithmus zur Bestimmung eines spannenden Baumes mit minimalen Kosten (Kruskal, 1965).

κ(k) k K S Algorithmus zur Bestimmung eines spannenden Baumes mit minimalen Kosten (Kruskal, 1965). 5. Graphenprobleme Im folgenden bezeichnen G = (E, K) einen endlichen Graphen mit der Eckenmenge E und der Kantenmenge K. G kann ungerichtet, gerichtet, schlicht oder nicht schlicht sein. 5.1 Spannende

Mehr

Gesetze der großen Zahlen

Gesetze der großen Zahlen Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare

Mehr

Lineare Algebra. Teil III. Inhaltsangabe

Lineare Algebra. Teil III. Inhaltsangabe Teil III Lineare Algebra Inhaltsangabe 3 Lineare Algebra 22 3.1 Einführung.......................... 22 3.2 Matrizen und Vektoren.................... 23 3.3 Spezielle Matrizen...................... 24

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Physiker II, SS Mittwoch 8.6 $Id: jordan.tex,v.6 /6/7 8:5:3 hk Exp hk $ 5 Eigenwerte und die Jordansche Normalform 5.4 Die Jordansche Normalform Wir hatten bereits erwähnt, dass eine n n

Mehr

40 Lokale Extrema und Taylor-Formel

40 Lokale Extrema und Taylor-Formel 198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:

Mehr

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de

Mehr

3.3 Klassifikation quadratischer Formen auf R n

3.3 Klassifikation quadratischer Formen auf R n 3.3. Klassifikation quadratischer Formen auf R n 61 3.3 Klassifikation quadratischer Formen auf R n Wir können den Hauptsatz über symmetrische Matrizen verwenden, um uns einen Überblick über die Lösungsmengen

Mehr

Wiederholung zu Flüssen

Wiederholung zu Flüssen Universität Konstanz Methoden der Netzwerkanalyse Fachbereich Informatik & Informationswissenschaft SS 2008 Prof. Dr. Ulrik Brandes / Melanie Badent Wiederholung zu Flüssen Wir untersuchen Flüsse in Netzwerken:

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? 1. Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? A. Wenn n = 3 ist, sind mindestens zwei der drei Euler-Winkel einer Drehung kleiner oder gleich π. B. Wenn n = 2

Mehr

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

Mathematik III. Produkt-Präringe

Mathematik III. Produkt-Präringe Prof. Dr. H. Brenner Osnabrück WS 2010/2011 Mathematik III Vorlesung 66 Es ist unser Ziel zu zeigen, dass auf der Produktmenge von Maßräumen unter recht allgemeinen Voraussetzungen ein Maß definiert ist,

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben)

MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben) Musterlösung zum. Aufgabenblatt zur Vorlesung MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur Gruben. Wahrscheinlichkeiten I ( Punkte Die Seiten von zwei Würfeln sind mit den folgenden Zahlen

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...

Mehr

Vorkurs: Mathematik für Informatiker Steven Köhler, Anja Moldenhauer, Marcel Morisse

Vorkurs: Mathematik für Informatiker Steven Köhler, Anja Moldenhauer, Marcel Morisse Vorkurs: Mathematik für Informatiker Steven Köhler, Anja Moldenhauer, Marcel Morisse Wintersemester 2014/15 Aufgaben I-1. Es seien die folgenden Mengen A = {5,7,9}, B = {5,6,7} und C = {1,3,5,7,9} gegeben.

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Sei K ein Körper, a ij K für 1 i m, 1 j n. Weiters seien b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2... a m1

Mehr

Exact Sampling: Der Propp-Wilson-Algorithmus

Exact Sampling: Der Propp-Wilson-Algorithmus Exact Sampling: Der Propp-Wilson-Algorithmus Markus Gerstel Proseminar: Markovketten in der Algorithmik Technische Universität München gerstel@in.tum.de Zusammenfassung Der Propp-Wilson-Algorithmus liefert

Mehr