Diskrete Wahrscheinlichkeitstheorie
|
|
- Ina Kerner
- vor 6 Jahren
- Abrufe
Transkript
1 SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München Sommersemester 2013
2 Teil VI Markov-Ketten
3 Markov-Ketten Markov-Ketten modellieren mehrstufige Experimente mit unendlich vielen Stufen. Der Ausgang einer Stufe bestimmt welches Experiment in der nächsten Stufe ausgeführt wird.
4 Erinnerung: Markov-Diagramme Definition 173 Ein (verallgemeinertes) Markov-Diagramm D = (Q, T, δ) besteht aus
5 Erinnerung: Markov-Diagramme Definition 173 Ein (verallgemeinertes) Markov-Diagramm D = (Q, T, δ) besteht aus einer (nicht notwendigerweise endlichen) Menge Q von Zuständen,
6 Erinnerung: Markov-Diagramme Definition 173 Ein (verallgemeinertes) Markov-Diagramm D = (Q, T, δ) besteht aus einer (nicht notwendigerweise endlichen) Menge Q von Zuständen, einer Menge T Q Q von Transitionen, und
7 Erinnerung: Markov-Diagramme Definition 173 Ein (verallgemeinertes) Markov-Diagramm D = (Q, T, δ) besteht aus einer (nicht notwendigerweise endlichen) Menge Q von Zuständen, einer Menge T Q Q von Transitionen, und einer W keitsfunktion δ : T (0, 1], die Folgendes erfüllt für jeden Zustand q: δ(q, q ) = 1. (q,q ) T
8 Definition einer Markov-Kette Definition 174 Eine W keitsverteilung oder Verteilung für ein Markov-Diagramm mit Zustandsmange Q ist eine Funktion v : Q [0, 1] mit der Eigenschaft v(q) = 1. q Q Definition 175 Eine Markov-Kette ist ein Tuple M = (Q, T, δ, π 0 ), wobei:
9 Definition einer Markov-Kette Definition 174 Eine W keitsverteilung oder Verteilung für ein Markov-Diagramm mit Zustandsmange Q ist eine Funktion v : Q [0, 1] mit der Eigenschaft v(q) = 1. q Q Definition 175 Eine Markov-Kette ist ein Tuple M = (Q, T, δ, π 0 ), wobei: (Q, T, δ) ist ein Markov-Diagramm und
10 Definition einer Markov-Kette Definition 174 Eine W keitsverteilung oder Verteilung für ein Markov-Diagramm mit Zustandsmange Q ist eine Funktion v : Q [0, 1] mit der Eigenschaft v(q) = 1. q Q Definition 175 Eine Markov-Kette ist ein Tuple M = (Q, T, δ, π 0 ), wobei: (Q, T, δ) ist ein Markov-Diagramm und π 0 : Q [0, 1] ist die Anfangsverteilung.
11 Definition einer Markov-Kette Definition 174 Eine W keitsverteilung oder Verteilung für ein Markov-Diagramm mit Zustandsmange Q ist eine Funktion v : Q [0, 1] mit der Eigenschaft v(q) = 1. q Q Definition 175 Eine Markov-Kette ist ein Tuple M = (Q, T, δ, π 0 ), wobei: (Q, T, δ) ist ein Markov-Diagramm und π 0 : Q [0, 1] ist die Anfangsverteilung. Eine Markov-Kette ist endlich bzw. abzählbar, wenn Q endlich bzw. abzählbar ist.
12 Die ménàge a trois von Armand, Bertrand und Cécile I Beispiel 176 (Heute im Theatiner, 18:00)
13 Die ménàge a trois von Armand, Bertrand und Cécile II Fragen von Armand an Denis, der sich in W keitstheorie auskennt:
14 Die ménàge a trois von Armand, Bertrand und Cécile II Fragen von Armand an Denis, der sich in W keitstheorie auskennt: Heute Morgen (Donnerstag) ist Cécile zu Bertrand gegangen. Mit welcher W keit wird sie den Sonntag mit mir verbringen?
15 Die ménàge a trois von Armand, Bertrand und Cécile II Fragen von Armand an Denis, der sich in W keitstheorie auskennt: Heute Morgen (Donnerstag) ist Cécile zu Bertrand gegangen. Mit welcher W keit wird sie den Sonntag mit mir verbringen? Wenn Cécile mich verlässt, wie lange dauert es im Schnitt, bis Sie zurückkommt?
16 Die ménàge a trois von Armand, Bertrand und Cécile II Fragen von Armand an Denis, der sich in W keitstheorie auskennt: Heute Morgen (Donnerstag) ist Cécile zu Bertrand gegangen. Mit welcher W keit wird sie den Sonntag mit mir verbringen? Wenn Cécile mich verlässt, wie lange dauert es im Schnitt, bis Sie zurückkommt? Wenn diese Situation für immer so weiter geht, wieviel Prozent der Tage wird Cécile mit mir verbringen?
17 Die ménàge a trois von Armand, Bertrand und Cécile II Fragen von Armand an Denis, der sich in W keitstheorie auskennt: Heute Morgen (Donnerstag) ist Cécile zu Bertrand gegangen. Mit welcher W keit wird sie den Sonntag mit mir verbringen? Wenn Cécile mich verlässt, wie lange dauert es im Schnitt, bis Sie zurückkommt? Wenn diese Situation für immer so weiter geht, wieviel Prozent der Tage wird Cécile mit mir verbringen? Wir untersuchen Methoden, um diese Fragen zu beantworten.
18 W keitsraum einer Markov-Kette I Definition 177 Ein Pfad einer Markov-Kette M = (Q, T, δ, Q 0 ) ist eine endliche oder unendliche Sequenz σ = q 0 q 1... q k... von Zuständen mit k 0 und (q i, q i+1 ) T für alle q i q i+1 in σ.
19 W keitsraum einer Markov-Kette I Definition 177 Ein Pfad einer Markov-Kette M = (Q, T, δ, Q 0 ) ist eine endliche oder unendliche Sequenz σ = q 0 q 1... q k... von Zuständen mit k 0 und (q i, q i+1 ) T für alle q i q i+1 in σ. Π bzw. Π ω bezeichnen die Menge aller endlichen bzw. unendlichen Pfaden von M.
20 W keitsraum einer Markov-Kette I Definition 177 Ein Pfad einer Markov-Kette M = (Q, T, δ, Q 0 ) ist eine endliche oder unendliche Sequenz σ = q 0 q 1... q k... von Zuständen mit k 0 und (q i, q i+1 ) T für alle q i q i+1 in σ. Π bzw. Π ω bezeichnen die Menge aller endlichen bzw. unendlichen Pfaden von M. σ(k) bezeichnet den Zustand q k, d.h. σ = σ(0) σ(1)... σ(k)....
21 W keitsraum einer Markov-Kette I Definition 177 Ein Pfad einer Markov-Kette M = (Q, T, δ, Q 0 ) ist eine endliche oder unendliche Sequenz σ = q 0 q 1... q k... von Zuständen mit k 0 und (q i, q i+1 ) T für alle q i q i+1 in σ. Π bzw. Π ω bezeichnen die Menge aller endlichen bzw. unendlichen Pfaden von M. σ(k) bezeichnet den Zustand q k, d.h. σ = σ(0) σ(1)... σ(k).... Die Konkatenation von σ Π und σ Π Π ω wird mit σ σ oder σ σ bezeichnet. Sei σ Π ein endlicher Pfad. Die von σ generierte Zylindermenge Cyl(σ) ist die Menge aller unendlichen Pfaden σ Π ω mit σ als Präfix.
22 W keitsraum einer Markov-Kette II Definition 178 Der W keitsraum einer abzählbaren Markov-Kette M mit Anfangsverteilung Q 0 ist die Triple (Ω, A, Pr) mit
23 W keitsraum einer Markov-Kette II Definition 178 Der W keitsraum einer abzählbaren Markov-Kette M mit Anfangsverteilung Q 0 ist die Triple (Ω, A, Pr) mit Ω = Π ω.
24 W keitsraum einer Markov-Kette II Definition 178 Der W keitsraum einer abzählbaren Markov-Kette M mit Anfangsverteilung Q 0 ist die Triple (Ω, A, Pr) mit Ω = Π ω. A enthält die von den Zylindermengen generierten Borel sche Mengen, d.h.: Cyl(σ) A für jedes σ Π. Wenn A A, dann Ω \ A A. Wenn A 1, A 2,... A, dann i=1 A i A.
25 W keitsraum einer Markov-Kette II Definition 178 Der W keitsraum einer abzählbaren Markov-Kette M mit Anfangsverteilung Q 0 ist die Triple (Ω, A, Pr) mit Ω = Π ω. A enthält die von den Zylindermengen generierten Borel sche Mengen, d.h.: Cyl(σ) A für jedes σ Π. Wenn A A, dann Ω \ A A. Wenn A 1, A 2,... A, dann i=1 A i A. Die W keitsfunktion Pr ist die einzige Funktion, die n 1 Pr [Cyl(q 0 q 1... q n )] = Q 0 (q 0 ) δ(q i, q i+1 ) und die Kolmogorov-Axiome erfüllt. i=0
26 Zufallsvariablen einer Markov-Kette Definition 179 Sei M = (Q, T, δ, Q 0 ) eine abzählbare Markov-Kette. Für jedes t N 0 bezeichnet X t die Zufallsvariable X t : Ω Q mit X t (σ) = σ(t).
27 Zufallsvariablen einer Markov-Kette Definition 179 Sei M = (Q, T, δ, Q 0 ) eine abzählbare Markov-Kette. Für jedes t N 0 bezeichnet X t die Zufallsvariable X t : Ω Q mit X t (σ) = σ(t). X t gibt den Zustand der Kette zum Zeitpunkt t.
28 Zufallsvariablen einer Markov-Kette Definition 179 Sei M = (Q, T, δ, Q 0 ) eine abzählbare Markov-Kette. Für jedes t N 0 bezeichnet X t die Zufallsvariable X t : Ω Q mit X t (σ) = σ(t). X t gibt den Zustand der Kette zum Zeitpunkt t. X t ist wohldefiniert: Man kann leicht zeigen, dass für jeden Zustand q Q die Menge X t = q Borel ist.
29 Zufallsvariablen einer Markov-Kette Definition 179 Sei M = (Q, T, δ, Q 0 ) eine abzählbare Markov-Kette. Für jedes t N 0 bezeichnet X t die Zufallsvariable X t : Ω Q mit X t (σ) = σ(t). X t gibt den Zustand der Kette zum Zeitpunkt t. X t ist wohldefiniert: Man kann leicht zeigen, dass für jeden Zustand q Q die Menge X t = q Borel ist. Für alle t 0 gilt: Pr[X t+1 = q X t = q] = δ(q, q ) Pr[X t+1 = q t+1 X t = q t,..., X 0 = q 0 ] = δ(q, q ).
30 25. Übergangswahrscheinlichkeiten
31 Übergangsw keiten I: Ubergangsmatrix Definition 180 Sei M = (Q, T, δ, Q 0 ) eine endliche Markov-Kette mit Q = {q 1,..., q n }. Die n n Matrix P = (p ij ) 0 i,j<n mit p ij = δ(q i, q j ) = Pr[X t+1 = q j X t = q i ] ist die Übergangsmatrix von M.
32 Übergangsw keiten I: Ubergangsmatrix Definition 180 Sei M = (Q, T, δ, Q 0 ) eine endliche Markov-Kette mit Q = {q 1,..., q n }. Die n n Matrix P = (p ij ) 0 i,j<n mit p ij = δ(q i, q j ) = Pr[X t+1 = q j X t = q i ] ist die Übergangsmatrix von M. Beispiel 181 Die Matrix der Armand-Bertrand-Cécile-Kette (mit q 1 := Armand und q 2 := Bertrand) ist: ( ) P =
33 Übergangsw keiten II: Berechnung Sei Q t = ( Pr[X t = q 1 ],... Pr[X t = q n ] )
34 Übergangsw keiten II: Berechnung Sei Q t = ( Pr[X t = q 1 ],... Pr[X t = q n ] ) Es gilt Pr[X 0 = q k ] = Q 0 (q k ) n Pr[X t+1 = q k ] = Pr[X t+1 = q k X t = q i ] Pr[X t = q i ] = i=1 n p ik Pr[X t = q i ] i=1
35 Übergangsw keiten II: Berechnung Sei Q t = ( Pr[X t = q 1 ],... Pr[X t = q n ] ) Es gilt Pr[X 0 = q k ] = Q 0 (q k ) n Pr[X t+1 = q k ] = Pr[X t+1 = q k X t = q i ] Pr[X t = q i ] = i=1 n p ik Pr[X t = q i ] i=1 also n (Q t+1 ) k = p ik (Q t ) i i=1
36 Übergangsw keiten II: Berechnung Sei Q t = ( Pr[X t = q 1 ],... Pr[X t = q n ] ) Es gilt Pr[X 0 = q k ] = Q 0 (q k ) n Pr[X t+1 = q k ] = Pr[X t+1 = q k X t = q i ] Pr[X t = q i ] = i=1 n p ik Pr[X t = q i ] i=1 also (Q t+1 ) k = und in Matrixschreibweise n p ik (Q t ) i i=1 Q t+1 = Q t P
37 Übergangsw keiten III: Berechnung Mit der Matrixschreibweise erhalten wir für alle t, k N Q t = Q 0 P t Q t+k = Q t P k
38 Übergangsw keiten III: Berechnung Mit der Matrixschreibweise erhalten wir für alle t, k N Q t = Q 0 P t Q t+k = Q t P k Beispiel 182 (Erste Frage von Armand) Heute Morgen (Donnerstag) ist Cécile zu Bertrand gegangen. Mit welcher W keit wird sie den Sonntag mit mir verbringen?
39 Übergangsw keiten III: Berechnung Mit der Matrixschreibweise erhalten wir für alle t, k N Q t = Q 0 P t Q t+k = Q t P k Beispiel 182 (Erste Frage von Armand) Heute Morgen (Donnerstag) ist Cécile zu Bertrand gegangen. Mit welcher W keit wird sie den Sonntag mit mir verbringen? Modellierung: Sei Q 0 = (0, 1). Gesucht wird Q 3 (q 1 ) = Pr[X 3 = q 1 ].
40 Übergangsw keiten III: Berechnung Mit der Matrixschreibweise erhalten wir für alle t, k N Q t = Q 0 P t Q t+k = Q t P k Beispiel 182 (Erste Frage von Armand) Heute Morgen (Donnerstag) ist Cécile zu Bertrand gegangen. Mit welcher W keit wird sie den Sonntag mit mir verbringen? Modellierung: Sei Q 0 = (0, 1). Gesucht wird Q 3 (q 1 ) = Pr[X 3 = q 1 ]. Q 3 = Q 0 P 3 = (0, 1) ( ) = (0.219, 0.781)
41 Übergangsw keiten III: Berechnung Mit der Matrixschreibweise erhalten wir für alle t, k N Q t = Q 0 P t Q t+k = Q t P k Beispiel 182 (Erste Frage von Armand) Heute Morgen (Donnerstag) ist Cécile zu Bertrand gegangen. Mit welcher W keit wird sie den Sonntag mit mir verbringen? Modellierung: Sei Q 0 = (0, 1). Gesucht wird Q 3 (q 1 ) = Pr[X 3 = q 1 ]. Q 3 = Q 0 P 3 = (0, 1) Die W keit beträgt somit ( ) = (0.219, 0.781)
42 Übergangsw keiten IV: Exponentiation von Matrizen Wenn P diagonalisierbar ist, so existiert eine Diagonalmatrix D und eine invertierbare Matrix B mit P = B D B 1
43 Übergangsw keiten IV: Exponentiation von Matrizen Wenn P diagonalisierbar ist, so existiert eine Diagonalmatrix D und eine invertierbare Matrix B mit und somit P = B D B 1 P k = B D k B 1 wobei D k sehr leicht zu berechnen ist.
44 Übergangsw keiten IV: Exponentiation von Matrizen Wenn P diagonalisierbar ist, so existiert eine Diagonalmatrix D und eine invertierbare Matrix B mit und somit P = B D B 1 P k = B D k B 1 wobei D k sehr leicht zu berechnen ist. Die Diagonale von D enthält die Eigenwerte von P, d.h., die λ-lösungen der Gleichung P v = λv
45 Übergangsw keiten IV: Exponentiation von Matrizen Wenn P diagonalisierbar ist, so existiert eine Diagonalmatrix D und eine invertierbare Matrix B mit und somit P = B D B 1 P k = B D k B 1 wobei D k sehr leicht zu berechnen ist. Die Diagonale von D enthält die Eigenwerte von P, d.h., die λ-lösungen der Gleichung P v = λv Die Spalten von B sind die Eigenvektoren von P, d.h., die v-lösungen derselben Gleichung.
46 Übergangsw keiten IV: Berechnung von D und B Beispiel 183 P = ( 0.8 )
47 Übergangsw keiten IV: Berechnung von D und B Beispiel 183 P = ( 0.8 ) Eigenwerte: Nullstellen des charakteristischen Polynoms P λ I = 0.8 λ λ
48 Übergangsw keiten IV: Berechnung von D und B Beispiel 183 P = ( 0.8 ) Eigenwerte: Nullstellen des charakteristischen Polynoms P λ I = 0.8 λ λ = λ2 1.7λ Wir erhalten: λ 1 = 0.7 und λ 2 = 1.
49 Übergangsw keiten IV: Berechnung von D und B Beispiel 183 P = ( 0.8 ) Eigenwerte: Nullstellen des charakteristischen Polynoms P λ I = 0.8 λ λ = λ2 1.7λ Wir erhalten: λ 1 = 0.7 und λ 2 = 1. Dazugehörige Eigenvektoren: ( ) 2 ν 1 = und ν 1 2 = ( ) 1. 1
50 Übergangsw keiten V: Berechnung von D und B Damit gilt D = ( ) B = 0 1 ( 1 1 B 1 = ( ) )
51 Übergangsw keiten V: Berechnung von D und B Damit gilt D = ( ) B = 0 1 ( 1 1 B 1 = Es ergibt sich z.b. ( ) ( ) ( P = ( ) ) ) ( )
52 Übergangsw keiten V: Berechnung von D und B Damit gilt D = ( ) B = 0 1 ( 1 1 B 1 = Es ergibt sich z.b. ( ) ( ) ( P = ( ) ) ) ( ) Wir berechnen die W keit, dass Cécile am 10. Juli bei Armand bzw. Bertrand ist, wenn sie den 1. Juli bei Bertrand verbringt: ( ) Q 10 = (0, 1) = (0.324, 0.676)
53 26. Ankunftsw keiten und Übergangszeiten
54 Ankunftsw keiten und Übergangszeiten Wir untersuchen Fragestellungen auf, die sich auf zwei bestimmte Zustände q i und q j beziehen: Wie wahrscheinlich ist es, von q i irgendwann nach q j zu kommen? Wie viele Schritte benötigt die Kette im Mittel, um von q i nach q j zu gelangen?
55 Ankunftsw keiten und Übergangszeiten Wir untersuchen Fragestellungen auf, die sich auf zwei bestimmte Zustände q i und q j beziehen: Wie wahrscheinlich ist es, von q i irgendwann nach q j zu kommen? Wie viele Schritte benötigt die Kette im Mittel, um von q i nach q j zu gelangen? Bemerkung: Die zweite Frage wurde schon im Wesentlichen im Abschnitt Markov-Diagramme betrachtet.
56 Übergangszeiten Definition 184 Sei T j die Zufallsvariable { min{n 0 Xn (σ) = q T j (σ) := j } wenn Menge nichtleer sonst
57 Übergangszeiten Definition 184 Sei T j die Zufallsvariable { min{n 0 Xn (σ) = q T j (σ) := j } wenn Menge nichtleer sonst Die bedingte Zufallsvariable T ij := T j X 0 = q i nennen wir die Übergangszeit (engl. hitting time) von q i nach q j.
58 Übergangszeiten Definition 184 Sei T j die Zufallsvariable { min{n 0 Xn (σ) = q T j (σ) := j } wenn Menge nichtleer sonst Die bedingte Zufallsvariable T ij := T j X 0 = q i nennen wir die Übergangszeit (engl. hitting time) von q i nach q j. T ij zählt die Anzahl der Schritte, die für den Weg von q i nach q j benötigt werden. Notation: h ij := E[T ij ] (falls der bedingte Erwartungswert existiert).
59 Rückkehrzeiten Im Fall q i = q j gilt T ii = 0 weil die Kette schon in q i ist. Wir untersuchen auch, wie lange es dauert, bis Zustand q i zu einem späteren Zeitpunkt wieder besucht wird.
60 Rückkehrzeiten Im Fall q i = q j gilt T ii = 0 weil die Kette schon in q i ist. Wir untersuchen auch, wie lange es dauert, bis Zustand q i zu einem späteren Zeitpunkt wieder besucht wird. Definition 185 Sei T j die Zufallsvariable { T j(σ) min{n 1 Xn (σ) = q := j } wenn Menge nichtleer sonst
61 Rückkehrzeiten Im Fall q i = q j gilt T ii = 0 weil die Kette schon in q i ist. Wir untersuchen auch, wie lange es dauert, bis Zustand q i zu einem späteren Zeitpunkt wieder besucht wird. Definition 185 Sei T j die Zufallsvariable { T j(σ) min{n 1 Xn (σ) = q := j } wenn Menge nichtleer sonst Die bedingte Zufallsvariable T i := T i X 0 = q i ist die Rückkehrzeit (engl. recurrence time) von q i. Notation: h i := E[T i ] (falls der bedingte Erwartungswert existiert).
62 Ankunfts- und Rückkehrw keiten Definition 186 Die Ankunftsw keit f ij, vom Zustand q i nach beliebig vielen Schritten in den Zustand q j zu gelangen ist definiert durch f ij := Pr[T j < X 0 = q i ]. Die Rückkehrw keit f i, vom Zustand q i nach beliebig vielen Schritten (mindestens 1) zurück zum Zustand q i zu kehren ist definiert durch f i := Pr[T i < X 0 = q i ].
63 Ein Beispiel Beispiel 187 1,0 1,0 0,5 0, ,5 0,5
64 Ein Beispiel Beispiel 187 1,0 1,0 0,5 0, ,5 Für alle σ Π ω gilt 0,5 T 0 (σ) = 1 T 01 (σ) = T 02 (σ) = T 03 (σ) = { 1 falls X 1 (σ) = 0 T 10 (σ) = falls X 1 (σ) = 2
65 Ein Beispiel Beispiel 187 1,0 1,0 0,5 0, ,5 Für alle σ Π ω gilt 0,5 Es gilt auch T 0 (σ) = 1 T 01 (σ) = T 02 (σ) = T 03 (σ) = { 1 falls X 1 (σ) = 0 T 10 (σ) = falls X 1 (σ) = 2 f 10 = 0.5, f 32 = 1, f 2 = 1 und h 10 =, h 32 = 2
66 Berechnung von f ij und h ij I Lemma 188 Für die erwarteten Übergangs-/Rückkehrzeiten gilt h ij = 1 + k j p ik h kj für alle q i, q j Q, q i q j h j = 1 + k j p jk h kj für alle q j Q sofern die Erwartungswerte h ij und h kj existieren.
67 Berechnung von f ij und h ij I Lemma 188 Für die erwarteten Übergangs-/Rückkehrzeiten gilt h ij = 1 + k j p ik h kj für alle q i, q j Q, q i q j h j = 1 + k j p jk h kj für alle q j Q sofern die Erwartungswerte h ij und h kj existieren. Für die Ankunfts-/Rückkehrwahrscheinlichkeiten gilt analog f ij = p ij + k j p ik f kj für alle q i, q j Q, q i q j f j = p jj + k j p jk f kj für alle q j Q
68 Berechnung von f ij und h ij II Beweis für f ij : Sei q i q j. Es gilt Pr[T ij < X 1 = q k ] = Pr[T kj < ] für q k q j Pr[T ij < X 1 = q j ] = 1
69 Berechnung von f ij und h ij II Beweis für f ij : Sei q i q j. Es gilt Pr[T ij < X 1 = q k ] = Pr[T kj < ] für q k q j Pr[T ij < X 1 = q j ] = 1 und damit f ij = Pr[T ij < ] =
70 Berechnung von f ij und h ij II Beweis für f ij : Sei q i q j. Es gilt Pr[T ij < X 1 = q k ] = Pr[T kj < ] für q k q j Pr[T ij < X 1 = q j ] = 1 und damit f ij = Pr[T ij < ] = Pr[T ij < X 1 = q k ] p ik q k Q
71 Berechnung von f ij und h ij II Beweis für f ij : Sei q i q j. Es gilt Pr[T ij < X 1 = q k ] = Pr[T kj < ] für q k q j Pr[T ij < X 1 = q j ] = 1 und damit f ij = Pr[T ij < ] = Pr[T ij < X 1 = q k ] p ik q k Q = p ij + k j Pr[T kj < ] p ik
72 Berechnung von f ij und h ij II Beweis für f ij : Sei q i q j. Es gilt Pr[T ij < X 1 = q k ] = Pr[T kj < ] für q k q j Pr[T ij < X 1 = q j ] = 1 und damit f ij = Pr[T ij < ] = Pr[T ij < X 1 = q k ] p ik = p ij + k j q k Q Pr[T kj < ] p ik = p ij + k j p ik f kj
73 Berechnung von f ij und h ij II Beweis für f ij : Sei q i q j. Es gilt Pr[T ij < X 1 = q k ] = Pr[T kj < ] für q k q j Pr[T ij < X 1 = q j ] = 1 und damit f ij = Pr[T ij < ] = Pr[T ij < X 1 = q k ] p ik = p ij + k j q k Q Pr[T kj < ] p ik = p ij + k j p ik f kj Die Ableitung für f j ist analog.
74 Berechnung von f ij und h ij III Beweis für h ij : Sei q i q j. Es gilt E[T ij X 1 = q k ] = 1 + E[T kj ] für q k q j E[T ij X 1 = q j ] = 1
75 Berechnung von f ij und h ij III Beweis für h ij : Sei q i q j. Es gilt und damit E[T ij X 1 = q k ] = 1 + E[T kj ] für q k q j E[T ij X 1 = q j ] = 1 h ij = E[T ij ]
76 Berechnung von f ij und h ij III Beweis für h ij : Sei q i q j. Es gilt E[T ij X 1 = q k ] = 1 + E[T kj ] für q k q j E[T ij X 1 = q j ] = 1 und damit h ij = E[T ij ] = E[T ij X 1 = q k ] p ik q k Q
77 Berechnung von f ij und h ij III Beweis für h ij : Sei q i q j. Es gilt E[T ij X 1 = q k ] = 1 + E[T kj ] für q k q j E[T ij X 1 = q j ] = 1 und damit h ij = E[T ij ] = E[T ij X 1 = q k ] p ik q k Q = p ij + k j(1 + E[T kj ]) p ik
78 Berechnung von f ij und h ij III Beweis für h ij : Sei q i q j. Es gilt E[T ij X 1 = q k ] = 1 + E[T kj ] für q k q j E[T ij X 1 = q j ] = 1 und damit h ij = E[T ij ] = E[T ij X 1 = q k ] p ik q k Q = p ij + (1 + E[T kj ]) p ik = 1 + h kj p ik k j k j
79 Berechnung von f ij und h ij III Beweis für h ij : Sei q i q j. Es gilt E[T ij X 1 = q k ] = 1 + E[T kj ] für q k q j E[T ij X 1 = q j ] = 1 und damit h ij = E[T ij ] = E[T ij X 1 = q k ] p ik q k Q = p ij + k j (1 + E[T kj ]) p ik = 1 + k j h kj p ik Die Ableitung für h j analog.
80 Berechnung von f ij und h ij IV Beispiel 189 1,0 0,5 0,5 1, ,5 0,5
81 Berechnung von f ij und h ij IV Beispiel 189 1,0 0,5 0,5 1, ,5 0,5 Für die Übergangszeiten für die Zustände 2 und 3 erhalten wir die Gleichungen h 23 = 1 h 32 = h 32 h 2 = 1 + h 32 h 3 = h 23
82 Berechnung von f ij und h ij IV Beispiel 189 1,0 0,5 0,5 1, ,5 0,5 Für die Übergangszeiten für die Zustände 2 und 3 erhalten wir die Gleichungen mit Lösung h 23 = 1 h 32 = h 32 h 2 = 1 + h 32 h 3 = h 23 h 23 = 1 h 32 = 2 h 2 = 3 h 3 = 1.5
83 Berechnung von f ij und h ij V Beispiel 190 (Zweite Frage von Armand) Wenn Cécile mich verlässt, wie lange dauert es im Schnitt, bis sie zurückkommt?
84 Berechnung von f ij und h ij V Beispiel 190 (Zweite Frage von Armand) Wenn Cécile mich verlässt, wie lange dauert es im Schnitt, bis sie zurückkommt? Armand interessiert sich für h 21 für die Kette mit ( ) P =
85 Berechnung von f ij und h ij V Beispiel 190 (Zweite Frage von Armand) Wenn Cécile mich verlässt, wie lange dauert es im Schnitt, bis sie zurückkommt? Armand interessiert sich für h 21 für die Kette mit ( ) P = Wir erhalten das Gleichungssystem h 12 = 1 + p 11 h 12 = h 12 h 21 = 1 + p 22 h 21 = h 21 h 1 = 1 + p 12 h 21 = h 21 h 2 = 1 + p 21 h 12 = h 12
86 Berechnung von f ij und h ij V Beispiel 190 (Zweite Frage von Armand) Wenn Cécile mich verlässt, wie lange dauert es im Schnitt, bis sie zurückkommt? Armand interessiert sich für h 21 für die Kette mit ( ) P = Wir erhalten das Gleichungssystem h 12 = 1 + p 11 h 12 = h 12 h 21 = 1 + p 22 h 21 = h 21 h 1 = 1 + p 12 h 21 = h 21 h 2 = 1 + p 21 h 12 = h 12 mit Lösung h 12 = 5 h 21 = 10 h 1 = 3 h 2 = 1.5
87 Das Gamblers Ruin Problem I Beispiel 191 Cécile entscheidet, Armand und Bertrand sollen Poker spielen, bis einer von ihnen bankrott ist. Sie zieht dann endgültig beim Gewinner ein. Frage 2: Wieviele Runden müssen im Schnitt gespielt werden?
88 Das Gamblers Ruin Problem I Beispiel 191 Cécile entscheidet, Armand und Bertrand sollen Poker spielen, bis einer von ihnen bankrott ist. Sie zieht dann endgültig beim Gewinner ein. Armand und Bertrand verfügen jeweils über Kapital a und m a.
89 Das Gamblers Ruin Problem I Beispiel 191 Cécile entscheidet, Armand und Bertrand sollen Poker spielen, bis einer von ihnen bankrott ist. Sie zieht dann endgültig beim Gewinner ein. Armand und Bertrand verfügen jeweils über Kapital a und m a. In jeder Pokerrunde setzen beide jeweils eine Geldeinheit.
90 Das Gamblers Ruin Problem I Beispiel 191 Cécile entscheidet, Armand und Bertrand sollen Poker spielen, bis einer von ihnen bankrott ist. Sie zieht dann endgültig beim Gewinner ein. Armand und Bertrand verfügen jeweils über Kapital a und m a. In jeder Pokerrunde setzen beide jeweils eine Geldeinheit. Armand gewinnt jedes Spiel mit W keit p und Bertrand mit W keit q := 1 p.
91 Das Gamblers Ruin Problem I Beispiel 191 Cécile entscheidet, Armand und Bertrand sollen Poker spielen, bis einer von ihnen bankrott ist. Sie zieht dann endgültig beim Gewinner ein. Armand und Bertrand verfügen jeweils über Kapital a und m a. In jeder Pokerrunde setzen beide jeweils eine Geldeinheit. Armand gewinnt jedes Spiel mit W keit p und Bertrand mit W keit q := 1 p. Frage 1: Mit welcher W keit zieht Cécile bei Armand ein?
92 Das Gamblers Ruin Problem I Beispiel 191 Cécile entscheidet, Armand und Bertrand sollen Poker spielen, bis einer von ihnen bankrott ist. Sie zieht dann endgültig beim Gewinner ein. Armand und Bertrand verfügen jeweils über Kapital a und m a. In jeder Pokerrunde setzen beide jeweils eine Geldeinheit. Armand gewinnt jedes Spiel mit W keit p und Bertrand mit W keit q := 1 p. Frage 1: Mit welcher W keit zieht Cécile bei Armand ein? Frage 2: Wieviele Runden müssen im Schnitt gespielt werden?
93 Das Gamblers Ruin Problem II Frage 1: Mit welcher W keit zieht Cécile bei Armand ein? Wir modellieren das Spiel durch die Markov-Kette ½ Ô Ô Ô Ô ½ Ñ ½ Ñ Õ Õ Õ Õ Die Zustände modellieren das aktuelle Kapital von Armand.
94 Das Gamblers Ruin Problem II Frage 1: Mit welcher W keit zieht Cécile bei Armand ein? Wir modellieren das Spiel durch die Markov-Kette ½ Ô Ô Ô Ô ½ Ñ ½ Ñ Õ Õ Õ Õ Die Zustände modellieren das aktuelle Kapital von Armand. Die W keit, mit der Armand Bertrand in den Ruin treibt is f a,m.
95 Das Gamblers Ruin Problem II Frage 1: Mit welcher W keit zieht Cécile bei Armand ein? Wir modellieren das Spiel durch die Markov-Kette ½ Ô Ô Ô Ô ½ Ñ ½ Ñ Õ Õ Õ Õ Die Zustände modellieren das aktuelle Kapital von Armand. Die W keit, mit der Armand Bertrand in den Ruin treibt is f a,m. Wir erhalten f 0,m = 0 f i,m = p f i+1,m + q f i 1,m für 1 i < m 1 f m 1,m = p + q f m 2,m f m,m = 1
96 Das Gamblers Ruin Problem III Die Gleichungen können umgeschrieben werden zu f 0,m = 0 f 1,m = ξ f i+1,m = (1/p) f i,m (q/p) f i 1,m für 1 i < m
97 Das Gamblers Ruin Problem III Die Gleichungen können umgeschrieben werden zu f 0,m = 0 f 1,m = ξ f i+1,m = (1/p) f i,m (q/p) f i 1,m für 1 i < m mit ξ so gewählt, dass f m,m = 1 erfüllt ist.
98 Das Gamblers Ruin Problem III Die Gleichungen können umgeschrieben werden zu f 0,m = 0 f 1,m = ξ f i+1,m = (1/p) f i,m (q/p) f i 1,m für 1 i < m mit ξ so gewählt, dass f m,m = 1 erfüllt ist. Es ergibt sich für p 1/2 (Fall p = 1/2 analog): ( f i,m = p ξ ( ) ) i 1 p 2p 1 1 ξ = p ( p 1 2p 1 ) m ) ( 1 p p
99 Das Gamblers Ruin Problem III Die Gleichungen können umgeschrieben werden zu f 0,m = 0 f 1,m = ξ f i+1,m = (1/p) f i,m (q/p) f i 1,m für 1 i < m mit ξ so gewählt, dass f m,m = 1 erfüllt ist. Es ergibt sich für p 1/2 (Fall p = 1/2 analog): ( f i,m = p ξ ( ) ) i 1 p 2p 1 1 ξ = p ( p 1 2p 1 ( 1 p p ) m ) und insgesamt 1 f a,m = 1 ( ) a 1 p p ( ) m 1 p p
100 Das Gamblers Ruin Problem IV Frage 2: Wieviele Runden müssen im Schnitt gespielt werden? Wir betrachten die Zufallsvariable U i := Anzahl der Schritte von q i nach q 0 oder q m
101 Das Gamblers Ruin Problem IV Frage 2: Wieviele Runden müssen im Schnitt gespielt werden? Wir betrachten die Zufallsvariable U i := Anzahl der Schritte von q i nach q 0 oder q m Mit d i := E[U i ] gilt d 0 = 0 d i = q d i 1 + p d i für 1 i < m d m = 0
102 Das Gamblers Ruin Problem IV Frage 2: Wieviele Runden müssen im Schnitt gespielt werden? Wir betrachten die Zufallsvariable U i := Anzahl der Schritte von q i nach q 0 oder q m Mit d i := E[U i ] gilt d 0 = 0 d i = q d i 1 + p d i für 1 i < m d m = 0 Der Speziallfall p = q = 1/2 ist besonders einfach: d i = i (m i) für alle i = 0,..., m womit unabhängig vom Startzustand das Spiel im Mittel nach höchstens m 2 Schritten beendet ist.
103 27. Stationäre Verteilung
104 Stationäre Verteilung I: Motivation Die Übergangsmatrix der ABC-Kette erfüllt für alle t N: P t = B D t B 1 = ( ) ( ) ( 0.7 t 0 1/3 1/3 0 1 t 1/3 2/3 )
105 Stationäre Verteilung I: Motivation Die Übergangsmatrix der ABC-Kette erfüllt für alle t N: P t = B D t B 1 = ( ) ( ) ( 0.7 t 0 1/3 1/3 0 1 t 1/3 2/3 ) Für t erhalten wir ( ) ( ) ( lim P t /3 1/3 = t /3 2/3 ) = ( 1/3 2/3 1/3 2/3 )
106 Stationäre Verteilung I: Motivation Die Übergangsmatrix der ABC-Kette erfüllt für alle t N: P t = B D t B 1 = ( ) ( ) ( 0.7 t 0 1/3 1/3 0 1 t 1/3 2/3 ) Für t erhalten wir ( ) ( ) ( lim P t /3 1/3 = t /3 2/3 ) = ( 1/3 2/3 1/3 2/3 ) und so gilt für eine beliebige Anfangsverteilung Q 0 = (a, 1 a) ( 1/3 2/3 lim Q t = lim Q 0 P t = (a, 1 a) t t 1/3 2/3 ) = ( 1 3, 2 ) 3
107 Stationäre Verteilung II: Motivation Das System konvergiert also unabhängig von der Anfangsverteilung in die feste Verteilung π = (1/3, 2/3). (3) Stimmt die intuitive Antwort auf Armands dritte Frage? Wie kann die Frage überhaupt formalisiert werden?
108 Stationäre Verteilung II: Motivation Das System konvergiert also unabhängig von der Anfangsverteilung in die feste Verteilung π = (1/3, 2/3). Intuitive Antwort auf Armands dritte Frage: Die Verteilung der Zeit, die Cécile bei Armand und Bertrand verbringt, konvergiert gegen: 1/3 der Zeit bei Armand, 2/3 bei Bertrand.
109 Stationäre Verteilung II: Motivation Das System konvergiert also unabhängig von der Anfangsverteilung in die feste Verteilung π = (1/3, 2/3). Intuitive Antwort auf Armands dritte Frage: Die Verteilung der Zeit, die Cécile bei Armand und Bertrand verbringt, konvergiert gegen: 1/3 der Zeit bei Armand, 2/3 bei Bertrand. Offene Punkte:
110 Stationäre Verteilung II: Motivation Das System konvergiert also unabhängig von der Anfangsverteilung in die feste Verteilung π = (1/3, 2/3). Intuitive Antwort auf Armands dritte Frage: Die Verteilung der Zeit, die Cécile bei Armand und Bertrand verbringt, konvergiert gegen: 1/3 der Zeit bei Armand, 2/3 bei Bertrand. Offene Punkte: (1) Konvergiert jede Kette in eine feste Verteilung unabhängig von der Anfangsverteilung?
111 Stationäre Verteilung II: Motivation Das System konvergiert also unabhängig von der Anfangsverteilung in die feste Verteilung π = (1/3, 2/3). Intuitive Antwort auf Armands dritte Frage: Die Verteilung der Zeit, die Cécile bei Armand und Bertrand verbringt, konvergiert gegen: 1/3 der Zeit bei Armand, 2/3 bei Bertrand. Offene Punkte: (1) Konvergiert jede Kette in eine feste Verteilung unabhängig von der Anfangsverteilung? (2) Wenn so, wie kann diese Verteilung berechnet werden?
112 Stationäre Verteilung II: Motivation Das System konvergiert also unabhängig von der Anfangsverteilung in die feste Verteilung π = (1/3, 2/3). Intuitive Antwort auf Armands dritte Frage: Die Verteilung der Zeit, die Cécile bei Armand und Bertrand verbringt, konvergiert gegen: 1/3 der Zeit bei Armand, 2/3 bei Bertrand. Offene Punkte: (1) Konvergiert jede Kette in eine feste Verteilung unabhängig von der Anfangsverteilung? (2) Wenn so, wie kann diese Verteilung berechnet werden? (3) Stimmt die intuitive Antwort auf Armands dritte Frage? Wie kann die Frage überhaupt formalisiert werden?
113 Stationäre Verteilung III: Motivation Wenn eine Kette immer in eine Verteilung π konvergiert, dann muss sie mit π als Anfangsverteilung in π bleiben.
114 Stationäre Verteilung III: Motivation Wenn eine Kette immer in eine Verteilung π konvergiert, dann muss sie mit π als Anfangsverteilung in π bleiben. Wir erwarten also π P = π d.h., π soll Eigenvektor von P zum Eigenwert 1 sein (bezüglich Multiplikation von links). In der Tat gilt: π P = (1/3, 2/3) ( ) = (1/3, 2/3) = π
115 Stationäre Verteilung IV: Definition Definition 192 Sei P die Übergangsmatrix einer Markov-Kette. Einen Zustandsvektor π mit π = π P nennen wir stationäre Verteilung der Markov-Kette.
116 Stationäre Verteilung IV: Definition Definition 192 Sei P die Übergangsmatrix einer Markov-Kette. Einen Zustandsvektor π mit π = π P nennen wir stationäre Verteilung der Markov-Kette. Umformulierung der Frage (a): Besitzen alle Markov-Ketten die Eigenschaft, dass sie unabhängig von der Anfangsverteilung in eine bestimmte stationäre Verteilung konvergieren?
117 Stationäre Verteilung IV: Definition Definition 192 Sei P die Übergangsmatrix einer Markov-Kette. Einen Zustandsvektor π mit π = π P nennen wir stationäre Verteilung der Markov-Kette. Umformulierung der Frage (a): Besitzen alle Markov-Ketten die Eigenschaft, dass sie unabhängig von der Anfangsverteilung in eine bestimmte stationäre Verteilung konvergieren? Nein!
118 Stationäre Verteilung IV: Definition Definition 192 Sei P die Übergangsmatrix einer Markov-Kette. Einen Zustandsvektor π mit π = π P nennen wir stationäre Verteilung der Markov-Kette. Umformulierung der Frage (a): Besitzen alle Markov-Ketten die Eigenschaft, dass sie unabhängig von der Anfangsverteilung in eine bestimmte stationäre Verteilung konvergieren? Nein! ½ ½ Õ Diese Kette hat unendlich viele zwei stationäre Verteilungen: (a, 0, 1 a) für alle a [0, 1] Ô
119 Stationäre Verteilung V: Irreduzible Ketten Definition 193 Eine Markov-Kette heißt irreduzibel, wenn es für alle Zustandspaare q i, q j eine Zahl n N gibt, so dass (P n ) ij > 0. Wir bezeichen p (n) ij := (P n ) ij. Äquivalente Definition: Eine Markov-Kette heißt irreduzibel, wenn ihr Markov-Diagramm stark zusammenhängend ist.
120 Stationäre Verteilung V: Irreduzible Ketten Definition 193 Eine Markov-Kette heißt irreduzibel, wenn es für alle Zustandspaare q i, q j eine Zahl n N gibt, so dass (P n ) ij > 0. Wir bezeichen p (n) ij := (P n ) ij. Äquivalente Definition: Eine Markov-Kette heißt irreduzibel, wenn ihr Markov-Diagramm stark zusammenhängend ist. Lemma 194 Für irreduzible endliche Markov-Ketten gilt für alle Zustände q i, q j Q: (a) f ij = Pr[T ij < ] = 1, und (b) der Erwartungswert h ij = E[T ij ] existiert.
121 Stationäre Verteilung VI: Irreduzible Ketten Beweis: Zu (b): Sei q k Q beliebig. Es gibt n k mit p (n k) kj > 0. Sei n := max k {n k } und p := min k {p (n k) kj }.
122 Stationäre Verteilung VI: Irreduzible Ketten Beweis: Zu (b): Sei q k Q beliebig. Es gibt n k mit p (n k) kj > 0. Sei n := max k {n k } und p := min k {p (n k) kj }. Wir unterteilen die Zeit in Phasen zu n Schritten. Wir nennen eine Phase erfolgreich, wenn während dieser Phase ein Besuch bei q j stattfindet.
123 Stationäre Verteilung VI: Irreduzible Ketten Beweis: Zu (b): Sei q k Q beliebig. Es gibt n k mit p (n k) kj > 0. Sei n := max k {n k } und p := min k {p (n k) kj }. Wir unterteilen die Zeit in Phasen zu n Schritten. Wir nennen eine Phase erfolgreich, wenn während dieser Phase ein Besuch bei q j stattfindet. Die Anzahl von Phasen bis zur ersten erfolgreichen Phase können wir durch eine geometrische Verteilung mit Parameter p abschätzen. Die erwartete Anzahl von Phasen ist somit höchstens 1/p.
124 Stationäre Verteilung VI: Irreduzible Ketten Beweis: Zu (b): Sei q k Q beliebig. Es gibt n k mit p (n k) kj > 0. Sei n := max k {n k } und p := min k {p (n k) kj }. Wir unterteilen die Zeit in Phasen zu n Schritten. Wir nennen eine Phase erfolgreich, wenn während dieser Phase ein Besuch bei q j stattfindet. Die Anzahl von Phasen bis zur ersten erfolgreichen Phase können wir durch eine geometrische Verteilung mit Parameter p abschätzen. Die erwartete Anzahl von Phasen ist somit höchstens 1/p. Es folgt h ij (1/p) n und f ij = Pr[T ij < ] = 1.
125 Stationäre Verteilung VII: Irreduzible Ketten Satz 195 Eine irreduzible endliche Markov-Kette besitzt eine eindeutige stationäre Verteilung π und es gilt π(q j ) = 1/h j für alle q j Q.
126 Stationäre Verteilung VII: Irreduzible Ketten Satz 195 Eine irreduzible endliche Markov-Kette besitzt eine eindeutige stationäre Verteilung π und es gilt π(q j ) = 1/h j für alle q j Q. Beweis: (a) Z.z.: Es gibt einen Vektor π 0 mit π = π P.
127 Stationäre Verteilung VII: Irreduzible Ketten Satz 195 Eine irreduzible endliche Markov-Kette besitzt eine eindeutige stationäre Verteilung π und es gilt π(q j ) = 1/h j für alle q j Q. Beweis: (a) Z.z.: Es gibt einen Vektor π 0 mit π = π P. Sei e := (1,..., 1) T und sei I die Einheitsmatrix. Es gilt P e = e. (Einträge einer Zeile von P addieren sich zu 1).
128 Stationäre Verteilung VII: Irreduzible Ketten Satz 195 Eine irreduzible endliche Markov-Kette besitzt eine eindeutige stationäre Verteilung π und es gilt π(q j ) = 1/h j für alle q j Q. Beweis: (a) Z.z.: Es gibt einen Vektor π 0 mit π = π P. Sei e := (1,..., 1) T und sei I die Einheitsmatrix. Es gilt P e = e. (Einträge einer Zeile von P addieren sich zu 1). Daraus folgt 0 = P e e = (P I)e. Damit ist die Matrix P I singulär.
129 Stationäre Verteilung VII: Irreduzible Ketten Satz 195 Eine irreduzible endliche Markov-Kette besitzt eine eindeutige stationäre Verteilung π und es gilt π(q j ) = 1/h j für alle q j Q. Beweis: (a) Z.z.: Es gibt einen Vektor π 0 mit π = π P. Sei e := (1,..., 1) T und sei I die Einheitsmatrix. Es gilt P e = e. (Einträge einer Zeile von P addieren sich zu 1). Daraus folgt 0 = P e e = (P I)e. Damit ist die Matrix P I singulär. Es gibt also π 0 mit (P T I) π = 0.
130 Stationäre Verteilung VIII: Irreduzible Ketten (b) Z.z.: Wenn π = π P für π 0, dann π(q j ) = 1/h j für alle q j Q. Wir betrachten zwei Fälle:
131 Stationäre Verteilung VIII: Irreduzible Ketten (b) Z.z.: Wenn π = π P für π 0, dann π(q j ) = 1/h j für alle q j Q. Wir betrachten zwei Fälle: Fall 1. q i Q π(q i ) 0.
132 Stationäre Verteilung VIII: Irreduzible Ketten (b) Z.z.: Wenn π = π P für π 0, dann π(q j ) = 1/h j für alle q j Q. Wir betrachten zwei Fälle: Fall 1. q i Q π(q i ) 0. O.B.d.A. sei q i Q π(q i) = 1.
133 Stationäre Verteilung VIII: Irreduzible Ketten (b) Z.z.: Wenn π = π P für π 0, dann π(q j ) = 1/h j für alle q j Q. Wir betrachten zwei Fälle: Fall 1. q i Q π(q i ) 0. O.B.d.A. sei q i Q π(q i) = 1. Für jeden Zustand q j Q gilt (Lemma 194 und 188) π(q i )h ij = π(q i ) 1 + p ik h kj k j für q i q j π(q j )h j = π(q j ) 1 + p jk h kj k j
134 Stationäre Verteilung IX: Irreduzible Ketten Addition der Gleichungen ergibt π(q j )h j + π(q i )h ij = π(q i ) + π(q i )p ik h kj q i q j q i Q q i Q q k q j
135 Stationäre Verteilung IX: Irreduzible Ketten Addition der Gleichungen ergibt π(q j )h j + π(q i )h ij = π(q i ) + π(q i )p ik h kj q i q j q i Q q i Q q k q j Mit q i Q π(q i) = 1 folgt π(q j )h j + π(q i )h ij = 1 + π(q i )p ik h kj q i q j q i Q q k q j
136 Stationäre Verteilung IX: Irreduzible Ketten Addition der Gleichungen ergibt π(q j )h j + π(q i )h ij = π(q i ) + π(q i )p ik h kj q i q j q i Q q i Q q k q j Mit q i Q π(q i) = 1 folgt π(q j )h j + π(q i )h ij = 1 + π(q i )p ik h kj q i q j q i Q q k q j = 1 + π(q i )p ik h kj q k q j q i Q
137 Stationäre Verteilung IX: Irreduzible Ketten Addition der Gleichungen ergibt π(q j )h j + π(q i )h ij = π(q i ) + π(q i )p ik h kj q i q j q i Q q i Q q k q j Mit q i Q π(q i) = 1 folgt π(q j )h j + π(q i )h ij = 1 + π(q i )p ik h kj q i q j q i Q q k q j = 1 + π(q i )p ik = 1 + h kj q k q j q i Q q k q j h kj π(q k )
138 Stationäre Verteilung IX: Irreduzible Ketten Addition der Gleichungen ergibt π(q j )h j + π(q i )h ij = π(q i ) + π(q i )p ik h kj q i q j q i Q q i Q q k q j Mit q i Q π(q i) = 1 folgt π(q j )h j + π(q i )h ij = 1 + π(q i )p ik h kj q i q j q i Q q k q j = 1 + π(q i )p ik und so π(q j )h j = 1. = 1 + h kj q k q j q i Q q k q j h kj π(q k )
139 Stationäre Verteilung X: Irreduzible Ketten Fall 2. q i Q π(q i ) = 0.
140 Stationäre Verteilung X: Irreduzible Ketten Fall 2. q i Q π(q i ) = 0. Dieselbe Rechnung ergibt nun π(q j )h j + π(q i )h ij = 0 + π(q i )p ik h kj q i q j q i Q q k q j = h kj π(q k ) q k q j
141 Stationäre Verteilung X: Irreduzible Ketten Fall 2. q i Q π(q i ) = 0. Dieselbe Rechnung ergibt nun π(q j )h j + π(q i )h ij = 0 + π(q i )p ik h kj q i q j q i Q q k q j = h kj π(q k ) q k q j Es folgt π(q j ) = 0 für alle q j Q, im Widerspruch zu π 0.
142 Stationäre Verteilung X: Irreduzible Ketten Fall 2. q i Q π(q i ) = 0. Dieselbe Rechnung ergibt nun π(q j )h j + π(q i )h ij = 0 + π(q i )p ik h kj q i q j q i Q q k q j = h kj π(q k ) q k q j Es folgt π(q j ) = 0 für alle q j Q, im Widerspruch zu π 0. Dieser Fall ist also eigentlich nicht möglich.
143 Stationäre Verteilung XI: Aperiodische Ketten Auch wenn eine Markov-Kette eine eindeutige stationäre Verteilung besitzt, so muss sie nicht für jede Anfangsverteilung in diese Verteilung konvergieren.
144 Stationäre Verteilung XI: Aperiodische Ketten Auch wenn eine Markov-Kette eine eindeutige stationäre Verteilung besitzt, so muss sie nicht für jede Anfangsverteilung in diese Verteilung konvergieren. Beispiel: ½ 0 1 ½
145 Stationäre Verteilung XI: Aperiodische Ketten Auch wenn eine Markov-Kette eine eindeutige stationäre Verteilung besitzt, so muss sie nicht für jede Anfangsverteilung in diese Verteilung konvergieren. Beispiel: ½ 0 1 Als Anfangsverteilung nehmen { wir π 0 = (1, 0) an. Es gilt: (1, 0) falls t gerade, π t = (0, 1) sonst. Die Kette pendelt also zwischen den beiden Vektoren (1, 0) und (0, 1) hin und her. ½
146 Stationäre Verteilung XI: Aperiodische Ketten Auch wenn eine Markov-Kette eine eindeutige stationäre Verteilung besitzt, so muss sie nicht für jede Anfangsverteilung in diese Verteilung konvergieren. Beispiel: ½ 0 1 Als Anfangsverteilung nehmen { wir π 0 = (1, 0) an. Es gilt: (1, 0) falls t gerade, π t = (0, 1) sonst. Die Kette pendelt also zwischen den beiden Vektoren (1, 0) und (0, 1) hin und her. Die eindeutige stationäre Verteilung ist (1/2, 1/2). ½
147 Stationäre Verteilung XII: Aperiodische Ketten Definition 196 Die Periode eines Zustands q j ist die größte Zahl ξ N, so dass gilt: {n N 0 p (n) jj > 0} {i ξ i N 0 }
148 Stationäre Verteilung XII: Aperiodische Ketten Definition 196 Die Periode eines Zustands q j ist die größte Zahl ξ N, so dass gilt: {n N 0 p (n) jj > 0} {i ξ i N 0 } Ein Zustand mit Periode ξ = 1 heißt aperiodisch. Eine Markov-Kette ist aperiodisch, wenn alle Zustände aperiodisch sind.
149 Stationäre Verteilung XIII: Aperiodische Ketten Lemma 197 Ein Zustand q i Q ist genau dann aperiodisch, wenn es ein n 0 N gibt mit p (n) ii > 0 für alle n n 0.
150 Stationäre Verteilung XIII: Aperiodische Ketten Lemma 197 Ein Zustand q i Q ist genau dann aperiodisch, wenn es ein n 0 N gibt mit p (n) ii > 0 für alle n n 0. Beweis: ( ) Aus p (n 0) ii > 0 und p (n 0+1) ii > 0 folgt ξ = 1.
151 Stationäre Verteilung XIII: Aperiodische Ketten Lemma 197 Ein Zustand q i Q ist genau dann aperiodisch, wenn es ein n 0 N gibt mit p (n) ii > 0 für alle n n 0. Beweis: ( ) Aus p (n 0) ii > 0 und p (n 0+1) ii > 0 folgt ξ = 1. ( ) Wenn q i aperiodisch ist, dann gibt es teilerfremde a, b N mit p (a) ii > 0 und p (b) ii > 0.
152 Stationäre Verteilung XIII: Aperiodische Ketten Lemma 197 Ein Zustand q i Q ist genau dann aperiodisch, wenn es ein n 0 N gibt mit p (n) ii > 0 für alle n n 0. Beweis: ( ) Aus p (n 0) ii > 0 und p (n 0+1) ii > 0 folgt ξ = 1. ( ) Wenn q i aperiodisch ist, dann gibt es teilerfremde a, b N mit p (a) ii > 0 und p (b) ii > 0. Ein bekannter Fakt der elementaren Zahlentheorie besagt: Da a, b N teilerfremd gibt es n 0 N, so dass für alle n n 0 es nichtnegative Zahlen x, y N 0 gibt mit n = xa + yb.
153 Stationäre Verteilung XIII: Aperiodische Ketten Lemma 197 Ein Zustand q i Q ist genau dann aperiodisch, wenn es ein n 0 N gibt mit p (n) ii > 0 für alle n n 0. Beweis: ( ) Aus p (n 0) ii > 0 und p (n 0+1) ii > 0 folgt ξ = 1. ( ) Wenn q i aperiodisch ist, dann gibt es teilerfremde a, b N mit p (a) ii > 0 und p (b) ii > 0. Ein bekannter Fakt der elementaren Zahlentheorie besagt: Da a, b N teilerfremd gibt es n 0 N, so dass für alle n n 0 es nichtnegative Zahlen x, y N 0 gibt mit n = xa + yb. Es folgt p (n) ii > 0 für alle n n 0 und wir sind fertig.
154 Stationäre Verteilung XIV: Aperiodische Ketten > 0 gilt genau dann, wenn das Markov-Diagramm einen Pfad von q i nach q i der Länge n hat. p (n) ii
155 Stationäre Verteilung XIV: Aperiodische Ketten > 0 gilt genau dann, wenn das Markov-Diagramm einen Pfad von q i nach q i der Länge n hat. p (n) ii Es folgt: Wenn q i eine Schleife hat (d.h. p ii > 0 gilt), dann ist q i aperiodisch.
156 Stationäre Verteilung XIV: Aperiodische Ketten > 0 gilt genau dann, wenn das Markov-Diagramm einen Pfad von q i nach q i der Länge n hat. p (n) ii Es folgt: Wenn q i eine Schleife hat (d.h. p ii > 0 gilt), dann ist q i aperiodisch. Damit kann eine Kette folgendermaßen durch eine aperiodische Kette simuliert werden: Füge an jedem Zustand eine Schleife an mit W keit 1/2. Halbiere die W keiten an allen übrigen Kanten. ¼ ½ ¼ ¼ ¼ ¼ ¼ ¼ ¼ ½ ¼ ¼ ½ ¼
157 Stationäre Verteilung XIV: Aperiodische Ketten > 0 gilt genau dann, wenn das Markov-Diagramm einen Pfad von q i nach q i der Länge n hat. p (n) ii Es folgt: Wenn q i eine Schleife hat (d.h. p ii > 0 gilt), dann ist q i aperiodisch. Damit kann eine Kette folgendermaßen durch eine aperiodische Kette simuliert werden: Füge an jedem Zustand eine Schleife an mit W keit 1/2. Halbiere die W keiten an allen übrigen Kanten. ¼ ½ ¼ ¼ ¼ ¼ ¼ ¼ ¼ ½ ¼ ¼ ½ ¼ Bei irreduziblen Ketten genügt es, eine einzige Schleife einzuführen.
158 Stationäre Verteilung XV: Ergodische Ketten
159 Stationäre Verteilung XV: Ergodische Ketten Definition 198 Irreduzible, aperiodische Markov-Ketten nennt man ergodisch.
160 Stationäre Verteilung XV: Ergodische Ketten Definition 198 Irreduzible, aperiodische Markov-Ketten nennt man ergodisch. Satz 199 (Fundamentalsatz für ergodische Markov-Ketten) Für jede ergodische endliche Markov-Kette M = (Q, T, δ, Q 0 ) gilt lim Q n = π, n wobei π die eindeutige stationäre Verteilung von M bezeichnet.
161 Stationäre Verteilung XV: Ergodische Ketten Definition 198 Irreduzible, aperiodische Markov-Ketten nennt man ergodisch. Satz 199 (Fundamentalsatz für ergodische Markov-Ketten) Für jede ergodische endliche Markov-Kette M = (Q, T, δ, Q 0 ) gilt lim Q n = π, n wobei π die eindeutige stationäre Verteilung von M bezeichnet. Bemerkung: π ist unabhängig von der Anfangsverteilung!
162 Stationäre Verteilung XVI: Ergodische Ketten Beweis: (Skizze.) Wir zeigen, dass für beliebige q i, q k gilt Daraus folgt die Behauptung, da π n (q k ) = q i Q Q 0 (q i ) p (n) ik lim n p(n) ik = π k. π(q k) Q 0 (q i ) = π(q k ). q i Q
163 Stationäre Verteilung XVI: Ergodische Ketten Beweis: (Skizze.) Wir zeigen, dass für beliebige q i, q k gilt Daraus folgt die Behauptung, da π n (q k ) = q i Q Q 0 (q i ) p (n) ik lim n p(n) ik = π k. π(q k) Q 0 (q i ) = π(q k ). q i Q Wir betrachten das Produkt zweier Kopien der Kette mit Zuständen (q i, q j ) und Übergangsw keiten δ((q i, q j ), (q i, q j )) = p ii p jj Diese Produktkette ist ebenfalls ergodisch.
164 Stationäre Verteilung XVII: Ergodische Ketten Sei H die Zufallsvariable, die die kleinste Zeit angibt, an die sich die Kette in einen Zustand der Gestalt (q, q) befindet.
165 Stationäre Verteilung XVII: Ergodische Ketten Sei H die Zufallsvariable, die die kleinste Zeit angibt, an die sich die Kette in einen Zustand der Gestalt (q, q) befindet. Aus Lemma 194 und der Endlichkeit der Markov-Kette folgt Pr[H < ] = 1 und E[H] < unabhängig von der Anfangsverteilung.
166 Stationäre Verteilung XVII: Ergodische Ketten Sei H die Zufallsvariable, die die kleinste Zeit angibt, an die sich die Kette in einen Zustand der Gestalt (q, q) befindet. Aus Lemma 194 und der Endlichkeit der Markov-Kette folgt Pr[H < ] = 1 und E[H] < unabhängig von der Anfangsverteilung. Seien X t, Y t Zufallsvariablen, die den Zustand der ersten bzw. der zweiten Komponente angeben.
167 Stationäre Verteilung XVII: Ergodische Ketten Sei H die Zufallsvariable, die die kleinste Zeit angibt, an die sich die Kette in einen Zustand der Gestalt (q, q) befindet. Aus Lemma 194 und der Endlichkeit der Markov-Kette folgt Pr[H < ] = 1 und E[H] < unabhängig von der Anfangsverteilung. Seien X t, Y t Zufallsvariablen, die den Zustand der ersten bzw. der zweiten Komponente angeben. Für ein festes t gilt Pr[X t = q t H] = Pr[Y t = q t H] und somit auch Pr[X t = q, t H] = Pr[Y t = q, t H].
168 Stationäre Verteilung XVIII: Ergodische Ketten Wir wählen ein q i Q und setzen für die Anfangsverteilung Q 0 der Produktkette { Q 0 (q, q π(q ) = ) wenn q = q i 0 sonst Intuition: die erste Komponente startet im Zustand q i, die zweite startet (und bleibt) in der stationären Verteilung π.
169 Stationäre Verteilung XVIII: Ergodische Ketten Wir wählen ein q i Q und setzen für die Anfangsverteilung Q 0 der Produktkette { Q 0 (q, q π(q ) = ) wenn q = q i 0 sonst Intuition: die erste Komponente startet im Zustand q i, die zweite startet (und bleibt) in der stationären Verteilung π. Wir erhalten für alle q k Q und n 1 p (n) ik π(q k) = Pr[X n = q k ] Pr[Y n = q k ]
170 Stationäre Verteilung XVIII: Ergodische Ketten Wir wählen ein q i Q und setzen für die Anfangsverteilung Q 0 der Produktkette { Q 0 (q, q π(q ) = ) wenn q = q i 0 sonst Intuition: die erste Komponente startet im Zustand q i, die zweite startet (und bleibt) in der stationären Verteilung π. Wir erhalten für alle q k Q und n 1 p (n) ik π(q k) = Pr[X n = q k ] Pr[Y n = q k ]
171 Stationäre Verteilung XVIII: Ergodische Ketten Wir wählen ein q i Q und setzen für die Anfangsverteilung Q 0 der Produktkette { Q 0 (q, q π(q ) = ) wenn q = q i 0 sonst Intuition: die erste Komponente startet im Zustand q i, die zweite startet (und bleibt) in der stationären Verteilung π. Wir erhalten für alle q k Q und n 1 p (n) ik π(q k) = Pr[X n = q k ] Pr[Y n = q k ] = Pr[X n = q k, n H] + Pr[X n = q k, n < H] Pr[Y n = q k, n H] Pr[Y n = q k, n < H]
172 Stationäre Verteilung XIX: Ergodische Ketten Mit Pr[X t = q, t H] = Pr[Y t = q, t H] gilt p (n) ik π(q k) = Pr[X n = q k, n < H] Pr[Y n = q k, n < H]
173 Stationäre Verteilung XIX: Ergodische Ketten Mit Pr[X t = q, t H] = Pr[Y t = q, t H] gilt p (n) ik π(q k) = Pr[X n = q k, n < H] Pr[Y n = q k, n < H] und wegen Pr[A B] Pr[A C] Pr[A] folgt p (n) ik π(q k) Pr[n < H]
174 Stationäre Verteilung XIX: Ergodische Ketten Mit Pr[X t = q, t H] = Pr[Y t = q, t H] gilt p (n) ik π(q k) = Pr[X n = q k, n < H] Pr[Y n = q k, n < H] und wegen Pr[A B] Pr[A C] Pr[A] folgt p (n) ik π(q k) Pr[n < H] Da Pr[H < ] = 1, gilt lim Pr[n < H] = 0, d.h. n für alle q i, q k Q. lim n p(n) ik = π(q k)
175 Stationäre Verteilung XX: Ergodische Ketten Sei q Q und k 0. Seien X k q und B q die Zufallsvariablen mit X k q (σ) = B q (σ) = { 1 falls σ(k) = q 0 sonst Xq Xq n lim n n wenn der Grenzwert existiert sonst Satz 200 (Ergodischer Satz (ohne Beweis)) Für jeden Zustand q einer ergodischen endlichen Kette mit stationärer Verteilung π gilt Pr[B q = π(q)] = 1.
176 Stationäre Verteilung XXI: Ergodische Ketten Beispiel 201 (Armands dritte Frage) Wenn unsere ménàge a trois für immer so weiter geht, wieviel Prozent der Tage wird Cécile mit mir verbringen?
177 Stationäre Verteilung XXI: Ergodische Ketten Beispiel 201 (Armands dritte Frage) Wenn unsere ménàge a trois für immer so weiter geht, wieviel Prozent der Tage wird Cécile mit mir verbringen? Armand fragt nach der Verteilung von B q1.
178 Stationäre Verteilung XXI: Ergodische Ketten Beispiel 201 (Armands dritte Frage) Wenn unsere ménàge a trois für immer so weiter geht, wieviel Prozent der Tage wird Cécile mit mir verbringen? Armand fragt nach der Verteilung von B q1. Der ergodische Satz zeigt, dass B q1 den Wert 1/3 mit W keit 1 nimmt.
179 Stationäre Verteilung XXI: Ergodische Ketten Beispiel 201 (Armands dritte Frage) Wenn unsere ménàge a trois für immer so weiter geht, wieviel Prozent der Tage wird Cécile mit mir verbringen? Armand fragt nach der Verteilung von B q1. Der ergodische Satz zeigt, dass B q1 den Wert 1/3 mit W keit 1 nimmt. Cécile wird auf langer Sicht mit W keit 1 ein drittel der Tage mit Armand verbringen.
Die Abbildung zeigt die Kette aus dem "
½ Ô ½ 0 1 2 Õ Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem " gamblers ruin problem\ fur m = 2. Man sieht sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0;
MehrKapitel 4: Irreduzible und aperiodische Markov Ketten 1
Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme
MehrSatz 16 (Multiplikationssatz)
Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.
MehrEigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
MehrAufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010
Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und
MehrEinführung in Markoff-Ketten
Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die
MehrKapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung
Kapitel 2: Matrizen 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung 2.1 Matrizen M = n = 3 m = 3 n = m quadratisch M ij : Eintrag von M in i-ter
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
MehrVorkurs: Mathematik für Informatiker
Vorkurs: Mathematik für Informatiker Lösungen Wintersemester 2016/17 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2016 Steven Köhler Wintersemester 2016/17 Kapitel I: Mengen Aufgabe
MehrSatz 18 (Satz von der totalen Wahrscheinlichkeit)
Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte
Mehr45 Eigenwerte und Eigenvektoren
45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.
MehrDiagonalisieren. Nikolai Nowaczyk Lars Wallenborn
Diagonalisieren Nikolai Nowaczyk http://mathniknode/ Lars Wallenborn http://wwwwallenbornnet/ 16-18 März 01 Inhaltsverzeichnis 1 Matrizen 1 11 Einschub: Invertierbarkeit
Mehr1 A dp = P(A B). (1.3)
Markov-etten Seminar Stochastik vom 4-500 Version Oktober 00 Markus Penz Vorbemerkungen zu bedingten Wahrscheinlichkeiten Sei (Ω, F,P) ein Wahrscheinlichkeitsraum und X : Ω R eine F-messbare sowie integrierbare
MehrLANGZEITVERHALTEN VON MARKOW-KETTEN
LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte
MehrLANGZEITVERHALTEN VON MARKOW-KETTEN
LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte
Mehr9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
Mehr3.3 Eigenwerte und Eigenräume, Diagonalisierung
3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 7
Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion
MehrBeispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger
Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger Stefan Lell 2. Juli 2 Aufgabe. Sei t Q und A t = t 4t + 2 2t + 2 t t 2t 2t Mat 3Q a Bestimmen Sie die Eigenwerte von A t in Abhängigkeit
Mehr1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema
1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und
MehrMatrizen, Determinanten, lineare Gleichungssysteme
Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n
MehrTutorium Mathematik II, M Lösungen
Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +
MehrDynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten
DynaTraffic Modelle und mathematische Prognosen Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten Worum geht es? Modelle von Verkehrssituationen Graphen: Kanten, Knoten Matrixdarstellung
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung
MehrSatz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die
Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Rückwärtsgleichung P (t) = QP (t), P (0) = E eine minimale nicht negative Lösung (P (t) : t 0). Die Lösung bildet eine Matrix Halbgruppe, d.h. P (s)p
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
MehrVertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen
MehrKapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
MehrKlausur zur Vorlesung,,Algorithmische Mathematik II
Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese
MehrMC-Serie 11: Eigenwerte
D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html
MehrLineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.
Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion
MehrÜbungen zu Zahlentheorie für TM, SS 2013
Übungen zu Zahlentheorie für TM, SS 2013 zusammengestellt von Johannes Morgenbesser Übungsmodus: Ausarbeitung von 10 der Beisiele 1 38, 5 der Beisiele A O und 15 der Beisiele i xxxi. 1. Zeigen Sie, dass
MehrLineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.
Lineare Algebra I Prof. Dr. M. Rost Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar http://www.math.uni-bielefeld.de/~rost/la1 Erinnerungen und Ergänzungen zur Vorlesung: Hinweis:
Mehr3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
MehrLineare Algebra. I. Vektorräume. U. Stammbach. Professor an der ETH-Zürich
Lineare Algebra U Stammbach Professor an der ETH-Zürich I Vektorräume Kapitel I Vektorräume 1 I1 Lineare Gleichungssysteme 1 I2 Beispiele von Vektorräumen 7 I3 Definition eines Vektorraumes 8 I4 Linearkombinationen,
MehrAussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016
Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert
Mehrf f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.
Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales
MehrSeminar zur Zahlentheorie Spezialfälle des Satzes von Fermat
Seminar zur Zahlentheorie Spezialfälle des Satzes von Fermat Vortrag von Kristina Rupp und Benjamin Letschert am 29.01.2008 Inhaltsverzeichnis 13 Speziallfälle des Satzes von Fermat 1 13.1 Der Große Satz
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrKorrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:
Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise
Mehr4 Diskrete Wahrscheinlichkeitsverteilungen
4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder
Mehr4 Lineare Algebra (Teil 2): Quadratische Matrizen
4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,
MehrProseminar Lineare Algebra II, SS 11. Blatt
Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2
MehrAustausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen
Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:
MehrDefinitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht
Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben
MehrLineare Abhängigkeit
Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x
Mehrn=1 a n mit reellen Zahlen a n einen
4 Unendliche Reihen 4. Definition und Beispiele Ein altes Problem der Analysis ist es, einer Reihe mit reellen Zahlen einen Wert zuzuordnen. Ein typisches Beispiel ist die unendliche Reihe + +..., die
Mehr4. Vektorräume und Gleichungssysteme
technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume
Mehr4.13. Permutationen. Definition. Eine Permutation der Elementen {1,..., n} ist eine bijektive Abbildung
43 Permutationen Definition Eine Permutation der Elementen {,, n} ist eine bijektive Abbildung σ : {,,n} {,,n} Es ist leicht zu sehen, dass die Hintereinanderführung zweier Permutationen ergibt wieder
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen
MehrEtwas Topologie. Handout zur Vorlesung Semi-Riemannsche Geometrie, SS 2004 Dr. Bernd Ammann
Etwas Topologie Handout zur Vorlesung Semi-Riemannsche Geometrie, SS 2004 Dr. Bernd Ammann Literatur Abraham, Marsden, Foundations of Mechanics, Addison Wesley 1978, Seiten 3 17 Definition. Ein topologischer
Mehrε δ Definition der Stetigkeit.
ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x
Mehr3. Kombinatorik und Wahrscheinlichkeit
3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:
MehrAufgaben zu Kapitel 15
Aufgaben zu Kapitel 5 Aufgaben zu Kapitel 5 Verständnisfragen Aufgabe 5 Zeigen Sie, dass die Menge K m n aller m n-matrizen über einem Körper K mit komponentenweiser Addition und skalarer Multiplikation
MehrBeispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A
133 e 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 2. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 Schritte des
Mehr( ) Lineare Gleichungssysteme
102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv
MehrElemente von S n = Aut([1, n]) heißen Permutationen. Spezielle Permutationen sind Transpositionen und Zyklen. (Vergl. Skript S
Begriffe Faser: Es sei f : M N eine Abbildung von Mengen. Es sei n N. Die Menge f 1 ({n}) M nennt man die Faser in n. (Skript Seite 119). Parallel: Zwei Vektoren v und w heißen parallel, wenn für einen
MehrAlgorithmus zur Berechnung der Jordannormalform
Algorithmus zur Berechnung der Jordannormalform Olivier Sète 19. Januar 2011 Inhaltsverzeichnis 1 Motivation 1 2 Algorithmus Wie und warum funktioniert das? 2 2.1 Zutat 1 Für einen Jordanblock.........................
Mehr(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge
ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,
Mehr3 Elementare Umformung von linearen Gleichungssystemen und Matrizen
3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange
Mehr2. Symmetrische Gruppen
14 Andreas Gathmann 2 Symmetrische Gruppen Im letzten Kapitel haben wir Gruppen eingeführt und ihre elementaren Eigenschaften untersucht Wir wollen nun eine neue wichtige Klasse von Beispielen von Gruppen
Mehralso ist Sx m eine Cauchyfolge und somit konvergent. Zusammen sagen die Sätze 11.1 und 11.2, dass B (X) ein abgeschlossenes zweiseitiges
11. Kompakte Operatoren Seien X, Y Banachräume, und sei T : X Y ein linearer Operator. Definition 11.1. T heißt kompakt, enn T (B) eine kompakte Teilmenge von Y ist für alle beschränkten Mengen B X. Wir
MehrEinführung in die Theoretische Informatik
Technische Universität München Fakultät für Informatik Prof. Tobias Nipkow, Ph.D. Dr. Werner Meixner, Dr. Alexander Krauss Sommersemester 2010 Lösungsblatt 3 14. Mai 2010 Einführung in die Theoretische
MehrAlgebraische Kurven. Holger Grzeschik
Algebraische Kurven Holger Grzeschik 29.04.2004 Inhaltsübersicht 1.Einführung in die Theorie algebraischer Kurven 2.Mathematische Wiederholung Gruppen, Ringe, Körper 3.Allgemeine affine Kurven 4.Singuläre
MehrDer CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
MehrKonvergenz, Filter und der Satz von Tychonoff
Abschnitt 4 Konvergenz, Filter und der Satz von Tychonoff In metrischen Räumen kann man topologische Begriffe wie Stetigkeit, Abschluss, Kompaktheit auch mit Hilfe von Konvergenz von Folgen charakterisieren.
MehrVariante A. Hinweise
Lehrstuhl C für Mathematik (Analsis Prof. Dr. Y. Guo Aachen, den 6..3 Klausur zur Höheren Mathematik I WS /3 Variante A Hinweise Zugelassene Hilfsmittel: Als Hilfsmittel zugelassen sind handschriftliche
Mehr6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
MehrVorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7
Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7 Timo Stöcker Erstsemestereinführung Informatik TU Dortmund 22. März 2011 Heute Themen Lineare Gleichungssysteme Matrizen Timo Stöcker https://fsinfo.cs.tu-dortmund.de/studis/ese/vorkurse/mathe
MehrLösungsvorschläge Blatt 4
Theoretische Informatik Departement Informatik Prof. Dr. Juraj Hromkovič http://www.ita.inf.ethz.ch/theoinf16 Lösungsvorschläge Blatt 4 Zürich, 21. Oktober 2016 Lösung zu Aufgabe 10 (a) Wir zeigen mit
MehrDIPLOMARBEIT. Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung
Studiengang Diplom-Mathematik mit Schwerpunkt Biowissenschaften DIPLOMARBEIT Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung von: Christina Boll geb. Wolf
MehrAm Dienstag, den 16. Dezember, ist Eulenfest. 1/48
Am Dienstag, den 16. Dezember, ist Eulenfest. 1/48 Grundbegriffe der Informatik Einheit 12: Erste Algorithmen in Graphen Thomas Worsch Universität Karlsruhe, Fakultät für Informatik Wintersemester 2008/2009
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
Mehrklar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s
Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen
MehrErweiterte Koordinaten
Erweiterte Koordinaten Sei K n ein n dimensionaler affiner Raum Die erweiterten Koordinaten des Punktes x x n K n sind x x n Kn+ (Das ist für alle K sinnvoll, weil in jedem Körper K wohldefiniert ist In
Mehr5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21
5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11
Mehrκ(k) k K S Algorithmus zur Bestimmung eines spannenden Baumes mit minimalen Kosten (Kruskal, 1965).
5. Graphenprobleme Im folgenden bezeichnen G = (E, K) einen endlichen Graphen mit der Eckenmenge E und der Kantenmenge K. G kann ungerichtet, gerichtet, schlicht oder nicht schlicht sein. 5.1 Spannende
MehrGesetze der großen Zahlen
Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz
MehrLineare Gleichungssysteme
Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare
MehrLineare Algebra. Teil III. Inhaltsangabe
Teil III Lineare Algebra Inhaltsangabe 3 Lineare Algebra 22 3.1 Einführung.......................... 22 3.2 Matrizen und Vektoren.................... 23 3.3 Spezielle Matrizen...................... 24
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
Mehr5 Eigenwerte und die Jordansche Normalform
Mathematik für Physiker II, SS Mittwoch 8.6 $Id: jordan.tex,v.6 /6/7 8:5:3 hk Exp hk $ 5 Eigenwerte und die Jordansche Normalform 5.4 Die Jordansche Normalform Wir hatten bereits erwähnt, dass eine n n
Mehr40 Lokale Extrema und Taylor-Formel
198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:
MehrKurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok
Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de
Mehr3.3 Klassifikation quadratischer Formen auf R n
3.3. Klassifikation quadratischer Formen auf R n 61 3.3 Klassifikation quadratischer Formen auf R n Wir können den Hauptsatz über symmetrische Matrizen verwenden, um uns einen Überblick über die Lösungsmengen
MehrWiederholung zu Flüssen
Universität Konstanz Methoden der Netzwerkanalyse Fachbereich Informatik & Informationswissenschaft SS 2008 Prof. Dr. Ulrik Brandes / Melanie Badent Wiederholung zu Flüssen Wir untersuchen Flüsse in Netzwerken:
MehrIn diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)
34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)
MehrPrüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?
1. Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? A. Wenn n = 3 ist, sind mindestens zwei der drei Euler-Winkel einer Drehung kleiner oder gleich π. B. Wenn n = 2
MehrDivision Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema
Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x
Mehr2 Die Dimension eines Vektorraums
2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1
MehrMathematik III. Produkt-Präringe
Prof. Dr. H. Brenner Osnabrück WS 2010/2011 Mathematik III Vorlesung 66 Es ist unser Ziel zu zeigen, dass auf der Produktmenge von Maßräumen unter recht allgemeinen Voraussetzungen ein Maß definiert ist,
MehrRückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
MehrMafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben)
Musterlösung zum. Aufgabenblatt zur Vorlesung MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur Gruben. Wahrscheinlichkeiten I ( Punkte Die Seiten von zwei Würfeln sind mit den folgenden Zahlen
MehrLineare Gleichungssysteme (Teschl/Teschl 11.1)
Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...
MehrVorkurs: Mathematik für Informatiker Steven Köhler, Anja Moldenhauer, Marcel Morisse
Vorkurs: Mathematik für Informatiker Steven Köhler, Anja Moldenhauer, Marcel Morisse Wintersemester 2014/15 Aufgaben I-1. Es seien die folgenden Mengen A = {5,7,9}, B = {5,6,7} und C = {1,3,5,7,9} gegeben.
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Sei K ein Körper, a ij K für 1 i m, 1 j n. Weiters seien b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2... a m1
MehrExact Sampling: Der Propp-Wilson-Algorithmus
Exact Sampling: Der Propp-Wilson-Algorithmus Markus Gerstel Proseminar: Markovketten in der Algorithmik Technische Universität München gerstel@in.tum.de Zusammenfassung Der Propp-Wilson-Algorithmus liefert
Mehr