Übungsaufgaben Lösungen

Ähnliche Dokumente
Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Markov Ketten und Bonus Malus Systeme

1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr

Lineare Algebra: Determinanten und Eigenwerte

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

8 Markov-Kette mit kontinuierlicher Zeit

Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n

5 Lineare Algebra (Teil 3): Skalarprodukt

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

MC-Serie 11: Eigenwerte

Der Ergodensatz. Hendrik Hülsbusch

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

Angewandte Stochastik

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1

3.6 Eigenwerte und Eigenvektoren

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten

4 Lineare Algebra (Teil 2): Quadratische Matrizen

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Lineare Algebra und analytische Geometrie II

3 Determinanten, Eigenwerte, Normalformen

Endliche Markov-Ketten - eine Übersicht

Ausgewählte Lösungen zu den Übungsblättern 9-10

Die Abbildung zeigt die Kette aus dem "

6 Symmetrische Matrizen und quadratische Formen

Eigenwerte (Teschl/Teschl 14.2)

4 Matrizenrechnung. Beide Operationen geschehen also koeffizientenweise. Daher übertragen sich die Rechenregeln von K(m n, k).

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

Der Metropolis-Hastings Algorithmus

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

m 1 Die Bewegung der drei Kugeln wird beschrieben durch das folgende Differentialgleichungssystem x 1 (t) x 2 (t) x 3 (t) k 12 k 12 k 12 k k 23

Drehachse und Drehwinkel

Markov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes

6 Symmetrische Matrizen und quadratische Formen

6 Eigenwerte und Eigenvektoren

Diskrete Wahrscheinlichkeitstheorie

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

47 Singulärwertzerlegung

EXKURS: MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

Einführung in Markoff-Ketten

3. Prozesse mit kontinuierlicher Zeit

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

MLAN1 1 MATRIZEN 1 0 = A T =

4.4 Hermitesche Formen

Musterlösung Höhere Mathematik I/II Di. Aufgabe 1 (11 Punkte) Geben Sie die Matrixbeschreibung der Quadrik

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

16.3 Rekurrente und transiente Zustände

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Matrizen. Nicht nur eine Matrix, sondern viele 0,5 0,2 0,3 A 0,2 0,7 0,1

Blockmatrizen. Beispiel 1 Wir berechnen das Produkt von A R 4 6 mit B R 6 4 :

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Lösungsskizze zur Wiederholungsserie

1 Singulärwertzerlegung und Pseudoinverse

Lineare Algebra und analytische Geometrie I (Unterrichtsfach) Lösungsvorschlag

Serie 12: Eigenwerte und Eigenvektoren

Lineare Algebra. Teil III. Inhaltsangabe

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Matrizen. Stefan Keppeler. 19. & 26. November Mathematik I für Biologen, Geowissenschaftler und Geoökologen

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

29.2 Lineare Differentialgleichungssysteme mit konstanten Koeffizienten Wir betrachten das homogene System. y = A y, t R, (1)

LANGZEITVERHALTEN VON MARKOW-KETTEN

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Vektoren und Matrizen

9.2 Invertierbare Matrizen

Matrizen. Stefan Keppeler. 28. November Mathematik I für Biologen, Geowissenschaftler und Geoökologen

9 Metrische und normierte Räume

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Viele wichtige Operationen können als lineare Abbildungen interpretiert werden. Beispielsweise beschreibt die lineare Abbildung

LANGZEITVERHALTEN VON MARKOW-KETTEN

Bonus Malus Systeme und Markov Ketten

Ferienkurs Quantenmechanik I WKB-Näherung und Störungstheorie

SYSTEMANALYSE 2 Kapitel 7: Zeitdiskrete Modelle

Musterlösung Donnerstag - Determinanten und Eigenwerte

Serie 1: Eigenwerte & Eigenvektoren

11. Vorlesung. Lineare Algebra und Sphärische Geometrie.

Systemanalyse und Modellbildung

3.3 Eigenwerte und Eigenräume, Diagonalisierung

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

Populationsentwicklung

8.2 Invertierbare Matrizen

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Die wichtigste Klasse von Funktionen zwischen Vektorräumen sind die linearen Abbildungen.

Ba-Wü: BG Neuer Lehrplan Mathematik Modul-5: Prozesse Teil 3a: stochastische Übergangsprozesse. Februar und März

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Grundlagen der Mathematik 2 Nachklausur

2.1 Importance sampling: Metropolis-Algorithmus

Das Prinzip der Suchmaschine Google TM

Eigenwerte und Eigenvektoren von Matrizen

Eigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( )

Eigenwerte und Eigenvektoren

Angewandte Stochastik

Transkript:

Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij 0, N j 1 P ij =1 für alle i=1,...,n. Wir entwickeln im Folgenden die Grundzüge der Theorie dieser Matrizen. Dazu ist es manchmal ratsam, sich die Lösung der Aufgaben anzusehen, bevor man weitermacht. Eine wichtige Anwendung ist die Theorie der endlichen Markov-Prozesse. Dafür werden die Matrixelemente P ij als Übergangswahrscheinlichkeiten gedeutet. Genauer: Ein System hat endlich viele Zustände, die mit den Zahlen i=1,...n, bezeichnet werden. Wenn das System im Zustand i ist, sei P ij die (bedingte) Wahrscheinlichkeit dafür, dass es im nächsten Zeitschritt in den Zustand j übergeht. Interpretieren Sie die Forderungen P ij 0, N j 1 P ij =1 für alle i=1,...,n, für diese Wahrscheinlichkeits-Interpretation! Wahrscheinlichkeiten sind reelle Zahlen zwischen 0 und 1, also muss 0 P ij 1 gelten. Im nächsten Zeitschritt ist das System mit Sicherheit in irgendeinem Zustand 1 j N, also N addiert sich die Gesamtwahrscheinlichkeit j 1 P ij zu 1. Zeigen Sie: Jede stochastische Matrix hat den Eigenvektor u 1, 1,..., 1 T zum Eigenwert 1! P u i = N j 1 P ij u j = N P stoch. j 1 P ij 1, also P u = u. Ist E N eine stochastische Matrix? Wie sind die entsprechenden Übergangswahrscheinlichkeiten zu interpretieren? Ja. Das System bleibt mit Wahrscheinlichkeit 1 im gleichen Zustand. Wie lautet die stochastische Matrix für ein System, das mit gleicher Wahrscheinlichkeit in irgendeinen anderen Zustand übergeht? P ij = 1 N 1 für i j, und P ii =0.

2 MV5L.nb MV5.2 Wir setzen voraus, dass der Übergang in einen neuen Zustand nur vom augenblicklichen Zustand abhängt und nicht von der Vorgeschichte. Das System hat also kein Gedächtnis. Man nennt dann den Übergang in neue Zustände nach endlich vielen Zeitschritten einen endlichen Markov-Prozess. Wie berechnet man die Wahrscheinlichkeit P ij 2 für einen Übergang von i nach j in zwei Zeitschritten? Bilden diese Wahrscheinlichkeiten wieder eine stochastische Matrix? Wir nennen die Wahrscheinlichkeit für den Übergang i k j : W( i k j ). Dann ist die Wahrscheinlichkeit P 2 N ij = k 1 W i k j, da das System nach einem Zeitschritt in irgendeinen Zustand k gehen kann. Andererseits ist auf Grund der Markov-Annahme W( i k j )= P ik P kj, da die Wahrscheinlichkeiten für die Übergänge i k und k j unabhängig voneinander sind und sich multiplizieren. Insgesamt gilt also P 2 N ij = k 1 P ik P kj = P 2 ij. Der Übergang in zwei Zeitschritten ist durch das Quadrat der Matrix P gegeben. P 2 ist wieder stochastisch wegen P ik P kj = P 2 ij 0 und N j 1 P 2 N N ij = j,k 1 P ik P kj = k 1 P ik =1. Wie berechnet man die Wahrscheinlichkeit P ij n für einen Übergang von i nach j in n Zeitschritten? Bilden diese Wahrscheinlichkeiten wieder eine stochastische Matrix? Analog zur obigen Rechnung ergibt sich P ij n P n ij mit der stochastischen Matrix P n. MV5.3 Wir nehmen jetzt an, dass das System zu einem bestimmten Zeitpunkt durch eine diskrete Wahrscheinlichkeitsverteilung charakterisiert ist. Das heißt, p i, i=1,...,n, sei die Wahrscheinlichkeit dafür, das System im Zustand i zu finden. Natürlich muss dann 0 p i 1 und N i 1 p i =1 gelten. Wie lautet unter den gemachten Voraussetzungen die Wahrscheinlichkeitsverteilung p 1 i nach einem Zeitschritt? Nach n Zeitschritten? Die Wahrscheinlichkeit p j 1 ergibt sich als Summe der Produkte p i mit P ij, also p 1 j = N i 1 p i P ij. Analog gilt p n j = N i 1 p i P n ij. Drücken Sie p i 1 und p j n durch ein Produkt Matrix mal Vektor aus!

MV5L.nb 3 In p 1 j = N i 1 p i P ij wird über den ersten Index von P ij summiert, beim Produkt Matrix mal Vektor aber über den zweiten Index der Matrix. Also müssen wir schreiben: p 1 j = N i 1 p i P ij N = P T p ji i oder, kompakt, p 1 = P T p. i 1 Analog: p n = P T n p = P nt p. Die Wahrscheinlichkeitsverteilungen werden also mit der transponierten stochastischen Matrix P T transformiert. MV5.4 Betrachten Sie folgende Simulation und versuchen Sie zu verstehen, was dabei passiert. Dabei werden die Rechenschritte erläutert, weil wir nicht voraussetzen können, dass alle mit MATHEMATICA vertraut sind. n 5; P Table RandomReal, n, n ; a Table Sum P i, j, j, n, i, n ; P Table P i, j a i, i, n, j, n ; P MatrixForm 0.17933 0.120941 0.34277 0.112524 0.244434 0.252026 0.256939 0.181891 0.184791 0.124354 0.240461 0.349775 0.0109782 0.379561 0.0192243 0.0819523 0.36007 0.194197 0.0520092 0.311771 0.401193 0.121456 0.0764949 0.29199 0.108866 Wir haben eine zufällige stochastische Matrix P erzeugt. Man beachte, dass stochastische Matrix und Zufallsmatrix nicht synonym sind! Q Transpose P ; Q ist die transponierte stochastische Matrix. Eigensystem P 1., 0.44395, 0.0267853 0.129422, 0.0267853 0.129422, 0.105643, 0.447214, 0.447214, 0.447214, 0.447214, 0.447214, 0.428613, 0.0481544, 0.581586, 0.494272, 0.481067, 0.523165 0.0852916, 0.104608 0.165809, 0.209395 0.450392, 0.561283 0., 0.0139501 0.344465, 0.523165 0.0852916, 0.104608 0.165809, 0.209395 0.450392, 0.561283 0., 0.0139501 0.344465, 0.0921482, 0.402896, 0.472689, 0.156394, 0.762424

4 MV5L.nb Die ersten 5 Zahlen sind die Eigenwerte von P. Die folgenden 5 Listen sind die entsprechenden Eigenvektoren. Entspricht dies Ergebnis unserer Theorie? Ja, wir haben tatsächlich die 1 als Eigenwert von P. Der entsprechende Eigenvektor {-0.447214,-0.447214,-0.447214,-0.447214,-0.447214} ist proportional zu {1,1,1,1,1}, wie wir oben gezeigt haben. Die anderen Eigenwerte sind zum Teil komplex, was aber nicht verwunderlich ist, weil P nicht hermitesch ist. es Eigensystem Q 1., 0.44395, 0.0267853 0.129422, 0.0267853 0.129422, 0.105643, 0.499174, 0.530793, 0.3837, 0.430245, 0.369794, 0.445358, 0.046898, 0.478399, 0.572602, 0.492664, 0.324949 0.355355, 0.66869 0., 0.435608 0.0287673, 0.0386246 0.334398, 0.130491 0.0078097, 0.324949 0.355355, 0.66869 0., 0.435608 0.0287673, 0.0386246 0.334398, 0.130491 0.0078097, 0.274434, 0.837538, 0.00986801, 0.114772, 0.458199 Die ersten 5 Zahlen sind die Eigenwerte von Q=P T. Die folgenden 5 Listen sind die entsprechenden Eigenvektoren. Was fällt Ihnen auf? Was vermuten Sie? Können Sie Ihre Vermutung allgemein beweisen? Die Eigenwerte von Q sind identisch mit den Eigenwerten von P, während die Eigenvektoren verschieden sind. Vermutung: P und P T haben immer die gleichen Eigenwerte. Beweis: det(p-λ E N )=det P Λ E N T = det (P T -Λ E N ): Die charakteristischen Polynome von P und P T sind identisch, also auch die Eigenwerte. Dabei wird nicht benutzt, dass P stochastisch ist. u es 2, 1 ; u u Sum u i, i, n 0.225492, 0.239776, 0.173329, 0.194355, 0.167047 u ist der Eigenvektor von Q zum Eigenwert 1. Er wurde so normiert, dass die Summe der Komponenten gleich 1 ist. p Table RandomReal, n ; p p Sum p i, i, n 0.134338, 0.359443, 0.109869, 0.298244, 0.0981054

MV5L.nb 5 p ist eine zufällige Wahrscheinlichkeitsverteilung. pp Table Nest Q. &, p, m, m, 0, 10 0.134338, 0.359443, 0.109869, 0.298244, 0.0981054, 0.2049, 0.266336, 0.178055, 0.167397, 0.183311, 0.233946, 0.238031, 0.167163, 0.202087, 0.158773, 0.2224, 0.239972, 0.17671, 0.19063, 0.170288, 0.226795, 0.239687, 0.171867, 0.196079, 0.165572, 0.224901, 0.23984, 0.173966, 0.193589, 0.167703, 0.225756, 0.239747, 0.173047, 0.194694, 0.166756, 0.225375, 0.239788, 0.173455, 0.194205, 0.167177, 0.225544, 0.23977, 0.173274, 0.194422, 0.16699, 0.225469, 0.239778, 0.173354, 0.194326, 0.167073, 0.225503, 0.239775, 0.173318, 0.194368, 0.167036 pp ist die Liste der Vektoren (Wahrscheinlichkeitsverteilungen) Q n p, n=0,...10. Der erste Vektor ist gleich p. Was fällt Ihnen auf? Was vermuten Sie? Die Folge der Vektoren Q n p scheint gegen u, dem Eigenvektor von Q zum Eigenwert 1, zu konvergieren. u wäre dann eine stationäre Wahrscheinlichkeitsverteilung, die von jeder Anfangsverteilung nach unendlich vielen Zeitschritten angenommen wird. Das zeigt auch ein Plot der Verteilungen: ListPlot pp, Joined True 0.35 0.30 0.25 0.20 0.15 Ein Beweis dieser Vermutung überschreitet den Stoff dieser Veranstaltung. Nur einige Hinweise: Wenn u der Eigenvektor einer Matrix Q mit vollständiger Eigenbasis ist, der zum betragsmäßig größten, nicht entarteten Eigenwert gehört, dann konvergiert Qn p Q n p für n gegen Α u ( mit einem Faktor Α 0), wobei p 0 beliebig ist. In unserem Fall kann man sich die Division durch die Norm sparen, weil alle Q n p wieder Wahrscheinlichkeitsverteilungen sind. Dann ist auch Α=1. Eine stochastische Matrix P hat immer 1 als betragsmäßig größten Eigenwert. Allerdings kann der auch entartet sein, siehe das obige Beispiel mit E N als stochastischer Matrix. Wir müssten die entsprechende Voraussetzung, dass 1 nicht entartet ist, also noch hinzufügen, um

6 MV5L.nb unsere Vermutung Q n p u zu beweisen.