Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)
|
|
- Gudrun Heidrich
- vor 6 Jahren
- Abrufe
Transkript
1 SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München Mai 2013 ZÜ DWT
2 ZÜ IV Übersicht: 1. Thema: Markov-Ketten: Übergangszeit Erwartete Übergangszeit Erwartete Rückkehrzeit Ankunftswahrscheinlichkeit Rückkehrwahrscheinlichkeit 2. Vorbereitung auf HA Blatt 4: ZÜ DWT 1/25
3 1. Thema: Markov-Ketten Vorbemerkungen: Markov-Ketten sind Thema in den TA 3.1 und TA 4.2, und insbesondere in der HA 4.1. Man beachte, dass diskrete zeithomogene Markov-Ketten in der Regel durch Markov-Diagramme definiert werden. In den Diagrammen werden nur positive Übergangswahrscheinlichkeiten eingetragen. Alle übrigen Übergänge haben die Wahrscheinlichkeit 0. ZÜ DWT 1 Thema: Markov-Ketten 2/25
4 Beispiel 1: Markov-Diagramme als endliche Automaten Mit Q = Σ entsprechen die akzeptierten Wörter in diesem Automat genau den Pfaden im folgenden Markov-Diagramm vom Zustand 0 in den Zustand 3. 1/2 1/2 1/2 0 1/2 1/ /2 3 1 ZÜ DWT 1 Thema: Markov-Ketten 3/25
5 Zentrale Begriffe: Folge von Zufallsvariablen (X t ) t N0 heißt eine Markov-Kette mit diskreter Zeit, wenn die,,markov-bedingung erfüllt ist. Im zeithomogenen Fall bedeutet dies in etwa, dass die Markov-Kette mit einem Markov-Diagramm definiert werden kann, so dass also die Übergangswahrscheinlichkeiten lediglich von den momentanen Zuständen abhängen. Der Zustandsraum sei S. ZÜ DWT 1 Thema: Markov-Ketten 4/25
6 Beispiel 2: Zufallsvariable (Z i ) i N0 der TA 3.1. Die Verteilungsdichte f Zi einer Zufallsvariablen Z i wird aus Z 0 errechnet durch Matrixmultiplikation f Zi = f Z0 P i. wobei P die Übergangsmatrix des definierenden Markov-Diagramms sei. f Zi wird hier als Zeilenvektor von Wahrscheinlichkeiten für die Annahme der einzelnen Zustände aufgefasst. Zusätzlich muss die Anfangsverteilung für Z 0 gegeben sein. ZÜ DWT 1 Thema: Markov-Ketten 5/25
7 Für Beispiel 1: P = ZÜ DWT 1 Thema: Markov-Ketten 6/25
8 Man beachte, dass die Ergebnisse, die von Markov-Ketten angenommen werden, unendliche Zustandsfolgen (s 0, s 1,..., s n,... ) S N 0 = Ω sind. Eine endliche Folge von Zuständen beschreibt jeweils ein Ereignis als Menge von Zustandsfolgen, die diese von X 0 aus durchlaufen. Präfixfreie Mengen von Zustandsfolgen beschreiben disjunkte Ereignismengen. Hinweis für zukünftige Wahrscheinlichkeitsbegriffe bzw. W keitsräume: Man hat hier keine Elementarereignisse. ZÜ DWT 1 Thema: Markov-Ketten 7/25
9 Die diskreten Zufallsvariablen T i,j bzw. T i für i, j N 0 mit T i,j = min{n 1 ; X n = j, wenn X 0 = i}, T i = min{n 1 ; X n = i, wenn X 0 = i}, heißen Übergangszeit bzw. Rückkehrzeit. Es gilt: Beispiel: Pr[T i,j = n] = Pr[[i j] j=1 n ] (Def. siehe Vorlesung). Zufallsvariable W der TA 3.1(c), die die Anzahl der Würfe zählt, bis man vom Zustand a aus im Zustand d angelangt ist. ZÜ DWT 1 Thema: Markov-Ketten 8/25
10 Man beachte: T i,j und T i sind bedingte Zufallsvariable, die für Markovketten mit X 0 i undefiniert bleiben können, weil die Gesamtheit dieser Markov-Ketten mit X 0 i in dem durch X 0 = i bedingten Wahrscheinlichkeitsraum ein Ereignis mit Wahrscheinlichkeit 0 darstellt. Wir entfernen aus Ω alle Ergebnisfolgen mit X 0 i und definieren den bedingten Ergebnisraum Ω (X0 =i) = Ω \ {(X t ) t N0 ; X 0 i}. Dann gelten T i,j : Ω (X0 =i) N 0 {+ } und T i : Ω (X0 =i) N 0 {+ }. ZÜ DWT 1 Thema: Markov-Ketten 9/25
11 Die Dichtefunktionen f Ti,j und f Ti haben also den Definitionsbereich N 0 {+ }. Im Allgemeinen gilt f Ti,j (+ ) 0 und f Ti (+ ) 0. ZÜ DWT 1 Thema: Markov-Ketten 10/25
12 1.1 Ankunfts- und Rückkehrwahrscheinlichkeit Auf die Zufallsvariablen T i,j und T i stützen sich die Begriffe Ankunftswahrscheinlichkeit bzw. Rückkehrwahrscheinlichkeit f i,j bzw. f i. Es gelten f i,j = Pr[T i,j < + ] und f i = Pr[T i < + ]. ZÜ DWT 1.1 Ankunfts- und Rückkehrwahrscheinlichkeit 11/25
13 Die folgenden Eigenschaften einer Markov-Kette hängen ausschließlich von der Struktur des Übergangsdiagramms ab. (Siehe auch Satz 32 der Vorlesung!) Man beachte, dass in das Übergangsdiagramm nur Pfeile mit positiven Übergangswahrscheinlichkeiten eingetragen werden dürfen. Eigenschaften: f i = 0, 0 < f i < 1, f i = 1, f i,j = 0, 0 < f i,j < 1, f i,j = 1. ZÜ DWT 1.1 Ankunfts- und Rückkehrwahrscheinlichkeit 12/25
14 f i,j = 0 bzw. f i = 0: Es gibt keinen Pfad vom Knoten i nach Knoten j bzw. von i zurück auf sich selbst. f i,j = 1 bzw. f i = 1: Jeder bei i beginnende Pfad kann zu einem Pfad bis zu j bzw. zu i zurück verlängert werden. 0 < f i,j < 1 bzw. 0 < f i < 1: Die vorausgegangenen Eigenschaften treffen nicht zu. ZÜ DWT 1.1 Ankunfts- und Rückkehrwahrscheinlichkeit 13/25
15 Abgeleitete Eigenschaften für Zustände i S: i ist transient, falls f i < 1. i ist rekurrent, falls f i = 1. i ist absorbierend, falls f i,j = 0 für alle j i gilt. Bemerkung: Auch die Eigenschaften,,irreduzibel,,,periodisch und,,aperiodisch hängen ausschließlich von der Struktur des Übergangsdiagramms ab. Folglich gilt Gleiches auch für die Eigenschaft,,ergodisch. ZÜ DWT 1.1 Ankunfts- und Rückkehrwahrscheinlichkeit 14/25
16 Berechnung der Ankunfts- und Rückkehrwahrscheinlichkeiten: Bei gegebener zeithomogener diskreter Markov-Kette (Übergangsmatrix) können alle f i,j und f i durch folgendes Verfahren gefunden werden: 1. Man bestimme, für welche i, j die Gleichungen f i,j = 0, f i,j = 1 bzw. f i = 0, f i = 1 gelten. 2. Man löse für die verbleibenden Wahrscheinlichkeiten die Gleichungen f i,j = p i,j + k j p i,k f k,j falls i j, f i = p i,i + k i p i,k f k,i. Bemerkung: Wir können die Gleichungen,,zeilenweise lösen. ZÜ DWT 1.1 Ankunfts- und Rückkehrwahrscheinlichkeit 15/25
17 1.2 Erwartungswerte von T i,j und T i Erwartete Übergangszeit: h i,j := E[T i,j ]. Erwartete Rückkehrzeit: h i := E[T i ]. Beispiel: HA 3.1(c), TA 4.2 Es gilt: Falls S <, dann existieren die Erwartungswerte h i,j bzw. h i genau dann, wenn f i,j = 1 bzw. f i = 1 gilt. Die Berechnung erfolgt mit Gleichungssystem h i,j = 1 + k j p i,k h k,j falls i j, h i = 1 + k i p i,k h k,i. ZÜ DWT 1.2 Erwartungswerte von T i,j und T i 16/25
18 2. Vorbereitung auf HA von Blatt 4 Markov-Diagramm HA 4.1 (siehe Beispiel 1) Tipps zu HA 4.1(b) Tipps zu HA 4.1(c), Berechnung mit Gleichungssystem ZÜ DWT 2 Vorbereitung auf HA von Blatt 4 17/25
19 2.1 Tipps zu HA 4.1(b) Für das Markov-Diagramm in Beispiel 1 berechnen wir mit Zuständen q 0 = 0, q 1 = 1, q 2 = 2, q 3 = 3 für alle n N 0 die Mengen bzw. Mengengrößen A 0 (n) = [q 0 q 0 ] n, A 1 (n) = [q 0 q 1 ] n, A 2 (n) = [q 0 q 2 ] n und A 3 (n) = [q 0 q 3 ] q 3=1 n wie folgt. ZÜ DWT 2.1 Tipps zu HA 4.1(b) 18/25
20 Einige Anfangswerte: A 0 (0) = 1, A 0 (1) = 1, A 0 (2) = 2, A 1 (0) = 0, A 1 (1) = 1, A 1 (2) = 2, A 2 (0) = 0, A 2 (1) = 0, A 2 (2) = 1, A 3 (0) = 0, A 3 (1) = 0, A 3 (2) = 0. Rekursionsgleichungen: A 0 (n) = A 0 (n 1) + A 1 (n 1), A 1 (n) = A 0 (n 1), A 2 (n) = A 1 (n 1) + A 2 (n 1), A 3 (n) = A 2 (n 1). ZÜ DWT 2.1 Tipps zu HA 4.1(b) 19/25
21 Eliminationsschritt nach: A 0 (n) = A 0 (n 1) + A 0 (n 2), A 2 (n) = A 2 (n 1) + A 0 (n 2). Mit Elimination des inhomonogenen Anteils A 0 für die Rekursion von A 2 nach Vorlesung DS folgt: A 2 (n) = A 2 (n 1) + A 0 (n 2), A 2 (n + 1) = A 2 (n) + A 0 (n 1), A 2 (n + 1) + A 2 (n) = A 2 (n) + A 2 (n 1) + A 0 (n), A 2 (n + 1) = A 2 (n 1) + A 0 (n), A 2 (n + 2) = A 2 (n + 1) + A 0 (n), A 2 (n + 2) A 2 (n + 1) = A 2 (n + 1) A 2 (n 1), A 2 (n + 3) = 2A 2 (n + 2) A 2 (n). ZÜ DWT 2.1 Tipps zu HA 4.1(b) 20/25
22 Zusammenfassung: A 0 (n) ist offenbar die Folge der Fibonacci-Zahlen. A 2 (n) genügt der Rekursion A 2 (n + 3) 2A 2 (n + 2) + A 2 (n) = 0. Diese homogene Rekursion 3. Ordnung löst man üblicherweise mit den Methoden aus DS wie folgt: Charakteristisches Polynom: z 3 2z = 0 mit den Nullstellen 1 und α 1/2 = 1± 5 2 z 3 2z = (z 1)(z 2 z 1) = (z 1)(z α 1 )(z α 1 ). ZÜ DWT 2.1 Tipps zu HA 4.1(b) 21/25
23 Es gibt nun die entsprechende geschlossene Darstellung aller Lösungen. Zu beachten ist, dass die Wahrscheinlichkeit für jeden Pfad der Länge n + 1 im obigen Fall des Markov-Diagramms gleich dem Wert ( 1 2) n+1 ist. ZÜ DWT 2.1 Tipps zu HA 4.1(b) 22/25
24 2.2 Tipps zu HA 4.1(c), Berechnung mit Gleichungssystem Zur Kontrolle berechnen wir h 0,3 = E[W ] wie in Abschnitt 1.2. h 0,3 = 1 + k 3 p 0,k h k,3 = 1 + p 0,0 h 0,3 + p 0,1 h 1,3 + p 0,2 h 2,3 d.h. = h 0, h 1,3 + 0 h 2,3, h 0,3 = h 0, h 1,3. ZÜ DWT 2.2 Tipps zu HA 4.1(c), Berechnung mit Gleichungssystem 23/25
25 Gleichung für h 1,3 : h 1,3 = 1 + k 3 p 1,k h k,3 = 1 + p 1,0 h 0,3 + p 1,1 h 1,3 + p 1,2 h 2,3 d.h. = h 0,3 + 0 h 1, h 2,3, h 1,3 = h 0, h 2,3. ZÜ DWT 2.2 Tipps zu HA 4.1(c), Berechnung mit Gleichungssystem 24/25
26 Gleichung für h 2,3 : h 2,3 = 1 + k 3 p 2,k h k,3 = 1 + p 2,0 h 0,3 + p 2,1 h 1,3 + p 2,2 h 2,3 = h 0,3 + 0 h 1, h 2,3 = h 2,3. Es folgt h 2,3 = 2. Durch Elimination folgt h 0,3 = 8. ZÜ DWT 2.2 Tipps zu HA 4.1(c), Berechnung mit Gleichungssystem 25/25
Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.
2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet
MehrDWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr
2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,
MehrZentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr)
WS 2011/12 Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2011ws/ds/uebung/ 18. Januar 2012 ZÜ DS ZÜ XII
MehrFolie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Zu Markov-Prozessen: Bemerkungen: 17.01.2013 Wir betrachten im Folgenden eine Markovkette (X n ) n N0, wobei jedes X n Werte in Z = {0,1,2,...,s}
MehrDiskrete Wahrscheinlichkeitstheorie
SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München http://www7.in.tum.de/um/courses/dwt/ss13 Sommersemester 2013 Teil VI Markov-Ketten Markov-Ketten Markov-Ketten
Mehr16.3 Rekurrente und transiente Zustände
16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht
MehrKlausur: Diskrete Strukturen I
Universität Kassel Fachbereich 10/1 13.03.2013 Klausur: Diskrete Strukturen I Name: Vorname: Matrikelnummer: Versuch: Unterschrift: Bitte fangen Sie für jede Aufgabe ein neues Blatt an. Beschreiben Sie
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel
MehrSatz 18 (Satz von der totalen Wahrscheinlichkeit)
Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte
MehrMarkov-Ketten Proseminar: Das virtuelle Labor Ariane Wietschke
Markov-Ketten Proseminar: Das virtuelle Labor Ariane Wietschke 28.01.2004 28.01.04 Ariane Wietschke - Markov-Ketten 1 Übersicht 1. Herleitung der Definition 2. Komponenten von Markov-Ketten 3. Arten von
MehrKapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit
Teil I: Wahrscheinlichkeitstheorie 1 Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 3: Bedingte Wahrscheinlichkeit Kapitel 4: Zufallsvariablen Kapitel 5: Erwartungswerte, Varianz, Kovarianz
MehrLösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten
Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage
Mehr15. September 2010 Prof. Dr. W. Bley. Universität Kassel Klausur SS 2010 Diskrete Strukturen I (Informatik) Name:... Matr.-Nr.:... Viel Erfolg!
15. September 010 Prof. Dr. W. Bley Universität Kassel Klausur SS 010 Diskrete Strukturen I (Informatik) 1 3 4 5 6 Name:................................................ Matr.-Nr.:............................................
MehrGrundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt
Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum
Mehr3. Prozesse mit kontinuierlicher Zeit
3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess
MehrDer Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrEinführung in die Theorie der Markov-Ketten. Jens Schomaker
Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch
MehrMarkov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes
Markov-Prozesse Franziskus Diwo Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes 8.0.20 Gliederung Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-,
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrEndliche Markov-Ketten - eine Übersicht
Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und
MehrZentralübung zur Vorlesung Diskrete Strukturen
WS 2010/11 Zentralübung zur Vorlesung Diskrete Strukturen Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2010ws/ds/uebung/ 1. Dezember 2010 ZÜ DS ZÜ VI Übersicht: 1.
MehrEin Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr
Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
MehrZentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr)
WS 2011/12 Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2011ws/ds/uebung/ 25. Januar 2012 ZÜ DS ZÜ XIII
MehrDiskrete Mathematik 1
Ruhr-Universität Bochum Lehrstuhl für Kryptologie und IT-Sicherheit Prof Dr Alexander May M Ritzenhofen, M Mansour Al Sawadi, A Meurer Lösungsblatt zur Vorlesung Diskrete Mathematik WS 008/09 Blatt 4 /
Mehr1 A dp = P(A B). (1.3)
Markov-etten Seminar Stochastik vom 4-500 Version Oktober 00 Markus Penz Vorbemerkungen zu bedingten Wahrscheinlichkeiten Sei (Ω, F,P) ein Wahrscheinlichkeitsraum und X : Ω R eine F-messbare sowie integrierbare
MehrKapitel II - Wahrscheinlichkeitsraum
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel II - Wahrscheinlichkeitsraum Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
MehrZentralübung zur Vorlesung Theoretische Informatik
SS 2015 Zentralübung zur Vorlesung Theoretische Informatik Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2015ss/theo/uebung/ 7. Mai 2015 ZÜ THEO ZÜ IV Übersicht: 1.
MehrSatz 16 (Multiplikationssatz)
Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.
MehrKAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
MehrGrundlagen der Wahrscheinlichkeitstheorie
Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)
MehrSatz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die
Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Rückwärtsgleichung P (t) = QP (t), P (0) = E eine minimale nicht negative Lösung (P (t) : t 0). Die Lösung bildet eine Matrix Halbgruppe, d.h. P (s)p
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
MehrZentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza)
WS 2013/14 Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ws/ds/uebung/ 22. Januar 2014 ZÜ DS ZÜ XIII
MehrJohannes-Kepler-Gymnasium, Chemnitz John-Lennon-Oberschule, Berlin Friedrich-Schiller-Gymnasium, Königs Wusterhausen
Glückssträhnen...?! Teilnehmer: Aptin Haerian Max Irmscher Markus Johl Felix Montenegro Hoang Lam Nguyen Anne Christin Rettig Herder-Oberschule, Berlin Johannes-Kepler-Gymnasium, Chemnitz John-Lennon-Oberschule,
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
MehrEinführung in die Theoretische Informatik
Technische Universität München Fakultät für Informatik Prof. Tobias Nipkow, Ph.D. Dr. Werner Meixner, Dr. Alexander Krauss Sommersemester 2010 Lösungsblatt 3 14. Mai 2010 Einführung in die Theoretische
MehrWahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19
Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 1
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/ Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie svorschläge zu
MehrZentralübung zur Vorlesung Diskrete Strukturen
WS 2010/11 Zentralübung zur Vorlesung Diskrete Strukturen Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2010ws/ds/uebung/ 22. Dezember 2010 ZÜ DS ZÜ IX Übersicht: 1.
MehrLineare Differenzengleichungen
Lineare Differenzengleichungen Die Fibonacci-Zahlen F n sind definiert durch F 0 = 0 F 1 = 1 F n = F n 1 +F n 2 für n >= 2 Die letzte Zeile ist ein Beispiel für eine homogene lineare Differenzengleichung
MehrWeihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012
Weihnachtszettel zur Vorlesung Stochastik I Wintersemester 0/0 Aufgabe. Der Weihnachtsmann hat vergessen die Weihnachtsgeschenke mit Namen zu beschriften und muss sie daher zufällig verteilen. Dabei enthält
MehrEndliche Markov-Ketten
Endliche Markov-Ketten Michael Krühler 24. Oktober 2013 Inhaltsverzeichnis 1 Einführung 2 1.1 Mathematische Einführung......................... 2 1.2 Interpretation................................. 3 2
MehrMatrizen. Nicht nur eine Matrix, sondern viele 0,5 0,2 0,3 A 0,2 0,7 0,1
Nicht nur eine Matrix, sondern viele Matrizen 0,5 0,2 0,3 A 0,2 0,7 0,1 015 0,15 0,75 075 0,1 01 aber keine Matrize und auch keine Matratzen 1 Wie beschreibt man Prozesse? Makov-Modell Modell Markov- Prozess
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
MehrEinführung in Markoff-Ketten
Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die
MehrÜbungsaufgaben Lösungen
Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij
MehrMarkovketten. Vorlesungsskript. Universität Freiburg. Andrej Depperschmidt. Sommersemester 2016
Markovketten Andrej Depperschmidt Vorlesungsskript Universität Freiburg Sommersemester 2016 Version: 20. Juni 2016 1 Einleitung Markovprozesse ist eine für viele Anwendungen wichtige Klasse von stochastischen
MehrSatz 16 (Multiplikationssatz)
Haug verwendet man die Denition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A \ B] = Pr[BjA] Pr[A] = Pr[AjB] Pr[B] : (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1 ; : : : ; A n
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
MehrStatistik für Ingenieure Vorlesung 2
Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit
MehrEinführung in die Wahrscheinlichkeitsrechnung
Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze
MehrBeweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass
Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
MehrWeihnachtsaufgaben. a) Welche Urnenmodelle gibt es? Stelle zu jedem Modell ein konkretes Beispiel auf, welches durch dieses Modell beschrieben wird.
Weihnachtsaufgaben Diese Aufgaben dienen dazu die in der Vorlesung und den Übungen eingeführten Begriffe zu verstehen und zu vertiefen, die Bearbeitung ist freiwillig Das Blatt wurde von den Übungsleitern
MehrKapitel 5: Markovketten
Kapitel 5: Markovketten Definition 5.1 Bezeichnungen Bsp. 5.1 Definition 5.2 Eine Fam. (X i ) i I von ZV en X i : Ω E auf (Ω, F, P) mit Werten im messb. Raum (E, E) heißt Stochastischer Prozess. E Zustandsraum
MehrMafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben)
Musterlösung zum. Aufgabenblatt zur Vorlesung MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur Gruben. Wahrscheinlichkeiten I ( Punkte Die Seiten von zwei Würfeln sind mit den folgenden Zahlen
MehrZentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza)
WS 2013/14 Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ws/ds/uebung/ 30. Oktober 2013 ZÜ DS ZÜ
Mehr15.5 Stetige Zufallsvariablen
5.5 Stetige Zufallsvariablen Es gibt auch Zufallsvariable, bei denen jedes Elementarereignis die Wahrscheinlich keit hat. Beispiel: Lebensdauer eines radioaktiven Atoms Die Lebensdauer eines radioaktiven
MehrDiskrete Wahrscheinlichkeitstheorie TUM Sommersemester 2012 Dozent: Javier Esparza. Janosch Maier 25. Juli 2012
Diskrete Wahrscheinlichkeitstheorie TUM Sommersemester 2012 Dozent: Javier Esparza Janosch Maier 25. Juli 2012 1 Inhaltsverzeichnis I Diskrete Wahrscheinlichkeitsräume 6 1 Grundlagen 6 1.1 Markov-Diagram...........................
MehrW-Rechnung und Statistik für Ingenieure Übung 11
W-Rechnung und Statistik für Ingenieure Übung 11 Aufgabe 1 Ein Fahrzeugpark enthält 6 Fahrzeuge. Jedes Fahrzeug hat die Wahrscheinlichkeit p = 0.1 (bzw. p = 0.3), dass es kaputt geht. Pro Tag kann nur
MehrHidden Markov Modelle
Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten
MehrEinführung in die Theoretische Informatik
Technische Universität München Fakultät für Informatik Prof. Tobias Nipkow, Ph.D. Dr. Werner Meixner, Dr. Alexander Krauss Sommersemester 2 Lösungsblatt 2. Mai 2 Einführung in die Theoretische Informatik
MehrMarkovketten. Bsp. Page Ranking für Suchmaschinen. Wahlfach Entscheidung unter Risiko und stat. Datenanalyse 07.01.2015
Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung von Systemen, deren Verhalten durch einen zufälligen Übergang von einem Systemzustand zu einem anderen Systemzustand gekennzeichnet
MehrZentralübung Diskrete Wahrscheinlichkeitstheorie
Zentralübung Diskrete Wahrscheinlichkeitstheorie Christian Ivicevic (christian.ivicevic@tum.de) Technische Universität München 14. Juni 2017 Agenda Disclaimer und wichtige Hinweise Übungsaufgaben Disclaimer
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die
MehrKapitel 6. Irrfahrten und Bernoullischemata
Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten
MehrTeil II. Wahrscheinlichkeitsrechnung
Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2014) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrTeil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse
5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) Teil II Wahrscheinlichkeitsrechnung 5 Zufallsexperimente Ergebnisse Ereignisse Wahrscheinlichkeiten Deskriptive Statistik und Wahrscheinlichkeitsrechnung
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrMarkov-Ketten 1. Definition 2.1
Marov-Ketten Definition 2. Sei P eine -Matrix mit Elementen {P i,j : i, j,...,}. Ein Zufallsprozess (X 0, X,...) mit endlichem Zustandsraum S{s,...,s } heißt homogene Marov-Kette mit Übergangsmatrix P,
MehrKapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente
Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
MehrMathematik für Informatiker III im WS 05/06 Musterlösung zur 4. Übung
Mathematik für Informatiker III im WS 5/6 Musterlösung zur. Übung erstellt von K. Kriegel Aufgabe : Wir betrachten den Wahrscheinlichkeitsraum der Punkte P =(a, b) aus dem Einheitsquadrat [, ] [, ] mit
MehrDynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten
DynaTraffic Modelle und mathematische Prognosen Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten Worum geht es? Modelle von Verkehrssituationen Graphen: Kanten, Knoten Matrixdarstellung
MehrWiederholungsklausur DWT
LÖSUNG Wiederholungsklausur DWT Sommersemester 2008 Hinweis: Alle Antworten sind zu begründen. Insbesondere sollte bei nicht-trivialen Umformungen kurz angegeben werden, weshalb diese Umformungen erlaubt
MehrElemente der Stochastik (SoSe 2016) 10. Übungsblatt
Dr. M. Weimar 3.06.206 Elemente der Stochastik (SoSe 206) 0. Übungsblatt Aufgabe (2+2+2+2+3= Punkte) Zur zweimaligen Drehung des nebenstehenden Glücksrads (mit angenommener Gleichverteilung bei jeder Drehung)
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:
MehrProseminarvortrag. Markov-Ketten in der Biologie (Anwendungen)
Proseminarvortrag Markov-Ketten in der Biologie (Anwendungen) von Peter Drössler 20.01.2010 2 Markov-Ketten in der Biologie (Peter Drössler, KIT 2010) Inhalt 1. Das Wright-Fisher Modell... 3 1.1. Notwendige
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrBeispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal
Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.
MehrAlgorithmen und Datenstrukturen
1 Algorithmen und Datenstrukturen Wintersemester 013/14 7. Vorlesung Zufall! Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I Ein Experiment Ein Franke und ein Münchner gehen (unabhängig voneinander)
MehrKapitel 4: Irreduzible und aperiodische Markov Ketten 1
Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
Mehr(x x j ) R m [x] (3) x x j x k x j. R m [x]. (4)
33 Interpolation 147 33 Interpolation In vielen praktischen Anwendungen der Mathematik treten Funktionen f auf, deren Werte nur näherungsweise berechnet werden können oder sogar nur auf gewissen endlichen
MehrKapitel I Diskrete Wahrscheinlichkeitsräume
Kapitel I Diskrete Wahrscheinlichkeitsräume 1. Grundlagen Definition 1 1 Ein diskreter Wahrscheinlichkeitsraum ist durch eine Ergebnismenge Ω = {ω 1, ω 2,...} von Elementarereignissen gegeben. 2 Jedem
Mehr2.2 Ereignisse und deren Wahrscheinlichkeit
2.2 Ereignisse und deren Wahrscheinlichkeit Literatur: [Papula Bd., Kap. II.2 und II.], [Benning, Kap. ], [Bronstein et al., Kap. 1.2.1] Def 1 [Benning] Ein Zufallsexperiment ist ein beliebig oft wiederholbarer,
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrAbiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.
Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment
MehrStudiengang Diplom-Mathematik DIPLOMARBEIT. Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit.
Studiengang Diplom-Mathematik DIPLOMARBEIT Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit eingereicht von Christina Gunkel am 3. Juni 2008 Erste Gutachterin: Zweiter Gutachter:
MehrSoftware Engineering Ergänzung zur Vorlesung
Ergänzung zur Vorlesung Prof. Dr. Markus Müller-Olm WS 2008 2009 2.6.1 Endliche und reguläre Sprachen Endliche und reguläre Sprache: fundamental in vielen Bereichen der Informatik: theorie Formale Sprachen
MehrTerminologie Stochastischer Prozesse
Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.
MehrKapitel 4 Diskrete Markov-Prozesse
Kapitel 4 Diskrete Markov-Prozesse 4.1 Definition und grundlegende Eigenschaften 4.1 Definition und grundlegende Eigenschaften Stetige Zeit aber weiterhin diskreter Zustandsraum. Beispiele: Klinische Studien,
MehrStochastische Unabhängigkeit. 01. Dezember 2014
Stochastische Unabhängigkeit 0. Dezember 204 Der Begriff der Unabhängigkeit Großbritannien, im November 999. Die Anwältin Sally Clark wird wegen Mordes an ihren Kindern angeklagt. Clark geriet unter Verdacht
MehrÜbungsaufgaben, Statistik 1
Übungsaufgaben, Statistik 1 Kapitel 3: Wahrscheinlichkeiten [ 4 ] 3. Übungswoche Der Spiegel berichtet in Heft 29/2007 von folgender Umfrage vom 3. und 4. Juli 2007:,, Immer wieder werden der Dalai Lama
MehrBACHELORARBEIT. Markov-Ketten und ihre Greensche Funktion. Jasmin Riegler. Wien, Jänner 2013
BACHELORARBEIT Markov-Ketten und ihre Greensche Funktion Jasmin Riegler Wien, Jänner 203 Studienkennzahl: A 033 62 Studienrichtung: Mathematik Betreuer: Privatdoz. Dr. Mag. Bernhard Krön Inhaltsverzeichnis
Mehr