Bedingt unabhängige Zufallsvariablen
|
|
- Mona Hermann
- vor 6 Jahren
- Abrufe
Transkript
1 7. Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Benannt nach Andrei A. Markov [856-9] Einige Stichworte: Markov-Ketten Definition Eigenschaften Konvergenz Hidden Markov Modelle Sei X = (X 0, X, X,...) eine Folge von diskreten Zufallsvariablen, die alle Ausprägungen in einer endlichen bzw. abzählbaren Menge S haben. S heißt der Zustandsraum und s S ein Zustand. X heißt Markov-Kette (MK), falls P(X n = s X 0 = x 0, X = x,..., X n = x n ) = P(X n = s X n = x n ) Motivation und Inferenz Baum-Welch-Algorithmus Viterbi-Algorithmus für alle n und alle s, x 0, x,..., x n S. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 Interpretation Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 Bedingt unabhängige Zufallsvariablen Bedingt auf die gesamte Vergangenheit X 0, X,..., X n des Prozesses X hängt X n nur vom letzten Wert X n ab. Darstellung mit Pfeilen in einem graphischen Modell: Anders ausgedrückt: X 0 X X... X n X n Bedingt auf die Gegenwart (X n ) ist die Zukunft des Prozesses (X n, X n+,...) unabhängig von seiner Vergangenheit (X 0, X,..., X n ). Begriff der bedingten Unabhängigkeit Zwei diskrete Zufallsvariablen X und Y heißen bedingt unabhängig gegeben Z, wenn für die entsprechend definierten Wahrscheinlichkeitsfunktionen gilt: für alle x, y und z. f X,Y Z (x, y z) = f X Z (x z) f Y Z (y z) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 4 / 6
2 Übergangswahrscheinlichkeiten Die Übergangsmatrix Die Entwicklung einer Markov-Kette X ist gekennzeichnet durch die (Ein-Schritt) Übergangswahrscheinlichkeiten P(X n+ = j X n = i) für alle i, j S. Man nennt eine Markov-Kette homogen, wenn diese nicht von n abhängen und definiert p ij = P(X n+ = j X n = i) = P(X = j X 0 = i) Die Werte p ij werden in einer S S -Matrix P zusammengefasst, der sogenannten Übergangsmatrix. P beschreibt also die Kurzzeitentwicklung einer homogenen Markov-Kette X. P ist eine stochastische Matrix, d.h. sie hat folgende Eigenschaften: p ij 0 für alle i, j S j p ij = für alle i S Zeilensummen gleich eins für alle n und alle i, j S. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 5 / 6 Beispiele Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 6 / 6 Gerichtete Graphen.Beispiel:.Beispiel: Telephon besetzt / frei mit S = {0, } und ( ) P = 0.6 Der Zustandsraum umfasst die vier Basen der DNA (Adenin, Cytosin, Guanin, Thymin): S = {A, C, G, T }. Die geschätzte Übergangsmatrix beim Ablaufen der DNA ist P = Durbin et al. (998) Biological sequence analysis, p. 50 Der von der Markov-Kette X mit Zustandsraum S und Übergansmatrix P erzeugte gerichtete Graph G besteht aus S Knoten und maximal S Kanten. Jeder Knoten bezieht sich auf einen Zustand und jede Kante (i, j) auf p ij für p ij > 0. Der Graph beschreibt also die Struktur aller direkten Verbindungen von Zustand i zu Zustand j i,j. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 7 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 8 / 6
3 Darstellung von MKs mit gerichteten Graphen Darstellung von MKs mit gerichteten Graphen II Ein Zusandsraum S = {A, B, C} und die dazugehörige Übergangsmatrix 0 P = erzeugen den folgenden gerichteten Graphen:. Beispiel: Aus Telephon besetzt / frei mit S = {0, } und ( ) P = 0.6 folgt der folgende gerichtete Graph: A B C Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 9 / 6 Die n-schritt-übergangsmatrix Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 0 / 6 Die Chapman-Kolmogorov-Gleichungen Die Langzeitentwicklung einer Markov-Kette X ist durch die n-schritt- Übergangsmatrix P(m, m + n) mit Elementen p ij (m, m + n) = P(X m+n = j X m = i) bzw. p ij (n) = P(X n = j X 0 = i) gegeben, wobei die letzte Gleichung für homogene Markov-Ketten gilt. In diesem Fall ergibt sich natürlich P(m, m + ) = P und wir schreiben P n = P(m, m + n). Für eine homogene Markov-Kette X gilt: p ij (m, m + n + r) = k p ik (m, m + n)p kj (m + n, m + n + r) () P(m, m + n + r) = P(m, m + n)p(m + n, m + n + r) () P n = P(m, m + n) = P n () Dabei ist () nur () in Matrizenform und () folgt durch Iteration. P n bezeichnet die n-te Potenz von P. Beweis zu () in Vorlesung. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6
4 Fortsetzung des. Beispiels Die Zeit bis zum Zustandswechsel Zwei-Schritt-Übergangsmatrix: ( P = P = 0.6 ) ( ) = Zum Beispiel ist also der Eintrag p () in P gleich p () = P(X n+ = X n = ) ( ) Eine Markov-Kette X mit Übergangsmatrix P sei zu einem Zeitpunkt t im Zustand i S. Dann ist die Dauer bis zum nächsten Zustandswechsel Z i geometrisch verteilt mit Parameter p ii. Vergleiche: Gedächtnislosigkeit der geometrischen Verteilung: P(Z i = n + k Z i > n) = P(Z i = k) = P(X n+ = X n = ) P(X n+ = X n+ = ) + P(X n+ = X n = ) P(X n+ = X n+ = ) = = 0.6 Nützliche Eigenschaft zum Test auf Modellanpassung: Vergleich der beobachteten und theoretischen Dauern bis zum nächsten Zustandswechsel. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 Die Anfangsverteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 4 / 6 Folgerung Schließlich hat jede Markov-Kette auch eine Anfangsverteilung für X 0. Die entsprechende Wahrscheinlichkeitsfunktion bezeichnet man mit dem Zeilenvektor µ (0) mit Elementen µ (0) i = P(X 0 = i). Die (unbedingte) Wahrscheinlichkeitsfunktion von X n fasst man entsprechend in dem Zeilenvektor µ (n) zusammen und es gilt: µ (m+n) = µ (m) P n und daher µ (n) = µ (0) P n Durch µ (0) und P ist also die Entwicklung einer Markov-Kette vollständig bestimmt. Die gemeinsame Wahrscheinlichkeitsverteilung (wichtig für Likelihood-Inferenz!) von X 0,..., X n ist gegeben durch P(X 0 = x 0, X = x,..., X n = x n ) = P(X 0 = x 0 ) = µ (0) x 0 n t= n P(X t = x t X t = x t ) t= p xt,x t Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 5 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 6 / 6
5 Beispiel: Inzucht Beispiel: Genhäufigkeit in Population konstanter Größe N Eine Pflanze mit Genotyp aus S = {aa, ab, bb} wird mit sich selbst gekreuzt. Die Zufallsvariable X n gibt den Genotyp in der n-ten Generation an. Daher: P = P n = ( n+ ( ) n ) ( 0 0 ) n+ n Letztendlich bleiben nur die Genotypen aa und bb übrig, die sich dann deterministisch reproduzieren. X n = i: Anzahl der Individuen einer Population mit bestimmtem Genotyp zum Zeitpunkt n Einfaches Modell: Zu jedem Zeitpunkt stirbt ein zufällig ausgewähltes Mitglied. Das nachrückende Mitglied hat den Genotyp mit Wahrscheinlichkeit i N. Beachte: i(n i) für j = i ± N p ij = i(n i) für j = i N 0 sonst P ist tridiagonal. Formulierung beinhaltet Grenzfälle X n = 0 und X n = N. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 7 / 6 Beispiel: Modelle für Epidemien Verzweigungsprozesse Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 8 / 6 7. Klassifikation von Zuständen und Markov-Ketten X n := Anzahl der Infizierten in einer Generation n S = {0,,...} Idee: Jeder Infizierte erzeugt (unabhängig von den anderen) eine zufällige Anzahl Infizierter in der nächsten Generation mit Erwartungswert λ. Die Anzahl könnte z.b. Poissonverteilt sein. Dann ist X n X n P(λ X n ). Theorem: Für λ < wird die Epidemie mit Wahrscheinlichkeit irgendwann aussterben. Für λ > ist die Wahrscheinlichkeit, dass die Epidemie explodiert, echt größer 0. Ein Zustand i S heißt rekurrent oder auch persistent, falls für die Rekurrenzzeit T i = min{n : X n = i X 0 = i} gilt P(T i < ) = Wenn P(T i < ) < heißt der Zustand transient. Eine Markov-Kette X kehrt also in einen rekurrenten Zustand mit Wahrscheinlichkeit zurück. Ein Zustand i heißt absorbierend, falls dieser nicht mehr verlassen werden kann, also p ii =. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 9 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 0 / 6
6 Graphische Beispiele für Zustandsklassen. Die Rekuzzenzzeit von Zustand A ist T A = : A B 0.6 Graphische Beispiele für Zustandsklassen II. Zustand B ist transient: A B C C Die minimale Anzahl an Schritten bis X von A nach A zurückkehrt ist.. Alle Zustände sind rekurrent/persistent: A B 0.6 Die Rückkehr nach B aus anderen Zuständen ist nicht möglich. 4. Zustand B ist absorbierend: A B C C Die Markov-Kette kehrt mit Wahrscheinlichkeit in alle Zustände zurück. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 Beispiel Die Markov-Kette verlässt den Zustand B nicht mehr. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 Die erwartete Rekurrenzzeit Betrachte den Poisson-Verzweigungsprozess X n X n P(λ X n ) Dann ist der Zustand 0 rekurrent, ja sogar absorbierend, da X diesen Zustand nie verläßt. Alle anderen Zustände sind transient. Man definiert die erwartete Rekurrenzzeit eines Zustands i wie folgt: { µ i = E(T i ) = n nf i(n) falls i rekurrent ist falls i transient ist mit f i (n) = P(X i,..., X n i, X n = i X 0 = i). Ein rekurrenter Zustand i heißt nicht-leer, falls seine erwartete Rekurrenzzeit endlich ist. Ansonsten heißt er leer. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 4 / 6
7 Zusammenhang zu den Übergangswahrscheinlichkeiten Die Periode Ein rekurrenter Zustand i ist genau dann leer, wenn p ii (n) 0 für n Dann gilt sogar p ji (n) 0 für n für alle j S Die Periode eines Zustandes i ist der größte gemeinsame Teiler der Menge {n : p ii (n) > 0} Man nennt den Zustand i periodisch, falls dessen Periode größer eins ist, ansonsten heißt i aperiodisch. Haben alle Zustände einer Markov-Kette Periode, so heißt sie aperiodisch. Ein Zustand i heißt ergodisch, falls er rekurrent, nicht-leer und aperiodisch ist. Sind alle Zustände von X ergodisch, so heißt X ergodisch. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 5 / 6 Beispiel Eine Markov-Kette habe die Zustände S = {A, B, C} und folgende Übergangsmatrix: A B 0 0 P = C Es gilt nun: jeder Zustand hat Periode die Markov-Kette ist nicht aperiodisch Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 6 / 6 Irreduzible Zustände Zustand j heißt erreichbar durch Zustand i, falls p ij (n) > 0 für mindestens ein n N. (Schreibweise: i j) Zwei Zustände i j einer Markov-Kette X kommunizieren miteinander, falls die Zustände gegenseitig erreichbar sind, also falls p ij (n) > 0 und p ji (n ) > 0 für mindestens ein n N 0 bzw. n N 0. (Schreibweise: i j) Ein Zustand i kommuniziert per Definition immer mit sich selbst: i i Die angenommenen Zustände zwischen i und j werden Pfad genannt. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 7 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 8 / 6
8 Irreduzible Zustände II Beispiele Es gilt: Wenn i k und k j, dann auch i j Ist i rekurrent und i j, so ist auch j rekurrent Ist i transient und i j, so ist auch j transient Erreichbarkeit entspricht einer Äquivalenzrelation Es können Äquivalenzklassen gebildet werden Eine Menge C S heißt irreduzibel, falls i j für alle i, j C. Eine Menge C S heißt geschlossen, falls p ij = 0 für alle i C und j C. Eine MK heißt stark verbunden falls i j, also wenn für mindestens ein n N gilt: p ij (n) > 0 i,j. Eine MK ist also irreduzibel, g.d.w. sie stark verbunden ist. Markov-Ketten mit reduziblem Zustandsraum S P = P = Im folgenden Beispiel ist S irreduzibel: P = Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 9 / 6 Beispiele für reduzible Zustandsräume in graphischer Form P : Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 0 / 6 Essentielle/finale Zustände P : A C B Zustand i heißt essentiell/final, falls j j i, also wenn er mit allen andernen Zuständen kommuniziert. Graphisches Beispiel: 0.7 A B C A C B 0. Alle Zunstände sind essentiell, da sie miteinander kommunizieren. Eine irreduzible bzw. stark verbundene MK besteht also aus essentiellen/finalen Zuständen. Zustandsraum S = {A, B, C} kann auf C = {A, B} (rot markiert) reduziert werden, C ist dann irreduzibel. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6
9 Der Zerlegungssatz Der Zustandsraum S einer Markov-Kette X lässt sich zerlegen in eine Menge T mit transienten Zuständen Mengen C k, die irreduzibel und geschlossen sind Ferner gilt folgendes Lemma: S = T C C... Wenn S endlich ist, dann ist mindestens ein Zustand rekurrent und alle rekurrenten Zustände sind nicht-leer. Beispiel Eine Markov-Kette mit Zustandsraum S = {,,, 4, 5, 6} habe die Übergangsmatrix Man bestimme: P = die Periode jedes Zustands die Zerlegung des Zustandsraumes transiente Zustände ergodische Zustände Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 7. Die stationäre Verteilung und das Grenzwerttheorem Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 4 / 6 Interpretation der stationären Verteilung Eine Wahrscheinlichkeitsverteilung π (Zeilenvektor) mit Einträgen (π j : j S) heißt stationäre Verteilung einer Markov-Kette X mit Übergangsmatrix P, falls gilt: Hat die Markov-Kette X die Verteilung π zu einem gewissen Zeitpunkt n, dann auch im nächsten Zeitpunkt n + und sogar in allen nachfolgenden Zeitpunkten i = n +, n +,... Betrachte z.b. i = n + : π j = i π i p ij π P = (πp)p = πp = π oder in Matrixnotation: π = π P Oft wählt man für die Anfangsverteilung µ 0 die stationäre Verteilung, d.h. µ 0 = π. Im Folgenden betrachten wir ausschließlich irreduzible Markov-Ketten, d.h. Markov-Ketten mit irreduziblem Zustandsraum S. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 5 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 6 / 6
10 Satz über die stationäre Verteilung Bestimmung der stationären Verteilung bei S = Eine irreduzible Markov-Ketten hat eine stationäre Verteilung π mit π i > 0 i. Dann ist π eindeutig und gegeben durch π i = /µ i wobei µ i die erwartete Rekurrenzzeit des Zustands i ist. Unter diesen Voraussetzungen gilt bei endlichem Zustandsraum: π = (I P + U) wobei I die Einheitsmatrix und ein Zeilenvektor mit Einsen ist und U nur Elemente gleich eins hat. Stationäre Verteilung und Übergangsmatrix haben bei Markov-Ketten mit zwei Zuständen folgende allgemeine Formen: ( ) p p π = (π, π ) P = p p Die erste Spalte der Gleichung π = π P ist π = π π p + p π p π = p p + p und π = Die zweite Spalte ergibt die gleiche Lösung. p p + p Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 7 / 6 Beispiel Wie lautet die stationäre Verteilung für die Markov-Kette mit folgender Übergangsmatrix: ( ) P = 0.6 Mit der eben bestimmten Formel erhält man: ( π = (π, π ) =, 0. ) = (0.8, 0.) Die erwarteten Rekurrenzzeiten sind demnach µ = 5/4 für Zustand und µ = 5 für Zustand. Wie verhält es sich bei 0 0 P = 0 0? 0 0 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 8 / 6 Reversible Markov-Ketten Sei X = (X 0,..., X N ) eine reguläre Markov-Kette mit Übergangsmatrix P und stationärer Verteilung π, die X auch zu jedem Zeitpunkt n = 0,..., N besitze. Definiere nun Y = (X N,..., X 0 ) mit Y n = X N n. Dann ist Y auch eine Markov-Kette mit Übergangswahrscheinlichkeiten P(Y n+ = j Y n = i) = (π j /π i )p ji Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 9 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6
11 Reversible Markov-Ketten II Beispiele für reversible Markov-Ketten Man sagt nun X ist reversibel, falls X und Y identische Übergangswahrscheinlichkeiten haben, d.h. falls für alle i, j S gilt. π i p ij = π j p ji Alle irreduziblen Markov-Ketten mit zwei Zuständen sind reversibel (Beweis in Vorlesung). Markov-Ketten mit tri-diagonaler Übergangsmatrix P sind reversibel, z.b. der random walk auf endlichem Zustandsraum S = {0,,..., b} der Prozess aus Beispiel (Stichwort: Genhäufigkeit) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 4 / 6 Satz über die stationäre Verteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 4 / 6 Das Grenzwerttheorem Sei X eine irreduzible Markov-Kette mit Übergangsmatrix P. Ferner gebe es eine Verteilung π mit π i p ij = π j p ji für alle i, j S. Dann ist π die stationäre Verteilung und X ist bzgl. π reversibel. Beweis: π i p ij = π j p ji = π j p ji = π j i i i Eine irreduzible und aperiodische Markov-Kette konvergiert gegen ihre stationäre Verteilung π bzw. p ij (n) π j = µ j P n = P n für n und alle i π π... π Daher gilt µ (0) P n π für alle µ (0). Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 4 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6
12 Ein Gegenbeispiel 7.4 Inferenz für Markov-Ketten Eine Markov-Kette X mit Übergangsmatrix 0 0 P = hat zwar die stationäre Verteilung π = (/, /, /), konvergiert aber nicht gegen diese, da die Kette periodisch ist. Schätzung der Übergangswahrscheinlichkeiten Test auf Modellanpassung Allgemeinere Markov-Modelle: Markov-Ketten höherer Ordnung Hidden-Markov Modelle Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6 Schätzung der Übergangswahrscheinlichkeiten Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6 ML-Schätzung der Übergangswahrscheinlichkeiten Ziel: Schätzung der Übergangswahrscheinlichkeiten basierend auf einer (oder mehrerer) Realisationen einer Markov-Kette X. Es erscheint plausibel, die Übergangswahrscheinlichkeiten p ij durch die entsprechenden Übergangshäufigkeiten ˆp ij = n ij n i zu schätzen, wobei n ij die Anzahl der beobachteten Übergänge von i nach j ist und n i = j n ij. Im Folgenden zeigen wir, dass dies auch die ML-Schätzer sind. Grundlage: Realisation X 0 = x 0, X = x,..., X N = x N einer Markov-Kette X. Die Likelihood ist somit (vergleiche Folie S. ) L(P) = µ (0) x 0 n t= p xt,x t = µ (0) x 0 wobei n ij die Anzahl der beobachteten Übergänge von i nach j ist. Die Log-Likelihood ist dann l(p) = log(µ (0) x 0 ) + i,j i,j n ij log(p ij ) p n ij ij Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6
13 ML-Schätzung der Übergangswahrscheinlichkeiten II ML-Schätzung der Übergangswahrscheinlichkeiten III Problem: Es sind mehrerer Parameter in θ = P durch Maximierung der Log-Likelihood l(p) zu schätzen, wobei noch die Restriktion p ij = für alle i zu berücksichtigen ist. Lagrangesche Multiplikatorenmethode: Maximiere l (P) = log(µ (0) x 0 ) + i,j j n ij log(p ij ) i λ i j p ij Die partiellen Ableitungen nach p ij sind somit dl (P) p ij = n ij p ij λ i Nullsetzen liefert n ij = λ i p ij. Durch Summation über j folgt und schließlich λ i = j n ij = n i ˆp ij = n ij n i. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6 Beispiel: Regen bei den Snoqualmie Wasserfällen Über eine Zeitreihe von N = 49 Tagen wurde an den Snoqualmie Wasserfällen registriert, ob es am jeweiligen Tag geregnet hat oder nicht. Erstellung eines Markov-Modells: Der Zustandsraum ist S = {0, } mit } 0 : Kein Regen am Tag t =,..., N : Regen Es ergibt sich n 0 = 69 (Tage ohne Regen) und n = 690. Übergangsmatrix mit relativen Übergangshäufigkeiten (ML-Schätzer): ˆP = ( Frage: Passt sich das Markov-Modell den Daten gut an? Betrachtung der Verweildauern (Wartezeiten bis zum nächsten Zustandswechsel) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 5 / 6 ) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6 Verweildauern bei den Snoqualmie Wasserfällen Haeufigkeit Verweildauer im Zustand 0 (kein Regen) Zeit bis zum Zustandswechsel Haeufigkeit Verweildauer im Zustand (Regen) Zeit bis zum Zustandswechsel Theoretische (schwarz) und empirische (rot) Verweildauern in den beiden Zuständen. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 5 / 6
14 Markov-Ketten höherer Ordnung Strukturelle Nullen Zum Beispiel Markov-Kette zweiter Ordnung: Die Regenwahrscheinlichkeit hängt nun von den letzten zwei Tagen ab. Die Übergangswahrscheinlichkeiten sind P(X n = s X n = x n, X n = x n ). Diese Markov-Kette kann auch als Markov-Kette erster Ordnung dargestellt werden, indem man den Zustandsraum zu S = {00, 0, 0, } erweitert, wobei der erste Eintrag x n und der zweite Eintrag x n darstellt. In der Übergangsmatrix ergeben sich dann strukturelle Nullen. Im Beispiel ergibt sich: P = da z.b. auf X n = 0 und X n = 0 nicht X n = und X n = 0 folgen kann etc. die Anzahl der Spalten kann reduziert werden Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 5 / 6 Regen bei den Snoqualmie Wasserfällen Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / Hidden Markov Modelle Mit reduzierten Spalten ergibt sich im Beispiel ˆP = Alternativer Ansatz: Hidden Markov-Modell Mischverteilungsmodell mit zusätzlichem Zeitreihencharakter Anwendungen in verschiedenen Bereichen: Ökonometrie, Genetik (DNA-Sequenzierung, Stammbaumanalyse), Spracherkennung,... Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6
15 Das Modell Beispiel: Ein verrauschtes binäres Signal Latente Parameter X = (X,..., X N ) folgen einer (homogenen) Markov-Kette mit diskretem Zustandsraum S: Übergangsmatrix P mit p ij = P(X t = j X t = i) Anfangsverteilung π mit π i = P(X 0 = i) (oft impliziert durch π = πp) Die Beobachtungen y t x t = s sind bedingt unabhängig aus einer Verteilung mit Wahrscheinlichkeitsfunktion f s (y t ) mit Parametern θ s. Beispielsweise: diskret mit Missklassifizierungswahrscheinlichkeiten p s Poisson mit Raten λ s Daten: y = ( ) S = N = 0 P = ( ) π = ( f (y t = x t = ) = 0.8 f (y t = x t = ) = 0. f (y t = x t = ) = 0. f (y t = x t = ) = 0.8 Ziel der statistischen Inferenz: Restauration der Sequenz X ) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6 Inferenz bei festen Hyperparametern Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6 Posteriori-Modus Schätzung Hyperparameter: P, π, θ fest Ziel: Schätzung der latenten Zustände x = (x,..., x N ) Posteriori-Verteilung f (x y) = f (x, y)/f (y) mit: f (x y) f (x, y) = π x N p xt x t t= } {{ } f (x) N f xt (y t ) t= } {{ } f (y x) Viterbi-Algorithmus [Viterbi (967)] Rekursiver Algorithmus zur Maximierung von f (x, y) bzgl. x liefert (einen) MAP-(posteriori Modus)-Schätzer von f (x y) f (x, y) Algorithmus ist numerisch effizient: O( S N) Simulated annealing [Kirkpatrick, Gelatt & Vecchi (98)] Problem: Es gibt S N (!) unterschiedliche Sequenzen x. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6
16 Rekonstruktion des verrauschten binären Signals Inferenz bei unbekannten Hyperparametern Das empfangene Signal war y = ( ) Daraus kann man Schätzer für das zugrundeliegende Signal x berechnen: Schätzer von x post. Wkeit P(x y) ˆx MAP = ( ) ˆx MAP = ( ) ˆx MPM = ( ) 0.05 y = ( ) Hierbei bezeichnet ˆx MPM den marginalen Posteriori Modus, d.h. jedes x i, i =,..., 0, in ˆx MPM hat marginale Posteriori-Wahrscheinlichkeit P(x i y) >. Seinen nun bestimmte Hyperparameter θ unbekannt, wie beispielsweise die Übergangsmatrix P oder die Verteilung f (y i x i ). Klassische Likelihood-Ansätze maximieren die (marginale) Likelihood L(θ) = f (y θ) bezüglich θ, z.b. mit dem Baum-Welch-Algorithmus, der einen Spezialfall des EM-Algorithmus darstellt. Problem: Berechnung von f (y θ) = x f (x, y θ) Bayesianische Ansätze verwenden zusätzliche priori-verteilungen f (θ) und simulieren aus der posteriori-verteilung f (x, θ y) f (x, y θ) f (θ) mit Markov-Ketten Monte Carlo (MCMC) Verfahren. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 6 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 6 / 6 Beispiel zur Likelihood-Inferenz Seinen nun die Einträge der Übergangsmatrix P unbekannt. Die marginale Likelihood L(p, p ) der Diagonalelemente p und p ist in folgender Graphik dargestellt. Die ML-Schätzungen sind ˆp = 0.85 und ˆp = p e 07 8e 07 e 06.e 06 e 07 4e 07 4e 07.4e 06 e p Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 6 / 6
16.3 Rekurrente und transiente Zustände
16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht
MehrEinführung in die Theorie der Markov-Ketten. Jens Schomaker
Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch
MehrEinführung in Markoff-Ketten
Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die
Mehr1 A dp = P(A B). (1.3)
Markov-etten Seminar Stochastik vom 4-500 Version Oktober 00 Markus Penz Vorbemerkungen zu bedingten Wahrscheinlichkeiten Sei (Ω, F,P) ein Wahrscheinlichkeitsraum und X : Ω R eine F-messbare sowie integrierbare
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
Mehr3. Prozesse mit kontinuierlicher Zeit
3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess
MehrKapitel 4: Irreduzible und aperiodische Markov Ketten 1
Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme
MehrMarkov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes
Markov-Prozesse Franziskus Diwo Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes 8.0.20 Gliederung Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-,
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die
MehrArbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute
3.4 PageRank Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute Wichtigkeit von Webseiten; nicht Relevanz bezüglich Benutzeranfrage. Anfrageunabhängiges Ranking. Ausgangspunkt: Eingangsgrad.
MehrVorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten
Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a
MehrDynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten
DynaTraffic Modelle und mathematische Prognosen Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten Worum geht es? Modelle von Verkehrssituationen Graphen: Kanten, Knoten Matrixdarstellung
MehrSimulationsmethoden in der Bayes-Statistik
Simulationsmethoden in der Bayes-Statistik Hansruedi Künsch Seminar für Statistik, ETH Zürich 6. Juni 2012 Inhalt Warum Simulation? Modellspezifikation Markovketten Monte Carlo Simulation im Raum der Sprungfunktionen
MehrDie Kopplung von Markovketten und die Irrfahrt auf dem Torus
Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Verena Monschang Vortrag 20.05.20 Dieser Seminarvortrag thematisiert in erster Linie die Kopplung von Markovketten. Zu deren besseren Verständnis
MehrDie Abbildung zeigt die Kette aus dem "
½ Ô ½ 0 1 2 Õ Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem " gamblers ruin problem\ fur m = 2. Man sieht sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0;
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrStochastik und Statistik
Stochastik und Statistik Vorlesung Sommersemester 2016 Dienstag 12 14 Uhr, M114 (HGB) Donnerstag 12 14 Uhr, A021 (HGB) Vorlesung: Fabian Scheipl, Bernd Bischl Übung: Giuseppe Casalicchio Kontakt:
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrStochastik und Statistik
Übungen Stochastik und Statistik Vorlesung Sommersemester 2016 Dienstag 12 14 Uhr, M114 (HGB) Donnerstag 12 14 Uhr, A021 (HGB) Vorlesung: Fabian Scheipl, Bernd Bischl Übung: Giuseppe Casalicchio Kontakt:
MehrÜbungsaufgaben Lösungen
Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij
MehrStatistik für Ingenieure Vorlesung 2
Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen
MehrVorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:
MehrStatistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
MehrKapitel 3 Markov-Ketten
Kapitel 3 Markov-Ketten 3.1 Grundlegende Eigenschaften, Beispiele 3.1 Grundlegende Eigenschaften, Beispiele Diskreter Parameterraum (Zeit) T = N 0. Zustandsraum S meist diskret (3.1-3.6), manchmal auch
MehrLösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die
MehrProseminarvortrag. Markov-Ketten in der Biologie (Anwendungen)
Proseminarvortrag Markov-Ketten in der Biologie (Anwendungen) von Peter Drössler 20.01.2010 2 Markov-Ketten in der Biologie (Peter Drössler, KIT 2010) Inhalt 1. Das Wright-Fisher Modell... 3 1.1. Notwendige
Mehr3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
MehrLANGZEITVERHALTEN VON MARKOW-KETTEN
LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte
MehrEinführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1
Einführung in die Bayes-Statistik Helga Wagner Ludwig-Maximilians-Universität München WS 2010/11 Helga Wagner Bayes Statistik WS 2010/11 1 Organisatorisches Termine: Montag: 16.00-18.00 AU115 Dienstag:
MehrSatz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die
Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Rückwärtsgleichung P (t) = QP (t), P (0) = E eine minimale nicht negative Lösung (P (t) : t 0). Die Lösung bildet eine Matrix Halbgruppe, d.h. P (s)p
Mehrdie wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen
Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung
Mehr4 Statistik der Extremwertverteilungen
In diesem Kapitel beschäftigen wir uns mit statistischen Anwendungen der Extremwerttheorie. Wir werden zwei verschiedene Zugänge zur Modellierung von Extremwerten betrachten. Der erste Zugang basiert auf
MehrLANGZEITVERHALTEN VON MARKOW-KETTEN
LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte
Mehr3. Das Reinforcement Lernproblem
3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität
MehrKlausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK
Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:
MehrZeitreihenanalyse. Seminar Finanzmathematik. Andreas Dienst SS Einleitung - Begrüßung - Motivation - Inhaltsangabe. 2.
Seminar Finanzmathematik - Begrüßung - Motivation - Inhaltsangabe 3. Zusammen - fassung Zeitreihenanalyse Andreas Dienst SS 2006 Zeitreihen: Definition und Motivation - Begrüßung - Motivation - Inhaltsangabe
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrGrundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt
Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrKlausur zur Vorlesung,,Algorithmische Mathematik II
Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood
MehrDefinition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion
Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere
MehrDas Bayes'sche Prinzip
Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrKlausur Stochastik und Statistik 31. Juli 2012
Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
MehrLösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6
1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung
MehrVertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen
MehrEuklidische und unitäre Vektorräume
Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein
Mehr2 Aufgaben aus [Teschl, Band 2]
20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:
MehrExponentialverteilung
Exponentialverteilung Dauer von kontinuierlichen Vorgängen (Wartezeiten; Funktionszeiten technischer Geräte) Grenzübergang von der geometrischen Verteilung Pro Zeiteinheit sei die Eintrittswahrscheinlichkeit
Mehr2. Repräsentationen von Graphen in Computern
2. Repräsentationen von Graphen in Computern Kapitelinhalt 2. Repräsentationen von Graphen in Computern Matrizen- und Listendarstellung von Graphen Berechnung der Anzahl der verschiedenen Kantenzüge zwischen
MehrGewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h
5. Die partielle Autokorrelationsfunktion 5.1 Definition, Berechnung, Schätzung Bisher: Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h ρ X (h) = Corr(X t, X
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrStochastische Prozesse
Gerold Alsmeyer Stochastische Prozesse Band 1: Diskrete Markov-Ketten und Martingale 22. Mai 2012 Skriptum Inhaltsverzeichnis Teil I Markov-Ketten auf abzählbaren Zustandsräumen 1 Markov-Ketten: Theoretische
MehrStatistik II SoSe 2006 immer von 8:00-9:30 Uhr
Statistik II SoSe 2006 immer von 8:00-9:30 Uhr Was machen wir in der Vorlesung? Testen und Lineares Modell Was machen wir zu Beginn: Wir wiederholen und vertiefen einige Teile aus der Statistik I: Konvergenzarten
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 10. November 2010 1 Bedingte Wahrscheinlichkeit Satz von der totalen Wahrscheinlichkeit Bayessche Formel 2 Grundprinzipien
MehrInstitut für Stochastik, SoSe K L A U S U R , 13:
Institut für Stochastik, SoSe 2014 Mathematische Statistik Paravicini/Heusel 1. K L A U S U R 12.7.2014, 13:00-16.00 Name: Geburtsdatum: Vorname: Matrikelnummer: Übungsgruppe bei: Studiengang & angestrebter
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
Mehr15. Elementare Graphalgorithmen
Graphen sind eine der wichtigste Modellierungskonzepte der Informatik Graphalgorithmen bilden die Grundlage vieler Algorithmen in der Praxis Zunächst kurze Wiederholung von Graphen. Dann Darstellungen
MehrExponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models
Exponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models Korbinian Schwinger 3. November 003 Inhaltsverzeichnis Inhaltsverzeichnis Exponential Family 3. Definition...............................
MehrKapitel 6 Martingale
Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse
MehrClusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrProgramm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung
Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus
MehrÜbung zur Vorlesung Statistik I WS Übungsblatt 6
Übung zur Vorlesung Statistik I WS 2012-2013 Übungsblatt 6 26. November 2012 Aufgabe 17 (4 Punkte): Sei X B(n, p) eine binomial verteilte Zufallsvariable, die ein Zufallseperiment mit n unabhängigen Wiederholungen
MehrWerner Sandmann: Modellierung und Analyse 4 1. Kapitel 4. Markovketten
Werner Sandmann: Modellierung und Analyse 4 1 Kapitel 4 Markovketten Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.1 Grundlagen 4 2 Abschnitt 4.1 Grundlagen Werner Sandmann: Modellierung
MehrBACHELORARBEIT. Markov-Ketten und ihre Greensche Funktion. Jasmin Riegler. Wien, Jänner 2013
BACHELORARBEIT Markov-Ketten und ihre Greensche Funktion Jasmin Riegler Wien, Jänner 203 Studienkennzahl: A 033 62 Studienrichtung: Mathematik Betreuer: Privatdoz. Dr. Mag. Bernhard Krön Inhaltsverzeichnis
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
MehrExact Sampling: Der Propp-Wilson-Algorithmus
Exact Sampling: Der Propp-Wilson-Algorithmus Markus Gerstel Proseminar: Markovketten in der Algorithmik Technische Universität München gerstel@in.tum.de Zusammenfassung Der Propp-Wilson-Algorithmus liefert
MehrAlgorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck
Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach
Mehr8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
Mehr2.1 Importance sampling: Metropolis-Algorithmus
Kapitel 2 Simulationstechniken 2.1 Importance sampling: Metropolis-Algorithmus Eine zentrale Fragestellung in der statistischen Physik ist die Bestimmung von Erwartungswerten einer Observablen O in einem
MehrETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
MehrGrundgesamtheit und Stichprobe
Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 11. November 2010 1 Erwartungswert und Varianz Erwartungswert Varianz und Streuung Rechenregeln Binomialverteilung
MehrSimulation von Zufallsvariablen und Punktprozessen
Simulation von Zufallsvariablen und Punktprozessen 09.11.2009 Inhaltsverzeichnis 1 Einleitung 2 Pseudozufallszahlen 3 Punktprozesse Zufallszahlen Definition (Duden): Eine Zufallszahl ist eine Zahl, die
Mehr5 Interpolation und Approximation
5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)
MehrAllgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)
Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich
MehrP (X = 2) = 1/36, P (X = 3) = 2/36,...
2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel
MehrInhalt. I. Deskriptive Statistik Einführung Die Grundgesamtheit Merkmale und Verteilungen Tabellen und Grafiken...
I. Deskriptive Statistik 1 1. Einführung 3 1.1. Die Grundgesamtheit......................... 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................ 10
MehrEigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
Mehrbekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR
LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine
MehrBayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp
Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität Volker Tresp 1 Einführung Bisher haben wir uns fast ausschließich mit überwachtem Lernen beschäftigt: Ziel war es, eine (oder mehr als eine)
Mehr3. Kombinatorik und Wahrscheinlichkeit
3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:
MehrWie sch atzt man effizient?
Vorlesung 8a Wie schätzt man Wie schätzt man effizient? Die Maximum-Likelihood Methode Die Maximum-Likelihood Methode BEISPIEL 1 BEISPIEL 1 Panther A BEISPIEL 1 Panther A Schätzung der deutschen Panzerproduktion
MehrI. Deskriptive Statistik 1
I. Deskriptive Statistik 1 1. Einführung 3 1.1. Grundgesamtheit und Stichprobe.................. 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
MehrDie Maximum-Likelihood-Methode
Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
MehrJohannes-Kepler-Gymnasium, Chemnitz John-Lennon-Oberschule, Berlin Friedrich-Schiller-Gymnasium, Königs Wusterhausen
Glückssträhnen...?! Teilnehmer: Aptin Haerian Max Irmscher Markus Johl Felix Montenegro Hoang Lam Nguyen Anne Christin Rettig Herder-Oberschule, Berlin Johannes-Kepler-Gymnasium, Chemnitz John-Lennon-Oberschule,
MehrIsomorphie von Bäumen
Isomorphie von Bäumen Alexandra Weinberger 23. Dezember 2011 Inhaltsverzeichnis 1 Einige Grundlagen und Definitionen 2 1.1 Bäume................................. 3 1.2 Isomorphie..............................
MehrBayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen
MehrKapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben
Kapitel 16 Aufgaben Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2 Bekanntlich gilt im Allgemeinen
Mehr