Bedingt unabhängige Zufallsvariablen

Größe: px
Ab Seite anzeigen:

Download "Bedingt unabhängige Zufallsvariablen"

Transkript

1 7. Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Benannt nach Andrei A. Markov [856-9] Einige Stichworte: Markov-Ketten Definition Eigenschaften Konvergenz Hidden Markov Modelle Sei X = (X 0, X, X,...) eine Folge von diskreten Zufallsvariablen, die alle Ausprägungen in einer endlichen bzw. abzählbaren Menge S haben. S heißt der Zustandsraum und s S ein Zustand. X heißt Markov-Kette (MK), falls P(X n = s X 0 = x 0, X = x,..., X n = x n ) = P(X n = s X n = x n ) Motivation und Inferenz Baum-Welch-Algorithmus Viterbi-Algorithmus für alle n und alle s, x 0, x,..., x n S. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 Interpretation Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 Bedingt unabhängige Zufallsvariablen Bedingt auf die gesamte Vergangenheit X 0, X,..., X n des Prozesses X hängt X n nur vom letzten Wert X n ab. Darstellung mit Pfeilen in einem graphischen Modell: Anders ausgedrückt: X 0 X X... X n X n Bedingt auf die Gegenwart (X n ) ist die Zukunft des Prozesses (X n, X n+,...) unabhängig von seiner Vergangenheit (X 0, X,..., X n ). Begriff der bedingten Unabhängigkeit Zwei diskrete Zufallsvariablen X und Y heißen bedingt unabhängig gegeben Z, wenn für die entsprechend definierten Wahrscheinlichkeitsfunktionen gilt: für alle x, y und z. f X,Y Z (x, y z) = f X Z (x z) f Y Z (y z) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 4 / 6

2 Übergangswahrscheinlichkeiten Die Übergangsmatrix Die Entwicklung einer Markov-Kette X ist gekennzeichnet durch die (Ein-Schritt) Übergangswahrscheinlichkeiten P(X n+ = j X n = i) für alle i, j S. Man nennt eine Markov-Kette homogen, wenn diese nicht von n abhängen und definiert p ij = P(X n+ = j X n = i) = P(X = j X 0 = i) Die Werte p ij werden in einer S S -Matrix P zusammengefasst, der sogenannten Übergangsmatrix. P beschreibt also die Kurzzeitentwicklung einer homogenen Markov-Kette X. P ist eine stochastische Matrix, d.h. sie hat folgende Eigenschaften: p ij 0 für alle i, j S j p ij = für alle i S Zeilensummen gleich eins für alle n und alle i, j S. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 5 / 6 Beispiele Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 6 / 6 Gerichtete Graphen.Beispiel:.Beispiel: Telephon besetzt / frei mit S = {0, } und ( ) P = 0.6 Der Zustandsraum umfasst die vier Basen der DNA (Adenin, Cytosin, Guanin, Thymin): S = {A, C, G, T }. Die geschätzte Übergangsmatrix beim Ablaufen der DNA ist P = Durbin et al. (998) Biological sequence analysis, p. 50 Der von der Markov-Kette X mit Zustandsraum S und Übergansmatrix P erzeugte gerichtete Graph G besteht aus S Knoten und maximal S Kanten. Jeder Knoten bezieht sich auf einen Zustand und jede Kante (i, j) auf p ij für p ij > 0. Der Graph beschreibt also die Struktur aller direkten Verbindungen von Zustand i zu Zustand j i,j. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 7 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 8 / 6

3 Darstellung von MKs mit gerichteten Graphen Darstellung von MKs mit gerichteten Graphen II Ein Zusandsraum S = {A, B, C} und die dazugehörige Übergangsmatrix 0 P = erzeugen den folgenden gerichteten Graphen:. Beispiel: Aus Telephon besetzt / frei mit S = {0, } und ( ) P = 0.6 folgt der folgende gerichtete Graph: A B C Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 9 / 6 Die n-schritt-übergangsmatrix Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 0 / 6 Die Chapman-Kolmogorov-Gleichungen Die Langzeitentwicklung einer Markov-Kette X ist durch die n-schritt- Übergangsmatrix P(m, m + n) mit Elementen p ij (m, m + n) = P(X m+n = j X m = i) bzw. p ij (n) = P(X n = j X 0 = i) gegeben, wobei die letzte Gleichung für homogene Markov-Ketten gilt. In diesem Fall ergibt sich natürlich P(m, m + ) = P und wir schreiben P n = P(m, m + n). Für eine homogene Markov-Kette X gilt: p ij (m, m + n + r) = k p ik (m, m + n)p kj (m + n, m + n + r) () P(m, m + n + r) = P(m, m + n)p(m + n, m + n + r) () P n = P(m, m + n) = P n () Dabei ist () nur () in Matrizenform und () folgt durch Iteration. P n bezeichnet die n-te Potenz von P. Beweis zu () in Vorlesung. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6

4 Fortsetzung des. Beispiels Die Zeit bis zum Zustandswechsel Zwei-Schritt-Übergangsmatrix: ( P = P = 0.6 ) ( ) = Zum Beispiel ist also der Eintrag p () in P gleich p () = P(X n+ = X n = ) ( ) Eine Markov-Kette X mit Übergangsmatrix P sei zu einem Zeitpunkt t im Zustand i S. Dann ist die Dauer bis zum nächsten Zustandswechsel Z i geometrisch verteilt mit Parameter p ii. Vergleiche: Gedächtnislosigkeit der geometrischen Verteilung: P(Z i = n + k Z i > n) = P(Z i = k) = P(X n+ = X n = ) P(X n+ = X n+ = ) + P(X n+ = X n = ) P(X n+ = X n+ = ) = = 0.6 Nützliche Eigenschaft zum Test auf Modellanpassung: Vergleich der beobachteten und theoretischen Dauern bis zum nächsten Zustandswechsel. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 Die Anfangsverteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 4 / 6 Folgerung Schließlich hat jede Markov-Kette auch eine Anfangsverteilung für X 0. Die entsprechende Wahrscheinlichkeitsfunktion bezeichnet man mit dem Zeilenvektor µ (0) mit Elementen µ (0) i = P(X 0 = i). Die (unbedingte) Wahrscheinlichkeitsfunktion von X n fasst man entsprechend in dem Zeilenvektor µ (n) zusammen und es gilt: µ (m+n) = µ (m) P n und daher µ (n) = µ (0) P n Durch µ (0) und P ist also die Entwicklung einer Markov-Kette vollständig bestimmt. Die gemeinsame Wahrscheinlichkeitsverteilung (wichtig für Likelihood-Inferenz!) von X 0,..., X n ist gegeben durch P(X 0 = x 0, X = x,..., X n = x n ) = P(X 0 = x 0 ) = µ (0) x 0 n t= n P(X t = x t X t = x t ) t= p xt,x t Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 5 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 6 / 6

5 Beispiel: Inzucht Beispiel: Genhäufigkeit in Population konstanter Größe N Eine Pflanze mit Genotyp aus S = {aa, ab, bb} wird mit sich selbst gekreuzt. Die Zufallsvariable X n gibt den Genotyp in der n-ten Generation an. Daher: P = P n = ( n+ ( ) n ) ( 0 0 ) n+ n Letztendlich bleiben nur die Genotypen aa und bb übrig, die sich dann deterministisch reproduzieren. X n = i: Anzahl der Individuen einer Population mit bestimmtem Genotyp zum Zeitpunkt n Einfaches Modell: Zu jedem Zeitpunkt stirbt ein zufällig ausgewähltes Mitglied. Das nachrückende Mitglied hat den Genotyp mit Wahrscheinlichkeit i N. Beachte: i(n i) für j = i ± N p ij = i(n i) für j = i N 0 sonst P ist tridiagonal. Formulierung beinhaltet Grenzfälle X n = 0 und X n = N. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 7 / 6 Beispiel: Modelle für Epidemien Verzweigungsprozesse Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 8 / 6 7. Klassifikation von Zuständen und Markov-Ketten X n := Anzahl der Infizierten in einer Generation n S = {0,,...} Idee: Jeder Infizierte erzeugt (unabhängig von den anderen) eine zufällige Anzahl Infizierter in der nächsten Generation mit Erwartungswert λ. Die Anzahl könnte z.b. Poissonverteilt sein. Dann ist X n X n P(λ X n ). Theorem: Für λ < wird die Epidemie mit Wahrscheinlichkeit irgendwann aussterben. Für λ > ist die Wahrscheinlichkeit, dass die Epidemie explodiert, echt größer 0. Ein Zustand i S heißt rekurrent oder auch persistent, falls für die Rekurrenzzeit T i = min{n : X n = i X 0 = i} gilt P(T i < ) = Wenn P(T i < ) < heißt der Zustand transient. Eine Markov-Kette X kehrt also in einen rekurrenten Zustand mit Wahrscheinlichkeit zurück. Ein Zustand i heißt absorbierend, falls dieser nicht mehr verlassen werden kann, also p ii =. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 9 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 0 / 6

6 Graphische Beispiele für Zustandsklassen. Die Rekuzzenzzeit von Zustand A ist T A = : A B 0.6 Graphische Beispiele für Zustandsklassen II. Zustand B ist transient: A B C C Die minimale Anzahl an Schritten bis X von A nach A zurückkehrt ist.. Alle Zustände sind rekurrent/persistent: A B 0.6 Die Rückkehr nach B aus anderen Zuständen ist nicht möglich. 4. Zustand B ist absorbierend: A B C C Die Markov-Kette kehrt mit Wahrscheinlichkeit in alle Zustände zurück. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 Beispiel Die Markov-Kette verlässt den Zustand B nicht mehr. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 Die erwartete Rekurrenzzeit Betrachte den Poisson-Verzweigungsprozess X n X n P(λ X n ) Dann ist der Zustand 0 rekurrent, ja sogar absorbierend, da X diesen Zustand nie verläßt. Alle anderen Zustände sind transient. Man definiert die erwartete Rekurrenzzeit eines Zustands i wie folgt: { µ i = E(T i ) = n nf i(n) falls i rekurrent ist falls i transient ist mit f i (n) = P(X i,..., X n i, X n = i X 0 = i). Ein rekurrenter Zustand i heißt nicht-leer, falls seine erwartete Rekurrenzzeit endlich ist. Ansonsten heißt er leer. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 4 / 6

7 Zusammenhang zu den Übergangswahrscheinlichkeiten Die Periode Ein rekurrenter Zustand i ist genau dann leer, wenn p ii (n) 0 für n Dann gilt sogar p ji (n) 0 für n für alle j S Die Periode eines Zustandes i ist der größte gemeinsame Teiler der Menge {n : p ii (n) > 0} Man nennt den Zustand i periodisch, falls dessen Periode größer eins ist, ansonsten heißt i aperiodisch. Haben alle Zustände einer Markov-Kette Periode, so heißt sie aperiodisch. Ein Zustand i heißt ergodisch, falls er rekurrent, nicht-leer und aperiodisch ist. Sind alle Zustände von X ergodisch, so heißt X ergodisch. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 5 / 6 Beispiel Eine Markov-Kette habe die Zustände S = {A, B, C} und folgende Übergangsmatrix: A B 0 0 P = C Es gilt nun: jeder Zustand hat Periode die Markov-Kette ist nicht aperiodisch Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 6 / 6 Irreduzible Zustände Zustand j heißt erreichbar durch Zustand i, falls p ij (n) > 0 für mindestens ein n N. (Schreibweise: i j) Zwei Zustände i j einer Markov-Kette X kommunizieren miteinander, falls die Zustände gegenseitig erreichbar sind, also falls p ij (n) > 0 und p ji (n ) > 0 für mindestens ein n N 0 bzw. n N 0. (Schreibweise: i j) Ein Zustand i kommuniziert per Definition immer mit sich selbst: i i Die angenommenen Zustände zwischen i und j werden Pfad genannt. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 7 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 8 / 6

8 Irreduzible Zustände II Beispiele Es gilt: Wenn i k und k j, dann auch i j Ist i rekurrent und i j, so ist auch j rekurrent Ist i transient und i j, so ist auch j transient Erreichbarkeit entspricht einer Äquivalenzrelation Es können Äquivalenzklassen gebildet werden Eine Menge C S heißt irreduzibel, falls i j für alle i, j C. Eine Menge C S heißt geschlossen, falls p ij = 0 für alle i C und j C. Eine MK heißt stark verbunden falls i j, also wenn für mindestens ein n N gilt: p ij (n) > 0 i,j. Eine MK ist also irreduzibel, g.d.w. sie stark verbunden ist. Markov-Ketten mit reduziblem Zustandsraum S P = P = Im folgenden Beispiel ist S irreduzibel: P = Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 9 / 6 Beispiele für reduzible Zustandsräume in graphischer Form P : Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 0 / 6 Essentielle/finale Zustände P : A C B Zustand i heißt essentiell/final, falls j j i, also wenn er mit allen andernen Zuständen kommuniziert. Graphisches Beispiel: 0.7 A B C A C B 0. Alle Zunstände sind essentiell, da sie miteinander kommunizieren. Eine irreduzible bzw. stark verbundene MK besteht also aus essentiellen/finalen Zuständen. Zustandsraum S = {A, B, C} kann auf C = {A, B} (rot markiert) reduziert werden, C ist dann irreduzibel. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6

9 Der Zerlegungssatz Der Zustandsraum S einer Markov-Kette X lässt sich zerlegen in eine Menge T mit transienten Zuständen Mengen C k, die irreduzibel und geschlossen sind Ferner gilt folgendes Lemma: S = T C C... Wenn S endlich ist, dann ist mindestens ein Zustand rekurrent und alle rekurrenten Zustände sind nicht-leer. Beispiel Eine Markov-Kette mit Zustandsraum S = {,,, 4, 5, 6} habe die Übergangsmatrix Man bestimme: P = die Periode jedes Zustands die Zerlegung des Zustandsraumes transiente Zustände ergodische Zustände Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 / 6 7. Die stationäre Verteilung und das Grenzwerttheorem Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 4 / 6 Interpretation der stationären Verteilung Eine Wahrscheinlichkeitsverteilung π (Zeilenvektor) mit Einträgen (π j : j S) heißt stationäre Verteilung einer Markov-Kette X mit Übergangsmatrix P, falls gilt: Hat die Markov-Kette X die Verteilung π zu einem gewissen Zeitpunkt n, dann auch im nächsten Zeitpunkt n + und sogar in allen nachfolgenden Zeitpunkten i = n +, n +,... Betrachte z.b. i = n + : π j = i π i p ij π P = (πp)p = πp = π oder in Matrixnotation: π = π P Oft wählt man für die Anfangsverteilung µ 0 die stationäre Verteilung, d.h. µ 0 = π. Im Folgenden betrachten wir ausschließlich irreduzible Markov-Ketten, d.h. Markov-Ketten mit irreduziblem Zustandsraum S. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 5 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 6 / 6

10 Satz über die stationäre Verteilung Bestimmung der stationären Verteilung bei S = Eine irreduzible Markov-Ketten hat eine stationäre Verteilung π mit π i > 0 i. Dann ist π eindeutig und gegeben durch π i = /µ i wobei µ i die erwartete Rekurrenzzeit des Zustands i ist. Unter diesen Voraussetzungen gilt bei endlichem Zustandsraum: π = (I P + U) wobei I die Einheitsmatrix und ein Zeilenvektor mit Einsen ist und U nur Elemente gleich eins hat. Stationäre Verteilung und Übergangsmatrix haben bei Markov-Ketten mit zwei Zuständen folgende allgemeine Formen: ( ) p p π = (π, π ) P = p p Die erste Spalte der Gleichung π = π P ist π = π π p + p π p π = p p + p und π = Die zweite Spalte ergibt die gleiche Lösung. p p + p Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 7 / 6 Beispiel Wie lautet die stationäre Verteilung für die Markov-Kette mit folgender Übergangsmatrix: ( ) P = 0.6 Mit der eben bestimmten Formel erhält man: ( π = (π, π ) =, 0. ) = (0.8, 0.) Die erwarteten Rekurrenzzeiten sind demnach µ = 5/4 für Zustand und µ = 5 für Zustand. Wie verhält es sich bei 0 0 P = 0 0? 0 0 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 8 / 6 Reversible Markov-Ketten Sei X = (X 0,..., X N ) eine reguläre Markov-Kette mit Übergangsmatrix P und stationärer Verteilung π, die X auch zu jedem Zeitpunkt n = 0,..., N besitze. Definiere nun Y = (X N,..., X 0 ) mit Y n = X N n. Dann ist Y auch eine Markov-Kette mit Übergangswahrscheinlichkeiten P(Y n+ = j Y n = i) = (π j /π i )p ji Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 9 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6

11 Reversible Markov-Ketten II Beispiele für reversible Markov-Ketten Man sagt nun X ist reversibel, falls X und Y identische Übergangswahrscheinlichkeiten haben, d.h. falls für alle i, j S gilt. π i p ij = π j p ji Alle irreduziblen Markov-Ketten mit zwei Zuständen sind reversibel (Beweis in Vorlesung). Markov-Ketten mit tri-diagonaler Übergangsmatrix P sind reversibel, z.b. der random walk auf endlichem Zustandsraum S = {0,,..., b} der Prozess aus Beispiel (Stichwort: Genhäufigkeit) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 4 / 6 Satz über die stationäre Verteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 4 / 6 Das Grenzwerttheorem Sei X eine irreduzible Markov-Kette mit Übergangsmatrix P. Ferner gebe es eine Verteilung π mit π i p ij = π j p ji für alle i, j S. Dann ist π die stationäre Verteilung und X ist bzgl. π reversibel. Beweis: π i p ij = π j p ji = π j p ji = π j i i i Eine irreduzible und aperiodische Markov-Kette konvergiert gegen ihre stationäre Verteilung π bzw. p ij (n) π j = µ j P n = P n für n und alle i π π... π Daher gilt µ (0) P n π für alle µ (0). Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 4 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6

12 Ein Gegenbeispiel 7.4 Inferenz für Markov-Ketten Eine Markov-Kette X mit Übergangsmatrix 0 0 P = hat zwar die stationäre Verteilung π = (/, /, /), konvergiert aber nicht gegen diese, da die Kette periodisch ist. Schätzung der Übergangswahrscheinlichkeiten Test auf Modellanpassung Allgemeinere Markov-Modelle: Markov-Ketten höherer Ordnung Hidden-Markov Modelle Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6 Schätzung der Übergangswahrscheinlichkeiten Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6 ML-Schätzung der Übergangswahrscheinlichkeiten Ziel: Schätzung der Übergangswahrscheinlichkeiten basierend auf einer (oder mehrerer) Realisationen einer Markov-Kette X. Es erscheint plausibel, die Übergangswahrscheinlichkeiten p ij durch die entsprechenden Übergangshäufigkeiten ˆp ij = n ij n i zu schätzen, wobei n ij die Anzahl der beobachteten Übergänge von i nach j ist und n i = j n ij. Im Folgenden zeigen wir, dass dies auch die ML-Schätzer sind. Grundlage: Realisation X 0 = x 0, X = x,..., X N = x N einer Markov-Kette X. Die Likelihood ist somit (vergleiche Folie S. ) L(P) = µ (0) x 0 n t= p xt,x t = µ (0) x 0 wobei n ij die Anzahl der beobachteten Übergänge von i nach j ist. Die Log-Likelihood ist dann l(p) = log(µ (0) x 0 ) + i,j i,j n ij log(p ij ) p n ij ij Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6

13 ML-Schätzung der Übergangswahrscheinlichkeiten II ML-Schätzung der Übergangswahrscheinlichkeiten III Problem: Es sind mehrerer Parameter in θ = P durch Maximierung der Log-Likelihood l(p) zu schätzen, wobei noch die Restriktion p ij = für alle i zu berücksichtigen ist. Lagrangesche Multiplikatorenmethode: Maximiere l (P) = log(µ (0) x 0 ) + i,j j n ij log(p ij ) i λ i j p ij Die partiellen Ableitungen nach p ij sind somit dl (P) p ij = n ij p ij λ i Nullsetzen liefert n ij = λ i p ij. Durch Summation über j folgt und schließlich λ i = j n ij = n i ˆp ij = n ij n i. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6 Beispiel: Regen bei den Snoqualmie Wasserfällen Über eine Zeitreihe von N = 49 Tagen wurde an den Snoqualmie Wasserfällen registriert, ob es am jeweiligen Tag geregnet hat oder nicht. Erstellung eines Markov-Modells: Der Zustandsraum ist S = {0, } mit } 0 : Kein Regen am Tag t =,..., N : Regen Es ergibt sich n 0 = 69 (Tage ohne Regen) und n = 690. Übergangsmatrix mit relativen Übergangshäufigkeiten (ML-Schätzer): ˆP = ( Frage: Passt sich das Markov-Modell den Daten gut an? Betrachtung der Verweildauern (Wartezeiten bis zum nächsten Zustandswechsel) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 5 / 6 ) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6 Verweildauern bei den Snoqualmie Wasserfällen Haeufigkeit Verweildauer im Zustand 0 (kein Regen) Zeit bis zum Zustandswechsel Haeufigkeit Verweildauer im Zustand (Regen) Zeit bis zum Zustandswechsel Theoretische (schwarz) und empirische (rot) Verweildauern in den beiden Zuständen. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 5 / 6

14 Markov-Ketten höherer Ordnung Strukturelle Nullen Zum Beispiel Markov-Kette zweiter Ordnung: Die Regenwahrscheinlichkeit hängt nun von den letzten zwei Tagen ab. Die Übergangswahrscheinlichkeiten sind P(X n = s X n = x n, X n = x n ). Diese Markov-Kette kann auch als Markov-Kette erster Ordnung dargestellt werden, indem man den Zustandsraum zu S = {00, 0, 0, } erweitert, wobei der erste Eintrag x n und der zweite Eintrag x n darstellt. In der Übergangsmatrix ergeben sich dann strukturelle Nullen. Im Beispiel ergibt sich: P = da z.b. auf X n = 0 und X n = 0 nicht X n = und X n = 0 folgen kann etc. die Anzahl der Spalten kann reduziert werden Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 5 / 6 Regen bei den Snoqualmie Wasserfällen Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / Hidden Markov Modelle Mit reduzierten Spalten ergibt sich im Beispiel ˆP = Alternativer Ansatz: Hidden Markov-Modell Mischverteilungsmodell mit zusätzlichem Zeitreihencharakter Anwendungen in verschiedenen Bereichen: Ökonometrie, Genetik (DNA-Sequenzierung, Stammbaumanalyse), Spracherkennung,... Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6

15 Das Modell Beispiel: Ein verrauschtes binäres Signal Latente Parameter X = (X,..., X N ) folgen einer (homogenen) Markov-Kette mit diskretem Zustandsraum S: Übergangsmatrix P mit p ij = P(X t = j X t = i) Anfangsverteilung π mit π i = P(X 0 = i) (oft impliziert durch π = πp) Die Beobachtungen y t x t = s sind bedingt unabhängig aus einer Verteilung mit Wahrscheinlichkeitsfunktion f s (y t ) mit Parametern θ s. Beispielsweise: diskret mit Missklassifizierungswahrscheinlichkeiten p s Poisson mit Raten λ s Daten: y = ( ) S = N = 0 P = ( ) π = ( f (y t = x t = ) = 0.8 f (y t = x t = ) = 0. f (y t = x t = ) = 0. f (y t = x t = ) = 0.8 Ziel der statistischen Inferenz: Restauration der Sequenz X ) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6 Inferenz bei festen Hyperparametern Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6 Posteriori-Modus Schätzung Hyperparameter: P, π, θ fest Ziel: Schätzung der latenten Zustände x = (x,..., x N ) Posteriori-Verteilung f (x y) = f (x, y)/f (y) mit: f (x y) f (x, y) = π x N p xt x t t= } {{ } f (x) N f xt (y t ) t= } {{ } f (y x) Viterbi-Algorithmus [Viterbi (967)] Rekursiver Algorithmus zur Maximierung von f (x, y) bzgl. x liefert (einen) MAP-(posteriori Modus)-Schätzer von f (x y) f (x, y) Algorithmus ist numerisch effizient: O( S N) Simulated annealing [Kirkpatrick, Gelatt & Vecchi (98)] Problem: Es gibt S N (!) unterschiedliche Sequenzen x. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 6

16 Rekonstruktion des verrauschten binären Signals Inferenz bei unbekannten Hyperparametern Das empfangene Signal war y = ( ) Daraus kann man Schätzer für das zugrundeliegende Signal x berechnen: Schätzer von x post. Wkeit P(x y) ˆx MAP = ( ) ˆx MAP = ( ) ˆx MPM = ( ) 0.05 y = ( ) Hierbei bezeichnet ˆx MPM den marginalen Posteriori Modus, d.h. jedes x i, i =,..., 0, in ˆx MPM hat marginale Posteriori-Wahrscheinlichkeit P(x i y) >. Seinen nun bestimmte Hyperparameter θ unbekannt, wie beispielsweise die Übergangsmatrix P oder die Verteilung f (y i x i ). Klassische Likelihood-Ansätze maximieren die (marginale) Likelihood L(θ) = f (y θ) bezüglich θ, z.b. mit dem Baum-Welch-Algorithmus, der einen Spezialfall des EM-Algorithmus darstellt. Problem: Berechnung von f (y θ) = x f (x, y θ) Bayesianische Ansätze verwenden zusätzliche priori-verteilungen f (θ) und simulieren aus der posteriori-verteilung f (x, θ y) f (x, y θ) f (θ) mit Markov-Ketten Monte Carlo (MCMC) Verfahren. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 6 / 6 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 6 / 6 Beispiel zur Likelihood-Inferenz Seinen nun die Einträge der Übergangsmatrix P unbekannt. Die marginale Likelihood L(p, p ) der Diagonalelemente p und p ist in folgender Graphik dargestellt. Die ML-Schätzungen sind ˆp = 0.85 und ˆp = p e 07 8e 07 e 06.e 06 e 07 4e 07 4e 07.4e 06 e p Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 06 6 / 6

16.3 Rekurrente und transiente Zustände

16.3 Rekurrente und transiente Zustände 16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

Einführung in Markoff-Ketten

Einführung in Markoff-Ketten Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die

Mehr

1 A dp = P(A B). (1.3)

1 A dp = P(A B). (1.3) Markov-etten Seminar Stochastik vom 4-500 Version Oktober 00 Markus Penz Vorbemerkungen zu bedingten Wahrscheinlichkeiten Sei (Ω, F,P) ein Wahrscheinlichkeitsraum und X : Ω R eine F-messbare sowie integrierbare

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

3. Prozesse mit kontinuierlicher Zeit

3. Prozesse mit kontinuierlicher Zeit 3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess

Mehr

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1 Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme

Mehr

Markov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes

Markov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes Markov-Prozesse Franziskus Diwo Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes 8.0.20 Gliederung Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-,

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die

Mehr

Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute

Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute 3.4 PageRank Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute Wichtigkeit von Webseiten; nicht Relevanz bezüglich Benutzeranfrage. Anfrageunabhängiges Ranking. Ausgangspunkt: Eingangsgrad.

Mehr

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a

Mehr

DynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten

DynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten DynaTraffic Modelle und mathematische Prognosen Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten Worum geht es? Modelle von Verkehrssituationen Graphen: Kanten, Knoten Matrixdarstellung

Mehr

Simulationsmethoden in der Bayes-Statistik

Simulationsmethoden in der Bayes-Statistik Simulationsmethoden in der Bayes-Statistik Hansruedi Künsch Seminar für Statistik, ETH Zürich 6. Juni 2012 Inhalt Warum Simulation? Modellspezifikation Markovketten Monte Carlo Simulation im Raum der Sprungfunktionen

Mehr

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Verena Monschang Vortrag 20.05.20 Dieser Seminarvortrag thematisiert in erster Linie die Kopplung von Markovketten. Zu deren besseren Verständnis

Mehr

Die Abbildung zeigt die Kette aus dem "

Die Abbildung zeigt die Kette aus dem ½ Ô ½ 0 1 2 Õ Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem " gamblers ruin problem\ fur m = 2. Man sieht sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0;

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Stochastik und Statistik

Stochastik und Statistik Stochastik und Statistik Vorlesung Sommersemester 2016 Dienstag 12 14 Uhr, M114 (HGB) Donnerstag 12 14 Uhr, A021 (HGB) Vorlesung: Fabian Scheipl, Bernd Bischl Übung: Giuseppe Casalicchio Kontakt:

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Stochastik und Statistik

Stochastik und Statistik Übungen Stochastik und Statistik Vorlesung Sommersemester 2016 Dienstag 12 14 Uhr, M114 (HGB) Donnerstag 12 14 Uhr, A021 (HGB) Vorlesung: Fabian Scheipl, Bernd Bischl Übung: Giuseppe Casalicchio Kontakt:

Mehr

Übungsaufgaben Lösungen

Übungsaufgaben Lösungen Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij

Mehr

Statistik für Ingenieure Vorlesung 2

Statistik für Ingenieure Vorlesung 2 Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen

Mehr

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Kapitel 3 Markov-Ketten

Kapitel 3 Markov-Ketten Kapitel 3 Markov-Ketten 3.1 Grundlegende Eigenschaften, Beispiele 3.1 Grundlegende Eigenschaften, Beispiele Diskreter Parameterraum (Zeit) T = N 0. Zustandsraum S meist diskret (3.1-3.6), manchmal auch

Mehr

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die

Mehr

Proseminarvortrag. Markov-Ketten in der Biologie (Anwendungen)

Proseminarvortrag. Markov-Ketten in der Biologie (Anwendungen) Proseminarvortrag Markov-Ketten in der Biologie (Anwendungen) von Peter Drössler 20.01.2010 2 Markov-Ketten in der Biologie (Peter Drössler, KIT 2010) Inhalt 1. Das Wright-Fisher Modell... 3 1.1. Notwendige

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate

Mehr

LANGZEITVERHALTEN VON MARKOW-KETTEN

LANGZEITVERHALTEN VON MARKOW-KETTEN LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte

Mehr

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1 Einführung in die Bayes-Statistik Helga Wagner Ludwig-Maximilians-Universität München WS 2010/11 Helga Wagner Bayes Statistik WS 2010/11 1 Organisatorisches Termine: Montag: 16.00-18.00 AU115 Dienstag:

Mehr

Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die

Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Rückwärtsgleichung P (t) = QP (t), P (0) = E eine minimale nicht negative Lösung (P (t) : t 0). Die Lösung bildet eine Matrix Halbgruppe, d.h. P (s)p

Mehr

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung

Mehr

4 Statistik der Extremwertverteilungen

4 Statistik der Extremwertverteilungen In diesem Kapitel beschäftigen wir uns mit statistischen Anwendungen der Extremwerttheorie. Wir werden zwei verschiedene Zugänge zur Modellierung von Extremwerten betrachten. Der erste Zugang basiert auf

Mehr

LANGZEITVERHALTEN VON MARKOW-KETTEN

LANGZEITVERHALTEN VON MARKOW-KETTEN LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte

Mehr

3. Das Reinforcement Lernproblem

3. Das Reinforcement Lernproblem 3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität

Mehr

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:

Mehr

Zeitreihenanalyse. Seminar Finanzmathematik. Andreas Dienst SS Einleitung - Begrüßung - Motivation - Inhaltsangabe. 2.

Zeitreihenanalyse. Seminar Finanzmathematik. Andreas Dienst SS Einleitung - Begrüßung - Motivation - Inhaltsangabe. 2. Seminar Finanzmathematik - Begrüßung - Motivation - Inhaltsangabe 3. Zusammen - fassung Zeitreihenanalyse Andreas Dienst SS 2006 Zeitreihen: Definition und Motivation - Begrüßung - Motivation - Inhaltsangabe

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Klausur zur Vorlesung,,Algorithmische Mathematik II

Klausur zur Vorlesung,,Algorithmische Mathematik II Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood

Mehr

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere

Mehr

Das Bayes'sche Prinzip

Das Bayes'sche Prinzip Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Klausur Stochastik und Statistik 31. Juli 2012

Klausur Stochastik und Statistik 31. Juli 2012 Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung

Mehr

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

2 Aufgaben aus [Teschl, Band 2]

2 Aufgaben aus [Teschl, Band 2] 20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:

Mehr

Exponentialverteilung

Exponentialverteilung Exponentialverteilung Dauer von kontinuierlichen Vorgängen (Wartezeiten; Funktionszeiten technischer Geräte) Grenzübergang von der geometrischen Verteilung Pro Zeiteinheit sei die Eintrittswahrscheinlichkeit

Mehr

2. Repräsentationen von Graphen in Computern

2. Repräsentationen von Graphen in Computern 2. Repräsentationen von Graphen in Computern Kapitelinhalt 2. Repräsentationen von Graphen in Computern Matrizen- und Listendarstellung von Graphen Berechnung der Anzahl der verschiedenen Kantenzüge zwischen

Mehr

Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h

Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h 5. Die partielle Autokorrelationsfunktion 5.1 Definition, Berechnung, Schätzung Bisher: Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h ρ X (h) = Corr(X t, X

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Stochastische Prozesse

Stochastische Prozesse Gerold Alsmeyer Stochastische Prozesse Band 1: Diskrete Markov-Ketten und Martingale 22. Mai 2012 Skriptum Inhaltsverzeichnis Teil I Markov-Ketten auf abzählbaren Zustandsräumen 1 Markov-Ketten: Theoretische

Mehr

Statistik II SoSe 2006 immer von 8:00-9:30 Uhr

Statistik II SoSe 2006 immer von 8:00-9:30 Uhr Statistik II SoSe 2006 immer von 8:00-9:30 Uhr Was machen wir in der Vorlesung? Testen und Lineares Modell Was machen wir zu Beginn: Wir wiederholen und vertiefen einige Teile aus der Statistik I: Konvergenzarten

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 10. November 2010 1 Bedingte Wahrscheinlichkeit Satz von der totalen Wahrscheinlichkeit Bayessche Formel 2 Grundprinzipien

Mehr

Institut für Stochastik, SoSe K L A U S U R , 13:

Institut für Stochastik, SoSe K L A U S U R , 13: Institut für Stochastik, SoSe 2014 Mathematische Statistik Paravicini/Heusel 1. K L A U S U R 12.7.2014, 13:00-16.00 Name: Geburtsdatum: Vorname: Matrikelnummer: Übungsgruppe bei: Studiengang & angestrebter

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

15. Elementare Graphalgorithmen

15. Elementare Graphalgorithmen Graphen sind eine der wichtigste Modellierungskonzepte der Informatik Graphalgorithmen bilden die Grundlage vieler Algorithmen in der Praxis Zunächst kurze Wiederholung von Graphen. Dann Darstellungen

Mehr

Exponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models

Exponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models Exponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models Korbinian Schwinger 3. November 003 Inhaltsverzeichnis Inhaltsverzeichnis Exponential Family 3. Definition...............................

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus

Mehr

Übung zur Vorlesung Statistik I WS Übungsblatt 6

Übung zur Vorlesung Statistik I WS Übungsblatt 6 Übung zur Vorlesung Statistik I WS 2012-2013 Übungsblatt 6 26. November 2012 Aufgabe 17 (4 Punkte): Sei X B(n, p) eine binomial verteilte Zufallsvariable, die ein Zufallseperiment mit n unabhängigen Wiederholungen

Mehr

Werner Sandmann: Modellierung und Analyse 4 1. Kapitel 4. Markovketten

Werner Sandmann: Modellierung und Analyse 4 1. Kapitel 4. Markovketten Werner Sandmann: Modellierung und Analyse 4 1 Kapitel 4 Markovketten Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.1 Grundlagen 4 2 Abschnitt 4.1 Grundlagen Werner Sandmann: Modellierung

Mehr

BACHELORARBEIT. Markov-Ketten und ihre Greensche Funktion. Jasmin Riegler. Wien, Jänner 2013

BACHELORARBEIT. Markov-Ketten und ihre Greensche Funktion. Jasmin Riegler. Wien, Jänner 2013 BACHELORARBEIT Markov-Ketten und ihre Greensche Funktion Jasmin Riegler Wien, Jänner 203 Studienkennzahl: A 033 62 Studienrichtung: Mathematik Betreuer: Privatdoz. Dr. Mag. Bernhard Krön Inhaltsverzeichnis

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Exact Sampling: Der Propp-Wilson-Algorithmus

Exact Sampling: Der Propp-Wilson-Algorithmus Exact Sampling: Der Propp-Wilson-Algorithmus Markus Gerstel Proseminar: Markovketten in der Algorithmik Technische Universität München gerstel@in.tum.de Zusammenfassung Der Propp-Wilson-Algorithmus liefert

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

2.1 Importance sampling: Metropolis-Algorithmus

2.1 Importance sampling: Metropolis-Algorithmus Kapitel 2 Simulationstechniken 2.1 Importance sampling: Metropolis-Algorithmus Eine zentrale Fragestellung in der statistischen Physik ist die Bestimmung von Erwartungswerten einer Observablen O in einem

Mehr

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig) ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels

Mehr

Grundgesamtheit und Stichprobe

Grundgesamtheit und Stichprobe Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 11. November 2010 1 Erwartungswert und Varianz Erwartungswert Varianz und Streuung Rechenregeln Binomialverteilung

Mehr

Simulation von Zufallsvariablen und Punktprozessen

Simulation von Zufallsvariablen und Punktprozessen Simulation von Zufallsvariablen und Punktprozessen 09.11.2009 Inhaltsverzeichnis 1 Einleitung 2 Pseudozufallszahlen 3 Punktprozesse Zufallszahlen Definition (Duden): Eine Zufallszahl ist eine Zahl, die

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum) Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Inhalt. I. Deskriptive Statistik Einführung Die Grundgesamtheit Merkmale und Verteilungen Tabellen und Grafiken...

Inhalt. I. Deskriptive Statistik Einführung Die Grundgesamtheit Merkmale und Verteilungen Tabellen und Grafiken... I. Deskriptive Statistik 1 1. Einführung 3 1.1. Die Grundgesamtheit......................... 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................ 10

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR

bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR A = LR LR-Zerlegung bekannt: Eliminationsverfahren von Gauß Verfahren führt zu einer Zerlegung der Koeffizientenmatrix: A = LR Definition 2.17 Unter einer LR-Zerlegung einer Matrix A R n n verstehen wir eine

Mehr

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität Volker Tresp 1 Einführung Bisher haben wir uns fast ausschließich mit überwachtem Lernen beschäftigt: Ziel war es, eine (oder mehr als eine)

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

Wie sch atzt man effizient?

Wie sch atzt man effizient? Vorlesung 8a Wie schätzt man Wie schätzt man effizient? Die Maximum-Likelihood Methode Die Maximum-Likelihood Methode BEISPIEL 1 BEISPIEL 1 Panther A BEISPIEL 1 Panther A Schätzung der deutschen Panzerproduktion

Mehr

I. Deskriptive Statistik 1

I. Deskriptive Statistik 1 I. Deskriptive Statistik 1 1. Einführung 3 1.1. Grundgesamtheit und Stichprobe.................. 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Die Maximum-Likelihood-Methode

Die Maximum-Likelihood-Methode Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Johannes-Kepler-Gymnasium, Chemnitz John-Lennon-Oberschule, Berlin Friedrich-Schiller-Gymnasium, Königs Wusterhausen

Johannes-Kepler-Gymnasium, Chemnitz John-Lennon-Oberschule, Berlin Friedrich-Schiller-Gymnasium, Königs Wusterhausen Glückssträhnen...?! Teilnehmer: Aptin Haerian Max Irmscher Markus Johl Felix Montenegro Hoang Lam Nguyen Anne Christin Rettig Herder-Oberschule, Berlin Johannes-Kepler-Gymnasium, Chemnitz John-Lennon-Oberschule,

Mehr

Isomorphie von Bäumen

Isomorphie von Bäumen Isomorphie von Bäumen Alexandra Weinberger 23. Dezember 2011 Inhaltsverzeichnis 1 Einige Grundlagen und Definitionen 2 1.1 Bäume................................. 3 1.2 Isomorphie..............................

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben Kapitel 16 Aufgaben Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2 Bekanntlich gilt im Allgemeinen

Mehr