80 7 MARKOV-KETTEN. 7.1 Definition und Eigenschaften von Markov-Ketten

Größe: px
Ab Seite anzeigen:

Download "80 7 MARKOV-KETTEN. 7.1 Definition und Eigenschaften von Markov-Ketten"

Transkript

1 80 7 MARKOV-KETTEN 7 Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Sei X = (X 0, X, X 2,...) eine Folge von diskreten Zufallsvariablen, die alle Ausprägungen in einer endlichen bzw. abzählbaren Menge S haben. Dabei heißt S der Zustandsraum und s S ein Zustand. Man nennt X einen stochastischen Prozess. Definition 7. X heißt Markov-Kette, falls für alle n und für alle s, x 0, x,..., x n S gilt: P (X n = s X 0 = x 0, X = x,..., X n = x n ) = P (X n = s X n = x n ) In Worten bedeutet die obige Formel, dass, bedingt auf die gesamte Vergangenheit X 0, X,..., X n des Prozesses X, die Verteilung von X n nur vom letzten Wert X n = x n abhängt. Die Abhängigkeit der Werte lässt sich in einem graphischen Modell gut durch Pfeile darstellen: X 0 X X 2... X n X n Anders ausgedrückt: Bedingt auf die Gegenwart (X n ) ist die Zukunft des Prozesses (X n, X n,...) unabhängig von seiner Vergangenheit (X 0, X,..., X n 2 ). Hier wird implizit der Begriff der bedingten Unabhängigkeit von Zufallsvariablen verwendet: Definition 7.2 (Bedingt unabhängige Zufallsvariablen) Zwei diskrete Zufallsvariablen X und Y heißen bedingt unabhängig gegeben Z, wenn für die entsprechend definierten Wahrscheinlichkeitsfunktionen gilt f X,Y Z (x, y z) = f X Z (x z) f Y Z (y z) für alle x, y und z aus den entsprechenden Trägern. Die Entwicklung einer Markov-Kette X (d.h. die Abfolge der Werte, welche X annimmt) ist gekennzeichnet durch die (Ein-Schritt) Übergangswahrscheinlichkeit von einem Zustand i in den Zustand j P (X n+ = j X n = i) für alle i, j S

2 7. Definition und Eigenschaften von Markov-Ketten 8 Man nennt eine Markov-Kette homogen, wenn diese Wahrscheinlichkeit nicht von n abhängt und definiert: p ij = P (X n+ = j X n = i) = P (X = j X 0 = i) Die Werte p ij werden in einer S S -Matrix P zusammengefasst, der sogenannten Übergangsmatrix. P ist eine stochastische Matrix, d.h. sie hat folgende Eigenschaften:. p ij 0 für alle i, j S 2. j p ij = für alle i S, d.h. die Zeilen addieren sich zu eins. Beispiel 7. Sei S = {, 2} und P = ( ) Beispiel 7.2 Der Zustandsraum sind die vier Basen (Adenin, Cytosin, Guanin, Thymin) der DNA, d.h. S = {A, C, G, T }. Die folgende geschätzte Übergangsmatrix kann erhalten werden, wenn man beim Ablaufen der DNA die relativen Häufigkeiten der einzelnen Übergänge zählt. P = P beschreibt also die Kurzzeitentwicklung (Ein-Schritt-Übergangswahrscheinlichkeiten) einer homogenen Markov-Kette X. Die Langzeitentwicklung (n- Schritt-Übergangswahrscheinlichkeiten) ist durch die n-schritt-übergangsmatrix P (m, m + n) mit Elementen p ij (m, m + n) = P (X m+n = j X m = i) gekennzeichnet. Für eine homogene Markov-Kette vereinfacht sich diese zu p ij (n) = P (X n = j X 0 = i). Dann gilt offensichtlich P (m, m + ) = P Durbin et al. (998) Biological sequence analysis, p. 50

3 82 7 MARKOV-KETTEN und wir schreiben P n = P (m, m + n). Wie aber berechnet man P n? Für eine homogene Markov-Kette X gilt: p ij (m, m + n + r) = P (X m+n+r = j X m = i) = P (X m+n+r = j, X m+n = k X m = i) = Markov = = k P (X m+n+r = j X m+n = k, X m = i) P (X m+n = k X m = i) k P (X m+n+r = j X m+n = k) P (X m+n = k X m = i) k p ik (m, m + n)p kj (m + n, m + n + r) k Schreibt man diese Beziehung in Matrizenform so erhält man die Chapman- Kolmogorov-Gleichung: P (m, m + n + r) = P (m, m + n) P (m + n, m + n + r) Nun kann man auch P n berechnen: P n = P (m, m + n) = P (m, m + + (n )) = P (m, m + ) P (m +, m + n) = P P (m +, m + n) =... = P n Hierbei ist P n die n-te Potenz von P. Das heißt die n-schritt-übergangsmatrix P n erhält man durch n-faches Potenzieren der Matrix P. Beispiel 7. (2-Schritt-Übergangsmatrix für Beispiel 7.) Die 2-Schritt-Übergangsmatrix P 2 entspricht der 2-ten Potenz von P : ( ) ( ) ( ) P 2 = P 2 = = Dabei berechnet sich z.b. der Eintrag p 2 (2) in P 2 folgendermaßen: P (X n+2 = X n = 2) = P (X n+ = 2 X n = 2) P (X n+2 = X n+ = 2) + P (X n+ = X n = 2) P (X n+2 = X n+ = ) = = 0.6

4 7. Definition und Eigenschaften von Markov-Ketten 8 Sei nun X eine Markov-Kette mit Übergangsmatrix P, welche sich zum Zeitpunkt t im Zustand i S befindet. Die Dauer bis zum nächsten Zustandswechsel T i, d.h. die Dauer bis die Markov-Kette in einen anderen Zustand als i übergeht, ist offensichtlich geometrisch verteilt mit Parameter p ii : T i G( p ii ). Später werden wir diese nützliche Eigenschaft für einen Modellanpassungstest verwenden, bei dem wir die theoretischen Dauern bis zum nächsten Zustandswechsel (berechnet auf der Basis des geschätzten Markov-Modells) mit den beobachteten Dauern vergleicht. Um die Entwicklung einer Markov-Kette vollständig zu spezifizieren, muss neben der Übergangsmatrix P noch die sogenannte Anfangsverteilung für X 0 angegeben werden, in der festgelegt wird, mit welcher Wahrscheinlichkeit die Markov-Kette in dem jeweiligen Zustand startet. Die Wahrscheinlichkeitsfunktion für X 0 bezeichnet man mit dem Zeilenvektor µ (0) mit den Elementen µ (0) i = P (X 0 = i) für i S. Die unbedingte Wahrscheinlichkeitsfunktion von X n fasst man entsprechend in dem Zeilenvektor µ (n) zusammen und es gilt offensichtlich: und somit: µ (m+n) = µ (m) P n µ (n) = µ (0) P n Die gemeinsame Wahrscheinlichkeitsverteilung von X 0,..., X n ist gegeben durch P (X 0 = x 0, X = x,..., X n = x n ) n = P (X 0 = x 0 ) P (X t = x t X t = x t ) = µ (0) x 0 n t= t= p xt,x t Diese ist wichtig für die Schätzung der Übergangsmatrix bei Beobachtung einer Realisation aus einer Markov-Kette. Im Folgenden werden nun drei Beispiele für Markov-Ketten behandelt: Beispiel 7.4 (Inzucht) Inzucht bedeutet hier, dass eine Pflanze, welche einen der drei Genotypen {aa, ab, bb} besitzen kann, mit sich selbst gekreuzt wird. Die Zufallsvariable

5 84 7 MARKOV-KETTEN X n gibt den Genotyp in der n-ten Generation an. Die Markov-Kette hat damit den Zustandsraum: und die folgende Übergangsmatrix S = {aa, ab, bb} P = Die Übergänge von ab zu den anderen Zuständen lassen sich beispielsweise so berechnen: Man kreuzt ab ab und erhält für die verschiedenen Keimzellkombinationen folgende Genotypen für die Tochtergeneration: a b a aa ab b ab bb Die Nachkommen haben also mit einer Wahrscheinlichkeit von /4 den Genotyp aa /2 den Genotyp ab /4 den Genotyp bb Das entspricht genau den Übergängen in P. Man kann zeigen, dass P n = ( n+ ( ) n 2) ( ) n+ n d.h. letztendlich bleiben nur die Genotypen aa und bb übrig, die sich dann deterministisch reproduzieren. Beispiel 7.5 (Genhäufigkeit in Population konstanter Größe N) Die Zufallsvariable X n = i gibt die Anzahl der Individuen einer Population mit bestimmten Genotyp zum Zeitpunkt n an.

6 7. Definition und Eigenschaften von Markov-Ketten 85 Ein einfaches Modell nimmt an, dass zu jedem Zeitpunkt ein zufälliges Mitglied der Population stirbt. Das nachrückende Mitglied hat den betrachteten Genotyp mit Wahrscheinlichkeit i N. Damit ergibt sich für die Einträge p ij in P : p ij = i (N i) N N = i(n i) für j = i ± N 2 für j = i 2 i(n i) N 2 0 sonst P hat eine tri-diagonale Struktur, d.h. die Hauptdiagonale und zwei Nebendiagonalen enthalten Werte 0 und sonst enthält die Matrix nur Nullen. Die obige Formulierung beinhaltet auch die beiden Grenzfälle X n = 0 und X n = N. Beispiel 7.6 (Modelle für Epidemien Verzweigungsprozesse) Die Zufallsvariable X n gibt die Anzahl der Infizierten in einer Generation n an. Der Zustandsraum S ist S = {0,,...} Die Idee des Modells beinhaltet, dass jeder Infizierte (unabhängig von den anderen) eine zufällige Anzahl Infizierter in der nächsten Generation erzeugt und zwar mit Erwartungswert λ, z.b. könnte die Anzahl Poissonverteilt sein. Dann ist X n X n P(λ X n ). Ein wichtiger Satz ist das Schwellenwerttheorem, das wir hier nur verkürzt wiedergeben: Für λ < wird jede Epidemie mit Wahrscheinlichkeit irgendwann aussterben, d.h. X n wird für großes n gleich Null sein. Die Wahrscheinlichkeit dass der Prozess explodiert ist also gleich Null. Für λ > hingegen ist die Wahrscheinlichkeit, dass die Epidemie explodiert, echt größer Null.

7 86 7 MARKOV-KETTEN 7.2 Klassifikation von Zuständen und Markov-Ketten Definition 7. (Rekurrenz) Ein Zustand i S einer Markov-Kette heißt rekurrent oder auch persistent, falls P (X n = i für irgend ein n X 0 = i) = Ansonsten heißt der Zustand transient. Eine Markov-Kette X kehrt also in einen rekurrenten Zustand mit Wahrscheinlichkeit zurück. Genauer definiert man f ij (n) = P (X j, X 2 j,..., X n j, X n = j X 0 = i) und definiert den Zustand i als rekurrent, falls f ii =, wobei f ij = f ij (n) n= Ein Zustand i heißt absorbierend, falls die Markov-Kette sobald sie diesen Zustand eingenommen hat, ihn nicht mehr verlassen kann, d.h. wenn p ij = 0 für alle j i. Beispiel 7.7 Die beiden Zustände der Markov-Kette mit folgender Übergangsmatrix sind rekurrent: ( ) P = Dagegen sind die Zustände und 2 bei der Übergangsmatrix der nächsten Markov-Kette rekurrent und die anderen beiden transient, denn falls z.b. die Markov-Kette vom Zustand in den Zustand 2 übergeht, kann sie nicht mehr in den Zustand zurückkehren. P = In Beispiel 7.6 (Poisson-Verzweigungsprozess) ist der Zustand 0 rekurrent, ja sogar absorbierend, da X diesen Zustand nie verlässt. Alle anderen Zustände sind transient. Hat man einen Zustand als rekurrent klassifiziert, so interessiert auch noch die Frage, wie lange es dauert, bis die Markov-Kette wieder in diesen Zustand zurückkehrt.

8 7.2 Klassifikation von Zuständen und Markov-Ketten 87 Definition 7.4 (Erwartete Rekurrenzzeit) Die erwartete Rekurrenzzeit eines Zustands i ist: { µ i = n nf ii(n) falls i rekurrent ist falls i transient ist Ein rekurrenter Zustand i heißt nicht-leer, falls seine erwartete Rekurrenzzeit endlich ist. Ansonsten heißt er leer. Zwischen den Übergangswahrscheinlichkeiten p ij (n) und der Leerheit eines rekurrenten Zustands besteht folgender Zusammenhang: Ein rekurrenter Zustand i ist genau dann leer, wenn Dann gilt sogar p ii (n) 0 für n p ji (n) 0 für n für alle j S Definition 7.5 (Periode) Die Periode ξ eines Zustandes i ist der größte gemeinsame Teiler der Menge {n : p ii (n) > 0} Man nennt den Zustand i periodisch, falls ξ > und aperiodisch falls ξ =. Haben alle Zustände einer Markov-Kette Periode, so heißt sie aperiodisch. Ein Zustand i heißt ergodisch, falls er rekurrent nicht-leer und aperiodisch ist. Sind alle Zustände von X ergodisch, so heißt X ergodisch. Beispiel 7.8 Die drei Zustände der Markov-Kette mit der folgenden Übergangsmatrix haben Periode, da die Markov-Kette nach genau drei Schritten wieder in den ursprünglichen Zustand zurückkehrt. Die Markov-Kette ist damit nicht aperiodisch. 0 0 P = Bei der Markov-Kette mit der nächsten Übergangsmatrix sind beide Zustände aperiodisch und damit ist auch die Markov-Kette aperiodisch. ( ) 0 P =

9 88 7 MARKOV-KETTEN Definition 7.6 (Irreduzible Zustände) Zwei Zustände i j einer Markov-Kette X kommunizieren miteinander, falls f ij > 0 und f ji > 0. Schreibweise: i j Ein Zustand i kommuniziert per definitionem immer mit sich selber: i i Eine Menge C S heißt irreduzibel, falls i j für alle i, j C. Eine Menge C S heißt geschlossen, falls p ij = 0 für alle i C und j C. Beispiel 7.9 Folgende Markov-Ketten haben einen reduziblen Zustandsraum: P = P 2 = 0 0 In P 2 zum Beispiel kommunizieren nicht alle Zustände miteinander: Die Wahrscheinlichkeit vom Zustand in Zustand 2 oder zu kommen ist 0. Dagegen ist der Zustandsraum S der Markov-Kette P irreduzibel, da die Wahrscheinlichkeit von einem Zustand i irgendwann nach Zustand j zu kommen echt positiv ist für alle i, j S: P = 0 2 Satz 7. (Zerlegungssatz) Der Zustandraum S einer Markov-Kette X lässt sich zerlegen in 2. eine Menge T mit transienten Zuständen und 2. mehrere Mengen C k, die irreduzibel und geschlossen sind. Also S = T C C 2... Ferner gilt folgendes Lemma: Wenn S endlich ist, dann ist mindestens ein Zustand rekurrent, und alle rekurrenten Zustände sind nicht-leer. Beispiel 7.0 Eine Markov-Kette habe den Zustandsraum S = {, 2,, 4, 5, 6} und die

10 7.2 Klassifikation von Zuständen und Markov-Ketten 89 Übergangsmatrix P = Bestimme nun die Periode jedes Zustands, transiente Zustände und ergodische Zustände, sowie die Zerlegung des Zustandsraumes:. alle Zustände haben die Periode die Markov-Kette ist aperiodisch 2. die Zustände und 4 sind transient und die anderen sind rekurrent. die Zustände,2,5 und 6 sind ergodisch 4. Zerlegung des Zustandsraumes S = T C C 2 mit T = {, 4} C = {, 2} C 2 = {5, 6}

11 90 7 MARKOV-KETTEN 7. Die stationäre Verteilung und das Grenzwerttheorem Definition 7.7 Eine Wahrscheinlichkeitsverteilung π (Zeilenvektor) mit Einträgen (π j : j S) heißt stationäre Verteilung einer Markov-Kette X mit Übergangsmatrix P, falls gilt: π j = i π i p ij oder in Matrixnotation: π = π P (6) Interpretation der stationären Verteilung: Hat die Markov-Kette X die Verteilung π zu einem gewissen Zeitpunkt n, dann auch im nächsten Zeitpunkt n + und sogar in allen nachfolgenden Zeitpunkten i = n + 2, n +,... Denn es gilt z.b. für i = n + 2: π P 2 = (πp )P (6) = πp (6) = π Oft wählt man für die Anfangsverteilung µ 0 die stationäre Verteilung, d.h. µ 0 = π. Im folgenden betrachten wir ausschließlich irreduzible Markov-Kette (Zustandsraum S ist irreduzibel). Satz 7.2 (Satz über die stationäre Verteilung) Eine irreduzible Markov-Kette hat eine stationäre Verteilung π genau dann, wenn alle Zustände nicht-leer rekurrent sind. In diesem Fall ist π eindeutig und gegeben durch π i = /µ i wobei µ i die erwartete Rekurrenzzeit des Zustands i ist. Bei endlichem Zustandsraum gilt dann: π = (I P + U) wobei I die Einheitsmatrix und ein Zeilenvektor mit Einsen ist und die Matrix U nur Elemente gleich eins hat. Für eine Markov-Kette mit 2 Zuständen lässt sich die stationäre Verteilung leicht durch eine Formel ermitteln: Sei die noch unbekannte stationäre Verteilung gegeben durch π = (π, π 2 ) = (π, π )

12 7. Die stationäre Verteilung und das Grenzwerttheorem 9 und die Übergangsmatrix ist: ( ) p2 p P = 2 p 2 p 2 Um π zu berechnen wendet man die Formel π = π P an: ( p2 p π = π P (π, π ) = (π, π ) 2 p 2 p 2 In der ersten Spalte der Gleichung ergibt sich für π : ) π = π ( p 2 ) + ( π )p 2 = p 2 + p 2 Damit lässt sich auch π 2 berechnen: = π π p 2 + p 2 π p 2 p 2 π 2 = π = p 2 p 2 + p 2 = p 2 + p 2 Die zweite Spalte ergibt die gleiche Lösung: ( ) p2 p 2 π = (π, π 2 ) =, p 2 + p 2 p 2 + p 2 Beispiel 7. (Berechnung einer stationären Verteilung) Für die Markov-Kette mit folgender Übergangsmatrix ( ) P = soll die zugehörige stationäre Verteilung berechnet werden. Auf einfachstem Wege lässt sich dieses Ziel erreichen, wenn man die Werte in die eben ausgerechnete Formel (7) einsetzt: ( 0.4 π = (π, π 2 ) = 0.5, 0. ) = (0.8, 0.2) 0.5 Die erwarteten Rekurrenzzeiten sind demnach µ = 5/4 für Zustand und µ 2 = 5 für Zustand 2. Eine weitere Möglichkeit zur Berechnung wurde im Satz 7.2 beschrieben: π = (I P + U) [( ) 0 = (, ) 0 Weitere Rechnung in R: p 2 ( ) + ( )] (7)

13 92 7 MARKOV-KETTEN > i <- matrix(c(, 0, 0, ), nrow = 2, ncol = 2, byrow = TRUE) > p <- matrix(c(0.9, 0., 0.4, 0.6), nrow = 2, ncol = 2, byrow = T) > u <- matrix(c(,,, ), nrow = 2, ncol = 2, byrow = TRUE) > m <- i - p + u > m [,] [,2] [,]. 0.9 [2,] > m_invers <- solve(m) > m_invers [,] [,2] [,] [2,] > einser <- c(, ) > stat_vtlg <- crossprod(einser, m_invers) > stat_vtlg [,] [,2] [,] Wie sieht die stationäre Verteilung für die Markov-Kette mit dieser Übergangsmatrix aus: 0 0 P = Alle Zustände sind periodisch mit Periode, die erwartete Rekurrenzzeit beträgt damit jeweils /. Daher ergibt sich für π = (,, ). Reversible Markov-Ketten Sei X = (X 0,..., X N ) eine reguläre Markov-Kette mit Übergangsmatrix P und stationärer Verteilung π, die X auch zu jedem Zeitpunkt n = 0,..., N besitze. Definiere nun Y = (X N,..., X 0 ) mit Y n = X N n. Dann ist Y auch eine Markov-Kette mit den Übergangswahrscheinlichkeiten P (Y n+ = j Y n = i) = (π j /π i )p ji

14 7. Die stationäre Verteilung und das Grenzwerttheorem 9 Beweis der Markov-Eigenschaft für Y : Sei also Y n = X N n. Dann gilt: P (Y n+ = i n+ Y n = i n,..., Y 0 = i 0 ) = P (Y k = i k, 0 k n + ) P (Y k = i k, 0 k n) = P (X N (n+) = i n+, X N n = i n,..., X n = i 0 ) P (X N n = i n,..., X n = i 0 ) P (X N (n+) = i n+, X N n = i n,..., X n = i 0 ) = P (X N n = i n )P (X N (n ) = i n X N n = i n )... P (X n = i 0 X N = i ) = π i n+ p in+ i n... p i i 0 π in p ini n... p i i 0 = π i n+ π in p in+ i n Y ist Markov-Kette Definition 7.8 Man sagt nun X ist reversibel, falls X und Y identische Übergangswahrscheinlichkeiten haben, d.h. falls i, j S gilt: Man sagt: X ist in local balance. π i p ij = π j p ji Beispiel 7.2 (Reversible Markov-Kette) Sei die Übergangsmatrix der Markov-Kette X gegeben als ( ) P = von der bereits die stationäre Verteilung bekannt ist: P = π = (0.8, 0.2) Berechnet man die Übergangsmatrix P von der Markov-Kette Y ( ) = ( ) so stellt man fest, dass P und P übereinstimmen. Daher ist die Markov- Kette X reversibel.

15 94 7 MARKOV-KETTEN Satz 7. Alle irreduziblen Markov-Ketten mit zwei Zuständen sind reversibel. Beweis: z.z. π i p ij = π j p ji i, j {, 2} Wie bereits bewiesen, haben π und π 2 folgende Werte: π = Fall (a) i = j = ist trivial p 2 p 2 + p 2 und π 2 = Fall (b) i = j = 2 ebenfalls trivial Fall (c) i =, j = 2: p 2 π = p 2 Fall (d) i = 2, j = ist analog Fall (c) p 2 p 2 + p 2 p 2 p p 2 +p 2 = p 2 2 p 2 +p 2 = p 2 π 2 Außerdem sind Markov-Ketten mit tri-diagonaler (nur die Haupt- und zwei Nebendiagonalen sind besetzt, alle anderen Werte sind 0) Übergangsmatrix P reversibel, z.b. der random walk auf endlichem Zustandsraum S = {0,,..., b} oder der Prozess aus Beispiel 7.5 (Stichwort: Genhäufigkeit in Population konstanter Größe). Graphen-orientierte Interpretation der Reversibilität: Knoten in einem Netzwerk sind Zustände, Pfeile zwischen Knoten i und j implizieren dass p ij > 0. Jeder Knoten i habe anfänglich Anteil π i eines Materials. Ein Knoten i liefert in einem Zeitschritt den Anteil p ij eines bestimmten Materials nach j. global balance : j π jp ji = π i, da π = πp local balance : π i p ij = π j p ji, d.h. der Anteil der von i nach j transportiert wird ist gleich dem Anteil der von j nach i transportiert wird Es gilt aus local balance folgt global balance. Satz 7.4 Sei X eine irreduzible Markov-Kette mit Übergangsmatrix P. Ferner gebe es eine Verteilung π mit π i p ij = π j p ji für alle i, j S. Dann ist π die stationäre Verteilung und X ist bzgl. π reversibel.

16 7. Die stationäre Verteilung und das Grenzwerttheorem 95 Beweis: π i p ij = i i π j p ji = π j p ji = π j i Satz 7.5 (Grenzwerttheorem) Eine irreduzible und aperiodische Markov-Kette konvergiert gegen ihre stationäre Verteilung π für n und alle i: p ij (n) π j = µ j bzw. P n = P n π π... π und daher µ (0) P n π für alle µ (0), da gilt: µ (0) P n = (µ,..., µ m )P n (( ) ( ) ) n = µ i π,..., µ i π m = (π,..., π m ) = π i Wichtig ist es zu betonen, dass Satz 7.5 nur für irreduzible und aperiodische Markov-Kette gilt. Denn betrachtet man die folgende Markov-Kette X mit Übergangsmatrix 0 0 P = dann stellt man fest, dass diese Kette periodisch (Periode ) ist und damit die stationäre Verteilung π = (/, /, /) hat. Für n konvergiert P aber nicht gegen π. i

17 96 7 MARKOV-KETTEN 7.4 Inferenz für Markov-Ketten Mit Hilfe der Inferenz können bei einer Markov-Kette X z.b. die Übergangswahrscheinlichkeiten zwischen den einzelnen Zuständen (Einträge in der S S Übergangsmatrix P ) basierend auf einer (oder mehrerer) Realisationen von X geschätzt werden. Dabei scheint es plausibel zu sein, die Übergangswahrscheinlichkeiten p ij durch die entsprechenden Übergangshäufigkeiten ˆp ij = n ij n i zu schätzen, wobei n ij die Anzahl der beobachteten Übergänge von Zustand i nach j (i, j S) ist und n i = j n ij. Diese intuitiven Schätzer sind auch die ML-Schätzer, was im Folgenden hergeleitet wird. Grundlage ist die Realisation X 0 = x 0, X = x,..., X N = x N von X. Die Likelihood berechnet sich somit als L(P ) = µ (0) x 0 Die Log-Likelihood lautet dann n t= p xt,x t = µ (0) x 0 i,j p n ij ij l(p ) = log(µ (0) x 0 ) + i,j n ij log(p ij ) Es tritt nun das Problem auf, dass mehrere Parameter in θ = P durch Maximierung der Log-Likelihood l(p ) geschätzt werden müssen und noch zusätzlich die Restriktion p ij = j für alle i zu berücksichtigen ist. Daher wird die Lagrangesche Multiplikatorenmethode angewendet: Dabei wird ) l (P ) = log(µ (0) x 0 ) + i,j n ij log(p ij ) i λ i ( j p ij maximiert, indem die partiellen Ableitungen nach p ij dl (P ) p ij = n ij p ij λ i

18 7.4 Inferenz für Markov-Ketten 97 gebildet werden. Werden diese Ableitungen gleich Null gesetzt, so erhält man Durch Summation über j folgt n ij = λ i p ij λ i = j n ij = n i und schließlich ˆp ij = n ij n i. Damit hat man nun gezeigt, dass die ML-Schätzer der Übergangswahrscheinlichkeiten die relativen Häufigkeiten der Übergänge in der vorliegenden Realisation sind.

19 98 7 MARKOV-KETTEN 7.5 Hidden Markov Modell In diesem Kapitel werden wir eine Verallgemeinerung von Markov-Ketten, die so genannten Hidden Markov Modelle kennenlernen. Hierbei trennt man die im Modell vorhandenen Zustände und die nach außen sichtbaren Ereignisse voneinander (bei Markov-Ketten waren diese identisch). Anwendungen finden Hidden Markov Modelle in verschiedenen Bereichen wie beispielsweise in der Ökonometrie, der Genetik (DNA-Sequenzierung, Stammbaumanalyse), der Spracherkennung etc. Die latenten Parameter X = (X,..., X N ) folgen einer (homogenen) Markovkette mit diskretem Zustandsraum S mit Übergangsmatrix P mit p ij = P (X t = j X t = i) Anfangsverteilung π mit π i = P (X 0 = i) (oft impliziert durch π = πp ) Die Beobachtungen y t x t = s sind bedingt unabhängig aus einer Verteilung mit Wahrscheinlichkeitsfunktion/Dichte f s (y t ) mit Parametern θ s, welche z.b.: eine diskrete Verteilung mit Missklassifizierungswahrscheinlichkeiten p s sein kann, oder auch eine Poissonverteilung mit Raten λ s Bemerkung: Hidden Markov Modelle liefern eine realistischere Modellierung als eine direkte Modellierung der Beobachtung als homogene Markov-Kette. Beispiel 7. (Verrauschtes binäres Signal) Das empfangene Signal entspricht den zur Verfügung stehenden Daten: y = ( ) Die Größe des Zustandsraumes S = 2, da S = {, 2}. Weiter gilt N = 20. Außerdem ist die Matrix mit den Übergangswahrscheinlichkeiten für X gegeben: ( ) P X = Daraus ergibt sich als stationäre Verteilung: π = ( )

20 7.5 Hidden Markov Modell 99 Weiter ist die Verteilung von Y gegeben X bekannt: f(y t = x t = ) = 0.8 f(y t = x t = 2) = 0.2 (Verrauschung) f(y t = 2 x t = ) = 0.2 (Verrauschung) f(y t = 2 x t = 2) = 0.8 Ziel der statistischen Inferenz ist nun die Restauration der Sequenz X: x = (????????????????????) Bei der Inferenz mit festen Hyperparametern gilt, dass P, π und θ (Verteilung von Y gegeben X) fest sind. Ziel ist es, eine möglichst genaue Schätzung der latenten Zustände x = (x,..., x N ) anzugeben. Die Posteriori-Verteilung f(x y) berechnet sich wie folgt: f(x y) = f(x, y)/f(y) f(x, y) N = π x t=2 p xt x t } {{ } f(x) N f xt (y t ) t= } {{ } f(y x) Das Problem, das sich hierbei ergibt, ist, dass es S N (!) unterschiedliche Sequenzen x gibt. Folgende Methoden liefern einen Posteriori-Modus-Schätzer (MAP-Schätzer): Viterbi-Algorithmus von Viterbi (967): Dies ist ein rekursiver Algorithmus zur Maximierung von f(x, y) bzgl. x, welcher numerisch sehr effizient ist: O( S 2 N) Simulated annealing von Kirkpatrick, Gelatt & Vecchi (98) Beispiel 7.4 (Fortsetzung von Beispiel 7.) Für die Daten y = ( ) ergeben sich folgende Schätzer für die ursprüngliche Nachricht x:

21 00 7 MARKOV-KETTEN Schätzer von x post. Wkeit P (x y) ˆx MAP = ( ) ˆx MAP 2 = ( ) ˆx MP M = ( ) 0.05 y = ( ) Hierbei bezeichnet ˆx MP M den marginalen Posteriori Modus, d.h. jedes x i, i =,..., 20, in ˆx MP M hat marginale Posteriori-Wahrscheinlichkeit P (x i y) > 0.5. Seinen nun bestimmte Hyperparameter θ unbekannt, wie beispielsweise die Übergangsmatrix P oder die Verteilung f(y i x i ). Zum Schätzen der unbekannten Hyperparameter kommen folgende Ansätze zum Tragen: Klassische Likelihood-Ansätze maximieren die (marginale) Likelihood f(y) = f(y θ) bezüglich θ, z.b. mit dem Baum-Welch-Algorithmus (iterativer (EM-)Algorithmus zur Maximierung von f(y θ)) von Baum et al. (970) und Dempster, Laird & Rubin (977). Problematisch ist hierbei die Berechnung von f(y θ) = f(x, y θ), x da die Anzahl der Summanden im Allgemeinen sehr gross ist. Bayesianische Ansätze verwenden zusätzliche priori-verteilungen f(θ) und simulieren aus der Posteriori-Verteilung f(x, θ y) f(x, y θ) f(θ) mit Markov-Ketten Monte Carlo (MCMC) Verfahren Beispiel 7.5 (Fortsetzung von den Beispielen 7. und 7.4) Die Daten waren: y = ( ) Bisher war P X bekannt: P X = ( ) bekannt Seinen nun die Einträge in P X unbekannt: ( ) p p P X = unbekannt p 2 p 22 Die marginale Likelihood L(p, p 22 ) der Diagonalelemente p und p 22 ist in folgender Graphik dargestellt. Die ML-Schätzungen sind ˆp = 0.85 und ˆp 22 = 0.78.

22 7.5 Hidden Markov Modell 0 p p Abbildung 8: Marginale Likelihood L(p, p 22 ) dargestellt als Contour-Plot.

Proseminarvortrag. Markov-Ketten in der Biologie (Anwendungen)

Proseminarvortrag. Markov-Ketten in der Biologie (Anwendungen) Proseminarvortrag Markov-Ketten in der Biologie (Anwendungen) von Peter Drössler 20.01.2010 2 Markov-Ketten in der Biologie (Peter Drössler, KIT 2010) Inhalt 1. Das Wright-Fisher Modell... 3 1.1. Notwendige

Mehr

Simulationsmethoden in der Bayes-Statistik

Simulationsmethoden in der Bayes-Statistik Simulationsmethoden in der Bayes-Statistik Hansruedi Künsch Seminar für Statistik, ETH Zürich 6. Juni 2012 Inhalt Warum Simulation? Modellspezifikation Markovketten Monte Carlo Simulation im Raum der Sprungfunktionen

Mehr

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung

Mehr

Klausur zur Vorlesung,,Algorithmische Mathematik II

Klausur zur Vorlesung,,Algorithmische Mathematik II Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

LANGZEITVERHALTEN VON MARKOW-KETTEN

LANGZEITVERHALTEN VON MARKOW-KETTEN LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Markovketten. Bsp. Page Ranking für Suchmaschinen. Wahlfach Entscheidung unter Risiko und stat. Datenanalyse 07.01.2015

Markovketten. Bsp. Page Ranking für Suchmaschinen. Wahlfach Entscheidung unter Risiko und stat. Datenanalyse 07.01.2015 Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung von Systemen, deren Verhalten durch einen zufälligen Übergang von einem Systemzustand zu einem anderen Systemzustand gekennzeichnet

Mehr

4.4. Rang und Inversion einer Matrix

4.4. Rang und Inversion einer Matrix 44 Rang und Inversion einer Matrix Der Rang einer Matrix ist die Dimension ihres Zeilenraumes also die Maximalzahl linear unabhängiger Zeilen Daß der Rang sich bei elementaren Zeilenumformungen nicht ändert

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Die Taylorreihe einer Funktion

Die Taylorreihe einer Funktion Kapitel 6 Die Taylorreihe einer Funktion Dieser Abschnitt beschäftigt sich mit Taylorreihen, Taylorpolynomen und der Restgliedabschätzung für Taylorpolynome. Die Taylorreihe einer reellen Funktion ist

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare

Mehr

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2.

1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2. Definition Die rechteckige Anordnung von m n Elementen a ij in m Zeilen und n Spalten heißt m n- Matrix. Gewöhnlich handelt es sich bei den Elementen a ij der Matrix um reelle Zahlen. Man nennt das Paar

Mehr

Grundlegende Eigenschaften von Punktschätzern

Grundlegende Eigenschaften von Punktschätzern Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur

Mehr

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen

Mehr

Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die

Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Rückwärtsgleichung P (t) = QP (t), P (0) = E eine minimale nicht negative Lösung (P (t) : t 0). Die Lösung bildet eine Matrix Halbgruppe, d.h. P (s)p

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS Aufgabe 1. a) Gegeben sei die Gleichung 2x 2 4xy +y 2 3x+4y = 0. Verifizieren Sie, dass diese Gleichung

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.)

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.) 3. Untergruppen 19 3. Untergruppen Nachdem wir nun einige grundlegende Gruppen kennengelernt haben, wollen wir in diesem Kapitel eine einfache Möglichkeit untersuchen, mit der man aus bereits bekannten

Mehr

Stochastik und Statistik für Ingenieure Vorlesung 4

Stochastik und Statistik für Ingenieure Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl

Mehr

Lineare Abhängigkeit

Lineare Abhängigkeit Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung Kapitel 2: Matrizen 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung 2.1 Matrizen M = n = 3 m = 3 n = m quadratisch M ij : Eintrag von M in i-ter

Mehr

MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben)

MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben) Musterlösung zum. Aufgabenblatt zur Vorlesung MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur Gruben. Wahrscheinlichkeiten I ( Punkte Die Seiten von zwei Würfeln sind mit den folgenden Zahlen

Mehr

Simulation von Zufallsvariablen und Punktprozessen

Simulation von Zufallsvariablen und Punktprozessen Simulation von Zufallsvariablen und Punktprozessen 09.11.2009 Inhaltsverzeichnis 1 Einleitung 2 Pseudozufallszahlen 3 Punktprozesse Zufallszahlen Definition (Duden): Eine Zufallszahl ist eine Zahl, die

Mehr

5 Zwei spieltheoretische Aspekte

5 Zwei spieltheoretische Aspekte 5 Zwei spieltheoretische Aspekte In diesem Kapitel wollen wir uns mit dem algorithmischen Problem beschäftigen, sogenannte Und-Oder-Bäume (kurz UOB) auszuwerten. Sie sind ein Spezialfall von Spielbäumen,

Mehr

Werner Sandmann: Modellierung und Analyse 4 1. Kapitel 4. Markovketten

Werner Sandmann: Modellierung und Analyse 4 1. Kapitel 4. Markovketten Werner Sandmann: Modellierung und Analyse 4 1 Kapitel 4 Markovketten Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.1 Grundlagen 4 2 Abschnitt 4.1 Grundlagen Werner Sandmann: Modellierung

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.

Mehr

Surjektive, injektive und bijektive Funktionen.

Surjektive, injektive und bijektive Funktionen. Kapitel 1: Aussagen, Mengen, Funktionen Surjektive, injektive und bijektive Funktionen. Definition. Sei f : M N eine Funktion. Dann heißt f surjektiv, falls die Gleichung f(x) = y für jedes y N mindestens

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

Elemente von S n = Aut([1, n]) heißen Permutationen. Spezielle Permutationen sind Transpositionen und Zyklen. (Vergl. Skript S

Elemente von S n = Aut([1, n]) heißen Permutationen. Spezielle Permutationen sind Transpositionen und Zyklen. (Vergl. Skript S Begriffe Faser: Es sei f : M N eine Abbildung von Mengen. Es sei n N. Die Menge f 1 ({n}) M nennt man die Faser in n. (Skript Seite 119). Parallel: Zwei Vektoren v und w heißen parallel, wenn für einen

Mehr

Diskrete Verteilungen

Diskrete Verteilungen KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder

Mehr

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7

Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7 Vorbereitungskurs Mathematik zum Sommersemester 2011 Tag 7 Timo Stöcker Erstsemestereinführung Informatik TU Dortmund 22. März 2011 Heute Themen Lineare Gleichungssysteme Matrizen Timo Stöcker https://fsinfo.cs.tu-dortmund.de/studis/ese/vorkurse/mathe

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

A2.3 Lineare Gleichungssysteme

A2.3 Lineare Gleichungssysteme A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen

Mehr

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen. Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.

Mehr

Freisetzen und Fixieren von Parametern in Strukturgleichungsmodellen

Freisetzen und Fixieren von Parametern in Strukturgleichungsmodellen Freisetzen und Fixieren von Parametern in Strukturgleichungsmodellen 1 Variablen und Parameter Variablen haben für verschiedene Personen unterschiedliche Werte. Parameter haben für eine gegebene Population

Mehr

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik Universität Karlsruhe (TH) Institut für Stochastik Dr. Bernhard Klar Dipl.-Math. oec. Volker Baumstark Name Vorname Matr.-Nr.: Scheinklausur Stochastik für Studierende des Lehramts und der Diplom-Pädagogik

Mehr

2. Repräsentationen von Graphen in Computern

2. Repräsentationen von Graphen in Computern 2. Repräsentationen von Graphen in Computern Kapitelinhalt 2. Repräsentationen von Graphen in Computern Matrizen- und Listendarstellung von Graphen Berechnung der Anzahl der verschiedenen Kantenzüge zwischen

Mehr

Begriffe aus der Informatik Nachrichten

Begriffe aus der Informatik Nachrichten Begriffe aus der Informatik Nachrichten Gerhard Goos definiert in Vorlesungen über Informatik, Band 1, 1995 Springer-Verlag Berlin Heidelberg: Die Darstellung einer Mitteilung durch die zeitliche Veränderung

Mehr

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig) ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels

Mehr

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1 Einführung in die Bayes-Statistik Helga Wagner Ludwig-Maximilians-Universität München WS 2010/11 Helga Wagner Bayes Statistik WS 2010/11 1 Organisatorisches Termine: Montag: 16.00-18.00 AU115 Dienstag:

Mehr

b) Bestimmen Sie die Varianz der beiden Schätzer. c) Ist ein oder sind beide Schätzer konsistent? Begründen Sie!

b) Bestimmen Sie die Varianz der beiden Schätzer. c) Ist ein oder sind beide Schätzer konsistent? Begründen Sie! Aufgabe 1 (3 + 3 + 2 Punkte) Ein Landwirt möchte das durchschnittliche Gewicht von einjährigen Ferkeln bestimmen lassen. Dies möchte er aus seinem diesjährigen Bestand an n Tieren schätzen. Er kann dies

Mehr

Markov-Ketten-Monte-Carlo-Verfahren

Markov-Ketten-Monte-Carlo-Verfahren Markov-Ketten-Monte-Carlo-Verfahren Anton Klimovsky 21. Juli 2014 Strichprobenerzeugung aus einer Verteilung (das Samplen). Markov- Ketten-Monte-Carlo-Verfahren. Metropolis-Hastings-Algorithmus. Gibbs-Sampler.

Mehr

Aufgaben zu Kapitel 14

Aufgaben zu Kapitel 14 Aufgaben zu Kapitel 14 1 Aufgaben zu Kapitel 14 Verständnisfragen Aufgabe 14.1 Haben (reelle) lineare Gleichungssysteme mit zwei verschiedenen Lösungen stets unendlich viele Lösungen? Aufgabe 14.2 Gibt

Mehr

4 Vorlesung: 21.11. 2005 Matrix und Determinante

4 Vorlesung: 21.11. 2005 Matrix und Determinante 4 Vorlesung: 2111 2005 Matrix und Determinante 41 Matrix und Determinante Zur Lösung von m Gleichungen mit n Unbekannten kann man alle Parameter der Gleichungen in einem rechteckigen Zahlenschema, einer

Mehr

1 Grundprinzipien statistischer Schlußweisen

1 Grundprinzipien statistischer Schlußweisen Grundprinzipien statistischer Schlußweisen - - Grundprinzipien statistischer Schlußweisen Für die Analyse zufallsbehafteter Eingabegrößen und Leistungsparameter in diskreten Systemen durch Computersimulation

Mehr

Prof. Dr. Christoph Kleinn Institut für Waldinventur und Waldwachstum Arbeitsbereich Waldinventur und Fernerkundung

Prof. Dr. Christoph Kleinn Institut für Waldinventur und Waldwachstum Arbeitsbereich Waldinventur und Fernerkundung Systematische Stichprobe Rel. große Gruppe von Stichprobenverfahren. Allgemeines Merkmal: es existiert ein festes, systematisches Muster bei der Auswahl. Wie passt das zur allgemeinen Forderung nach Randomisierung

Mehr

Kapitel VI - Lage- und Streuungsparameter

Kapitel VI - Lage- und Streuungsparameter Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie

Mehr

Diskrete Wahrscheinlichkeitstheorie - Probeklausur

Diskrete Wahrscheinlichkeitstheorie - Probeklausur Diskrete Wahrscheinlichkeitstheorie - robeklausur Sommersemester 2007 - Lösung Name: Vorname: Matrikelnr.: Studiengang: Hinweise Sie sollten insgesamt Blätter erhalten haben. Tragen Sie bitte Ihre Antworten

Mehr

Lösungen zum 5. Aufgabenblatt

Lösungen zum 5. Aufgabenblatt SS 2012, Lineare Algebra 1 Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com

Mehr

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008 Bayes sche Klassifikatoren Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 16. Juli 2008 Inhalt Einleitung Grundlagen der Wahrscheinlichkeitsrechnung Noisy-Channel-Modell Bayes sche Klassifikation

Mehr

8. Konfidenzintervalle und Hypothesentests

8. Konfidenzintervalle und Hypothesentests 8. Konfidenzintervalle und Hypothesentests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Beispiel. Sie wollen den durchschnittlichen Fruchtsaftgehalt eines bestimmten Orangennektars

Mehr

Stochastische Prozesse. Woche 5

Stochastische Prozesse. Woche 5 FS 2016 Stochastische Prozesse Woche 5 Aufgabe 1 PageRank-Algorithmus von Google Das Herz der Google-Suchmaschine ist ein Algorithmus, der alle Dokumente des WWW nach ihrer Wichtigkeit anordnet. Die Auflistung

Mehr

Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen

Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen In diesem Kapitel betrachten wir die Invertierbarkeit von glatten Abbildungen bzw. die Auflösbarkeit von impliziten Gleichungen.

Mehr

Aufabe 7: Baum-Welch Algorithmus

Aufabe 7: Baum-Welch Algorithmus Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Von englischen und deutschen Postämtern

Von englischen und deutschen Postämtern Von englischen und deutschen Postämtern Teilnehmer: Ricky Burzla Robert Butz Jan Putzig Antoni Schilling Jakob Steinbrück Patrick Zielonka Wilhelm-Ostwald-Gymnasium, Leipzig Herder-Oberschule, Berlin Heinrich-Hertz-Oberschule,

Mehr

I. Deskriptive Statistik 1

I. Deskriptive Statistik 1 I. Deskriptive Statistik 1 1. Einführung 3 1.1. Grundgesamtheit und Stichprobe.................. 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................

Mehr

K8 Stetige Zufallsvariablen Theorie und Praxis

K8 Stetige Zufallsvariablen Theorie und Praxis K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R

Mehr

STOCHASTISCHE PROZESSE. Vorlesungsskript

STOCHASTISCHE PROZESSE. Vorlesungsskript STOCHASTISCHE PROZESSE I: Markovketten in diskreter und stetiger Zeit Wolfgang König Vorlesungsskript Universität Leipzig Sommersemester 2005 Inhaltsverzeichnis 1 Grundlagen 3 1.1 Einleitung........................................

Mehr

Serie 10: Inverse Matrix und Determinante

Serie 10: Inverse Matrix und Determinante D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die

Mehr

Erinnerung/Zusammenfassung zu Abbildungsmatrizen

Erinnerung/Zusammenfassung zu Abbildungsmatrizen Erinnerung/Zusammenfassung zu Abbildungsmatrizen Thomas Coutandin (cthomas@student.ethz.ch) 7. November 2 Abbildungsmatrizen Im Folgenden betrachten wir stets endlich dimensionale K-Vektorräume (K irgend

Mehr

Definition der Entropie unter Verwendung von supp(p XY )

Definition der Entropie unter Verwendung von supp(p XY ) Definition der Entropie unter Verwendung von supp(p XY ) Wir fassen die Ergebnisse des letzten Abschnitts nochmals kurz zusammen, wobei wir von der zweidimensionalen Zufallsgröße XY mit der Wahrscheinlichkeitsfunktion

Mehr

BONUS MALUS SYSTEME UND MARKOV KETTEN

BONUS MALUS SYSTEME UND MARKOV KETTEN Fakultät Mathematik und Naturwissenschaften, Fachrichtung Mathematik, Institut für Mathematische Stochastik BONUS MALUS SYSTEME UND MARKOV KETTEN Klaus D. Schmidt Ringvorlesung TU Dresden Fakultät MN,

Mehr

Jürgen Roth Didaktik der Linearen Algebra & Analytischen Geometrie

Jürgen Roth Didaktik der Linearen Algebra & Analytischen Geometrie Jürgen Roth Didaktik der Linearen Algebra und Analytischen Geometrie Modul 12a: Fachdidaktische Bereiche juergen-roth.de/lehre/did_linalg_anageo/ Kapitel 3: Modellieren & Angewandte Mathematik 3.1 Inhalte

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

4. Vektorräume und Gleichungssysteme

4. Vektorräume und Gleichungssysteme technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume

Mehr

Mathematik: LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 12. Erwartungswert, Varianz und Standardabweichung

Mathematik: LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 12. Erwartungswert, Varianz und Standardabweichung Mathematik: LehrerInnenteam Arbeitsblatt 7-7. Semester ARBEITSBLATT Erwartungswert, Varianz und Standardabweichung Die Begriffe Varianz und Standardabweichung sind uns bereits aus der Statistik bekannt

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick

Mehr

Kapitel 17. Determinanten

Kapitel 17. Determinanten Kapitel 17. Determinanten Vorschau: Determinanten Es gibt drei Problemfelder, für die Determinanten von großem Nutzen sind: die formelmäßige Überprüfung der linearen Unabhängigkeit eines Systems von n

Mehr

13. Klasse TOP 10 Grundwissen 13 Geradengleichungen 01

13. Klasse TOP 10 Grundwissen 13 Geradengleichungen 01 . Klasse TOP 0 Grundwissen Geradengleichungen 0 Punkt-Richtungs-Form Geraden sind gegeben durch einen Aufpunkt A (mit Ortsvektor a) auf der Geraden und einen Richtungsvektor u: x = a + λ u, λ IR. (Interpretation:

Mehr

3.1.3 Newtonsche Interpolationsformel / Dividierte Differenzen

3.1.3 Newtonsche Interpolationsformel / Dividierte Differenzen KAPITEL 3 INTERPOLATION UND APPROXIMATION 4 33 Newtonsche Interpolationsformel / Dividierte Differenzen Das Verfahren von Neville ist unpraktisch, wenn man das Polynom selbst sucht oder das Polynom an

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

Graphen: Einführung. Vorlesung Mathematische Strukturen. Sommersemester 2011

Graphen: Einführung. Vorlesung Mathematische Strukturen. Sommersemester 2011 Graphen: Einführung Vorlesung Mathematische Strukturen Zum Ende der Vorlesung beschäftigen wir uns mit Graphen. Graphen sind netzartige Strukturen, bestehend aus Knoten und Kanten. Sommersemester 20 Prof.

Mehr

Algorithmen mit konstantem Platzbedarf: Die Klasse REG

Algorithmen mit konstantem Platzbedarf: Die Klasse REG Algorithmen mit konstantem Platzbedarf: Die Klasse REG Sommerakademie Rot an der Rot AG 1 Wieviel Platz brauchen Algorithmen wirklich? Daniel Alm Institut für Numerische Simulation Universität Bonn August

Mehr

00. Einiges zum Vektorraum R n

00. Einiges zum Vektorraum R n 00. Einiges zum Vektorraum R n In diesem einleitenden Kapitel werden die in der LV Einführung in die mathematischen Methoden erwähnten Konzepte über Vektoren (im R 2 und R 3 ) im Rahmen des n-dimensionalen

Mehr

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:

Mehr

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden: Inverse Matritzen Spezialfall: Die Gleichung ax b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a a 1 gelöst werden: ax b x b a a 1 b. Verallgemeinerung auf Ax b mit einer n nmatrix A: Wenn es

Mehr

Mathematik 1. Inhaltsverzeichnis. Prof. Dr. K. Melzer. karin.melzer@hs-esslingen.de http://www.hs-esslingen.de/de/mitarbeiter/karin-melzer.

Mathematik 1. Inhaltsverzeichnis. Prof. Dr. K. Melzer. karin.melzer@hs-esslingen.de http://www.hs-esslingen.de/de/mitarbeiter/karin-melzer. Mathematik 1 Prof Dr K Melzer karinmelzer@hs-esslingende http://wwwhs-esslingende/de/mitarbeiter/karin-melzerhtml Inhaltsverzeichnis 1 Matrizenrechnung 2 11 Matrixbegri 2 12 Spezielle Matrizen 3 13 Rechnen

Mehr

Fragenkatalog Kapitel 1 Fehleranalyse

Fragenkatalog Kapitel 1 Fehleranalyse Teil 1: Numerik katalog Kapitel 1 Fehleranalyse 1. Zwischen was besteht ein funktionaler Zusammenhang z i? Welche Form hat er? 2. Welche 4 Typen von Fehlerquellen gibt es? Nenne Beispiele! 3. Wie berechnet

Mehr

Dierentialgleichungen 2. Ordnung

Dierentialgleichungen 2. Ordnung Dierentialgleichungen 2. Ordnung haben die allgemeine Form x = F (x, x, t. Wir beschränken uns hier auf zwei Spezialfälle, in denen sich eine Lösung analytisch bestimmen lässt: 1. reduzible Dierentialgleichungen:

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte

Mehr

Die Harmonische Reihe

Die Harmonische Reihe Die Harmonische Reihe Wie stellt sich Determinismus in der Mathematik dar? Wie stellt man Daten dar? Wie findet man das Resultat von unendlich vielen Schritten? Mehrere Wege können zu demselben Ziel führen

Mehr

Kapitel 10. Bayes sche Verfahren Einführung Das Theorem von Bayes

Kapitel 10. Bayes sche Verfahren Einführung Das Theorem von Bayes Kapitel 10 Bayes sche Verfahren 10.1 Einführung Alle bislang besprochenen Konzepte und Methoden (einschließlich der Grundstudiumsinhalte), können unter der Überschrift Klassische Methoden eingeordnet werden.

Mehr

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Kapitel 3 Lineare Gleichungssysteme 3.1. Einleitung Beispiel 1 3 Kinder haben eingekauft. Franz hat 4 Lakritzen, 2 Schokoriegel und 5 Kaugummis

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 3 Grundbegriffe von Markov-Ketten Literatur Kapitel 3 * Grimmett & Stirzaker: Kapitel 6.1 * Krengel: 15 Begrifflich: 1. A. A. Markov war ein russischer Mathematiker

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Eines der am häufigsten auftretenden Standardprobleme der angewandten Mathematik ist das Lösen linearer Gleichungssysteme, etwa zur Netzwerkberechnung in der Elektrotechnik oder

Mehr

Stetige Funktionen, Binomischer Lehrsatz

Stetige Funktionen, Binomischer Lehrsatz Vorlesung 13 Stetige Funktionen, Binomischer Lehrsatz 13.1 Funktionenfolgen Wir verbinden nun den Grenzwertbegriff mit dem Funktionsbegriff. Es seien (a n ) n N eine reelle Folge und f : R R eine Funktion.

Mehr

Chi-Quadrat-Verteilung

Chi-Quadrat-Verteilung Chi-Quadrat-Verteilung Die Verteilung einer Summe X +X +...+X n, wobei X,..., X n unabhängige standardnormalverteilte Zufallsvariablen sind, heißt χ -Verteilung mit n Freiheitsgraden. Eine N(, )-verteilte

Mehr

35 Stetige lineare Abbildungen

35 Stetige lineare Abbildungen 171 35 Stetige lineare Abbildungen Lernziele: Konzepte: Lineare Operatoren und ihre Normen Resultate: Abschätzungen für Matrizennormen Kompetenzen: Abschätzung von Operatornormen 35.1 Lineare Abbildungen.

Mehr

Q4. Markov-Prozesse in diskreter Zeit

Q4. Markov-Prozesse in diskreter Zeit Q4. Markov-Prozesse in diskreter Zeit Gliederung 1.Stochastische Prozesse Ein Überblick 2.Zeitdiskrete Markov-Prozesse 3.Vom Modell zum Markov-Prozess 4.Klassifikation von Zuständen 5.Stationäre und transiente

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Physiker II, SS Mittwoch 8.6 $Id: jordan.tex,v.6 /6/7 8:5:3 hk Exp hk $ 5 Eigenwerte und die Jordansche Normalform 5.4 Die Jordansche Normalform Wir hatten bereits erwähnt, dass eine n n

Mehr

Partitionen II. 1 Geometrische Repräsentation von Partitionen

Partitionen II. 1 Geometrische Repräsentation von Partitionen Partitionen II Vortrag zum Seminar zur Höheren Funktionentheorie, 09.07.2008 Oliver Delpy In diesem Vortrag geht es um Partitionen, also um Aufteilung von natürlichen Zahlen in Summen. Er setzt den Vortrag

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2016 Lineare Gleichungssysteme Schwerpunkte: Interpretation und Verständnis der Gleichungen Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik unter

Mehr