Wahrscheinlichkeits-Modelle. Modellierung WS 2014/15. Wahrscheinlichkeits-Modelle. und stochastische Prozesse. (mit Folien von Prof. H.
|
|
- Inge Kappel
- vor 5 Jahren
- Abrufe
Transkript
1 Wahrscheinlichkeits-Modelle Modellierung WS 2014/15 Wahrscheinlichkeits-Modelle und stochastische Prozesse (mit Folien von Prof. H. Schütze) Prof. Norbert Fuhr Zufalls-Experiment Ein Zufalls-Experiment ist ein Vorgang, der ein genau abzugrenzendes Ergebnis besitzt, das vom Zufall beeinflusst ist. Beispiele: Würfel Regnet es morgen in Duisburg? Klickt der Benutzer auf das erste Antwortdokument von Google? Wie lange schaut der Benutzer auf das angezeigte Dokument? 1 / 63 2 / 63 Aspekte von Zufallsexperimenten Uns interessierende Aspekte von Zufallsexperimenten: 1. Die möglichen Ergebnisse (Beobachtungen) {1,...,6}, {ja/nein} 2. Die möglichen Fragestellungen Gerade Zahl? Weniger als 10s? 3. die zugehörigen Wahrscheinlichkeiten P(gerade) = 0, 5 Der Merkmalsraum Ω Merkmalsraum Ω Ein Merkmalsraum Ω (Stichprobenraum, Grundmenge, Grundgesamtheit) ist eine nicht-leere Menge mit Elementen ω Ω. Ω gibt die möglichen Ausgänge (Ergebnisse) des Zufalls-Experiments an Wir betrachten hier nur den Fall, dass der Merkmalsraum endlich oder zumindest abzählbar ist. Beispiele für Merkmalsräume Würfel: Ω = {1, 2, 3, 4, 5, 6} Regen: Ω = {ja,nein} Zeit: Ω = {1, 2,..., 300} (Betrachte angefangene Sekunden, bei mehr als 300s macht der Benutzer Pause) 3 / 63 4 / 63
2 Ereignisse und ihre Verknüpfung Spezielle Ereignisse Ereignisse, Ereignis-System Ein Ereignis A ist eine Teilmenge von Ω. Das Ereignis A tritt ein, falls ein Merkmal ω mit ω A beobachtet wird. Die Menge aller betrachteten Ereignisse nennen wir das Ereignis-System A Beispiele für Ereignisse: Würfel: Gerade Augenzahl: A = {2, 4, 6} Zeit: Benutzer schaut max. 5s auf das Dokument A = {1, 2, 3, 4, 5} A = : A ist ein unmögliches Ereignis, weil ω nie eintritt A = Ω : Das Ereignis Ω tritt immer ein A = {ω} für ω Ω: {ω} nennt man ein Elementarereignis Beachte den Unterschied zwischen dem Merkmal ω (Element von Ω) und dem Ereignis {ω} (Teilmenge von Ω) 5 / 63 6 / 63 Zusammengesetzte Ereignisse Verknüpfung von Ereignissen Zusammengesetzte Ereignisse Häufig betrachtet man zusammengesetzte Ereignisse, die als Mengenoperationen von anderen Ereignissen ausgedrückt werden können Beispiele für zusammengesetzte Ereignisse: Würfelzahl > 3 oder gerade Augenzahl A = {4, 5, 6}, B = {2, 4, 6} A B = {2, 4, 5, 6} Benutzer schaut mindestens 2s und höchstens 5s auf das Dokument A = {2, 3..., 300}, B = {1, 2, 3, 4, 5} A B = {2, 3, 4, 5} Verknüpfung von Ereignissen A oder B oder beide treten ein ˆ= ω A B A und B treten (beide) ein ˆ= ω A B A und B treten nie gleichzeitig ein ˆ= A B = A tritt nicht ein ˆ= ω A c ω / A A tritt ein, aber B tritt nicht ein ˆ= ω A\B = A B c = AB c mindestens ein A i tritt ein ˆ= ω i A i = A 1 A 2 alle A i treten ein ˆ= ω i A i = A 1 A 2 Anmerkungen: Statt A B = sagt man auch A und B sind disjunkt A c bezeichnet die Komplementärmenge zu A, also A c = Ω\A AB ist eine in der Stochastik übliche Kurznotation für A B 7 / 63 8 / 63
3 σ-algebra Beschreibbarkeit Abgeschlossenes Mengensystem Als σ-algebra bezeichnet man ein Mengensystem A mit A P(Ω), das die folgenden Bedingungen erfüllt: 1. Ω A 2. A A = A c A 3. A 1, A 2,... A = n N A n A Wir nehmen an, dass jedes Ereignis-System A abgeschlossen ist. Beispiel: Ω = {1, 2, 3, 4} A = {{1, 2}, {3, 4}, {1, 2, 3, 4}, } Beispiel: X Zufallsvariable für Würfelergebnis gerade/ungerade G = gerade Augenzahl beim Würfeln G = {ω Ω : X (ω) = gerade} Ω = {1, 2, 3, 4, 5, 6} Ω = {gerade, ungerade} A = {gerade} G = {X A } {X A } durch X beschreibbar Ist X eine Abbildung Ω Ω und A Ω, dann definiert man {X A } := {ω Ω : X (ω) A } Eine Teilmenge von Ω der Form {X A } heißt durch X beschreibbar. 9 / / 63 Zufallsvariable Zufallsvariable (ZV) Eine Zufallsvariable (ZV) ist eine Abbildung vom Merkmalsraum Ω mit Ereignissystem A in eine Bildmenge Ω mit Ereignissystem A. Gilt A P(Ω) und ist A das Ereignissystem in Ω, dann wird für eine ZV X : Ω Ω gefordert Anmerkungen {X A } A für alle A A Für Zufallsvariable verwendet man meist Großbuchstaben X, Y, Z, U, V, W Für Ereignisse verwenden wir A, B, C,... Beispiele: A = {X > 3}, B = {X = 2} {X = 4} {X = 6} Gesetz der großen Zahlen Empirisches Gesetz h n (A) P(A) Wird ein Zufalls-Experiment n-mal unter gleichen Bedingungen wiederholt mit Beobachtungswerten x 1, x 2,..., x n, dann konvergieren die relativen Häufigkeiten h n (A) := 1 n (Anzahl der x i mit x i A) für n gegen einen Grenzwert. 11 / / 63
4 Gesetz der großen Zahlen Beispiel: Würfeln einer bestimmten Augenzahl Eigenschaften der Wahrscheinlichkeit 1. P(A) 0 2. P(A) 1 3. P(Ω) = 1 4. P( ) = 0 5. P(A 1 + A 2 ) = P(A 1 ) + P(A 2 ) 6. P(A A n ) = P(A 1 ) + + P(A n ) 7. P(A 1 + A 2 + ) = P(A 1 ) + P(A 2 ) + Law-of-large-number von Jörg Groß - Eigenes Werk. Lizenziert unter Creative Commons Attribution-Share Alike über Wikimedia Commons 13 / / 63 Wahrscheinlichkeits-Maß Schreibweise für Ereignisse Wahrscheinlichkeits-Maß P : A R Eine Abbildung P : A R, wobei A eine σ-algebra über Ω ist, heißt Wahrscheinlichkeits-Maß (W-Maß) auf A, wenn die folgenden drei Bedingungen erfüllt sind: (1) P(A) 0 für alle A A (Nichtnegativität) (2) P(Ω) = 1 (Normiertheit) (3) P( i=1 A i) = i=1 P(A i) (σ-additivität) Anmerkung: Die Schreibweise i=1 A i soll immer die Voraussetzung Alle A i sind paarweise disjunkt implizit voraussetzen. Vereinfachte Schreibweise für Ereignisse P(X A ) := P({X A }) Beispiele: Münze: P(X =Kopf)=P(X =Zahl) = 0, 5 Würfel: P(W = 6) = / / 63
5 Wahrscheinlichkeitsraum Bernoulli-Experiment Wahrscheinlichkeitsraum (Ω, A, P) Das Tripel aus Merkmalsraum Ω, Ereignissystem A und Ereignis-Maß P nennt man Wahrscheinlichkeitsraum (W-Raum) oder Wahrscheinlichkeitsmodell (W-Modell) Bernoulli-Experiment Ein Zufallsexperiment mit zwei möglichen Ausgängen heißt Bernoulli-Experiment. Merkmalsraum: Ω = {0, 1} Man bezeichnet ω = 1 als Erfolg und ω = 0 als Misserfolg Ω = {0, 1}, A = P(Ω) P({1}) = p P({0}) = 1 p, 0 p 1 p bezeichnet man als Parameter der Bernoulli-Verteilung Beispiel: Münzwurf 17 / / 63 Laplace-Experimen Beispiele für Laplace-Experimente Laplace-Experiment Ein Zufallsexperiment mit endlich vielen und gleichwertigen Ausgängen heißt Laplace-Experiment. Ω = {1, 2,..., N}. Aus P({1}) = P({2}) = = P({N}) folgt P({1}) = 1/N. Für beliebige Ereignisse A gilt wegen A = ω A {ω}: P(A) = A Anzahl der (für A) günstigen Fälle = Ω Anzahl der möglichen Fälle Würfel: P(W = 6) = 1/6 P(W = gerade) = 3/6 Roulette: P(X = 13) = 1/37 P(X = gerade) = 18/37 19 / / 63
6 Bedingte Wahrscheinlichkeiten Verkettungsregel Elementare bedingte Wahrscheinlichkeit Seien A, B Ereignisse in Ω und sei P(B) > 0. Dann heißt P(A B) = P(AB) P(B) die bedingte Wahrscheinlichkeit von A unter der Bedingung B Ferner gilt P(AB) = P(B) P(A B) Beispiel: Würfel A = {2, 4, 6}, B = {4, 5, 6} P(A B) = P(AB) P(B) = {4, 6} /6 {4, 5, 6} /6 Verkettungsregel Für drei Ereignisse A, B, C gilt analog die Formel P(ABC) = P(A) P(B A) P(C AB) Beispiel: Roulette A = {Z gerade}, B ={Z > 24}, C = {Z schwarz} P(ABC) = P(Z gerade) P(Z> 24 Z gerade) P(Z schwarz Z > 24, Z gerade) 21 / / 63 Totale Wahrscheinlichkeit Totale Wahrscheinlichkeit Ist (B i, i I ) eine abzählbare Zerlegung von Ω d.h. es gilt Ω = i I B i, dann gilt P(A) = i I Beispiel: (Roulette) P(X gerade) = = P(AB i ) = i I 36 i=0 36 i=0 = P(B i ) P(A B i ) P(X = i X gerade) P(X = i)p(x gerade X = i) Totale Wahrscheinlichkeit Beispiel 2 Beispiel (Roulette) P(X gerade) = = 3 P(X i.dutzend X gerade) i=1 3 P(X i.dutzend)p(x gerade X i.dutzend) i=1 = / / 63
7 Stochastische Unabhängigkei Stochastische Unabhängigkeit Zwei Ereignisse heißen stochastisch unabhängig wenn gilt Beispiel: Statistische Sprachmodelle Deutsche Wortschatz-Datenbank P(AB) = P(A) P(B) Beispiel: Zwei Würfel P(6er Pasch) = P(W 1 = 6) P(W 2 = 6) Stochastische Unabhängigkeit von n Ereignissen Die Ereignisse A 1, A 2,..., A n heißen stochastisch unabhängig, wenn für alle endlichen Teilmengen{A i1, A i2,... A ik } von diesen Ereignissen die Produktformel gilt: P(A i1, A i2,... A ik ) = P(A i1 ) P(A i2 ) P(A ik ) 25 / / 63 Beispiel: Statistisches Sprachmodell Modelle für stochastische Prozesse w i log 2 (P(W = w i )) w j log 2 (P(W = w j )) Dieser 5 Manche 9 Text 9 Informatiker 13 ist 2 sind 3 einfach 6 Nerds 16 P(Dieser Text ist einfach) = =P(dieser) P(Text) P(ist) P(einfach) = = 2 22 P(Manche Informatiker sind Nerds) = = = 2 41 Stochastischer Prozess Für einen stochastischen Prozess benötigt man: W-Modell (Ω, A, P) Bildbereich Ω Zeitbereich T Zufallsvariable X t : Ω Ω gibt den Zustand zum Zeitpunkt t Dann heißt {X t } := (X t, t T ) ein stochastischer Prozess. Ω = {auf,zu} 27 / / 63
8 Modellierung stochastischer Prozesse Markov-Kopplung Markov-Kopplung Hängen bei einem mehrstufigen Versuch die Übergangswahrscheinlichkeiten nicht von der vollen Vorgeschichte ab, sondern nur vom letzten beobachteten Wert, so spricht man von Markov-Kopplung. Die Folge der Beobachtungen bildet dann einen Markov-Prozess, im diskreten Fall auch Markov-Kette genannt. 29 / / 63 Beispiel: Sprachmodell als Markov-Kopplung Markov-Kette Hans programmiert. Paul begrüßt Lisa. Uwe trinkt ein kühles Pils. Das schnelle Auto überholt den schweren LKW. Anmerkungen Annahme einer Markov-Kopplung ist starke Vereinfachung Weitere Aspekte von Syntax (+Semantik) unberücksichtigt Der grüne Auto isst Spinat Solche Modelle eignen sich primär zur Analyse von Texten (und weniger zur Generierung) Markov-Kette Eine Markov-Kette ist ein stochastischer Prozess, speziell die Folge der Beobachtungen X 0, X 1, X 2,... in einem unendlichstufigen Versuch mit Markov-Kopplung und abzählbarer Zustandsmenge I. Die Zustandsvariablen X n : Ω I beschreiben also den Zustand des Systems zu den Zeitpunkten n = 0, 1, 2, / / 63
9 Homogene Markov-Kette (HMK) Beispiel zu homogener Markov-Kette Homogene Markov-Kette Eine Markov-Kette {X n } heißt homogen, falls die Übergangswahrscheinlichkeiten fn n 1 (i, j) = P(X n = j X n 1 = i) für alle Zeitpunkte gleich sind. In diesem Fall schreibt man p ij := fn n 1 (i, j). 33 / / 63 Übergangsmatrix Übergangsgraph Übergangsmatrix Die Matrix P := (p ij, i, j I ) heißt Übergangsmatrix (Ü-Matrix). Die Zeilensumme ist stets =1. (p ij ) = 0, 7 0, 3 0 0, 2 0, 5 0, 3 0, 1 0, 4 0, 5 Übergangsgraph Ein Übergangsgraph einer HMK besteht aus Knoten: alle möglichen Zuständen des Graphen gerichtete Kanten: mit positiver Wahrscheinlichkeit mögliche Übergänge an der Kante von i nach j wird jeweils der Wert p ij notiert. 35 / / 63
10 Beispiel zu Übergangsgraph Startpunkt Zur Beschreibung des Ablaufs einer Markov-Kette benötigt man neben der Ü-Matrix noch entweder einen festen Startpunkt i 0 I oder eine Startverteilung, nämlich eine Z-Dichte P(X 0 = i), i I Dann ist die Wahrscheinlichkeit für jede endliche Zustandsfolge festgelegt durch P(X 0 = i 0,..., X n = i n ) = P(X 0 = i 0 ) p i0 i 1 p in 1 i n P(X 0 = 0, X 1 = 1, X 2 = 2, X 3 = 1, X 4 = 0) = 1 p 01 p 12 p 21 p / / 63 Pfad Rechenregeln für eine MK Pfad der Markov-Kette Ein einzelner Verlauf einer Markov-Kette für eine festen Wert ω, also (X 0 (ω), X 1 (ω),...) heißt ein Pfad der Markov-Kette. Beispiel Hans trinkt ein kühles Pils Pfad: Start SNomen Verb OArtikel OAdjektiv ONomen Ende P(Pfad) = 1 0, 5 1 0, 5 0, = 0, 075 Rechenregeln für eine MK Für ein homogene Markov-Kette mit Ü-Matrix (p ij ) i,j I und Startverteilung P(X 0 = i), i I ) gilt P(X 0 = i 0,..., X n = i n ) = P(X 0 = i 0 ) p i0 i 1 p in 1 i n P(X n = j) = i I P(X n 1 = i) p ij bzw. p n = p n 1 P n-schritt-übergangsmatrix Für eine HMK (X n ) ist die Matrix P (n) = (p (n) ij ) mit ) := P(X m+n = j X m = i) unabhängig von m und heißt (p (n) ij n-schritt-übergangsmatrix 39 / / 63
11 Beispiel zur Berechnung der W-Verteilung im Folgezustand P = Sei p n 1 = (0,5, 0,3, 0,2) 0, 7 0, 3 0 0, 2 0, 5 0, 3 0, 1 0, 4 0, 5 p n = p n 1 P = (0,5, 0,3, 0,2) P = (0,5 0,7 + 0,3 0,2 + 0,2 0,1, 0,5 0,3 + 0,3 0,5 + 0,2 0,4, 0, ,3 0,3 + 0,2 0,5) = (0,35 + 0,06 + 0,02, 0,15 + 0,15 + 0,08, 0 + 0,09 + 0,1) = (0,43, 0,38, 0,19) irreduzibel Zerlegung in Klassen, irreduzibel Zustandsmenge I einer HMK wird in disjunkte Klassen zerlegt: zwei Zustände i und j gehören zur selben Klasse, wenn i = j oder Zustand j ausgehend von i in endlich vielen Schritten mit positiver Wahrscheinlichkeit erreicht werden kann (i j) und umgekehrt i von j aus erreichbar ist (j i). Jeder Zustand i I gehört zu genau einer Klasse k. Eine HMK heißt irreduzibel, falls alle Zustände zur selben Klasse gehören Einfaches Beispiel einer reduziblen HMK: ( 1 α α 0 1 ) 41 / / 63 aperiodisch Gleichgewicht Periode, aperiodisch Klasse K heißt periodisch mit Periode d, wenn es d ( 2) disjunkte Teilmengen in K gibt, die der Reihe nach in d Schritten durchlaufen werden. Eine HMK heißt aperiodisch, wenn es keine periodische Klasse gibt. Einfaches Beispiel einer periodischen HMK: ( ) Markov-Kette im Gleichgewicht Eine homogene Markov-Kette (X n ) ist im Gleichgewicht, wenn für alle Zustände i I die Wahrscheinlichkeiten P(X n =i) unabhängig vom Zeitpunkt n sind. Man setzt dann π i := P(X n =i) bzw. π := p n und bezeichnet die Z-Dichte π = (π i, i I ) als Gleichgewichtsverteilung (GGV) der HMK (X n ) 43 / / 63
12 Berechnung der Gleichgewichtsverteilung (GGV) Berechnung der Gleichgewichtsverteilung Die HMK (X 0, X 1,...) mit Ü-Matrix (p ij, i, j I ) sei im Gleichgewicht, d.h. es gelte P(X n = i) = π i bzw. p n = π für alle n = 0, 1, 2... und i I. Wegen P(X n = j) = i I P(X n 1 = i) p ij gelten dann für alle Werte π i, i I die folgenden beiden Gleichgewichtsbedingungen: π j = i I π i p ij für alle j I bzw. π = πp Berechnung der Gleichgewichtsverteilung Beispiel (p ij ) = Gleichgewichtsbedingungen 0, 7 0, 3 0 0, 2 0, 5 0, 3 0, 1 0, 4 0, 5 π 0 = 0, 7π 0 + 0, 2π 1 +0, 1π 2 π 1 = 0, 3π 0 + 0, 5π 1 +0, 4π 2 π 2 = 0, 3π 1 +0, 5π 2 und π 0 + π 1 + π 2 = 1 π j 0 für alle j I und j I π j = 1 π 0 = , 35 π 1 = , 41 π 2 = 9 0, / / 63 Eigenvektor der Übergangsmatrix Definition Eigenvektor einer Matrix Betrachtet man die durch die Matrix A definierte Abbildung, so ist ein Eigenvektor ein Vektor dessen Richtung durch diese Abbildung nicht verändert wird, d.h. es gilt λ π T = A π T mit λ R (Rechtseigenvektor) und analog λ π = πa mit λ R (Linkseigenvektor). Für den Vektor der GGV gilt: Grenzwertsatz für homogene Markov-Ketten Grenzwertsatz für homogene Markov-Ketten Ist die HMK(X n ) mit Ü-Matrix (p ij, i, j I ) irreduzibel und aperiodisch, dann konvergiert (für alle i I ) P(X n = i) unabhängig von der Startverteilung gegen einen Wert π i mit 0 π i 1. Dabei sind a) entweder alle π i = 0, und es gibt keine GGV zu (p ij ), b) oder es sind alle π i > 0, und (π i, i I ) ist die einzige GGV zu (p ij ), π = πp mit j I π j = 1 Fall a) kommt nur bei unendlicher Zustandmenge vor. π ist daher ein Linkseigenvektor der Ü-Matrix P 47 / / 63
13 Unendlicher Zustandsmenge ohne GGV Beispiel: überlastete Warteschlange Alternative Methode zu Berechnung der GGV Basierend auf dem Grenzwertsatz Ist die HMK(X n ) mit Ü-Matrix (p ij, i, j I ) irreduzibel und aperiodisch, dann konvergiert (für alle i I ) P(X n = i) unabhängig von der Startverteilung gegen einen Wert π i mit 0 π i 1. Sei x der Vektor mit x i = P(X n = i) für alle i I Beginne mit beliebiger Startverteilung x Berechne Verteilung im nächsten Zustand als xp. Nach zwei Schritten sind wir bei xp 2. Nach k Schritten sind wir bei xp k. Algorithmus: multipliziere x mit steigenden Potenzen von P, bis Konvergenz erreicht ist Ergebnis ist unabhängig vom Startvektor 49 / / 63 Potenzmethode zur Berechnung der GGV Beispiel zur Berechnung der GGV Startvektor Verfahren mit steigenden Potenzen von P wird Potenzmethode genannt (engl. power method) Berechne die GGV der folgenden Markov-Kette: x = (0.25, 0.75) x 1 x 2 P t (d 1 ) P t (d 2 ) p 11 = 0.25 p 12 = 0.75 p 21 = 0.25 p 22 = 0.75 t t (Konvergenz) P t (d 1 ) = P t 1 (d 1 ) p 11 + P t 1 (d 2 ) p 21 P t (d 2 ) = P t 1 (d 1 ) p 12 + P t 1 (d 2 ) p 22 GGV: π = (π 1, π 2 ) = (0.25, 0.75) 51 / / 63
14 Beispiel zur Berechnung der GGV Fester Startzustand Potenzmethode: Beispiel 2 x 1 x 2 P t (d 1 ) P t (d 2 ) p 11 = 0.25 p 12 = 0.75 p 21 = 0.25 p 22 = 0.75 t t t (Konvergenz) Bestimme die GGV für folgende Markov-Kette: P t (d 1 ) = P t 1 (d 1 ) p 11 + P t 1 (d 2 ) p 21 P t (d 2 ) = P t 1 (d 1 ) p 12 + P t 1 (d 2 ) p 22 GGV: π = (π 1, π 2 ) = (0.25, 0.75) 53 / / 63 Berechnung der GGV: Potenzmethode Potenzmethode für das Telefon-Beispiel x 1 x 2 P t (d 1 ) P t (d 2 ) p 11 = 0.1 p 12 = 0.9 p 21 = 0.3 p 22 = 0.7 t = xp t = xp 2 t = xp 3 t = xp t = xp GGV: π = (π 1, π 2 ) = (0.25, 0.75) P t (d 1 ) = P t 1 (d 1 ) p 11 + P t 1 (d 2 ) p 21 P t (d 2 ) = P t 1 (d 1 ) p 12 + P t 1 (d 2 ) p 22 0, 7 0, 3 0 0, 2 0, 5 0, 3 0, 1 0, 4 0, 5 x 0 x 1 x 2 xp 1,00 0,00 0,00 xp 2 0,70 0,30 0,00 xp 3 0,55 0,36 0,09 xp 4 0,47 0,38 0,15 xp 5 0,42 0,39 0,19 xp 6 0,39 0,40 0,21 xp 7 0,37 0,40 0,23 xp 8 0,36 0,40 0,23 xp 9 0,36 0,40 0,24 xp 10 0,36 0,40 0,24 xp 11 0,35 0,40 0,24 xp 12 0,35 0,41 0,24 xp 13 0,35 0,41 0,24 55 / / 63
15 Anwendung der GGV beim Web-Retrieval PageRank versucht, Web-Seiten gemäß ihrer Popularität zu gewichten Popularität hängt ab von der Zitationshäufigkeit (eingehende Web-Links) und von der Popularität der referenzierenden Seiten PageRank PageRank d d d d d d d / / 63 Begründung der PageRank-Methode Random Surfer Grundlage von PageRank klickt sich durch das Web, wobei er zufällig auf einen der ausgehenden Links einer Seite klickt (Gleichverteilung über die ausgehenden Links) Teleportation: gibt es keine ausgehenden Links, geht er auf eine zufällige andere Web-Seite Auch auf einer Seite mit ausgehende Links geht er mit 10% Wahrscheinlichkeit auf eine zufällige andere Seite PageRank PageRank d d d d d d d / / 63
16 Übergangsmatrix ohne Teleportation Übergangsmatrix mit Teleportation d 0 d 1 d 2 d 3 d 4 d 5 d 6 d d d d d d d d 0 d 1 d 2 d 3 d 4 d 5 d 6 d d d d d d d / / 63 Anwendung der Potenzmethode xp k x xp 1 xp 2 xp 3 xp 4 xp 5 xp 6 xp 7 xp 8 xp 9 xp 10 xp 11 xp 12 xp 13 d d d d d d d / 63
Modellierung WS 2014/15. Wahrscheinlichkeits-Modelle und stochastische Prozesse. (mit Folien von Prof. H. Schütze)
Modellierung WS 2014/15 Wahrscheinlichkeits-Modelle und stochastische Prozesse (mit Folien von Prof. H. Schütze) Prof. Norbert Fuhr 1 / 63 Wahrscheinlichkeits-Modelle Wahrscheinlichkeits-Modelle Zufalls-Experiment
MehrTeil II. Wahrscheinlichkeitsrechnung
Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2014) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse
MehrTeil II. Wahrscheinlichkeitsrechnung. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129
Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse
MehrTeil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse
5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) Teil II Wahrscheinlichkeitsrechnung 5 Zufallsexperimente Ergebnisse Ereignisse Wahrscheinlichkeiten Deskriptive Statistik und Wahrscheinlichkeitsrechnung
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
MehrEinführung in die Wahrscheinlichkeitsrechnung
Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze
MehrGrundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt
Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum
MehrStochastik Grundlagen
Grundlegende Begriffe: Zufallsexperiment: Ein Experiment, das beliebig oft wiederholt werden kann. Die möglichen Ergebnisse sind bekannt, nicht jedoch nicht, welches Ergebnis ein einzelnes Experiment hat.
MehrMustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10
Mustererkennung: Wahrscheinlichkeitstheorie D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10 Definitionen (axiomatisch) Wahrscheinlichkeitsraum (Ω, σ, P), mit Ω Die Grundmenge, die Menge der elementaren
MehrStochastik Wiederholung von Teil 1
Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,
MehrDisMod-Repetitorium Tag 3
DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 stheorie: Grundbegriffe Prof. Dr. Achim Klenke http://www.aklenke.de 5. Vorlesung: 25.11.2011 1/33 Inhalt 1 Zufallsvariablen 2 Ereignisse 3 2/33 Zufallsvariablen Eine Zufallsvariable
MehrKapitel 12: Markov-Ketten
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 21.01.2016 Kapitel 12: Markov-Ketten Ab jetzt betrachten wir stochastische Prozesse (X n ) n N0 mit 1. diskreter Zeit N 0 = {0,1,2,...},
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten
MehrInhaltsverzeichnis (Ausschnitt)
8 Messbarkeit und Bildwahrscheinlichkeit Inhaltsverzeichnis (Ausschnitt) 8 Messbarkeit und Bildwahrscheinlichkeit Messbare Abbildungen Bildwahrscheinlichkeit Deskriptive Statistik und Wahrscheinlichkeitsrechnung
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrInformatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Definition: Unter einem Zufallsexperiment versteht man einen,
MehrDiskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier
Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
MehrInformatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Mehr4. Die Laplacesche Gleichverteilung
Universität Basel Wirtschaftswissenschaftliches Zentrum Grundlagen der Stochastik Dr. Thomas Zehrt Inhalt: 1. Die Ereignismenge 2. Die Wahrscheinlichkeitsverteilung 3. Eigenschaften einer Wahrscheinlichkeitsverteilung
MehrKapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente
Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrALMA II - ÜBERBLICK STOCHASTIK. Jochen Garcke
ALMA II - ÜBERBLICK STOCHASTIK Jochen Garcke GRUNDBEGRIFFE Wahrscheinlichkeitsraum (Ω, A, P) beschreibt Zufallssituation Realisierung, Stichprobe, Elementarereignis ω Ω Ergebnisraum zufälliges Ereignis
MehrZusammenfassung Stochastik
Zusammenfassung Stochastik Die relative Häufigkeit Ein Experiment, dessen Ausgang nicht vorhersagbar ist, heißt Zufallsexperiment (ZE). Ein Würfel wird 40-mal geworfen, mit folgendem Ergebnis Augenzahl
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrLehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007
. Grundlagen der Wahrscheinlichkeitstheorie. Zufallsereignisse, Ereignisraum und Ereignismenge Zufallsexperiment: nach einer bestimmten Vorschrift ausgeführter, unter gleichen edingungen beliebig oft wiederholbarer
MehrKapitel II - Wahrscheinlichkeitsraum
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel II - Wahrscheinlichkeitsraum Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
MehrKapitel II - Wahrscheinlichkeitsraum
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel II - Wahrscheinlichkeitsraum Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie
MehrKapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen
Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,
MehrZiegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem
Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Wahrscheinlichkeitsrechnung Theorie Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem,
MehrEinführung in Markoff-Ketten
Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die
MehrKAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
Mehr1. Grundlagen der Wahrscheinlichkeitsrechnung
1. Grundlagen der Wahrscheinlichkeitsrechnung Ereignisse und Wahrscheinlichkeiten Zufälliger Versuch: Vorgang, der (zumindest gedanklich) beliebig oft wiederholbar ist und dessen Ausgang innerhalb einer
MehrInhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher
Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: 24.01.2011 Autor: René Pecher Inhaltsverzeichnis 1 Permutation 1 1.1 ohne Wiederholungen........................... 1 1.2
MehrUniversität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt
Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert
MehrKapitel N. Wahrscheinlichkeitsrechnung
Kapitel N Wahrscheinlichkeitsrechnung Inhalt dieses Kapitels N000 1 Diskrete Wahrscheinlichkeitsräume 2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 1 Produktexperimente 2 Kombinatorik und Urnenmodelle
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 1
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/ Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie svorschläge zu
MehrBasiswissen Daten und Zufall Seite 1 von 8 1 Zufallsexperiment Ein Zufallsexperiment ist ein Versuchsaufbau mit zufälligem Ausgang, d. h. das Ergebnis kann nicht vorhergesagt werden. 2 Ergebnis (auch Ausgang)
MehrKapitel 5 Stochastische Unabhängigkeit
Kapitel 5 Stochastische Unabhängigkeit Vorlesung Wahrscheinlichkeitsrechnung I vom SoSe 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 5.1 Das Konzept der stochastischen Unabhängigkeit. 1 Herleitung anhand
MehrWahrscheinlichkeitsrechnung [probability]
Wahrscheinlichkeitsrechnung [probability] Hinweis: Die Wahrscheinlichkeitsrechnung ist nicht Gegenstand dieser Vorlesung. Es werden lediglich einige Begriffsbildungen bereitgestellt und an Beispielen erläutert,
MehrProzesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle).
77 Markowketten 77 Motivation Der Zustand eines Systems zur Zeit n N werde durch eine Zufallsvariable X n beschrieben und soll nur von X n abhängen (nicht jedoch von früheren Zuständen X n, X n 3, ) Wir
MehrFolie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Zu Markov-Prozessen: Bemerkungen: 17.01.2013 Wir betrachten im Folgenden eine Markovkette (X n ) n N0, wobei jedes X n Werte in Z = {0,1,2,...,s}
MehrWahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)
Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung
MehrSprechstunde zur Klausurvorbereitung
htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)
MehrDr. H. Grunert Einführung in die Wahrscheinlichkeitsrechnung Vorlesungscharts. Vorlesung 1. Grundbegriffe der Wahrscheinlichkeitsrechnung
Vorlesungscharts Vorlesung 1 Grundbegriffe der Wahrscheinlichkeitsrechnung Zufallsvorgänge und Zufallsereignisse Definitionen der Wahrscheinlichkeit Seite 1 von 11 Chart 1: Vorgänge deterministisch zufällig
MehrWahrscheinlichkeit (Teschl/Teschl 2, Kap. 26)
Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26) Gegeben Menge Ω (Wahscheinlichkeitsraum, Menge aller möglichen Ausgänge eines Zufallsexperiments), Abbildung P : P(Ω) [0, 1] (Wahrscheinlichkeit): Jeder Teilmenge
MehrArbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute
3.4 PageRank Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute Wichtigkeit von Webseiten; nicht Relevanz bezüglich Benutzeranfrage. Anfrageunabhängiges Ranking. Ausgangspunkt: Eingangsgrad.
MehrKapitel 2 Wahrscheinlichkeitsrechnung
Motivation bisher: Beschreibung von Datensätzen = beobachteten Merkmalsausprägungen Frage: Sind Schlußfolgerungen aus diesen Beobachtungen möglich? Antwort: Ja, aber diese gelten nur mit einer bestimmten
MehrEinführung in die Wahrscheinlichkeitsrechnung
Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung
MehrGrundlagen der Wahrscheinlichkeitstheorie
Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)
MehrWahrscheinlichkeitstheorie und Maßtheorie
KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man
MehrVorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie
Kapitel 4 Christoph Hindermann Vorkurs Mathematik 1 4.0 Motivation Wenn 100 Münzen geworfen werden, wie ist dann die Wahrscheinlichkeit, dass genau 50 davon Kopf zeigen? Angenommen, es befinden sich 300
Mehr= 7! = 6! = 0, 00612,
Die Wahrscheinlichkeit, dass Prof. L. die Wette verliert, lässt sich wie folgt berechnen: Ω = {(i 1,..., i 7 ) : i j {1... 7}, j = 1... 7}, wobei i, j für den Wochentag steht, an dem die Person j geboren
Mehr3. Grundbegriffe der Wahrscheinlichkeitstheorie
03. JULI 2006: BLATT 17 3. Grundbegriffe der Wahrscheinlichkeitstheorie (v.a. nach Manning/Schütze: 40ff und Fahrmeir /Künstler/Pigeot/Tutz: 171ff) Übersicht Um entscheiden zu können, ob eine statistische
MehrInteraktives Skriptum: Elementare Wahrscheinlichkeitsrechnung
Interaktives Skriptum: Elementare Wahrscheinlichkeitsrechnung 1. Grundbegriffe Würfeln, Werfen einer Münze, Messen der Lebensdauer einer Glühbirne Ausfall/Ausgang: Würfeln: Augenzahlen 1, 2, 3, 4, 5, 6
MehrEin Ereignis ist eine Menge von Elementarereignissen. Berechnung von Wahrscheinlichkeiten zufälliger Ereignisse erfordert ein Modell.
SS 2013 Prof. Dr. J. Schütze/ J.Puhl FB GW Wkt.1 1 Grundbegriffe Zufallsexperiment unter gleichen Bedingungen wiederholbarer Vorgang (geplant, gesteuert, beobachtet oder auch nur gedanklich) Menge der
MehrStatistik I für Betriebswirte Vorlesung 2
Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. April 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 9. April
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrEin Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr
Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge
Mehr1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6
Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 1 Vorbemerkungen
MehrAllgemeine diskrete Wahrscheinlichkeitsräume II
6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete
MehrAllgemeine diskrete Wahrscheinlichkeitsräume I
6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete
MehrAllgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)
Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
MehrPr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.
2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet
MehrModelle diskreter Zufallsvariablen
Statistik 2 für SoziologInnen Modelle diskreter Zufallsvariablen Univ.Prof. Dr. Marcus Hudec Zufallsvariable Eine Variable (Merkmal) X, deren numerische Werte als Ergebnisse eines Zufallsvorgangs aufgefasst
MehrLemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig,
Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig, wenn für alle (s 1,..., s n ) {0, 1} n gilt, dass wobei A 0 i = Āi und A 1 i = A i. Pr[A s 1 1... Asn n ] = Pr[A
MehrDer Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrÜbersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten
Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine Universität Düsseldorf 29. Oktober 2009 Mengensprechweise Die Menge aller Elementarereignisse ist der Ereignisraum. Seine Teilmengen heißen
MehrWahrscheinlichkeitstheorie
Kapitel 2 Wahrscheinlichkeitstheorie Wir betrachten Ereignisse, die in fast gleicher Form öfter auftreten oder zumindest öfter auftreten können. Beispiele: Werfen eines Würfels, Sterben an Herzversagen
MehrMathematische Grundlagen der Computerlinguistik Wahrscheinlichkeit
Mathematische Grundlagen der Computerlinguistik Wahrscheinlichkeit Dozentin: Wiebke Petersen 8. Foliensatz Wiebke Petersen math. Grundlagen 1 Motivation Bsp.: In vielen Bereichen der CL kommt Wahrscheinlichkeitstheorie
MehrKapitel 5 Erneuerungs- und Semi-Markov-Prozesse
Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Definition: Erneuerungsprozess Sei {T n, n N} eine Folge unabhängiger, nichtnegativer Zufallsvariablen mit Verteilungsfunktion F, mit F () < 1. Dann heißt
MehrWAHRSCHEINLICHKEITSRECHNUNG
WAHRSCHEINLICHKEITSRECHNUNG Mathematischer Teil In der Wahrscheinlichkeitsrechnung haben wir es mit Zufallsexperimenten zu tun, d.h. Ausgang nicht vorhersagbar. Grundbegriffe Zufallsexperiment und Ergebnisse
Mehrfür die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij.
8 Markov-Ketten 8.1 Grundlegendes zu Markov-Ketten Eine Markov-Kette ist ein stochastischer Prozess, der in diskreten Zeitschritten abläuft. Dabei wird jeweils von einem Zustand in einen nächsten übergegangen.
MehrEndliche Markov-Ketten - eine Übersicht
Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und
MehrSTATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet
Kapitel 10 Zufall und Wahrscheinlichkeit 10.1. Grundbegriffe Wahrscheinlichkeitsrechnung Zufallsvorgang Klein-Omega ω Groß-Omega Ω Stellt Modelle bereit, die es erlauben zufallsabhängige Prozesse abzuschätzen
MehrDWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr
2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,
MehrWahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele
Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Wahrscheinlichkeitstheorie Agenda:
MehrRumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen
Rumpfskript Elementare Wahrscheinlichkeitsrechnung Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Vorbemerkung Vorbemerkung Das vorliegende Skript heißt nicht nur Rumpf skript, sondern
MehrSEMINAR KLASSIFIKATION & CLUSTERING STATISTISCHE GRUNDLAGEN. Stefan Langer WINTERSEMESTER 2014/15.
SEMINAR KLASSIFIKATION & CLUSTERING WINTERSEMESTER 2014/15 STATISTISCHE GRUNDLAGEN Stefan Langer stefan.langer@cis.uni-muenchen.de Frequenz & Häufigkeit: Übersicht Absolute Häufigkeit Relative Häufigkeit
MehrLösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten
Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage
Mehr6: Diskrete Wahrscheinlichkeit
Stefan Lucks Diskrete Strukturen (WS 2009/10) 219 6: Diskrete Wahrscheinlichkeit 6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 220 Wahrscheinlichkeitsrechnung Eines der wichtigsten
MehrSatz 18 (Satz von der totalen Wahrscheinlichkeit)
Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte
MehrInstitut für Biometrie und klinische Forschung. WiSe 2012/2013
Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive
MehrStochastik 02 Wiederholung & Vierfeldertafel
23. August 2018 Grundlagen der Statistik (bis Klasse 10) Grundlagen der Stochastik (bis Klasse 10) Zufallsgrößen und Verteilungen Beurteilende Statistik (Testen von Hypothesen) Bernoulli-Experimente Ziele
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
Mehr