Modellierung WS 2014/15. Wahrscheinlichkeits-Modelle und stochastische Prozesse. (mit Folien von Prof. H. Schütze)
|
|
- Julius Blau
- vor 6 Jahren
- Abrufe
Transkript
1 Modellierung WS 2014/15 Wahrscheinlichkeits-Modelle und stochastische Prozesse (mit Folien von Prof. H. Schütze) Prof. Norbert Fuhr 1 / 63
2 Wahrscheinlichkeits-Modelle Wahrscheinlichkeits-Modelle Zufalls-Experiment Ein Zufalls-Experiment ist ein Vorgang, der ein genau abzugrenzendes Ergebnis besitzt, das vom Zufall beeinflusst ist. Beispiele: Würfel Regnet es morgen in Duisburg? Klickt der Benutzer auf das erste Antwortdokument von Google? Wie lange schaut der Benutzer auf das angezeigte Dokument? 2 / 63
3 Wahrscheinlichkeits-Modelle Aspekte von Zufallsexperimenten Uns interessierende Aspekte von Zufallsexperimenten: 1 Die möglichen Ergebnisse (Beobachtungen) {1,...,6}, {ja/nein} 2 Die möglichen Fragestellungen Gerade Zahl? Weniger als 10s? 3 die zugehörigen Wahrscheinlichkeiten P(gerade) = 0, 5 3 / 63
4 Wahrscheinlichkeits-Modelle Der Merkmalsraum Ω Merkmalsraum Ω Ein Merkmalsraum Ω (Stichprobenraum, Grundmenge, Grundgesamtheit) ist eine nicht-leere Menge mit Elementen ω Ω. Ω gibt die möglichen Ausgänge (Ergebnisse) des Zufalls-Experiments an Wir betrachten hier nur den Fall, dass der Merkmalsraum endlich oder zumindest abzählbar ist. Beispiele für Merkmalsräume Würfel: Ω = {1, 2, 3, 4, 5, 6} Regen: Ω = {ja,nein} Zeit: Ω = {1, 2,..., 300} (Betrachte angefangene Sekunden, bei mehr als 300s macht der Benutzer Pause) 4 / 63
5 Wahrscheinlichkeits-Modelle Ereignisse und ihre Verknüpfung Ereignisse, Ereignis-System Ein Ereignis A ist eine Teilmenge von Ω. Das Ereignis A tritt ein, falls ein Merkmal ω mit ω A beobachtet wird. Die Menge aller betrachteten Ereignisse nennen wir das Ereignis-System A Beispiele für Ereignisse: Würfel: Gerade Augenzahl: A = {2, 4, 6} Zeit: Benutzer schaut max. 5s auf das Dokument A = {1, 2, 3, 4, 5} 5 / 63
6 Wahrscheinlichkeits-Modelle Spezielle Ereignisse A = : A ist ein unmögliches Ereignis, weil ω nie eintritt A = Ω : Das Ereignis Ω tritt immer ein A = {ω} für ω Ω: {ω} nennt man ein Elementarereignis Beachte den Unterschied zwischen dem Merkmal ω (Element von Ω) und dem Ereignis {ω} (Teilmenge von Ω) 6 / 63
7 Wahrscheinlichkeits-Modelle Zusammengesetzte Ereignisse Zusammengesetzte Ereignisse Häufig betrachtet man zusammengesetzte Ereignisse, die als Mengenoperationen von anderen Ereignissen ausgedrückt werden können Beispiele für zusammengesetzte Ereignisse: Würfelzahl > 3 oder gerade Augenzahl A = {4, 5, 6}, B = {2, 4, 6} A B = {2, 4, 5, 6} Benutzer schaut mindestens 2s und höchstens 5s auf das Dokument A = {2, 3..., 300}, B = {1, 2, 3, 4, 5} A B = {2, 3, 4, 5} 7 / 63
8 Wahrscheinlichkeits-Modelle Verknüpfung von Ereignissen Verknüpfung von Ereignissen A oder B oder beide treten ein ˆ= ω A B A und B treten (beide) ein ˆ= ω A B A und B treten nie gleichzeitig ein ˆ= A B = A tritt nicht ein ˆ= ω A c ω / A A tritt ein, aber B tritt nicht ein ˆ= ω A\B = A B c = AB c mindestens ein A i tritt ein ˆ= ω i A i = A 1 A 2 alle A i treten ein ˆ= ω i A i = A 1 A 2 Anmerkungen: Statt A B = sagt man auch A und B sind disjunkt A c bezeichnet die Komplementärmenge zu A, also A c = Ω\A AB ist eine in der Stochastik übliche Kurznotation für A B 8 / 63
9 Wahrscheinlichkeits-Modelle σ-algebra Abgeschlossenes Mengensystem Als σ-algebra bezeichnet man ein Mengensystem A mit A P(Ω), das die folgenden Bedingungen erfüllt: 1 Ω A 2 A A = A c A 3 A 1, A 2,... A = n N A n A Wir nehmen an, dass jedes Ereignis-System A abgeschlossen ist. Beispiel: Ω = {1, 2, 3, 4} A = {{1, 2}, {3, 4}, {1, 2, 3, 4}, } 9 / 63
10 Wahrscheinlichkeits-Modelle Beschreibbarkeit Beispiel: X Zufallsvariable für Würfelergebnis gerade/ungerade G = gerade Augenzahl beim Würfeln G = {ω Ω : X (ω) = gerade} Ω = {1, 2, 3, 4, 5, 6} Ω = {gerade, ungerade} A = {gerade} G = {X A } {X A } durch X beschreibbar Ist X eine Abbildung Ω Ω und A Ω, dann definiert man {X A } := {ω Ω : X (ω) A } Eine Teilmenge von Ω der Form {X A } heißt durch X beschreibbar. 10 / 63
11 Wahrscheinlichkeits-Modelle Zufallsvariable Zufallsvariable (ZV) Eine Zufallsvariable (ZV) ist eine Abbildung vom Merkmalsraum Ω mit Ereignissystem A in eine Bildmenge Ω mit Ereignissystem A. Gilt A P(Ω) und ist A das Ereignissystem in Ω, dann wird für eine ZV X : Ω Ω gefordert {X A } A für alle A A Anmerkungen Für Zufallsvariable verwendet man meist Großbuchstaben X, Y, Z, U, V, W Für Ereignisse verwenden wir A, B, C,... Beispiele: A = {X > 3}, B = {X = 2} {X = 4} {X = 6} 11 / 63
12 Wahrscheinlichkeits-Modelle Gesetz der großen Zahlen Empirisches Gesetz h n (A) P(A) Wird ein Zufalls-Experiment n-mal unter gleichen Bedingungen wiederholt mit Beobachtungswerten x 1, x 2,..., x n, dann konvergieren die relativen Häufigkeiten h n (A) := 1 n (Anzahl der x i mit x i A) für n gegen einen Grenzwert. 12 / 63
13 Wahrscheinlichkeits-Modelle Gesetz der großen Zahlen Beispiel: Würfeln einer bestimmten Augenzahl Law-of-large-number von Jörg Groß - Eigenes Werk. Lizenziert unter Creative Commons Attribution-Share Alike über Wikimedia Commons 13 / 63
14 Wahrscheinlichkeits-Modelle Eigenschaften der Wahrscheinlichkeit 1 P(A) 0 2 P(A) 1 3 P(Ω) = 1 4 P( ) = 0 5 P(A 1 + A 2 ) = P(A 1 ) + P(A 2 ) 6 P(A A n ) = P(A 1 ) + + P(A n ) 7 P(A 1 + A 2 + ) = P(A 1 ) + P(A 2 ) + 14 / 63
15 Wahrscheinlichkeits-Modelle Wahrscheinlichkeits-Maß Wahrscheinlichkeits-Maß P : A R Eine Abbildung P : A R, wobei A eine σ-algebra über Ω ist, heißt Wahrscheinlichkeits-Maß (W-Maß) auf A, wenn die folgenden drei Bedingungen erfüllt sind: (1) P(A) 0 für alle A A (Nichtnegativität) (2) P(Ω) = 1 (Normiertheit) (3) P( i=1 A i) = i=1 P(A i) (σ-additivität) Anmerkung: Die Schreibweise i=1 A i soll immer die Voraussetzung Alle A i sind paarweise disjunkt implizit voraussetzen. 15 / 63
16 Wahrscheinlichkeits-Modelle Schreibweise für Ereignisse Vereinfachte Schreibweise für Ereignisse P(X A ) := P({X A }) Beispiele: Münze: P(X =Kopf)=P(X =Zahl) = 0, 5 Würfel: P(W = 6) = / 63
17 Wahrscheinlichkeits-Modelle Wahrscheinlichkeitsraum Wahrscheinlichkeitsraum (Ω, A, P) Das Tripel aus Merkmalsraum Ω, Ereignissystem A und Ereignis-Maß P nennt man Wahrscheinlichkeitsraum (W-Raum) oder Wahrscheinlichkeitsmodell (W-Modell) 17 / 63
18 Wahrscheinlichkeits-Modelle Bernoulli-Experiment Bernoulli-Experiment Ein Zufallsexperiment mit zwei möglichen Ausgängen heißt Bernoulli-Experiment. Merkmalsraum: Ω = {0, 1} Man bezeichnet ω = 1 als Erfolg und ω = 0 als Misserfolg Ω = {0, 1}, A = P(Ω) P({1}) = p P({0}) = 1 p, 0 p 1 p bezeichnet man als Parameter der Bernoulli-Verteilung Beispiel: Münzwurf 18 / 63
19 Wahrscheinlichkeits-Modelle Laplace-Experimen Laplace-Experiment Ein Zufallsexperiment mit endlich vielen und gleichwertigen Ausgängen heißt Laplace-Experiment. Ω = {1, 2,..., N}. Aus P({1}) = P({2}) = = P({N}) folgt P({1}) = 1/N. Für beliebige Ereignisse A gilt wegen A = ω A {ω}: P(A) = A Anzahl der (für A) günstigen Fälle = Ω Anzahl der möglichen Fälle 19 / 63
20 Wahrscheinlichkeits-Modelle Beispiele für Laplace-Experimente Würfel: Roulette: P(W = 6) = 1/6 P(X = 13) = 1/37 P(W = gerade) = 3/6 P(X = gerade) = 18/37 20 / 63
21 Wahrscheinlichkeits-Modelle Bedingte Wahrscheinlichkeiten Elementare bedingte Wahrscheinlichkeit Seien A, B Ereignisse in Ω und sei P(B) > 0. Dann heißt P(A B) = P(AB) P(B) die bedingte Wahrscheinlichkeit von A unter der Bedingung B Ferner gilt P(AB) = P(B) P(A B) Beispiel: Würfel A = {2, 4, 6}, B = {4, 5, 6} P(A B) = P(AB) P(B) = {4, 6} /6 {4, 5, 6} /6 21 / 63
22 Wahrscheinlichkeits-Modelle Verkettungsregel Verkettungsregel Für drei Ereignisse A, B, C gilt analog die Formel P(ABC) = P(A) P(B A) P(C AB) Beispiel: Roulette A = {Z gerade}, B ={Z > 24}, C = {Z schwarz} P(ABC) = P(Z gerade) P(Z> 24 Z gerade) P(Z schwarz Z > 24, Z gerade) 22 / 63
23 Wahrscheinlichkeits-Modelle Totale Wahrscheinlichkeit Totale Wahrscheinlichkeit Ist (B i, i I ) eine abzählbare Zerlegung von Ω d.h. es gilt Ω = i I B i, dann gilt P(A) = i I P(AB i ) = i I P(B i ) P(A B i ) Beispiel: (Roulette) P(X gerade) = = 36 i=0 36 i=0 P(X = i X gerade) P(X = i)p(x gerade X = i) = / 63
24 Wahrscheinlichkeits-Modelle Totale Wahrscheinlichkeit Beispiel 2 Beispiel (Roulette) P(X gerade) = = 3 P(X i.dutzend X gerade) i=1 3 P(X i.dutzend)p(x gerade X i.dutzend) i=1 = / 63
25 Wahrscheinlichkeits-Modelle Stochastische Unabhängigkei Stochastische Unabhängigkeit Zwei Ereignisse heißen stochastisch unabhängig wenn gilt P(AB) = P(A) P(B) Beispiel: Zwei Würfel P(6er Pasch) = P(W 1 = 6) P(W 2 = 6) Stochastische Unabhängigkeit von n Ereignissen Die Ereignisse A 1, A 2,..., A n heißen stochastisch unabhängig, wenn für alle endlichen Teilmengen{A i1, A i2,... A ik } von diesen Ereignissen die Produktformel gilt: P(A i1, A i2,... A ik ) = P(A i1 ) P(A i2 ) P(A ik ) 25 / 63
26 Wahrscheinlichkeits-Modelle Beispiel: Statistische Sprachmodelle Deutsche Wortschatz-Datenbank 26 / 63
27 Wahrscheinlichkeits-Modelle Beispiel: Statistisches Sprachmodell w i log 2 (P(W = w i )) w j log 2 (P(W = w j )) Dieser 5 Manche 9 Text 9 Informatiker 13 ist 2 sind 3 einfach 6 Nerds 16 P(Dieser Text ist einfach) = =P(dieser) P(Text) P(ist) P(einfach) = = 2 22 P(Manche Informatiker sind Nerds) = = = / 63
28 Stochastischer Prozess Für einen stochastischen Prozess benötigt man: W-Modell (Ω, A, P) Bildbereich Ω Zeitbereich T Zufallsvariable X t : Ω Ω gibt den Zustand zum Zeitpunkt t Dann heißt {X t } := (X t, t T ) ein stochastischer Prozess. Ω = {auf,zu} 28 / 63
29 Modellierung stochastischer Prozesse 29 / 63
30 Markov-Kopplung Markov-Kopplung Hängen bei einem mehrstufigen Versuch die Übergangswahrscheinlichkeiten nicht von der vollen Vorgeschichte ab, sondern nur vom letzten beobachteten Wert, so spricht man von Markov-Kopplung. Die Folge der Beobachtungen bildet dann einen Markov-Prozess, im diskreten Fall auch Markov-Kette genannt. 30 / 63
31 Beispiel: Sprachmodell als Markov-Kopplung Hans programmiert. Paul begrüßt Lisa. Uwe trinkt ein kühles Pils. Das schnelle Auto überholt den schweren LKW. Anmerkungen Annahme einer Markov-Kopplung ist starke Vereinfachung Weitere Aspekte von Syntax (+Semantik) unberücksichtigt Der grüne Auto isst Spinat Solche Modelle eignen sich primär zur Analyse von Texten (und weniger zur Generierung) 31 / 63
32 Markov-Kette Markov-Kette Eine Markov-Kette ist ein stochastischer Prozess, speziell die Folge der Beobachtungen X 0, X 1, X 2,... in einem unendlichstufigen Versuch mit Markov-Kopplung und abzählbarer Zustandsmenge I. Die Zustandsvariablen X n : Ω I beschreiben also den Zustand des Systems zu den Zeitpunkten n = 0, 1, 2, / 63
33 Homogene Markov-Kette (HMK) Homogene Markov-Kette Eine Markov-Kette {X n } heißt homogen, falls die Übergangswahrscheinlichkeiten fn n 1 (i, j) = P(X n = j X n 1 = i) für alle Zeitpunkte gleich sind. In diesem Fall schreibt man p ij := fn n 1 (i, j). 33 / 63
34 Beispiel zu homogener Markov-Kette 34 / 63
35 Übergangsmatrix Übergangsmatrix Die Matrix P := (p ij, i, j I ) heißt Übergangsmatrix (Ü-Matrix). Die Zeilensumme ist stets =1. (p ij ) = 0, 7 0, 3 0 0, 2 0, 5 0, 3 0, 1 0, 4 0, 5 35 / 63
36 Übergangsgraph Übergangsgraph Ein Übergangsgraph einer HMK besteht aus Knoten: alle möglichen Zuständen des Graphen gerichtete Kanten: mit positiver Wahrscheinlichkeit mögliche Übergänge an der Kante von i nach j wird jeweils der Wert p ij notiert. 36 / 63
37 Beispiel zu Übergangsgraph 37 / 63
38 Startpunkt Zur Beschreibung des Ablaufs einer Markov-Kette benötigt man neben der Ü-Matrix noch entweder einen festen Startpunkt i 0 I oder eine Startverteilung, nämlich eine Z-Dichte P(X 0 = i), i I Dann ist die Wahrscheinlichkeit für jede endliche Zustandsfolge festgelegt durch P(X 0 = i 0,..., X n = i n ) = P(X 0 = i 0 ) p i0 i 1 p in 1 i n P(X 0 = 0, X 1 = 1, X 2 = 2, X 3 = 1, X 4 = 0) = 1 p 01 p 12 p 21 p / 63
39 Pfad Pfad der Markov-Kette Ein einzelner Verlauf einer Markov-Kette für eine festen Wert ω, also (X 0 (ω), X 1 (ω),...) heißt ein Pfad der Markov-Kette. Beispiel Hans trinkt ein kühles Pils Pfad: Start SNomen Verb OArtikel OAdjektiv ONomen Ende P(Pfad) = 1 0, 5 1 0, 5 0, = 0, / 63
40 Rechenregeln für eine MK Rechenregeln für eine MK Für ein homogene Markov-Kette mit Ü-Matrix (p ij ) i,j I und Startverteilung P(X 0 = i), i I ) gilt P(X 0 = i 0,..., X n = i n ) = P(X 0 = i 0 ) p i0 i 1 p in 1 i n P(X n = j) = i I P(X n 1 = i) p ij bzw. p n = p n 1 P n-schritt-übergangsmatrix Für eine HMK (X n ) ist die Matrix P (n) = (p (n) ij ) mit ) := P(X m+n = j X m = i) unabhängig von m und heißt (p (n) ij n-schritt-übergangsmatrix 40 / 63
41 Beispiel zur Berechnung der W-Verteilung im Folgezustand P = Sei p n 1 = (0,5, 0,3, 0,2) 0, 7 0, 3 0 0, 2 0, 5 0, 3 0, 1 0, 4 0, 5 p n = p n 1 P = (0,5, 0,3, 0,2) P = (0,5 0,7 + 0,3 0,2 + 0,2 0,1, 0,5 0,3 + 0,3 0,5 + 0,2 0,4, 0, ,3 0,3 + 0,2 0,5) = (0,35 + 0,06 + 0,02, 0,15 + 0,15 + 0,08, 0 + 0,09 + 0,1) = (0,43, 0,38, 0,19) 41 / 63
42 irreduzibel Zerlegung in Klassen, irreduzibel Zustandsmenge I einer HMK wird in disjunkte Klassen zerlegt: zwei Zustände i und j gehören zur selben Klasse, wenn i = j oder Zustand j ausgehend von i in endlich vielen Schritten mit positiver Wahrscheinlichkeit erreicht werden kann (i j) und umgekehrt i von j aus erreichbar ist (j i). Jeder Zustand i I gehört zu genau einer Klasse k. Eine HMK heißt irreduzibel, falls alle Zustände zur selben Klasse gehören Einfaches Beispiel einer reduziblen HMK: ( 1 α α 0 1 ) 42 / 63
43 aperiodisch Periode, aperiodisch Klasse K heißt periodisch mit Periode d, wenn es d ( 2) disjunkte Teilmengen in K gibt, die der Reihe nach in d Schritten durchlaufen werden. Eine HMK heißt aperiodisch, wenn es keine periodische Klasse gibt. Einfaches Beispiel einer periodischen HMK: ( ) 43 / 63
44 Gleichgewicht Markov-Kette im Gleichgewicht Eine homogene Markov-Kette (X n ) ist im Gleichgewicht, wenn für alle Zustände i I die Wahrscheinlichkeiten P(X n =i) unabhängig vom Zeitpunkt n sind. Man setzt dann π i := P(X n =i) bzw. π := p n und bezeichnet die Z-Dichte π = (π i, i I ) als Gleichgewichtsverteilung (GGV) der HMK (X n ) 44 / 63
45 Berechnung der Gleichgewichtsverteilung (GGV) Berechnung der Gleichgewichtsverteilung Die HMK (X 0, X 1,...) mit Ü-Matrix (p ij, i, j I ) sei im Gleichgewicht, d.h. es gelte P(X n = i) = π i bzw. p n = π für alle n = 0, 1, 2... und i I. Wegen P(X n = j) = i I P(X n 1 = i) p ij gelten dann für alle Werte π i, i I die folgenden beiden Gleichgewichtsbedingungen: π j = i I π i p ij für alle j I bzw. π = πp π j 0 für alle j I und j I π j = 1 45 / 63
46 Berechnung der Gleichgewichtsverteilung Beispiel (p ij ) = Gleichgewichtsbedingungen 0, 7 0, 3 0 0, 2 0, 5 0, 3 0, 1 0, 4 0, 5 π 0 = 0, 7π 0 + 0, 2π 1 +0, 1π 2 π 1 = 0, 3π 0 + 0, 5π 1 +0, 4π 2 π 2 = 0, 3π 1 +0, 5π 2 und π 0 + π 1 + π 2 = 1 π 0 = , 35 π 1 = , 41 π 2 = 9 0, / 63
47 Eigenvektor der Übergangsmatrix Definition Eigenvektor einer Matrix Betrachtet man die durch die Matrix A definierte Abbildung, so ist ein Eigenvektor ein Vektor dessen Richtung durch diese Abbildung nicht verändert wird, d.h. es gilt λ π T = A π T mit λ R (Rechtseigenvektor) und analog λ π = πa mit λ R (Linkseigenvektor). Für den Vektor der GGV gilt: π = πp mit j I π j = 1 π ist daher ein Linkseigenvektor der Ü-Matrix P 47 / 63
48 Grenzwertsatz für homogene Markov-Ketten Grenzwertsatz für homogene Markov-Ketten Ist die HMK(X n ) mit Ü-Matrix (p ij, i, j I ) irreduzibel und aperiodisch, dann konvergiert (für alle i I ) P(X n = i) unabhängig von der Startverteilung gegen einen Wert π i mit 0 π i 1. Dabei sind a) entweder alle π i = 0, und es gibt keine GGV zu (p ij ), b) oder es sind alle π i > 0, und (π i, i I ) ist die einzige GGV zu (p ij ), Fall a) kommt nur bei unendlicher Zustandmenge vor. 48 / 63
49 Unendlicher Zustandsmenge ohne GGV Beispiel: überlastete Warteschlange 49 / 63
50 Alternative Methode zu Berechnung der GGV Basierend auf dem Grenzwertsatz Ist die HMK(X n ) mit Ü-Matrix (p ij, i, j I ) irreduzibel und aperiodisch, dann konvergiert (für alle i I ) P(X n = i) unabhängig von der Startverteilung gegen einen Wert π i mit 0 π i 1. Sei x der Vektor mit x i = P(X n = i) für alle i I Beginne mit beliebiger Startverteilung x Berechne Verteilung im nächsten Zustand als xp. Nach zwei Schritten sind wir bei xp 2. Nach k Schritten sind wir bei xp k. Algorithmus: multipliziere x mit steigenden Potenzen von P, bis Konvergenz erreicht ist Ergebnis ist unabhängig vom Startvektor 50 / 63
51 Potenzmethode zur Berechnung der GGV Verfahren mit steigenden Potenzen von P wird Potenzmethode genannt (engl. power method) Berechne die GGV der folgenden Markov-Kette: 51 / 63
52 Beispiel zur Berechnung der GGV Startvektor x = (0.25, 0.75) x 1 x 2 P t (d 1 ) P t (d 2 ) p 11 = 0.25 p 12 = 0.75 p 21 = 0.25 p 22 = 0.75 t t (Konvergenz) P t (d 1 ) = P t 1 (d 1 ) p 11 + P t 1 (d 2 ) p 21 P t (d 2 ) = P t 1 (d 1 ) p 12 + P t 1 (d 2 ) p 22 GGV: π = (π 1, π 2 ) = (0.25, 0.75) 52 / 63
53 Beispiel zur Berechnung der GGV Fester Startzustand x 1 x 2 P t (d 1 ) P t (d 2 ) p 11 = 0.25 p 12 = 0.75 p 21 = 0.25 p 22 = 0.75 t t t (Konvergenz) P t (d 1 ) = P t 1 (d 1 ) p 11 + P t 1 (d 2 ) p 21 P t (d 2 ) = P t 1 (d 1 ) p 12 + P t 1 (d 2 ) p 22 GGV: π = (π 1, π 2 ) = (0.25, 0.75) 53 / 63
54 Potenzmethode: Beispiel 2 Bestimme die GGV für folgende Markov-Kette: 54 / 63
55 Berechnung der GGV: Potenzmethode x 1 x 2 P t (d 1 ) P t (d 2 ) p 11 = 0.1 p 12 = 0.9 p 21 = 0.3 p 22 = 0.7 t = xp t = xp 2 t = xp 3 t = xp t = xp GGV: π = (π 1, π 2 ) = (0.25, 0.75) P t (d 1 ) = P t 1 (d 1 ) p 11 + P t 1 (d 2 ) p 21 P t (d 2 ) = P t 1 (d 1 ) p 12 + P t 1 (d 2 ) p / 63
56 Potenzmethode für das Telefon-Beispiel 0, 7 0, 3 0 0, 2 0, 5 0, 3 0, 1 0, 4 0, 5 x 0 x 1 x 2 xp 1,00 0,00 0,00 xp 2 0,70 0,30 0,00 xp 3 0,55 0,36 0,09 xp 4 0,47 0,38 0,15 xp 5 0,42 0,39 0,19 xp 6 0,39 0,40 0,21 xp 7 0,37 0,40 0,23 xp 8 0,36 0,40 0,23 xp 9 0,36 0,40 0,24 xp 10 0,36 0,40 0,24 xp 11 0,35 0,40 0,24 xp 12 0,35 0,41 0,24 xp 13 0,35 0,41 0,24 56 / 63
57 Anwendung der GGV beim Web-Retrieval PageRank versucht, Web-Seiten gemäß ihrer Popularität zu gewichten Popularität hängt ab von der Zitationshäufigkeit (eingehende Web-Links) und von der Popularität der referenzierenden Seiten 57 / 63
58 PageRank PageRank d d d d d d d / 63
59 Begründung der PageRank-Methode Random Surfer Grundlage von PageRank klickt sich durch das Web, wobei er zufällig auf einen der ausgehenden Links einer Seite klickt (Gleichverteilung über die ausgehenden Links) Teleportation: gibt es keine ausgehenden Links, geht er auf eine zufällige andere Web-Seite Auch auf einer Seite mit ausgehende Links geht er mit 10% Wahrscheinlichkeit auf eine zufällige andere Seite 59 / 63
60 PageRank PageRank d d d d d d d / 63
61 Übergangsmatrix ohne Teleportation d 0 d 1 d 2 d 3 d 4 d 5 d 6 d d d d d d d / 63
62 Übergangsmatrix mit Teleportation d 0 d 1 d 2 d 3 d 4 d 5 d 6 d d d d d d d / 63
63 Anwendung der Potenzmethode xp k x xp 1 xp 2 xp 3 xp 4 xp 5 xp 6 xp 7 xp 8 xp 9 xp 10 xp 11 xp 12 xp 13 d d d d d d d / 63
Einführung in die Stochastik
Einführung in die Stochastik Josef G. Steinebach Köln, WS 2009/10 I Wahrscheinlichkeitsrechnung 1 Wahrscheinlichkeitsräume, Urnenmodelle Stochastik : Lehre von den Gesetzmäßigkeiten des Zufalls, Analyse
MehrÜbungen zur Mathematik für Pharmazeuten
Blatt 1 Aufgabe 1. Wir betrachten den Ereignisraum Ω = {(i,j) 1 i,j 6} zum Zufallsexperiment des zweimaligem Würfelns. Sei A Ω das Ereignis Pasch, und B Ω das Ereignis, daß der erste Wurf eine gerade Augenzahl
MehrAufgabe 2.1. Ergebnis, Ergebnismenge, Ereignis
Aufgabe 2. Ergebnis, Ergebnismenge, Ereignis Ergebnis und Ergebnismenge Vorgänge mit zufälligem Ergebnis, oft Zufallsexperiment genannt Bei der Beschreibung der Ergebnisse wird stets ein bestimmtes Merkmal
Mehr6.1 Grundlagen der Wahrscheinlichkeitsrechnung 6.1.1 Definitionen und Beispiele Beispiel 1 Zufallsexperiment 1,2,3,4,5,6 Elementarereignis
1 6.1 Grundlagen der Wahrscheinlichkeitsrechnung 6.1.1 Definitionen und Beispiele Spiele aus dem Alltagsleben: Würfel, Münzen, Karten,... u.s.w. sind gut geeignet die Grundlagen der Wahrscheinlichkeitsrechnung
MehrPageRank-Algorithmus
Proseminar Algorithms and Data Structures Gliederung Gliederung 1 Einführung 2 PageRank 3 Eziente Berechnung 4 Zusammenfassung Motivation Motivation Wir wollen eine Suchmaschine bauen, die das Web durchsucht.
Mehr1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem P( ) = 0.
1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem Folg. 2 Sei (Ω, E, P) W.-raum. Seien A, B,A 1,...,A n Ereignisse. Es gelten die folgenden Aussagen: 1. P(A) = 1 P(A). 2. Für das unmögliche Ereignis gilt:
MehrElementare statistische Methoden
Elementare statistische Methoden Vorlesung Computerlinguistische Techniken Alexander Koller 28. November 2014 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen? Ziel
MehrData Mining: Einige Grundlagen aus der Stochastik
Data Mining: Einige Grundlagen aus der Stochastik Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 21. Oktober 2015 Vorwort Das vorliegende Skript enthält eine Zusammenfassung verschiedener
MehrQ4. Markov-Prozesse in diskreter Zeit
Q4. Markov-Prozesse in diskreter Zeit Gliederung 1.Stochastische Prozesse Ein Überblick 2.Zeitdiskrete Markov-Prozesse 3.Vom Modell zum Markov-Prozess 4.Klassifikation von Zuständen 5.Stationäre und transiente
Mehr$ % + 0 sonst. " p für X =1 $
31 617 Spezielle Verteilungen 6171 Bernoulli Verteilung Wir beschreiben zunächst drei diskrete Verteilungen und beginnen mit einem Zufallsexperiment, indem wir uns für das Eintreffen eines bestimmten Ereignisses
MehrWahrscheinlichkeitstheorie. Zapper und
Diskrete Wahrscheinlichkeitsräume Slide 1 Wahrscheinlichkeitstheorie die Wissenschaft der Zapper und Zocker Diskrete Wahrscheinlichkeitsräume Slide 2 Münzwürfe, Zufallsbits Elementarereignisse mit Wahrscheinlichkeiten
MehrLehrstuhl IV Stochastik & Analysis. Stochastik I. Wahrscheinlichkeitsrechnung. Skriptum nach einer Vorlesung von Hans-Peter Scheffler
Fachschaft Mathematik Uni Dortmund Lehrstuhl IV Stochastik & Analysis Stochastik I Wahrscheinlichkeitsrechnung Skriptum nach einer Vorlesung von Hans-Peter Scheffler Letzte Änderung: 8. November 00 Gesetzt
MehrStatistik 1: Einführung
Seite Stat- Statistik : Einführung Die mathematische Disziplin der Stochastik, die die Teilgebiete Wahrscheinlichkeitstheorie und mathematische Statistik umfaßt, beschäftigt sich mit der Beobachtung, Aufzeichnung
MehrSatz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die
Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Rückwärtsgleichung P (t) = QP (t), P (0) = E eine minimale nicht negative Lösung (P (t) : t 0). Die Lösung bildet eine Matrix Halbgruppe, d.h. P (s)p
MehrBeispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen
4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.
MehrModul: Stochastik. Zufallsexperimente oder Wahrscheinlichkeit relative Häufigkeit Variation Permutation Kombinationen Binomialverteilung
Modul: Stochastik Ablauf Vorstellung der Themen Lernen Spielen Wiederholen Zusammenfassen Zufallsexperimente oder Wahrscheinlichkeit relative Häufigkeit Variation Permutation Kombinationen Binomialverteilung
MehrKapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung
Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion
MehrEinführung in die Computerlinguistik Statistische Grundlagen
Statistik 1 Sommer 2015 Einführung in die Computerlinguistik Statistische Grundlagen Laura Heinrich-Heine-Universität Düsseldorf Sommersemester 2015 Statistik 2 Sommer 2015 Überblick 1. Diskrete Wahrscheinlichkeitsräume
MehrGoogle s PageRank. Eine Anwendung von Matrizen und Markovketten. Vortrag im Rahmen der Lehrerfortbildung an der TU Clausthal 23.
Google s PageRank Eine Anwendung von Matrizen und Markovketten Vortrag im Rahmen der Lehrerfortbildung an der TU Clausthal 23. September 2009 Dr. Werner Sandmann Institut für Mathematik Technische Universität
MehrVorlesung 3 MINIMALE SPANNBÄUME
Vorlesung 3 MINIMALE SPANNBÄUME 72 Aufgabe! Szenario: Sie arbeiten für eine Firma, die ein Neubaugebiet ans Netz (Wasser, Strom oder Kabel oder...) anschließt! Ziel: Alle Haushalte ans Netz bringen, dabei
MehrEinführung in die Stochastik. Dr. Lothar Schüler
Einführung in die Stochastik für Studierende der Informatik im Bachelorstudiengang TU Braunschweig SS 2007 Dr. Lothar Schüler Institut für Mathematische Stochastik Technische Universität Braunschweig Pockelsstr.
MehrGrundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!
Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)
MehrAnalog definiert man das Nichteintreten eines Ereignisses (Misserfolg) als:
9-9 Die befasst sich mit der Untersuchung, wie wahrscheinlich das Eintreten eines Falles aufgrund bestimmter Voraussetzungen stattfindet. Bis anhin haben wir immer logisch gefolgert: 'Wenn diese Voraussetzung
MehrKünstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen
MehrSkript zur Statistik II (Wahrscheinlickeitsrechnung und induktive Statistik)
Prof. Dr. Reinhold Kosfeld Fachbereich Wirtschaftswissenschaften Skript zur Statistik II (Wahrscheinlickeitsrechnung und induktive Statistik) 1. Einleitung Deskriptive Statistik: Allgemeine und spezielle
MehrRisiko und Versicherung - Übung
Sommer 2009 Risiko und Versicherung - Übung Entscheidungstheoretische Grundlagen Renate Bodenstaff Vera Brinkmann r.bodenstaff@uni-hohenheim.de vera.brinkmann@uni-hohenheim.de https://insurance.uni-hohenheim.de
MehrBONUS MALUS SYSTEME UND MARKOV KETTEN
Fakultät Mathematik und Naturwissenschaften, Fachrichtung Mathematik, Institut für Mathematische Stochastik BONUS MALUS SYSTEME UND MARKOV KETTEN Klaus D. Schmidt Ringvorlesung TU Dresden Fakultät MN,
MehrRegelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall
Wahrscheinlichkeitstheorie Was will die Sozialwissenschaft damit? Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall Auch im Alltagsleben arbeiten wir mit Wahrscheinlichkeiten, besteigen
MehrMarkovketten. Bsp. Page Ranking für Suchmaschinen. Wahlfach Entscheidung unter Risiko und stat. Datenanalyse 07.01.2015
Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung von Systemen, deren Verhalten durch einen zufälligen Übergang von einem Systemzustand zu einem anderen Systemzustand gekennzeichnet
MehrGrundlagen. Wozu Wahrscheinlichkeitsrechnung? Definition und Begriff der Wahrscheinlichkeit. Berechnung von Laplace-Wahrscheinlichkeiten
Teil 2: Wahrscheinlichkeitsrechnung 326 Grundlagen Wozu Wahrscheinlichkeitsrechnung? Definition und egriff der Wahrscheinlichkeit erechnung von Laplace-Wahrscheinlichkeiten Rechnen mit einfachem Mengenkalkül
MehrEinführung in die Statistik
Einführung in die Statistik Dr. C.J. Luchsinger 2 Zufallsgrössen Literatur Kapitel 2 * Statistik in Cartoons: Kapitel 4 * Krengel: 3.1 und 3.2 in 3 und (Honours Program) 10 sowie 11.1, 11.2 und 11.3 in
MehrMonte-Carlo Simulation
Monte-Carlo Simulation Sehr häufig hängen wichtige Ergebnisse von unbekannten Werten wesentlich ab, für die man allerhöchstens statistische Daten hat oder für die man ein Modell der Wahrscheinlichkeitsrechnung
MehrStatistik I für Betriebswirte Vorlesung 5
Statistik I für Betriebswirte Vorlesung 5 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik 07. Mai 2015 PD Dr. Frank Heyde Statistik I für Betriebswirte Vorlesung 5 1 Klassische Wahrscheinlichkeitsdefinition
MehrEinführung in die. Wahrscheinlichkeitstheorie und Statistik
Institut für Mathematische Stochastik Einführung in die Wahrscheinlichkeitstheorie und Statistik (Kurzskript zur Vorlesung Wintersemester 2014/15 von Prof. Dr. Norbert Gaffke Inhaltsverzeichnis 1 Wahrscheinlichkeitsräume
MehrSuchmaschinen und Markov-Ketten 1 / 42
Suchmaschinen und Markov-Ketten 1 / 42 Zielstellung 1 Wir geben einen kurzen Überblick über die Arbeitsweise von Suchmaschinen für das Internet. Eine Suchmaschine erwartet als Eingabe ein Stichwort oder
MehrBei dieser Vorlesungsmitschrift handelt es sich um kein offizielles Skript!
Diskrete Stochastik für Informatiker WS003/04 Diskrete Stochastik für die Informatik Bei dieser Vorlesungsmitschrift handelt es sich um kein offizielles Skript! Bei Fragen, Anmerkungen oder Fehlern bitte
Mehr5. Vorlesung. Das Ranking Problem PageRank HITS (Hubs & Authorities) Markov Ketten und Random Walks PageRank und HITS Berechnung
5. Vorlesung Das Ranking Problem PageRank HITS (Hubs & Authorities) Markov Ketten und Random Walks PageRank und HITS Berechnung Seite 120 The Ranking Problem Eingabe: D: Dokumentkollektion Q: Anfrageraum
MehrWie Google Webseiten bewertet. François Bry
Wie Google Webseiten bewertet François Bry Heu6ge Vorlesung 1. Einleitung 2. Graphen und Matrizen 3. Erste Idee: Ranking als Eigenvektor 4. Fragen: Exisi6ert der Eigenvektor? Usw. 5. Zweite Idee: Die Google
MehrStatistik und Wahrscheinlichkeitsrechnung
Einführung Statistik und Wahrscheinlichkeitsrechnung Lukas Meier Teilweise basierend auf Vorlesungsunterlagen von Marloes Maathuis, Hansruedi Künsch, Peter Bühlmann und Markus Kalisch. Fehler und Anregungen
MehrÜbungsaufgaben Wahrscheinlichkeit
Übungsaufgaben Wahrscheinlichkeit Aufgabe 1 (mdb500405): In einer Urne befinden sich gelbe (g), rote (r), blaue (b) und weiße (w) Kugel (s. Bild). Ohne Hinsehen sollen aus der Urne in einem Zug Kugeln
MehrAustausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen
Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:
MehrWeb Algorithmen. Ranking. Dr. Michael Brinkmeier. Technische Universität Ilmenau Institut für Theoretische Informatik. Wintersemester 2008/09
Web Algorithmen Ranking Dr. Michael Brinkmeier Technische Universität Ilmenau Institut für Theoretische Informatik Wintersemester 2008/09 M.Brinkmeier (TU Ilmenau) Web Algorithmen Wintersemester 2008/09
MehrKünstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln
Künstliche Intelligenz Unsicherheit Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Rückblick Agent in der Wumpuswelt konnte Entscheidungen
Mehr6 Mehrstufige zufällige Vorgänge Lösungshinweise
6 Mehrstufige zufällige Vorgänge Lösungshinweise Aufgabe 6.: Begründen Sie, warum die stochastische Unabhängigkeit zweier Ereignisse bzw. zufälliger Vorgänge nur ein Modell der Realität darstellen kann.
MehrAufgabe 3: Übersetzen Sie die folgenden natürlich-sprachlichen Aussagen in die Sprache der
Aufgabe 1: Sind die folgenden Abbildungen jeweils injektiv, surjektiv und/oder bijektiv? (a) f 1 (x) = x, mit f 1 : R + R + (b) f (x) = x, mit f : R R (c) f 3 (x) = x, mit f 3 : R R (d) f 4 (x) = 3x, mit
MehrTheoretische Informatik
Theoretische Informatik für die Studiengänge Ingenieur-Informatik berufsbegleitendes Studium Lehramt Informatik (Sekundar- und Berufsschule) http://theo.cs.uni-magdeburg.de/lehre04s/ Lehrbeauftragter:
Mehr, dt. $+ f(x) = , - + < x < +, " > 0. " 2# Für die zugehörige Verteilungsfunktion F(x) ergibt sich dann: F(x) =
38 6..7.4 Normalverteilung Die Gauß-Verteilung oder Normal-Verteilung ist eine stetige Verteilung, d.h. ihre Zufallsvariablen können beliebige reelle Zahlenwerte annehmen. Wir definieren sie durch die
MehrUntersuchungen zur Kellystrategie für Wetten und Investitionen
Untersuchungen zur Kellystrategie für Wetten und Investitionen Inaugural-Dissertation zur Erlangung des Doktorgrades der Mathematisch-Naturwissenschaftlichen Fakultät der Universität zu Köln vorgelegt
MehrBedingte Wahrscheinlichkeit
Bedingte Wahrscheinlichkeit In einem Laden ist eine Alarmanlage eingebaut. Bei Einbruch gibt sie mit 99%-iger Wahrscheinlichkeit Alarm. Wenn in einer bestimmten Nacht kein Einbruch stattfindet, gibt sie
MehrHans Irtel. Entscheidungs- und testtheoretische Grundlagen der Psychologischen Diagnostik
Hans Irtel Entscheidungs- und testtheoretische Grundlagen der Psychologischen Diagnostik Universität Mannheim 1995 Vorwort Dieses Buch ist ein Kompendium grundlegender Konzepte der Test- und Entscheidungstheorie,
Mehry 1 2 3 4 5 6 P (Y = y) 1/6 1/6 1/6 1/6 1/6 1/6
Fachhochschule Köln Fakultät für Wirtschaftswissenschaften Prof. Dr. Arrenberg Raum 221, Tel. 39 14 jutta.arrenberg@fh-koeln.de Übungen zur Statistik für Prüfungskandidaten und Prüfungskandidatinnen Unabhängigkeit
Mehr3.3 Eigenwerte und Eigenräume, Diagonalisierung
3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.
Mehrw a is die Anzahl der Vorkommen von a in w Beispiel: abba a = 2
1 2 Notation für Wörter Grundlagen der Theoretischen Informatik Till Mossakowski Fakultät für Informatik Otto-von-Guericke Universität Magdeburg w a is die Anzahl der Vorkommen von a in w Beispiel: abba
Mehrklar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s
Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen
Mehr1 Stochastische Prozesse in stetiger Zeit
1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.
MehrBachelorarbeit: Ein diskretes Modell für Finanzmärkte
Bachelorarbeit: Ein diskretes Modell für Finanzmärkte Die Finanzmathematik ist momentan eine der wichtigsten Anwendungender. Hier soll ein grundlegendes Modell erörtert werden, das auf der Entwicklung
MehrBrückenkurs Mathematik, THM Friedberg, 15 19.9.2014
egelsammlung mb2014 THM Friedberg von 6 16.08.2014 15:04 Brückenkurs Mathematik, THM Friedberg, 15 19.9.2014 Sammlung von Rechenregeln, extrahiert aus dem Lehrbuch: Erhard Cramer, Johanna Neslehová: Vorkurs
MehrVorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke
Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,
MehrWAHRSCHEINLICHKEITSTHEORIE I und II. Vorlesungsskript
WAHRSCHEINLICHKEITSTHEORIE I und II Wolfgang König TU Berlin und WIAS Berlin Vorlesungsskript SS 2005 und WS 2005/06 überarbeitet im WS 2008/09 kleine Korrekturen im März und Juli 2012 und im März 2013
MehrLösungshinweise zu Kapitel 13
L-112 Lösungshinweise zu Kapitel 13 zu Selbsttestaufgabe 13.2 (Eigenschaften der bedingten Unabhängigkeit) Sei P eine Wahrscheinlichkeitsverteilung über V. Wir setzen im Folgenden stillschweigend voraus,
MehrStatistik II - Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Christine Müller Technische Universität Dortmund
Statistik II - Elementare Wahrscheinlichkeitsrechnung Prof Dr Christine Müller Technische Universität Dortmund Sommersemester 2014 1 Literatur Henze, N (1997 Stochastik für Einsteiger Vieweg, Braunschweig
MehrEntscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?
Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum
MehrAbitur 2012 Mathematik GK Stochastik Aufgabe C1
Seite 1 Abiturloesung.de - Abituraufgaben Abitur 2012 Mathematik GK Stochastik Aufgabe C1 nter einem Regentag verstehen Meteorologen einen Tag, an dem mehr als ein Liter Niederschlag pro Quadratmeter gefallen
MehrTrainingsaufgaben zur Klausurvorbereitung in Statistik I und II Thema: Satz von Bayes
Trainingsaufgaben zur Klausurvorbereitung in Statistik I und II Thema: Satz von Bayes Aufgabe 1: Wetterbericht Im Mittel sagt der Wetterbericht für den kommenden Tag zu 60 % schönes und zu 40% schlechtes
MehrAlgorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015. Vorlesung 5, Donnerstag, 20.
Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015 Vorlesung 5, Donnerstag, 20. November 2014 (Wie baut man eine Hash Map, Universelles Hashing)
MehrMengensysteme, Wahrscheinlichkeitsmaße
Kapitel 1 Mengensysteme, Wahrscheinlichkeitsmaße Der Großteil der folgenden fundamentalen Begriffe sind schon aus der Vorlesung Stochastische Modellbildung bekannt: Definition 1.1 Eine Familie A von Teilmengen
MehrÜbungsaufgaben. Aufgabe 1 Internetsuchmaschinen. Einführung in das Information Retrieval, 8. Mai 2008 Veranstaltung für die Berufsakademie Karlsruhe
Otto-Friedrich-Universität Bamberg Lehrstuhl für Medieninformatik Prof. Dr. Andreas Henrich Dipl. Wirtsch.Inf. Daniel Blank Einführung in das Information Retrieval, 8. Mai 2008 Veranstaltung für die Berufsakademie
MehrAbsolute Stetigkeit von Maßen
Absolute Stetigkeit von Maßen Definition. Seien µ und ν Maße auf (X, Ω). Dann heißt ν absolut stetig bezüglich µ (kurz ν µ ), wenn für alle A Ω mit µ(a) = 0 auch gilt dass ν(a) = 0. Lemma. Sei ν ein endliches
MehrSozialwissenschaftliche Methoden und Statistik I
Sozialwissenschaftliche Methoden und Statistik I Universität Duisburg Essen Standort Duisburg Integrierter Diplomstudiengang Sozialwissenschaften Skript zum SMS I Tutorium Von Mark Lutter Stand: April
MehrAlgorithmen II Vorlesung am 15.11.2012
Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales
MehrR ist freie Software und kann von der Website. www.r-project.org
R R ist freie Software und kann von der Website heruntergeladen werden. www.r-project.org Nach dem Herunterladen und der Installation von R kann man R durch Doppelklicken auf das R-Symbol starten. R wird
MehrEinführung in die Statistik für Biologen. Jörg Witte
Einführung in die Statistik für Biologen Jörg Witte 1997 Inhaltsverzeichnis 1 Endliche Wahrscheinlichkeitstheorie 3 1.1 Grundbegriffe........................ 3 1.2 Zufallsgrößen und Verteilungsfunktionen.........
MehrVorlesung Theoretische Informatik
Vorlesung Theoretische Informatik Automaten und Formale Sprachen Hochschule Reutlingen Fakultät für Informatik Masterstudiengang Wirtschaftsinformatik überarbeitet von F. Laux (Stand: 09.06.2010) Sommersemester
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Sei K ein Körper, a ij K für 1 i m, 1 j n. Weiters seien b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2... a m1
MehrName:... Matrikel-Nr.:... 3 Aufgabe Handyklingeln in der Vorlesung (9 Punkte) Angenommen, ein Student führt ein Handy mit sich, das mit einer Wahrscheinlichkeit von p während einer Vorlesung zumindest
MehrElemente der Analysis II
Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel
MehrModellierungskonzepte 2
Modellierungskonzepte 2 Elke Warmuth Humboldt-Universität Berlin WS 2008/09 1 / 50 1 Pfadregeln 2 Begriff Umbewertung von Chancen Bayessche Formel 3 Verwechslungsgefahr Implizite Lotterien 2 / 50 mehrstufige
Mehr16. All Pairs Shortest Path (ASPS)
. All Pairs Shortest Path (ASPS) All Pairs Shortest Path (APSP): Eingabe: Gewichteter Graph G=(V,E) Ausgabe: Für jedes Paar von Knoten u,v V die Distanz von u nach v sowie einen kürzesten Weg a b c d e
MehrKnut Bartels / Hans Gerhard Strohe. Arbeitsblätter. zur Vorlesung im Wintersemester 2005/06. Statistik II Induktive Statistik
Knut Bartels / Hans Gerhard Strohe Arbeitsblätter zur Vorlesung im Wintersemester 2005/06 Induktive Statistik Dies ist kein Vorlesungsskript Wirtschafts- und Sozialwissenschaftliche Fakultät Lehrstuhl
MehrVariationen Permutationen Kombinationen
Variationen Permutationen Kombinationen Mit diesen Rechenregeln lässt sich die Wahrscheinlichkeit bestimmter Ereigniskombinationen von gleichwahrscheinlichen Elementarereignissen ermitteln, und erleichtert
Mehrx 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen
5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x
MehrLeitfaden Lineare Algebra: Determinanten
Leitfaden Lineare Algebra: Determinanten Die symmetrische Gruppe S n. Eine Permutation σ der Menge S ist eine bijektive Abbildung σ : S S. Ist S eine endliche Menge, so reicht es zu verlangen, dass σ injektiv
MehrMathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14. Auswahl vorausgesetzter Vorkenntnisse
UNIVERSITÄT DES SAARLANDES FACHRICHTUNG 6.1 MATHEMATIK Dipl.-Math. Kevin Everard Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14 Auswahl vorausgesetzter Vorkenntnisse
MehrMarkov-Ketten-Monte-Carlo-Verfahren
Markov-Ketten-Monte-Carlo-Verfahren Anton Klimovsky 21. Juli 2014 Strichprobenerzeugung aus einer Verteilung (das Samplen). Markov- Ketten-Monte-Carlo-Verfahren. Metropolis-Hastings-Algorithmus. Gibbs-Sampler.
Mehr6.4 Bedeutungsaspekte ausgewählter Begriffe 6.4.1 Zahlbegriffe und Rechenoperationen
6.4 Bedeutungsaspekte ausgewählter Begriffe 6.4.1 Zahlbegriffe und Rechenoperationen a) Natürliche Zahl Entspricht Bedeutung des Wortes ZAHL beim Schüler bis Kl. 5 Bedeutungen entwickeln sich durch entsprechende
MehrVersuch: Zufälliges Ziehen aus der Population
Wahrscheinlichkeit Ein Test diagnostiziert Kranke zu 99% richtig Gesunde zu 90% richtig 5% der Bevölkerung ist krank? Wie wahrscheinlich ist es, dass jemand krank ist, wenn der Test dies diagnostiziert?
MehrErnst-Moritz-Arndt-Universität Greifswald Fachbereich Physik Elektronikpraktikum
Ernst-Moritz-Arndt-Universität Greifswald Fachbereich Physik Elektronikpraktikum Protokoll-Nr.: 11 Digitalschaltungen Protokollant: Jens Bernheiden Gruppe: 2 Aufgabe durchgeführt: 25.06.1997 Protokoll
MehrZufallsgrößen. Vorlesung Statistik für KW 29.04.2008 Helmut Küchenhoff
Zufallsgrößen 2.5 Zufallsgrößen 2.5.1 Verteilungsfunktion einer Zufallsgröße 2.5.2 Wahrscheinlichkeits- und Dichtefunktion Wahrscheinlichkeitsfunktion einer diskreten Zufallsgröße Dichtefunktion einer
MehrDie Binomialverteilung
Fachseminar zur Stochastik Die Binomialverteilung 23.11.2015 Referenten: Carolin Labrzycki und Caroline Kemper Gliederung Einstieg Definition der Binomialverteilung Herleitung der Formel an einem Beispiel
MehrDer Viterbi-Algorithmus.
Der Viterbi-Algorithmus. Eine Erläuterung der formalen Spezifikation am Beispiel des Part-of-Speech Tagging. Kursskript Karin Haenelt, 9..7 (.5.) Einleitung In diesem Skript wird der Viterbi-Algorithmus
MehrEinführung in die Stochastik für Informatiker Sommersemester 2000 Prof. Mathar
Einführung in die Stochastik für Informatiker Sommersemester 2000 Prof. Mathar getext von René Wörzberger rene@woerzberger.de Bilder Thorsten Uthke Review Diego Biurrun diego@pool.informatik.rwth-aachen.de
MehrPG520 - Webpageranking
12. Oktober 2007 Webpageranking - Quellen The PageRank citation ranking: Bringing order to the Web; Page, Brin etal. Technical report, 1998. A Unified Probabilistic Framework for Web Page Scoring Systems;
MehrBestimmen der Wahrscheinlichkeiten mithilfe von Zählstrategien
R. Brinmann http://brinmann-du.de Seite 4.0.2007 Bestimmen der Wahrscheinlicheiten mithilfe von Zählstrategien Die bisherigen Aufgaben zur Wahrscheinlicheitsrechnung onnten im Wesentlichen mit übersichtlichen
Mehr13.5 Der zentrale Grenzwertsatz
13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz Es seien X 1,...,X n (n N unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle
MehrBei vielen Zufallsexperimenten interessiert man sich lediglich für das Eintreten bzw. das Nichteintreten eines bestimmten Ereignisses.
XI. Binomialverteilung ================================================================== 11.1 Definitionen -----------------------------------------------------------------------------------------------------------------
MehrStochastische Modelle
Klausur (Teilprüfung) zur Vorlesung Stochastische Modelle (WS04/05 Februar 2005, Dauer 90 Minuten) 1. Es sollen für eine Zufallsgröße X mit der Dichte Zufallszahlen generiert werden. (a) Zeigen Sie, dass
MehrKürzeste Wege in Graphen. Maurice Duvigneau Otto-von-Guericke Universität Fakultät für Informatik
Kürzeste Wege in Graphen Maurice Duvigneau Otto-von-Guericke Universität Fakultät für Informatik Gliederung Einleitung Definitionen Algorithmus von Dijkstra Bellmann-Ford Algorithmus Floyd-Warshall Algorithmus
Mehr5. Suchmaschinen Herausforderungen beim Web Information Retrieval. Herausforderungen beim Web Information Retrieval. Architektur von Suchmaschinen
5. Suchmaschinen Herausforderungen beim Web Information Retrieval 5. Suchmaschinen 5. Suchmaschinen Herausforderungen beim Web Information Retrieval Verweisstrukturen haben eine wichtige Bedeutung Spamming
MehrDas Briefträgerproblem
Das Briefträgerproblem Paul Tabatabai 30. Dezember 2011 Inhaltsverzeichnis 1 Problemstellung und Modellierung 2 1.1 Problem................................ 2 1.2 Modellierung.............................
Mehr