Modellierung WS 2014/15. Wahrscheinlichkeits-Modelle und stochastische Prozesse. (mit Folien von Prof. H. Schütze)

Größe: px
Ab Seite anzeigen:

Download "Modellierung WS 2014/15. Wahrscheinlichkeits-Modelle und stochastische Prozesse. (mit Folien von Prof. H. Schütze)"

Transkript

1 Modellierung WS 2014/15 Wahrscheinlichkeits-Modelle und stochastische Prozesse (mit Folien von Prof. H. Schütze) Prof. Norbert Fuhr 1 / 63

2 Wahrscheinlichkeits-Modelle Wahrscheinlichkeits-Modelle Zufalls-Experiment Ein Zufalls-Experiment ist ein Vorgang, der ein genau abzugrenzendes Ergebnis besitzt, das vom Zufall beeinflusst ist. Beispiele: Würfel Regnet es morgen in Duisburg? Klickt der Benutzer auf das erste Antwortdokument von Google? Wie lange schaut der Benutzer auf das angezeigte Dokument? 2 / 63

3 Wahrscheinlichkeits-Modelle Aspekte von Zufallsexperimenten Uns interessierende Aspekte von Zufallsexperimenten: 1 Die möglichen Ergebnisse (Beobachtungen) {1,...,6}, {ja/nein} 2 Die möglichen Fragestellungen Gerade Zahl? Weniger als 10s? 3 die zugehörigen Wahrscheinlichkeiten P(gerade) = 0, 5 3 / 63

4 Wahrscheinlichkeits-Modelle Der Merkmalsraum Ω Merkmalsraum Ω Ein Merkmalsraum Ω (Stichprobenraum, Grundmenge, Grundgesamtheit) ist eine nicht-leere Menge mit Elementen ω Ω. Ω gibt die möglichen Ausgänge (Ergebnisse) des Zufalls-Experiments an Wir betrachten hier nur den Fall, dass der Merkmalsraum endlich oder zumindest abzählbar ist. Beispiele für Merkmalsräume Würfel: Ω = {1, 2, 3, 4, 5, 6} Regen: Ω = {ja,nein} Zeit: Ω = {1, 2,..., 300} (Betrachte angefangene Sekunden, bei mehr als 300s macht der Benutzer Pause) 4 / 63

5 Wahrscheinlichkeits-Modelle Ereignisse und ihre Verknüpfung Ereignisse, Ereignis-System Ein Ereignis A ist eine Teilmenge von Ω. Das Ereignis A tritt ein, falls ein Merkmal ω mit ω A beobachtet wird. Die Menge aller betrachteten Ereignisse nennen wir das Ereignis-System A Beispiele für Ereignisse: Würfel: Gerade Augenzahl: A = {2, 4, 6} Zeit: Benutzer schaut max. 5s auf das Dokument A = {1, 2, 3, 4, 5} 5 / 63

6 Wahrscheinlichkeits-Modelle Spezielle Ereignisse A = : A ist ein unmögliches Ereignis, weil ω nie eintritt A = Ω : Das Ereignis Ω tritt immer ein A = {ω} für ω Ω: {ω} nennt man ein Elementarereignis Beachte den Unterschied zwischen dem Merkmal ω (Element von Ω) und dem Ereignis {ω} (Teilmenge von Ω) 6 / 63

7 Wahrscheinlichkeits-Modelle Zusammengesetzte Ereignisse Zusammengesetzte Ereignisse Häufig betrachtet man zusammengesetzte Ereignisse, die als Mengenoperationen von anderen Ereignissen ausgedrückt werden können Beispiele für zusammengesetzte Ereignisse: Würfelzahl > 3 oder gerade Augenzahl A = {4, 5, 6}, B = {2, 4, 6} A B = {2, 4, 5, 6} Benutzer schaut mindestens 2s und höchstens 5s auf das Dokument A = {2, 3..., 300}, B = {1, 2, 3, 4, 5} A B = {2, 3, 4, 5} 7 / 63

8 Wahrscheinlichkeits-Modelle Verknüpfung von Ereignissen Verknüpfung von Ereignissen A oder B oder beide treten ein ˆ= ω A B A und B treten (beide) ein ˆ= ω A B A und B treten nie gleichzeitig ein ˆ= A B = A tritt nicht ein ˆ= ω A c ω / A A tritt ein, aber B tritt nicht ein ˆ= ω A\B = A B c = AB c mindestens ein A i tritt ein ˆ= ω i A i = A 1 A 2 alle A i treten ein ˆ= ω i A i = A 1 A 2 Anmerkungen: Statt A B = sagt man auch A und B sind disjunkt A c bezeichnet die Komplementärmenge zu A, also A c = Ω\A AB ist eine in der Stochastik übliche Kurznotation für A B 8 / 63

9 Wahrscheinlichkeits-Modelle σ-algebra Abgeschlossenes Mengensystem Als σ-algebra bezeichnet man ein Mengensystem A mit A P(Ω), das die folgenden Bedingungen erfüllt: 1 Ω A 2 A A = A c A 3 A 1, A 2,... A = n N A n A Wir nehmen an, dass jedes Ereignis-System A abgeschlossen ist. Beispiel: Ω = {1, 2, 3, 4} A = {{1, 2}, {3, 4}, {1, 2, 3, 4}, } 9 / 63

10 Wahrscheinlichkeits-Modelle Beschreibbarkeit Beispiel: X Zufallsvariable für Würfelergebnis gerade/ungerade G = gerade Augenzahl beim Würfeln G = {ω Ω : X (ω) = gerade} Ω = {1, 2, 3, 4, 5, 6} Ω = {gerade, ungerade} A = {gerade} G = {X A } {X A } durch X beschreibbar Ist X eine Abbildung Ω Ω und A Ω, dann definiert man {X A } := {ω Ω : X (ω) A } Eine Teilmenge von Ω der Form {X A } heißt durch X beschreibbar. 10 / 63

11 Wahrscheinlichkeits-Modelle Zufallsvariable Zufallsvariable (ZV) Eine Zufallsvariable (ZV) ist eine Abbildung vom Merkmalsraum Ω mit Ereignissystem A in eine Bildmenge Ω mit Ereignissystem A. Gilt A P(Ω) und ist A das Ereignissystem in Ω, dann wird für eine ZV X : Ω Ω gefordert {X A } A für alle A A Anmerkungen Für Zufallsvariable verwendet man meist Großbuchstaben X, Y, Z, U, V, W Für Ereignisse verwenden wir A, B, C,... Beispiele: A = {X > 3}, B = {X = 2} {X = 4} {X = 6} 11 / 63

12 Wahrscheinlichkeits-Modelle Gesetz der großen Zahlen Empirisches Gesetz h n (A) P(A) Wird ein Zufalls-Experiment n-mal unter gleichen Bedingungen wiederholt mit Beobachtungswerten x 1, x 2,..., x n, dann konvergieren die relativen Häufigkeiten h n (A) := 1 n (Anzahl der x i mit x i A) für n gegen einen Grenzwert. 12 / 63

13 Wahrscheinlichkeits-Modelle Gesetz der großen Zahlen Beispiel: Würfeln einer bestimmten Augenzahl Law-of-large-number von Jörg Groß - Eigenes Werk. Lizenziert unter Creative Commons Attribution-Share Alike über Wikimedia Commons 13 / 63

14 Wahrscheinlichkeits-Modelle Eigenschaften der Wahrscheinlichkeit 1 P(A) 0 2 P(A) 1 3 P(Ω) = 1 4 P( ) = 0 5 P(A 1 + A 2 ) = P(A 1 ) + P(A 2 ) 6 P(A A n ) = P(A 1 ) + + P(A n ) 7 P(A 1 + A 2 + ) = P(A 1 ) + P(A 2 ) + 14 / 63

15 Wahrscheinlichkeits-Modelle Wahrscheinlichkeits-Maß Wahrscheinlichkeits-Maß P : A R Eine Abbildung P : A R, wobei A eine σ-algebra über Ω ist, heißt Wahrscheinlichkeits-Maß (W-Maß) auf A, wenn die folgenden drei Bedingungen erfüllt sind: (1) P(A) 0 für alle A A (Nichtnegativität) (2) P(Ω) = 1 (Normiertheit) (3) P( i=1 A i) = i=1 P(A i) (σ-additivität) Anmerkung: Die Schreibweise i=1 A i soll immer die Voraussetzung Alle A i sind paarweise disjunkt implizit voraussetzen. 15 / 63

16 Wahrscheinlichkeits-Modelle Schreibweise für Ereignisse Vereinfachte Schreibweise für Ereignisse P(X A ) := P({X A }) Beispiele: Münze: P(X =Kopf)=P(X =Zahl) = 0, 5 Würfel: P(W = 6) = / 63

17 Wahrscheinlichkeits-Modelle Wahrscheinlichkeitsraum Wahrscheinlichkeitsraum (Ω, A, P) Das Tripel aus Merkmalsraum Ω, Ereignissystem A und Ereignis-Maß P nennt man Wahrscheinlichkeitsraum (W-Raum) oder Wahrscheinlichkeitsmodell (W-Modell) 17 / 63

18 Wahrscheinlichkeits-Modelle Bernoulli-Experiment Bernoulli-Experiment Ein Zufallsexperiment mit zwei möglichen Ausgängen heißt Bernoulli-Experiment. Merkmalsraum: Ω = {0, 1} Man bezeichnet ω = 1 als Erfolg und ω = 0 als Misserfolg Ω = {0, 1}, A = P(Ω) P({1}) = p P({0}) = 1 p, 0 p 1 p bezeichnet man als Parameter der Bernoulli-Verteilung Beispiel: Münzwurf 18 / 63

19 Wahrscheinlichkeits-Modelle Laplace-Experimen Laplace-Experiment Ein Zufallsexperiment mit endlich vielen und gleichwertigen Ausgängen heißt Laplace-Experiment. Ω = {1, 2,..., N}. Aus P({1}) = P({2}) = = P({N}) folgt P({1}) = 1/N. Für beliebige Ereignisse A gilt wegen A = ω A {ω}: P(A) = A Anzahl der (für A) günstigen Fälle = Ω Anzahl der möglichen Fälle 19 / 63

20 Wahrscheinlichkeits-Modelle Beispiele für Laplace-Experimente Würfel: Roulette: P(W = 6) = 1/6 P(X = 13) = 1/37 P(W = gerade) = 3/6 P(X = gerade) = 18/37 20 / 63

21 Wahrscheinlichkeits-Modelle Bedingte Wahrscheinlichkeiten Elementare bedingte Wahrscheinlichkeit Seien A, B Ereignisse in Ω und sei P(B) > 0. Dann heißt P(A B) = P(AB) P(B) die bedingte Wahrscheinlichkeit von A unter der Bedingung B Ferner gilt P(AB) = P(B) P(A B) Beispiel: Würfel A = {2, 4, 6}, B = {4, 5, 6} P(A B) = P(AB) P(B) = {4, 6} /6 {4, 5, 6} /6 21 / 63

22 Wahrscheinlichkeits-Modelle Verkettungsregel Verkettungsregel Für drei Ereignisse A, B, C gilt analog die Formel P(ABC) = P(A) P(B A) P(C AB) Beispiel: Roulette A = {Z gerade}, B ={Z > 24}, C = {Z schwarz} P(ABC) = P(Z gerade) P(Z> 24 Z gerade) P(Z schwarz Z > 24, Z gerade) 22 / 63

23 Wahrscheinlichkeits-Modelle Totale Wahrscheinlichkeit Totale Wahrscheinlichkeit Ist (B i, i I ) eine abzählbare Zerlegung von Ω d.h. es gilt Ω = i I B i, dann gilt P(A) = i I P(AB i ) = i I P(B i ) P(A B i ) Beispiel: (Roulette) P(X gerade) = = 36 i=0 36 i=0 P(X = i X gerade) P(X = i)p(x gerade X = i) = / 63

24 Wahrscheinlichkeits-Modelle Totale Wahrscheinlichkeit Beispiel 2 Beispiel (Roulette) P(X gerade) = = 3 P(X i.dutzend X gerade) i=1 3 P(X i.dutzend)p(x gerade X i.dutzend) i=1 = / 63

25 Wahrscheinlichkeits-Modelle Stochastische Unabhängigkei Stochastische Unabhängigkeit Zwei Ereignisse heißen stochastisch unabhängig wenn gilt P(AB) = P(A) P(B) Beispiel: Zwei Würfel P(6er Pasch) = P(W 1 = 6) P(W 2 = 6) Stochastische Unabhängigkeit von n Ereignissen Die Ereignisse A 1, A 2,..., A n heißen stochastisch unabhängig, wenn für alle endlichen Teilmengen{A i1, A i2,... A ik } von diesen Ereignissen die Produktformel gilt: P(A i1, A i2,... A ik ) = P(A i1 ) P(A i2 ) P(A ik ) 25 / 63

26 Wahrscheinlichkeits-Modelle Beispiel: Statistische Sprachmodelle Deutsche Wortschatz-Datenbank 26 / 63

27 Wahrscheinlichkeits-Modelle Beispiel: Statistisches Sprachmodell w i log 2 (P(W = w i )) w j log 2 (P(W = w j )) Dieser 5 Manche 9 Text 9 Informatiker 13 ist 2 sind 3 einfach 6 Nerds 16 P(Dieser Text ist einfach) = =P(dieser) P(Text) P(ist) P(einfach) = = 2 22 P(Manche Informatiker sind Nerds) = = = / 63

28 Stochastischer Prozess Für einen stochastischen Prozess benötigt man: W-Modell (Ω, A, P) Bildbereich Ω Zeitbereich T Zufallsvariable X t : Ω Ω gibt den Zustand zum Zeitpunkt t Dann heißt {X t } := (X t, t T ) ein stochastischer Prozess. Ω = {auf,zu} 28 / 63

29 Modellierung stochastischer Prozesse 29 / 63

30 Markov-Kopplung Markov-Kopplung Hängen bei einem mehrstufigen Versuch die Übergangswahrscheinlichkeiten nicht von der vollen Vorgeschichte ab, sondern nur vom letzten beobachteten Wert, so spricht man von Markov-Kopplung. Die Folge der Beobachtungen bildet dann einen Markov-Prozess, im diskreten Fall auch Markov-Kette genannt. 30 / 63

31 Beispiel: Sprachmodell als Markov-Kopplung Hans programmiert. Paul begrüßt Lisa. Uwe trinkt ein kühles Pils. Das schnelle Auto überholt den schweren LKW. Anmerkungen Annahme einer Markov-Kopplung ist starke Vereinfachung Weitere Aspekte von Syntax (+Semantik) unberücksichtigt Der grüne Auto isst Spinat Solche Modelle eignen sich primär zur Analyse von Texten (und weniger zur Generierung) 31 / 63

32 Markov-Kette Markov-Kette Eine Markov-Kette ist ein stochastischer Prozess, speziell die Folge der Beobachtungen X 0, X 1, X 2,... in einem unendlichstufigen Versuch mit Markov-Kopplung und abzählbarer Zustandsmenge I. Die Zustandsvariablen X n : Ω I beschreiben also den Zustand des Systems zu den Zeitpunkten n = 0, 1, 2, / 63

33 Homogene Markov-Kette (HMK) Homogene Markov-Kette Eine Markov-Kette {X n } heißt homogen, falls die Übergangswahrscheinlichkeiten fn n 1 (i, j) = P(X n = j X n 1 = i) für alle Zeitpunkte gleich sind. In diesem Fall schreibt man p ij := fn n 1 (i, j). 33 / 63

34 Beispiel zu homogener Markov-Kette 34 / 63

35 Übergangsmatrix Übergangsmatrix Die Matrix P := (p ij, i, j I ) heißt Übergangsmatrix (Ü-Matrix). Die Zeilensumme ist stets =1. (p ij ) = 0, 7 0, 3 0 0, 2 0, 5 0, 3 0, 1 0, 4 0, 5 35 / 63

36 Übergangsgraph Übergangsgraph Ein Übergangsgraph einer HMK besteht aus Knoten: alle möglichen Zuständen des Graphen gerichtete Kanten: mit positiver Wahrscheinlichkeit mögliche Übergänge an der Kante von i nach j wird jeweils der Wert p ij notiert. 36 / 63

37 Beispiel zu Übergangsgraph 37 / 63

38 Startpunkt Zur Beschreibung des Ablaufs einer Markov-Kette benötigt man neben der Ü-Matrix noch entweder einen festen Startpunkt i 0 I oder eine Startverteilung, nämlich eine Z-Dichte P(X 0 = i), i I Dann ist die Wahrscheinlichkeit für jede endliche Zustandsfolge festgelegt durch P(X 0 = i 0,..., X n = i n ) = P(X 0 = i 0 ) p i0 i 1 p in 1 i n P(X 0 = 0, X 1 = 1, X 2 = 2, X 3 = 1, X 4 = 0) = 1 p 01 p 12 p 21 p / 63

39 Pfad Pfad der Markov-Kette Ein einzelner Verlauf einer Markov-Kette für eine festen Wert ω, also (X 0 (ω), X 1 (ω),...) heißt ein Pfad der Markov-Kette. Beispiel Hans trinkt ein kühles Pils Pfad: Start SNomen Verb OArtikel OAdjektiv ONomen Ende P(Pfad) = 1 0, 5 1 0, 5 0, = 0, / 63

40 Rechenregeln für eine MK Rechenregeln für eine MK Für ein homogene Markov-Kette mit Ü-Matrix (p ij ) i,j I und Startverteilung P(X 0 = i), i I ) gilt P(X 0 = i 0,..., X n = i n ) = P(X 0 = i 0 ) p i0 i 1 p in 1 i n P(X n = j) = i I P(X n 1 = i) p ij bzw. p n = p n 1 P n-schritt-übergangsmatrix Für eine HMK (X n ) ist die Matrix P (n) = (p (n) ij ) mit ) := P(X m+n = j X m = i) unabhängig von m und heißt (p (n) ij n-schritt-übergangsmatrix 40 / 63

41 Beispiel zur Berechnung der W-Verteilung im Folgezustand P = Sei p n 1 = (0,5, 0,3, 0,2) 0, 7 0, 3 0 0, 2 0, 5 0, 3 0, 1 0, 4 0, 5 p n = p n 1 P = (0,5, 0,3, 0,2) P = (0,5 0,7 + 0,3 0,2 + 0,2 0,1, 0,5 0,3 + 0,3 0,5 + 0,2 0,4, 0, ,3 0,3 + 0,2 0,5) = (0,35 + 0,06 + 0,02, 0,15 + 0,15 + 0,08, 0 + 0,09 + 0,1) = (0,43, 0,38, 0,19) 41 / 63

42 irreduzibel Zerlegung in Klassen, irreduzibel Zustandsmenge I einer HMK wird in disjunkte Klassen zerlegt: zwei Zustände i und j gehören zur selben Klasse, wenn i = j oder Zustand j ausgehend von i in endlich vielen Schritten mit positiver Wahrscheinlichkeit erreicht werden kann (i j) und umgekehrt i von j aus erreichbar ist (j i). Jeder Zustand i I gehört zu genau einer Klasse k. Eine HMK heißt irreduzibel, falls alle Zustände zur selben Klasse gehören Einfaches Beispiel einer reduziblen HMK: ( 1 α α 0 1 ) 42 / 63

43 aperiodisch Periode, aperiodisch Klasse K heißt periodisch mit Periode d, wenn es d ( 2) disjunkte Teilmengen in K gibt, die der Reihe nach in d Schritten durchlaufen werden. Eine HMK heißt aperiodisch, wenn es keine periodische Klasse gibt. Einfaches Beispiel einer periodischen HMK: ( ) 43 / 63

44 Gleichgewicht Markov-Kette im Gleichgewicht Eine homogene Markov-Kette (X n ) ist im Gleichgewicht, wenn für alle Zustände i I die Wahrscheinlichkeiten P(X n =i) unabhängig vom Zeitpunkt n sind. Man setzt dann π i := P(X n =i) bzw. π := p n und bezeichnet die Z-Dichte π = (π i, i I ) als Gleichgewichtsverteilung (GGV) der HMK (X n ) 44 / 63

45 Berechnung der Gleichgewichtsverteilung (GGV) Berechnung der Gleichgewichtsverteilung Die HMK (X 0, X 1,...) mit Ü-Matrix (p ij, i, j I ) sei im Gleichgewicht, d.h. es gelte P(X n = i) = π i bzw. p n = π für alle n = 0, 1, 2... und i I. Wegen P(X n = j) = i I P(X n 1 = i) p ij gelten dann für alle Werte π i, i I die folgenden beiden Gleichgewichtsbedingungen: π j = i I π i p ij für alle j I bzw. π = πp π j 0 für alle j I und j I π j = 1 45 / 63

46 Berechnung der Gleichgewichtsverteilung Beispiel (p ij ) = Gleichgewichtsbedingungen 0, 7 0, 3 0 0, 2 0, 5 0, 3 0, 1 0, 4 0, 5 π 0 = 0, 7π 0 + 0, 2π 1 +0, 1π 2 π 1 = 0, 3π 0 + 0, 5π 1 +0, 4π 2 π 2 = 0, 3π 1 +0, 5π 2 und π 0 + π 1 + π 2 = 1 π 0 = , 35 π 1 = , 41 π 2 = 9 0, / 63

47 Eigenvektor der Übergangsmatrix Definition Eigenvektor einer Matrix Betrachtet man die durch die Matrix A definierte Abbildung, so ist ein Eigenvektor ein Vektor dessen Richtung durch diese Abbildung nicht verändert wird, d.h. es gilt λ π T = A π T mit λ R (Rechtseigenvektor) und analog λ π = πa mit λ R (Linkseigenvektor). Für den Vektor der GGV gilt: π = πp mit j I π j = 1 π ist daher ein Linkseigenvektor der Ü-Matrix P 47 / 63

48 Grenzwertsatz für homogene Markov-Ketten Grenzwertsatz für homogene Markov-Ketten Ist die HMK(X n ) mit Ü-Matrix (p ij, i, j I ) irreduzibel und aperiodisch, dann konvergiert (für alle i I ) P(X n = i) unabhängig von der Startverteilung gegen einen Wert π i mit 0 π i 1. Dabei sind a) entweder alle π i = 0, und es gibt keine GGV zu (p ij ), b) oder es sind alle π i > 0, und (π i, i I ) ist die einzige GGV zu (p ij ), Fall a) kommt nur bei unendlicher Zustandmenge vor. 48 / 63

49 Unendlicher Zustandsmenge ohne GGV Beispiel: überlastete Warteschlange 49 / 63

50 Alternative Methode zu Berechnung der GGV Basierend auf dem Grenzwertsatz Ist die HMK(X n ) mit Ü-Matrix (p ij, i, j I ) irreduzibel und aperiodisch, dann konvergiert (für alle i I ) P(X n = i) unabhängig von der Startverteilung gegen einen Wert π i mit 0 π i 1. Sei x der Vektor mit x i = P(X n = i) für alle i I Beginne mit beliebiger Startverteilung x Berechne Verteilung im nächsten Zustand als xp. Nach zwei Schritten sind wir bei xp 2. Nach k Schritten sind wir bei xp k. Algorithmus: multipliziere x mit steigenden Potenzen von P, bis Konvergenz erreicht ist Ergebnis ist unabhängig vom Startvektor 50 / 63

51 Potenzmethode zur Berechnung der GGV Verfahren mit steigenden Potenzen von P wird Potenzmethode genannt (engl. power method) Berechne die GGV der folgenden Markov-Kette: 51 / 63

52 Beispiel zur Berechnung der GGV Startvektor x = (0.25, 0.75) x 1 x 2 P t (d 1 ) P t (d 2 ) p 11 = 0.25 p 12 = 0.75 p 21 = 0.25 p 22 = 0.75 t t (Konvergenz) P t (d 1 ) = P t 1 (d 1 ) p 11 + P t 1 (d 2 ) p 21 P t (d 2 ) = P t 1 (d 1 ) p 12 + P t 1 (d 2 ) p 22 GGV: π = (π 1, π 2 ) = (0.25, 0.75) 52 / 63

53 Beispiel zur Berechnung der GGV Fester Startzustand x 1 x 2 P t (d 1 ) P t (d 2 ) p 11 = 0.25 p 12 = 0.75 p 21 = 0.25 p 22 = 0.75 t t t (Konvergenz) P t (d 1 ) = P t 1 (d 1 ) p 11 + P t 1 (d 2 ) p 21 P t (d 2 ) = P t 1 (d 1 ) p 12 + P t 1 (d 2 ) p 22 GGV: π = (π 1, π 2 ) = (0.25, 0.75) 53 / 63

54 Potenzmethode: Beispiel 2 Bestimme die GGV für folgende Markov-Kette: 54 / 63

55 Berechnung der GGV: Potenzmethode x 1 x 2 P t (d 1 ) P t (d 2 ) p 11 = 0.1 p 12 = 0.9 p 21 = 0.3 p 22 = 0.7 t = xp t = xp 2 t = xp 3 t = xp t = xp GGV: π = (π 1, π 2 ) = (0.25, 0.75) P t (d 1 ) = P t 1 (d 1 ) p 11 + P t 1 (d 2 ) p 21 P t (d 2 ) = P t 1 (d 1 ) p 12 + P t 1 (d 2 ) p / 63

56 Potenzmethode für das Telefon-Beispiel 0, 7 0, 3 0 0, 2 0, 5 0, 3 0, 1 0, 4 0, 5 x 0 x 1 x 2 xp 1,00 0,00 0,00 xp 2 0,70 0,30 0,00 xp 3 0,55 0,36 0,09 xp 4 0,47 0,38 0,15 xp 5 0,42 0,39 0,19 xp 6 0,39 0,40 0,21 xp 7 0,37 0,40 0,23 xp 8 0,36 0,40 0,23 xp 9 0,36 0,40 0,24 xp 10 0,36 0,40 0,24 xp 11 0,35 0,40 0,24 xp 12 0,35 0,41 0,24 xp 13 0,35 0,41 0,24 56 / 63

57 Anwendung der GGV beim Web-Retrieval PageRank versucht, Web-Seiten gemäß ihrer Popularität zu gewichten Popularität hängt ab von der Zitationshäufigkeit (eingehende Web-Links) und von der Popularität der referenzierenden Seiten 57 / 63

58 PageRank PageRank d d d d d d d / 63

59 Begründung der PageRank-Methode Random Surfer Grundlage von PageRank klickt sich durch das Web, wobei er zufällig auf einen der ausgehenden Links einer Seite klickt (Gleichverteilung über die ausgehenden Links) Teleportation: gibt es keine ausgehenden Links, geht er auf eine zufällige andere Web-Seite Auch auf einer Seite mit ausgehende Links geht er mit 10% Wahrscheinlichkeit auf eine zufällige andere Seite 59 / 63

60 PageRank PageRank d d d d d d d / 63

61 Übergangsmatrix ohne Teleportation d 0 d 1 d 2 d 3 d 4 d 5 d 6 d d d d d d d / 63

62 Übergangsmatrix mit Teleportation d 0 d 1 d 2 d 3 d 4 d 5 d 6 d d d d d d d / 63

63 Anwendung der Potenzmethode xp k x xp 1 xp 2 xp 3 xp 4 xp 5 xp 6 xp 7 xp 8 xp 9 xp 10 xp 11 xp 12 xp 13 d d d d d d d / 63

Einführung in die Stochastik

Einführung in die Stochastik Einführung in die Stochastik Josef G. Steinebach Köln, WS 2009/10 I Wahrscheinlichkeitsrechnung 1 Wahrscheinlichkeitsräume, Urnenmodelle Stochastik : Lehre von den Gesetzmäßigkeiten des Zufalls, Analyse

Mehr

Übungen zur Mathematik für Pharmazeuten

Übungen zur Mathematik für Pharmazeuten Blatt 1 Aufgabe 1. Wir betrachten den Ereignisraum Ω = {(i,j) 1 i,j 6} zum Zufallsexperiment des zweimaligem Würfelns. Sei A Ω das Ereignis Pasch, und B Ω das Ereignis, daß der erste Wurf eine gerade Augenzahl

Mehr

Aufgabe 2.1. Ergebnis, Ergebnismenge, Ereignis

Aufgabe 2.1. Ergebnis, Ergebnismenge, Ereignis Aufgabe 2. Ergebnis, Ergebnismenge, Ereignis Ergebnis und Ergebnismenge Vorgänge mit zufälligem Ergebnis, oft Zufallsexperiment genannt Bei der Beschreibung der Ergebnisse wird stets ein bestimmtes Merkmal

Mehr

6.1 Grundlagen der Wahrscheinlichkeitsrechnung 6.1.1 Definitionen und Beispiele Beispiel 1 Zufallsexperiment 1,2,3,4,5,6 Elementarereignis

6.1 Grundlagen der Wahrscheinlichkeitsrechnung 6.1.1 Definitionen und Beispiele Beispiel 1 Zufallsexperiment 1,2,3,4,5,6 Elementarereignis 1 6.1 Grundlagen der Wahrscheinlichkeitsrechnung 6.1.1 Definitionen und Beispiele Spiele aus dem Alltagsleben: Würfel, Münzen, Karten,... u.s.w. sind gut geeignet die Grundlagen der Wahrscheinlichkeitsrechnung

Mehr

PageRank-Algorithmus

PageRank-Algorithmus Proseminar Algorithms and Data Structures Gliederung Gliederung 1 Einführung 2 PageRank 3 Eziente Berechnung 4 Zusammenfassung Motivation Motivation Wir wollen eine Suchmaschine bauen, die das Web durchsucht.

Mehr

1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem P( ) = 0.

1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem P( ) = 0. 1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem Folg. 2 Sei (Ω, E, P) W.-raum. Seien A, B,A 1,...,A n Ereignisse. Es gelten die folgenden Aussagen: 1. P(A) = 1 P(A). 2. Für das unmögliche Ereignis gilt:

Mehr

Elementare statistische Methoden

Elementare statistische Methoden Elementare statistische Methoden Vorlesung Computerlinguistische Techniken Alexander Koller 28. November 2014 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen? Ziel

Mehr

Data Mining: Einige Grundlagen aus der Stochastik

Data Mining: Einige Grundlagen aus der Stochastik Data Mining: Einige Grundlagen aus der Stochastik Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 21. Oktober 2015 Vorwort Das vorliegende Skript enthält eine Zusammenfassung verschiedener

Mehr

Q4. Markov-Prozesse in diskreter Zeit

Q4. Markov-Prozesse in diskreter Zeit Q4. Markov-Prozesse in diskreter Zeit Gliederung 1.Stochastische Prozesse Ein Überblick 2.Zeitdiskrete Markov-Prozesse 3.Vom Modell zum Markov-Prozess 4.Klassifikation von Zuständen 5.Stationäre und transiente

Mehr

$ % + 0 sonst. " p für X =1 $

$ % + 0 sonst.  p für X =1 $ 31 617 Spezielle Verteilungen 6171 Bernoulli Verteilung Wir beschreiben zunächst drei diskrete Verteilungen und beginnen mit einem Zufallsexperiment, indem wir uns für das Eintreffen eines bestimmten Ereignisses

Mehr

Wahrscheinlichkeitstheorie. Zapper und

Wahrscheinlichkeitstheorie. Zapper und Diskrete Wahrscheinlichkeitsräume Slide 1 Wahrscheinlichkeitstheorie die Wissenschaft der Zapper und Zocker Diskrete Wahrscheinlichkeitsräume Slide 2 Münzwürfe, Zufallsbits Elementarereignisse mit Wahrscheinlichkeiten

Mehr

Lehrstuhl IV Stochastik & Analysis. Stochastik I. Wahrscheinlichkeitsrechnung. Skriptum nach einer Vorlesung von Hans-Peter Scheffler

Lehrstuhl IV Stochastik & Analysis. Stochastik I. Wahrscheinlichkeitsrechnung. Skriptum nach einer Vorlesung von Hans-Peter Scheffler Fachschaft Mathematik Uni Dortmund Lehrstuhl IV Stochastik & Analysis Stochastik I Wahrscheinlichkeitsrechnung Skriptum nach einer Vorlesung von Hans-Peter Scheffler Letzte Änderung: 8. November 00 Gesetzt

Mehr

Statistik 1: Einführung

Statistik 1: Einführung Seite Stat- Statistik : Einführung Die mathematische Disziplin der Stochastik, die die Teilgebiete Wahrscheinlichkeitstheorie und mathematische Statistik umfaßt, beschäftigt sich mit der Beobachtung, Aufzeichnung

Mehr

Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die

Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Rückwärtsgleichung P (t) = QP (t), P (0) = E eine minimale nicht negative Lösung (P (t) : t 0). Die Lösung bildet eine Matrix Halbgruppe, d.h. P (s)p

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

Modul: Stochastik. Zufallsexperimente oder Wahrscheinlichkeit relative Häufigkeit Variation Permutation Kombinationen Binomialverteilung

Modul: Stochastik. Zufallsexperimente oder Wahrscheinlichkeit relative Häufigkeit Variation Permutation Kombinationen Binomialverteilung Modul: Stochastik Ablauf Vorstellung der Themen Lernen Spielen Wiederholen Zusammenfassen Zufallsexperimente oder Wahrscheinlichkeit relative Häufigkeit Variation Permutation Kombinationen Binomialverteilung

Mehr

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion

Mehr

Einführung in die Computerlinguistik Statistische Grundlagen

Einführung in die Computerlinguistik Statistische Grundlagen Statistik 1 Sommer 2015 Einführung in die Computerlinguistik Statistische Grundlagen Laura Heinrich-Heine-Universität Düsseldorf Sommersemester 2015 Statistik 2 Sommer 2015 Überblick 1. Diskrete Wahrscheinlichkeitsräume

Mehr

Google s PageRank. Eine Anwendung von Matrizen und Markovketten. Vortrag im Rahmen der Lehrerfortbildung an der TU Clausthal 23.

Google s PageRank. Eine Anwendung von Matrizen und Markovketten. Vortrag im Rahmen der Lehrerfortbildung an der TU Clausthal 23. Google s PageRank Eine Anwendung von Matrizen und Markovketten Vortrag im Rahmen der Lehrerfortbildung an der TU Clausthal 23. September 2009 Dr. Werner Sandmann Institut für Mathematik Technische Universität

Mehr

Vorlesung 3 MINIMALE SPANNBÄUME

Vorlesung 3 MINIMALE SPANNBÄUME Vorlesung 3 MINIMALE SPANNBÄUME 72 Aufgabe! Szenario: Sie arbeiten für eine Firma, die ein Neubaugebiet ans Netz (Wasser, Strom oder Kabel oder...) anschließt! Ziel: Alle Haushalte ans Netz bringen, dabei

Mehr

Einführung in die Stochastik. Dr. Lothar Schüler

Einführung in die Stochastik. Dr. Lothar Schüler Einführung in die Stochastik für Studierende der Informatik im Bachelorstudiengang TU Braunschweig SS 2007 Dr. Lothar Schüler Institut für Mathematische Stochastik Technische Universität Braunschweig Pockelsstr.

Mehr

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)

Mehr

Analog definiert man das Nichteintreten eines Ereignisses (Misserfolg) als:

Analog definiert man das Nichteintreten eines Ereignisses (Misserfolg) als: 9-9 Die befasst sich mit der Untersuchung, wie wahrscheinlich das Eintreten eines Falles aufgrund bestimmter Voraussetzungen stattfindet. Bis anhin haben wir immer logisch gefolgert: 'Wenn diese Voraussetzung

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Skript zur Statistik II (Wahrscheinlickeitsrechnung und induktive Statistik)

Skript zur Statistik II (Wahrscheinlickeitsrechnung und induktive Statistik) Prof. Dr. Reinhold Kosfeld Fachbereich Wirtschaftswissenschaften Skript zur Statistik II (Wahrscheinlickeitsrechnung und induktive Statistik) 1. Einleitung Deskriptive Statistik: Allgemeine und spezielle

Mehr

Risiko und Versicherung - Übung

Risiko und Versicherung - Übung Sommer 2009 Risiko und Versicherung - Übung Entscheidungstheoretische Grundlagen Renate Bodenstaff Vera Brinkmann r.bodenstaff@uni-hohenheim.de vera.brinkmann@uni-hohenheim.de https://insurance.uni-hohenheim.de

Mehr

BONUS MALUS SYSTEME UND MARKOV KETTEN

BONUS MALUS SYSTEME UND MARKOV KETTEN Fakultät Mathematik und Naturwissenschaften, Fachrichtung Mathematik, Institut für Mathematische Stochastik BONUS MALUS SYSTEME UND MARKOV KETTEN Klaus D. Schmidt Ringvorlesung TU Dresden Fakultät MN,

Mehr

Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall

Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall Wahrscheinlichkeitstheorie Was will die Sozialwissenschaft damit? Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall Auch im Alltagsleben arbeiten wir mit Wahrscheinlichkeiten, besteigen

Mehr

Markovketten. Bsp. Page Ranking für Suchmaschinen. Wahlfach Entscheidung unter Risiko und stat. Datenanalyse 07.01.2015

Markovketten. Bsp. Page Ranking für Suchmaschinen. Wahlfach Entscheidung unter Risiko und stat. Datenanalyse 07.01.2015 Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung von Systemen, deren Verhalten durch einen zufälligen Übergang von einem Systemzustand zu einem anderen Systemzustand gekennzeichnet

Mehr

Grundlagen. Wozu Wahrscheinlichkeitsrechnung? Definition und Begriff der Wahrscheinlichkeit. Berechnung von Laplace-Wahrscheinlichkeiten

Grundlagen. Wozu Wahrscheinlichkeitsrechnung? Definition und Begriff der Wahrscheinlichkeit. Berechnung von Laplace-Wahrscheinlichkeiten Teil 2: Wahrscheinlichkeitsrechnung 326 Grundlagen Wozu Wahrscheinlichkeitsrechnung? Definition und egriff der Wahrscheinlichkeit erechnung von Laplace-Wahrscheinlichkeiten Rechnen mit einfachem Mengenkalkül

Mehr

Einführung in die Statistik

Einführung in die Statistik Einführung in die Statistik Dr. C.J. Luchsinger 2 Zufallsgrössen Literatur Kapitel 2 * Statistik in Cartoons: Kapitel 4 * Krengel: 3.1 und 3.2 in 3 und (Honours Program) 10 sowie 11.1, 11.2 und 11.3 in

Mehr

Monte-Carlo Simulation

Monte-Carlo Simulation Monte-Carlo Simulation Sehr häufig hängen wichtige Ergebnisse von unbekannten Werten wesentlich ab, für die man allerhöchstens statistische Daten hat oder für die man ein Modell der Wahrscheinlichkeitsrechnung

Mehr

Statistik I für Betriebswirte Vorlesung 5

Statistik I für Betriebswirte Vorlesung 5 Statistik I für Betriebswirte Vorlesung 5 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik 07. Mai 2015 PD Dr. Frank Heyde Statistik I für Betriebswirte Vorlesung 5 1 Klassische Wahrscheinlichkeitsdefinition

Mehr

Einführung in die. Wahrscheinlichkeitstheorie und Statistik

Einführung in die. Wahrscheinlichkeitstheorie und Statistik Institut für Mathematische Stochastik Einführung in die Wahrscheinlichkeitstheorie und Statistik (Kurzskript zur Vorlesung Wintersemester 2014/15 von Prof. Dr. Norbert Gaffke Inhaltsverzeichnis 1 Wahrscheinlichkeitsräume

Mehr

Suchmaschinen und Markov-Ketten 1 / 42

Suchmaschinen und Markov-Ketten 1 / 42 Suchmaschinen und Markov-Ketten 1 / 42 Zielstellung 1 Wir geben einen kurzen Überblick über die Arbeitsweise von Suchmaschinen für das Internet. Eine Suchmaschine erwartet als Eingabe ein Stichwort oder

Mehr

Bei dieser Vorlesungsmitschrift handelt es sich um kein offizielles Skript!

Bei dieser Vorlesungsmitschrift handelt es sich um kein offizielles Skript! Diskrete Stochastik für Informatiker WS003/04 Diskrete Stochastik für die Informatik Bei dieser Vorlesungsmitschrift handelt es sich um kein offizielles Skript! Bei Fragen, Anmerkungen oder Fehlern bitte

Mehr

5. Vorlesung. Das Ranking Problem PageRank HITS (Hubs & Authorities) Markov Ketten und Random Walks PageRank und HITS Berechnung

5. Vorlesung. Das Ranking Problem PageRank HITS (Hubs & Authorities) Markov Ketten und Random Walks PageRank und HITS Berechnung 5. Vorlesung Das Ranking Problem PageRank HITS (Hubs & Authorities) Markov Ketten und Random Walks PageRank und HITS Berechnung Seite 120 The Ranking Problem Eingabe: D: Dokumentkollektion Q: Anfrageraum

Mehr

Wie Google Webseiten bewertet. François Bry

Wie Google Webseiten bewertet. François Bry Wie Google Webseiten bewertet François Bry Heu6ge Vorlesung 1. Einleitung 2. Graphen und Matrizen 3. Erste Idee: Ranking als Eigenvektor 4. Fragen: Exisi6ert der Eigenvektor? Usw. 5. Zweite Idee: Die Google

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Einführung Statistik und Wahrscheinlichkeitsrechnung Lukas Meier Teilweise basierend auf Vorlesungsunterlagen von Marloes Maathuis, Hansruedi Künsch, Peter Bühlmann und Markus Kalisch. Fehler und Anregungen

Mehr

Übungsaufgaben Wahrscheinlichkeit

Übungsaufgaben Wahrscheinlichkeit Übungsaufgaben Wahrscheinlichkeit Aufgabe 1 (mdb500405): In einer Urne befinden sich gelbe (g), rote (r), blaue (b) und weiße (w) Kugel (s. Bild). Ohne Hinsehen sollen aus der Urne in einem Zug Kugeln

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

Web Algorithmen. Ranking. Dr. Michael Brinkmeier. Technische Universität Ilmenau Institut für Theoretische Informatik. Wintersemester 2008/09

Web Algorithmen. Ranking. Dr. Michael Brinkmeier. Technische Universität Ilmenau Institut für Theoretische Informatik. Wintersemester 2008/09 Web Algorithmen Ranking Dr. Michael Brinkmeier Technische Universität Ilmenau Institut für Theoretische Informatik Wintersemester 2008/09 M.Brinkmeier (TU Ilmenau) Web Algorithmen Wintersemester 2008/09

Mehr

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Künstliche Intelligenz Unsicherheit Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Rückblick Agent in der Wumpuswelt konnte Entscheidungen

Mehr

6 Mehrstufige zufällige Vorgänge Lösungshinweise

6 Mehrstufige zufällige Vorgänge Lösungshinweise 6 Mehrstufige zufällige Vorgänge Lösungshinweise Aufgabe 6.: Begründen Sie, warum die stochastische Unabhängigkeit zweier Ereignisse bzw. zufälliger Vorgänge nur ein Modell der Realität darstellen kann.

Mehr

Aufgabe 3: Übersetzen Sie die folgenden natürlich-sprachlichen Aussagen in die Sprache der

Aufgabe 3: Übersetzen Sie die folgenden natürlich-sprachlichen Aussagen in die Sprache der Aufgabe 1: Sind die folgenden Abbildungen jeweils injektiv, surjektiv und/oder bijektiv? (a) f 1 (x) = x, mit f 1 : R + R + (b) f (x) = x, mit f : R R (c) f 3 (x) = x, mit f 3 : R R (d) f 4 (x) = 3x, mit

Mehr

Theoretische Informatik

Theoretische Informatik Theoretische Informatik für die Studiengänge Ingenieur-Informatik berufsbegleitendes Studium Lehramt Informatik (Sekundar- und Berufsschule) http://theo.cs.uni-magdeburg.de/lehre04s/ Lehrbeauftragter:

Mehr

, dt. $+ f(x) = , - + < x < +, " > 0. " 2# Für die zugehörige Verteilungsfunktion F(x) ergibt sich dann: F(x) =

, dt. $+ f(x) = , - + < x < +,  > 0.  2# Für die zugehörige Verteilungsfunktion F(x) ergibt sich dann: F(x) = 38 6..7.4 Normalverteilung Die Gauß-Verteilung oder Normal-Verteilung ist eine stetige Verteilung, d.h. ihre Zufallsvariablen können beliebige reelle Zahlenwerte annehmen. Wir definieren sie durch die

Mehr

Untersuchungen zur Kellystrategie für Wetten und Investitionen

Untersuchungen zur Kellystrategie für Wetten und Investitionen Untersuchungen zur Kellystrategie für Wetten und Investitionen Inaugural-Dissertation zur Erlangung des Doktorgrades der Mathematisch-Naturwissenschaftlichen Fakultät der Universität zu Köln vorgelegt

Mehr

Bedingte Wahrscheinlichkeit

Bedingte Wahrscheinlichkeit Bedingte Wahrscheinlichkeit In einem Laden ist eine Alarmanlage eingebaut. Bei Einbruch gibt sie mit 99%-iger Wahrscheinlichkeit Alarm. Wenn in einer bestimmten Nacht kein Einbruch stattfindet, gibt sie

Mehr

Hans Irtel. Entscheidungs- und testtheoretische Grundlagen der Psychologischen Diagnostik

Hans Irtel. Entscheidungs- und testtheoretische Grundlagen der Psychologischen Diagnostik Hans Irtel Entscheidungs- und testtheoretische Grundlagen der Psychologischen Diagnostik Universität Mannheim 1995 Vorwort Dieses Buch ist ein Kompendium grundlegender Konzepte der Test- und Entscheidungstheorie,

Mehr

y 1 2 3 4 5 6 P (Y = y) 1/6 1/6 1/6 1/6 1/6 1/6

y 1 2 3 4 5 6 P (Y = y) 1/6 1/6 1/6 1/6 1/6 1/6 Fachhochschule Köln Fakultät für Wirtschaftswissenschaften Prof. Dr. Arrenberg Raum 221, Tel. 39 14 jutta.arrenberg@fh-koeln.de Übungen zur Statistik für Prüfungskandidaten und Prüfungskandidatinnen Unabhängigkeit

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

w a is die Anzahl der Vorkommen von a in w Beispiel: abba a = 2

w a is die Anzahl der Vorkommen von a in w Beispiel: abba a = 2 1 2 Notation für Wörter Grundlagen der Theoretischen Informatik Till Mossakowski Fakultät für Informatik Otto-von-Guericke Universität Magdeburg w a is die Anzahl der Vorkommen von a in w Beispiel: abba

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

1 Stochastische Prozesse in stetiger Zeit

1 Stochastische Prozesse in stetiger Zeit 1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.

Mehr

Bachelorarbeit: Ein diskretes Modell für Finanzmärkte

Bachelorarbeit: Ein diskretes Modell für Finanzmärkte Bachelorarbeit: Ein diskretes Modell für Finanzmärkte Die Finanzmathematik ist momentan eine der wichtigsten Anwendungender. Hier soll ein grundlegendes Modell erörtert werden, das auf der Entwicklung

Mehr

Brückenkurs Mathematik, THM Friedberg, 15 19.9.2014

Brückenkurs Mathematik, THM Friedberg, 15 19.9.2014 egelsammlung mb2014 THM Friedberg von 6 16.08.2014 15:04 Brückenkurs Mathematik, THM Friedberg, 15 19.9.2014 Sammlung von Rechenregeln, extrahiert aus dem Lehrbuch: Erhard Cramer, Johanna Neslehová: Vorkurs

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

WAHRSCHEINLICHKEITSTHEORIE I und II. Vorlesungsskript

WAHRSCHEINLICHKEITSTHEORIE I und II. Vorlesungsskript WAHRSCHEINLICHKEITSTHEORIE I und II Wolfgang König TU Berlin und WIAS Berlin Vorlesungsskript SS 2005 und WS 2005/06 überarbeitet im WS 2008/09 kleine Korrekturen im März und Juli 2012 und im März 2013

Mehr

Lösungshinweise zu Kapitel 13

Lösungshinweise zu Kapitel 13 L-112 Lösungshinweise zu Kapitel 13 zu Selbsttestaufgabe 13.2 (Eigenschaften der bedingten Unabhängigkeit) Sei P eine Wahrscheinlichkeitsverteilung über V. Wir setzen im Folgenden stillschweigend voraus,

Mehr

Statistik II - Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Christine Müller Technische Universität Dortmund

Statistik II - Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Christine Müller Technische Universität Dortmund Statistik II - Elementare Wahrscheinlichkeitsrechnung Prof Dr Christine Müller Technische Universität Dortmund Sommersemester 2014 1 Literatur Henze, N (1997 Stochastik für Einsteiger Vieweg, Braunschweig

Mehr

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum

Mehr

Abitur 2012 Mathematik GK Stochastik Aufgabe C1

Abitur 2012 Mathematik GK Stochastik Aufgabe C1 Seite 1 Abiturloesung.de - Abituraufgaben Abitur 2012 Mathematik GK Stochastik Aufgabe C1 nter einem Regentag verstehen Meteorologen einen Tag, an dem mehr als ein Liter Niederschlag pro Quadratmeter gefallen

Mehr

Trainingsaufgaben zur Klausurvorbereitung in Statistik I und II Thema: Satz von Bayes

Trainingsaufgaben zur Klausurvorbereitung in Statistik I und II Thema: Satz von Bayes Trainingsaufgaben zur Klausurvorbereitung in Statistik I und II Thema: Satz von Bayes Aufgabe 1: Wetterbericht Im Mittel sagt der Wetterbericht für den kommenden Tag zu 60 % schönes und zu 40% schlechtes

Mehr

Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015. Vorlesung 5, Donnerstag, 20.

Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015. Vorlesung 5, Donnerstag, 20. Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015 Vorlesung 5, Donnerstag, 20. November 2014 (Wie baut man eine Hash Map, Universelles Hashing)

Mehr

Mengensysteme, Wahrscheinlichkeitsmaße

Mengensysteme, Wahrscheinlichkeitsmaße Kapitel 1 Mengensysteme, Wahrscheinlichkeitsmaße Der Großteil der folgenden fundamentalen Begriffe sind schon aus der Vorlesung Stochastische Modellbildung bekannt: Definition 1.1 Eine Familie A von Teilmengen

Mehr

Übungsaufgaben. Aufgabe 1 Internetsuchmaschinen. Einführung in das Information Retrieval, 8. Mai 2008 Veranstaltung für die Berufsakademie Karlsruhe

Übungsaufgaben. Aufgabe 1 Internetsuchmaschinen. Einführung in das Information Retrieval, 8. Mai 2008 Veranstaltung für die Berufsakademie Karlsruhe Otto-Friedrich-Universität Bamberg Lehrstuhl für Medieninformatik Prof. Dr. Andreas Henrich Dipl. Wirtsch.Inf. Daniel Blank Einführung in das Information Retrieval, 8. Mai 2008 Veranstaltung für die Berufsakademie

Mehr

Absolute Stetigkeit von Maßen

Absolute Stetigkeit von Maßen Absolute Stetigkeit von Maßen Definition. Seien µ und ν Maße auf (X, Ω). Dann heißt ν absolut stetig bezüglich µ (kurz ν µ ), wenn für alle A Ω mit µ(a) = 0 auch gilt dass ν(a) = 0. Lemma. Sei ν ein endliches

Mehr

Sozialwissenschaftliche Methoden und Statistik I

Sozialwissenschaftliche Methoden und Statistik I Sozialwissenschaftliche Methoden und Statistik I Universität Duisburg Essen Standort Duisburg Integrierter Diplomstudiengang Sozialwissenschaften Skript zum SMS I Tutorium Von Mark Lutter Stand: April

Mehr

Algorithmen II Vorlesung am 15.11.2012

Algorithmen II Vorlesung am 15.11.2012 Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales

Mehr

R ist freie Software und kann von der Website. www.r-project.org

R ist freie Software und kann von der Website. www.r-project.org R R ist freie Software und kann von der Website heruntergeladen werden. www.r-project.org Nach dem Herunterladen und der Installation von R kann man R durch Doppelklicken auf das R-Symbol starten. R wird

Mehr

Einführung in die Statistik für Biologen. Jörg Witte

Einführung in die Statistik für Biologen. Jörg Witte Einführung in die Statistik für Biologen Jörg Witte 1997 Inhaltsverzeichnis 1 Endliche Wahrscheinlichkeitstheorie 3 1.1 Grundbegriffe........................ 3 1.2 Zufallsgrößen und Verteilungsfunktionen.........

Mehr

Vorlesung Theoretische Informatik

Vorlesung Theoretische Informatik Vorlesung Theoretische Informatik Automaten und Formale Sprachen Hochschule Reutlingen Fakultät für Informatik Masterstudiengang Wirtschaftsinformatik überarbeitet von F. Laux (Stand: 09.06.2010) Sommersemester

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Sei K ein Körper, a ij K für 1 i m, 1 j n. Weiters seien b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2... a m1

Mehr

Name:... Matrikel-Nr.:... 3 Aufgabe Handyklingeln in der Vorlesung (9 Punkte) Angenommen, ein Student führt ein Handy mit sich, das mit einer Wahrscheinlichkeit von p während einer Vorlesung zumindest

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel

Mehr

Modellierungskonzepte 2

Modellierungskonzepte 2 Modellierungskonzepte 2 Elke Warmuth Humboldt-Universität Berlin WS 2008/09 1 / 50 1 Pfadregeln 2 Begriff Umbewertung von Chancen Bayessche Formel 3 Verwechslungsgefahr Implizite Lotterien 2 / 50 mehrstufige

Mehr

16. All Pairs Shortest Path (ASPS)

16. All Pairs Shortest Path (ASPS) . All Pairs Shortest Path (ASPS) All Pairs Shortest Path (APSP): Eingabe: Gewichteter Graph G=(V,E) Ausgabe: Für jedes Paar von Knoten u,v V die Distanz von u nach v sowie einen kürzesten Weg a b c d e

Mehr

Knut Bartels / Hans Gerhard Strohe. Arbeitsblätter. zur Vorlesung im Wintersemester 2005/06. Statistik II Induktive Statistik

Knut Bartels / Hans Gerhard Strohe. Arbeitsblätter. zur Vorlesung im Wintersemester 2005/06. Statistik II Induktive Statistik Knut Bartels / Hans Gerhard Strohe Arbeitsblätter zur Vorlesung im Wintersemester 2005/06 Induktive Statistik Dies ist kein Vorlesungsskript Wirtschafts- und Sozialwissenschaftliche Fakultät Lehrstuhl

Mehr

Variationen Permutationen Kombinationen

Variationen Permutationen Kombinationen Variationen Permutationen Kombinationen Mit diesen Rechenregeln lässt sich die Wahrscheinlichkeit bestimmter Ereigniskombinationen von gleichwahrscheinlichen Elementarereignissen ermitteln, und erleichtert

Mehr

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen 5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x

Mehr

Leitfaden Lineare Algebra: Determinanten

Leitfaden Lineare Algebra: Determinanten Leitfaden Lineare Algebra: Determinanten Die symmetrische Gruppe S n. Eine Permutation σ der Menge S ist eine bijektive Abbildung σ : S S. Ist S eine endliche Menge, so reicht es zu verlangen, dass σ injektiv

Mehr

Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14. Auswahl vorausgesetzter Vorkenntnisse

Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14. Auswahl vorausgesetzter Vorkenntnisse UNIVERSITÄT DES SAARLANDES FACHRICHTUNG 6.1 MATHEMATIK Dipl.-Math. Kevin Everard Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14 Auswahl vorausgesetzter Vorkenntnisse

Mehr

Markov-Ketten-Monte-Carlo-Verfahren

Markov-Ketten-Monte-Carlo-Verfahren Markov-Ketten-Monte-Carlo-Verfahren Anton Klimovsky 21. Juli 2014 Strichprobenerzeugung aus einer Verteilung (das Samplen). Markov- Ketten-Monte-Carlo-Verfahren. Metropolis-Hastings-Algorithmus. Gibbs-Sampler.

Mehr

6.4 Bedeutungsaspekte ausgewählter Begriffe 6.4.1 Zahlbegriffe und Rechenoperationen

6.4 Bedeutungsaspekte ausgewählter Begriffe 6.4.1 Zahlbegriffe und Rechenoperationen 6.4 Bedeutungsaspekte ausgewählter Begriffe 6.4.1 Zahlbegriffe und Rechenoperationen a) Natürliche Zahl Entspricht Bedeutung des Wortes ZAHL beim Schüler bis Kl. 5 Bedeutungen entwickeln sich durch entsprechende

Mehr

Versuch: Zufälliges Ziehen aus der Population

Versuch: Zufälliges Ziehen aus der Population Wahrscheinlichkeit Ein Test diagnostiziert Kranke zu 99% richtig Gesunde zu 90% richtig 5% der Bevölkerung ist krank? Wie wahrscheinlich ist es, dass jemand krank ist, wenn der Test dies diagnostiziert?

Mehr

Ernst-Moritz-Arndt-Universität Greifswald Fachbereich Physik Elektronikpraktikum

Ernst-Moritz-Arndt-Universität Greifswald Fachbereich Physik Elektronikpraktikum Ernst-Moritz-Arndt-Universität Greifswald Fachbereich Physik Elektronikpraktikum Protokoll-Nr.: 11 Digitalschaltungen Protokollant: Jens Bernheiden Gruppe: 2 Aufgabe durchgeführt: 25.06.1997 Protokoll

Mehr

Zufallsgrößen. Vorlesung Statistik für KW 29.04.2008 Helmut Küchenhoff

Zufallsgrößen. Vorlesung Statistik für KW 29.04.2008 Helmut Küchenhoff Zufallsgrößen 2.5 Zufallsgrößen 2.5.1 Verteilungsfunktion einer Zufallsgröße 2.5.2 Wahrscheinlichkeits- und Dichtefunktion Wahrscheinlichkeitsfunktion einer diskreten Zufallsgröße Dichtefunktion einer

Mehr

Die Binomialverteilung

Die Binomialverteilung Fachseminar zur Stochastik Die Binomialverteilung 23.11.2015 Referenten: Carolin Labrzycki und Caroline Kemper Gliederung Einstieg Definition der Binomialverteilung Herleitung der Formel an einem Beispiel

Mehr

Der Viterbi-Algorithmus.

Der Viterbi-Algorithmus. Der Viterbi-Algorithmus. Eine Erläuterung der formalen Spezifikation am Beispiel des Part-of-Speech Tagging. Kursskript Karin Haenelt, 9..7 (.5.) Einleitung In diesem Skript wird der Viterbi-Algorithmus

Mehr

Einführung in die Stochastik für Informatiker Sommersemester 2000 Prof. Mathar

Einführung in die Stochastik für Informatiker Sommersemester 2000 Prof. Mathar Einführung in die Stochastik für Informatiker Sommersemester 2000 Prof. Mathar getext von René Wörzberger rene@woerzberger.de Bilder Thorsten Uthke Review Diego Biurrun diego@pool.informatik.rwth-aachen.de

Mehr

PG520 - Webpageranking

PG520 - Webpageranking 12. Oktober 2007 Webpageranking - Quellen The PageRank citation ranking: Bringing order to the Web; Page, Brin etal. Technical report, 1998. A Unified Probabilistic Framework for Web Page Scoring Systems;

Mehr

Bestimmen der Wahrscheinlichkeiten mithilfe von Zählstrategien

Bestimmen der Wahrscheinlichkeiten mithilfe von Zählstrategien R. Brinmann http://brinmann-du.de Seite 4.0.2007 Bestimmen der Wahrscheinlicheiten mithilfe von Zählstrategien Die bisherigen Aufgaben zur Wahrscheinlicheitsrechnung onnten im Wesentlichen mit übersichtlichen

Mehr

13.5 Der zentrale Grenzwertsatz

13.5 Der zentrale Grenzwertsatz 13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz Es seien X 1,...,X n (n N unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle

Mehr

Bei vielen Zufallsexperimenten interessiert man sich lediglich für das Eintreten bzw. das Nichteintreten eines bestimmten Ereignisses.

Bei vielen Zufallsexperimenten interessiert man sich lediglich für das Eintreten bzw. das Nichteintreten eines bestimmten Ereignisses. XI. Binomialverteilung ================================================================== 11.1 Definitionen -----------------------------------------------------------------------------------------------------------------

Mehr

Stochastische Modelle

Stochastische Modelle Klausur (Teilprüfung) zur Vorlesung Stochastische Modelle (WS04/05 Februar 2005, Dauer 90 Minuten) 1. Es sollen für eine Zufallsgröße X mit der Dichte Zufallszahlen generiert werden. (a) Zeigen Sie, dass

Mehr

Kürzeste Wege in Graphen. Maurice Duvigneau Otto-von-Guericke Universität Fakultät für Informatik

Kürzeste Wege in Graphen. Maurice Duvigneau Otto-von-Guericke Universität Fakultät für Informatik Kürzeste Wege in Graphen Maurice Duvigneau Otto-von-Guericke Universität Fakultät für Informatik Gliederung Einleitung Definitionen Algorithmus von Dijkstra Bellmann-Ford Algorithmus Floyd-Warshall Algorithmus

Mehr

5. Suchmaschinen Herausforderungen beim Web Information Retrieval. Herausforderungen beim Web Information Retrieval. Architektur von Suchmaschinen

5. Suchmaschinen Herausforderungen beim Web Information Retrieval. Herausforderungen beim Web Information Retrieval. Architektur von Suchmaschinen 5. Suchmaschinen Herausforderungen beim Web Information Retrieval 5. Suchmaschinen 5. Suchmaschinen Herausforderungen beim Web Information Retrieval Verweisstrukturen haben eine wichtige Bedeutung Spamming

Mehr

Das Briefträgerproblem

Das Briefträgerproblem Das Briefträgerproblem Paul Tabatabai 30. Dezember 2011 Inhaltsverzeichnis 1 Problemstellung und Modellierung 2 1.1 Problem................................ 2 1.2 Modellierung.............................

Mehr