Dichte der geometrischen Verteilung

Ähnliche Dokumente
Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das

Dichte der geometrischen Verteilung

Denition 57 Eine geometrisch verteilte Zufallsvariable X mit Parameter (Erfolgswahrscheinlichkeit) p 2 (0; 1] und q := 1 p hat die Dichte

DWT 6.1 Die Ungleichungen von Markov und Chebyshev 157/467 Ernst W. Mayr

Satz 61 (Chebyshev-Ungleichung)

p k (1 p) n k s k = (1 p + ps) n. k p(1 p) k 1 s k ((1 p)s) k 1 =

Wahrscheinlichkeitstheorie und Statistik

7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := Pr[X = k] s k = E[s X ], k Pr[X = k] = E[X].

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Anzahl der Versuche, bei denen A eingetreten ist : Anzahl aller Versuche Mit Hilfe des obigen Gesetzes der groen Zahlen folgt Z = Pr[jZ pj ] ";

Statistik I für Betriebswirte Vorlesung 4

Diskrete Verteilungen

Satz 104 (Skalierung exponentialverteilter Variablen)

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Zentralübung Diskrete Wahrscheinlichkeitstheorie

Korollar 116 (Grenzwertsatz von de Moivre)

7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Diskrete Zufallsvariable

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.

Diskrete Strukturen II

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Biostatistik, Sommer 2017

Vorlesung 5a. Die Varianz

Vorlesung 5a. Varianz und Kovarianz

13 Grenzwertsätze Das Gesetz der großen Zahlen

6.4 Poisson-Verteilung

Satz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung

3. Prozesse mit kontinuierlicher Zeit

Mathematik für Biologen

Die Probabilistische Methode

i Pr(X = i). Bsp: Sei X die Summe zweier Würfe eines Würfels. Dann gilt E[X] =

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Wiederholungsklausur DWT

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Diskrete Verteilungen

Die Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

Statistik für Ingenieure Vorlesung 4

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Mathematik für Biologen

Stochastik. 1. Wahrscheinlichkeitsräume

Diskrete Verteilungen

Stochastik und Statistik für Ingenieure Vorlesung 4

Wahrscheinlichkeit und Statistik: Zusammenfassung

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume

Denition 101 Zwei kontinuierliche Zufallsvariablen X und Y heien unabhangig, wenn

Ü b u n g s b l a t t 11

Wirtschaftsmathematik

Stochastik für die Naturwissenschaften

Ausgewählte spezielle Verteilungen

Biostatistik, Winter 2011/12

8 Zufallsvariablen und Verteilungen. Themen: Zufallsvariablen Verteilungen Gesetz der großen Zahlen

Vorlesung 4b. Versuche, Erfolge, Wartezeiten: von Bernoulli zu Poisson

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

Vorlesung 3b. Versuche, Erfolge, Wartezeiten: von Bernoulli zu Poisson

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/476 c Ernst W. Mayr

Zufallsvariablen [random variable]

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

5 Binomial- und Poissonverteilung

5.Übung Qualitätsmanagement Statistische Analysewerkzeuge des Qualitätsmanagements. Henner Graubitz. 21. November 2006

1.3 Wiederholung der Konvergenzkonzepte

Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig,

Statistik für Ingenieure Vorlesung 5

1.5.4 Quantile und Modi. Bem [Quantil, Modus]

Kapitel 10 VERTEILUNGEN

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen

Stochastik für die Naturwissenschaften

Definition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n i =.

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

Einführung in Quantitative Methoden

Willkommen zur Vorlesung Statistik (Master)

Vorlesung 4b. Die Varianz

1 Stochastische Konvergenz 2

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Wahrscheinlichkeitsrechnung und Statistik

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),

6.6 Poisson-Verteilung

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Satz 105 Seien X und Y unabhangige kontinuierliche Zufallsvariablen. Fur die Dichte von Z := X + Y gilt f Z (z) = f X (x) f Y (z x) d x :

Mathematik 3 für Informatik

Biostatistik, Winter 2011/12

Grundlagen der Wahrscheinlichkeitstheorie

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Wichtige Definitionen und Aussagen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Definition 4.1 Die Wahrscheinlichkeitsfunktion der Bernoulli-Verteilung ist gegeben durch

Kapitel 9. Verteilungsmodelle. 9.1 Diskrete Verteilungsmodelle Die Gleichverteilung

1.3 Zufallsgrößen und Verteilungsfunktionen

Vorlesung 4b. Die Varianz

Transkript:

0,8 Ô ¼ 0,8 Ô ¼ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 1 2 3 4 5 6 7 8 9 10 0,0 1 2 3 4 5 6 7 8 9 10 0,8 Ô ¼ 0,8 Ô ¼ ¾ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 0,0 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 Dichte der geometrischen Verteilung DWT 5.3 Geometrische Verteilung 131/476

Sei X geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem binären Experiment mit Erfolgswahrscheinlichkeit p genau in der k-ten unabhängigen Wiederholung das erste Mal erfolgreich sind. Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das eigentliche Experiment erst ab dem (x + 1)-ten Versuch beginnt. Die Zeit bis zum ersten Erfolg bei diesem neuen Experiment nennen wir X. Damit X > y + x gilt, muss X > y gelten. Es ist intuitiv, dass X wieder geometrisch verteilt ist mit Erfolgswahrscheinlichkeit p, dass also für x, y N gilt: Pr[X > y + x X > x] = Pr[X > y]. (6) DWT 5.3 Geometrische Verteilung 132/476

Formal gilt Pr[X > x] = i=x+1 = (1 p) x p (1 p) i 1 p = (1 p) x p (1 p) i i=0 1 1 (1 p) = (1 p)x, sowie Pr[X > y + x, X > x] Pr[X > y + x X > x] = Pr[X > x] Pr[X > y + x] = Pr[X > x] = (1 p) y+x (1 p) x = (1 p) y = Pr[X > y]. DWT 5.3 Geometrische Verteilung 133/476

Diese Eigenschaft nennt man Gedächtnislosigkeit, da eine geometrisch verteilte Zufallsvariable gewissermaßen vergisst, dass sie schon x Misserfolge hinter sich hat und sich deshalb zum Zeitpunkt y + x genauso verhält wie ursprünglich zur Zeit y. DWT 5.3 Geometrische Verteilung 134/476

Warten auf den n-ten Erfolg. Wir betrachten n unabhängige Zufallsvariablen X 1,..., X n, die jeweils geometrisch verteilt sind mit Parameter p, und bestimmen die Dichte der Zufallsvariablen Z := X 1 + + X n. Damit bezeichnet Z also die Anzahl der Versuche bis zum n-ten erfolgreichen Experiment (einschließlich). Falls Z = z ist, so werden also genau n erfolgreiche und z n nicht erfolgreiche Experimente durchgeführt. Dafür gibt es genau ( z 1 n 1) Möglichkeiten, von denen jede mit Wahrscheinlichkeit p n (1 p) z n eintritt. Es gilt also ( ) z 1 f Z (z) = p n (1 p) z n. n 1 Die Zufallsvariable Z nennt man negativ binomialverteilt mit Ordnung n. DWT 5.3 Geometrische Verteilung 135/476

Das Coupon-Collector-Problem In manchen Branchen legen Firmen den Verpackungen ihrer Produkte oft kleine Bilder oder andere Gegenstände bei, um den Käufer zum Sammeln anzuregen. Wenn es insgesamt n verschiedene solche Beilagen gibt, wie viele Packungen muss man im Mittel erwerben, bis man eine vollständige Sammlung besitzt? Hierbei nehmen wir an, dass bei jedem Kauf jede Beilage mit gleicher Wahrscheinlichkeit auftritt. Sei X die Anzahl der zu tätigenden Käufe, und bezeichne Phase i die Schritte vom Erwerb der (i 1)-ten Beilage (ausschließlich) bis zum Erwerb der i-ten Beilage (einschließlich). DWT 5.3 Geometrische Verteilung 136/476

Sei etwa n = 4, und seien die Beilagen mit den Zahlen 1, 2, 3, 4 identifiziert. Ein Experiment ist z.b.: }{{} 2, 2, 1, 2, 2, 3, 1, 3, 2, 3, 1, 4. }{{}}{{}}{{} 1 2 3 4 Beobachtung: Phase i endet genau dann, wenn wir eine der n i + 1 Beilagen erhalten, die wir noch nicht besitzen. Somit ist X i geometrisch verteilt mit Parameter p = n i+1 n und es gilt E[X i ] = n n i+1. DWT 5.3 Geometrische Verteilung 137/476

Damit folgt aber sofort E[X] = n E[X i ] i=1 n n = n i + 1 i=1 n 1 = n i = n H n, i=1 wobei H n := n i=1 1 i die n-te harmonische Zahl bezeichnet. Da H n = ln n + O(1), folgt E[X] = n ln n + O(n). DWT 5.3 Geometrische Verteilung 138/476

5.4 Poisson-Verteilung Die Poisson-Verteilung mit dem Parameter λ 0 hat den Wertebereich W X = N 0 und besitzt die Dichte f X (i) = e λ λ i für i N 0. i! f X ist eine zulässige Dichte, da f X (i) = i=0 e λ λ i i=0 i! = e λ e λ = 1. DWT 5.4 Poisson-Verteilung 139/476

Für den Erwartungswert erhalten wir E[X] = i=0 i e λ λ i i! = λe λ i=1 = λe λ i=0 λ i 1 (i 1)! λ i i! = λe λ e λ = λ. DWT 5.4 Poisson-Verteilung 140/476

Da E[X(X 1)] = i(i 1) e λ λ i i! i=0 = λ 2 e λ i=2 = λ 2 e λ i=0 λ i 2 (i 2)! λ i i! = λ 2 e λ e λ = λ 2 und E[X(X 1)] + E[X] E[X] 2 = E[X 2 ] E[X] + E[X] E[X] 2 = Var[X], DWT 5.4 Poisson-Verteilung 141/476

folgt Var[X] = E[X(X 1)] + E[X] E[X] 2 = λ 2 + λ λ 2 = λ. (7) Dafür, dass eine Zufallsvariable X Poisson-verteilt mit Parameter λ ist, schreiben wir auch X Po(λ). DWT 5.4 Poisson-Verteilung 142/476

0,6 Po ¼ µ 0,6 Po ½µ 0,5 0,5 0,4 0,4 0,3 0,3 0,2 0,2 0,1 0,1 0,0 0 1 2 3 4 5 6 7 8 9 10 0,0 0 1 2 3 4 5 6 7 8 9 10 0,6 Po ¾µ 0,6 Po µ 0,5 0,5 0,4 0,4 0,3 0,3 0,2 0,2 0,1 0,1 0,0 0 2 4 6 8 10 0,0 0 1 2 3 4 5 6 7 8 9 10 Dichte der Poisson-Verteilung DWT 5.4 Poisson-Verteilung 143/476

5.4.1 Poisson-Verteilung als Grenzwert der Binomialverteilung Wir betrachten eine Folge von binomialverteilten Zufallsvariablen X n mit X n Bin(n, p n ), wobei p n = λ/n. Für ein beliebiges k mit 0 k n ist die Wahrscheinlichkeit, dass X n den Wert k annimmt, gleich ( ) n b(k; n, p n ) = p k n (1 p n ) n k k = (n p n) k k! = λk k! nk n k nk n k (1 p n) k (1 p n ) n ( 1 n) λ k ( 1 n) λ n. DWT 5.4 Poisson-Verteilung 144/476

Wir betrachten nun n und erinnern uns, dass n k lim n n k = 1, lim (1 λ n n ) k = 1, und lim (1 λ n n )n = e λ. Damit folgt ( ) n lim b(k; n, p n) = lim p k n n n (1 p n ) n k = e λ λk k k!. DWT 5.4 Poisson-Verteilung 145/476

Die Wahrscheinlichkeit b(k; n, p n ) konvergiert also für n gegen die Wahrscheinlichkeit, dass eine Poisson-verteilte Zufallsvariable mit Parameter λ den Wert k annimmt. Insgesamt folgt somit, dass die Verteilung einer Zufallsvariablen X Bin(n, λ/n) sich für n der Poisson-Verteilung Po(λ) annähert. DWT 5.4 Poisson-Verteilung 146/476

Vergleich von Binomial- und Poisson-Verteilung DWT 5.4 Poisson-Verteilung 147/476

Ist also n im Vergleich zu λ hinreichend groß, so kann man die Poisson-Verteilung als Approximation der Binomialverteilung verwenden. Diese Tatsache wird manchmal auch als Gesetz seltener Ereignisse bezeichnet, da die Wahrscheinlichkeit eines einzelnen Treffers p n = λ/n relativ klein sein muss, wenn die Approximation gute Ergebnisse liefern soll. DWT 5.4 Poisson-Verteilung 148/476

Die folgenden Voraussetzungen müssen erfüllt sein, damit die Annahme der Poisson-Verteilung gerechtfertigt ist: Die Ereignisse treten nie zur gleichen Zeit auf. Die Wahrscheinlichkeit, dass ein Ereignis in einem (kleinen) Zeitintervall δt auftritt, ist proportional zur Länge von δt. Die Anzahl der Ereignisse in einem festen Zeitintervall hängt nur von dessen Länge ab, nicht aber von der Lage auf der Zeitachse. Wenn man zwei disjunkte Zeitintervalle betrachtet, so sind die Anzahlen der Ereignisse in diesen Zeiträumen voneinander unabhängig. DWT 5.4 Poisson-Verteilung 149/476

Beispiel 58 Wir wollen wissen, wie oft eine bestimmte Gegend im Durchschnitt von einer Naturkatastrophe (z.b. Vulkanausbruch) getroffen wird. Aus Statistiken entnehmen wir, dass so ein Ereignis im Mittel 10 4 -mal pro Jahr auftritt. Wir interessieren uns nun für die Wahrscheinlichkeit, dass die Region in einem Jahr mehr als einmal von einem solchen Unglück heimgesucht wird. Die Voraussetzungen scheinen erfüllt zu sein, die Anzahl X der Katastrophen durch eine Poisson-Verteilung mit Parameter λ = 10 4 zu modellieren. Damit gilt Pr[X 2] = 1 Pr[X = 0] Pr[X = 1] = 1 e λ λe λ 1 0,999900005 0,000099990 = 5 10 9. DWT 5.4 Poisson-Verteilung 150/476

Summe von Poisson-verteilten Zufallsvariablen Satz 59 Sind X und Y unabhängige Zufallsvariablen mit X Po(λ) und Y Po(µ), dann gilt Z := X + Y Po(λ + µ). DWT 5.4 Poisson-Verteilung 151/476

Beweis: z e λ λ x f Z (z) = f X (x) f Y (z x) = e µ µ z x x! (z x)! x=0 x=0 = e (λ+µ) (λ + µ)z z ( ) x ( z! λ µ z! x!(z x)! λ + µ λ + µ x=0 = e (λ+µ) (λ + µ) z 1 z ( ) z z! p x (1 p) z x, x λ λ+µ. wobei p := Da die Summe gleich 1 ist, folgt x=0 f Z (z) = e (λ+µ) (λ + µ) z 1 z!. ) z x DWT 5.4 Poisson-Verteilung 152/476

Erläuterungen und Beispiele zur Poisson-Verteilung In der Wikipedia finden sich ein paar weitere Details und Beispiele hier. Eine Anwendung der Poisson-Verteilung auf die Fußball-Bundesliga (erschienen im Juni-Heft 2010 von Spektrum der Wissenschaft) ist hier. DWT 5.4 Poisson-Verteilung 153/476

6. Abschätzen von Wahrscheinlichkeiten 6.1 Die Ungleichungen von Markov und Chebyshev Satz 60 (Markov-Ungleichung) Sei X eine Zufallsvariable, die nur nicht-negative Werte annimmt. Dann gilt für alle t R mit t > 0, dass Pr[X t] E[X]. t Äquivalent dazu: Pr[X t E[X]] 1/t. DWT 6.1 Die Ungleichungen von Markov und Chebyshev 154/476

Beweis: t Pr[X t] = t Pr[X = x] x W X, x t x W X, x t x Pr[X = x] x Pr[X = x] x W X = E[X]. DWT 6.1 Die Ungleichungen von Markov und Chebyshev 155/476

Alternativer Beweis: Es gilt E[X] = E[X X < t]p r[x < t] + E[X X t]p r[x t]. Wegen E[X X < t]p r[x < t] 0 und E[X X t] t folgt sofort E[X] t P r[x t]. DWT 6.1 Die Ungleichungen von Markov und Chebyshev 156/476

Die Markov-Ungleichung ist nach Andrey Andreyevich Markov (1856 1922) benannt, der an der Universität von St. Petersburg bei Chebyshev studierte und später dort arbeitete. Neben seiner mathematischen Tätigkeit fiel Markov durch heftige Proteste gegen das Zaren-Regime auf, und nur sein Status als vermeintlich harmloser Akademiker schützte ihn vor Repressalien durch die Behörden. Im Jahr 1913 organisierte er parallel zum dreihundertjährigen Geburtstag der Zarenfamilie Romanov eine Feier zum zweihundertjährigen Geburtstag des Gesetzes der großen Zahlen (s.u.). DWT 6.1 Die Ungleichungen von Markov und Chebyshev 157/476