4 Diskrete Zufallsvariablen

Ähnliche Dokumente
Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

$ % + 0 sonst. " p für X =1 $

Einführung in die Statistik


Übungen zur Mathematik für Pharmazeuten

5. Schließende Statistik Einführung

Beispiel Zusammengesetzte Zufallsvariablen

11 Diskrete Zufallsvariablen

Bei vielen Zufallsexperimenten interessiert man sich lediglich für das Eintreten bzw. das Nichteintreten eines bestimmten Ereignisses.

Einführung in die Stochastik

, dt. $+ f(x) = , - + < x < +, " > 0. " 2# Für die zugehörige Verteilungsfunktion F(x) ergibt sich dann: F(x) =

Die Binomialverteilung

Stochastische Eingangsprüfung,

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

Monte Carlo Methoden in Kreditrisiko-Management

Übungsaufgaben Wahrscheinlichkeit

Monty Hall-Problem. Wochen 3 und 4: Verteilungen von Zufallsvariablen. Lernziele. Diskrete Verteilungen

Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall

Data Mining: Einige Grundlagen aus der Stochastik

Grundlagen. Wozu Wahrscheinlichkeitsrechnung? Definition und Begriff der Wahrscheinlichkeit. Berechnung von Laplace-Wahrscheinlichkeiten

RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG

Ein möglicher Unterrichtsgang

Einführung in die Statistik für Biologen. Jörg Witte

Zufallsgrößen. Vorlesung Statistik für KW Helmut Küchenhoff

Wahrscheinlichkeitstheorie. Zapper und

Risiko und Versicherung - Übung

Statistik I für Betriebswirte Vorlesung 5

6 Mehrstufige zufällige Vorgänge Lösungshinweise

Aufgabe 2.1. Ergebnis, Ergebnismenge, Ereignis

3.8 Wahrscheinlichkeitsrechnung III

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = ,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

i x k k=1 i u i x i v i 1 0, ,08 2 0, ,18 3 0, ,36 4 0, ,60 5 1, ,00 2,22 G = n 2 n i=1

Sozialwissenschaftliche Methoden und Statistik I

Monte-Carlo Simulation

13.5 Der zentrale Grenzwertsatz

3.7 Wahrscheinlichkeitsrechnung II

Modellierungskonzepte 2

1 Stochastische Prozesse in stetiger Zeit

Bestimmen der Wahrscheinlichkeiten mithilfe von Zählstrategien

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

Übungsrunde 7, Gruppe 2 LVA , Übungsrunde 7, Gruppe 2, Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 11/2006

Statistik und Wahrscheinlichkeitsrechnung

Absolute Stetigkeit von Maßen

Aufgabe 1 10 ECTS. y i x j gering mittel hoch n i Hausrat KFZ Unfall Reiserücktritt n j

Bei dieser Vorlesungsmitschrift handelt es sich um kein offizielles Skript!

Genexpression. Expression eines einzelnen Gens. Expressionsmessung. Genexpressionsmessung. Transkription (Vorgang) Genexpression

Das St. Petersburg Paradox

Zusatzaufgaben zur Vorlesung Stochastik für Informatikstudenten

Beispiele zur UE Wirtschaftsstatistik 1 bei Nagel

Bisher angenommen: jeder Spieler kennt alle Teile des Spiels. - Diskontfaktor des Verhandlungspartners

6.1 Grundlagen der Wahrscheinlichkeitsrechnung Definitionen und Beispiele Beispiel 1 Zufallsexperiment 1,2,3,4,5,6 Elementarereignis

P X =3 = 2 36 P X =5 = 4 P X =6 = 5 36 P X =8 = 5 36 P X =9 = 4 P X =10 = 3 36 P X =11 = 2 36 P X =12 = 1

Ausarbeitung des Seminarvortrags zum Thema

Modul: Stochastik. Zufallsexperimente oder Wahrscheinlichkeit relative Häufigkeit Variation Permutation Kombinationen Binomialverteilung

y P (Y = y) 1/6 1/6 1/6 1/6 1/6 1/6

Einführung in die Stochastik

Einführung in die schließende Statistik - Von der Wahrscheinlichkeit zur Hypothese mit Beispielen in R und SPSS

15.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit

Klassische Risikomodelle

R ist freie Software und kann von der Website.

1. Übungsblatt zur Statistik II - Elementare Wahrscheinlichkeitsrechnung

Einführung in die Computerlinguistik Statistische Grundlagen

Diskrete Verteilungsmodelle

Klausur Nr. 1. Wahrscheinlichkeitsrechnung. Keine Hilfsmittel gestattet, bitte alle Lösungen auf dieses Blatt.

Statistiktraining im Qualitätsmanagement

Mini-Skript Wahrscheinlichkeitstheorie und Statistik

Aufabe 7: Baum-Welch Algorithmus

ARBEITSUNTERLAGEN ZUR VORLESUNG UND ÜBUNG AN DER UNIVERSITÄT DES SAARLANDES DERIVATIVE FINANZINSTRUMENTE

Die Pareto Verteilung wird benutzt, um Einkommensverteilungen zu modellieren. Die Verteilungsfunktion ist

Credit Risk+: Eine Einführung

Elementare statistische Methoden

Statistische Thermodynamik I Lösungen zur Serie 1

BONUS MALUS SYSTEME UND MARKOV KETTEN

Kursthemen 12. Sitzung. Spezielle Verteilungen: Warteprozesse. Spezielle Verteilungen: Warteprozesse

Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14. Auswahl vorausgesetzter Vorkenntnisse

Rechnen mit einfachem Mengenkalkül

Lehrstuhl IV Stochastik & Analysis. Stochastik I. Wahrscheinlichkeitsrechnung. Skriptum nach einer Vorlesung von Hans-Peter Scheffler

Teil II. Nichtlineare Optimierung

11. Primfaktorzerlegungen

Prüfung zu Modul 26 (BA Bw) bzw. 10 (BA IB) (Wirtschaftsstatistik)

Variationen Permutationen Kombinationen

DLP. Adolphe Kankeu Tamghe ALZAGK SEMINAR. Bremen, den 18. Januar Fachbereich Mathematik und Informatik 1 / 27

Codierungstheorie Rudolf Scharlau, SoSe

Kaplan-Meier-Schätzer

Statistik im Versicherungs- und Finanzwesen

Faktorisierung ganzer Zahlen mittels Pollards ρ-methode (1975)

q = 1 p = k k k = 0, 1,..., = [ ] = 0.678

Wahrscheinlichkeit Klasse 8 7

Forschungsstatistik I

Kapitel 4: Binäre Regression

Extremwertverteilungen

Skript zur Statistik II (Wahrscheinlickeitsrechnung und induktive Statistik)

Statistik II für Betriebswirte Vorlesung 2

- Eine typische Ausfallrate, wie sie bei vielen technischen Anwendungen zu sehen ist hat die Form einer Badewanne, deshalb nennt man diese Kurve auch

Abitur 2012 Mathematik GK Stochastik Aufgabe C1

Einführung in die Stochastik für Informatiker Sommersemester 2000 Prof. Mathar

a) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten.

Analog definiert man das Nichteintreten eines Ereignisses (Misserfolg) als:

Transkript:

25 4 Diskrete Zufallsvariablen 4.1 Einleitung Die Ergebnisse von Zufallsvorgängen sind nicht notwendigerweise Zahlen. Oft ist es aber hilfreich diese durch Zahlen zu repräsentieren. Beispiel 4.1 (4-maliger Wurf einer Münze) Ω = {Wappen, Zahl} = {W, Z} 4 Beispiel für ein Ereignis: ω = {W, Z, Z, W } Angenommen man interessiert sich für X := Anzahl von Wappen Dann nennt man X eine Zufallsvariable (ZV) mit reellen Ausprägungen X = R. X ist eine Abbildung von Ω nach R. Vorteile: 1. man kann mit X rechnen. z. B. P (X ) oder P (X 2 > y) 2. der Wahrscheinlichkeitsraum Ω wird meist nicht mehr benötigt Definition 4.1 Eine Zufallsvariable X heißt diskret, falls sie nur endlich oder abzählbar unendlich viele Werte 1, 2,... annehmen kann. Die Menge { 1, 2,...} der möglichen Ausprägungen von X, also alle i R mit f( i ) > 0 heißt Träger T der Zufallsvariable X. Die Wahrscheinlichkeitsfunktion von X ist durch f( i ) = P (X = i ) für i T gegeben. Dabei steht P (X = i ) für P {ω Ω : X(ω) = i }. Offensichtlich muss für jede Wahrscheinlichkeitsfunktion f() gelten, dass f( i ) = 1 und f() 0 für alle R i T Die Wahrscheinlichkeitsfunktion f( i ) heißt auch Wahrscheinlichkeitsdichte. Die Verteilungsfunktion einer diskreten Zufallsvariable ist definiert als F () = P (X ) = f( i ) i: i

26 4 DISKRETE ZUFALLSVARIABLEN (ZV) Kennt man also für alle Werte von den Wert f(), so kennt man auch F () (dies gilt auch umgekehrt). Eigenschaften der Verteilungsfunktion: F () ist monoton wachsend ( Treppenfunktion ) F () ist stückweise konstant mit Sprungstellen an allen Elementen i T (d.h. f( i ) > 0) lim F () = 1 lim F () = 0 Beispiel 4.2 (4-maliger unabh. Münzwurf mit einer fairen Münze) Sei X die Zufallsvariable Anzahl Kopf. Der Träger ist dann T = {0, 1, 2, 3, 4}. Für die Wahrscheinlichkeitsfunktion ergibt sich: f(0) = ( 1 4 2) = 1/16 f(1) = 4/16 f(2) = 6/16 f(3) = 4/16 f(4) = 1/16 F () = 0 : < 0 1/16 : 0 < 1 5/16 : 1 < 2 11/16 : 2 < 3 15/16 : 3 < 4 1 : 4 f() 0.0 0.1 0.2 0.3 0.4 0.5 F() 0.0 0.2 0.4 0.6 0.8 1.0 0 1 2 3 4 1 0 1 2 3 4 5 Abbildung 3: Wahrscheinlichkeitsfunktion (links) und Verteilungsfunktion (rechts) für den viermaligen Münzwurf

4.1 Einleitung 27 Man unterscheidet nun bestimmte gängige Verteilungen, die häufig von Parametern abhängen. Das einfachste Beispiel ist die Bernoulli-Verteilung. Eine Bernoulli-verteilte Zufallsvariable kann nur die Werte 0 und 1 annehmen: P (X = 1) = f(1) = π P (X = 0) = f(0) = 1 π π [0, 1] ist der Parameter der Bernoulli-Verteilung (symbolisch X B(π)). Die Verteilungsfunktion lautet: 0 : < 0 F () = 1 π : 0 < 1 1 : 1 Die diskrete Gleichverteilung hat den endlichen Träger T = { 1, 2,..., k }, wobei für i = 1,..., k gilt: P (X = i ) = f( i ) = 1 k Häufig beinhaltet der Träger T alle natürlichen Zahlen zwischen a, b N. Die Grenzen a und b sind dann die Parameter der Verteilung. Interessanter ist die geometrische Verteilung: Ein Zufallsvorgang, bei dem mit einer Wahrscheinlichkeit π [0, 1] ein Ereignis A eintritt, wird unabhängig voneinander sooft wiederholt, bis zum ersten Mal A eintritt. Sei X die Zufallsvariable Anzahl der Versuche bis zum ersten Mal A eintritt. Dann ist der Träger von X gleich N und die Wahrscheinlichkeitsfunktion lautet: P (X = ) = f() = (1 π) 1 }{{}}{{} π (-1)-mal Ā 1-mal A = 1, 2,... π ist der Parameter der geometrischen Verteilung (symbolisch X G(π)). Die Verteilungsfunktion von X lautet: F () = P (X ) = 1 P (X > ) = 1 (1 π) Modell für (diskrete) Lebenszeiten und Wartezeiten. Eine Variante der geometrischen Verteilung ist es, die Zufallsvariable Y :=

28 4 DISKRETE ZUFALLSVARIABLEN (ZV) Anzahl der Versuche bevor das erste mal A eintritt zu betrachten. Offensichtlich gilt Y = X 1, sodass Y Träger und Wahrscheinlichkeitsfunktion T = {0, 1, 2,...} f(y) = (1 π) y π besizt. Funktionen in R: dgeom(...) liefert Wahrscheinlichkeitsfunktion/-dichte pgeom(...) liefert Verteilungsfunktion rgeom(...) liefert Zufallszahlen aus der geom. Verteilung f() 0.0 0.1 0.2 0.3 0.4 0.5 F() 0.0 0.2 0.4 0.6 0.8 1.0 Abbildung 4: Vergleich der geometrischen Wahrscheinlichkeitsfunktionen (links) und Verteilungsfunktionen (rechts) für die beiden Parameter π = 0.3 (rot) und π = 0.5 (schwarz) Definition 4.2 Sei X eine diskrete Zufallsvariable mit Verteilungsfunktion F (), R. Sei p [0, 1]. Das p-quantil p der Verteilung von X ist definiert als der kleinste Wert für den gilt: F () p Somit gilt P (X p ) = F ( p ) p und daher p = F 1 (p) ( Inversion der Verteilungsfunktion ). Das 0.5-Quantil der Verteilung wird Median med genannt.

4.1 Einleitung 29 Beispiel 4.3 (Quantile der geometrischen Verteilung) p-quantil p : In einem Anteil p aller Fälle muss man maimal p Versuche unternehmen, bevor zum ersten mal A eintritt. In R berechnet die Funktion qgeom(...) die Quantilfunktion der geometrischen Verteilung. Zahlenbeispiel in R (0.95-Quantil und Median für unterschiedliche Wahrscheinlichkeiten): > prob1 <- 0.01 > prob2 <- 0.9 > qgeom(c(0.95, 0.5), prob = prob1) [1] 298 68 > qgeom(c(0.95, 0.5), prob = prob2) [1] 1 0

30 4 DISKRETE ZUFALLSVARIABLEN (ZV) 4.2 Unabhängigkeit von diskreten Zufallsvariablen Definition 4.3 Seien X und Y zwei Zufallsvariablen auf dem Wahrscheinlichkeitsraum (Ω,P ) mit den Trägern T X = { 1, 2,...} und T Y = {y 1, y 2,...} und Wahrscheinlichkeitsfunktionen f X () und f Y (y). Die Funktion f XY (, y) = P (X = und Y = y) = P (X =, Y = y) heißt gemeinsame Wahrscheinlichkeitsfunktion von X und Y. X und Y heißen unabhängig, falls für alle T X und y T Y gilt: f XY (, y) = P (X = ) P (Y = y) = f X () f Y (y) Allgemeiner kann man die Unabhängigkeit von n Zufallsvariablen X 1, X 2,..., X n wie folgt definieren: Definition 4.4 X 1, X 2,..., X n heißen unabhängig, falls P (X 1 = 1,..., X n = n ) = n P (X i = i ) = für alle 1, 2,..., n aus den entsprechenden Trägern gilt. i=1 n f Xi ( i ) Definition 4.5 Sind die Zufallsvariablen X 1, X 2,..., X n unabhängig und Bernoulli-verteilt mit Parameter π, so heißt X = X 1, X 2,..., X n Bernoulli-Folge. Beispiel 4.4 (Bernoulli-Folge) Betrachten wir eine Bernoulli-Folge der Länge n = 3 mit dem Parameter π = 1. Wegen der Unabhängigkeit gilt z. B. 6 P (X 1 = 1, X 2 = 0, X 3 = 0) = 1 ( ) 2 5 6 = 25 6 216 Meist interessiert aber nur die Anzahl X = n i=1 X i, wie oft in der Bernoulli- Kette X i = 1 aufgetreten ist. Diese Zufallsvariable X heißt binomialverteilt (symbolisch X B(n, π)) mit Parameter n N, π [0, 1], hat den Träger T = {0, 1,..., n} und die Wahrscheinlichkeitsfunktion: ( ) n P (X = ) = f() = π (1 π) n für T i=1

4.2 Unabhängigkeit von diskreten Zufallsvariablen 31 Es gilt B(1, π) = B(π). Funktionen in R: dbinom(...) liefert Wahrscheinlichkeitsfunktion/-dichte pbinom(...) liefert Verteilungsfunktion rbinom(...) liefert Zufallszahlen der Binomialverteilung qbinom(...) liefert Quantilsfunktion f() 0.00 0.05 0.10 0.15 0.20 0.25 f() 0.00 0.02 0.04 0.06 0.08 20 30 40 50 60 70 F() 0.0 0.2 0.4 0.6 0.8 1.0 F() 0.0 0.2 0.4 0.6 0.8 1.0 20 30 40 50 60 Abbildung 5: Vergleich der binomialen Wahrscheinlichkeitsfunktionen (oben) und Verteilungsfunktionen (unten) für X B(n, π) mit n = 10 (links) und n = 100 (rechts) und jeweils π = 0.5 (schwarz) und π = 0.3 (rot)

32 4 DISKRETE ZUFALLSVARIABLEN (ZV) Beispiel 4.5 (Würfeln) Sei X: Anzahl 6-er bei n-maligem Würfeln. Dann ist X B(n, 1/6). Berechne Modus (wahrscheinlichster Wert) und Median in Abhängigkeit von n. Berechnung in R: > prob <- 1/6 > for (n in 1:10) { + traeger <- c(0:n) + wkeitsfkt <- dbinom(traeger, prob, size = n) + modus <- traeger[which.ma(wkeitsfkt)] + median <- qbinom(0.5, prob, size = n) + print(c(n, modus, median)) + } [1] 1 0 0 [1] 2 0 0 [1] 3 0 0 [1] 4 0 1 [1] 5 0 1 [1] 6 1 1 [1] 7 1 1 [1] 8 1 1 [1] 9 1 1 [1] 10 1 2 Im Urnenmodell befinden sich N Kugeln in einer Urne, davon M markierte. Nun wird eine Stichprobe aus n Kugeln mit Zurücklegen gezogen. Sei X die Anzahl der markierten Kugeln in der Stichprobe. Dann gilt: X B(n, M/N). Häufig wird jedoch ohne Zurücklegen gezogen, d. h. die Wahrscheinlichkeiten ändern sich von Ziehung zu Ziehung. Die Verteilung von X nennt man dann hypergeometrisch (symbolisch X H(n, N, M)). Sie hat den Träger T = {ma(0, n (N M)),..., min(n, N)} und die Wahrscheinlichkeitsfunktion ( M )( N M ) n f() = ( N für T. n)

4.2 Unabhängigkeit von diskreten Zufallsvariablen 33 Funktionen in R: dhyper(...) liefert Wahrscheinlichkeitsfunktion/-dichte phyper(...) liefert Verteilungsfunktion rhyper(...) liefert Zufallszahlen aus der hypergeom. Vert. qhyper(...) liefert Quantilsfunktion f() 0.00 0.05 0.10 0.15 0.20 0.25 0.30 f() 0.00 0.05 0.10 0.15 0 10 20 30 40 F() 0.0 0.2 0.4 0.6 0.8 1.0 F() 0.0 0.2 0.4 0.6 0.8 1.0 0 10 20 30 40 Abbildung 6: Vergleich der hypergeometrischen Wahrscheinlichkeitsfunktionen (oben) und der Verteilungsfunktionen (unten) für X H(n, N, M) mit n = 10, M = 10 (links) und n = 100, M = 100 (rechts) und jeweils N = 80, k = 20 (schwarz) und N = 95, k = 60 (rot)

34 4 DISKRETE ZUFALLSVARIABLEN (ZV) Ist N relativ groß und n klein, so kann man die hypergeometrische Verteilung gut durch die Binomialverteilung approimieren (siehe Abbildung 7): H(n, N, M) B(n, π = M N ) Beispiel 4.6 (Capture-Recapture-Eperiment) Das Ziel ist hierbei die Schätzung der Anzahl N von Individuen in einer Population. Dazu werden zunächst M Individuen markiert und mit der Gesamtpopulation zufällig vermischt. Anschließend wird eine Stichprobe ohne Zurücklegen vom Umfang n gezogen und die Anzahl X = an markierten Individuen beobachtet. Somit ist die Zufallsvariable X hypergeometrisch mit Parametern N, M und n. X H(n, N, M) Die Aufgabe der Statistik ist es nun, einen Schätzer ˆN für die Anzahl N der Individuen in der Population zu konstruieren. Ein naiver Ansatz zur Konstruktion eines Schätzers ˆN für N lautet: N M n ˆN = n M Dieser Ansatz ist aber aus verschiedenen Gründen problematisch. Zunächst ist ˆN = für = 0. Weiterhin ist im Allgemeinen ˆN / N. Außerdem kann keine Angabe zur Genauigkeit der Schätzung gegeben werden. In einem späteren Abschnitt werden wir statistische Verfahren kennenlernen, die diese Probleme lösen.

4.2 Unabhängigkeit von diskreten Zufallsvariablen 35 n = 5, M = 5, N = 25 n = 10, M = 5, N = 25 f() 0.0 0.1 0.2 0.3 0.4 f() 0.0 0.1 0.2 0.3 0.4 0 1 2 3 4 5 0 1 2 3 4 5 6 7 n = 15, M = 5, N = 25 n = 20, M = 5, N = 25 f() 0.0 0.1 0.2 0.3 0.4 f() 0.0 0.1 0.2 0.3 0.4 0 2 4 6 8 n = 10, M = 20, N = 100 n = 20, M = 20, N = 100 f() 0.00 0.05 0.10 0.15 0.20 0.25 0.30 f() 0.00 0.05 0.10 0.15 0.20 0.25 0 2 4 6 8 12 n = 30, M = 20, N = 100 n = 40, M = 20, N = 100 f() 0.00 0.05 0.10 0.15 0.20 f() 0.00 0.05 0.10 0.15 0.20 0 5 10 15 0 5 10 15 Abbildung 7: Vergleich der hypergeometrischen (rot) und binomialen (schwarz) Wahrscheinlichkeitsfunktionen

36 4 DISKRETE ZUFALLSVARIABLEN (ZV) 4.3 Die Poisson-Verteilung Häufig gibt es zufällige Ereignisse, bei denen es keine natürliche obere Grenze für die Anzahl an Ereignissen gibt, z.b. die Anzahl an Telefonanrufen in einem Call-Center pro Stunde. Die einfachste Verteilung für solche Phänomene ist die Poisson-Verteilung (symbolisch X P (λ)) mit Träger T = N 0 und Wahrscheinlichkeitsfunktion f() = λ! ep( λ) Der Parameter λ R + der Verteilung reflektiert die Rate oder Intensität, mit der die Ereignisse in dem zugrundeliegenden Zeitintervall eintreffen. f() 0.0 0.1 0.2 0.3 F() 0.0 0.2 0.4 0.6 0.8 1.0 Abbildung 8: Vergleich der Wahrscheinlichkeitsfunktionen (links) und Verteilungsfunktionen (rechts) für eine Poissonverteilte Zufallsvariable mit dem Parameter λ = 1 (schwarz) bzw. λ = 3 (rot) Die Binomialverteilung B(n, π) kann für großes n und kleines π mit n π = const. gut durch die Poisson-Verteilung mit λ = n π approimiert werden. B(n, π) Po(λ = n π) Dies ist auch in den Abbildungen 9 und 10 zu sehen, welche Binomialverteilung und Poissonverteilung für unterschiedliche Werte von n und π zeigen. Je größer n ist und je kleiner π, desto besser ist die Approimation.

4.3 Die Poisson-Verteilung 37 f() 0.00 0.05 0.10 0.15 0.20 0.25 0.30 f() 0.00 0.05 0.10 0.15 0.20 0.25 f() 0.00 0.05 0.10 0.15 0.20 0.25 f() 0.0 0.1 0.2 0.3 0.4 0 2 4 6 8 Abbildung 9: Vergleich der Wahrscheinlichkeitsfunktionen von Binomialverteilung (schwarz) und Poissonverteilung (rot) für n = 10 und folgende Werte für π: 0.8 (oben links), 0.5 (oben rechts), 0.3 (unten links) und 0.1 (unten rechts)

38 4 DISKRETE ZUFALLSVARIABLEN (ZV) f() 0.00 0.02 0.04 0.06 0.08 0.10 f() 0.00 0.02 0.04 0.06 0.08 50 60 70 80 90 100 30 40 50 60 70 80 f() 0.00 0.02 0.04 0.06 0.08 f() 0.00 0.02 0.04 0.06 0.08 0.10 0.12 10 20 30 40 50 0 5 10 15 20 25 Abbildung 10: Vergleich der Wahrscheinlichkeitsfunktionen von Binomialverteilung (schwarz) und Poissonverteilung (rot) für n = 100 und folgende Werte für π: 0.8 (oben links), 0.5 (oben rechts), 0.3 (unten links) und 0.1 (unten rechts)

4.4 Faltungen 39 4.4 Faltungen Definition 4.6 Seien X und Y unabhängige Zufallsvariablen mit Wahrscheinlichkeitsfunktionen f X () und f Y (y). Sei Z = X + Y. Dann nennt man die Wahrscheinlichkeitsfunktion f Z von Z die Faltung von f X und f Y : f Z (z) = P (X + Y = z) = = = unabh. = = = y P (X =, X + Y = z) P (X =, Y = z X) P (X = ) P (Y = z X = ) P (X = ) P (Y = z ) f X () f Y (z ) f X (z y) f Y (y) Beispiel 4.7 (Faltung von Poissonverteilten Zufallsvariablen) Seien X und Y zwei unabhängige Poissonverteilte Zufallsvariablen mit X P(λ 1 ) und Y P(λ 2 ). Dann hat Z = X + Y Wahrscheinlichkeitsfunktion dies gilt weil: z λ 1 λ z 2! (z )! =0 f Z (z) = = = = 1 z! z f X () f Y (z ) =0 z [ λ 1! ep( λ λ z ] 2 1) (z )! ep( λ 2) =0 z [ λ 1 λ z ] 2 ep ( (λ 1 + λ 2 ))! (z )! =0 }{{} z =0 = (λ 1 + λ 2 ) z z!! = (λ 1 +λ 2 )z z! ( ) z λ 1 λ z 2 z ( z ) ( λ1 ) ( λ2 ) z λ =0 1 + λ 2 λ 1 + λ 2 }{{} = 1, da Summe über W keitsfkt der Bin.Vtlg

40 4 DISKRETE ZUFALLSVARIABLEN (ZV) Somit erhält man: f Z (z) = (λ 1 + λ 2 ) z z! ep ( (λ 1 + λ 2 ); Z = X + Y ist also ebenfalls Poissonverteilt mit Parameter (λ 1 + λ 2 ): Z P(λ 1 + λ 2 ). Definition 4.7 Sei X die Summe von n unabhängigen geometrischen Zufallsvariablen X 1,..., X n : X = X 1 +... + X n Dann hat X eine negative Binomialverteilung mit Parametern n N und π (0, 1) und Wahrscheinlichkeitsfunktion ( ) 1 f() = π n (1 π) n für = n, n + 1,... n 1 Funktionen in R: dnbinom(...), pnbinom(...), qnbinom(...), rnbinom(...) Beachte: Unterschiedliche Definition in R! Träger immer gleich N 0 Beispiel 4.8 (Faltung von zwei geometrischen Zufallsvariablen) Seien X und Y zwei unabhängige geometrische Zufallsvariablen mit X G(π) und Y G(π). Dann hat Z = X + Y Wahrscheinlichkeitsfunktion f Z (z) = = z 1 f X () f Y (z ) =1 z 1 π(1 π) 1 π(1 π) z 1 =1 z 1 = π 2 (1 π) [( 1)+(z 1)] =1 z 1 = π 2 (1 π) z 2 =1 = π 2 (z 1)(1 π) z 2. Z ist also negativ binomialverteilt mit Parametern n = 2 und π.

4.5 Die Verteilung von Zufallsvektoren 41 4.5 Die Verteilung von Zufallsvektoren Seien X und Y zwei diskrete Zufallsvariablen, welche auf dem Wahrscheinlichkeitsraum (Ω, P ) definiert sind. Es stellt sich die Frage, wie man Information über deren gemeinsames stochastisches Verhalten quantifizieren könnte. Dazu betrachtet man den Zufallsvektor (X, Y ) als Abbildung von R 2 nach [0, 1]. Wie bereits zuvor definiert, lautet die gemeinsame Wahrscheinlichkeitsfunktion von X und Y folgendermaßen: f X,Y (, y) = P (X =, Y = y) Definition 4.8 Die gemeinsame Verteilungsfunktion zweier Zufallsvariablen X und Y ist F X,Y (, y) = P (X, Y y) Die gemeinsame Verteilung von X und Y enthält i.a. mehr Information, als in den Randverteilungen f X () und f Y (y) steckt. Diese lassen sich leicht berechnen, wenn die gemeinsame Wahrscheinlichkeitsfunktion bekannt ist: f X () = y f Y (y) = f X,Y (, y) f X,Y (, y) Beispiel 4.9 (Münzwurf) Ein Lehrer bittet seine Schüler, eine (faire) Münze zweimal zu werfen, und das Ergebnis ( Kopf = 0, Zahl = 1) für jeden Wurf zu notieren. Sei X das Ergebnis des ersten Wurfes und Y das Ergebnis des zweiten Wurfes. Ein gewissenhafter Schüler folgt genau den Anweisungen des Lehrers und notiert das Ergebnis X G und Y G. Ein fauler Schüler wirft nur eine Münze und notiert das erzielte Ergebnis zweimal: X F und Y F. Berechne die gemeinsame Wahrscheinlichkeitsfunktion von (X G, Y G ) und von (X F, Y F ): Gewissenhafter Schüler: f XY (X, Y ) Y G = 0 Y G = 1 f X () X G = 0 1/4 1/4 1/2 X G = 1 1/4 1/4 1/2 f Y (y) 1/2 1/2

42 4 DISKRETE ZUFALLSVARIABLEN (ZV) Fauler Schüler: f XY (X, Y ) Y F = 0 Y F = 1 f X () X F = 0 1/2 0 1/2 X F = 1 0 1/2 1/2 f Y (y) 1/2 1/2 Festzuhalten bleibt, dass die Randverteilungen von X G und X F und auch die Randverteilungen von Y G und Y F identisch sind, nicht aber die gemeinsame Verteilung von (X G, Y G ) und von (X F, Y F ). Allgemeiner kann man einen Zufallsvektor X= (X 1,..., X n ) der Dimension n betrachten. Dieser hat dann die Wahrscheinlichkeitsfunktion f X () = f X1,...,X n ( 1,..., n ) und die folgenden Randverteilungen f Xi ( i ) = f X1,...,X n ( 1,..., n ) j :j i Definition 4.9 Für zwei Zufallsvariablen X und Y ist die bedingte Wahrscheinlichkeitsfunktion von X, gegeben Y = y, definiert als: f X Y ( y) = P (X = Y = y) = P (X =, Y = y) P (Y = y) = f X,Y (, y) f Y (y) Die bedingte Verteilungsfunktion von X, gegeben Y = y, lautet: F X Y ( y) = P (X Y = y) = P (X, Y = y) P (Y = y) Bedingte Wahrscheinlichkeitsfunktion und bedingte Verteilungsfunktion sind definiert für alle y mit P (Y = y) > 0. Aus dieser Definition folgt, dass man die gemeinsame Wahrscheinlichkeitsfunktion zweier Zufallsvariablen X und Y durch ein Produkt aus bedingter Wahrscheinlichkeitsfunktion und Randverteilung ausdrücken kann: f X,Y (, y) = f X Y ( y) f Y (y) = f Y X (y ) f X () Daher kann man die Unabhängigkeit von Zufallsvariablen auch anders definieren: X und Y sind genau dann unabhängig wenn, y gilt: f X Y ( y) = f X () oder f Y X (y ) = f Y (y)

4.5 Die Verteilung von Zufallsvektoren 43 Bedingte Verteilungen haben dieselben Eigenschaften wie gewöhnliche (unbedingte) Verteilungen, wie z. B. : f X Y ( y) = 1 y T Y X T X Beispiel 4.10 Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion: f X,Y (, y) y = 1 y = 0 y = 2 = 1 1/18 3/18 2/18 = 2 2/18 0 3/18 = 3 0 4/18 3/18 Es sollen die Randverteilungen f X () und f Y (y) sowie die bedingten Verteilungen f X Y ( y) und f Y X (y ) berechnet werden. Anschließend werden X und Y auf Unabhängigkeit untersucht. f X,Y (, y) y = 1 y = 0 y = 2 f X () = 1 1/18 3/18 2/18 6/18 = 2 2/18 0 3/18 5/18 = 3 0 4/18 3/18 7/18 f Y (y) 3/18 7/18 8/18 Zum Beispiel sind 2/3 für = 1 f X Y ( y = 1) = 1/3 für = 2 0 für = 3 1/6 für y = 1 f Y X (y = 1) = 1/2 für y = 0 1/3 für y = 2 X und Y sind nicht unabhängig, da T und y T y gelten müsste, dass f X,Y (, y) = f Y (y) f X (). Dies gilt aber nicht, da z. B. : f X,Y ( = 3, y = 1) = 0 21 = f( = 3) f(y = 1) 182 Beispiel 4.11 Betrachte zwei unabhängige Zufallsvariablen X und Y, die beide poissonverteilt sind mit Parameter λ bzw. µ. Sei Z = X + Y. Man zeige: Die bedingte Verteilung von X Z = z ist binomialverteilt mit Parametern n = z und π = λ/(λ + µ): X Z = z B(z, π = λ/(λ + µ))

44 4 DISKRETE ZUFALLSVARIABLEN (ZV) Gesucht wird also: f X Z ( z) = f X,Z(, z) f Z (z) Da Z die Faltung zweier Poissonverteilter Zufallsvariablen ist, gilt Z P(λ+ µ). Die Wahrscheinlichkeitsfunktion von Z ist: f Z (z) = (λ + µ)z z! ep( (λ + µ)) Für die gemeinsame Verteilung von X und Z erhält man: f X,Z (, z) = f X,Y (, z ) X,Y unabh. = f X ()f Y (z ) = λ! ep( λ) µ (z ) (z )! ep( µ) Wie ist Z X verteilt? Wir wissen, dass Z X X = Y X Daher ist Z X = P(µ) +. Somit gilt: X,Y unabh. = Y P(µ). f X Z ( z) = f X,Z(, z) f Z (z) = = = X Z = z B(z, λ/(λ + µ)) µ (z ) (z )! λ ep( µ) ep( λ)! (λ+µ) z ep( (λ + µ)) z! ) λ µ (z ) ( z (λ + µ) z ( ) ( ) ( ) z λ µ λ + µ λ + µ }{{} 1 λ λ+µ Beispiel 4.12 (Gedächtnislosigkeit der geometrischen Verteilung) Sei X eine geometrisch verteilte Zufallsvariable, d.h. X G(π). X beschreibt also die Anzahl der Versuche, die ausgeführt werden müssen, bis ein Ereignis A eintritt. Nun wird für k = 1, 2,... die Zufallsvariable Y k definiert als die Anzahl der noch auszuführenden Versuche für X bis A eintritt, wenn bereits bekannt ist, dass in den letzten k Versuchen das Ereignis nicht eingetreten ist. Es gilt also: Y k = X k X > k z

4.5 Die Verteilung von Zufallsvektoren 45 Wie lautet die Verteilung von Y k? P (Y k = y) = P (X k = y X > y) = P (X = y + k X > k) = y>0 = = P (X = y + k, X > k) P (X > k) P (X = y + k) P (X > k) π(1 π)(y+k) 1 P (X > k) Wir benötigen noch die Wahrscheinlichkeit P (X > k): P (X > k) = 1 P (X k) = 1 F (k) = 1 [1 (1 π) k ] = (1 π) k Dieses Ergebnis wird in obige Formel eingesetzt: P (Y k = y) = π(1 π)(y+k) 1 (1 π) k = π(1 π) y 1 Somit ergibt sich, dass auch Y k geometrisch verteilt ist mit Parameter π, d.h. X und Y k besitzen die gleiche Verteilung, unabhängig von k. Die geometrische Verteilung kann sich also nicht merken, wie oft schon ein Misserfolg aufgetreten ist. Diese Eigenschaft der geometrischen Verteilung nennt man Gedächtnislosigkeit. Abschließend wollen wir nun eine Verallgemeinerung der Binomialverteilung kennenlernen, die Trinomialverteilung. Ein Eperiment, bei dem eins von drei möglichen Ereignissen mit Wahrscheinlichkeit π 1, π 2 und π 3 (π 1 + π 2 + π 3 = 1) auftritt, wird unabhängig voneinander n-mal wiederholt. Sei X ein drei-dimensionaler Zufallsvektor, dessen i-te Komponente angibt, wie oft das i-te Ereignis eingetreten ist. Dann nennt man X trinomialverteilt. Definition 4.10 Ein drei-dimensionaler diskreter Zufallsvektor X heißt trinomialverteilt, falls er Träger T = { = ( 1, 2, 3 ) : i {0, 1,..., n} und 1 + 2 + 3 = n}

46 4 DISKRETE ZUFALLSVARIABLEN (ZV) und Wahrscheinlichkeitsfunktion f X () = f X1,X 2,X 3 ( 1, 2, 3 ) = n! 1! 2! 3! π 1 1 π 2 2 π 3 3 besitzt. Man schreibt kurz: X M 3 (n, π = (π 1, π 2, π 3 )); hierbei steht M 3 für Multinomialverteilung der Dimension 3. Man kann zeigen, dass für die Randverteilungen von X gilt: X i B(n, π i ) Beispiel 4.13 In einer Population mit Häufigkeiten π 1, π 2 und π 3 der Genotypen aa, ab und bb wird eine Stichprobe vom Umfang n gezogen. Die Anzahlen X 1, X 2 und X 3 der drei Genotypen ist dann trinomialverteilt.