4 Diskrete Zufallsvariablen

Größe: px
Ab Seite anzeigen:

Download "4 Diskrete Zufallsvariablen"

Transkript

1 25 4 Diskrete Zufallsvariablen 4.1 Einleitung Die Ergebnisse von Zufallsvorgängen sind nicht notwendigerweise Zahlen. Oft ist es aber hilfreich diese durch Zahlen zu repräsentieren. Beispiel 4.1 (4-maliger Wurf einer Münze) Ω = {Wappen, Zahl} = {W, Z} 4 Beispiel für ein Ereignis: ω = {W, Z, Z, W } Angenommen man interessiert sich für X := Anzahl von Wappen Dann nennt man X eine Zufallsvariable (ZV) mit reellen Ausprägungen X = R. X ist eine Abbildung von Ω nach R. Vorteile: 1. man kann mit X rechnen. z. B. P (X ) oder P (X 2 > y) 2. der Wahrscheinlichkeitsraum Ω wird meist nicht mehr benötigt Definition 4.1 Eine Zufallsvariable X heißt diskret, falls sie nur endlich oder abzählbar unendlich viele Werte 1, 2,... annehmen kann. Die Menge { 1, 2,...} der möglichen Ausprägungen von X, also alle i R mit f( i ) > 0 heißt Träger T der Zufallsvariable X. Die Wahrscheinlichkeitsfunktion von X ist durch f( i ) = P (X = i ) für i T gegeben. Dabei steht P (X = i ) für P {ω Ω : X(ω) = i }. Offensichtlich muss für jede Wahrscheinlichkeitsfunktion f() gelten, dass f( i ) = 1 und f() 0 für alle R i T Die Wahrscheinlichkeitsfunktion f( i ) heißt auch Wahrscheinlichkeitsdichte. Die Verteilungsfunktion einer diskreten Zufallsvariable ist definiert als F () = P (X ) = f( i ) i: i

2 26 4 DISKRETE ZUFALLSVARIABLEN (ZV) Kennt man also für alle Werte von den Wert f(), so kennt man auch F () (dies gilt auch umgekehrt). Eigenschaften der Verteilungsfunktion: F () ist monoton wachsend ( Treppenfunktion ) F () ist stückweise konstant mit Sprungstellen an allen Elementen i T (d.h. f( i ) > 0) lim F () = 1 lim F () = 0 Beispiel 4.2 (4-maliger unabh. Münzwurf mit einer fairen Münze) Sei X die Zufallsvariable Anzahl Kopf. Der Träger ist dann T = {0, 1, 2, 3, 4}. Für die Wahrscheinlichkeitsfunktion ergibt sich: f(0) = ( 1 4 2) = 1/16 f(1) = 4/16 f(2) = 6/16 f(3) = 4/16 f(4) = 1/16 F () = 0 : < 0 1/16 : 0 < 1 5/16 : 1 < 2 11/16 : 2 < 3 15/16 : 3 < 4 1 : 4 f() F() Abbildung 3: Wahrscheinlichkeitsfunktion (links) und Verteilungsfunktion (rechts) für den viermaligen Münzwurf

3 4.1 Einleitung 27 Man unterscheidet nun bestimmte gängige Verteilungen, die häufig von Parametern abhängen. Das einfachste Beispiel ist die Bernoulli-Verteilung. Eine Bernoulli-verteilte Zufallsvariable kann nur die Werte 0 und 1 annehmen: P (X = 1) = f(1) = π P (X = 0) = f(0) = 1 π π [0, 1] ist der Parameter der Bernoulli-Verteilung (symbolisch X B(π)). Die Verteilungsfunktion lautet: 0 : < 0 F () = 1 π : 0 < 1 1 : 1 Die diskrete Gleichverteilung hat den endlichen Träger T = { 1, 2,..., k }, wobei für i = 1,..., k gilt: P (X = i ) = f( i ) = 1 k Häufig beinhaltet der Träger T alle natürlichen Zahlen zwischen a, b N. Die Grenzen a und b sind dann die Parameter der Verteilung. Interessanter ist die geometrische Verteilung: Ein Zufallsvorgang, bei dem mit einer Wahrscheinlichkeit π [0, 1] ein Ereignis A eintritt, wird unabhängig voneinander sooft wiederholt, bis zum ersten Mal A eintritt. Sei X die Zufallsvariable Anzahl der Versuche bis zum ersten Mal A eintritt. Dann ist der Träger von X gleich N und die Wahrscheinlichkeitsfunktion lautet: P (X = ) = f() = (1 π) 1 }{{}}{{} π (-1)-mal Ā 1-mal A = 1, 2,... π ist der Parameter der geometrischen Verteilung (symbolisch X G(π)). Die Verteilungsfunktion von X lautet: F () = P (X ) = 1 P (X > ) = 1 (1 π) Modell für (diskrete) Lebenszeiten und Wartezeiten. Eine Variante der geometrischen Verteilung ist es, die Zufallsvariable Y :=

4 28 4 DISKRETE ZUFALLSVARIABLEN (ZV) Anzahl der Versuche bevor das erste mal A eintritt zu betrachten. Offensichtlich gilt Y = X 1, sodass Y Träger und Wahrscheinlichkeitsfunktion T = {0, 1, 2,...} f(y) = (1 π) y π besizt. Funktionen in R: dgeom(...) liefert Wahrscheinlichkeitsfunktion/-dichte pgeom(...) liefert Verteilungsfunktion rgeom(...) liefert Zufallszahlen aus der geom. Verteilung f() F() Abbildung 4: Vergleich der geometrischen Wahrscheinlichkeitsfunktionen (links) und Verteilungsfunktionen (rechts) für die beiden Parameter π = 0.3 (rot) und π = 0.5 (schwarz) Definition 4.2 Sei X eine diskrete Zufallsvariable mit Verteilungsfunktion F (), R. Sei p [0, 1]. Das p-quantil p der Verteilung von X ist definiert als der kleinste Wert für den gilt: F () p Somit gilt P (X p ) = F ( p ) p und daher p = F 1 (p) ( Inversion der Verteilungsfunktion ). Das 0.5-Quantil der Verteilung wird Median med genannt.

5 4.1 Einleitung 29 Beispiel 4.3 (Quantile der geometrischen Verteilung) p-quantil p : In einem Anteil p aller Fälle muss man maimal p Versuche unternehmen, bevor zum ersten mal A eintritt. In R berechnet die Funktion qgeom(...) die Quantilfunktion der geometrischen Verteilung. Zahlenbeispiel in R (0.95-Quantil und Median für unterschiedliche Wahrscheinlichkeiten): > prob1 < > prob2 <- 0.9 > qgeom(c(0.95, 0.5), prob = prob1) [1] > qgeom(c(0.95, 0.5), prob = prob2) [1] 1 0

6 30 4 DISKRETE ZUFALLSVARIABLEN (ZV) 4.2 Unabhängigkeit von diskreten Zufallsvariablen Definition 4.3 Seien X und Y zwei Zufallsvariablen auf dem Wahrscheinlichkeitsraum (Ω,P ) mit den Trägern T X = { 1, 2,...} und T Y = {y 1, y 2,...} und Wahrscheinlichkeitsfunktionen f X () und f Y (y). Die Funktion f XY (, y) = P (X = und Y = y) = P (X =, Y = y) heißt gemeinsame Wahrscheinlichkeitsfunktion von X und Y. X und Y heißen unabhängig, falls für alle T X und y T Y gilt: f XY (, y) = P (X = ) P (Y = y) = f X () f Y (y) Allgemeiner kann man die Unabhängigkeit von n Zufallsvariablen X 1, X 2,..., X n wie folgt definieren: Definition 4.4 X 1, X 2,..., X n heißen unabhängig, falls P (X 1 = 1,..., X n = n ) = n P (X i = i ) = für alle 1, 2,..., n aus den entsprechenden Trägern gilt. i=1 n f Xi ( i ) Definition 4.5 Sind die Zufallsvariablen X 1, X 2,..., X n unabhängig und Bernoulli-verteilt mit Parameter π, so heißt X = X 1, X 2,..., X n Bernoulli-Folge. Beispiel 4.4 (Bernoulli-Folge) Betrachten wir eine Bernoulli-Folge der Länge n = 3 mit dem Parameter π = 1. Wegen der Unabhängigkeit gilt z. B. 6 P (X 1 = 1, X 2 = 0, X 3 = 0) = 1 ( ) = Meist interessiert aber nur die Anzahl X = n i=1 X i, wie oft in der Bernoulli- Kette X i = 1 aufgetreten ist. Diese Zufallsvariable X heißt binomialverteilt (symbolisch X B(n, π)) mit Parameter n N, π [0, 1], hat den Träger T = {0, 1,..., n} und die Wahrscheinlichkeitsfunktion: ( ) n P (X = ) = f() = π (1 π) n für T i=1

7 4.2 Unabhängigkeit von diskreten Zufallsvariablen 31 Es gilt B(1, π) = B(π). Funktionen in R: dbinom(...) liefert Wahrscheinlichkeitsfunktion/-dichte pbinom(...) liefert Verteilungsfunktion rbinom(...) liefert Zufallszahlen der Binomialverteilung qbinom(...) liefert Quantilsfunktion f() f() F() F() Abbildung 5: Vergleich der binomialen Wahrscheinlichkeitsfunktionen (oben) und Verteilungsfunktionen (unten) für X B(n, π) mit n = 10 (links) und n = 100 (rechts) und jeweils π = 0.5 (schwarz) und π = 0.3 (rot)

8 32 4 DISKRETE ZUFALLSVARIABLEN (ZV) Beispiel 4.5 (Würfeln) Sei X: Anzahl 6-er bei n-maligem Würfeln. Dann ist X B(n, 1/6). Berechne Modus (wahrscheinlichster Wert) und Median in Abhängigkeit von n. Berechnung in R: > prob <- 1/6 > for (n in 1:10) { + traeger <- c(0:n) + wkeitsfkt <- dbinom(traeger, prob, size = n) + modus <- traeger[which.ma(wkeitsfkt)] + median <- qbinom(0.5, prob, size = n) + print(c(n, modus, median)) + } [1] [1] [1] [1] [1] [1] [1] [1] [1] [1] Im Urnenmodell befinden sich N Kugeln in einer Urne, davon M markierte. Nun wird eine Stichprobe aus n Kugeln mit Zurücklegen gezogen. Sei X die Anzahl der markierten Kugeln in der Stichprobe. Dann gilt: X B(n, M/N). Häufig wird jedoch ohne Zurücklegen gezogen, d. h. die Wahrscheinlichkeiten ändern sich von Ziehung zu Ziehung. Die Verteilung von X nennt man dann hypergeometrisch (symbolisch X H(n, N, M)). Sie hat den Träger T = {ma(0, n (N M)),..., min(n, N)} und die Wahrscheinlichkeitsfunktion ( M )( N M ) n f() = ( N für T. n)

9 4.2 Unabhängigkeit von diskreten Zufallsvariablen 33 Funktionen in R: dhyper(...) liefert Wahrscheinlichkeitsfunktion/-dichte phyper(...) liefert Verteilungsfunktion rhyper(...) liefert Zufallszahlen aus der hypergeom. Vert. qhyper(...) liefert Quantilsfunktion f() f() F() F() Abbildung 6: Vergleich der hypergeometrischen Wahrscheinlichkeitsfunktionen (oben) und der Verteilungsfunktionen (unten) für X H(n, N, M) mit n = 10, M = 10 (links) und n = 100, M = 100 (rechts) und jeweils N = 80, k = 20 (schwarz) und N = 95, k = 60 (rot)

10 34 4 DISKRETE ZUFALLSVARIABLEN (ZV) Ist N relativ groß und n klein, so kann man die hypergeometrische Verteilung gut durch die Binomialverteilung approimieren (siehe Abbildung 7): H(n, N, M) B(n, π = M N ) Beispiel 4.6 (Capture-Recapture-Eperiment) Das Ziel ist hierbei die Schätzung der Anzahl N von Individuen in einer Population. Dazu werden zunächst M Individuen markiert und mit der Gesamtpopulation zufällig vermischt. Anschließend wird eine Stichprobe ohne Zurücklegen vom Umfang n gezogen und die Anzahl X = an markierten Individuen beobachtet. Somit ist die Zufallsvariable X hypergeometrisch mit Parametern N, M und n. X H(n, N, M) Die Aufgabe der Statistik ist es nun, einen Schätzer ˆN für die Anzahl N der Individuen in der Population zu konstruieren. Ein naiver Ansatz zur Konstruktion eines Schätzers ˆN für N lautet: N M n ˆN = n M Dieser Ansatz ist aber aus verschiedenen Gründen problematisch. Zunächst ist ˆN = für = 0. Weiterhin ist im Allgemeinen ˆN / N. Außerdem kann keine Angabe zur Genauigkeit der Schätzung gegeben werden. In einem späteren Abschnitt werden wir statistische Verfahren kennenlernen, die diese Probleme lösen.

11 4.2 Unabhängigkeit von diskreten Zufallsvariablen 35 n = 5, M = 5, N = 25 n = 10, M = 5, N = 25 f() f() n = 15, M = 5, N = 25 n = 20, M = 5, N = 25 f() f() n = 10, M = 20, N = 100 n = 20, M = 20, N = 100 f() f() n = 30, M = 20, N = 100 n = 40, M = 20, N = 100 f() f() Abbildung 7: Vergleich der hypergeometrischen (rot) und binomialen (schwarz) Wahrscheinlichkeitsfunktionen

12 36 4 DISKRETE ZUFALLSVARIABLEN (ZV) 4.3 Die Poisson-Verteilung Häufig gibt es zufällige Ereignisse, bei denen es keine natürliche obere Grenze für die Anzahl an Ereignissen gibt, z.b. die Anzahl an Telefonanrufen in einem Call-Center pro Stunde. Die einfachste Verteilung für solche Phänomene ist die Poisson-Verteilung (symbolisch X P (λ)) mit Träger T = N 0 und Wahrscheinlichkeitsfunktion f() = λ! ep( λ) Der Parameter λ R + der Verteilung reflektiert die Rate oder Intensität, mit der die Ereignisse in dem zugrundeliegenden Zeitintervall eintreffen. f() F() Abbildung 8: Vergleich der Wahrscheinlichkeitsfunktionen (links) und Verteilungsfunktionen (rechts) für eine Poissonverteilte Zufallsvariable mit dem Parameter λ = 1 (schwarz) bzw. λ = 3 (rot) Die Binomialverteilung B(n, π) kann für großes n und kleines π mit n π = const. gut durch die Poisson-Verteilung mit λ = n π approimiert werden. B(n, π) Po(λ = n π) Dies ist auch in den Abbildungen 9 und 10 zu sehen, welche Binomialverteilung und Poissonverteilung für unterschiedliche Werte von n und π zeigen. Je größer n ist und je kleiner π, desto besser ist die Approimation.

13 4.3 Die Poisson-Verteilung 37 f() f() f() f() Abbildung 9: Vergleich der Wahrscheinlichkeitsfunktionen von Binomialverteilung (schwarz) und Poissonverteilung (rot) für n = 10 und folgende Werte für π: 0.8 (oben links), 0.5 (oben rechts), 0.3 (unten links) und 0.1 (unten rechts)

14 38 4 DISKRETE ZUFALLSVARIABLEN (ZV) f() f() f() f() Abbildung 10: Vergleich der Wahrscheinlichkeitsfunktionen von Binomialverteilung (schwarz) und Poissonverteilung (rot) für n = 100 und folgende Werte für π: 0.8 (oben links), 0.5 (oben rechts), 0.3 (unten links) und 0.1 (unten rechts)

15 4.4 Faltungen Faltungen Definition 4.6 Seien X und Y unabhängige Zufallsvariablen mit Wahrscheinlichkeitsfunktionen f X () und f Y (y). Sei Z = X + Y. Dann nennt man die Wahrscheinlichkeitsfunktion f Z von Z die Faltung von f X und f Y : f Z (z) = P (X + Y = z) = = = unabh. = = = y P (X =, X + Y = z) P (X =, Y = z X) P (X = ) P (Y = z X = ) P (X = ) P (Y = z ) f X () f Y (z ) f X (z y) f Y (y) Beispiel 4.7 (Faltung von Poissonverteilten Zufallsvariablen) Seien X und Y zwei unabhängige Poissonverteilte Zufallsvariablen mit X P(λ 1 ) und Y P(λ 2 ). Dann hat Z = X + Y Wahrscheinlichkeitsfunktion dies gilt weil: z λ 1 λ z 2! (z )! =0 f Z (z) = = = = 1 z! z f X () f Y (z ) =0 z [ λ 1! ep( λ λ z ] 2 1) (z )! ep( λ 2) =0 z [ λ 1 λ z ] 2 ep ( (λ 1 + λ 2 ))! (z )! =0 }{{} z =0 = (λ 1 + λ 2 ) z z!! = (λ 1 +λ 2 )z z! ( ) z λ 1 λ z 2 z ( z ) ( λ1 ) ( λ2 ) z λ =0 1 + λ 2 λ 1 + λ 2 }{{} = 1, da Summe über W keitsfkt der Bin.Vtlg

16 40 4 DISKRETE ZUFALLSVARIABLEN (ZV) Somit erhält man: f Z (z) = (λ 1 + λ 2 ) z z! ep ( (λ 1 + λ 2 ); Z = X + Y ist also ebenfalls Poissonverteilt mit Parameter (λ 1 + λ 2 ): Z P(λ 1 + λ 2 ). Definition 4.7 Sei X die Summe von n unabhängigen geometrischen Zufallsvariablen X 1,..., X n : X = X X n Dann hat X eine negative Binomialverteilung mit Parametern n N und π (0, 1) und Wahrscheinlichkeitsfunktion ( ) 1 f() = π n (1 π) n für = n, n + 1,... n 1 Funktionen in R: dnbinom(...), pnbinom(...), qnbinom(...), rnbinom(...) Beachte: Unterschiedliche Definition in R! Träger immer gleich N 0 Beispiel 4.8 (Faltung von zwei geometrischen Zufallsvariablen) Seien X und Y zwei unabhängige geometrische Zufallsvariablen mit X G(π) und Y G(π). Dann hat Z = X + Y Wahrscheinlichkeitsfunktion f Z (z) = = z 1 f X () f Y (z ) =1 z 1 π(1 π) 1 π(1 π) z 1 =1 z 1 = π 2 (1 π) [( 1)+(z 1)] =1 z 1 = π 2 (1 π) z 2 =1 = π 2 (z 1)(1 π) z 2. Z ist also negativ binomialverteilt mit Parametern n = 2 und π.

17 4.5 Die Verteilung von Zufallsvektoren Die Verteilung von Zufallsvektoren Seien X und Y zwei diskrete Zufallsvariablen, welche auf dem Wahrscheinlichkeitsraum (Ω, P ) definiert sind. Es stellt sich die Frage, wie man Information über deren gemeinsames stochastisches Verhalten quantifizieren könnte. Dazu betrachtet man den Zufallsvektor (X, Y ) als Abbildung von R 2 nach [0, 1]. Wie bereits zuvor definiert, lautet die gemeinsame Wahrscheinlichkeitsfunktion von X und Y folgendermaßen: f X,Y (, y) = P (X =, Y = y) Definition 4.8 Die gemeinsame Verteilungsfunktion zweier Zufallsvariablen X und Y ist F X,Y (, y) = P (X, Y y) Die gemeinsame Verteilung von X und Y enthält i.a. mehr Information, als in den Randverteilungen f X () und f Y (y) steckt. Diese lassen sich leicht berechnen, wenn die gemeinsame Wahrscheinlichkeitsfunktion bekannt ist: f X () = y f Y (y) = f X,Y (, y) f X,Y (, y) Beispiel 4.9 (Münzwurf) Ein Lehrer bittet seine Schüler, eine (faire) Münze zweimal zu werfen, und das Ergebnis ( Kopf = 0, Zahl = 1) für jeden Wurf zu notieren. Sei X das Ergebnis des ersten Wurfes und Y das Ergebnis des zweiten Wurfes. Ein gewissenhafter Schüler folgt genau den Anweisungen des Lehrers und notiert das Ergebnis X G und Y G. Ein fauler Schüler wirft nur eine Münze und notiert das erzielte Ergebnis zweimal: X F und Y F. Berechne die gemeinsame Wahrscheinlichkeitsfunktion von (X G, Y G ) und von (X F, Y F ): Gewissenhafter Schüler: f XY (X, Y ) Y G = 0 Y G = 1 f X () X G = 0 1/4 1/4 1/2 X G = 1 1/4 1/4 1/2 f Y (y) 1/2 1/2

18 42 4 DISKRETE ZUFALLSVARIABLEN (ZV) Fauler Schüler: f XY (X, Y ) Y F = 0 Y F = 1 f X () X F = 0 1/2 0 1/2 X F = 1 0 1/2 1/2 f Y (y) 1/2 1/2 Festzuhalten bleibt, dass die Randverteilungen von X G und X F und auch die Randverteilungen von Y G und Y F identisch sind, nicht aber die gemeinsame Verteilung von (X G, Y G ) und von (X F, Y F ). Allgemeiner kann man einen Zufallsvektor X= (X 1,..., X n ) der Dimension n betrachten. Dieser hat dann die Wahrscheinlichkeitsfunktion f X () = f X1,...,X n ( 1,..., n ) und die folgenden Randverteilungen f Xi ( i ) = f X1,...,X n ( 1,..., n ) j :j i Definition 4.9 Für zwei Zufallsvariablen X und Y ist die bedingte Wahrscheinlichkeitsfunktion von X, gegeben Y = y, definiert als: f X Y ( y) = P (X = Y = y) = P (X =, Y = y) P (Y = y) = f X,Y (, y) f Y (y) Die bedingte Verteilungsfunktion von X, gegeben Y = y, lautet: F X Y ( y) = P (X Y = y) = P (X, Y = y) P (Y = y) Bedingte Wahrscheinlichkeitsfunktion und bedingte Verteilungsfunktion sind definiert für alle y mit P (Y = y) > 0. Aus dieser Definition folgt, dass man die gemeinsame Wahrscheinlichkeitsfunktion zweier Zufallsvariablen X und Y durch ein Produkt aus bedingter Wahrscheinlichkeitsfunktion und Randverteilung ausdrücken kann: f X,Y (, y) = f X Y ( y) f Y (y) = f Y X (y ) f X () Daher kann man die Unabhängigkeit von Zufallsvariablen auch anders definieren: X und Y sind genau dann unabhängig wenn, y gilt: f X Y ( y) = f X () oder f Y X (y ) = f Y (y)

19 4.5 Die Verteilung von Zufallsvektoren 43 Bedingte Verteilungen haben dieselben Eigenschaften wie gewöhnliche (unbedingte) Verteilungen, wie z. B. : f X Y ( y) = 1 y T Y X T X Beispiel 4.10 Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion: f X,Y (, y) y = 1 y = 0 y = 2 = 1 1/18 3/18 2/18 = 2 2/18 0 3/18 = 3 0 4/18 3/18 Es sollen die Randverteilungen f X () und f Y (y) sowie die bedingten Verteilungen f X Y ( y) und f Y X (y ) berechnet werden. Anschließend werden X und Y auf Unabhängigkeit untersucht. f X,Y (, y) y = 1 y = 0 y = 2 f X () = 1 1/18 3/18 2/18 6/18 = 2 2/18 0 3/18 5/18 = 3 0 4/18 3/18 7/18 f Y (y) 3/18 7/18 8/18 Zum Beispiel sind 2/3 für = 1 f X Y ( y = 1) = 1/3 für = 2 0 für = 3 1/6 für y = 1 f Y X (y = 1) = 1/2 für y = 0 1/3 für y = 2 X und Y sind nicht unabhängig, da T und y T y gelten müsste, dass f X,Y (, y) = f Y (y) f X (). Dies gilt aber nicht, da z. B. : f X,Y ( = 3, y = 1) = 0 21 = f( = 3) f(y = 1) 182 Beispiel 4.11 Betrachte zwei unabhängige Zufallsvariablen X und Y, die beide poissonverteilt sind mit Parameter λ bzw. µ. Sei Z = X + Y. Man zeige: Die bedingte Verteilung von X Z = z ist binomialverteilt mit Parametern n = z und π = λ/(λ + µ): X Z = z B(z, π = λ/(λ + µ))

20 44 4 DISKRETE ZUFALLSVARIABLEN (ZV) Gesucht wird also: f X Z ( z) = f X,Z(, z) f Z (z) Da Z die Faltung zweier Poissonverteilter Zufallsvariablen ist, gilt Z P(λ+ µ). Die Wahrscheinlichkeitsfunktion von Z ist: f Z (z) = (λ + µ)z z! ep( (λ + µ)) Für die gemeinsame Verteilung von X und Z erhält man: f X,Z (, z) = f X,Y (, z ) X,Y unabh. = f X ()f Y (z ) = λ! ep( λ) µ (z ) (z )! ep( µ) Wie ist Z X verteilt? Wir wissen, dass Z X X = Y X Daher ist Z X = P(µ) +. Somit gilt: X,Y unabh. = Y P(µ). f X Z ( z) = f X,Z(, z) f Z (z) = = = X Z = z B(z, λ/(λ + µ)) µ (z ) (z )! λ ep( µ) ep( λ)! (λ+µ) z ep( (λ + µ)) z! ) λ µ (z ) ( z (λ + µ) z ( ) ( ) ( ) z λ µ λ + µ λ + µ }{{} 1 λ λ+µ Beispiel 4.12 (Gedächtnislosigkeit der geometrischen Verteilung) Sei X eine geometrisch verteilte Zufallsvariable, d.h. X G(π). X beschreibt also die Anzahl der Versuche, die ausgeführt werden müssen, bis ein Ereignis A eintritt. Nun wird für k = 1, 2,... die Zufallsvariable Y k definiert als die Anzahl der noch auszuführenden Versuche für X bis A eintritt, wenn bereits bekannt ist, dass in den letzten k Versuchen das Ereignis nicht eingetreten ist. Es gilt also: Y k = X k X > k z

21 4.5 Die Verteilung von Zufallsvektoren 45 Wie lautet die Verteilung von Y k? P (Y k = y) = P (X k = y X > y) = P (X = y + k X > k) = y>0 = = P (X = y + k, X > k) P (X > k) P (X = y + k) P (X > k) π(1 π)(y+k) 1 P (X > k) Wir benötigen noch die Wahrscheinlichkeit P (X > k): P (X > k) = 1 P (X k) = 1 F (k) = 1 [1 (1 π) k ] = (1 π) k Dieses Ergebnis wird in obige Formel eingesetzt: P (Y k = y) = π(1 π)(y+k) 1 (1 π) k = π(1 π) y 1 Somit ergibt sich, dass auch Y k geometrisch verteilt ist mit Parameter π, d.h. X und Y k besitzen die gleiche Verteilung, unabhängig von k. Die geometrische Verteilung kann sich also nicht merken, wie oft schon ein Misserfolg aufgetreten ist. Diese Eigenschaft der geometrischen Verteilung nennt man Gedächtnislosigkeit. Abschließend wollen wir nun eine Verallgemeinerung der Binomialverteilung kennenlernen, die Trinomialverteilung. Ein Eperiment, bei dem eins von drei möglichen Ereignissen mit Wahrscheinlichkeit π 1, π 2 und π 3 (π 1 + π 2 + π 3 = 1) auftritt, wird unabhängig voneinander n-mal wiederholt. Sei X ein drei-dimensionaler Zufallsvektor, dessen i-te Komponente angibt, wie oft das i-te Ereignis eingetreten ist. Dann nennt man X trinomialverteilt. Definition 4.10 Ein drei-dimensionaler diskreter Zufallsvektor X heißt trinomialverteilt, falls er Träger T = { = ( 1, 2, 3 ) : i {0, 1,..., n} und = n}

22 46 4 DISKRETE ZUFALLSVARIABLEN (ZV) und Wahrscheinlichkeitsfunktion f X () = f X1,X 2,X 3 ( 1, 2, 3 ) = n! 1! 2! 3! π 1 1 π 2 2 π 3 3 besitzt. Man schreibt kurz: X M 3 (n, π = (π 1, π 2, π 3 )); hierbei steht M 3 für Multinomialverteilung der Dimension 3. Man kann zeigen, dass für die Randverteilungen von X gilt: X i B(n, π i ) Beispiel 4.13 In einer Population mit Häufigkeiten π 1, π 2 und π 3 der Genotypen aa, ab und bb wird eine Stichprobe vom Umfang n gezogen. Die Anzahlen X 1, X 2 und X 3 der drei Genotypen ist dann trinomialverteilt.

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion

Mehr

$ % + 0 sonst. " p für X =1 $

$ % + 0 sonst.  p für X =1 $ 31 617 Spezielle Verteilungen 6171 Bernoulli Verteilung Wir beschreiben zunächst drei diskrete Verteilungen und beginnen mit einem Zufallsexperiment, indem wir uns für das Eintreffen eines bestimmten Ereignisses

Mehr

Einführung in die Statistik

Einführung in die Statistik Einführung in die Statistik Dr. C.J. Luchsinger 2 Zufallsgrössen Literatur Kapitel 2 * Statistik in Cartoons: Kapitel 4 * Krengel: 3.1 und 3.2 in 3 und (Honours Program) 10 sowie 11.1, 11.2 und 11.3 in

Mehr

Name:... Matrikel-Nr.:... 3 Aufgabe Handyklingeln in der Vorlesung (9 Punkte) Angenommen, ein Student führt ein Handy mit sich, das mit einer Wahrscheinlichkeit von p während einer Vorlesung zumindest

Mehr

Übungen zur Mathematik für Pharmazeuten

Übungen zur Mathematik für Pharmazeuten Blatt 1 Aufgabe 1. Wir betrachten den Ereignisraum Ω = {(i,j) 1 i,j 6} zum Zufallsexperiment des zweimaligem Würfelns. Sei A Ω das Ereignis Pasch, und B Ω das Ereignis, daß der erste Wurf eine gerade Augenzahl

Mehr

5. Schließende Statistik. 5.1. Einführung

5. Schließende Statistik. 5.1. Einführung 5. Schließende Statistik 5.1. Einführung Sollen auf der Basis von empirischen Untersuchungen (Daten) Erkenntnisse gewonnen und Entscheidungen gefällt werden, sind die Methoden der Statistik einzusetzen.

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

11 Diskrete Zufallsvariablen

11 Diskrete Zufallsvariablen 11 Diskrete Zufallsvariablen 11.1 Wahrscheinlichkeitsfunktion und Verteilungsfunktion In Kapitel 2 wurde zwischen diskreten und stetigen Zufallsvariablen unterschieden. Eine Zufallsvariable X wurde als

Mehr

Bei vielen Zufallsexperimenten interessiert man sich lediglich für das Eintreten bzw. das Nichteintreten eines bestimmten Ereignisses.

Bei vielen Zufallsexperimenten interessiert man sich lediglich für das Eintreten bzw. das Nichteintreten eines bestimmten Ereignisses. XI. Binomialverteilung ================================================================== 11.1 Definitionen -----------------------------------------------------------------------------------------------------------------

Mehr

Einführung in die Stochastik

Einführung in die Stochastik Einführung in die Stochastik Josef G. Steinebach Köln, WS 2009/10 I Wahrscheinlichkeitsrechnung 1 Wahrscheinlichkeitsräume, Urnenmodelle Stochastik : Lehre von den Gesetzmäßigkeiten des Zufalls, Analyse

Mehr

, dt. $+ f(x) = , - + < x < +, " > 0. " 2# Für die zugehörige Verteilungsfunktion F(x) ergibt sich dann: F(x) =

, dt. $+ f(x) = , - + < x < +,  > 0.  2# Für die zugehörige Verteilungsfunktion F(x) ergibt sich dann: F(x) = 38 6..7.4 Normalverteilung Die Gauß-Verteilung oder Normal-Verteilung ist eine stetige Verteilung, d.h. ihre Zufallsvariablen können beliebige reelle Zahlenwerte annehmen. Wir definieren sie durch die

Mehr

Die Binomialverteilung

Die Binomialverteilung Fachseminar zur Stochastik Die Binomialverteilung 23.11.2015 Referenten: Carolin Labrzycki und Caroline Kemper Gliederung Einstieg Definition der Binomialverteilung Herleitung der Formel an einem Beispiel

Mehr

Stochastische Eingangsprüfung, 17.05.2008

Stochastische Eingangsprüfung, 17.05.2008 Stochastische Eingangsprüfung, 17.5.8 Wir gehen stets von einem Wahrscheinlichkeitsraum (Ω, A, P) aus. Aufgabe 1 ( Punkte) Sei X : Ω [, ) eine integrierbare Zufallsvariable mit XdP = 1. Sei Q : A R, Q(A)

Mehr

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)

Mehr

Monte Carlo Methoden in Kreditrisiko-Management

Monte Carlo Methoden in Kreditrisiko-Management Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen

Mehr

Übungsaufgaben Wahrscheinlichkeit

Übungsaufgaben Wahrscheinlichkeit Übungsaufgaben Wahrscheinlichkeit Aufgabe 1 (mdb500405): In einer Urne befinden sich gelbe (g), rote (r), blaue (b) und weiße (w) Kugel (s. Bild). Ohne Hinsehen sollen aus der Urne in einem Zug Kugeln

Mehr

Monty Hall-Problem. Wochen 3 und 4: Verteilungen von Zufallsvariablen. Lernziele. Diskrete Verteilungen

Monty Hall-Problem. Wochen 3 und 4: Verteilungen von Zufallsvariablen. Lernziele. Diskrete Verteilungen Monty Hall-Problem Wochen 3 und 4: Verteilungen von Zufallsvariablen US-amerikanische Fernseh-Show Let s make a deal, moderiert von Monty Hall: WBL 15/17, 04.05.2015 Alain Hauser

Mehr

Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall

Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall Wahrscheinlichkeitstheorie Was will die Sozialwissenschaft damit? Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall Auch im Alltagsleben arbeiten wir mit Wahrscheinlichkeiten, besteigen

Mehr

Data Mining: Einige Grundlagen aus der Stochastik

Data Mining: Einige Grundlagen aus der Stochastik Data Mining: Einige Grundlagen aus der Stochastik Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 21. Oktober 2015 Vorwort Das vorliegende Skript enthält eine Zusammenfassung verschiedener

Mehr

Grundlagen. Wozu Wahrscheinlichkeitsrechnung? Definition und Begriff der Wahrscheinlichkeit. Berechnung von Laplace-Wahrscheinlichkeiten

Grundlagen. Wozu Wahrscheinlichkeitsrechnung? Definition und Begriff der Wahrscheinlichkeit. Berechnung von Laplace-Wahrscheinlichkeiten Teil 2: Wahrscheinlichkeitsrechnung 326 Grundlagen Wozu Wahrscheinlichkeitsrechnung? Definition und egriff der Wahrscheinlichkeit erechnung von Laplace-Wahrscheinlichkeiten Rechnen mit einfachem Mengenkalkül

Mehr

RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG

RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG Die Poisson-Verteilung Jianmin Lu RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG Ausarbeitung zum Vortrag im Seminar Stochastik (Wintersemester 2008/09, Leitung PD Dr. Gudrun Thäter) Zusammenfassung: In der Wahrscheinlichkeitstheorie

Mehr

Ein möglicher Unterrichtsgang

Ein möglicher Unterrichtsgang Ein möglicher Unterrichtsgang. Wiederholung: Bernoulli Experiment und Binomialverteilung Da der sichere Umgang mit der Binomialverteilung, auch der Umgang mit dem GTR und den Diagrammen, eine notwendige

Mehr

Einführung in die Statistik für Biologen. Jörg Witte

Einführung in die Statistik für Biologen. Jörg Witte Einführung in die Statistik für Biologen Jörg Witte 1997 Inhaltsverzeichnis 1 Endliche Wahrscheinlichkeitstheorie 3 1.1 Grundbegriffe........................ 3 1.2 Zufallsgrößen und Verteilungsfunktionen.........

Mehr

Zufallsgrößen. Vorlesung Statistik für KW 29.04.2008 Helmut Küchenhoff

Zufallsgrößen. Vorlesung Statistik für KW 29.04.2008 Helmut Küchenhoff Zufallsgrößen 2.5 Zufallsgrößen 2.5.1 Verteilungsfunktion einer Zufallsgröße 2.5.2 Wahrscheinlichkeits- und Dichtefunktion Wahrscheinlichkeitsfunktion einer diskreten Zufallsgröße Dichtefunktion einer

Mehr

Wahrscheinlichkeitstheorie. Zapper und

Wahrscheinlichkeitstheorie. Zapper und Diskrete Wahrscheinlichkeitsräume Slide 1 Wahrscheinlichkeitstheorie die Wissenschaft der Zapper und Zocker Diskrete Wahrscheinlichkeitsräume Slide 2 Münzwürfe, Zufallsbits Elementarereignisse mit Wahrscheinlichkeiten

Mehr

Risiko und Versicherung - Übung

Risiko und Versicherung - Übung Sommer 2009 Risiko und Versicherung - Übung Entscheidungstheoretische Grundlagen Renate Bodenstaff Vera Brinkmann r.bodenstaff@uni-hohenheim.de vera.brinkmann@uni-hohenheim.de https://insurance.uni-hohenheim.de

Mehr

Statistik I für Betriebswirte Vorlesung 5

Statistik I für Betriebswirte Vorlesung 5 Statistik I für Betriebswirte Vorlesung 5 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik 07. Mai 2015 PD Dr. Frank Heyde Statistik I für Betriebswirte Vorlesung 5 1 Klassische Wahrscheinlichkeitsdefinition

Mehr

6 Mehrstufige zufällige Vorgänge Lösungshinweise

6 Mehrstufige zufällige Vorgänge Lösungshinweise 6 Mehrstufige zufällige Vorgänge Lösungshinweise Aufgabe 6.: Begründen Sie, warum die stochastische Unabhängigkeit zweier Ereignisse bzw. zufälliger Vorgänge nur ein Modell der Realität darstellen kann.

Mehr

Aufgabe 2.1. Ergebnis, Ergebnismenge, Ereignis

Aufgabe 2.1. Ergebnis, Ergebnismenge, Ereignis Aufgabe 2. Ergebnis, Ergebnismenge, Ereignis Ergebnis und Ergebnismenge Vorgänge mit zufälligem Ergebnis, oft Zufallsexperiment genannt Bei der Beschreibung der Ergebnisse wird stets ein bestimmtes Merkmal

Mehr

3.8 Wahrscheinlichkeitsrechnung III

3.8 Wahrscheinlichkeitsrechnung III 3.8 Wahrscheinlichkeitsrechnung III Inhaltsverzeichnis ufallsgrössen Der Erwartungswert 3 3 Die Binomialverteilung 6 4 Die kumulierte Binomialverteilung 8 4. Die Tabelle im Fundamentum (oder Formeln und

Mehr

Statistik. R. Frühwirth. Statistik. fru@hephy.oeaw.ac.at. VO 142.090 http://tinyurl.com/tu142090. Februar 2010. R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. fru@hephy.oeaw.ac.at. VO 142.090 http://tinyurl.com/tu142090. Februar 2010. R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge 2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten

Mehr

i x k k=1 i u i x i v i 1 0,2 24 24 0,08 2 0,4 30 54 0,18 3 0,6 54 108 0,36 4 0,8 72 180 0,60 5 1,0 120 300 1,00 2,22 G = 1 + 1 n 2 n i=1

i x k k=1 i u i x i v i 1 0,2 24 24 0,08 2 0,4 30 54 0,18 3 0,6 54 108 0,36 4 0,8 72 180 0,60 5 1,0 120 300 1,00 2,22 G = 1 + 1 n 2 n i=1 1. Aufgabe: Der E-Commerce-Umsatz (in Millionen Euro) der fünf größten Online- Shopping-Clubs liegt wie folgt vor: Club Nr. Umsatz 1 120 2 72 3 54 4 30 5 24 a) Bestimmen Sie den Ginikoeffizienten. b) Zeichnen

Mehr

Sozialwissenschaftliche Methoden und Statistik I

Sozialwissenschaftliche Methoden und Statistik I Sozialwissenschaftliche Methoden und Statistik I Universität Duisburg Essen Standort Duisburg Integrierter Diplomstudiengang Sozialwissenschaften Skript zum SMS I Tutorium Von Mark Lutter Stand: April

Mehr

Monte-Carlo Simulation

Monte-Carlo Simulation Monte-Carlo Simulation Sehr häufig hängen wichtige Ergebnisse von unbekannten Werten wesentlich ab, für die man allerhöchstens statistische Daten hat oder für die man ein Modell der Wahrscheinlichkeitsrechnung

Mehr

13.5 Der zentrale Grenzwertsatz

13.5 Der zentrale Grenzwertsatz 13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz Es seien X 1,...,X n (n N unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle

Mehr

3.7 Wahrscheinlichkeitsrechnung II

3.7 Wahrscheinlichkeitsrechnung II 3.7 Wahrscheinlichkeitsrechnung II Inhaltsverzeichnis 1 bedingte Wahrscheinlichkeiten 2 2 unabhängige Ereignisse 5 3 mehrstufige Zufallsversuche 7 1 Wahrscheinlichkeitsrechnung II 28.02.2010 Theorie und

Mehr

Modellierungskonzepte 2

Modellierungskonzepte 2 Modellierungskonzepte 2 Elke Warmuth Humboldt-Universität Berlin WS 2008/09 1 / 50 1 Pfadregeln 2 Begriff Umbewertung von Chancen Bayessche Formel 3 Verwechslungsgefahr Implizite Lotterien 2 / 50 mehrstufige

Mehr

1 Stochastische Prozesse in stetiger Zeit

1 Stochastische Prozesse in stetiger Zeit 1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.

Mehr

Bestimmen der Wahrscheinlichkeiten mithilfe von Zählstrategien

Bestimmen der Wahrscheinlichkeiten mithilfe von Zählstrategien R. Brinmann http://brinmann-du.de Seite 4.0.2007 Bestimmen der Wahrscheinlicheiten mithilfe von Zählstrategien Die bisherigen Aufgaben zur Wahrscheinlicheitsrechnung onnten im Wesentlichen mit übersichtlichen

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Übungsrunde 7, Gruppe 2 LVA 107.369, Übungsrunde 7, Gruppe 2, 28.11. Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 11/2006

Übungsrunde 7, Gruppe 2 LVA 107.369, Übungsrunde 7, Gruppe 2, 28.11. Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 11/2006 1 3.34 1.1 Angabe Übungsrunde 7, Gruppe 2 LVA 107.369, Übungsrunde 7, Gruppe 2, 28.11. Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 11/2006 U sei auf dem Intervall (0, 1) uniform verteilt. Zeigen

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Einführung Statistik und Wahrscheinlichkeitsrechnung Lukas Meier Teilweise basierend auf Vorlesungsunterlagen von Marloes Maathuis, Hansruedi Künsch, Peter Bühlmann und Markus Kalisch. Fehler und Anregungen

Mehr

Absolute Stetigkeit von Maßen

Absolute Stetigkeit von Maßen Absolute Stetigkeit von Maßen Definition. Seien µ und ν Maße auf (X, Ω). Dann heißt ν absolut stetig bezüglich µ (kurz ν µ ), wenn für alle A Ω mit µ(a) = 0 auch gilt dass ν(a) = 0. Lemma. Sei ν ein endliches

Mehr

Aufgabe 1 10 ECTS. y i x j gering mittel hoch n i Hausrat 200 25 0 225 KFZ 0 10 75 85 Unfall 20 35 90 145 Reiserücktritt 40 5 0 45 n j 260 75 165 500

Aufgabe 1 10 ECTS. y i x j gering mittel hoch n i Hausrat 200 25 0 225 KFZ 0 10 75 85 Unfall 20 35 90 145 Reiserücktritt 40 5 0 45 n j 260 75 165 500 Aufgabe 1 Für die Securance-Versicherung liegen Ihnen die gemeinsamen absoluten Häugkeiten der Merkmale X: Schadenshöhe und Y : Versicherungsart für die letzten 500 gemeldeten Schäden vor. 1. Interpretieren

Mehr

Bei dieser Vorlesungsmitschrift handelt es sich um kein offizielles Skript!

Bei dieser Vorlesungsmitschrift handelt es sich um kein offizielles Skript! Diskrete Stochastik für Informatiker WS003/04 Diskrete Stochastik für die Informatik Bei dieser Vorlesungsmitschrift handelt es sich um kein offizielles Skript! Bei Fragen, Anmerkungen oder Fehlern bitte

Mehr

Genexpression. Expression eines einzelnen Gens. Expressionsmessung. Genexpressionsmessung. Transkription (Vorgang) Genexpression

Genexpression. Expression eines einzelnen Gens. Expressionsmessung. Genexpressionsmessung. Transkription (Vorgang) Genexpression Genexpressionsmessung Genexpression Transkription (Vorgang) Genexpression (quantitativ) Wieviele m-rna Moleküle eines bestimmten Gens sind in den Zellen? Genomische Datenanalyse 8. Kapitel Wie mißt man

Mehr

Das St. Petersburg Paradox

Das St. Petersburg Paradox Das St. Petersburg Paradox Johannes Dewender 28. Juni 2006 Inhaltsverzeichnis 1 Das Spiel 2 2 Das Paradox 3 3 Lösungsvorschläge 4 3.1 Erwartungsnutzen............................... 4 3.2 Risikoaversion..................................

Mehr

Zusatzaufgaben zur Vorlesung Stochastik für Informatikstudenten

Zusatzaufgaben zur Vorlesung Stochastik für Informatikstudenten Zusatzaufgaben zur Vorlesung Stochastik für Informatikstudenten I.1 Erweitertes Urnenmodell mit Zurücklegen In einer Urne befinden sich ( N Kugeln, davon M 1 der Farbe F 1, M 2 der Farbe l ) F 2,..., M

Mehr

Beispiele zur UE Wirtschaftsstatistik 1 bei Nagel

Beispiele zur UE Wirtschaftsstatistik 1 bei Nagel Beispiele zur UE Wirtschaftsstatistik 1 bei Nagel 1 Ereignisse und Wahrscheinlichkeiten 1. Ein Würfel wird zweimal geworfen, der Stichprobenraum Ω ist Ihnen nicht neu. Versuchen Sie, den Stichprobenraum

Mehr

Bisher angenommen: jeder Spieler kennt alle Teile des Spiels. - Diskontfaktor des Verhandlungspartners

Bisher angenommen: jeder Spieler kennt alle Teile des Spiels. - Diskontfaktor des Verhandlungspartners 1 KAP 15. Spiele unter unvollständiger Information Bisher angenommen: jeder Spieler kennt alle Teile des Spiels seine Gegenspieler, deren Aktionen, deren Nutzen, seinen eigenen Nutzen etc. Oft kennt man

Mehr

6.1 Grundlagen der Wahrscheinlichkeitsrechnung 6.1.1 Definitionen und Beispiele Beispiel 1 Zufallsexperiment 1,2,3,4,5,6 Elementarereignis

6.1 Grundlagen der Wahrscheinlichkeitsrechnung 6.1.1 Definitionen und Beispiele Beispiel 1 Zufallsexperiment 1,2,3,4,5,6 Elementarereignis 1 6.1 Grundlagen der Wahrscheinlichkeitsrechnung 6.1.1 Definitionen und Beispiele Spiele aus dem Alltagsleben: Würfel, Münzen, Karten,... u.s.w. sind gut geeignet die Grundlagen der Wahrscheinlichkeitsrechnung

Mehr

P X =3 = 2 36 P X =5 = 4 P X =6 = 5 36 P X =8 = 5 36 P X =9 = 4 P X =10 = 3 36 P X =11 = 2 36 P X =12 = 1

P X =3 = 2 36 P X =5 = 4 P X =6 = 5 36 P X =8 = 5 36 P X =9 = 4 P X =10 = 3 36 P X =11 = 2 36 P X =12 = 1 Übungen zur Stochastik - Lösungen 1. Ein Glücksrad ist in 3 kongruente Segmente aufgeteilt. Jedes Segment wird mit genau einer Zahl beschriftet, zwei Segmente mit der Zahl 0 und ein Segment mit der Zahl

Mehr

Ausarbeitung des Seminarvortrags zum Thema

Ausarbeitung des Seminarvortrags zum Thema Ausarbeitung des Seminarvortrags zum Thema Anlagepreisbewegung zum Seminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn von Imke Meyer im W9/10 Anlagepreisbewegung

Mehr

Modul: Stochastik. Zufallsexperimente oder Wahrscheinlichkeit relative Häufigkeit Variation Permutation Kombinationen Binomialverteilung

Modul: Stochastik. Zufallsexperimente oder Wahrscheinlichkeit relative Häufigkeit Variation Permutation Kombinationen Binomialverteilung Modul: Stochastik Ablauf Vorstellung der Themen Lernen Spielen Wiederholen Zusammenfassen Zufallsexperimente oder Wahrscheinlichkeit relative Häufigkeit Variation Permutation Kombinationen Binomialverteilung

Mehr

y 1 2 3 4 5 6 P (Y = y) 1/6 1/6 1/6 1/6 1/6 1/6

y 1 2 3 4 5 6 P (Y = y) 1/6 1/6 1/6 1/6 1/6 1/6 Fachhochschule Köln Fakultät für Wirtschaftswissenschaften Prof. Dr. Arrenberg Raum 221, Tel. 39 14 jutta.arrenberg@fh-koeln.de Übungen zur Statistik für Prüfungskandidaten und Prüfungskandidatinnen Unabhängigkeit

Mehr

Einführung in die Stochastik

Einführung in die Stochastik Vorlesungsnotizen Einführung in die Stochastik Hanspeter Schmidli Mathematisches Institut der Universität zu Köln INHALTSVERZEICHNIS iii Inhaltsverzeichnis 1. Diskrete Wahrscheinlichkeitsräume 1 1.1.

Mehr

Einführung in die schließende Statistik - Von der Wahrscheinlichkeit zur Hypothese mit Beispielen in R und SPSS

Einführung in die schließende Statistik - Von der Wahrscheinlichkeit zur Hypothese mit Beispielen in R und SPSS Einführung in die schließende Statistik - Von der Wahrscheinlichkeit zur Hypothese mit Beispielen in R und SPSS Version 0.9 (7.5.204) Haiko Lüpsen Universität zu Köln Regionales Rechenzentrum (RRZK) Kontakt:

Mehr

15.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit

15.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit 5.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit Einführendes Beispiel ( Erhöhung der Sicherheit bei Flugreisen ) Die statistische Wahrscheinlichkeit, dass während eines Fluges ein Sprengsatz an Bord

Mehr

Klassische Risikomodelle

Klassische Risikomodelle Klassische Risikomodelle Kathrin Sachernegg 15. Jänner 2008 1 Inhaltsverzeichnis 1 Einführung 3 1.1 Begriffserklärung.................................. 3 2 Individuelles Risikomodell 3 2.1 Geschlossenes

Mehr

R ist freie Software und kann von der Website. www.r-project.org

R ist freie Software und kann von der Website. www.r-project.org R R ist freie Software und kann von der Website heruntergeladen werden. www.r-project.org Nach dem Herunterladen und der Installation von R kann man R durch Doppelklicken auf das R-Symbol starten. R wird

Mehr

1. Übungsblatt zur Statistik II - Elementare Wahrscheinlichkeitsrechnung

1. Übungsblatt zur Statistik II - Elementare Wahrscheinlichkeitsrechnung . Übungsblatt zur Abgabe 6. Kalenderwoche Aufgabe (8 Punkte): A, B und C seien Teilmengen eines Ergebnisraumes Ω. Man gebe möglichst kurze mengenalgebraische Ausdrücke für das Ereignis an, dass von den

Mehr

Einführung in die Computerlinguistik Statistische Grundlagen

Einführung in die Computerlinguistik Statistische Grundlagen Statistik 1 Sommer 2015 Einführung in die Computerlinguistik Statistische Grundlagen Laura Heinrich-Heine-Universität Düsseldorf Sommersemester 2015 Statistik 2 Sommer 2015 Überblick 1. Diskrete Wahrscheinlichkeitsräume

Mehr

Diskrete Verteilungsmodelle

Diskrete Verteilungsmodelle Diskrete Verteilungsmodelle Worum geht es in diesem Modul? Die hypergeometrische Verteilung Die Binomialverteilung Approximation der hypergeometrischen Verteilung durch die Binomialverteilung Poisson-Verteilung

Mehr

Klausur Nr. 1. Wahrscheinlichkeitsrechnung. Keine Hilfsmittel gestattet, bitte alle Lösungen auf dieses Blatt.

Klausur Nr. 1. Wahrscheinlichkeitsrechnung. Keine Hilfsmittel gestattet, bitte alle Lösungen auf dieses Blatt. Klausur Nr. 1 2014-02-06 Wahrscheinlichkeitsrechnung Pflichtteil Keine Hilfsmittel gestattet, bitte alle Lösungen auf dieses Blatt. Name: 0. Für Pflicht- und Wahlteil gilt: saubere und übersichtliche Darstellung,

Mehr

Statistiktraining im Qualitätsmanagement

Statistiktraining im Qualitätsmanagement Gerhard Linß Statistiktraining im Qualitätsmanagement ISBN-0: -446-75- ISBN-: 978--446-75-4 Leserobe Weitere Informationen oder Bestellungen unter htt://www.hanser.de/978--446-75-4 sowie im Buchhandel

Mehr

Mini-Skript Wahrscheinlichkeitstheorie und Statistik

Mini-Skript Wahrscheinlichkeitstheorie und Statistik Mini-Skript Wahrscheinlichkeitstheorie und Statistik Peter Bühlmann Georg Grafendorfer, Lukas Meier Inhaltsverzeichnis 1 Der Begriff der Wahrscheinlichkeit 1 1.1 Rechenregeln für Wahrscheinlichkeiten........................

Mehr

Aufabe 7: Baum-Welch Algorithmus

Aufabe 7: Baum-Welch Algorithmus Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,

Mehr

ARBEITSUNTERLAGEN ZUR VORLESUNG UND ÜBUNG AN DER UNIVERSITÄT DES SAARLANDES DERIVATIVE FINANZINSTRUMENTE

ARBEITSUNTERLAGEN ZUR VORLESUNG UND ÜBUNG AN DER UNIVERSITÄT DES SAARLANDES DERIVATIVE FINANZINSTRUMENTE ARBEITSUNTERLAGEN ZUR VORLESUNG UND ÜBUNG AN DER UNIVERSITÄT DES SAARLANDES DERIVATIVE FINANZINSTRUMENTE im SS 215 Aufgabe 1 (Innerer Wert, Zeitwert, Basiskurs, Aufgeld) Am 13.4.2 kostete eine Kaufoption

Mehr

Die Pareto Verteilung wird benutzt, um Einkommensverteilungen zu modellieren. Die Verteilungsfunktion ist

Die Pareto Verteilung wird benutzt, um Einkommensverteilungen zu modellieren. Die Verteilungsfunktion ist Frage Die Pareto Verteilung wird benutzt, um Einkommensverteilungen zu modellieren. Die Verteilungsfunktion ist k a F (x) =1 k>0,x k x Finden Sie den Erwartungswert und den Median der Dichte für a>1. (Bei

Mehr

Credit Risk+: Eine Einführung

Credit Risk+: Eine Einführung Credit Risk+: Eine Einführung Volkert Paulsen December 9, 2004 Abstract Credit Risk+ ist neben Credit Metrics ein verbreitetes Kreditrisikomodell, dessen Ursprung in der klassischen Risikotheorie liegt.

Mehr

Elementare statistische Methoden

Elementare statistische Methoden Elementare statistische Methoden Vorlesung Computerlinguistische Techniken Alexander Koller 28. November 2014 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen? Ziel

Mehr

Statistische Thermodynamik I Lösungen zur Serie 1

Statistische Thermodynamik I Lösungen zur Serie 1 Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen

Mehr

BONUS MALUS SYSTEME UND MARKOV KETTEN

BONUS MALUS SYSTEME UND MARKOV KETTEN Fakultät Mathematik und Naturwissenschaften, Fachrichtung Mathematik, Institut für Mathematische Stochastik BONUS MALUS SYSTEME UND MARKOV KETTEN Klaus D. Schmidt Ringvorlesung TU Dresden Fakultät MN,

Mehr

Kursthemen 12. Sitzung. Spezielle Verteilungen: Warteprozesse. Spezielle Verteilungen: Warteprozesse

Kursthemen 12. Sitzung. Spezielle Verteilungen: Warteprozesse. Spezielle Verteilungen: Warteprozesse Kursthemen 12. Sitzung Folie I - 12-1 Spezielle Verteilungen: Warteprozesse Spezielle Verteilungen: Warteprozesse A) Die Geometrische Verteilung (Folien 2 bis 7) A) Die Geometrische Verteilung (Folien

Mehr

Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14. Auswahl vorausgesetzter Vorkenntnisse

Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14. Auswahl vorausgesetzter Vorkenntnisse UNIVERSITÄT DES SAARLANDES FACHRICHTUNG 6.1 MATHEMATIK Dipl.-Math. Kevin Everard Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14 Auswahl vorausgesetzter Vorkenntnisse

Mehr

Rechnen mit einfachem Mengenkalkül

Rechnen mit einfachem Mengenkalkül edingte ahrscheinlichkeiten llgemeine Frage: Rechnen mit einfachem Mengenkalkül ie groß ist die ahrscheinlichkeit für ein Ereignis falls bereits ein Ereignis eingetreten ist (und der etrachter über diese

Mehr

Lehrstuhl IV Stochastik & Analysis. Stochastik I. Wahrscheinlichkeitsrechnung. Skriptum nach einer Vorlesung von Hans-Peter Scheffler

Lehrstuhl IV Stochastik & Analysis. Stochastik I. Wahrscheinlichkeitsrechnung. Skriptum nach einer Vorlesung von Hans-Peter Scheffler Fachschaft Mathematik Uni Dortmund Lehrstuhl IV Stochastik & Analysis Stochastik I Wahrscheinlichkeitsrechnung Skriptum nach einer Vorlesung von Hans-Peter Scheffler Letzte Änderung: 8. November 00 Gesetzt

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

11. Primfaktorzerlegungen

11. Primfaktorzerlegungen 78 Andreas Gathmann 11 Primfaktorzerlegungen Euch ist sicher aus der Schule bekannt, dass sich jede positive ganze Zahl a als Produkt a = p 1 p n von Primzahlen schreiben lässt, und dass diese Darstellung

Mehr

Prüfung zu Modul 26 (BA Bw) bzw. 10 (BA IB) (Wirtschaftsstatistik)

Prüfung zu Modul 26 (BA Bw) bzw. 10 (BA IB) (Wirtschaftsstatistik) 2 3 Klausur-Nr = Sitzplatz-Nr Prüfung zu Modul 26 (BA Bw) bzw. 10 (BA IB) (Wirtschaftsstatistik) Klausurteil 1: Beschreibende Statistik BeStat-1 (7 ) n = 400 Personen wurden gefragt, wie viele Stück eines

Mehr

Variationen Permutationen Kombinationen

Variationen Permutationen Kombinationen Variationen Permutationen Kombinationen Mit diesen Rechenregeln lässt sich die Wahrscheinlichkeit bestimmter Ereigniskombinationen von gleichwahrscheinlichen Elementarereignissen ermitteln, und erleichtert

Mehr

DLP. Adolphe Kankeu Tamghe papibobo@informatik.uni-bremen.de ALZAGK SEMINAR. Bremen, den 18. Januar 2011. Fachbereich Mathematik und Informatik 1 / 27

DLP. Adolphe Kankeu Tamghe papibobo@informatik.uni-bremen.de ALZAGK SEMINAR. Bremen, den 18. Januar 2011. Fachbereich Mathematik und Informatik 1 / 27 DLP Adolphe Kankeu Tamghe papibobo@informatik.uni-bremen.de Fachbereich Mathematik und Informatik ALZAGK SEMINAR Bremen, den 18. Januar 2011 1 / 27 Inhaltsverzeichnis 1 Der diskrete Logarithmus Definition

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Kaplan-Meier-Schätzer

Kaplan-Meier-Schätzer Kaplan-Meier-Schätzer Ausgangssituation Zwei naive Ansätze zur Schätzung der Survivalfunktion Unverzerrte Schätzung der Survivalfunktion Der Kaplan-Meier-Schätzer Standardfehler und Konfidenzintervall

Mehr

Statistik im Versicherungs- und Finanzwesen

Statistik im Versicherungs- und Finanzwesen Springer Gabler PLUS Zusatzinformationen zu Medien von Springer Gabler Grimmer Statistik im Versicherungs- und Finanzwesen Eine anwendungsorientierte Einführung 04. Auflage Übungsaufgaben zu Kapitel Aufgaben

Mehr

Faktorisierung ganzer Zahlen mittels Pollards ρ-methode (1975)

Faktorisierung ganzer Zahlen mittels Pollards ρ-methode (1975) Dass das Problem, die Primzahlen von den zusammengesetzten zu unterscheiden und letztere in ihre Primfaktoren zu zerlegen zu den wichtigsten und nützlichsten der ganzen Arithmetik gehört und den Fleiss

Mehr

q = 1 p = 0.8 0.2 k 0.8 10 k k = 0, 1,..., 10 1 1 0.8 2 + 10 0.2 0.8 + 10 9 1 2 0.22 1 = 0.8 8 [0.64 + 1.6 + 1.8] = 0.678

q = 1 p = 0.8 0.2 k 0.8 10 k k = 0, 1,..., 10 1 1 0.8 2 + 10 0.2 0.8 + 10 9 1 2 0.22 1 = 0.8 8 [0.64 + 1.6 + 1.8] = 0.678 Lösungsvorschläge zu Blatt 8 X binomialverteilt mit p = 0. und n = 10: a PX = = 10 q = 1 p = 0.8 0. 0.8 10 = 0, 1,..., 10 PX = PX = 0 + PX = 1 + PX = 10 10 = 0. 0 0.8 10 + 0. 1 0.8 9 + 0 1 10 = 0.8 8 [

Mehr

Wahrscheinlichkeit Klasse 8 7

Wahrscheinlichkeit Klasse 8 7 7 Wahrscheinlichkeit Klasse 8 Ereignisse Seite 8 a) Ω {Herz 7; Herz 8; Herz 9; Herz 0; Herz Unter; Herz Ober; Herz König; Herz Ass; Eichel 7; Eichel 8; Eichel 9; Eichel 0; Eichel Unter; Eichel Ober; Eichel

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt. Stock, Nordflügel R. 0-49 (Persike) R. 0- (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 008/009 Fachbereich

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

Extremwertverteilungen

Extremwertverteilungen Seminar Statistik Institut für Stochastik 12. Februar 2009 Gliederung 1 Grenzwertwahrscheinlichkeiten 2 3 MDA Fréchet MDA Weibull MDA Gumbel 4 5 6 Darstellung von multivariaten, max-stabilen Verteilungsfunktionen

Mehr

Skript zur Statistik II (Wahrscheinlickeitsrechnung und induktive Statistik)

Skript zur Statistik II (Wahrscheinlickeitsrechnung und induktive Statistik) Prof. Dr. Reinhold Kosfeld Fachbereich Wirtschaftswissenschaften Skript zur Statistik II (Wahrscheinlickeitsrechnung und induktive Statistik) 1. Einleitung Deskriptive Statistik: Allgemeine und spezielle

Mehr

Statistik II für Betriebswirte Vorlesung 2

Statistik II für Betriebswirte Vorlesung 2 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 2 21. Oktober 2014 Verbundene Stichproben Liegen zwei Stichproben vor, deren Werte einander

Mehr

- Eine typische Ausfallrate, wie sie bei vielen technischen Anwendungen zu sehen ist hat die Form einer Badewanne, deshalb nennt man diese Kurve auch

- Eine typische Ausfallrate, wie sie bei vielen technischen Anwendungen zu sehen ist hat die Form einer Badewanne, deshalb nennt man diese Kurve auch 1 2 - Eine typische Ausfallrate, wie sie bei vielen technischen Anwendungen zu sehen ist hat die Form einer Badewanne, deshalb nennt man diese Kurve auch Badewannenkurve. -mit der Badewannenkurve lässt

Mehr

Abitur 2012 Mathematik GK Stochastik Aufgabe C1

Abitur 2012 Mathematik GK Stochastik Aufgabe C1 Seite 1 Abiturloesung.de - Abituraufgaben Abitur 2012 Mathematik GK Stochastik Aufgabe C1 nter einem Regentag verstehen Meteorologen einen Tag, an dem mehr als ein Liter Niederschlag pro Quadratmeter gefallen

Mehr

Einführung in die Stochastik für Informatiker Sommersemester 2000 Prof. Mathar

Einführung in die Stochastik für Informatiker Sommersemester 2000 Prof. Mathar Einführung in die Stochastik für Informatiker Sommersemester 2000 Prof. Mathar getext von René Wörzberger rene@woerzberger.de Bilder Thorsten Uthke Review Diego Biurrun diego@pool.informatik.rwth-aachen.de

Mehr

a) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten.

a) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten. Statistik für Kommunikationswissenschaftler Wintersemester 2009/200 Vorlesung Prof. Dr. Helmut Küchenhoff Übung Cornelia Oberhauser, Monia Mahling, Juliane Manitz Thema 4 Homepage zur Veranstaltung: http://www.statistik.lmu.de/~helmut/kw09.html

Mehr

Analog definiert man das Nichteintreten eines Ereignisses (Misserfolg) als:

Analog definiert man das Nichteintreten eines Ereignisses (Misserfolg) als: 9-9 Die befasst sich mit der Untersuchung, wie wahrscheinlich das Eintreten eines Falles aufgrund bestimmter Voraussetzungen stattfindet. Bis anhin haben wir immer logisch gefolgert: 'Wenn diese Voraussetzung

Mehr