4 Diskrete Zufallsvariablen
|
|
- Ernst Böhme
- vor 6 Jahren
- Abrufe
Transkript
1 25 4 Diskrete Zufallsvariablen 4.1 Einleitung Die Ergebnisse von Zufallsvorgängen sind nicht notwendigerweise Zahlen. Oft ist es aber hilfreich diese durch Zahlen zu repräsentieren. Beispiel 4.1 (4-maliger Wurf einer Münze) Ω = {Wappen, Zahl} = {W, Z} 4 Beispiel für ein Ereignis: ω = {W, Z, Z, W } Angenommen man interessiert sich für X := Anzahl von Wappen Dann nennt man X eine Zufallsvariable (ZV) mit reellen Ausprägungen X = R. X ist eine Abbildung von Ω nach R. Vorteile: 1. man kann mit X rechnen. z. B. P (X ) oder P (X 2 > y) 2. der Wahrscheinlichkeitsraum Ω wird meist nicht mehr benötigt Definition 4.1 Eine Zufallsvariable X heißt diskret, falls sie nur endlich oder abzählbar unendlich viele Werte 1, 2,... annehmen kann. Die Menge { 1, 2,...} der möglichen Ausprägungen von X, also alle i R mit f( i ) > 0 heißt Träger T der Zufallsvariable X. Die Wahrscheinlichkeitsfunktion von X ist durch f( i ) = P (X = i ) für i T gegeben. Dabei steht P (X = i ) für P {ω Ω : X(ω) = i }. Offensichtlich muss für jede Wahrscheinlichkeitsfunktion f() gelten, dass f( i ) = 1 und f() 0 für alle R i T Die Wahrscheinlichkeitsfunktion f( i ) heißt auch Wahrscheinlichkeitsdichte. Die Verteilungsfunktion einer diskreten Zufallsvariable ist definiert als F () = P (X ) = f( i ) i: i
2 26 4 DISKRETE ZUFALLSVARIABLEN (ZV) Kennt man also für alle Werte von den Wert f(), so kennt man auch F () (dies gilt auch umgekehrt). Eigenschaften der Verteilungsfunktion: F () ist monoton wachsend ( Treppenfunktion ) F () ist stückweise konstant mit Sprungstellen an allen Elementen i T (d.h. f( i ) > 0) lim F () = 1 lim F () = 0 Beispiel 4.2 (4-maliger unabh. Münzwurf mit einer fairen Münze) Sei X die Zufallsvariable Anzahl Kopf. Der Träger ist dann T = {0, 1, 2, 3, 4}. Für die Wahrscheinlichkeitsfunktion ergibt sich: f(0) = ( 1 4 2) = 1/16 f(1) = 4/16 f(2) = 6/16 f(3) = 4/16 f(4) = 1/16 F () = 0 : < 0 1/16 : 0 < 1 5/16 : 1 < 2 11/16 : 2 < 3 15/16 : 3 < 4 1 : 4 f() F() Abbildung 3: Wahrscheinlichkeitsfunktion (links) und Verteilungsfunktion (rechts) für den viermaligen Münzwurf
3 4.1 Einleitung 27 Man unterscheidet nun bestimmte gängige Verteilungen, die häufig von Parametern abhängen. Das einfachste Beispiel ist die Bernoulli-Verteilung. Eine Bernoulli-verteilte Zufallsvariable kann nur die Werte 0 und 1 annehmen: P (X = 1) = f(1) = π P (X = 0) = f(0) = 1 π π [0, 1] ist der Parameter der Bernoulli-Verteilung (symbolisch X B(π)). Die Verteilungsfunktion lautet: 0 : < 0 F () = 1 π : 0 < 1 1 : 1 Die diskrete Gleichverteilung hat den endlichen Träger T = { 1, 2,..., k }, wobei für i = 1,..., k gilt: P (X = i ) = f( i ) = 1 k Häufig beinhaltet der Träger T alle natürlichen Zahlen zwischen a, b N. Die Grenzen a und b sind dann die Parameter der Verteilung. Interessanter ist die geometrische Verteilung: Ein Zufallsvorgang, bei dem mit einer Wahrscheinlichkeit π [0, 1] ein Ereignis A eintritt, wird unabhängig voneinander sooft wiederholt, bis zum ersten Mal A eintritt. Sei X die Zufallsvariable Anzahl der Versuche bis zum ersten Mal A eintritt. Dann ist der Träger von X gleich N und die Wahrscheinlichkeitsfunktion lautet: P (X = ) = f() = (1 π) 1 }{{}}{{} π (-1)-mal Ā 1-mal A = 1, 2,... π ist der Parameter der geometrischen Verteilung (symbolisch X G(π)). Die Verteilungsfunktion von X lautet: F () = P (X ) = 1 P (X > ) = 1 (1 π) Modell für (diskrete) Lebenszeiten und Wartezeiten. Eine Variante der geometrischen Verteilung ist es, die Zufallsvariable Y :=
4 28 4 DISKRETE ZUFALLSVARIABLEN (ZV) Anzahl der Versuche bevor das erste mal A eintritt zu betrachten. Offensichtlich gilt Y = X 1, sodass Y Träger und Wahrscheinlichkeitsfunktion T = {0, 1, 2,...} f(y) = (1 π) y π besizt. Funktionen in R: dgeom(...) liefert Wahrscheinlichkeitsfunktion/-dichte pgeom(...) liefert Verteilungsfunktion rgeom(...) liefert Zufallszahlen aus der geom. Verteilung f() F() Abbildung 4: Vergleich der geometrischen Wahrscheinlichkeitsfunktionen (links) und Verteilungsfunktionen (rechts) für die beiden Parameter π = 0.3 (rot) und π = 0.5 (schwarz) Definition 4.2 Sei X eine diskrete Zufallsvariable mit Verteilungsfunktion F (), R. Sei p [0, 1]. Das p-quantil p der Verteilung von X ist definiert als der kleinste Wert für den gilt: F () p Somit gilt P (X p ) = F ( p ) p und daher p = F 1 (p) ( Inversion der Verteilungsfunktion ). Das 0.5-Quantil der Verteilung wird Median med genannt.
5 4.1 Einleitung 29 Beispiel 4.3 (Quantile der geometrischen Verteilung) p-quantil p : In einem Anteil p aller Fälle muss man maimal p Versuche unternehmen, bevor zum ersten mal A eintritt. In R berechnet die Funktion qgeom(...) die Quantilfunktion der geometrischen Verteilung. Zahlenbeispiel in R (0.95-Quantil und Median für unterschiedliche Wahrscheinlichkeiten): > prob1 < > prob2 <- 0.9 > qgeom(c(0.95, 0.5), prob = prob1) [1] > qgeom(c(0.95, 0.5), prob = prob2) [1] 1 0
6 30 4 DISKRETE ZUFALLSVARIABLEN (ZV) 4.2 Unabhängigkeit von diskreten Zufallsvariablen Definition 4.3 Seien X und Y zwei Zufallsvariablen auf dem Wahrscheinlichkeitsraum (Ω,P ) mit den Trägern T X = { 1, 2,...} und T Y = {y 1, y 2,...} und Wahrscheinlichkeitsfunktionen f X () und f Y (y). Die Funktion f XY (, y) = P (X = und Y = y) = P (X =, Y = y) heißt gemeinsame Wahrscheinlichkeitsfunktion von X und Y. X und Y heißen unabhängig, falls für alle T X und y T Y gilt: f XY (, y) = P (X = ) P (Y = y) = f X () f Y (y) Allgemeiner kann man die Unabhängigkeit von n Zufallsvariablen X 1, X 2,..., X n wie folgt definieren: Definition 4.4 X 1, X 2,..., X n heißen unabhängig, falls P (X 1 = 1,..., X n = n ) = n P (X i = i ) = für alle 1, 2,..., n aus den entsprechenden Trägern gilt. i=1 n f Xi ( i ) Definition 4.5 Sind die Zufallsvariablen X 1, X 2,..., X n unabhängig und Bernoulli-verteilt mit Parameter π, so heißt X = X 1, X 2,..., X n Bernoulli-Folge. Beispiel 4.4 (Bernoulli-Folge) Betrachten wir eine Bernoulli-Folge der Länge n = 3 mit dem Parameter π = 1. Wegen der Unabhängigkeit gilt z. B. 6 P (X 1 = 1, X 2 = 0, X 3 = 0) = 1 ( ) = Meist interessiert aber nur die Anzahl X = n i=1 X i, wie oft in der Bernoulli- Kette X i = 1 aufgetreten ist. Diese Zufallsvariable X heißt binomialverteilt (symbolisch X B(n, π)) mit Parameter n N, π [0, 1], hat den Träger T = {0, 1,..., n} und die Wahrscheinlichkeitsfunktion: ( ) n P (X = ) = f() = π (1 π) n für T i=1
7 4.2 Unabhängigkeit von diskreten Zufallsvariablen 31 Es gilt B(1, π) = B(π). Funktionen in R: dbinom(...) liefert Wahrscheinlichkeitsfunktion/-dichte pbinom(...) liefert Verteilungsfunktion rbinom(...) liefert Zufallszahlen der Binomialverteilung qbinom(...) liefert Quantilsfunktion f() f() F() F() Abbildung 5: Vergleich der binomialen Wahrscheinlichkeitsfunktionen (oben) und Verteilungsfunktionen (unten) für X B(n, π) mit n = 10 (links) und n = 100 (rechts) und jeweils π = 0.5 (schwarz) und π = 0.3 (rot)
8 32 4 DISKRETE ZUFALLSVARIABLEN (ZV) Beispiel 4.5 (Würfeln) Sei X: Anzahl 6-er bei n-maligem Würfeln. Dann ist X B(n, 1/6). Berechne Modus (wahrscheinlichster Wert) und Median in Abhängigkeit von n. Berechnung in R: > prob <- 1/6 > for (n in 1:10) { + traeger <- c(0:n) + wkeitsfkt <- dbinom(traeger, prob, size = n) + modus <- traeger[which.ma(wkeitsfkt)] + median <- qbinom(0.5, prob, size = n) + print(c(n, modus, median)) + } [1] [1] [1] [1] [1] [1] [1] [1] [1] [1] Im Urnenmodell befinden sich N Kugeln in einer Urne, davon M markierte. Nun wird eine Stichprobe aus n Kugeln mit Zurücklegen gezogen. Sei X die Anzahl der markierten Kugeln in der Stichprobe. Dann gilt: X B(n, M/N). Häufig wird jedoch ohne Zurücklegen gezogen, d. h. die Wahrscheinlichkeiten ändern sich von Ziehung zu Ziehung. Die Verteilung von X nennt man dann hypergeometrisch (symbolisch X H(n, N, M)). Sie hat den Träger T = {ma(0, n (N M)),..., min(n, N)} und die Wahrscheinlichkeitsfunktion ( M )( N M ) n f() = ( N für T. n)
9 4.2 Unabhängigkeit von diskreten Zufallsvariablen 33 Funktionen in R: dhyper(...) liefert Wahrscheinlichkeitsfunktion/-dichte phyper(...) liefert Verteilungsfunktion rhyper(...) liefert Zufallszahlen aus der hypergeom. Vert. qhyper(...) liefert Quantilsfunktion f() f() F() F() Abbildung 6: Vergleich der hypergeometrischen Wahrscheinlichkeitsfunktionen (oben) und der Verteilungsfunktionen (unten) für X H(n, N, M) mit n = 10, M = 10 (links) und n = 100, M = 100 (rechts) und jeweils N = 80, k = 20 (schwarz) und N = 95, k = 60 (rot)
10 34 4 DISKRETE ZUFALLSVARIABLEN (ZV) Ist N relativ groß und n klein, so kann man die hypergeometrische Verteilung gut durch die Binomialverteilung approimieren (siehe Abbildung 7): H(n, N, M) B(n, π = M N ) Beispiel 4.6 (Capture-Recapture-Eperiment) Das Ziel ist hierbei die Schätzung der Anzahl N von Individuen in einer Population. Dazu werden zunächst M Individuen markiert und mit der Gesamtpopulation zufällig vermischt. Anschließend wird eine Stichprobe ohne Zurücklegen vom Umfang n gezogen und die Anzahl X = an markierten Individuen beobachtet. Somit ist die Zufallsvariable X hypergeometrisch mit Parametern N, M und n. X H(n, N, M) Die Aufgabe der Statistik ist es nun, einen Schätzer ˆN für die Anzahl N der Individuen in der Population zu konstruieren. Ein naiver Ansatz zur Konstruktion eines Schätzers ˆN für N lautet: N M n ˆN = n M Dieser Ansatz ist aber aus verschiedenen Gründen problematisch. Zunächst ist ˆN = für = 0. Weiterhin ist im Allgemeinen ˆN / N. Außerdem kann keine Angabe zur Genauigkeit der Schätzung gegeben werden. In einem späteren Abschnitt werden wir statistische Verfahren kennenlernen, die diese Probleme lösen.
11 4.2 Unabhängigkeit von diskreten Zufallsvariablen 35 n = 5, M = 5, N = 25 n = 10, M = 5, N = 25 f() f() n = 15, M = 5, N = 25 n = 20, M = 5, N = 25 f() f() n = 10, M = 20, N = 100 n = 20, M = 20, N = 100 f() f() n = 30, M = 20, N = 100 n = 40, M = 20, N = 100 f() f() Abbildung 7: Vergleich der hypergeometrischen (rot) und binomialen (schwarz) Wahrscheinlichkeitsfunktionen
12 36 4 DISKRETE ZUFALLSVARIABLEN (ZV) 4.3 Die Poisson-Verteilung Häufig gibt es zufällige Ereignisse, bei denen es keine natürliche obere Grenze für die Anzahl an Ereignissen gibt, z.b. die Anzahl an Telefonanrufen in einem Call-Center pro Stunde. Die einfachste Verteilung für solche Phänomene ist die Poisson-Verteilung (symbolisch X P (λ)) mit Träger T = N 0 und Wahrscheinlichkeitsfunktion f() = λ! ep( λ) Der Parameter λ R + der Verteilung reflektiert die Rate oder Intensität, mit der die Ereignisse in dem zugrundeliegenden Zeitintervall eintreffen. f() F() Abbildung 8: Vergleich der Wahrscheinlichkeitsfunktionen (links) und Verteilungsfunktionen (rechts) für eine Poissonverteilte Zufallsvariable mit dem Parameter λ = 1 (schwarz) bzw. λ = 3 (rot) Die Binomialverteilung B(n, π) kann für großes n und kleines π mit n π = const. gut durch die Poisson-Verteilung mit λ = n π approimiert werden. B(n, π) Po(λ = n π) Dies ist auch in den Abbildungen 9 und 10 zu sehen, welche Binomialverteilung und Poissonverteilung für unterschiedliche Werte von n und π zeigen. Je größer n ist und je kleiner π, desto besser ist die Approimation.
13 4.3 Die Poisson-Verteilung 37 f() f() f() f() Abbildung 9: Vergleich der Wahrscheinlichkeitsfunktionen von Binomialverteilung (schwarz) und Poissonverteilung (rot) für n = 10 und folgende Werte für π: 0.8 (oben links), 0.5 (oben rechts), 0.3 (unten links) und 0.1 (unten rechts)
14 38 4 DISKRETE ZUFALLSVARIABLEN (ZV) f() f() f() f() Abbildung 10: Vergleich der Wahrscheinlichkeitsfunktionen von Binomialverteilung (schwarz) und Poissonverteilung (rot) für n = 100 und folgende Werte für π: 0.8 (oben links), 0.5 (oben rechts), 0.3 (unten links) und 0.1 (unten rechts)
15 4.4 Faltungen Faltungen Definition 4.6 Seien X und Y unabhängige Zufallsvariablen mit Wahrscheinlichkeitsfunktionen f X () und f Y (y). Sei Z = X + Y. Dann nennt man die Wahrscheinlichkeitsfunktion f Z von Z die Faltung von f X und f Y : f Z (z) = P (X + Y = z) = = = unabh. = = = y P (X =, X + Y = z) P (X =, Y = z X) P (X = ) P (Y = z X = ) P (X = ) P (Y = z ) f X () f Y (z ) f X (z y) f Y (y) Beispiel 4.7 (Faltung von Poissonverteilten Zufallsvariablen) Seien X und Y zwei unabhängige Poissonverteilte Zufallsvariablen mit X P(λ 1 ) und Y P(λ 2 ). Dann hat Z = X + Y Wahrscheinlichkeitsfunktion dies gilt weil: z λ 1 λ z 2! (z )! =0 f Z (z) = = = = 1 z! z f X () f Y (z ) =0 z [ λ 1! ep( λ λ z ] 2 1) (z )! ep( λ 2) =0 z [ λ 1 λ z ] 2 ep ( (λ 1 + λ 2 ))! (z )! =0 }{{} z =0 = (λ 1 + λ 2 ) z z!! = (λ 1 +λ 2 )z z! ( ) z λ 1 λ z 2 z ( z ) ( λ1 ) ( λ2 ) z λ =0 1 + λ 2 λ 1 + λ 2 }{{} = 1, da Summe über W keitsfkt der Bin.Vtlg
16 40 4 DISKRETE ZUFALLSVARIABLEN (ZV) Somit erhält man: f Z (z) = (λ 1 + λ 2 ) z z! ep ( (λ 1 + λ 2 ); Z = X + Y ist also ebenfalls Poissonverteilt mit Parameter (λ 1 + λ 2 ): Z P(λ 1 + λ 2 ). Definition 4.7 Sei X die Summe von n unabhängigen geometrischen Zufallsvariablen X 1,..., X n : X = X X n Dann hat X eine negative Binomialverteilung mit Parametern n N und π (0, 1) und Wahrscheinlichkeitsfunktion ( ) 1 f() = π n (1 π) n für = n, n + 1,... n 1 Funktionen in R: dnbinom(...), pnbinom(...), qnbinom(...), rnbinom(...) Beachte: Unterschiedliche Definition in R! Träger immer gleich N 0 Beispiel 4.8 (Faltung von zwei geometrischen Zufallsvariablen) Seien X und Y zwei unabhängige geometrische Zufallsvariablen mit X G(π) und Y G(π). Dann hat Z = X + Y Wahrscheinlichkeitsfunktion f Z (z) = = z 1 f X () f Y (z ) =1 z 1 π(1 π) 1 π(1 π) z 1 =1 z 1 = π 2 (1 π) [( 1)+(z 1)] =1 z 1 = π 2 (1 π) z 2 =1 = π 2 (z 1)(1 π) z 2. Z ist also negativ binomialverteilt mit Parametern n = 2 und π.
17 4.5 Die Verteilung von Zufallsvektoren Die Verteilung von Zufallsvektoren Seien X und Y zwei diskrete Zufallsvariablen, welche auf dem Wahrscheinlichkeitsraum (Ω, P ) definiert sind. Es stellt sich die Frage, wie man Information über deren gemeinsames stochastisches Verhalten quantifizieren könnte. Dazu betrachtet man den Zufallsvektor (X, Y ) als Abbildung von R 2 nach [0, 1]. Wie bereits zuvor definiert, lautet die gemeinsame Wahrscheinlichkeitsfunktion von X und Y folgendermaßen: f X,Y (, y) = P (X =, Y = y) Definition 4.8 Die gemeinsame Verteilungsfunktion zweier Zufallsvariablen X und Y ist F X,Y (, y) = P (X, Y y) Die gemeinsame Verteilung von X und Y enthält i.a. mehr Information, als in den Randverteilungen f X () und f Y (y) steckt. Diese lassen sich leicht berechnen, wenn die gemeinsame Wahrscheinlichkeitsfunktion bekannt ist: f X () = y f Y (y) = f X,Y (, y) f X,Y (, y) Beispiel 4.9 (Münzwurf) Ein Lehrer bittet seine Schüler, eine (faire) Münze zweimal zu werfen, und das Ergebnis ( Kopf = 0, Zahl = 1) für jeden Wurf zu notieren. Sei X das Ergebnis des ersten Wurfes und Y das Ergebnis des zweiten Wurfes. Ein gewissenhafter Schüler folgt genau den Anweisungen des Lehrers und notiert das Ergebnis X G und Y G. Ein fauler Schüler wirft nur eine Münze und notiert das erzielte Ergebnis zweimal: X F und Y F. Berechne die gemeinsame Wahrscheinlichkeitsfunktion von (X G, Y G ) und von (X F, Y F ): Gewissenhafter Schüler: f XY (X, Y ) Y G = 0 Y G = 1 f X () X G = 0 1/4 1/4 1/2 X G = 1 1/4 1/4 1/2 f Y (y) 1/2 1/2
18 42 4 DISKRETE ZUFALLSVARIABLEN (ZV) Fauler Schüler: f XY (X, Y ) Y F = 0 Y F = 1 f X () X F = 0 1/2 0 1/2 X F = 1 0 1/2 1/2 f Y (y) 1/2 1/2 Festzuhalten bleibt, dass die Randverteilungen von X G und X F und auch die Randverteilungen von Y G und Y F identisch sind, nicht aber die gemeinsame Verteilung von (X G, Y G ) und von (X F, Y F ). Allgemeiner kann man einen Zufallsvektor X= (X 1,..., X n ) der Dimension n betrachten. Dieser hat dann die Wahrscheinlichkeitsfunktion f X () = f X1,...,X n ( 1,..., n ) und die folgenden Randverteilungen f Xi ( i ) = f X1,...,X n ( 1,..., n ) j :j i Definition 4.9 Für zwei Zufallsvariablen X und Y ist die bedingte Wahrscheinlichkeitsfunktion von X, gegeben Y = y, definiert als: f X Y ( y) = P (X = Y = y) = P (X =, Y = y) P (Y = y) = f X,Y (, y) f Y (y) Die bedingte Verteilungsfunktion von X, gegeben Y = y, lautet: F X Y ( y) = P (X Y = y) = P (X, Y = y) P (Y = y) Bedingte Wahrscheinlichkeitsfunktion und bedingte Verteilungsfunktion sind definiert für alle y mit P (Y = y) > 0. Aus dieser Definition folgt, dass man die gemeinsame Wahrscheinlichkeitsfunktion zweier Zufallsvariablen X und Y durch ein Produkt aus bedingter Wahrscheinlichkeitsfunktion und Randverteilung ausdrücken kann: f X,Y (, y) = f X Y ( y) f Y (y) = f Y X (y ) f X () Daher kann man die Unabhängigkeit von Zufallsvariablen auch anders definieren: X und Y sind genau dann unabhängig wenn, y gilt: f X Y ( y) = f X () oder f Y X (y ) = f Y (y)
19 4.5 Die Verteilung von Zufallsvektoren 43 Bedingte Verteilungen haben dieselben Eigenschaften wie gewöhnliche (unbedingte) Verteilungen, wie z. B. : f X Y ( y) = 1 y T Y X T X Beispiel 4.10 Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion: f X,Y (, y) y = 1 y = 0 y = 2 = 1 1/18 3/18 2/18 = 2 2/18 0 3/18 = 3 0 4/18 3/18 Es sollen die Randverteilungen f X () und f Y (y) sowie die bedingten Verteilungen f X Y ( y) und f Y X (y ) berechnet werden. Anschließend werden X und Y auf Unabhängigkeit untersucht. f X,Y (, y) y = 1 y = 0 y = 2 f X () = 1 1/18 3/18 2/18 6/18 = 2 2/18 0 3/18 5/18 = 3 0 4/18 3/18 7/18 f Y (y) 3/18 7/18 8/18 Zum Beispiel sind 2/3 für = 1 f X Y ( y = 1) = 1/3 für = 2 0 für = 3 1/6 für y = 1 f Y X (y = 1) = 1/2 für y = 0 1/3 für y = 2 X und Y sind nicht unabhängig, da T und y T y gelten müsste, dass f X,Y (, y) = f Y (y) f X (). Dies gilt aber nicht, da z. B. : f X,Y ( = 3, y = 1) = 0 21 = f( = 3) f(y = 1) 182 Beispiel 4.11 Betrachte zwei unabhängige Zufallsvariablen X und Y, die beide poissonverteilt sind mit Parameter λ bzw. µ. Sei Z = X + Y. Man zeige: Die bedingte Verteilung von X Z = z ist binomialverteilt mit Parametern n = z und π = λ/(λ + µ): X Z = z B(z, π = λ/(λ + µ))
20 44 4 DISKRETE ZUFALLSVARIABLEN (ZV) Gesucht wird also: f X Z ( z) = f X,Z(, z) f Z (z) Da Z die Faltung zweier Poissonverteilter Zufallsvariablen ist, gilt Z P(λ+ µ). Die Wahrscheinlichkeitsfunktion von Z ist: f Z (z) = (λ + µ)z z! ep( (λ + µ)) Für die gemeinsame Verteilung von X und Z erhält man: f X,Z (, z) = f X,Y (, z ) X,Y unabh. = f X ()f Y (z ) = λ! ep( λ) µ (z ) (z )! ep( µ) Wie ist Z X verteilt? Wir wissen, dass Z X X = Y X Daher ist Z X = P(µ) +. Somit gilt: X,Y unabh. = Y P(µ). f X Z ( z) = f X,Z(, z) f Z (z) = = = X Z = z B(z, λ/(λ + µ)) µ (z ) (z )! λ ep( µ) ep( λ)! (λ+µ) z ep( (λ + µ)) z! ) λ µ (z ) ( z (λ + µ) z ( ) ( ) ( ) z λ µ λ + µ λ + µ }{{} 1 λ λ+µ Beispiel 4.12 (Gedächtnislosigkeit der geometrischen Verteilung) Sei X eine geometrisch verteilte Zufallsvariable, d.h. X G(π). X beschreibt also die Anzahl der Versuche, die ausgeführt werden müssen, bis ein Ereignis A eintritt. Nun wird für k = 1, 2,... die Zufallsvariable Y k definiert als die Anzahl der noch auszuführenden Versuche für X bis A eintritt, wenn bereits bekannt ist, dass in den letzten k Versuchen das Ereignis nicht eingetreten ist. Es gilt also: Y k = X k X > k z
21 4.5 Die Verteilung von Zufallsvektoren 45 Wie lautet die Verteilung von Y k? P (Y k = y) = P (X k = y X > y) = P (X = y + k X > k) = y>0 = = P (X = y + k, X > k) P (X > k) P (X = y + k) P (X > k) π(1 π)(y+k) 1 P (X > k) Wir benötigen noch die Wahrscheinlichkeit P (X > k): P (X > k) = 1 P (X k) = 1 F (k) = 1 [1 (1 π) k ] = (1 π) k Dieses Ergebnis wird in obige Formel eingesetzt: P (Y k = y) = π(1 π)(y+k) 1 (1 π) k = π(1 π) y 1 Somit ergibt sich, dass auch Y k geometrisch verteilt ist mit Parameter π, d.h. X und Y k besitzen die gleiche Verteilung, unabhängig von k. Die geometrische Verteilung kann sich also nicht merken, wie oft schon ein Misserfolg aufgetreten ist. Diese Eigenschaft der geometrischen Verteilung nennt man Gedächtnislosigkeit. Abschließend wollen wir nun eine Verallgemeinerung der Binomialverteilung kennenlernen, die Trinomialverteilung. Ein Eperiment, bei dem eins von drei möglichen Ereignissen mit Wahrscheinlichkeit π 1, π 2 und π 3 (π 1 + π 2 + π 3 = 1) auftritt, wird unabhängig voneinander n-mal wiederholt. Sei X ein drei-dimensionaler Zufallsvektor, dessen i-te Komponente angibt, wie oft das i-te Ereignis eingetreten ist. Dann nennt man X trinomialverteilt. Definition 4.10 Ein drei-dimensionaler diskreter Zufallsvektor X heißt trinomialverteilt, falls er Träger T = { = ( 1, 2, 3 ) : i {0, 1,..., n} und = n}
22 46 4 DISKRETE ZUFALLSVARIABLEN (ZV) und Wahrscheinlichkeitsfunktion f X () = f X1,X 2,X 3 ( 1, 2, 3 ) = n! 1! 2! 3! π 1 1 π 2 2 π 3 3 besitzt. Man schreibt kurz: X M 3 (n, π = (π 1, π 2, π 3 )); hierbei steht M 3 für Multinomialverteilung der Dimension 3. Man kann zeigen, dass für die Randverteilungen von X gilt: X i B(n, π i ) Beispiel 4.13 In einer Population mit Häufigkeiten π 1, π 2 und π 3 der Genotypen aa, ab und bb wird eine Stichprobe vom Umfang n gezogen. Die Anzahlen X 1, X 2 und X 3 der drei Genotypen ist dann trinomialverteilt.
Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung
Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion
Mehr$ % + 0 sonst. " p für X =1 $
31 617 Spezielle Verteilungen 6171 Bernoulli Verteilung Wir beschreiben zunächst drei diskrete Verteilungen und beginnen mit einem Zufallsexperiment, indem wir uns für das Eintreffen eines bestimmten Ereignisses
MehrEinführung in die Statistik
Einführung in die Statistik Dr. C.J. Luchsinger 2 Zufallsgrössen Literatur Kapitel 2 * Statistik in Cartoons: Kapitel 4 * Krengel: 3.1 und 3.2 in 3 und (Honours Program) 10 sowie 11.1, 11.2 und 11.3 in
MehrName:... Matrikel-Nr.:... 3 Aufgabe Handyklingeln in der Vorlesung (9 Punkte) Angenommen, ein Student führt ein Handy mit sich, das mit einer Wahrscheinlichkeit von p während einer Vorlesung zumindest
MehrÜbungen zur Mathematik für Pharmazeuten
Blatt 1 Aufgabe 1. Wir betrachten den Ereignisraum Ω = {(i,j) 1 i,j 6} zum Zufallsexperiment des zweimaligem Würfelns. Sei A Ω das Ereignis Pasch, und B Ω das Ereignis, daß der erste Wurf eine gerade Augenzahl
Mehr5. Schließende Statistik. 5.1. Einführung
5. Schließende Statistik 5.1. Einführung Sollen auf der Basis von empirischen Untersuchungen (Daten) Erkenntnisse gewonnen und Entscheidungen gefällt werden, sind die Methoden der Statistik einzusetzen.
MehrBeispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen
4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.
Mehr11 Diskrete Zufallsvariablen
11 Diskrete Zufallsvariablen 11.1 Wahrscheinlichkeitsfunktion und Verteilungsfunktion In Kapitel 2 wurde zwischen diskreten und stetigen Zufallsvariablen unterschieden. Eine Zufallsvariable X wurde als
MehrBei vielen Zufallsexperimenten interessiert man sich lediglich für das Eintreten bzw. das Nichteintreten eines bestimmten Ereignisses.
XI. Binomialverteilung ================================================================== 11.1 Definitionen -----------------------------------------------------------------------------------------------------------------
MehrEinführung in die Stochastik
Einführung in die Stochastik Josef G. Steinebach Köln, WS 2009/10 I Wahrscheinlichkeitsrechnung 1 Wahrscheinlichkeitsräume, Urnenmodelle Stochastik : Lehre von den Gesetzmäßigkeiten des Zufalls, Analyse
Mehr, dt. $+ f(x) = , - + < x < +, " > 0. " 2# Für die zugehörige Verteilungsfunktion F(x) ergibt sich dann: F(x) =
38 6..7.4 Normalverteilung Die Gauß-Verteilung oder Normal-Verteilung ist eine stetige Verteilung, d.h. ihre Zufallsvariablen können beliebige reelle Zahlenwerte annehmen. Wir definieren sie durch die
MehrDie Binomialverteilung
Fachseminar zur Stochastik Die Binomialverteilung 23.11.2015 Referenten: Carolin Labrzycki und Caroline Kemper Gliederung Einstieg Definition der Binomialverteilung Herleitung der Formel an einem Beispiel
MehrStochastische Eingangsprüfung, 17.05.2008
Stochastische Eingangsprüfung, 17.5.8 Wir gehen stets von einem Wahrscheinlichkeitsraum (Ω, A, P) aus. Aufgabe 1 ( Punkte) Sei X : Ω [, ) eine integrierbare Zufallsvariable mit XdP = 1. Sei Q : A R, Q(A)
MehrGrundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!
Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)
MehrMonte Carlo Methoden in Kreditrisiko-Management
Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen
MehrÜbungsaufgaben Wahrscheinlichkeit
Übungsaufgaben Wahrscheinlichkeit Aufgabe 1 (mdb500405): In einer Urne befinden sich gelbe (g), rote (r), blaue (b) und weiße (w) Kugel (s. Bild). Ohne Hinsehen sollen aus der Urne in einem Zug Kugeln
MehrMonty Hall-Problem. Wochen 3 und 4: Verteilungen von Zufallsvariablen. Lernziele. Diskrete Verteilungen
Monty Hall-Problem Wochen 3 und 4: Verteilungen von Zufallsvariablen US-amerikanische Fernseh-Show Let s make a deal, moderiert von Monty Hall: WBL 15/17, 04.05.2015 Alain Hauser
MehrRegelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall
Wahrscheinlichkeitstheorie Was will die Sozialwissenschaft damit? Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall Auch im Alltagsleben arbeiten wir mit Wahrscheinlichkeiten, besteigen
MehrData Mining: Einige Grundlagen aus der Stochastik
Data Mining: Einige Grundlagen aus der Stochastik Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 21. Oktober 2015 Vorwort Das vorliegende Skript enthält eine Zusammenfassung verschiedener
MehrGrundlagen. Wozu Wahrscheinlichkeitsrechnung? Definition und Begriff der Wahrscheinlichkeit. Berechnung von Laplace-Wahrscheinlichkeiten
Teil 2: Wahrscheinlichkeitsrechnung 326 Grundlagen Wozu Wahrscheinlichkeitsrechnung? Definition und egriff der Wahrscheinlichkeit erechnung von Laplace-Wahrscheinlichkeiten Rechnen mit einfachem Mengenkalkül
MehrRUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG
Die Poisson-Verteilung Jianmin Lu RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG Ausarbeitung zum Vortrag im Seminar Stochastik (Wintersemester 2008/09, Leitung PD Dr. Gudrun Thäter) Zusammenfassung: In der Wahrscheinlichkeitstheorie
MehrEin möglicher Unterrichtsgang
Ein möglicher Unterrichtsgang. Wiederholung: Bernoulli Experiment und Binomialverteilung Da der sichere Umgang mit der Binomialverteilung, auch der Umgang mit dem GTR und den Diagrammen, eine notwendige
MehrEinführung in die Statistik für Biologen. Jörg Witte
Einführung in die Statistik für Biologen Jörg Witte 1997 Inhaltsverzeichnis 1 Endliche Wahrscheinlichkeitstheorie 3 1.1 Grundbegriffe........................ 3 1.2 Zufallsgrößen und Verteilungsfunktionen.........
MehrZufallsgrößen. Vorlesung Statistik für KW 29.04.2008 Helmut Küchenhoff
Zufallsgrößen 2.5 Zufallsgrößen 2.5.1 Verteilungsfunktion einer Zufallsgröße 2.5.2 Wahrscheinlichkeits- und Dichtefunktion Wahrscheinlichkeitsfunktion einer diskreten Zufallsgröße Dichtefunktion einer
MehrWahrscheinlichkeitstheorie. Zapper und
Diskrete Wahrscheinlichkeitsräume Slide 1 Wahrscheinlichkeitstheorie die Wissenschaft der Zapper und Zocker Diskrete Wahrscheinlichkeitsräume Slide 2 Münzwürfe, Zufallsbits Elementarereignisse mit Wahrscheinlichkeiten
MehrRisiko und Versicherung - Übung
Sommer 2009 Risiko und Versicherung - Übung Entscheidungstheoretische Grundlagen Renate Bodenstaff Vera Brinkmann r.bodenstaff@uni-hohenheim.de vera.brinkmann@uni-hohenheim.de https://insurance.uni-hohenheim.de
MehrStatistik I für Betriebswirte Vorlesung 5
Statistik I für Betriebswirte Vorlesung 5 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik 07. Mai 2015 PD Dr. Frank Heyde Statistik I für Betriebswirte Vorlesung 5 1 Klassische Wahrscheinlichkeitsdefinition
Mehr6 Mehrstufige zufällige Vorgänge Lösungshinweise
6 Mehrstufige zufällige Vorgänge Lösungshinweise Aufgabe 6.: Begründen Sie, warum die stochastische Unabhängigkeit zweier Ereignisse bzw. zufälliger Vorgänge nur ein Modell der Realität darstellen kann.
MehrAufgabe 2.1. Ergebnis, Ergebnismenge, Ereignis
Aufgabe 2. Ergebnis, Ergebnismenge, Ereignis Ergebnis und Ergebnismenge Vorgänge mit zufälligem Ergebnis, oft Zufallsexperiment genannt Bei der Beschreibung der Ergebnisse wird stets ein bestimmtes Merkmal
Mehr3.8 Wahrscheinlichkeitsrechnung III
3.8 Wahrscheinlichkeitsrechnung III Inhaltsverzeichnis ufallsgrössen Der Erwartungswert 3 3 Die Binomialverteilung 6 4 Die kumulierte Binomialverteilung 8 4. Die Tabelle im Fundamentum (oder Formeln und
MehrStatistik. R. Frühwirth. Statistik. fru@hephy.oeaw.ac.at. VO 142.090 http://tinyurl.com/tu142090. Februar 2010. R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
MehrFüllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge
2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten
Mehri x k k=1 i u i x i v i 1 0,2 24 24 0,08 2 0,4 30 54 0,18 3 0,6 54 108 0,36 4 0,8 72 180 0,60 5 1,0 120 300 1,00 2,22 G = 1 + 1 n 2 n i=1
1. Aufgabe: Der E-Commerce-Umsatz (in Millionen Euro) der fünf größten Online- Shopping-Clubs liegt wie folgt vor: Club Nr. Umsatz 1 120 2 72 3 54 4 30 5 24 a) Bestimmen Sie den Ginikoeffizienten. b) Zeichnen
MehrSozialwissenschaftliche Methoden und Statistik I
Sozialwissenschaftliche Methoden und Statistik I Universität Duisburg Essen Standort Duisburg Integrierter Diplomstudiengang Sozialwissenschaften Skript zum SMS I Tutorium Von Mark Lutter Stand: April
MehrMonte-Carlo Simulation
Monte-Carlo Simulation Sehr häufig hängen wichtige Ergebnisse von unbekannten Werten wesentlich ab, für die man allerhöchstens statistische Daten hat oder für die man ein Modell der Wahrscheinlichkeitsrechnung
Mehr13.5 Der zentrale Grenzwertsatz
13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz Es seien X 1,...,X n (n N unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle
Mehr3.7 Wahrscheinlichkeitsrechnung II
3.7 Wahrscheinlichkeitsrechnung II Inhaltsverzeichnis 1 bedingte Wahrscheinlichkeiten 2 2 unabhängige Ereignisse 5 3 mehrstufige Zufallsversuche 7 1 Wahrscheinlichkeitsrechnung II 28.02.2010 Theorie und
MehrModellierungskonzepte 2
Modellierungskonzepte 2 Elke Warmuth Humboldt-Universität Berlin WS 2008/09 1 / 50 1 Pfadregeln 2 Begriff Umbewertung von Chancen Bayessche Formel 3 Verwechslungsgefahr Implizite Lotterien 2 / 50 mehrstufige
Mehr1 Stochastische Prozesse in stetiger Zeit
1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.
MehrBestimmen der Wahrscheinlichkeiten mithilfe von Zählstrategien
R. Brinmann http://brinmann-du.de Seite 4.0.2007 Bestimmen der Wahrscheinlicheiten mithilfe von Zählstrategien Die bisherigen Aufgaben zur Wahrscheinlicheitsrechnung onnten im Wesentlichen mit übersichtlichen
Mehrgeben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen
geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde
MehrÜbungsrunde 7, Gruppe 2 LVA 107.369, Übungsrunde 7, Gruppe 2, 28.11. Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 11/2006
1 3.34 1.1 Angabe Übungsrunde 7, Gruppe 2 LVA 107.369, Übungsrunde 7, Gruppe 2, 28.11. Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 11/2006 U sei auf dem Intervall (0, 1) uniform verteilt. Zeigen
MehrStatistik und Wahrscheinlichkeitsrechnung
Einführung Statistik und Wahrscheinlichkeitsrechnung Lukas Meier Teilweise basierend auf Vorlesungsunterlagen von Marloes Maathuis, Hansruedi Künsch, Peter Bühlmann und Markus Kalisch. Fehler und Anregungen
MehrAbsolute Stetigkeit von Maßen
Absolute Stetigkeit von Maßen Definition. Seien µ und ν Maße auf (X, Ω). Dann heißt ν absolut stetig bezüglich µ (kurz ν µ ), wenn für alle A Ω mit µ(a) = 0 auch gilt dass ν(a) = 0. Lemma. Sei ν ein endliches
MehrAufgabe 1 10 ECTS. y i x j gering mittel hoch n i Hausrat 200 25 0 225 KFZ 0 10 75 85 Unfall 20 35 90 145 Reiserücktritt 40 5 0 45 n j 260 75 165 500
Aufgabe 1 Für die Securance-Versicherung liegen Ihnen die gemeinsamen absoluten Häugkeiten der Merkmale X: Schadenshöhe und Y : Versicherungsart für die letzten 500 gemeldeten Schäden vor. 1. Interpretieren
MehrBei dieser Vorlesungsmitschrift handelt es sich um kein offizielles Skript!
Diskrete Stochastik für Informatiker WS003/04 Diskrete Stochastik für die Informatik Bei dieser Vorlesungsmitschrift handelt es sich um kein offizielles Skript! Bei Fragen, Anmerkungen oder Fehlern bitte
MehrGenexpression. Expression eines einzelnen Gens. Expressionsmessung. Genexpressionsmessung. Transkription (Vorgang) Genexpression
Genexpressionsmessung Genexpression Transkription (Vorgang) Genexpression (quantitativ) Wieviele m-rna Moleküle eines bestimmten Gens sind in den Zellen? Genomische Datenanalyse 8. Kapitel Wie mißt man
MehrDas St. Petersburg Paradox
Das St. Petersburg Paradox Johannes Dewender 28. Juni 2006 Inhaltsverzeichnis 1 Das Spiel 2 2 Das Paradox 3 3 Lösungsvorschläge 4 3.1 Erwartungsnutzen............................... 4 3.2 Risikoaversion..................................
MehrZusatzaufgaben zur Vorlesung Stochastik für Informatikstudenten
Zusatzaufgaben zur Vorlesung Stochastik für Informatikstudenten I.1 Erweitertes Urnenmodell mit Zurücklegen In einer Urne befinden sich ( N Kugeln, davon M 1 der Farbe F 1, M 2 der Farbe l ) F 2,..., M
MehrBeispiele zur UE Wirtschaftsstatistik 1 bei Nagel
Beispiele zur UE Wirtschaftsstatistik 1 bei Nagel 1 Ereignisse und Wahrscheinlichkeiten 1. Ein Würfel wird zweimal geworfen, der Stichprobenraum Ω ist Ihnen nicht neu. Versuchen Sie, den Stichprobenraum
MehrBisher angenommen: jeder Spieler kennt alle Teile des Spiels. - Diskontfaktor des Verhandlungspartners
1 KAP 15. Spiele unter unvollständiger Information Bisher angenommen: jeder Spieler kennt alle Teile des Spiels seine Gegenspieler, deren Aktionen, deren Nutzen, seinen eigenen Nutzen etc. Oft kennt man
Mehr6.1 Grundlagen der Wahrscheinlichkeitsrechnung 6.1.1 Definitionen und Beispiele Beispiel 1 Zufallsexperiment 1,2,3,4,5,6 Elementarereignis
1 6.1 Grundlagen der Wahrscheinlichkeitsrechnung 6.1.1 Definitionen und Beispiele Spiele aus dem Alltagsleben: Würfel, Münzen, Karten,... u.s.w. sind gut geeignet die Grundlagen der Wahrscheinlichkeitsrechnung
MehrP X =3 = 2 36 P X =5 = 4 P X =6 = 5 36 P X =8 = 5 36 P X =9 = 4 P X =10 = 3 36 P X =11 = 2 36 P X =12 = 1
Übungen zur Stochastik - Lösungen 1. Ein Glücksrad ist in 3 kongruente Segmente aufgeteilt. Jedes Segment wird mit genau einer Zahl beschriftet, zwei Segmente mit der Zahl 0 und ein Segment mit der Zahl
MehrAusarbeitung des Seminarvortrags zum Thema
Ausarbeitung des Seminarvortrags zum Thema Anlagepreisbewegung zum Seminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn von Imke Meyer im W9/10 Anlagepreisbewegung
MehrModul: Stochastik. Zufallsexperimente oder Wahrscheinlichkeit relative Häufigkeit Variation Permutation Kombinationen Binomialverteilung
Modul: Stochastik Ablauf Vorstellung der Themen Lernen Spielen Wiederholen Zusammenfassen Zufallsexperimente oder Wahrscheinlichkeit relative Häufigkeit Variation Permutation Kombinationen Binomialverteilung
Mehry 1 2 3 4 5 6 P (Y = y) 1/6 1/6 1/6 1/6 1/6 1/6
Fachhochschule Köln Fakultät für Wirtschaftswissenschaften Prof. Dr. Arrenberg Raum 221, Tel. 39 14 jutta.arrenberg@fh-koeln.de Übungen zur Statistik für Prüfungskandidaten und Prüfungskandidatinnen Unabhängigkeit
MehrEinführung in die Stochastik
Vorlesungsnotizen Einführung in die Stochastik Hanspeter Schmidli Mathematisches Institut der Universität zu Köln INHALTSVERZEICHNIS iii Inhaltsverzeichnis 1. Diskrete Wahrscheinlichkeitsräume 1 1.1.
MehrEinführung in die schließende Statistik - Von der Wahrscheinlichkeit zur Hypothese mit Beispielen in R und SPSS
Einführung in die schließende Statistik - Von der Wahrscheinlichkeit zur Hypothese mit Beispielen in R und SPSS Version 0.9 (7.5.204) Haiko Lüpsen Universität zu Köln Regionales Rechenzentrum (RRZK) Kontakt:
Mehr15.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit
5.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit Einführendes Beispiel ( Erhöhung der Sicherheit bei Flugreisen ) Die statistische Wahrscheinlichkeit, dass während eines Fluges ein Sprengsatz an Bord
MehrKlassische Risikomodelle
Klassische Risikomodelle Kathrin Sachernegg 15. Jänner 2008 1 Inhaltsverzeichnis 1 Einführung 3 1.1 Begriffserklärung.................................. 3 2 Individuelles Risikomodell 3 2.1 Geschlossenes
MehrR ist freie Software und kann von der Website. www.r-project.org
R R ist freie Software und kann von der Website heruntergeladen werden. www.r-project.org Nach dem Herunterladen und der Installation von R kann man R durch Doppelklicken auf das R-Symbol starten. R wird
Mehr1. Übungsblatt zur Statistik II - Elementare Wahrscheinlichkeitsrechnung
. Übungsblatt zur Abgabe 6. Kalenderwoche Aufgabe (8 Punkte): A, B und C seien Teilmengen eines Ergebnisraumes Ω. Man gebe möglichst kurze mengenalgebraische Ausdrücke für das Ereignis an, dass von den
MehrEinführung in die Computerlinguistik Statistische Grundlagen
Statistik 1 Sommer 2015 Einführung in die Computerlinguistik Statistische Grundlagen Laura Heinrich-Heine-Universität Düsseldorf Sommersemester 2015 Statistik 2 Sommer 2015 Überblick 1. Diskrete Wahrscheinlichkeitsräume
MehrDiskrete Verteilungsmodelle
Diskrete Verteilungsmodelle Worum geht es in diesem Modul? Die hypergeometrische Verteilung Die Binomialverteilung Approximation der hypergeometrischen Verteilung durch die Binomialverteilung Poisson-Verteilung
MehrKlausur Nr. 1. Wahrscheinlichkeitsrechnung. Keine Hilfsmittel gestattet, bitte alle Lösungen auf dieses Blatt.
Klausur Nr. 1 2014-02-06 Wahrscheinlichkeitsrechnung Pflichtteil Keine Hilfsmittel gestattet, bitte alle Lösungen auf dieses Blatt. Name: 0. Für Pflicht- und Wahlteil gilt: saubere und übersichtliche Darstellung,
MehrStatistiktraining im Qualitätsmanagement
Gerhard Linß Statistiktraining im Qualitätsmanagement ISBN-0: -446-75- ISBN-: 978--446-75-4 Leserobe Weitere Informationen oder Bestellungen unter htt://www.hanser.de/978--446-75-4 sowie im Buchhandel
MehrMini-Skript Wahrscheinlichkeitstheorie und Statistik
Mini-Skript Wahrscheinlichkeitstheorie und Statistik Peter Bühlmann Georg Grafendorfer, Lukas Meier Inhaltsverzeichnis 1 Der Begriff der Wahrscheinlichkeit 1 1.1 Rechenregeln für Wahrscheinlichkeiten........................
MehrAufabe 7: Baum-Welch Algorithmus
Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,
MehrARBEITSUNTERLAGEN ZUR VORLESUNG UND ÜBUNG AN DER UNIVERSITÄT DES SAARLANDES DERIVATIVE FINANZINSTRUMENTE
ARBEITSUNTERLAGEN ZUR VORLESUNG UND ÜBUNG AN DER UNIVERSITÄT DES SAARLANDES DERIVATIVE FINANZINSTRUMENTE im SS 215 Aufgabe 1 (Innerer Wert, Zeitwert, Basiskurs, Aufgeld) Am 13.4.2 kostete eine Kaufoption
MehrDie Pareto Verteilung wird benutzt, um Einkommensverteilungen zu modellieren. Die Verteilungsfunktion ist
Frage Die Pareto Verteilung wird benutzt, um Einkommensverteilungen zu modellieren. Die Verteilungsfunktion ist k a F (x) =1 k>0,x k x Finden Sie den Erwartungswert und den Median der Dichte für a>1. (Bei
MehrCredit Risk+: Eine Einführung
Credit Risk+: Eine Einführung Volkert Paulsen December 9, 2004 Abstract Credit Risk+ ist neben Credit Metrics ein verbreitetes Kreditrisikomodell, dessen Ursprung in der klassischen Risikotheorie liegt.
MehrElementare statistische Methoden
Elementare statistische Methoden Vorlesung Computerlinguistische Techniken Alexander Koller 28. November 2014 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen? Ziel
MehrStatistische Thermodynamik I Lösungen zur Serie 1
Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen
MehrBONUS MALUS SYSTEME UND MARKOV KETTEN
Fakultät Mathematik und Naturwissenschaften, Fachrichtung Mathematik, Institut für Mathematische Stochastik BONUS MALUS SYSTEME UND MARKOV KETTEN Klaus D. Schmidt Ringvorlesung TU Dresden Fakultät MN,
MehrKursthemen 12. Sitzung. Spezielle Verteilungen: Warteprozesse. Spezielle Verteilungen: Warteprozesse
Kursthemen 12. Sitzung Folie I - 12-1 Spezielle Verteilungen: Warteprozesse Spezielle Verteilungen: Warteprozesse A) Die Geometrische Verteilung (Folien 2 bis 7) A) Die Geometrische Verteilung (Folien
MehrMathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14. Auswahl vorausgesetzter Vorkenntnisse
UNIVERSITÄT DES SAARLANDES FACHRICHTUNG 6.1 MATHEMATIK Dipl.-Math. Kevin Everard Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14 Auswahl vorausgesetzter Vorkenntnisse
MehrRechnen mit einfachem Mengenkalkül
edingte ahrscheinlichkeiten llgemeine Frage: Rechnen mit einfachem Mengenkalkül ie groß ist die ahrscheinlichkeit für ein Ereignis falls bereits ein Ereignis eingetreten ist (und der etrachter über diese
MehrLehrstuhl IV Stochastik & Analysis. Stochastik I. Wahrscheinlichkeitsrechnung. Skriptum nach einer Vorlesung von Hans-Peter Scheffler
Fachschaft Mathematik Uni Dortmund Lehrstuhl IV Stochastik & Analysis Stochastik I Wahrscheinlichkeitsrechnung Skriptum nach einer Vorlesung von Hans-Peter Scheffler Letzte Änderung: 8. November 00 Gesetzt
MehrTeil II. Nichtlineare Optimierung
Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene
Mehr11. Primfaktorzerlegungen
78 Andreas Gathmann 11 Primfaktorzerlegungen Euch ist sicher aus der Schule bekannt, dass sich jede positive ganze Zahl a als Produkt a = p 1 p n von Primzahlen schreiben lässt, und dass diese Darstellung
MehrPrüfung zu Modul 26 (BA Bw) bzw. 10 (BA IB) (Wirtschaftsstatistik)
2 3 Klausur-Nr = Sitzplatz-Nr Prüfung zu Modul 26 (BA Bw) bzw. 10 (BA IB) (Wirtschaftsstatistik) Klausurteil 1: Beschreibende Statistik BeStat-1 (7 ) n = 400 Personen wurden gefragt, wie viele Stück eines
MehrVariationen Permutationen Kombinationen
Variationen Permutationen Kombinationen Mit diesen Rechenregeln lässt sich die Wahrscheinlichkeit bestimmter Ereigniskombinationen von gleichwahrscheinlichen Elementarereignissen ermitteln, und erleichtert
MehrDLP. Adolphe Kankeu Tamghe papibobo@informatik.uni-bremen.de ALZAGK SEMINAR. Bremen, den 18. Januar 2011. Fachbereich Mathematik und Informatik 1 / 27
DLP Adolphe Kankeu Tamghe papibobo@informatik.uni-bremen.de Fachbereich Mathematik und Informatik ALZAGK SEMINAR Bremen, den 18. Januar 2011 1 / 27 Inhaltsverzeichnis 1 Der diskrete Logarithmus Definition
MehrCodierungstheorie Rudolf Scharlau, SoSe 2006 9
Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets
MehrKaplan-Meier-Schätzer
Kaplan-Meier-Schätzer Ausgangssituation Zwei naive Ansätze zur Schätzung der Survivalfunktion Unverzerrte Schätzung der Survivalfunktion Der Kaplan-Meier-Schätzer Standardfehler und Konfidenzintervall
MehrStatistik im Versicherungs- und Finanzwesen
Springer Gabler PLUS Zusatzinformationen zu Medien von Springer Gabler Grimmer Statistik im Versicherungs- und Finanzwesen Eine anwendungsorientierte Einführung 04. Auflage Übungsaufgaben zu Kapitel Aufgaben
MehrFaktorisierung ganzer Zahlen mittels Pollards ρ-methode (1975)
Dass das Problem, die Primzahlen von den zusammengesetzten zu unterscheiden und letztere in ihre Primfaktoren zu zerlegen zu den wichtigsten und nützlichsten der ganzen Arithmetik gehört und den Fleiss
Mehrq = 1 p = 0.8 0.2 k 0.8 10 k k = 0, 1,..., 10 1 1 0.8 2 + 10 0.2 0.8 + 10 9 1 2 0.22 1 = 0.8 8 [0.64 + 1.6 + 1.8] = 0.678
Lösungsvorschläge zu Blatt 8 X binomialverteilt mit p = 0. und n = 10: a PX = = 10 q = 1 p = 0.8 0. 0.8 10 = 0, 1,..., 10 PX = PX = 0 + PX = 1 + PX = 10 10 = 0. 0 0.8 10 + 0. 1 0.8 9 + 0 1 10 = 0.8 8 [
MehrWahrscheinlichkeit Klasse 8 7
7 Wahrscheinlichkeit Klasse 8 Ereignisse Seite 8 a) Ω {Herz 7; Herz 8; Herz 9; Herz 0; Herz Unter; Herz Ober; Herz König; Herz Ass; Eichel 7; Eichel 8; Eichel 9; Eichel 0; Eichel Unter; Eichel Ober; Eichel
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt. Stock, Nordflügel R. 0-49 (Persike) R. 0- (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 008/009 Fachbereich
MehrKapitel 4: Binäre Regression
Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,
MehrExtremwertverteilungen
Seminar Statistik Institut für Stochastik 12. Februar 2009 Gliederung 1 Grenzwertwahrscheinlichkeiten 2 3 MDA Fréchet MDA Weibull MDA Gumbel 4 5 6 Darstellung von multivariaten, max-stabilen Verteilungsfunktionen
MehrSkript zur Statistik II (Wahrscheinlickeitsrechnung und induktive Statistik)
Prof. Dr. Reinhold Kosfeld Fachbereich Wirtschaftswissenschaften Skript zur Statistik II (Wahrscheinlickeitsrechnung und induktive Statistik) 1. Einleitung Deskriptive Statistik: Allgemeine und spezielle
MehrStatistik II für Betriebswirte Vorlesung 2
PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 2 21. Oktober 2014 Verbundene Stichproben Liegen zwei Stichproben vor, deren Werte einander
Mehr- Eine typische Ausfallrate, wie sie bei vielen technischen Anwendungen zu sehen ist hat die Form einer Badewanne, deshalb nennt man diese Kurve auch
1 2 - Eine typische Ausfallrate, wie sie bei vielen technischen Anwendungen zu sehen ist hat die Form einer Badewanne, deshalb nennt man diese Kurve auch Badewannenkurve. -mit der Badewannenkurve lässt
MehrAbitur 2012 Mathematik GK Stochastik Aufgabe C1
Seite 1 Abiturloesung.de - Abituraufgaben Abitur 2012 Mathematik GK Stochastik Aufgabe C1 nter einem Regentag verstehen Meteorologen einen Tag, an dem mehr als ein Liter Niederschlag pro Quadratmeter gefallen
MehrEinführung in die Stochastik für Informatiker Sommersemester 2000 Prof. Mathar
Einführung in die Stochastik für Informatiker Sommersemester 2000 Prof. Mathar getext von René Wörzberger rene@woerzberger.de Bilder Thorsten Uthke Review Diego Biurrun diego@pool.informatik.rwth-aachen.de
Mehra) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten.
Statistik für Kommunikationswissenschaftler Wintersemester 2009/200 Vorlesung Prof. Dr. Helmut Küchenhoff Übung Cornelia Oberhauser, Monia Mahling, Juliane Manitz Thema 4 Homepage zur Veranstaltung: http://www.statistik.lmu.de/~helmut/kw09.html
MehrAnalog definiert man das Nichteintreten eines Ereignisses (Misserfolg) als:
9-9 Die befasst sich mit der Untersuchung, wie wahrscheinlich das Eintreten eines Falles aufgrund bestimmter Voraussetzungen stattfindet. Bis anhin haben wir immer logisch gefolgert: 'Wenn diese Voraussetzung
Mehr