8 Stetige Zufallsvariablen

Größe: px
Ab Seite anzeigen:

Download "8 Stetige Zufallsvariablen"

Transkript

1 2 8 STETIGE ZUFALLSVARIABLEN 8 Stetige Zufallsvariablen 8. Definition von stetigen Zufallsvariablen Idee: Eine Zufallsvariable X heißt stetig, falls zu beliebigen Werten a < b aus dem Träger von X auch jeder Zwischenwert in dem Intervall [a, b] möglich ist. Problem: Wie kann man P (a X b) berechnen, falls alle (also überabzählbar viele) Punkte im Intervall [a, b] möglich sind? Beispiel 8. (Glücksrad) Betrachte ein Glücksrad mit stetigem Wertebereich [, 2π]. Von Interesse ist die Zufallsvariable, die den eakten Winkel angibt, an dem das Glücksrad stehen bleibt. Aufteilung in Sektoren, der gleichen Breite. Damit hat jeder Sektor die Wahrscheinlichkeit. P (X [, π]) 5 2 Eine feinere Aufteilung in Sektoren der gleichen Breite liefert: jeder Sektor hat Wahrscheinlichkeit, aber P (X [, π]) 5 2 ist konstant. Im Grenzprozess n erhält man: jeder Sektor hat Wahrscheinlichkeit, aber lim P (X [, π]) lim n 2 n n n 2 Definition 8. Eine Zufallsvariable X heißt stetig, wenn es eine Funktion f() gibt, so dass sich die Verteilungsfunktion F () von X wie folgt darstellen lässt: F () P (X ) f(u) du. Die Funktion f() heißt Wahrscheinlichkeitsdichte (kurz Dichte oder Dichtefunktion) von X. Der Träger T von X ist die Menge aller Elemente R für die f() > gilt. Beachte den Unterschied zu diskreten Zufallsvariablen! Hier gilt: F () f( i ) i: i

2 8. Definition von stetigen Zufallsvariablen 3 Einige Folgerungen:. P (X ) R 2. P (X [a, b]) P (X ]a, b]) P (X [a, b[) P (X ]a, b[) b a f() d 3. + f() d Normierungseigenschaft Eigenschaften der Verteilungsfunktionen F () von stetigen Zufallsvariablen:. lim F () 2. lim F () 3. An allen Stetigkeitsstellen von f() gilt: F () f() 4. P (a X b) F (b) F (a) 5. P (X a) F (a) etc. Definition 8.2 Als Normalisierungskonstante c bezeichnet man multiplikative Terme in der Dichtefunktion f(), die nicht vom Argument abhängen (aber im Allgemeinen von den Parametern), der übrige Teil heißt Kern: Man schreibt oft f() g(). f() c g() }{{} Kern Allgemeine Definition von stetigen Zufallsvariablen: Frage: Für welche Mengen B ist die Aussage P (X B) f()d überhaupt sinnvoll? Sei F die Mengenfamilie aller offenen Intervalle in R. Dann gibt es eine sogenannte σ-algebra (eine spezielle Mengenfamilie) σ(f), die F enthält. Für eine σ-algebra σ(f) muss gelten: B

3 4 8 STETIGE ZUFALLSVARIABLEN. und Ω σ(f) 2. Für A, B σ(f) ist auch B \ A σ(f) 3. Für A, A 2,... σ(f) ist auch n A n σ(f) und n A n σ(f) Ein Wahrscheinlichkeitsmaß P auf Ω wird nun mittels σ(f) definiert: Für alle paarweise disjunkten Mengen A, A 2,... σ(f) soll gelten (vgl. Aiom A3 von Kolmogorow): P ( na n ) P (A n ) Ferner müssen natürlich auch die Aiome A und A2 erfüllt sein: P ( ) P (Ω) n Stetige Zufallsvariablen sind also Abbildungen von Ω nach R.

4 8.2 Wichtige stetige Verteilungen Wichtige stetige Verteilungen Im Folgenden werden wir nun wichtige stetige Verteilungen kennenlernen. Stetige Verteilungen hängen wie diskrete Verteilungen von einem oder mehreren Parametern ab. Zur Charakterisierung werden wir meist die Dichtefunktion und den Träger angeben. Die einfachste stetige Verteilung ist die stetige Gleichverteilung: Eine Zufallsvariable X heißt stetig gleichverteilt auf dem Intervall [a, b] (a, b R), kurz X U(a, b), falls ihre Dichtefunktion die Form f() { b a für [a, b] sonst hat. Der Träger von X ist also T [a, b]. Die Verteilungsfunktion F () von X ergibt sich zu < a a F () [a, b] b a > b f() F() Abbildung 9: Dichtefunktion (links) und Verteilungsfunktion (rechts) der stetigen Gleichverteilung für a 2 und b 6

5 6 8 STETIGE ZUFALLSVARIABLEN Funktionen in R: dunif(, min a, ma b) liefert Dichtefunktion punif(...) liefert Verteilungsfunktion runif(...) liefert Zufallszahlen aus der Gleichverteilung Die Eponentialverteilung Eine stetige Zufallsvariable X mit positivem Träger R +, heißt eponentialverteilt mit Parameter λ R + (kurz X E(λ)), wenn sie die Dichte { λ ep( λ) für f() sonst besitzt. Die Verteilungsfunktion ergibt sich zu { ep( λ) für F () für < Funktionen in R: dep(, rate λ) liefert Dichtefunktion pep(...) liefert Verteilungsfunktion rep(...) liefert Zufallszahlen aus der Eponentialverteilung f() F() Abbildung 2: Dichtefunktion (links) und Verteilungsfunktion (rechts) der Eponentialverteilung mit folgenden Raten: λ.9 (schwarz), λ.5 (rot) und λ.3 (grün)

6 8.2 Wichtige stetige Verteilungen 7 Es bleibt zu zeigen, dass f() d f() d λ λ λ gilt: ep( λ) d [ ] λ ep( λ) [ + ] λ Beispiel 8.2 (Kern der Eponentialverteilung) Der Kern der Eponentialverteilung ist ep( λ), da dieser Teil der Dichtefunktion f() von abhängt. Die Normalisierungskonstante ist λ. Die Eponentialverteilung steht in engem Zusammenhang zur Poissonverteilung. Die Anzahl der Ereignisse in einem Intervall ist genau dann P(λ)- verteilt, wenn die Zeitdauern zwischen aufeinander folgenden Ereignissen unabhängig und eponential verteilt mit Parameter λ sind. Beispiel 8.3 Ebenso wie die geometrische Verteilung besitzt die Eponentialverteilung die Eigenschaft der Gedächtnislosigkeit, d.h. P (X > s + X > s) P (X > ), wie man leicht sieht: P (X > s + X > s) > P (X > s +, X > s) P (X > s) P (X > s + ) P (X > s) P (X s + ) P (X s) ep( λ(s + )) ep( λs) ep( λ) P (X > ) Die Gammaverteilung Die Gammaverteilung ist eine Verallgemeinerung der Eponentialverteilung.

7 8 8 STETIGE ZUFALLSVARIABLEN Wie diese hat sie einen positiven Träger T R +, aber einen Parameter mehr: Eine stetige Zufallsvariable X heißt gammaverteilt mit Parametern α R + und β R + (kurz X G(α, β)), falls sie die Dichte f() { β α Γ(α) α ep( β) für sonst besitzt. Hier bezeichnet Γ(α) die Gammafunktion Γ(α) α ep( ) d Die Gammafunktion kann als Verallgemeinerung der Fakultät betrachtet werden, da gilt: Γ( + )! für N Γ( + ) Γ() für R + f() F() Abbildung 2: Dichtefunktion (links) und Verteilungsfunktion (rechts) der Gammaverteilung mit folgenden Werten für α und β: (2., 3) (schwarz), (.2, 3) (rot), (2., 6) (grün) und (.2, 6) (blau) Eigenschaften der Gammaverteilung: für α entspricht die Gammaverteilung einer Eponentialverteilung mit Parameter λ β

8 8.2 Wichtige stetige Verteilungen 9 für α d mit d N und β entspricht die Gammaverteilung der 2 2 sogenannten Chi-Quadrat(χ 2 ) -Verteilung mit d Freiheitsgraden (kurz: X G( d, ) X 2 2 χ2 (d)) Funktionen in R: dgamma(, shape α, rate β) liefert Dichtefunktion pgamma(...) liefert Verteilungsfunktion rgamma(...) liefert Zufallszahlen aus der Gammaverteilung dchisq(, df Freiheitsgrade) χ 2 -Verteilung Man kann mit Hilfe der Substitutionsregel f(g()) g () d f(z) dz zeigen, dass f() d ist: f() d βα Γ(α) β α Γ(α) α ep( β) d α ep( β) d Als Substitution verwendet man g() β. Dann erhält man f() d βα g() α ep( g()) d Γ(α) βα β Γ(α) β Γ(α) } {{ } Γ(α) f(g()) g () {}}{{}}{ g() α ep( g()) β f(z)dz Die Normalverteilung Eine Zufallsvariable X mit Träger T R und Parametern µ R und σ 2 R + heißt normalverteilt (kurz X N (µ, σ 2 )), falls sie die Dichtefunktion f() ( 2π σ ep ) ( µ) 2 für R 2 σ 2 hat. Diese wird auch Gaußsche Glockenkurve genannt. Für µ und σ 2 nennt man die Verteilung Standardnormalverteilung. d

9 8 STETIGE ZUFALLSVARIABLEN Beachte: F () f(u) du ist nicht analytisch zugänglich (d.h. man findet keine Stammfunktion und braucht numerische Integration bzw. verwendet einen look-up table ). f() F() Abbildung 22: Dichtefunktion (links) und Verteilungsfunktion (rechts) der Normalverteilung mit folgenden Werten für µ und σ: (, ) (Standardnormalverteilung: schwarz), (2, ) (rot) und (, 2) (grün) Weshalb gilt für die Dichtefunktion der Normalverteilung Aus der Analysis ist bekannt, dass für a > gilt: f() d? ep( a 2 2 ) d π a (8) Außerdem stimmen die folgenden beiden Integrale µ R überein ( ep 2 ) ( µ) 2 d σ 2 ) ep ( 2 d (9) 2σ 2 da die beiden Integralsfunktionen bis auf eine Verschiebung entlang der -

10 8.2 Wichtige stetige Verteilungen Achse identisch sind. Daher erhält man: ( f() d ep ) ( µ) 2 d 2π σ 2 σ 2 ( ep ) ( µ) 2 d 2π σ 2 σ 2 (9) ) ep ( 2 d 2π σ 2σ 2 π 2σ 2 2π σ (8) Funktionen in R: dnorm(, meanµ, sdσ) liefert Dichtefunktion pnorm(...) liefert Verteilungsfunktion rnorm(...) liefert Zufallszahlen aus der Normalverteilung Die Betaverteilung Eine Zufallsvariable X mit Träger T (, ) und Parametern α R + und β R + heißt betaverteilt (kurz X Be(α, β)), falls sie die Dichtefunktion f() { B(α,β) α ( ) β für < < sonst besitzt, wobei die Betafunktion B(α, β) gerade so definiert ist, dass f() d gilt: B(α, β) Γ(α)Γ(β) Γ(α + β) α ( ) β d An dieser Formel erkennt man auch den Zusammenhang zwischen der Betaund der Gammafunktion. Beachte: Für α β entspricht die Gammaverteilung der Gleichverteilung auf dem Intervall [, ]. Funktionen in R: dbeta(, shape α, shape2β) liefert Dichtefunktion pbeta(...) liefert Verteilungsfunktion rbeta(...) liefert Zufallszahlen aus der Betaverteilung

11 2 8 STETIGE ZUFALLSVARIABLEN f() F() Abbildung 23: Dichtefunktion (links) und Verteilungsfunktion (rechts) der Betaverteilung mit folgenden Werten für α und β: (2., 3) (schwarz), (.2, 3) (rot), (2., 6) (grün) und (.2, 6) (blau)

12 8.3 Lageparameter von stetigen Zufallsvariablen Lageparameter von stetigen Zufallsvariablen Lageparameter von stetigen Zufallsvariablen sind (ebenso, wie bei diskreten Zufallsvariablen) die folgenden: Erwartungswert: eistiert meistens, ist dann auch eindeutig Median (.5-Quantil): eistiert immer, ist immer eindeutig, solange der Träger von X ein Intervall ist Modus (Maimum der Dichtefunktion): eistiert nicht immer, ist auch nicht immer eindeutig Die Definitionen dieser Parameter lauten aber anders. Definition 8.3 Den Erwartungswert einer stetigen Zufallsvariable X ist definiert als E(X) f() d unter der Voraussetzung, dass die Funktion f() absolut integrierbar ist, d.h es muss gelten: E( X ) f() d f() d < Andernfalls sagt man, der Erwartungswert von X eistiert nicht bzw. ist unendlich. Zur Erinnerung ist hier noch einmal die Definition des Erwartungswertes für stetige Zufallsvariablen aufgeführt: E(X) T P (X ) }{{} f() Der Erwartungswert für stetige Zufallsvariablen hat sehr ähnliche Eigenschaften wie im diskreten Fall (die Eistenz aller auftretenden Erwartungswerte sei im Folgenden vorausgesetzt):. E[g(X)] g()f() d für eine beliebige Funktion g : R R 2. Linearität des Erwartungswertes : E(a X + b) ae(x) + b

13 4 8 STETIGE ZUFALLSVARIABLEN 3. Additivität : E(X + Y ) E(X) + E(Y ) 4. Symmetrie : Ist f() symmetrisch um einen Punkt c, d.h. f(c ) f(c + ) R, dann ist E(X) c. Beispiel 8.4 (Erwartungswert der stetigen Gleichverteilung) Die Dichtefunktion ist f() { b a a b sonst Daher lautet der Erwartungswert E(X) [ b d a b a b a ] b 2 2 a b a 2 (b2 a 2 ) a+b 2 Dies ist einfacher über die Symmetrieregel für den Erwartungswert zu zeigen, denn die Dichtefunktion f() ist symmetrisch um den Punkt c a+b 2. Beispiel 8.5 (Erwartungswert der Normalverteilung) Der Erwartungswert der Normalverteilung ist E(X) µ, da die Dichtefunktion f() ( 2π σ ep ) ( µ) 2 für R 2 σ 2 symmetrisch um den Punkt c µ ist. Beispiel 8.6 (Erwartungswert der Betaverteilung) f() { B(α,β) α ( ) β für < < sonst

14 8.3 Lageparameter von stetigen Zufallsvariablen 5 E(X) f() d B(α, β) α ( ) β d B(α +, β) B(α, β) Γ(α + β) Γ(α + ) Γ(β) Γ(α) Γ(β) Γ(α + β + ) es gilt Γ( + ) Γ() α α + β B(α +, β) α ( ) β d }{{}, Int. über Dichtefkt. von Be(α +, β) Beispiel 8.7 (Erwartungswert der Eponentialverteilung) f() { λ ep( λ) für sonst Mit Hilfe von partieller Integration u()v () d u()v() gilt für den Erwartungswert u ()v() d E(X) + λ }{{} u() ep( λ) d }{{} v () [ λ( ) λ ep( λ) ] ep( λ) d λ( ) ep( λ) d λ λ Satz 8. Es gilt für stetige Zufallsvariablen mit positivem Träger R + : E(X) [ F ()] d }{{} P (X>)

15 6 8 STETIGE ZUFALLSVARIABLEN vgl. dazu Satz (5.) für diskrete Zufallsvariablen mit Träger N: E(X) P (X k) k P (X > k) k Diese Formel liefert eine einfachere Variante, den Erwartungswert der Eponentialverteilung zu berechnen: E(X) [ ep( λ)] d ep( λ) d λ ep( λ) λ Bemerkung: Für beliebige Zufallsvariablen X muss zwar immer f() d gelten, es kann aber durchaus der Fall E(X) eintreten, da E( X ) Dies sieht man an folgendem Beispiel: f() d Beispiel 8.8 (Erwartungswert der Cauchy-Verteilung) Die Cauchy-Verteilung mit der Dichtefunktion f() π + 2 für R hat keinen (endlichen) Erwartungswert. Für die Cauchy-Verteilung gilt, dass f() symmetrisch um den Punkt ist, und somit würde man denken, dass E(X) ist, was aber nicht der Fall ist. Betrachte dazu zunächst E( X ) 2 f() d c 2 π lim c + d 2 2 [ π lim c 2 log( + 2 ) π lim c log( + c2 ). Der Erwartungswert der Cauchy-Verteilung eistiert somit nicht. ] c

16 8.3 Lageparameter von stetigen Zufallsvariablen 7 Definition 8.4 (Quantile von stetigen Zufallsvariablen) Wir nehmen an, dass der Träger der stetigen Zufallsvariable X ein Intervall ist und somit die Umkehrfunktion F (p) der Verteilungsfunktion F () von X eindeutig definiert ist. Das p-quantil der Verteilung von X ist definiert als der Wert p für den F () p gilt. Somit gilt p F (p). Speziell erhält man für p.5 den Median Med. Ist f() symmetrisch um einen Punkt c, so ist Med c. Beispielsweise ist der Median Med µ bei einer normalverteilten Zufallsvariablen X N (µ, σ 2 ). Definition 8.5 (Der Modus von stetigen Zufallsvariablen) Ein Modus einer stetigen Zufallsvariable X ist ein Wert Mod, für den für alle R gilt: f( Mod ) f() Der Modus ist nicht notwendigerweise eindeutig, noch muss er eistieren. Beispiel 8.9 (Modi von verschiedenen stetigen Verteilungen). Modus der Betaverteilung: f() { B(α,β) α ( ) β für < < sonst Um das Maimum der Dichtefunktion zu erhalten, wird die erste Ableitung gleich Null gesetzt: f ()! [ (α ) α 2 ( ) β + α (β )( ) β 2 ( ) ] B(α, β) B(α, β) α 2 ( ) β 2 [(α )( ) (β )] }{{}! α α + β + Mod α α β 2 2. Der Modus der Normalverteilung ist µ. nur für α > und β > eindeutig!! 3. Der Modus der Gammaverteilung: Für α > ist der Modus eindeutig gleich Mod (α )/β. Für α < eistieren keine Modi.

17 8 8 STETIGE ZUFALLSVARIABLEN Definition 8.6 Die Varianz einer stetigen Zufallsvariablen definiert man analog zum diskreten Fall: VarX E[X E(X)] 2 E[X µ] 2 ( µ) 2 f() d mit µ E(X). Die Standardabweichung σ Var(X) ist wie im diskreten Fall definiert. Beachte: Auch die Varianz kann nicht eistieren, d.h. unendlich sein. Eistiert der Erwartungswert nicht, so eistiert auch die Varianz nicht. Für die Varianz für stetige Zufallsvariablen gelten nun im wesentlichen dieselben Eigenschaften wie im diskreten Fall. Verschiebungssatz: Var(X) E(X 2 ) [E(X)] 2 Lineare Transformationen: Für Y a X + b gilt: Sind X und Y unabhängig, so gilt: Var(Y ) a 2 Var(X) Var(X + Y ) Var(X) + Var(Y ) Beispiel 8. (Varianz der stetigen Gleichverteilung) Wir wissen: { a b b a f() sonst und Zunächst folgt für E(X 2 ): E(X 2 ) 2 f() d b a E(X) a + b 2 Mit dem Verschiebungssatz ergibt sich: 2 b a d b a [ 3 Var(X) E(X 2 ) (E(X)) 2 3 b3 a 3 b a 3 (b2 + ab + a 2 ) 4 (b2 + 2ab + a 2 ) 3 ] b a ( a + b 3 b3 a 3 b a 2 ) 2 2 (b2 2ab + a 2 ) (b a)2 2

18 8.3 Lageparameter von stetigen Zufallsvariablen 9 Die Varianz wächst also quadratisch mit der Länge des Intervalls, die Standardabweichung somit linear mit der Länge des Intervalls. Im Folgenden nun zusammenfassend die Erwartungswerte und Varianzen der gängigsten stetigen Verteilungen: Name Symbol E(X) Var(X) Gleichverteilung X U(a, b) a+b 2 Eponentialverteilung X E(λ) λ Gammaverteilung X G(α, β) α β (b a) 2 2 Normalverteilung X N (µ, σ 2 ) µ σ 2 λ 2 α β 2 Betaverteilung X }mathcalbe(α, β) α α+β α β (α+β) 2 (α+β+)

19 2 8 STETIGE ZUFALLSVARIABLEN 8.4 Das Gesetz der großen Zahlen Das Gesetz der großen Zahlen ist eine Aussage über das arithmetische Mittel Xn n n i X i für n, wobei X i, i,..., n unabhängig und identisch verteilte Zufallsvariablen aus einer Verteilung mit Erwartungswert µ und Varianz σ 2 seien. Klarerweise gilt: E( X n ) µ und da V ar( X n ) n σ2 ( ) E( X n n ) E X i n n i ( ) V ar( X n n ) V ar X i n n 2 i n E(X i ) n n µ µ i n V ar(x i ) n n 2 σ2 n σ2. Daher folgt sofort, dass für das arithmetische Mittel und seine Varianz im Grenzfall (n ) Folgendes gilt: i X n µ und V ar( X n ) In Abbildung 24 sieht man anschaulich, dass das arithmetische Mittel von standardnormalverteilten Zufallsvariablen gegen den Erwartungswert konvergiert. Dagegen konvergiert das arithmetische Mittel von Cauchyverteilten Zufallsvariablen nicht (siehe Abb. 25), da der Erwartungswert der Cauchy- Verteilung nicht eistiert.

20 8.4 Das Gesetz der großen Zahlen 2 Arithmetisches Mittel n Abbildung 24: Arithmetisches Mittel für standardnormalverteilte Zufallsvariable Arithmetisches Mittel n Abbildung 25: Arithmetisches Mittel für Cauchyverteilte Zufallsvariablen

21 22 8 STETIGE ZUFALLSVARIABLEN 8.5 Der Transformationssatz für Dichten Sei X eine stetige Zufallsvariable mit Dichte f X (). Betrachte nun Y g(x), wobei z.b. Y ep(x), Y X 2,... Frage: Wie lautet die Dichte f Y (y) der Zufallsvariable Y? In dem folgenden Satz wird beschrieben, wie man auf einfache Weise die Dichtefunktion von Y g(x) berechnen kann: Satz 8.2 (Transformationssatz für Dichten) Sei g streng monoton und differenzierbar. Dann kann man die Dichte f Y (y) mit Hilfe des Transformationssatzes berechnen: f Y (y) f X (g (y)) dg (y) dy }{{} g (y) Beweis (über die Verteilungsfunktion F Y (y) von Y ): Sei g zunächst streng monoton wachsend und differenzierbar: F Y (y) P (g() y) P (X g (y)) F X (g (y)) Differenzieren ergibt: f Y (y) F Y (y) F X(g (y)) dg (y) dy f X (g (y)) Sei nun g streng monoton fallend und differenzierbar: dg (y) dy }{{} positiv, da g streng monoton wachsend F Y (y) P (g() y) P ( g (y)) P ( < g (y)) P ( g (y)) F X (g (y)) f Y (y) f X (g (y)) dg (y) dy }{{} negativ, da g streng monoton fallend Insgesamt ergibt sich also: f Y (y) f X (g (y)) dg (y) dy

22 8.5 Der Transformationssatz für Dichten 23 Beispiel 8. (Erzeugung eponentialverteilter Zufallsvariablen) Betrachte X U[, ] und Y g(x), mit g() log(x). Die Umkehrfunktion von g() ist damit g (y) ep( y). Die Ableitung der Umkehrfunktion lautet dann dg (y) ep( y) dy Damit ergibt sich für die Dichtefunktion von Y : f Y (y) f X (g (y)) ep( y) ep( y) Daher folgt, dass Y eponentialverteilt ist mit Parameter λ, also Y E(λ ). Allgemeiner liefert Y log() Zufallszahlen aus einer λ Eponentialverteilung mit Parameter λ : Y E(λ) Beispiel 8.2 (Quadrat einer Standardnormalverteilung) Wie lautet die Dichte von Y X 2, falls X N(, ), also standardnormalverteilt ist? Die Dichte von X ist f() 2π ep ( 2 2 ) für R Ein Problem ist, dass man für die Verwendung des Transformationssatzes für Dichten eine streng monotone Funktion g benötigt, g() 2 aber nicht monoton ist. Daher betrachtet man zunächst Z X. Z hat offensichtlich das Doppelte der Dichte der Standardnormalverteilung auf R + : f(z) 2 2π ep ( 2 z2 ) für z > und sonst Nun ist X 2 Y Z 2 g(z) und g monoton wachsend auf dem Wertebereich R +. Damit ergibt sich y z 2 z y und die Ableitung der Umkehrfunktion von g lautet dg (y) dy 2 y 2 Mit dem Transformationssatz für Dichten erhält man die Dichte von Y : 2 f(y) ep ( 2 ) ( y) 2 2 ep ( 2 ) y y 2 2π 2π 2 y Y ist also gammaverteilt mit den Parametern α β, Y G(.5,.5). 2 Vergleiche hierzu die Dichte der Gammaverteilung: f(y) βα y α ep( βy) Γ(α) }{{} 2 π 2π

23 24 8 STETIGE ZUFALLSVARIABLEN Diese Dichte entspricht auch der Dichte einer χ 2 -Verteilung mit Freiheitsgrad: Y X 2 χ 2 (). Allgemeiner gilt: Für X i N(, ) i,..., d und unabhängig ist Y X 2 + X Xd 2 χ2 -verteilt mit d Freiheitsgraden. Allgemeiner kann man auch die Inversions-Methode zur Erzeugung von n Zufallszahlen aus einer beliebigen stetigen Verteilung mit Dichte f() und Verteilungsfunktionen F () verwenden. Erzeuge dazu n gleichverteilte Zufallsvariablen U,..., U n auf dem Intervall [, ]. Dann sind X i F (U i ), i,..., n die gesuchten Zufallszahlen aus der gewünschten Verteilung mit Verteilungsfunktionen F (). Beweis: Die Dichte von X i ergibt sich mit der Anwendung des Transformationssatzes für Dichten: f X () f U (F ()) F () f() }{{}}{{} f() Beispiel 8.3 (Erzeugung von Cauchyverteilter Zufallsvariablen) Die Dichtefunktion f() von Cauchyverteilten Zufallsvariablen ist f() π und die Verteilungsfunktion F () lautet F () arctan() π + 2 π + u du 2 π [arctan(u)] [ arctan() + π ] π Die inverse Verteilungsfunktion ist somit: [ ( F (y) tan π y )] 2 Zufallszahlen aus der Cauchy-Verteilung lassen sich also leicht erzeugen, indem man U,..., U N aus U[, ] erzeugt und X i tan(π(u i )) berechnet. 2

24 8.5 Der Transformationssatz für Dichten 25 Beispiel 8.4 (log-normalverteilung) Anwendung des Transformationssatzes für Dichten: Betrachte X N(µ, σ 2 ). Dann heißt Y ep(x) log-normalverteilt mit Parameter µ und σ 2. Y hat Dichte für y > und sonst. Es gilt: f Y (y) ep( (log(y) µ) 2 ) 2πσ 2 σ }{{ 2 } f X (g (y)) E(Y ) ep(µ + 2 σ2 ) y }{{} dg (y) dy V ar(y ) ep(2µ + σ 2 )[ep(σ 2 ) ]

25 26 8 STETIGE ZUFALLSVARIABLEN 8.6 Der zentrale Grenzwertsatz Der zentrale Grenzwertsatz(ZGWS) beinhaltet die Aussage, dass das arithmetische Mittel, geeignet standardisiert, von beliebigen unabhängig und identisch verteilten (engl.: iid: independent, identically distributed ) Zufallsvariablen gegen die Standardnormalverteilung konvergiert. Diese Tatsache begründet die zentrale Rolle der Normalverteilung in der Stochastik. Doch zunächst müssen wir dazu standardisierte Zufallsvariablen definieren. Definition 8.7 Eine Zufallsvariable X heißt standardisiert, falls sie Erwartungswert E(X) µ und Varianz Var(X) σ 2 besitzt. Jede Zufallsvariable X mit endlichem Erwartungswert E(X) und endlicher Varianz Var(X) kann man durch lineare Transformation standardisieren. Definiere dazu die Zufallsvariable X als Dann gilt offensichtlich: X X µ. σ E( X) (E(X) µ) σ Var( X) σ 2 Var(X) Auch die Summe von unabhängig und identisch verteilte Zufallsvariablen X, X 2,..., X n mit endlichem Erwartungswert µ E(X i ) und endlicher Varianz σ 2 Var(X i ) kann standardisiert werden. Zunächst gilt für die Summe Y n X + X X n : E(Y n ) n µ Var(Y n ) n σ 2 Somit hat Z n Y n nµ n σ n n i X i µ σ

26 8.6 Der zentrale Grenzwertsatz 27 Erwartungswert und Varianz ( ) Yn nµ E(Z n ) E E(Y n) nµ n σ n σ nµ nµ n σ ( ) ( ) Yn nµ Yn n Var(Z n ) Var Var n σ n σ ( n σ ) 2 Var(Y n ) n σ2 n σ 2. Die Zufallsvariable Z n ist also standardisiert. Die eakte Verteilung von Z n ist zunächst noch unbekannt. Für n kann man jedoch den zentralen Grenzwertsatz anwenden. Satz 8.3 (Zentraler Grenzwertsatz) Die Verteilungsfunktion F n (z) von Z n konvergiert für n an jeder Stelle z R gegen die Verteilungsfunktion Φ(z) der Standardnormalverteilung. a N (, ) ( asymp- Man schreibt: F n (z) Φ(z) für n und alle z R bzw. kurz Z n totisch standardnormalverteilt ) In der Prais kann man also die Verteilung von Z n für n groß gut durch eine Standardnormalverteilung approimieren. Bemerkungen: Satz 8.3 gilt sowohl für stetige als auch für diskrete Zufallsvariablen X i, wenn deren Erwartungswert und Varianz eistieren (für Standardisierung nötig) X i kann beliebig schiefe (nicht symmetrische) Verteilungen haben, z.b. X i E(λ) Trotzdem konvergiert Z n gegen die (symmetrische) N (, )-Verteilung.

27 28 8 STETIGE ZUFALLSVARIABLEN Die Standardisierung ist nicht notwendig zur Formulierung des ZGWS. Alternativ kann man auch direkt Y n X X n betrachten. Dann gilt Y n a N (n µ, n σ 2 ) denn nσ Z n }{{} Y n n µ Z n a N (, ) a N (, n σ 2 ) Y n a N (n µ, n σ 2 ) Beispiel 8.5 (Summe von iid Bernoulliverteilten Zufallsvariablen) Seien X i Bernoulliverteilte, unabhängige Zufallsvariablen: X i B(π), i,..., n Dann ist Y n n i X i binomialverteilt mit Y n B(n, π). Asymptotisch gilt: Y n n π n π( π) a N (, ) bzw. Y n a N (n π, n π( π))

28 8.7 Die gemeinsame Verteilung von zwei stetigen Zufallsvariablen Die gemeinsame Verteilung von zwei stetigen Zufallsvariablen Definition 8.8 Die gemeinsame Verteilungsfunktion zweier stetiger Zufallsvariablen X und Y ist die Funktion F (, y) P (X und Y y) Alternativ kann man die gemeinsame Verteilung von X und Y auch über deren gemeinsame Dichtefunktion f(, y) definieren, wobei F (, y) für alle, y R gelten muss. Falls f(, y) stetig ist, so gilt: y v d 2 F (, y) d dy u f(, y) f(u, v) du dv Außerdem muss die gemeinsame Dichtefunktion auch normiert sein: + + f(, y) d dy Die Dichten der Randverteilungen lassen sich durch Integration (im diskreten Fall war es die Summation) erhalten: f X () f Y (y) + + f(, y) dy f(, y) d Der Erwartungswert einer gemeinsamen Verteilung lässt sich berechnen durch für g : R 2 R. E(g(X, Y )) + + X, Y heißen unabhängig, genau dann wenn F X,Y (, y) F X () F Y (y) g(, y) f(, y) d dy bzw. f X,Y (, y) f X () f Y (y), y R

29 3 8 STETIGE ZUFALLSVARIABLEN Allgemeiner gilt: X, X 2,..., X n sind unabhängig f(, 2,..., n ) f( ) f( 2 ) f( n ). Weiterhin definiert man analog zum diskreten Fall: die Kovarianz Cov(X, Y ) E[(X E(X))(Y E(Y ))] die Korrelation ρ(x, Y ) Cov(X,Y ) Var(X) Var(Y ) Es gilt wieder: Cov(X, Y ) E(X Y ) E(X) E(Y ) Beispiel 8.6 Betrachte { für y f(, y) sonst Die Randverteilung von X ergibt sich zu f X () also einfach eine Gleichverteilung auf [, ]. Die Randverteilung von Y ist f Y (y) Man überprüft leicht, dass y dy [ ] für, d [log() ] y log f() d ( ) y für y. und f(y) dy gilt. Folglich gilt also auch: log ( ) dy y f(, y) dy d [ log ( ) ] y + y y f() d bzw. f(, y) d dy f(y) dy

30 8.7 Die gemeinsame Verteilung von zwei stetigen Zufallsvariablen 3 Weiter erhält man (z. B. mit MAPLE), dass: E(Y ) 4 E(Y 2 ) 9 } Var(Y ) E(Y 2 ) [E(Y )] Da X U(, ), gilt E(X) 2 Ferner ergibt sich für und Var(X) 2. E(X Y ) [ 3 6 [ y 2 ] 2 y dy d ] 6 d 2 2 d y dy d Damit erhält man folgende Werte für die Kovarianz Cov(X, Y ) E(X Y ) E(X)E(Y ) und die Korrelation ρ(x, Y ) Cov(X, Y ) Var(X) Var(Y ) Definition 8.9 Die bivariate ( zweidimensionale ) Standardnormalverteilung mit Parameter ρ mit ρ < hat die Dichtefunktion Es gilt: f(, y) ( ) 2π ρ ep 2 2 ( ρ 2 ) (2 2ρy + y 2 ) Die Randverteilungen von X und Y sind (unabhängig von ρ) standardnormalverteilt. Die Korrelation zwischen X und Y ist gleich ρ (daher hat ρ auch einen Wert < ).

31 32 8 STETIGE ZUFALLSVARIABLEN Aus Unkorreliertheit von X und Y folgt hier auch die Unabhängigkeit von X und Y : Für ρ ist nämlich die gemeinsame Dichtefunktion das Produkt der Dichten der Randverteilungen: f(, y) 2π ep ( 2 (2 + y 2 ) ) 2π ep ( 2 2 ) }{{} Dichte der N (, )-Vtlg. 2π ep ( 2 y2 ) }{{} Dichte der N(, )-Vtlg. f X () f Y (y) y y y Abbildung 26: Die bivariate Standardnormalverteilung für ρ (links), ρ.7 (Mitte) und ρ.5 (rechts) Bemerkung: Die allgemeine bivariate Normalverteilung mit insgesamt fünf Parametern (µ X, µ Y, σ 2 X, σ2 Y, ρ) erhält man durch folgende lineare Transformationen einer bivariaten Standardnormalverteilung: X µ X + σ X X Y µ Y + σ Y Y

32 8.8 Bedingte Verteilungen von stetigen Zufallsvariablen Bedingte Verteilungen von stetigen Zufallsvariablen Seien X und Y Zufallsvariablen mit gemeinsamer Dichte f X,Y (, y). Wir interessieren uns für die bedingte Verteilung von X gegeben Y y. Das Problem bei der Berechnung der Verteilung besteht darin, dass P (Y y) und damit P (X Y y) P (X und Y y) P (Y y) nicht definiert ist. Deshalb geht man nun anders vor und betrachtet P (X y Y y + dy) P (X und y Y y + dy) P (y Y y + dy) f X,Y (u, y) dy du f Y (y) dy f X,Y (u, y) du f Y (y) }{{} Dichtefkt. der bed. Vtlg. von X geg. Y y Daher erhält man folgende Definition: Definition 8. Die bedingte Verteilungsfunktion von X, gegeben Y y ist definiert als f X,Y (u, y) F X Y ( y) du f Y (y) für alle y mit f Y (y) >. Die bedingte Dichte von X, gegeben Y y ist somit f X Y ( y) f X,Y (, y) f Y (y) Beispiel 8.7 Betrachten wir wieder die gemeinsame Verteilungsfunktion f(, y) von X und Y aus Beispiel 8.6 mit { für y f X,Y (, y) sonst

33 34 8 STETIGE ZUFALLSVARIABLEN Für die bedingte Dichte von Y, gegeben X ergibt sich: f Y X (y ) f X,Y (, y) f X () für y { für y sonst d.h. Y X ist gleichverteilt auf [, ] (Y X U(, )). Für die Dichte von X, gegeben Y y erhält man: f X Y ( y) log( ) für y y { /( log(y)) für y sonst Bemerkung: Bedingte Verteilungen sind sehr nützlich zum Simulieren aus gemeinsamen Verteilungen. Da f X,Y (, y) f X Y ( y) f Y (y) gilt, kann man zunächst eine Zufallsvariable Y y aus der Randverteilung f Y (y) ziehen, und dann bedingt auf Y y eine Zufallszahl aus der bedingten Verteilung f X Y ( y) ziehen. Oder andersherum: f X,Y (, y) f Y X (y ) f X () () Im Beispiel 8.7 wäre Version () einfacher zu implementieren. In R: > <- runif() > y <- runif(,, ) > plot(, y)

34 8.8 Bedingte Verteilungen von stetigen Zufallsvariablen y Abbildung 27: Die gemeinsame Dichte aus Beispiel 8.7 Beispiel 8.8 Seien X und Y bivariat standardnormalverteilt. Dann ist die bedingte Dichte von X, gegeben Y f X Y ( y) 2π ρ 2 ep ( 2 ( ρ 2 ) (2 2ρy + y 2 ) ) 2π ep ( 2 y2) 2π ρ 2 ep ( 2 ( ρy) 2 ( ρ 2 ) ) Daher ergibt sich: X Y y N (ρ y, ρ 2 ) Analog erhält man die Dichte von Y, gegeben X: Y X N (ρ, ρ 2 ) Nun kann man aus der bivariaten Standardnormalverteilung simulieren. In R: > <- rnorm() > rho <-.5

35 36 8 STETIGE ZUFALLSVARIABLEN > y <- rnorm(, mean rho *, sd sqrt( - rho^2)) > plot(, y) y Abbildung 28: Die bivariate Standardnormalverteilung aus Beispiel 8.8

36 8.9 Gemeinsame Verteilung einer diskreten und einer stetigen ZV Die gemeinsame Verteilung einer diskreten und einer stetigen Zufallsvariable Das Konzept von gemeinsamer und bedingter Verteilung lässt sich problemlos auch auf zwei Zufallsvariablen verallgemeinern, von denen eine diskret und eine stetig ist. Wir illustrieren dies hier an einem Beispiel: Beispiel 8.9 Sei X betaverteilt mit X Be(α, β). Sei außerdem die bedingte Verteilung von Y, gegeben X binomialverteilt mit Y X B(n, π X). Die gemeinsame Verteilung ist das Produkt aus bedingter Verteilung und Randverteilung und daher erhält man hier f(, y) f(y ) f() ( n y ( n y ) y ( ) n y ) y+α ( ) n y+β für [, ] und y {,,..., n}. Für die bedingte Dichte f( y) von X Y folgt: f( y) f(, y) f(y) B(α, β) α ( ) β B(α, β) y+α ( ) n y+β Hierbei ( ) haben wir ausgenützt, dass der Nenner f(y) in f( y) f(, y) f(y) nicht von abhängt, also für Y y konstant ist. Für f( y) haben wir also den Kern einer Betaverteilung erhalten: X Y Be(α + y, β + n y) Wegen der Form der Betaverteilung ist f( y) also f( y) Damit folgt für f(y) f(,y) B(y + α, n y + β) y+α ( ) n y+β f( y) : f(y) ( ) n B(y + α, n y + β) y B(α, β)

37 38 8 STETIGE ZUFALLSVARIABLEN für y,..., n. Diese Verteilung nennt sich Beta-Binomialverteilung mit den Parametern α und β: Y BBe(α, β). Wegen Γ(α) Γ(β) B(α, β) Γ(α + β) lässt sich ihre Dichtefunktion auch schreiben als ( n f(y) y Γ(α + β) Γ(α) Γ(β) Γ(α + β + n) }{{} hängt nicht von y ab ) Γ(α + y) Γ(β + n y). Für α β ergibt sich interessanterweise die diskrete Gleichverteilung auf {,..., n}. ( ) Γ(2) n f(y) Γ( + y) Γ( + n y) Γ() Γ() Γ(2 + n) y (n + )! n + n! y! (n y)! y! (n y)! für y {,..., n} und unter Verwendung von Γ(n) (n )! Also gilt: Ist die Randverteilung von X stetig gleichverteilt, dann ist die Randverteilung von Y diskret gleichverteilt.

38 8. Ekurs: Verwerfungsmethode(Rejection sampling) Ekurs: Verwerfungsmethode(Rejection sampling) Zum Erzeugen von Zufallszahlen aus einer Verteilung mit Dichte f X () haben wir das Inversionsverfahren kennengelernt, das aber die Kenntnis der inversen Verteilungsfunktion voraussetzt. Ein alternatives sehr universell einsetzbares Verfahren ist das rejection sampling, das nur die Kenntnis der Dichte f X () voraussetzt. Zufallszahlen werden aus einer anderen Verteilung mit Dichte f Y (y) gezogen. Diese ist im Prinzip beliebig, es muss nur eine Konstante c > eistieren mit f X () c f Y (y) für alle R Insbesondere muss also der Träger T X eine Teilmenge von T Y sein, ansonsten gebe es ein R mit f X () > aber mit f Y (). Die Zufallszahlen aus f Y werden nur mit einer gewissen Wahrscheinlichkeit als Zufallszahlen aus f X akzeptiert; andernfalls werden sie verworfen und das Verfahren wird so lange wiederholt bis eine Zahl akzeptiert wird. Rejection sampling Algorithmus: REPEAT Erzeuge eine Zufallszahl X aus f Y. X f Y. Erzeuge eine von X unabhängige Zufallszahl U aus einer Gleichverteilung auf [, ]: U U[, ]. Berechne UNTIL U p(x) p(x) f X(X) Akzeptanzwahrscheinl. [, ] c f Y (X) RETURN X Beispiel 8.2 Habe die Dichtefunktion f() folgende Form f X () { 2 2 sonst

39 4 8 STETIGE ZUFALLSVARIABLEN f() Abbildung 29: Dichtefunktion von f() in Beispiel 8.2 Für Y bietet sich eine Gleichverteilung auf [, ] an f Y (y) { y sonst Für c 2 ist f X () c f Y () für alle R erfüllt. Algorithmus. REPEAT X U[, ] und U U[, ] sind unabhängig. UNTIL U p(x) p(x) X f X(X) c f Y (X) RETURN X

40 8. Ekurs: Verwerfungsmethode(Rejection sampling) 4 Beweisskizze: Rejection sampling P (Y und Y wird akzeptiert) P (Y, U p(y )) E(g(Y, U)) mit g(y, u) I {Y,U p(y)} (y, u) B(, π P (...)) g(y, u) f Y (y) f U (u) dy du }{{} f(y,u) wg.unabhängigkeit I {Y,U p(y)} (y, u) }{{} I {Y } (y) I {U p(y)} (y,u) f Y (y) f U (u) dy du I {U p(y)} (y, u) f(u) du }{{} E(I {U p(y)} (u,y)) P (U p(y)) P (y) p(y) f Y (y)dy f X (y) c dy c F X() f Y (y) dy P (Y wird akzeptiert) + + p(y) f Y (y) dy f X (y) c dy c Somit ergeben sich für die bedingte Wahrscheinlichkeit P (Y Y wird akzeptiert) P (Y und Y wird akzeptiert) P (Y wird akzeptiert) F c X() c F X () Unter der Bedingung, dass Y akzeptiert wird, hat Y also die Verteilungsfunktion F X () und die Dichte f X (). Man beachte, dass P (Y wird akzeptiert) c gilt; Unter Unabhängigkeit folgt daher, dass die Anzahl der Versuche, bis zum erstem Mal akzeptiert wird geometrisch verteilt ist mit Parameter π c. Die erwartete Anzahl ist somit gleich c.

41 42 8 STETIGE ZUFALLSVARIABLEN Es ist daher sinnvoll, c möglichst klein zu wählen c sup f X () f Y () (gerade so, dass f X () c f Y () R) Beispiel 8.2 X N(, ) schwer zu erzeugen, weil F nur numerisch bestimmbar ist. Dagegen ist eine Cauchyverteilte Zufallsvariable X leicht über die Umkehrfunktion ihrer Verteilungsfunktion F erzeugbar. f X () 2 π ep( 2 2 ) f Y () π + 2 f Man kann relativ leicht zeigen, dass c sup X () 2 π f Y.52. () e Die Akzeptanzwahrscheinlichkeit p(x) ergibt sich als p(x) f X(X) c f Y (X) 2 π ep ( 2) 2 2 π e π + 2 e 2 ( + 2 ) ep( 2 2 )

42 8. Ekurs: Erzeugung von stetig gleichverteilten Zufallsvariablen Ekurs: Erzeugung von stetig gleichverteilten Zufallsvariablen Seien die gesuchten Zufallsvariablen ohne Beschränkung der Allgemeinheit auf dem Einheitsintervall gleichverteilt. Unabhängige U i U[, ], i, 2,... sind gesucht. Zur Erzeugung werden häufig Kongruenzgeneratoren (KG) verwendet: X i (ax i + c) mod M U i X i M X i {,,..., M }, U i {, M,..., M M } (a mod b in R: a%%b) Mit festen Parametern a, c, M N. c multiplikativer KG. Der Startwert X (engl. seed ) ist bekannt. Häufig wird eine modifizierte Uhrzeit verwendet. D. h. man verwendet einen rekursiv definierten, strikt deterministischen (!) Algorithmus, in der Hoffnung, dass die Folge der (U i ) i,2,... möglichst zufällig erscheint. Geschichte : Lehmer (95): a 23, M 8 +, c : Rotenberg (96): a 2 7, M 2 35, c Die M + Werte (X,..., X M ) können nicht alle unterschiedlich sein; mindestens ein Wert muss zweimal vorkommen, sagen wir an den Stellen X i und X i+k. X i,...,x i+k X i+k,...,x i+2k X i+2k,...,x i+3k identische Folgen! Man nennt k M die Periode eines KG. Bei multiplikativen KGen gilt sogar k M, da der Wert X i absorbierend ist. Ein multiplikativer KG hat maimale Periode k M nur dann, wenn M eine Primzahl ist. Beispiel 8.22 M 2 3 (Primzahl) a 7 5 c Ein idealer KG sollte möglichst wenig Regelmäßigkeiten aufweisen, ansonsten wäre er ja nicht zufällig. Zum Testen, wie zufällig KGen sind, bietet es sich

43 44 8 STETIGE ZUFALLSVARIABLEN an (U i, U i+ ), i,,... im Einheitsquadrat [, ] 2 graphisch darzustellen. Häufig ergeben sich gewisse Muster. Die Punkte liegen immer auf parallelen Geraden; je kleiner der Abstand zwischen den Geraden, desto besser ist der Generator. Dieser Test lässt sich auf d Dimensionen verallgemeinern Spektraltest

8. Stetige Zufallsvariablen

8. Stetige Zufallsvariablen 8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse

Mehr

4.1 Grundlagen: Diskrete & Stetige Zufallsvariablen. 4. Zufallsvariablen. Diskrete Zufallsvariablen (ZVn) Eine diskrete Zufallsvariable

4.1 Grundlagen: Diskrete & Stetige Zufallsvariablen. 4. Zufallsvariablen. Diskrete Zufallsvariablen (ZVn) Eine diskrete Zufallsvariable 4. Zufallsvariablen 4.1 Grundlagen: Diskrete & Stetige Zufallsvariablen Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 2016 1 / 143 Diskrete Zufallsvariablen (ZVn) Fabian Scheipl, Bernd Bischl

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER Institut für Statistik der LMU FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER 2003 2003 Inhaltsverzeichnis 1 Elementare Wahrscheinlichkeitsrechnung 1 1.1 Die Axiome von Kolmogorov...........................

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik . Grundbegri e der Stochastik Raum der Ereignisse. Die einelementigen Teilmengen f!g heißen auch Elementarereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. A ist ein geeignetes System von Teilmengen

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Simulation von Zufallszahlen. Grundlage: zufällige Quelle von Zufallszahlen, durch einfachen rekursiven Algorithmus am Computer erzeugt

Simulation von Zufallszahlen. Grundlage: zufällige Quelle von Zufallszahlen, durch einfachen rekursiven Algorithmus am Computer erzeugt Simulation von Zufallszahlen Grundlage: zufällige Quelle von Zufallszahlen, durch einfachen rekursiven Algorithmus am Computer erzeugt Definition: Eine Folge von Pseudo-Zufallszahlen U i ist eine deterministische

Mehr

Sind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0

Sind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0 Beispiel: Zweidimensionale Normalverteilung I Beispiel: Zweidimensionale Normalverteilung II Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale multivariate Normalverteilung Spezifikation am

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion f(x) =

Mehr

Statistik für Ingenieure Vorlesung 5

Statistik für Ingenieure Vorlesung 5 Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom Übungsaufgaben 12. Übung SS 18: Woche vom 2. 7. 6. 7. 2018 Stochastik VI: Zufallsvektoren; Funktionen von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler 6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik angesehen werden. Sie wird nach ihrem Entdecker auch Gaußsche Glockenkurve genannt. Die herausragende Stellung

Mehr

Vorlesung 7b. Der Zentrale Grenzwertsatz

Vorlesung 7b. Der Zentrale Grenzwertsatz Vorlesung 7b Der Zentrale Grenzwertsatz 1 Zentraler Grenzwertsatz (Tschebyscheff) Die standardisierte Summe von unabhängigen, identisch verteilten R-wertigen Zufallsvariablen konvergiert in Verteilung

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt

Mehr

1.5 Mehrdimensionale Verteilungen

1.5 Mehrdimensionale Verteilungen Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig) ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Die Gamma-Verteilung 13.12.212 Diese Verteilung dient häufig zur Modellierung der Lebensdauer von langlebigen Industriegüstern. Die Dichte

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Übung 1: Wiederholung Wahrscheinlichkeitstheorie Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable

Mehr

Spezielle stetige Verteilungen

Spezielle stetige Verteilungen Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Beziehungen zwischen Verteilungen

Beziehungen zwischen Verteilungen Kapitel 5 Beziehungen zwischen Verteilungen In diesem Kapitel wollen wir Beziehungen zwischen Verteilungen betrachten, die wir z.t. schon bei den einzelnen Verteilungen betrachtet haben. So wissen Sie

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)

Mehr

4.2 Moment und Varianz

4.2 Moment und Varianz 4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p

Mehr

1 Die stetige Gleichverteilung 2. 2 Die Exponentialverteilung 3. 3 Die Normalverteilung 5. 4 Die Testverteilungen Gauss-Vektoren 17

1 Die stetige Gleichverteilung 2. 2 Die Exponentialverteilung 3. 3 Die Normalverteilung 5. 4 Die Testverteilungen Gauss-Vektoren 17 Wirtschaftswissenschaftliches Zentrum 9 Universität Basel Mathematik 2 Dr. Thomas Zehrt Stetige Standardverteilungen Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt,

Mehr

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}. Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit

Mehr

Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 5.6.2013 8. Unabhängigkeit von Zufallsgrößen, Erwartungswert und Varianz 8.1

Mehr

Diskrete Zufallsvariablen (Forts.) I

Diskrete Zufallsvariablen (Forts.) I 9 Eindimensionale Zufallsvariablen Diskrete Zufallsvariablen 9.4 Diskrete Zufallsvariablen (Forts.) I T (X ) ist endlich oder abzählbar unendlich, die Elemente von T (X ) werden daher im Folgenden häufig

Mehr

Diskrete Zufallsvariablen (Forts.) I

Diskrete Zufallsvariablen (Forts.) I 9 Eindimensionale Zufallsvariablen Diskrete Zufallsvariablen 9.4 Diskrete Zufallsvariablen (Forts.) I T (X ) ist endlich oder abzählbar unendlich, die Elemente von T (X ) werden daher im Folgenden häufig

Mehr

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k

Mehr

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer« Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................

Mehr

10 Transformation von Zufallsvariablen

10 Transformation von Zufallsvariablen 10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :

Mehr

Stochastik. Frank Eckert und. Thomas Huppertz Letzte Änderung:

Stochastik. Frank Eckert und. Thomas Huppertz Letzte Änderung: Stochastik getext von Frank Eckert Frank.Eckert@post.rwth-aachen.de und Thomas Huppertz thuppert@fh-niederrhein.de Letzte Änderung: 4.Juli.2000 INHALTSVERZEICHNIS Inhaltsverzeichnis Kombinatorische Grundformeln

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Eindimensionale Zufallsvariablen

Eindimensionale Zufallsvariablen Eindimensionale Grundbegriffe Verteilungstypen Diskrete Stetige Spezielle Maßzahlen für eindimensionale Erwartungswert Varianz Standardabweichung Schwankungsintervalle Bibliografie Bleymüller / Gehlert

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Diskrete Strukturen II

Diskrete Strukturen II SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen

Mehr

Vorlesung Gesamtbanksteuerung Mathematische Grundlagen II Dr. Klaus Lukas Carsten Neundorf. Vorlesung 04 Mathematische Grundlagen II,

Vorlesung Gesamtbanksteuerung Mathematische Grundlagen II Dr. Klaus Lukas Carsten Neundorf. Vorlesung 04 Mathematische Grundlagen II, Vorlesung Gesamtbanksteuerung Mathematische Grundlagen II Dr. Klaus Lukas Carsten Neundorf 1 Was sollen Sie heute lernen? 2 Agenda Wiederholung stetige Renditen deskriptive Statistik Verteilungsparameter

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr 1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Statistik für Ingenieure Vorlesung 6

Statistik für Ingenieure Vorlesung 6 Statistik für Ingenieure Vorlesung 6 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 05. Dezember 2017 3.4.3 Stetige Gleichverteilung Parameter: Intervall [a, b] R. Zufallsgröße

Mehr

i =1 i =2 i =3 x i y i 4 0 1

i =1 i =2 i =3 x i y i 4 0 1 Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x

Mehr

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion Kapitel 1 Stetige Zufallsvariablen 1.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig

Mehr

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie

Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie SS 2014 Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2014ss/dwt/uebung/ 5. Juni 2014 ZÜ DWT ZÜ VI Übersicht:

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Wiederholung Analysis

Wiederholung Analysis Wiederholung Analysis F( x) sei Stammfunktion zu f( x) f( x) dx = F( x) F ( x) = f( x) Bestimmtes Integral b a f ( x) dx = F( b) F( a) Uneigentliche Integrale x x x f() t 0 F( x) = f() t dt ist monoton

Mehr

Vorlesung 5a. Varianz und Kovarianz

Vorlesung 5a. Varianz und Kovarianz Vorlesung 5a Varianz und Kovarianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist

Mehr

Wahrscheinlichkeitsräume und Zufallsvariablen

Wahrscheinlichkeitsräume und Zufallsvariablen Kapitel Wahrscheinlichkeitsräume und Zufallsvariablen. W-Raum Unter einem Zufallsexperiment verstehen wir einen vom Zufall beeinflussten Vorgang, der ein entsprechend zufälliges Ergebnis hervorbringt.

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom Übungsaufgaben 11. Übung SS 18: Woche vom 25. 6. 29. 6. 2016 Stochastik V: ZG; Momente von ZG; Zufallsvektoren Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin. Lemma 92 Beweis: Wir berechnen zunachst I 2 : I 2 = Z 1 I := e x2 =2 d x p = 2: 1 Z 1 1 Z 1 Z 1 = 1 1 Z 1 e x2 =2 d x 1 e (x2 +y 2 )=2 d x d y : e y2 =2 d y Wir gehen nun zu Polarkoordinaten uber und setzen

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Teil IV. Diskrete Verteilungen. Woche 3: Verteilungen. Diskrete Zufallsvariablen Wiederholung. Lernziele

Teil IV. Diskrete Verteilungen. Woche 3: Verteilungen. Diskrete Zufallsvariablen Wiederholung. Lernziele Woche 3: Verteilungen Teil IV Patric Müller Diskrete Verteilungen ETHZ WBL 17/19, 08.05.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit

Mehr

Vorlesung 5a. Die Varianz

Vorlesung 5a. Die Varianz Vorlesung 5a Die Varianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert

Mehr

Copula Funktionen. Eine Einführung. Nils Friewald

Copula Funktionen. Eine Einführung. Nils Friewald Copula Funktionen Eine Einführung Nils Friewald Institut für Managementwissenschaften Abteilung Finanzwirtschaft und Controlling Favoritenstraße 9-11, 1040 Wien friewald@imw.tuwien.ac.at 13. Juni 2005

Mehr

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung

Mehr

2.1 Gemeinsame-, Rand- und bedingte Verteilungen

2.1 Gemeinsame-, Rand- und bedingte Verteilungen Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die

Mehr

Stetige Standardverteilungen

Stetige Standardverteilungen Universität Basel Wirtschaftswissenschaftliches Zentrum Stetige Standardverteilungen Dr. Thomas Zehrt Inhalt: 1. Die stetige Gleichverteilung 2. Die Normalverteilung (a) Einstimmung (b) Standardisierung

Mehr

7 Zufallszahlen, Simulation

7 Zufallszahlen, Simulation 7 Zufallszahlen, Simulation Es ist nützlich, Folgen von i.i.d. R[0, 1]-verteilten Zufallszahlen auf einem Rechner erzeugen zu können vgl. Simulation, Monte-Carlo-Verfahren). Letztere sind i.a. keine echten

Mehr

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN KAPITEL 15 VETEILUNGEN VON FUNKTIONEN EINE ZUFALLSVAIABLEN In diesem Kapitel geht es darum, die Verteilungen für gewisse Funktionen von Zufallsvariablen zu bestimmen. Wir werden uns auf den Fall absolut

Mehr