4.1 Grundlagen: Diskrete & Stetige Zufallsvariablen. 4. Zufallsvariablen. Diskrete Zufallsvariablen (ZVn) Eine diskrete Zufallsvariable
|
|
- Meta Roth
- vor 6 Jahren
- Abrufe
Transkript
1 4. Zufallsvariablen 4.1 Grundlagen: Diskrete & Stetige Zufallsvariablen Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Diskrete Zufallsvariablen (ZVn) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Eine diskrete Zufallsvariable Ergebnisse von Zufallsvorgängen sind nicht notwendigerweise Zahlen Oft ist es aber hilfreich diese durch Zahlen zu repräsentieren, um mit ihnen rechnen zu können Beispiel: 4-maliger Wurf einer Münze Ω = {Wappen, Zahl} 4 = {W, Z} 4 Ω = 2 4 = 16 z. B. ω = (W, Z, Z, W ) Angenommen man interessiert sich für X := Anzahl von Wappen Dann nennt man X eine Zufallsvariable (ZV) mit reellen Ausprägungen bzw. Realisierungen R. Man schreibt kurz X =, wenn die Ausprägung der ZV X eingetreten ist. X ist also eine Abbildung von Ω nach R. Also X : Ω R Die Menge der möglichen Ausprägungen {0,1,2,3,4} heißt Träger T der ZV X. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
2 Vorteile von Zufallsvariablen Definition 1 Man kann mit X rechnen : z. B. P(X a) oder P(X 2 > b) Oder: Welche Zahl erhalten wir im Mittel? 2 Ursprünglicher Wahrscheinlichkeitsraum (Ω, P) wird letztendlich nicht mehr benötigt, stattdessen Wahrscheinlichkeiten für Ausprägungen der ZV. Eine ZV X heißt diskret, falls sie nur endliche oder abzählbar unendlich viele Werte 1, 2,... annehmen kann. Die Menge T = { 1, 2,...} der möglichen Ausprägungen (d.h. alle i mit P(X = i ) > 0) von X heißt Träger der ZV X. Die Wahrscheinlichkeitsfunktion von X ist durch f ( i ) = P(X = i ) = P ({ω Ω : X (ω) = i }) für i R gegeben. Die Wahrscheinlichkeitsfunktion f ( i ) heißt auch Wahrscheinlichkeitsdichte. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Folgerungen Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Verteilungsfunktion 1 Für T ist f () = P{ } = 0. 2 Als Funktion von B R ist also P(X B) = P{ω Ω : X (ω) B} eine Wahrscheinlichkeitsverteilung auf R. Man nennt diese die Verteilung der Zufallsvariable X. Diese wird durch die Abbildung X und die Wahrscheinlichkeitsverteilung P induziert. Die Verteilungsfunktion einer diskreten ZV ist definiert als F () = P(X ) = i: i f ( i ) Kennt man also die Wahrscheinlichkeitsfunktion f () für alle T, so kennt man auch die Verteilungsfunktion F () (dies gilt auch umgekehrt). Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
3 Eigenschaften der Verteilungsfunktion Beispiel: 4-maliger Wurf einer Münze F () ist monoton wachsend ( Treppenfunktion ) F () ist stückweise konstant mit Sprungstellen an Werten i mit f ( i ) > 0, d.h. an allen Realisierungen i T lim F () = 1 lim F () = 0 X := Anzahl Kopf, T = {0, 1, 2, 3, 4} f (0) = 1/16 f (1) = 4/16 f (2) = 6/16 f (3) = 4/16 f (4) = 1/16 Beachte: f () = 0 für alle / T F () = 0 : < 0 1/16 : 0 < 1 5/16 : 1 < 2 11/16 : 2 < 3 15/16 : 3 < 4 1 : 4 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Wahrscheinlichkeits- und Verteilungsfunktion Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Stetige Zufallsvariablen: Einleitung f() F() Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse ist die Zufallsvariable, die den eakten Winkel angibt, an dem das Glücksrad stehen bleibt Wahrscheinlichkeitsfunktion (links) und Verteilungsfunktion (rechts) für den viermaligen Münzwurf Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
4 Definition von stetigen Zufallsvariablen Einige Folgerungen Eine Zufallsvariable X heißt stetig, wenn es eine Funktion f () 0 gibt, so dass sich die Verteilungsfunktion F () = P(X ) von X wie folgt darstellen lässt: F () = f (u) du Die Funktion f () heißt Wahrscheinlichkeitsdichte (kurz: Dichte oder Dichtefunktion) von X. Der Träger T von X ist die Menge aller Elemente R für die f () > 0 gilt. Beachte den Unterschied zu diskreten Zufallsvariablen! Hier gilt: F () = f ( i ) i: i P(X = ) = 0 für alle R P(X [a, b]) = + f () d = 1 b a f () d Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel: Die stetige Gleichverteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel: Die stetige Gleichverteilung II Eine Zufallsvariable X heißt stetig gleichverteilt auf dem Intervall [a, b], falls ihre Dichtefunktion die folgende Form hat: { 1 b a für [a, b] f () = 0 sonst Der Träger von X ist also T = [a, b]. Die Verteilungsfunktion F () von X ergibt sich zu 0 < a a F () = b a [a, b] 1 > b Man schreibt kurz: X U(a, b) f() Dichtefunktion (links) und Verteilungsfunktion (rechts) der stetigen Funktionen in R: Gleichverteilung für a = 2 und b = 6 dunif(...) berechnet die Dichtefunktion punif(...) berechnet die Verteilungsfunktion qunif(...) berechnet die Quantilsfunktion runif(...) erzeugt Zufallszahlen F() Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
5 Eigenschaften der Verteilungsfunktion Allgemeine Definition von stetigen ZVn 1 lim F () = 0 und lim F () = 1 2 An allen Stetigkeitsstellen von f () gilt: F () = f () 3 P(a X b) = F (b) F (a) Frage: Für welche Mengen B ist die Aussage P(X B) = f ()d überhaupt sinnvoll? B 4 P(X > a) = 1 F (a) etc. Sei F die Mengenfamilie aller offenen Intervalle in R. Dann gibt es eine sogenannte σ-algebra (eine spezielle Mengenfamilie) σ(f), die F enthält. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 σ-algebren Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Aiome von Kolmogorov Für eine σ-algebra σ(f) muss gelten: 1 und Ω σ(f) 2 Für A, B σ(f) ist auch B \ A σ(f). 3 Für A 1, A 2,... σ(f) ist auch n=1 n=1 A n σ(f) und A n σ(f). Ein Wahrscheinlichkeitsmaß P auf Ω wird nun mittels σ(f) definiert: Für alle paarweise disjunkten Mengen A 1, A 2,... σ(f) soll gelten (vgl. Aiom A3, Abschnitt 2.3): P( n=1a n ) = P(A n ) n=1 Ferner müssen natürlich auch A1 und A2 erfüllt sein: P( ) = 0 P(Ω) = 1 Aus P( ) = 0 folgt, dass A1 gilt. Begründung: Wenn P( ) = 0 P(A) 0, A. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
6 4.2 Wichtige Verteilungen Spezielle diskrete Verteilungen Man unterscheidet nun bestimmte gängige Verteilungen, die häufig von weiteren Parametern abhängen. Das einfachste Beispiel ist die Bernoulli-Verteilung. Eine Bernoulli-verteilte ZV kann nur die Werte 0 und 1 annehmen: P(X = 1) = f (1) = π P(X = 0) = f (0) = 1 π π [0, 1] ist der Parameter der Bernoulli-Verteilung. Man schreibt kurz: X B(π). Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die diskrete Gleichverteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die geometrische Verteilung Die allgemeine diskrete Gleichverteilung hat einen endlichen Träger T = { 1, 2,..., k }, wobei mit i = 1,..., k gilt. P(X = i ) = f ( i ) = 1 k Häufig sind alle natürlichen Zahlen zwischen a N und b N Element des Trägers T. Die Grenzen a und b sind dann die Parameter der diskreten Gleichverteilung. Beispiel: Augenzahl beim fairen Würfelwurf Ein Zufallsvorgang, bei dem mit Wahrscheinlichkeit π ein Ereignis A eintritt, wird unabhängig voneinander so oft wiederholt, bis zum ersten Mal A eintritt. Sei X die ZV Anzahl der Versuche bis zum ersten Mal A eintritt. Dann ist T = N und die Wahrscheinlichkeitsfunktion von X lautet: f () = (1 π) 1 π = 1, 2, 3,... π (0, 1) ist der Parameter der geometrischen Verteilung. Man schreibt kurz: X G(π). Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
7 Eine Variante der geometrischen Verteilung Wahrscheinlichkeits- und Verteilungsfunktion Sei Y := Anzahl der Versuche bevor das erste mal A eintritt, d.h. Y = X 1. Dann ist T = {0, 1, 2,...} f (y) = (1 π) y π Für diese Form gibt es folgende Funktionen in R: dgeom() berechnet Wahrscheinlichkeitsfunktion pgeom() berechnet Verteilungsfunktion rgeom() berechnet Zufallszahlen aus der geom. Verteilung f() π = 0.5 π = 0.3 F() π = 0.5 π = 0.3 Vergleich der geometrischen Wahrscheinlichkeitsfunktionen (links) und Verteilungsfunktionen (rechts) für die beiden Parameter π = 0.3 und π = 0.5 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Binomialverteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Wahrscheinlichkeits- und Verteilungsfunktion n = 10 n = 100 Bei einer Folge von Bernoulli-Eperimenten interessiert man sich häufig nur für die Anzahl X := n i=1 X i, wie oft X i = 1 aufgetreten ist. Diese ZV X heißt binomialverteilt mit Parametern n N, π [0, 1] und hat den Träger T = {0, 1,..., n} sowie die Wahrscheinlichkeitsfunktion: ( ) n P(X = ) = f () = π (1 π) n für T f() n = 10 π = 0.5 π = 0.3 f() n = 100 π = 0.5 π = 0.3 Man schreibt kurz X B(n, π) und es gilt B(1, π) = B(π). Funktionen in R: dbinom(), pbinom(), qbinom(), rbinom() F() π = 0.5 π = 0.3 F() π = 0.5 π = Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Vergleich der binomialen Wahrscheinlichkeitsfunktionen (oben) und
8 Beispiele Die Poisson-Verteilung Siméon Poisson [ ] Das Urnenmodell: Zufälliges Ziehen mit Zurücklegen einer Stichprobe von n Kugeln aus einer Urne mit N Kugeln, darunter M markierte. Sei X : Anzahl der markierten Kugeln in der Stichprobe. Dann: X B(n, M/N). Häufig gibt es zufällige Vorgänge, bei denen es keine natürliche obere Grenze für die Anzahl an Ereignissen gibt, z.b.: Die Anzahl an Telefonanrufen in einem Call-Center pro Stunde Die Anzahl der Tore in einem Bundesligaspiel Anzahl von Todesfällen durch Hufschlag in der Preußischen Armee (L. von Bortkiewicz, 1893) Die einfachste Verteilung für solche Phänomene ist die Poisson-Verteilung. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Poisson-Verteilung II Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Wahrscheinlichkeits- und Verteilungsfunktion Eine Zufallsvariable X folgt einer Poisson-Verteilung, wenn sie Träger T = N 0 und Wahrscheinlichkeitsfunktion f () = λ! ep( λ) hat. Der Parameter λ R + ist die durchschnittliche Rate oder die Intensität, mit der die Ereignisse in dem zugrundeliegenden Zeitintervall auftreten. Man schreibt kurz: X P(λ) Funktionen in R: {dpqr}pois f() λ = 3 λ = 1 F() Vergleich der Wahrscheinlichkeitsfunktionen (links) und Verteilungsfunktionen (rechts) für eine poissonverteilte Zufallsvariable mit dem Parameter λ = 1 bzw. λ = 3 λ = 3 λ = 1 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
9 Approimation der Binomialverteilung Vergleich von Binomial- und Poissonverteilung π = 0.8 π = 0.5 Die Binomialverteilung B(n, π) kann für großes n und kleines π gut durch die Poisson-Verteilung mit λ = n π approimiert werden. f() Poisson Binomial f() Poisson Binomial B(n, π) P(λ = n π) Je größer n ist und je kleiner π, desto besser ist die Approimation. f() π = 0.3 Poisson Binomial f() π = 0.1 Poisson Binomial Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Vergleich von Binomial- und Poissonverteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Wichtige stetige Verteilungen π = 0.8 π = 0.5 f() f() π = 0.3 Poisson Binomial Poisson Binomial f() f() π = 0.1 Poisson Binomial Poisson Binomial Im Folgenden werden wir nun wichtige stetige Verteilungen kennenlernen. Stetige Verteilungen hängen wie diskrete Verteilungen von einem oder mehreren Parametern ab. Zur Charakterisierung werden wir meist die Dichtefunktion und den Träger angeben. Eine Verteilung haben wir schon kennengelernt, die stetige Gleichverteilung mit Parametern a R und b R (a < b). Sie hat die Dichtefunktion f () = 1 b a und den Träger T = [a, b] Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
10 Die Eponentialverteilung Die Eponentialverteilung II Eine stetige Zufallsvariable X mit positivem Träger T = R + heißt eponentialverteilt mit Parameter λ R +, wenn sie die Dichte { λ ep( λ) für 0 f () = 0 sonst besitzt. Die Verteilungsfunktion ergibt sich zu { 1 ep( λ) für 0 F () = 0 für < 0 f() λ = 0.9 λ = 0.5 λ = 0.3 F() λ = 0.9 λ = 0.5 λ = 0.3 Notation: X E(λ) Funktionen in R: dep(), etc Dichtefunktion (links) und Verteilungsfunktion (rechts) der Eponentialverteilung mit verschiedenen Raten Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Gammaverteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Gammaverteilung II Die Gammaverteilung ist eine Verallgemeinerung der Eponentialverteilung. Sie hat auch den positiven Träger T = R +, aber einen Parameter mehr: Eine stetige Zufallsvariable X heißt gammaverteilt mit Parametern α R + und β R + (Notation: X G(α, β) ), falls sie die Dichte { β α f () = Γ(α) α 1 ep( β) für > 0 0 sonst besitzt. Hierbei ist Γ(α) die Gammafunktion f() α, β = (2, 3) α, β = (1.2, 3) α, β = (2, 6) α, β = (1.2, 6) F() Γ(α) = 0 α 1 ep( ) d wobei Γ( + 1) =! für = 0, 1, 2,... gilt Dichtefunktion (links) und Verteilungsfunktion (rechts) der Gammaverteilung mit verschiedenen Werten für α und β Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
11 Eigenschaften der Gammaverteilung Wieso ist bei der Gammaverteilung f (u)du = 1? Für α = 1 ergibt sich die Eponentialverteilung mit Parameter λ = β. Für α = d/2 mit d N und β = 1 2 ergibt sich die sogenannte χ 2 -Verteilung mit d Freiheitsgraden. Notation: X χ 2 (d) Verwendung der Substitutionsregel: f (g()) g () d = mit g() = β : f (z) dz Funktionen in R: Gammaverteilung: dgamma(, shape = α, rate = β), etc. χ 2 -Verteilung: dchisq(, df = Freiheitsgrade), etc. f () = βα Γ(α) α 1 ep( β) = = β Γ(α) g()α 1 ep( g()) 1 Γ(α) g()α 1 ep( g()) β }{{} g () Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Normalverteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Normalverteilung II Gaußsche Glockenkurve Eine Zufallsvariable X mit Träger T = R und Parametern µ R und σ 2 R + heißt normalverteilt, falls sie die Dichtefunktion f () = 1 ( 1 2π σ ep 1 ( µ) 2 ) 2 σ 2 für R hat. Für µ = 0 und σ 2 = 1 nennt man die Zufallsvariable standardnormalverteilt. Man schreibt kurz: X N (µ, σ 2 ) f() F() µ, σ = (0, 1) µ, σ = (2, 1) µ, σ = (0, 2) Dichtefunktion (links) und Verteilungsfunktion (rechts) der Normalverteilung mit verschiedenen Werten für µ und σ Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
12 Mehr zur Normalverteilung Funktionen in R: dnorm(...) berechnet die Dichtefunktion pnorm(...) berechnet die Verteilungsfunktion qnorm(...) berechnet die Quantilsfunktion rnorm(...) erzeugt Zufallszahlen Wieso ist bei der Normalverteilung f (u)du = 1? Man weiß aus der Analysis, dass für a > 0 gilt: π ep( a 2 2 ) d = a Beachte: F () = f (u) du ist nicht analytisch zugänglich (d.h. man findet keine Stammfunktion und braucht numerische Integration). Ferner kann man leicht zeigen, dass ( ep 1 ( µ) 2 ) 2 σ 2 d = für alle µ R gilt. ) ep ( 2 2σ 2 d Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Betaverteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Betaverteilung II Eine Zufallsvariable X mit Träger T = (0, 1) und Parametern α R + und β R + heißt betaverteilt (X Be(α, β) ), falls sie die Dichtefunktion { 1 B(α,β) f () = α 1 (1 ) β 1 für 0 < < 1 0 sonst besitzt. Hierbei ist die Betafunktion B(α, β) gerade so definiert, dass die Dichtefunktion die Normierungseigenschaft 1 0 f () d = 1 besitzt: B(α, β) = Γ(α)Γ(β) 1 Γ(α + β) = α 1 (1 ) β 1 d 0 f() F() α, β = (2, 3) α, β = (1.2, 3) α, β = (2, 6) α, β = (1.2, 6) Dichtefunktion (links) und Verteilungsfunktion (rechts) der Betaverteilung mit verschiedenen Werten für α und β Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
13 Die Betaverteilung III 4.3 Erwartungswerte und Varianzen Beachte: Für α = β = 1 erhält man die Gleichverteilung auf dem Intervall [0, 1]. Funktionen in R: dbeta(...) berechnet Dichtefunktion pbeta(...) berechnet Verteilungsfunktion qbeta(...) berechnet Quantilsfunktion rbeta(...) erzeugt Zufallszahlen Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Erwartungswerte und Varianzen Einleitung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Der Modus von Zufallsvariablen Zur Charakterisierung von Verteilungen unterscheidet man Lagemaße Erwartungswert ( mittlerer Wert ) Modus Median Ein Modus einer Zufallsvariable X ist ein Wert Mod, für den für alle T gilt: f ( Mod ) f () Der Modus ist nicht notwendigerweise eindeutig, noch muss er eistieren. und Streuungsmaße Varianz und Standardabweichung mittlere absolute Abweichung (MAD) Am einfachsten mathematisch zu handhaben sind Erwartungswerte und Varianzen, da diese immer eindeutig und meist leicht zu berechnen sind. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
14 Beispiele Der Erwartungswert einer diskreten ZV 1 Der Modus der Betaverteilung ist für α > 1 und β > 1 eindeutig gleich Mod = α 1 α + β 2 2 Der Modus der Eponentialverteilung ist gleich Null. 3 Der Modus der Normalverteilung ist µ. 4 Der Modus der Gammaverteilung ist für α > 1 eindeutig gleich Für α < 1 eistieren keine Modi. Mod = α 1 β Der Erwartungswert E(X ) = EX einer diskreten ZV X mit Träger T ist definiert als E(X ) = T P(X = ) = T wenn diese Summe absolut konvergent ist. f () Beachte: Man könnte die Summe auch über alle R laufen lassen. Beispiele für Erwartungswerte: Bernoulli-Verteilung: Für X B(π) ist E(X ) = π. Poisson-Verteilung: Für X P(λ) ist E(X ) = λ. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Der Erwartungswert einer stetigen ZV Der Erwartungswert einer stetigen Zufallsvariable X ist definiert als E(X ) = f () d unter der Voraussetzung, dass die Funktion f () absolut integrierbar ist: f () d = f () d < Andernfalls sagt man, der Erwartungswert von X eistiert nicht bzw. ist unendlich. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Eigenschaften des Erwartungswertes 1 Sei X = a mit Wahrscheinlichkeit 1 (deterministische ZV). Dann gilt: E(X ) = a 2 Ist f () symmetrisch um einen Punkt c, d.h. dann ist E(X ) = c. f (c ) = f (c + ) T 3 Seien a, b R und X, Y beliebige ZV. Dann gilt: E(a X + b Y ) = a E(X ) + b E(Y ) Linearität des Erwartungswertes 4 Für beliebige a, b R gilt daher E(aX + b) = a E(X ) + b Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
15 Eigenschaften des Erwartungswertes II Transformationsregel für Erwartungswerte Allgemeiner gilt dann natürlich auch für beliebige a 1,..., a n R und beliebige ZV X 1,..., X n : ( n ) n E a i X i = a i E(X i ) i=1 i=1 Daher gilt für X B(n, π): E(X ) = nπ Sei X diskrete ZV und g() eine reelle Funktion. Dann gilt für Y = g(x ): Im stetigen Fall: E[g(X )] = E(Y ) = E(g(X )) = T g()f () d g() f () für eine beliebige Funktion g : R R Beachte: Im Allgemeinen gilt nicht: E(g(X )) = g(e(x ))! Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Erwartungswert von ZVn mit Träger N Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel Hat X den Träger T = N, so gilt: Anwendung: E(X ) = P(X k) k=1 Erwartungswert der geometrischen Verteilung: Ist X G(π) so gilt: E(X ) = 1 π Sei X eine ZV mit folgender Wahrscheinlichkeitsfunktion 1/4 für = 2 1/8 für = 1 f () = 1/4 für = 1 3/8 für = 3 Berechne den Erwartungswert von E(X 2 ) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
16 Varianzen und Standardabweichungen Eigenschaften von Varianzen Die Varianz Var(X ) (auch V(X )) einer diskreten ZV ist definiert als: Var(X ) = E[(X EX ) 2 ] Erwartete quadratische Abweichung vom Erwartungswert Die Varianz einer stetigen Zufallsvariable definiert man analog: Var(X ) = E[X E(X )] 2 = E[X µ] 2 = ( µ) 2 f () d mit µ = E(X ). Beachte: Auch die Varianz kann nicht eistieren, d.h. unendlich sein. Eistiert der Erwartungswert nicht, so eistiert auch die Varianz nicht. 1 Zur einfacheren Berechnung kann man häufig den Verschiebungssatz verwenden: Var(X ) = E(X 2 ) [E(X )] 2 2 Var(aX + b) = a 2 Var(X ) für alle a, b R 3 Sind X und Y unabhängig, so gilt: Var(X + Y ) = Var(X ) + Var(Y ) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Standardabweichung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel: Binomialverteilung Ist X B(n, π), so gilt für die Varianz: Die Standardabweichung einer ZV X ist definiert als die Wurzel aus der Varianz: σ = σ(x ) = + Var(X ) Im Gegensatz zur Varianz gilt für die Standardabweichung: σ(ax + b) = a σ(x ) Bemerkung: Die mittlere absolute Abweichung E( X EX ) erscheint als Streuungsmaß intuitiver, ist aber deutlich schwerer mathematisch zu handhaben. π(1 π) Var(X ) = n π (1 π) π Varianz der Bernoulliverteilung als Funktion von π Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
17 Beispiel: Varianz der stetigen Gleichverteilung Erwartungswerte und Varianzen stetiger Verteilungen Zunächst gilt E(X 2 ) = 1 3 b3 a 3 b a und mit dem Verschiebungssatz ergibt sich: Var(X ) = EX 2 (EX ) 2 = (b a)2 12 Die Varianz wächst also quadratisch und die Standardabweichung somit linear mit der Breite b a des Trägers. Name Symbol E(X ) Var(X ) Gleichverteilung X U(a, b) a+b 2 Eponentialverteilung X E(λ) 1 λ Gammaverteilung X G(α, β) α β (b a) 2 12 Normalverteilung X N (µ, σ 2 ) µ σ 2 Betaverteilung X Be(α, β) α α+β 1 λ 2 α β 2 α β (α+β) 2 (α+β+1) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Ungleichung von Tschebyscheff Als Maß für die Streuung einer Verteilung ist die Varianz bzw. Standardabweichung einer ZV X schwer direkt zu interpretieren. Es gilt aber zumindest folgende Ungleichung: Beispiel: P( X E(X ) c) Var(X ) c 2 Sei E(X ) beliebig und Var(X ) = 1. Dann ist P( X E(X ) 1) 1 P( X E(X ) 2) 1 4 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Das Gesetz der großen Zahlen Das Gesetz der großen Zahlen ist eine Aussage über das arithmetische Mittel X n = 1 n X i n für n, wobei die X i (i = 1,..., n) unabhängig und identisch verteilte Zufallsvariablen (engl.: iid = independent and identically distributed ) aus einer Verteilung mit Erwartungswert µ und Varianz σ 2 sind. Es gilt: E( X n ) = µ und Var( X n ) = 1 n σ2 Daher folgt sofort für n : X n µ und Var( X n ) 0 Das arithmetische Mittel konvergiert gegen den Erwartungswert. Dies funktioniert nicht bei der Cauchy-Verteilung! i=1 P( X E(X ) 3) 1 9 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
18 Beispiel: Normalverteilung Beispiel: Cauchyverteilung Arithmetisches Mittel Arithmetisches Mittel Arithmetisches Mittel für standardnormalverteilte ZV n Arithmetisches Mittel für cauchyverteilte ZV n Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Stichprobenvarianz Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Der Transformationssatz für Dichten Seien X i (i = 1,..., n) wieder iid Zufallsvariablen aus einer Verteilung mit Erwartungswert µ und Varianz σ 2. Dann gilt für S 2 = 1 n n (X i µ) 2, i=1 dass E(S 2 ) = σ 2 und für n : S 2 σ 2 Wenn µ unbekannt ist und durch X n ersetzt werden muss ist allerdings E(S 2 ) σ 2. Für S 2 = 1 n n 1 i=1 (X i X n ) 2 gilt die Gleichheit wieder. Mehr dazu in Kapitel 5. Sei X eine stetige Zufallsvariable mit Dichte f X (). Betrachte nun die Zufallsvariable Y = g(x ), wobei z.b. Y = ep(x ), Y = X 2,... Frage: Wie lautet die Dichte f Y (y) von Y? Für eine streng monotone und differenzierbare Funktion g gilt der Transformationssatz für Dichten: Beweis über die Verteilungsfunktion F Y (y) von Y in der Vorlesung. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
19 Beispiel: Das Quadrat einer Standardnormalverteilung Beispiel: Erzeugung eponentialverteilter Zufallsvariablen Wie lautet die Dichte von Y = X 2, falls X N (0, 1)? Betrachte zunächst Z = X. Z hat offensichtlich die Dichte Betrachte X U[0, 1] und Y = log(x ), also g() = log(x ). Die Umkehrfunktion und deren Ableitung lauten: f (z) = 2 2π ep( 1 2 z2 ) für z > 0 und 0 sonst g 1 (y) = ep( y) dg 1 (y) dy = ep( y) Nun ist X 2 = Y = Z 2 = g(z) und g monoton wachsend auf dem Wertebereich R +. Es ergibt sich (y = z 2 z = y) f (y) = 1 y ep( 2π 2 y) Dies entspricht der Dichte einer G(0.5, 0.5), also einer χ 2 -Verteilung mit 1 Freiheitsgrad: Y = X 2 χ 2 1 Durch Anwendung des Transformationssatzes für Dichten erhält man: f Y (y) = 1 ep( y) = ep( y) Es gilt: Y E(λ = 1)! Dies ist also eine einfache Art, eponentialverteilte Zufallsvariablen zu erzeugen! Allgemeiner liefert Y = 1 λ log() Zufallszahlen aus einer Eponentialverteilung mit Parameter λ : Y E(λ) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Inversions-Methode Allgemeiner kann man die Inversions-Methode zur Erzeugung von Zufallszahlen aus einer beliebigen stetigen Verteilung mit Verteilungsfunktion F () verwenden: Erzeuge stetig gleichverteilte Zufallsvariablen U 1,..., U n auf dem Intervall [0, 1]. Dann sind X i = F 1 (U i ), i = 1,..., n Zufallszahlen aus der gewünschten Verteilung. Beweis: Die Dichte von X i ergibt sich zu: f X () = f U (F ()) F () = f () }{{}}{{} =1 f () Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel: Zufallszahlen aus der Cauchy-Verteilung Dichte- und Verteilungsfunktion der Cauchy-Verteilung sind: f () = 1 π und F () = arctan() π Die inverse Verteilungsfunktion ist somit: [ ( F 1 (y) = tan π y 1 )] 2 Zufallszahlen aus der Cauchy-Verteilung lassen sich also leicht erzeugen, indem man U 1,..., U n aus U[0, 1] erzeugt und tan [ π ( U i 1 )] 2 berechnet. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
20 Der zentrale Grenzwertsatz Standardisierte Zufallsvariablen Aussage, dass - unter Regularitätsbedingungen - das arithmetische Mittel, geeignet standardisiert, von beliebigen unabhängig und identisch verteilten Zufallsvariablen gegen die Standardnormalverteilung konvergiert. Begründet die zentrale Rolle der Normalverteilung in der Stochastik. Zunächst müssen wir noch standardisierte Zufallsvariablen definieren. Jede Zufallsvariable X mit endlichem Erwartungswert µ = E(X ) und endlicher Varianz σ 2 = Var(X ) kann man derart linear transformieren, dass sie Erwartungswert 0 und Varianz 1 besitzt: Dann gilt: X = X µ σ E( X ) = 1 (E(X ) µ) = 0 σ Var( X ) = 1 σ 2 Var(X ) = 1 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Standardisierung von Summen von iid ZVn Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Der zentrale Grenzwertsatz (ZGWS) Betrachte iid Zufallsvariablen X 1, X 2,..., X n mit endlichem Erwartungswert µ = E(X i ) und endlicher Varianz σ 2 = Var(X i ). Für die Summe Y n = X 1 + X X n gilt offensichtlich: Für die standardisierte Summe E(Y n ) = n µ Var(Y n ) = n σ 2 Z n = Y n nµ n σ = 1 n n i=1 X i µ σ Die Verteilungsfunktion F n (z) von Z n konvergiert für n an jeder Stelle z R gegen die Verteilungsfunktion Φ(z) der Standardnormalverteilung. Schreibweise: F n (z) Φ(z) für n und alle z R a bzw. kurz Z n N (0, 1) (a = asymptotisch ) In der Prais kann man also die Verteilung von Z n für große n gut durch eine Standardnormalverteilung approimieren. gilt somit E(Z n ) = 0 und Var(Z n ) = 1. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
21 Bemerkungen Beispiel: Bernoulliverteilung der ZGWS gilt sowohl für stetige als auch für diskrete ZV X i X i kann beliebig schiefe Verteilungen haben, z.b. X i E(λ) Seien X i B(π), i = 1,..., n und unabhängig. Dann ist Y n = n i=1 X i B(n, π) und asymptotisch gilt: Y n n π n π(1 π) a N (0, 1) Die Standardisierung ist nicht notwendig zur Formulierung des ZGWS. Alternativ kann man auch direkt Y n = X X n betrachten. Dann gilt Y n a N (n µ, n σ 2 ) bzw. Y n a N (n π, n π(1 π)) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / Stochastische Unabhängigkeit Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Unabhängigkeit von Zufallsvariablen Betrachte zwei diskrete ZVn X und Y auf dem Wahrscheinlichkeitsraum (Ω, P) mit Träger T X = { 1, 2,...} und T Y = {y 1, y 2,...} und Wahrscheinlichkeitsfunktionen f X () und f Y (y). Die Funktion f X,Y (, y) = P(X = und Y = y) = P(X =, Y = y) heißt gemeinsame Wahrscheinlichkeitsfunktion der zwei Zufallsvariablen X und Y. Unter Unabhängigkeit kann man diese zurückführen auf die beiden Wahrscheinlichkeitsfunktionen f X () und f Y (y). Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
22 Die gemeinsame Verteilung zweier ZVn Die gemeinsame Verteilungsfunktion zweier Zufallsvariablen X und Y ist die Funktion F (, y) = P(X und Y y) Alternativ kann man die gemeinsame Verteilung von X und Y auch über deren gemeinsame Dichtefunktion f (, y) definieren, wobei F (, y) = y v= für alle, y R für stetige ZVn und F (, y) = u= {u T X u } {v T Y v y} f (u, v) du dv f (u, v) Eigenschaften von f (, y) und F (, y) Für f (, y) stetig gilt: f (, y) ist normiert: d 2 F (, y) d dy + + = f (, y) f (, y) d dy = 1 Bemerkung: Manchmal schreiben wir eplizit F X,Y für F und f X,Y für f. für alle T X, y T Y für diskrete ZVn gelten muss. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Randverteilungen einer Funktion Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Unabhängigkeit Definition ZVn X, Y heißen unabhängig, genau dann, wenn Die Dichten der Randverteilungen sind gegeben durch: f X () = y f X () = + f X,Y (, y), f Y (y) = f (, y) dy, f Y (y) = f X,Y (, y) im diskreten Fall und + f (, y) d im stetigen Fall Die gemeinsame Verteilung von X und Y enthält i. A. mehr Information als in den Randverteilungen von X und Y steckt! F X,Y (, y) = F X () F Y (y) bzw. f X,Y (, y) = f X () f Y (y) bzw. P(X =, Y = y) = P(X = ) P(Y = y) T X und y T Y im diskreten Fall,, y R im stetigen Fall. Allgemein: ZVn X 1, X 2,..., X n heißen unabhängig, falls P(X 1 = 1,..., X n = n ) = n n P(X i = i ) = f Xi ( i ) i=1 i=1 für alle 1, 2,..., n aus den entsprechenden Trägern gilt. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
23 Beispiel: Bernoulli-Kette Sind X 1, X 2,..., X n Bernoulli-verteilt mit Parameter π und unabhängig, so heißt X = (X 1, X 2,..., X n ) Bernoulli-Folge. Beispiel: n = 3, π = 1 6 ; wegen der Unabhängigkeit gilt z. B. P(X 1 = 1, X 2 = 0, X 3 = 0) = 1 ( ) = Die hypergeometrische Verteilung Häufig wird jedoch im Urnenmodell ohne Zurücklegen gezogen, d. h. die Auswahlwahrscheinlichkeiten ändern sich von Ziehung zu Ziehung (Beispiel: Kartenspiele). Die Verteilung von X (Anzahl der markierten Kugeln) nennt man dann hypergeometrisch. Sie hat den Träger T = {ma(0, n (N M)),..., min(n, M)} und die Wahrscheinlichkeitsfunktion ( M )( N M ) n f () = ( N für T. n) Man schreibt kurz: X H(n, N, M) Funktionen in R: {dpqr}hyper() Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Ziehen mit und ohne Zurücklegen n = 10, M = 20, N = 100 n = 20, M = 20, N = 100 Ziehen mit und ohne Zurücklegen II n = 5, M = 5, N = 25 n = 10, M = 5, N = 25 f() Binomial Hypergeometrisch f() Binomial Hypergeometrisch f() Binomial Hypergeometrisch f() Binomial Hypergeometrisch n = 30, M = 20, N = 100 n = 40, M = 20, N = 100 n = 15, M = 5, N = 25 n = 20, M = 5, N = 25 f() Binomial Hypergeometrisch f() Binomial Hypergeometrisch f() Binomial Hypergeometrisch f() Binomial Hypergeometrisch Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Vergleich der hypergeometrischen und binomialen Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Vergleich der hypergeometrischen und binomialen
24 Approimation der hypergeometrischen Verteilung Beispiel: Capture-Recapture-Eperiment Für N groß und n klein läßt sich die hypergeometrische Verteilung gut durch die Binomialverteilung approimieren: ( H(n, M, N) B n, π = M ) N Frage: Idee : Wie viele Fische schwimmen in einem See? Fange M Fische, markiere diese und wirf sie dann wieder (lebendig) in den See zurück. Später werden n Fische gefangen. Die ZV X := Anzahl der markierten Fische ist idealerweise hypergeometrisch verteilt mit Parametern N, M und n: X H(n, N, M) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel: Capture-Recapture-Eperiment II Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel Statistisches Problem: Wie groß ist N? Naiver Ansatz zur Konstruktion eines Schätzers ˆN von N: Probleme: N M n Im Allgemeinen ˆN / N ˆN n M Keine Angaben über die Genauigkeit der Schätzung Später mehr dazu. Ein Lehrer bittet seine Schüler, eine (faire) Münze zweimal zu werfen, und das Ergebnis ( Kopf = 0, Zahl = 1) für jeden Wurf zu notieren. Sei X das Ergebnis des ersten Wurfes und Y das Ergebnis des zweiten Wurfes. Ein gewissenhafter Schüler folgt genau den Anweisungen des Lehrers und notiert das Ergebnis X G und Y G. Ein fauler Schüler wirft nur eine Münze und notiert das erzielte Ergebnis zweimal: X F und Y F. Berechne die gemeinsame Wahrscheinlichkeitsfunktion von (X G, Y G ) und von (X F, Y F ). Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
25 4.5 Bedingte Wahrscheinlichkeiten Bedingte Verteilungen von diskreten ZVn Die bedingte Verteilungsfunktion und bedingte Wahrscheinlichkeitsfunktion von X, gegeben Y = y, sind definiert für alle y mit P(Y = y) > 0: F X Y ( y) = P(X, Y = y) P(X Y = y) = P(Y = y) f X Y ( y) = P(X =, Y = y) P(X = Y = y) = P(Y = y) = f X,Y (, y) f Y (y) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Folgerungen Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel Es gilt immer: f X,Y (, y) = f X Y ( y) f Y (y) = f Y X (y ) f X () Es folgt: X und Y sind genau dann unabhängig wenn f X,Y (, y) Y = 1 Y = 0 Y = X = X = X = für alle und y gilt. f X Y ( y) = f X () oder f Y X (y ) = f Y (y) Man berechne die Randverteilungen f X () und f Y (y), die bedingten Verteilungen f X Y ( y) und f Y X (y ) und untersuche X und Y auf Unabhängigkeit. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
26 Beispiel II Bedingte Verteilungen von stetige ZVn Betrachte zwei unabhängige ZV X und Y, die beide Poisson-verteilt sind mit Parameter λ bzw. µ. Betrachte die Zufallsvariablen X und Y mit gemeinsamer Dichte f X,Y (, y). Wir interessieren uns für die bedingte Verteilung von X gegeben Y = y. Definiere Z = X + Y. Man zeige: Die bedingte Verteilung von X Z = z ist binomial mit Parametern n = z und π = λ/(λ + µ): X Z = z B(z, π = λ/(λ + µ)) Problem: Es gilt P(Y = y) = 0 für alle y. Daher ist P(X Y = y) = nicht definiert. P(X und Y = y) P(Y = y) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Bedingte Verteilungs- und Dichtefunktion Man geht nun anders vor und betrachtet = = P(X y Y y + dy) P(X und y Y y + δ) P(y Y y + dy) f X,Y (u, y) δ du f Y (y) δ f X,Y (u, y) du f Y (y) }{{} ( ) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Bedingte Verteilungs- und Dichtefunktion II Man definiert nun: Die bedingte Verteilungsfunktion von X, gegeben Y = y ist F X Y ( y) = f X,Y (u, y) f Y (y) für alle y mit f Y (y) > 0. Die bedingte Dichte von X, gegeben Y = y ist somit f X Y ( y) = f X,Y (, y) f Y (y) du ( ) Dichtefunktion der bedingten Verteilung von X geg. Y = y Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
27 Beispiel Beispiel II Betrachten wir wieder die Zufallsvariablen X und Y mit gemeinsamer Dichte { 1 für 0 y 1 f X,Y (, y) = 0 sonst Für die bedingten Dichten von Y, gegeben X = ergibt sich: { 1 für 0 y f Y X (y ) = 0 sonst Für die bedingten Dichten von X, gegeben Y = y ergibt sich: f X Y ( y) = = 1 log( 1 y ) für y 1 { 1/( log(y)) für y 1 0 sonst d.h. Y X = ist gleichverteilt auf [0, ]. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Simulation über bedingte Verteilungen Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel: Standardnormalverteilung Bedingte Verteilungen sind sehr nützlich zum Simulieren aus gemeinsamen Verteilungen. Wegen f X,Y (, y) = f X Y ( y) f Y (y) (1) kann man zunächst eine Zufallsvariable Y = y aus der Randverteilung f Y (y) ziehen, und dann bedingt auf Y = y eine Zufallszahl aus der bedingten Verteilung f X Y ( y) ziehen. Oder andersherum: f X,Y (, y) = f Y X (y ) f X () (2) Im Beispiel ist Version (2) einfacher zu implementieren. Angenommen X und Y sind bivariat standardnormalverteilt. Dann ist ( ) 1 1 2π ep ρ 2 2 (1 ρ 2 ) (2 2ρy + y 2 ) f X Y ( y) = 1 2π ep ( 1 2 y 2) = also X Y = y N(ρ y, 1 ρ 2 ) ( 1 1 ep 1 2π 1 ρ 2 2 ( ρy) 2 ) (1 ρ 2 ) Analog erhält man Y X = N(ρ, 1 ρ 2 ) Simulation aus der bivariaten Standardnormalverteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
28 Verteilung einer diskreten und einer stetigen ZV Das Konzept von gemeinsamer und bedingter Verteilung lässt sich problemlos auch auf zwei Zufallsvariablen verallgemeinern, von denen eine diskret und eine stetig ist. Wir illustrieren dies hier an einem Beispiel: X Be(α, β) Y X B(n, π = X ) Beispiel: Die gemeinsame Verteilung Die gemeinsame Verteilung von X und Y ist f (, y) = f (y ) f () = = ( ) n y (1 ) n y y 1 B(α, β) 1 B(α, β) α 1 (1 ) β 1 ( ) n y+α 1 (1 ) n y+β 1 y für [0, 1] und y {0, 1,..., n}. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel: Die bedingte Verteilung von X Y = y Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel: Die Randverteilung von Y Für die bedingte Dichte f ( y) folgt: f ( y) = f (, y) f (y) ( ) y+α 1 (1 ) n y+β 1 also: X Y = y Be(α + y, β + n y) Bei ( ) haben wir ausgenützt, dass der Nenner f (y) in f ( y) = f (, y) f (y) nicht von abhängt, also für Y = y konstant ist. Damit folgt für f (y) = f (, y)/f ( y): ( ) n B(y + α, n y + β) f (y) = y B(α, β) = Γ(α + β) Γ(α) Γ(β) Γ(α + β + n) }{{} hängt nicht von y ab ( ) n Γ(α + y) Γ(β + n y) y für y = 0,..., n. Diese Verteilung heißt Beta-Binomialverteilung und hat die Parameter α und β: X BBe(α, β) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
29 Allgemeine Zufallsvektoren Die Trinomialverteilung Allgemeiner kann man natürlich auch einen Zufallsvektor X = (X 1,..., X n ) der Dimension n betrachten. Dieser hat dann die Wahrscheinlichkeitsfunktion und die Randverteilungen f X () = f X1,...,X n ( 1,..., n ) f Xi ( i ) = j :j i f X1,...,X n ( 1,..., n ) Ein Eperiment, bei dem ein von drei möglichen Ereignissen mit Wahrscheinlichkeit π 1, π 2 und π 3 (π 1 + π 2 + π 3 = 1) auftritt, wird unabhängig voneinander n-mal wiederholt. Sei X ein drei-dimensionaler Zufallsvektor, dessen i-te Komponente angibt, wie oft das i-te Ereignis eingetreten ist. Beispiel: In einer Population mit Häufigkeiten π 1, π 2 und π 3 der Genotypen aa, ab und bb wird eine Stichprobe vom Umfang n gezogen. Die Anzahlen X 1, X 2 und X 3 der drei Genotypen ist dann trinomialverteilt. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Trinomialverteilung II Ein drei-dimensionaler diskreter Zufallsvektor X heißt trinomialverteilt, falls er Träger T = { = ( 1, 2, 3 ) : i {0, 1,..., n} und = n} und Wahrscheinlichkeitsfunktion besitzt. f X () = f X1,X 2,X 3 ( 1, 2, 3 ) = n! 1! 2! 3! π 1 1 π 2 2 π 3 3 Man schreibt kurz: X M 3 (n, π = (π 1, π 2, π 3 )) Hierbei steht M 3 für Multinomialverteilung der Dimension 3. Man kann zeigen, dass für die Randverteilungen gilt: X i B(n, π i ) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Transformationsregel für E(g(X, Y )) Seien X und Y zwei ZV mit gemeinsamer Wahrscheinlichkeitsfunktion f XY (, y). Sei g(, y) eine reellwertige Funktion. Dann gilt für Z = g(x, Y ) E(Z) = E(g(X, Y )) = g(, y) f X,Y (, y). falls X und Y diskret und analog für X und Y stetig: E(Z) = E(g(X, Y )) = Speziell gilt daher: bzw. E(X Y ) = E(X Y ) = y g(, y) f X,Y (, y)ddy. y f X,Y (, y) y y f X,Y (, y)ddy. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
30 4.6 Kovarianzen und Korrelationen Kovarianzen und Korrelationen Einleitung Als Maße für die lineare stochastische Abhängigkeit von zwei diskreten oder zwei stetigen ZVn X und Y definiert man die Kovarianz und die Korrelation Cov(X, Y ) = E[(X E(X ))(Y E(Y ))] ρ = ρ(x, Y ) = Cov(X, Y ) Var(X ) Var(Y ) unter der Voraussetzung, dass Var(X ) > 0 und Var(Y ) > 0 gilt. Beachte: Cov(X, X ) = Var(X ) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Kovarianzen und Korrelationen II Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Der Verschiebungssatz für die Kovarianz Seien (X i, Y i ) (i = 1,..., n) iid Zufallsvariablen aus Verteilungen mit Erwartungswerten µ X, µ Y und eistierenden Varianzen. Dann gilt für S 2 XY = 1 n n (X i µ X )(Y i µ Y ), i=1 dass E(S 2 XY ) = Cov(X, Y ) und für n : S2 XY Cov(X, Y ) S 2 XY wird empirische Kovarianz genannt. Es gilt zudem: Cov(X, Y ) = E(XY ) E(X ) E(Y ) Beachte: E(XY ) kann mit Transformationssatz für Erwartungswerte leicht über die gemeinsame Wahrscheinlichkeitsfunktion f XY (, y) von X und Y berechnet werden. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
31 Beispiel revisited diskreter Fall Es ergibt sich: f X,Y (, y) Y = 1 Y = 0 Y = 2 f X () X = X = E(XY ) = E(X ) = E(Y ) = X = f Y (y) Cov(X, Y ) = = ρ = = Beispiel II stetiger Fall Betrachte f X,Y (, y) = { 1 für 0 y 1 0 sonst Die Randverteilungen von X und Y ergeben sich zu f X () = f Y (y) = 0 1 y 1 dy = 1 für d = log (1/y) für 0 y 1 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel II stetiger Fall Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die bivariate Standardnormalverteilung Man überprüft leicht, dass 1 0 f () d = 1 und 1 0 f (y) dy = 1 und daher f (, y) dy d = 1 Die Korrelation zwischen X und Y ergibt sich zu ρ(x, Y ) (Details in Vorlesung) Die bivariate ( zweidimensionale ) Standardnormalverteilung mit Parameter ρ ( ρ < 1) hat die Dichtefunktion ( f (, y) = 1 2π 1 ρ 2 ep 1 2 (1 ρ 2 ) (2 2ρy + y 2 ) Die Randverteilungen von X und Y sind (für jedes ρ) standard-normalverteilt. ) Die Korrelation zwischen X und Y ist gleich ρ. Aus Unkorreliertheit von X und Y folgt hier auch die Unabhängigkeit von X und Y. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
32 Höhenlinien der bivariaten Standardnormalverteilung y y y Höhenlinien der Dichtefunktion der bivariaten Standardnormalverteilung mit jeweils 500 Stichproben für ρ = 0 (links), ρ = 0.7 (Mitte) und ρ = 0.5 (rechts) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die bivariate Normalverteilung Die allgemeine bivariate Normalverteilung erhält man durch die linearen Transformationen einer bivariaten Standardnormalverteilung: X µ X + σ X X Y µ Y + σ Y Y Insgesamt fünf Parameter: µ X, µ Y, σ 2 X, σ2 Y, ρ Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Unkorreliertheit X und Y heißen unkorreliert, wenn Cov(X, Y ) = 0 bzw. ρ(x, Y ) = 0 d.h. wenn E(X Y ) = E(X ) E(Y ) gilt. Beachte: Aus Unabhängigkeit folgt Unkorreliertheit aber der Umkehrschluss gilt im Allgemeinen nicht! Man sagt: X und Y sind positiv/negativ korreliert falls ρ(x, Y ) > 0 bzw. ρ(x, Y ) < 0 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel Seien X B(π = 1 2 ) und Y B(π = 1 2 ) unabhängig. Betrachte Z 1 = X + Y = 0 mit Wkeit mit Wkeit mit Wkeit 1 4 Z 2 = X Y = 1 mit Wkeit mit Wkeit mit Wkeit 1 4 Dann sind Z 1 und Z 2 zwar unkorreliert aber nicht unabhängig! Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
33 Eigenschaften von Korrelationen Lineare Transformationen Für alle ZVn X und Y gilt: 1 ρ(x, Y ) 1 ρ(x, Y ) = 1 gilt genau dann, wenn perfekte lineare Abhängigkeit zwischen X und Y besteht: Y = a + b X für bestimmte a, b R mit b 0 Seien a, b, c, d R mit b d > 0 und X, Y beliebige ZVn. Dann gilt: Cov(a + bx, c + dy ) = b d Cov(X, Y ) Daher gilt: ρ(a + bx, c + dy ) = ρ(x, Y ) d.h. die Korrelation ist invariant bzgl. linearer Transformationen Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Varianz der Summe von zwei ZVn Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / Quantile Seien X und Y beliebige ZVn. Dann gilt für X + Y : Var(X + Y ) = Var(X ) + Var(Y ) + 2 Cov(X, Y ) Daher gilt speziell für unabhängige X und Y : Var(X + Y ) = Var(X ) + Var(Y ) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
34 Quantile diskrete ZVn Quantile diskrete ZVn II Sei X eine diskrete ZV mit Verteilungsfunktion F (), R. Sei p [0, 1]. Jeder Wert, für den P(X ) p und P(X ) 1 p gilt, heisst p-quantil p der Verteilung von X. Problem: Definition nicht immer eindeutig. Um Eindeutigkeit zu erreichen, definiert man: Das p-quantil p der Verteilung von X ist definiert als der kleinste Wert für den F () p gilt. Somit gilt P(X ) = F ( p ) p und daher p = F 1 (p) ( Inversion der Verteilungsfunktion ). Speziell nennt man das 0.5-Quantil den Median med der Verteilung. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Quantile stetige ZVn Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Interpretation vom Median und von Quantilen Wir nehmen an, dass der Träger der stetigen Zufallsvariable X ein Intervall ist. Somit ist die Umkehrfunktion F 1 (p) der Verteilungsfunktion F () von X eindeutig definiert. Das p-quantil der Verteilung von X ist definiert als der Wert p für den F () = p gilt. Somit gilt p = F 1 (p). Ist f () symmetrisch um einen Beim Median med gilt: P(X med ) 0.5 P(X med ) 0.5 Punkt c, so ist Med = c. Beispiel: Bei einer normalverteilten Zufallsvariable X N (µ, σ 2 ) ist Med = µ. Allgemeiner gilt für das p-quantil p : P(X p ) p P(X p ) 1 p Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143
8. Stetige Zufallsvariablen
8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
Mehr8 Stetige Zufallsvariablen
2 8 STETIGE ZUFALLSVARIABLEN 8 Stetige Zufallsvariablen 8. Definition von stetigen Zufallsvariablen Idee: Eine Zufallsvariable X heißt stetig, falls zu beliebigen Werten a < b aus dem Träger von X auch
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrP (X = 2) = 1/36, P (X = 3) = 2/36,...
2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrÜbung 1: Wiederholung Wahrscheinlichkeitstheorie
Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrZufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten
Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests
MehrETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
Mehr3. Kombinatorik und Wahrscheinlichkeit
3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrKapitel VI - Lage- und Streuungsparameter
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
MehrSpezielle stetige Verteilungen
Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für
MehrÜbungen zu Wahrscheinlichkeitstheorie und Statistik
Übungen zu Wahrscheinlichkeitstheorie und Statistik SS 2012 (Vorlesung von Prof. Reinhard Bürger) 1) Man gebe für die folgenden Experimente Wahrscheinlichkeitsmodelle an: (a) Wurf mit einer homogenen Münze,
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
Mehr1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
MehrKapitel 5. Stochastik
76 Kapitel 5 Stochastik In diesem Kapitel wollen wir die Grundzüge der Wahrscheinlichkeitstheorie behandeln. Wir beschränken uns dabei auf diskrete Wahrscheinlichkeitsräume Ω. Definition 5.1. Ein diskreter
MehrK8 Stetige Zufallsvariablen Theorie und Praxis
K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R
MehrÜbungsblatt 9. f(x) = e x, für 0 x
Aufgabe 1: Übungsblatt 9 Basketball. Ein Profi wirft beim Training aus einer Entfernung von sieben Metern auf den Korb. Er trifft bei jedem Wurf mit einer Wahrscheinlichkeit von p = 1/2. Die Zufallsvariable
MehrStetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch
6 Stetige Verteilungen 1 Kapitel 6: Stetige Verteilungen A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch dargestellt. 0.2 6
MehrStochastik und Statistik für Ingenieure Vorlesung 4
Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrÜbung zu Empirische Ökonomie für Fortgeschrittene SS 2009
Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte
Mehr2.1 Gemeinsame-, Rand- und bedingte Verteilungen
Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die
Mehr4 Diskrete Wahrscheinlichkeitsverteilungen
4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrKenngrößen von Zufallsvariablen
Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert
MehrKlausur Stochastik und Statistik 31. Juli 2012
Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf
MehrKapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung
Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion
MehrKapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion
Kapitel 12 Stetige Zufallsvariablen 12.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig
MehrInhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5
Inhaltsverzeichnis Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite 1.0 Erste Begriffsbildungen 1 1.1 Merkmale und Skalen 5 1.2 Von der Urliste zu Häufigkeitsverteilungen 9 1.2.0 Erste Ordnung
MehrKlausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1
Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne
MehrCopula Funktionen. Eine Einführung. Nils Friewald
Copula Funktionen Eine Einführung Nils Friewald Institut für Managementwissenschaften Abteilung Finanzwirtschaft und Controlling Favoritenstraße 9-11, 1040 Wien friewald@imw.tuwien.ac.at 13. Juni 2005
Mehr1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...
Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............
MehrMathematische Ökonometrie
Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch
MehrLösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die
MehrStatistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de
rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent
Mehr0, t 0,5
XIII. Die Normalverteilung ==================================================================. Der lokale Grenzwertsatz --------------------------------------------------------------------------------------------------------------
Mehrk np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr
Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p
MehrÜ b u n g s b l a t t 13
Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrBinomialverteilung. Statistik für SoziologInnen 1 Diskrete Verteilungsmodelle. Marcus Hudec
Binomialverteilung Jakob Bernoulli (1654-1705) Ars Conjectandi Klassisches Verteilungsmodell für die Berechnung der Wahrscheinlichkeit für die Häufigkeit des Eintretens von Ereignissen in bestimmten noch
MehrStatistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:
Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die
Mehr9 Die Normalverteilung
9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,
Mehr6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen
6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher: Diskrete Zufallsvariablen,
MehrUnivariates Datenmaterial
Univariates Datenmaterial 1.6.1 Deskriptive Statistik Zufallstichprobe: Umfang n, d.h. Stichprobe von n Zufallsvariablen o Merkmal/Zufallsvariablen: Y = {Y 1, Y 2,..., Y n } o Realisationen/Daten: x =
MehrSchätzer und Konfidenzintervalle
Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl
Mehrfalls rote Kugel im 1. Zug gezogen Die Ziehungen sind daher nicht unabhängig voneinander. Damit liegt kein Bernoulli-Prozess
6.4 Hypergeometrische Verteilung Gegeben ist eine Urne, die mit N Kugeln gefüllt ist. Es seien M dieser Kugeln rot und N-M Kugeln sind nicht rot. Wir entnehmen n Kugeln, d.h. Stichproben vom Umfang n.
MehrZusammenfassung Stochastik I + II
Zusammenfassung Stochastik I + II Stephan Kuschel Vorlesung von Dr. Nagel Stochastik I: WS 007/08 Stochastik II: SS 008 zuletzt aktualisiert: 7. Juli 009 Da diese Zusammenfassung den Menschen, die sie
MehrDieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.
Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.
MehrElementare Wahrscheinlichkeitsrechnung
Johann Pfanzagl Elementare Wahrscheinlichkeitsrechnung 2., überarbeitete und erweiterte Auflage W DE G Walter de Gruyter Berlin New York 1991 Inhaltsverzeichnis 1. Zufallsexperimente und Wahrscheinlichkeit
MehrStatistik Klausur Wintersemester 2012/2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik 1 1. Klausur Wintersemester 2012/2013 Hamburg, 19.03.2013 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................
Mehr3.3 Bedingte Wahrscheinlichkeit
28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit
MehrKlausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK
Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie
Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler 11. Mai 2011 Inhaltsverzeichnis 1 Deterministische und zufällige
MehrA: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen:
5 Diskrete Verteilungen 1 Kapitel 5: Diskrete Verteilungen A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen: 5 0.6 x 0.4 5 x (i) P x (x)
MehrAllgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)
Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich
MehrStatistik Workshop. 12. und 14. Januar Prof. Dr. Stefan Etschberger HSA
Workshop Mini-Einführung und Auffrischung zu einigen Teilen der angewandten 12. und 14. Prof. Dr. Stefan Etschberger HSA Outline 1 : Einführung Fehler durch Gute und schlechte Grafiken Begriff Grundbegriffe
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
MehrAbiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.
Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
MehrBeispiel: Zweidimensionale Normalverteilung I
10 Mehrdimensionale Zufallsvariablen Bedingte Verteilungen 10.6 Beispiel: Zweidimensionale Normalverteilung I Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale (multivariate) Normalverteilung
MehrWeihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012
Weihnachtszettel zur Vorlesung Stochastik I Wintersemester 0/0 Aufgabe. Der Weihnachtsmann hat vergessen die Weihnachtsgeschenke mit Namen zu beschriften und muss sie daher zufällig verteilen. Dabei enthält
Mehr2. Zufallsvariable, Verteilungsfunktion, Erwartungswert,
2. Zufallsvariable, Verteilungsfunktion, Erwartungswert, momentenerzeugende Funktion Ziel des Kapitels: Mathematische Präzisierung der Konzepte Zufallsvariable Verteilungsfunktion Dichtefunktion Erwartungswerte
Mehr11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient
11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen
MehrDiskrete Strukturen WiSe 2012/13 in Trier
Diskrete Strukturen WiSe 2012/13 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 11. Januar 2013 1 Diskrete Strukturen Gesamtübersicht Organisatorisches und Einführung Mengenlehre Relationen
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
Mehr1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6
Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte
MehrSTATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet
Kapitel 10 Zufall und Wahrscheinlichkeit 10.1. Grundbegriffe Wahrscheinlichkeitsrechnung Zufallsvorgang Klein-Omega ω Groß-Omega Ω Stellt Modelle bereit, die es erlauben zufallsabhängige Prozesse abzuschätzen
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrKapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen
Kapitel 5 Univariate Zufallsvariablen Im ersten Teil dieses Skriptes haben wir uns mit Daten beschäftigt und gezeigt, wie man die Verteilung eines Merkmals beschreiben kann. Ist man nur an der Population
MehrEinführung in die Statistik Gliederung zur Vorlesung im Sommersemester Markus Reiß Universität Heidelberg
Einführung in die Statistik Gliederung zur Vorlesung im Sommersemester 2005 Markus Reiß Universität Heidelberg 9. Januar 2006 Inhaltsverzeichnis 1 Diskrete Wahrscheinlichkeitsräume 1 1.1 Grundbegriffe.............................
MehrKlausur Stochastik und Statistik 18. September 2012
Klausur Stochastik und Statistik 18. September 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht
MehrWahrscheinlichkeitsrechnung und Quantentheorie
Physikalische Chemie II: Atombau und chemische Bindung Winter 2013/14 Wahrscheinlichkeitsrechnung und Quantentheorie Messergebnisse können in der Quantenmechanik ganz prinzipiell nur noch mit einer bestimmten
MehrAllgemeine Wahrscheinlichkeitsräume
Kapitel 3 Allgemeine Wahrscheinlichkeitsräume 3. Einleitung Wir hatten schon bemerkt, dass der Begriff des diskreten Wahrscheinlichkeitsraums nicht ausreicht, um das unendliche Wiederholen eines Zufallsexperiments
MehrSTETIGE VERTEILUNGEN
STETIGE VERTEILUNGEN. Die Näherungsformel von Moivre Laplace Betrachtet man die Binomialverteilungen Bnp für wachsendes n bei konstantem p, so werden die Histogramme einer binomialverteilten Zufallsvariablen
MehrInformatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 5. Erwartungswert E und Varianz V Literatur Kapitel 5 * Storrer: (37.9)-(37.12), (38.4), (40.6)-(40.9), (41.2) * Stahel: Kapitel 5 und 6 (nur
Mehrdie wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen
Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung
MehrTabelle 11.2 zeigt die gemeinsame Wahrscheinlichkeitsfunktion und die Randverteilungen
Kapitel 11 Stichprobenfunktionen Um eine Aussage über den Wert eines unbekannten Parameters θ zu machen, zieht man eine Zufallsstichprobe vom Umfang n aus der Grundgesamtheit. Das Merkmal wird in diesem
MehrI. Deskriptive Statistik 1
I. Deskriptive Statistik 1 1. Einführung 3 1.1. Grundgesamtheit und Stichprobe.................. 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................
Mehr1. Ziehg.: N M. falls nicht-rote K. in 1. Ziehg. gezogen
6.4 Hyergeometrische Verteilung Gegeben ist eine Urne, die mit N Kugeln gefüllt ist. Es seien M dieser Kugeln rot und N-M Kugeln nicht rot. Wir entnehmen n Kugeln, d.h. eine Stichrobe des Umfangs n. Dabei
MehrBedingte Wahrscheinlichkeiten und Unabhängigkeit
Kapitel 5 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Mitunter erhält man über das Ergebnis eines zufälligen Versuches Vorinformationen. Dann entsteht die Frage, wie sich für den Betrachter, den man
MehrDefinition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion
Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere
MehrÜbung zur Vorlesung Statistik I WS Übungsblatt 6
Übung zur Vorlesung Statistik I WS 2012-2013 Übungsblatt 6 26. November 2012 Aufgabe 17 (4 Punkte): Sei X B(n, p) eine binomial verteilte Zufallsvariable, die ein Zufallseperiment mit n unabhängigen Wiederholungen
MehrEinführung in die Induktive Statistik: Testen von Hypothesen
Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte
Mehr3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
MehrVorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:
Mehr9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe
Übungsmaterial 9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe 9. Erwartungswert Fragt man nach dem mittleren Wert einer Zufallsgröÿe X pro Versuch, so berechnet man den Erwartungswert
MehrGesetze der großen Zahlen
Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz
MehrAufgaben zu Kapitel 38
Aufgaben zu Kapitel 38 Aufgaben zu Kapitel 38 Verständnisfragen Aufgabe 38. Welche der folgenden vier Aussagen sind richtig:. Kennt man die Verteilung von X und die Verteilung von Y, dann kann man daraus
MehrTaylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe
Kapitel 9 Taylorreihen Josef Leydold c 2006 Mathematische Methoden IX Taylorreihen 1 / 25 Lernziele Taylorreihe und MacLaurinreihe Beispiele Alternative Schreibweisen Approimation der Veränderung einer
MehrLösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6
1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung
Mehr