4.1 Grundlagen: Diskrete & Stetige Zufallsvariablen. 4. Zufallsvariablen. Diskrete Zufallsvariablen (ZVn) Eine diskrete Zufallsvariable

Größe: px
Ab Seite anzeigen:

Download "4.1 Grundlagen: Diskrete & Stetige Zufallsvariablen. 4. Zufallsvariablen. Diskrete Zufallsvariablen (ZVn) Eine diskrete Zufallsvariable"

Transkript

1 4. Zufallsvariablen 4.1 Grundlagen: Diskrete & Stetige Zufallsvariablen Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Diskrete Zufallsvariablen (ZVn) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Eine diskrete Zufallsvariable Ergebnisse von Zufallsvorgängen sind nicht notwendigerweise Zahlen Oft ist es aber hilfreich diese durch Zahlen zu repräsentieren, um mit ihnen rechnen zu können Beispiel: 4-maliger Wurf einer Münze Ω = {Wappen, Zahl} 4 = {W, Z} 4 Ω = 2 4 = 16 z. B. ω = (W, Z, Z, W ) Angenommen man interessiert sich für X := Anzahl von Wappen Dann nennt man X eine Zufallsvariable (ZV) mit reellen Ausprägungen bzw. Realisierungen R. Man schreibt kurz X =, wenn die Ausprägung der ZV X eingetreten ist. X ist also eine Abbildung von Ω nach R. Also X : Ω R Die Menge der möglichen Ausprägungen {0,1,2,3,4} heißt Träger T der ZV X. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

2 Vorteile von Zufallsvariablen Definition 1 Man kann mit X rechnen : z. B. P(X a) oder P(X 2 > b) Oder: Welche Zahl erhalten wir im Mittel? 2 Ursprünglicher Wahrscheinlichkeitsraum (Ω, P) wird letztendlich nicht mehr benötigt, stattdessen Wahrscheinlichkeiten für Ausprägungen der ZV. Eine ZV X heißt diskret, falls sie nur endliche oder abzählbar unendlich viele Werte 1, 2,... annehmen kann. Die Menge T = { 1, 2,...} der möglichen Ausprägungen (d.h. alle i mit P(X = i ) > 0) von X heißt Träger der ZV X. Die Wahrscheinlichkeitsfunktion von X ist durch f ( i ) = P(X = i ) = P ({ω Ω : X (ω) = i }) für i R gegeben. Die Wahrscheinlichkeitsfunktion f ( i ) heißt auch Wahrscheinlichkeitsdichte. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Folgerungen Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Verteilungsfunktion 1 Für T ist f () = P{ } = 0. 2 Als Funktion von B R ist also P(X B) = P{ω Ω : X (ω) B} eine Wahrscheinlichkeitsverteilung auf R. Man nennt diese die Verteilung der Zufallsvariable X. Diese wird durch die Abbildung X und die Wahrscheinlichkeitsverteilung P induziert. Die Verteilungsfunktion einer diskreten ZV ist definiert als F () = P(X ) = i: i f ( i ) Kennt man also die Wahrscheinlichkeitsfunktion f () für alle T, so kennt man auch die Verteilungsfunktion F () (dies gilt auch umgekehrt). Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

3 Eigenschaften der Verteilungsfunktion Beispiel: 4-maliger Wurf einer Münze F () ist monoton wachsend ( Treppenfunktion ) F () ist stückweise konstant mit Sprungstellen an Werten i mit f ( i ) > 0, d.h. an allen Realisierungen i T lim F () = 1 lim F () = 0 X := Anzahl Kopf, T = {0, 1, 2, 3, 4} f (0) = 1/16 f (1) = 4/16 f (2) = 6/16 f (3) = 4/16 f (4) = 1/16 Beachte: f () = 0 für alle / T F () = 0 : < 0 1/16 : 0 < 1 5/16 : 1 < 2 11/16 : 2 < 3 15/16 : 3 < 4 1 : 4 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Wahrscheinlichkeits- und Verteilungsfunktion Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Stetige Zufallsvariablen: Einleitung f() F() Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse ist die Zufallsvariable, die den eakten Winkel angibt, an dem das Glücksrad stehen bleibt Wahrscheinlichkeitsfunktion (links) und Verteilungsfunktion (rechts) für den viermaligen Münzwurf Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

4 Definition von stetigen Zufallsvariablen Einige Folgerungen Eine Zufallsvariable X heißt stetig, wenn es eine Funktion f () 0 gibt, so dass sich die Verteilungsfunktion F () = P(X ) von X wie folgt darstellen lässt: F () = f (u) du Die Funktion f () heißt Wahrscheinlichkeitsdichte (kurz: Dichte oder Dichtefunktion) von X. Der Träger T von X ist die Menge aller Elemente R für die f () > 0 gilt. Beachte den Unterschied zu diskreten Zufallsvariablen! Hier gilt: F () = f ( i ) i: i P(X = ) = 0 für alle R P(X [a, b]) = + f () d = 1 b a f () d Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel: Die stetige Gleichverteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel: Die stetige Gleichverteilung II Eine Zufallsvariable X heißt stetig gleichverteilt auf dem Intervall [a, b], falls ihre Dichtefunktion die folgende Form hat: { 1 b a für [a, b] f () = 0 sonst Der Träger von X ist also T = [a, b]. Die Verteilungsfunktion F () von X ergibt sich zu 0 < a a F () = b a [a, b] 1 > b Man schreibt kurz: X U(a, b) f() Dichtefunktion (links) und Verteilungsfunktion (rechts) der stetigen Funktionen in R: Gleichverteilung für a = 2 und b = 6 dunif(...) berechnet die Dichtefunktion punif(...) berechnet die Verteilungsfunktion qunif(...) berechnet die Quantilsfunktion runif(...) erzeugt Zufallszahlen F() Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

5 Eigenschaften der Verteilungsfunktion Allgemeine Definition von stetigen ZVn 1 lim F () = 0 und lim F () = 1 2 An allen Stetigkeitsstellen von f () gilt: F () = f () 3 P(a X b) = F (b) F (a) Frage: Für welche Mengen B ist die Aussage P(X B) = f ()d überhaupt sinnvoll? B 4 P(X > a) = 1 F (a) etc. Sei F die Mengenfamilie aller offenen Intervalle in R. Dann gibt es eine sogenannte σ-algebra (eine spezielle Mengenfamilie) σ(f), die F enthält. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 σ-algebren Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Aiome von Kolmogorov Für eine σ-algebra σ(f) muss gelten: 1 und Ω σ(f) 2 Für A, B σ(f) ist auch B \ A σ(f). 3 Für A 1, A 2,... σ(f) ist auch n=1 n=1 A n σ(f) und A n σ(f). Ein Wahrscheinlichkeitsmaß P auf Ω wird nun mittels σ(f) definiert: Für alle paarweise disjunkten Mengen A 1, A 2,... σ(f) soll gelten (vgl. Aiom A3, Abschnitt 2.3): P( n=1a n ) = P(A n ) n=1 Ferner müssen natürlich auch A1 und A2 erfüllt sein: P( ) = 0 P(Ω) = 1 Aus P( ) = 0 folgt, dass A1 gilt. Begründung: Wenn P( ) = 0 P(A) 0, A. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

6 4.2 Wichtige Verteilungen Spezielle diskrete Verteilungen Man unterscheidet nun bestimmte gängige Verteilungen, die häufig von weiteren Parametern abhängen. Das einfachste Beispiel ist die Bernoulli-Verteilung. Eine Bernoulli-verteilte ZV kann nur die Werte 0 und 1 annehmen: P(X = 1) = f (1) = π P(X = 0) = f (0) = 1 π π [0, 1] ist der Parameter der Bernoulli-Verteilung. Man schreibt kurz: X B(π). Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die diskrete Gleichverteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die geometrische Verteilung Die allgemeine diskrete Gleichverteilung hat einen endlichen Träger T = { 1, 2,..., k }, wobei mit i = 1,..., k gilt. P(X = i ) = f ( i ) = 1 k Häufig sind alle natürlichen Zahlen zwischen a N und b N Element des Trägers T. Die Grenzen a und b sind dann die Parameter der diskreten Gleichverteilung. Beispiel: Augenzahl beim fairen Würfelwurf Ein Zufallsvorgang, bei dem mit Wahrscheinlichkeit π ein Ereignis A eintritt, wird unabhängig voneinander so oft wiederholt, bis zum ersten Mal A eintritt. Sei X die ZV Anzahl der Versuche bis zum ersten Mal A eintritt. Dann ist T = N und die Wahrscheinlichkeitsfunktion von X lautet: f () = (1 π) 1 π = 1, 2, 3,... π (0, 1) ist der Parameter der geometrischen Verteilung. Man schreibt kurz: X G(π). Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

7 Eine Variante der geometrischen Verteilung Wahrscheinlichkeits- und Verteilungsfunktion Sei Y := Anzahl der Versuche bevor das erste mal A eintritt, d.h. Y = X 1. Dann ist T = {0, 1, 2,...} f (y) = (1 π) y π Für diese Form gibt es folgende Funktionen in R: dgeom() berechnet Wahrscheinlichkeitsfunktion pgeom() berechnet Verteilungsfunktion rgeom() berechnet Zufallszahlen aus der geom. Verteilung f() π = 0.5 π = 0.3 F() π = 0.5 π = 0.3 Vergleich der geometrischen Wahrscheinlichkeitsfunktionen (links) und Verteilungsfunktionen (rechts) für die beiden Parameter π = 0.3 und π = 0.5 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Binomialverteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Wahrscheinlichkeits- und Verteilungsfunktion n = 10 n = 100 Bei einer Folge von Bernoulli-Eperimenten interessiert man sich häufig nur für die Anzahl X := n i=1 X i, wie oft X i = 1 aufgetreten ist. Diese ZV X heißt binomialverteilt mit Parametern n N, π [0, 1] und hat den Träger T = {0, 1,..., n} sowie die Wahrscheinlichkeitsfunktion: ( ) n P(X = ) = f () = π (1 π) n für T f() n = 10 π = 0.5 π = 0.3 f() n = 100 π = 0.5 π = 0.3 Man schreibt kurz X B(n, π) und es gilt B(1, π) = B(π). Funktionen in R: dbinom(), pbinom(), qbinom(), rbinom() F() π = 0.5 π = 0.3 F() π = 0.5 π = Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Vergleich der binomialen Wahrscheinlichkeitsfunktionen (oben) und

8 Beispiele Die Poisson-Verteilung Siméon Poisson [ ] Das Urnenmodell: Zufälliges Ziehen mit Zurücklegen einer Stichprobe von n Kugeln aus einer Urne mit N Kugeln, darunter M markierte. Sei X : Anzahl der markierten Kugeln in der Stichprobe. Dann: X B(n, M/N). Häufig gibt es zufällige Vorgänge, bei denen es keine natürliche obere Grenze für die Anzahl an Ereignissen gibt, z.b.: Die Anzahl an Telefonanrufen in einem Call-Center pro Stunde Die Anzahl der Tore in einem Bundesligaspiel Anzahl von Todesfällen durch Hufschlag in der Preußischen Armee (L. von Bortkiewicz, 1893) Die einfachste Verteilung für solche Phänomene ist die Poisson-Verteilung. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Poisson-Verteilung II Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Wahrscheinlichkeits- und Verteilungsfunktion Eine Zufallsvariable X folgt einer Poisson-Verteilung, wenn sie Träger T = N 0 und Wahrscheinlichkeitsfunktion f () = λ! ep( λ) hat. Der Parameter λ R + ist die durchschnittliche Rate oder die Intensität, mit der die Ereignisse in dem zugrundeliegenden Zeitintervall auftreten. Man schreibt kurz: X P(λ) Funktionen in R: {dpqr}pois f() λ = 3 λ = 1 F() Vergleich der Wahrscheinlichkeitsfunktionen (links) und Verteilungsfunktionen (rechts) für eine poissonverteilte Zufallsvariable mit dem Parameter λ = 1 bzw. λ = 3 λ = 3 λ = 1 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

9 Approimation der Binomialverteilung Vergleich von Binomial- und Poissonverteilung π = 0.8 π = 0.5 Die Binomialverteilung B(n, π) kann für großes n und kleines π gut durch die Poisson-Verteilung mit λ = n π approimiert werden. f() Poisson Binomial f() Poisson Binomial B(n, π) P(λ = n π) Je größer n ist und je kleiner π, desto besser ist die Approimation. f() π = 0.3 Poisson Binomial f() π = 0.1 Poisson Binomial Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Vergleich von Binomial- und Poissonverteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Wichtige stetige Verteilungen π = 0.8 π = 0.5 f() f() π = 0.3 Poisson Binomial Poisson Binomial f() f() π = 0.1 Poisson Binomial Poisson Binomial Im Folgenden werden wir nun wichtige stetige Verteilungen kennenlernen. Stetige Verteilungen hängen wie diskrete Verteilungen von einem oder mehreren Parametern ab. Zur Charakterisierung werden wir meist die Dichtefunktion und den Träger angeben. Eine Verteilung haben wir schon kennengelernt, die stetige Gleichverteilung mit Parametern a R und b R (a < b). Sie hat die Dichtefunktion f () = 1 b a und den Träger T = [a, b] Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

10 Die Eponentialverteilung Die Eponentialverteilung II Eine stetige Zufallsvariable X mit positivem Träger T = R + heißt eponentialverteilt mit Parameter λ R +, wenn sie die Dichte { λ ep( λ) für 0 f () = 0 sonst besitzt. Die Verteilungsfunktion ergibt sich zu { 1 ep( λ) für 0 F () = 0 für < 0 f() λ = 0.9 λ = 0.5 λ = 0.3 F() λ = 0.9 λ = 0.5 λ = 0.3 Notation: X E(λ) Funktionen in R: dep(), etc Dichtefunktion (links) und Verteilungsfunktion (rechts) der Eponentialverteilung mit verschiedenen Raten Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Gammaverteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Gammaverteilung II Die Gammaverteilung ist eine Verallgemeinerung der Eponentialverteilung. Sie hat auch den positiven Träger T = R +, aber einen Parameter mehr: Eine stetige Zufallsvariable X heißt gammaverteilt mit Parametern α R + und β R + (Notation: X G(α, β) ), falls sie die Dichte { β α f () = Γ(α) α 1 ep( β) für > 0 0 sonst besitzt. Hierbei ist Γ(α) die Gammafunktion f() α, β = (2, 3) α, β = (1.2, 3) α, β = (2, 6) α, β = (1.2, 6) F() Γ(α) = 0 α 1 ep( ) d wobei Γ( + 1) =! für = 0, 1, 2,... gilt Dichtefunktion (links) und Verteilungsfunktion (rechts) der Gammaverteilung mit verschiedenen Werten für α und β Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

11 Eigenschaften der Gammaverteilung Wieso ist bei der Gammaverteilung f (u)du = 1? Für α = 1 ergibt sich die Eponentialverteilung mit Parameter λ = β. Für α = d/2 mit d N und β = 1 2 ergibt sich die sogenannte χ 2 -Verteilung mit d Freiheitsgraden. Notation: X χ 2 (d) Verwendung der Substitutionsregel: f (g()) g () d = mit g() = β : f (z) dz Funktionen in R: Gammaverteilung: dgamma(, shape = α, rate = β), etc. χ 2 -Verteilung: dchisq(, df = Freiheitsgrade), etc. f () = βα Γ(α) α 1 ep( β) = = β Γ(α) g()α 1 ep( g()) 1 Γ(α) g()α 1 ep( g()) β }{{} g () Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Normalverteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Normalverteilung II Gaußsche Glockenkurve Eine Zufallsvariable X mit Träger T = R und Parametern µ R und σ 2 R + heißt normalverteilt, falls sie die Dichtefunktion f () = 1 ( 1 2π σ ep 1 ( µ) 2 ) 2 σ 2 für R hat. Für µ = 0 und σ 2 = 1 nennt man die Zufallsvariable standardnormalverteilt. Man schreibt kurz: X N (µ, σ 2 ) f() F() µ, σ = (0, 1) µ, σ = (2, 1) µ, σ = (0, 2) Dichtefunktion (links) und Verteilungsfunktion (rechts) der Normalverteilung mit verschiedenen Werten für µ und σ Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

12 Mehr zur Normalverteilung Funktionen in R: dnorm(...) berechnet die Dichtefunktion pnorm(...) berechnet die Verteilungsfunktion qnorm(...) berechnet die Quantilsfunktion rnorm(...) erzeugt Zufallszahlen Wieso ist bei der Normalverteilung f (u)du = 1? Man weiß aus der Analysis, dass für a > 0 gilt: π ep( a 2 2 ) d = a Beachte: F () = f (u) du ist nicht analytisch zugänglich (d.h. man findet keine Stammfunktion und braucht numerische Integration). Ferner kann man leicht zeigen, dass ( ep 1 ( µ) 2 ) 2 σ 2 d = für alle µ R gilt. ) ep ( 2 2σ 2 d Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Betaverteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Betaverteilung II Eine Zufallsvariable X mit Träger T = (0, 1) und Parametern α R + und β R + heißt betaverteilt (X Be(α, β) ), falls sie die Dichtefunktion { 1 B(α,β) f () = α 1 (1 ) β 1 für 0 < < 1 0 sonst besitzt. Hierbei ist die Betafunktion B(α, β) gerade so definiert, dass die Dichtefunktion die Normierungseigenschaft 1 0 f () d = 1 besitzt: B(α, β) = Γ(α)Γ(β) 1 Γ(α + β) = α 1 (1 ) β 1 d 0 f() F() α, β = (2, 3) α, β = (1.2, 3) α, β = (2, 6) α, β = (1.2, 6) Dichtefunktion (links) und Verteilungsfunktion (rechts) der Betaverteilung mit verschiedenen Werten für α und β Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

13 Die Betaverteilung III 4.3 Erwartungswerte und Varianzen Beachte: Für α = β = 1 erhält man die Gleichverteilung auf dem Intervall [0, 1]. Funktionen in R: dbeta(...) berechnet Dichtefunktion pbeta(...) berechnet Verteilungsfunktion qbeta(...) berechnet Quantilsfunktion rbeta(...) erzeugt Zufallszahlen Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Erwartungswerte und Varianzen Einleitung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Der Modus von Zufallsvariablen Zur Charakterisierung von Verteilungen unterscheidet man Lagemaße Erwartungswert ( mittlerer Wert ) Modus Median Ein Modus einer Zufallsvariable X ist ein Wert Mod, für den für alle T gilt: f ( Mod ) f () Der Modus ist nicht notwendigerweise eindeutig, noch muss er eistieren. und Streuungsmaße Varianz und Standardabweichung mittlere absolute Abweichung (MAD) Am einfachsten mathematisch zu handhaben sind Erwartungswerte und Varianzen, da diese immer eindeutig und meist leicht zu berechnen sind. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

14 Beispiele Der Erwartungswert einer diskreten ZV 1 Der Modus der Betaverteilung ist für α > 1 und β > 1 eindeutig gleich Mod = α 1 α + β 2 2 Der Modus der Eponentialverteilung ist gleich Null. 3 Der Modus der Normalverteilung ist µ. 4 Der Modus der Gammaverteilung ist für α > 1 eindeutig gleich Für α < 1 eistieren keine Modi. Mod = α 1 β Der Erwartungswert E(X ) = EX einer diskreten ZV X mit Träger T ist definiert als E(X ) = T P(X = ) = T wenn diese Summe absolut konvergent ist. f () Beachte: Man könnte die Summe auch über alle R laufen lassen. Beispiele für Erwartungswerte: Bernoulli-Verteilung: Für X B(π) ist E(X ) = π. Poisson-Verteilung: Für X P(λ) ist E(X ) = λ. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Der Erwartungswert einer stetigen ZV Der Erwartungswert einer stetigen Zufallsvariable X ist definiert als E(X ) = f () d unter der Voraussetzung, dass die Funktion f () absolut integrierbar ist: f () d = f () d < Andernfalls sagt man, der Erwartungswert von X eistiert nicht bzw. ist unendlich. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Eigenschaften des Erwartungswertes 1 Sei X = a mit Wahrscheinlichkeit 1 (deterministische ZV). Dann gilt: E(X ) = a 2 Ist f () symmetrisch um einen Punkt c, d.h. dann ist E(X ) = c. f (c ) = f (c + ) T 3 Seien a, b R und X, Y beliebige ZV. Dann gilt: E(a X + b Y ) = a E(X ) + b E(Y ) Linearität des Erwartungswertes 4 Für beliebige a, b R gilt daher E(aX + b) = a E(X ) + b Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

15 Eigenschaften des Erwartungswertes II Transformationsregel für Erwartungswerte Allgemeiner gilt dann natürlich auch für beliebige a 1,..., a n R und beliebige ZV X 1,..., X n : ( n ) n E a i X i = a i E(X i ) i=1 i=1 Daher gilt für X B(n, π): E(X ) = nπ Sei X diskrete ZV und g() eine reelle Funktion. Dann gilt für Y = g(x ): Im stetigen Fall: E[g(X )] = E(Y ) = E(g(X )) = T g()f () d g() f () für eine beliebige Funktion g : R R Beachte: Im Allgemeinen gilt nicht: E(g(X )) = g(e(x ))! Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Erwartungswert von ZVn mit Träger N Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel Hat X den Träger T = N, so gilt: Anwendung: E(X ) = P(X k) k=1 Erwartungswert der geometrischen Verteilung: Ist X G(π) so gilt: E(X ) = 1 π Sei X eine ZV mit folgender Wahrscheinlichkeitsfunktion 1/4 für = 2 1/8 für = 1 f () = 1/4 für = 1 3/8 für = 3 Berechne den Erwartungswert von E(X 2 ) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

16 Varianzen und Standardabweichungen Eigenschaften von Varianzen Die Varianz Var(X ) (auch V(X )) einer diskreten ZV ist definiert als: Var(X ) = E[(X EX ) 2 ] Erwartete quadratische Abweichung vom Erwartungswert Die Varianz einer stetigen Zufallsvariable definiert man analog: Var(X ) = E[X E(X )] 2 = E[X µ] 2 = ( µ) 2 f () d mit µ = E(X ). Beachte: Auch die Varianz kann nicht eistieren, d.h. unendlich sein. Eistiert der Erwartungswert nicht, so eistiert auch die Varianz nicht. 1 Zur einfacheren Berechnung kann man häufig den Verschiebungssatz verwenden: Var(X ) = E(X 2 ) [E(X )] 2 2 Var(aX + b) = a 2 Var(X ) für alle a, b R 3 Sind X und Y unabhängig, so gilt: Var(X + Y ) = Var(X ) + Var(Y ) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Standardabweichung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel: Binomialverteilung Ist X B(n, π), so gilt für die Varianz: Die Standardabweichung einer ZV X ist definiert als die Wurzel aus der Varianz: σ = σ(x ) = + Var(X ) Im Gegensatz zur Varianz gilt für die Standardabweichung: σ(ax + b) = a σ(x ) Bemerkung: Die mittlere absolute Abweichung E( X EX ) erscheint als Streuungsmaß intuitiver, ist aber deutlich schwerer mathematisch zu handhaben. π(1 π) Var(X ) = n π (1 π) π Varianz der Bernoulliverteilung als Funktion von π Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

17 Beispiel: Varianz der stetigen Gleichverteilung Erwartungswerte und Varianzen stetiger Verteilungen Zunächst gilt E(X 2 ) = 1 3 b3 a 3 b a und mit dem Verschiebungssatz ergibt sich: Var(X ) = EX 2 (EX ) 2 = (b a)2 12 Die Varianz wächst also quadratisch und die Standardabweichung somit linear mit der Breite b a des Trägers. Name Symbol E(X ) Var(X ) Gleichverteilung X U(a, b) a+b 2 Eponentialverteilung X E(λ) 1 λ Gammaverteilung X G(α, β) α β (b a) 2 12 Normalverteilung X N (µ, σ 2 ) µ σ 2 Betaverteilung X Be(α, β) α α+β 1 λ 2 α β 2 α β (α+β) 2 (α+β+1) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Ungleichung von Tschebyscheff Als Maß für die Streuung einer Verteilung ist die Varianz bzw. Standardabweichung einer ZV X schwer direkt zu interpretieren. Es gilt aber zumindest folgende Ungleichung: Beispiel: P( X E(X ) c) Var(X ) c 2 Sei E(X ) beliebig und Var(X ) = 1. Dann ist P( X E(X ) 1) 1 P( X E(X ) 2) 1 4 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Das Gesetz der großen Zahlen Das Gesetz der großen Zahlen ist eine Aussage über das arithmetische Mittel X n = 1 n X i n für n, wobei die X i (i = 1,..., n) unabhängig und identisch verteilte Zufallsvariablen (engl.: iid = independent and identically distributed ) aus einer Verteilung mit Erwartungswert µ und Varianz σ 2 sind. Es gilt: E( X n ) = µ und Var( X n ) = 1 n σ2 Daher folgt sofort für n : X n µ und Var( X n ) 0 Das arithmetische Mittel konvergiert gegen den Erwartungswert. Dies funktioniert nicht bei der Cauchy-Verteilung! i=1 P( X E(X ) 3) 1 9 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

18 Beispiel: Normalverteilung Beispiel: Cauchyverteilung Arithmetisches Mittel Arithmetisches Mittel Arithmetisches Mittel für standardnormalverteilte ZV n Arithmetisches Mittel für cauchyverteilte ZV n Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Stichprobenvarianz Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Der Transformationssatz für Dichten Seien X i (i = 1,..., n) wieder iid Zufallsvariablen aus einer Verteilung mit Erwartungswert µ und Varianz σ 2. Dann gilt für S 2 = 1 n n (X i µ) 2, i=1 dass E(S 2 ) = σ 2 und für n : S 2 σ 2 Wenn µ unbekannt ist und durch X n ersetzt werden muss ist allerdings E(S 2 ) σ 2. Für S 2 = 1 n n 1 i=1 (X i X n ) 2 gilt die Gleichheit wieder. Mehr dazu in Kapitel 5. Sei X eine stetige Zufallsvariable mit Dichte f X (). Betrachte nun die Zufallsvariable Y = g(x ), wobei z.b. Y = ep(x ), Y = X 2,... Frage: Wie lautet die Dichte f Y (y) von Y? Für eine streng monotone und differenzierbare Funktion g gilt der Transformationssatz für Dichten: Beweis über die Verteilungsfunktion F Y (y) von Y in der Vorlesung. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

19 Beispiel: Das Quadrat einer Standardnormalverteilung Beispiel: Erzeugung eponentialverteilter Zufallsvariablen Wie lautet die Dichte von Y = X 2, falls X N (0, 1)? Betrachte zunächst Z = X. Z hat offensichtlich die Dichte Betrachte X U[0, 1] und Y = log(x ), also g() = log(x ). Die Umkehrfunktion und deren Ableitung lauten: f (z) = 2 2π ep( 1 2 z2 ) für z > 0 und 0 sonst g 1 (y) = ep( y) dg 1 (y) dy = ep( y) Nun ist X 2 = Y = Z 2 = g(z) und g monoton wachsend auf dem Wertebereich R +. Es ergibt sich (y = z 2 z = y) f (y) = 1 y ep( 2π 2 y) Dies entspricht der Dichte einer G(0.5, 0.5), also einer χ 2 -Verteilung mit 1 Freiheitsgrad: Y = X 2 χ 2 1 Durch Anwendung des Transformationssatzes für Dichten erhält man: f Y (y) = 1 ep( y) = ep( y) Es gilt: Y E(λ = 1)! Dies ist also eine einfache Art, eponentialverteilte Zufallsvariablen zu erzeugen! Allgemeiner liefert Y = 1 λ log() Zufallszahlen aus einer Eponentialverteilung mit Parameter λ : Y E(λ) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Inversions-Methode Allgemeiner kann man die Inversions-Methode zur Erzeugung von Zufallszahlen aus einer beliebigen stetigen Verteilung mit Verteilungsfunktion F () verwenden: Erzeuge stetig gleichverteilte Zufallsvariablen U 1,..., U n auf dem Intervall [0, 1]. Dann sind X i = F 1 (U i ), i = 1,..., n Zufallszahlen aus der gewünschten Verteilung. Beweis: Die Dichte von X i ergibt sich zu: f X () = f U (F ()) F () = f () }{{}}{{} =1 f () Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel: Zufallszahlen aus der Cauchy-Verteilung Dichte- und Verteilungsfunktion der Cauchy-Verteilung sind: f () = 1 π und F () = arctan() π Die inverse Verteilungsfunktion ist somit: [ ( F 1 (y) = tan π y 1 )] 2 Zufallszahlen aus der Cauchy-Verteilung lassen sich also leicht erzeugen, indem man U 1,..., U n aus U[0, 1] erzeugt und tan [ π ( U i 1 )] 2 berechnet. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

20 Der zentrale Grenzwertsatz Standardisierte Zufallsvariablen Aussage, dass - unter Regularitätsbedingungen - das arithmetische Mittel, geeignet standardisiert, von beliebigen unabhängig und identisch verteilten Zufallsvariablen gegen die Standardnormalverteilung konvergiert. Begründet die zentrale Rolle der Normalverteilung in der Stochastik. Zunächst müssen wir noch standardisierte Zufallsvariablen definieren. Jede Zufallsvariable X mit endlichem Erwartungswert µ = E(X ) und endlicher Varianz σ 2 = Var(X ) kann man derart linear transformieren, dass sie Erwartungswert 0 und Varianz 1 besitzt: Dann gilt: X = X µ σ E( X ) = 1 (E(X ) µ) = 0 σ Var( X ) = 1 σ 2 Var(X ) = 1 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Standardisierung von Summen von iid ZVn Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Der zentrale Grenzwertsatz (ZGWS) Betrachte iid Zufallsvariablen X 1, X 2,..., X n mit endlichem Erwartungswert µ = E(X i ) und endlicher Varianz σ 2 = Var(X i ). Für die Summe Y n = X 1 + X X n gilt offensichtlich: Für die standardisierte Summe E(Y n ) = n µ Var(Y n ) = n σ 2 Z n = Y n nµ n σ = 1 n n i=1 X i µ σ Die Verteilungsfunktion F n (z) von Z n konvergiert für n an jeder Stelle z R gegen die Verteilungsfunktion Φ(z) der Standardnormalverteilung. Schreibweise: F n (z) Φ(z) für n und alle z R a bzw. kurz Z n N (0, 1) (a = asymptotisch ) In der Prais kann man also die Verteilung von Z n für große n gut durch eine Standardnormalverteilung approimieren. gilt somit E(Z n ) = 0 und Var(Z n ) = 1. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

21 Bemerkungen Beispiel: Bernoulliverteilung der ZGWS gilt sowohl für stetige als auch für diskrete ZV X i X i kann beliebig schiefe Verteilungen haben, z.b. X i E(λ) Seien X i B(π), i = 1,..., n und unabhängig. Dann ist Y n = n i=1 X i B(n, π) und asymptotisch gilt: Y n n π n π(1 π) a N (0, 1) Die Standardisierung ist nicht notwendig zur Formulierung des ZGWS. Alternativ kann man auch direkt Y n = X X n betrachten. Dann gilt Y n a N (n µ, n σ 2 ) bzw. Y n a N (n π, n π(1 π)) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / Stochastische Unabhängigkeit Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Unabhängigkeit von Zufallsvariablen Betrachte zwei diskrete ZVn X und Y auf dem Wahrscheinlichkeitsraum (Ω, P) mit Träger T X = { 1, 2,...} und T Y = {y 1, y 2,...} und Wahrscheinlichkeitsfunktionen f X () und f Y (y). Die Funktion f X,Y (, y) = P(X = und Y = y) = P(X =, Y = y) heißt gemeinsame Wahrscheinlichkeitsfunktion der zwei Zufallsvariablen X und Y. Unter Unabhängigkeit kann man diese zurückführen auf die beiden Wahrscheinlichkeitsfunktionen f X () und f Y (y). Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

22 Die gemeinsame Verteilung zweier ZVn Die gemeinsame Verteilungsfunktion zweier Zufallsvariablen X und Y ist die Funktion F (, y) = P(X und Y y) Alternativ kann man die gemeinsame Verteilung von X und Y auch über deren gemeinsame Dichtefunktion f (, y) definieren, wobei F (, y) = y v= für alle, y R für stetige ZVn und F (, y) = u= {u T X u } {v T Y v y} f (u, v) du dv f (u, v) Eigenschaften von f (, y) und F (, y) Für f (, y) stetig gilt: f (, y) ist normiert: d 2 F (, y) d dy + + = f (, y) f (, y) d dy = 1 Bemerkung: Manchmal schreiben wir eplizit F X,Y für F und f X,Y für f. für alle T X, y T Y für diskrete ZVn gelten muss. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Randverteilungen einer Funktion Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Unabhängigkeit Definition ZVn X, Y heißen unabhängig, genau dann, wenn Die Dichten der Randverteilungen sind gegeben durch: f X () = y f X () = + f X,Y (, y), f Y (y) = f (, y) dy, f Y (y) = f X,Y (, y) im diskreten Fall und + f (, y) d im stetigen Fall Die gemeinsame Verteilung von X und Y enthält i. A. mehr Information als in den Randverteilungen von X und Y steckt! F X,Y (, y) = F X () F Y (y) bzw. f X,Y (, y) = f X () f Y (y) bzw. P(X =, Y = y) = P(X = ) P(Y = y) T X und y T Y im diskreten Fall,, y R im stetigen Fall. Allgemein: ZVn X 1, X 2,..., X n heißen unabhängig, falls P(X 1 = 1,..., X n = n ) = n n P(X i = i ) = f Xi ( i ) i=1 i=1 für alle 1, 2,..., n aus den entsprechenden Trägern gilt. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

23 Beispiel: Bernoulli-Kette Sind X 1, X 2,..., X n Bernoulli-verteilt mit Parameter π und unabhängig, so heißt X = (X 1, X 2,..., X n ) Bernoulli-Folge. Beispiel: n = 3, π = 1 6 ; wegen der Unabhängigkeit gilt z. B. P(X 1 = 1, X 2 = 0, X 3 = 0) = 1 ( ) = Die hypergeometrische Verteilung Häufig wird jedoch im Urnenmodell ohne Zurücklegen gezogen, d. h. die Auswahlwahrscheinlichkeiten ändern sich von Ziehung zu Ziehung (Beispiel: Kartenspiele). Die Verteilung von X (Anzahl der markierten Kugeln) nennt man dann hypergeometrisch. Sie hat den Träger T = {ma(0, n (N M)),..., min(n, M)} und die Wahrscheinlichkeitsfunktion ( M )( N M ) n f () = ( N für T. n) Man schreibt kurz: X H(n, N, M) Funktionen in R: {dpqr}hyper() Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Ziehen mit und ohne Zurücklegen n = 10, M = 20, N = 100 n = 20, M = 20, N = 100 Ziehen mit und ohne Zurücklegen II n = 5, M = 5, N = 25 n = 10, M = 5, N = 25 f() Binomial Hypergeometrisch f() Binomial Hypergeometrisch f() Binomial Hypergeometrisch f() Binomial Hypergeometrisch n = 30, M = 20, N = 100 n = 40, M = 20, N = 100 n = 15, M = 5, N = 25 n = 20, M = 5, N = 25 f() Binomial Hypergeometrisch f() Binomial Hypergeometrisch f() Binomial Hypergeometrisch f() Binomial Hypergeometrisch Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Vergleich der hypergeometrischen und binomialen Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Vergleich der hypergeometrischen und binomialen

24 Approimation der hypergeometrischen Verteilung Beispiel: Capture-Recapture-Eperiment Für N groß und n klein läßt sich die hypergeometrische Verteilung gut durch die Binomialverteilung approimieren: ( H(n, M, N) B n, π = M ) N Frage: Idee : Wie viele Fische schwimmen in einem See? Fange M Fische, markiere diese und wirf sie dann wieder (lebendig) in den See zurück. Später werden n Fische gefangen. Die ZV X := Anzahl der markierten Fische ist idealerweise hypergeometrisch verteilt mit Parametern N, M und n: X H(n, N, M) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel: Capture-Recapture-Eperiment II Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel Statistisches Problem: Wie groß ist N? Naiver Ansatz zur Konstruktion eines Schätzers ˆN von N: Probleme: N M n Im Allgemeinen ˆN / N ˆN n M Keine Angaben über die Genauigkeit der Schätzung Später mehr dazu. Ein Lehrer bittet seine Schüler, eine (faire) Münze zweimal zu werfen, und das Ergebnis ( Kopf = 0, Zahl = 1) für jeden Wurf zu notieren. Sei X das Ergebnis des ersten Wurfes und Y das Ergebnis des zweiten Wurfes. Ein gewissenhafter Schüler folgt genau den Anweisungen des Lehrers und notiert das Ergebnis X G und Y G. Ein fauler Schüler wirft nur eine Münze und notiert das erzielte Ergebnis zweimal: X F und Y F. Berechne die gemeinsame Wahrscheinlichkeitsfunktion von (X G, Y G ) und von (X F, Y F ). Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

25 4.5 Bedingte Wahrscheinlichkeiten Bedingte Verteilungen von diskreten ZVn Die bedingte Verteilungsfunktion und bedingte Wahrscheinlichkeitsfunktion von X, gegeben Y = y, sind definiert für alle y mit P(Y = y) > 0: F X Y ( y) = P(X, Y = y) P(X Y = y) = P(Y = y) f X Y ( y) = P(X =, Y = y) P(X = Y = y) = P(Y = y) = f X,Y (, y) f Y (y) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Folgerungen Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel Es gilt immer: f X,Y (, y) = f X Y ( y) f Y (y) = f Y X (y ) f X () Es folgt: X und Y sind genau dann unabhängig wenn f X,Y (, y) Y = 1 Y = 0 Y = X = X = X = für alle und y gilt. f X Y ( y) = f X () oder f Y X (y ) = f Y (y) Man berechne die Randverteilungen f X () und f Y (y), die bedingten Verteilungen f X Y ( y) und f Y X (y ) und untersuche X und Y auf Unabhängigkeit. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

26 Beispiel II Bedingte Verteilungen von stetige ZVn Betrachte zwei unabhängige ZV X und Y, die beide Poisson-verteilt sind mit Parameter λ bzw. µ. Betrachte die Zufallsvariablen X und Y mit gemeinsamer Dichte f X,Y (, y). Wir interessieren uns für die bedingte Verteilung von X gegeben Y = y. Definiere Z = X + Y. Man zeige: Die bedingte Verteilung von X Z = z ist binomial mit Parametern n = z und π = λ/(λ + µ): X Z = z B(z, π = λ/(λ + µ)) Problem: Es gilt P(Y = y) = 0 für alle y. Daher ist P(X Y = y) = nicht definiert. P(X und Y = y) P(Y = y) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Bedingte Verteilungs- und Dichtefunktion Man geht nun anders vor und betrachtet = = P(X y Y y + dy) P(X und y Y y + δ) P(y Y y + dy) f X,Y (u, y) δ du f Y (y) δ f X,Y (u, y) du f Y (y) }{{} ( ) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Bedingte Verteilungs- und Dichtefunktion II Man definiert nun: Die bedingte Verteilungsfunktion von X, gegeben Y = y ist F X Y ( y) = f X,Y (u, y) f Y (y) für alle y mit f Y (y) > 0. Die bedingte Dichte von X, gegeben Y = y ist somit f X Y ( y) = f X,Y (, y) f Y (y) du ( ) Dichtefunktion der bedingten Verteilung von X geg. Y = y Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

27 Beispiel Beispiel II Betrachten wir wieder die Zufallsvariablen X und Y mit gemeinsamer Dichte { 1 für 0 y 1 f X,Y (, y) = 0 sonst Für die bedingten Dichten von Y, gegeben X = ergibt sich: { 1 für 0 y f Y X (y ) = 0 sonst Für die bedingten Dichten von X, gegeben Y = y ergibt sich: f X Y ( y) = = 1 log( 1 y ) für y 1 { 1/( log(y)) für y 1 0 sonst d.h. Y X = ist gleichverteilt auf [0, ]. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Simulation über bedingte Verteilungen Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel: Standardnormalverteilung Bedingte Verteilungen sind sehr nützlich zum Simulieren aus gemeinsamen Verteilungen. Wegen f X,Y (, y) = f X Y ( y) f Y (y) (1) kann man zunächst eine Zufallsvariable Y = y aus der Randverteilung f Y (y) ziehen, und dann bedingt auf Y = y eine Zufallszahl aus der bedingten Verteilung f X Y ( y) ziehen. Oder andersherum: f X,Y (, y) = f Y X (y ) f X () (2) Im Beispiel ist Version (2) einfacher zu implementieren. Angenommen X und Y sind bivariat standardnormalverteilt. Dann ist ( ) 1 1 2π ep ρ 2 2 (1 ρ 2 ) (2 2ρy + y 2 ) f X Y ( y) = 1 2π ep ( 1 2 y 2) = also X Y = y N(ρ y, 1 ρ 2 ) ( 1 1 ep 1 2π 1 ρ 2 2 ( ρy) 2 ) (1 ρ 2 ) Analog erhält man Y X = N(ρ, 1 ρ 2 ) Simulation aus der bivariaten Standardnormalverteilung Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

28 Verteilung einer diskreten und einer stetigen ZV Das Konzept von gemeinsamer und bedingter Verteilung lässt sich problemlos auch auf zwei Zufallsvariablen verallgemeinern, von denen eine diskret und eine stetig ist. Wir illustrieren dies hier an einem Beispiel: X Be(α, β) Y X B(n, π = X ) Beispiel: Die gemeinsame Verteilung Die gemeinsame Verteilung von X und Y ist f (, y) = f (y ) f () = = ( ) n y (1 ) n y y 1 B(α, β) 1 B(α, β) α 1 (1 ) β 1 ( ) n y+α 1 (1 ) n y+β 1 y für [0, 1] und y {0, 1,..., n}. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel: Die bedingte Verteilung von X Y = y Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel: Die Randverteilung von Y Für die bedingte Dichte f ( y) folgt: f ( y) = f (, y) f (y) ( ) y+α 1 (1 ) n y+β 1 also: X Y = y Be(α + y, β + n y) Bei ( ) haben wir ausgenützt, dass der Nenner f (y) in f ( y) = f (, y) f (y) nicht von abhängt, also für Y = y konstant ist. Damit folgt für f (y) = f (, y)/f ( y): ( ) n B(y + α, n y + β) f (y) = y B(α, β) = Γ(α + β) Γ(α) Γ(β) Γ(α + β + n) }{{} hängt nicht von y ab ( ) n Γ(α + y) Γ(β + n y) y für y = 0,..., n. Diese Verteilung heißt Beta-Binomialverteilung und hat die Parameter α und β: X BBe(α, β) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

29 Allgemeine Zufallsvektoren Die Trinomialverteilung Allgemeiner kann man natürlich auch einen Zufallsvektor X = (X 1,..., X n ) der Dimension n betrachten. Dieser hat dann die Wahrscheinlichkeitsfunktion und die Randverteilungen f X () = f X1,...,X n ( 1,..., n ) f Xi ( i ) = j :j i f X1,...,X n ( 1,..., n ) Ein Eperiment, bei dem ein von drei möglichen Ereignissen mit Wahrscheinlichkeit π 1, π 2 und π 3 (π 1 + π 2 + π 3 = 1) auftritt, wird unabhängig voneinander n-mal wiederholt. Sei X ein drei-dimensionaler Zufallsvektor, dessen i-te Komponente angibt, wie oft das i-te Ereignis eingetreten ist. Beispiel: In einer Population mit Häufigkeiten π 1, π 2 und π 3 der Genotypen aa, ab und bb wird eine Stichprobe vom Umfang n gezogen. Die Anzahlen X 1, X 2 und X 3 der drei Genotypen ist dann trinomialverteilt. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Trinomialverteilung II Ein drei-dimensionaler diskreter Zufallsvektor X heißt trinomialverteilt, falls er Träger T = { = ( 1, 2, 3 ) : i {0, 1,..., n} und = n} und Wahrscheinlichkeitsfunktion besitzt. f X () = f X1,X 2,X 3 ( 1, 2, 3 ) = n! 1! 2! 3! π 1 1 π 2 2 π 3 3 Man schreibt kurz: X M 3 (n, π = (π 1, π 2, π 3 )) Hierbei steht M 3 für Multinomialverteilung der Dimension 3. Man kann zeigen, dass für die Randverteilungen gilt: X i B(n, π i ) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Transformationsregel für E(g(X, Y )) Seien X und Y zwei ZV mit gemeinsamer Wahrscheinlichkeitsfunktion f XY (, y). Sei g(, y) eine reellwertige Funktion. Dann gilt für Z = g(x, Y ) E(Z) = E(g(X, Y )) = g(, y) f X,Y (, y). falls X und Y diskret und analog für X und Y stetig: E(Z) = E(g(X, Y )) = Speziell gilt daher: bzw. E(X Y ) = E(X Y ) = y g(, y) f X,Y (, y)ddy. y f X,Y (, y) y y f X,Y (, y)ddy. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

30 4.6 Kovarianzen und Korrelationen Kovarianzen und Korrelationen Einleitung Als Maße für die lineare stochastische Abhängigkeit von zwei diskreten oder zwei stetigen ZVn X und Y definiert man die Kovarianz und die Korrelation Cov(X, Y ) = E[(X E(X ))(Y E(Y ))] ρ = ρ(x, Y ) = Cov(X, Y ) Var(X ) Var(Y ) unter der Voraussetzung, dass Var(X ) > 0 und Var(Y ) > 0 gilt. Beachte: Cov(X, X ) = Var(X ) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Kovarianzen und Korrelationen II Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Der Verschiebungssatz für die Kovarianz Seien (X i, Y i ) (i = 1,..., n) iid Zufallsvariablen aus Verteilungen mit Erwartungswerten µ X, µ Y und eistierenden Varianzen. Dann gilt für S 2 XY = 1 n n (X i µ X )(Y i µ Y ), i=1 dass E(S 2 XY ) = Cov(X, Y ) und für n : S2 XY Cov(X, Y ) S 2 XY wird empirische Kovarianz genannt. Es gilt zudem: Cov(X, Y ) = E(XY ) E(X ) E(Y ) Beachte: E(XY ) kann mit Transformationssatz für Erwartungswerte leicht über die gemeinsame Wahrscheinlichkeitsfunktion f XY (, y) von X und Y berechnet werden. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

31 Beispiel revisited diskreter Fall Es ergibt sich: f X,Y (, y) Y = 1 Y = 0 Y = 2 f X () X = X = E(XY ) = E(X ) = E(Y ) = X = f Y (y) Cov(X, Y ) = = ρ = = Beispiel II stetiger Fall Betrachte f X,Y (, y) = { 1 für 0 y 1 0 sonst Die Randverteilungen von X und Y ergeben sich zu f X () = f Y (y) = 0 1 y 1 dy = 1 für d = log (1/y) für 0 y 1 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel II stetiger Fall Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die bivariate Standardnormalverteilung Man überprüft leicht, dass 1 0 f () d = 1 und 1 0 f (y) dy = 1 und daher f (, y) dy d = 1 Die Korrelation zwischen X und Y ergibt sich zu ρ(x, Y ) (Details in Vorlesung) Die bivariate ( zweidimensionale ) Standardnormalverteilung mit Parameter ρ ( ρ < 1) hat die Dichtefunktion ( f (, y) = 1 2π 1 ρ 2 ep 1 2 (1 ρ 2 ) (2 2ρy + y 2 ) Die Randverteilungen von X und Y sind (für jedes ρ) standard-normalverteilt. ) Die Korrelation zwischen X und Y ist gleich ρ. Aus Unkorreliertheit von X und Y folgt hier auch die Unabhängigkeit von X und Y. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

32 Höhenlinien der bivariaten Standardnormalverteilung y y y Höhenlinien der Dichtefunktion der bivariaten Standardnormalverteilung mit jeweils 500 Stichproben für ρ = 0 (links), ρ = 0.7 (Mitte) und ρ = 0.5 (rechts) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die bivariate Normalverteilung Die allgemeine bivariate Normalverteilung erhält man durch die linearen Transformationen einer bivariaten Standardnormalverteilung: X µ X + σ X X Y µ Y + σ Y Y Insgesamt fünf Parameter: µ X, µ Y, σ 2 X, σ2 Y, ρ Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Unkorreliertheit X und Y heißen unkorreliert, wenn Cov(X, Y ) = 0 bzw. ρ(x, Y ) = 0 d.h. wenn E(X Y ) = E(X ) E(Y ) gilt. Beachte: Aus Unabhängigkeit folgt Unkorreliertheit aber der Umkehrschluss gilt im Allgemeinen nicht! Man sagt: X und Y sind positiv/negativ korreliert falls ρ(x, Y ) > 0 bzw. ρ(x, Y ) < 0 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Beispiel Seien X B(π = 1 2 ) und Y B(π = 1 2 ) unabhängig. Betrachte Z 1 = X + Y = 0 mit Wkeit mit Wkeit mit Wkeit 1 4 Z 2 = X Y = 1 mit Wkeit mit Wkeit mit Wkeit 1 4 Dann sind Z 1 und Z 2 zwar unkorreliert aber nicht unabhängig! Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

33 Eigenschaften von Korrelationen Lineare Transformationen Für alle ZVn X und Y gilt: 1 ρ(x, Y ) 1 ρ(x, Y ) = 1 gilt genau dann, wenn perfekte lineare Abhängigkeit zwischen X und Y besteht: Y = a + b X für bestimmte a, b R mit b 0 Seien a, b, c, d R mit b d > 0 und X, Y beliebige ZVn. Dann gilt: Cov(a + bx, c + dy ) = b d Cov(X, Y ) Daher gilt: ρ(a + bx, c + dy ) = ρ(x, Y ) d.h. die Korrelation ist invariant bzgl. linearer Transformationen Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Die Varianz der Summe von zwei ZVn Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / Quantile Seien X und Y beliebige ZVn. Dann gilt für X + Y : Var(X + Y ) = Var(X ) + Var(Y ) + 2 Cov(X, Y ) Daher gilt speziell für unabhängige X und Y : Var(X + Y ) = Var(X ) + Var(Y ) Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

34 Quantile diskrete ZVn Quantile diskrete ZVn II Sei X eine diskrete ZV mit Verteilungsfunktion F (), R. Sei p [0, 1]. Jeder Wert, für den P(X ) p und P(X ) 1 p gilt, heisst p-quantil p der Verteilung von X. Problem: Definition nicht immer eindeutig. Um Eindeutigkeit zu erreichen, definiert man: Das p-quantil p der Verteilung von X ist definiert als der kleinste Wert für den F () p gilt. Somit gilt P(X ) = F ( p ) p und daher p = F 1 (p) ( Inversion der Verteilungsfunktion ). Speziell nennt man das 0.5-Quantil den Median med der Verteilung. Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Quantile stetige ZVn Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Interpretation vom Median und von Quantilen Wir nehmen an, dass der Träger der stetigen Zufallsvariable X ein Intervall ist. Somit ist die Umkehrfunktion F 1 (p) der Verteilungsfunktion F () von X eindeutig definiert. Das p-quantil der Verteilung von X ist definiert als der Wert p für den F () = p gilt. Somit gilt p = F 1 (p). Ist f () symmetrisch um einen Beim Median med gilt: P(X med ) 0.5 P(X med ) 0.5 Punkt c, so ist Med = c. Beispiel: Bei einer normalverteilten Zufallsvariable X N (µ, σ 2 ) ist Med = µ. Allgemeiner gilt für das p-quantil p : P(X p ) p P(X p ) 1 p Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe / 143

8. Stetige Zufallsvariablen

8. Stetige Zufallsvariablen 8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

8 Stetige Zufallsvariablen

8 Stetige Zufallsvariablen 2 8 STETIGE ZUFALLSVARIABLEN 8 Stetige Zufallsvariablen 8. Definition von stetigen Zufallsvariablen Idee: Eine Zufallsvariable X heißt stetig, falls zu beliebigen Werten a < b aus dem Träger von X auch

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Übung 1: Wiederholung Wahrscheinlichkeitstheorie Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests

Mehr

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig) ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

Kapitel VI - Lage- und Streuungsparameter

Kapitel VI - Lage- und Streuungsparameter Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Spezielle stetige Verteilungen

Spezielle stetige Verteilungen Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für

Mehr

Übungen zu Wahrscheinlichkeitstheorie und Statistik

Übungen zu Wahrscheinlichkeitstheorie und Statistik Übungen zu Wahrscheinlichkeitstheorie und Statistik SS 2012 (Vorlesung von Prof. Reinhard Bürger) 1) Man gebe für die folgenden Experimente Wahrscheinlichkeitsmodelle an: (a) Wurf mit einer homogenen Münze,

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Kapitel 5. Stochastik

Kapitel 5. Stochastik 76 Kapitel 5 Stochastik In diesem Kapitel wollen wir die Grundzüge der Wahrscheinlichkeitstheorie behandeln. Wir beschränken uns dabei auf diskrete Wahrscheinlichkeitsräume Ω. Definition 5.1. Ein diskreter

Mehr

K8 Stetige Zufallsvariablen Theorie und Praxis

K8 Stetige Zufallsvariablen Theorie und Praxis K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R

Mehr

Übungsblatt 9. f(x) = e x, für 0 x

Übungsblatt 9. f(x) = e x, für 0 x Aufgabe 1: Übungsblatt 9 Basketball. Ein Profi wirft beim Training aus einer Entfernung von sieben Metern auf den Korb. Er trifft bei jedem Wurf mit einer Wahrscheinlichkeit von p = 1/2. Die Zufallsvariable

Mehr

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch 6 Stetige Verteilungen 1 Kapitel 6: Stetige Verteilungen A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch dargestellt. 0.2 6

Mehr

Stochastik und Statistik für Ingenieure Vorlesung 4

Stochastik und Statistik für Ingenieure Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009 Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte

Mehr

2.1 Gemeinsame-, Rand- und bedingte Verteilungen

2.1 Gemeinsame-, Rand- und bedingte Verteilungen Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Kenngrößen von Zufallsvariablen

Kenngrößen von Zufallsvariablen Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert

Mehr

Klausur Stochastik und Statistik 31. Juli 2012

Klausur Stochastik und Statistik 31. Juli 2012 Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf

Mehr

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion

Mehr

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion Kapitel 12 Stetige Zufallsvariablen 12.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig

Mehr

Inhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5

Inhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5 Inhaltsverzeichnis Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite 1.0 Erste Begriffsbildungen 1 1.1 Merkmale und Skalen 5 1.2 Von der Urliste zu Häufigkeitsverteilungen 9 1.2.0 Erste Ordnung

Mehr

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1 Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne

Mehr

Copula Funktionen. Eine Einführung. Nils Friewald

Copula Funktionen. Eine Einführung. Nils Friewald Copula Funktionen Eine Einführung Nils Friewald Institut für Managementwissenschaften Abteilung Finanzwirtschaft und Controlling Favoritenstraße 9-11, 1040 Wien friewald@imw.tuwien.ac.at 13. Juni 2005

Mehr

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente... Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............

Mehr

Mathematische Ökonometrie

Mathematische Ökonometrie Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch

Mehr

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

0, t 0,5

0, t 0,5 XIII. Die Normalverteilung ==================================================================. Der lokale Grenzwertsatz --------------------------------------------------------------------------------------------------------------

Mehr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p

Mehr

Ü b u n g s b l a t t 13

Ü b u n g s b l a t t 13 Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben

Mehr

Binomialverteilung. Statistik für SoziologInnen 1 Diskrete Verteilungsmodelle. Marcus Hudec

Binomialverteilung. Statistik für SoziologInnen 1 Diskrete Verteilungsmodelle. Marcus Hudec Binomialverteilung Jakob Bernoulli (1654-1705) Ars Conjectandi Klassisches Verteilungsmodell für die Berechnung der Wahrscheinlichkeit für die Häufigkeit des Eintretens von Ereignissen in bestimmten noch

Mehr

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind: Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die

Mehr

9 Die Normalverteilung

9 Die Normalverteilung 9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,

Mehr

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen 6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher: Diskrete Zufallsvariablen,

Mehr

Univariates Datenmaterial

Univariates Datenmaterial Univariates Datenmaterial 1.6.1 Deskriptive Statistik Zufallstichprobe: Umfang n, d.h. Stichprobe von n Zufallsvariablen o Merkmal/Zufallsvariablen: Y = {Y 1, Y 2,..., Y n } o Realisationen/Daten: x =

Mehr

Schätzer und Konfidenzintervalle

Schätzer und Konfidenzintervalle Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl

Mehr

falls rote Kugel im 1. Zug gezogen Die Ziehungen sind daher nicht unabhängig voneinander. Damit liegt kein Bernoulli-Prozess

falls rote Kugel im 1. Zug gezogen Die Ziehungen sind daher nicht unabhängig voneinander. Damit liegt kein Bernoulli-Prozess 6.4 Hypergeometrische Verteilung Gegeben ist eine Urne, die mit N Kugeln gefüllt ist. Es seien M dieser Kugeln rot und N-M Kugeln sind nicht rot. Wir entnehmen n Kugeln, d.h. Stichproben vom Umfang n.

Mehr

Zusammenfassung Stochastik I + II

Zusammenfassung Stochastik I + II Zusammenfassung Stochastik I + II Stephan Kuschel Vorlesung von Dr. Nagel Stochastik I: WS 007/08 Stochastik II: SS 008 zuletzt aktualisiert: 7. Juli 009 Da diese Zusammenfassung den Menschen, die sie

Mehr

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen. Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.

Mehr

Elementare Wahrscheinlichkeitsrechnung

Elementare Wahrscheinlichkeitsrechnung Johann Pfanzagl Elementare Wahrscheinlichkeitsrechnung 2., überarbeitete und erweiterte Auflage W DE G Walter de Gruyter Berlin New York 1991 Inhaltsverzeichnis 1. Zufallsexperimente und Wahrscheinlichkeit

Mehr

Statistik Klausur Wintersemester 2012/2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Statistik Klausur Wintersemester 2012/2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Statistik 1 1. Klausur Wintersemester 2012/2013 Hamburg, 19.03.2013 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................

Mehr

3.3 Bedingte Wahrscheinlichkeit

3.3 Bedingte Wahrscheinlichkeit 28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit

Mehr

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler 11. Mai 2011 Inhaltsverzeichnis 1 Deterministische und zufällige

Mehr

A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen:

A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen: 5 Diskrete Verteilungen 1 Kapitel 5: Diskrete Verteilungen A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen: 5 0.6 x 0.4 5 x (i) P x (x)

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum) Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich

Mehr

Statistik Workshop. 12. und 14. Januar Prof. Dr. Stefan Etschberger HSA

Statistik Workshop. 12. und 14. Januar Prof. Dr. Stefan Etschberger HSA Workshop Mini-Einführung und Auffrischung zu einigen Teilen der angewandten 12. und 14. Prof. Dr. Stefan Etschberger HSA Outline 1 : Einführung Fehler durch Gute und schlechte Grafiken Begriff Grundbegriffe

Mehr

Vorlesung 8a. Kovarianz und Korrelation

Vorlesung 8a. Kovarianz und Korrelation Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere

Mehr

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc. Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Beispiel: Zweidimensionale Normalverteilung I

Beispiel: Zweidimensionale Normalverteilung I 10 Mehrdimensionale Zufallsvariablen Bedingte Verteilungen 10.6 Beispiel: Zweidimensionale Normalverteilung I Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale (multivariate) Normalverteilung

Mehr

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012 Weihnachtszettel zur Vorlesung Stochastik I Wintersemester 0/0 Aufgabe. Der Weihnachtsmann hat vergessen die Weihnachtsgeschenke mit Namen zu beschriften und muss sie daher zufällig verteilen. Dabei enthält

Mehr

2. Zufallsvariable, Verteilungsfunktion, Erwartungswert,

2. Zufallsvariable, Verteilungsfunktion, Erwartungswert, 2. Zufallsvariable, Verteilungsfunktion, Erwartungswert, momentenerzeugende Funktion Ziel des Kapitels: Mathematische Präzisierung der Konzepte Zufallsvariable Verteilungsfunktion Dichtefunktion Erwartungswerte

Mehr

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient 11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen

Mehr

Diskrete Strukturen WiSe 2012/13 in Trier

Diskrete Strukturen WiSe 2012/13 in Trier Diskrete Strukturen WiSe 2012/13 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 11. Januar 2013 1 Diskrete Strukturen Gesamtübersicht Organisatorisches und Einführung Mengenlehre Relationen

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte

Mehr

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet Kapitel 10 Zufall und Wahrscheinlichkeit 10.1. Grundbegriffe Wahrscheinlichkeitsrechnung Zufallsvorgang Klein-Omega ω Groß-Omega Ω Stellt Modelle bereit, die es erlauben zufallsabhängige Prozesse abzuschätzen

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Kapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen

Kapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen Kapitel 5 Univariate Zufallsvariablen Im ersten Teil dieses Skriptes haben wir uns mit Daten beschäftigt und gezeigt, wie man die Verteilung eines Merkmals beschreiben kann. Ist man nur an der Population

Mehr

Einführung in die Statistik Gliederung zur Vorlesung im Sommersemester Markus Reiß Universität Heidelberg

Einführung in die Statistik Gliederung zur Vorlesung im Sommersemester Markus Reiß Universität Heidelberg Einführung in die Statistik Gliederung zur Vorlesung im Sommersemester 2005 Markus Reiß Universität Heidelberg 9. Januar 2006 Inhaltsverzeichnis 1 Diskrete Wahrscheinlichkeitsräume 1 1.1 Grundbegriffe.............................

Mehr

Klausur Stochastik und Statistik 18. September 2012

Klausur Stochastik und Statistik 18. September 2012 Klausur Stochastik und Statistik 18. September 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht

Mehr

Wahrscheinlichkeitsrechnung und Quantentheorie

Wahrscheinlichkeitsrechnung und Quantentheorie Physikalische Chemie II: Atombau und chemische Bindung Winter 2013/14 Wahrscheinlichkeitsrechnung und Quantentheorie Messergebnisse können in der Quantenmechanik ganz prinzipiell nur noch mit einer bestimmten

Mehr

Allgemeine Wahrscheinlichkeitsräume

Allgemeine Wahrscheinlichkeitsräume Kapitel 3 Allgemeine Wahrscheinlichkeitsräume 3. Einleitung Wir hatten schon bemerkt, dass der Begriff des diskreten Wahrscheinlichkeitsraums nicht ausreicht, um das unendliche Wiederholen eines Zufallsexperiments

Mehr

STETIGE VERTEILUNGEN

STETIGE VERTEILUNGEN STETIGE VERTEILUNGEN. Die Näherungsformel von Moivre Laplace Betrachtet man die Binomialverteilungen Bnp für wachsendes n bei konstantem p, so werden die Histogramme einer binomialverteilten Zufallsvariablen

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Stochastik für die Naturwissenschaften

Stochastik für die Naturwissenschaften Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 5. Erwartungswert E und Varianz V Literatur Kapitel 5 * Storrer: (37.9)-(37.12), (38.4), (40.6)-(40.9), (41.2) * Stahel: Kapitel 5 und 6 (nur

Mehr

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung

Mehr

Tabelle 11.2 zeigt die gemeinsame Wahrscheinlichkeitsfunktion und die Randverteilungen

Tabelle 11.2 zeigt die gemeinsame Wahrscheinlichkeitsfunktion und die Randverteilungen Kapitel 11 Stichprobenfunktionen Um eine Aussage über den Wert eines unbekannten Parameters θ zu machen, zieht man eine Zufallsstichprobe vom Umfang n aus der Grundgesamtheit. Das Merkmal wird in diesem

Mehr

I. Deskriptive Statistik 1

I. Deskriptive Statistik 1 I. Deskriptive Statistik 1 1. Einführung 3 1.1. Grundgesamtheit und Stichprobe.................. 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................

Mehr

1. Ziehg.: N M. falls nicht-rote K. in 1. Ziehg. gezogen

1. Ziehg.: N M. falls nicht-rote K. in 1. Ziehg. gezogen 6.4 Hyergeometrische Verteilung Gegeben ist eine Urne, die mit N Kugeln gefüllt ist. Es seien M dieser Kugeln rot und N-M Kugeln nicht rot. Wir entnehmen n Kugeln, d.h. eine Stichrobe des Umfangs n. Dabei

Mehr

Bedingte Wahrscheinlichkeiten und Unabhängigkeit

Bedingte Wahrscheinlichkeiten und Unabhängigkeit Kapitel 5 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Mitunter erhält man über das Ergebnis eines zufälligen Versuches Vorinformationen. Dann entsteht die Frage, wie sich für den Betrachter, den man

Mehr

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere

Mehr

Übung zur Vorlesung Statistik I WS Übungsblatt 6

Übung zur Vorlesung Statistik I WS Übungsblatt 6 Übung zur Vorlesung Statistik I WS 2012-2013 Übungsblatt 6 26. November 2012 Aufgabe 17 (4 Punkte): Sei X B(n, p) eine binomial verteilte Zufallsvariable, die ein Zufallseperiment mit n unabhängigen Wiederholungen

Mehr

Einführung in die Induktive Statistik: Testen von Hypothesen

Einführung in die Induktive Statistik: Testen von Hypothesen Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:

Mehr

9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe

9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe Übungsmaterial 9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe 9. Erwartungswert Fragt man nach dem mittleren Wert einer Zufallsgröÿe X pro Versuch, so berechnet man den Erwartungswert

Mehr

Gesetze der großen Zahlen

Gesetze der großen Zahlen Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz

Mehr

Aufgaben zu Kapitel 38

Aufgaben zu Kapitel 38 Aufgaben zu Kapitel 38 Aufgaben zu Kapitel 38 Verständnisfragen Aufgabe 38. Welche der folgenden vier Aussagen sind richtig:. Kennt man die Verteilung von X und die Verteilung von Y, dann kann man daraus

Mehr

Taylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe

Taylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe Kapitel 9 Taylorreihen Josef Leydold c 2006 Mathematische Methoden IX Taylorreihen 1 / 25 Lernziele Taylorreihe und MacLaurinreihe Beispiele Alternative Schreibweisen Approimation der Veränderung einer

Mehr

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung

Mehr