Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden meist mit Großbuchstaben bezeichnet (z.b. X, Y, Z, X 1, X 2, X 3,...). Die Funktionswerte (Realisierung, Wert für einen konkreten Versuchsausgang ω) werden meist mit kleinen Buchstaben bezeichnet (z.b. x, y, z, x 1, x 2, x 3,...). 1
Beispiel: Würfeln mit zwei Würfeln Ω = {(1, 1), (1, 2),..., (6, 6)} X... Summe der Augenzahlen z.b.: X((3, 4)) = 7 Y... Maximum der Augenzahlen z.b.: Y ((3, 4)) = 4 Der Zufall steckt nicht in der Funktion X, sondern im zufälligen Versuch mit Ausgang ω. 2
Es interessieren z.b. die folgenden Ereignisse: {X x} = {ω Ω X(ω) x} Ω, {X = x} = {ω Ω X(ω) = x} Ω, {X > x} = {ω Ω X(ω) > x} Ω, Die Wahrscheinlichkeiten dieser Ereignisse lassen sich berechnen. Beispiel: (s.o.) P (X = 7) = P ({ω Ω X(ω) = 7}) = P ({(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}) = 6 36 = 1 6 3
Problem: Welche Werte x kann die Zufallsvariable X mit welcher Wahrscheinlichkeit annehmen? Vorteil von Zufallsvariablen: Man kann mit ihnen rechnen; z.b. ist X + Y ebenfalls eine Zufallsvariable. Nachteil von Zufallsvariablen: Mit einer Zufallsvariablen X kann eine Vergröberung der Ausgänge des zufälligen Versuches verbunden sein; z.b. Summe der Augenzahlen statt der einzelnen Augenzahlen. 4
Diskrete Zufallsvariable [discrete random variable] Eine Zufallsvariable, die nur endlich viele Werte (x 1,..., x n ) oder abzählbar unendlich viele Werte (x 1, x 2,...) annehmen kann, heißt diskrete Zufallsvariable. Beispiel: Idealer Farbwürfel Ω = {schwarz, rot, gelb, grün, blau, weiß } X(schwarz) = 1, X(rot) = 2, X(gelb) = 3, X(grün) = 4, X(blau) = 5, X(weiß) = 6 Mögliche Werte für x i sind 1, 2, 3, 4, 5, 6. P (X = x i ) = 1 6 5
Verteilungstabelle: x i x 1 x 2... p i p 1 p 2... Beispiel: X = Summe der Augenzahlen bei zwei Würfeln (Werte zwischen 2 und 12) x i 2 3 4 5 6 7 8 9 10 11 12 p i 1 36 2 36 3 36 4 36 5 36 6 36 5 36 4 36 3 36 2 36 1 36 (Probe: Summe der Wahrscheinlichkeiten = 1) 6
Die Verteilungstabelle beschreibt die Verteilung der Zufallsvariable vollständig; d.h. aus ihr lassen sich die Wahrscheinlichkeiten aller interessierenden Ereignisse für die Zufallsvariable berechnen. Beispiel: (s.o.) P (6 X 8) = P ({X = 6} {X = 7} {X = 8}) = P (X = 6) + P (X = 7) + P (X = 8) = 5 36 + 6 36 + 5 36 = 16 36 = 4 9 Grafische Darstellung diskreter Verteilungen: Balkendiagramme 7
Unabhängige Zufallsvariablen [independent random variables] Zwei diskrete Zufallsvariablen X und Y heißen unabhängig, wenn P (X = x, Y = y) = P (X = x) P (Y = y) für alle x, y R gilt. Bemerkungen: P (X = x, Y = y) = P ({X = x} {Y = y}) Für alle x, y R sind die Ereignisse {X = x} und {Y = y} unabhängig. 8
Erwartungswert einer diskreten Zufallsvariablen [expectation (mean) of a discrete random variable] E(X) = n p i x i bzw. E(X) = i=1 p i x i i=1 (falls der Grenzwert existiert) Beispiel: Idealer Würfel 1 6 1 + 1 6 2 + + 1 6 6 = 3.5 Der Erwartungswert beschreibt den Schwerpunkt der Verteilung; vgl. arithmetisches Mittel in deskriptiver Statistik: x = 1 n k i=1 n i x i = k i=1 n i n x i = k i=1 f i x i 9
Varianz (Streuung) einer diskreten Zufallsvariablen [variance of a discrete random variable] n var(x) = p i (x i E(X)) 2 i=1 bzw. var(x) = p i (x i E(X)) 2 i=1 (falls der Erwartungswert und der Grenzwert existieren) Es gilt: ( 2 var(x) = E(X E(X)) 2 = E(X 2 ( ) 2 ) E(X)) = pi x 2 i pi x i (vgl. Stichprobenvarianz bzw. empirische Varianz in deskriptiver Statistik) 10
Beispiel: Idealer Würfel var(x) = 6 p i x 2 i i=1 ( 6 ) 2 p i x i i=1 = 1 6 1 + 1 6 22 + 1 6 32 + 1 6 42 + 1 6 52 + 1 6 62 3.5 2 = 1 6 (1 + 4 + 9 + 16 + 25 + 36) 3.52 = 1 91 3.52 6 2, 92 11
Rechenregeln für Erwartungswert und Varianz Seien X, Y Zufallsvariablen und a, b R. Dann gilt E(a X + b) = a E(X) + b var(a X + b) = a 2 var(x) E(X + Y ) = E(X) + E(Y ) Wenn X und Y unabhängig sind, gilt außerdem var(x + Y ) = var(x) + var(y ) Bemerkung: Diese Rechenregeln gelten nicht nur für diskrete, sondern auch für beliebige Zufallsvariablen. 12
Binomialverteilung [binomial distribution] Ein Versuch wird unter konstanten Bedingungen n mal unabhängig wiederholt. Registriert wird jeweils nur das Eintreten eines interessierenden Ereignisses A (Erfolg). X bezeichne die Anzahl der Erfolge in den n Versuchen, ϑ = P (A) die Erfolgswahrscheinlichkeit in jedem Einzelversuch. P (X = k) = ( ) n k ϑ k (1 ϑ) n k, k = 0, 1,..., n X heißt dann binomialverteilt mit Parametern n und ϑ. Bezeichnung: X B(n; ϑ) 13
Es gilt: E(X) = n ϑ var(x) = n ϑ (1 ϑ) Beispiel: 3 maliges Werfen eines idealen Würfels X... Anzahl des Auftretens der Augenzahl 6 P (X = 1) = ( 3 1 ) (1 6 = 3 1 6 25 36 0.35 ) 1 ( 1 1 ) 3 1 6 14
Stetige Zufallsvariable [continuous random variable] Eine Zufallsvariable die alle reellen Zahlen oder alle reellen Zahlen aus einem gegebenen Intervall annehmen kann heißt stetige Zufallsvariable. Die Verteilung einer stetigen Zufallsvariablen X wird mit Hilfe ihrer (nichtnegativen) Dichtefunktion f X [density function] (beschreibt die Form einer Verteilung) angegeben. Die Wahrscheinlichkeit, dass die Zufallsvariable X Werte in einem Intervall [a, b] annimmt, ergibt sich als Integral dieser Dichte über dem Intervall: P (X [a, b]) = P (a X b) = b a f X (x)dx 15
Häufig wird mit der Verteilungsfunktion [distribution function] F X, die durch gegeben ist, gearbeitet: F X (x) = P (X x) = x f X (z)dz P (a X b) = b a f X (x)dx = F X (b) F X (a) Erwartungswert und Varianz einer stetigen Zufallsvariablen X: E(X) = var(x) = (falls die Integrale existieren) x f X (x) dx (x E(X)) 2 f X (x) dx 16
Bemerkungen: Sei X eine stetige Zufallsvariable. Für jeden Einzelwert x gilt P (X = x) = 0. Daher sind die Wahrscheinlichkeiten P (a < X < b), P (a < X b), P (a X < b) und P (a X b) alle gleich. Unabhängige Zufallsvariablen Zwei (stetige) Zufallsvariablen X und Y heißen unabhängig, wenn P (X x, Y y) = P (X x) P (Y y) für alle x, y R gilt. 17
Normalverteilung [normal distribution] Dichtefunktion der Normalverteilung (Gaußsche Glockenkurve): f X (x) = 1 σ 2π (x µ) 2 e 2σ 2, < x < mit Parameter µ R und σ (0, ). Bezeichung: X N(µ, σ 2 ) Bedeutung der Parameter: E(X) = µ, var(x) = σ 2 18
Bemerkungen: Wichtigste stetige Verteilung, da viele Größen näherungsweise normalverteilt sind. (C. F. Gauß: Beschreibung von Messfehlern) Der Zentrale Grenzwertsatz besagt, dass die Verteilung von Summen von unabhängigen Zufallsvariablen in vielen Fällen gut durch eine Normalverteilung angenähert werden kann. Die Verteilungsfunktion einer Normalverteilung ist keine elementare Funktion, also nicht mit einer Formel darstellbar. 19
Es gilt P (µ σ X µ + σ) = 0.68 P (µ 2σ X µ + 2σ) = 0.95 P (µ 3σ X µ + 3σ) = 0.997 20
Mathematische Stichprobe [random sample] Die Zufallsvariablen X 1,..., X n bilden eine (mathematische) Stichprobe, wenn sie unabhängig sind und die gleiche Verteilung besitzen [i.i.d.]. In diesem Fall bezeichnen wir mit X = 1 n X i n das Stichprobenmittel und mit i=1 die Stichprobenvarianz. S 2 X = 1 n 1 n (X i X) 2 i=1 Hinweis: X und S 2 sind Zufallsvariablen. 21
Das Modell der Mathematischen Stichprobe ist die Grundlage der schließenden Statistik! 22
t Verteilung Sei X 1,..., X n eine Stichprobe von N(µ, σ 2 ) verteilten Zufallsvariablen. Die Verteilung der Zufallsvariablen Z = (X µ) n S X heißt t Verteilung mit n 1 Freiheitsgraden. Die t Verteilung besitzt eine um Null symmetrische, glockenförmige Dichte, die sich für großes n der Dichte der Normalverteilung annähert. 23
χ 2 Verteilung Sei X 1,..., X n eine Stichprobe von N(0, 1) verteilten Zufallsvariablen. Die Verteilung der Zufallsvariablen Z = X1 2 +... + Xn 2 heißt χ 2 Verteilung mit n Freiheitsgraden. Die Dichten sind für negative Argumente Null. Für positive Argumente sind sie für kleine n linkssteil und rechtsschief, für große n nähern sie sich einer Glockenkurve an. 24
Überschreitungswahrscheinlichkeiten [p-values] Sei Z eine Zufallsvariable. In der schließenden Statistik interessieren uns oftmals folgende Überschreitungswahrscheinlichkeiten: P (Z z), P (Z z), P ( Z z) Im Falle um Null symmetrischer Dichten gilt P (Z z) = P (Z z) P ( Z z) = P (Z z) + P (Z z) = 2 P (Z z) 25