8.2 Zufallsvariable und Verteilungen

Ähnliche Dokumente
Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Fit for Abi & Study Stochastik

Einführung in Quantitative Methoden

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

70 Wichtige kontinuierliche Verteilungen

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable und Verteilungsfunktionen

Wahrscheinlichkeit und Statistik: Zusammenfassung

7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen

Stochastik. 1. Wahrscheinlichkeitsräume

1 Stochastische Konvergenz 2

Zufallsvariablen [random variable]

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

Grundlagen der Wahrscheinlichkeitstheorie

Prüfungsvorbereitungskurs Höhere Mathematik 3

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik

0, t 0,5

Biostatistik, Winter 2011/12

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Wahrscheinlichkeitsrechnung und Statistik

Psychologische Methodenlehre und Statistik I

Kapitel VII - Funktion und Transformation von Zufallsvariablen

7.5 Erwartungswert, Varianz

Sabrina Kallus, Eva Lotte Reinartz, André Salé

Heute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.

Die Varianz (Streuung) Definition

5. Spezielle stetige Verteilungen

Wichtige Definitionen und Aussagen

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

Spezielle stetige Verteilungen

Erwartungswert und Varianz von Zufallsvariablen

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

SozialwissenschaftlerInnen II

Stochastik I. Vorlesungsmitschrift

Stetige Standardverteilungen

Klausur vom

3. Kombinatorik und Wahrscheinlichkeit

KAPITEL 5. Erwartungswert

Ausgewählte spezielle Verteilungen

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Mathematik für Biologen

Korollar 116 (Grenzwertsatz von de Moivre)

7.5 Erwartungswert, Varianz

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Wahrscheinlichkeitsverteilungen

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

Verteilung von Summen

Stetige Verteilungen Rechteckverteilung

STETIGE VERTEILUNGEN

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.

Stochastik für die Naturwissenschaften

12 Erwartungswerte. Erwartungswerte 111. Überblick

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeit und Statistik BSc D-INFK

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Modelle diskreter Zufallsvariablen

4.4 Punktschätzung. E(X 1 )+ +E(X n ) Var(ˆµ) = 1 n 2 ( Var(X1 )+ +Var(X n ) ) = 1 n 2nσ2 = σ2

Forschungsstatistik I

Stochastik und Statistik für Ingenieure Vorlesung 4

15.5 Stetige Zufallsvariablen

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn Referenten: Belinda Höher, Thomas Holub, Maria Böhm.

Vorlesung gehalten von Martin Aigner. Wintersemester 2008/9

Kapitel VII. Einige spezielle stetige Verteilungen

1 Dichte- und Verteilungsfunktion

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen

3 Stetige Zufallsvariablen

Kapitel 9. Verteilungsmodelle. 9.1 Diskrete Verteilungsmodelle Die Gleichverteilung

Stochastik für die Naturwissenschaften

Mathematik 3 für Informatik

Zuverlässigkeitstheorie

Varianz und Kovarianz

Wahrscheinlichkeitstheorie. Alea iacta est!

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Vorlesung 4b. Die Varianz

6.6 Poisson-Verteilung

1.3 Zufallsgrößen und Verteilungsfunktionen

Grundbegriffe der Stochastik II

6.2 Approximation der Binomialverteilung

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Woche 2: Zufallsvariablen

Mathematik für Biologen

9 Die Normalverteilung

Kapitel 10 VERTEILUNGEN

Aufgabe Punkte

Biostatistik, Winter 2011/12

Stochastik für die Naturwissenschaften

Transkript:

8.2 Zufallsvariable und Verteilungen Sei weiter W = (Ω, E, p) ein Wahrscheinlichkeitsraum. UntereinerZufallsvariablen X von W versteht man eine Funktion X : Ω R, t X(t), für die {ω Ω; X(ω) t} für alle t R ein Ereignis ist (man spricht auch von einem messbaren Ereignis). Man kann dann die von t R abhängigen Ereignisse {ω Ω; X(ω) t} betrachten. Eine Zufallsvariable nennt man diskret, wenn sie höchstens abzählbar viele Werte annimmt. Die Funktion nennt man die Verteilungsfunktion von X. F : R [0, 1] ; t p({ω Ω; X(ω) t}) Es ist üblich mit X = t i die Menge {ω Ω; X(ω) = t i } abzukürzen bzw. mit X t i die Menge {ω Ω; X(ω) t i }. Beachte X t i ist nach Definition einer Zufallsvariablen stets ein Ereignis. X = t i ist ein Ereignis, wenn X diskret ist und jedes Elementarereignis eine Wahrscheinlichkeit besitzt. Analog verwendet man auch die Schreibweisen t 1 X t 2 und X t 0. Ist X eine diskrete Zufallsvariable mit Werten {t i }, dann setzt man p i := p(x = t i ) und nennt die Funktion { p i wenn x = t i f X (x) : R [0, 1], x. 0 sonst Wahrscheinlichkeitsfunktion von X. Im diskreten Fall bestimmen sich f X und Verteilungsfunktion F gegenseitig und es genügt die p i anzugeben. Die Verteilung einer diskreten Zufallsvariablen gibt man daher vereinfacht durch ihre Wahrscheinlichkeitsfunktion an. Wenn klar ist, um welche Zufallsvariable es sich handelt, schreiben wir einfach f für f X. Beispiele wichtiger diskreter Verteilungen : Binomialverteilung B(n,p). Diese Verteilung entsteht durch n - malige Wiederholung eines Bernoulli - Experiments. Man ist daran interessiert, wie oft ein gewisses Ereignis A (z.b. Kopf beim Münzwurf) in unabhängigen Versuchen vorkommt. Die Zufallsvariable lässt sich dann beschreiben als X = Anzahl, wie oft A in n Versuchen vorkommt. X kann also die Werte 0, 1,...,n annehmen. Tritt A in einem Versuch mit Wahrscheinlichkeit p auf, dann hat X = k die Wahrscheinlichkeit ( n k) p k (1 p) n k, vgl. das Beispiel im Abschnitt 8.2. Man kann etwas präziser die Binomialverteilung B(n,p) definieren als jene diskrete Verteilung, die die Wahrscheinlichkeitsfunktion ( ) n f(x) = p x (1 p) n x x {0,...,n} x 183

besitzt. Ihre Verteilungsfunktion besitzt dann j ( n k=0 k) p k (1 p) n k, also Teilsummen von n ( ) n 1 = (p + (1 p)) n = p k (1 p) n k. k als Werte. Dies erklärt auch den Namen Binomialverteilung. Die Poissonverteilung P(λ) ist jene Verteilung mit der Wahrscheinlichkeitsfunktion p({n}) = e λ λn n! mit n N 0. k=0 Sie findetz.b. Anwendung,wenn mansichfürdie AnzahlvonZerfälleneines radioaktiven Stoffes pro Zeiteinheit interessiert. λ ist dann die durchschnittliche Anzahl von Zerfällen pro Zeiteinheit. Die hypergeometrische Verteilung beschreibt das Urnenmodell ohne Zurücklegen. Etwas allgemeiner ausgedrückt werden einer Menge M mit m Elementen, von denen genau a Elemente eine Eigenschaft A besitzen, also die anderen m a Elemente nicht, n Elemente entnommen und die Wahrscheinlichkeit beschrieben, dassgenauk diesern Elemente die EigenschaftA besitzen. Eine zugehörigezufallsvariable besitzt daher sinnvollerweise die Wertemenge W = {0, 1,...,n} an. Die Wahrscheinlichkeitsfunktion fürk W ist gegeben durch p(x = k) = ( a ( k) m a ) n k ( m. n) Dies folgt leicht aus den Eigenschaften der Binomialkoeffizienten. ( N n) gibt die Anzahl der Teilmengen von M an, die n Elemente besitzen, ( m k) ist die Anzahl von k - elementigen Teilmenge aus jener Teilmenge T von M, die aus den Elementen besteht, die die Eigenschaft A besitzen und ( m a n k) ist die Anzahl der (n-k) - elementigen Teilmengen von M \T. Das Produkt im Zähler der Wahrscheinlichkeitsfunktion beschreibt also genau die Anzahl der n - elementigen Teilmengen von M, die genau k Elemente mit Eigenschaft A besitzen. Die Verteilungsfunktion ergibt sich dann aus der Wahrscheinlichkeitsfunktion durch Addition, d.h. p(x k) = ( k a ( i) m a ) n i ( m. n) i=0 Im Urnenmodell ist M die Menge der Kugeln in der Urne, a die Anzahl der Kugeln die eine bestimmtefarbe, etwablau, besitzen undm a die AnzahlderKugeln, die eine andere Farbe besitzen. n Kugeln werden dann gleichzeitig (oder nacheinander ohne Zurcklegen) aus der Urne gezogen. und P(X = k) gibt die Wahrscheinlichkeit an, dass genau k Kugeln dieser n blau sind. Typisches Beispiel fr dieses Urnenmodell istdie Lottoziehung6 aus 49. Die aufdem 184

Lottoschein angekreuzten Ziffern darf man sich dann als blaue Kugeln vorstellen und die Wahrscheinlichkeit, dass davon k gezogen werden berechnet sich zu ( 6 ( p(x = k) = k) 43 ) 6 k ( 49 ). 6 Man beachte, dass es nicht darauf ankommt, in welcher Reihenfolge die Kugeln gezogen worden sind. Im Gegensatz zur hypergeometrischen Verteilung werden beim Urnenmodell, welches die Binomialverteilung beschreibt, die Kugeln nacheinander mit Zurücklegen gezogen. Wie die Binomialverteilung so eignet sich auch die hypergeometrische Verteilung zur Qualitätskontrolle einer Lieferung von Waren. Beispiel: Aus einer Schachtel mit 10 Glühbirnen, von denen 3 defekt sind, sollen zwei Glühbirnen zufällig (ohne Zurücklegen) ausgewählt werden. Man beschreibe die Wahrscheinlichkeitsfunktion der Zufallsvariablen X, die die Anzahl der defekten Glühbirnen dieser Stichprobe angibt. X is hypergeometrisch verteilt und als Wahrscheinlichkeitsfunktion ergibt sich somit ( 3 ( p(x = k) = k) 7 ) 2 k ( 10 ). 2 Würde man die gleiche Stichprobe mit Zurücklegen durchführen, so ist X binomial verteilt und als Wahrscheinlichkeitsfunktion ergibt sich ( ) 2 p(x = k) = p k (1 p) 2 k k mit p = 0, 3. Vergleicht man die Ergebnisse für den Fall k = 1, also für die Wahrscheinlichkeit, dass genau eine der zwei gezogenen Glühbirnen defekt ist, so ergibt sich im hypergeometrischen Fall p(x = 1) = 21 0, 47, während sich im binomialen 45 Fall p(x = 1) = 2 0, 3 0, 7 = 0, 42 ergibt. Wenn die Parameter m, a und m a im Verhältnis zu n groß sind, dann spielt es offensichtlich kaum eine Rolle, ob zurückgelegt wird. In diesem Fall kann man die hypergeometrische Verteilung mit der Binomialverteilung approximieren. Satz 8.2.1: Für die Verteilungsfunktion F einer Zufallsvariablen gilt (i) x y = F(x) F(y) (ii) lim x F(x) = 0 und lim x F(x) = 1 (iii) F ist rechtsseitig stetig. Falls es eine integrierbare Funktion f : R [0, ) gibt mit F(t) = t 185 f(x)dx

dannnennt man f die Dichte von X. Zufallsvariable, die eine Dichte besitzen, nennt man stetig. Die Verteilungsfunktion F ist eindeutig durch eine Dichte bestimmt und zur Angabe von F genügt daher die Angabe einer Dichte. Die Dichte spielt bei stetigen Zufallsvariablen jene Rolle, die die Wahrscheinlichkeitsfunktion bei diskreten Zufallsvariablen einnimmt. Satz 8.2.2. Falls die stetige Verteilungsfunktion F einer Zufallsvariablen bis auf endlich viele Stellen stetig differenzierbar ist, so ist X stetig mit der Dichte f(x) = F (x). Beweis: Dies folgtunmittelbaraus demhauptsatzderdifferential- undintegralrechung. Wichtigstes Beispiel einer stetigen Verteilung. Unter der Normalverteilung N(µ, σ 2 ) versteht man jene Verteilung, die die Dichte besitzt. f(x) = 1 σ 2π (x µ) 2 e 2σ 2 für σ > 0 Die Parameter µ und σ werden sich im Abschnitt 8.3 erklären. N(0, 1) nennt man die Standardnormalverteilung. Die Dichte der Standardnormalverteilung wird in der Regel mit ϕ bezeichnet. Der Graph von f(x) ist symmetrisch zu x = µ und hat die Gestalt einer Glockenkurve, oft als Gaußsche Glockenkurve bezeichnet. Damit f bzw. ϕ als Dichte der Verteilungsfunktion einer Zufalllsvariablen dienen können, muss gelten 1 2π e x2 2 dx = 1. Dies folgt aus der im Beispiel b) nach Satz 5.8.2 dargelegten Rechnung. 186

Eine leichte Integration mit Substitution zeigt: Lemma 8.2.3 Die Verteilungsfunktion F(x) der Normalverteilung N(µ, σ) und jene der Standardnormalverteilung, die manüblicherweise mitφ(x) bezeichnet, hängen folgendermaßen zusammen F(x) = Φ( x µ σ ). Weiteres Beispiel einer stetigen Verteilung ist die Exponentialverteilung. Diese ist definiert als jene Verteilung mit der Verteilungsfunktion F(x) = { 1 e αx für x 0 0 sonst. Durch Differenzieren sieht man, dass ihre Dichte durch { αe αx für x 0 f(x) = 0 sonst gegeben ist. 8.3 Erwartungswert und Varianz Die durchschnittliche Größe einer Menge von Datenwerten {x 1,...,x n }, z.b. einer Menge von Noten einer Klausur, wird in der Regel mit ihrem arithmetischen Durchschnitt 187

x := 1 n (x 1 + x 2 +... + x n ). gemessen. Wie weitdie Datenstreuen, d.h. vonihremdurchschnittabweichen, wirddurch die Standardabweichung s bzw. durch ihre Varianz s 2 := 1 n 1 n (x x i ) 2 angegeben. Analog geht man bei Zufallsvariablen vor. An Stelle des arithmetischen Durchschnitts tritt der Erwartungswert. Der Erwartungswert µ = µ(x) einer Zufallsvariablen X ist im Falle einer diskreten Verteilung mit Wahrscheinlichkeitsfunktion f definiert als i=1 µ = j x j f(x j ), im Falle einer stetigen Verteilung als µ = xf(x)dx, wobei im Falle der stetigen Verteilung f die Dichtefunktion ist. Unter der Varianz σ 2 = σ 2 (X) einer Zufallsvariablen X versteht man bei diskreter Verteilung die mittlere quadratische Abweichung σ 2 = j (x j µ) 2 f(x j ), bei stetiger Verteilung σ 2 = (x µ) 2 f(x)dx. σ, die positive Quadratwurzel der Varianz, nennt man die Standardabweichung von X und ihrer Verteilung. In obigen Definitionen wird jeweils die Existenz der Summen bzw. der Integrale vorausgesetzt. Statt µ schreibt man häufig auch E(X). Es ist σ 2 > 0 ( ausgenommen der Fall einer diskreten Verteilung mit einem einzigen Wert ). 188

Beispiel: Die Zufallsvariable X =AnzahlvonKöpfen ineinemwurf einer nichtgezinkten Münze hat die Werte x 0 = 0 und x 1 = 1 mit Wahrscheinlichkeiten p(x = 0) = p(x = 1) = 1. Es gilt dann 2 µ = E(X) = 0 1 2 + 1 1 2 = 1 2 und σ 2 = (0 1 2 )2 1 2 + (1 1 2 )2 1 2 = 1 4. Satz 8.3.1. Transformiert man eine Zufallsvariable durch X = a 1 + a 2 X mit a i R, a 2 > 0, dann hat die Zufallsvariable X den Erwartungswert µ = E(X ) = a 1 + a 2 µ bzw. die Varianz (σ ) 2 = a 2 2σ 2. Die Zufallsvariable X = X µ hat nach Satz 8.3.1. somit den Erwartungswert 0 und die σ Varianz 1. Man nennt X, oft auch mit Z bezeichnet, die standardisierte Zufallsvariable. Etwas allgemeiner als in Satz 8.3.1. kann man Zufallsvariable X mittels einer beliebigen stetigen Funktion g zu einer Zufallsvariablen g(x) transformieren. Für den Erwartungswert gilt dann µ(g(x)) = j g(x j )f(x j ) bzw. µ(g(x)) = g(x)f(x)dx. Zufallsvariable sind reellwertige Funktionen und können daher addiert und skalar multipliziert werden. Erwartungswert und Varianz verhalten sich hierbei folgendermaßen. Satz 8.3.2. Sind X und Y Zufallsvariable, dann gelten bezüglich Erwartungswert und Varianz die folgenden Rechenregeln: (i) µ(αx + βy ) = α µ(x) + β µ(y ) für α, β R. (ii) σ 2 (X) = µ(x 2 ) (µ(x)) 2. (iii) σ 2 (αx) = α 2 σ 2 (X). Beweis von (ii): Mit g(x) = X 2 folgt nach obiger Formel µ(x µ(x)) 2 = (x µ(x)) 2 f(x)dx = σ 2 (X). 189

Aus (i)) und Satz 8.3.1. ergibt sich dann σ 2 (X) = µ(x 2 2µ(X)X + µ(x) 2 ) = µ(x 2 ) µ(2µ(x)x + µ(x) 2 ) = µ(x 2 ) 2µ(X)µ(X)) + µ(x) 2 = µ(x 2 ) µ(x) 2. Bemerkung: Häufig definiert man die Varianz einer Zufallsvariablen durch σ 2 (X) := µ(x µ(x)) 2. Diese Definition verwendet dann nur den Erwartungswert und nicht die Dichte. Fürdie im Abschnitt8.2betrachteten Verteilungenergeben sich folgende Erwartungswerte und Varianzen. Binomialverteilung B(n,p): µ = n p und σ 2 = n p (1 p) Poissonverteilung P(λ): µ = λ und σ 2 = µ. Hypergeometrische Verteilung H(m, a, n): µ = n a m σ2 = µ (1 a m ) (m n m 1 ). Die Poissonverteilung entsteht aus der Binomialverteilung, indem man p gegen 0 gehen lässt und n gegen so dass der Erwartungswert µ = np einen endlichen Grenzwert besitzt - oft indem man µ = np konstant belässt. Ist bei einer Binomialverteilung B(n, p) die Zahl n groß (Faustregel: n 100 und p klein (Faustregel: p 0, 1), dann kann man die Wahrscheinlichkeit, dass die Zufallsvariable den Wert k annimmt, näherungsweise mit der Poissonverteilung P(λ) mit λ = µ = n p berechnen. Die Poissonverteilung nennt man auch die Verteilung der seltenen Ereignisse. Beispiel: Die Wahrscheinlichkeit für die Produktion fehlerhafter Handys betrage p = 0, 002. Gesucht sei die Wahrscheinlichkeit P, dass eine Lieferung von 500 Handys mehr als 2 defekte Geräte enthält. Komplimentär kann man dazu die Wahrscheinlichkeit, dass nicht mehr als zwei defekte Geräte geliefert werden, bestimmen. Die Binomialverteilung ergibt hierzu mit µ = 1 ( ) ( ) ( ) 500 500 500 1 P = 0, 998 500 + 0, 002 0, 998 499 + 0, 002 2 0, 998 498. 0 1 2 190

Bei den Handys ergibt sich mit Poissonannäherung fürµ =λ = 1: 1 P e 1 (1 + 1 + 1 ) 0, 92. 2 Wie man leicht überprüft, ist dies eine gute Näherung. Normalverteilung N(µ, σ): Varianz und Erwartungswert der Normalverteilung N = N(µ, σ) lassen sich durch Symmetrieüberlegung bzw. Integration bestimmen. µ ergibt sich als Erwartungswert, denn f(x) ist symmetrisch zu x = µ. Rechnerisch, also durch Integration, ergibt sich die Varianz σ 2 folgendermaßen. Nach Definition der Varianz gilt: σ 2 (N) = (x µ) 2 1 σ 2π (x µ) 2 e 2σ 2 dx. Mit der Substitution u = x µ σ lässt sich dies umformen in (σu) 2 1 2π e u2 2 du. Mit partieller Integration sieht man u u e u2 2 du = u ( e u2 2 ) + e u2 2 du. Hieraus ergibt sich (vgl. Beispiel b) nach 5.8.2) u u e u2 2 du = e u2 2 du = 2π. Insgesamt folgt somit σ 2 (N) = σ 2 1 2π 2π = σ 2. Dies erklärt die Bezeichnung der Parameter von N(µ, σ) in Abschnitt 8.2. Man beachte, dass in einigen Büchern die Normalverteilung mit N(µ, σ 2 ) abgekürzt wird. Wenn für Varianz oder Standardabweichung konkrete Zahlen eingesetzt werden, kann dies zu Verwechslungen führen. Hier ist also Vorsicht angebracht. Die Transformation X = X µ überführt die Normalverteilung N(µ, σ) in die Standardnormalverteilung. Satz 8.3.1 σ ergibt µ = µ σ µ σ = 0 und (σ ) 2 = 1 σ 2 σ2 = 1. 191

Die Verteilungsfunktion der Standardnormalverteilung Φ(x) = p(x x) = 1 2π x e t2 2 dt lässt sich nicht durch elementare Integration bestimmen. Sie lässt sich aber sehr gut numerisch approximieren und (wie beispielsweise die Exponentialfunktion) tabellieren. Es gilt wegen der Symmetrie der Glockenkurve Φ( x) = 1 Φ(x). Deswegen muss Φ nur für x 0 tabelliert werden. Wegen Lemma 8.2.3 kann man die Verteilungsfunktion F einer beliebigen Normalverteilung N(µ, σ) aus jener der Standardnormalverteilung berechnen. Beispiel: Sei X eine normal verteilte Zufallsvariable mit µ = 5 und σ = 0, 1. Dann gilt F(X k) = 0, 95 = Φ( k µ σ = Φ( k 5 0, 1 ). Aus der Tabellierung ergibt sich dann k 5 0,1 = 1, 645 also k = 5, 1645. Die Binomialverteilung mit ihrer Wahrscheinlichkeitsfunktion ( ) n f(x) = p x (1 p) n x mit x = 0, 1,...,n x lässt sich für große n schlecht berechnen, vgl. auch obiges Beispiel, in dem die PoissonverteilungalsApproximationverwendetwurde. Fürdie PraxisvongrößterBedeutungist jedoch die Approximation der Binomialverteilung durch die Normalverteilung. Satz 8.3.3. (Grenzwertsatz von de Moivre und Laplace) Für große n verhält sich die Wahrscheinlichkeitsfunktion f(x) der Binomialverteilung B(n, p) ungefähr wie die Funktion f 1 (x) = e z2 2 2π np(p 1) mit z = x np. f ist die Dichtefunktion der Normalverteilung N(np, np(p 1)). np(p 1) f(x) Ungefähr bedeutet hierbei, dass lim n f (x) = 1 ist. Ferner ist p(a X b) Φ(β) Φ(α) mit α = a 1 2 np np(p 1), β = b + 1 2 np np(p 1). Hierbei gilt die Faustregel von Laplace: Für σ = np(p 1) > 3 ist die Approximation gut. 192

UmmitderfolgendenUngleichungeine Abschätzunganzugeben, müssennurvarianzund Erwartungswert bekannt sein. Dies ist in vielen Anwendungen der Fall. Satz 8.3.4. (DieUngleichungvon Tschebyscheff) Sei X eine Zufallsvariable mite(x) = µ und Varianz σ 2. Für c > 0 gilt dann p( X µ c) σ2 c 2. Sind X 1,...,X n unabhängige Zufallsvariablen, dann werden in Wahrscheinlichkeitstheorie und in der Statistik häufig Zufallsvariable Y betrachtet, die sich als Funktionen der X i ergeben, also Y = f(x 1,...,X n ). Die Schwierigkeit besteht darin, die Verteilungsfunktion von Y aus jenen der X i zu bestimmen. Zufallsvariable X, Y, die die gleiche Verteilung haben, d.h. gleiche Verteilungsfunktionen besitzen, nennt man identisch verteilt. Im Fall, wenn Y n = n i=1 X i mit identisch verteilten Zufallsvariablen X i ist, ist die Situation am besten. Der folgende Satz besagt, dass Y n dann asymptotisch normalverteilt ist und unterstreicht somit die Bedeutung der Normalverteilung. Satz 8.3.5. (Zentraler Grenzwertsatz) Die Verteilungsfunktion einer Summe identisch verteilter Zufallsvariablen X i, die Erwartungswert µ und Standardabweichung σ besitzen, konvergiert mit wachsendem n gegen eine Normalverteilung. Bezeichnet Yn = (Y n nµ) nσ die Standardisierung von Y n, dann gilt: Für n konvergiert die Verteilungsfunktion von Yn punktweise gegen die Verteilungsfunktion Φ(x) der Standardnormalverteilung N(0, 1). Bemerkungen: Sind in Satz 8.3.5. alle X i normalverteilt, dann ist auch ihre Summe normalverteilt (vgl. 8.5.1). Sind alle X i unabhängige Zufallsvariable eines Bernoulli - Experiments, dann ist ihre Summebinomialverteiltundmanerhältals Spezialfall des zentralengrenzwertsatzes den Grenzwertsatz von Moivre und Laplace. Die Voraussetzung, dass die X i identisch verteilt sind, kann abgeschwächt werden (Lindeberg - Bedingung). Oft wird der zentrale Grenzwertsatz etwas ungenau wie folgt formuliert: Seien X 1,...,X n unabhängige Zufallsvariable und Y = X 1 +... + X n. Sei µ = µ(y ) und σ = σ(y ), dann gilt unter fast immer erfüllten Bedingungen (insbesondere für großes n ): Z = Y µ ist näherungsweise standardnormalverteilt. σ 193

Beispiele: a) Füreine Nachklausursind 5Teilnehmerangemeldet. Jederkomme mitwahrscheinlichkeit p = 0,8. Wie groß ist die Wahrscheinlichkeit, dass mindestens drei Teilnehmer tatsächlich erscheinen? Um die Tschebyscheffsche Ungleichung anwenden zu können sind lediglich Erwartungswert und Varianz zu bestimmen. Da die Zufallsvariable, die die Zahl der antretenden Teilnehmer angibt, binomial verteilt ist, ergibt sich µ = 4 und σ 2 = µ (1 0, 8) = 0, 2 bzw. σ 0, 9. Nach Satz 8.3.4 ergibt sich dann p( X µ 1, 99) 0, 8 = 0, 202. 3, 96 Hieraus folgt, dass p(3 X 5) > 0, 798 ist, also eine Wahrscheinlichkeit von ca. 80 %, dass 3 oder mehr Teilnehmer erscheinen. Approximiert man die Lösung mit Hilfe des Satzes von Moivre und Laplace, so ergibt sich p(3 X 5) Φ(β) Φ(α) mit β = 5+0,5 4 0,9, α = 3 0,5 4 0,9. Aus der Tabellierung von Φ ergibt sich dann, dass p(3 X 5) Φ(1, 66) Φ( 1, 66) 0, 9130 ist. Dadie imbeispiel gewähltenzahlen recht kleinsind, kannmandie Binomialverteilung auch genau berechnen. Man erhält: p(x = 5) = (0, 8) 5, p(x = 4) = 5 (0, 8) 4 0, 2, p(x = 3) = ( ) 5 (0, 8) 3 (0, 2) 2. 2 Wertet man dies aus, so ergibt sich schließlich, dass p(3 X 5) = 0, 94208. Man sieht, dass die AbschätzungmittelsTschebyscheff nochrechtgrobwar, währenddie Approximation durch die Normalverteilung schon recht gut ist. b) Seien X 1,...,X 5 Zufallsvariable, die die Augenzahl beim Würfeln mit 5 fairen voneinander unabhängigen Würfeln angeben. Y = X 1 +...+X 5 gibt die Augensumme der 5 Würfel an. Man sieht leicht durch einfache, dass µ(x j ) = 3, 5 und σ 2 (X j ) = 6 i=1 (i µ(x j )) 2 p(x j = i) = 35 12 Aus Satz 6.3.2 ergibt sich µ(y ) = 35. Bezüglich Erwartungswert und Varianz von 2 unabhängigen Zufallsvariablen gilt Lemma 8.3.6. Sind X 1 und X 2 unabhängige Zufallsvariable, dann gilt (i) µ(x 1 X 2 ) = µ(x 1 ) µ(x 2 ). (ii) σ 2 (X 1 + X 2 ) = σ 2 (X 1 ) + σ 2 (X 2 ). 194

Beweis von (ii): Aus Satz 8.3.2 (ii) folgt σ 2 (X 1 + X 2 ) = µ((x 1 + X 2 ) 2 (µ(x 1 + X 2 )) 2. Die rechte Seite läßt sich nach der Linearität des Erwartungswerts umformen zu µ(x 2 1) + 2µ(X 1 X 2 ) + µ(x 2 ) µ(x 1 ) 2 2µ(X 1 ) µ(x 2 ) µ(x 2 ) 2. Mit 8.3.6 (i) und erneut 8.3.2 (ii) folgt schließlich σ 2 (X 1 + X 2 ) = µ(x 2 1) + µ(x 2 ) µ(x 1 ) 2 µ(x 2 ) 2 = σ 2 (X 1 ) + σ 2 (X 2 ). Zurück zum Beispiel b): Aus Lemma 8.3.6 folgt, dass σ 2 (Y ) = 5 35 12 = 175 12 14, 58, bzw. σ 3, 819. Nach dem zentralen Grenzwertsatz kann man dann die Verteilung der standardisierten Zufallsvariablen Y = Y 17,5 mit der Normalverteilung approximieren. σ Es gilt dann auch, dass die Wahrscheinlichkeitsfunktion f Y von Y ungefähr mit der Dichtefunktion f von N(µ(Y ), σ(y )) übereinstimmt. Beachte, dass aus F(x) = Φ( x µ ) folgt, dass f = F (x) = 1 σ σ ϕ(x µ ) ist. σ Konkret ist p(y = 15) = f Y (k) f(k) = 1 σ µ(y ) ϕ(k ) 1 17, 5 ϕ(15 ) 0, 084. σ(y ) 3, 819 3, 819 und analog erhält man p(y = 7) 0, 0023. Es gibt, wie man leicht sieht genau 15 Elementareignisse mit Augensumme 7. Daher ist p(y = 7) = 15 0, 0018. Der 6 5 Vergleichzeigt, dass die ApproximationauchamRandderVerteilungrechtgutist. 8.4 Stichproben und Parameterschätzung Aufgabe der Mathematischen Statistik ist es, Methoden zu entwickeln, die es erlauben sowohl Zufallsexperimente zu konzipieren als auch auszuwerten. Beide Aspekte sind eng miteinander verbunden. Während man in der Wahrscheinlichkeitstheorie im Prinzip davon ausgeht, dass die Wahrscheinlichkeiten der Ereignisse gegeben sind, ist es eine Aufgabe der Statistik diese möglichst gut zu schätzen. Statistische Untersuchungen beziehen sich auf eine festgelegte Menge von Datenwerten, die alle denkbaren Beobachtungseinheiten darstellen. Diese Menge, üblicherweise mit Ω bezeichnet, wird in der Regel als Population (oder als Grundgesamtmenge bzw. Stichprobenraum bezeichnet), sicherlich davon abgeleitet, dass sich viele statistische Untersuchungen mit der Bevölkerungsentwicklung befassen. Mathematisch gesehen ist Ω eine nicht leere Menge. Die Elemente ω Ω nennt man in der Statistik Merkmalsträger, im Unterschied zu den Elementarereiginssen in der Wahrscheinlichkeitstheorie. Typische Beispiele von Populationen Ω sind etwa {ω; ω ist Student an der Universität Stuttgart }. Diese Menge kann mit der Datei aller Matrikelnummern identifiziert werden. 195