Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Ähnliche Dokumente
Zufallsvariablen [random variable]

1.6 Wichtige Verteilungsmodelle

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

Spezielle stetige Verteilungen

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

Die Varianz (Streuung) Definition

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

8. Stetige Zufallsvariablen

Einführung in die Induktive Statistik: Testen von Hypothesen

Wahrscheinlichkeitstheorie und Statistik vom

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Varianz und Kovarianz

Stochastik für die Naturwissenschaften

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = ,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

0, t 0,5

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Kapitel 2 Wahrscheinlichkeitsrechnung

Chi-Quadrat-Verteilung

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen

Stochastik und Statistik für Ingenieure Vorlesung 4

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Binomialverteilung. Statistik für SoziologInnen 1 Diskrete Verteilungsmodelle. Marcus Hudec

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

Ü b u n g s b l a t t 13

Einführung in die Maximum Likelihood Methodik

P (X = 2) = 1/36, P (X = 3) = 2/36,...

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Statistik II. Statistische Tests. Statistik II

Klausur Stochastik und Statistik 18. September 2012

Univariates Datenmaterial

Allgemeine Wahrscheinlichkeitsräume

9 Die Normalverteilung

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

Elementare Wahrscheinlichkeitsrechnung

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch

Test auf den Erwartungswert

1 Dichte- und Verteilungsfunktion

A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen:

Übungsaufgaben, Statistik 1

1.6 Der Vorzeichentest

Tabelle 11.2 zeigt die gemeinsame Wahrscheinlichkeitsfunktion und die Randverteilungen

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient

2 Zufallsvariable, Verteilungen, Erwartungswert

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

I. Deskriptive Statistik 1

Webinar Induktive Statistik. - Wahrscheinlichkeitsrechnung - Stichprobentheorie

Inhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5

Hypergeometrische Verteilung

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik

Mathematik für Biologen

Copula Funktionen. Eine Einführung. Nils Friewald

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

2. Zufallsvariable, Verteilungsfunktion, Erwartungswert,

Vertiefung der. Wirtschaftsmathematik. und Statistik (Teil Statistik)

Klausur Stochastik und Statistik 31. Juli 2012

Kapitel VI - Lage- und Streuungsparameter

Mathematik für Biologen

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

Wahrscheinlichkeitsrechnung und schließende Statistik

1. Übungsblatt zu Wahrscheinlichkeitsrechnung und Statistik in den Ingenieurswissenschaften

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung

Mathematische und statistische Methoden II

3.3 Bedingte Wahrscheinlichkeit

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

Willkommen zur Vorlesung Statistik (Master)

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

Grundlegende Eigenschaften von Punktschätzern

13.5 Der zentrale Grenzwertsatz

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet

Übung zur Vorlesung Statistik I WS Übungsblatt 6

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie

Statistik Workshop. 12. und 14. Januar Prof. Dr. Stefan Etschberger HSA

K8 Stetige Zufallsvariablen Theorie und Praxis

Kenngrößen von Zufallsvariablen

Grundbegriffe der Wahrscheinlichkeitsrechnung

Medizinische Biometrie (L5)

Vorlesung Wirtschaftsstatistik 2 (FK ) Wiederholungen deskriptive Statistik und Einleitung Normalverteilungsverfahren. Dipl.-Ing.

Korrektur, Änderungen sowie Ergänzungen zu den Vorlesungsskripten: Statistik-I SS-2015

Taylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe

3. Kombinatorik und Wahrscheinlichkeit

Kapitel V - Erwartungstreue Schätzfunktionen

Von der Normalverteilung zu z-werten und Konfidenzintervallen

Ü b u n g s b l a t t 10

Inhaltsverzeichnis. 2 Kurzbeschreibung von SPSS Der SPSS-Dateneditor Statistische Analysen mit SPSS DieDaten...

Statistik. Ludwig Fahrmeir Rita Künstler Iris Pigeot Gerhard Tutz. Der Weg zur Datenanalyse. Springer. Zweite, verbesserte Auflage


Übungen zur Stochastik, Blatt Nr. 1

Wahrscheinlichkeitsrechnung und Quantentheorie

Diskrete Wahrscheinlichkeitstheorie - Probeklausur

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

10. Die Normalverteilungsannahme

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

4 Diskrete Wahrscheinlichkeitsverteilungen

Begriffe aus der Informatik Nachrichten

Transkript:

Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {, 1, 2,..., n}. Bezeichne π = P(A) die Wahrscheinlichkeit für A in einem Experiment. Das Ereignis X = x tritt z.b. auf, wenn in den ersten x Versuchen A eintritt und anschließend nicht mehr. Die Wahrscheinlichkeit dafür ist P(A1... Ax Āx+1... Ān) = π }. {{.. π } (1 π)... (1 π) }{{} x mal n x mal = π x (1 π) n x. Insgesamt gibt es ( n x) Möglichkeiten für die Verteilung der x Erfolge (Auftreten von A) auf n Plätze. Damit gilt: ( ) n P(X = x) = π x (1 π) n x. x Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 188 Binomialverteilung Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 189 Wahrscheinlichkeitshistogramme Binomialverteilungen mit n = 1 Eine Zufallsvariable heißt binomialverteilt mit den Parametern n und π, kurz X B(n, π), wenn sie die Wahrscheinlichkeitsfunktion ( ) n π x (1 π) n x, x =, 1,..., n f (x) = x, sonst π = π =5 π =.5 π =.75 besitzt. Die B(1, π)-verteilung heißt auch Bernoulliverteilung. Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 19 Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 191

Erwartungswert und Varianz I Erwartungswert und Varianz I Zur Berechnung von Erwartungswert und Varianz der Binomialverteilung ist folgende Darstellung hilfreich: X = X1 +... + Xn mit den binären Variablen { 1 falls A beim i-ten Versuch eintritt, Xi = sonst. Die Xi sind stochastisch unabhängig mit E(Xi) = P(Xi = ) + 1 P(Xi = 1) = π Var(Xi) = E(X 2 i ) (E(Xi)) 2 = 1 P(Xi = 1) π 2 = π(1 π). Erwartungswert der Binomialverteilung: E(X ) = E(X1 +... + Xn) = E(X1) +... + E(Xn) = nπ Die direkte Berechnung über n ( ) n E(X ) = i π i (1 π) n i =... = nπ i i=1 ist deutlich komplizierter! Varianz der Binomialverteilung: Var(X ) = Var(X1 +...+Xn) = Var(X1)+...+Var(Xn) = nπ(1 π) Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 192 Beispiel: Wahlprognose Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 193 Eigenschaften der Binomialverteilung 1 Wahlberechtigte werden befragt. 3% aller Wahlberechtigten wählen Partei S. Wie groß ist die Wahrscheinlichkeit, dass von den 1 Befragten mehr als 5 die Partei S wählen? X B(1,.3) P(X 5) = P(X = 5) + P(X = 51) +... + P(X = 1) ( ) 1 =.3 5.7 5 +... 5 =.26 Symmetrieeigenschaft (vertausche Rolle von A und Ā): Sei X B(n, π) und Y = n X. Dann gilt Y B(n, 1 π). Summeneigenschaft: Seien X B(n, π) und Y B(m, π). Sind X und Y unabhängig, so gilt X + Y B(n + m, π) Wichtige Voraussetzung: Gleiches π Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 194 Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 195

Poisson Verteilung Poisson Modell als Verteilung seltener Ereignisse (vgl. z.b. Fahrmeir et. al)) Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte, deviante Verhaltensmuster, etc.). Eine Zufallsvariable X mit der Wahrscheinlichkeitsfunktion f (x) = P(X = x) = { λ x x! e λ, x {, 1,...}, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ >, kurz X Po(λ). Es gilt E(X ) = λ, Var(X ) = λ Die Poisson-Verteilung kann auch als Näherungsmodell für eine Binomialverteilung gesehen werden, wenn die Anzahl der Versuchswiederholungen n groß und die Trefferwahrscheinlichkeit π sehr klein ist (seltene Ereignisse!). Der Erwartungswert λ ist dann gleich n π. Es gilt also abgekürzt geschrieben X B(n, π) = X Po(n π) n groß π klein Hat man mehrere unabhängige Poisson-Prozesse, also dynamische Simulationen, bei denen die Ereignisanzahl Poisson-verteilt ist, also z.b. verschiedene deviante Verhaltensmuster, so ist die Gesamtanzahl der einzelnen Ereignisanzahlen wieder Poisson-verteilt: genauer gilt Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 196 Addition von Poisson-verteilten ZV Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 197 Normalverteilung I Sind X Po(λX ), Y Po(λY ) voneinander unabhängig, so gilt X + Y Po(λX + λy ). Beachte, die Unabhängigkeit (genauer die Unkorreliertheit, siehe später) ist wesentlich. Hat man als Extremfall, z.b. zwei Ereignisse bei denen das eine das andere voraussetzt (Scheidungen, Scheidungen mit Streit um das Sorgerecht für Kinder), so ist die Gesamtzahl nicht mehr Poisson-verteilt. Es muss gelten, wenn X + Y Poisson-verteilt wäre: Var(X + Y ) = E(X + Y ) = E(X ) + E(Y ) = Var(X ) + Var(Y ), was aber bei abhängigen (korrelierten) X und Y verletzt ist. Die Normalverteilung ist wohl das wichtigste Verteilungsmodell der Statistik, denn viele Zufallsvariablen sind (nach Transformation) (ungefähr) normalverteilt. beim Zusammenwirken vieler zufälliger Einflüsse ist der geeignet aggregierte Gesamteffekt oft approximativ normalverteilt (Zentraler Grenzwertsatz, Kap. 1.7). die asymptotische Grenzverteilung, also die Verteilung bei unendlich großem Stichprobenumfang, typischer statistischer Größen ist die Normalverteilung. Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 198 Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 199

Normalverteilung II Normalverteilung III Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 2 Normalverteilung Eine stetige Zufallsvariable X heißt normalverteilt mit den Parametern µ und σ 2, in Zeichen X N(µ, σ 2 ), wenn für ihre Dichte gilt: ( 1 f (x) = exp 1 ) (x µ)2, x R 2π σ 2σ2 und standardnormalverteilt, in Zeichen X N(; 1), falls µ = und σ 2 = 1 gilt (π ist hier die Kreiszahl π = 3.14...). Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 21 Grundlegende Eigenschaften a) Die Dichte der Standardnormalverteilung wird oft mit ϕ(x) bezeichnet, also ϕ(x) = 1 exp ( 12 ) x 2 2π und die zugehörige Verteilungsfunktion mit x Φ(x) = ϕ(u)du. b) Φ(x) lässt sich nicht in geschlossener Form durch bekannte Funktionen beschreiben = numerische Berechnung, Tabellierung. c) µ und σ 2 sind genau der Erwartungswert und die Varianz, also, wenn X Nµ, σ 2 ), dann E(X ) = µ und Var(X ) = σ 2. d) Die Dichte ist symmetrisch um µ, d.h. f (µ x) = f (µ + x). Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 22 Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 23

Rechnen mit der Normalverteilung I Es gilt: Φ( x) = 1 Φ(x) (folgt aus der Symmetrie der Dichte). Tabelliert sind die Werte der Verteilungsfunktion Φ(z) = P(Z z) für z. Ablesebeispiel: Φ(1.75) =.9599 Funktionswerte für negative Argumente: Φ( z) = 1 Φ(z) Die z-quantile ergeben sich über die Umkehrfunktion. Beispielsweise ist z.9599 = 1.75 und z.975 = 1.96. Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 24 Beispiel: IQ Rechnen mit der Normalverteilung II Zentrale Idee: X zu standardnormalverteilter Zufallsvariable umformen, d.h. standardisieren. Dabei muss die rechte Seite analog mit transformiert werden: das heißt Wegen gilt dann X a X µ a µ X µ a µ σ σ P(X a) = P( X µ a µ σ σ ). X µ N(; 1) σ P( X µ a µ σ σ ) = Φ(a µ σ ), so dass sich der folgende Zusammenhang ergibt: P(X a) = Φ( a µ σ ). Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 25 Abgeschlossenheit gegenüber Linearkombinationen Der IQ st so konstruiert, dass er in der Bevölkerung normalverteilt ist mit Erwartungswert 1 und Standardabweichung 15. P(IQ 11) =? P(IQ 7) = Wie groß ist q, damit gilt P(IQ q) =.1? Seien X1 und X2 unabhängig und Xi N(µi, σi 2 ), i = 1, 2. Ferner seien b, a1, a2 feste reelle Zahlen. Dann gilt Y1 := a1x1 + b N(a1µ1 + b; a 2 1σ 2 1) Y2 := a1x1 + a2x2 N(a1µ1 + a2µ2; a 2 1σ 2 1 + a 2 2σ 2 2). Das Ergebnis lässt sich auf mehrere Summanden verallgemeinern. Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 26 Statistik II SoSe 213 Helmut Küchenhoff (Institut für Statistik, LMU) 27