1.4 Stichproben aus einer Normalverteilung

Ähnliche Dokumente
5. Stichproben und Statistiken

1.3 Wiederholung der Konvergenzkonzepte

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

Chi-Quadrat-Verteilung

Zufallsvariablen [random variable]

Wichtige Definitionen und Aussagen

Statistik II. Weitere Statistische Tests. Statistik II

OLS-Schätzung: asymptotische Eigenschaften

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

Wahrscheinlichkeit und Statistik: Zusammenfassung

70 Wichtige kontinuierliche Verteilungen

2. Prinzipien der Datenreduktion

4. Verteilungen von Funktionen von Zufallsvariablen

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

Grundbegriffe der Stochastik II

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen

Die Varianz (Streuung) Definition

Statistik I für Betriebswirte Vorlesung 14

7.2 Moment und Varianz

Erwartungswert und Varianz von Zufallsvariablen

8 Stichprobenkennwerteverteilung

Hypothesentests für Erwartungswert und Median. Statistik (Biol./Pharm./HST) FS 2015

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient

Mathematische Statistik Aufgaben zum Üben. Schätzer

3 Grundlagen statistischer Tests (Kap. 8 IS)

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

2.3 Intervallschätzung

Unabhängige Zufallsvariablen

Varianz und Kovarianz

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

3.3 Methoden zur Evaluierung von Schätzern

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Lösung Übungsblatt 5

Diskrete Wahrscheinlichkeitstheorie

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion

Y = g 2 (U 1,U 2 ) = 2 ln U 1 sin 2πU 2

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

3 Statistische Schätzungen

7. Hypothesentests. Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang. X habe die unbekannte VF F X (x)

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Blockpraktikum zur Statistik mit R

5. Spezielle stetige Verteilungen

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung

Inferenz im multiplen Regressionsmodell

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Willkommen zur Vorlesung Statistik (Master)

Ü b u n g s b l a t t 13

Die Familie der χ 2 (n)-verteilungen

1.5 Erwartungswert und Varianz

Schwache Konvergenz von Wahrscheinlichkeitsmaßen

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

1.3 Zufallsvariablen

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN

2 Aufgaben aus [Teschl, Band 2]

Seminar stabile Zufallsprozesse

Suffizienz und Vollständigkeit

Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse

6. Schätzverfahren für Parameter

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr

Charakteristische Funktionen

Multivariate Verteilungen

Klausur zu Statistik II

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Hypothesentests für Erwartungswert und Median. für D-UWIS, D-ERDW, D-USYS und D-HEST SS15

Willkommen zur Vorlesung Statistik (Master)

Statistik II. Regressionsanalyse. Statistik II

Reelle Zufallsvariablen

Einführung in die Induktive Statistik: Testen von Hypothesen

Aufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:

Nachteile: STD existiert nur für Verteilungen mit E(FL 2 ) <, d.h. nicht ansetzbar bei leptokurtischen ( fat tailed ) Verlustverteilungen;

Zufallsvariablen. f(x) dx = 1. Die stetige Zufallsvariable X wird also durch seine Dichtefunktion beschrieben. P(c < X < d) =

Statistik und Wahrscheinlichkeitsrechnung

Kapitel 1: Elemente der Statistik

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Monotone Approximationen durch die Stirlingsche Formel. Wir beginnen mit einem einfachen Beweis einer schwachen Form von Stirlings

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

Mathematik für Biologen

Statistische Intervalle

Einfaktorielle Varianzanalyse

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Willkommen zur Vorlesung Statistik (Master)

Mathematische und statistische Methoden II

Transkript:

1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte Stichprobenverteilungen (χ 2 p, t p, F p,q ). 1.4.1 Eigenschaften des Stichprobenmittels und der Stichprobenvarianz Definition 1.4.1: Die Chiquadrat-Verteilung mit p Freiheitsgraden, χ 2 p, entspricht einer Gamma(p/2, 2) Verteilung und hat somit Dichte f(x p) = 1 Γ(p/2)2 p/2xp/2 1 exp( x/2)i [0, ) (x), p = 1, 2,.... Hierbei wird der Parameter p Freiheitsgrad genannt. Spezielle Wahl p = 1: f(x 1) = 1 2πx exp( x/2), 0 x. 44

Lemma 1.4.1: (Eigenschaften einer χ 2 verteilten Zufallsvariablen) (a) Falls Z N(0, 1), dann ist Z 2 χ 2 1, (b) Falls X 1,..., X n unabhängig mit X i χ 2 p i, dann ist i X i χ 2 i p i. Satz 1.4.1: Sei X 1,..., X n eine Zufallsstichprobe aus einer N(µ, σ 2 ) Verteilung. Dann gilt: (a) X und S 2 sind unabhängig, (b) X N(µ, σ 2 /n), (siehe dazu Beispiel 1.2.1) (c) (n 1)S 2 /σ 2 χ 2 n 1. 45

Für den Induktionsbeweis von Teil (c) werden wir die Aussagen des folgenden Beispiels verwenden. Beispiel 1.4.1: Bezeichne X n und S 2 n die Statistiken basierend auf n Beobachtungen. Kommt eine weitere Beobachtung X n+1 dazu, dann resultiert X n+1 = 1 n + 1 n+1 i=1 X i = 1 n + 1 ( n ) X i + X n+1 i=1 = 1 n + 1 ( nxn + X n+1 ). 46

Weiters gilt wegen Satz 1.2.1(b), dass (n 1)S 2 n = n i=1 X2 i nx2 n hält. Also ns 2 n+1 = = = n+1 i=1 X 2 i (n + 1)X 2 n+1 n Xi 2 + Xn+1 2 (n + 1) i=1 [ 1 n + 1 ( nxn + X n+1 ) ] 2 n Xi 2 nx 2 n + nx 2 n + Xn+1 2 1 n + 1 ) (X 2 n + Xn+1 2 2X n+1 X n i=1 = (n 1)S 2 n + n n + 1 = (n 1)S 2 n + n n + 1 ( Xn+1 X n ) 2. ( ) n 2 X 2 n + 2nX n+1 X n + Xn+1 2 47

Beweis: OBdA nehmen wir µ = 0 und σ 2 = 1 an. ad (a): zeige dass X und S 2 Funktionen von unabhängigen Zufallsvektoren sind. 1. Schreibe dazu S 2 als Funktion nur von (X 2 X, X 3 X,..., X n X). 2. Zeige dass X und (X 2 X, X 3 X,..., X n X) unabhängig sind, d.h. dass deren gemeinsame Dichte entsprechend faktorisiert. ad (b): bereits im Beispiel 1.2.1 gezeigt. ad (c): Induktion 1. Betrachte n = 2 und zeige S 2 2 χ 2 1. 2. Zeige unter der Annahme, es gelte für n = k gleich (k 1)S 2 k χ2 k 1, dass damit für n = k + 1 gleich ks 2 k+1 χ2 k folgt. 48

1.4.2 Hergeleitete Verteilungen: Student s t und Snedecor s F Mit Satz 1.4.1 ist bekannt, dass für eine Zufallsstichprobe aus N(µ, σ 2 ) gilt: X N(µ, σ 2 /n) und (n 1)S 2 /σ 2 χ 2 n 1. In der Praxis ist aber σ 2 unbekannt. Um eine Idee über die Variabilität von X zu bekommen (als Schätzer für µ), muss diese Varianz geschätzt werden. Dieser Punkt wurde erstmals von W. S. Gosset (publizierte unter Pseudonym Student) anfangs 1900 aufgegriffen (Biometrika, 1908). Er untersuchte die Verteilung von X µ S/ n anstatt von X µ σ/ n N(0, 1). Diese Größe bildet die Basis einer statistischen Analyse von µ falls σ 2 unbekannt. 49

Es gilt X µ S/ n = X µ σ/ n S2 /σ 2 = N(0, 1) χ 2 n 1 /(n 1). Der Zähler ist N(0, 1)-verteilt und der Nenner χ 2 n 1 /(n 1) ist unabhängig vom Zähler. Student interessierte sich also u.a. für die Verteilung von U V/p mit U N(0, 1), V χ 2 p, und U, V unabhängig. Dies ergibt Student s t-verteilung. 50

Definition 1.4.2: Sei X 1,..., X n eine Zufallsstichprobe aus einer N(µ, σ 2 ) Verteilung. Die Zufallsvariable T = X µ S/ n hat Student s t Verteilung mit (n 1) Freiheitsgraden. Äquivalent hat eine Zufallsvariable T Student s t Verteilung mit p Freiheitsgraden, T t p, falls ihre Dichte geschrieben werden kann als f T (t p) = Γ((p + 1)/2) Γ(p/2) 1 1, t R, p = 1, 2,.... (pπ) 1/2 (1 + t 2 /p)(p+1)/2 Falls p = 1 ist dies die Dichte der Cauchy-Verteilung, die für n = 2 resultiert. 51

Satz 1.4.2: (Eigenschaften der t p Verteilung) (a) Für X t p gilt E(X) = 0 falls p > 1, var(x) = p p 2 falls p > 2, (b) Die Momentenerzeugende Funktion existiert im allgemeinen nicht, (c) Für p Freiheitsgrade existieren nur die ersten p 1 Momente, d.h. t 1 hat keinen Erwartungswert, t 2 keine Varianz,..., (d) Für X p t p gilt lim f T (t p) = 1 exp( t 2 /2), p 2π an jeder Stelle x R, d.h. X p konvergiert in Verteilung gegen die N(0, 1)- Verteilung. 52

Eine weitere wichtige herleitbare Verteilung ist Snedecor s F. Die F -Verteilung, genannt nach Sir Ronald Fisher, ergibt sich als Verteilung des Quotienten von Stichprobenvarianzen. Sei dazu X 1,..., X n eine Zufallsstichprobe aus einer N(µ X, σx 2 ) Verteilung, und sei Y 1,..., Y m eine zweite Zufallsstichprobe aus einer N(µ Y, σy 2 ) Verteilung unabhängig von X 1,..., X n. Will man die Populationsvariabilitäten vergleichen, so könnte σx 2 /σ2 Y interessieren. Information darüber steckt in SX 2 /S2 Y. Die F Verteilung erlaubt diesen Vergleich und gibt uns die Verteilung von S 2 X /S2 Y σ 2 X /σ2 Y = S2 X /σ2 X S 2 Y /σ2 Y = χ2 n 1/(n 1) χ 2. m 1 /(m 1) Die Quotienten S 2 X /σ2 X und S2 Y /σ2 Y sind unabhängige, skalierte χ2 Variablen. 53

Definition 1.4.3: Sei X 1,..., X n eine Zufallsstichprobe aus einer N(µ X, σx 2 ) Verteilung und sei Y 1,..., Y m eine davon unabhängige Zufallsstichprobe aus einer N(µ Y, σy 2 ) Verteilung. Die Zufallsvariable F = S2 X /σ2 X S 2 Y /σ2 Y hat Snedecor s F Verteilung mit (n 1) und (m 1) Freiheitsgraden, F F n 1,m 1. Äquivalent hat eine Zufallsvariable F eine F Verteilung mit p und q Freiheitsgraden, falls ihre Dichte geschrieben werden kann als f F (x p, q) = Γ((p + q)/2) Γ(p/2)Γ(q/2) ( ) p/2 p x p/2 1 q (1 + xp/q) I [0, )(x). (p+q)/2 Allgemein ist die F Verteilung die Verteilung von (U/p)/(V/q), wobei U und V unabhängig sind mit U χ 2 p und V χ 2 q. 54

Wie wird nun die F Verteilung verwendet, um Inferenz über das wahre Verhältnis der Populationsvarianzen zu machen? Die Größe (S 2 X /σ2 X )/(S2 Y /σ2 Y ) hat eine F n 1,m 1 Verteilung. Wir berechnen ( χ 2 ) E(F n 1,m 1 ) = E n 1 /(n 1) χ 2 = E m 1 /(m 1) ( χ 2 ) n 1 E n 1 ( ) ( ) m 1 m 1 = 1E χ 2 m 1 χ 2 m 1. Nun ist für U χ 2 p E(U 1 ) = 1 Γ(p/2)2 p/2 0 x 1 x p/2 1 e x/2 dx = 1 Γ(p/2)2 p/2 0 x (p/2 1) 1 e x/2 dx. Der Integrand entspricht dem Kern einer χ 2 p 2 Dichte und es gilt somit 0 x (p/2 1) 1 e x/2 dx = Γ(p/2 1)2 p/2 1. 55

Wegen Γ(a) = (a 1)Γ(a 1) folgt weiters E(U 1 ) = 1 Γ(p/2)2 p/2γ(p/2 1)2p/2 1 = 1 Γ(p/2 1) 2 Γ(p/2) = 1 Γ(p/2 1) 2(p/2 1)Γ(p/2 1) = 1 p 2. Somit ist E(F n 1,m 1 ) = m 1 ( S 2 m 3 = E X /σx 2 ) SY 2 /σ2 Y Dies ist nur dann endlich und positiv, falls m > 3.. Für ausreichend großes m gilt daher erwartungsgemäß S 2 X /σ2 X S 2 Y /σ2 Y m 1 m 3 1. 56

Satz 1.4.3: (Eigenschaften der F Verteilung) (a) Für X F p,q gilt E(X) = (b) Für X F p,q gilt 1/X F q,p, (c) Für X t q gilt X 2 F 1,q, q q 2, (q > 2) var(x) = 2q2 (p + q 2) p(q 2) 2 (q 4), (q > 4) (d) Für X F p,q gilt p q X 1 + p Beta(p/2, q/2). qx 57