1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe

Ähnliche Dokumente
2. Prinzipien der Datenreduktion

1.3 Wiederholung der Konvergenzkonzepte

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

1.4 Stichproben aus einer Normalverteilung

3.3 Methoden zur Evaluierung von Schätzern

Wahrscheinlichkeitsrechnung und Statistik

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion

Konfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt

1. Eigenschaften einer Zufallsstichprobe

Wichtige Definitionen und Aussagen

5. Stichproben und Statistiken

5 Optimale erwartungstreue Schätzer

4.2 Moment und Varianz

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

4. Verteilungen von Funktionen von Zufallsvariablen

7.2 Moment und Varianz

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

Zufallsvariablen [random variable]

Die Varianz (Streuung) Definition

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Wahrscheinlichkeitstheorie und Statistik

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II

3 Statistische Schätzungen

Erwartungswert und Varianz von Zufallsvariablen

Stochastik Praktikum Parametrische Schätztheorie

Suffizienz und Vollständigkeit

Signifikanztests Optimalitätstheorie

Reelle Zufallsvariablen

13 Grenzwertsätze Das Gesetz der großen Zahlen

Statistik I für Betriebswirte Vorlesung 13

Stochastik für die Naturwissenschaften

1.5 Mehrdimensionale Verteilungen

Biostatistik, Sommer 2017

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Stochastik Aufgaben zum Üben: Teil 2

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr

Multivariate Verteilungen. Gerhard Tutz LMU München

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Wirtschaftsmathematik

2.2 Klassische Testtheorie

x p 2 (x )dx, Hinweis: es ist nicht erforderlich, zu integrieren!

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Schätzer und Konfidenzintervalle

Man kann also nicht erwarten, dass man immer den richtigen Wert trifft.

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

1 Multivariate Zufallsvariablen

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.19 (allgemeines Theorem von Bayes)

Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung

6. Schätzverfahren für Parameter

Die Familie der χ 2 (n)-verteilungen

Die Familie der χ 2 (n)-verteilungen

Statistik Klausur Wintersemester 2013/2014 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn Referenten: Belinda Höher, Thomas Holub, Maria Böhm.

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, (

12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Stochastik Wiederholung von Teil 1

2.3 Intervallschätzung

Einführung in die Induktive Statistik: Testen von Hypothesen

Einführung in die statistische Testtheorie II

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Musterlösung zu Serie 8

Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen

5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung

Mehrdimensionale Zufallsvariablen

Statistik Klausur Wintersemester 2013/2014 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Varianz und Kovarianz

Wahrscheinlichkeitsrechnung und Statistik

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

1.5 Erwartungswert und Varianz

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

5 Allgemeine Verfahren zum Testen von Hypothesen

Zusammenfassung PVK Statistik

Statistics, Data Analysis, and Simulation SS 2017

Vorlesung 5a. Die Varianz

Stochastik für die Naturwissenschaften

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

Aufgaben. d) Seien X und Y Poissonverteilt mit Parameter µ, X, Y P(µ). 2. Dann ist die Summe auch Poissonverteilt mit (X + Y ) P(2µ).

Wahrscheinlichkeitstheorie und Statistik vom

2.2 Klassische Testtheorie

Diskrete Zufallsvariablen (Forts.) I

Diskrete Zufallsvariablen (Forts.) I

Institut für Stochastik, SoSe K L A U S U R , 13:

Transkript:

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe Nachdem eine Stichprobe X 1,..., X n gezogen wurde berechnen wir gewöhnlich irgendwelchen Wert damit. Sei dies T = T (X 1,..., X n, wobei T auch vektorwertig sein kann. Die Verteilung der Zufallsvariablen T wird in Termen der Populationsverteilung beschrieben aus der die Stichprobe stammt. Im Folgenden diskutieren wir Eigenschaften von Funktionen T (X 1,..., X n, die als Summen von Zufallsvariablen definiert sind. Definition 1.2.1: Sei X 1,..., X n eine Zufallsstichprobe vom Umfang n und sei T (x 1,..., x n eine skalar- oder vektorwertige Funktion deren Definitionsbereich den Stichprobenraum von X 1,..., X n beinhaltet. Die Zufallsvariable oder den Zufallsvektor T = T (X 1,..., X n nennt man eine Statistik und deren Verteilung bezeichnet man als Stichprobenverteilung von T. 9

Diese Definition einer Statistik ist sehr breit mit der einzigen Einschränkung, dass T keine Funktion von Parametern sein darf. Jetzt definieren wir einige häufig verwendete Statistiken. Definition 1.2.2: Das Stichprobenmittel (empirische Mittel, sample mean ist definiert als X = 1 n X i. n Definition 1.2.3: Die Stichprobenvarianz (empirische Varianz, sample variance ist definiert als S 2 = 1 n ( Xi X 2. n 1 Die Stichprobenstandardabweichung ist S = S 2. Die beobachteten Werte dieser Statistiken bezeichnet man durch x, s 2, und s. 10

Satz 1.2.1: Seien x 1,..., x n beliebige Zahlen und sei x = i x i/n. Dann gilt (a min a i (x i a 2 = i (x i x 2, (b (n 1s 2 = i (x i x 2 = i x2 i nx2. Lemma 1.2.1: Sei X 1,..., X n eine Zufallsstichprobe aus einer Population, und sei g(x eine Funktion sodass E(g(X 1 und var(g(x 1 existieren. Dann gilt ( n E g(x i ( n var g(x i = ne ( g(x 1, = nvar ( g(x 1. 11

Satz 1.2.2: Sei X 1,..., X n eine Zufallsstichprobe aus einer Population mit Erwartung µ und Varianz σ 2 <. Dann gilt (a E ( X = µ (auch für σ 2 =, (b var ( X = σ 2 /n, (c E ( S 2 = σ 2. 12

Bemerkungen: X und S 2 sind Beispiele von einer unverzerrten (unbiased Statistik. X ist unverzerrt für µ und S 2 ist unverzerrt für σ 2. Die Skalierung von S 2 mit (n 1 ist daher sinnvoll gewählt. Es gilt damit E(S 2 = σ 2. Wäre S 2 nur mit n skaliert, so würde dafür folgen E ( 1 n n (X i X 2 = E ( 1 n (n 1S2 = n 1 n σ2 und dies wäre nicht mehr unverzerrt für σ 2 asymptotisch unverzerrt, für n. (jedoch wäre dies noch immer Wir diskutieren nun die Stichprobenverteilung von X. 13

Satz 1.2.3: Sei X 1,..., X n eine Zufallsstichprobe aus einer Population mit Momentenerzeugender Funktion M X (t. Dann ist die Momentenerzeugende Funktion des Stichprobenmittels gleich M X (t = ( M X (t/n n. Beispiel 1.2.1: Sei X 1,..., X n eine Zufallsstichprobe aus einer N(µ, σ 2 Population. Dann ist M Xi (t = exp(µt + σ 2 t 2 /2 für alle i = 1,..., n und es folgt M X (t = ( exp = exp d.h., X N(µ, σ 2 /n. (µ tn + σ2 (t/n 2 n ( n 2 (µ tn + σ2 (t/n 2 = exp (µt + (σ2 /nt 2 2 2, 14

Falls wir eine Stichprobe aus einer Population ziehen, die ein Mitglied der Exponentialfamilie ist, so ist die Stichprobenverteilung von Summen von Zufallsvariablen, und speziell von X, sehr einfach zu erhalten. Definition 1.2.4: Eine Familie von Dichte- oder Wahrscheinlichkeitsfunktionen nennt man Exponentialfamilie, falls sie dargestellt werden kann als ( k f(x θ = h(x c(θ exp w i (θt i (x Hierbei sind h(x 0 und t 1 (x,..., t k (x reellwertige Funktionen der Beobachtung x (von θ unabhängig, und c(θ 0 und w 1 (θ,..., w k (θ sind reellwertige Funktionen des (möglicherweise vektorwertigen Parameters θ (von x unabhängig. Viele bekannte Verteilungsfamilien gehören zur Exponentialfamilie: Normal, Gamma und Beta (stetig, sowie Binomial, Poisson und Negativ-Binomial (diskret.. 15

Um zu prüfen, ob eine Familie f(x θ Mitglied der Exponentialfamilie ist, muss man die Funktionen h(x, c(θ, w i (θ, und t i (x identifizieren und zeigen, dass diese Familie die Form aus Definition 1.2.4 hat. Beispiel 1.2.2: Sei n ein positiver ganzzahliger Wert und betrachte die Binomial(n, p Familie mit 0 < p < 1. Dann ist die Wahrscheinlichkeitsfunktion für diese Familie für x = 0, 1,..., n gleich f(x p = = = ( n p x (1 p n x x ( ( n p (1 p n x 1 p ( n (1 p n exp x x ( log ( p 1 p x. 16

Definiere { ( n h(x = x x = 0, 1,..., n 0 sonst, c(p = (1 p n, 0 < p < 1 p w 1 (p = log 1 p, 0 < p < 1, t 1(x = x. Damit haben wir die äquivalente Darstellung f(x p = h(xc(p exp ( w 1 (pt 1 (x was eine Exponentialfamilie ist mit k = 1. Bemerke, dass h(x > 0 nur für x = 0, 1,..., n, und dass c(p nur für 0 < p < 1 definiert ist. Dies ist wichtig, da die obige Form für alle Werte von x mit der ursprünglichen übereinstimmen muss. Weiters ist f(x p nur für 0 < p < 1 eine Exponentialfamilie (weil nur hierfür die Funktionen in den Parametern definiert sind. 17

Manchmal sind auch die Werte p = 0 und p = 1 im Binomialmodell inkludiert; jedoch nicht hier, da der Bereich der x Werte für die f(x p > 0 gilt unter p = 0/1 von den entsprechenden Bereichen unter den übrigen p Werten unterscheidet. Wir betrachten nun statistische Eigenschaften (Momente der Exponentialfamilie. Satz 1.2.4: Sei X eine Zufallsvariable mit Dichte- oder Wahrscheinlichkeitsfunktion aus der Exponentialfamilie. Dann gilt ( k E ( k var w i (θ t i (X θ j w i (θ t i (X θ j = θ j log(c(θ, = 2 θ 2 j log(c(θ E ( k 2 w i (θ θj 2 t i (X. 18

Beispiel 1.2.2 Fortsetzung: Berechne mit Satz 1.2.4 die Momente der Binomial(n, p Verteilung, 0 < p < 1. d dp w 1(p = d dp log p 1 p = 1 p(1 p d dp log c(p = d dp log(1 pn = n 1 p Damit resultiert ( 1 E p(1 p X = n 1 p also die bekannte Eigenschaft E(X = np. Ähnliches Vorgehen liefert die bekannte Varianzidentität var(x = np(1 p. 19

Beispiel 1.2.3: Sei f(x µ, σ 2 die Normal(µ, σ 2 Familie von Dichten und betrachte θ = (µ, σ 2 mit µ R und σ > 0, also f(x µ, σ 2 = = ( 1 exp (x µ2 2πσ 2 ( 1 exp µ2 2πσ 2 2σ 2 2σ 2 exp ( x2 2σ 2 + µx σ 2. Definiere c(θ = c(µ, σ 2 = h(x = 1, x R, ( 1 exp µ2 2πσ 2 2σ 2, µ R, σ > 0 ; w 1 (θ = 1 σ 2, σ > 0, w 2(θ = µ σ 2, σ > 0, t 1 (x = x 2 /2, t 2 (x = x. 20

Damit hat f(x µ, σ 2 = h(xc(µ, σ 2 exp ( w 1 (µ, σ 2 t 1 (x + w 2 (µ, σ 2 t 2 (x genau die ursprüngliche Form mit k = 2 und die Parameterfunktionen sind nur über den Bereich der Parameter definiert. Im Allgemeinen darf in einer Exponentialfamilie der Bereich der x Werte, für den f(x θ > 0 gilt, nicht von θ abhängen. Die gesamte Definition der Dichte oder Wahrscheinlichkeitsfunktion muss in die Form f(x θ aus Definition 1.2.4 eingeflossen sein. Am einfachsten kann der zulässige Bereich der x Werte mithilfe von Indikatoren charakterisiert werden, d.h. mittels I A (x = { 1 x A 0 x A, oder I(x A. 21

Für die Normalverteilungsfamilie folgt damit f(x µ, σ 2 = h(xc(µ, σ 2 exp ( w 1 (µ, σ 2 t 1 (x + w 2 (µ, σ 2 t 2 (x I R (x Da hier der Indikator nur von x abhängt, kann man ihn in h(x inkludieren. Bemerkungen: Da der Faktor exp( immer positiv ist, gilt für beliebiges θ Θ (Θ bezeichnet hierbei den gesamten Parameterraum, also für ein beliebiges θ mit c(θ > 0, dass {x : f(x θ > 0} = {x : h(x > 0} und diese Menge hängt nicht von θ ab. So ist z.b. f(x θ = θ 1 exp(1 x/θ, 0 < θ < x <, keine Exponentialfamilie obwohl wir (fälschlicherweise schreiben könnten f(x θ = h(xc(θ exp(w(θt(x mit h(x = e 1, c(θ = θ 1, w(θ = θ 1 und t(x = x. 22

Mit dem darin fehlenden Indikator wird dies klar: f(x θ = θ 1 exp(1 x/θi (θ, (x. Diesen Indikator darf man weder in h( noch in c( geben, da er eine Funktion sowohl in θ als auch in x ist. Definition 1.2.5: Eine gekrümmte (curved Exponentialfamilie ist eine Familie von Dichten aus der Exponentialfamilie, für welche die Dimension des Vektors θ gleich d < k ist. Ist d = k, nennt man die Familie eine volle (full Exponentialfamilie. 23

Beispiel 1.2.4: Die N(µ, σ 2 Familie ist eine volle Familie (k = 2. Für beispielsweise σ 2 = µ 2 wird diese gekrümmt. Dann hat man ( 1 f(x µ = exp (x µ2 2πµ 2 = ( 1 exp 1 2πµ 2 2 2µ 2 exp ( x2 2µ 2 + x µ Für die volle Exponentialfamilie haben wir hier als Parameterraum (µ, σ 2 = R (0,, während für die obige gekrümmte Version dafür folgt eine Parabel. (µ, σ 2 = (µ, µ 2,. 24

Normal Approximationen ergeben häufig gekrümmte Exponentialfamilien: Für X i iid Bernoulli(p folgt approximativ (ZGWS X N ( p, 1 n p(1 p. Für X i iid Poisson(λ ergibt sich approximativ (ZGWS X N ( λ, 1 n λ. 25

Satz 1.2.5: Angenommen X 1,..., X n ist eine Zufallsstichprobe aus einer Population mit Dichte- oder Wahrscheinlichkeitsfunktion f(x θ der Form ( k f(x θ = h(xc(θ exp w i (θt i (x Definiere Statistiken T 1,..., T k durch. T i (X 1,..., X n = n t i (X j, i = 1,..., k. j=1 Falls die Menge {(w 1 (θ,..., w k (θ, θ Θ} eine offene Teilmenge des R k enthält, dann ist die Verteilung von (T 1,..., T k eine Exponentialfamilie der Form ( k f T (u 1,..., u k θ = H(u 1,..., u k (c(θ n exp w i (θu i. 26

Bemerkungen: Die obige Bedingung (offene Teilmenge eliminiert Dichten wie die der N(θ, θ 2 - Verteilung, und eliminiert im allgemeinen gekrümmte Exponentialfamilien. Auch hier sind die Funktionen c(θ und w i (θ dieselben wie in der Originalfamilie. Die Funktion H( jedoch unterscheidet sich von h(. Beispiel 1.2.5: Sei X 1,..., X n eine Zufallsstichprobe aus einer Bernoulli(p Verteilung. Aus dem Beispiel 1.2.2 sehen wir (mit Wahl n = 1, dass die Bernoulli(p Verteilung eine Exponentialfamilie ist mit k = 1, c(p = (1 p, w(p = log p/(1 p und t(x = x. Somit ist in Satz 1.2.5 die Statistik T 1 = T 1 (X 1,..., X n = n j=1 X j. Wir wissen, dass T 1 Binomial(n, p gilt. Von Beispiel 1.2.2 wissen wir, dass die Binomial(n, p eine Exponentialfamilie ist mit gleichem w(p und c(p = (1 p n. Somit ist zumindest die Aussage des Satzes 1.2.5 für diesen Fall verifiziert. 27