1. Eigenschaften einer Zufallsstichprobe

Ähnliche Dokumente
Modelle diskreter Zufallsvariablen

Finanzmathematische Modelle und Simulation

Konfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt

Wichtige Definitionen und Aussagen

Zusammenfassung PVK Statistik

Vorlesung: Statistik II für Wirtschaftswissenschaft

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Vorlesung: Statistik II für Wirtschaftswissenschaft

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe

1.3 Wiederholung der Konvergenzkonzepte

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Willkommen zur Vorlesung Statistik (Master)

Statistik I für Betriebswirte Vorlesung 3

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Statistik I für Betriebswirte Vorlesung 4

Wahrscheinlichkeitsrechnung und Statistik

Stochastik für die Naturwissenschaften

Übungen zur Vorlesung Statistische Methoden Kapitel 1-2

Kapitel XI - Die n-fache unabhängige Wiederholung eines Experiments

Verteilungen eindimensionaler diskreter Zufallsvariablen Diskrete Verteilungen. Hypergeometrische Verteilung Poissonverteilung

Statistik für Ingenieure Vorlesung 3

Exponentialverteilung

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Grundlegende Eigenschaften von Punktschätzern

1 Multivariate Zufallsvariablen

Unabhängigkeit KAPITEL 4

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.

Zufallsvariablen [random variable]

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212

1. Grundbegri e der Stochastik

Prüfung. Wahrscheinlichkeit und Statistik. ETH Zürich SS 2016 Prof. Dr. P. Embrechts August BSc INFK. Nachname. Vorname.

1.4 Zufallsvariablen und ihre Verteilung

Mehrdimensionale Zufallsvariablen

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

3 Grundlagen statistischer Tests (Kap. 8 IS)

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Wirtschaftsmathematik

WS 2014/15. (d) Bestimmen Sie die Wahrscheinlichkeitsfunktion von X. (e) Bestimmen Sie nun den Erwartungswert und die Varianz von X.

2. Prinzipien der Datenreduktion

Statistik I für Betriebswirte Vorlesung 2

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Wahrscheinlichkeitstheorie und Statistik

Multivariate Zufallsvariablen

4 MEHRDIMENSIONALE VERTEILUNGEN

Stochastik Serie 11. ETH Zürich HS 2018

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Stochastik und Statistik für Ingenieure Vorlesung 4

So berechnen Sie einen Schätzer für einen Punkt

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)

Statistik I für Betriebswirte Vorlesung 13

Man kann also nicht erwarten, dass man immer den richtigen Wert trifft.

Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig,

1.4 Stichproben aus einer Normalverteilung

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Willkommen zur Vorlesung Statistik (Master)

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

5.3 Diskrete zufällige Variablen

5. Stichproben und Statistiken

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zulassungsprüfung Stochastik,

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg

1.5 Erwartungswert und Varianz

1.5.4 Quantile und Modi. Bem [Quantil, Modus]

1. Einführung in die induktive Statistik

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

1.5 Mehrdimensionale Verteilungen

Population und Stichprobe Wahrscheinlichkeitstheorie II

1.5 Erwartungswert und Varianz

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Wahrscheinlichkeitsräume und Zufallsvariablen

Kapitel 1: Elemente der Statistik

Wahrscheinlichkeit und Statistik BSc D-INFK

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr

Statistik I für Betriebswirte Vorlesung 3

Einführung in die Maximum Likelihood Methodik

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II

Stochastik Wiederholung von Teil 1

7.5 Erwartungswert, Varianz

TU DORTMUND Sommersemester 2018

OLS-Schätzung: asymptotische Eigenschaften

Vorlesung Donnerstag, 10:00-11:30 Uhr M629 Freitag, 8:15-9:45 Uhr R513

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Woche 2: Zufallsvariablen

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

Marcel Dettling. GdM 2: LinAlg & Statistik FS 2017 Woche 12. Winterthur, 17. Mai Institut für Datenanalyse und Prozessdesign

Aufgaben. d) Seien X und Y Poissonverteilt mit Parameter µ, X, Y P(µ). 2. Dann ist die Summe auch Poissonverteilt mit (X + Y ) P(2µ).

Transkript:

1. Eigenschaften einer Zufallsstichprobe 1.1 Grundkonzepte Definition 1.1.1: Man nennt die Zufallsvariablen X 1,..., X n zufällige Stichprobe oder Zufallsstichprobe vom Umfang n aus der Population (Grundgesamtheit) f(x), wenn die X 1,..., X n unabhängige Zufallsvariablen sind und die Randdichte oder Randwahrscheinlichkeitsfunktion jedes X i dieselbe Funktion f(x) ist. Alternativ nennt man X 1,..., X n unabhängig und identisch verteilte (independent and identically distributed, iid) Zufallsvariablen mit Dichte oder Wahrscheinlichkeitsfunktion f(x). 1

Bemerkungen: Die Beobachtungen werden derart genommen, dass der Wert einer Beobachtung keinen Effekt auf die übrigen Beobachtungen hat (Unabhängigkeit). Die gemeinsame Dichte oder Wahrscheinlichkeitsfunktion von X 1,..., X n ist f(x 1,..., x n ) = f(x 1 )f(x 2 ) f(x n ) = n f(x i ). Da die X i alle identisch verteilt sind, sind die marginalen f(x i ) alle dieselben. Falls f(x) ein Mitglied einer parametrischen Familie ist (Normal-... ) mit Dichte oder Wahrscheinlichkeitsfunktion f(x θ), dann ist die gemeinsame Dichte oder Wahrscheinlichkeitsfunktion f(x 1,..., x n θ) = n f(x i θ). 2

Statistisches Denken: Wir nehmen an, dass die betrachtete Population ein Mitglied einer parametrischen Familie ist, aber der wahre Parameterwert unbekannt ist. Betrachtet man verschiedene Werte von θ, so kann man untersuchen, wie sich eine Zufallsstichprobe für verschiedene Populationen verhält. Beispiel 1.1.1: Sei X 1,..., X n eine Zufallsstichprobe aus einer Exponential(β)- Population, d.h. mit Dichtefunktion f(x β) = 1 ( β exp x ), 0 x <, 0 < β, β mit E(X) = β und var(x) = β 2. Dazu korrespondiert die Verteilungsfunktion F (x β) = 1 exp ( x ) β. Diese Zufallsstichprobe charakterisiere Ausfallszeiten von IC s in Jahren. Wir testen n IC s und verwenden diese bis sie ausfallen. 3

Die gemeinsame Dichte der Zufallsstichprobe ist f(x 1,..., x n β) = n f(x i β) = n ( 1 β exp x ) i β ( = 1 β n exp 1 β ) n x i. Damit ist z.b. die Wahrscheinlichkeit, dass alle IC s länger als 2 Jahre halten, gleich P (X 1 > 2,..., X n > 2 β) = P (X 1 > 2 β) P (X n > 2 β) Unabhängigkeit = (P (X 1 > 2 β)) n identisch verteilt = (e 2/β) n = e 2n/β. Für große Werte von β ist dies nahe 1. exponentialverteilt 4

Bemerkungen: Diese Art Stichprobe nennt man Stichprobe aus einer unendlichen Population. Gedanke: Erhalte die Werte von X 1,..., X n sequentiell d.h. 1. Experiment: X 1 = x 1 wird beobachtet. Dann 2. Experiment: X 2 = x 2 wird beobachtet. Unabhängigkeit bedeutet, dass die Verteilung von X 2 nicht von X 1 = x 1 abhängt. Das Entfernen von x 1 aus der unendlich großen Population ändert diese nicht. Somit ist X 2 = x 2 noch immer zufällige Beobachtung aus derselben Population. Bei einer Stichprobe aus einer endlichen Population muss zwischen mit/ohne Zurücklegen (replacement) unterschieden werden. Population ist jetzt die endliche Menge von Zahlen {x 1,..., x N }. Sei X 1,..., X n eine Stichprobe daraus. 5

(1) mit Zurücklegen: Wir nehmen an, dass die Wahrscheinlichkeit einen Wert aus der Population zu wählen gleich ist für alle x j, also gleich 1/N ist (Urnenmodell, ziehe aus einem Hut). Sei X 1 = x 1. Dann wird x 1 zurückgelegt und das Ziehen wiederholt. Wieder sind alle N Werte gleichwahrscheinlich. Wir erhalten X 2 = x 2. Falls dieselbe Zahl gewählt wurde ist x 2 = x 1. Wir wiederholen das Experiment n mal und erhalten die Stichprobe X 1,... X n. Die Bedingungen der Definition 1.1.1 sind bei dieser Art die Stichprobe zu ziehen erfüllt. Jedes X i ist eine diskrete Zufallsvariable, welche die Werte x 1,..., x N mit gleicher Wahrscheinlichkeit annimmt. Die Zufallsvariablen X 1,..., X n sind unabhängig, da der Auswahlprozess eines X i derselbe ist, unabhängig der Werte die zuvor gezogen wurden. 6

(2) ohne Zurücklegen: Annahmen wie zuvor jedoch wird jetzt nach X 1 = x 1 der Wert x 1 nicht mehr zurückgegeben. Der 2. Wert wird aus den verbliebenen N 1 gewählt. Jeder dieser N 1 Werte hat Wahrscheinlichkeit 1/(N 1) gezogen zu werden. Wir erhalten X 2 = x 2 x 1 u.s.w. Dieser Prozess liefert eine Stichprobe X 1,..., X n, jedoch ist ein gezogener Wert später nicht mehr verfügbar. Somit ist keine Unabhängigkeit in dieser Stichprobe und die Annahmen aus Definition 1.1.1 sind nicht erfüllt. 7

Betrachte die marginale Verteilung von X 2 : P (X 2 = x) = N P (X 2 = x X 1 = x i )P (X 1 = x i ) totale Wahrscheinlichkeit. Für einen Index i ist x = x i und somit P (X 2 = x X 1 = x i ) = 0. Für alle übrigen N 1 Indizes j i gilt P (X 2 = x X 1 = x j ) = 1/(N 1) und es folgt P (X 2 = x) = (N 1) ( 1 N 1 1 ) N = 1 N. Also sind die marginalen Verteilungen dieselben unter Ziehen der Stichprobe mit und ohne Zurücklegen. Jedoch gibt es keine Unabhängigkeit bei Ziehen ohne Zurücklegen. Annähernde Unabhängigkeit erreicht man für N sehr groß. Von nun an verwenden wir die Definition 1.1.1, um eine Zufallsstichprobe aus einer Population zu charakterisieren. 8