Schätzen und Testen I Wintersemester 2015/16

Größe: px
Ab Seite anzeigen:

Download "Schätzen und Testen I Wintersemester 2015/16"

Transkript

1 Schätzen und Testen I Wintersemester 2015/16 Folien zur Vorlesung von Sonja Greven Christian Heumann nach einer Vorlage von Christiane Fuchs Ludwig Fahrmeir Volker Schmid 1

2 Worum geht es in dieser Vorlesung? Statistik umfasst die deskriptive Statistik explorative Statistik induktive Statistik Hier: Statistische Inferenz Verschiedene Inferenzkonzepte. In dieser Vorlesung (ST1) Fokus auf klassischer Inferenz Likelihood-Inferenz Bayes-Inferenz 2

3 Inhalt von Teil 1 (Sonja Greven) 1. Einführung in statistische Modelle und Inferenzkonzepte Statistische Modelle Konzepte der statistischen Inferenz 2. Klassische Schätz- und Testtheorie Klassische Schätztheorie Klassische Testtheorie Bereichsschätzung und Konfidenzintervalle Multiples Testen 3. Likelihood-Inferenz Parametrische Likelihood-Inferenz Maximum-Likelihood-Schätzung Testen linearer Hypothesen und Konfidenzintervalle Fehlspezifikation, Quasi-Likelihood und Schätzgleichungen 3

4 Inhalt 1. Einführung in statistische Modelle und Inferenzkonzepte Statistische Modelle Konzepte der statistischen Inferenz 2. Klassische Schätz- und Testtheorie Klassische Schätztheorie Klassische Testtheorie Bereichsschätzung und Konfidenzintervalle Multiples Testen 3. Likelihood-Inferenz Parametrische Likelihood-Inferenz Maximum-Likelihood-Schätzung Testen linearer Hypothesen und Konfidenzintervalle Fehlspezifikation, Quasi-Likelihood und Schätzgleichungen 4

5 1 Einführung in statistische Modelle und Inferenzkonzepte Ziele: 1.1 Statistische Modelle im Überblick, von einfachen hin zu komplexeren Modellen. Auswahl orientiert an Datenstrukturen, Modellklassen und Fragestellungen aus dem Bachelorprogramm und darüber hinaus. 1.1 Problemstellungen der zugehörigen statistischen Inferenz. 1.2 Konzepte statistischer Inferenz im Überblick. 5

6 1.1 Statistische Modelle Überblick unabhängig identisch verteilter (i.i.d.) Fall bedingt unabhängiger Fall: Regression Verallgemeinerungen vom einfachen linearen Modell zu größerer Klasse an Verteilungsannahmen (GLM) nichtlinearen Kovariableneffekten (additive Modelle) verteilungsfreien Ansätzen (Quantilsregression) abhängiger Fall: Beispiel Longitudinaldaten fehlende/unvollständige Daten 6

7 1.1 Statistische Modelle Einfache Zufallsstichproben Ein-Stichproben-Fall: Seien x 1,..., x n die Daten als Realisierungen von Stichprobenvariablen X 1,..., X n und diese i.i.d. wie Zufallsvariable X mit Verteilungsfunktion F (x) bzw. (stetiger, diskreter bzw. allgemeiner Radon-Nikodym -) Dichte f (x) a) Parametrische Modelle X f (x θ), θ = (θ 1,..., θ k ) Θ R k In der Regel ist k fest und klein im Verhältnis zu n. 7

8 1.1 Statistische Modelle Einfache Zufallsstichproben Beispiel X N(µ, σ 2 ); Schätzen/Testen von µ, zum Beispiel Gauß-Test, t-test; Schätzen/Testen von σ X = (X 1,..., X p ) mehrdimensional, zum Beispiel X N p (µ, Σ). 3. Analoge Problemstellungen für X Bin(N, π), X Po(λ),... bzw. allgemein X einfache lineare Exponentialfamilie mit natürlichem (skalarem) Parameter θ. 8

9 1.1 Statistische Modelle Einfache Zufallsstichproben Definition 1.1 (Exponentialfamilien) Eine Verteilungsfamilie heißt Exponentialfamilie def f (x θ) = h(x) c(θ) exp (γ 1 (θ)t 1 (x) γ r (θ)t r (x)) = h(x) exp ( b(θ) + γ(θ) T(x) ) mit h(x) 0 und b(θ) = log(c(θ)) T(x) = (T 1 (x),..., T r (x)) γ(θ) = (γ 1 (θ),..., γ r (θ)). γ 1,..., γ r heißen die natürlichen oder kanonischen Parameter der Exponentialfamilie (nach Reparametrisierung von θ mit γ). Annahme: 1, γ 1,..., γ r und 1, T 1 (x),..., T r (x) sind linear unabhängig, d.h. f ist strikt r-parametrisch. 9

10 1.1 Statistische Modelle Einfache Zufallsstichproben Beispiel Bernoulli-Experiment: X = (X 1,..., X n ), X i i.i.d. Bin(1, π). 10

11 1.1 Statistische Modelle Einfache Zufallsstichproben Beispiel Bernoulli-Experiment fortgeführt: d.h. es liegt eine einparametrische Exponentialfamilie vor mit n T (x) = i=1 γ = log x i ( ) π =: logit(π). 1 π Bemerkung: Eine Verteilungsfamilie heißt einfache lineare Exponentialfamilie, falls f (x θ) exp(b(θ) + θx) bzw. (mit Dispersionsparameter φ) falls f (x θ) exp( b(θ) + θx ). φ 11

12 1.1 Statistische Modelle Einfache Zufallsstichproben Beispiel 1.1 fortgeführt 4. Lokations- und Skalenmodelle: X F 0 ( x a b mit gegebener Verteilungsfunktion F 0 (z). a R heißt Lokationsparameter, b > 0 Skalenparameter. Dichten im stetigen Fall: X 1 ( ) x a b f 0 b mit gegebener Dichte f 0 (z). ) 12

13 1.1 Statistische Modelle Einfache Zufallsstichproben Beispiele für Lokations- und Skalenmodelle: X N(a, b 2 ) (Normalverteilung), f 0 (z) = φ(z): ( ) 1 x a b f 0 = 1 ( exp 1 (x a) 2 ) b 2πb 2 b 2 X DE(a, b) (Laplace- oder Doppelexponentialverteilung): ( ) 1 x a b f 0 = 1 ( ) b 2b exp x a b X U(a, b) (Gleichverteilung): ( ) 1 x a b f 0 = 1 b b I (a b 2,a+ b 2) (x) Der Träger ist abgeschlossen und hängt von den Parametern ab. 13

14 f(x) a= 0, b= 1 a= 0, b= 3 a= 4, b= 1 a= 4, b= x Lokations- und Skalenmodelle: Normalverteilung 14

15 f(x) a= 0, b= 1 a= 0, b= 3 a= 4, b= 1 a= 4, b= x Lokations- und Skalenmodelle: Gleichverteilung 15

16 1.1 Statistische Modelle Einfache Zufallsstichproben Weitere Beispiele für Lokations- und Skalenmodelle: X C(a, b) (Cauchy-Verteilung): ( ) 1 x a b f 0 = b b π 1 b 2 + (x a) 2 X L(a, b) (logistische Verteilung): ( ) 1 x a b f 0 = 1 b b exp ( x a ) b ( ( )) 1 + exp x a 2 b X E(a, b) (Exponentialverteilung): 1 b f 0 ( x a b ) = 1b ( exp x a ) I b [a, ) (x) 16

17 1.1 Statistische Modelle Einfache Zufallsstichproben Beispiel 1.1 fortgeführt 5. Mischverteilungen: X π 1 f 1 (x ϑ 1 ) π J f J (x ϑ J ) mit π π J = 1, wobei die π j als Mischungsanteile und die f j (x ϑ j ) als Mischungskomponenten bezeichnet werden. Genauer spricht man von diskreter Mischung. Beispiel Normalverteilungsmischung: X π 1 φ(x µ 1, σ 2 1) π J φ(x µ J, σ 2 J ). Unbekannt sind meistens ϑ = (ϑ 1,..., ϑ J ) und π = (π 1,..., π J ). Das Schätzen von θ = (ϑ, π) erfolgt mit ML-Schätzung, meist mit Hilfe des EM-Algorithmus. Auch gewünscht: Testen auf Anzahl J der Mischungskomponenten. 17

18 Dichte x Mischung mit π 1 = 0.8, f 1 (x) = φ(x 0, 2 2 ), π 2 = 0.2, f 2 (x) = φ(x 4, 3 2 ). 18

19 1.1 Statistische Modelle Einfache Zufallsstichproben b) Nichtparametrische Modelle/Inferenz X F (x), X stetige Zufallsvariable, F stetige Verteilung Kolmogorov-Smirnov-Test auf H 0 : F (x) = F 0 (x) X F (x), X diskret bzw. gruppiert χ 2 -Anpassungstest auf H 0 : F (x) = F 0 (x) X f (x), X stetige Zufallsvariable, f bis auf endlich viele Punkte stetig, differenzierbar etc. nichtparametrische Dichteschätzung, zum Beispiel Kerndichteschätzung Der Zwei-und Mehr-Stichprobenfall kann analog behandelt werden; vgl. Statistik II. 19

20 1.1 Statistische Modelle Lineare und generalisierte lineare parametrische Modelle Daten (y i, x i ), i = 1,..., n, sind gegeben, mit x i = (x i1,..., x ip ). y 1 x 1,..., y n x n sind (bedingt) unabhängig, aber nicht identisch verteilt a) Klassisches lineares Modell (LM) y i = x i β+ε i, ε i i.i.d. [N](0, σ 2 ) y i x i [N](µ i = x i β, σ 2 ) Annahme: p = dim(β) < n und n fest. Schätzen von β und σ 2, Tests für β mit oder ohne Normalverteilungsannahme. Variablenselektion und Modellwahl. Spezialfall: Varianzanalyse. 20

21 1.1 Statistische Modelle Lineare und generalisierte lineare parametrische Modelle b) Generalisierte lineare Modelle (GLM) y i x i, i = 1,..., n, besitzen Dichte aus einfacher linearer Exponentialfamilie, zum Beispiel Normal-, Binomial-, Poisson- oder Gammaverteilung, und sind bedingt unabhängig. E[y i x i ] = µ i = h(x i β) Dabei ist h die inverse Linkfunktion (oder Responsefunktion). Die Inferenzprobleme im GLM sind wie im linearen Modell. Es ist likelihoodbasierte oder bayesianische Inferenz möglich. Beachte: Die y i x i sind nicht identisch verteilt. 21

22 1.1 Statistische Modelle Lineare und generalisierte lineare parametrische Modelle Beispiel 1.2 Sei y i x i {0, 1} und µ i = π i = P(y i = 1 x i ), π i = h(x i β). Beispiele für h sind die Verteilungsfunktion der logistischen Verteilung ( Logit-Modell) oder die Verteilungsfunktion der Normalverteilung ( Probit-Modell). 22

23 1.1 Statistische Modelle Nicht- und semiparametrische Regression a) Nichtparametrische Einfachregression Daten wie im linearen Modell, x i skalar. y i = f (x i ) + ε i, i = 1,..., n, ε i i.i.d. N(0, σ 2 ) Regressionsfunktion f (x i ) = E[y i x i ] nicht parametrisch spezifiziert. Nicht- oder semiparametrisches Schätzen von f Testen von H 0 : f (x) = β 0 + xβ 1 vs. H 1 : f nichtlinear. 23

24 1.1 Statistische Modelle Nicht- und semiparametrische Regression b) Additive Modelle (AM) y i = f 1 (x i1 ) f p (x ip ) + z i β + ε i, ε i wie bisher, µ i = E[y i x i, z i ] = f 1 (x i1 ) f p (x ip ) + z i β mit Kovariablenvektoren x i = (x i1,..., x ip ) und z i. Schätzen, Testen von f 1,..., f p, β Variablenselektion und Modellwahl (zum Beispiel Einfluss einer bestimmten Kovariable linear oder nichtlinear) 24

25 1.1 Statistische Modelle Nicht- und semiparametrische Regression c) Generalisierte Additive Modelle (GAM) y i x i wie bei GLM; analog zu additiven Modellen lässt man aber ( ) µ i = E[y i x i, z i ] = h f 1 (x i1 ) f p (x ip ) + z i β zu. 25

26 1.1 Statistische Modelle Quantil-Regression/Robuste Regression Daten wie im linearer Modell (y i x i bedingt unabhängig). Keine Annahmen an die Fehlerverteilung, verteilungsfreier Ansatz Ziel: Schätze nicht (nur) E[y i x i ], sondern den bedingten Median (τ = 0.5) oder allgemeiner die (bedingten) Quantile Q τ (y i x i ). Statt β KQ = argmin β n i=1 (y i x i β) 2 mit x βkq = Ê(y x) suche z.b. (für τ = 0.5) x βmed = med(y x). β med := argmin β n y i x i β Frage: Welche Konzepte zum Schätzen und Testen verwenden? Quasi-Likelihood-Methoden. i=1 26

27 1.1 Statistische Modelle Abhängige Daten: Beispiel Longitudinaldaten Longitudinaldaten (Längsschnittdaten): (y ij, x ij ) für i = 1,..., m und j = 1,..., n i als Beobachtungen von Zielvariablen y ij und Kovariablen x ij zu Zeitpunkten t i1 <...<t ij <...<t ini. Speziallfall m = 1: Zeitreihen a) Autoregressive bzw. Markov-Modelle: Bedingte Verteilung von y ij y i,j 1, y i,j 2,..., y i1, x ij ist (bei Markov-Modell 1. Ordnung) y ij y i,j 1, x ij, zum Beispiel y ij = αy i,j 1 + x ij β + ε ij }{{} i.i.d. Likelihood-Inferenz: algorithmisch simpel, asymptotische Theorie schwieriger (da y ij abhängig).. 27

28 1.1 Statistische Modelle Abhängige Daten: Beispiel Longitudinaldaten b) Lineares gemischtes Modell (LMM): Z.B. y ij = β 0 + β 1 t ij + x ij β + b 0i + b 1i t ij + ε ij β 0, β 1, β: feste Populationseffekte, z.b. β 0 + β 1 t fester (linearer) Populationstrend b 0i, b 1i : individuenspezifische Effekte Anzahl der Parameter von der Ordnung des Stichprobenumfangs Annahme: b 0i i.i.d. N(0, τ 2 0 ), b 1i i.i.d. N(0, τ 2 1 ) d.h. die b-parameter sind zufällige Parameter. Inferenz: algorithmisch/methodisch variierte Likelihood-Inferenz oder Bayes-Inferenz mit MCMC-Simulationsmethoden. Für GLMM deutlich komplexer als für LMM. 28

29 1.1 Statistische Modelle Abhängige Daten: Beispiel Longitudinaldaten c) Marginale Modelle Kapitel 6.2 und 6.4 bzw. kurze Einführung in 3.4 (Quasi-Likelihood-Inferenz/GEEs) 29

30 1.1 Statistische Modelle Fehlende/unvollständige Daten Daten: beliebig (Querschnitts-, Survival-, Längsschnittdaten) Beispiele: Nicht-Antworter bei statistischen Befragungen Drop-out bei klinischen Studien zensierte Daten (wie in Survivalanalyse) Modelle mit latenten Variablen Übliche Modelle und statistische Methodik setzen vollständige Daten voraus. 30

31 1.1 Statistische Modelle a) Verweildaueranalyse: Cox-Modell Rechtszensierte Survivaldaten: Evtl. rechtszensierte Beobachtungen t 1,..., t n von unabhängigen stetigen Lebensdauern T 1,..., T n 0, Zensierungsindikatoren δ 1,..., δ n und zugehörige Kovariablen x 1,..., x n. Ziel: Schätze λ(t; x) bzw. zumindest den Einfluss der Kovariablen auf die Hazardrate λ(t; x) = lim t 0 P(t T t + t T t; x). t Interpretation: λ(t; x) t bedingte Wahrscheinlichkeit für Ausfall in [t, t + t] gegeben Überleben bis zum Zeitpunkt t bei kleinem t. 31

32 1.1 Statistische Modelle a) Verweildaueranalyse: Cox-Modell Cox-Modell (auch: Proportional Hazards-Modell) λ(t; x i ) = λ 0 (t) exp(x i β) = λ 0 (t) exp(x i1 β 1 )... exp(x ip β p ). Primäres Interesse: Schätzen/Testen von β. Die von i unabhängige Baseline -Hazardrate λ 0 (t) wird als Nuisanceparameter (bzw. -funktion) betrachtet. Die Likelihood faktorisiert sich in L(β; λ 0 (t)) = L 1 (β) L 2 (β; λ 0 (t)). Die partielle Likelihood L 1 (β) wird bzgl. β maximiert. Erstaunlicherweise ist der Informationsverlust gering. 32

33 1.1 Statistische Modelle b) Modellbasierte Clusteranalyse Idee: x = (x 1,..., x p ) stammt aus multivariater Mischverteilung J f (x) = π j f j (x ϑ j ), j=1 z.b. f j Dichte der multivariaten Normalverteilung. Gesucht: 1. Schätzungen für ϑ j, π j, j = 1,..., J. 2. Schätzungen für unbekannte Klassenzugehörigkeit j eines Objekts mit Merkmalsvektor x. Formel von Bayes liefert: π(j x) = π jf j (x ϑ j ) f (x). Likelihood-Maximierung: mit EM-Algorithmus Bayes: mit MCMC-Algorithmus 33

34 x = (x 1,..., x n ) oder y = (y 1,..., y n ) sind Realisierungen von Stichprobenvariablen (Zufallsvariablen) X = (X 1,..., X n ) oder Y = (Y 1,..., Y n ). Die Komponenten X 1,..., X n können auch selbst wieder mehrdimensional sein. Weitere Annahmen: X1,..., X n i.i.d. wie X einfache Zufallsstichprobe (vgl. Abschnitt 1.1.1). Y 1,..., Y n (bzw. Y 1 X 1,..., Y n X n im Regressionsmodell) sind (bedingt) unabhängig aber nicht identisch verteilt (vgl. Abschnitte ). Y1,..., Y n sind abhängig, zum Beispiel zeitlich oder räumlich korreliert (vgl ). 34

35 In allen Fällen gilt: x X bzw. y Y, wobei X bzw. Y der entsprechende Stichprobenraum ist. X = (X 1,..., X n ) bzw. Y = (Y 1,..., Y n ) sind auf dem Stichprobenraum nach einer gemeinsamen Verteilung P bzw. Verteilungsfunktion F (x) = F (x 1,..., x n ) bzw. F (y) verteilt. P (bzw. F ) gehört einer Menge (oder Klasse oder Familie) von Verteilungen P θ = {P θ : θ Θ} an. Zugehörige Verteilungsfunktionen sind F (x θ) bzw. (falls existent) Dichten f (x θ) = f (x 1,..., x n θ) (analog für y). 35

36 Gemeinsame Dichten f (x θ): i.i.d. Fall: f (x θ) = f (x 1 θ)... f (x n θ) = Unabhängige Zufallsvariablen Y 1,..., Y n : f (y θ) = n f i (y i θ), i=1 die Dichten hängen also vom Index i ab. n f (x i θ) Bei potentiell abhängigen Y 1,..., Y n ist f (y θ) nicht immer faktorisierbar und teils auch analytisch schwer oder nicht darstellbar. i=1 36

37 (Übliche) parametrische Inferenz: θ = (θ 1,..., θ k ) Θ R k, k fest mit k < n. Nichtparametrische/verteilungsfreie Inferenz: Θ ist Funktionenraum, θ eine bestimmte Funktion. Zum Beispiel ist Θ der Raum der stetigen oder differenzierbaren Funktionen. Beispiele für Methoden: (Kern-)Dichteschätzung, nichtparametrische Regression. 37

38 Semiparametrische Inferenz (vgl. Kapitel 7): Begriff wird verwendet für 1. Θ hat eine endlich-dimensionale und eine unedlich-dimensionale Komponente. Beispiel: Cox-Proportional-Hazard-Modell. 2. Parameter θ = (θ 1,..., θ k ) hochdimensional und k wächst mit n (unter Umständen k n), zum Beispiel bei der semiparametrischen Regression mit Glättungssplines. 38

39 1.2.1 Klassische parametrische Inferenz X = (X 1,..., X n ) besitzt Verteilung P P = {P θ : θ = (θ 1,..., θ k ) Θ} mit Θ R k und k < n fest, oft k n. In der Regel existiert zur Verteilung P θ eine (diskrete oder stetige bzw. Radon-Nikodym-) Dichte f (x θ) = f (x 1,..., x n θ). Anmerkung: Allgemein ist dies die Radon-Nikodym-Dichte bezüglich eines dominierenden Maßes, vgl. Maß- und Wahrscheinlichkeitstheorie-Vorlesung. 39

40 1.2.1 Klassische parametrische Inferenz Punktschätzung: Geschätzt werden soll θ. Eine messbare Abbildung { X Θ T : x T(x) =: θ heißt Schätzfunktion oder Schätzer. 40

41 1.2.1 Klassische parametrische Inferenz Punktschätzung fortgeführt: Eine Beurteilung der Güte/Optimalität kann z. B. durch Bias θ (T) = E θ [T] θ, Varθ (T) = E θ [(T E θ [T])(T E θ [T]) ], MSEθ (T) = E θ [ T θ 2 ] = Spur(Var θ (T)) + Bias θ (T) 2 erfolgen. Das Konzept der Güte ist frequentistisch, da beurteilt wird, wie gut T = T(X) bei allen denkbaren wiederholten Stichproben x als Realisierung von X im Schnitt funktioniert. Anders ausgedrückt: Beurteilt wird nicht die konkret vorliegende Stichprobe, sondern (in der Häufigkeitsinterpretation) das Verfahren T = T(X). 41

42 1.2.1 Klassische parametrische Inferenz Bereichsschätzung / Intervallschätzung: C : { X P(Θ) x C(x) Θ so dass P θ (C(X) θ) 1 α für alle θ Θ. Dabei ist 1 α der Vertrauensgrad (auch: Konfidenzniveau oder Überdeckungswahrscheinlichkeit) des Konfidenzbereiches. Man beachte die frequentistische/häufigkeitsinterpretation: C(X) ist ein zufälliger Bereich. Ist Θ R und C(x) für alle x ein Intervall, dann heißt C Konfidenzintervall. 42

43 1.2.1 Klassische parametrische Inferenz Testen: Mit einem Test φ soll eine Hypothese H 0 gegen eine Alternativhypothese H 1 geprüft werden: H 0 : θ Θ 0 vs. H 1 : θ Θ 1, wobei Θ 0 Θ 1 =. Es gilt oft, aber nicht notwendigerweise, Θ = Θ 0 Θ 1. Ergebnisse/Aktionen: A 0 : H 0 wird nicht abgelehnt, A 1 : H 1 wird bestätigt, das Ergebnis ist signifikant. 43

44 1.2.1 Klassische parametrische Inferenz Testen fortgeführt: Der Test ist eine Abbildung φ : X {A 0, A 1 } = {0, 1}. Ein nicht-randomisierter Test hat die Form { 1, falls x K, φ(x) = 0, falls x / K. Dabei ist K X der sogenannte kritische Bereich und als eine Teilmenge aller möglichen Stichproben zu verstehen. Oft formuliert man dies über eine Teststatistik T (x): { 1, falls T (x) C, φ(x) = 0, falls T (x) / C. 44

45 1.2.1 Klassische parametrische Inferenz Testen fortgeführt: Test zum Niveau ( size ) α, wobei α klein : P θ (A 1 ) α für alle θ Θ 0. Dabei ist die Wahrscheinlichkeit für den Fehler 1. Art kleiner als α. Die Funktion g φ (θ) = P θ (A 1 ) = E θ [φ(x)] heißt Gütefunktion von φ. Synonym zum Begriff Güte werden auch die Begriffe Power oder Macht gebraucht. Die Forderung für den Fehler formuliert über die Gütefunktion lautet g φ (θ) α für θ Θ 0. 45

46 1.2.1 Klassische parametrische Inferenz Testen fortgeführt: Programm der klassischen parametrischen Schätztheorie (siehe Kapitel 2): Finde Test φ zum Niveau α mit optimaler Power bzw. minimaler Wahrscheinlichkeit für den Fehler 2. Art, 1 g φ (θ), θ Θ 1. Das Konzept ist wiederum frequentistisch. Das Programm ist dabei hauptsächlich für spezielle Verteilungsfamilien (zum Beispiel für Exponentialfamilien) und spezielle Testprobleme im i.i.d. Fall durchführbar. Weniger tauglich ist es für (etwas) komplexere Modelle, zum Beispiel bereits für GLMs. Dann: Likelihood-Inferenz Bayes-Inferenz Nicht- und semiparametrische Inferenz 46

47 1.2.1 Klassische parametrische Inferenz Testen fortgeführt: Im einfachsten Fall von zwei Punkthypothesen H 0 : θ = θ 0, H 1 : θ = θ 1 für θ 0 θ 1 hat der beste Test Likelihood-Quotienten-Struktur: H 0 wird abgelehnt, falls f (x θ 1 ) f (x θ 0 ) > k α (vgl. Neyman-Pearson Theorem, Abschnitt 2.2 oder Wahrscheinlichkeitstheorie und Inferenz II). 47

48 1.2.1 Klassische parametrische Inferenz p-werte (p-values): Beispiel 1.3 (Gauß-Test) X 1,..., X n i.i.d. N(µ, σ 2 ), σ 2 bekannt. Betrachte H 0 : µ µ 0, H 1 : µ > µ 0. Teststatistik ist T (X) = X µ 0 µ=µ 0 n N(0, 1). σ H 0 wird abgelehnt, wenn T (x) > z 1 α. Der p-wert ist p = P(T (X) > T (x) µ = µ 0 ) = sup µ P(T (X) > T (x) H 0 ). Offensichtlich gilt: T (x) > z 1 α p < α. Der p-wert liefert mehr Information (nämlich wie nahe man an der Entscheidungsgrenze ist) als die reine Bekanntgabe der Entscheidung. 48

49 1.2.1 Klassische parametrische Inferenz Definition 1.2 (p-wert) Gegeben sei ein Test bzw. eine Teststatistik T (X) für H 0 vs. H 1 mit 1. sup θ Θ P θ (T (X) C α H 0 ) α, 2. für α α gilt C α C α. Dann gilt p = inf{ α : T (x) = t C eα }, und H 0 wird abgelehnt, falls p < α. 49

50 1.2.1 Klassische parametrische Inferenz Beispiel 1.3 (Gauß-Test) fortgeführt: 50

51 1.2.2 (Parametrische) Likelihood-Inferenz Sei P = {f (x θ) θ Θ}, d.h. es existieren Dichten zu der vorgegebenen parametrisierten Verteilungsfamile P. Nach der Beobachtung von X = x heißt L(θ x) := f (x θ) Likelihoodfunktion von θ zur Beobachtung x. 51

52 1.2.2 (Parametrische) Likelihood-Inferenz Likelihoodprinzip: Besitzen zwei Beobachtungen x und x zueinander proportionale Likelihoodfunktionen, sollen sie zu denselben Schlüssen über θ führen. Beispiel 1.4: X 1,..., X n i.i.d. N(µ, σ 2 ), σ 2 bekannt. f (x µ) = 1 2πσ exp( n i=1 (x i µ) 2 2σ 2 ) Zwei Beobachtungen x und y mit x = ȳ führen nach dem Likelihood-Prinzip zu den gleichen Schlüssen über µ. 52

53 1.2.2 (Parametrische) Likelihood-Inferenz Punktschätzung: Maximum-Likelihood- (ML-) Schätzung T(x) = θ ML mit f (x θ ML ) = max f (x θ) θ bzw. θ ML = argmax f (x θ). θ In der Regel existieren keine finiten Optimalitätseigenschaften, jedoch asymptotische. Testen: Likelihood-Quotienten-Test, Wald-Test, Score-Test. 53

54 1.2.3 Likelihoodbasierte Inferenz Quasi-Likelihood-Inferenz (Kapitel 3.4 bzw. 6) penalisierte Likelihood-Inferenz (u.a. Kapitel 7.4), semiparametrische Modelle (Kapitel 7). 54

55 1.2.4 Bayes-Inferenz Wir betrachten wieder P = {f (x θ) : θ Θ}, zusätzlich wird aber die Unsicherheit über θ durch die Prioridichte p(θ) auf Θ bewertet. Dabei kann Θ auch sehr hochdimensional sein. Prinzip: Nach Beobachtung von x ist sämtliche Information über θ enthalten in der Posterioridichte p(θ x) = proportional bzgl. f (x θ) p(θ) Parameter θ f (x θ) p(θ)dθ f (x θ) p(θ) = L(θ x) p(θ). 55

56 1.2.4 Bayes-Inferenz Bayes-Schätzung: - Posteriori-Erwartungswert: T E (x) = θ post-ew = E θ x (θ x) = θ p(θ x) dθ - Posteriori-Median: T med (x) = θ post-med = med θ x (θ x) Θ - Posteriori-Modus: T mod (x) = θ post-mod = argmax θ p(θ x) = argmax p(θ)l(θ x) θ 56

57 1.2.4 Bayes-Inferenz Es sind auch uneigentliche Prioriverteilungen zulässig, d.h. Dichten mit p(θ)dθ = +, Θ die sich somit nicht normieren lassen. Allerdings muss die Posterioridichte eigentlich sein! Ein Spezialfall ist p(θ) 1 ( Gleichverteilungs-Priori ), bei deren Verwendung θ ML = argmax L(θ x) = θ post-mod θ gilt, d.h. der ML-Schätzwert und der Posteriori-Modus-Schätzwert identisch sind. 57

58 1.2.4 Bayes-Inferenz Die Verteilung zu p(θ) heißt die konjugierte Verteilung für f (x θ), wenn f (θ x) (posteriori) und f (θ) (priori) dieselbe Form haben, d.h. wenn Priori- und Posterioverteilung zur selben Verteilungsfamilie gehören. 58

59 1.2.4 Bayes-Inferenz Bayes-Bereichsschätzung: Wähle Kredibilitätsbereiche/-intervalle C(x) so, dass ( ) p(θ x) dθ = P θ x }{{} θ C(x) }{{} C(x) zufällig nicht zufällig, deterministisch 1 α. Es ist also eine Wahrscheinlichkeitsaussage für eine konkrete Stichprobe möglich und keine Häufigkeitsinterpretation notwendig! Bei Bayes-Inferenz wird keine Häufigkeitsinterpretation benötigt. Allerdings kann sie trotzdem gemacht werden. ( Asymptotik der Bayes-Schätzer) 59

60 1.2.5 Statistische Entscheidungstheorie Sichtweise in der Entscheidungstheorie: Schätzen und Testen als Entscheidung unter Unsicherheit. Wie bisher betrachten wir P P θ = {P θ : θ = (θ 1,..., θ k ) Θ} als statistisches Modell; x bezeichne eine Stichprobe / konkrete Beobachtung von X. 60

61 1.2.5 Statistische Entscheidungstheorie Zusätzlich werden folgende Funktionen betrachtet: Definition 1.3 (Entscheidungsfunktion) Als Entscheidungsfunktion bezeichnet man eine Funktion { X D d : x d(x). Mit D wird der Entscheidungs- oder Aktionenraum bezeichnet. 61

62 1.2.5 Statistische Entscheidungstheorie Definition 1.4 (Verlustfunktion) Eine Verlustfunktion (oft auch stattdessen Gewinnfunktion) { D Θ R L : (d, θ) L(d, θ) ordnet einer Entscheidung d(x) ( decision ) einen Verlust ( loss ) zu. Im Allgemeinen ist L so gewählt, dass der Verlust bei richtiger Entscheidung null ist, also L eine nicht-negative Funktion ist. 62

63 1.2.5 Statistische Entscheidungstheorie Beispiel Test: Betrachte H 0 : θ θ 0 vs. H 1 : θ > θ 0 (zum Beispiel Gauß-Test). Der Entscheidungsraum sei D = {d 0, d 1 } mit d 0 : Entscheidung für H 0, d 1 : Entscheidung für H 1. Eine mögliche Verlustfunktion ist: { 0, falls θ θ0 (Entscheidung richtig) L(d 0, θ) = a R +, falls θ > θ 0 (Fehler 2. Art) { 0, falls θ > θ0 (Entscheidung richtig) L(d 1, θ) = b R +, falls θ θ 0 (Fehler 1. Art) 63

64 1.2.5 Statistische Entscheidungstheorie Beispiel 1.5 fortgeführt 2. Schätzung: Entscheidung ist reelle Zahl: d(x) = T (x) = θ Θ, d.h. D = Θ. Mögliche Verlustfunktionen: L(d, θ) = (d θ) 2 L(d, θ) = d θ L(d, θ) = w(θ)(d θ) 2 quadratischer Verlust, absoluter Verlust, gewichteter quadratischer Verlust, wobei w eine feste Gewichtsfunktion ist. 64

65 1.2.5 Statistische Entscheidungstheorie Beispiel 1.5 fortgeführt 3. Mehrentscheidungsverfahren, zum Beispiel Wahl zwischen drei Alternativen d 0 : θ θ 0, d 1 : θ > θ 1, d 2 : θ 0 < θ θ Analog: Modellwahl, Variablenselektion 65

66 1.2.5 Statistische Entscheidungstheorie Definition 1.5 (Risikofunktion) Eine Risikofunktion ist definiert als R(d, θ) = E θ [L(d(X), θ)] = X L(d(x), θ)f (x θ) dx ( Verlust im Mittel ). Sie ist unabhängig von x. Dabei wird d(x) rausintegriert, d.h. R(d; θ) ist bei gegebenem d nur noch eine Funktion von θ. 66

67 1.2.5 Statistische Entscheidungstheorie Beispiel Schätzen, d.h. d(x) = T(x) Schätzwert, d(x) = T(X) Punktschätzer. Bei quadratischer Verlustfunktion ist mit Risikofunktion L(T(X), θ) = T(X) θ 2 R(T, θ) = E θ [ T(X) θ 2 ] = MSE θ (T(X)). Man beachte, dass das Argument T in R(T, θ) den Schätzer und nicht den konkreten Schätzwert bezeichnet. 2. Testen: vgl. Übung. 67

68 1.2.5 Statistische Entscheidungstheorie Vergleich von Entscheidungsregeln mittels der Risikofunktion R(d, θ) R(d 1, θ) R(d 2, θ) R(d 3, θ) θ Aus der Abbildung geht hervor, dass d 3 besser als d 1 ist für alle θ Θ, d.h. d 3 dominiert d 1 gleichmäßig. 68

69 1.2.5 Statistische Entscheidungstheorie Ziel: Finde Regel d, die alle konkurrierenden Regeln d dominiert. Problem: Diese Idee funktioniert im Allgemeinen nicht, in der Regel überschneiden sich die Risikofunktionen, zum Beispiel ist in obiger Abbildung d 2 nur in einem gewissen Bereich besser als d 1 und d 3. R(d, θ) R(d 1, θ) R(d 2, θ) R(d 3, θ) θ 69

70 1.2.5 Statistische Entscheidungstheorie Optimale Entscheidungsregeln nur möglich durch: Einschränkung auf spezielle Klassen von Verlustfunktionen, Einschränkung auf spezielle Klassen von Entscheidungsregeln, zum Beispiel unverzerrter Schätzer oder unverfälschter Test, oder zusätzliches Kriterium. 70

71 1.2.5 Statistische Entscheidungstheorie Kriterien für Optimale Entscheidungsregeln 1. Minimax-Kriterium Idee: Betrachte Maximum der Risikofunktion, d.h. präferiere in der folgenden Abbildung d 2, da max θ R(d 2, θ) < max R(d 1, θ). θ 71

72 1.2.5 Statistische Entscheidungstheorie max θ R(d 2, θ) < max R(d 1, θ). θ 72

73 1.2.5 Statistische Entscheidungstheorie Definition 1.6 (Minimax-Entscheidungsregel) Sei d : X D eine Entscheidungsregel. d heißt Minimax, falls es das supremale Risiko minimiert: sup R(d, θ) sup R(d, θ) d D d = arginf sup R(d, θ). θ Θ θ Θ d D θ Θ Bemerkung. In vielen Fällen werden Supremum und Infimum auch angenommen, so dass tatsächlich d = argmin d D gilt, daher auch der Name Minimax. max R(d, θ) θ Θ 73

74 1.2.5 Statistische Entscheidungstheorie Beim Minimax-Kriterium schützt man sich gegen den schlimmsten Fall, was aber nicht unbedingt immer vernünftig ist, wie die folgende Abbildung zeigt: 74

75 1.2.5 Statistische Entscheidungstheorie R(d 1, θ) R(d 2, θ) R(d, θ) θ Hier wäre d nur dann vernünftig, wenn θ-werte in der Mitte besonders wahrscheinlich sind. 75

76 1.2.5 Statistische Entscheidungstheorie Kriterien für Optimale Entscheidungsregeln 2. Bayes-Kriterium Wie in der Bayes-Inferenz nehmen wir für θ eine Prioridichte p(θ) an (aus frequentistischer Sichtweise ist p(θ) eine nicht notwendigerweise normierte Gewichtsfunktion). Das Bayes-Risiko ist r(d, p) = R(d, θ)p(θ) dθ Θ = E p [R(d, θ)] = E p E θ [L(d(X), θ)] = L(d(x), θ)f (x θ) dx p(θ) dθ Θ X 76

77 1.2.5 Statistische Entscheidungstheorie 2. Bayes-Kriterium fortgeführt: Das Bayes-Risiko wird durch die Bayes-optimale Regel d minimiert: r(d, p) = inf r(d, p). d D Sei p(θ x) (eigentliche) Posterioridichte. Dann heißt L(d(x), θ)p(θ x) dθ = E θ x [L(d(x), θ)] Θ das Posteriori-Bayes-Risiko. 77

78 1.2.5 Statistische Entscheidungstheorie Es gilt folgendes praktisches Resultat: Satz 1.7 Eine Regel d ist genau dann Bayes-optimal, wenn d (x) für jede Beobachtung/Stichprobe x das Posteriori-Bayes-Risiko minimiert. 78

79 1.2.5 Statistische Entscheidungstheorie Anmerkungen: Satz 1.8. erleichtert die Bestimmung der Bayes-optimalen Entscheidungsregel in konkreten Fällen. Er zeigt eine intuitive Eigenschaft des Bayesianischen Vorgehens: Um eine Entscheidung geg. eine Beobachtung x zu treffen, reicht es, den Verlust für d(x) zu betrachten. Es ist nicht nötig, Verluste für d(x) für andere mögliche aber nicht beobachtete X zu berücksichtigen. Bayes-optimale Regeln d sind zulässig, d.h. sie werden von keiner anderen Regel d d dominiert. Eine enge Beziehung zur Minimax-Regel ist durch die Wahl einer ungünstigsten Prioridichte p (θ) herstellbar. 79

80 1.2.5 Statistische Entscheidungstheorie Optimalität von Bayes-Schätzern: θ = E[θ x] = Θ θ p(θ x) dθ ist Bayes-optimal bei quadratischer Verlustfunktion L(d, θ) = (d θ) 2. θ = med(θ x) ist Bayes-optimal bei absoluter Verlustfunktion L(d, θ) = d θ. 80

81 1.2.5 Statistische Entscheidungstheorie Optimalität von Bayes-Schätzern fortgeführt: Der Posteriori-Modus θ = argmax p(θ x) θ Θ ist Bayes-optimal bei 0-1 Verlustfunktion { 1, falls d θ ε, L ε (d, θ) = 0, falls d θ < ε und Grenzübergang ε 0. Anmerkung: Die ML-Schätzung ist optimal bei flacher Priori p(θ) 1 und bei Wahl obiger 0-1-Verlustfunktion. 81

3 Grundlagen statistischer Tests (Kap. 8 IS)

3 Grundlagen statistischer Tests (Kap. 8 IS) 3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung

Mehr

Nachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!!

Nachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!! Nachholklausur zur Vorlesung Schätzen und Testen I 04. April 2013 Volker Schmid, Ludwig Bothmann, Julia Sommer Aufgabe 1 2 3 4 5 6 Punkte Note Bitte ausfüllen und unterschreiben!!! Name, Vorname: Matrikelnummer:

Mehr

Das Bayes'sche Prinzip

Das Bayes'sche Prinzip Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem

Mehr

Einführung in die Induktive Statistik: Testen von Hypothesen

Einführung in die Induktive Statistik: Testen von Hypothesen Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte

Mehr

Einführung in die statistische Testtheorie II

Einführung in die statistische Testtheorie II 1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.

Mehr

Statistik IV. Modul P8: Grundlagen der Statistik II Vorlesung P8.1: Wahrscheinlichkeitstheorie und Inferenz II

Statistik IV. Modul P8: Grundlagen der Statistik II Vorlesung P8.1: Wahrscheinlichkeitstheorie und Inferenz II Statistik IV Modul P8: Grundlagen der Statistik II Vorlesung P8.1: Wahrscheinlichkeitstheorie und Inferenz II Prof. Dr. Torsten Hothorn Institut für Statistik Ludwig Maximilians Universität München L A

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Die Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare

Die Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare 17.1.3 Die Momentenmethode Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare Lösungen. Sei ϑ = (ϑ 1,...,ϑ s ) der unbekannte, s-dimensionale

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,

Mehr

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente... Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............

Mehr

3.3 Methoden zur Evaluierung von Schätzern

3.3 Methoden zur Evaluierung von Schätzern 3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,

Mehr

Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, (

Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, ( Kapitel 4 Konfidenzbereiche Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden Teil-Parameter

Mehr

Allgemeines zu Tests. Statistische Hypothesentests

Allgemeines zu Tests. Statistische Hypothesentests Statistische Hypothesentests Allgemeines zu Tests Allgemeines Tests in normalverteilten Grundgesamtheiten Asymptotische Tests Statistischer Test: Verfahren Entscheidungsregel), mit dem auf Basis einer

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

Einführung in die (induktive) Statistik

Einführung in die (induktive) Statistik Einführung in die (induktive) Statistik Typische Fragestellung der Statistik: Auf Grund einer Problemmodellierung sind wir interessiert an: Zufallsexperiment beschrieben durch ZV X. Problem: Verteilung

Mehr

Praktikum zur Statistik

Praktikum zur Statistik mit R Institut für Mathematische Statistik Universität Münster 7. Oktober 2010 Gliederung 1 Testtheorie: Ziel und Überblick Testtheorie Andere Entscheidungsprobleme 2 3 4 p-wert, Binomialtest Mittelwertvergleiche:

Mehr

Gemischte Modelle zur Schätzung geoadditiver Regressionsmodelle

Gemischte Modelle zur Schätzung geoadditiver Regressionsmodelle Gemischte Modelle zur Schätzung geoadditiver Regressionsmodelle Thomas Kneib & Ludwig Fahrmeir Institut für Statistik, Ludwig-Maximilians-Universität München 1. Regressionsmodelle für geoadditive Daten

Mehr

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und Übersicht über die Vorlesung Teil : Deskriptive fru@hephy.oeaw.ac.at VO 42.090 http://tinyurl.com/tu42090 Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 200 Teil 4:

Mehr

Kapitel XI - Operationscharakteristik und Gütefunktion

Kapitel XI - Operationscharakteristik und Gütefunktion Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XI - Operationscharakteristik und Gütefunktion Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo

Mehr

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei

Mehr

Kapitel VIII - Tests zum Niveau α

Kapitel VIII - Tests zum Niveau α Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VIII - Tests zum Niveau α Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh Testsituationen

Mehr

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

1 Gemischte Lineare Modelle

1 Gemischte Lineare Modelle 1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate

Mehr

Klausur Stochastik und Statistik 31. Juli 2012

Klausur Stochastik und Statistik 31. Juli 2012 Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Statistik. Ludwig Fahrmeir Rita Künstler Iris Pigeot Gerhard Tutz. Der Weg zur Datenanalyse. Springer. Zweite, verbesserte Auflage

Statistik. Ludwig Fahrmeir Rita Künstler Iris Pigeot Gerhard Tutz. Der Weg zur Datenanalyse. Springer. Zweite, verbesserte Auflage Ludwig Fahrmeir Rita Künstler Iris Pigeot Gerhard Tutz Statistik Der Weg zur Datenanalyse Zweite, verbesserte Auflage Mit 165 Abbildungen und 34 Tabellen Springer Inhaltsverzeichnis Vorwort v 1 Einführung

Mehr

Tests einzelner linearer Hypothesen I

Tests einzelner linearer Hypothesen I 4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen

Mehr

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung 0 Einführung 1 Wahrscheinlichkeitsrechnung Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung Motivation und Hinführung Der wahre Anteil der rot-grün Wähler 009 war genau

Mehr

Klassifikation von Signifikanztests

Klassifikation von Signifikanztests Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen

Mehr

Kapitel V - Erwartungstreue Schätzfunktionen

Kapitel V - Erwartungstreue Schätzfunktionen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel V - Erwartungstreue Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung

Mehr

Diskrete Wahrscheinlichkeitstheorie

Diskrete Wahrscheinlichkeitstheorie SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München http://www7.in.tum.de/um/courses/dwt/ss13 Sommersemester 2013 Teil V Induktive Statistik Induktive Statistik

Mehr

Vorbereitung auf 3. Übungsblatt (Präsenzübungen) - Lösungen

Vorbereitung auf 3. Übungsblatt (Präsenzübungen) - Lösungen Prof Dr Rainer Dahlhaus Statistik 1 Wintersemester 2016/2017 Vorbereitung auf Übungsblatt (Präsenzübungen) - Lösungen Aufgabe P9 (Prognosen und Konfidenzellipsoide in der linearen Regression) Wir rekapitulieren

Mehr

Analyse von Querschnittsdaten. Signifikanztests I Basics

Analyse von Querschnittsdaten. Signifikanztests I Basics Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004

Mehr

Post Data Inferenz. Ein Überblick über Verfahren aus frequentistischer Sichtweise

Post Data Inferenz. Ein Überblick über Verfahren aus frequentistischer Sichtweise 1/23 Post Data Inferenz Ein Überblick über Verfahren aus frequentistischer Sichtweise Betreuung: Marco Cattaneo Referent: Paul Fink München, 14. Januar 2011 2/23 Gliederung 1 2 Relevante Teilmengenn Induzierte

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

4 Statistik der Extremwertverteilungen

4 Statistik der Extremwertverteilungen In diesem Kapitel beschäftigen wir uns mit statistischen Anwendungen der Extremwerttheorie. Wir werden zwei verschiedene Zugänge zur Modellierung von Extremwerten betrachten. Der erste Zugang basiert auf

Mehr

Kapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen

Kapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen Induktive Statistik Prof. Dr. W.-D. Heller

Mehr

4 Binäre Regressionsmodelle, Folien 2

4 Binäre Regressionsmodelle, Folien 2 4 Binäre Regressionsmodelle, Folien 2 Ludwig Bothmann (basierend auf Unterlagen von Nora Fenske) Statistik III für Nebenfachstudierende WS 2014/2015 4.5 Hypothesentests Lineare Hypothesen Betrachtet werden

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Einführung in die Statistik

Einführung in die Statistik Einführung in die Statistik Analyse und Modellierung von Daten Von Prof. Dr. Rainer Schlittgen 4., überarbeitete und erweiterte Auflage Fachbereich Materialwissenschaft! der Techn. Hochschule Darmstadt

Mehr

Kapitel 3 Schließende Statistik

Kapitel 3 Schließende Statistik Beispiel 3.4: (Fortsetzung Bsp. 3.) bekannt: 65 i=1 X i = 6, also ˆp = X = 6 65 = 0, 4 Überprüfen der Voraussetzungen: (1) n = 65 30 () n ˆp = 6 10 (3) n (1 ˆp) = 39 10 Dr. Karsten Webel 194 Beispiel 3.4:

Mehr

I. Deskriptive Statistik 1

I. Deskriptive Statistik 1 I. Deskriptive Statistik 1 1. Einführung 3 1.1. Grundgesamtheit und Stichprobe.................. 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................

Mehr

3 Statistische Schätzungen

3 Statistische Schätzungen 3 Statistische Schätzungen In der Wahrscheinlichkeitstheorie geht es darum, über Modelle Ereignisse zu bewerten bzw. Voraussagen über ihr Eintreten zu treffen. Sind nun umgekehrt Daten bekannt, und wollen

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 017 4 Spezielle Zufallsgrößen Einführung 1 Wahrscheinlichkeit: Definition

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung

Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Induktive Statistik Prof. Dr. W.-D.

Mehr

30. März Ruhr-Universität Bochum. Methodenlehre II, SS Prof. Dr. Holger Dette

30. März Ruhr-Universität Bochum. Methodenlehre II, SS Prof. Dr. Holger Dette Ruhr-Universität Bochum 30. März 2011 1 / 46 Methodenlehre II NA 3/73 Telefon: 0234 322 8284 Email: holger.dette@rub.de Internet: www.ruhr-uni-bochum.de/mathematik3/index.html Vorlesung: Montag, 8.30 10.00

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg

Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg Prof. Markus Schumacher, Dr. Stan Lai Physikalisches Institut Westbau 2 OG E-Mail: Markus.Schumacher@physik.uni-freiburg.de

Mehr

2 Aufgaben aus [Teschl, Band 2]

2 Aufgaben aus [Teschl, Band 2] 20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:

Mehr

Schätzer und Konfidenzintervalle

Schätzer und Konfidenzintervalle Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl

Mehr

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1 Einführung in die Bayes-Statistik Helga Wagner Ludwig-Maximilians-Universität München WS 2010/11 Helga Wagner Bayes Statistik WS 2010/11 1 Organisatorisches Termine: Montag: 16.00-18.00 AU115 Dienstag:

Mehr

Statistische Tests (Signifikanztests)

Statistische Tests (Signifikanztests) Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)

Mehr

Einführung in die Statistik Kapitel 6: Crash-Course in Statistik: Testtheorie

Einführung in die Statistik Kapitel 6: Crash-Course in Statistik: Testtheorie Einführung in die Statistik Kapitel 6: Crash-Course in Statistik: Testtheorie Jung Kyu Canci Universität Basel HS2015 1 / 15 Literatur Kapitel 6 Statistik in Cartoons : Kapitel 8 Krengel : 6 und 14 Storrer

Mehr

Diagnose und Prognose: Kurzfassung 4

Diagnose und Prognose: Kurzfassung 4 Diagnose und Prognose: Kurzfassung 4 Ziele der 4. Vorlesung Inhaltliche Verbindung zwischen inhaltlicher Statistisches Konzept / Problemstellung Problemstellung und statistischem statistische Methode Konzept/Methode

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

15.5 Stetige Zufallsvariablen

15.5 Stetige Zufallsvariablen 5.5 Stetige Zufallsvariablen Es gibt auch Zufallsvariable, bei denen jedes Elementarereignis die Wahrscheinlich keit hat. Beispiel: Lebensdauer eines radioaktiven Atoms Die Lebensdauer eines radioaktiven

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:

Mehr

Inhalt. I. Deskriptive Statistik Einführung Die Grundgesamtheit Merkmale und Verteilungen Tabellen und Grafiken...

Inhalt. I. Deskriptive Statistik Einführung Die Grundgesamtheit Merkmale und Verteilungen Tabellen und Grafiken... I. Deskriptive Statistik 1 1. Einführung 3 1.1. Die Grundgesamtheit......................... 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................ 10

Mehr

Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.

Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt. Normalverteilung Diskrete Stetige f(x) = 1 2πσ 2 e 1 2 ((x µ)2 σ 2 ) Gauß 91 / 169 Normalverteilung Diskrete Stetige Satz: f aus (1) ist Dichte. Beweis: 1. f(x) 0 x R und σ > 0. 2. bleibt z.z. lim F(x)

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes- Entscheidungsfunktionen

Mehr

Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h

Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h 5. Die partielle Autokorrelationsfunktion 5.1 Definition, Berechnung, Schätzung Bisher: Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h ρ X (h) = Corr(X t, X

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 9. Dezember 2010 1 Konfidenzintervalle Idee Schätzung eines Konfidenzintervalls mit der 3-sigma-Regel Grundlagen

Mehr

Seminar zur Energiewirtschaft:

Seminar zur Energiewirtschaft: Seminar zur Energiewirtschaft: Ermittlung der Zahlungsbereitschaft für erneuerbare Energien bzw. bessere Umwelt Vladimir Udalov 1 Modelle mit diskreten abhängigen Variablen 2 - Ausgangssituation Eine Dummy-Variable

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die

Mehr

Vorlesung Mathematische Statistik. Inhalt in Stichworten. Reinhard Höpfner. Vorlesung 2004/2005 und 2007/2008

Vorlesung Mathematische Statistik. Inhalt in Stichworten. Reinhard Höpfner. Vorlesung 2004/2005 und 2007/2008 1 Vorlesung Mathematische Statistik Inhalt in Stichworten Reinhard Höpfner Vorlesung 2004/2005 und 2007/2008 Institut für Mathematik, Johannes Gutenberg Universität Mainz 27.02.08 2 Inhalt in Stichworten

Mehr

Auswahl von Schätzfunktionen

Auswahl von Schätzfunktionen Auswahl von Schätzfunktionen Worum geht es in diesem Modul? Überblick zur Punktschätzung Vorüberlegung zur Effizienz Vergleich unserer Schätzer für My unter Normalverteilung Relative Effizienz Einführung

Mehr

Kapitel 1 Einführung. Angewandte Ökonometrie WS 2012/13. Nikolaus Hautsch Humboldt-Universität zu Berlin

Kapitel 1 Einführung. Angewandte Ökonometrie WS 2012/13. Nikolaus Hautsch Humboldt-Universität zu Berlin Kapitel 1 Einführung Angewandte Ökonometrie WS 2012/13 Nikolaus Hautsch Humboldt-Universität zu Berlin 1. Allgemeine Informationen 2 17 1. Allgemeine Informationen Vorlesung: Mo 12-14, SPA1, 23 Vorlesung

Mehr

Klausur zu Statistik II

Klausur zu Statistik II GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel

Mehr

Kapitel 1: Elemente der Statistik

Kapitel 1: Elemente der Statistik 1 Kapitel 1: Elemente der Statistik 1.1 Beispiel Ein Elektromarkt erhält eine Lieferung von N = 10000 Glühbirnen. Darunter ist eine unbekannte Anzahl h defekt, wobei h 0 1 = {0, 1,..., N}. Um Kenntnisse

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Institut für Stochastik, SoSe K L A U S U R , 13:

Institut für Stochastik, SoSe K L A U S U R , 13: Institut für Stochastik, SoSe 2014 Mathematische Statistik Paravicini/Heusel 1. K L A U S U R 12.7.2014, 13:00-16.00 Name: Geburtsdatum: Vorname: Matrikelnummer: Übungsgruppe bei: Studiengang & angestrebter

Mehr

Ein- und Zweistichprobentests

Ein- und Zweistichprobentests (c) Projekt Neue Statistik 2003 - Lernmodul: Ein- Zweistichprobentests Ein- Zweistichprobentests Worum geht es in diesem Modul? Wiederholung: allgemeines Ablaufschema eines Tests Allgemeine Voraussetzungen

Mehr

Angewandte Statistik mit R

Angewandte Statistik mit R Reiner Hellbrück Angewandte Statistik mit R Eine Einführung für Ökonomen und Sozialwissenschaftler 2., überarbeitete Auflage B 374545 GABLER Inhaltsverzeichnis Vorwort zur zweiten Auflage Tabellenverzeichnis

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

Statistik II. Statistische Tests. Statistik II

Statistik II. Statistische Tests. Statistik II Statistik II Statistische Tests Statistik II - 12.5.2006 1 Test auf Anteilswert: Binomialtest Sei eine Stichprobe unabhängig, identisch verteilter ZV (i.i.d.). Teile diese Stichprobe in zwei Teilmengen

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Biostatistik Erne Einfuhrung fur Biowissenschaftler

Biostatistik Erne Einfuhrung fur Biowissenschaftler Matthias Rudolf Wiltrud Kuhlisch Biostatistik Erne Einfuhrung fur Biowissenschaftler PEARSON Studium Inhaltsverzeichnis Vorwort xi Kapitel 1 Einfiihrung 1 1.1 Biostatistik als Bestandteil biowissenschafllicher

Mehr

Seminar stabile Zufallsprozesse

Seminar stabile Zufallsprozesse Definitionen und Eigenschaften stabiler Verteilungen 2. November 2011 Inhalt 1 Definitionen Definitionen Beweis der Äquivalenz Beispiele 2 Eigenschaften 3 Charakteristische Funktion 4 Laplace Transformation

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003 Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003. Eine seltene Krankheit trete mit Wahrscheinlichkeit : 0000 auf. Die bedingte Wahrscheinlichkeit, dass ein bei einem Erkrankten durchgeführter

Mehr

8. Konfidenzintervalle und Hypothesentests

8. Konfidenzintervalle und Hypothesentests 8. Konfidenzintervalle und Hypothesentests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Beispiel. Sie wollen den durchschnittlichen Fruchtsaftgehalt eines bestimmten Orangennektars

Mehr

6. Statistische Schätzung von ARIMA Modellen

6. Statistische Schätzung von ARIMA Modellen 6. Statistische Schätzung von ARIMA Modellen Vorschau: ARIMA Modelle Modellidentifikation verschiedene Schätzverfahren Modelldiagnostik Fallstudien Zeitreihenanalyse 1 6.1 ARIMA Modelle Bisher: ARMA(p,q)-Modelle:

Mehr