5. Statistische Schätztheorie

Größe: px
Ab Seite anzeigen:

Download "5. Statistische Schätztheorie"

Transkript

1 5. Statistische Schätztheorie Problem: Sei X eine Zufallsvariable (oder X ein Zufallsvektor), die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X (oder X) kennenlernen Man beachte: In praxi ist die Verteilung von X zunächst unbekannt 191

2 Deshalb: Sammle Informationen über die unbekannte Verteilung des Zufallsvorgangs, indem man diesen (und damit die Zufallsvariable X) mehrfach beobachtet Zufallsstichprobe Statistiken Schätzer 192

3 5.1 Stichproben, Schätzer, Grenzwertsätze Situation: Sei X die Zufallsvariable, die den interessierenden Zufallsvorgang repräsentiere (zunächst Betrachtung univariater Variablen) Man beabsichtigt, den Zufallsvorgang (d.h. X) insgesamt n mal zu beobachten Vor den Realisierungen kann man die n potenziellen Beobachtungen als ZV en X 1,..., X n auffassen 193

4 Definition 5.1: (Stichprobe) Die ZV en X 1,..., X n heißen einfache Stichprobe aus X, wenn (a) jedes X i, i = 1,..., n, wie X verteilt ist, (b) X 1,..., X n stochastisch unabhängig sind. Die Anzahl n heißt Stichprobenumfang. 194

5 Bemerkungen: Der interessierende Zufallsvorgang kann prinzipiell beliebig oft wiederholt werden Die Realisierungen x 1,..., x n der Stichprobe X 1,..., X n heißen konkrete Stichprobe Betrachtet man die Stichprobe X 1,..., X n als Zufallsvektor, so ist die gemeinsame Dichtefunktion wegen der Unabhängigkeit gegeben durch f X1,...,X n (x 1,..., x n ) = (vgl. Definition 3.8, Folie 125) n i=1 f Xi (x i ) 195

6 Modell der einfachen Zufallsstichprobe Zufallsvorgang X Mögliche Realisationen X 1 (ZV) x 1 (Realisation 1. Exp.) X 2 (ZV)... x 2 (Realisation 2. Exp.)... X n (ZV) x n (Realisation n. Exp.) 196

7 Jetzt: Betrachte Funktionen der Stichprobenvariablen X 1,..., X n Statistiken Schätzer Definition 5.2: (Statistik, Stichprobenfunktion) Es seien X 1,..., X n eine einfache Stichprobe aus X sowie g : R n R eine reellwertige Funktion mit n Argumenten, die keine unbekannten Parameter enthält. Dann nennt man die ZV T = g(x 1,..., X n ) eine Statistik oder Stichprobenfunktion. 197

8 Beispiele: Stichprobenmittel: Stichprobenvarianz: X = g 1 (X 1,..., X n ) = 1 n n X i i=1 S 2 = g 2 (X 1,..., X n ) = 1 n Stichprobenstandardabweichung: S = g 3 (X 1,..., X n ) = 1 n n i=1 n i=1 ( Xi X ) 2 ( Xi X ) 2 198

9 Bemerkungen: Alle bisherigen Begriffe können inhaltsgleich auf den multivariaten Fall übertragen werden Die Statistik T = g(x 1,..., X n ) ist eine Funktion von ZV en und damit selbst eine ZV eine Statistik hat eine Verteilung (d.h. auch einen Erwartungswert und eine Varianz) Zweck von Statistiken: Liefern Informationen über die Verteilung von X Sind Grundbausteine beim Schätzen von Parametern Testen von Hypothesen über Parameter 199

10 Stichproben und Statistiken Stichprobe ( X 1,..., X n ) Messung Stichprobenrealisation ( x 1,..., x n ) g( X 1,..., X n ) Statistik g( x 1,..., x n ) Realisation der Statistik 200

11 Jetzt folgende Situation: Es sei X (oder X) eine ZV e mit unbekannter VF F X (x) Wir interessieren uns für einen oder mehrere Parameter von X Es sei θ dieser unbekannte Parametervektor, z.b. [ ] E(X) θ = Var(X) Oft ist die Verteilungsfamilie von X bekannt, z.b. X N(µ, σ 2 ), nicht aber die Parameter, d.h. [ ] µ θ = σ 2 Der unbekannte Parametervektor wird mit Hilfe von Statistiken einer Stichprobe X 1,..., X n geschätzt 201

12 Definition 5.3: (Schätzer, Schätzwert) Die Statistik θ(x 1,..., X n ) heißt Schätzer (auch Schätzfunktion) für den unbekannten Parametervektor θ. Für die konkrete Stichprobe x 1,..., x n bezeichnet man die damit verbundene Realisierung des Schätzers θ(x 1,..., x n ) als Schätzwert. Bemerkungen: Der Schätzer θ(x 1,..., X n ) ist ein Zufallsvektor Schätzer hat eine Verteilung, einen Erwartungswert und eine Varianz Der Schätzwert θ(x 1,..., x n ) ist dagegen eine Zahl oder ein Zahlenvektor 202

13 Beispiel: X sei N(µ, σ 2 )-verteilt mit unbek. Parametern µ und σ 2 Der zu schätzende Parametervektor ist dann [ ] [ ] µ E(X) θ = σ 2 = Var(X) Mögliche Schätzer für µ und σ 2 sind ˆµ = 1 n n i=1 X i und ˆσ 2 = 1 n 1 n i=1 (X i ˆµ) 2 ein Schätzer für θ ist [ ] ˆµ θ = ˆσ 2 = 1 ni=1 n X i 1 ni=1 n 1 (X i ˆµ) 2 203

14 Frage: Wozu braucht man das scheinbar komplizierte theoretische Konzept des Schätzers als Zufallsvariable? Antwort: Zum Vergleich alternativer Schätzer für ein und denselben Parametervektor θ im Hinblick auf bestimmte Güteeigenschaften Beispiel: Es sei θ = Var(X) die Varianz von X 204

15 Zwei alternative Schätzer für θ sind n ( Xi X ) 2 ˆθ 1 (X 1,..., X n ) = 1 n i=1 ˆθ 2 (X 1,..., X n ) = 1 n 1 n i=1 ( Xi X ) 2 Frage: Welcher Schätzer ist besser und warum? Eigenschaften (Qualitätskriterien) von Punktschätzern (vgl. Abschnitt 5.2) 205

16 Wichtig: Einige dieser Kriterien beurteilen das Verhalten eines Schätzers für große Stichprobenumfänge (n, Große-Stichproben-Eigenschaften) Deshalb: Erläuterung einiger stochastischer Konvergenzbegriffe: Zentraler Grenzwertsatz Schwaches Gesetz der großen Zahl Konvergenz nach Wahrscheinlichkeit Konvergenz nach Verteilung 206

17 Satz 5.4: (Univariater zentraler Grenzwertsatz) Es sei X eine beliebig verteilte Zufallsvariable mit E(X) = µ und Var(X) = σ 2. Weiterhin sei X 1,..., X n eine einfache Stichprobe aus X und X n = 1 n n X i i=1 das arithmetische Stichprobenmittel. Dann gilt für n : X n N ( µ, σ2 n ) bzw. n X n µ σ N(0, 1). Jetzt: Verallgemeinerung auf multivariaten Fall 207

18 Satz 5.5: (Multivariater zentraler Grenzwertsatz) Es sei X = (X 1,..., X m ) ein beliebig verteilter Zufallsvektor mit E(X) = µ und Cov(X) = Σ. Weiterhin sei X 1,..., X n eine (multivariate) einfache Stichprobe aus X und X n = 1 n n X i i=1 das multivariate arithmetische Stichprobenmittel. Dann gilt für n : X n N (µ, 1n ) Σ ( bzw. n Xn µ ) N(0, Σ). 208

19 Bemerkungen: Eine multivariate einfache Stichprobe aus dem Zufallsvektor X erhält man, indem man in Definition 5.1 (Folie 194) alle univariaten Zufallsvariablen durch entsprechende multivariate Zufallsvektoren ersetzt Man beachte die formale Analogie zum univariaten Fall in Satz 5.4 (Rechenoperationen für Matrizen beachten!) Jetzt: Bekannter Satz über das arithmetische Stichprobenmittel 209

20 Satz 5.6: (Schwaches Gesetz der großen Zahl) Es sei X 1, X 2,... eine Folge von unabhängigen und identisch verteilten Zufallsvariablen mit E(X i ) = µ <, Var(X i ) = σ 2 <. Weiterhin betrachte man die Zufallsvariable X n = 1 n n X i i=1 (arithmetisches Stichprobenmittel). Für jedes ɛ > 0 gilt dann: lim n P ( Xn µ ɛ ) =

21 Bemerkungen: Satz 5.6 ist das schwache Gesetz der großen Zahl Für jedes noch so kleine ɛ > 0 konvergiert die Wskt., dass X n um ±ɛ vom Erwartungswert µ abweicht, bei zunehmendem Stichprobenumfang gegen Null Man beachte die Analogie zwischen einer Folge von unabhängig, identisch verteilten ZV en und der Definition 5.1 (Folie 194) einer einfachen Stichprobe aus X Jetzt: Erster wichtiger Konvergenzbegriff 211

22 Definition 5.7: (Konvergenz nach Wahrscheinlichkeit) Es sei Y 1, Y 2,... eine Folge Zufallsvariablen. Man sagt: Die Folge Y 1, Y 2,... konvergiert nach Wahrscheinlichkeit gegen θ, wenn für jedes ɛ > 0 gilt: lim n P ( Y n θ ɛ) = 0. Man notiert die Konvergenz nach Wahrscheinlichkeit mit plim Y n = θ oder Y n p θ. Bemerkungen: Spezialfall: Schwaches Gesetz der großen Zahlen plim X n = µ oder X n p µ 212

23 Bei der Konvergenz nach Wahrscheinlichkeit strebt die Folge der ZV en meistens gegen einen Wert (θ R) Für multivariate Folgen von Zufallsvektoren Y 1, Y 2,... ist die Definition 5.7 elementweise anzuwenden Die Konvergenz nach Wahrscheinlichkeit spielt bei der Beurteilung von Schätzern eine wichtige Rolle Jetzt: Alternativer stochastischer Konvergenzbegriff 213

24 Definition 5.8: (Konvergenz nach Verteilung) Es sei Y 1, Y 2,... eine Folge Zufallsvariablen und Z ebenfalls eine Zufallsvariable. Man sagt: Die Folge Y 1, Y 2,... konvergiert nach Verteilung gegen Z, wenn lim n F Y n (y) = F Z (y) für jedes y R. Man notiert die Konvergenz nach Verteilung mit Y n d Z. Bemerkungen: Spezialfall: Zentraler Grenzwertsatz Y n = n X n µ d U N(0, 1) σ Bei der Konvergenz nach Verteilung strebt die Folge der ZV en stets gegen eine Zufallsvariable 214

25 Satz 5.9: (plim -Rechenregeln) Es seien X 1, X 2,... und Y 1, Y 2,... Folgen von Zufallsvariablen für die gilt plim X n = a bzw. plim Y n = b. Dann gilt: (a) plim (X n ± Y n ) = a ± b. (b) plim (X n Y n ) = a b. (c) plim ( X n Y n ) = a b, falls b = 0. (d) (Slutsky-Theorem) Wenn g : R R eine in a stetige Funktion ist, dann gilt plim g (X n ) = g(a). 215

26 Bemerkung: Eine mit dem Slutsky-Theorem verwandte Eigenschaft gilt auch für die Konvergenz nach Verteilung Satz 5.10: ( d -Rechenregel) Es seien X 1, X 2,... eine Folge von Zufallsvariablen, Z ebenfalls eine Zufallsvariable und es gelte X n d Z. Weiterhin sei h : R R eine stetige Funktion. Dann gilt: h (X n ) d h(z). Jetzt: Verbindung der beiden Konvergenzkonzepte 216

27 Satz 5.11: (Cramér-Theorem) Es seien X 1, X 2,... sowie Y 1, Y 2,... Folgen von Zufallsvariablen, Z eine Zufallsvariable und a R. Außerdem gelte plim X n = a d und Y n Z. Dann gelten: (a) X n + Y n d a + Z. (b) X n Y n d a Z. Beispiel: Es sei X 1,..., X n eine einfache Stichprobe aus X mit E(X) = µ bzw. Var(X) = σ 2 217

28 Man kann zeigen, dass plim S 2 n = 1 n 1 n i=1 ( Xi X n ) 2 = σ 2 plim S 2 n = 1 n n i=1 ( Xi X n ) 2 = σ 2 Für g 1 (x) = x/σ 2 folgt aus dem Slutksky-Theorem: ( ) plim g 1 S 2 S 2 n = plim n σ 2 = g 1(σ 2 ) = 1 plim g 1 ( S 2 n ) = plim S 2 n σ 2 = g 1(σ 2 ) = 1 218

29 Für g 2 (x) = σ/ x folgt aus dem Slutksky-Theorem: plim g 2 ( S 2 n ) = plim σ S n = g 2 (σ 2 ) = 1 plim g 2 ( S 2 n ) = plim σ S n = g 2 (σ 2 ) = 1 Mit dem zentralen Grenzwertsatz folgt: n X n µ σ d U N(0, 1) 219

30 Mit dem Cramér-Theorem folgt: g 2 ( S 2 n ) n X n µ σ = σ S n n X n µ σ = n X n µ S n d 1 U Ebenso liefert das Cramér-Theorem: = U N(0, 1) n X n µ S n d U N(0, 1) 220

31 5.2 Eigenschaften von Schätzern Inhalt von Definition 5.3: Ein Schätzer ist eine Statistik (Stichprobenfunktion) Es gibt verschiedene Schätzer für den unbekannten Parametervektor θ Beispiel: Es seien X N(0, σ 2 ) mit unbekannter Varianz σ 2 und X 1,..., X n eine einfache Stichprobe aus X Mögliche Schätzer für θ = σ 2 sind: ˆθ 1 = 1 n n i=1 ( Xi X ) 2 bzw. ˆθ 2 = 1 n 1 n i=1 ( Xi X ) 2 221

32 Wichtige Fragen: Welche Qualitätskriterien dienen zur Auswahl eines guten Schätzers? Wie findet man gute Schätzer? 1. Qualitätseigenschaft: Konzept der wiederholten Stichprobe: Ziehe mehrere einfache Stichproben aus X Betrachte den Schätzer an jeder Stichprobe Eine Mittelung der Schätzwerte sollte nahe am unbekannten Parameter liegen (keine systematische Verzerrung) Erwartungstreue eines Schätzers 222

33 Definition 5.12: (Erwartungstreue, Verzerrung) Der Schätzer ˆθ(X 1,..., X n ) für den unbekannten Parameter θ heißt erwartungstreu, falls sein Erwartungswert mit dem zu schätzenden Parameter θ übereinstimmt, d.h. falls E [ˆθ(X 1,..., X n ) ] = θ. Unter der Verzerrung des Schätzers (engl. Bias) versteht man den Abstand Bias(ˆθ) = E(ˆθ) θ. Bemerkungen: Übertragung auf den multivariaten Fall möglich Bei erwartungstreuen Schätzern ist der Bias gleich Null 223

34 Jetzt: Wichtiges allgemeingültiges Resultat Satz 5.13: (E-treue Schätzer für E(X) und Var(X)) Es sei X 1,..., X n eine Stichprobe aus X und X sei beliebig verteilt mit unbekanntem Erwartungswert µ = E(X) sowie unbekannter Varianz σ 2 = Var(X). Dann sind die beiden Schätzer bzw. ˆµ(X 1,..., X n ) = X = 1 n ˆσ 2 (X 1,..., X n ) = S 2 = 1 n 1 n X i i=1 n i=1 ( Xi X ) 2 stets erwartungstreu für die Parameter µ = E(X) und σ 2 = Var(X). 224

35 Bemerkungen: Beweis: Übungsaufgabe Man beachte, dass keine explizite Verteilung für X unterstellt wird Erwartungstreue pflanzt sich bei Parametertransformationen nicht beliebig fort, z.b. ist S = S 2 nicht erwartungstreu für σ = SD(X) = Var(X) Frage: Wie kann man zwei erwartungstreue Schätzer für den unbekannten Parameter θ miteinander vergleichen? 225

36 Definition 5.14: (Relative Effizienz) Es seien ˆθ 1 und ˆθ 2 zwei erwartungstreue Schätzer für den unbekannten Parameter θ. Dann heißt ˆθ 1 relativ effizienter als ˆθ 2, falls gilt Var(ˆθ 1 ) Var(ˆθ 2 ) für alle möglichen Parameterwerte für θ und Var(ˆθ 1 ) < Var(ˆθ 2 ) für mindestens einen möglichen Parameterwert für θ. 226

37 Beispiel: Es sei θ = E(X) Betrachte die beiden Schätzer ˆθ 1 (X 1,..., X n ) = 1 n n X i i=1 ˆθ 2 (X 1,..., X n ) = X (n 1) Welcher Schätzer ist relativ effizienter? (Übungsaufgabe) n X i i=2 Frage: Wie vergleicht man 2 Schätzer, wenn (mindestens) einer verzerrt ist? 227

38 Definition 5.15: (Mittlerer quadratischer Fehler) Es sei ˆθ ein beliebiger Schätzer für den unbekannten Parameter θ. Unter dem mittleren quadratischen Fehler (mean-squared error) des Schätzers versteht man die Maßzahl [ MSE(ˆθ) = E (ˆθ θ ) 2 ] = Var (ˆθ ) + [ Bias(ˆθ) ] 2. Bemerkungen: Bei einem erwartungstreuen Schätzer ist der MSE gleich der Varianz des Schätzers Der MSE eines Schätzers ˆθ hängt i.d.r. vom Wert des unbekannten Parameters θ ab 228

39 Vergleich beliebiger Schätzer: Über ihre MSEs Definition 5.16: (MSE-Effizienz) Es seien ˆθ 1 und ˆθ 2 zwei beliebige Schätzer für den unbekannten Parameter θ. Dann heißt ˆθ 1 MSE-efffizienter als ˆθ 2, falls gilt MSE(ˆθ 1 ) MSE(ˆθ 2 ) für alle möglichen Parameterwerte für θ und MSE(ˆθ 1 ) < MSE(ˆθ 2 ) für mindestens einen möglichen Parameterwert für θ. 229

40 Vergleich erwartungstreuer vs. verzerrter Schätzer θ 2( X1, K, X n) θ 1( X1, K, X n) θ 230

41 Bemerkungen: Oft sind 2 Schätzer für θ nicht im Sinne der MSE-Effizienz vergleichbar, da sich die MSE-Kurven schneiden Es gibt kein allgemeines mathematisches Prinzip zur Bestimmung eines MSE-effizienten Schätzers Es gibt aber Methoden, unter allen erwartungstreuen Schätzern den mit der gleichmäßig geringsten Varianz zu bestimmen Beschränkung auf erwartungstreue Schätzer Diese Methoden nicht Gegenstand der VL (Theoreme von Rao-Blackwell, Lehmann-Scheffé) Hier nur ein wichtiges Resultat: 231

42 Satz 5.17: (Cramér-Rao Varianzuntergrenze) Es sei X 1,..., X n eine einfache Stichprobe aus X und θ ein zu schätzender Parameter. Man betrachte die gemeinsame Dichtefunktion der Stichprobe, f X1,...,X n (x 1,..., x n ), und definiere den Wert CR(θ) E ( fx1,...,x n (X 1,..., X n ) θ ) 2 1 Unter bestimmten Voraussetzungen gilt dann für jeden beliebigen erwartungstreuen Schätzer ˆθ(X 1,..., X n ): Var(ˆθ) CR(θ).. 232

43 Bemerkungen: Der Wert CR(θ) ist die geringste Varianz, die ein erwartungstreuer Schätzer haben kann Optimalitätskriterium für erwartungstreue Schätzer Gilt für den erwartungstreuen Schätzer ˆθ(X 1,..., X n ) Var(ˆθ) = CR(θ), so bezeichnet man ˆθ als UMVUE-Schätzer (Uniformly Minimum-Variance Unbiased Estimator) 233

44 2. Qualitätseigenschaft: Lasse den Stichprobenumfang wachsen (n ): Notation: ˆθ n (X 1,..., X n ) = ˆθ(X 1,..., X n ) Untersuchung der Eigenschaften der asymptotischen Verteilung von ˆθ n Konsistenz eines Schätzers Definition 5.18: ((Schwache) Konsistenz) Der Schätzer ˆθ n (X 1,..., X n ) heißt (schwach) konsistent für θ, falls er nach Wahrscheinlichkeit gegen θ konvergiert, d.h. falls plim ˆθ n (X 1,..., X n ) = θ. 234

45 Beispiel: Es sei X N(µ, σ 2 ) mit σ 2 bekannt (z.b. σ 2 = 1) Betrachte 2 Schätzer für µ: ˆµ n (X 1,..., X n ) = 1 n n X i i=1 ˆµ n (X 1,..., X n ) = 1 n n i=1 X i + 2 n ˆµ n ist (schwach) konsistent für µ (Satz 5.6, Folie 210: Schwaches Gesetz der großen Zahl) 235

46 ˆµ n ist (schwach) konsistent für µ (folgt aus Satz 5.9(a), Folie 215) Exakte Verteilung von ˆµ n : ˆµ n N(µ, σ 2 /n) (Lineare Transformation der NV) Exakte Verteilung von ˆµ n: ˆµ n N(µ + 2/n, σ2 /n) (Lineare Transformation der NV) 236

47 Dichtefunktionen des Schätzers ˆµ n für n = 2, 10, 20 (σ 2 = 1) µ=

48 Dichtefunktionen des Schätzers ˆµ n für n = 2, 10, 20 (σ2 = 1) µ=

49 Bemerkungen: Hinreichende (aber nicht notwendige) Bedingung für Konsistenz: lim n E(ˆθ n ) = θ (asymptotische Erwartungstreue) lim n Var(ˆθ n ) = 0 Mögliche Eigenschaften eines Schätzers: konsistent und erwartungstreu inkonsistent und erwartungstreu konsistent und verzerrt inkonsistent und verzerrt 239

50 Jetzt: Anwendung des zentralen Grenzwertsatzes auf Schätzer asymptotische Normalität des Schätzers Definition 5.19: (Asymptotische Normalität) Ein Schätzer ˆθ n (X 1,..., X n ) für den unbekannten Parameter θ heißt asymptotisch normalverteilt, falls es eine Folge reeller Zahlen θ 1, θ 2,... und eine Funktion V (θ) gibt, so dass gilt: n (ˆθ n θ n ) d U N(0, V (θ)). 240

51 Bemerkungen: Andere Schreibweise: ˆθ n appr. N(θ n, V (θ)/n) Zur asymptotischen Normalität gibt es eine multivariate Verallgemeinerung 241

52 5.3 Schätzmethoden Bisher: Definitionen + Qualitätskriterien für Schätzer Jetzt: Konstruktion von Schätzern 3 traditionelle Verfahren: Methode der kleinsten Quadrate (KQ) Momenten-Methode (MM) Maximum-Likelihood-Methode (ML) 242

53 Bemerkungen: Es gibt weitere Verfahren (z.b. die verallgemeinerte Momenten-Methode, GMM) Hier: hauptsächlich ML-Methode 243

54 5.3.1 Kleinste-Quadrate-Methode Historie: Eingeführt von A.M. Legendre ( ) C.F. Gauß ( ) Idee: Approximiere verrauschte Beobachtungen x 1,..., x n Funktionen g i (θ 1,..., θ m ), i = 1,..., n, m < n durch S(x 1,..., x n ; θ) = KQ-Schätzer ist dann n i=1 [x i g i (θ)] 2 min θ θ(x 1,..., X n ) = argmin S(X 1,..., X n ; θ) durch 244

55 Bemerkung: KQ-Methode ist zentrale Schätztechnik beim linearen Regressionsmodell (vgl. VLen Ökonometrie I + II) 245

56 5.3.2 Momenten-Methode Historie: Eingeführt von K. Pearson ( ) Definition 5.20: (Theoretische und empirische Momente) (a) Es sei X eine Zufallsvariable mit Erwartungswert E(X). Dann ist das gewöhnliche theoretische p-te Moment von X (in Zeichen: µ p) definiert als als µ p = E(Xp ). Das zentrale theoretische p-te Moment von X (in Zeichen: µ p ) ist definiert durch µ p = E {[X E(X)] p }. 246

57 (b) Es sei X 1,..., X n eine einfache Stichprobe aus X und es bezeichne X das arithmetische Stichprobenmittel. Dann ist das gewöhnliche empirische p-te Moment (in Zeichen: ˆµ p ) definiert durch ˆµ p = 1 n n i=1 X p i. Das zentrale empirische p-te Moment (in Zeichen: definiert durch ˆµ p ) ist n ( Xi X ) p. ˆµ p = 1 n i=1 247

58 Bemerkungen: Die theoretischen Momente µ p und µ p wurden bereits in der Definition 2.21 (Folie 76) eingeführt Die empirischen Momente ˆµ p bzw. ˆµ p sind Schätzer für die theoretischen Momente µ p bzw. µ p Das arithmetische Stichprobenmittel ist das 1. gewöhnliche empirische Moment von X 1,..., X n Die Stichprobenvarianz ist das 2. zentrale empirische Moment von X 1,..., X n 248

59 Ausgangssituation: Anhand der einfachen Stichprobe X 1,..., X n aus X sollen die r unbekannten Parameter θ 1,..., θ r geschätzt werden Grundidee der Momentenmethode: 1. Drücke r theoretische Momente als Funktionen der r unbekannten Parameter aus: µ 1 = g 1(θ 1,..., θ r ). µ r = g r (θ 1,..., θ r ) 249

60 2. Drücke die r unbekannten Parameter als Funktionen der r theoretischen Momente aus: θ 1 = h 1 (µ 1,..., µ r, µ 1,..., µ r ). θ r = h r (µ 1,..., µ r, µ 1,..., µ r) 3. Ersetze theoretische durch empirische Momente: ˆθ 1 (X 1,..., X n ) = h 1 (ˆµ 1,..., ˆµ r, ˆµ 1,..., ˆµ r). ˆθ r (X 1,..., X n ) = h r (ˆµ 1,..., ˆµ r, ˆµ 1,..., ˆµ r ) 250

61 Beispiel: (Exponentialverteilung) Die ZV e X heißt exponentialverteilt mit Parameter λ > 0, falls X die Dichtefunktion aufweist Es gilt: f X (x) = { λe λx, für x > 0 0, sonst E(X) = 1 λ Var(X) = 1 λ 2 251

62 Momentenschätzer über den Erwartungswert: 1. Wir wissen: E(X) = µ 1 = 1 λ 2. Also folgt: λ = 1 µ 1 3. Momentenschätzer für λ: ˆλ(X 1,..., X n ) = 1 1/n n i=1 X i 252

63 Momentenschätzer über die Varianz: 1. Wir wissen: Var(X) = µ 2 = 1 λ 2 2. Also folgt: λ = 1 µ 2 3. Momentenschätzer für λ: ˆλ(X 1,..., X n ) = 1 1/n n i=1 ( Xi X ) 2 Momentenschätzer für einen unbekannten Parameter sind nicht eindeutig bestimmt 253

64 Bemerkungen: Momentenschätzer sind konsistent, denn plim ˆθ 1 = plim h 1 (ˆµ 1,..., ˆµ r, ˆµ 1,..., ˆµ r ) = h 1 (plim ˆµ 1,..., plim ˆµ r, plim ˆµ 1,..., plim ˆµ r) = h 1 (µ 1,..., µ r, µ 1,..., µ r) = θ 1 I.a. sind Momentenschätzer nicht erwartungstreu Momentenschätzer sind (i.a.) asymptotisch normalverteilt Die asymptotischen Varianzen sind häufig schwer zu bestimmen 254

65 5.3.3 Maximum-Likelihood-Methode Historie: Eingeführt von Ronald Fisher ( ) Grundidee: Schätze die unbekannten Parameter θ 1,..., θ r derart, dass die Wahrscheinlichkeit (likelihood) der konkreten Stichprobe x 1,..., x n als Funktion der unbekannten Parameter maximal wird 255

66 Beispiel: Eine Urne enthalte schwarze und weiße Kugeln Bekannt ist das Verhältnis der Kugelanzahlen von 3 : 1 Unbekannt ist, welche der Kugeln häufiger vorkommt Ziehe n Kugeln mit Zurücklegen X bezeichne die Anzahl schwarzer gezogener Kugeln Verteilung von X: P (X = x) = ( n) p x (1 p) n x, x {0, 1,..., n}, p {0.25, 0.75} x (Binomialverteilung) 256

67 p {0.25, 0.75} ist zu schätzender Parameter Ziehe eine Stichprobe vom Umfang n = 3 Mögliche Stichprobenausgänge: Anzahl schwarze Kugeln: x P (X = x; p = 0.25) P (X = x; p = 0.75) Intuitives Schätzen: Schätze p als den Wert, der die Wskt. der tatsächlichen Beobachtung x (ex-ante) maximiert: { 0.25, für x = 0, 1 ˆp = 0.75, für x = 2, 3 Maximum-Likelihood-Methode

68 Jetzt: Formalisierung der Maximum-Likelihood-Methode Begriffe: Likelihood-, Loglikelihoodfunktion Maximum-Likelihood-Schätzer Definition 5.21: (Likelihoodfunktion) Die Likelihoodfunktion von n ZV en X 1,..., X n ist definiert als die gemeinsame Dichte der n ZV en, f X1,...,X n (x 1,..., x n ; θ), jedoch aufgefasst als eine Funktion des Parametervektors θ. 258

69 Bemerkungen: Sind X 1,..., X n eine einfache Stichprobe aus der stetigen ZV en X mit Dichtefunktion f X (x, θ), so ist f X1,...,X n (x 1,..., x n ; θ) = n i=1 f Xi (x i ; θ) = n i=1 f X (x i ; θ) Die Likelihoodfunktion wird oft mit L(θ; x 1,..., x n ) oder L(θ) bezeichnet, also im vorhergehenden Fall L(θ; x 1,..., x n ) = L(θ) = n i=1 f X (x i ; θ) 259

70 Sind die X 1,..., X n eine Stichprobe aus einer diskreten ZV en X, so ist die Likelihoodfunktion L(θ; x 1,..., x n ) = P (X 1 = x 1,..., X n = x n ; θ) = n i=1 (Hier: Likelihood = Wahrscheinlichkeit der Stichprobe) P (X = x i ; θ) Beispiel: Es sei X 1,..., X n eine einfache Stichprobe aus X N(µ, σ 2 ). Dann ist θ = (µ, σ 2 ) und L(θ; x 1,..., x n ) = = n i=1 1 2πσ 2 e 1/2((x i µ)/σ) 2 ( ) 1 n/2 2πσ 2 exp 1 2σ 2 n i=1 (x i µ) 2 260

71 Definition 5.22: (Maximum-Likelihood Schätzer) Es sei L(θ, x 1,..., x n ) die Likelihoodfunktion der einfachen Stichprobe X 1,..., X n. Es bezeichne θ (wobei θ(x 1,..., x n ) von den Beobachtungen x 1,..., x n abhängt) denjenigen Parametervektor, der L(θ, x 1,..., x n ) maximiert. Dann heißt θ(x 1,..., X n ) der Maximum-Likelihood Schätzer von θ. Bemerkungen: Man erhält den ML-Schätzer über die Maximierung der Likelihood-Funktion L( θ; x 1,..., x n ) = max θ L(θ; x 1,..., x n ) und anschließendem Ersetzen der Realisationen x 1,..., x n durch die Stichprobenvariablen X 1,..., X n 261

72 Oft ist die Maximierung der Loglikelihoodfunktion ln[l(θ; x 1,..., x n )] einfacher (Man beachte: L(θ) und ln[l(θ)] haben ihre Maxima an derselben Stelle) Man bestimmt θ = (ˆθ 1,..., ˆθ r ) durch Lösen des Gleichungssystems ln[l(θ; x 1,..., x n )] θ 1. = 0 ln[l(θ; x 1,..., x n )] θ r = 0 262

73 Beispiel: Es sei X 1,..., X n eine einfache Stichprobe aus X N(µ, σ 2 ) mit Likelihoodfunktion L(µ, σ 2 ) = ( ) 1 n/2 2πσ 2 exp Die Loglikelihoodfunktion ist L (µ, σ 2 ) = ln[l(µ, σ 2 )] 1 2σ 2 n i=1 = n 2 ln(2π) n 2 ln(σ2 ) 1 2σ 2 (x i µ) 2 n i=1 (x i µ) 2 263

74 Die partiellen Ableitungen lauten bzw. L (µ, σ 2 ) L (µ, σ 2 ) µ σ 2 = n 2 = 1 n σ 2 (x i µ) i=1 1 σ σ 4 n i=1 (x i µ) 2 Gleich-Null-Setzen, Lösen des Gleichungssystems und Ersetzen der Realisationen durch die Stichprobenvariablen liefert die ML-Schätzer ˆµ(X 1,..., X n ) = 1 n n i=1 X i = X ˆσ 2 (X 1,..., X n ) = 1 n n i=1 ( Xi X ) 2 264

75 Eigenschaften der ML-Methode: Verteilungsannahmen sind unbedingt notwendig Unter bestimmten Bedingungen haben ML-Schätzer sehr angenehme Eigenschaften: 1. Wenn ˆθ der ML-Schätzer für θ ist, dann ist g(ˆθ) der ML- Schätzer von g(θ) (Äquivarianz) 2. Konsistenz: plim ˆθ n = θ 265

76 3. Asymptotische Normalität: n (ˆθ n θ ) d U N(0, V (θ)) 4. Asymptotische Effizienz: V (θ) ist die Cramér-Rao-Untergrenze 5. Berechenbarkeit (numerische Methoden) 6. Quasi-ML-Schätzung: ML-Schätzer, berechnet auf der Basis normalverteilter Stichproben, sind robust gegenüber Abweichungen von normalverteilten Grundgesamtheiten 266

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

5. Stichproben und Statistiken

5. Stichproben und Statistiken 5. Stichproben und Statistiken Problem: Es sei X eine ZV, die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X kennenlernen (z.b. mittels der VF F X (x)

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr. Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 6. Juli 2017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 13 Version: 7. Juli

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Kapitel 3 Schließende Statistik

Kapitel 3 Schließende Statistik Motivation Grundgesamtheit mit unbekannter Verteilung F Stichprobe X 1,...,X n mit Verteilung F Realisation x 1,...,x n der Stichprobe Rückschluss auf F Dr. Karsten Webel 160 Motivation (Fortsetzung) Kapitel

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten

Mehr

Die Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare

Die Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare 17.1.3 Die Momentenmethode Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare Lösungen. Sei ϑ = (ϑ 1,...,ϑ s ) der unbekannte, s-dimensionale

Mehr

6. Statistische Hypothesentests

6. Statistische Hypothesentests 6. Statistische Hypothesentests Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang X habe die unbekannte VF F X (x) Interessieren uns für einen unbekannten Parameter θ der Verteilung von

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

1.8 Mehrdimensionale Zufallsvariablen

1.8 Mehrdimensionale Zufallsvariablen 1.8 Mehrdimensionale Zufallsvariablen 1.8 Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Schnelldurchgang unter Bezug auf das

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Man kann also nicht erwarten, dass man immer den richtigen Wert trifft.

Man kann also nicht erwarten, dass man immer den richtigen Wert trifft. 2.2.2 Gütekriterien Beurteile die Schätzfunktionen, also das Verfahren an sich, nicht den einzelnen Schätzwert. Besonders bei komplexeren Schätzproblemen sind klar festgelegte Güteeigenschaften wichtig.

Mehr

Stochastik Praktikum Parametrische Schätztheorie

Stochastik Praktikum Parametrische Schätztheorie Stochastik Praktikum Parametrische Schätztheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 05.10.2010 Prolog Momentenmethode X : Ω 1 Ω Zufallsgröße, die Experiment beschreibt. Ein statistisches

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood

Mehr

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Dr. Stan Lai und Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer

Mehr

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung

Mehr

5 Allgemeine Verfahren zum Testen von Hypothesen

5 Allgemeine Verfahren zum Testen von Hypothesen 5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................

Mehr

10 Statistisches Schätzen

10 Statistisches Schätzen 10 Statistisches Schätzen 620 10 Statistisches Schätzen 10.1 Punktschätzung 623 10.1.1 Schätzer und ihre Gütekriterien 623 10.1.2 Erwartungstreue 627 10.1.3 Erwartete quadratische Abweichung (MSE) 634

Mehr

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Modellanpassung und Parameterschätzung. A: Übungsaufgaben 7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit

Mehr

1.3 Wiederholung der Konvergenzkonzepte

1.3 Wiederholung der Konvergenzkonzepte 1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche

Mehr

Modellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch

Modellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch Modellanpassung Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München SS 2009 Statistik Statistik Wahrscheinlichkeitsrechnung: Gesetze bekannt,

Mehr

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander

Mehr

Zusammenfassung: Kapitel 5, Zusammenhangsmaße

Zusammenfassung: Kapitel 5, Zusammenhangsmaße Zusammenfassung: Kapitel 5, Zusammenhangsmaße Kovarianz s xy = 1 n n (x i x)(y i ȳ) i=1 Korrelationskoeffizient nach Bravais-Pearson r xy = s xy s x s y = n (x i x)(y i ȳ) i=1 n (x i x) 2 i=1 n (y i ȳ)

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen

Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Inhalt Stichproben

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

3.3 Methoden zur Evaluierung von Schätzern

3.3 Methoden zur Evaluierung von Schätzern 3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,

Mehr

Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie

Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Sommersemester 2018 Kapitel 8: Elemente der mathematischen Statistik Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik

Mehr

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente... Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 9. Vorlesung - 2017 Monte Carlo Methode für numerische Integration Sei g : [0, 1] R stetige Funktion; man möchte 1 0 g(t)dt numerisch approximieren mit Hilfe von Zufallszahlen: Sei (U n ) n eine Folge

Mehr

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

Wahrscheinlichkeitsrechnung und schließende Statistik

Wahrscheinlichkeitsrechnung und schließende Statistik Karl Mosler Friedrich Schmid Wahrscheinlichkeitsrechnung und schließende Statistik Vierte, verbesserte Auflage Springer Inhaltsverzeichnis 0 Einführung 1 1 Zufalls Vorgänge und Wahrscheinlichkeiten 5 1.1

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

FORMELSAMMLUNG STATISTIK B

FORMELSAMMLUNG STATISTIK B Somersemester 2012 FORMELSAMMLUNG STATISTIK B Prof. Kneip / Dr. Scheer / Dr. Arns Version vom April 2012 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 2 2 Diskrete Zufallsvariablen 5 3 Stetige Zufallsvariablen

Mehr

Schließende Statistik

Schließende Statistik Schließende Statistik Vorlesung an der Universität des Saarlandes Dr. Martin Becker Wintersemester 207/8 Schließende Statistik (WS 207/8) Folie Einleitung Organisatorisches. Organisatorisches I Vorlesung:

Mehr

Einführung in die (induktive) Statistik

Einführung in die (induktive) Statistik Einführung in die (induktive) Statistik Typische Fragestellung der Statistik: Auf Grund einer Problemmodellierung sind wir interessiert an: Zufallsexperiment beschrieben durch ZV X. Problem: Verteilung

Mehr

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe 1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe Nachdem eine Stichprobe X 1,..., X n gezogen wurde berechnen wir gewöhnlich irgendwelchen Wert damit. Sei dies T = T (X 1,..., X n, wobei T auch

Mehr

Schätzer und Konfidenzintervalle

Schätzer und Konfidenzintervalle Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl

Mehr

2 Induktive Statistik

2 Induktive Statistik Induktive Statistik .1 Grundprinzipien der induktiven Statistik.1 Grundprinzipien der induktiven Statistik Ziel: Inferenzschluss, Repräsentationsschluss: Schluss von einer Stichprobe auf Eigenschaften

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017

Mehr

7. Hypothesentests. Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang. X habe die unbekannte VF F X (x)

7. Hypothesentests. Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang. X habe die unbekannte VF F X (x) 7. Hypothesentests Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang X habe die unbekannte VF F X (x) Interessieren uns für einen unbekannten Parameter θ der Verteilung von X 350 Bisher:

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Statistik II. Version A. 1. Klausur Sommersemester 2011 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Statistik II. Version A. 1. Klausur Sommersemester 2011 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Statistik II Version A 1. Klausur Sommersemester 2011 Hamburg, 27.07.2011 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................

Mehr

So berechnen Sie einen Schätzer für einen Punkt

So berechnen Sie einen Schätzer für einen Punkt htw saar 1 EINFÜHRUNG IN DIE STATISTIK: SCHÄTZEN UND TESTEN htw saar 2 Schätzen: Einführung Ziel der Statistik ist es, aus den Beobachtungen eines Merkmales in einer Stichprobe Rückschlüsse über die Verteilung

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

Wahrscheinlichkeitsrechnung und schließende Statistik

Wahrscheinlichkeitsrechnung und schließende Statistik Springer-Lehrbuch Wahrscheinlichkeitsrechnung und schließende Statistik Bearbeitet von Karl Mosler, Friedrich Schmid 4., verb. Aufl. 2010. Taschenbuch. XII, 347 S. Paperback ISBN 978 3 642 15009 8 Format

Mehr

Schließende Statistik

Schließende Statistik Schließende Statistik Vorlesung an der Universität des Saarlandes Dr. Martin Becker Wintersemester 2017/18 Schließende Statistik (WS 2017/18) Folie 1 1 Einleitung Organisatorisches 1.1 Organisatorisches

Mehr

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und Übersicht über die Vorlesung Teil : Deskriptive fru@hephy.oeaw.ac.at VO 42.090 http://tinyurl.com/tu42090 Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 200 Teil 4:

Mehr

FORMELSAMMLUNG STATISTIK B

FORMELSAMMLUNG STATISTIK B Somersemester 2010 FORMELSAMMLUNG STATISTIK B Dr. Scheer / J. Arns Version vom April 2010 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 2 2 Zufallsvariablen 5 3 Diskrete Verteilungsmodelle 7 4 Parameterschätzung

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit

Mehr

Kapitel VI - Maximum-Likelihood-Schätzfunktionen

Kapitel VI - Maximum-Likelihood-Schätzfunktionen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VI - Maximum-Likelihood-Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

Schließende Statistik

Schließende Statistik Schließende Statistik Vorlesung an der Universität des Saarlandes Dr. Martin Becker Wintersemester 206/7 Schließende Statistik (WS 206/7) Folie Einleitung Organisatorisches. Organisatorisches I Vorlesung:

Mehr

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1 Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne

Mehr

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1 Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x

Mehr

Schließende Statistik

Schließende Statistik Schließende Statistik Vorlesung an der Universität des Saarlandes Dr. Martin Becker Wintersemester 20/5 Schließende Statistik (WS 20/5) Folie Einleitung Organisatorisches. Organisatorisches I Vorlesung:

Mehr

Fortgeschrittene Ökonometrie: Maximum Likelihood

Fortgeschrittene Ökonometrie: Maximum Likelihood Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr Poisson-Prozess Wir hatten bei der Diskussion der geometrischen und der Poisson-Verteilung festgestellt: Wenn der zeitliche Abstand der Treffer geometrisch verteilt ist, so ist ihre Anzahl in einer festen

Mehr

1. Eigenschaften einer Zufallsstichprobe

1. Eigenschaften einer Zufallsstichprobe 1. Eigenschaften einer Zufallsstichprobe 1.1 Grundkonzepte Definition 1.1.1: Man nennt die Zufallsvariablen X 1,..., X n zufällige Stichprobe oder Zufallsstichprobe vom Umfang n aus der Population (Grundgesamtheit)

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

Uwe Hassler. Statistik im. Bachelor-Studium. Eine Einführung. für Wirtschaftswissenschaftler. ^ Springer Gabler

Uwe Hassler. Statistik im. Bachelor-Studium. Eine Einführung. für Wirtschaftswissenschaftler. ^ Springer Gabler Uwe Hassler Statistik im Bachelor-Studium Eine Einführung für Wirtschaftswissenschaftler ^ Springer Gabler 1 Einführung 1 2 Beschreibende Methoden univariater Datenanalyse 5 2.1 Grundbegriffe 5 2.2 Häufigkeitsverteilungen

Mehr

1.4 Stichproben aus einer Normalverteilung

1.4 Stichproben aus einer Normalverteilung 1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte

Mehr

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER Institut für Statistik der LMU FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER 2003 2003 Inhaltsverzeichnis 1 Elementare Wahrscheinlichkeitsrechnung 1 1.1 Die Axiome von Kolmogorov...........................

Mehr

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9. 7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe

Mehr

EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN

EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN 1 EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN UFBAU 1 Historie 2 Anwendungen / Ziele 3 Lineare Regression/ Beispiel KQ 4 Nichtlineare Regression 5 Eigenschaften der Schätzer istorie früheste Form

Mehr

Statistik. Andrej Depperschmidt. Sommersemester 2016

Statistik. Andrej Depperschmidt. Sommersemester 2016 Statistik Andrej Depperschmidt Sommersemester 2016 Schätzen der Varianz mit Stichprobenmittel Sei X = (X 1,..., X n ) eine Stichprobe u.i.v. ZV mit E[X i ] = µ R, Var[X i ] = σ 2 (0, ) und µ 4 = E[(X i

Mehr

Übungen zur Vorlesung Statistische Methoden Kapitel 1-2

Übungen zur Vorlesung Statistische Methoden Kapitel 1-2 TECHNISCHE UNIVERSITÄT DORTMUND Sommersemester 2011 FAKULTÄT STATISTIK Dr. M. Arnold Dipl.-Stat. R. Walter Übungen zur Vorlesung Statistische Methoden Kapitel 1-2 Aufgabe 1: Gegeben ist eine diskrete Zufallsvariable

Mehr

Statistik Einführung // Stichprobenverteilung 6 p.2/26

Statistik Einführung // Stichprobenverteilung 6 p.2/26 Statistik Einführung Kapitel 6 Statistik WU Wien Gerhard Derflinger Michael Hauser Jörg Lenneis Josef Leydold Günter Tirler Rosmarie Wakolbinger Statistik Einführung // 6 p.0/26 Lernziele 1. Beschreiben

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt

Mehr

Goethe-Universität Frankfurt

Goethe-Universität Frankfurt Goethe-Universität Frankfurt Fachbereich Wirtschaftswissenschaft PD Dr. Martin Biewen Dr. Ralf Wilke Sommersemester 2006 Klausur Statistik II 1. Alle Aufgaben sind zu beantworten. 2. Bitte runden Sie Ihre

Mehr

Proxies, Endogenität, Instrumentvariablenschätzung

Proxies, Endogenität, Instrumentvariablenschätzung 1 4.2 Multivariate lineare Regression: Fehler in den Variablen, Proxies, Endogenität, Instrumentvariablenschätzung Literatur: Wooldridge, Kapitel 15, Appendix C.3 und Kapitel 9.4 Wahrscheinlichkeitslimes

Mehr

3 Grundlagen statistischer Tests (Kap. 8 IS)

3 Grundlagen statistischer Tests (Kap. 8 IS) 3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung

Mehr