5. Statistische Schätztheorie
|
|
- Hertha Pfeiffer
- vor 7 Jahren
- Abrufe
Transkript
1 5. Statistische Schätztheorie Problem: Sei X eine Zufallsvariable (oder X ein Zufallsvektor), die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X (oder X) kennenlernen Man beachte: In praxi ist die Verteilung von X zunächst unbekannt 191
2 Deshalb: Sammle Informationen über die unbekannte Verteilung des Zufallsvorgangs, indem man diesen (und damit die Zufallsvariable X) mehrfach beobachtet Zufallsstichprobe Statistiken Schätzer 192
3 5.1 Stichproben, Schätzer, Grenzwertsätze Situation: Sei X die Zufallsvariable, die den interessierenden Zufallsvorgang repräsentiere (zunächst Betrachtung univariater Variablen) Man beabsichtigt, den Zufallsvorgang (d.h. X) insgesamt n mal zu beobachten Vor den Realisierungen kann man die n potenziellen Beobachtungen als ZV en X 1,..., X n auffassen 193
4 Definition 5.1: (Stichprobe) Die ZV en X 1,..., X n heißen einfache Stichprobe aus X, wenn (a) jedes X i, i = 1,..., n, wie X verteilt ist, (b) X 1,..., X n stochastisch unabhängig sind. Die Anzahl n heißt Stichprobenumfang. 194
5 Bemerkungen: Der interessierende Zufallsvorgang kann prinzipiell beliebig oft wiederholt werden Die Realisierungen x 1,..., x n der Stichprobe X 1,..., X n heißen konkrete Stichprobe Betrachtet man die Stichprobe X 1,..., X n als Zufallsvektor, so ist die gemeinsame Dichtefunktion wegen der Unabhängigkeit gegeben durch f X1,...,X n (x 1,..., x n ) = (vgl. Definition 3.8, Folie 125) n i=1 f Xi (x i ) 195
6 Modell der einfachen Zufallsstichprobe Zufallsvorgang X Mögliche Realisationen X 1 (ZV) x 1 (Realisation 1. Exp.) X 2 (ZV)... x 2 (Realisation 2. Exp.)... X n (ZV) x n (Realisation n. Exp.) 196
7 Jetzt: Betrachte Funktionen der Stichprobenvariablen X 1,..., X n Statistiken Schätzer Definition 5.2: (Statistik, Stichprobenfunktion) Es seien X 1,..., X n eine einfache Stichprobe aus X sowie g : R n R eine reellwertige Funktion mit n Argumenten, die keine unbekannten Parameter enthält. Dann nennt man die ZV T = g(x 1,..., X n ) eine Statistik oder Stichprobenfunktion. 197
8 Beispiele: Stichprobenmittel: Stichprobenvarianz: X = g 1 (X 1,..., X n ) = 1 n n X i i=1 S 2 = g 2 (X 1,..., X n ) = 1 n Stichprobenstandardabweichung: S = g 3 (X 1,..., X n ) = 1 n n i=1 n i=1 ( Xi X ) 2 ( Xi X ) 2 198
9 Bemerkungen: Alle bisherigen Begriffe können inhaltsgleich auf den multivariaten Fall übertragen werden Die Statistik T = g(x 1,..., X n ) ist eine Funktion von ZV en und damit selbst eine ZV eine Statistik hat eine Verteilung (d.h. auch einen Erwartungswert und eine Varianz) Zweck von Statistiken: Liefern Informationen über die Verteilung von X Sind Grundbausteine beim Schätzen von Parametern Testen von Hypothesen über Parameter 199
10 Stichproben und Statistiken Stichprobe ( X 1,..., X n ) Messung Stichprobenrealisation ( x 1,..., x n ) g( X 1,..., X n ) Statistik g( x 1,..., x n ) Realisation der Statistik 200
11 Jetzt folgende Situation: Es sei X (oder X) eine ZV e mit unbekannter VF F X (x) Wir interessieren uns für einen oder mehrere Parameter von X Es sei θ dieser unbekannte Parametervektor, z.b. [ ] E(X) θ = Var(X) Oft ist die Verteilungsfamilie von X bekannt, z.b. X N(µ, σ 2 ), nicht aber die Parameter, d.h. [ ] µ θ = σ 2 Der unbekannte Parametervektor wird mit Hilfe von Statistiken einer Stichprobe X 1,..., X n geschätzt 201
12 Definition 5.3: (Schätzer, Schätzwert) Die Statistik θ(x 1,..., X n ) heißt Schätzer (auch Schätzfunktion) für den unbekannten Parametervektor θ. Für die konkrete Stichprobe x 1,..., x n bezeichnet man die damit verbundene Realisierung des Schätzers θ(x 1,..., x n ) als Schätzwert. Bemerkungen: Der Schätzer θ(x 1,..., X n ) ist ein Zufallsvektor Schätzer hat eine Verteilung, einen Erwartungswert und eine Varianz Der Schätzwert θ(x 1,..., x n ) ist dagegen eine Zahl oder ein Zahlenvektor 202
13 Beispiel: X sei N(µ, σ 2 )-verteilt mit unbek. Parametern µ und σ 2 Der zu schätzende Parametervektor ist dann [ ] [ ] µ E(X) θ = σ 2 = Var(X) Mögliche Schätzer für µ und σ 2 sind ˆµ = 1 n n i=1 X i und ˆσ 2 = 1 n 1 n i=1 (X i ˆµ) 2 ein Schätzer für θ ist [ ] ˆµ θ = ˆσ 2 = 1 ni=1 n X i 1 ni=1 n 1 (X i ˆµ) 2 203
14 Frage: Wozu braucht man das scheinbar komplizierte theoretische Konzept des Schätzers als Zufallsvariable? Antwort: Zum Vergleich alternativer Schätzer für ein und denselben Parametervektor θ im Hinblick auf bestimmte Güteeigenschaften Beispiel: Es sei θ = Var(X) die Varianz von X 204
15 Zwei alternative Schätzer für θ sind n ( Xi X ) 2 ˆθ 1 (X 1,..., X n ) = 1 n i=1 ˆθ 2 (X 1,..., X n ) = 1 n 1 n i=1 ( Xi X ) 2 Frage: Welcher Schätzer ist besser und warum? Eigenschaften (Qualitätskriterien) von Punktschätzern (vgl. Abschnitt 5.2) 205
16 Wichtig: Einige dieser Kriterien beurteilen das Verhalten eines Schätzers für große Stichprobenumfänge (n, Große-Stichproben-Eigenschaften) Deshalb: Erläuterung einiger stochastischer Konvergenzbegriffe: Zentraler Grenzwertsatz Schwaches Gesetz der großen Zahl Konvergenz nach Wahrscheinlichkeit Konvergenz nach Verteilung 206
17 Satz 5.4: (Univariater zentraler Grenzwertsatz) Es sei X eine beliebig verteilte Zufallsvariable mit E(X) = µ und Var(X) = σ 2. Weiterhin sei X 1,..., X n eine einfache Stichprobe aus X und X n = 1 n n X i i=1 das arithmetische Stichprobenmittel. Dann gilt für n : X n N ( µ, σ2 n ) bzw. n X n µ σ N(0, 1). Jetzt: Verallgemeinerung auf multivariaten Fall 207
18 Satz 5.5: (Multivariater zentraler Grenzwertsatz) Es sei X = (X 1,..., X m ) ein beliebig verteilter Zufallsvektor mit E(X) = µ und Cov(X) = Σ. Weiterhin sei X 1,..., X n eine (multivariate) einfache Stichprobe aus X und X n = 1 n n X i i=1 das multivariate arithmetische Stichprobenmittel. Dann gilt für n : X n N (µ, 1n ) Σ ( bzw. n Xn µ ) N(0, Σ). 208
19 Bemerkungen: Eine multivariate einfache Stichprobe aus dem Zufallsvektor X erhält man, indem man in Definition 5.1 (Folie 194) alle univariaten Zufallsvariablen durch entsprechende multivariate Zufallsvektoren ersetzt Man beachte die formale Analogie zum univariaten Fall in Satz 5.4 (Rechenoperationen für Matrizen beachten!) Jetzt: Bekannter Satz über das arithmetische Stichprobenmittel 209
20 Satz 5.6: (Schwaches Gesetz der großen Zahl) Es sei X 1, X 2,... eine Folge von unabhängigen und identisch verteilten Zufallsvariablen mit E(X i ) = µ <, Var(X i ) = σ 2 <. Weiterhin betrachte man die Zufallsvariable X n = 1 n n X i i=1 (arithmetisches Stichprobenmittel). Für jedes ɛ > 0 gilt dann: lim n P ( Xn µ ɛ ) =
21 Bemerkungen: Satz 5.6 ist das schwache Gesetz der großen Zahl Für jedes noch so kleine ɛ > 0 konvergiert die Wskt., dass X n um ±ɛ vom Erwartungswert µ abweicht, bei zunehmendem Stichprobenumfang gegen Null Man beachte die Analogie zwischen einer Folge von unabhängig, identisch verteilten ZV en und der Definition 5.1 (Folie 194) einer einfachen Stichprobe aus X Jetzt: Erster wichtiger Konvergenzbegriff 211
22 Definition 5.7: (Konvergenz nach Wahrscheinlichkeit) Es sei Y 1, Y 2,... eine Folge Zufallsvariablen. Man sagt: Die Folge Y 1, Y 2,... konvergiert nach Wahrscheinlichkeit gegen θ, wenn für jedes ɛ > 0 gilt: lim n P ( Y n θ ɛ) = 0. Man notiert die Konvergenz nach Wahrscheinlichkeit mit plim Y n = θ oder Y n p θ. Bemerkungen: Spezialfall: Schwaches Gesetz der großen Zahlen plim X n = µ oder X n p µ 212
23 Bei der Konvergenz nach Wahrscheinlichkeit strebt die Folge der ZV en meistens gegen einen Wert (θ R) Für multivariate Folgen von Zufallsvektoren Y 1, Y 2,... ist die Definition 5.7 elementweise anzuwenden Die Konvergenz nach Wahrscheinlichkeit spielt bei der Beurteilung von Schätzern eine wichtige Rolle Jetzt: Alternativer stochastischer Konvergenzbegriff 213
24 Definition 5.8: (Konvergenz nach Verteilung) Es sei Y 1, Y 2,... eine Folge Zufallsvariablen und Z ebenfalls eine Zufallsvariable. Man sagt: Die Folge Y 1, Y 2,... konvergiert nach Verteilung gegen Z, wenn lim n F Y n (y) = F Z (y) für jedes y R. Man notiert die Konvergenz nach Verteilung mit Y n d Z. Bemerkungen: Spezialfall: Zentraler Grenzwertsatz Y n = n X n µ d U N(0, 1) σ Bei der Konvergenz nach Verteilung strebt die Folge der ZV en stets gegen eine Zufallsvariable 214
25 Satz 5.9: (plim -Rechenregeln) Es seien X 1, X 2,... und Y 1, Y 2,... Folgen von Zufallsvariablen für die gilt plim X n = a bzw. plim Y n = b. Dann gilt: (a) plim (X n ± Y n ) = a ± b. (b) plim (X n Y n ) = a b. (c) plim ( X n Y n ) = a b, falls b = 0. (d) (Slutsky-Theorem) Wenn g : R R eine in a stetige Funktion ist, dann gilt plim g (X n ) = g(a). 215
26 Bemerkung: Eine mit dem Slutsky-Theorem verwandte Eigenschaft gilt auch für die Konvergenz nach Verteilung Satz 5.10: ( d -Rechenregel) Es seien X 1, X 2,... eine Folge von Zufallsvariablen, Z ebenfalls eine Zufallsvariable und es gelte X n d Z. Weiterhin sei h : R R eine stetige Funktion. Dann gilt: h (X n ) d h(z). Jetzt: Verbindung der beiden Konvergenzkonzepte 216
27 Satz 5.11: (Cramér-Theorem) Es seien X 1, X 2,... sowie Y 1, Y 2,... Folgen von Zufallsvariablen, Z eine Zufallsvariable und a R. Außerdem gelte plim X n = a d und Y n Z. Dann gelten: (a) X n + Y n d a + Z. (b) X n Y n d a Z. Beispiel: Es sei X 1,..., X n eine einfache Stichprobe aus X mit E(X) = µ bzw. Var(X) = σ 2 217
28 Man kann zeigen, dass plim S 2 n = 1 n 1 n i=1 ( Xi X n ) 2 = σ 2 plim S 2 n = 1 n n i=1 ( Xi X n ) 2 = σ 2 Für g 1 (x) = x/σ 2 folgt aus dem Slutksky-Theorem: ( ) plim g 1 S 2 S 2 n = plim n σ 2 = g 1(σ 2 ) = 1 plim g 1 ( S 2 n ) = plim S 2 n σ 2 = g 1(σ 2 ) = 1 218
29 Für g 2 (x) = σ/ x folgt aus dem Slutksky-Theorem: plim g 2 ( S 2 n ) = plim σ S n = g 2 (σ 2 ) = 1 plim g 2 ( S 2 n ) = plim σ S n = g 2 (σ 2 ) = 1 Mit dem zentralen Grenzwertsatz folgt: n X n µ σ d U N(0, 1) 219
30 Mit dem Cramér-Theorem folgt: g 2 ( S 2 n ) n X n µ σ = σ S n n X n µ σ = n X n µ S n d 1 U Ebenso liefert das Cramér-Theorem: = U N(0, 1) n X n µ S n d U N(0, 1) 220
31 5.2 Eigenschaften von Schätzern Inhalt von Definition 5.3: Ein Schätzer ist eine Statistik (Stichprobenfunktion) Es gibt verschiedene Schätzer für den unbekannten Parametervektor θ Beispiel: Es seien X N(0, σ 2 ) mit unbekannter Varianz σ 2 und X 1,..., X n eine einfache Stichprobe aus X Mögliche Schätzer für θ = σ 2 sind: ˆθ 1 = 1 n n i=1 ( Xi X ) 2 bzw. ˆθ 2 = 1 n 1 n i=1 ( Xi X ) 2 221
32 Wichtige Fragen: Welche Qualitätskriterien dienen zur Auswahl eines guten Schätzers? Wie findet man gute Schätzer? 1. Qualitätseigenschaft: Konzept der wiederholten Stichprobe: Ziehe mehrere einfache Stichproben aus X Betrachte den Schätzer an jeder Stichprobe Eine Mittelung der Schätzwerte sollte nahe am unbekannten Parameter liegen (keine systematische Verzerrung) Erwartungstreue eines Schätzers 222
33 Definition 5.12: (Erwartungstreue, Verzerrung) Der Schätzer ˆθ(X 1,..., X n ) für den unbekannten Parameter θ heißt erwartungstreu, falls sein Erwartungswert mit dem zu schätzenden Parameter θ übereinstimmt, d.h. falls E [ˆθ(X 1,..., X n ) ] = θ. Unter der Verzerrung des Schätzers (engl. Bias) versteht man den Abstand Bias(ˆθ) = E(ˆθ) θ. Bemerkungen: Übertragung auf den multivariaten Fall möglich Bei erwartungstreuen Schätzern ist der Bias gleich Null 223
34 Jetzt: Wichtiges allgemeingültiges Resultat Satz 5.13: (E-treue Schätzer für E(X) und Var(X)) Es sei X 1,..., X n eine Stichprobe aus X und X sei beliebig verteilt mit unbekanntem Erwartungswert µ = E(X) sowie unbekannter Varianz σ 2 = Var(X). Dann sind die beiden Schätzer bzw. ˆµ(X 1,..., X n ) = X = 1 n ˆσ 2 (X 1,..., X n ) = S 2 = 1 n 1 n X i i=1 n i=1 ( Xi X ) 2 stets erwartungstreu für die Parameter µ = E(X) und σ 2 = Var(X). 224
35 Bemerkungen: Beweis: Übungsaufgabe Man beachte, dass keine explizite Verteilung für X unterstellt wird Erwartungstreue pflanzt sich bei Parametertransformationen nicht beliebig fort, z.b. ist S = S 2 nicht erwartungstreu für σ = SD(X) = Var(X) Frage: Wie kann man zwei erwartungstreue Schätzer für den unbekannten Parameter θ miteinander vergleichen? 225
36 Definition 5.14: (Relative Effizienz) Es seien ˆθ 1 und ˆθ 2 zwei erwartungstreue Schätzer für den unbekannten Parameter θ. Dann heißt ˆθ 1 relativ effizienter als ˆθ 2, falls gilt Var(ˆθ 1 ) Var(ˆθ 2 ) für alle möglichen Parameterwerte für θ und Var(ˆθ 1 ) < Var(ˆθ 2 ) für mindestens einen möglichen Parameterwert für θ. 226
37 Beispiel: Es sei θ = E(X) Betrachte die beiden Schätzer ˆθ 1 (X 1,..., X n ) = 1 n n X i i=1 ˆθ 2 (X 1,..., X n ) = X (n 1) Welcher Schätzer ist relativ effizienter? (Übungsaufgabe) n X i i=2 Frage: Wie vergleicht man 2 Schätzer, wenn (mindestens) einer verzerrt ist? 227
38 Definition 5.15: (Mittlerer quadratischer Fehler) Es sei ˆθ ein beliebiger Schätzer für den unbekannten Parameter θ. Unter dem mittleren quadratischen Fehler (mean-squared error) des Schätzers versteht man die Maßzahl [ MSE(ˆθ) = E (ˆθ θ ) 2 ] = Var (ˆθ ) + [ Bias(ˆθ) ] 2. Bemerkungen: Bei einem erwartungstreuen Schätzer ist der MSE gleich der Varianz des Schätzers Der MSE eines Schätzers ˆθ hängt i.d.r. vom Wert des unbekannten Parameters θ ab 228
39 Vergleich beliebiger Schätzer: Über ihre MSEs Definition 5.16: (MSE-Effizienz) Es seien ˆθ 1 und ˆθ 2 zwei beliebige Schätzer für den unbekannten Parameter θ. Dann heißt ˆθ 1 MSE-efffizienter als ˆθ 2, falls gilt MSE(ˆθ 1 ) MSE(ˆθ 2 ) für alle möglichen Parameterwerte für θ und MSE(ˆθ 1 ) < MSE(ˆθ 2 ) für mindestens einen möglichen Parameterwert für θ. 229
40 Vergleich erwartungstreuer vs. verzerrter Schätzer θ 2( X1, K, X n) θ 1( X1, K, X n) θ 230
41 Bemerkungen: Oft sind 2 Schätzer für θ nicht im Sinne der MSE-Effizienz vergleichbar, da sich die MSE-Kurven schneiden Es gibt kein allgemeines mathematisches Prinzip zur Bestimmung eines MSE-effizienten Schätzers Es gibt aber Methoden, unter allen erwartungstreuen Schätzern den mit der gleichmäßig geringsten Varianz zu bestimmen Beschränkung auf erwartungstreue Schätzer Diese Methoden nicht Gegenstand der VL (Theoreme von Rao-Blackwell, Lehmann-Scheffé) Hier nur ein wichtiges Resultat: 231
42 Satz 5.17: (Cramér-Rao Varianzuntergrenze) Es sei X 1,..., X n eine einfache Stichprobe aus X und θ ein zu schätzender Parameter. Man betrachte die gemeinsame Dichtefunktion der Stichprobe, f X1,...,X n (x 1,..., x n ), und definiere den Wert CR(θ) E ( fx1,...,x n (X 1,..., X n ) θ ) 2 1 Unter bestimmten Voraussetzungen gilt dann für jeden beliebigen erwartungstreuen Schätzer ˆθ(X 1,..., X n ): Var(ˆθ) CR(θ).. 232
43 Bemerkungen: Der Wert CR(θ) ist die geringste Varianz, die ein erwartungstreuer Schätzer haben kann Optimalitätskriterium für erwartungstreue Schätzer Gilt für den erwartungstreuen Schätzer ˆθ(X 1,..., X n ) Var(ˆθ) = CR(θ), so bezeichnet man ˆθ als UMVUE-Schätzer (Uniformly Minimum-Variance Unbiased Estimator) 233
44 2. Qualitätseigenschaft: Lasse den Stichprobenumfang wachsen (n ): Notation: ˆθ n (X 1,..., X n ) = ˆθ(X 1,..., X n ) Untersuchung der Eigenschaften der asymptotischen Verteilung von ˆθ n Konsistenz eines Schätzers Definition 5.18: ((Schwache) Konsistenz) Der Schätzer ˆθ n (X 1,..., X n ) heißt (schwach) konsistent für θ, falls er nach Wahrscheinlichkeit gegen θ konvergiert, d.h. falls plim ˆθ n (X 1,..., X n ) = θ. 234
45 Beispiel: Es sei X N(µ, σ 2 ) mit σ 2 bekannt (z.b. σ 2 = 1) Betrachte 2 Schätzer für µ: ˆµ n (X 1,..., X n ) = 1 n n X i i=1 ˆµ n (X 1,..., X n ) = 1 n n i=1 X i + 2 n ˆµ n ist (schwach) konsistent für µ (Satz 5.6, Folie 210: Schwaches Gesetz der großen Zahl) 235
46 ˆµ n ist (schwach) konsistent für µ (folgt aus Satz 5.9(a), Folie 215) Exakte Verteilung von ˆµ n : ˆµ n N(µ, σ 2 /n) (Lineare Transformation der NV) Exakte Verteilung von ˆµ n: ˆµ n N(µ + 2/n, σ2 /n) (Lineare Transformation der NV) 236
47 Dichtefunktionen des Schätzers ˆµ n für n = 2, 10, 20 (σ 2 = 1) µ=
48 Dichtefunktionen des Schätzers ˆµ n für n = 2, 10, 20 (σ2 = 1) µ=
49 Bemerkungen: Hinreichende (aber nicht notwendige) Bedingung für Konsistenz: lim n E(ˆθ n ) = θ (asymptotische Erwartungstreue) lim n Var(ˆθ n ) = 0 Mögliche Eigenschaften eines Schätzers: konsistent und erwartungstreu inkonsistent und erwartungstreu konsistent und verzerrt inkonsistent und verzerrt 239
50 Jetzt: Anwendung des zentralen Grenzwertsatzes auf Schätzer asymptotische Normalität des Schätzers Definition 5.19: (Asymptotische Normalität) Ein Schätzer ˆθ n (X 1,..., X n ) für den unbekannten Parameter θ heißt asymptotisch normalverteilt, falls es eine Folge reeller Zahlen θ 1, θ 2,... und eine Funktion V (θ) gibt, so dass gilt: n (ˆθ n θ n ) d U N(0, V (θ)). 240
51 Bemerkungen: Andere Schreibweise: ˆθ n appr. N(θ n, V (θ)/n) Zur asymptotischen Normalität gibt es eine multivariate Verallgemeinerung 241
52 5.3 Schätzmethoden Bisher: Definitionen + Qualitätskriterien für Schätzer Jetzt: Konstruktion von Schätzern 3 traditionelle Verfahren: Methode der kleinsten Quadrate (KQ) Momenten-Methode (MM) Maximum-Likelihood-Methode (ML) 242
53 Bemerkungen: Es gibt weitere Verfahren (z.b. die verallgemeinerte Momenten-Methode, GMM) Hier: hauptsächlich ML-Methode 243
54 5.3.1 Kleinste-Quadrate-Methode Historie: Eingeführt von A.M. Legendre ( ) C.F. Gauß ( ) Idee: Approximiere verrauschte Beobachtungen x 1,..., x n Funktionen g i (θ 1,..., θ m ), i = 1,..., n, m < n durch S(x 1,..., x n ; θ) = KQ-Schätzer ist dann n i=1 [x i g i (θ)] 2 min θ θ(x 1,..., X n ) = argmin S(X 1,..., X n ; θ) durch 244
55 Bemerkung: KQ-Methode ist zentrale Schätztechnik beim linearen Regressionsmodell (vgl. VLen Ökonometrie I + II) 245
56 5.3.2 Momenten-Methode Historie: Eingeführt von K. Pearson ( ) Definition 5.20: (Theoretische und empirische Momente) (a) Es sei X eine Zufallsvariable mit Erwartungswert E(X). Dann ist das gewöhnliche theoretische p-te Moment von X (in Zeichen: µ p) definiert als als µ p = E(Xp ). Das zentrale theoretische p-te Moment von X (in Zeichen: µ p ) ist definiert durch µ p = E {[X E(X)] p }. 246
57 (b) Es sei X 1,..., X n eine einfache Stichprobe aus X und es bezeichne X das arithmetische Stichprobenmittel. Dann ist das gewöhnliche empirische p-te Moment (in Zeichen: ˆµ p ) definiert durch ˆµ p = 1 n n i=1 X p i. Das zentrale empirische p-te Moment (in Zeichen: definiert durch ˆµ p ) ist n ( Xi X ) p. ˆµ p = 1 n i=1 247
58 Bemerkungen: Die theoretischen Momente µ p und µ p wurden bereits in der Definition 2.21 (Folie 76) eingeführt Die empirischen Momente ˆµ p bzw. ˆµ p sind Schätzer für die theoretischen Momente µ p bzw. µ p Das arithmetische Stichprobenmittel ist das 1. gewöhnliche empirische Moment von X 1,..., X n Die Stichprobenvarianz ist das 2. zentrale empirische Moment von X 1,..., X n 248
59 Ausgangssituation: Anhand der einfachen Stichprobe X 1,..., X n aus X sollen die r unbekannten Parameter θ 1,..., θ r geschätzt werden Grundidee der Momentenmethode: 1. Drücke r theoretische Momente als Funktionen der r unbekannten Parameter aus: µ 1 = g 1(θ 1,..., θ r ). µ r = g r (θ 1,..., θ r ) 249
60 2. Drücke die r unbekannten Parameter als Funktionen der r theoretischen Momente aus: θ 1 = h 1 (µ 1,..., µ r, µ 1,..., µ r ). θ r = h r (µ 1,..., µ r, µ 1,..., µ r) 3. Ersetze theoretische durch empirische Momente: ˆθ 1 (X 1,..., X n ) = h 1 (ˆµ 1,..., ˆµ r, ˆµ 1,..., ˆµ r). ˆθ r (X 1,..., X n ) = h r (ˆµ 1,..., ˆµ r, ˆµ 1,..., ˆµ r ) 250
61 Beispiel: (Exponentialverteilung) Die ZV e X heißt exponentialverteilt mit Parameter λ > 0, falls X die Dichtefunktion aufweist Es gilt: f X (x) = { λe λx, für x > 0 0, sonst E(X) = 1 λ Var(X) = 1 λ 2 251
62 Momentenschätzer über den Erwartungswert: 1. Wir wissen: E(X) = µ 1 = 1 λ 2. Also folgt: λ = 1 µ 1 3. Momentenschätzer für λ: ˆλ(X 1,..., X n ) = 1 1/n n i=1 X i 252
63 Momentenschätzer über die Varianz: 1. Wir wissen: Var(X) = µ 2 = 1 λ 2 2. Also folgt: λ = 1 µ 2 3. Momentenschätzer für λ: ˆλ(X 1,..., X n ) = 1 1/n n i=1 ( Xi X ) 2 Momentenschätzer für einen unbekannten Parameter sind nicht eindeutig bestimmt 253
64 Bemerkungen: Momentenschätzer sind konsistent, denn plim ˆθ 1 = plim h 1 (ˆµ 1,..., ˆµ r, ˆµ 1,..., ˆµ r ) = h 1 (plim ˆµ 1,..., plim ˆµ r, plim ˆµ 1,..., plim ˆµ r) = h 1 (µ 1,..., µ r, µ 1,..., µ r) = θ 1 I.a. sind Momentenschätzer nicht erwartungstreu Momentenschätzer sind (i.a.) asymptotisch normalverteilt Die asymptotischen Varianzen sind häufig schwer zu bestimmen 254
65 5.3.3 Maximum-Likelihood-Methode Historie: Eingeführt von Ronald Fisher ( ) Grundidee: Schätze die unbekannten Parameter θ 1,..., θ r derart, dass die Wahrscheinlichkeit (likelihood) der konkreten Stichprobe x 1,..., x n als Funktion der unbekannten Parameter maximal wird 255
66 Beispiel: Eine Urne enthalte schwarze und weiße Kugeln Bekannt ist das Verhältnis der Kugelanzahlen von 3 : 1 Unbekannt ist, welche der Kugeln häufiger vorkommt Ziehe n Kugeln mit Zurücklegen X bezeichne die Anzahl schwarzer gezogener Kugeln Verteilung von X: P (X = x) = ( n) p x (1 p) n x, x {0, 1,..., n}, p {0.25, 0.75} x (Binomialverteilung) 256
67 p {0.25, 0.75} ist zu schätzender Parameter Ziehe eine Stichprobe vom Umfang n = 3 Mögliche Stichprobenausgänge: Anzahl schwarze Kugeln: x P (X = x; p = 0.25) P (X = x; p = 0.75) Intuitives Schätzen: Schätze p als den Wert, der die Wskt. der tatsächlichen Beobachtung x (ex-ante) maximiert: { 0.25, für x = 0, 1 ˆp = 0.75, für x = 2, 3 Maximum-Likelihood-Methode
68 Jetzt: Formalisierung der Maximum-Likelihood-Methode Begriffe: Likelihood-, Loglikelihoodfunktion Maximum-Likelihood-Schätzer Definition 5.21: (Likelihoodfunktion) Die Likelihoodfunktion von n ZV en X 1,..., X n ist definiert als die gemeinsame Dichte der n ZV en, f X1,...,X n (x 1,..., x n ; θ), jedoch aufgefasst als eine Funktion des Parametervektors θ. 258
69 Bemerkungen: Sind X 1,..., X n eine einfache Stichprobe aus der stetigen ZV en X mit Dichtefunktion f X (x, θ), so ist f X1,...,X n (x 1,..., x n ; θ) = n i=1 f Xi (x i ; θ) = n i=1 f X (x i ; θ) Die Likelihoodfunktion wird oft mit L(θ; x 1,..., x n ) oder L(θ) bezeichnet, also im vorhergehenden Fall L(θ; x 1,..., x n ) = L(θ) = n i=1 f X (x i ; θ) 259
70 Sind die X 1,..., X n eine Stichprobe aus einer diskreten ZV en X, so ist die Likelihoodfunktion L(θ; x 1,..., x n ) = P (X 1 = x 1,..., X n = x n ; θ) = n i=1 (Hier: Likelihood = Wahrscheinlichkeit der Stichprobe) P (X = x i ; θ) Beispiel: Es sei X 1,..., X n eine einfache Stichprobe aus X N(µ, σ 2 ). Dann ist θ = (µ, σ 2 ) und L(θ; x 1,..., x n ) = = n i=1 1 2πσ 2 e 1/2((x i µ)/σ) 2 ( ) 1 n/2 2πσ 2 exp 1 2σ 2 n i=1 (x i µ) 2 260
71 Definition 5.22: (Maximum-Likelihood Schätzer) Es sei L(θ, x 1,..., x n ) die Likelihoodfunktion der einfachen Stichprobe X 1,..., X n. Es bezeichne θ (wobei θ(x 1,..., x n ) von den Beobachtungen x 1,..., x n abhängt) denjenigen Parametervektor, der L(θ, x 1,..., x n ) maximiert. Dann heißt θ(x 1,..., X n ) der Maximum-Likelihood Schätzer von θ. Bemerkungen: Man erhält den ML-Schätzer über die Maximierung der Likelihood-Funktion L( θ; x 1,..., x n ) = max θ L(θ; x 1,..., x n ) und anschließendem Ersetzen der Realisationen x 1,..., x n durch die Stichprobenvariablen X 1,..., X n 261
72 Oft ist die Maximierung der Loglikelihoodfunktion ln[l(θ; x 1,..., x n )] einfacher (Man beachte: L(θ) und ln[l(θ)] haben ihre Maxima an derselben Stelle) Man bestimmt θ = (ˆθ 1,..., ˆθ r ) durch Lösen des Gleichungssystems ln[l(θ; x 1,..., x n )] θ 1. = 0 ln[l(θ; x 1,..., x n )] θ r = 0 262
73 Beispiel: Es sei X 1,..., X n eine einfache Stichprobe aus X N(µ, σ 2 ) mit Likelihoodfunktion L(µ, σ 2 ) = ( ) 1 n/2 2πσ 2 exp Die Loglikelihoodfunktion ist L (µ, σ 2 ) = ln[l(µ, σ 2 )] 1 2σ 2 n i=1 = n 2 ln(2π) n 2 ln(σ2 ) 1 2σ 2 (x i µ) 2 n i=1 (x i µ) 2 263
74 Die partiellen Ableitungen lauten bzw. L (µ, σ 2 ) L (µ, σ 2 ) µ σ 2 = n 2 = 1 n σ 2 (x i µ) i=1 1 σ σ 4 n i=1 (x i µ) 2 Gleich-Null-Setzen, Lösen des Gleichungssystems und Ersetzen der Realisationen durch die Stichprobenvariablen liefert die ML-Schätzer ˆµ(X 1,..., X n ) = 1 n n i=1 X i = X ˆσ 2 (X 1,..., X n ) = 1 n n i=1 ( Xi X ) 2 264
75 Eigenschaften der ML-Methode: Verteilungsannahmen sind unbedingt notwendig Unter bestimmten Bedingungen haben ML-Schätzer sehr angenehme Eigenschaften: 1. Wenn ˆθ der ML-Schätzer für θ ist, dann ist g(ˆθ) der ML- Schätzer von g(θ) (Äquivarianz) 2. Konsistenz: plim ˆθ n = θ 265
76 3. Asymptotische Normalität: n (ˆθ n θ ) d U N(0, V (θ)) 4. Asymptotische Effizienz: V (θ) ist die Cramér-Rao-Untergrenze 5. Berechenbarkeit (numerische Methoden) 6. Quasi-ML-Schätzung: ML-Schätzer, berechnet auf der Basis normalverteilter Stichproben, sind robust gegenüber Abweichungen von normalverteilten Grundgesamtheiten 266
6. Schätzverfahren für Parameter
6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen
Mehr5. Stichproben und Statistiken
5. Stichproben und Statistiken Problem: Es sei X eine ZV, die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X kennenlernen (z.b. mittels der VF F X (x)
MehrStatistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrParameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),
Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.
Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;
MehrStatistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 6. Juli 2017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 13 Version: 7. Juli
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
MehrKapitel 3 Schließende Statistik
Motivation Grundgesamtheit mit unbekannter Verteilung F Stichprobe X 1,...,X n mit Verteilung F Realisation x 1,...,x n der Stichprobe Rückschluss auf F Dr. Karsten Webel 160 Motivation (Fortsetzung) Kapitel
MehrWahrscheinlichkeitsrechnung und Statistik
10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten
MehrDie Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare
17.1.3 Die Momentenmethode Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare Lösungen. Sei ϑ = (ϑ 1,...,ϑ s ) der unbekannte, s-dimensionale
Mehr6. Statistische Hypothesentests
6. Statistische Hypothesentests Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang X habe die unbekannte VF F X (x) Interessieren uns für einen unbekannten Parameter θ der Verteilung von
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Mehr1.8 Mehrdimensionale Zufallsvariablen
1.8 Mehrdimensionale Zufallsvariablen 1.8 Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Schnelldurchgang unter Bezug auf das
MehrOLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrMan kann also nicht erwarten, dass man immer den richtigen Wert trifft.
2.2.2 Gütekriterien Beurteile die Schätzfunktionen, also das Verfahren an sich, nicht den einzelnen Schätzwert. Besonders bei komplexeren Schätzproblemen sind klar festgelegte Güteeigenschaften wichtig.
MehrStochastik Praktikum Parametrische Schätztheorie
Stochastik Praktikum Parametrische Schätztheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 05.10.2010 Prolog Momentenmethode X : Ω 1 Ω Zufallsgröße, die Experiment beschreibt. Ein statistisches
Mehr3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood
MehrStatistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg
Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Dr. Stan Lai und Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer
Mehrdie wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen
Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung
Mehr5 Allgemeine Verfahren zum Testen von Hypothesen
5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrStatistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................
Mehr10 Statistisches Schätzen
10 Statistisches Schätzen 620 10 Statistisches Schätzen 10.1 Punktschätzung 623 10.1.1 Schätzer und ihre Gütekriterien 623 10.1.2 Erwartungstreue 627 10.1.3 Erwartete quadratische Abweichung (MSE) 634
MehrModellanpassung und Parameterschätzung. A: Übungsaufgaben
7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit
Mehr1.3 Wiederholung der Konvergenzkonzepte
1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche
MehrModellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch
Modellanpassung Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München SS 2009 Statistik Statistik Wahrscheinlichkeitsrechnung: Gesetze bekannt,
MehrKapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren
Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander
MehrZusammenfassung: Kapitel 5, Zusammenhangsmaße
Zusammenfassung: Kapitel 5, Zusammenhangsmaße Kovarianz s xy = 1 n n (x i x)(y i ȳ) i=1 Korrelationskoeffizient nach Bravais-Pearson r xy = s xy s x s y = n (x i x)(y i ȳ) i=1 n (x i x) 2 i=1 n (y i ȳ)
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrEinführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen
Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Inhalt Stichproben
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
Mehr3.3 Methoden zur Evaluierung von Schätzern
3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,
MehrStochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie
Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Sommersemester 2018 Kapitel 8: Elemente der mathematischen Statistik Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik
Mehr1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...
Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
Mehr5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
MehrWahrscheinlichkeitsrechnung und Statistik
9. Vorlesung - 2017 Monte Carlo Methode für numerische Integration Sei g : [0, 1] R stetige Funktion; man möchte 1 0 g(t)dt numerisch approximieren mit Hilfe von Zufallszahlen: Sei (U n ) n eine Folge
Mehr5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
MehrWahrscheinlichkeitsrechnung und schließende Statistik
Karl Mosler Friedrich Schmid Wahrscheinlichkeitsrechnung und schließende Statistik Vierte, verbesserte Auflage Springer Inhaltsverzeichnis 0 Einführung 1 1 Zufalls Vorgänge und Wahrscheinlichkeiten 5 1.1
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrFORMELSAMMLUNG STATISTIK B
Somersemester 2012 FORMELSAMMLUNG STATISTIK B Prof. Kneip / Dr. Scheer / Dr. Arns Version vom April 2012 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 2 2 Diskrete Zufallsvariablen 5 3 Stetige Zufallsvariablen
MehrSchließende Statistik
Schließende Statistik Vorlesung an der Universität des Saarlandes Dr. Martin Becker Wintersemester 207/8 Schließende Statistik (WS 207/8) Folie Einleitung Organisatorisches. Organisatorisches I Vorlesung:
MehrEinführung in die (induktive) Statistik
Einführung in die (induktive) Statistik Typische Fragestellung der Statistik: Auf Grund einer Problemmodellierung sind wir interessiert an: Zufallsexperiment beschrieben durch ZV X. Problem: Verteilung
Mehr1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe
1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe Nachdem eine Stichprobe X 1,..., X n gezogen wurde berechnen wir gewöhnlich irgendwelchen Wert damit. Sei dies T = T (X 1,..., X n, wobei T auch
MehrSchätzer und Konfidenzintervalle
Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl
Mehr2 Induktive Statistik
Induktive Statistik .1 Grundprinzipien der induktiven Statistik.1 Grundprinzipien der induktiven Statistik Ziel: Inferenzschluss, Repräsentationsschluss: Schluss von einer Stichprobe auf Eigenschaften
MehrBiostatistik, Sommer 2017
1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017
Mehr7. Hypothesentests. Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang. X habe die unbekannte VF F X (x)
7. Hypothesentests Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang X habe die unbekannte VF F X (x) Interessieren uns für einen unbekannten Parameter θ der Verteilung von X 350 Bisher:
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
MehrStatistik II. Version A. 1. Klausur Sommersemester 2011 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik II Version A 1. Klausur Sommersemester 2011 Hamburg, 27.07.2011 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................
MehrSo berechnen Sie einen Schätzer für einen Punkt
htw saar 1 EINFÜHRUNG IN DIE STATISTIK: SCHÄTZEN UND TESTEN htw saar 2 Schätzen: Einführung Ziel der Statistik ist es, aus den Beobachtungen eines Merkmales in einer Stichprobe Rückschlüsse über die Verteilung
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
MehrWahrscheinlichkeitsrechnung und schließende Statistik
Springer-Lehrbuch Wahrscheinlichkeitsrechnung und schließende Statistik Bearbeitet von Karl Mosler, Friedrich Schmid 4., verb. Aufl. 2010. Taschenbuch. XII, 347 S. Paperback ISBN 978 3 642 15009 8 Format
MehrSchließende Statistik
Schließende Statistik Vorlesung an der Universität des Saarlandes Dr. Martin Becker Wintersemester 2017/18 Schließende Statistik (WS 2017/18) Folie 1 1 Einleitung Organisatorisches 1.1 Organisatorisches
MehrStatistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und
Übersicht über die Vorlesung Teil : Deskriptive fru@hephy.oeaw.ac.at VO 42.090 http://tinyurl.com/tu42090 Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 200 Teil 4:
MehrFORMELSAMMLUNG STATISTIK B
Somersemester 2010 FORMELSAMMLUNG STATISTIK B Dr. Scheer / J. Arns Version vom April 2010 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 2 2 Zufallsvariablen 5 3 Diskrete Verteilungsmodelle 7 4 Parameterschätzung
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrTeil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation
Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit
MehrKapitel VI - Maximum-Likelihood-Schätzfunktionen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VI - Maximum-Likelihood-Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
MehrSchließende Statistik
Schließende Statistik Vorlesung an der Universität des Saarlandes Dr. Martin Becker Wintersemester 206/7 Schließende Statistik (WS 206/7) Folie Einleitung Organisatorisches. Organisatorisches I Vorlesung:
MehrKlausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1
Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne
Mehr0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1
Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x
MehrSchließende Statistik
Schließende Statistik Vorlesung an der Universität des Saarlandes Dr. Martin Becker Wintersemester 20/5 Schließende Statistik (WS 20/5) Folie Einleitung Organisatorisches. Organisatorisches I Vorlesung:
MehrFortgeschrittene Ökonometrie: Maximum Likelihood
Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
MehrDWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr
Poisson-Prozess Wir hatten bei der Diskussion der geometrischen und der Poisson-Verteilung festgestellt: Wenn der zeitliche Abstand der Treffer geometrisch verteilt ist, so ist ihre Anzahl in einer festen
Mehr1. Eigenschaften einer Zufallsstichprobe
1. Eigenschaften einer Zufallsstichprobe 1.1 Grundkonzepte Definition 1.1.1: Man nennt die Zufallsvariablen X 1,..., X n zufällige Stichprobe oder Zufallsstichprobe vom Umfang n aus der Population (Grundgesamtheit)
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
MehrUwe Hassler. Statistik im. Bachelor-Studium. Eine Einführung. für Wirtschaftswissenschaftler. ^ Springer Gabler
Uwe Hassler Statistik im Bachelor-Studium Eine Einführung für Wirtschaftswissenschaftler ^ Springer Gabler 1 Einführung 1 2 Beschreibende Methoden univariater Datenanalyse 5 2.1 Grundbegriffe 5 2.2 Häufigkeitsverteilungen
Mehr1.4 Stichproben aus einer Normalverteilung
1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte
MehrInstitut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER
Institut für Statistik der LMU FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER 2003 2003 Inhaltsverzeichnis 1 Elementare Wahrscheinlichkeitsrechnung 1 1.1 Die Axiome von Kolmogorov...........................
Mehr7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.
7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe
MehrEGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN
1 EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN UFBAU 1 Historie 2 Anwendungen / Ziele 3 Lineare Regression/ Beispiel KQ 4 Nichtlineare Regression 5 Eigenschaften der Schätzer istorie früheste Form
MehrStatistik. Andrej Depperschmidt. Sommersemester 2016
Statistik Andrej Depperschmidt Sommersemester 2016 Schätzen der Varianz mit Stichprobenmittel Sei X = (X 1,..., X n ) eine Stichprobe u.i.v. ZV mit E[X i ] = µ R, Var[X i ] = σ 2 (0, ) und µ 4 = E[(X i
MehrÜbungen zur Vorlesung Statistische Methoden Kapitel 1-2
TECHNISCHE UNIVERSITÄT DORTMUND Sommersemester 2011 FAKULTÄT STATISTIK Dr. M. Arnold Dipl.-Stat. R. Walter Übungen zur Vorlesung Statistische Methoden Kapitel 1-2 Aufgabe 1: Gegeben ist eine diskrete Zufallsvariable
MehrStatistik Einführung // Stichprobenverteilung 6 p.2/26
Statistik Einführung Kapitel 6 Statistik WU Wien Gerhard Derflinger Michael Hauser Jörg Lenneis Josef Leydold Günter Tirler Rosmarie Wakolbinger Statistik Einführung // 6 p.0/26 Lernziele 1. Beschreiben
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management
für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt
Mehr1. Grundbegri e der Stochastik
Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt
MehrGoethe-Universität Frankfurt
Goethe-Universität Frankfurt Fachbereich Wirtschaftswissenschaft PD Dr. Martin Biewen Dr. Ralf Wilke Sommersemester 2006 Klausur Statistik II 1. Alle Aufgaben sind zu beantworten. 2. Bitte runden Sie Ihre
MehrProxies, Endogenität, Instrumentvariablenschätzung
1 4.2 Multivariate lineare Regression: Fehler in den Variablen, Proxies, Endogenität, Instrumentvariablenschätzung Literatur: Wooldridge, Kapitel 15, Appendix C.3 und Kapitel 9.4 Wahrscheinlichkeitslimes
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
Mehr