Bayes Inferenz. Helga Wagner Bayes Statistik WS 2010/11 245
|
|
- Herta Grosser
- vor 6 Jahren
- Abrufe
Transkript
1 Bayes Inferenz Helga Wagner Bayes Statistik WS 2010/11 245
2 Statistische Inferenz Beobachtungen: Daten y = (y 1,...,y n ) Y Annahme: Daten werden von einem (stochastischen) Modell spezifiziert durch einen unbekannten Parameter ϑ Θ erzeugt Statistische Inferenz: Schließen aus den Daten auf unbeobachtete Größen ϑ Helga Wagner Bayes Statistik WS 2010/11 246
3 Bayes Inferenz Bayesianisches Modell M: gemeinsames stochastisches Modell für Daten y und unbekannten Parameter ϑ stochastisches Modell: Spezifikation der Stichprobenverteilung p(y ϑ), e.g. i.i.d.modell, Strukturbruch-Modell, AR-Modell Priori-Verteilung p(ϑ): quantifiziert subjektive Unsicherheit über ϑ Aktualisierung der Unsicherheit über die unbeobachteten Größen durch die Daten = Bestimmen der Posteriori-Verteilung Inferenz bezüglich ϑ auf der Posteriori- Verteilung p(ϑ y) = p(y ϑ)p(ϑ). p(y) Helga Wagner Bayes Statistik WS 2010/11 247
4 Prinzipien des statistischen Schließens Likelihood Prinzip Suffizienz-Prinzip Konditionalitäts-Prinzip Helga Wagner Bayes Statistik WS 2010/11 248
5 Das Likelihood-Prinzip Die Likelihood p(y ϑ) enthält die gesamte Information über den unbekannten Parameter ϑ aus den Daten. Zwei Likelihood-Funktionen enthalten dieselbe Information über ϑ, wenn sie zueinander proportional sind Held (2008) unterscheidet das schwache Likelihoodprinzip: Alle Beobachtungen eines Modells sollen zu identischen statistischen Schlüssen führen, wenn die Likelihood gleich ist. und das starke Likelihoodprinzip: Alle Beobachtungen mit gleicher Likelihood (auch bei verschiedenen Modellen, die durch denselben Parameter ϑ spezifiziert sind) sollen zu identischen statistischen Schlüssen führen Helga Wagner Bayes Statistik WS 2010/11 249
6 Das Likelihood-Prinzip Beispiel: Test, ob eine Münze fair ist H 0 : ϑ = 0.5 gegen ϑ > 0.5 Daten: 9 Wappen, 3 Zahl = y = 9 2 verschiedene Modelle sind möglich: Zahl der Versuche n = 12 fix = Y BiNom(n,ϑ) Anzahl von Zahl z = 3 ist fest Helga Wagner Bayes Statistik WS 2010/11 250
7 Das Likelihood-Prinzip Modell M 1 : Zahl der Versuche n = 12 fix = Y BiNom(n,ϑ) P(Y = 9 ϑ) = ( 12 9 ) ϑ 9 (1 ϑ) 3 p-wert: P(Y 9) = 12 y=9 ( 12 y ) 0.5 y y = = H 0 Helga Wagner Bayes Statistik WS 2010/11 251
8 Das Likelihood-Prinzip Modell M 2 : Anzahl von Zahl z = 3 fix W =Zahl der Fehlversuche bis zum 3. Erfolg = W NegBin(z,1 ϑ) (andere Parametrisierung der negativen Binomialverteilung mit ϑ = β/(β + 1)) P(W = 9) = ( ) ϑ 9 (1 ϑ) 3 p-wert: P(W 9) = w=9 ( z +w 1 z 1 ) 0.5 w 0.5 z = = H 1 es gilt: ( 2 + x x=k 2 ) 0.5 x = 8 + 5k + k2 2 k Helga Wagner Bayes Statistik WS 2010/11 252
9 Das Likelihood-Prinzip In beiden Modellen ist die Likelihood l(ϑ) = ϑ 9 (1 ϑ) 3, aber p-wert führt zu unterschiedlichen Entscheidungen. Bem.: ML-Schätzung und Bayes-Inferenz erfüllen das (strenge) Likelihood- Prinzip. Helga Wagner Bayes Statistik WS 2010/11 253
10 Suffizienz-Prinzip Ist t(y) suffizient für ϑ, so kann die Likelihood dargestellt werden als p(y ϑ) = g(t(y) ϑ) h(y t(y)) Suffizienz-Prinzip: Eine suffiziente Statistik enthält alle Information über den Parameter ϑ der Stichprobenverteilung p(y ϑ). Gleiche Werte einer suffizienten Statistik für ϑ und alle (verschiedenen) suffizienten Statistiken für ϑ sollen zu identischen statistischen Schlüssen über ϑ führen. Helga Wagner Bayes Statistik WS 2010/11 254
11 Suffizienz-Prinzip Für die Posteriori-Verteilung p(ϑ y) gilt: p(ϑ y) = g(t(y) ϑ)h(y t(y))p(ϑ) Θ g(t(y) ϑ)h(y t(y))p(ϑ) = Θ g(t(y) ϑ)p(ϑ) g(t(y) ϑ)p(ϑ) g(t(y) ϑ)p(ϑ)dϑ Mit p(t ϑ) = p(y ϑ)dy = g(t ϑ) y:t(y)=t y:t(y)=t h(y t(y))dy = = g(t ϑ)ψ(t) ist p(ϑ y) = g(t ϑ)ψ(t)p(ϑ) p(t ϑ)p(ϑ) = = p(ϑ t) g(t ϑ)ψ(t)dϑ p(t ϑ)dϑ Θ Θ Helga Wagner Bayes Statistik WS 2010/11 255
12 Konditionalitätsprinzip mehrere mögliche Experimente, die Information über ϑ liefern können, stehen zur Wahl Konditionalitätsprinzip: Wird eines dieser Experimente ua. von ϑ ausgewählt, so ist jedes nicht gewählte Experiment irrelevant für die Inferenz. Die Information über ϑ hängt nur vom durchgeführten Experiment ab. Aus Suffizienzprinzip und Konditionalitätsprinzip folgt das (starke) Likelihoodprinzip. Helga Wagner Bayes Statistik WS 2010/11 256
13 Konditionalitätsprinzip Beispiel 1: Um die Fairness der Münze zu testen, wird zufällig mit Wahrscheinlichkeit π das durch Modell M 1 beschriebene und mit Wahrscheinlichkeit 1 π das durch Modell M 2 Experiment durchgeführt. Das Experiment ergab 9 Wappen und 3 Zahl. Der p-wert hängt von π ab! Beispiel 2: Das durchzuführende Experiment wird durch einenwurf mit der zu testenden Münze bestimmt. Bei Zahl wird das durch Modell M 1 beschriebene Experiment, sonst das andere durchgeführt. Das Experiment ergab 9 Wappen und 3 Zahl ; der Wurf zur Wahl des Experimentes wurde nicht mitgezählt. Helga Wagner Bayes Statistik WS 2010/11 257
14 Sequentielles Lernen aus den Daten Stichprobe y von bedingt auf ϑ ua. Daten wird in 2 Teilstichproben y 1,y 2 verarbeitet p(ϑ y) = p(ϑ y 1,y 2 ) = p(y 1 ϑ)p(y 2 ϑ)p(ϑ) p(y 1,y 2 ) = p(y 2 ϑ)p(ϑ y 1 ) p(y 2 y 1 ) mit p(y 2 y 1 ) = Θ p(y 2 y 1,ϑ)p(ϑ y 1 )dϑ Kombination der Information aus y 1 und y 2 : Posteriori-Verteilung bedingt auf y 1 wird Priori-Verteilung für die Analyse von y 2 Reihenfolge, in der die Daten beobachtet wurden, ist (bei bedingter Ua.) belanglos Helga Wagner Bayes Statistik WS 2010/11 258
15 Bayes Inferenz Wahl der Priori-Verteilung Helga Wagner Bayes Statistik WS 2010/11 259
16 Wahl der Priori-Verteilung Bayes -Analyse berücksichtigt Information über unbekannte Größen vor Erhebung der Daten. Diese Information ist durch die Priori-Verteilung zu quantifizieren. Wie soll die Priori-Verteilung gewählt werden? konjugiert / nicht konjugiert? informativ / nicht informativ? informative Priori-Information: Erheben von Expertenwissen(O Hagan et al., 2006; Kass and Raftery, 1995) nicht informative Priori-Verteilungen: was ist nicht informativ? eigentlich / uneigentlich? Helga Wagner Bayes Statistik WS 2010/11 260
17 Exponentialfamilien Die Verteilungsfamilie P γ,γ Γ, deren Dichten von der Form p(x γ) = h(x)exp( p ϑ j (γ)t j (x) a(γ)) j=1 sind, nennt man p-parametrische Exponentialfamilie, wenn a,h und t j,ϑ j, j = 1,...p reellwertige Funktionen sind. x kann multivariat sein. Sind die Funktionen (1,ϑ 1,...,ϑ p ) und (1,t 1 (x),...,t p (x)) linear unabhängig, so heisst die Familie strikt p-parametrisch. ϑ = (ϑ 1,...,ϑ p ) mit ϑ j = ϑ j (γ) heisst kanonischer bzw. natürlicher Parameter der Exponentialfamilie mit natürlichem ParameterraumΘ = {ϑ(γ) γ Γ} R p. Helga Wagner Bayes Statistik WS 2010/11 261
18 Exponentialfamilien In kanonischer (natürlicher) Parametrisierung sind die Dichten der Exponentialfamilie gegeben als p(x ϑ) = h(x)exp(ϑ t(x) b(ϑ)) t(x) = (t 1 (x),...,t p (x)) ist die (p-dimensionale) suffiziente Statistik für den natürlichen Parameter ϑ. exp(b(ϑ)) ist ein Normierungsfaktor: p(x ϑ)dx = exp( b(ϑ)) h(x)exp(ϑ t(x))dx d.h. exp(b(ϑ) = h(x)exp(ϑ t(x))dx Helga Wagner Bayes Statistik WS 2010/11 262
19 Exponentialfamilien Eine strikt p-parametrische natürliche Exponentialfamilie mit natürlichem Parameterraum, für den gilt Θ = {ϑ h(x)exp(ϑ t(x))dx < } und Θ ist eine nichtleere offene Teilmenge des R p heisst reguläre natürliche Exponentialverteilung. Helga Wagner Bayes Statistik WS 2010/11 263
20 Exponentialfamilien Die Likelihood einer i.i.d. Stichprobe y = (y 1,...,y n ) mit Verteilung aus einer natürlichen Exponentialfamilie ist p(y ϑ) = n n h(y i )exp(ϑ t(y i ) nb(ϑ)) i=1 i=1 exp(ϑ n t(y) nb(ϑ))) = = exp(n(ϑ t(y) b(ϑ))) mit n t(y) = n i=1 t(y i). Helga Wagner Bayes Statistik WS 2010/11 264
21 Natürlich konjugierte Priori-Verteilungen Für eine reguläre natürliche Exponentialfamilie ist die Familie der Priori-Verteilung der Form p(ϑ) exp ( n 0 (ϑ t 0 b(ϑ)) ) eigentlich, wenn n 0 > 0 und t 0 Y die (minimal) konjugierte Familie bzw. die natürlich konjugierte Familie von Priori-Verteilungen. Die Posteriori-Verteilung p(ϑ y) exp ( n 1 (ϑ t 1 b(ϑ) ) gehört zur selben Familie wie die Priori-Verteilung, mit n 1 = n 0 +n und t 1 = n 0t 0 +n t(y) n 0 +n Helga Wagner Bayes Statistik WS 2010/11 265
22 Natürlich konjugierte Priori-Verteilungen Für die Zufallsgröße t(y) ist E(t(Y) ϑ) = b(ϑ) d.h. E(t j (y) ϑ) = b(ϑ) ϑ j. Diaconis and Ylvisaker (1979) zeigen, dass für reguläre kanonische Exponentialfamilien gilt E(t(Y)) = E(E(t(Y) ϑ)) = E( b(ϑ)) = t 0 d.h. t 0 ist der Priori-Erwartungswert von t(y). Helga Wagner Bayes Statistik WS 2010/11 266
23 Natürlich konjugierte Priori-Verteilungen Der Posteriori-Erwartungswert E(t(Y) y) ist gegeben als gewichtetes Mittel von Priori-Mittelwert und Mittelwert in den Daten E(t(Y) y) = t 1 = n 0 n 0 +n t 0+ n n 0 +n t(y) = (1 ω)t 0 +ω t(y) Die Priori-Verteilung hat dieselbe Information über ϑ wie eine Stichprobe von n 0 Beobachtungen ỹ 1,...,ỹ n0 mit Mittelwert 1/n 0 t(ỹi ) = t 0. Helga Wagner Bayes Statistik WS 2010/11 267
24 Natürlich konjugierte Priori-Verteilungen Für Verteilungen, die zur regulären Exponentialfamilie gehören, können also konjugierte Priori-Verteilungen konstruiert werden. Die natürlich konjugierte Familie der Priori-Verteilungen ist diejenige mit minimaler Anzahl von Parametern - die Familie der Mischungen dieser Verteilungen bzw. die Familie aller Verteilungen ist ebenfalls konjugiert. ϑ ist der natürliche Parameter der Stichprobenverteilung p(y ϑ). In der Priori- Verteilung p(ϑ) spielt ϑ die Rolle der suffizienten Statistik für n 0 t 0. Natürlich konjugierte Priori-Verteilungen sind nicht notwendigerweise einfach anzugeben, da die Normierungskonstante bestimmt werden muss. Helga Wagner Bayes Statistik WS 2010/11 268
25 i.i.d. Poisson Modell Die Stichprobenverteilung von n i.i.d.p(µ) verteilten Beobachtungen y ist p(y µ) µ y i e nµ Geschrieben in Form einer einparametrischen Exponentialfamilie ist die Likelihood p(y µ) exp( y i logµ nµ) d.h. t(y) = y i = ny ist die suffiziente Statistik und ϑ(µ) = logµ ist der kanonische Parameter. Helga Wagner Bayes Statistik WS 2010/11 269
26 i.i.d. Poisson Modell Die konjugierte Priori-Verteilung für ϑ = log µ ist daher p(ϑ) exp(n 0 ϑt 0 exp(ϑ)) bzw. p(µ) exp(n 0 t 0 (logµ) µ) 1 µ = µn 0t 0 1 exp( n 0 µ) d.h. µ G(n 0 t 0,n 0 ) Die posteriori-verteilung ist µ G(n 1 t 1,n 1 ) mit n 1 = n 0 +n und t 1 = n 0t 0 +ny n 0 +n Helga Wagner Bayes Statistik WS 2010/11 270
27 COM-Poisson-Verteilung Die Conway-Maxwell-Poissonverteilung (COM-Poisson-Verteilung) ist eine Verallgemeinerung der Poissonverteilung. Ihre Wahrscheinlichkeitsfunktion ist gegeben als P(y λ,ν) = λy (y!) ν 1 Z(λ, ν) für y = 0,1,... In Form einer Exponentialfamilie geschrieben P(y λ,ν) = exp(ylogλ νlog(y!) logz(λ,ν)) Die COM-Poisson-Verteilung ist also eine 2-parametrische Exponentialfamilie mit natürlichem Parameter ϑ = (logλ, ν) und suffizienter Statistik t(y) = (y,log(y!)). Helga Wagner Bayes Statistik WS 2010/11 271
28 COM-Poisson-Verteilung Die konjugierte Priori-Verteilung (Kadane et al., 2006) hat die Form p(ϑ) exp ( n 0 (ϑ 1 t 01 +ϑ 2 t 02 logz(λ(ϑ 1 ),ν(ϑ 2 ))) ) bzw. als Funktion der Parameter λ und ν p(λ,µ) λ n 0t exp( νn 0 t 02 ) Z n 0 (λ,ν) Helga Wagner Bayes Statistik WS 2010/11 272
29 Modellierung von Unwissenheit Wenn kein oder wenig Vorwissen vorhanden ist, soll die Priori-Verteilung im Vergleich zu den Daten möglichst wenig Effekt auf die Schlüsse haben (Bernardo and Smith, 1994). möglicher Ansatz: flache Priori-Verteilung p ϑ (ϑ) constant Die resultierende Posteriori-Verteilung ist nicht notwendigerweise regulär, d.h. integrierbar. Die flache Priori-Verteilung ist nicht invariant bezüglich Parameter- Transformationen: Eine Priori-Verteilung, die gleichförmig für ϑ ist, ist nicht gleichförmig für eine beliebige nichtlineare Transformation ϕ on ϑ. Helga Wagner Bayes Statistik WS 2010/11 273
30 Parametertransformation Für eine bijektive Transformation ϕ = h(ϑ) von ϑ ist p(ϕ) = p(h 1 (ϕ)) dh 1 (ϕ) dϕ Für p(x) = const. ist p(x) nur dann konstant, wenn h eine lineare Funktion ist. Helga Wagner Bayes Statistik WS 2010/11 274
31 Flache Priori-Verteilungen für binäre Daten Für einen unbekannten Anteil ϑ ist die konjugierte Priori-Verteilung die B(a 0,b 0 )- Priori. Zur Modellierung von binären Daten könnte man auch ein Logit-Modell mit Parameter verwenden. ϕ = log(ϑ) log(1 ϑ) = logit (ϑ). (32) Welche Priori für die Log-Odds-Ratio ϕ entspricht der B(a 0,b 0 )-Priori auf ϑ? Helga Wagner Bayes Statistik WS 2010/11 275
32 Flache Priori-Verteilungen für binäre Daten Transformationssatz für Dichten p(ϕ) = p(ϑ(ϕ)) dϑ(ϕ) dϕ, wobei ϑ(ϕ) die inverse logit-transformation ist dϑ(ϕ) dϕ = eϕ /(1+e ϕ ) 2. Aus der B(a 0,b 0 )-Priori für ϑ ergibt sich die folgende Priori-Verteilung für ϕ: p(ϕ) eã0ϕ (1+e ϕ ) b 0 (33) mit ã 0 = a 0 and b 0 = a 0 +b 0. Helga Wagner Bayes Statistik WS 2010/11 276
33 Flache Priori-Verteilungen für binäre Daten Die flache Priori-Verteilung für ϑ (a 0 = 1,b 0 = 1) ergibt die standardlogistische Verteilung als Priori für die Log-Odds-Ratio ϕ f(ϕ) = e ϕ (1+e ϕ ) 2 Der Modus der Verteilung ist Null = Log-Odds-Ratios um Null werden bevorzugt Wählt man hingegen als Priori-Verteilung für ϕ eine Gleichverteilung (d.h. a 0 = 0,b 0 = 0), so erhält man die (uneigentliche) B(0,0)-Priori-Verteilung (Haldane-Priori) für ϑ. Diese Priori-Verteilung hat Pole bei Null und 1 = Werte am Rande des Parameterraumes werden bevorzugt Helga Wagner Bayes Statistik WS 2010/11 277
34 Flache Priori-Verteilungen für binäre Daten θ log(θ/(1 θ)) θ log(θ/(1 θ)) Abbildung 30: links: Gleichverteilung für ϑ (oben) mit entsprechender Priori für die Log-Odds-Ratio ϕ (unten); rechts: Gleichverteilung für die Log-Odds-Ratio ϕ(unten) und entsprechende Priori für ϑ (oben) Helga Wagner Bayes Statistik WS 2010/11 278
35 Jeffreys Priori-Verteilung Jeffreys Invarianz-Prinzip: Die Priori und damit auch die Posteriori-Verteilung soll invariant bezüglich einer eineindeutigen Transformation des Paramters sein Ist Y eine Zufallsvariable mit Dichtefunktion p(y ϑ) und ϑ der unbekannte eindimensionale Parameter, so ist Jeffreys Priori gegeben als p(ϑ) I(ϑ), (34) I(ϑ) ist die erwartete Fisher-Information von ϑ im Modell p(y ϑ) Jeffrey s Priori-Verteilung ist proportional zur Wurzel aus der erwarteten Fisher- Information und kann uneigentlich sein. Helga Wagner Bayes Statistik WS 2010/11 279
36 Jeffreys Priori-Verteilung Invarianz von Jeffreys Priori-Verteilung: Ist p(ϑ) I(ϑ), so ist die Dichtefunktion einer eineindeutigen Transformation ϕ = h(ϑ) gegeben als p(ϕ) Ĩ(ϕ). wobei Ĩ(ϕ) die erwartete Fisher-Information von ϕ ist. Beweis: p(ϕ) p(h 1 (ϕ)) dh 1 (ϕ) dϕ = I(ϑ) dh 1 (ϕ) dϕ 2 = Ĩ(ϕ) Helga Wagner Bayes Statistik WS 2010/11 280
37 Jeffreys Priori-Verteilung Jeffreys Priori-Verteilung für den Mittelwert der Poissonverteilung µ: p(µ) n µ 1/ µ für einen unbekannten Anteil ϑ: p(ϑ) n ϑ(1 ϑ) 1/ ϑ(1 ϑ), d.h. die B(0.5,0.5)-Priori (die Arcus-Sinus- Verteilung) für den Mittelwert der Normalverteilung µ bei bekanntem σ 2 : p(µ) n/σ 2 1 für die Varianz der Normalverteilung σ 2 bei bekanntem µ: p(σ 2 ) n/2σ 2 1/σ 2 Helga Wagner Bayes Statistik WS 2010/11 281
38 Jeffreys Priori-Verteilung Für einen mehrdimensionalen Parameter ϑ ist Jeffreys Priori-Verteilung p(ϑ) I(ϑ), Für y N ( µ,σ 2) mit µ,σ 2 unbekannt, ist die Priori-Verteilung damit p(µ,σ 2 ) n σ 2 n 2σ 4 ( 1 σ 2)3/2 Die bedingte posteriori-verteilung für µ ist N ( y,σ 2 /n ) und die marginale Posteriori-Verteilung für σ 2 ist: σ 2 y G 1( n/2,n/2s 2 ) y Helga Wagner Bayes Statistik WS 2010/11 282
39 Probleme mit Jeffreys Priori Für y N ( µ,σ 2) mit bekanntem µ und σ 2 unbekannt, ergibt Jeffreys Priori p(σ 2 ) 1/σ 2 die Posteriori-Verteilung σ 2 y G 1 (n/2,n/2 ( 1 n )) n (y i µ) 2. beide Posteriori-Verteilungen unterscheiden sich also nur im Skalenparameter Informationsverlust durch Schätzung des Parameters µ kommt nicht zum Ausdruck = anderer Vorschlag: Anwendung von Jeffreys Regel ua. auf beide Parameter und Multiplikation der Priori-Verteilungen. Damit erhält man die Priori i=1 p(µ,σ 2 ) 1 σ 2 Helga Wagner Bayes Statistik WS 2010/11 283
40 Probleme mit Jeffreys Priori Jeffrey s Priori-Verteilung verletzt das Likelihoodprinzip! Beispiel Münzwurf: Experiment 1: n Würfe fix, Y= Anzahl von Wappen = Modell M 1 : Y BiNom(n,ϑ) Jeffrey s Priori-Verteilung: ϑ ϑ 0.5 (1 ϑ) 0.5 = B(0.5,0.5) Experiment 2: Anzahl von Zahl z ist vorgegeben = Modell M 2 : W NegBin(z,1 ϑ) Jeffrey s Priori-Verteilung: ϑ ϑ 0.5 (1 ϑ) 1 = B(0.5,0) Die Log-Likelihood ist p(w ϑ) ( z + w 1 w 1 ) ϑ w (1 ϑ) z. Helga Wagner Bayes Statistik WS 2010/11 284
41 Probleme mit Jeffreys Priori Aus logp(w ϑ) ϑ folgt mit E(W) = zϑ/(1 ϑ) = w ϑ 2 z (1 ϑ) 2 I(ϑ) = z ϑ(1 ϑ) + z (1 ϑ) = z 2 ϑ(1 ϑ) 2 Helga Wagner Bayes Statistik WS 2010/11 285
42 Invariante Priori-Verteilungen für Lage-und Skalenparameter Ist ϑ ein Lageparameter, d.h. p(y ϑ) = f(y ϑ), kann für die Priori-Verteilung Invarianz gegenüber Lageverschiebungen gefordert werden, d.h. p(ϑ) = p(ϑ a) für alle a Dies erfüllt nur die flache Priori p(ϑ) c. Für einen Skalenparameter ϑ, d.h. p(y ϑ) = f(y/ϑ)/ϑ ist eine Priori- Verteilung, die invariant gegenüber Skalentransformationen ist, d.h. p(ϑ) = p(ϑ/a)/a für alle a die uneigentliche Priori p(ϑ) 1/ϑ. Helga Wagner Bayes Statistik WS 2010/11 286
43 Uneigentliche Priori-Verteilungen Uneigentliche Priori-Verteilungen, sind Verteilungen, die nicht integrierbar sind, d.h. die Normierungskonstante kann nicht bestimmt werden. Die Dichte einer uneigentlichen Verteilung wird mit angegeben. Uneigentliche Priori-Verteilungen treten nur auf, wenn der Parameterraum Θ nicht kompakt ist, z.b. Θ = R oder Θ = R + Obwohl eine uneigentliche Priori-Verteilung kein gemeinsames stochastisches Modell p(y, ϑ) definiert, ist in die resultierende Posteriori-Verteilung eine eigentliche Verteilung, wenn p(y) = p(y ϑ)p(ϑ)dϑ < für alle y. Helga Wagner Bayes Statistik WS 2010/11 287
44 Uneigentliche Verteilungen für die Poisson-Verteilung Modell: y i.i.d. P(µ) Übliche uneigentliche Priori-Verteilungen für µ: Jeffrey s Priori: p(µ) µ 1 2 ( = G(1/2,0) ) µ: p(µ) constant (= G(1,0) ) Gleichverteilungs-Priori für log µ: p(log µ) constant = p(µ µ 1 ) (= G(0,0) ) Die Posteriori ist eigentlich mit einer Beobachtung für G(a,0) mit a > 0 der ersten Beobachtung ungleich 0 für G(0,0) Helga Wagner Bayes Statistik WS 2010/11 288
45 Uneigentliche Posteriori-Verteilungen Modell: y i.i.d. with P(Y i = 1) = ϑ = Priori: uneigentliche B(0,0) -Priori (entspricht Gleichverteilung des Logits) Eigentliche Posteriori, wenn a n > 0 and b n > 0, d.h. 0 < S n = y i < n Wahrscheinlichkeit dafür, dass die Posteriori uneigentlich ist P((S n = 0) (S n = n) ϑ,n) = (1 ϑ) n +ϑ n. Helga Wagner Bayes Statistik WS 2010/11 289
46 Uneigentliche Posteriori-Verteilungen 100 Prob(p(y)= θ,n) N θ Abbildung 31: Contourplot von P((S n = 0) (S n = n) ϑ,n) als Funktion von ϑ and n (strichlierte Linien entsprechen den Isolinien, die volle Linie der 0.01-Isolinie Helga Wagner Bayes Statistik WS 2010/11 290
47 Uneigentliche Posteriori-Verteilungen Uneigentliche Priori-Verteilungen können jedoch auch für alle Stichproben, d.h. immer zu uneigentlichen Posteriori-Verteilungen führen. Beispiel: Student-t Verteilung mit unbekanntem Freiheitsgrad Modell: y i.i.d. t ν ( µ,σ 2 ) Die Likelihood kann sehr irregulär sein, z.b. multimodal bei Ausreißern flach für ν = Probleme mit numerischen Maximierungsverfahren Mit wachsendem ν nähert sich die Likelhood jener unter einer N ( µ,σ 2) - Verteilung lim ν p(y ν,µ,σ2 ) = p N (y µ,σ 2 ). Helga Wagner Bayes Statistik WS 2010/11 291
48 Nichtreguläre Likelihood 1750 Loglikelihood of Data Set 1 given ν 1510 Loglikelihood of Data Set 2 given ν log f(y ν) log f(y ν) ν ν 1416 Loglikelihood of Data Set 3 given ν 1377 Loglikelihood of Data Set 4 given ν log f(y ν) log f(y ν) ν ν Abbildung 32: 1000 simulierte Beobachtungen aus t ν (0,1) (Daten 1: ν = 3, Daten 2: ν = 10, Daten 3: ν = 100, Daten 4: N (0,1) (ν = )); Loglikelihood (horizontale Linie entspricht der Loglikelihood der N (0, 1)) Helga Wagner Bayes Statistik WS 2010/11 292
49 Nichtreguläre Likelihood Die Likelihood hat einen endlichen Modus ˆν mit p(y ν = ˆν,µ,σ 2 ) > f N (y µ,σ 2 ) und nähert sich dem Grenzwert von oben oder keinen Modus und nähert sich dem Grenzwert von unten Da das Integral R + p(y ν,µ,σ 2 )dν nicht existiert, ist die Posteriori-Verteilung mit der uneigentlichen Priori-Verteilung p(ν) constant uneigentlich! Helga Wagner Bayes Statistik WS 2010/11 293
50 Nichtreguläre Likelihood 1 Likelihood of Data Set 1 given ν 1 Likelihood of Data Set 2 given ν f(y ν) 0.5 f(y ν) ν ν 1 Likelihood of Data Set 3 given ν 1 Likelihood of Data Set 4 given ν f(y ν) f(y ν) ν ν Abbildung 33: 1000 simulierte Beobachtungen aus t ν (0,1) (Daten 1: ν = 3, Daten 2: ν = 10, Daten 3: ν = 100, Daten 4: N (0,1) (ν = )); nichtnormalisierte Posteriori p(ν y) unter der Priori-Verteilung p(ν) = constant Keine dieser nichtnormierten Posterioris ist integrierbar! Helga Wagner Bayes Statistik WS 2010/11 294
51 Wahl der Freiheitsgrade Welche uneigentlichen Priori-Verteilungen ergeben eigentliche Posteriori- Verteilungen? Entscheidend ist das Integral über die nichtnormierte Posteriori-Verteilung π (ν µ,σ 2,y) im Endbereich (C, ). Mit C p(y ν)p(ν)dν p N (y µ,σ 2 ) Die Priori auf ν kann uneigentlich sein, solange C p(ν)dν <. C p(ν)dν, Helga Wagner Bayes Statistik WS 2010/11 295
52 Wahl der Freiheitsgrade Uneigentliche Priori-Verteilungen der Form p(ν) ( ) n0 1, (35) ν oder p(ν) ( ) n0 1, (36) 1+ν mit n 0 > 1 ergeben eigentliche Posteriori-Verteilungen. Mitn 0 = 2implizieren diesepriori-verteilungen eine Gleichverteilungauf a = 1/ν bzw. a = 1/(1+ν). Helga Wagner Bayes Statistik WS 2010/11 296
53 Wahl der Freiheitsgrade Vorgeschlagene eigentliche Priori-Verteilungen: Exponential-Verteilung ν E (λ) Gleichverteilung ν U [0,ν max ] Diese Priori-Verteilungen können sehr einflußreich sein. Hierarchische Priori- Verteilungen, d.h. Priori-Verteilungen mit einem sogenannten Hyper-Parameter, für den ebenfalls eine Priori-Verteilung spezifiziert ist, sind meist weniger einflußreich, hier z.b. (Congdon, 2003) ν E (λ),λ U [λ 0,λ max ] Mit λ constant ergibt sich die Priori-Verteilung p(ν) ( 1 1+ν ) 2 Helga Wagner Bayes Statistik WS 2010/11 297
54 Wahl der Freiheitsgrade Tabelle 15: 1000 simulierte Werte aus der t ν (0,1) -Verteilung für verschiedene Werte von ν; Posteriori-Erwartungswert ν mit U [0,ν max ]-Priori Daten 1 Daten 2 Daten 3 Daten 4 (ν = 3) (ν = 10) (ν = 100) (Normal) ν max = ν max = ν max = ν max = Helga Wagner Bayes Statistik WS 2010/11 298
55 Wenig informative Priori-Verteilungen Um uneigentliche Priori-Verteilungen zu vermeiden, werden oft eigentliche, aber wenig informative Priori-Verteilungen gewählt, d.h. Priori-Verteilungen, die in einem großen Teil des Parameterraumes ähnlich der uneigentlichen Priori ist. Beispiel: Schätzung eines Anteils ϑ B(a 0,b 0 ) mit kleinen, positiven Werten für die Parameter. Diese Priori-Verteilung kann sehr einflussreich sein, wenn der wahre Wert von ϑ am Rande des Parameterraumes liegt. S n = 0 = 100%(1 α)-hpd-intervall ist für a 0 1 von der Form (0,Q 1 α ), wobei Q 1 α das (1 α)-quantil der B(a 0,b 0 +n)-verteilung ist. = Sensitivitätsanalyse Q 0.95 a 0 = b 0 = 0.01 a 0 = b 0 = 0.1 a 0 = b 0 = 0.5 a 0 = b 0 = 1 n = n = Helga Wagner Bayes Statistik WS 2010/11 299
56 Wenig informative Priori-Verteilungen θ θ log(θ/(1 θ)) log(θ/(1 θ)) Abbildung 34: Die eigentliche B(0.01, 0.01)-Priori für ϑ im Vergleich zur uneigentlichen B(0,0) -Priori Helga Wagner Bayes Statistik WS 2010/11 300
Bayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194
Bayes Prognose Helga Wagner Bayes Statistik WS 2010/11 194 Prognose einer weiteren Beobachtung Verkehrssicherheitsdaten Senioren: Wieviele Senioren werden in Linz im kommenden Monat getötet oder schwerverletzt?
MehrBayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301
Bayes Inferenz Schätzen und Testen von Hypothesen Helga Wagner Bayes Statistik WS 2010/11 301 Bayes Punktschätzung Entscheidungstheoretischer Ansatz: Wahl des Punktschätzers ist eine Aktion, die möglicherweise
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
MehrEinführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1
Einführung in die Bayes-Statistik Helga Wagner Ludwig-Maximilians-Universität München WS 2010/11 Helga Wagner Bayes Statistik WS 2010/11 1 Organisatorisches Termine: Montag: 16.00-18.00 AU115 Dienstag:
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrBAYES SCHE STATISTIK
BAES SCHE STATISTIK FELIX RUBIN EINFÜHRUNG IN DIE STATISTIK, A.D. BARBOUR, HS 2007 1. Einführung Die Bayes sche Statistik gibt eine weitere Methode, um einen unbekannten Parameter θ zu schätzen. Bisher
MehrFit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
Mehr2. Prinzipien der Datenreduktion
2. Prinzipien der Datenreduktion Man verwendet die Information in einer Stichprobe X 1,..., X n, um statistische Inferenz über einen unbekannten Parameter zu betreiben. Falls n groß ist, so ist die beobachtete
MehrStatistik für Informatiker, SS Verteilungen mit Dichte
1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
MehrLösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI
Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe
MehrFormelsammlung: Statistik und Wahrscheinlichkeitstheorie
Formelsammlung: Statistik und Wahrscheinlichkeitstheorie Kapitel 1: Deskriptive und explorative Statistik Empirische Verteilungsfkt (S15): Quantile (S24): Bei Typ7 1.Pkt = 0 Danach 1/(n-1) Median (S24):
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrSuffizienz und Vollständigkeit
KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt
MehrChi-Quadrat-Verteilung
Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist
MehrKap. 2: Generalisierte lineare Modelle (GLMs) Lineare und generalisierte lineare Modelle Schätzung und Inferenz in GLMs Literatur
Kap. 2: Generalisierte lineare Modelle (GLMs) Lineare und generalisierte lineare Modelle Schätzung und Inferenz in GLMs Literatur 2.1 Lineare und generalisierte lineare Modelle Das klassische lineare Regressionsmodell
MehrOLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
MehrDas Bayes'sche Prinzip
Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrStatistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
MehrNachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!!
Nachholklausur zur Vorlesung Schätzen und Testen I 04. April 2013 Volker Schmid, Ludwig Bothmann, Julia Sommer Aufgabe 1 2 3 4 5 6 Punkte Note Bitte ausfüllen und unterschreiben!!! Name, Vorname: Matrikelnummer:
Mehr3.3 Methoden zur Evaluierung von Schätzern
3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,
MehrErrata für: Methoden der statistischen Inferenz: Likelihood und Bayes
Errata für: Methoden der statistischen Inferenz: Likelihood und Bayes Leonhard Held 9. Juli 2009 2 Einführung 1. Auf Seite 9, muss es in Abschnitt 1.2.8, Zeile 6-7 richtig heissen: Wir werden nur die
Mehr4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion
4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrStatistische Methoden in den Umweltwissenschaften
Statistische Methoden in den Umweltwissenschaften Stetige und diskrete Wahrscheinlichkeitsverteilungen Lageparameter Streuungsparameter Diskrete und stetige Zufallsvariablen Eine Variable (oder Merkmal
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
Mehr5. Stichproben und Statistiken
5. Stichproben und Statistiken Problem: Es sei X eine ZV, die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X kennenlernen (z.b. mittels der VF F X (x)
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
MehrKlausur Stochastik und Statistik 31. Juli 2012
Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf
MehrPoisson Regression. Verallgemeinerte Lineare Modelle (GLMs)
Poisson Regression Verallgemeinerte Lineare Modelle (GLMs) 28.11.2011 Poisson Regression Aus der Einführungsvorlesung Poisson-Verteilung ist in der Regel gut geeignet, um Anzahlen zu modellieren. Frage
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehr1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung
0 Einführung 1 Wahrscheinlichkeitsrechnung Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung Motivation und Hinführung Der wahre Anteil der rot-grün Wähler 009 war genau
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrEinführung in Quantitative Methoden
Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung
MehrKapitel IV - Stichprobenfunktionen (Statistiken)
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel IV - Stichprobenfunktionen (Statistiken) Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
Mehr4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
MehrInduktive Statistik Kapitel IV - Stichprobenfunktionen (Statistiken)
Induktive Statistik Kapitel IV - Stichprobenfunktionen (Statistiken) Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de 11. Januar 2007 Aufgabe der schließenden
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
MehrEinführung in die statistische Testtheorie II
1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
Mehr2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau
MehrStochastik Praktikum Markov Chain Monte Carlo Methoden
Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrModellanpassung und Parameterschätzung. A: Übungsaufgaben
7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit
MehrMaximum-Likelihood Schätzung
Maximum-Likelihood Schätzung VL Forschungsmethoden 1 Wiederholung Einführung: Schätzung 2 Likelihood-Schätzung und Generalisiertes Lineares Modell Zufallsverteilungen 3 Lernziele 1 Grundzüge der Likelihood-Schätzung
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrBeispiel 6 (Einige Aufgaben zur Gleichverteilung)
Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:
MehrWillkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Verteilungen stetiger Zufallsvariablen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften
Mehr73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments
73 Hypothesentests 73.1 Motivation Bei Hypothesentests will man eine gewisse Annahme über eine Zufallsvariable darauf hin überprüfen, ob sie korrekt ist. Beispiele: ( Ist eine Münze fair p = 1 )? 2 Sind
MehrWahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme
Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder
MehrVerteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung
Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Typisierung der stetigen theoretischen Verteilungen Bibliografie:
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
Mehr70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
MehrKapitel V - Erwartungstreue Schätzfunktionen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel V - Erwartungstreue Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrMultivariate Verteilungen
Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig
MehrWahrscheinlichkeitsrechnung und Statistik
5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften
MehrKlausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik
Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen
Mehr3 Statistische Schätzungen
3 Statistische Schätzungen In der Wahrscheinlichkeitstheorie geht es darum, über Modelle Ereignisse zu bewerten bzw. Voraussagen über ihr Eintreten zu treffen. Sind nun umgekehrt Daten bekannt, und wollen
MehrÜbungsscheinklausur,
Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...
MehrBayessche Statistik-Denken in Wahrscheinlichkeit
Bayessche Statistik-Denken in Wahrscheinlichkeit Habe ich Aids? Test fällt bei 98% der Aids kranken positiv aus. P(positiv Aids)=0.98 Test fällt bei 97% der gesunden negativ aus. P(negativ kein Aids)=0.97
Mehr1.5.4 Quantile und Modi
1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.70. [Quantil, Modus] Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung
MehrStatistik IV. Modul P8: Grundlagen der Statistik II Vorlesung P8.1: Wahrscheinlichkeitstheorie und Inferenz II
Statistik IV Modul P8: Grundlagen der Statistik II Vorlesung P8.1: Wahrscheinlichkeitstheorie und Inferenz II Prof. Dr. Torsten Hothorn Institut für Statistik Ludwig Maximilians Universität München L A
Mehr6.6 Poisson-Verteilung
6.6 Poisson-Verteilung Die Poisson-Verteilung ist eine Wahrscheinlichkeitsverteilung, die zur Modellierung der Anzahl von zufälligen Vorkommnissen in einem bestimmten räumlichen oder zeitlichen Abschnitt
MehrKapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion
Kapitel 1 Stetige Zufallsvariablen 1.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
Mehr2 Aufgaben aus [Teschl, Band 2]
20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:
MehrSozialwissenschaftlerInnen II
Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Wahrscheinlichkeitsfunktionen
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrEinführung in die Induktive Statistik: Testen von Hypothesen
Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
Mehr1.0 Einleitung. 1 Schätzen von Parametern
Schätzen von Parametern 1 1 Schätzen von Parametern 1.0 Einleitung Das vorliegende Kapitel stellt eine Einführung in das Schätzen von Parametern dar, was besagen will, dass es hier nicht um das Schätzen
MehrWahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom
Institut für Stochastik WS 009/10 Karlsruher Institut für Technologie (KIT) Dr. B. Klar Klausur Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom 08.0.010 Musterlösungen Aufgabe
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
MehrGrundlagen der Wahrscheinlichkeitstheorie
Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)
MehrZufallsvariablen. f(x) dx = 1. Die stetige Zufallsvariable X wird also durch seine Dichtefunktion beschrieben. P(c < X < d) =
Diskrete Sei X stetig auf (a,b), wobei a, b unendlich sein können, a x 0 < x 1 b P(X = x 0 ) = 0, P(x 0 < X < x 1 ) > 0 (wenn f > 0). Die Funktion f heißt Dichtefunktion (von X) falls: 1. f(x) 0, a < x
Mehr1.4 Stichproben aus einer Normalverteilung
1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
MehrStatistische Datenanalyse
Werner A. Stahel Statistische Datenanalyse Eine Einführung für Naturwissenschaftler 3., durchgesehene Auflage vieweg VII 1 Einleitung 1 1.1 Was ist Statistische Datenanalyse? 1 1.2 Ziele 6 1.3 Hinweise
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 7. n (Konvergenz, LLN, CLT) n heisst für uns n gross Literatur Kapitel 7 * Statistik in Cartoons: Kapitel 5, Seite 114 in Kapitel 6 * Stahel:
MehrKlausur zur Vorlesung
Institut für Mathematische Stochastik WS 2006/2007 Universität Karlsruhe 12. Februar 2007 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Aufgabe 1 (15 Punkte) Klausur zur Vorlesung Statistik für Biologen
MehrZufällige stabile Prozesse und stabile stochastische Integrale. Stochastikseminar, Dezember 2011
Zufällige stabile Prozesse und stabile stochastische Integrale Stochastikseminar, Dezember 2011 2 Stabile Prozesse Dezember 2011 Stabile stochastische Prozesse - Definition Stabile Integrale α-stabile
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
MehrProbeklausur Statistik II
Prof. Dr. Chr. Müller PROBE-KLAUSUR 1 1 2 3 4 5 6 7 8 Gesamt: 15 8 16 16 7 8 15 15 100 Probeklausur Statistik II Name: Vorname: Fachrichtung: Matrikel-Nummer: Bitte beachten Sie folgendes: 1) Die Klausur
Mehr9 Die Normalverteilung
9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,
MehrBiostatistik, Sommer 2017
1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009
MehrPartition Modelling. Sebastian Keim, Benedikt Jahn. Seminar. Stochastische Geometrie und ihre Anwendungen - Zufällige Netzwerke, 2008
Sebastian Keim, Benedikt Jahn Seminar Stochastische Geometrie und ihre Anwendungen - Zufällige Netzwerke, 2008 1 Motivation 2 3 4 5 6 1 Motivation 2 3 4 5 6 aus der Schadenversicherung - der Orkan Kyrill
MehrP(B A j )P(A j ) n. P(A j ) =
Universität Potsdam Institut für Physik und Astronomie VL: Udo Schwarz Ü: Udo Schwarz Scientific Computing, SS 2011 http://www.stat.physik.uni-potsdam.de/cp10 sc@physik.uni-potsdam.de Übungsblatt 8 Abgabe
MehrSpezielle stetige Verteilungen
Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für
MehrDer Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),
2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist
MehrWahrscheinlichkeitstheorie 2
Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):
Mehr