Bayes Inferenz. Helga Wagner Bayes Statistik WS 2010/11 245

Größe: px
Ab Seite anzeigen:

Download "Bayes Inferenz. Helga Wagner Bayes Statistik WS 2010/11 245"

Transkript

1 Bayes Inferenz Helga Wagner Bayes Statistik WS 2010/11 245

2 Statistische Inferenz Beobachtungen: Daten y = (y 1,...,y n ) Y Annahme: Daten werden von einem (stochastischen) Modell spezifiziert durch einen unbekannten Parameter ϑ Θ erzeugt Statistische Inferenz: Schließen aus den Daten auf unbeobachtete Größen ϑ Helga Wagner Bayes Statistik WS 2010/11 246

3 Bayes Inferenz Bayesianisches Modell M: gemeinsames stochastisches Modell für Daten y und unbekannten Parameter ϑ stochastisches Modell: Spezifikation der Stichprobenverteilung p(y ϑ), e.g. i.i.d.modell, Strukturbruch-Modell, AR-Modell Priori-Verteilung p(ϑ): quantifiziert subjektive Unsicherheit über ϑ Aktualisierung der Unsicherheit über die unbeobachteten Größen durch die Daten = Bestimmen der Posteriori-Verteilung Inferenz bezüglich ϑ auf der Posteriori- Verteilung p(ϑ y) = p(y ϑ)p(ϑ). p(y) Helga Wagner Bayes Statistik WS 2010/11 247

4 Prinzipien des statistischen Schließens Likelihood Prinzip Suffizienz-Prinzip Konditionalitäts-Prinzip Helga Wagner Bayes Statistik WS 2010/11 248

5 Das Likelihood-Prinzip Die Likelihood p(y ϑ) enthält die gesamte Information über den unbekannten Parameter ϑ aus den Daten. Zwei Likelihood-Funktionen enthalten dieselbe Information über ϑ, wenn sie zueinander proportional sind Held (2008) unterscheidet das schwache Likelihoodprinzip: Alle Beobachtungen eines Modells sollen zu identischen statistischen Schlüssen führen, wenn die Likelihood gleich ist. und das starke Likelihoodprinzip: Alle Beobachtungen mit gleicher Likelihood (auch bei verschiedenen Modellen, die durch denselben Parameter ϑ spezifiziert sind) sollen zu identischen statistischen Schlüssen führen Helga Wagner Bayes Statistik WS 2010/11 249

6 Das Likelihood-Prinzip Beispiel: Test, ob eine Münze fair ist H 0 : ϑ = 0.5 gegen ϑ > 0.5 Daten: 9 Wappen, 3 Zahl = y = 9 2 verschiedene Modelle sind möglich: Zahl der Versuche n = 12 fix = Y BiNom(n,ϑ) Anzahl von Zahl z = 3 ist fest Helga Wagner Bayes Statistik WS 2010/11 250

7 Das Likelihood-Prinzip Modell M 1 : Zahl der Versuche n = 12 fix = Y BiNom(n,ϑ) P(Y = 9 ϑ) = ( 12 9 ) ϑ 9 (1 ϑ) 3 p-wert: P(Y 9) = 12 y=9 ( 12 y ) 0.5 y y = = H 0 Helga Wagner Bayes Statistik WS 2010/11 251

8 Das Likelihood-Prinzip Modell M 2 : Anzahl von Zahl z = 3 fix W =Zahl der Fehlversuche bis zum 3. Erfolg = W NegBin(z,1 ϑ) (andere Parametrisierung der negativen Binomialverteilung mit ϑ = β/(β + 1)) P(W = 9) = ( ) ϑ 9 (1 ϑ) 3 p-wert: P(W 9) = w=9 ( z +w 1 z 1 ) 0.5 w 0.5 z = = H 1 es gilt: ( 2 + x x=k 2 ) 0.5 x = 8 + 5k + k2 2 k Helga Wagner Bayes Statistik WS 2010/11 252

9 Das Likelihood-Prinzip In beiden Modellen ist die Likelihood l(ϑ) = ϑ 9 (1 ϑ) 3, aber p-wert führt zu unterschiedlichen Entscheidungen. Bem.: ML-Schätzung und Bayes-Inferenz erfüllen das (strenge) Likelihood- Prinzip. Helga Wagner Bayes Statistik WS 2010/11 253

10 Suffizienz-Prinzip Ist t(y) suffizient für ϑ, so kann die Likelihood dargestellt werden als p(y ϑ) = g(t(y) ϑ) h(y t(y)) Suffizienz-Prinzip: Eine suffiziente Statistik enthält alle Information über den Parameter ϑ der Stichprobenverteilung p(y ϑ). Gleiche Werte einer suffizienten Statistik für ϑ und alle (verschiedenen) suffizienten Statistiken für ϑ sollen zu identischen statistischen Schlüssen über ϑ führen. Helga Wagner Bayes Statistik WS 2010/11 254

11 Suffizienz-Prinzip Für die Posteriori-Verteilung p(ϑ y) gilt: p(ϑ y) = g(t(y) ϑ)h(y t(y))p(ϑ) Θ g(t(y) ϑ)h(y t(y))p(ϑ) = Θ g(t(y) ϑ)p(ϑ) g(t(y) ϑ)p(ϑ) g(t(y) ϑ)p(ϑ)dϑ Mit p(t ϑ) = p(y ϑ)dy = g(t ϑ) y:t(y)=t y:t(y)=t h(y t(y))dy = = g(t ϑ)ψ(t) ist p(ϑ y) = g(t ϑ)ψ(t)p(ϑ) p(t ϑ)p(ϑ) = = p(ϑ t) g(t ϑ)ψ(t)dϑ p(t ϑ)dϑ Θ Θ Helga Wagner Bayes Statistik WS 2010/11 255

12 Konditionalitätsprinzip mehrere mögliche Experimente, die Information über ϑ liefern können, stehen zur Wahl Konditionalitätsprinzip: Wird eines dieser Experimente ua. von ϑ ausgewählt, so ist jedes nicht gewählte Experiment irrelevant für die Inferenz. Die Information über ϑ hängt nur vom durchgeführten Experiment ab. Aus Suffizienzprinzip und Konditionalitätsprinzip folgt das (starke) Likelihoodprinzip. Helga Wagner Bayes Statistik WS 2010/11 256

13 Konditionalitätsprinzip Beispiel 1: Um die Fairness der Münze zu testen, wird zufällig mit Wahrscheinlichkeit π das durch Modell M 1 beschriebene und mit Wahrscheinlichkeit 1 π das durch Modell M 2 Experiment durchgeführt. Das Experiment ergab 9 Wappen und 3 Zahl. Der p-wert hängt von π ab! Beispiel 2: Das durchzuführende Experiment wird durch einenwurf mit der zu testenden Münze bestimmt. Bei Zahl wird das durch Modell M 1 beschriebene Experiment, sonst das andere durchgeführt. Das Experiment ergab 9 Wappen und 3 Zahl ; der Wurf zur Wahl des Experimentes wurde nicht mitgezählt. Helga Wagner Bayes Statistik WS 2010/11 257

14 Sequentielles Lernen aus den Daten Stichprobe y von bedingt auf ϑ ua. Daten wird in 2 Teilstichproben y 1,y 2 verarbeitet p(ϑ y) = p(ϑ y 1,y 2 ) = p(y 1 ϑ)p(y 2 ϑ)p(ϑ) p(y 1,y 2 ) = p(y 2 ϑ)p(ϑ y 1 ) p(y 2 y 1 ) mit p(y 2 y 1 ) = Θ p(y 2 y 1,ϑ)p(ϑ y 1 )dϑ Kombination der Information aus y 1 und y 2 : Posteriori-Verteilung bedingt auf y 1 wird Priori-Verteilung für die Analyse von y 2 Reihenfolge, in der die Daten beobachtet wurden, ist (bei bedingter Ua.) belanglos Helga Wagner Bayes Statistik WS 2010/11 258

15 Bayes Inferenz Wahl der Priori-Verteilung Helga Wagner Bayes Statistik WS 2010/11 259

16 Wahl der Priori-Verteilung Bayes -Analyse berücksichtigt Information über unbekannte Größen vor Erhebung der Daten. Diese Information ist durch die Priori-Verteilung zu quantifizieren. Wie soll die Priori-Verteilung gewählt werden? konjugiert / nicht konjugiert? informativ / nicht informativ? informative Priori-Information: Erheben von Expertenwissen(O Hagan et al., 2006; Kass and Raftery, 1995) nicht informative Priori-Verteilungen: was ist nicht informativ? eigentlich / uneigentlich? Helga Wagner Bayes Statistik WS 2010/11 260

17 Exponentialfamilien Die Verteilungsfamilie P γ,γ Γ, deren Dichten von der Form p(x γ) = h(x)exp( p ϑ j (γ)t j (x) a(γ)) j=1 sind, nennt man p-parametrische Exponentialfamilie, wenn a,h und t j,ϑ j, j = 1,...p reellwertige Funktionen sind. x kann multivariat sein. Sind die Funktionen (1,ϑ 1,...,ϑ p ) und (1,t 1 (x),...,t p (x)) linear unabhängig, so heisst die Familie strikt p-parametrisch. ϑ = (ϑ 1,...,ϑ p ) mit ϑ j = ϑ j (γ) heisst kanonischer bzw. natürlicher Parameter der Exponentialfamilie mit natürlichem ParameterraumΘ = {ϑ(γ) γ Γ} R p. Helga Wagner Bayes Statistik WS 2010/11 261

18 Exponentialfamilien In kanonischer (natürlicher) Parametrisierung sind die Dichten der Exponentialfamilie gegeben als p(x ϑ) = h(x)exp(ϑ t(x) b(ϑ)) t(x) = (t 1 (x),...,t p (x)) ist die (p-dimensionale) suffiziente Statistik für den natürlichen Parameter ϑ. exp(b(ϑ)) ist ein Normierungsfaktor: p(x ϑ)dx = exp( b(ϑ)) h(x)exp(ϑ t(x))dx d.h. exp(b(ϑ) = h(x)exp(ϑ t(x))dx Helga Wagner Bayes Statistik WS 2010/11 262

19 Exponentialfamilien Eine strikt p-parametrische natürliche Exponentialfamilie mit natürlichem Parameterraum, für den gilt Θ = {ϑ h(x)exp(ϑ t(x))dx < } und Θ ist eine nichtleere offene Teilmenge des R p heisst reguläre natürliche Exponentialverteilung. Helga Wagner Bayes Statistik WS 2010/11 263

20 Exponentialfamilien Die Likelihood einer i.i.d. Stichprobe y = (y 1,...,y n ) mit Verteilung aus einer natürlichen Exponentialfamilie ist p(y ϑ) = n n h(y i )exp(ϑ t(y i ) nb(ϑ)) i=1 i=1 exp(ϑ n t(y) nb(ϑ))) = = exp(n(ϑ t(y) b(ϑ))) mit n t(y) = n i=1 t(y i). Helga Wagner Bayes Statistik WS 2010/11 264

21 Natürlich konjugierte Priori-Verteilungen Für eine reguläre natürliche Exponentialfamilie ist die Familie der Priori-Verteilung der Form p(ϑ) exp ( n 0 (ϑ t 0 b(ϑ)) ) eigentlich, wenn n 0 > 0 und t 0 Y die (minimal) konjugierte Familie bzw. die natürlich konjugierte Familie von Priori-Verteilungen. Die Posteriori-Verteilung p(ϑ y) exp ( n 1 (ϑ t 1 b(ϑ) ) gehört zur selben Familie wie die Priori-Verteilung, mit n 1 = n 0 +n und t 1 = n 0t 0 +n t(y) n 0 +n Helga Wagner Bayes Statistik WS 2010/11 265

22 Natürlich konjugierte Priori-Verteilungen Für die Zufallsgröße t(y) ist E(t(Y) ϑ) = b(ϑ) d.h. E(t j (y) ϑ) = b(ϑ) ϑ j. Diaconis and Ylvisaker (1979) zeigen, dass für reguläre kanonische Exponentialfamilien gilt E(t(Y)) = E(E(t(Y) ϑ)) = E( b(ϑ)) = t 0 d.h. t 0 ist der Priori-Erwartungswert von t(y). Helga Wagner Bayes Statistik WS 2010/11 266

23 Natürlich konjugierte Priori-Verteilungen Der Posteriori-Erwartungswert E(t(Y) y) ist gegeben als gewichtetes Mittel von Priori-Mittelwert und Mittelwert in den Daten E(t(Y) y) = t 1 = n 0 n 0 +n t 0+ n n 0 +n t(y) = (1 ω)t 0 +ω t(y) Die Priori-Verteilung hat dieselbe Information über ϑ wie eine Stichprobe von n 0 Beobachtungen ỹ 1,...,ỹ n0 mit Mittelwert 1/n 0 t(ỹi ) = t 0. Helga Wagner Bayes Statistik WS 2010/11 267

24 Natürlich konjugierte Priori-Verteilungen Für Verteilungen, die zur regulären Exponentialfamilie gehören, können also konjugierte Priori-Verteilungen konstruiert werden. Die natürlich konjugierte Familie der Priori-Verteilungen ist diejenige mit minimaler Anzahl von Parametern - die Familie der Mischungen dieser Verteilungen bzw. die Familie aller Verteilungen ist ebenfalls konjugiert. ϑ ist der natürliche Parameter der Stichprobenverteilung p(y ϑ). In der Priori- Verteilung p(ϑ) spielt ϑ die Rolle der suffizienten Statistik für n 0 t 0. Natürlich konjugierte Priori-Verteilungen sind nicht notwendigerweise einfach anzugeben, da die Normierungskonstante bestimmt werden muss. Helga Wagner Bayes Statistik WS 2010/11 268

25 i.i.d. Poisson Modell Die Stichprobenverteilung von n i.i.d.p(µ) verteilten Beobachtungen y ist p(y µ) µ y i e nµ Geschrieben in Form einer einparametrischen Exponentialfamilie ist die Likelihood p(y µ) exp( y i logµ nµ) d.h. t(y) = y i = ny ist die suffiziente Statistik und ϑ(µ) = logµ ist der kanonische Parameter. Helga Wagner Bayes Statistik WS 2010/11 269

26 i.i.d. Poisson Modell Die konjugierte Priori-Verteilung für ϑ = log µ ist daher p(ϑ) exp(n 0 ϑt 0 exp(ϑ)) bzw. p(µ) exp(n 0 t 0 (logµ) µ) 1 µ = µn 0t 0 1 exp( n 0 µ) d.h. µ G(n 0 t 0,n 0 ) Die posteriori-verteilung ist µ G(n 1 t 1,n 1 ) mit n 1 = n 0 +n und t 1 = n 0t 0 +ny n 0 +n Helga Wagner Bayes Statistik WS 2010/11 270

27 COM-Poisson-Verteilung Die Conway-Maxwell-Poissonverteilung (COM-Poisson-Verteilung) ist eine Verallgemeinerung der Poissonverteilung. Ihre Wahrscheinlichkeitsfunktion ist gegeben als P(y λ,ν) = λy (y!) ν 1 Z(λ, ν) für y = 0,1,... In Form einer Exponentialfamilie geschrieben P(y λ,ν) = exp(ylogλ νlog(y!) logz(λ,ν)) Die COM-Poisson-Verteilung ist also eine 2-parametrische Exponentialfamilie mit natürlichem Parameter ϑ = (logλ, ν) und suffizienter Statistik t(y) = (y,log(y!)). Helga Wagner Bayes Statistik WS 2010/11 271

28 COM-Poisson-Verteilung Die konjugierte Priori-Verteilung (Kadane et al., 2006) hat die Form p(ϑ) exp ( n 0 (ϑ 1 t 01 +ϑ 2 t 02 logz(λ(ϑ 1 ),ν(ϑ 2 ))) ) bzw. als Funktion der Parameter λ und ν p(λ,µ) λ n 0t exp( νn 0 t 02 ) Z n 0 (λ,ν) Helga Wagner Bayes Statistik WS 2010/11 272

29 Modellierung von Unwissenheit Wenn kein oder wenig Vorwissen vorhanden ist, soll die Priori-Verteilung im Vergleich zu den Daten möglichst wenig Effekt auf die Schlüsse haben (Bernardo and Smith, 1994). möglicher Ansatz: flache Priori-Verteilung p ϑ (ϑ) constant Die resultierende Posteriori-Verteilung ist nicht notwendigerweise regulär, d.h. integrierbar. Die flache Priori-Verteilung ist nicht invariant bezüglich Parameter- Transformationen: Eine Priori-Verteilung, die gleichförmig für ϑ ist, ist nicht gleichförmig für eine beliebige nichtlineare Transformation ϕ on ϑ. Helga Wagner Bayes Statistik WS 2010/11 273

30 Parametertransformation Für eine bijektive Transformation ϕ = h(ϑ) von ϑ ist p(ϕ) = p(h 1 (ϕ)) dh 1 (ϕ) dϕ Für p(x) = const. ist p(x) nur dann konstant, wenn h eine lineare Funktion ist. Helga Wagner Bayes Statistik WS 2010/11 274

31 Flache Priori-Verteilungen für binäre Daten Für einen unbekannten Anteil ϑ ist die konjugierte Priori-Verteilung die B(a 0,b 0 )- Priori. Zur Modellierung von binären Daten könnte man auch ein Logit-Modell mit Parameter verwenden. ϕ = log(ϑ) log(1 ϑ) = logit (ϑ). (32) Welche Priori für die Log-Odds-Ratio ϕ entspricht der B(a 0,b 0 )-Priori auf ϑ? Helga Wagner Bayes Statistik WS 2010/11 275

32 Flache Priori-Verteilungen für binäre Daten Transformationssatz für Dichten p(ϕ) = p(ϑ(ϕ)) dϑ(ϕ) dϕ, wobei ϑ(ϕ) die inverse logit-transformation ist dϑ(ϕ) dϕ = eϕ /(1+e ϕ ) 2. Aus der B(a 0,b 0 )-Priori für ϑ ergibt sich die folgende Priori-Verteilung für ϕ: p(ϕ) eã0ϕ (1+e ϕ ) b 0 (33) mit ã 0 = a 0 and b 0 = a 0 +b 0. Helga Wagner Bayes Statistik WS 2010/11 276

33 Flache Priori-Verteilungen für binäre Daten Die flache Priori-Verteilung für ϑ (a 0 = 1,b 0 = 1) ergibt die standardlogistische Verteilung als Priori für die Log-Odds-Ratio ϕ f(ϕ) = e ϕ (1+e ϕ ) 2 Der Modus der Verteilung ist Null = Log-Odds-Ratios um Null werden bevorzugt Wählt man hingegen als Priori-Verteilung für ϕ eine Gleichverteilung (d.h. a 0 = 0,b 0 = 0), so erhält man die (uneigentliche) B(0,0)-Priori-Verteilung (Haldane-Priori) für ϑ. Diese Priori-Verteilung hat Pole bei Null und 1 = Werte am Rande des Parameterraumes werden bevorzugt Helga Wagner Bayes Statistik WS 2010/11 277

34 Flache Priori-Verteilungen für binäre Daten θ log(θ/(1 θ)) θ log(θ/(1 θ)) Abbildung 30: links: Gleichverteilung für ϑ (oben) mit entsprechender Priori für die Log-Odds-Ratio ϕ (unten); rechts: Gleichverteilung für die Log-Odds-Ratio ϕ(unten) und entsprechende Priori für ϑ (oben) Helga Wagner Bayes Statistik WS 2010/11 278

35 Jeffreys Priori-Verteilung Jeffreys Invarianz-Prinzip: Die Priori und damit auch die Posteriori-Verteilung soll invariant bezüglich einer eineindeutigen Transformation des Paramters sein Ist Y eine Zufallsvariable mit Dichtefunktion p(y ϑ) und ϑ der unbekannte eindimensionale Parameter, so ist Jeffreys Priori gegeben als p(ϑ) I(ϑ), (34) I(ϑ) ist die erwartete Fisher-Information von ϑ im Modell p(y ϑ) Jeffrey s Priori-Verteilung ist proportional zur Wurzel aus der erwarteten Fisher- Information und kann uneigentlich sein. Helga Wagner Bayes Statistik WS 2010/11 279

36 Jeffreys Priori-Verteilung Invarianz von Jeffreys Priori-Verteilung: Ist p(ϑ) I(ϑ), so ist die Dichtefunktion einer eineindeutigen Transformation ϕ = h(ϑ) gegeben als p(ϕ) Ĩ(ϕ). wobei Ĩ(ϕ) die erwartete Fisher-Information von ϕ ist. Beweis: p(ϕ) p(h 1 (ϕ)) dh 1 (ϕ) dϕ = I(ϑ) dh 1 (ϕ) dϕ 2 = Ĩ(ϕ) Helga Wagner Bayes Statistik WS 2010/11 280

37 Jeffreys Priori-Verteilung Jeffreys Priori-Verteilung für den Mittelwert der Poissonverteilung µ: p(µ) n µ 1/ µ für einen unbekannten Anteil ϑ: p(ϑ) n ϑ(1 ϑ) 1/ ϑ(1 ϑ), d.h. die B(0.5,0.5)-Priori (die Arcus-Sinus- Verteilung) für den Mittelwert der Normalverteilung µ bei bekanntem σ 2 : p(µ) n/σ 2 1 für die Varianz der Normalverteilung σ 2 bei bekanntem µ: p(σ 2 ) n/2σ 2 1/σ 2 Helga Wagner Bayes Statistik WS 2010/11 281

38 Jeffreys Priori-Verteilung Für einen mehrdimensionalen Parameter ϑ ist Jeffreys Priori-Verteilung p(ϑ) I(ϑ), Für y N ( µ,σ 2) mit µ,σ 2 unbekannt, ist die Priori-Verteilung damit p(µ,σ 2 ) n σ 2 n 2σ 4 ( 1 σ 2)3/2 Die bedingte posteriori-verteilung für µ ist N ( y,σ 2 /n ) und die marginale Posteriori-Verteilung für σ 2 ist: σ 2 y G 1( n/2,n/2s 2 ) y Helga Wagner Bayes Statistik WS 2010/11 282

39 Probleme mit Jeffreys Priori Für y N ( µ,σ 2) mit bekanntem µ und σ 2 unbekannt, ergibt Jeffreys Priori p(σ 2 ) 1/σ 2 die Posteriori-Verteilung σ 2 y G 1 (n/2,n/2 ( 1 n )) n (y i µ) 2. beide Posteriori-Verteilungen unterscheiden sich also nur im Skalenparameter Informationsverlust durch Schätzung des Parameters µ kommt nicht zum Ausdruck = anderer Vorschlag: Anwendung von Jeffreys Regel ua. auf beide Parameter und Multiplikation der Priori-Verteilungen. Damit erhält man die Priori i=1 p(µ,σ 2 ) 1 σ 2 Helga Wagner Bayes Statistik WS 2010/11 283

40 Probleme mit Jeffreys Priori Jeffrey s Priori-Verteilung verletzt das Likelihoodprinzip! Beispiel Münzwurf: Experiment 1: n Würfe fix, Y= Anzahl von Wappen = Modell M 1 : Y BiNom(n,ϑ) Jeffrey s Priori-Verteilung: ϑ ϑ 0.5 (1 ϑ) 0.5 = B(0.5,0.5) Experiment 2: Anzahl von Zahl z ist vorgegeben = Modell M 2 : W NegBin(z,1 ϑ) Jeffrey s Priori-Verteilung: ϑ ϑ 0.5 (1 ϑ) 1 = B(0.5,0) Die Log-Likelihood ist p(w ϑ) ( z + w 1 w 1 ) ϑ w (1 ϑ) z. Helga Wagner Bayes Statistik WS 2010/11 284

41 Probleme mit Jeffreys Priori Aus logp(w ϑ) ϑ folgt mit E(W) = zϑ/(1 ϑ) = w ϑ 2 z (1 ϑ) 2 I(ϑ) = z ϑ(1 ϑ) + z (1 ϑ) = z 2 ϑ(1 ϑ) 2 Helga Wagner Bayes Statistik WS 2010/11 285

42 Invariante Priori-Verteilungen für Lage-und Skalenparameter Ist ϑ ein Lageparameter, d.h. p(y ϑ) = f(y ϑ), kann für die Priori-Verteilung Invarianz gegenüber Lageverschiebungen gefordert werden, d.h. p(ϑ) = p(ϑ a) für alle a Dies erfüllt nur die flache Priori p(ϑ) c. Für einen Skalenparameter ϑ, d.h. p(y ϑ) = f(y/ϑ)/ϑ ist eine Priori- Verteilung, die invariant gegenüber Skalentransformationen ist, d.h. p(ϑ) = p(ϑ/a)/a für alle a die uneigentliche Priori p(ϑ) 1/ϑ. Helga Wagner Bayes Statistik WS 2010/11 286

43 Uneigentliche Priori-Verteilungen Uneigentliche Priori-Verteilungen, sind Verteilungen, die nicht integrierbar sind, d.h. die Normierungskonstante kann nicht bestimmt werden. Die Dichte einer uneigentlichen Verteilung wird mit angegeben. Uneigentliche Priori-Verteilungen treten nur auf, wenn der Parameterraum Θ nicht kompakt ist, z.b. Θ = R oder Θ = R + Obwohl eine uneigentliche Priori-Verteilung kein gemeinsames stochastisches Modell p(y, ϑ) definiert, ist in die resultierende Posteriori-Verteilung eine eigentliche Verteilung, wenn p(y) = p(y ϑ)p(ϑ)dϑ < für alle y. Helga Wagner Bayes Statistik WS 2010/11 287

44 Uneigentliche Verteilungen für die Poisson-Verteilung Modell: y i.i.d. P(µ) Übliche uneigentliche Priori-Verteilungen für µ: Jeffrey s Priori: p(µ) µ 1 2 ( = G(1/2,0) ) µ: p(µ) constant (= G(1,0) ) Gleichverteilungs-Priori für log µ: p(log µ) constant = p(µ µ 1 ) (= G(0,0) ) Die Posteriori ist eigentlich mit einer Beobachtung für G(a,0) mit a > 0 der ersten Beobachtung ungleich 0 für G(0,0) Helga Wagner Bayes Statistik WS 2010/11 288

45 Uneigentliche Posteriori-Verteilungen Modell: y i.i.d. with P(Y i = 1) = ϑ = Priori: uneigentliche B(0,0) -Priori (entspricht Gleichverteilung des Logits) Eigentliche Posteriori, wenn a n > 0 and b n > 0, d.h. 0 < S n = y i < n Wahrscheinlichkeit dafür, dass die Posteriori uneigentlich ist P((S n = 0) (S n = n) ϑ,n) = (1 ϑ) n +ϑ n. Helga Wagner Bayes Statistik WS 2010/11 289

46 Uneigentliche Posteriori-Verteilungen 100 Prob(p(y)= θ,n) N θ Abbildung 31: Contourplot von P((S n = 0) (S n = n) ϑ,n) als Funktion von ϑ and n (strichlierte Linien entsprechen den Isolinien, die volle Linie der 0.01-Isolinie Helga Wagner Bayes Statistik WS 2010/11 290

47 Uneigentliche Posteriori-Verteilungen Uneigentliche Priori-Verteilungen können jedoch auch für alle Stichproben, d.h. immer zu uneigentlichen Posteriori-Verteilungen führen. Beispiel: Student-t Verteilung mit unbekanntem Freiheitsgrad Modell: y i.i.d. t ν ( µ,σ 2 ) Die Likelihood kann sehr irregulär sein, z.b. multimodal bei Ausreißern flach für ν = Probleme mit numerischen Maximierungsverfahren Mit wachsendem ν nähert sich die Likelhood jener unter einer N ( µ,σ 2) - Verteilung lim ν p(y ν,µ,σ2 ) = p N (y µ,σ 2 ). Helga Wagner Bayes Statistik WS 2010/11 291

48 Nichtreguläre Likelihood 1750 Loglikelihood of Data Set 1 given ν 1510 Loglikelihood of Data Set 2 given ν log f(y ν) log f(y ν) ν ν 1416 Loglikelihood of Data Set 3 given ν 1377 Loglikelihood of Data Set 4 given ν log f(y ν) log f(y ν) ν ν Abbildung 32: 1000 simulierte Beobachtungen aus t ν (0,1) (Daten 1: ν = 3, Daten 2: ν = 10, Daten 3: ν = 100, Daten 4: N (0,1) (ν = )); Loglikelihood (horizontale Linie entspricht der Loglikelihood der N (0, 1)) Helga Wagner Bayes Statistik WS 2010/11 292

49 Nichtreguläre Likelihood Die Likelihood hat einen endlichen Modus ˆν mit p(y ν = ˆν,µ,σ 2 ) > f N (y µ,σ 2 ) und nähert sich dem Grenzwert von oben oder keinen Modus und nähert sich dem Grenzwert von unten Da das Integral R + p(y ν,µ,σ 2 )dν nicht existiert, ist die Posteriori-Verteilung mit der uneigentlichen Priori-Verteilung p(ν) constant uneigentlich! Helga Wagner Bayes Statistik WS 2010/11 293

50 Nichtreguläre Likelihood 1 Likelihood of Data Set 1 given ν 1 Likelihood of Data Set 2 given ν f(y ν) 0.5 f(y ν) ν ν 1 Likelihood of Data Set 3 given ν 1 Likelihood of Data Set 4 given ν f(y ν) f(y ν) ν ν Abbildung 33: 1000 simulierte Beobachtungen aus t ν (0,1) (Daten 1: ν = 3, Daten 2: ν = 10, Daten 3: ν = 100, Daten 4: N (0,1) (ν = )); nichtnormalisierte Posteriori p(ν y) unter der Priori-Verteilung p(ν) = constant Keine dieser nichtnormierten Posterioris ist integrierbar! Helga Wagner Bayes Statistik WS 2010/11 294

51 Wahl der Freiheitsgrade Welche uneigentlichen Priori-Verteilungen ergeben eigentliche Posteriori- Verteilungen? Entscheidend ist das Integral über die nichtnormierte Posteriori-Verteilung π (ν µ,σ 2,y) im Endbereich (C, ). Mit C p(y ν)p(ν)dν p N (y µ,σ 2 ) Die Priori auf ν kann uneigentlich sein, solange C p(ν)dν <. C p(ν)dν, Helga Wagner Bayes Statistik WS 2010/11 295

52 Wahl der Freiheitsgrade Uneigentliche Priori-Verteilungen der Form p(ν) ( ) n0 1, (35) ν oder p(ν) ( ) n0 1, (36) 1+ν mit n 0 > 1 ergeben eigentliche Posteriori-Verteilungen. Mitn 0 = 2implizieren diesepriori-verteilungen eine Gleichverteilungauf a = 1/ν bzw. a = 1/(1+ν). Helga Wagner Bayes Statistik WS 2010/11 296

53 Wahl der Freiheitsgrade Vorgeschlagene eigentliche Priori-Verteilungen: Exponential-Verteilung ν E (λ) Gleichverteilung ν U [0,ν max ] Diese Priori-Verteilungen können sehr einflußreich sein. Hierarchische Priori- Verteilungen, d.h. Priori-Verteilungen mit einem sogenannten Hyper-Parameter, für den ebenfalls eine Priori-Verteilung spezifiziert ist, sind meist weniger einflußreich, hier z.b. (Congdon, 2003) ν E (λ),λ U [λ 0,λ max ] Mit λ constant ergibt sich die Priori-Verteilung p(ν) ( 1 1+ν ) 2 Helga Wagner Bayes Statistik WS 2010/11 297

54 Wahl der Freiheitsgrade Tabelle 15: 1000 simulierte Werte aus der t ν (0,1) -Verteilung für verschiedene Werte von ν; Posteriori-Erwartungswert ν mit U [0,ν max ]-Priori Daten 1 Daten 2 Daten 3 Daten 4 (ν = 3) (ν = 10) (ν = 100) (Normal) ν max = ν max = ν max = ν max = Helga Wagner Bayes Statistik WS 2010/11 298

55 Wenig informative Priori-Verteilungen Um uneigentliche Priori-Verteilungen zu vermeiden, werden oft eigentliche, aber wenig informative Priori-Verteilungen gewählt, d.h. Priori-Verteilungen, die in einem großen Teil des Parameterraumes ähnlich der uneigentlichen Priori ist. Beispiel: Schätzung eines Anteils ϑ B(a 0,b 0 ) mit kleinen, positiven Werten für die Parameter. Diese Priori-Verteilung kann sehr einflussreich sein, wenn der wahre Wert von ϑ am Rande des Parameterraumes liegt. S n = 0 = 100%(1 α)-hpd-intervall ist für a 0 1 von der Form (0,Q 1 α ), wobei Q 1 α das (1 α)-quantil der B(a 0,b 0 +n)-verteilung ist. = Sensitivitätsanalyse Q 0.95 a 0 = b 0 = 0.01 a 0 = b 0 = 0.1 a 0 = b 0 = 0.5 a 0 = b 0 = 1 n = n = Helga Wagner Bayes Statistik WS 2010/11 299

56 Wenig informative Priori-Verteilungen θ θ log(θ/(1 θ)) log(θ/(1 θ)) Abbildung 34: Die eigentliche B(0.01, 0.01)-Priori für ϑ im Vergleich zur uneigentlichen B(0,0) -Priori Helga Wagner Bayes Statistik WS 2010/11 300

Bayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194

Bayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194 Bayes Prognose Helga Wagner Bayes Statistik WS 2010/11 194 Prognose einer weiteren Beobachtung Verkehrssicherheitsdaten Senioren: Wieviele Senioren werden in Linz im kommenden Monat getötet oder schwerverletzt?

Mehr

Bayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301

Bayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301 Bayes Inferenz Schätzen und Testen von Hypothesen Helga Wagner Bayes Statistik WS 2010/11 301 Bayes Punktschätzung Entscheidungstheoretischer Ansatz: Wahl des Punktschätzers ist eine Aktion, die möglicherweise

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1 Einführung in die Bayes-Statistik Helga Wagner Ludwig-Maximilians-Universität München WS 2010/11 Helga Wagner Bayes Statistik WS 2010/11 1 Organisatorisches Termine: Montag: 16.00-18.00 AU115 Dienstag:

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

BAYES SCHE STATISTIK

BAYES SCHE STATISTIK BAES SCHE STATISTIK FELIX RUBIN EINFÜHRUNG IN DIE STATISTIK, A.D. BARBOUR, HS 2007 1. Einführung Die Bayes sche Statistik gibt eine weitere Methode, um einen unbekannten Parameter θ zu schätzen. Bisher

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

2. Prinzipien der Datenreduktion

2. Prinzipien der Datenreduktion 2. Prinzipien der Datenreduktion Man verwendet die Information in einer Stichprobe X 1,..., X n, um statistische Inferenz über einen unbekannten Parameter zu betreiben. Falls n groß ist, so ist die beobachtete

Mehr

Statistik für Informatiker, SS Verteilungen mit Dichte

Statistik für Informatiker, SS Verteilungen mit Dichte 1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe

Mehr

Formelsammlung: Statistik und Wahrscheinlichkeitstheorie

Formelsammlung: Statistik und Wahrscheinlichkeitstheorie Formelsammlung: Statistik und Wahrscheinlichkeitstheorie Kapitel 1: Deskriptive und explorative Statistik Empirische Verteilungsfkt (S15): Quantile (S24): Bei Typ7 1.Pkt = 0 Danach 1/(n-1) Median (S24):

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Suffizienz und Vollständigkeit

Suffizienz und Vollständigkeit KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt

Mehr

Chi-Quadrat-Verteilung

Chi-Quadrat-Verteilung Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist

Mehr

Kap. 2: Generalisierte lineare Modelle (GLMs) Lineare und generalisierte lineare Modelle Schätzung und Inferenz in GLMs Literatur

Kap. 2: Generalisierte lineare Modelle (GLMs) Lineare und generalisierte lineare Modelle Schätzung und Inferenz in GLMs Literatur Kap. 2: Generalisierte lineare Modelle (GLMs) Lineare und generalisierte lineare Modelle Schätzung und Inferenz in GLMs Literatur 2.1 Lineare und generalisierte lineare Modelle Das klassische lineare Regressionsmodell

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

Das Bayes'sche Prinzip

Das Bayes'sche Prinzip Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Nachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!!

Nachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!! Nachholklausur zur Vorlesung Schätzen und Testen I 04. April 2013 Volker Schmid, Ludwig Bothmann, Julia Sommer Aufgabe 1 2 3 4 5 6 Punkte Note Bitte ausfüllen und unterschreiben!!! Name, Vorname: Matrikelnummer:

Mehr

3.3 Methoden zur Evaluierung von Schätzern

3.3 Methoden zur Evaluierung von Schätzern 3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,

Mehr

Errata für: Methoden der statistischen Inferenz: Likelihood und Bayes

Errata für: Methoden der statistischen Inferenz: Likelihood und Bayes Errata für: Methoden der statistischen Inferenz: Likelihood und Bayes Leonhard Held 9. Juli 2009 2 Einführung 1. Auf Seite 9, muss es in Abschnitt 1.2.8, Zeile 6-7 richtig heissen: Wir werden nur die

Mehr

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion 4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Statistische Methoden in den Umweltwissenschaften

Statistische Methoden in den Umweltwissenschaften Statistische Methoden in den Umweltwissenschaften Stetige und diskrete Wahrscheinlichkeitsverteilungen Lageparameter Streuungsparameter Diskrete und stetige Zufallsvariablen Eine Variable (oder Merkmal

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

5. Stichproben und Statistiken

5. Stichproben und Statistiken 5. Stichproben und Statistiken Problem: Es sei X eine ZV, die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X kennenlernen (z.b. mittels der VF F X (x)

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Klausur Stochastik und Statistik 31. Juli 2012

Klausur Stochastik und Statistik 31. Juli 2012 Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf

Mehr

Poisson Regression. Verallgemeinerte Lineare Modelle (GLMs)

Poisson Regression. Verallgemeinerte Lineare Modelle (GLMs) Poisson Regression Verallgemeinerte Lineare Modelle (GLMs) 28.11.2011 Poisson Regression Aus der Einführungsvorlesung Poisson-Verteilung ist in der Regel gut geeignet, um Anzahlen zu modellieren. Frage

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung 0 Einführung 1 Wahrscheinlichkeitsrechnung Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung Motivation und Hinführung Der wahre Anteil der rot-grün Wähler 009 war genau

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung

Mehr

Kapitel IV - Stichprobenfunktionen (Statistiken)

Kapitel IV - Stichprobenfunktionen (Statistiken) Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel IV - Stichprobenfunktionen (Statistiken) Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral

Mehr

Induktive Statistik Kapitel IV - Stichprobenfunktionen (Statistiken)

Induktive Statistik Kapitel IV - Stichprobenfunktionen (Statistiken) Induktive Statistik Kapitel IV - Stichprobenfunktionen (Statistiken) Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de 11. Januar 2007 Aufgabe der schließenden

Mehr

3 Grundlagen statistischer Tests (Kap. 8 IS)

3 Grundlagen statistischer Tests (Kap. 8 IS) 3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung

Mehr

Einführung in die statistische Testtheorie II

Einführung in die statistische Testtheorie II 1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Modellanpassung und Parameterschätzung. A: Übungsaufgaben 7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit

Mehr

Maximum-Likelihood Schätzung

Maximum-Likelihood Schätzung Maximum-Likelihood Schätzung VL Forschungsmethoden 1 Wiederholung Einführung: Schätzung 2 Likelihood-Schätzung und Generalisiertes Lineares Modell Zufallsverteilungen 3 Lernziele 1 Grundzüge der Likelihood-Schätzung

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Verteilungen stetiger Zufallsvariablen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften

Mehr

73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments

73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments 73 Hypothesentests 73.1 Motivation Bei Hypothesentests will man eine gewisse Annahme über eine Zufallsvariable darauf hin überprüfen, ob sie korrekt ist. Beispiele: ( Ist eine Münze fair p = 1 )? 2 Sind

Mehr

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder

Mehr

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Typisierung der stetigen theoretischen Verteilungen Bibliografie:

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr

Kapitel V - Erwartungstreue Schätzfunktionen

Kapitel V - Erwartungstreue Schätzfunktionen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel V - Erwartungstreue Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Multivariate Verteilungen

Multivariate Verteilungen Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften

Mehr

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen

Mehr

3 Statistische Schätzungen

3 Statistische Schätzungen 3 Statistische Schätzungen In der Wahrscheinlichkeitstheorie geht es darum, über Modelle Ereignisse zu bewerten bzw. Voraussagen über ihr Eintreten zu treffen. Sind nun umgekehrt Daten bekannt, und wollen

Mehr

Übungsscheinklausur,

Übungsscheinklausur, Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...

Mehr

Bayessche Statistik-Denken in Wahrscheinlichkeit

Bayessche Statistik-Denken in Wahrscheinlichkeit Bayessche Statistik-Denken in Wahrscheinlichkeit Habe ich Aids? Test fällt bei 98% der Aids kranken positiv aus. P(positiv Aids)=0.98 Test fällt bei 97% der gesunden negativ aus. P(negativ kein Aids)=0.97

Mehr

1.5.4 Quantile und Modi

1.5.4 Quantile und Modi 1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.70. [Quantil, Modus] Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung

Mehr

Statistik IV. Modul P8: Grundlagen der Statistik II Vorlesung P8.1: Wahrscheinlichkeitstheorie und Inferenz II

Statistik IV. Modul P8: Grundlagen der Statistik II Vorlesung P8.1: Wahrscheinlichkeitstheorie und Inferenz II Statistik IV Modul P8: Grundlagen der Statistik II Vorlesung P8.1: Wahrscheinlichkeitstheorie und Inferenz II Prof. Dr. Torsten Hothorn Institut für Statistik Ludwig Maximilians Universität München L A

Mehr

6.6 Poisson-Verteilung

6.6 Poisson-Verteilung 6.6 Poisson-Verteilung Die Poisson-Verteilung ist eine Wahrscheinlichkeitsverteilung, die zur Modellierung der Anzahl von zufälligen Vorkommnissen in einem bestimmten räumlichen oder zeitlichen Abschnitt

Mehr

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion Kapitel 1 Stetige Zufallsvariablen 1.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

2 Aufgaben aus [Teschl, Band 2]

2 Aufgaben aus [Teschl, Band 2] 20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:

Mehr

SozialwissenschaftlerInnen II

SozialwissenschaftlerInnen II Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Wahrscheinlichkeitsfunktionen

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Einführung in die Induktive Statistik: Testen von Hypothesen

Einführung in die Induktive Statistik: Testen von Hypothesen Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

1.0 Einleitung. 1 Schätzen von Parametern

1.0 Einleitung. 1 Schätzen von Parametern Schätzen von Parametern 1 1 Schätzen von Parametern 1.0 Einleitung Das vorliegende Kapitel stellt eine Einführung in das Schätzen von Parametern dar, was besagen will, dass es hier nicht um das Schätzen

Mehr

Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom

Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom Institut für Stochastik WS 009/10 Karlsruher Institut für Technologie (KIT) Dr. B. Klar Klausur Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom 08.0.010 Musterlösungen Aufgabe

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Grundlagen der Wahrscheinlichkeitstheorie

Grundlagen der Wahrscheinlichkeitstheorie Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)

Mehr

Zufallsvariablen. f(x) dx = 1. Die stetige Zufallsvariable X wird also durch seine Dichtefunktion beschrieben. P(c < X < d) =

Zufallsvariablen. f(x) dx = 1. Die stetige Zufallsvariable X wird also durch seine Dichtefunktion beschrieben. P(c < X < d) = Diskrete Sei X stetig auf (a,b), wobei a, b unendlich sein können, a x 0 < x 1 b P(X = x 0 ) = 0, P(x 0 < X < x 1 ) > 0 (wenn f > 0). Die Funktion f heißt Dichtefunktion (von X) falls: 1. f(x) 0, a < x

Mehr

1.4 Stichproben aus einer Normalverteilung

1.4 Stichproben aus einer Normalverteilung 1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate

Mehr

Statistische Datenanalyse

Statistische Datenanalyse Werner A. Stahel Statistische Datenanalyse Eine Einführung für Naturwissenschaftler 3., durchgesehene Auflage vieweg VII 1 Einleitung 1 1.1 Was ist Statistische Datenanalyse? 1 1.2 Ziele 6 1.3 Hinweise

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Stochastik für die Naturwissenschaften

Stochastik für die Naturwissenschaften Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 7. n (Konvergenz, LLN, CLT) n heisst für uns n gross Literatur Kapitel 7 * Statistik in Cartoons: Kapitel 5, Seite 114 in Kapitel 6 * Stahel:

Mehr

Klausur zur Vorlesung

Klausur zur Vorlesung Institut für Mathematische Stochastik WS 2006/2007 Universität Karlsruhe 12. Februar 2007 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Aufgabe 1 (15 Punkte) Klausur zur Vorlesung Statistik für Biologen

Mehr

Zufällige stabile Prozesse und stabile stochastische Integrale. Stochastikseminar, Dezember 2011

Zufällige stabile Prozesse und stabile stochastische Integrale. Stochastikseminar, Dezember 2011 Zufällige stabile Prozesse und stabile stochastische Integrale Stochastikseminar, Dezember 2011 2 Stabile Prozesse Dezember 2011 Stabile stochastische Prozesse - Definition Stabile Integrale α-stabile

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Probeklausur Statistik II

Probeklausur Statistik II Prof. Dr. Chr. Müller PROBE-KLAUSUR 1 1 2 3 4 5 6 7 8 Gesamt: 15 8 16 16 7 8 15 15 100 Probeklausur Statistik II Name: Vorname: Fachrichtung: Matrikel-Nummer: Bitte beachten Sie folgendes: 1) Die Klausur

Mehr

9 Die Normalverteilung

9 Die Normalverteilung 9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009

Mehr

Partition Modelling. Sebastian Keim, Benedikt Jahn. Seminar. Stochastische Geometrie und ihre Anwendungen - Zufällige Netzwerke, 2008

Partition Modelling. Sebastian Keim, Benedikt Jahn. Seminar. Stochastische Geometrie und ihre Anwendungen - Zufällige Netzwerke, 2008 Sebastian Keim, Benedikt Jahn Seminar Stochastische Geometrie und ihre Anwendungen - Zufällige Netzwerke, 2008 1 Motivation 2 3 4 5 6 1 Motivation 2 3 4 5 6 aus der Schadenversicherung - der Orkan Kyrill

Mehr

P(B A j )P(A j ) n. P(A j ) =

P(B A j )P(A j ) n. P(A j ) = Universität Potsdam Institut für Physik und Astronomie VL: Udo Schwarz Ü: Udo Schwarz Scientific Computing, SS 2011 http://www.stat.physik.uni-potsdam.de/cp10 sc@physik.uni-potsdam.de Übungsblatt 8 Abgabe

Mehr

Spezielle stetige Verteilungen

Spezielle stetige Verteilungen Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für

Mehr

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ), 2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist

Mehr

Wahrscheinlichkeitstheorie 2

Wahrscheinlichkeitstheorie 2 Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):

Mehr