Bayesianische Modellwahl. Helga Wagner Bayes Statistik WS 2010/11 161

Größe: px
Ab Seite anzeigen:

Download "Bayesianische Modellwahl. Helga Wagner Bayes Statistik WS 2010/11 161"

Transkript

1 Bayesianische Modellwahl Helga Wagner Bayes Statistik WS 2010/11 161

2 Modellwahl Problem der Modellwahl: Welches von K möglichen Modellen M 1,...,M K ist für die Daten y am besten geeignet? Klassisch: LQ-Test für genestete Modelle; Informationskriterien (AIC, BIC) Bayesianische Modellwahl: Posteriori Wahrscheinlichkeiten P(M 1 y),...,p(m K y) der verschiedenen Modelle bedingt auf die Daten P(M k y) p(y M k )P(M k ), k = 1,...,K (18) Helga Wagner Bayes Statistik WS 2010/11 162

3 Berechnung der Posteriori-Wahrscheinlichkeit Spezifikation der Priori-Wahrscheinlichkeit für jedes Modell p(m k ) : z.b. Gleichverteilung auf der Menge {M 1,...,M K }, d.h. P(M k ) = 1/K Für vollständig spezifizierte Modelle, d.h. Modelle ohne unbekanntem Parameter, ist p(y M k ) der Wert der Likelihood, d.h. die Dichte der Stichprobenverteilung an den beobachteten Daten. Für Modelle mit unbekannten Paramtern muss die marginale Likelihood p(y M k ) berechnet werden. Bestimmen der Posteriori-Wahrscheinlichkeit jedes Modells: Normieren ergibt P(M k y) = p(y M k)p(m k ) K i=1 p(y M i)p(m i ) Helga Wagner Bayes Statistik WS 2010/11 163

4 Berechnung der marginalen Likelihood Für Modelle mit unbekannten Parametern ist p(y M k ) der Wert der prioriprädiktiven Dichte an der Stelle der beobachteten Daten y p(y M k ) = ϑ k p(y ϑ k,m k )p(ϑ k M k )dϑ k. p(y M k ) wird als marginale Likelihood bezeichnet. Die marginale Likelihood ist der Erwartungswert der Likelihood bezüglich der Priori-Verteilung der Parameter. Ihre Berechnung setzt eine eigentliche Priori- Verteilung voraus! Für diskrete Daten kann die marginale Likelihood als Wahrscheinlichkeit der Daten bei gegebenem Modell M k interpretiert werden. Helga Wagner Bayes Statistik WS 2010/11 164

5 Der Bayes-Faktor Werden zwei Modelle M 1 und M 2 verglichen, so bezeichnet man den Quotienten B 12 = P(y M 1 )/P(y M 2 ) als Bayes-Faktor von Modell M 1 im Vergleich zu M 2. Die Posteriori-Chance von Modell M 1 ist gegeben als P(M 1 y) P(M 2 y) = P(y M 1) P(M 1 ) P(y M 2 ) P(M 2 ) d.h. Posteriori-Chance = Bayes-Faktor Priori-Chance Helga Wagner Bayes Statistik WS 2010/11 165

6 Der Bayes-Faktor Der Bayes-Faktor B 12 ist damit also Quotient aus Posteriori-Chance und Priori- Chance von M 1. Wenn die Daten die Wahrscheinlichkeit von M 1 erhöht haben, ist B 12 > 1 verringert haben, ist B 12 < 1 Numerisch ist es oft günstiger den Logartihmus der marginalen Likelihood zu berechnen. Der logarithmierte Bayes-Faktor ist logb 12 = log(p(m 1 y)) log(p(m 2 y)) Helga Wagner Bayes Statistik WS 2010/11 166

7 Bewertung des Bayes-Faktors Zur Bewertung des Bayes-Faktors bzw. logb 12 gelten folgende Faustregeln: Bayes-Faktor logb 12 Evidenz für M 1 gegenüber M 2 1 bis 3 0 bis 1.1 kaum der Rede wert 3 bis bis 3 positiv 20 bis bis 5 stark ab 150 ab 5 sehr stark Helga Wagner Bayes Statistik WS 2010/11 167

8 Die marginale Likelihood für i.i.d. Daten aus der Poisson-Verteilung Modell M 1 : y i.i.d. P (µ) Die marginale Likelihood von M 1 ist p(y M 1 ) = Θ Θ p(y,µ M 1 )dµ p(y µ,m 1 )p(µ M 1 )dµ. Unter der konjugierten G(a 0,b 0 )-Priori-Verteilung für µ kann dieses Integral analytisch gelöst werden und man erhält p(y M 1 ) = b a 0 0 Γ(a n) b a n n Γ(a 0 ) n i=1 Γ(y i+1). Helga Wagner Bayes Statistik WS 2010/11 168

9 Die marginale Likelihood für i.i.d. Daten aus der Poisson-Verteilung Die marginale Likelihood ist identisch mit der Normierungskonstanten der nichtnormierten Posteriori-Dichte p(µ y) p(y µ)p(µ). Wenn die Werte der Posteriori-Dichte bekannt sind, kann die marginale Likelihood folgendermaßen berechnet werden Candidate s formula (?) p(y M 1 ) = p(y µ,m 1)p(µ M 1 ) p(µ y,m 1 ) (19) Helga Wagner Bayes Statistik WS 2010/11 169

10 Die marginale Likelihood für i.i.d. Daten aus der Poisson-Verteilung Formel (19) gilt für jeden beliebigen Wert von µ, da sich alle Faktoren die von µ abhängen, kürzen Auch Formel (19) macht deutlich, dass die Berechnung der marginalen Likelihood eine eigentliche Priori-Verteilung voraussetzt. Die logarithmierte marginale Likelihood ist log(p(y M 1 )) = log(p(y µ,m 1 ))+log(p(µ M 1 )) log(p(µ y,m 1 )) Helga Wagner Bayes Statistik WS 2010/11 170

11 Die marginale Likelihood für i.i.d. Daten aus der Poisson-Verteilung Unter der G(a 0,b 0 )-Priori, ist p(µ y,m 1 ) die Dichte der G(a n,b n )-Posteriori- Verteilung und es gilt p(y M 1 ) = exp( nµ)µ y i n i=1 Γ(y i+1) ba 0 0 µa 0 1 exp( b 0 µ) Γ(a 0 ) = b a 0 0 Γ(a n) b a n n Γ(a 0 ) n i=1 Γ(y i+1) Γ(a n ) b a n n µ a n 1 exp( b n µ) = Helga Wagner Bayes Statistik WS 2010/11 171

12 Die marginale Likelihood für i.i.d. Daten aus der Poisson-Verteilung Tabelle 3: Verkehrssicherheitsdaten Kinder 6-10: Modell M 1 Logarithmus der marginalen Likelihood p(y M 1 ) für verschiedene G(b 0 m 0,m 0 )- Priori-Verteilungen logp(y M 1 ) m 0 = 1 m 0 = y m 0 = 5 m 0 = 7 m 0 = 10 b 0 = b 0 = b 0 = b 0 = b 0 = Die marginale Likelihood hängt stark von den Parametern der Priori-Verteilung ab! Helga Wagner Bayes Statistik WS 2010/11 172

13 Die marginale Likelihood für i.i.d. Daten aus der Poisson-Verteilung 5 x b 0 = x b 0 = b =0.1 0 b =0.5 0 b =1 0 b = b 0 =0.1 b 0 =0.5 b 0 =1 b 0 = µ µ µ 3 Abbildung 19: Verkehrssicherheitsdaten Links: Likelihood, Mitte: verschiedene G(b 0 m 0,b 0 )-Priori-Verteilungen mit m 0 = 1; Rechts: Produkt aus Likelihood und Priori Der Wert des Parameters a 0 bestimmt die Form der Priori-Verteilung: Für a 0 < 1 hat der Modus der Priori-Verteilung den Wert 0. Helga Wagner Bayes Statistik WS 2010/11 173

14 Die marginale Likelihood für i.i.d. Daten aus der Poisson-Verteilung Tabelle 4: Verkehrssicherheitsdaten Kinder 6-10: Modell M 1 Logarithmus der marginalen Likelihood p(y M 1 ) für verschiedene G(a 0,a 0 /m 0 ) Priori-Verteilungen logp(y M 1 ) m 0 = 1 m 0 = y m 0 = 5 m 0 = 7 m 0 = 10 a 0 = a 0 = a 0 = a 0 = a 0 = Für a 0 1 ist der Modus der Priori-Verteilung a 0 1 b 0. Helga Wagner Bayes Statistik WS 2010/11 174

15 Die marginale Likelihood bei Berücksichtigung der Exponierten Modell M 2 : y i.i.d. P (λe i ) Die marginale Likelihood für Modell M 2 ist gegeben als: p(y M 2 ) = p(y λ,m 2)p(λ M 2 ) p(λ y,m 2 ) = (be 0) ae 0 Γ(a e n ) (b e N )ae nγ(a e 0 ) n i=1 = e y i i Γ(y i +1). Helga Wagner Bayes Statistik WS 2010/11 175

16 Die marginale Likelihood bei Berücksichtigung der Exponierten Tabelle 5: Verkehrssicherheitsdaten Kinder 6-10: Modell M 2 Logarithmus der marginalen Likelihood p(y M 2 ) für verschiedene G(a e 0,a e 0/m e 0)- Priori-Verteilungen logp(y M 2 ) m e 0 = m e 0 = ˆλ m e 0 = m 0 = m e 0 = a e 0 = a e 0 = a e 0 = a e 0 = a e 0 = Helga Wagner Bayes Statistik WS 2010/11 176

17 Modellvergleich für Verkehrssicherheitsdaten Kinder 6-10 Annahme : P(M 1 ) = P(M 2 ) = 1/2 Tabelle 6: Verkehrssicherheitsdaten Kinder 6-10: Vergleich von Modell M 1 ( und M 2 ) basierend auf den Priori-Verteilungen µ G(a 0,a 0 /y) und λ G a 0,a 0 /ˆλ a log(b 12 ) P(M 1 y) = leichte Evidenz für ein Modell ohne Berücksichtigung der Exponierten Helga Wagner Bayes Statistik WS 2010/11 177

18 Die marginale Likelihood bei Strukturbruch Modell M 3 : y i P (µ i ) mit µ i = { µ 1, i < i 0, µ 2, i i 0. Die marginal Likelihood für Model M 3 ist : p(y M 3 ) = p(y µ 1,µ 2,M 3 )p(µ 1,µ 2 M 3 )d(µ 1,µ 2 ), Mit der Candidate s Formel erhält man Θ p(y M 3 ) = p(y µ 1,µ 2,M 3 )p(µ 1,µ 2 M 3 ) p(µ 1,µ 2 y,m 3 ) = b a 0,1 0,1 ba 0,2 0,2 Γ(a n,1)γ(a n,2 ) b a n,1 n,1 ba n,2 n,2 Γ(a 0,1)Γ(a 0,2 ) n i=1 Γ(y i+1). Helga Wagner Bayes Statistik WS 2010/11 178

19 Die marginale Likelihood bei Strukturbruch Tabelle 7: Verkehrssicherheitsdaten Kinder 6-10: Modell M 3 (Strukturbruch Oktober 1994). Logarithmus der marginalen Likelihood p(y M 3 ) für verschiedene G(a 0,a 0 /m 0 )- Priori-Verteilungen logp(y M 3 ) m 0 = 1 m 0 = y m 0 = 5 m 0 = 7 m 0 = 10 a 0 = a 0 = a 0 = a 0 = a 0 = Helga Wagner Bayes Statistik WS 2010/11 179

20 Die marginale Likelihood des hierarchischen Modells Model M 4 : y i P (µ i ) mit µ i G(a 0,b 0 ) Die marginale Likelihood für Modell M 4 ist: p(y M 4 ) = p(y µ 1,...,µ n,m 4 )p(µ 1,...,µ n M 4 )d(µ 1,...,µ n ). Θ Einfache Berechnung mittels Candidate s Formel ergibt p(y M 4 ) = p(y µ 1,...,µ n,m 4 )p(µ 1,...,µ n M 4 ) p(µ 1,...,µ n y) n b a 0 0 = Γ(a 0+y i ) (b 0 +1) a 0+y iγ(a0 )Γ(y i +1). i=1 = Helga Wagner Bayes Statistik WS 2010/11 180

21 Die marginale Likelihood des hierarchischen Modells Tabelle 8: Verkehrssicherheitsdaten Kinder 6-10: Modell M 4 Logarithmus der marginalen Likelihood p(y M 4 ) für verschiedene G(a 0,a 0 /m 0 )-Priori-Verteilungen logp(y M 4 ) m 0 = 1 m 0 = y m 0 = 5 m 0 = 7 m 0 = 10 a 0 = a 0 = a 0 = a 0 = a 0 = Die Parameter der Priori-Verteilung haben einen großen Effekt auf den Wert der marginalen Likelihood. Helga Wagner Bayes Statistik WS 2010/11 181

22 Modellvergleich für Verkehrssicherheitsdaten Kinder 6-10 Annahme : P(M 1 ) = P(M 3 ) = P(M 4 ) = 1/3 Tabelle 9: Verkehrssicherheitsdaten Kinder 6-10: Posteriori-Wahrscheinlichkeiten der Modelle M 1, M 3 und M 4 unter verschiedenen G(a 0,a 0 /y)-priori-verteilungen a P(M 1 y) P(M 3 y) P(M 4 y) Evidenz für das Modell mit Strukturbruch aus der Posteriori-Dichte von µ 2 µ 1 wird durch die Posteriori-Wahrscheinlichkeiten von M 3 bestätigt. P(M 3 = 1 y) ist für leicht informative Priori-Verteilungen nahe bei 1 = Wahl von Modell M 3 (Strukturbruch) Helga Wagner Bayes Statistik WS 2010/11 182

23 Eye Tracking: Homogenität oder unbeobachtete Heterogenität? Homogenität: Modell M 1 unbeobachtete Heterogenität: hierarchisches Modell M 4 Tabelle 10: Eye Tracking, Modell M 1 ; Logarithmus der marginalen Likelihood p(y M 1 ) für verschiedene G(a 0,a 0 /m 0 )-Priori-Verteilungen logp(y M 1 ) m 0 = 1 m 0 = y m 0 = 5 m 0 = 10 m 0 = 20 a 0 = a 0 = a 0 = a 0 = a 0 = Helga Wagner Bayes Statistik WS 2010/11 183

24 Eye Tracking: Homogenität oder unbeobachtete Heterogenität? Tabelle 11: Eye Tracking, Modell M 4 Logarithmus der marginalen Likelihood p(y M 4 ) für verschiedene G(a 0,a 0 /m 0 )-Priori-Verteilungen logp(y M 4 ) m 0 = 1 m 0 = y m 0 = 5 m 0 = 10 m 0 = 20 a 0 = a 0 = a 0 = a 0 = a 0 = Grosser Effekt der Hyperparameter auf die marginale Likelihood! Vergleich verschiedener Priori-Verteilungen (=Heterogenitätsverteilungen): = G(0.5, 0.5/y)- Verteilung ergibt die höchste marginale Likelihood G(0.5,0.5/y) hat Erwartungswert y = 3.52 und Varianz Helga Wagner Bayes Statistik WS 2010/11 184

25 Eye Tracking: Homogenität oder unbeobachtete Heterogenität? Bei gleichen a-priori-wahrscheinlichkeiten der Modelle M 1 und M 4, ist die Posteriori-Wahrscheinlichkeit von M 1 gegeben als P(M 1 y) = p(y M 1 ) p(y M 1 )+p(y M 4 ), (20) P(M 1 y) = 0 für alle Hyperparameter = Ablehnung des einfachen Modells M 1 und Wahl des flexibleren Modells M 4 Helga Wagner Bayes Statistik WS 2010/11 185

26 Die Marginale Likelihood für Modelle für Binärdaten Modell M 1 (Ziehen mit Zurücklegen aus einer homogenen Population): y 1,...,y n i.i.d. with P(Y i = 1 ϑ) = ϑ Die marginale Likelihood für Modell M 1 ist: p(y M 1 ) = p(y,ϑ M 1 )dϑ = p(y ϑ,m 1 )p(ϑ M 1 )dϑ. Θ Unter der konjugierten B(a 0,b 0 )-Priori-Verteilung kann dieses Integral analytisch gelöst werden. Einfacher ist die Berechnung mit der Candidate s Formel: Θ p(y M 1 ) = p(y ϑ,m 1)p(ϑ M 1 ) p(ϑ y,m 1 ) = B(a n,b n ) B(a 0,b 0 ). (21) Die marginale Likelihood ist nur dann definiert, wenn sowohl a 0 und b 0 positiv sind. Helga Wagner Bayes Statistik WS 2010/11 186

27 Die marginale Likelihood bei beobachteter Heterogenität Modell M 2 : Ziehen mit Zurücklegen aus einer heterogen Population P(Y i = 1 ϑ,z i ) = (1 z i )ϑ 1 +z i ϑ 2 Die marginale Likelihood für Model M 2 ist: p(y M 2 ) = Θ p(y,ϑ M 2 )dϑ = Θ p(y ϑ,m 2 )p(ϑ M 2 )dϑ. Das Integral kann unter den konjugierten Priori-Verteilungen B(a 0,1,b 0,1 ) und B(a 0,2,b 0,2 ) analytisch bestimmt werden. Einsetzen in die Candidate s Formel ergibt: p(y M 2 ) = p(y ϑ 1,ϑ 2,M 2 )p(ϑ 1,ϑ 2 M 2 ) p(ϑ 1,ϑ 2 y,m 2 ) = B(a n,1,b n,1 )B(a n,2,b n,2 ) B(a 0,1,b 0,1 )B(a 0,2,b 0,2 ). Helga Wagner Bayes Statistik WS 2010/11 187

28 Test auf Heterogenität Tabelle 12: Arbeitsmarktdaten: Vergleich von der Modelle M 1 und M 2 (Risiko für Erwerbslosigkeit abhängig vom Arbeitsverhältnis) prior logp(y M 1 ) logp(y M 2 ) P(M 1 y) P(M 2 y) a 0,1 = a 0,2 = 1,b 0,1 = b 0,2 = a 0,1 = a 0,2 = 0.5,b 0,1 = b 0,2 = n 0 = 2, m 0 = h n (Y = 1) n 0 = 10, m 0 = h n (Y = 1) Marginale Likelihoods und Posteriori-Wahrscheinlichkeiten sprechen für das unrestringierte Modell M 2 Das entspricht dem Ergebnis aus der Posteriori Verteilung p(ϑ 1 ϑ 2 y), die von 0 nach rechts verschoben ist. Helga Wagner Bayes Statistik WS 2010/11 188

29 Krebssterblichkeitsdaten Tabelle 13: Vergleich von der Modelle M 1 und M 2 (Abhängigkeit des Krebsrisikos von der Stadt) prior logp(y M 1 ) logp(y M 2 ) P(M 1 y) P(M 2 y) a 0,1 = a 0,2 = 1,b 0,1 = b 0,2 = a 0,1 = a 0,2 = 0.5,b 0,1 = b 0,2 = n 0 = 2, m 0 = h n (Y = 1) n 0 = 10, m 0 = h n (Y = 1) Marginale Likelihoods und Posteriori-Wahrscheinlichkeiten sprechen für das restringierte Modell M 1. Übereinstimmung mit explorativer Analyse der Posteriori- Verteilung von p(ϑ 1 ϑ 2 y) (die nicht von Null wegverschoben ist) = hohe Evidenz für die Null-Hypothese (keine Evidenz für Nullhypothese bei Signifikanztests!) Helga Wagner Bayes Statistik WS 2010/11 189

30 Modellwahl für normalverteilte Daten Model M 1 : y i.i.d. N ( µ,σ 2), µ bekannt Die marginale Likelihood von Modell M 1 ist: p(y M 1 ) = = p(y σ2,µ)p(σ 2 ) p(σ 2 y,µ) R + p(y σ 2 )p(σ 2 )dσ 2 = Γ(s n)s s 0 0 Γ(s 0 )S s n n (2π) n, 2 Helga Wagner Bayes Statistik WS 2010/11 190

31 Die marginale Likelihood wenn µ und σ 2 unbekannt sind Modell M 2 : y i.i.d. N ( µ,σ 2), µ und σ 2 unbekannt Die marginale Likelihood von Modell M 2 ist gegeben als: p(y M 2 ) = p(y,µ,σ 2 M 2 )d(µ,σ 2 ) = Θ Θ p(y µ,σ 2,M 2 )p(µ,σ 2 M 2 )d(µ,σ 2 ). (22) Unter der konjugierten Normal-Invers-Gamma-Priori ist dieses Integral analytisch lösbar. Aus der Candidate s Formel erhält man p(y M 2 ) = p(y σ2,µ)p(µ σ 2 )p(σ 2 ) p(µ σ 2,y)p(σ 2 y,µ) = Γ(s n)s s 0 0 (M n) 2 1. Γ(s 0 )S s n n (M 0 ) 1 2(2π) n 2 Helga Wagner Bayes Statistik WS 2010/11 191

32 SFr Wechselkurs-Daten Die marginale Posterior p(µ y) in Abbildung 17 deutet auf µ = 0 hin. Test auf µ = 0: Vergleich von Modell M 1 (σ 2 unbekannt, µ = 0) und M 2 (µ und σ 2 unbekannt) Wahl derselben Priori-Verteilung für σ 2 mit S 0 = 1 und s 0 = 1. Priori-Verteilung von µ in Modell M 2 zentriert um 0, d.h. m 0 = 0. Damit hat der Priori-Parameter n 0 = M 1 0 den höchsten Einfluß. Helga Wagner Bayes Statistik WS 2010/11 192

33 SFr Wechselkurs-Daten logp(y M 1 ) = Für einen großen Bereich von Werten für n 0 ist logp(y M 2 ) zwischen (für n 0 = 10 5 ) und ( für n 0 = 100.) log(b 12 ) >> 150 = sehr starke Evidenz für das reduzierte Modell mit µ = 0 Helga Wagner Bayes Statistik WS 2010/11 193

Numerische Methoden der Bayes-Inferenz. Helga Wagner Bayes Statistik WS 2010/11 338

Numerische Methoden der Bayes-Inferenz. Helga Wagner Bayes Statistik WS 2010/11 338 Numerische Methoden der Bayes-Inferenz Helga Wagner Bayes Statistik WS 2010/11 338 Nichtkonjugierte Analyse Bei bekannter Likelihood und Priori-Verteilung kann die nichtnormierte Dichte der Posteriori-Verteilung

Mehr

Bayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194

Bayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194 Bayes Prognose Helga Wagner Bayes Statistik WS 2010/11 194 Prognose einer weiteren Beobachtung Verkehrssicherheitsdaten Senioren: Wieviele Senioren werden in Linz im kommenden Monat getötet oder schwerverletzt?

Mehr

Konjugierte Analyse einfacher Modelle Poisson-Modelle. Helga Wagner Bayes Statistik WS 2010/11 31

Konjugierte Analyse einfacher Modelle Poisson-Modelle. Helga Wagner Bayes Statistik WS 2010/11 31 Konjugierte Analyse einfacher Modelle Poisson-Modelle Helga Wagner Bayes Statistik WS 2010/11 31 Example: Verkehrssicherheitsdaten 6 Time Series Plot 15 Time Series Plot 5 4 10 3 2 5 1 0 0 20 40 60 80

Mehr

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes) 3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f

Mehr

Bayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301

Bayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301 Bayes Inferenz Schätzen und Testen von Hypothesen Helga Wagner Bayes Statistik WS 2010/11 301 Bayes Punktschätzung Entscheidungstheoretischer Ansatz: Wahl des Punktschätzers ist eine Aktion, die möglicherweise

Mehr

Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik

Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik 1 Verteilungen Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik 1.1 Diskrete Verteilungen Helga Wagner und Gero Walter Binomialverteilung: Y BiNom (n, π) Parameter: n > 0, π [0, 1] Wahrscheinlichkeitsfunktion:

Mehr

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.19 (allgemeines Theorem von Bayes)

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.19 (allgemeines Theorem von Bayes) 3.4 Bayes-Verfahren 202 3.4.1 Begrifflicher Hintergrund Satz 3.19 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f

Mehr

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1 Einführung in die Bayes-Statistik Helga Wagner Ludwig-Maximilians-Universität München WS 2010/11 Helga Wagner Bayes Statistik WS 2010/11 1 Organisatorisches Termine: Montag: 16.00-18.00 AU115 Dienstag:

Mehr

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion 4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Frequentisten und Bayesianer. Volker Tresp

Frequentisten und Bayesianer. Volker Tresp Frequentisten und Bayesianer Volker Tresp 1 Frequentisten 2 Die W-Verteilung eines Datenmusters Nehmen wir an, dass die wahre Abhängigkeit linear ist, wir jedoch nur verrauschte Daten zur Verfügung haben

Mehr

Bayesianische FDR (Teil 1)

Bayesianische FDR (Teil 1) Bayesianische FDR (Teil 1) Mareile Große Ruse Seminar Multiples Testen 08.11.2010 Übersicht Übersicht Übersicht Alternative: Übersicht Alternative: Übersicht Alternative: Bedingte Wahrscheinlichkeit (Ω,

Mehr

Bayes Inferenz. Helga Wagner Bayes Statistik WS 2010/11 245

Bayes Inferenz. Helga Wagner Bayes Statistik WS 2010/11 245 Bayes Inferenz Helga Wagner Bayes Statistik WS 2010/11 245 Statistische Inferenz Beobachtungen: Daten y = (y 1,...,y n ) Y Annahme: Daten werden von einem (stochastischen) Modell spezifiziert durch einen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 22 Übersicht Weitere Hypothesentests in der Statistik 1-Stichproben-Mittelwert-Tests 1-Stichproben-Varianz-Tests 2-Stichproben-Tests Kolmogorov-Smirnov-Test

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Wahrscheinlichkeit und Statistik BSc D-INFK

Wahrscheinlichkeit und Statistik BSc D-INFK Prof. Dr. M. Schweizer ETH Zürich Sommer 4 Wahrscheinlichkeit und Statistik BSc D-INFK. a (iii b (ii c (iii d (i e (ii f (i g (iii h (iii i (i j (ii. a Die Anzahl der bestellten Weine in einem Monat kann

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9. 7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Prof. Dr. P. Embrechts ETH Zürich Sommer 204 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Vereinfachen

Mehr

Aufgaben. d) Seien X und Y Poissonverteilt mit Parameter µ, X, Y P(µ). 2. Dann ist die Summe auch Poissonverteilt mit (X + Y ) P(2µ).

Aufgaben. d) Seien X und Y Poissonverteilt mit Parameter µ, X, Y P(µ). 2. Dann ist die Summe auch Poissonverteilt mit (X + Y ) P(2µ). Aufgaben 1. Bei den folgenden 10 Fragen ist jeweils genau eine Antwort richtig. Es gibt pro richtig beantwortete Frage 1 Punkt und pro falsche Antwort 1/2 Punkt Abzug. Minimal erhält man für die gesamte

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Musterlösung zu Serie 8

Musterlösung zu Serie 8 Dr. Markus Kalisch Statistik I für Biol./Pharm. Wiss./HST) FS 15 Musterlösung zu Serie 8 1. a) Damit fx) eine Dichte ist, muss die Fläche des Dreiecks gleich 1 sein. Es muss also gelten c = 1. Daraus folgt

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation

Mehr

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN KAPITEL 15 VETEILUNGEN VON FUNKTIONEN EINE ZUFALLSVAIABLEN In diesem Kapitel geht es darum, die Verteilungen für gewisse Funktionen von Zufallsvariablen zu bestimmen. Wir werden uns auf den Fall absolut

Mehr

Zulassungsprüfung Stochastik,

Zulassungsprüfung Stochastik, Zulassungsprüfung Stochastik, 5.5. Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß auf

Mehr

Das Bayes'sche Prinzip

Das Bayes'sche Prinzip Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

Varianzkomponentenschätzung

Varianzkomponentenschätzung Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler

Mehr

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60 WESTFÄLISCHE WILHELMS - UNIVERSITÄT MÜNSTER Wirtschaftswissenschaftliche Faktultät Prof. Dr. Bernd Wilfling Professur für VWL, insbesondere Empirische Wirtschaftsforschung Musterlösung zur Klausur im Fach

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur

Mehr

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212 1.6.2 Poisson Verteilung Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte,

Mehr

Nachklausur Mathematik für Biologen WS 08/09

Nachklausur Mathematik für Biologen WS 08/09 Aufgabe 1: (5 Punkte) In einer diploiden Population beobachten wir die Ausprägung eines bestimmten Gens, das zwei Allele V und W annimmt. Somit besitzt jedes Individuum V V, V W oder W W als Genotyp. Die

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten

Mehr

2 Klassische statistische Verfahren unter Normalverteilungs-Annahme

2 Klassische statistische Verfahren unter Normalverteilungs-Annahme 7 Klassische statistische Verfahren unter Normalverteilungs-Annahme. χ s, t s, F r,s -Verteilung a) N,..., N s uiv N (0, ) Verteilung von Y := N +... + N s heißt Chi-Quadrat-Verteilung mit s Freiheitsgraden

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

How To Find Out If A Ball Is In An Urn

How To Find Out If A Ball Is In An Urn Prof. Dr. P. Embrechts ETH Zürich Sommer 2012 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Aufgabe

Mehr

Übungsscheinklausur,

Übungsscheinklausur, Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...

Mehr

Zulassungsprüfung Stochastik,

Zulassungsprüfung Stochastik, Zulassungsprüfung Stochastik,..3 Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf n wird mit B n bezeichnet, das Lebesgue Maß auf n wird

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung

Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer 014 Musterlösung 1. 8 Punkte) a) 1 Pt)Für das Komplement gilt PR A) = 1 PR c A) = 0.968. b) 1 Pt)Nach Definition der bedingten Wahrscheinlichkeit

Mehr

Wahrscheinlichkeit und Statistik BSc D-INFK

Wahrscheinlichkeit und Statistik BSc D-INFK Prof. Dr. P. Embrechts ETH Zürich Sommer 2015 Wahrscheinlichkeit und Statistik BSc D-INFK Name: Vorname: Stud. Nr.: Das Folgende bitte nicht ausfüllen! Aufg. Summe Kontr. Pkte.-Max. 1 10 2 10 3 10 4 10

Mehr

Wahrscheinlichkeitsrechnung und Statistik. 11. Vorlesung /2019

Wahrscheinlichkeitsrechnung und Statistik. 11. Vorlesung /2019 Wahrscheinlichkeitsrechnung und Statistik 11. Vorlesung - 2018/2019 Quantil der Ordnung α für die Verteilung des beobachteten Merkmals X ist der Wert z α R für welchen gilt z 1 2 heißt Median. P(X < z

Mehr

Modelle für Daten mit kontinuierlichen Wertebereich Verteilungen mit (Wahrscheinlichkeits-)Dichte. Normalverteilung N (µ, σ 2 ) mit Dichte

Modelle für Daten mit kontinuierlichen Wertebereich Verteilungen mit (Wahrscheinlichkeits-)Dichte. Normalverteilung N (µ, σ 2 ) mit Dichte Statistik II für Wirtschaftswissenschaftler Folie 6.1 Modelle für Daten mit kontinuierlichen Wertebereich Verteilungen mit (Wahrscheinlichkeits-)Dichte I) Werte in (, ), Parameter µ (, ), σ 2 > 0 Normalverteilung

Mehr

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Prof. Dr. P. Embrechts ETH Zürich Winter 2012 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Aufgabe

Mehr

Klassifikation von Signifikanztests

Klassifikation von Signifikanztests Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Einführung in die Induktive Statistik: Testen von Hypothesen

Einführung in die Induktive Statistik: Testen von Hypothesen Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 1. Dezember 21 1 Integralrechnung Flächeninhalt Stammfunktion Rechenregeln 2 Dichten von Erwartungswert und Varianz

Mehr

BZQ II: Stochastikpraktikum

BZQ II: Stochastikpraktikum BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Vorlesung Gesamtbanksteuerung Mathematische Grundlagen II Dr. Klaus Lukas Carsten Neundorf. Vorlesung 04 Mathematische Grundlagen II,

Vorlesung Gesamtbanksteuerung Mathematische Grundlagen II Dr. Klaus Lukas Carsten Neundorf. Vorlesung 04 Mathematische Grundlagen II, Vorlesung Gesamtbanksteuerung Mathematische Grundlagen II Dr. Klaus Lukas Carsten Neundorf 1 Was sollen Sie heute lernen? 2 Agenda Wiederholung stetige Renditen deskriptive Statistik Verteilungsparameter

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1 Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x

Mehr

Methoden der statistischen Inferenz

Methoden der statistischen Inferenz Leonhard Held Methoden der statistischen Inferenz Likelihood und Bayes Unter Mitwirkung von Daniel Sabanes Bove Spektrum KJL AKADEMISCHER VERLAG Vorwort vii 1 Einführung 1 1.1 Statistische Inferenz 1 1.2

Mehr

Nachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!!

Nachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!! Nachholklausur zur Vorlesung Schätzen und Testen I 04. April 2013 Volker Schmid, Ludwig Bothmann, Julia Sommer Aufgabe 1 2 3 4 5 6 Punkte Note Bitte ausfüllen und unterschreiben!!! Name, Vorname: Matrikelnummer:

Mehr

Statistik: Klassisch oder Bayes

Statistik: Klassisch oder Bayes Wolfgang Tschirk Statistik: Klassisch oder Bayes Zwei Wege im Vergleich 4Q Springer Spektrum Inhaltsverzeichnis 1 Einleitung 1 1.1 Beschreibende und schließende Statistik 1 1.2 Schließende Statistik: Klassik

Mehr

Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC. Referenten: Linda Gräfe & Konstantin Falk

Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC. Referenten: Linda Gräfe & Konstantin Falk Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC Referenten: Linda Gräfe & Konstantin Falk 1 Agenda Schätzverfahren ML REML Beispiel in SPSS Modellbeurteilung Devianz AIC BIC

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

5 Binomial- und Poissonverteilung

5 Binomial- und Poissonverteilung 45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1

Mehr

Fortgeschrittene Ökonometrie: Maximum Likelihood

Fortgeschrittene Ökonometrie: Maximum Likelihood Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,

Mehr

Wahrscheinlichkeit und Statistik BSc D-INFK

Wahrscheinlichkeit und Statistik BSc D-INFK Prof. Dr. P. Bühlmann ETH Zürich Sommer 2010 Wahrscheinlichkeit und Statistik BSc D-INFK 1. (10 Punkte) Bei den folgenden 10 Fragen ist jeweils genau eine Antwort richtig. Es gibt pro richtig beantwortete

Mehr

Einleitung Wahl der a priori Verteilung Bezug zur Maximum Likelihood Methode. Bayessche Statistik. Christian Meisel

Einleitung Wahl der a priori Verteilung Bezug zur Maximum Likelihood Methode. Bayessche Statistik. Christian Meisel 19.07.2007 Gliederung 1 2 3 Wahrscheinlichkeitsbegriff In Bayesscher Statistik wird Wahrscheinlichkeit p im Sinne von unvollständigem Wissen über ein Ereignis verwendet. Bei gleichem Vorwissen über unterschiedliche

Mehr

Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte

Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann Probe-Klausur zur Vorlesung Ökonometrie Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte (die eigentliche Klausur wird

Mehr

(Reine) Bayes-Punktschätzung

(Reine) Bayes-Punktschätzung 233 3.4.3 (Reine) Bayes-Punktschätzung Def. 3.33 (MPD-Schätzung) Gegeben eine Beobachtung x und die posteriori Verteilung mit Dichte bzw. Wahrscheinlichkeitsfunktion π(ϑ x) heißt ϑ mit π(ˆϑ x) = max ϑ

Mehr

BAYES SCHE STATISTIK

BAYES SCHE STATISTIK BAES SCHE STATISTIK FELIX RUBIN EINFÜHRUNG IN DIE STATISTIK, A.D. BARBOUR, HS 2007 1. Einführung Die Bayes sche Statistik gibt eine weitere Methode, um einen unbekannten Parameter θ zu schätzen. Bisher

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 10. Vorlesung - 017 Quantil der Ordnung α für die Verteilung des beobachteten Merkmals X ist der Wert z α R für welchen gilt z 1 heißt Median. P(X < z α ) α P(X z α ). Falls X stetige zufällige Variable

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Statistische Tests (Signifikanztests)

Statistische Tests (Signifikanztests) Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)

Mehr

3.3 Methoden zur Evaluierung von Schätzern

3.3 Methoden zur Evaluierung von Schätzern 3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

Allgemeines zu Tests. Statistische Hypothesentests

Allgemeines zu Tests. Statistische Hypothesentests Statistische Hypothesentests Allgemeines zu Tests Allgemeines Tests in normalverteilten Grundgesamtheiten Asymptotische Tests Statistischer Test: Verfahren Entscheidungsregel), mit dem auf Basis einer

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Statistik für NichtStatistiker

Statistik für NichtStatistiker Statistik für NichtStatistiker Zufall und Wahrscheinlichkeit von Prof. Dr. Karl Bosch 5., verbesserte Auflage R. Oldenbourg Verlag München Wien Inhaltsverzeichnis 1. ZufalLsexperimente und zufällige Ereignisse

Mehr

Chi-Quadrat-Verteilung

Chi-Quadrat-Verteilung Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist

Mehr

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1 Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge

Mehr

Bayessche Lineare Regression

Bayessche Lineare Regression Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Baessche Lineare Regression Niels Landwehr Überblick Baessche Lernproblemstellung. Einführendes Beispiel: Münzwurfexperimente.

Mehr

Bayessche Statistik-Denken in Wahrscheinlichkeit

Bayessche Statistik-Denken in Wahrscheinlichkeit Bayessche Statistik-Denken in Wahrscheinlichkeit Habe ich Aids? Test fällt bei 98% der Aids kranken positiv aus. P(positiv Aids)=0.98 Test fällt bei 97% der gesunden negativ aus. P(negativ kein Aids)=0.97

Mehr

Überblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression

Überblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression Überblic Grundonepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münwürfe Lineare Regression Logistische Regression Bayes sche Vorhersage Münwürfe Lineare Regression 14 Modell für Münwürfe

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung

Mehr

Klassifikation von Signifikanztests

Klassifikation von Signifikanztests Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen

Mehr

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

3) Testvariable: T = X µ 0

3) Testvariable: T = X µ 0 Beispiel 4.9: In einem Molkereibetrieb werden Joghurtbecher abgefüllt. Der Sollwert für die Füllmenge dieser Joghurtbecher beträgt 50 g. Aus der laufenden Produktion wurde eine Stichprobe von 5 Joghurtbechern

Mehr

Modul 141 Statistik. 1. Studienjahr 11. Sitzung Signifikanztests

Modul 141 Statistik. 1. Studienjahr 11. Sitzung Signifikanztests Modul 141 Statistik 1. Studienjahr 11. Sitzung Signifikanztests Inhalt der 11. Sitzung 1. Parametrische Signifikanztests 2. Formulierung der Hypothesen 3. Einseitige oder zweiseitige Fragestellung 4. Signifikanzniveau

Mehr

Schätzen und Testen I in 90 Minuten. 8. Februar 2010

Schätzen und Testen I in 90 Minuten. 8. Februar 2010 Schätzen und Testen I in 90 Minuten 8. Februar 2010 1. Einführung in statistische Modelle und Inferenzkonzepte 2. Klassische Schätz- und Testtheorie 3. Likelihood-Inferenz 4. Bayes-Inferenz 5. Einführung

Mehr

Konfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt

Konfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt Konfidenzintervalle Annahme: X 1,..., X n iid F θ. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt P θ (U θ O) = 1 α, α (0, 1). Das Intervall [U, O] ist ein Konfidenzintervall

Mehr