Bayesianische Modellwahl. Helga Wagner Bayes Statistik WS 2010/11 161
|
|
- Wilhelm Salzmann
- vor 5 Jahren
- Abrufe
Transkript
1 Bayesianische Modellwahl Helga Wagner Bayes Statistik WS 2010/11 161
2 Modellwahl Problem der Modellwahl: Welches von K möglichen Modellen M 1,...,M K ist für die Daten y am besten geeignet? Klassisch: LQ-Test für genestete Modelle; Informationskriterien (AIC, BIC) Bayesianische Modellwahl: Posteriori Wahrscheinlichkeiten P(M 1 y),...,p(m K y) der verschiedenen Modelle bedingt auf die Daten P(M k y) p(y M k )P(M k ), k = 1,...,K (18) Helga Wagner Bayes Statistik WS 2010/11 162
3 Berechnung der Posteriori-Wahrscheinlichkeit Spezifikation der Priori-Wahrscheinlichkeit für jedes Modell p(m k ) : z.b. Gleichverteilung auf der Menge {M 1,...,M K }, d.h. P(M k ) = 1/K Für vollständig spezifizierte Modelle, d.h. Modelle ohne unbekanntem Parameter, ist p(y M k ) der Wert der Likelihood, d.h. die Dichte der Stichprobenverteilung an den beobachteten Daten. Für Modelle mit unbekannten Paramtern muss die marginale Likelihood p(y M k ) berechnet werden. Bestimmen der Posteriori-Wahrscheinlichkeit jedes Modells: Normieren ergibt P(M k y) = p(y M k)p(m k ) K i=1 p(y M i)p(m i ) Helga Wagner Bayes Statistik WS 2010/11 163
4 Berechnung der marginalen Likelihood Für Modelle mit unbekannten Parametern ist p(y M k ) der Wert der prioriprädiktiven Dichte an der Stelle der beobachteten Daten y p(y M k ) = ϑ k p(y ϑ k,m k )p(ϑ k M k )dϑ k. p(y M k ) wird als marginale Likelihood bezeichnet. Die marginale Likelihood ist der Erwartungswert der Likelihood bezüglich der Priori-Verteilung der Parameter. Ihre Berechnung setzt eine eigentliche Priori- Verteilung voraus! Für diskrete Daten kann die marginale Likelihood als Wahrscheinlichkeit der Daten bei gegebenem Modell M k interpretiert werden. Helga Wagner Bayes Statistik WS 2010/11 164
5 Der Bayes-Faktor Werden zwei Modelle M 1 und M 2 verglichen, so bezeichnet man den Quotienten B 12 = P(y M 1 )/P(y M 2 ) als Bayes-Faktor von Modell M 1 im Vergleich zu M 2. Die Posteriori-Chance von Modell M 1 ist gegeben als P(M 1 y) P(M 2 y) = P(y M 1) P(M 1 ) P(y M 2 ) P(M 2 ) d.h. Posteriori-Chance = Bayes-Faktor Priori-Chance Helga Wagner Bayes Statistik WS 2010/11 165
6 Der Bayes-Faktor Der Bayes-Faktor B 12 ist damit also Quotient aus Posteriori-Chance und Priori- Chance von M 1. Wenn die Daten die Wahrscheinlichkeit von M 1 erhöht haben, ist B 12 > 1 verringert haben, ist B 12 < 1 Numerisch ist es oft günstiger den Logartihmus der marginalen Likelihood zu berechnen. Der logarithmierte Bayes-Faktor ist logb 12 = log(p(m 1 y)) log(p(m 2 y)) Helga Wagner Bayes Statistik WS 2010/11 166
7 Bewertung des Bayes-Faktors Zur Bewertung des Bayes-Faktors bzw. logb 12 gelten folgende Faustregeln: Bayes-Faktor logb 12 Evidenz für M 1 gegenüber M 2 1 bis 3 0 bis 1.1 kaum der Rede wert 3 bis bis 3 positiv 20 bis bis 5 stark ab 150 ab 5 sehr stark Helga Wagner Bayes Statistik WS 2010/11 167
8 Die marginale Likelihood für i.i.d. Daten aus der Poisson-Verteilung Modell M 1 : y i.i.d. P (µ) Die marginale Likelihood von M 1 ist p(y M 1 ) = Θ Θ p(y,µ M 1 )dµ p(y µ,m 1 )p(µ M 1 )dµ. Unter der konjugierten G(a 0,b 0 )-Priori-Verteilung für µ kann dieses Integral analytisch gelöst werden und man erhält p(y M 1 ) = b a 0 0 Γ(a n) b a n n Γ(a 0 ) n i=1 Γ(y i+1). Helga Wagner Bayes Statistik WS 2010/11 168
9 Die marginale Likelihood für i.i.d. Daten aus der Poisson-Verteilung Die marginale Likelihood ist identisch mit der Normierungskonstanten der nichtnormierten Posteriori-Dichte p(µ y) p(y µ)p(µ). Wenn die Werte der Posteriori-Dichte bekannt sind, kann die marginale Likelihood folgendermaßen berechnet werden Candidate s formula (?) p(y M 1 ) = p(y µ,m 1)p(µ M 1 ) p(µ y,m 1 ) (19) Helga Wagner Bayes Statistik WS 2010/11 169
10 Die marginale Likelihood für i.i.d. Daten aus der Poisson-Verteilung Formel (19) gilt für jeden beliebigen Wert von µ, da sich alle Faktoren die von µ abhängen, kürzen Auch Formel (19) macht deutlich, dass die Berechnung der marginalen Likelihood eine eigentliche Priori-Verteilung voraussetzt. Die logarithmierte marginale Likelihood ist log(p(y M 1 )) = log(p(y µ,m 1 ))+log(p(µ M 1 )) log(p(µ y,m 1 )) Helga Wagner Bayes Statistik WS 2010/11 170
11 Die marginale Likelihood für i.i.d. Daten aus der Poisson-Verteilung Unter der G(a 0,b 0 )-Priori, ist p(µ y,m 1 ) die Dichte der G(a n,b n )-Posteriori- Verteilung und es gilt p(y M 1 ) = exp( nµ)µ y i n i=1 Γ(y i+1) ba 0 0 µa 0 1 exp( b 0 µ) Γ(a 0 ) = b a 0 0 Γ(a n) b a n n Γ(a 0 ) n i=1 Γ(y i+1) Γ(a n ) b a n n µ a n 1 exp( b n µ) = Helga Wagner Bayes Statistik WS 2010/11 171
12 Die marginale Likelihood für i.i.d. Daten aus der Poisson-Verteilung Tabelle 3: Verkehrssicherheitsdaten Kinder 6-10: Modell M 1 Logarithmus der marginalen Likelihood p(y M 1 ) für verschiedene G(b 0 m 0,m 0 )- Priori-Verteilungen logp(y M 1 ) m 0 = 1 m 0 = y m 0 = 5 m 0 = 7 m 0 = 10 b 0 = b 0 = b 0 = b 0 = b 0 = Die marginale Likelihood hängt stark von den Parametern der Priori-Verteilung ab! Helga Wagner Bayes Statistik WS 2010/11 172
13 Die marginale Likelihood für i.i.d. Daten aus der Poisson-Verteilung 5 x b 0 = x b 0 = b =0.1 0 b =0.5 0 b =1 0 b = b 0 =0.1 b 0 =0.5 b 0 =1 b 0 = µ µ µ 3 Abbildung 19: Verkehrssicherheitsdaten Links: Likelihood, Mitte: verschiedene G(b 0 m 0,b 0 )-Priori-Verteilungen mit m 0 = 1; Rechts: Produkt aus Likelihood und Priori Der Wert des Parameters a 0 bestimmt die Form der Priori-Verteilung: Für a 0 < 1 hat der Modus der Priori-Verteilung den Wert 0. Helga Wagner Bayes Statistik WS 2010/11 173
14 Die marginale Likelihood für i.i.d. Daten aus der Poisson-Verteilung Tabelle 4: Verkehrssicherheitsdaten Kinder 6-10: Modell M 1 Logarithmus der marginalen Likelihood p(y M 1 ) für verschiedene G(a 0,a 0 /m 0 ) Priori-Verteilungen logp(y M 1 ) m 0 = 1 m 0 = y m 0 = 5 m 0 = 7 m 0 = 10 a 0 = a 0 = a 0 = a 0 = a 0 = Für a 0 1 ist der Modus der Priori-Verteilung a 0 1 b 0. Helga Wagner Bayes Statistik WS 2010/11 174
15 Die marginale Likelihood bei Berücksichtigung der Exponierten Modell M 2 : y i.i.d. P (λe i ) Die marginale Likelihood für Modell M 2 ist gegeben als: p(y M 2 ) = p(y λ,m 2)p(λ M 2 ) p(λ y,m 2 ) = (be 0) ae 0 Γ(a e n ) (b e N )ae nγ(a e 0 ) n i=1 = e y i i Γ(y i +1). Helga Wagner Bayes Statistik WS 2010/11 175
16 Die marginale Likelihood bei Berücksichtigung der Exponierten Tabelle 5: Verkehrssicherheitsdaten Kinder 6-10: Modell M 2 Logarithmus der marginalen Likelihood p(y M 2 ) für verschiedene G(a e 0,a e 0/m e 0)- Priori-Verteilungen logp(y M 2 ) m e 0 = m e 0 = ˆλ m e 0 = m 0 = m e 0 = a e 0 = a e 0 = a e 0 = a e 0 = a e 0 = Helga Wagner Bayes Statistik WS 2010/11 176
17 Modellvergleich für Verkehrssicherheitsdaten Kinder 6-10 Annahme : P(M 1 ) = P(M 2 ) = 1/2 Tabelle 6: Verkehrssicherheitsdaten Kinder 6-10: Vergleich von Modell M 1 ( und M 2 ) basierend auf den Priori-Verteilungen µ G(a 0,a 0 /y) und λ G a 0,a 0 /ˆλ a log(b 12 ) P(M 1 y) = leichte Evidenz für ein Modell ohne Berücksichtigung der Exponierten Helga Wagner Bayes Statistik WS 2010/11 177
18 Die marginale Likelihood bei Strukturbruch Modell M 3 : y i P (µ i ) mit µ i = { µ 1, i < i 0, µ 2, i i 0. Die marginal Likelihood für Model M 3 ist : p(y M 3 ) = p(y µ 1,µ 2,M 3 )p(µ 1,µ 2 M 3 )d(µ 1,µ 2 ), Mit der Candidate s Formel erhält man Θ p(y M 3 ) = p(y µ 1,µ 2,M 3 )p(µ 1,µ 2 M 3 ) p(µ 1,µ 2 y,m 3 ) = b a 0,1 0,1 ba 0,2 0,2 Γ(a n,1)γ(a n,2 ) b a n,1 n,1 ba n,2 n,2 Γ(a 0,1)Γ(a 0,2 ) n i=1 Γ(y i+1). Helga Wagner Bayes Statistik WS 2010/11 178
19 Die marginale Likelihood bei Strukturbruch Tabelle 7: Verkehrssicherheitsdaten Kinder 6-10: Modell M 3 (Strukturbruch Oktober 1994). Logarithmus der marginalen Likelihood p(y M 3 ) für verschiedene G(a 0,a 0 /m 0 )- Priori-Verteilungen logp(y M 3 ) m 0 = 1 m 0 = y m 0 = 5 m 0 = 7 m 0 = 10 a 0 = a 0 = a 0 = a 0 = a 0 = Helga Wagner Bayes Statistik WS 2010/11 179
20 Die marginale Likelihood des hierarchischen Modells Model M 4 : y i P (µ i ) mit µ i G(a 0,b 0 ) Die marginale Likelihood für Modell M 4 ist: p(y M 4 ) = p(y µ 1,...,µ n,m 4 )p(µ 1,...,µ n M 4 )d(µ 1,...,µ n ). Θ Einfache Berechnung mittels Candidate s Formel ergibt p(y M 4 ) = p(y µ 1,...,µ n,m 4 )p(µ 1,...,µ n M 4 ) p(µ 1,...,µ n y) n b a 0 0 = Γ(a 0+y i ) (b 0 +1) a 0+y iγ(a0 )Γ(y i +1). i=1 = Helga Wagner Bayes Statistik WS 2010/11 180
21 Die marginale Likelihood des hierarchischen Modells Tabelle 8: Verkehrssicherheitsdaten Kinder 6-10: Modell M 4 Logarithmus der marginalen Likelihood p(y M 4 ) für verschiedene G(a 0,a 0 /m 0 )-Priori-Verteilungen logp(y M 4 ) m 0 = 1 m 0 = y m 0 = 5 m 0 = 7 m 0 = 10 a 0 = a 0 = a 0 = a 0 = a 0 = Die Parameter der Priori-Verteilung haben einen großen Effekt auf den Wert der marginalen Likelihood. Helga Wagner Bayes Statistik WS 2010/11 181
22 Modellvergleich für Verkehrssicherheitsdaten Kinder 6-10 Annahme : P(M 1 ) = P(M 3 ) = P(M 4 ) = 1/3 Tabelle 9: Verkehrssicherheitsdaten Kinder 6-10: Posteriori-Wahrscheinlichkeiten der Modelle M 1, M 3 und M 4 unter verschiedenen G(a 0,a 0 /y)-priori-verteilungen a P(M 1 y) P(M 3 y) P(M 4 y) Evidenz für das Modell mit Strukturbruch aus der Posteriori-Dichte von µ 2 µ 1 wird durch die Posteriori-Wahrscheinlichkeiten von M 3 bestätigt. P(M 3 = 1 y) ist für leicht informative Priori-Verteilungen nahe bei 1 = Wahl von Modell M 3 (Strukturbruch) Helga Wagner Bayes Statistik WS 2010/11 182
23 Eye Tracking: Homogenität oder unbeobachtete Heterogenität? Homogenität: Modell M 1 unbeobachtete Heterogenität: hierarchisches Modell M 4 Tabelle 10: Eye Tracking, Modell M 1 ; Logarithmus der marginalen Likelihood p(y M 1 ) für verschiedene G(a 0,a 0 /m 0 )-Priori-Verteilungen logp(y M 1 ) m 0 = 1 m 0 = y m 0 = 5 m 0 = 10 m 0 = 20 a 0 = a 0 = a 0 = a 0 = a 0 = Helga Wagner Bayes Statistik WS 2010/11 183
24 Eye Tracking: Homogenität oder unbeobachtete Heterogenität? Tabelle 11: Eye Tracking, Modell M 4 Logarithmus der marginalen Likelihood p(y M 4 ) für verschiedene G(a 0,a 0 /m 0 )-Priori-Verteilungen logp(y M 4 ) m 0 = 1 m 0 = y m 0 = 5 m 0 = 10 m 0 = 20 a 0 = a 0 = a 0 = a 0 = a 0 = Grosser Effekt der Hyperparameter auf die marginale Likelihood! Vergleich verschiedener Priori-Verteilungen (=Heterogenitätsverteilungen): = G(0.5, 0.5/y)- Verteilung ergibt die höchste marginale Likelihood G(0.5,0.5/y) hat Erwartungswert y = 3.52 und Varianz Helga Wagner Bayes Statistik WS 2010/11 184
25 Eye Tracking: Homogenität oder unbeobachtete Heterogenität? Bei gleichen a-priori-wahrscheinlichkeiten der Modelle M 1 und M 4, ist die Posteriori-Wahrscheinlichkeit von M 1 gegeben als P(M 1 y) = p(y M 1 ) p(y M 1 )+p(y M 4 ), (20) P(M 1 y) = 0 für alle Hyperparameter = Ablehnung des einfachen Modells M 1 und Wahl des flexibleren Modells M 4 Helga Wagner Bayes Statistik WS 2010/11 185
26 Die Marginale Likelihood für Modelle für Binärdaten Modell M 1 (Ziehen mit Zurücklegen aus einer homogenen Population): y 1,...,y n i.i.d. with P(Y i = 1 ϑ) = ϑ Die marginale Likelihood für Modell M 1 ist: p(y M 1 ) = p(y,ϑ M 1 )dϑ = p(y ϑ,m 1 )p(ϑ M 1 )dϑ. Θ Unter der konjugierten B(a 0,b 0 )-Priori-Verteilung kann dieses Integral analytisch gelöst werden. Einfacher ist die Berechnung mit der Candidate s Formel: Θ p(y M 1 ) = p(y ϑ,m 1)p(ϑ M 1 ) p(ϑ y,m 1 ) = B(a n,b n ) B(a 0,b 0 ). (21) Die marginale Likelihood ist nur dann definiert, wenn sowohl a 0 und b 0 positiv sind. Helga Wagner Bayes Statistik WS 2010/11 186
27 Die marginale Likelihood bei beobachteter Heterogenität Modell M 2 : Ziehen mit Zurücklegen aus einer heterogen Population P(Y i = 1 ϑ,z i ) = (1 z i )ϑ 1 +z i ϑ 2 Die marginale Likelihood für Model M 2 ist: p(y M 2 ) = Θ p(y,ϑ M 2 )dϑ = Θ p(y ϑ,m 2 )p(ϑ M 2 )dϑ. Das Integral kann unter den konjugierten Priori-Verteilungen B(a 0,1,b 0,1 ) und B(a 0,2,b 0,2 ) analytisch bestimmt werden. Einsetzen in die Candidate s Formel ergibt: p(y M 2 ) = p(y ϑ 1,ϑ 2,M 2 )p(ϑ 1,ϑ 2 M 2 ) p(ϑ 1,ϑ 2 y,m 2 ) = B(a n,1,b n,1 )B(a n,2,b n,2 ) B(a 0,1,b 0,1 )B(a 0,2,b 0,2 ). Helga Wagner Bayes Statistik WS 2010/11 187
28 Test auf Heterogenität Tabelle 12: Arbeitsmarktdaten: Vergleich von der Modelle M 1 und M 2 (Risiko für Erwerbslosigkeit abhängig vom Arbeitsverhältnis) prior logp(y M 1 ) logp(y M 2 ) P(M 1 y) P(M 2 y) a 0,1 = a 0,2 = 1,b 0,1 = b 0,2 = a 0,1 = a 0,2 = 0.5,b 0,1 = b 0,2 = n 0 = 2, m 0 = h n (Y = 1) n 0 = 10, m 0 = h n (Y = 1) Marginale Likelihoods und Posteriori-Wahrscheinlichkeiten sprechen für das unrestringierte Modell M 2 Das entspricht dem Ergebnis aus der Posteriori Verteilung p(ϑ 1 ϑ 2 y), die von 0 nach rechts verschoben ist. Helga Wagner Bayes Statistik WS 2010/11 188
29 Krebssterblichkeitsdaten Tabelle 13: Vergleich von der Modelle M 1 und M 2 (Abhängigkeit des Krebsrisikos von der Stadt) prior logp(y M 1 ) logp(y M 2 ) P(M 1 y) P(M 2 y) a 0,1 = a 0,2 = 1,b 0,1 = b 0,2 = a 0,1 = a 0,2 = 0.5,b 0,1 = b 0,2 = n 0 = 2, m 0 = h n (Y = 1) n 0 = 10, m 0 = h n (Y = 1) Marginale Likelihoods und Posteriori-Wahrscheinlichkeiten sprechen für das restringierte Modell M 1. Übereinstimmung mit explorativer Analyse der Posteriori- Verteilung von p(ϑ 1 ϑ 2 y) (die nicht von Null wegverschoben ist) = hohe Evidenz für die Null-Hypothese (keine Evidenz für Nullhypothese bei Signifikanztests!) Helga Wagner Bayes Statistik WS 2010/11 189
30 Modellwahl für normalverteilte Daten Model M 1 : y i.i.d. N ( µ,σ 2), µ bekannt Die marginale Likelihood von Modell M 1 ist: p(y M 1 ) = = p(y σ2,µ)p(σ 2 ) p(σ 2 y,µ) R + p(y σ 2 )p(σ 2 )dσ 2 = Γ(s n)s s 0 0 Γ(s 0 )S s n n (2π) n, 2 Helga Wagner Bayes Statistik WS 2010/11 190
31 Die marginale Likelihood wenn µ und σ 2 unbekannt sind Modell M 2 : y i.i.d. N ( µ,σ 2), µ und σ 2 unbekannt Die marginale Likelihood von Modell M 2 ist gegeben als: p(y M 2 ) = p(y,µ,σ 2 M 2 )d(µ,σ 2 ) = Θ Θ p(y µ,σ 2,M 2 )p(µ,σ 2 M 2 )d(µ,σ 2 ). (22) Unter der konjugierten Normal-Invers-Gamma-Priori ist dieses Integral analytisch lösbar. Aus der Candidate s Formel erhält man p(y M 2 ) = p(y σ2,µ)p(µ σ 2 )p(σ 2 ) p(µ σ 2,y)p(σ 2 y,µ) = Γ(s n)s s 0 0 (M n) 2 1. Γ(s 0 )S s n n (M 0 ) 1 2(2π) n 2 Helga Wagner Bayes Statistik WS 2010/11 191
32 SFr Wechselkurs-Daten Die marginale Posterior p(µ y) in Abbildung 17 deutet auf µ = 0 hin. Test auf µ = 0: Vergleich von Modell M 1 (σ 2 unbekannt, µ = 0) und M 2 (µ und σ 2 unbekannt) Wahl derselben Priori-Verteilung für σ 2 mit S 0 = 1 und s 0 = 1. Priori-Verteilung von µ in Modell M 2 zentriert um 0, d.h. m 0 = 0. Damit hat der Priori-Parameter n 0 = M 1 0 den höchsten Einfluß. Helga Wagner Bayes Statistik WS 2010/11 192
33 SFr Wechselkurs-Daten logp(y M 1 ) = Für einen großen Bereich von Werten für n 0 ist logp(y M 2 ) zwischen (für n 0 = 10 5 ) und ( für n 0 = 100.) log(b 12 ) >> 150 = sehr starke Evidenz für das reduzierte Modell mit µ = 0 Helga Wagner Bayes Statistik WS 2010/11 193
Numerische Methoden der Bayes-Inferenz. Helga Wagner Bayes Statistik WS 2010/11 338
Numerische Methoden der Bayes-Inferenz Helga Wagner Bayes Statistik WS 2010/11 338 Nichtkonjugierte Analyse Bei bekannter Likelihood und Priori-Verteilung kann die nichtnormierte Dichte der Posteriori-Verteilung
MehrBayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194
Bayes Prognose Helga Wagner Bayes Statistik WS 2010/11 194 Prognose einer weiteren Beobachtung Verkehrssicherheitsdaten Senioren: Wieviele Senioren werden in Linz im kommenden Monat getötet oder schwerverletzt?
MehrKonjugierte Analyse einfacher Modelle Poisson-Modelle. Helga Wagner Bayes Statistik WS 2010/11 31
Konjugierte Analyse einfacher Modelle Poisson-Modelle Helga Wagner Bayes Statistik WS 2010/11 31 Example: Verkehrssicherheitsdaten 6 Time Series Plot 15 Time Series Plot 5 4 10 3 2 5 1 0 0 20 40 60 80
Mehr3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)
3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f
MehrBayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301
Bayes Inferenz Schätzen und Testen von Hypothesen Helga Wagner Bayes Statistik WS 2010/11 301 Bayes Punktschätzung Entscheidungstheoretischer Ansatz: Wahl des Punktschätzers ist eine Aktion, die möglicherweise
MehrFormelsammlung zur Vorlesung: Einführung in die Bayes-Statistik
1 Verteilungen Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik 1.1 Diskrete Verteilungen Helga Wagner und Gero Walter Binomialverteilung: Y BiNom (n, π) Parameter: n > 0, π [0, 1] Wahrscheinlichkeitsfunktion:
Mehr3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.19 (allgemeines Theorem von Bayes)
3.4 Bayes-Verfahren 202 3.4.1 Begrifflicher Hintergrund Satz 3.19 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f
MehrEinführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1
Einführung in die Bayes-Statistik Helga Wagner Ludwig-Maximilians-Universität München WS 2010/11 Helga Wagner Bayes Statistik WS 2010/11 1 Organisatorisches Termine: Montag: 16.00-18.00 AU115 Dienstag:
Mehr4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion
4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrFrequentisten und Bayesianer. Volker Tresp
Frequentisten und Bayesianer Volker Tresp 1 Frequentisten 2 Die W-Verteilung eines Datenmusters Nehmen wir an, dass die wahre Abhängigkeit linear ist, wir jedoch nur verrauschte Daten zur Verfügung haben
MehrBayesianische FDR (Teil 1)
Bayesianische FDR (Teil 1) Mareile Große Ruse Seminar Multiples Testen 08.11.2010 Übersicht Übersicht Übersicht Alternative: Übersicht Alternative: Übersicht Alternative: Bedingte Wahrscheinlichkeit (Ω,
MehrBayes Inferenz. Helga Wagner Bayes Statistik WS 2010/11 245
Bayes Inferenz Helga Wagner Bayes Statistik WS 2010/11 245 Statistische Inferenz Beobachtungen: Daten y = (y 1,...,y n ) Y Annahme: Daten werden von einem (stochastischen) Modell spezifiziert durch einen
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,
MehrStatistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 22 Übersicht Weitere Hypothesentests in der Statistik 1-Stichproben-Mittelwert-Tests 1-Stichproben-Varianz-Tests 2-Stichproben-Tests Kolmogorov-Smirnov-Test
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrWahrscheinlichkeit und Statistik BSc D-INFK
Prof. Dr. M. Schweizer ETH Zürich Sommer 4 Wahrscheinlichkeit und Statistik BSc D-INFK. a (iii b (ii c (iii d (i e (ii f (i g (iii h (iii i (i j (ii. a Die Anzahl der bestellten Weine in einem Monat kann
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Mehr7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.
7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrStochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)
Prof. Dr. P. Embrechts ETH Zürich Sommer 204 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Vereinfachen
MehrAufgaben. d) Seien X und Y Poissonverteilt mit Parameter µ, X, Y P(µ). 2. Dann ist die Summe auch Poissonverteilt mit (X + Y ) P(2µ).
Aufgaben 1. Bei den folgenden 10 Fragen ist jeweils genau eine Antwort richtig. Es gibt pro richtig beantwortete Frage 1 Punkt und pro falsche Antwort 1/2 Punkt Abzug. Minimal erhält man für die gesamte
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrMusterlösung zu Serie 8
Dr. Markus Kalisch Statistik I für Biol./Pharm. Wiss./HST) FS 15 Musterlösung zu Serie 8 1. a) Damit fx) eine Dichte ist, muss die Fläche des Dreiecks gleich 1 sein. Es muss also gelten c = 1. Daraus folgt
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation
MehrVERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN
KAPITEL 15 VETEILUNGEN VON FUNKTIONEN EINE ZUFALLSVAIABLEN In diesem Kapitel geht es darum, die Verteilungen für gewisse Funktionen von Zufallsvariablen zu bestimmen. Wir werden uns auf den Fall absolut
MehrZulassungsprüfung Stochastik,
Zulassungsprüfung Stochastik, 5.5. Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß auf
MehrDas Bayes'sche Prinzip
Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
MehrVarianzkomponentenschätzung
Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler
MehrMusterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60
WESTFÄLISCHE WILHELMS - UNIVERSITÄT MÜNSTER Wirtschaftswissenschaftliche Faktultät Prof. Dr. Bernd Wilfling Professur für VWL, insbesondere Empirische Wirtschaftsforschung Musterlösung zur Klausur im Fach
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrFit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
MehrStatistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur
Mehrf(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212
1.6.2 Poisson Verteilung Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte,
MehrNachklausur Mathematik für Biologen WS 08/09
Aufgabe 1: (5 Punkte) In einer diploiden Population beobachten wir die Ausprägung eines bestimmten Gens, das zwei Allele V und W annimmt. Somit besitzt jedes Individuum V V, V W oder W W als Genotyp. Die
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
MehrWahrscheinlichkeitsrechnung und Statistik
10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten
Mehr2 Klassische statistische Verfahren unter Normalverteilungs-Annahme
7 Klassische statistische Verfahren unter Normalverteilungs-Annahme. χ s, t s, F r,s -Verteilung a) N,..., N s uiv N (0, ) Verteilung von Y := N +... + N s heißt Chi-Quadrat-Verteilung mit s Freiheitsgraden
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrHow To Find Out If A Ball Is In An Urn
Prof. Dr. P. Embrechts ETH Zürich Sommer 2012 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Aufgabe
MehrÜbungsscheinklausur,
Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...
MehrZulassungsprüfung Stochastik,
Zulassungsprüfung Stochastik,..3 Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf n wird mit B n bezeichnet, das Lebesgue Maß auf n wird
MehrStatistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de
rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent
MehrDr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung
Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer 014 Musterlösung 1. 8 Punkte) a) 1 Pt)Für das Komplement gilt PR A) = 1 PR c A) = 0.968. b) 1 Pt)Nach Definition der bedingten Wahrscheinlichkeit
MehrWahrscheinlichkeit und Statistik BSc D-INFK
Prof. Dr. P. Embrechts ETH Zürich Sommer 2015 Wahrscheinlichkeit und Statistik BSc D-INFK Name: Vorname: Stud. Nr.: Das Folgende bitte nicht ausfüllen! Aufg. Summe Kontr. Pkte.-Max. 1 10 2 10 3 10 4 10
MehrWahrscheinlichkeitsrechnung und Statistik. 11. Vorlesung /2019
Wahrscheinlichkeitsrechnung und Statistik 11. Vorlesung - 2018/2019 Quantil der Ordnung α für die Verteilung des beobachteten Merkmals X ist der Wert z α R für welchen gilt z 1 2 heißt Median. P(X < z
MehrModelle für Daten mit kontinuierlichen Wertebereich Verteilungen mit (Wahrscheinlichkeits-)Dichte. Normalverteilung N (µ, σ 2 ) mit Dichte
Statistik II für Wirtschaftswissenschaftler Folie 6.1 Modelle für Daten mit kontinuierlichen Wertebereich Verteilungen mit (Wahrscheinlichkeits-)Dichte I) Werte in (, ), Parameter µ (, ), σ 2 > 0 Normalverteilung
MehrStochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)
Prof. Dr. P. Embrechts ETH Zürich Winter 2012 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Aufgabe
MehrKlassifikation von Signifikanztests
Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrEinführung in die Induktive Statistik: Testen von Hypothesen
Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 1. Dezember 21 1 Integralrechnung Flächeninhalt Stammfunktion Rechenregeln 2 Dichten von Erwartungswert und Varianz
MehrBZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management
für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrVorlesung Gesamtbanksteuerung Mathematische Grundlagen II Dr. Klaus Lukas Carsten Neundorf. Vorlesung 04 Mathematische Grundlagen II,
Vorlesung Gesamtbanksteuerung Mathematische Grundlagen II Dr. Klaus Lukas Carsten Neundorf 1 Was sollen Sie heute lernen? 2 Agenda Wiederholung stetige Renditen deskriptive Statistik Verteilungsparameter
MehrStatistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
Mehr0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1
Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x
MehrMethoden der statistischen Inferenz
Leonhard Held Methoden der statistischen Inferenz Likelihood und Bayes Unter Mitwirkung von Daniel Sabanes Bove Spektrum KJL AKADEMISCHER VERLAG Vorwort vii 1 Einführung 1 1.1 Statistische Inferenz 1 1.2
MehrNachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!!
Nachholklausur zur Vorlesung Schätzen und Testen I 04. April 2013 Volker Schmid, Ludwig Bothmann, Julia Sommer Aufgabe 1 2 3 4 5 6 Punkte Note Bitte ausfüllen und unterschreiben!!! Name, Vorname: Matrikelnummer:
MehrStatistik: Klassisch oder Bayes
Wolfgang Tschirk Statistik: Klassisch oder Bayes Zwei Wege im Vergleich 4Q Springer Spektrum Inhaltsverzeichnis 1 Einleitung 1 1.1 Beschreibende und schließende Statistik 1 1.2 Schließende Statistik: Klassik
MehrSchätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC. Referenten: Linda Gräfe & Konstantin Falk
Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC Referenten: Linda Gräfe & Konstantin Falk 1 Agenda Schätzverfahren ML REML Beispiel in SPSS Modellbeurteilung Devianz AIC BIC
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
Mehr5 Binomial- und Poissonverteilung
45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1
MehrFortgeschrittene Ökonometrie: Maximum Likelihood
Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,
MehrWahrscheinlichkeit und Statistik BSc D-INFK
Prof. Dr. P. Bühlmann ETH Zürich Sommer 2010 Wahrscheinlichkeit und Statistik BSc D-INFK 1. (10 Punkte) Bei den folgenden 10 Fragen ist jeweils genau eine Antwort richtig. Es gibt pro richtig beantwortete
MehrEinleitung Wahl der a priori Verteilung Bezug zur Maximum Likelihood Methode. Bayessche Statistik. Christian Meisel
19.07.2007 Gliederung 1 2 3 Wahrscheinlichkeitsbegriff In Bayesscher Statistik wird Wahrscheinlichkeit p im Sinne von unvollständigem Wissen über ein Ereignis verwendet. Bei gleichem Vorwissen über unterschiedliche
MehrTheorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte
Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann Probe-Klausur zur Vorlesung Ökonometrie Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte (die eigentliche Klausur wird
Mehr(Reine) Bayes-Punktschätzung
233 3.4.3 (Reine) Bayes-Punktschätzung Def. 3.33 (MPD-Schätzung) Gegeben eine Beobachtung x und die posteriori Verteilung mit Dichte bzw. Wahrscheinlichkeitsfunktion π(ϑ x) heißt ϑ mit π(ˆϑ x) = max ϑ
MehrBAYES SCHE STATISTIK
BAES SCHE STATISTIK FELIX RUBIN EINFÜHRUNG IN DIE STATISTIK, A.D. BARBOUR, HS 2007 1. Einführung Die Bayes sche Statistik gibt eine weitere Methode, um einen unbekannten Parameter θ zu schätzen. Bisher
MehrWahrscheinlichkeitsrechnung und Statistik
10. Vorlesung - 017 Quantil der Ordnung α für die Verteilung des beobachteten Merkmals X ist der Wert z α R für welchen gilt z 1 heißt Median. P(X < z α ) α P(X z α ). Falls X stetige zufällige Variable
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrStatistische Tests (Signifikanztests)
Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)
Mehr3.3 Methoden zur Evaluierung von Schätzern
3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,
MehrMathematische und statistische Methoden II
Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike
MehrAllgemeines zu Tests. Statistische Hypothesentests
Statistische Hypothesentests Allgemeines zu Tests Allgemeines Tests in normalverteilten Grundgesamtheiten Asymptotische Tests Statistischer Test: Verfahren Entscheidungsregel), mit dem auf Basis einer
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
MehrStatistik für NichtStatistiker
Statistik für NichtStatistiker Zufall und Wahrscheinlichkeit von Prof. Dr. Karl Bosch 5., verbesserte Auflage R. Oldenbourg Verlag München Wien Inhaltsverzeichnis 1. ZufalLsexperimente und zufällige Ereignisse
MehrChi-Quadrat-Verteilung
Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist
MehrKlausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1
Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge
MehrBayessche Lineare Regression
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Baessche Lineare Regression Niels Landwehr Überblick Baessche Lernproblemstellung. Einführendes Beispiel: Münzwurfexperimente.
MehrBayessche Statistik-Denken in Wahrscheinlichkeit
Bayessche Statistik-Denken in Wahrscheinlichkeit Habe ich Aids? Test fällt bei 98% der Aids kranken positiv aus. P(positiv Aids)=0.98 Test fällt bei 97% der gesunden negativ aus. P(negativ kein Aids)=0.97
MehrÜberblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression
Überblic Grundonepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münwürfe Lineare Regression Logistische Regression Bayes sche Vorhersage Münwürfe Lineare Regression 14 Modell für Münwürfe
MehrEinführung in Quantitative Methoden
Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung
MehrKlassifikation von Signifikanztests
Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen
MehrKlausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min
Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
Mehr3) Testvariable: T = X µ 0
Beispiel 4.9: In einem Molkereibetrieb werden Joghurtbecher abgefüllt. Der Sollwert für die Füllmenge dieser Joghurtbecher beträgt 50 g. Aus der laufenden Produktion wurde eine Stichprobe von 5 Joghurtbechern
MehrModul 141 Statistik. 1. Studienjahr 11. Sitzung Signifikanztests
Modul 141 Statistik 1. Studienjahr 11. Sitzung Signifikanztests Inhalt der 11. Sitzung 1. Parametrische Signifikanztests 2. Formulierung der Hypothesen 3. Einseitige oder zweiseitige Fragestellung 4. Signifikanzniveau
MehrSchätzen und Testen I in 90 Minuten. 8. Februar 2010
Schätzen und Testen I in 90 Minuten 8. Februar 2010 1. Einführung in statistische Modelle und Inferenzkonzepte 2. Klassische Schätz- und Testtheorie 3. Likelihood-Inferenz 4. Bayes-Inferenz 5. Einführung
MehrKonfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt
Konfidenzintervalle Annahme: X 1,..., X n iid F θ. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt P θ (U θ O) = 1 α, α (0, 1). Das Intervall [U, O] ist ein Konfidenzintervall
Mehr