Bayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301
|
|
- Mona Dressler
- vor 6 Jahren
- Abrufe
Transkript
1 Bayes Inferenz Schätzen und Testen von Hypothesen Helga Wagner Bayes Statistik WS 2010/11 301
2 Bayes Punktschätzung Entscheidungstheoretischer Ansatz: Wahl des Punktschätzers ist eine Aktion, die möglicherweise mit einem Verlust verbunden ist Eine Verlustfunktion l(a, ϑ) quantifiziert den Verlust, der entsteht, wenn ϑ durch a geschätzt wird. Üblicherweise ist der Verlust 0, wenn a = ϑ, d.h. und l(a,ϑ) ist monoton wachsend in ϑ. l(a,a) = 0. Für gegebene Daten y sind ϑ und damit auch l(a, ϑ) Zufallsvariable. Helga Wagner Bayes Statistik WS 2010/11 302
3 Bayes Punktschätzung Der erwartete Verlust bezüglich der Posteriori-Verteilung ist E(l(a, ϑ) y) = l(a, ϑ)p(ϑ y) dϑ. Eine Aktion a, die den posteriori erwarteten Verlust minimiert, heisst Bayes- Aktion. Ein Bayes-Schätzer ˆϑ(y) von ϑ minimiert den erwarteten Verlust E(l(ˆϑ(y),ϑ) y). Helga Wagner Bayes Statistik WS 2010/11 303
4 Exkurs: Grundbegriffe der statistischen Entscheidungstheorie Daten y: statistisches Modell mit Stichprobenverteilung p(y ϑ) und ϑ Θ Menge von Aktionen A Verlustfunktion l(a, ϑ) l : A Θ R (a, ϑ) l(a, ϑ) Entscheidungsregel d(y), die den Stichprobenraum Y auf die Menge der Aktionen A abbildet d : Y A y d(y) Helga Wagner Bayes Statistik WS 2010/11 304
5 Exkurs: Grundbegriffe der statistischen Entscheidungstheorie Die Eigenschaften der Entscheidungsregel werden charakterisiert durch die Risikofunktion R(d,ϑ) = l(d(y), ϑ)p(y ϑ)dy Da die Risikofunktion als Erwartungswert über den Stichprobenraum definiert ist, wird sie auch frequentistisches Risiko genannt. Mit einer apriori-verteilung π(ϑ) auf dem Parameterraum Θ ist das Bayes-Risiko r(d,π) = R(d, ϑ)π(ϑ)dϑ Eine Entscheidungsregel, die das Bayes-Risiko minimiert, heisst Bayes-Regel, d.h. d π = arg inf d D r(d,π) Die (frequentistische) Bayes-Regel bedingt auf Daten y ist die Bayes-Aktion. Helga Wagner Bayes Statistik WS 2010/11 305
6 Exkurs: Grundbegriffe der statistischen Entscheidungstheorie Einen Schätzer, der das Bayes-Risiko r(d, π) minimiert, erhält man wegen r(d,π) = Y Θ l(d(y), ϑ y)π(ϑ y)dϑ p(y)dy = Y r(d, π y)p(y)dy, wenn für jedes y Y, d(y) so gewählt wird, dass r(d,π y) minimiert wird. Reguläre Bayes-Schätzer sind zulässig, d.h. es gibt keinen weiteren Schätzer d (y) mit folgenden Eigenschaften: R(d,ϑ) R(d,ϑ) für alle ϑ Θ und es existiert mindestens ein ϑ Θ mit R(d,ϑ) < R(d,ϑ). Helga Wagner Bayes Statistik WS 2010/11 306
7 Quadratische Verlustfunktion Für die quadratische Verlustfunktion l(ˆϑ(y),ϑ) = (ˆϑ(y) ϑ) (ˆϑ(y) ϑ), ist der optimale Schätzer ˆϑ(y) ist der Posteriori Erwartungswert µ = E(ϑ y). Helga Wagner Bayes Statistik WS 2010/11 307
8 Quadratische Verlustfunktion Beweis: Es ist l(a,ϑ) = (a µ ϑ+µ) (a µ ϑ+µ) = = (a µ) (a µ) 2(ϑ µ) (a µ)+(ϑ µ) (ϑ µ), Der Erwartungswert bezüglich der Posteriori-Dichte ist E(l(a,ϑ) y) = (a µ) (a µ)+e((ϑ µ) (ϑ µ) y). Das Minimum wird an der Stelle a = µ angenommen und das minimale Risiko ist gleich der Spur der Varianz-Kovarianz-Matrix tr(var(ϑ y)). Helga Wagner Bayes Statistik WS 2010/11 308
9 Lineare Verlustfunktionen Für die asymmetrische Verlustfunktion des Einparameter-Problems l(ˆϑ(y),ϑ) = { c l (ϑ ˆϑ(y)), ˆϑ(y) < ϑ, c r (ˆϑ(y) ϑ), ˆϑ(y) > ϑ, mit postiven Konstanten c l,c r ist der optimale Schätzer das c l /(c r + c l )- Perzentil der Posteriori-Verteilung. Spezialfall c l = c r = 1: Die Verlustfunktion ist die absolute Abweichung l(ˆϑ(y),ϑ) = ˆϑ(y) ϑ und der optimale Punktschätzer ist der Posteriori-Median. Helga Wagner Bayes Statistik WS 2010/11 309
10 Lineare Verlustfunktionen Beweis: Bezeichne P(ϑ y) die Verteilungsfunktion der Posteriori-Verteilung, dann ist E(l(a, ϑ) y) = a c r (a ϑ)p(ϑ y)dϑ + a c l (ϑ a)p(ϑ y)dϑ = Wegen d dx b(x) a(x) g(x,t)dt = b(x) a(x) dg(x, t) dx dt + g(x,b(x)) db(x) dx g(x,a(x))da(x) dx ergibt Ableiten nach a : d E(l(a, ϑ) y) da a = c r p(ϑ y)dϑ + 0 c l p(ϑ y)dϑ 0 = = c r P(a y) c l (1 P(a y)) = 0. a Helga Wagner Bayes Statistik WS 2010/11 310
11 Die Null-Eins-Verlustfunktion Der optimale Punktschätzer bezüglich der Null-Eins-Verlustfunktion l(ˆϑ(y),ϑ) = { 0, wenn ˆϑ(y) ϑ ε, 1, wenn ˆϑ(y) ϑ > ε ist für eine unimodale Posteriori-Verteilung im Grenzfall ε 0 der Modus ϑ der Posteriori-Verteilung ( maximum aposteriori estimate = MAP). Beweis: a ε a+ε E(l(a, ϑ) y) = p(ϑ y)dϑ + a+ε p(ϑ y)dϑ = 1 a ε p(ϑ y)dϑ Der erwartete Verlust ist minimal, wenn der Wert des Integrals maximal wird. Dies ist für eine unimodale Posteriori-Verteilung und kleines ε eine ε-umgebung um den Modus der Verteilung. Helga Wagner Bayes Statistik WS 2010/11 311
12 Die Null-Eins-Verlustfunktion Unter der flachen Priori-Verteilung ist der MAP gleich dem ML-Schätzer. Wegen logp(ϑ y) = c+logp(y ϑ)+logp(ϑ) maximiert der MAP die pönalisierte Likelihood mit Penalty log p(ϑ). Helga Wagner Bayes Statistik WS 2010/11 312
13 Eigenschaften von Bayes Punktschätzern Bayes Schätzer unter quadratischer Verlustfunktion sind i.a. nicht unverzerrt. Beispiel: Mittelwert der Normalverteilung m n = (1 ω)m 0 +ωȳ Aber: Erwartungstreue bedeutet eine Mittelung über die Stichprobenverteilung Posteriori-Modus und Posteriori-Erwartungswert sind nicht invariant bezüglich streng monotoner Transformation. Helga Wagner Bayes Statistik WS 2010/11 313
14 HPD-Bereiche 100%(1 α)- HPD-Bereiche haben minimale Länge unter allen 100%(1 α)-kredibilitätsbereiche müssen nicht zusammenhängend, d.h. ein Intervall, sein sind nicht invariant bei streng monotonen Transformationen Gleichendige 100%(1 α)-kredibilitätsintervalle sind invariant bezüglich streng monotoner Transformation. Helga Wagner Bayes Statistik WS 2010/11 314
15 Testen von Hypothesen: Entscheidungstheoretischer Ansatz Daten y: statistisches Modell mit Stichprobenverteilung p(y ϑ) und ϑ Θ Hypothesen: H 0 : ϑ Θ 0 und H 1 : ϑ Θ 1 Θ 0 und Θ 1 = Θ c 0 bilden eine Zerlegung des Parameterraumes Θ Inferenz über δ = 1 Θ1 (ϑ) Aktionen A = {0,1} Verlustfunktion: Null-Eins-Verlust l(δ,a) = { 0 a = δ 1 a δ Helga Wagner Bayes Statistik WS 2010/11 315
16 Testen von Hypothesen: Entscheidungstheoretischer Ansatz Posteriori erwarteter Verlust E(l(a,δ)) = a p(ϑ y)dϑ+(1 a) p(ϑ y)dϑ = Θ 0 Θ 1 = ap(ϑ Θ 0 y)+(1 a)p(ϑ Θ 1 y) Minimieren des posteriori erwarteten Verlustes: a = { 1 wenn P(ϑ Θ 1 y) > sonst Es wird also die Hypothese mit der größeren Wahrscheinlichkeit gewählt. Helga Wagner Bayes Statistik WS 2010/11 316
17 Testen von Hypothesen: Entscheidungstheoretischer Ansatz Bei unterschiedlichem Verlust der möglichen Fehler, d.h. der Verlustfunktion 0 a = δ l(a,δ) = c 0 a = 1,δ = 0 c 1 a = 0,δ = 1 ist der posteriori erwartete Verlust E(l(a,δ)) = c 0 ap(ϑ Θ 0 y)+(1 a)c 1 P(ϑ Θ 1 y) Er wird minimiert durch a = { 1 wenn P(ϑ Θ1 y) > c 0 c 0 +c 1 = 1 1+c 1 /c 0 0 sonst Helga Wagner Bayes Statistik WS 2010/11 317
18 Testen von exakten Hypothesen Testen von exakten Hypothesen, z.b.: H 0 : ϑ = ϑ 0 und H 1 : ϑ ϑ 0 ist mit stetigen Priori-Verteilungen nicht möglich = Priori-Verteilung als Mischung eines Dirac Maßes δ ϑ0 (ϑ) auf ϑ 0,und einer stetigen Komponente ξ(ϑ) p(ϑ) = πδ ϑ0 (ϑ)+(1 π)ξ(ϑ) Die Posteriori-Wahrscheinlichkeit für ϑ = ϑ 0 ist P(ϑ = ϑ 0 y) = wobei m 1 (y) = p(y ϑ)ξ(ϑ)dϑ ist. p(y ϑ 0 )π ( p(y ϑ 0 )π +(1 π)m 1 (y) = 1+ 1 π m 1 (y) ) 1 π p(y ϑ 0 ) Helga Wagner Bayes Statistik WS 2010/11 318
19 Testen von exakten Hypothesen Beispiel: Test von H 0 : µ = 0 für N ( µ,σ 2) Priori-Verteilung: p(µ) = πδ 0 +(1 π)ξ(µ), ξ(µ) = f(µ N ( 0,τ 2) ) Es gilt: m 1 (y) = p(y µ)p(µ) p(µ y) = (2πσ 2 ) n/2 ( M n /τ 2 exp 1 ) 2 ( yi/σ 2 2 m 2 n/m n ) mit M n = (n/σ 2 +1/τ 2 ) 1 und m n = M n nȳ/σ 2 Helga Wagner Bayes Statistik WS 2010/11 319
20 Testen von exakten Hypothesen und daher m 1 (y) p(y µ = 0) = ( 1 M n /τ 2 exp 2 (m2 n/m n )) = σ 2 ( σ 2 +nτ 2 exp ȳ 2 n 2 τ 2 ) 2σ 2 (σ 2 +nτ 2 ) Für n = 1 gilt P(µ = 0 y) = ( 1+ 1 π σ 2 ( π σ 2 +τ 2 exp y 2 τ 2 2σ 2 (σ 2 +τ 2 ) )) 1 Helga Wagner Bayes Statistik WS 2010/11 320
21 Testen von exakten Hypothesen Tabelle 16: Einfluß der Priori-Varianz τ 2 : P(µ = 0 y,τ 2 ) für verschiedene Werte von y und τ 2 (π = 0.5, σ 2 = 1) τ 2 0 z 0.75 =0.67 z 0.9 =1.28 z = 1.96 z = y Lindley-Paradoxon: lim P(µ = 0 y,τ 2 ) 1 τ 2 Helga Wagner Bayes Statistik WS 2010/11 321
22 Bayes Inferenz Asymptotik Helga Wagner Bayes Statistik WS 2010/11 322
23 Diskrete Asymptotik Sei ϑ Θ = {ϑ 1,ϑ 2,...,} mit Priori-Verteilung p(ϑ i ) = P(ϑ = ϑ i ) =: p i ϑ t der wahre Parameter. Die Kullbeck-Leibler-Diskrepanz zwischen p(y ϑ t ) und p(y ϑ i ) ist für alle i t. p(y ϑ t )log p(y ϑ t) p(y ϑ i ) dy = E(logp(y ϑ t) p(y ϑ i ) ) > 0 Wenn y = (y 1,...,y n ) eine Stichprobe aus p(y ϑ t ) ist, gilt lim p(ϑ t y) = 1 n lim p(ϑ i y) = 0 für alle i t n Helga Wagner Bayes Statistik WS 2010/11 323
24 Diskrete Asymptotik Beweis: für festes n ist p(ϑ i y) = p(y ϑ i)p i p(y) = n p i j=1 i p n i j=1 = exp(log(p i) + S i ) i exp(log(p i) + S i ) p(y j ϑ i ) p(y j ϑ t ) p(y j ϑ i ) p(y j ϑ t ) = mit S i = k j=1 log p(y j ϑ i ) p(y j ϑ t ). Aus dem Gesetz der grossen Zahlen folgt lim n 1 n S i = p(y ϑ t )log p(y ϑ { t) = 0 für i = t p(y ϑ i ) dy < 0 für i t Helga Wagner Bayes Statistik WS 2010/11 324
25 Diskrete Asymptotik und daher Damit gilt aber lim n S i lim p(ϑ t y) = n { = 0 für j = t für i t. { 1 für i = t 0 für i t Ist ϑ t / Θ dann konvergiert die Posteriori-Verteilung zu jenem ϑ i Θ, das die kleinste Kullback-Leibler-Distanz zum wahren Modell hat. Helga Wagner Bayes Statistik WS 2010/11 325
26 Stetige Asymptotik θ true =0.02 θ true = N=25 N= N=100 N= N=400 N= Abbildung 35: Posteriori-Dichte eines Anteils ϑ bei verschiedenen Stichprobenumfängen unter der flachen Priori-Verteilung (volle Linie) und der B(2, 4)-Priori (strichliert) für zwei verschiedene Werte von ϑ Helga Wagner Bayes Statistik WS 2010/11 326
27 Stetige Asymptotik θ true =0.02 θ true = N= N= Abbildung 36: Posteriori-Dichte eines Anteils ϑ für eine Stichprobe der Größe n = 10 6 unter der flachen Priori-Verteilung für zwei verschiedene Werte von ϑ Helga Wagner Bayes Statistik WS 2010/11 327
28 Stetige Asymptotik Für eine i.i.d. Stichprobe y = (y 1,...,y n ) mit Stichprobenverteilung p(y ϑ) ist die logarithmierte Posteriori-Verteilung logp(ϑ y) = logp(ϑ)+logp(y ϑ) Taylor-Reihenentwicklung um Priori-Modus m 0 bzw. ML-Schätzer ˆϑ: logp(ϑ) logp(m 0 ) 1 2 (ϑ m 0) H 0 (ϑ m 0 ) logp(y ϑ) logp(y ˆϑ) 1 2 (ϑ ˆϑ) H(ˆϑ)(ϑ ˆϑ) wobei H 0 und H(ˆϑ) die jeweilige Hesse-Matrix am Modus bzw. an der Stelle des ML-Schätzers ist: H(ϑ) = 1 ( 2 logp(y ˆϑ) ) 2 ϑ i ϑ j Helga Wagner Bayes Statistik WS 2010/11 328
29 Stetige Asymptotik Bem: H(ˆϑ) ist die beobachtete Fisher-Information Unter Regularitätsbedingungen ist dann asymptotisch p(ϑ y) exp ( 1 2 (ϑ m n) H n (ϑ m n ) ) wobei H n = H 0 +H(ˆϑ) m n = H 1 n (H 0 m 0 +H(ˆϑ)ˆϑ) Für großes n ist also die Posteriori-Verteilung annähernd eine Normalverteilung: ϑ y N ( ) m n,h 1 n Helga Wagner Bayes Statistik WS 2010/11 329
30 Stetige Asymptotik Für großes n ist die (feste) Priori-Präzision klein im Vergleich zur beobachteten Fisher-Information, daher gilt ϑ y N (ˆϑ,H(ˆϑ) 1 ) Der ML-Schätzer kann also als asymptotischer Bayes-Schätzer interpretiert werden! Helga Wagner Bayes Statistik WS 2010/11 330
31 Stetige Asymptotik Weitere Approximationen: Die beobachtete Fisher-Information kann durch die erwartete Fisher- Information ersetzt werden: ϑ y N (ˆϑ,nI(ˆϑ) 1 ) Ersetzen des ML-Schätzers durch den Posteriori Modus ϑ : p(ϑ y) N ( ϑ,(n H(ϑ )) 1). Helga Wagner Bayes Statistik WS 2010/11 331
32 Stetige Asymptotik Bemerkungen: Regularitätsbedingungen: Parameter ϑ true liegt nicht am Rande des Parameterraums - garantiert, dass Informationsmatrix positiv definit ist für kleine Stichproben ist die Priori-Verteilung nicht vernachlässigbar asymptotische Normalverteilung oft erst für sehr große Stichproben Umparameterisierung kann bessere Approximation ergeben Helga Wagner Bayes Statistik WS 2010/11 332
33 Posteriori Dichte eines Anteils Für einen Anteil ϑ ist die Likelihood und damit p(y ϑ) = ϑ y (1 ϑ) 1 y logp(y ϑ) = ylogϑ+(1 y)log(1 ϑ), d 2 logp(y ϑ) dϑ 2 Die erwartete Fisher-Information ist = y ϑ 2 1 y (1 ϑ) 2. I(ϑ) = E y ( d2 logp(y ϑ) ) = E dϑ 2 y ( Y ϑ + 1 Y 2 (1 ϑ) 2) = 1 ϑ(1 ϑ). Helga Wagner Bayes Statistik WS 2010/11 333
34 Posteriori Dichte eines Anteils θ true =0.02 θ true = N=25 1 N= N=100 2 N= N= N= Abbildung 37: Logarithmus der Posteriori-Dichte eines Anteils ϑ (für zwei verschiedene Werte) für verschiedene Stichprobengrößen n bei flacher Prioriverteilung (volle Linie) im Vergleich zur quadrat. Approximation um den Posteriori-Modus (strichliert) Helga Wagner Bayes Statistik WS 2010/11 334
35 Empirische Bayes-Verfahren Empirische Bayes-Verfahren sind eine Kombination von Bayes und Likelihood- Verfahren, die insbesondere für Random Effects Modelle verwendet werden. Beispiel Eye Tracking: Modell P(Y = y µ) = n P(Y i = y i µ i ), Y i P(µ i ). i=1 mit Priori-Verteilung µ i G(a 0,b 0 ) Empirischer Bayes Ansatz: die Parameter der Heterogenitätsverteilung (Priori- Verteilung) werden nicht fixiert, sondern aus den Daten geschätzt. im Gegensatz dazu: vollständige Bayes-Analyse: Hyper-Priori-Verteilung auf Parameter der Priori-Verteilung Helga Wagner Bayes Statistik WS 2010/11 335
36 Beispiel: Eye Tracking Posteriori-Verteilung: y i NegBin(a 0,b 0 ) Schätzer für die Parameter der Priori-Verteilung â 0 und ˆb 0 werden durch numerische Maximierung der Posteriori-Verteilung bestimmt â 0 = und ˆb 0 = Berechnung von E(µ i x i ) = â0+y i ˆb0 +1 Helga Wagner Bayes Statistik WS 2010/11 336
37 Beispiel: Eye Tracking subjektspezifischer Parameter * * * ** ** * ** **** ** **** *** ***** **** *********************** ********************************************** Nr. der Person Abbildung 38: Eye Tracking, ML-Schätzer (Kreis, schwarz) und empirisische Bayes-Schätzer (Stern, blau) für die subjektspezifischen Parameter. Die blaue Linie gibt den ML-Schätzer des Priori-Erwartungswertes â 0 /ˆb 0 an. Helga Wagner Bayes Statistik WS 2010/11 337
Bayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194
Bayes Prognose Helga Wagner Bayes Statistik WS 2010/11 194 Prognose einer weiteren Beobachtung Verkehrssicherheitsdaten Senioren: Wieviele Senioren werden in Linz im kommenden Monat getötet oder schwerverletzt?
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrDas Bayes'sche Prinzip
Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem
MehrPunktschätzer Optimalitätskonzepte
Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrBAYES SCHE STATISTIK
BAES SCHE STATISTIK FELIX RUBIN EINFÜHRUNG IN DIE STATISTIK, A.D. BARBOUR, HS 2007 1. Einführung Die Bayes sche Statistik gibt eine weitere Methode, um einen unbekannten Parameter θ zu schätzen. Bisher
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Mehr3.3 Methoden zur Evaluierung von Schätzern
3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,
Mehr3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
MehrParameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),
Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu
MehrErrata für: Methoden der statistischen Inferenz: Likelihood und Bayes
Errata für: Methoden der statistischen Inferenz: Likelihood und Bayes Leonhard Held 9. Juli 2009 2 Einführung 1. Auf Seite 9, muss es in Abschnitt 1.2.8, Zeile 6-7 richtig heissen: Wir werden nur die
MehrEinführung in die statistische Testtheorie II
1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.
Mehr6. Schätzverfahren für Parameter
6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen
MehrEinführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1
Einführung in die Bayes-Statistik Helga Wagner Ludwig-Maximilians-Universität München WS 2010/11 Helga Wagner Bayes Statistik WS 2010/11 1 Organisatorisches Termine: Montag: 16.00-18.00 AU115 Dienstag:
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
MehrFit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
MehrAnpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood
Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Hauptseminar - Methoden der experimentellen Teilchenphysik WS 2011/2012 Fabian Hoffmann 2. Dezember 2011 Inhaltsverzeichnis 1 Einleitung
Mehr1.3 Wiederholung der Konvergenzkonzepte
1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche
MehrStatistik. Andrej Depperschmidt. Sommersemester 2016
Statistik Andrej Depperschmidt Sommersemester 2016 Schätzen der Varianz mit Stichprobenmittel Sei X = (X 1,..., X n ) eine Stichprobe u.i.v. ZV mit E[X i ] = µ R, Var[X i ] = σ 2 (0, ) und µ 4 = E[(X i
MehrFrequentistische Statistik und Bayessche Statistik. Volker Tresp
Frequentistische Statistik und Bayessche Statistik Volker Tresp 1 Frequentistische Statistik 2 Herangehensweise Die Naturwissenschaft versucht es, der Natur Gesetzmäßigkeiten zu entringen: F = ma Gesetze
MehrBiostatistik, Sommer 2017
1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017
MehrOLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
MehrKapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren
Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander
MehrML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.
Reparametrisierung des Modells Gegeben sei das Modell (2.1) mit (2.5) unter der linearen Restriktion Aβ = c mit A R a p, rg(a) = a, c R a. Wir betrachten die lineare Restriktion als Gleichungssystem. Die
MehrÜberblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator
Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrBeispiel 6 (Einige Aufgaben zur Gleichverteilung)
Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß
MehrStatistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und
Übersicht über die Vorlesung Teil : Deskriptive fru@hephy.oeaw.ac.at VO 42.090 http://tinyurl.com/tu42090 Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 200 Teil 4:
MehrBZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden
MehrWahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom
Institut für Stochastik WS 009/10 Karlsruher Institut für Technologie (KIT) Dr. B. Klar Klausur Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom 08.0.010 Musterlösungen Aufgabe
MehrSchätzung von Parametern
Schätzung von Parametern Schätzung von Parametern Quantitative Wissenschaft: Messung von Parametern Gemessene Werte weichen durch (statistische und systematische) Messfehler vom wahren Wert des Parameters
MehrBayes Inferenz. Helga Wagner Bayes Statistik WS 2010/11 245
Bayes Inferenz Helga Wagner Bayes Statistik WS 2010/11 245 Statistische Inferenz Beobachtungen: Daten y = (y 1,...,y n ) Y Annahme: Daten werden von einem (stochastischen) Modell spezifiziert durch einen
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrBestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler
6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik angesehen werden. Sie wird nach ihrem Entdecker auch Gaußsche Glockenkurve genannt. Die herausragende Stellung
Mehr5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
MehrEinführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen
Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Inhalt Stichproben
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrVERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN
KAPITEL 15 VETEILUNGEN VON FUNKTIONEN EINE ZUFALLSVAIABLEN In diesem Kapitel geht es darum, die Verteilungen für gewisse Funktionen von Zufallsvariablen zu bestimmen. Wir werden uns auf den Fall absolut
MehrModellanpassung und Parameterschätzung. A: Übungsaufgaben
7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit
MehrKlassifikation von Daten Einleitung
Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrGrundgesamtheit und Stichprobe
Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U
MehrÜbungsscheinklausur,
Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...
MehrWillkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Inferenzstatistik in Regressionsmodellen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für
MehrGrundgesamtheit und Stichprobe
Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U
MehrWahrscheinlichkeitsrechnung und Statistik
5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften
MehrWahrscheinlichkeitsverteilungen
Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet
MehrStatistik. Anton Klimovsky. 10. Dezember 2015
Statistik Anton Klimovsky 10. Dezember 2015 Wozu brauchen wir Statistik? Datenflut in allen Wissenschaften. Technologie+Wissenschaft liefern (Un)Mengen von Daten. Die Daten kommen aus Experimenten, Messungen,
MehrWillkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.
MehrErwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood
MehrAufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:
Aufgabe 1 (8=2+2+2+2 Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Die Zufallsvariable X bezeichne die Note. 1443533523253. a) Wie groß ist h(x 5)? Kreuzen
MehrWillkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.
Mehr4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion
4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,
MehrKorollar 116 (Grenzwertsatz von de Moivre)
Ein wichtiger Spezialfall das Zentralen Grenzwertsatzes besteht darin, dass die auftretenden Zufallsgrößen Bernoulli-verteilt sind. Korollar 116 (Grenzwertsatz von de Moivre) X 1,..., X n seien unabhängige
MehrDie Maximum-Likelihood-Methode
Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft
MehrMarkov Chain Monte Carlo Verfahren. Helga Wagner Bayes Statistik WS 2010/11 407
Markov Chain Monte Carlo Verfahren Helga Wagner Bayes Statistik WS 2010/11 407 Einführung Simulationsbasierte Bayes-Inferenz erfordert Ziehungen aus der Posteriori- Verteilung MCMC-Verfahren ermöglichen
MehrSuffizienz und Vollständigkeit
KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
Mehr2.2 Klassische Testtheorie
192 2.2.1 Problemstellung Ziel: Finde Test zum Niveau mit optimaler Güte (Power) für 2 1.Dabeiistn finit. Problemstellung: I Sei der Parameterraum; die Hypothesen seien H 0 : 2 0 vs. H 1 : 2 1, mit 0 \
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
Mehr4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
MehrMusterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60
WESTFÄLISCHE WILHELMS - UNIVERSITÄT MÜNSTER Wirtschaftswissenschaftliche Faktultät Prof. Dr. Bernd Wilfling Professur für VWL, insbesondere Empirische Wirtschaftsforschung Musterlösung zur Klausur im Fach
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
MehrPhilipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler
Philipp Sibbertsen Hartmut Lehne Statistik Einführung für Wirtschafts- und Sozialwissenschaftler 2., überarbeitete Auflage 4^ Springer Gabler Inhaltsverzeichnis Teil I Deskriptive Statistik 1 Einführung
Mehr1 Diskriminanzanalyse
Multivariate Lineare Modelle SS 2008 1 Diskriminanzanalyse 1. Entscheidungstheorie 2. DA für normalverteilte Merkmale 3. DA nach Fisher 1 Problemstellungen Jedes Subjekt kann einer von g Gruppen angehören
MehrKapitel V - Erwartungstreue Schätzfunktionen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel V - Erwartungstreue Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
MehrVorlesung: Lineare Modelle
Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen
Mehr2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau
MehrWahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen
Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei
Mehr1.4 Stichproben aus einer Normalverteilung
1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
MehrWillkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Verteilungen stetiger Zufallsvariablen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften
MehrStatistik. von Peter Pfaffelhuber Version: 26. Juni Einführung 2
Statistik von Peter Pfaffelhuber Version: 26. Juni 2010 Inhaltsverzeichnis 0 Einführung 2 1 Punktschätzer 5 1.1 Unverzerrte und konsistente Schätzer....................... 5 1.2 Risikofunktion...................................
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrEinführung in die statistische Testtheorie
1 Seminar Simulation und Bildanalyse mit Java von Benjamin Burr und Philipp Orth 2 Inhalt 1. Ein erstes Beispiel 2. 3. Die Gütefunktion 4. Gleichmäßig beste Tests (UMP-Tests) 1 Einführendes Beispiel 3
Mehr70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
MehrMaximum-Likelihood Schätzung
Maximum-Likelihood Schätzung VL Forschungsmethoden 1 Wiederholung Einführung: Schätzung 2 Likelihood-Schätzung und Generalisiertes Lineares Modell Zufallsverteilungen 3 Lernziele 1 Grundzüge der Likelihood-Schätzung
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrAuswahl von Schätzfunktionen
Auswahl von Schätzfunktionen Worum geht es in diesem Modul? Überblick zur Punktschätzung Vorüberlegung zur Effizienz Vergleich unserer Schätzer für My unter Normalverteilung Relative Effizienz Einführung
MehrStatistik für Informatiker, SS Verteilungen mit Dichte
1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches
MehrKapitel VI - Maximum-Likelihood-Schätzfunktionen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VI - Maximum-Likelihood-Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
Mehr10 Transformation von Zufallsvariablen
10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :
MehrInhaltsverzeichnis DESKRIPTIVE STATISTIK. 1 Grundlagen Grundbegriffe Skalen... 15
Inhaltsverzeichnis 1 Grundlagen... 13 1.1 Grundbegriffe...13 1.2 Skalen... 15 DESKRIPTIVE STATISTIK 2 Eindimensionale Häufigkeitsverteilungen...16 2.1 Häufigkeiten... 16 2.1.1 Grundbegriffe... 16 2.1.2
Mehr0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1
Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
MehrNormalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.
Normalverteilung Diskrete Stetige f(x) = 1 2πσ 2 e 1 2 ((x µ)2 σ 2 ) Gauß 91 / 169 Normalverteilung Diskrete Stetige Satz: f aus (1) ist Dichte. Beweis: 1. f(x) 0 x R und σ > 0. 2. bleibt z.z. lim F(x)
MehrSozialwissenschaftlerInnen II
Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Wahrscheinlichkeitsfunktionen
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009
MehrKlausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK
Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:
Mehr