3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.19 (allgemeines Theorem von Bayes)

Größe: px
Ab Seite anzeigen:

Download "3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.19 (allgemeines Theorem von Bayes)"

Transkript

1 3.4 Bayes-Verfahren Begrifflicher Hintergrund Satz 3.19 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f X,U ( ) (bezüglich eines dominierenden σ-finiten Maßes ν λ) und den bedingten Wahrscheinlichkeitsfunktionen bzw. bedingten Dichten f X U ( u) und f U X ( x) (bezüglich ν bzw. λ). Dann gilt: f U X (u x) = f X U(x u) f U (u) f X (x) (3.14)

2 203 mit f X (x) = f X U (x u) f U (u) dν(u) (3.15) Bei stetigem U mit Dichte f U (u) erhält man also Satz 3.19 mit f X (x) = f X U (x u) f U (u)du. (3.16) Im Fall von diskreten Zufallsvariablen X und U mit U als Träger von U ergibt sich P ({X = x} {U = u}) P ({U = u}) P ({U = u} {X = x}) = P ({X = x}) mit P ({X = x}) = P ({X = x} {U = u}) P ({U = u}) u U

3 Bem (Normierungskonstante) 204 f X (x) aus (3.15) spielt die Rolle einer reinen Normierungskonstante, die nicht von u abhängt. Häufig reicht es daher, f X U (x u) f U (u) zu berechnen. Da man weiß, dass sich insgesamt eine Wahrscheinlichkeitsdichte ergeben muss, kennt man implizit auch die Normierungskonstante.

4 205 Bem (Def. posteriori Verteilung und ergänzende Bem.) Gegeben sei ein datengestütztes Entscheidungsproblem ((A, Θ, l( )); (X, σ(x ), P ϑ ( ))), wobei P ϑ ( ) die Wahrscheinlichkeitsfunktion bzw. Dichte f ϑ ( ) besitze, und eine a priori Verteilung auf (Θ, σ(θ)) mit Dichte bzw. Wahrscheinlichkeitsfunktion π( ). Dann heißt für jedes x X (vgl. (3.19)) π(ϑ x) = c(x) f ϑ (x) π(ϑ) f ϑ (x) π(ϑ) (3.17) mit c(x) als geeigneter Normierungskonstante gemäß (3.15) die (a) posteriori Verteilung von ϑ gegen x.

5 206 Stellt man sich eine Zufallsgröße U ( Umwelt, Nature ) vor, die den konkreten Wert ϑ bestimmt und interpretiert die Stichprobenverteilung P ϑ ( ) als bedingte Verteilung von X gegeben U, z.b. mit Dichte f X U (x ϑ) bzw. Wahrscheinlichkeitsfunktion P ({X = x} {U = ϑ}), x X, so entsteht (5.6) durch Anwenden des Satzes π(ϑ x) ist dann die Dichte (bzw. Wahrscheinlichkeitsfunktion) der bedingten Verteilung von U gegeben X. Für die Normierungskonstante c(x) gilt dann 1 c(x) = f X(x) = f X U (x ϑ)π(ϑ) im Falle von stetigem X und U, und 1 c(x) = P ({X = x}) = P ({X = x} {U = ϑ j }) π({u = ϑ j }) j

6 207 = j P ({X = x} {U = ϑ j }) π(ϑ j ) f X (x) und P ({X = x}) (nicht zu verwechseln mit den als bedingte Verteilungen interpretierten f ϑ (x) und P ϑ ({X = x})) heißen (als Funktion von x) priori-prädiktive Verteilung. Analog gibt es auch eine posteriori-prädiktive Verteilung, wenn man in analoger Weise über die posteriori-verteilung herausintegriert bzw. - summiert.

7 208 Bem (Bayes Postulat (nicht entscheidungstheoretisch)) Nach der Beobachtung der Stichprobe enthält die a posteriori Verteilung die volle Information, d.h. sie beschreibt das Wissen über den unbekannten Parameter vollständig. Alle statistischen Analysen haben sich ausschließlich auf die a posteriori zu stützen; darauf aufbauend insbesondere konstruktion von Bayessche-Punktschätzung: MPD-Schätzer (Maximum Posteriori Density-Schätzer) Bayessche-Intervallschätzung: Highest posterior density-intervalle Bayes-Tests

8 Proposition 3.23 (Suffizienz und a posteriori Verteilung) 209 Ist in der Situation von Definition 3.21 T suffizient für ϑ mit Wahrscheinlichkeitsfunktion bzw. Dichte g ϑ ( ), so hängt die posteriori π(ϑ x) nur mehr über t = T (x) von x ab. Es gilt π(ϑ x) g ϑ (t) π(ϑ) Beweis: Gemäß (3.17) ist π(ϑ x) f ϑ (x) π(ϑ) wobei wegen der Suffizienz von T sich f ϑ (x) schreiben lässt als f ϑ (x) = h X T (x) g ϑ (t). Einsetzen liefert die Behauptung.

9 3.4.2 Konjugierte Verteilungen, Bayes-Lernen 210 Bsp (Beta-Binomialmodell) Absolutes Standardbeispiel Stichprobenmodell: Bernoulliverteilung (allgemein: Binomialverteilung) zu Parameter ϑ P ϑ ({X i = x i }) = ϑ x i (1 ϑ) 1 x i jetzt im Bayes Kontext als bedingte Verteilung schreiben: P ({X i = x i } ϑ) = ϑ x i (1 ϑ) 1 x i

10 gebräuchliche priori-verteilung: Betaverteilung, gilt als sehr flexibel (f(z) aus Aufgabe 42) hier als priori verwendet, Bezeichnung π( ) π(ϑ) = ϑa 1 (1 ϑ) b 1 B(a, b) B(a, b) ist eine reine Normierungskonstante. I [0;1] (ϑ) 211 Es gilt: a Erwartungswert: a+b a 1 Modus: a+b 2, a > 1, b > 1

11 Abbildung 1: Rüger, (1999) Test- und Schätztheorie I, Seite

12 Jetzt Satz von Bayes anwenden: a posteriori berechnen. 213 π(ϑ x i ) = ϑx i (1 ϑ)1 x i ϑa 1 (1 ϑ) b 1 Norm. }{{ B(a, b) } Normierung ϑ x i+a 1 (1 ϑ) b xi I [0;1] (ϑ) = ϑ a 1 (1 ϑ) b 1 I [0;1] (ϑ) I [0;1] (ϑ) Posteriori ist also wieder eine Betaverteilung, nun mit den Parametern. a = a + x i und b = b x i + 1 = b + (1 x i )

13 Start z.b. mit a = 1, b = 1: Gleichverteilung als Nichtwissen verkaufbar x 1 = 1 beobachtet a = a + 1 = 2, b = b + 0 = 1 Beta(2, 1)-Verteilung π(ϑ x 1 ) ϑ 0 1 große Werte von ϑ plausibler, da ja x = 1, also Treffer beobachtet

14 Hätte man x 1 = 0 beobachtet a = 1, b = umgekehrt Schön zu sehen: sehr bequem zu rechnen Vor neuer Beobachtung posteriori als neue priori verwendet + Beobachtung neue Posteriori Bayes-Lernen

15 216 Hier sehr einfach zu rechnen, da priori und posteriori in derselben Verteilungsklasse liegen. Beta und Bernoulli/Binomialverteilung konjugiert (siehe später) Bleiben wir bei Beobachtung x 1 = 1 Jetzt weiteres Experiment x 2 (neue) priori (alte posteriori) Beta(2,1) Verteilung neue Stichprobe x 2 Von der Vorstellung her: Wie muss neue posteriori aussehen? neue posteriori: Beta(a + x i, b + (1 x i ))

16 z.b. x 2 = 0 a (2) = = 2, b (2) = = 2 π 2 (ϑ x) = ϑ2 1 (1 ϑ) 1 Norm. = ϑ1 (1 ϑ) 1 Norm. = ϑ ϑ2 Norm. 217 Ableitung 1 2ϑ =! 0 Maximum bei mal Treffer und 1 mal kein Treffer ϑ nahe Null eher unplausibel, symmetrisch um π 2 (0 x) = π 2 (1 x) = 0

17 Weitere Beobachtung x 3 = 1 Wie sieht posteriori aus? neue posteriori: Beta(a alt + x i, b alt + (1 x i )) a (3) = 2 + 1, b (3) = b alt = 2 π 3 (ϑ x) ϑ 2 (1 ϑ) 1 = ϑ 2 ϑ ganz große/ganz kleine Werte unwahrscheinlich, Schwergewicht eher aber bei ϑ > 1 2, da ja mehr Einser als Nuller beobachtet.

18 x 4 = 1 : π 4 (ϑ x) ϑ 3 (1 ϑ) 1 weitere Verschiebung nach rechts 219 Allgemein bei n unabhängigen Wiederholungen: π n (ϑ x 1,..., x n ) ist B(a + n x i ; b + n i=1 n x i ) (3.18) verteilt. Man kann zeigen: Dasselbe erhält man, wenn man x 1,..., x n auf einmal verarbeitet. i=1

19 Def (Konjugiertheit) 220 Eine Verteilungsfamilie Π von priori Verteilungen heißt zu einer Menge P von Stichprobenverteilungen konjugiert, wenn für jede priori π( ) Π und jedes P ( ) P die zugehörige posteriori-verteilung wieder ein Element von Π ist. Man sagt dann auch, dass jedes Element π( ) Π zu P konjugiert ist. Bem: (vgl. Prop. 3.23) Π, P konjugiert. Die Konjugiertheit überträgt sich auf die Suffizienz. Elemente von P mit suffizienter Statistik T beschreiben, posteriori von ϑ gegeben t bleibt in Π.

20 221 Proposition 3.26 (Weitere Beispiele für Konjugiertheit: Gamma-Poisson-Modell, Selbstkonjugiertheit der Normalverteilung) a) Ist X = (X1,..., X n ) eine i.i.d. Stichprobe eines zum Parameter λ Poisson verteilten Untersuchungsmerkmals, besitzt X also die Wahrscheinlichkeitsfunktion n f λ (x) = λ i=1 x i x 1!x 2!... x n! e nλ = f(x λ), und wählt man als priori Verteilung eine Gamma-Verteilung mit Parametern a und b, d.h. eine Verteilung mit der Dichte π(λ) = b a λ a 1 e bλ, (3.19) }{{} Γ(a) Norm.konst.

21 222 so ist die posteriori Verteilung eine Gamma-Verteilung mit den Parametern n a + x i und b + n. i=1 b) Ist X = (X 1,..., X n ) eine i.i.d. Stichprobe eines mit den Parametern µ und σ 2 normalverteilten Untersuchungsmerkmals, so gilt: i) Ist σ 2 bekannt und wählt man als priori Verteilung für µ eine Normalverteilung mit den Parametern ν und ρ 2, so ist die a posteriori Verteilung π(µ x) eine Normalverteilung mit den Parametern ν und ρ 2 mit ν = xρ 2 + ν σ2 n ρ 2 + σ2 n (3.20)

22 und ρ 2 = ρ 2 σ2 n ρ 2 + σ2 n 223. (3.21) ii) Ist µ bekannt, aber σ 2 unbekannt, so erhält man die konjugierte Verteilung, indem man 1 σ als gammaverteilt annimmt. Man sagt 2 dann, σ 2 sei invers gammaverteilt. Beweis: Übungsaufgabe. Andere Beispiele für Konjugiertheit: Rüger Buch; ganz allgemein: jedes Buch zu Bayes Verfahren, z.b. Einleitung zu Martz & Waller Wie findet man solche konjugierten Paare?

23 Satz 3.27 (Zur Konjugiertheit in Exponentialfamilien) 224 Hat in der Situation von Def jedes Element der Menge P der Stichprobenverteilungen eine Dichte bzw. Wahrscheinlichkeitsfunktion f(x ϑ) der Form f(x ϑ) h(ϑ) exp(t (x) b(ϑ)) (3.22) und jedes Element der Menge Π, aus der die a priori Verteilung stammt, eine Dichte bzw. Wahrscheinlichkeitsfunktion der Form so sind Π und P konjugiert. Es gilt dann π(ϑ) [h(ϑ)] α exp(b(ϑ) β), (3.23) π(ϑ x) [h(ϑ)] α+1 exp (T (x) + β) b(ϑ) (3.24)

24 225 Beweis: (3.24) ergibt sich unmittelbar durch Anwenden der Formel für die a posteriori Verteilung auf (3.22) und (3.23). (3.24) ist mit α := α + 1 und β := β + T (x) von der Form (3.23), also sind tatsächlich Π und P konjugiert.

25 Beachte: 226 Der Satz kann also direkt zur Konstruktion geeigneter, konjugierter Priori-Verteilungen verwendet werden, indem man die Stichprobenverteilung in die Form (3.22) bringt und dann eine priori gemäß (3.23) wählt. b(ϑ) spielte in (3.22) und in (3.23) eine ganz unterschiedliche Rolle: in (3.22): natürlicher Parameter der Exponentialfamilie, aus der die Likelihood / Stichprobenverteilung stammt in (3.23): Suffiziente Statistik für den natürlichen Parameter β der Exponentialfamilie, aus der die priori stammt. Bei der priori ist ja der Wert von ϑ zufällig. Ähnliches gilt für h(ϑ)

26 Bsp (Beispiele zu Satz 3.27) 227 Man bestimmt in folgenden Situationen jeweils eine konjugierte Priori- Verteilung: a) X 1,...X n ist i.i.d. normalverteilt mit unbekanntem µ und bekannter Varianz σ 2 b) X ist binomialverteilt zum unbekannten Parameter p c) X 1,..., X n ist i.i.d. Poisson-verteilt mit unbekanntem Parameter λ

27 a) ausführlich X i N(µ, σ 2 ) X = (X1,..., X n ) 1 f(x µ) = n exp( 1 2 π σ n 2 σ 2 n i=1 228 x 2 i + 2 µ 1 2 σ2n x 2 σ 2n µ2 ) 1. f(x µ) in Form f(x µ) h(µ) exp(t (x) b(µ)) bringen (Form (5.9), µ ˆ=ϑ): f(x µ) exp( µ2 n 2σ 2 ) }{{} h(µ) exp( nµ x σ 2 ) }{{} exp(t (x) b(µ))

28 2. Priori der Form [h(µ)] α exp(b(µ) β) wählen (gemäß (5.10)): π(µ) exp( α µ2 n 2σ 2 ) }{{} [h(µ)] α µ exp( }{{ σ 2β) } exp(b(µ)β) Dies ist die zu X i N(µ, σ 2 ), σ 2 bekannt, konjugierte Priori. Probe: Bestimme Posteriori. 229 π(µ x) h(µ) exp(t (x) b(µ)) [h(µ)] α exp(b(µ) β) = [h(µ)] α+1 exp(b(µ) (T (x) + β)) Dieses Ergebnis entspricht tatsächlich der Form (5.11) und führt genau auf eine Normalverteilung, wie man anhand des folgenden Ansatzes erkennt:

29 230 π(µ) exp( α µ2 n 2σ ) exp( µ 2 σ 2β) = exp( α µ 2 ) exp(β µ) ( π(µ) = 1 exp 1 ) 2 πρ 2 ρ2(µ ν)2 = exp( µ2 2 ρ + 2 ν µ 2 2 ρ nν2 2 2 ρ 2) = exp( ν 1 µ }{{} ρ 2 2 ρ 2 µ2 ) }{{} β α

30 b) X Binomial(n, p) f(x p) = (1 p) n p exp(ln 1 p ) π(p) (1 p) α n p exp(β ln 1 p ) = ( ) β p = (1 p) α = (1 p) α β p β : Betaverteilung 1 p 231

31 c) (X 1,..., X n ) i.i.d. Poisson-verteilt n f( x ϑ) = f(x i ϑ) = Vergleiche Def.(3.25) i=1 λ n i=1 x i n i=1 λ x i x i! exp( λ) = = x 1!x 2!... x n! exp( nλ) n exp( nλ) exp( x i ln λ) i=1 π(λ) exp( (nλ) α) exp(β ln λ) = = exp( α λ) λ β : Gammaverteilung 232

32 3.4.3 Der Hauptsatz der Bayes-Entscheidungstheorie 233 Def (Bayes-Analyse mit Verlustfunktion) Gegeben sei ein datenbasiertes Entscheidungsproblem ((A, Θ, l( )); (X, A, (P ϑ ) ϑ Θ )) und eine priori-verteilung π( ) über (Θ, σ(θ)). Eine Aktion a x A heißt posteriori-verlust optimal zur Beobachtung x X, wenn gilt IE π( x) l(a x, ϑ) IE π( x) l(a, ϑ) a A. a x ist also sozusagen Bayes Aktion zur aufdatierten priori Verteilung π( x).

33 Analog definiert man eine posteriori-nutzen-optimalität. 234 Bisher zwei Stränge, Begriff Bayes in unterschiedlicher Bedeutung, Gemeinsamkeit: a priori-verteilung

34 datengestütztes Entscheidungsproblem + priori Verteilung; Informationsbeschaffungsexperiment Auswertungsproblem + priori Verteilung komplexer Aktionenraum: alle Entscheidungsfunktionen Bayes-optimale Entscheidungsfunktion d : X A ( Testfunktion, Schätzfunktion) konkrete Beobachtung x Bayes optimale Aktion a = d (x) 2 Arten, Bayes-Entscheidungstheorie zu betreiben? priori- Verteilung konkrete Beobachtung 235 Stichprobenverteilung; Informationsbeschaffungsexperiment posteriori Verteilung Bayes Postulat posteriori-verlust optimale Aktion a x, z.b. reine (optimale) Bayes Schätzung ˆϑ x reiner/optimaler Bayes Test ϕ x priori-risiko optimale Aktion

35 Satz 3.30 (Hauptsatz der Bayes Entscheidungstheorie) 236 Gegeben sei ein datengestütztes Entscheidungsproblem ((A, Θ, l( )); (X, A, (P ϑ ) ϑ Θ )), bestehend aus einem datenfreien Entscheidungsproblem (A, Θ, l( )) und einer Informationsstruktur (X, A, (P ϑ ) ϑ Θ ) sowie eine a priori Verteilung π( ) über (Θ, σ(θ)). Eine Entscheidungsfunktion d : X A x d (x) ist genau dann Bayes optimal im zugehörigen Auswertungsproblem, wenn für jedes x X die zugehörige Aktion d (x) posteriori-verlust optimal zur Beobachtung x ist.

36 Beweis: Für den diskreten Fall s.u., für den allgemeinen Fall: Rüger, Witting 237 Beweis: Vorneweg eine Hilfsüberlegung: Suche die Lage des Minimums z min einer Funktion f( z) mit z = (z 1,..., z n ), wobei f( z) = n i=1 c if i (z i ), also linear in den einzelnen Komponenten ist. n f( z) = c i f i (z i ) min z i=1 f i (z i ) min zi für jedes i unabhängig. Angewendet auf Entscheidungsprobleme mit der Posteriori P ({X = x} u = ϑ) π(ϑ) π(ϑ x) ( ) P ({X = x})

37 Betrachte Entscheidungsfunktion d( ) im Auswertungsproblem: R(d, ϑ) = IE Pϑ (l(d(x), ϑ) also hierr(d, ϑ) = l(d(x), ϑ) P ϑ ({X = x}). x X 238 Optimale Entscheidungsfunktion zur priori π( ) minimiert unter allen d also IE π (R(d, ϑ)), ϑ Θ ( x X l(d(x), ϑ) P ϑ ({X = x}) ) π(ϑ) min d

38 wegen ( ) ϑ Θ x X x X ( l(d(x), ϑ) P ({X = x} u = ϑ) π(ϑ) }{{} = π(ϑ x) P ({X=x}) ( ) l(d(x), ϑ) π(ϑ x) P } ({X {{ = x}) } ) min d ϑ Θ }{{}}{{} = n i=1 =f i (z i ) Wegen der Hilfsüberlegung ist dies äquivalent dazu, für jedes feste x l(d(x), ϑ) π(ϑ x) ϑ Θ =c i ; priori-prädiktiv, marginal 239 seperat zu minimieren nach a := d(x) für festes x. Dies liefert jeweils genau die posteriori-verlust optimale Aktion, also die Bayes-Aktion zur posteriori als neuer priori. Genauso für Integrale! min d

39 Satz 3.31 (Bestimmung von Bayes-Aktionen, z.b. Rüger (1999, Satz 2.20)) 240 Gegeben sei das Schätzproblem als datengestütztes Entscheidungsproblem gemäß Bem/Bsp 3.5 sowie eine priori Verteilung π( ). Wählt man die absolute bzw. quadratische Verlustfunktion, so gilt für die Bayes optimale Entscheidungsfunktion d quad ( ) bzw. d abs ( ): Für jedes x ist d quad ( ) genau der Erwartungswert und d abs ( ) der Median der a posteriori Verteilung π(ϑ x).

40 241 Die HPD-Schätzung (Modus) ergibt sich näherungsweise für kleine ɛ, wenn man die sogenannte Toleranzverlustfunktion zum Grade ɛ verwendet: { 1 ˆθ θ > ɛ l ɛ (ˆθ, θ) = 0 ˆθ θ ɛ

41 Bsp (Investitionsproblem) 242 Betrachtet werde wiederum das Investitionsproblem (vgl. Bsp. 1.3 und Bsp. 3.4). Datenfreies Entscheidungsproblem Informationsstruktur Notation: d(1, 2, 2) = θ 1 θ 2 θ 3 a a ( ) x1 x 2 x 3 a 1 a 2 a 2 x 1 x 2 x 3 θ θ θ

42 Datengestütztes Entscheidungsproblem: 243 θ 1 θ 2 θ 3 Minimum Laplace d(1, 1, 1) d(1, 1, 2) d(1, 2, 1) d(1, 2, 2) d(2, 1, 1) d(2, 1, 2) d(2, 2, 1) d(2, 2, 2) Man ermittele die optimale Entscheidungsfunktion nach dem Laplace- Kriterium mit Hilfe des Hauptsatzes.

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes) 3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f

Mehr

(Reine) Bayes-Punktschätzung

(Reine) Bayes-Punktschätzung 233 3.4.3 (Reine) Bayes-Punktschätzung Def. 3.33 (MPD-Schätzung) Gegeben eine Beobachtung x und die posteriori Verteilung mit Dichte bzw. Wahrscheinlichkeitsfunktion π(ϑ x) heißt ϑ mit π(ˆϑ x) = max ϑ

Mehr

300 3 Weitere Aspekte der statistischen Entscheidungstheorie. 3.1 Bayes-Verfahren in der statistischen Entscheidungstheorie

300 3 Weitere Aspekte der statistischen Entscheidungstheorie. 3.1 Bayes-Verfahren in der statistischen Entscheidungstheorie 300 3 Weitere Aspekte der statistischen Entscheidungstheorie 3.1 Bayes-Verfahren in der statistischen Entscheidungstheorie 3.1.1 Begrifflicher Hintergrund und Erinnerungen 301 Proposition 3.1 (Allgemeines

Mehr

2.4.6 Konditionale Bayes-Inferenz: Begrifflicher Hintergrund und. Erinnerungen

2.4.6 Konditionale Bayes-Inferenz: Begrifflicher Hintergrund und. Erinnerungen 2.4.6 Konditionale Bayes-Inferenz: Begrifflicher Hintergrund und Erinnerungen 221 In Kapitel 1.6.1 wurde davon gesprochen, dass die Lösung/ Darstellung des datengestützten Entscheidungsproblems über das

Mehr

Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik

Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik 1 Verteilungen Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik 1.1 Diskrete Verteilungen Helga Wagner und Gero Walter Binomialverteilung: Y BiNom (n, π) Parameter: n > 0, π [0, 1] Wahrscheinlichkeitsfunktion:

Mehr

BAYES SCHE STATISTIK

BAYES SCHE STATISTIK BAES SCHE STATISTIK FELIX RUBIN EINFÜHRUNG IN DIE STATISTIK, A.D. BARBOUR, HS 2007 1. Einführung Die Bayes sche Statistik gibt eine weitere Methode, um einen unbekannten Parameter θ zu schätzen. Bisher

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Statistik: Klassisch oder Bayes

Statistik: Klassisch oder Bayes Wolfgang Tschirk Statistik: Klassisch oder Bayes Zwei Wege im Vergleich 4Q Springer Spektrum Inhaltsverzeichnis 1 Einleitung 1 1.1 Beschreibende und schließende Statistik 1 1.2 Schließende Statistik: Klassik

Mehr

Das Bayes'sche Prinzip

Das Bayes'sche Prinzip Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Bayesianische Modellwahl. Helga Wagner Bayes Statistik WS 2010/11 161

Bayesianische Modellwahl. Helga Wagner Bayes Statistik WS 2010/11 161 Bayesianische Modellwahl Helga Wagner Bayes Statistik WS 2010/11 161 Modellwahl Problem der Modellwahl: Welches von K möglichen Modellen M 1,...,M K ist für die Daten y am besten geeignet? Klassisch: LQ-Test

Mehr

Statistics, Data Analysis, and Simulation SS 2015

Statistics, Data Analysis, and Simulation SS 2015 Mainz, 2. Juli 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Konjugierte Prior Konjugierte Prior

Mehr

Nachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!!

Nachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!! Nachholklausur zur Vorlesung Schätzen und Testen I 04. April 2013 Volker Schmid, Ludwig Bothmann, Julia Sommer Aufgabe 1 2 3 4 5 6 Punkte Note Bitte ausfüllen und unterschreiben!!! Name, Vorname: Matrikelnummer:

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Mainz, 26. Juni 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.15. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler unter allen Wählern war 2009 auf eine Nachkommastelle gerundet genau 33.7%. Wie groß ist die Wahrscheinlichkeit,

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe 1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe Nachdem eine Stichprobe X 1,..., X n gezogen wurde berechnen wir gewöhnlich irgendwelchen Wert damit. Sei dies T = T (X 1,..., X n, wobei T auch

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

2. Prinzipien der Datenreduktion

2. Prinzipien der Datenreduktion 2. Prinzipien der Datenreduktion Man verwendet die Information in einer Stichprobe X 1,..., X n, um statistische Inferenz über einen unbekannten Parameter zu betreiben. Falls n groß ist, so ist die beobachtete

Mehr

Punktschätzer Optimalitätskonzepte

Punktschätzer Optimalitätskonzepte Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

3.3 Bayes-Entscheidungen in der virtuellen Risikosituation

3.3 Bayes-Entscheidungen in der virtuellen Risikosituation 3.3 Bayes-Entscheidungen in der virtuellen Risikosituation 183 3.3.1 Entscheiden in der Risikosituation 184 Bsp. 3.36 (Beispiel: Lotterie vgl. Bsp. in Abschnitt 1.3.2) Urne mit g (hier: 50) grünen, b (30)

Mehr

Statistische Entscheidungstheorie

Statistische Entscheidungstheorie KAPITEL 6 Statistische Entscheidungstheorie 6.1. Verlustfunktion, Risiko, Minimax Schätzer Es sei (, A, (P θ ) θ ) ein statistisches Modell. Das heißt, ist die Menge aller möglichen Stichproben, A ist

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Einführung in die statistische Testtheorie II

Einführung in die statistische Testtheorie II 1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Statistische Entscheidungsmodelle

Statistische Entscheidungsmodelle 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Statistische Entscheidungsmodelle Von o. Prof. Dipl.-Vw. Dr. Gerhard

Mehr

1.5.4 Quantile und Modi. Bem [Quantil, Modus]

1.5.4 Quantile und Modi. Bem [Quantil, Modus] 1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.73. [Quantil, Modus] und Vertei- Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

3.3 Methoden zur Evaluierung von Schätzern

3.3 Methoden zur Evaluierung von Schätzern 3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

Signifikanztests Optimalitätstheorie

Signifikanztests Optimalitätstheorie Kapitel Signifikanztests Optimalitätstheorie Randomisierte Tests In einem statistischen Modell M, A, P ϑ sei ein Testproblem gegeben: H : ϑ Θ gegen H : ϑ Θ ; wobei also durch Θ Θ Θ eine Zerlegung des Parameterbereichs

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr. Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;

Mehr

Stochastik Praktikum Parametrische Schätztheorie

Stochastik Praktikum Parametrische Schätztheorie Stochastik Praktikum Parametrische Schätztheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 05.10.2010 Prolog Momentenmethode X : Ω 1 Ω Zufallsgröße, die Experiment beschreibt. Ein statistisches

Mehr

Einführung in die Stochastik

Einführung in die Stochastik R. Viertl Einführung in die Stochastik mit Elementen der Bayes-Statistik und Ansätzen für die Analyse unscharfer Daten Springer-Verlag Wien New York Inhalt / Einleitung 1 Kapitel I. Elementare Wahrscheinlichkeitsrechnung

Mehr

Musterlösung der Klausur vom 29. Juli 2003

Musterlösung der Klausur vom 29. Juli 2003 Statistik für Bioinformatiker SoSe 2003 Rainer Spang Musterlösung der Klausur vom 29. Juli 2003 Aufgabe 1. 10 Definieren Sie die folgenden statistischen Begriffe in einem Satz oder in einer Formel: 1.

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Kapitel IV - Stichprobenfunktionen (Statistiken)

Kapitel IV - Stichprobenfunktionen (Statistiken) Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel IV - Stichprobenfunktionen (Statistiken) Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212 1.6.2 Poisson Verteilung Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte,

Mehr

Induktive Statistik Kapitel IV - Stichprobenfunktionen (Statistiken)

Induktive Statistik Kapitel IV - Stichprobenfunktionen (Statistiken) Induktive Statistik Kapitel IV - Stichprobenfunktionen (Statistiken) Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de 11. Januar 2007 Aufgabe der schließenden

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Modellanpassung und Parameterschätzung. A: Übungsaufgaben 7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit

Mehr

Statistik für Informatiker, SS Verteilungen mit Dichte

Statistik für Informatiker, SS Verteilungen mit Dichte 1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches

Mehr

4.2 Moment und Varianz

4.2 Moment und Varianz 4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

10 Transformation von Zufallsvariablen

10 Transformation von Zufallsvariablen 10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :

Mehr

Vorlesung 12a. Schätzen von Parametern. Teil 2

Vorlesung 12a. Schätzen von Parametern. Teil 2 Vorlesung 12a Schätzen von Parametern Teil 2 1 Unser Logo der ersten Stunde: X P ϑ (X da) = ρ ϑ (da), ϑ Θ S 2 Ein Logo der Statistik: Θ ˆϑ t X S P ϑ (X da) = ρ ϑ (da), ϑ Θ Θ... Parameterraum S... Beobachtungsraum

Mehr

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2010 Karlsruher Institut für Technologie Priv.-Doz. Dr. D. Kadelka Klausur Wahrscheinlichkeitstheorie und Statistik vom 14.9.2010 Musterlösungen Aufgabe 1: Gegeben sei eine Urliste

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten

Mehr

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9. 7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, May 29, 2017 Dr. Michael O. Distler

Mehr

Kapitel VII. Einige spezielle stetige Verteilungen

Kapitel VII. Einige spezielle stetige Verteilungen Kapitel VII Einige spezielle stetige Verteilungen D. 7.. (Normalverteilung) Eine stetige Zufallsgröße X sei als normalverteilt bezeichnet, wenn sie folgende Wahrscheinlichkeitsdichte besitzt: µ f ( ; µ,

Mehr

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente... Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,

Mehr

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral

Mehr

Bayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194

Bayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194 Bayes Prognose Helga Wagner Bayes Statistik WS 2010/11 194 Prognose einer weiteren Beobachtung Verkehrssicherheitsdaten Senioren: Wieviele Senioren werden in Linz im kommenden Monat getötet oder schwerverletzt?

Mehr

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe

Mehr

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ), 2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Numerische Methoden der Bayes-Inferenz. Helga Wagner Bayes Statistik WS 2010/11 338

Numerische Methoden der Bayes-Inferenz. Helga Wagner Bayes Statistik WS 2010/11 338 Numerische Methoden der Bayes-Inferenz Helga Wagner Bayes Statistik WS 2010/11 338 Nichtkonjugierte Analyse Bei bekannter Likelihood und Priori-Verteilung kann die nichtnormierte Dichte der Posteriori-Verteilung

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

Chi-Quadrat-Verteilung

Chi-Quadrat-Verteilung Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist

Mehr

Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011

Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011 Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester 2011 28. Oktober 2011 Prof. Dr. Torsten Hothorn Institut für Statistik Nachname: Vorname: Matrikelnummer: Anmerkungen: ˆ Schreiben

Mehr

Statistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie

Statistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie Ereignisse, Zufallsvariablen und Wahrscheinlichkeiten 1/43 Statistik für Informatiker, SS 2018 1 Grundlagen aus der Wahrscheinlichkeitstheorie 1.1 Ereignisse, Zufallsvariablen und Wahrscheinlichkeiten

Mehr

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60 WESTFÄLISCHE WILHELMS - UNIVERSITÄT MÜNSTER Wirtschaftswissenschaftliche Faktultät Prof. Dr. Bernd Wilfling Professur für VWL, insbesondere Empirische Wirtschaftsforschung Musterlösung zur Klausur im Fach

Mehr

Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess

Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess Name: Vorname: Matrikelnummer: Lösungsvorschlag zur Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik (Stochastik) Datum: 07.

Mehr

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}. Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

Klausur (Modulprüfung) zum Lehrerweiterbildungskurs Stochastik am von 10:00 bis 11:00 Uhr

Klausur (Modulprüfung) zum Lehrerweiterbildungskurs Stochastik am von 10:00 bis 11:00 Uhr Klausur (Modulprüfung) zum Lehrerweiterbildungskurs Stochastik am 5..201 von 10:00 bis 11:00 Uhr Bearbeiten Sie zwei der drei folgenden Aufgaben! Sätze aus der Vorlesung und den Übungen dürfen Sie ohne

Mehr

Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie

Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Sommersemester 2018 Kapitel 8: Elemente der mathematischen Statistik Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik

Mehr

Bayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301

Bayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301 Bayes Inferenz Schätzen und Testen von Hypothesen Helga Wagner Bayes Statistik WS 2010/11 301 Bayes Punktschätzung Entscheidungstheoretischer Ansatz: Wahl des Punktschätzers ist eine Aktion, die möglicherweise

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Bayesianische FDR (Teil 1)

Bayesianische FDR (Teil 1) Bayesianische FDR (Teil 1) Mareile Große Ruse Seminar Multiples Testen 08.11.2010 Übersicht Übersicht Übersicht Alternative: Übersicht Alternative: Übersicht Alternative: Bedingte Wahrscheinlichkeit (Ω,

Mehr

Nachklausur Mathematik für Biologen WS 08/09

Nachklausur Mathematik für Biologen WS 08/09 Aufgabe 1: (5 Punkte) In einer diploiden Population beobachten wir die Ausprägung eines bestimmten Gens, das zwei Allele V und W annimmt. Somit besitzt jedes Individuum V V, V W oder W W als Genotyp. Die

Mehr

Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung

Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer 014 Musterlösung 1. 8 Punkte) a) 1 Pt)Für das Komplement gilt PR A) = 1 PR c A) = 0.968. b) 1 Pt)Nach Definition der bedingten Wahrscheinlichkeit

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Prof. Dr. M. Maathuis ETH Zürich Winter 2010 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Aufgabe

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit

Mehr

i =1 i =2 i =3 x i y i 4 0 1

i =1 i =2 i =3 x i y i 4 0 1 Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x

Mehr

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Statistik - Fehlerrechnung - Auswertung von Messungen

Statistik - Fehlerrechnung - Auswertung von Messungen Statistik - Fehlerrechnung - Auswertung von Messungen TEIL II Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Eindimensionaler Fall: Parameterbestimmung - Beispiele [Übung] Mehrdimensionaler

Mehr