3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)

Größe: px
Ab Seite anzeigen:

Download "3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)"

Transkript

1 3.4 Bayes-Verfahren Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f X,U ( ) (bezüglich eines dominierenden σ-finiten Maßes ν λ) und den bedingten Wahrscheinlichkeitsfunktionen bzw. bedingten Dichten f X U ( u) und f U X ( x) (bezüglich ν bzw. λ). Dann gilt: f U X (u x) = f X U(x u) f U (u) f X (x) (3.7)

2 204 mit f X (x) = f X U (x u) f U (u) dν(u) (3.8) Bei stetigem U mit Dichte f U (u) erhält man also Satz 3.22 mit f X (x) = f X U (x u) f U (u)du. (3.9) Im Fall von diskreten Zufallsvariablen X und U mit U als Träger von U ergibt sich P ({X = x} {U = u}) P ({U = u}) P ({U = u} {X = x}) = P ({X = x}) mit P ({X = x}) = P ({X = x} {U = u}) P ({U = u}) u U

3 Bem (Normierungskonstante) 205 f X (x) aus (3.8) spielt die Rolle einer reinen Normierungskonstante, die nicht von u abhängt. Häufig reicht es daher, f X U (x u) f U (u) zu berechnen. Da man weiß, dass sich insgesamt eine Wahrscheinlichkeitsdichte ergeben muss, kennt man implizit auch die Normierungskonstante.

4 206 Bem (Def. posteriori Verteilung und ergänzende Bem.) Gegeben sei ein datengestütztes Entscheidungsproblem ((A, Θ, l( )); (X, σ(x ), P ϑ ( ))), wobei P ϑ ( ) die Wahrscheinlichkeitsfunktion bzw. Dichte f ϑ ( ) besitze, und eine a priori Verteilung auf (Θ, σ(θ)) mit Dichte bzw. Wahrscheinlichkeitsfunktion π( ). Dann heißt für jedes x X (vgl. (3.22)) π(ϑ x) = c(x) f ϑ (x) π(ϑ) f ϑ (x) π(ϑ) (3.10) mit c(x) als geeigneter Normierungskonstante gemäß (3.8) die (a) posteriori Verteilung von ϑ gegen x.

5 207 Stellt man sich eine Zufallsgröße U ( Umwelt, Nature ) vor, die den konkreten Wert ϑ bestimmt und interpretiert die Stichprobenverteilung P ϑ ( ) als bedingte Verteilung von X gegeben U, z.b. mit Dichte f X U (x ϑ) bzw. Wahrscheinlichkeitsfunktion P ({X = x} {U = ϑ}), x X, so entsteht (Satz.?) durch Anwenden des Satzes π(ϑ x) ist dann die Dichte (bzw. Wahrscheinlichkeitsfunktion) der bedingten Verteilung von U gegeben X. Für die Normierungskonstante c(x) gilt dann 1 c(x) = f X(x) = f X U (x ϑ)π(ϑ)dϑ im Falle von stetigem X und U, und bei diskretem X und U 1 c(x) = P ({X = x}) = P ({X = x} {U = ϑ j }) π({u = ϑ j }) j

6 208 = j P ({X = x} {U = ϑ j }) π(ϑ j ) f X (x) und P ({X = x}) (nicht zu verwechseln mit den als bedingte Verteilungen interpretierten f ϑ (x) und P ϑ ({X = x})) heißen (als Funktion von x) priori-prädiktive Verteilung. Analog gibt es auch eine posteriori-prädiktive Verteilung, wenn man in analoger Weise über die posteriori-verteilung herausintegriert bzw. -summiert.

7 209 Bem (Bayes Postulat (nicht entscheidungstheoretisch)) Nach der Beobachtung der Stichprobe enthält die a posteriori Verteilung die volle Information, d.h. sie beschreibt das Wissen über den unbekannten Parameter vollständig. Alle statistischen Analysen haben sich ausschließlich auf die a posteriori zu stützen; darauf aufbauend insbesondere konstruktion von Bayessche-Punktschätzung: MPD-Schätzer (Maximum Posteriori Density-Schätzer) Bayessche-Intervallschätzung: Highest posterior density-intervalle Bayes-Tests

8 Proposition 3.26 (Suffizienz und a posteriori Verteilung) 210 Ist in der Situation von Definition 3.24 T suffizient für ϑ mit Wahrscheinlichkeitsfunktion bzw. Dichte g ϑ ( ), so hängt die posteriori π(ϑ x) nur mehr über t = T (x) von x ab. Es gilt π(ϑ x) g ϑ (t) π(ϑ) Beweis: Gemäß (3.10) ist π(ϑ x) f ϑ (x) π(ϑ) wobei wegen der Suffizienz von T sich f ϑ (x) schreiben lässt als f ϑ (x) = h X T (x) g ϑ (t). Einsetzen liefert die Behauptung. uneigentliche Priori asymptotische Objaktivität

9 3.4.2 Konjugierte Verteilungen, Bayes-Lernen 211 Bsp (Beta-Binomialmodell) Absolutes Standardbeispiel Stichprobenmodell: Bernoulliverteilung (allgemein: Binomialverteilung) zu Parameter ϑ P ϑ ({X i = x i }) = ϑ x i (1 ϑ) 1 x i jetzt im Bayes Kontext als bedingte Verteilung schreiben (wieder mit Hilfsvariable notationeller U: P ({X i = x i } {U = ϑ}) = ϑ x i (1 ϑ) 1 x i

10 gebräuchliche priori-verteilung: Betaverteilung, gilt als sehr flexibel (f(z) aus Aufgabe 42) hier als priori verwendet, Bezeichnung π( ) π(ϑ) = ϑa 1 (1 ϑ) b 1 B(a, b) B(a, b) ist eine reine Normierungskonstante. I [0;1] (ϑ) 212 Es gilt: Erwartungswert: a a + b Modus: a 1 a + b 2, a > 1, b > 1

11 Abbildung 1: Rüger, (1999) Test- und Schätztheorie I, Seite

12 Jetzt Satz von Bayes anwenden: a posteriori berechnen. 214 π(ϑ x i ) = ϑx i (1 ϑ)1 x i ϑa 1 (1 ϑ) b 1 Norm. }{{ B(a, b) } Normierung ϑ x i+a 1 (1 ϑ) b xi I [0;1] (ϑ) = ϑ a 1 (1 ϑ) b 1 I [0;1] (ϑ) I [0;1] (ϑ) Posteriori ist also wieder eine Betaverteilung, nun mit den Parametern. a = a + x i und b = b x i + 1 = b + (1 x i )

13 Start z.b. mit a = 1, b = 1: Gleichverteilung (als Nichtwissen verkaufbar?) π(ϑ x 1 ) ϑi [0;1] (ϑ) 0 1 große Werte von ϑ plausibler, da ja x = 1, also Treffer beobachtet

14 216 Bleiben wir bei Beobachtung x 1 = 1 Jetzt weiteres Experiment x 2 (neue) priori (alte posteriori) Beta(2,1) Verteilung neue Stichprobe x 2 neue posteriori: Beta(a + x i, b + (1 x i )) z.b. x 2 = 0 a (2) = = 2, b (2) = = 2 π 2 (ϑ (x 1, x 2 ) ) = ϑ2 1 (1 ϑ) 1 Norm. = ϑ1 (1 ϑ) 1 Norm. = ϑ ϑ2 Norm. für ϑ [0; 1] π 2 (0 x) = π 2 (1 x) = 0 0 1

15 Weitere Beobachtung x 3 = 1 Wie sieht posteriori aus? neue posteriori: Beta(a alt + x i, b alt + (1 x i )) a (3) = 2 + 1, b (3) = b alt = 2 π 3 (ϑ (x 1, x 2, x 3 ) ) ϑ 2 (1 ϑ) 1 I [0;1] (ϑ) = ϑ 2 ϑ 3 I [0;1] (ϑ) 217 ganz große/ganz kleine Werte unwahrscheinlich, Schwergewicht eher aber bei ϑ > 1 2, da ja mehr Einser als Nuller beobachtet.

16 x 4 = 1 : π 4 (ϑ (x 1, x 2, x 3, x 4 ) ) ϑ 3 (1 ϑ) 1 weitere Verschiebung nach rechts 218 Allgemein bei n unabhängigen Wiederholungen: π n (ϑ (x 1,..., x n ) ) ist B(a + n x i ; b + n i=1 n x i ) (3.11) verteilt. Man kann zeigen: Dasselbe Ergebnis erhält man, wenn man x 1,..., x n auf einmal verarbeitet. i=1

17 Def (Konjugiertheit) 219 Eine Verteilungsfamilie Π von priori Verteilungen heißt zu einer Menge P von Stichprobenverteilungen konjugiert, wenn für jede priori π( ) Π und jedes P ( ) P die zugehörige posteriori-verteilung wieder ein Element von Π ist. Man sagt dann auch, dass jedes Element π( ) Π zu P konjugiert ist. Bem (Die Konjugiertheit überträgt sich auf suffiziente Statistik) (vgl. Prop. 3.26) Seien Π und P konjugiert. Beschreibt man die Elemente von P mit einer suffizienten Statistik T, so bleibt die posteriori Verteilung von ϑ gegeben t in Π.

18 220 Proposition 3.30 (Weitere Beispiele für Konjugiertheit: Gamma-Poisson-Modell, Selbstkonjugiertheit der Normalverteilung) a) Ist X = (X1,..., X n ) eine i.i.d. Stichprobe eines zum Parameter λ Poisson verteilten Untersuchungsmerkmals, besitzt X also die Wahrscheinlichkeitsfunktion f λ (x) = λ n i=1 x i x 1!x 2!... x n! e nλ = f(x λ), und wählt man als priori Verteilung eine Gamma-Verteilung mit Parametern a und b, d.h. eine Verteilung mit der Dichte π(λ) = b a λ a 1 e bλ, (3.12) }{{} Γ(a) Norm.konst.

19 221 so ist die posteriori Verteilung eine Gamma-Verteilung mit den Parametern n a + x i und b + n. i=1 b) Ist X = (X 1,..., X n ) eine i.i.d. Stichprobe eines mit den Parametern µ und σ 2 normalverteilten Untersuchungsmerkmals, so gilt: i) Ist σ 2 bekannt und wählt man als priori Verteilung für µ eine Normalverteilung mit den Parametern ν und ρ 2, so ist die a posteriori Verteilung π(µ x) eine Normalverteilung mit den Parametern ν und

20 222 ρ 2 mit und ν = xρ 2 + ν σ2 n ρ 2 + σ2 n (3.13) ρ 2 = ρ 2 σ2 n ρ 2 + σ2 n. (3.14)

21 223 ii) Ist µ bekannt, aber σ 2 unbekannt, so erhält man die konjugierte Verteilung, indem man 1 σ als gammaverteilt annimmt. Man sagt 2 dann, σ 2 sei invers gammaverteilt. Beweis: Übungsaufgabe. Andere Beispiele für Konjugiertheit: Rüger Buch; ganz allgemein: jedes Buch zu Bayes Verfahren, z.b. Einleitung zu Martz & Waller Wie findet man solche konjugierten Paare?

22 Satz 3.31 (Zur Konjugiertheit in Exponentialfamilien) 224 Hat in der Situation von Def jedes Element der Menge P der Stichprobenverteilungen eine Dichte bzw. Wahrscheinlichkeitsfunktion f(x ϑ) der Form f(x ϑ) h(ϑ) exp ( T (x) b(ϑ) ) (3.15) und jedes Element der Menge Π, aus der die a priori Verteilung stammt, eine Dichte bzw. Wahrscheinlichkeitsfunktion der Form so sind Π und P konjugiert. Es gilt dann π(ϑ) [h(ϑ)] α exp ( b(ϑ) β ), (3.16) π(ϑ x) [h(ϑ)] α+1 exp ( (T (x) + β) b(ϑ) ). (3.17)

23 225 Beweis: (3.17) ergibt sich unmittelbar durch Anwenden der Formel für die a posteriori Verteilung auf (3.15) und (3.16). (3.17) ist mit α := α + 1 und β := β + T (x) von der Form (3.16), also sind tatsächlich Π und P konjugiert.

24 Beachte: 226 Der Satz kann also direkt zur Konstruktion geeigneter, konjugierter Priori-Verteilungen verwendet werden, indem man die Stichprobenverteilung in die Form (3.15) bringt und dann eine priori gemäß (3.16) wählt. b(ϑ) spielte in (3.15) und in (3.16) eine ganz unterschiedliche Rolle: in (3.15) ist b(ϑ) der natürliche Parameter der Exponentialfamilie, aus der die Likelihood / Stichprobenverteilung stammt. In (3.16) hingegen ist b(ϑ) die suffiziente Statistik für den natürlichen Parameter β der Exponentialfamilie, aus der die priori stammt. (Bei der priori ist ja der Wert von ϑ zufällig.) Ähnliches gilt für h(ϑ)

25 Bsp (Beispiele zu Satz 3.31) 227 Man bestimmt in folgenden Situationen unter Verwendung von Satz 3.31 jeweils eine konjugierte Priori-Verteilung: a) X 1,...X n ist i.i.d. normalverteilt mit unbekanntem µ und bekannter Varianz σ 2 b) X ist binomialverteilt zum unbekannten Parameter p c) X 1,..., X n ist i.i.d. Poisson-verteilt mit unbekanntem Parameter λ

26 a) ausführlich X i N(µ, σ 2 ) X = (X1,..., X n ) 1 ( f(x µ) = n exp 1 2 π σ n 2 σ 2 n i=1 228 x 2 i + 2 µ 1 ) 2 σ2n x 2 σ 2n µ2 1. f(x µ) in Form f(x µ) h(µ) exp ( T (x) b(µ) ) bringen (Form 3.15, µ ˆ=ϑ): ( f(x µ) exp µ2 n 2σ 2 ) } {{ } h(µ) ( nµ x ) exp } σ ( {{ 2 }) exp T (x) b(µ)

27 2. Priori der Form [h(µ)] α exp ( b(µ) β ) wählen (gemäß 3.16): ( π(µ) exp α µ2 n ) ( µ ) exp }{{ 2σ 2 }} σ ({{ 2β )} [h(µ)] α exp b(µ)β 229 Dies ist die zu X i N(µ, σ 2 ), σ 2 bekannt, konjugierte Priori. Probe: Bestimme Posteriori. π(µ x) h(µ) exp ( T (x) b(µ) ) [h(µ)] α exp ( b(µ) β ) = [h(µ)] α+1 exp ( b(µ) (T (x) + β) )

28 230 Dieses Ergebnis entspricht tatsächlich der Form (3.17) und führt genau auf eine Normalverteilung, wie man anhand des folgenden Ansatzes erkennt: π(µ) exp( α µ2 n 2σ ) exp( µ 2 σ 2β) = exp( α µ 2 ) exp(β µ) ( π(µ) = 1 exp 1 ) 2 πρ 2 ρ2(µ ν)2 = exp( µ2 2 ρ + 2 ν µ 2 2 ρ nν2 2 2 ρ 2) = exp( ν µ }{{} ρ 2 β 1 }{{} 2 ρ 2 µ2 ) α

29 b) X Binomial(n, p) f(x p) (1 p) n p exp(ln 1 p ) π(p) (1 p) α n p exp(β ln 1 p ) = ( ) β p = (1 p) α = (1 p) α β p β : Betaverteilung 1 p 231

30 c) (X 1,..., X n ) i.i.d. Poisson-verteilt n f( x ϑ) = f(x i ϑ) = i=1 λ n i=1 x i n i=1 λ x i x i! exp( λ) = = x 1!x 2!... x n! exp( nλ) n exp( nλ) exp( x i ln λ) i=1 π(λ) exp ( (nλ) α ) exp(β ln λ) = = λ β exp( α λ) : Gammaverteilung 232

300 3 Weitere Aspekte der statistischen Entscheidungstheorie. 3.1 Bayes-Verfahren in der statistischen Entscheidungstheorie

300 3 Weitere Aspekte der statistischen Entscheidungstheorie. 3.1 Bayes-Verfahren in der statistischen Entscheidungstheorie 300 3 Weitere Aspekte der statistischen Entscheidungstheorie 3.1 Bayes-Verfahren in der statistischen Entscheidungstheorie 3.1.1 Begrifflicher Hintergrund und Erinnerungen 301 Proposition 3.1 (Allgemeines

Mehr

2.4.6 Konditionale Bayes-Inferenz: Begrifflicher Hintergrund und. Erinnerungen

2.4.6 Konditionale Bayes-Inferenz: Begrifflicher Hintergrund und. Erinnerungen 2.4.6 Konditionale Bayes-Inferenz: Begrifflicher Hintergrund und Erinnerungen 221 In Kapitel 1.6.1 wurde davon gesprochen, dass die Lösung/ Darstellung des datengestützten Entscheidungsproblems über das

Mehr

Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik

Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik 1 Verteilungen Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik 1.1 Diskrete Verteilungen Helga Wagner und Gero Walter Binomialverteilung: Y BiNom (n, π) Parameter: n > 0, π [0, 1] Wahrscheinlichkeitsfunktion:

Mehr

Statistics, Data Analysis, and Simulation SS 2015

Statistics, Data Analysis, and Simulation SS 2015 Mainz, 2. Juli 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Konjugierte Prior Konjugierte Prior

Mehr

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe 1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe Nachdem eine Stichprobe X 1,..., X n gezogen wurde berechnen wir gewöhnlich irgendwelchen Wert damit. Sei dies T = T (X 1,..., X n, wobei T auch

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

Bayesianische Modellwahl. Helga Wagner Bayes Statistik WS 2010/11 161

Bayesianische Modellwahl. Helga Wagner Bayes Statistik WS 2010/11 161 Bayesianische Modellwahl Helga Wagner Bayes Statistik WS 2010/11 161 Modellwahl Problem der Modellwahl: Welches von K möglichen Modellen M 1,...,M K ist für die Daten y am besten geeignet? Klassisch: LQ-Test

Mehr

Statistik: Klassisch oder Bayes

Statistik: Klassisch oder Bayes Wolfgang Tschirk Statistik: Klassisch oder Bayes Zwei Wege im Vergleich 4Q Springer Spektrum Inhaltsverzeichnis 1 Einleitung 1 1.1 Beschreibende und schließende Statistik 1 1.2 Schließende Statistik: Klassik

Mehr

Nachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!!

Nachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!! Nachholklausur zur Vorlesung Schätzen und Testen I 04. April 2013 Volker Schmid, Ludwig Bothmann, Julia Sommer Aufgabe 1 2 3 4 5 6 Punkte Note Bitte ausfüllen und unterschreiben!!! Name, Vorname: Matrikelnummer:

Mehr

Das Bayes'sche Prinzip

Das Bayes'sche Prinzip Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt

Mehr

1.5.4 Quantile und Modi. Bem [Quantil, Modus]

1.5.4 Quantile und Modi. Bem [Quantil, Modus] 1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.73. [Quantil, Modus] und Vertei- Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

BAYES SCHE STATISTIK

BAYES SCHE STATISTIK BAES SCHE STATISTIK FELIX RUBIN EINFÜHRUNG IN DIE STATISTIK, A.D. BARBOUR, HS 2007 1. Einführung Die Bayes sche Statistik gibt eine weitere Methode, um einen unbekannten Parameter θ zu schätzen. Bisher

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.15. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler unter allen Wählern war 2009 auf eine Nachkommastelle gerundet genau 33.7%. Wie groß ist die Wahrscheinlichkeit,

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

2. Prinzipien der Datenreduktion

2. Prinzipien der Datenreduktion 2. Prinzipien der Datenreduktion Man verwendet die Information in einer Stichprobe X 1,..., X n, um statistische Inferenz über einen unbekannten Parameter zu betreiben. Falls n groß ist, so ist die beobachtete

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212 1.6.2 Poisson Verteilung Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte,

Mehr

Statistik für Informatiker, SS Verteilungen mit Dichte

Statistik für Informatiker, SS Verteilungen mit Dichte 1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches

Mehr

Bayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194

Bayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194 Bayes Prognose Helga Wagner Bayes Statistik WS 2010/11 194 Prognose einer weiteren Beobachtung Verkehrssicherheitsdaten Senioren: Wieviele Senioren werden in Linz im kommenden Monat getötet oder schwerverletzt?

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten

Mehr

3.3 Methoden zur Evaluierung von Schätzern

3.3 Methoden zur Evaluierung von Schätzern 3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion 4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,

Mehr

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Modellanpassung und Parameterschätzung. A: Übungsaufgaben 7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit

Mehr

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Prof. Dr. M. Maathuis ETH Zürich Winter 2010 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Aufgabe

Mehr

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit

Mehr

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}. Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Kapitel IV - Stichprobenfunktionen (Statistiken)

Kapitel IV - Stichprobenfunktionen (Statistiken) Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel IV - Stichprobenfunktionen (Statistiken) Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

Stochastik Praktikum Parametrische Schätztheorie

Stochastik Praktikum Parametrische Schätztheorie Stochastik Praktikum Parametrische Schätztheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 05.10.2010 Prolog Momentenmethode X : Ω 1 Ω Zufallsgröße, die Experiment beschreibt. Ein statistisches

Mehr

10 Transformation von Zufallsvariablen

10 Transformation von Zufallsvariablen 10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :

Mehr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X

Mehr

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1 Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Vorlesung 12a. Schätzen von Parametern. Teil 2

Vorlesung 12a. Schätzen von Parametern. Teil 2 Vorlesung 12a Schätzen von Parametern Teil 2 1 Unser Logo der ersten Stunde: X P ϑ (X da) = ρ ϑ (da), ϑ Θ S 2 Ein Logo der Statistik: Θ ˆϑ t X S P ϑ (X da) = ρ ϑ (da), ϑ Θ Θ... Parameterraum S... Beobachtungsraum

Mehr

Formelsammlung: Statistik und Wahrscheinlichkeitstheorie

Formelsammlung: Statistik und Wahrscheinlichkeitstheorie Formelsammlung: Statistik und Wahrscheinlichkeitstheorie Kapitel 1: Deskriptive und explorative Statistik Empirische Verteilungsfkt (S15): Quantile (S24): Bei Typ7 1.Pkt = 0 Danach 1/(n-1) Median (S24):

Mehr

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral

Mehr

Statistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie

Statistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie Ereignisse, Zufallsvariablen und Wahrscheinlichkeiten 1/43 Statistik für Informatiker, SS 2018 1 Grundlagen aus der Wahrscheinlichkeitstheorie 1.1 Ereignisse, Zufallsvariablen und Wahrscheinlichkeiten

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

Chi-Quadrat-Verteilung

Chi-Quadrat-Verteilung Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist

Mehr

Kapitel VII. Einige spezielle stetige Verteilungen

Kapitel VII. Einige spezielle stetige Verteilungen Kapitel VII Einige spezielle stetige Verteilungen D. 7.. (Normalverteilung) Eine stetige Zufallsgröße X sei als normalverteilt bezeichnet, wenn sie folgende Wahrscheinlichkeitsdichte besitzt: µ f ( ; µ,

Mehr

5. Stichproben und Statistiken

5. Stichproben und Statistiken 5. Stichproben und Statistiken Problem: Es sei X eine ZV, die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X kennenlernen (z.b. mittels der VF F X (x)

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Induktive Statistik Kapitel IV - Stichprobenfunktionen (Statistiken)

Induktive Statistik Kapitel IV - Stichprobenfunktionen (Statistiken) Induktive Statistik Kapitel IV - Stichprobenfunktionen (Statistiken) Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de 11. Januar 2007 Aufgabe der schließenden

Mehr

3 Statistische Schätzungen

3 Statistische Schätzungen 3 Statistische Schätzungen In der Wahrscheinlichkeitstheorie geht es darum, über Modelle Ereignisse zu bewerten bzw. Voraussagen über ihr Eintreten zu treffen. Sind nun umgekehrt Daten bekannt, und wollen

Mehr

Einführung in die Stochastik

Einführung in die Stochastik R. Viertl Einführung in die Stochastik mit Elementen der Bayes-Statistik und Ansätzen für die Analyse unscharfer Daten Springer-Verlag Wien New York Inhalt / Einleitung 1 Kapitel I. Elementare Wahrscheinlichkeitsrechnung

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Statistische Entscheidungsmodelle

Statistische Entscheidungsmodelle 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Statistische Entscheidungsmodelle Von o. Prof. Dipl.-Vw. Dr. Gerhard

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Prof. Dr. P. Embrechts ETH Zürich Sommer 204 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Vereinfachen

Mehr

1.4 Stichproben aus einer Normalverteilung

1.4 Stichproben aus einer Normalverteilung 1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte

Mehr

Suffizienz und Vollständigkeit

Suffizienz und Vollständigkeit KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt

Mehr

Kapitel IX - Neyman-Pearson-Tests

Kapitel IX - Neyman-Pearson-Tests Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel IX - Neyman-Pearson-Tests Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh Ausgangssituation:

Mehr

4.2 Moment und Varianz

4.2 Moment und Varianz 4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p

Mehr

Statistische Entscheidungstheorie

Statistische Entscheidungstheorie KAPITEL 6 Statistische Entscheidungstheorie 6.1. Verlustfunktion, Risiko, Minimax Schätzer Es sei (, A, (P θ ) θ ) ein statistisches Modell. Das heißt, ist die Menge aller möglichen Stichproben, A ist

Mehr

Punktschätzer Optimalitätskonzepte

Punktschätzer Optimalitätskonzepte Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra

Mehr

Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie

Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Sommersemester 2018 Kapitel 8: Elemente der mathematischen Statistik Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER Institut für Statistik der LMU FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER 2003 2003 Inhaltsverzeichnis 1 Elementare Wahrscheinlichkeitsrechnung 1 1.1 Die Axiome von Kolmogorov...........................

Mehr

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander

Mehr

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung 0 Einführung 1 Wahrscheinlichkeitsrechnung Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung Motivation und Hinführung Der wahre Anteil der rot-grün Wähler 009 war genau

Mehr

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60 WESTFÄLISCHE WILHELMS - UNIVERSITÄT MÜNSTER Wirtschaftswissenschaftliche Faktultät Prof. Dr. Bernd Wilfling Professur für VWL, insbesondere Empirische Wirtschaftsforschung Musterlösung zur Klausur im Fach

Mehr

1.5.4 Quantile und Modi

1.5.4 Quantile und Modi 1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.70. [Quantil, Modus] Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Einführung in die statistische Testtheorie II

Einführung in die statistische Testtheorie II 1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

W-Rechnung und Statistik für Ingenieure Übung 8

W-Rechnung und Statistik für Ingenieure Übung 8 W-Rechnung und Statistik für Ingenieure Übung 8 Aufgabe 1 : Motivation Anhand von Daten soll eine Aussage über die voraussichtliche Verteilung zukünftiger Daten gemacht werden, z.b. die Wahrscheinlichkeit

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ), 2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist

Mehr

Y = g 2 (U 1,U 2 ) = 2 ln U 1 sin 2πU 2

Y = g 2 (U 1,U 2 ) = 2 ln U 1 sin 2πU 2 Bsp. 72 (BOX MÜLLER Transformation) Es seien U 1 und U 2 zwei unabhängige, über dem Intervall [0, 1[ gleichverteilte Zufallsgrößen (U i R(0, 1), i = 1, 2), U = (U 1,U 2 ) T ein zufälliger Vektor. Wir betrachten

Mehr

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9. 7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente... Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,

Mehr

3.3 Bayes-Entscheidungen in der virtuellen Risikosituation

3.3 Bayes-Entscheidungen in der virtuellen Risikosituation 3.3 Bayes-Entscheidungen in der virtuellen Risikosituation 183 3.3.1 Entscheiden in der Risikosituation 184 Bsp. 3.36 (Beispiel: Lotterie vgl. Bsp. in Abschnitt 1.3.2) Urne mit g (hier: 50) grünen, b (30)

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe

Mehr

Modellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch

Modellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch Modellanpassung Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München SS 2009 Statistik Statistik Wahrscheinlichkeitsrechnung: Gesetze bekannt,

Mehr

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr

SozialwissenschaftlerInnen II

SozialwissenschaftlerInnen II Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Wahrscheinlichkeitsfunktionen

Mehr

5 Allgemeine Verfahren zum Testen von Hypothesen

5 Allgemeine Verfahren zum Testen von Hypothesen 5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).

Mehr

Musterlösung der Klausur vom 29. Juli 2003

Musterlösung der Klausur vom 29. Juli 2003 Statistik für Bioinformatiker SoSe 2003 Rainer Spang Musterlösung der Klausur vom 29. Juli 2003 Aufgabe 1. 10 Definieren Sie die folgenden statistischen Begriffe in einem Satz oder in einer Formel: 1.

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, May 29, 2017 Dr. Michael O. Distler

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 11. Juli 016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Exkurs: Exakte Konfidenzintervalle für den Erfolgsparameter in der Binomialverteilung. 27. Januar 2014

Exkurs: Exakte Konfidenzintervalle für den Erfolgsparameter in der Binomialverteilung. 27. Januar 2014 Exkurs: Exakte Konfidenzintervalle für den Erfolgsparameter in der Binomialverteilung 27. Januar 2014 Unter n unabhängigen Versuchen seien x Erfolge beobachtet worden, wir fassen x als Realisierung einer

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr