3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)
|
|
- Evagret Holzmann
- vor 5 Jahren
- Abrufe
Transkript
1 3.4 Bayes-Verfahren Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f X,U ( ) (bezüglich eines dominierenden σ-finiten Maßes ν λ) und den bedingten Wahrscheinlichkeitsfunktionen bzw. bedingten Dichten f X U ( u) und f U X ( x) (bezüglich ν bzw. λ). Dann gilt: f U X (u x) = f X U(x u) f U (u) f X (x) (3.7)
2 204 mit f X (x) = f X U (x u) f U (u) dν(u) (3.8) Bei stetigem U mit Dichte f U (u) erhält man also Satz 3.22 mit f X (x) = f X U (x u) f U (u)du. (3.9) Im Fall von diskreten Zufallsvariablen X und U mit U als Träger von U ergibt sich P ({X = x} {U = u}) P ({U = u}) P ({U = u} {X = x}) = P ({X = x}) mit P ({X = x}) = P ({X = x} {U = u}) P ({U = u}) u U
3 Bem (Normierungskonstante) 205 f X (x) aus (3.8) spielt die Rolle einer reinen Normierungskonstante, die nicht von u abhängt. Häufig reicht es daher, f X U (x u) f U (u) zu berechnen. Da man weiß, dass sich insgesamt eine Wahrscheinlichkeitsdichte ergeben muss, kennt man implizit auch die Normierungskonstante.
4 206 Bem (Def. posteriori Verteilung und ergänzende Bem.) Gegeben sei ein datengestütztes Entscheidungsproblem ((A, Θ, l( )); (X, σ(x ), P ϑ ( ))), wobei P ϑ ( ) die Wahrscheinlichkeitsfunktion bzw. Dichte f ϑ ( ) besitze, und eine a priori Verteilung auf (Θ, σ(θ)) mit Dichte bzw. Wahrscheinlichkeitsfunktion π( ). Dann heißt für jedes x X (vgl. (3.22)) π(ϑ x) = c(x) f ϑ (x) π(ϑ) f ϑ (x) π(ϑ) (3.10) mit c(x) als geeigneter Normierungskonstante gemäß (3.8) die (a) posteriori Verteilung von ϑ gegen x.
5 207 Stellt man sich eine Zufallsgröße U ( Umwelt, Nature ) vor, die den konkreten Wert ϑ bestimmt und interpretiert die Stichprobenverteilung P ϑ ( ) als bedingte Verteilung von X gegeben U, z.b. mit Dichte f X U (x ϑ) bzw. Wahrscheinlichkeitsfunktion P ({X = x} {U = ϑ}), x X, so entsteht (Satz.?) durch Anwenden des Satzes π(ϑ x) ist dann die Dichte (bzw. Wahrscheinlichkeitsfunktion) der bedingten Verteilung von U gegeben X. Für die Normierungskonstante c(x) gilt dann 1 c(x) = f X(x) = f X U (x ϑ)π(ϑ)dϑ im Falle von stetigem X und U, und bei diskretem X und U 1 c(x) = P ({X = x}) = P ({X = x} {U = ϑ j }) π({u = ϑ j }) j
6 208 = j P ({X = x} {U = ϑ j }) π(ϑ j ) f X (x) und P ({X = x}) (nicht zu verwechseln mit den als bedingte Verteilungen interpretierten f ϑ (x) und P ϑ ({X = x})) heißen (als Funktion von x) priori-prädiktive Verteilung. Analog gibt es auch eine posteriori-prädiktive Verteilung, wenn man in analoger Weise über die posteriori-verteilung herausintegriert bzw. -summiert.
7 209 Bem (Bayes Postulat (nicht entscheidungstheoretisch)) Nach der Beobachtung der Stichprobe enthält die a posteriori Verteilung die volle Information, d.h. sie beschreibt das Wissen über den unbekannten Parameter vollständig. Alle statistischen Analysen haben sich ausschließlich auf die a posteriori zu stützen; darauf aufbauend insbesondere konstruktion von Bayessche-Punktschätzung: MPD-Schätzer (Maximum Posteriori Density-Schätzer) Bayessche-Intervallschätzung: Highest posterior density-intervalle Bayes-Tests
8 Proposition 3.26 (Suffizienz und a posteriori Verteilung) 210 Ist in der Situation von Definition 3.24 T suffizient für ϑ mit Wahrscheinlichkeitsfunktion bzw. Dichte g ϑ ( ), so hängt die posteriori π(ϑ x) nur mehr über t = T (x) von x ab. Es gilt π(ϑ x) g ϑ (t) π(ϑ) Beweis: Gemäß (3.10) ist π(ϑ x) f ϑ (x) π(ϑ) wobei wegen der Suffizienz von T sich f ϑ (x) schreiben lässt als f ϑ (x) = h X T (x) g ϑ (t). Einsetzen liefert die Behauptung. uneigentliche Priori asymptotische Objaktivität
9 3.4.2 Konjugierte Verteilungen, Bayes-Lernen 211 Bsp (Beta-Binomialmodell) Absolutes Standardbeispiel Stichprobenmodell: Bernoulliverteilung (allgemein: Binomialverteilung) zu Parameter ϑ P ϑ ({X i = x i }) = ϑ x i (1 ϑ) 1 x i jetzt im Bayes Kontext als bedingte Verteilung schreiben (wieder mit Hilfsvariable notationeller U: P ({X i = x i } {U = ϑ}) = ϑ x i (1 ϑ) 1 x i
10 gebräuchliche priori-verteilung: Betaverteilung, gilt als sehr flexibel (f(z) aus Aufgabe 42) hier als priori verwendet, Bezeichnung π( ) π(ϑ) = ϑa 1 (1 ϑ) b 1 B(a, b) B(a, b) ist eine reine Normierungskonstante. I [0;1] (ϑ) 212 Es gilt: Erwartungswert: a a + b Modus: a 1 a + b 2, a > 1, b > 1
11 Abbildung 1: Rüger, (1999) Test- und Schätztheorie I, Seite
12 Jetzt Satz von Bayes anwenden: a posteriori berechnen. 214 π(ϑ x i ) = ϑx i (1 ϑ)1 x i ϑa 1 (1 ϑ) b 1 Norm. }{{ B(a, b) } Normierung ϑ x i+a 1 (1 ϑ) b xi I [0;1] (ϑ) = ϑ a 1 (1 ϑ) b 1 I [0;1] (ϑ) I [0;1] (ϑ) Posteriori ist also wieder eine Betaverteilung, nun mit den Parametern. a = a + x i und b = b x i + 1 = b + (1 x i )
13 Start z.b. mit a = 1, b = 1: Gleichverteilung (als Nichtwissen verkaufbar?) π(ϑ x 1 ) ϑi [0;1] (ϑ) 0 1 große Werte von ϑ plausibler, da ja x = 1, also Treffer beobachtet
14 216 Bleiben wir bei Beobachtung x 1 = 1 Jetzt weiteres Experiment x 2 (neue) priori (alte posteriori) Beta(2,1) Verteilung neue Stichprobe x 2 neue posteriori: Beta(a + x i, b + (1 x i )) z.b. x 2 = 0 a (2) = = 2, b (2) = = 2 π 2 (ϑ (x 1, x 2 ) ) = ϑ2 1 (1 ϑ) 1 Norm. = ϑ1 (1 ϑ) 1 Norm. = ϑ ϑ2 Norm. für ϑ [0; 1] π 2 (0 x) = π 2 (1 x) = 0 0 1
15 Weitere Beobachtung x 3 = 1 Wie sieht posteriori aus? neue posteriori: Beta(a alt + x i, b alt + (1 x i )) a (3) = 2 + 1, b (3) = b alt = 2 π 3 (ϑ (x 1, x 2, x 3 ) ) ϑ 2 (1 ϑ) 1 I [0;1] (ϑ) = ϑ 2 ϑ 3 I [0;1] (ϑ) 217 ganz große/ganz kleine Werte unwahrscheinlich, Schwergewicht eher aber bei ϑ > 1 2, da ja mehr Einser als Nuller beobachtet.
16 x 4 = 1 : π 4 (ϑ (x 1, x 2, x 3, x 4 ) ) ϑ 3 (1 ϑ) 1 weitere Verschiebung nach rechts 218 Allgemein bei n unabhängigen Wiederholungen: π n (ϑ (x 1,..., x n ) ) ist B(a + n x i ; b + n i=1 n x i ) (3.11) verteilt. Man kann zeigen: Dasselbe Ergebnis erhält man, wenn man x 1,..., x n auf einmal verarbeitet. i=1
17 Def (Konjugiertheit) 219 Eine Verteilungsfamilie Π von priori Verteilungen heißt zu einer Menge P von Stichprobenverteilungen konjugiert, wenn für jede priori π( ) Π und jedes P ( ) P die zugehörige posteriori-verteilung wieder ein Element von Π ist. Man sagt dann auch, dass jedes Element π( ) Π zu P konjugiert ist. Bem (Die Konjugiertheit überträgt sich auf suffiziente Statistik) (vgl. Prop. 3.26) Seien Π und P konjugiert. Beschreibt man die Elemente von P mit einer suffizienten Statistik T, so bleibt die posteriori Verteilung von ϑ gegeben t in Π.
18 220 Proposition 3.30 (Weitere Beispiele für Konjugiertheit: Gamma-Poisson-Modell, Selbstkonjugiertheit der Normalverteilung) a) Ist X = (X1,..., X n ) eine i.i.d. Stichprobe eines zum Parameter λ Poisson verteilten Untersuchungsmerkmals, besitzt X also die Wahrscheinlichkeitsfunktion f λ (x) = λ n i=1 x i x 1!x 2!... x n! e nλ = f(x λ), und wählt man als priori Verteilung eine Gamma-Verteilung mit Parametern a und b, d.h. eine Verteilung mit der Dichte π(λ) = b a λ a 1 e bλ, (3.12) }{{} Γ(a) Norm.konst.
19 221 so ist die posteriori Verteilung eine Gamma-Verteilung mit den Parametern n a + x i und b + n. i=1 b) Ist X = (X 1,..., X n ) eine i.i.d. Stichprobe eines mit den Parametern µ und σ 2 normalverteilten Untersuchungsmerkmals, so gilt: i) Ist σ 2 bekannt und wählt man als priori Verteilung für µ eine Normalverteilung mit den Parametern ν und ρ 2, so ist die a posteriori Verteilung π(µ x) eine Normalverteilung mit den Parametern ν und
20 222 ρ 2 mit und ν = xρ 2 + ν σ2 n ρ 2 + σ2 n (3.13) ρ 2 = ρ 2 σ2 n ρ 2 + σ2 n. (3.14)
21 223 ii) Ist µ bekannt, aber σ 2 unbekannt, so erhält man die konjugierte Verteilung, indem man 1 σ als gammaverteilt annimmt. Man sagt 2 dann, σ 2 sei invers gammaverteilt. Beweis: Übungsaufgabe. Andere Beispiele für Konjugiertheit: Rüger Buch; ganz allgemein: jedes Buch zu Bayes Verfahren, z.b. Einleitung zu Martz & Waller Wie findet man solche konjugierten Paare?
22 Satz 3.31 (Zur Konjugiertheit in Exponentialfamilien) 224 Hat in der Situation von Def jedes Element der Menge P der Stichprobenverteilungen eine Dichte bzw. Wahrscheinlichkeitsfunktion f(x ϑ) der Form f(x ϑ) h(ϑ) exp ( T (x) b(ϑ) ) (3.15) und jedes Element der Menge Π, aus der die a priori Verteilung stammt, eine Dichte bzw. Wahrscheinlichkeitsfunktion der Form so sind Π und P konjugiert. Es gilt dann π(ϑ) [h(ϑ)] α exp ( b(ϑ) β ), (3.16) π(ϑ x) [h(ϑ)] α+1 exp ( (T (x) + β) b(ϑ) ). (3.17)
23 225 Beweis: (3.17) ergibt sich unmittelbar durch Anwenden der Formel für die a posteriori Verteilung auf (3.15) und (3.16). (3.17) ist mit α := α + 1 und β := β + T (x) von der Form (3.16), also sind tatsächlich Π und P konjugiert.
24 Beachte: 226 Der Satz kann also direkt zur Konstruktion geeigneter, konjugierter Priori-Verteilungen verwendet werden, indem man die Stichprobenverteilung in die Form (3.15) bringt und dann eine priori gemäß (3.16) wählt. b(ϑ) spielte in (3.15) und in (3.16) eine ganz unterschiedliche Rolle: in (3.15) ist b(ϑ) der natürliche Parameter der Exponentialfamilie, aus der die Likelihood / Stichprobenverteilung stammt. In (3.16) hingegen ist b(ϑ) die suffiziente Statistik für den natürlichen Parameter β der Exponentialfamilie, aus der die priori stammt. (Bei der priori ist ja der Wert von ϑ zufällig.) Ähnliches gilt für h(ϑ)
25 Bsp (Beispiele zu Satz 3.31) 227 Man bestimmt in folgenden Situationen unter Verwendung von Satz 3.31 jeweils eine konjugierte Priori-Verteilung: a) X 1,...X n ist i.i.d. normalverteilt mit unbekanntem µ und bekannter Varianz σ 2 b) X ist binomialverteilt zum unbekannten Parameter p c) X 1,..., X n ist i.i.d. Poisson-verteilt mit unbekanntem Parameter λ
26 a) ausführlich X i N(µ, σ 2 ) X = (X1,..., X n ) 1 ( f(x µ) = n exp 1 2 π σ n 2 σ 2 n i=1 228 x 2 i + 2 µ 1 ) 2 σ2n x 2 σ 2n µ2 1. f(x µ) in Form f(x µ) h(µ) exp ( T (x) b(µ) ) bringen (Form 3.15, µ ˆ=ϑ): ( f(x µ) exp µ2 n 2σ 2 ) } {{ } h(µ) ( nµ x ) exp } σ ( {{ 2 }) exp T (x) b(µ)
27 2. Priori der Form [h(µ)] α exp ( b(µ) β ) wählen (gemäß 3.16): ( π(µ) exp α µ2 n ) ( µ ) exp }{{ 2σ 2 }} σ ({{ 2β )} [h(µ)] α exp b(µ)β 229 Dies ist die zu X i N(µ, σ 2 ), σ 2 bekannt, konjugierte Priori. Probe: Bestimme Posteriori. π(µ x) h(µ) exp ( T (x) b(µ) ) [h(µ)] α exp ( b(µ) β ) = [h(µ)] α+1 exp ( b(µ) (T (x) + β) )
28 230 Dieses Ergebnis entspricht tatsächlich der Form (3.17) und führt genau auf eine Normalverteilung, wie man anhand des folgenden Ansatzes erkennt: π(µ) exp( α µ2 n 2σ ) exp( µ 2 σ 2β) = exp( α µ 2 ) exp(β µ) ( π(µ) = 1 exp 1 ) 2 πρ 2 ρ2(µ ν)2 = exp( µ2 2 ρ + 2 ν µ 2 2 ρ nν2 2 2 ρ 2) = exp( ν µ }{{} ρ 2 β 1 }{{} 2 ρ 2 µ2 ) α
29 b) X Binomial(n, p) f(x p) (1 p) n p exp(ln 1 p ) π(p) (1 p) α n p exp(β ln 1 p ) = ( ) β p = (1 p) α = (1 p) α β p β : Betaverteilung 1 p 231
30 c) (X 1,..., X n ) i.i.d. Poisson-verteilt n f( x ϑ) = f(x i ϑ) = i=1 λ n i=1 x i n i=1 λ x i x i! exp( λ) = = x 1!x 2!... x n! exp( nλ) n exp( nλ) exp( x i ln λ) i=1 π(λ) exp ( (nλ) α ) exp(β ln λ) = = λ β exp( α λ) : Gammaverteilung 232
300 3 Weitere Aspekte der statistischen Entscheidungstheorie. 3.1 Bayes-Verfahren in der statistischen Entscheidungstheorie
300 3 Weitere Aspekte der statistischen Entscheidungstheorie 3.1 Bayes-Verfahren in der statistischen Entscheidungstheorie 3.1.1 Begrifflicher Hintergrund und Erinnerungen 301 Proposition 3.1 (Allgemeines
Mehr2.4.6 Konditionale Bayes-Inferenz: Begrifflicher Hintergrund und. Erinnerungen
2.4.6 Konditionale Bayes-Inferenz: Begrifflicher Hintergrund und Erinnerungen 221 In Kapitel 1.6.1 wurde davon gesprochen, dass die Lösung/ Darstellung des datengestützten Entscheidungsproblems über das
MehrFormelsammlung zur Vorlesung: Einführung in die Bayes-Statistik
1 Verteilungen Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik 1.1 Diskrete Verteilungen Helga Wagner und Gero Walter Binomialverteilung: Y BiNom (n, π) Parameter: n > 0, π [0, 1] Wahrscheinlichkeitsfunktion:
MehrStatistics, Data Analysis, and Simulation SS 2015
Mainz, 2. Juli 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Konjugierte Prior Konjugierte Prior
Mehr1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe
1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe Nachdem eine Stichprobe X 1,..., X n gezogen wurde berechnen wir gewöhnlich irgendwelchen Wert damit. Sei dies T = T (X 1,..., X n, wobei T auch
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
MehrBayesianische Modellwahl. Helga Wagner Bayes Statistik WS 2010/11 161
Bayesianische Modellwahl Helga Wagner Bayes Statistik WS 2010/11 161 Modellwahl Problem der Modellwahl: Welches von K möglichen Modellen M 1,...,M K ist für die Daten y am besten geeignet? Klassisch: LQ-Test
MehrStatistik: Klassisch oder Bayes
Wolfgang Tschirk Statistik: Klassisch oder Bayes Zwei Wege im Vergleich 4Q Springer Spektrum Inhaltsverzeichnis 1 Einleitung 1 1.1 Beschreibende und schließende Statistik 1 1.2 Schließende Statistik: Klassik
MehrNachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!!
Nachholklausur zur Vorlesung Schätzen und Testen I 04. April 2013 Volker Schmid, Ludwig Bothmann, Julia Sommer Aufgabe 1 2 3 4 5 6 Punkte Note Bitte ausfüllen und unterschreiben!!! Name, Vorname: Matrikelnummer:
MehrDas Bayes'sche Prinzip
Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
Mehr1. Grundbegri e der Stochastik
Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt
Mehr1.5.4 Quantile und Modi. Bem [Quantil, Modus]
1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.73. [Quantil, Modus] und Vertei- Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
MehrBAYES SCHE STATISTIK
BAES SCHE STATISTIK FELIX RUBIN EINFÜHRUNG IN DIE STATISTIK, A.D. BARBOUR, HS 2007 1. Einführung Die Bayes sche Statistik gibt eine weitere Methode, um einen unbekannten Parameter θ zu schätzen. Bisher
Mehr2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau
Mehr2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.15. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler unter allen Wählern war 2009 auf eine Nachkommastelle gerundet genau 33.7%. Wie groß ist die Wahrscheinlichkeit,
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Mehr2. Prinzipien der Datenreduktion
2. Prinzipien der Datenreduktion Man verwendet die Information in einer Stichprobe X 1,..., X n, um statistische Inferenz über einen unbekannten Parameter zu betreiben. Falls n groß ist, so ist die beobachtete
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
MehrStatistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
Mehrf(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212
1.6.2 Poisson Verteilung Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte,
MehrStatistik für Informatiker, SS Verteilungen mit Dichte
1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches
MehrBayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194
Bayes Prognose Helga Wagner Bayes Statistik WS 2010/11 194 Prognose einer weiteren Beobachtung Verkehrssicherheitsdaten Senioren: Wieviele Senioren werden in Linz im kommenden Monat getötet oder schwerverletzt?
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
MehrWahrscheinlichkeitsrechnung und Statistik
10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten
Mehr3.3 Methoden zur Evaluierung von Schätzern
3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
Mehr4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion
4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,
MehrModellanpassung und Parameterschätzung. A: Übungsaufgaben
7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit
MehrStochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)
Prof. Dr. M. Maathuis ETH Zürich Winter 2010 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Aufgabe
MehrTeil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation
Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit
MehrBinomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.
Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit
MehrFit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
MehrKapitel IV - Stichprobenfunktionen (Statistiken)
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel IV - Stichprobenfunktionen (Statistiken) Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
MehrStochastik Praktikum Parametrische Schätztheorie
Stochastik Praktikum Parametrische Schätztheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 05.10.2010 Prolog Momentenmethode X : Ω 1 Ω Zufallsgröße, die Experiment beschreibt. Ein statistisches
Mehr10 Transformation von Zufallsvariablen
10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :
MehrDWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
MehrKlausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1
Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
MehrVorlesung 12a. Schätzen von Parametern. Teil 2
Vorlesung 12a Schätzen von Parametern Teil 2 1 Unser Logo der ersten Stunde: X P ϑ (X da) = ρ ϑ (da), ϑ Θ S 2 Ein Logo der Statistik: Θ ˆϑ t X S P ϑ (X da) = ρ ϑ (da), ϑ Θ Θ... Parameterraum S... Beobachtungsraum
MehrFormelsammlung: Statistik und Wahrscheinlichkeitstheorie
Formelsammlung: Statistik und Wahrscheinlichkeitstheorie Kapitel 1: Deskriptive und explorative Statistik Empirische Verteilungsfkt (S15): Quantile (S24): Bei Typ7 1.Pkt = 0 Danach 1/(n-1) Median (S24):
Mehr4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
MehrStatistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie
Ereignisse, Zufallsvariablen und Wahrscheinlichkeiten 1/43 Statistik für Informatiker, SS 2018 1 Grundlagen aus der Wahrscheinlichkeitstheorie 1.1 Ereignisse, Zufallsvariablen und Wahrscheinlichkeiten
Mehr6. Schätzverfahren für Parameter
6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen
MehrChi-Quadrat-Verteilung
Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist
MehrKapitel VII. Einige spezielle stetige Verteilungen
Kapitel VII Einige spezielle stetige Verteilungen D. 7.. (Normalverteilung) Eine stetige Zufallsgröße X sei als normalverteilt bezeichnet, wenn sie folgende Wahrscheinlichkeitsdichte besitzt: µ f ( ; µ,
Mehr5. Stichproben und Statistiken
5. Stichproben und Statistiken Problem: Es sei X eine ZV, die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X kennenlernen (z.b. mittels der VF F X (x)
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrInduktive Statistik Kapitel IV - Stichprobenfunktionen (Statistiken)
Induktive Statistik Kapitel IV - Stichprobenfunktionen (Statistiken) Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de 11. Januar 2007 Aufgabe der schließenden
Mehr3 Statistische Schätzungen
3 Statistische Schätzungen In der Wahrscheinlichkeitstheorie geht es darum, über Modelle Ereignisse zu bewerten bzw. Voraussagen über ihr Eintreten zu treffen. Sind nun umgekehrt Daten bekannt, und wollen
MehrEinführung in die Stochastik
R. Viertl Einführung in die Stochastik mit Elementen der Bayes-Statistik und Ansätzen für die Analyse unscharfer Daten Springer-Verlag Wien New York Inhalt / Einleitung 1 Kapitel I. Elementare Wahrscheinlichkeitsrechnung
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management
für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt
MehrWahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme
Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrStatistische Entscheidungsmodelle
2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Statistische Entscheidungsmodelle Von o. Prof. Dipl.-Vw. Dr. Gerhard
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrStochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)
Prof. Dr. P. Embrechts ETH Zürich Sommer 204 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Vereinfachen
Mehr1.4 Stichproben aus einer Normalverteilung
1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte
MehrSuffizienz und Vollständigkeit
KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt
MehrKapitel IX - Neyman-Pearson-Tests
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel IX - Neyman-Pearson-Tests Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh Ausgangssituation:
Mehr4.2 Moment und Varianz
4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p
MehrStatistische Entscheidungstheorie
KAPITEL 6 Statistische Entscheidungstheorie 6.1. Verlustfunktion, Risiko, Minimax Schätzer Es sei (, A, (P θ ) θ ) ein statistisches Modell. Das heißt, ist die Menge aller möglichen Stichproben, A ist
MehrPunktschätzer Optimalitätskonzepte
Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra
MehrStochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie
Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Sommersemester 2018 Kapitel 8: Elemente der mathematischen Statistik Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrInstitut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER
Institut für Statistik der LMU FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER 2003 2003 Inhaltsverzeichnis 1 Elementare Wahrscheinlichkeitsrechnung 1 1.1 Die Axiome von Kolmogorov...........................
MehrKapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren
Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander
Mehr1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung
0 Einführung 1 Wahrscheinlichkeitsrechnung Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung Motivation und Hinführung Der wahre Anteil der rot-grün Wähler 009 war genau
MehrMusterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60
WESTFÄLISCHE WILHELMS - UNIVERSITÄT MÜNSTER Wirtschaftswissenschaftliche Faktultät Prof. Dr. Bernd Wilfling Professur für VWL, insbesondere Empirische Wirtschaftsforschung Musterlösung zur Klausur im Fach
Mehr1.5.4 Quantile und Modi
1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.70. [Quantil, Modus] Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrEinführung in die statistische Testtheorie II
1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrW-Rechnung und Statistik für Ingenieure Übung 8
W-Rechnung und Statistik für Ingenieure Übung 8 Aufgabe 1 : Motivation Anhand von Daten soll eine Aussage über die voraussichtliche Verteilung zukünftiger Daten gemacht werden, z.b. die Wahrscheinlichkeit
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
MehrDer Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),
2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist
MehrY = g 2 (U 1,U 2 ) = 2 ln U 1 sin 2πU 2
Bsp. 72 (BOX MÜLLER Transformation) Es seien U 1 und U 2 zwei unabhängige, über dem Intervall [0, 1[ gleichverteilte Zufallsgrößen (U i R(0, 1), i = 1, 2), U = (U 1,U 2 ) T ein zufälliger Vektor. Wir betrachten
Mehr7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.
7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
Mehr1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...
Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,
Mehr3.3 Bayes-Entscheidungen in der virtuellen Risikosituation
3.3 Bayes-Entscheidungen in der virtuellen Risikosituation 183 3.3.1 Entscheiden in der Risikosituation 184 Bsp. 3.36 (Beispiel: Lotterie vgl. Bsp. in Abschnitt 1.3.2) Urne mit g (hier: 50) grünen, b (30)
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrLösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI
Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe
MehrModellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch
Modellanpassung Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München SS 2009 Statistik Statistik Wahrscheinlichkeitsrechnung: Gesetze bekannt,
Mehr70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
MehrSozialwissenschaftlerInnen II
Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Wahrscheinlichkeitsfunktionen
Mehr5 Allgemeine Verfahren zum Testen von Hypothesen
5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).
MehrMusterlösung der Klausur vom 29. Juli 2003
Statistik für Bioinformatiker SoSe 2003 Rainer Spang Musterlösung der Klausur vom 29. Juli 2003 Aufgabe 1. 10 Definieren Sie die folgenden statistischen Begriffe in einem Satz oder in einer Formel: 1.
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
MehrStatistics, Data Analysis, and Simulation SS 2017
Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, May 29, 2017 Dr. Michael O. Distler
MehrStatistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de
rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 11. Juli 016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrExkurs: Exakte Konfidenzintervalle für den Erfolgsparameter in der Binomialverteilung. 27. Januar 2014
Exkurs: Exakte Konfidenzintervalle für den Erfolgsparameter in der Binomialverteilung 27. Januar 2014 Unter n unabhängigen Versuchen seien x Erfolge beobachtet worden, wir fassen x als Realisierung einer
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
Mehr