Kapitel IV - Stichprobenfunktionen (Statistiken)
|
|
- Claudia Hedwig Martin
- vor 6 Jahren
- Abrufe
Transkript
1 Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel IV - Stichprobenfunktionen (Statistiken) Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
2 Aufgabe der schließenden Statistik: Festlegung einer Entscheidung auf der Grundlage eines Stichprobenergebnisses Entscheidungsverfahren: Zu jedem möglichen Stichprobenergebnis wird die zugehörige Entscheidung bestimmt. Entscheidungsfunktion δ : X A X Stichprobenraum, A Aktionenraum (Menge der Entscheidungsmöglichkeiten) gesucht: beste Entscheidungsfunktion (benötigt wird dazu ein Bewertungskriterium s.u.) Kapitel IV - Stichprobenfunktionen (Statistiken) 2
3 Problem: X R n ist i.a. sehr umfangreich, d.h. es gibt sehr viele, teilweise auch wenig sinnvolle Entscheidungsfunktionen. Ansatz: Das Stichprobenergebnis enthält auch Informationen, die für die Entscheidung unwesentlich sind, z.b. die Reihenfolge der Messwerte bei einer Stichprobe mit Zurücklegen. Reduktion der Daten auf den für die Entscheidung wesentlichen Kern durch eine Auswertung des Stichprobenergebnisses (z.b. mit Methoden der deskriptiven Statistik) Kapitel IV - Stichprobenfunktionen (Statistiken) 3
4 Beispiele: 1. Kontrolle einer Warenpartie: Stichprobenergebnis (x 1, x 2,..., x n ) mit Auswertung: x i = { 0 i te Stichprobeneinheit ist gut 1 i te Stichprobeneinheit ist schlecht Anzahl schlechter Einheiten = n x i (Oder: Anzahl guter Teile, Stichprobenausschussanteil,...) Kapitel IV - Stichprobenfunktionen (Statistiken) 4
5 2. Justierung einer Maschine: x 1, x 2,..., x n Messwerte x i Stichprobenmittelwert 1 n ist Kandidat für ein sinnvolles Auswertungsverfahren. Kapitel IV - Stichprobenfunktionen (Statistiken) 5
6 Stichprobenfunktion: X Stichprobenraum einer Stichprobe X 1, X 2,..., X n T : X R k heißt Stichprobenfunktion T (X 1, X 2,..., X n ) = T (X ) ist dann Zufallsvariable Kapitel IV - Stichprobenfunktionen (Statistiken) 6
7 Beispiele für Stichprobenfunktionen: 1. T (x 1, x 2,..., x n ) = x 3 bzw. x i für i {1, 2,..., n}. T erhält in der Regel nicht die gesamte Information der Stichprobe, da nur eines der Stichprobenergebnisse benutzt wird. 2.T (x 1,..., x n ) = (x (1),..., x (n) ), d.h. die Stichprobenergebnisse werden ihrer Größe nach geordnet (x (1),..., x (n) ist die geordnete Urliste zu x 1,..., x n ). T heißt Ordnungsstatistik und erhält bei einer Stichprobe mit Zurücklegen alle relevanten Informationen, da in diesem Fall die Reihenfolge der Ergebnisse keine Bedeutung hat. Aber: Keine Datenreduktion. Kapitel IV - Stichprobenfunktionen (Statistiken) 7
8 3. T (x 1,..., x n ) = x z, x z Zentralwert (Median) von x 1, x 2,..., x n, heißt Stichprobenmedian(-zentralwert). 4.T (x 1,..., x n ) mit T (x 1,..., x n ) = 1 n x i heißt Stichprobenmittelwert. Beispiele 3 und 4 sind Kandidaten für Auswertungen bei Untersuchungen, die mit Lageparametern zu tun haben. Kapitel IV - Stichprobenfunktionen (Statistiken) 8
9 5. T (x 1,..., x n ) mit T (x 1,..., x n ) = 1 n (x i x) 2, x = Stichprobenmittelwert, heißt Stichprobenvarianz. 6.T (x 1,..., x n ) T (x 1,..., x n ) = 1 n 1 (x i x) 2, x = Stichprobenmittelwert, heißt korrigierte Stichprobenvarianz. Beispiele 5 und 6 kommen bei Untersuchungen zu Streuungsparametern einer Verteilung in Betracht (aber auch die Stichprobenspannweite, die mittlere absolute Abweichung der Stichprobe, der Quartilsabstand der Stichprobe,...). Kapitel IV - Stichprobenfunktionen (Statistiken) 9
10 Frage: Welche Auswertungen sind sinnvoll? Welche Stichprobenfunktionen dürfen verwendet werden, ohne gute Entscheidungsverfahren auszuschließen? Antwort:T sollte alle entscheidungsrelevanten Informationen der Stichprobe über die Größe (Zustand) erhalten. Wie kann dies überprüft werden? Kapitel IV - Stichprobenfunktionen (Statistiken) 10
11 1. Kontrolle einer Warenpartie: Intuition: Anzahl der schlechten Teile in der Stichprobe enthält alle Informationen über den Ausschussanteil, d.h. zwei Stichprobenergebnisse x = (x 1,..., x n ) und x = (x 1,..., x n) mit übereinstimmender Anzahl schlechter Teile unterscheiden sich nicht bezüglich ihrer Information über den Ausschussanteil. Ist dies richtig? Kapitel IV - Stichprobenfunktionen (Statistiken) 11
12 Dazu: Wahrscheinlichkeitsverteilung der Stichprobe X 1,..., X n auf Teilbereich mit k schlechten Teilen: T (X 1,..., X n ) = k Bedingte Wahrscheinlichkeitsverteilung unter der Bedingung: T (X 1,..., X n ) = k Kapitel IV - Stichprobenfunktionen (Statistiken) 12
13 ( ) P(X = x T (X ) = k) = P X 1 = x 1,..., X n = x n X i = k = = P(X 1 = x 1,..., X n = x n und 0 P( n X i = k) P(X 1=x 1,...,X n=x n) ( n k)p k (1 p) n k n x i k x i = k X i = k) Kapitel IV - Stichprobenfunktionen (Statistiken) 13
14 X 1, X 2,..., X n unabhängig: Dann P(X 1 = x 1,..., X n = x n ) = P(X 1 = x 1 ) P(X 2 = x 2 )... P(X n = x n ) Mit P(X i = 1) = p und P(X i = 0) = 1 p n P(X i = x i ) = p x i x i (1 p) n n Kapitel IV - Stichprobenfunktionen (Statistiken) 14
15 Damit: ( P X = x ) X i = k = = 0 p k (1 p) n k ( n k)p k (1 p) n k 0 1 ( n k) x i k x i = k x i k x i = k Kapitel IV - Stichprobenfunktionen (Statistiken) 15
16 Die bedingte Wahrscheinlichkeitsverteilung hängt also nicht von p ab die Variation des Stichprobenergebnisses im Teilbereich mit T (X 1,..., X n ) = k ist also unbeeinflusst vom Ausschussanteil p und damit auch ohne Information über p. Kapitel IV - Stichprobenfunktionen (Statistiken) 16
17 2. Fehleranzahlen Bei der Produktion von Teilen können ein oder mehrere Fehler entstehen (z.b. Lackierfehler an Automobilkarossen). Die Anzahl der Fehler an einer Produkteinheit entspreche einer Zufallsvariable Y. Y sei Poisson-verteilt mit Parameter λ, λ sei unbekannt. Durch eine Stichprobe soll Information über λ ermittelt werden. Stichprobenergebnis: x 1, x 2,..., x n (x i ganze Zahl 0) Kapitel IV - Stichprobenfunktionen (Statistiken) 17
18 Vermutung: Wesentliche Information über den Parameter λ des Stichprobenergebnisses ist die Gesamtzahl der Fehler (oder die durchschnittliche Fehlerzahl). Zugehörige Stichprobenfunktion ist: T (x 1,..., x n ) = n x i Überprüfung der Vermutung: Stichprobe mit Zurücklegen, d.h. X 1, X 2,..., X n unabhängig, identisch verteilt wie Y ( ) P X = x 1,..., X n = x n T (X 1,..., X n ) = X i = k =? Kapitel IV - Stichprobenfunktionen (Statistiken) 18
19 P ( X = x 1,..., X n = x n T (X 1,..., X n ) = ) X i = k = 0 P(X =x) P( n X i =k) x i k x i = k Kapitel IV - Stichprobenfunktionen (Statistiken) 19
20 mit P(X = x) = P(X 1 = x 1,..., X n = x n ) = P(X 1 = x 1 ) P(X 2 = x 2 )... P(X n = x n ) = λx 1 x 1! e λ... λxn x n! e λ = n ( λx i x i! e λ ) Kapitel IV - Stichprobenfunktionen (Statistiken) 20
21 X i ist Poisson-verteilt mit Parameter nλ: P( n Damit ist: X i = k) = (nλ)k k! e nλ P(X =x) P( n X i =k) = n ( λx i x i! e λ ) = (nλ) k e k! nλ = ( n n x i 1 x i! )λ e nλ (nλ) k k! e nλ n k k! 1 x i! Kapitel IV - Stichprobenfunktionen (Statistiken) 21
22 Die ( bedingte Wahrscheinlichkeitsverteilung P X 1 = x 1,..., X n = x n T (X 1,..., X n ) = n ) X i = k = n ist also unabhängig vom Parameter λ. Welche = k! n k 1 x i! spezielle Stichprobe mit (x 1, x 2,..., x n ) mit Gesamtfehlerzahl k vorliegt, liefert demnach keine Information über λ. Kapitel IV - Stichprobenfunktionen (Statistiken) 22
23 Eine Stichprobenfunktion T enthält also die Information der Stichprobe über den Parameter der Verteilung, wenn die bedingte Wahrscheinlichkeit des Stichprobenvektors mit T (X ) = t als Bedingung nicht vom Parameter abhängt. T heißt dann suffizient bezüglich des Parameters. Kapitel IV - Stichprobenfunktionen (Statistiken) 23
24 Definition: Sei Γ der Parameterraum zur Verteilungsannahme einer diskreten Zufallsvariablen Y. X = (X 1,..., X n ) sei eine Stichprobe zu Y mit Stichprobenraum X. Eine Stichprobenfunktion T : X R k heißt suffizient bzgl. γ Γ, wenn P γ (X = x T (X ) = t) für alle x X und t R k mit P γ (T (X ) = t) 0 von γ unabhängig ist, also allein von x und t abhängt. Kapitel IV - Stichprobenfunktionen (Statistiken) 24
25 Folgerung: Wegen P γ (X = x) = P(X = x T (X ) = t)p γ (T (X ) = t) ist bei suffizientem T die Wahrscheinlichkeitsverteilung zerlegt in zwei Faktoren, von denen P(X = x T (X ) = t) nur von x (t ergibt sich aus T (x) = t) und P γ (T (X ) = t) von γ und t abhängt. Kapitel IV - Stichprobenfunktionen (Statistiken) 25
26 Es gilt demnach mit P(X = x T (X ) = t) = h(x) und P γ (T (X ) = t) = g(t (x), γ) (*) P γ (X = x) = g(t (x), γ)h(x). Aus (*) folgt aber : P γ(x = x T (X ) = t) = = = Pγ(X = x, T (X ) = t) P γ(t (X ) = t) g(t (x), γ)h(x) = P γ(x = x) x X : T ( x)=t g(t (x), γ)h(x) g(t ( x), γ)h( x) = g(t, γ)h(x) g(t, γ)h( x) x X : T ( x)=t x X : T ( x)=t h(x) hängt nicht von γ ab h( x) x X : T ( x)=t Kapitel IV - Stichprobenfunktionen (Statistiken) 26
27 Im diskreten Fall ist eine Stichprobenfunktion genau dann suffizient bezüglich einem Parameter γ, wenn sich die Wahrscheinlichkeitsverteilung des Stichprobenvektors entsprechend (*) in Faktoren zerlegen lässt. (Faktorisierungstheorem von Neyman). Beispiele: 1. Bernoulliverteilung: P(X 1 = x 1,..., X n = x n ) = P(X 1 = x 1 )... P(X n = x n ) x i n n x i = p (1 p) = g(t (x), p)h(x) mit h(x) = 1 Kapitel IV - Stichprobenfunktionen (Statistiken) 27
28 2. Poissonverteilung: P(X = x) = P(X 1 = x 1,..., X n = x n ) = P(X 1 = x 1 )... P(X n = x n ) = λx 1 x 1! e λ... λxn x n! e λ = n ( λx i = λ mit g(t (x), λ) = λ x i e nλ 1 x 1!x 2!... x n! x i e nλ, T (x) = n x i! e λ ) = g(t (x), λ)h(x) x i und h(x) = 1 x 1!x 2!... x n! Kapitel IV - Stichprobenfunktionen (Statistiken) 28
29 Im stetigen Fall sind die analogen Betrachtungen mit der Dichtefunktion durchzuführen. Beispiel: 1. Exponentialverteilung Sei Y exponentialverteilt mit Parameter λ > 0, X 1, X 2,..., X n eine einfache Stichprobe mit Zurücklegen zu Y. Dann gilt f X,λ (x 1,..., x n ) = n λe λx i = λ n e λ x i =... Kapitel IV - Stichprobenfunktionen (Statistiken) 29
30 mit g(t (x), λ) = λ n e λ = g( n x i, λ) h(x) x i, T (x) = x i und h(x) = 1. Zur Berechnung der bedingten Dichte unter der Bedingung T (X ) = n X i = t wird die Verteilung von benötigt. X i Kapitel IV - Stichprobenfunktionen (Statistiken) 30
31 Man erhält (s. Übungsaufgabe aus der Wahrscheinlichkeitstheorie) die Erlang-Verteilung mit Stufenzahl n mit der Dichtefunktion λ n (n 1)! tn 1 e λt t 0 f (t) = 0 t < 0 Kapitel IV - Stichprobenfunktionen (Statistiken) 31
32 ... und damit die bedingte Dichte f (X,λ T (X )=t) (x) = = n λe λx i λ n (n 1)! tn 1 e λt λ n (n 1)! ( n = (n 1)! für x = (x 1,..., x n ) mit x i = t. λ n e λ x i x i ) n 1 e λ 1 ( n x i ) n 1 x i Kapitel IV - Stichprobenfunktionen (Statistiken) 32
33 Die Dichte lässt sich also analog in zwei Faktoren zerlegen und die bedingte Dichte ist unabhängig vom Parameter. Die Stichprobenfunktion T (x 1, x 2,..., x n ) = n ist also suffizient bezüglich λ. x i Kapitel IV - Stichprobenfunktionen (Statistiken) 33
34 2. Normalverteilung Sei Y N(µ, σ 2 )-verteilt, also mit der Dichte f Y,µ,σ 2(y) = 1 (y µ)2 e 2σ 2 2πσ 2 Kapitel IV - Stichprobenfunktionen (Statistiken) 34
35 Dann ist für eine Stichprobe X mit Zurücklegen: f X,µ,σ 2(x 1,..., x n ) = = = = n 1 (x 2πσ 2 e i µ) 2σ 2 1 (2πσ 2 ) n e 1 (2πσ 2 ) n e (2πσ 2 ) n e 2σ 2 2 (x i µ) 2 2σ 2 2σ 2 ( n xi 2 2µ n x i +nµ 2 ) xi 2 e µ σ 2 x i e nµ2 2σ 2 Kapitel IV - Stichprobenfunktionen (Statistiken) 35
36 Dieser Ausdruck hängt außer von den Parametern µ und σ 2 nur von xi 2 und n x i ab. Die zweidimensionale Stichprobenfunktion suffizient bezüglich (µ, σ 2 ). T (x 1,..., x n ) = ( n x i, xi 2) ist Kapitel IV - Stichprobenfunktionen (Statistiken) 36
37 In den Beispielen spielt die Exponentialfunktion eine wesentliche Rolle, da das Produkt von Exponentialfunktionen mit der Exponentialfunktion der Summe der Exponenten übereinstimmt: Folgerung: n e z i = e z i Immer wenn wir die Wahrscheinlichkeiten bzw. die Dichte der Zufallsvariablen als Exponentialfunktion schreiben können, haben wir gute Aussichten, eine suffiziente Statistik zu erhalten. Kapitel IV - Stichprobenfunktionen (Statistiken) 37
38 Beispiele: 1. Poissonverteilung: P λ (Y = y) = λy y! e λ = e y ln λ 1 y! e λ Daraus folgt für eine einfache Stichprobe X = (X 1,..., X n ) mit Zurücklegen P λ (X = x) = = n ( λ x i ) x i! e λ = [ n ] ( 1 x i! ) e ln λ n x i e nλ ( ) 1 x i! ex i ln λ e λ Kapitel IV - Stichprobenfunktionen (Statistiken) 38
39 2. Normalverteilung: f µ,σ 2(y) = = 1 (y µ)2 e 2σ 2 = 2πσ 2 1 µ2 e 2σ 2 2πσ 2 1 y2 e 2σ 2 + µy σ 2 e µ2 2σ 2 2πσ 2 e y2 2σ 2 e 2µy 2σ 2 Daraus folgt für eine einfache Stichprobe X = (X 1,..., X n ) mit Zurücklegen f µ,σ 2(x) = n f µ,σ 2(x i ) = ( ) 1 µ2 n e 2σ 2 e 1 2σ 2 2πσ 2 xi 2 e µ σ 2 x i Kapitel IV - Stichprobenfunktionen (Statistiken) 39
40 Nennen wir den Parameter γ, so ist in beiden Beispielen die Wahrscheinlichkeit bzw. die Dichte von der Form (+) a(γ)h(y)e r b k (γ)τ k (y) k=1 Kapitel IV - Stichprobenfunktionen (Statistiken) 40
41 1. Poissonverteilung: r = 1 e λ 1 y! eylnλ a(γ)h(y)e b(γ)τ(y) mit a(γ) = e λ, h(y) = 1 y!, b(γ) = ln λ, τ(y) = y Kapitel IV - Stichprobenfunktionen (Statistiken) 41
42 2. Normalverteilung r = 2 a(γ)h(y)e b 1(γ)τ(y)+b 2 (γ)τ 2 (y) mit a(µ, σ 2 ) = 1 µ2 e 2σ 2, h(y) = 1 σ 2 2π, b 1 (µ, σ 2 ) = 1 2σ 2, τ 1 (y) = y 2, b 2 (µ, σ 2 ) = µ σ 2, τ 2 (y) = y. Kapitel IV - Stichprobenfunktionen (Statistiken) 42
43 Aus der Darstellung (+) für die Wahrscheinlichkeit bzw. Dichte einer Zufallsvariablen ergibt sich unmittelbar für die Wahrscheinlichkeit bzw. Dichte einer Stichprobe mit Zurücklegen r [ n b k (γ)τ k (x i ) n ] r a(γ)h(x i )ek=1 = a(γ) n b k (γ) n τ k (x i ) h(x i ) ek=1 = g(t (x), γ) h(x) ( ) mit T (x) = τ 1 (x i ),..., τ r (x i ), r g(t (x), γ) = a(γ) n b k (γ) n τ k (x i ) n ek=1, h(x) = h(x i ) Kapitel IV - Stichprobenfunktionen (Statistiken) 43
44 Falls bei der Verteilung der Zufallsvariable Y eine Darstellung der Form (+) vorliegt, nennen wir die Verteilungsannahme der Zufallsvariable eine Exponentialfamilie. Exponentialfamilie: Y diskret Y stetig P γ (Y = y) = a(γ)h(y)e f Y,γ (y) = a(γ)h(y)e r b j (γ)τ j (y) j=1 r b j (γ)τ j (y) j=1 Kapitel IV - Stichprobenfunktionen (Statistiken) 44
45 Folgerung: T (x) = ( n τ 1 (x i ),..., τ r (x i )) ist suffiziente Stichprobenfunktion bezüglich γ. Kapitel IV - Stichprobenfunktionen (Statistiken) 45
46 Beispiel: Gammaverteilung Dichte der Gammaverteilung ist { 1 f α,λ (y) = Γ(α) λα y α 1 e λy y 0 0 y < 0 Γ(α) ist dabei die Gammafunktion an der Stelle α; für eine natürliche Zahl n gilt Γ(n) = (n 1)! Hinweis: Für α = n erhalten wir also die Erlang-Verteilung mit Stufenzahl n. Kapitel IV - Stichprobenfunktionen (Statistiken) 46
47 Mit gilt a(α, λ) = 1 Γ(α) λα, { 1 y 0 h(y) = 0 y < 0 b 1 (α, λ) = α 1, τ 1 (y) = ln(y), b 2 (α, λ) = λ, τ 2 (y) = y f α,λ (y) = a(α, λ)h(y)e b 1(α,λ)τ 1 (y)+b 2 (α,λ)τ 2 (y) Kapitel IV - Stichprobenfunktionen (Statistiken) 47
48 Damit ist T (x) = ( ln(x i ), x i ) suffizient bezüglich α und λ. Kapitel IV - Stichprobenfunktionen (Statistiken) 48
49 Sei T eine suffiziente Stichprobenfunktion, so sollte die Entscheidung (Schlussfolgerung) aus dem Stichprobenergebnis nur vom Auswertungsergebnis bei T abhängen, d.h. sind x = (x 1,..., x n ) und x = ( x 1,..., x n ) zwei Stichprobenergebnisse mit T (x) = T ( x), so sollten die Entscheidungen bei x und x, übereinstimmen. Damit wird die Menge der möglichen Entscheidungsverfahren stark reduziert, falls eine geeignete suffiziente Statistik benutzt wird. Kapitel IV - Stichprobenfunktionen (Statistiken) 49
50 x, x δ(x) = δ (T (x)) = δ (T (x )) X T T (x) = T (x ) X T δ δ A = δ(x ) δ = δ T Reduktion auf die wesentliche Information zur Entscheidungsfindung. Kapitel IV - Stichprobenfunktionen (Statistiken) 50
51 Sei X T die Menge der möglichen Auswertungsergebnisse bei der Stichprobenfunktion T, also X T = {T (x) x X } so ist δ T : X T A eine Entscheidungsfunktion mit Benutzung von T, d.h. zum Stichprobenergebnis x wird zunächst die Auswertung T (x) berechnet und abhängig von diesem Auswertungsergebnis T (x) die Entscheidung δ T (T (x)) getroffen. Kapitel IV - Stichprobenfunktionen (Statistiken) 51
52 Behauptung: Wird eine Stichprobenfunktion T aus einer Darstellung der Wahrscheinlichkeits - verteilung von Y als Exponentialfamilie gewonnen, so sind zwei Entscheidungsfunktionen mit Benutzung von T durch ihren Erwartungswert nahezu vollständig festgelegt. Kapitel IV - Stichprobenfunktionen (Statistiken) 52
53 Beispiel-Poisson-Verteilung: T (x 1,..., x n ) = ist suffizient bezüglich dem Parameter λ > 0. Seien δ1 T und δt 2 zwei Entscheidungsfunktionen mit Benutzung von T. Erwartungswert von δi T ist x i E λ (δ T i (T (X ))) = = δi T (k)p λ (T (X ) = k) = δi T (k)p λ ( X j = k) k=0 k=0 δi T (k) (nλ)k e nλ k! k=0 j=1 Kapitel IV - Stichprobenfunktionen (Statistiken) 53
54 Stimmen die Erwartungswerte von δ 1 und δ 2 überein für alle λ > 0, so gilt 0 = E λ (δ T 1 (T (X ))) E λ (δ T 2 (T (X ))) = Da e nλ 0 ist, ist dies gleichwertig mit k=0 (δ1 T (k) δ2 T (k)) (nλ)k k! k=0 e nλ = e nλ (δ1 T (k) δ2 T (k)) (nλ)k k! k=0 (δ1 T (k) δ2 T (k)) (nλ)k = 0 für alle λ > 0 k! δ T 1 (k) = δ T 2 (k) für alle k. Kapitel IV - Stichprobenfunktionen (Statistiken) 54
55 Eine Stichprobenfunktion T mit der Eigenschaft, dass je zwei Funktionen δ T 1 und δt 2 mit übereinstimmendem Erwartungswert auch selbst übereinstimmen, heißt vollständig. Kapitel IV - Stichprobenfunktionen (Statistiken) 55
56 Definition: Sei X eine Stichprobe zu Y, X der Stichprobenraum. Y habe eine parametrische Verteilungsannahme mit Parameter γ aus dem Parameterraum Γ. Eine Stichprobenfunktion(Statistik) T heißt vollständig bezüglich γ, wenn für je zwei Funktionen δ T 1 und δt 2 aus folgt, dass gilt. E γ (δ1 T (T (X ))) = E γ(δ2 T (T (X ))) für alle γ Γ P γ (δ1 T (T (X )) = δt 2 (T (X ))) = 1 Kapitel IV - Stichprobenfunktionen (Statistiken) 56
57 Satz: Sei X eine Stichprobe zu Y, deren Verteilung sich als Exponentialfamilie schreiben lässt, d.h. es gilt Y diskret : P γ (Y = y) Y stetig : f Y,γ (y) } = a(γ)h(y)e dann ist ( T (x 1,..., x n ) = τ 1 (x i ),..., ) τ r (x i ) r b j (γ)τ j (y) j=1 eine suffiziente und vollständige Statistik bezüglich γ, wenn B = {(b 1 (γ),..., b r (γ)) γ Γ} R r einen offenen Quader im R r enthält. Kapitel IV - Stichprobenfunktionen (Statistiken) 57
58 Folgerungen: Sei X 1, X 2,..., X n eine einfache Stichprobe mit Zurücklegen zu Y. Dann ist suffizient und vollständig,... T (x 1,..., x n ) = n x i Kapitel IV - Stichprobenfunktionen (Statistiken) 58
59 ... falls y a) Bernoulli-verteilt mit Parameter p [0, 1], (Übungsaufgabe: Man stelle die Wahrscheinlichkeitsverteilung von Y als Exponentialfamilie dar.) b) binomialverteilt mit Parameter p [0, 1], c) Poisson-verteilt mit Parameter λ > 0, d) exponentialverteilt mit Parameter λ > 0. Kapitel IV - Stichprobenfunktionen (Statistiken) 59
60 Beispiel-Normalverteilung: f µ,σ 2(y) = = 1 (y µ)2 e 2σ 2 = 2πσ 2 1 µ2 e 2σ 2 2πσ 2 1 y2 e 2σ 2 + µy σ 2 e µ2 2σ 2 2πσ 2 e y2 2σ 2 e 2µy 2σ 2 Kapitel IV - Stichprobenfunktionen (Statistiken) 60
61 1. µ und σ 2 unbekannt (und entscheidungsrelevant): a(µ, σ 2 ) = 1 µ2 e 2σ 2, h(y) = 1 σ 2 2π, b 1 (µ, σ 2 ) = 1 2σ 2, τ 1 (y) = y 2, b 2 (µ, σ 2 ) = µ σ 2, τ 2 (y) = y. ergibt eine Darstellung als Exponentialfamilie. Kapitel IV - Stichprobenfunktionen (Statistiken) 61
62 T (x 1,..., x n ) = ( n x i, xi 2) ist eine suffiziente Statistik bezüglich (µ, σ 2 ). Sie ist auch vollständig bezüglich (µ, σ 2 ), da B = {( 1 2σ 2, µ σ 2 ) µ R, σ2 > 0} = {(β 1, β 2 ) β 1 < 0, β 2 R} = R R einen offenen Quader im R 2 enthält. Kapitel IV - Stichprobenfunktionen (Statistiken) 62
63 2. µ unbekannt (und entscheidungsrelevant), σ 2 fest: Der Parameterraum ist jetzt Γ = R. Mit a(µ) = 1 µ2 e 2σ 2, h(y) = 1 σ 2 2π e y2 2σ 2, b(µ) = µ, τ σ 2 2 (y) = y erhalten wir eine Darstellung als Exponentialfamilie, so dass T (x 1,..., x n ) = n x i suffizient bezüglich µ ist. T ist auch vollständig, da B = { µ µ R} = R σ2 (enthält offenen Quader) Kapitel IV - Stichprobenfunktionen (Statistiken) 63
64 3. σ 2 unbekannt (und entscheidungsrelevant), µ fest: a(σ 2 ) = 1 σ 2, h(y) = 1 2π, b(σ 2 ) = 1 2σ 2, τ(y) = (y µ) 2 ergibt jetzt eine Darstellung als Exponentialfamilie für den Parameter σ 2. Wegen ist damit B = { 1 2σ 2 σ2 > 0} = {x R x < 0} T (x 1,..., x n ) = (x i µ) 2 suffizient und vollständig bezüglich σ 2. Kapitel IV - Stichprobenfunktionen (Statistiken) 64
Induktive Statistik Kapitel IV - Stichprobenfunktionen (Statistiken)
Induktive Statistik Kapitel IV - Stichprobenfunktionen (Statistiken) Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de 11. Januar 2007 Aufgabe der schließenden
MehrKapitel IX - Neyman-Pearson-Tests
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel IX - Neyman-Pearson-Tests Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh Ausgangssituation:
MehrKapitel V - Erwartungstreue Schätzfunktionen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel V - Erwartungstreue Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
MehrKapitel VI - Maximum-Likelihood-Schätzfunktionen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VI - Maximum-Likelihood-Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
MehrKapitel III - Grundannahmen der schließenden Statistik
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel III - Grundannahmen der schließenden Statistik Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo
MehrKapitel XI - Operationscharakteristik und Gütefunktion
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XI - Operationscharakteristik und Gütefunktion Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo
MehrKapitel VIII - Tests zum Niveau α
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VIII - Tests zum Niveau α Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh Testsituationen
MehrKapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen Induktive Statistik Prof. Dr. W.-D. Heller
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
MehrWahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen
Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei
MehrKapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Induktive Statistik Prof. Dr. W.-D.
MehrStatistik für Ingenieure Vorlesung 5
Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:
MehrKapitel XIV - Anpassungstests
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XIV - Anpassungstests Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh 2. Grundannahme:
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
MehrKapitel XI - Die n-fache unabhängige Wiederholung eines Experiments
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XI - Die n-fache unabhängige Wiederholung eines Experiments Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion f(x) =
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
MehrZentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie
SS 2014 Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2014ss/dwt/uebung/ 5. Juni 2014 ZÜ DWT ZÜ VI Übersicht:
MehrChi-Quadrat-Verteilung
Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist
Mehr3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)
3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f
Mehr6.6 Poisson-Verteilung
6.6 Poisson-Verteilung Die Poisson-Verteilung ist eine Wahrscheinlichkeitsverteilung, die zur Modellierung der Anzahl von zufälligen Vorkommnissen in einem bestimmten räumlichen oder zeitlichen Abschnitt
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
MehrKapitel VI - Lage- und Streuungsparameter
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie
MehrKapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management
für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt
Mehr1.5.4 Quantile und Modi. Bem [Quantil, Modus]
1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.73. [Quantil, Modus] und Vertei- Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrBiostatistik, Sommer 2017
1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:
MehrLösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI
Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
Mehr5. Stichproben und Statistiken
5. Stichproben und Statistiken Problem: Es sei X eine ZV, die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X kennenlernen (z.b. mittels der VF F X (x)
MehrKapitel XIII - Funktion und Transformation mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XIII - Funktion und Transformation mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D.
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
MehrFit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
MehrKapitel IV - Spezielle Verteilungen: Diskrete Verteilungen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel IV - Spezielle Verteilungen: Diskrete Verteilungen Markus Höchstötter Lehrstuhl
MehrSeminar stabile Zufallsprozesse
Definitionen und Eigenschaften stabiler Verteilungen 2. November 2011 Inhalt 1 Definitionen Definitionen Beweis der Äquivalenz Beispiele 2 Eigenschaften 3 Charakteristische Funktion 4 Laplace Transformation
MehrSuffizienz und Vollständigkeit
KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt
Mehr1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe
1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe Nachdem eine Stichprobe X 1,..., X n gezogen wurde berechnen wir gewöhnlich irgendwelchen Wert damit. Sei dies T = T (X 1,..., X n, wobei T auch
MehrDiskrete Strukturen II
SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen
MehrZufallsvariablen. f(x) dx = 1. Die stetige Zufallsvariable X wird also durch seine Dichtefunktion beschrieben. P(c < X < d) =
Diskrete Sei X stetig auf (a,b), wobei a, b unendlich sein können, a x 0 < x 1 b P(X = x 0 ) = 0, P(x 0 < X < x 1 ) > 0 (wenn f > 0). Die Funktion f heißt Dichtefunktion (von X) falls: 1. f(x) 0, a < x
MehrStatistik für Ingenieure Vorlesung 3
Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind
MehrKlausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1
Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne
MehrSatz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]
Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x
MehrW-Rechnung und Statistik für Ingenieure Übung 8
W-Rechnung und Statistik für Ingenieure Übung 8 Aufgabe 1 : Motivation Anhand von Daten soll eine Aussage über die voraussichtliche Verteilung zukünftiger Daten gemacht werden, z.b. die Wahrscheinlichkeit
MehrStochastik und Statistik für Ingenieure Vorlesung 4
Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl
Mehr4.2 Moment und Varianz
4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge
MehrVeranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn Referenten: Belinda Höher, Thomas Holub, Maria Böhm.
Veranstaltung: Statistik für das Lehramt 16.12.2016 Dozent: Martin Tautenhahn Referenten: Belinda Höher, Thomas Holub, Maria Böhm Erwartungswert Varianz Standardabweichung Die Wahrscheinlichkeitsverteilung
MehrStatistik für Ingenieure und Naturwissenschaftler
Sheldon M. Ross Statistik für Ingenieure und Naturwissenschaftler 3. Auflage Aus dem Amerikanischen übersetzt von Carsten Heinisch ELSEVIER SPEKTRUM AKADEMISCHER VERLAG Spektrum Inhalt Vorwort zur dritten
MehrInduktive Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung
Induktive Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de
MehrETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
Mehr2. Prinzipien der Datenreduktion
2. Prinzipien der Datenreduktion Man verwendet die Information in einer Stichprobe X 1,..., X n, um statistische Inferenz über einen unbekannten Parameter zu betreiben. Falls n groß ist, so ist die beobachtete
MehrModellanpassung und Parameterschätzung. A: Übungsaufgaben
7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrFinanzmathematische Modelle und Simulation
Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrVerteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung
Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Typisierung der stetigen theoretischen Verteilungen Bibliografie:
MehrSchließende Statistik
Schließende Statistik Vorlesung an der Universität des Saarlandes Dr. Martin Becker Wintersemester 20/5 Schließende Statistik (WS 20/5) Folie Einleitung Organisatorisches. Organisatorisches I Vorlesung:
Mehr6. Kontinuierliche Zufallsgrößen. Beispiel 1: Die Exponentialverteilungen Sei λ > 0. Setzen
6. Kontinuierliche Zufallsgrößen Definition: Eine Z. G. ξ ist absolut stetig mit (Wahrscheinlichkeits-) Dichte f : R R, wenn gilt: P ( a ξ < b ) = b a f(x) dx (a < b) allgem. Eigenschaften einer Dichte
MehrWahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de
MehrWahrscheinlichkeitsrechnung und Statistik
5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften
Mehr7.4 Charakteristische Funktionen
7.4 Charakteristische Funktionen Def. 25 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx
MehrStatistik für Ingenieure Vorlesung 6
Statistik für Ingenieure Vorlesung 6 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 05. Dezember 2017 3.4.3 Stetige Gleichverteilung Parameter: Intervall [a, b] R. Zufallsgröße
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr
1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand
Mehr6. Schätzverfahren für Parameter
6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
Mehr5 Binomial- und Poissonverteilung
45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1
MehrStetige Verteilungen Rechteckverteilung
Stetige Verteilungen Rechteckverteilung Die Längenabweichungen X produzierter Werkstücke von der Norm seien gleichmäßig verteilt zwischen a = mm und b = 4mm. Die Dichtefunktion lautet also f(x) = für a
MehrMusterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60
WESTFÄLISCHE WILHELMS - UNIVERSITÄT MÜNSTER Wirtschaftswissenschaftliche Faktultät Prof. Dr. Bernd Wilfling Professur für VWL, insbesondere Empirische Wirtschaftsforschung Musterlösung zur Klausur im Fach
MehrZulassungsprüfung Stochastik,
Zulassungsprüfung Stochastik, 10.10.14 Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß
MehrBiostatistik, Sommer 2017
1/52 Biostatistik, Sommer 2017 Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 02.06.2017 2/52 Inhalt 1 Wahrscheinlichkeit Bayes sche Formel 2 Diskrete Stetige 3/52 Wahrscheinlichkeit Bayes
MehrPhilipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler
Philipp Sibbertsen Hartmut Lehne Statistik Einführung für Wirtschafts- und Sozialwissenschaftler 2., überarbeitete Auflage 4^ Springer Gabler Inhaltsverzeichnis Teil I Deskriptive Statistik 1 Einführung
MehrKapitel 9. Verteilungsmodelle. 9.1 Diskrete Verteilungsmodelle Die Gleichverteilung
Kapitel 9 Verteilungsmodelle Es gibt eine Reihe von Verteilungsmodellen für univariate diskrete und stetige Zufallsvariablen, die sich in der Praxis bewährt haben. Wir wollen uns von diesen einige anschauen.
MehrKapitel I - Das klassische Entscheidungsmodell
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel I - Das klassische Entscheidungsmodell Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
MehrEinführung in Quantitative Methoden
Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung
Mehr5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung
5 Konfidenzschätzung 5. Einige Grundbegriffe zur Konfidenzschätzung Diesem Kapitel liegt das parametrische Modell {X, B X, P } mit P {P Θ} zugrunde. {Θ, B Θ } sei ein Meßraum über Θ und µ ein σ-finites
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehr1.5.4 Quantile und Modi
1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.70. [Quantil, Modus] Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
MehrModelle für Daten mit kontinuierlichen Wertebereich Verteilungen mit (Wahrscheinlichkeits-)Dichte. Normalverteilung N (µ, σ 2 ) mit Dichte
Statistik II für Wirtschaftswissenschaftler Folie 6.1 Modelle für Daten mit kontinuierlichen Wertebereich Verteilungen mit (Wahrscheinlichkeits-)Dichte I) Werte in (, ), Parameter µ (, ), σ 2 > 0 Normalverteilung
Mehr1 Relevante Beispiele für Verteilungen auf R
Prof. Dr. H. Zähle Vorlesung Sachversicherungsmathemati, Anlage 1 Universität des Saarlandes, SS 2010 1 Relevante Beispiele Verteilungen auf R Wir bezeichnen die Menge aller W-Maße auf (R, B(R)) mit M
MehrWahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme
Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder
MehrSpezielle stetige Verteilungen
Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für
MehrBinomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.
Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
Mehr8 Die Exponentialverteilung
8 Die Exponentialverteilung 8.1 Einführung Modelle Zuverlässigkeitsmodelle Lebensdauermodelle Bedienungsmodelle. 277 W.Kössler, Humboldt-Universität zu Berlin Def. 26 (Exponentialverteilung) Sei X eine
MehrInhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5
Inhaltsverzeichnis Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite 1.0 Erste Begriffsbildungen 1 1.1 Merkmale und Skalen 5 1.2 Von der Urliste zu Häufigkeitsverteilungen 9 1.2.0 Erste Ordnung
MehrÜbungsaufgaben zu Statistik II
Übungsaufgaben zu Statistik II Prof. Dr. Irene Prof. Dr. Albrecht Ungerer Die Kapitel beziehen sich auf das Buch: /Ungerer (2016): Statistik für Wirtschaftswissenschaftler Springer Gabler 4 Übungsaufgaben
MehrStatistik für NichtStatistiker
Statistik für NichtStatistiker Zufall und Wahrscheinlichkeit von Prof. Dr. Karl Bosch 5., verbesserte Auflage R. Oldenbourg Verlag München Wien Inhaltsverzeichnis 1. ZufalLsexperimente und zufällige Ereignisse
Mehr3 Stetige Zufallsvariablen
3 Stetige Zufallsvariablen Eine Zufallsvariable heißt stetig, falls zu je zwei Werten a < b auch jeder Zwischenwert im Intervall [a, b] möglich ist Beispiele: X = Alter, X = Körpergröße, X = Temperatur,
MehrGrundbegriffe der Stochastik II
Grundbegriffe der Stochastik II Henrik Gebauer 6. Oktober 9 Zusammenfassung Dieser Vortrag dient der Wiederholung zentraler Begriffe der kontinuierlichen Stochastik. Wahrscheinlichkeitsverteilungen Sei
Mehr