Kapitel IV - Stichprobenfunktionen (Statistiken)

Größe: px
Ab Seite anzeigen:

Download "Kapitel IV - Stichprobenfunktionen (Statistiken)"

Transkript

1 Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel IV - Stichprobenfunktionen (Statistiken) Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

2 Aufgabe der schließenden Statistik: Festlegung einer Entscheidung auf der Grundlage eines Stichprobenergebnisses Entscheidungsverfahren: Zu jedem möglichen Stichprobenergebnis wird die zugehörige Entscheidung bestimmt. Entscheidungsfunktion δ : X A X Stichprobenraum, A Aktionenraum (Menge der Entscheidungsmöglichkeiten) gesucht: beste Entscheidungsfunktion (benötigt wird dazu ein Bewertungskriterium s.u.) Kapitel IV - Stichprobenfunktionen (Statistiken) 2

3 Problem: X R n ist i.a. sehr umfangreich, d.h. es gibt sehr viele, teilweise auch wenig sinnvolle Entscheidungsfunktionen. Ansatz: Das Stichprobenergebnis enthält auch Informationen, die für die Entscheidung unwesentlich sind, z.b. die Reihenfolge der Messwerte bei einer Stichprobe mit Zurücklegen. Reduktion der Daten auf den für die Entscheidung wesentlichen Kern durch eine Auswertung des Stichprobenergebnisses (z.b. mit Methoden der deskriptiven Statistik) Kapitel IV - Stichprobenfunktionen (Statistiken) 3

4 Beispiele: 1. Kontrolle einer Warenpartie: Stichprobenergebnis (x 1, x 2,..., x n ) mit Auswertung: x i = { 0 i te Stichprobeneinheit ist gut 1 i te Stichprobeneinheit ist schlecht Anzahl schlechter Einheiten = n x i (Oder: Anzahl guter Teile, Stichprobenausschussanteil,...) Kapitel IV - Stichprobenfunktionen (Statistiken) 4

5 2. Justierung einer Maschine: x 1, x 2,..., x n Messwerte x i Stichprobenmittelwert 1 n ist Kandidat für ein sinnvolles Auswertungsverfahren. Kapitel IV - Stichprobenfunktionen (Statistiken) 5

6 Stichprobenfunktion: X Stichprobenraum einer Stichprobe X 1, X 2,..., X n T : X R k heißt Stichprobenfunktion T (X 1, X 2,..., X n ) = T (X ) ist dann Zufallsvariable Kapitel IV - Stichprobenfunktionen (Statistiken) 6

7 Beispiele für Stichprobenfunktionen: 1. T (x 1, x 2,..., x n ) = x 3 bzw. x i für i {1, 2,..., n}. T erhält in der Regel nicht die gesamte Information der Stichprobe, da nur eines der Stichprobenergebnisse benutzt wird. 2.T (x 1,..., x n ) = (x (1),..., x (n) ), d.h. die Stichprobenergebnisse werden ihrer Größe nach geordnet (x (1),..., x (n) ist die geordnete Urliste zu x 1,..., x n ). T heißt Ordnungsstatistik und erhält bei einer Stichprobe mit Zurücklegen alle relevanten Informationen, da in diesem Fall die Reihenfolge der Ergebnisse keine Bedeutung hat. Aber: Keine Datenreduktion. Kapitel IV - Stichprobenfunktionen (Statistiken) 7

8 3. T (x 1,..., x n ) = x z, x z Zentralwert (Median) von x 1, x 2,..., x n, heißt Stichprobenmedian(-zentralwert). 4.T (x 1,..., x n ) mit T (x 1,..., x n ) = 1 n x i heißt Stichprobenmittelwert. Beispiele 3 und 4 sind Kandidaten für Auswertungen bei Untersuchungen, die mit Lageparametern zu tun haben. Kapitel IV - Stichprobenfunktionen (Statistiken) 8

9 5. T (x 1,..., x n ) mit T (x 1,..., x n ) = 1 n (x i x) 2, x = Stichprobenmittelwert, heißt Stichprobenvarianz. 6.T (x 1,..., x n ) T (x 1,..., x n ) = 1 n 1 (x i x) 2, x = Stichprobenmittelwert, heißt korrigierte Stichprobenvarianz. Beispiele 5 und 6 kommen bei Untersuchungen zu Streuungsparametern einer Verteilung in Betracht (aber auch die Stichprobenspannweite, die mittlere absolute Abweichung der Stichprobe, der Quartilsabstand der Stichprobe,...). Kapitel IV - Stichprobenfunktionen (Statistiken) 9

10 Frage: Welche Auswertungen sind sinnvoll? Welche Stichprobenfunktionen dürfen verwendet werden, ohne gute Entscheidungsverfahren auszuschließen? Antwort:T sollte alle entscheidungsrelevanten Informationen der Stichprobe über die Größe (Zustand) erhalten. Wie kann dies überprüft werden? Kapitel IV - Stichprobenfunktionen (Statistiken) 10

11 1. Kontrolle einer Warenpartie: Intuition: Anzahl der schlechten Teile in der Stichprobe enthält alle Informationen über den Ausschussanteil, d.h. zwei Stichprobenergebnisse x = (x 1,..., x n ) und x = (x 1,..., x n) mit übereinstimmender Anzahl schlechter Teile unterscheiden sich nicht bezüglich ihrer Information über den Ausschussanteil. Ist dies richtig? Kapitel IV - Stichprobenfunktionen (Statistiken) 11

12 Dazu: Wahrscheinlichkeitsverteilung der Stichprobe X 1,..., X n auf Teilbereich mit k schlechten Teilen: T (X 1,..., X n ) = k Bedingte Wahrscheinlichkeitsverteilung unter der Bedingung: T (X 1,..., X n ) = k Kapitel IV - Stichprobenfunktionen (Statistiken) 12

13 ( ) P(X = x T (X ) = k) = P X 1 = x 1,..., X n = x n X i = k = = P(X 1 = x 1,..., X n = x n und 0 P( n X i = k) P(X 1=x 1,...,X n=x n) ( n k)p k (1 p) n k n x i k x i = k X i = k) Kapitel IV - Stichprobenfunktionen (Statistiken) 13

14 X 1, X 2,..., X n unabhängig: Dann P(X 1 = x 1,..., X n = x n ) = P(X 1 = x 1 ) P(X 2 = x 2 )... P(X n = x n ) Mit P(X i = 1) = p und P(X i = 0) = 1 p n P(X i = x i ) = p x i x i (1 p) n n Kapitel IV - Stichprobenfunktionen (Statistiken) 14

15 Damit: ( P X = x ) X i = k = = 0 p k (1 p) n k ( n k)p k (1 p) n k 0 1 ( n k) x i k x i = k x i k x i = k Kapitel IV - Stichprobenfunktionen (Statistiken) 15

16 Die bedingte Wahrscheinlichkeitsverteilung hängt also nicht von p ab die Variation des Stichprobenergebnisses im Teilbereich mit T (X 1,..., X n ) = k ist also unbeeinflusst vom Ausschussanteil p und damit auch ohne Information über p. Kapitel IV - Stichprobenfunktionen (Statistiken) 16

17 2. Fehleranzahlen Bei der Produktion von Teilen können ein oder mehrere Fehler entstehen (z.b. Lackierfehler an Automobilkarossen). Die Anzahl der Fehler an einer Produkteinheit entspreche einer Zufallsvariable Y. Y sei Poisson-verteilt mit Parameter λ, λ sei unbekannt. Durch eine Stichprobe soll Information über λ ermittelt werden. Stichprobenergebnis: x 1, x 2,..., x n (x i ganze Zahl 0) Kapitel IV - Stichprobenfunktionen (Statistiken) 17

18 Vermutung: Wesentliche Information über den Parameter λ des Stichprobenergebnisses ist die Gesamtzahl der Fehler (oder die durchschnittliche Fehlerzahl). Zugehörige Stichprobenfunktion ist: T (x 1,..., x n ) = n x i Überprüfung der Vermutung: Stichprobe mit Zurücklegen, d.h. X 1, X 2,..., X n unabhängig, identisch verteilt wie Y ( ) P X = x 1,..., X n = x n T (X 1,..., X n ) = X i = k =? Kapitel IV - Stichprobenfunktionen (Statistiken) 18

19 P ( X = x 1,..., X n = x n T (X 1,..., X n ) = ) X i = k = 0 P(X =x) P( n X i =k) x i k x i = k Kapitel IV - Stichprobenfunktionen (Statistiken) 19

20 mit P(X = x) = P(X 1 = x 1,..., X n = x n ) = P(X 1 = x 1 ) P(X 2 = x 2 )... P(X n = x n ) = λx 1 x 1! e λ... λxn x n! e λ = n ( λx i x i! e λ ) Kapitel IV - Stichprobenfunktionen (Statistiken) 20

21 X i ist Poisson-verteilt mit Parameter nλ: P( n Damit ist: X i = k) = (nλ)k k! e nλ P(X =x) P( n X i =k) = n ( λx i x i! e λ ) = (nλ) k e k! nλ = ( n n x i 1 x i! )λ e nλ (nλ) k k! e nλ n k k! 1 x i! Kapitel IV - Stichprobenfunktionen (Statistiken) 21

22 Die ( bedingte Wahrscheinlichkeitsverteilung P X 1 = x 1,..., X n = x n T (X 1,..., X n ) = n ) X i = k = n ist also unabhängig vom Parameter λ. Welche = k! n k 1 x i! spezielle Stichprobe mit (x 1, x 2,..., x n ) mit Gesamtfehlerzahl k vorliegt, liefert demnach keine Information über λ. Kapitel IV - Stichprobenfunktionen (Statistiken) 22

23 Eine Stichprobenfunktion T enthält also die Information der Stichprobe über den Parameter der Verteilung, wenn die bedingte Wahrscheinlichkeit des Stichprobenvektors mit T (X ) = t als Bedingung nicht vom Parameter abhängt. T heißt dann suffizient bezüglich des Parameters. Kapitel IV - Stichprobenfunktionen (Statistiken) 23

24 Definition: Sei Γ der Parameterraum zur Verteilungsannahme einer diskreten Zufallsvariablen Y. X = (X 1,..., X n ) sei eine Stichprobe zu Y mit Stichprobenraum X. Eine Stichprobenfunktion T : X R k heißt suffizient bzgl. γ Γ, wenn P γ (X = x T (X ) = t) für alle x X und t R k mit P γ (T (X ) = t) 0 von γ unabhängig ist, also allein von x und t abhängt. Kapitel IV - Stichprobenfunktionen (Statistiken) 24

25 Folgerung: Wegen P γ (X = x) = P(X = x T (X ) = t)p γ (T (X ) = t) ist bei suffizientem T die Wahrscheinlichkeitsverteilung zerlegt in zwei Faktoren, von denen P(X = x T (X ) = t) nur von x (t ergibt sich aus T (x) = t) und P γ (T (X ) = t) von γ und t abhängt. Kapitel IV - Stichprobenfunktionen (Statistiken) 25

26 Es gilt demnach mit P(X = x T (X ) = t) = h(x) und P γ (T (X ) = t) = g(t (x), γ) (*) P γ (X = x) = g(t (x), γ)h(x). Aus (*) folgt aber : P γ(x = x T (X ) = t) = = = Pγ(X = x, T (X ) = t) P γ(t (X ) = t) g(t (x), γ)h(x) = P γ(x = x) x X : T ( x)=t g(t (x), γ)h(x) g(t ( x), γ)h( x) = g(t, γ)h(x) g(t, γ)h( x) x X : T ( x)=t x X : T ( x)=t h(x) hängt nicht von γ ab h( x) x X : T ( x)=t Kapitel IV - Stichprobenfunktionen (Statistiken) 26

27 Im diskreten Fall ist eine Stichprobenfunktion genau dann suffizient bezüglich einem Parameter γ, wenn sich die Wahrscheinlichkeitsverteilung des Stichprobenvektors entsprechend (*) in Faktoren zerlegen lässt. (Faktorisierungstheorem von Neyman). Beispiele: 1. Bernoulliverteilung: P(X 1 = x 1,..., X n = x n ) = P(X 1 = x 1 )... P(X n = x n ) x i n n x i = p (1 p) = g(t (x), p)h(x) mit h(x) = 1 Kapitel IV - Stichprobenfunktionen (Statistiken) 27

28 2. Poissonverteilung: P(X = x) = P(X 1 = x 1,..., X n = x n ) = P(X 1 = x 1 )... P(X n = x n ) = λx 1 x 1! e λ... λxn x n! e λ = n ( λx i = λ mit g(t (x), λ) = λ x i e nλ 1 x 1!x 2!... x n! x i e nλ, T (x) = n x i! e λ ) = g(t (x), λ)h(x) x i und h(x) = 1 x 1!x 2!... x n! Kapitel IV - Stichprobenfunktionen (Statistiken) 28

29 Im stetigen Fall sind die analogen Betrachtungen mit der Dichtefunktion durchzuführen. Beispiel: 1. Exponentialverteilung Sei Y exponentialverteilt mit Parameter λ > 0, X 1, X 2,..., X n eine einfache Stichprobe mit Zurücklegen zu Y. Dann gilt f X,λ (x 1,..., x n ) = n λe λx i = λ n e λ x i =... Kapitel IV - Stichprobenfunktionen (Statistiken) 29

30 mit g(t (x), λ) = λ n e λ = g( n x i, λ) h(x) x i, T (x) = x i und h(x) = 1. Zur Berechnung der bedingten Dichte unter der Bedingung T (X ) = n X i = t wird die Verteilung von benötigt. X i Kapitel IV - Stichprobenfunktionen (Statistiken) 30

31 Man erhält (s. Übungsaufgabe aus der Wahrscheinlichkeitstheorie) die Erlang-Verteilung mit Stufenzahl n mit der Dichtefunktion λ n (n 1)! tn 1 e λt t 0 f (t) = 0 t < 0 Kapitel IV - Stichprobenfunktionen (Statistiken) 31

32 ... und damit die bedingte Dichte f (X,λ T (X )=t) (x) = = n λe λx i λ n (n 1)! tn 1 e λt λ n (n 1)! ( n = (n 1)! für x = (x 1,..., x n ) mit x i = t. λ n e λ x i x i ) n 1 e λ 1 ( n x i ) n 1 x i Kapitel IV - Stichprobenfunktionen (Statistiken) 32

33 Die Dichte lässt sich also analog in zwei Faktoren zerlegen und die bedingte Dichte ist unabhängig vom Parameter. Die Stichprobenfunktion T (x 1, x 2,..., x n ) = n ist also suffizient bezüglich λ. x i Kapitel IV - Stichprobenfunktionen (Statistiken) 33

34 2. Normalverteilung Sei Y N(µ, σ 2 )-verteilt, also mit der Dichte f Y,µ,σ 2(y) = 1 (y µ)2 e 2σ 2 2πσ 2 Kapitel IV - Stichprobenfunktionen (Statistiken) 34

35 Dann ist für eine Stichprobe X mit Zurücklegen: f X,µ,σ 2(x 1,..., x n ) = = = = n 1 (x 2πσ 2 e i µ) 2σ 2 1 (2πσ 2 ) n e 1 (2πσ 2 ) n e (2πσ 2 ) n e 2σ 2 2 (x i µ) 2 2σ 2 2σ 2 ( n xi 2 2µ n x i +nµ 2 ) xi 2 e µ σ 2 x i e nµ2 2σ 2 Kapitel IV - Stichprobenfunktionen (Statistiken) 35

36 Dieser Ausdruck hängt außer von den Parametern µ und σ 2 nur von xi 2 und n x i ab. Die zweidimensionale Stichprobenfunktion suffizient bezüglich (µ, σ 2 ). T (x 1,..., x n ) = ( n x i, xi 2) ist Kapitel IV - Stichprobenfunktionen (Statistiken) 36

37 In den Beispielen spielt die Exponentialfunktion eine wesentliche Rolle, da das Produkt von Exponentialfunktionen mit der Exponentialfunktion der Summe der Exponenten übereinstimmt: Folgerung: n e z i = e z i Immer wenn wir die Wahrscheinlichkeiten bzw. die Dichte der Zufallsvariablen als Exponentialfunktion schreiben können, haben wir gute Aussichten, eine suffiziente Statistik zu erhalten. Kapitel IV - Stichprobenfunktionen (Statistiken) 37

38 Beispiele: 1. Poissonverteilung: P λ (Y = y) = λy y! e λ = e y ln λ 1 y! e λ Daraus folgt für eine einfache Stichprobe X = (X 1,..., X n ) mit Zurücklegen P λ (X = x) = = n ( λ x i ) x i! e λ = [ n ] ( 1 x i! ) e ln λ n x i e nλ ( ) 1 x i! ex i ln λ e λ Kapitel IV - Stichprobenfunktionen (Statistiken) 38

39 2. Normalverteilung: f µ,σ 2(y) = = 1 (y µ)2 e 2σ 2 = 2πσ 2 1 µ2 e 2σ 2 2πσ 2 1 y2 e 2σ 2 + µy σ 2 e µ2 2σ 2 2πσ 2 e y2 2σ 2 e 2µy 2σ 2 Daraus folgt für eine einfache Stichprobe X = (X 1,..., X n ) mit Zurücklegen f µ,σ 2(x) = n f µ,σ 2(x i ) = ( ) 1 µ2 n e 2σ 2 e 1 2σ 2 2πσ 2 xi 2 e µ σ 2 x i Kapitel IV - Stichprobenfunktionen (Statistiken) 39

40 Nennen wir den Parameter γ, so ist in beiden Beispielen die Wahrscheinlichkeit bzw. die Dichte von der Form (+) a(γ)h(y)e r b k (γ)τ k (y) k=1 Kapitel IV - Stichprobenfunktionen (Statistiken) 40

41 1. Poissonverteilung: r = 1 e λ 1 y! eylnλ a(γ)h(y)e b(γ)τ(y) mit a(γ) = e λ, h(y) = 1 y!, b(γ) = ln λ, τ(y) = y Kapitel IV - Stichprobenfunktionen (Statistiken) 41

42 2. Normalverteilung r = 2 a(γ)h(y)e b 1(γ)τ(y)+b 2 (γ)τ 2 (y) mit a(µ, σ 2 ) = 1 µ2 e 2σ 2, h(y) = 1 σ 2 2π, b 1 (µ, σ 2 ) = 1 2σ 2, τ 1 (y) = y 2, b 2 (µ, σ 2 ) = µ σ 2, τ 2 (y) = y. Kapitel IV - Stichprobenfunktionen (Statistiken) 42

43 Aus der Darstellung (+) für die Wahrscheinlichkeit bzw. Dichte einer Zufallsvariablen ergibt sich unmittelbar für die Wahrscheinlichkeit bzw. Dichte einer Stichprobe mit Zurücklegen r [ n b k (γ)τ k (x i ) n ] r a(γ)h(x i )ek=1 = a(γ) n b k (γ) n τ k (x i ) h(x i ) ek=1 = g(t (x), γ) h(x) ( ) mit T (x) = τ 1 (x i ),..., τ r (x i ), r g(t (x), γ) = a(γ) n b k (γ) n τ k (x i ) n ek=1, h(x) = h(x i ) Kapitel IV - Stichprobenfunktionen (Statistiken) 43

44 Falls bei der Verteilung der Zufallsvariable Y eine Darstellung der Form (+) vorliegt, nennen wir die Verteilungsannahme der Zufallsvariable eine Exponentialfamilie. Exponentialfamilie: Y diskret Y stetig P γ (Y = y) = a(γ)h(y)e f Y,γ (y) = a(γ)h(y)e r b j (γ)τ j (y) j=1 r b j (γ)τ j (y) j=1 Kapitel IV - Stichprobenfunktionen (Statistiken) 44

45 Folgerung: T (x) = ( n τ 1 (x i ),..., τ r (x i )) ist suffiziente Stichprobenfunktion bezüglich γ. Kapitel IV - Stichprobenfunktionen (Statistiken) 45

46 Beispiel: Gammaverteilung Dichte der Gammaverteilung ist { 1 f α,λ (y) = Γ(α) λα y α 1 e λy y 0 0 y < 0 Γ(α) ist dabei die Gammafunktion an der Stelle α; für eine natürliche Zahl n gilt Γ(n) = (n 1)! Hinweis: Für α = n erhalten wir also die Erlang-Verteilung mit Stufenzahl n. Kapitel IV - Stichprobenfunktionen (Statistiken) 46

47 Mit gilt a(α, λ) = 1 Γ(α) λα, { 1 y 0 h(y) = 0 y < 0 b 1 (α, λ) = α 1, τ 1 (y) = ln(y), b 2 (α, λ) = λ, τ 2 (y) = y f α,λ (y) = a(α, λ)h(y)e b 1(α,λ)τ 1 (y)+b 2 (α,λ)τ 2 (y) Kapitel IV - Stichprobenfunktionen (Statistiken) 47

48 Damit ist T (x) = ( ln(x i ), x i ) suffizient bezüglich α und λ. Kapitel IV - Stichprobenfunktionen (Statistiken) 48

49 Sei T eine suffiziente Stichprobenfunktion, so sollte die Entscheidung (Schlussfolgerung) aus dem Stichprobenergebnis nur vom Auswertungsergebnis bei T abhängen, d.h. sind x = (x 1,..., x n ) und x = ( x 1,..., x n ) zwei Stichprobenergebnisse mit T (x) = T ( x), so sollten die Entscheidungen bei x und x, übereinstimmen. Damit wird die Menge der möglichen Entscheidungsverfahren stark reduziert, falls eine geeignete suffiziente Statistik benutzt wird. Kapitel IV - Stichprobenfunktionen (Statistiken) 49

50 x, x δ(x) = δ (T (x)) = δ (T (x )) X T T (x) = T (x ) X T δ δ A = δ(x ) δ = δ T Reduktion auf die wesentliche Information zur Entscheidungsfindung. Kapitel IV - Stichprobenfunktionen (Statistiken) 50

51 Sei X T die Menge der möglichen Auswertungsergebnisse bei der Stichprobenfunktion T, also X T = {T (x) x X } so ist δ T : X T A eine Entscheidungsfunktion mit Benutzung von T, d.h. zum Stichprobenergebnis x wird zunächst die Auswertung T (x) berechnet und abhängig von diesem Auswertungsergebnis T (x) die Entscheidung δ T (T (x)) getroffen. Kapitel IV - Stichprobenfunktionen (Statistiken) 51

52 Behauptung: Wird eine Stichprobenfunktion T aus einer Darstellung der Wahrscheinlichkeits - verteilung von Y als Exponentialfamilie gewonnen, so sind zwei Entscheidungsfunktionen mit Benutzung von T durch ihren Erwartungswert nahezu vollständig festgelegt. Kapitel IV - Stichprobenfunktionen (Statistiken) 52

53 Beispiel-Poisson-Verteilung: T (x 1,..., x n ) = ist suffizient bezüglich dem Parameter λ > 0. Seien δ1 T und δt 2 zwei Entscheidungsfunktionen mit Benutzung von T. Erwartungswert von δi T ist x i E λ (δ T i (T (X ))) = = δi T (k)p λ (T (X ) = k) = δi T (k)p λ ( X j = k) k=0 k=0 δi T (k) (nλ)k e nλ k! k=0 j=1 Kapitel IV - Stichprobenfunktionen (Statistiken) 53

54 Stimmen die Erwartungswerte von δ 1 und δ 2 überein für alle λ > 0, so gilt 0 = E λ (δ T 1 (T (X ))) E λ (δ T 2 (T (X ))) = Da e nλ 0 ist, ist dies gleichwertig mit k=0 (δ1 T (k) δ2 T (k)) (nλ)k k! k=0 e nλ = e nλ (δ1 T (k) δ2 T (k)) (nλ)k k! k=0 (δ1 T (k) δ2 T (k)) (nλ)k = 0 für alle λ > 0 k! δ T 1 (k) = δ T 2 (k) für alle k. Kapitel IV - Stichprobenfunktionen (Statistiken) 54

55 Eine Stichprobenfunktion T mit der Eigenschaft, dass je zwei Funktionen δ T 1 und δt 2 mit übereinstimmendem Erwartungswert auch selbst übereinstimmen, heißt vollständig. Kapitel IV - Stichprobenfunktionen (Statistiken) 55

56 Definition: Sei X eine Stichprobe zu Y, X der Stichprobenraum. Y habe eine parametrische Verteilungsannahme mit Parameter γ aus dem Parameterraum Γ. Eine Stichprobenfunktion(Statistik) T heißt vollständig bezüglich γ, wenn für je zwei Funktionen δ T 1 und δt 2 aus folgt, dass gilt. E γ (δ1 T (T (X ))) = E γ(δ2 T (T (X ))) für alle γ Γ P γ (δ1 T (T (X )) = δt 2 (T (X ))) = 1 Kapitel IV - Stichprobenfunktionen (Statistiken) 56

57 Satz: Sei X eine Stichprobe zu Y, deren Verteilung sich als Exponentialfamilie schreiben lässt, d.h. es gilt Y diskret : P γ (Y = y) Y stetig : f Y,γ (y) } = a(γ)h(y)e dann ist ( T (x 1,..., x n ) = τ 1 (x i ),..., ) τ r (x i ) r b j (γ)τ j (y) j=1 eine suffiziente und vollständige Statistik bezüglich γ, wenn B = {(b 1 (γ),..., b r (γ)) γ Γ} R r einen offenen Quader im R r enthält. Kapitel IV - Stichprobenfunktionen (Statistiken) 57

58 Folgerungen: Sei X 1, X 2,..., X n eine einfache Stichprobe mit Zurücklegen zu Y. Dann ist suffizient und vollständig,... T (x 1,..., x n ) = n x i Kapitel IV - Stichprobenfunktionen (Statistiken) 58

59 ... falls y a) Bernoulli-verteilt mit Parameter p [0, 1], (Übungsaufgabe: Man stelle die Wahrscheinlichkeitsverteilung von Y als Exponentialfamilie dar.) b) binomialverteilt mit Parameter p [0, 1], c) Poisson-verteilt mit Parameter λ > 0, d) exponentialverteilt mit Parameter λ > 0. Kapitel IV - Stichprobenfunktionen (Statistiken) 59

60 Beispiel-Normalverteilung: f µ,σ 2(y) = = 1 (y µ)2 e 2σ 2 = 2πσ 2 1 µ2 e 2σ 2 2πσ 2 1 y2 e 2σ 2 + µy σ 2 e µ2 2σ 2 2πσ 2 e y2 2σ 2 e 2µy 2σ 2 Kapitel IV - Stichprobenfunktionen (Statistiken) 60

61 1. µ und σ 2 unbekannt (und entscheidungsrelevant): a(µ, σ 2 ) = 1 µ2 e 2σ 2, h(y) = 1 σ 2 2π, b 1 (µ, σ 2 ) = 1 2σ 2, τ 1 (y) = y 2, b 2 (µ, σ 2 ) = µ σ 2, τ 2 (y) = y. ergibt eine Darstellung als Exponentialfamilie. Kapitel IV - Stichprobenfunktionen (Statistiken) 61

62 T (x 1,..., x n ) = ( n x i, xi 2) ist eine suffiziente Statistik bezüglich (µ, σ 2 ). Sie ist auch vollständig bezüglich (µ, σ 2 ), da B = {( 1 2σ 2, µ σ 2 ) µ R, σ2 > 0} = {(β 1, β 2 ) β 1 < 0, β 2 R} = R R einen offenen Quader im R 2 enthält. Kapitel IV - Stichprobenfunktionen (Statistiken) 62

63 2. µ unbekannt (und entscheidungsrelevant), σ 2 fest: Der Parameterraum ist jetzt Γ = R. Mit a(µ) = 1 µ2 e 2σ 2, h(y) = 1 σ 2 2π e y2 2σ 2, b(µ) = µ, τ σ 2 2 (y) = y erhalten wir eine Darstellung als Exponentialfamilie, so dass T (x 1,..., x n ) = n x i suffizient bezüglich µ ist. T ist auch vollständig, da B = { µ µ R} = R σ2 (enthält offenen Quader) Kapitel IV - Stichprobenfunktionen (Statistiken) 63

64 3. σ 2 unbekannt (und entscheidungsrelevant), µ fest: a(σ 2 ) = 1 σ 2, h(y) = 1 2π, b(σ 2 ) = 1 2σ 2, τ(y) = (y µ) 2 ergibt jetzt eine Darstellung als Exponentialfamilie für den Parameter σ 2. Wegen ist damit B = { 1 2σ 2 σ2 > 0} = {x R x < 0} T (x 1,..., x n ) = (x i µ) 2 suffizient und vollständig bezüglich σ 2. Kapitel IV - Stichprobenfunktionen (Statistiken) 64

Induktive Statistik Kapitel IV - Stichprobenfunktionen (Statistiken)

Induktive Statistik Kapitel IV - Stichprobenfunktionen (Statistiken) Induktive Statistik Kapitel IV - Stichprobenfunktionen (Statistiken) Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de 11. Januar 2007 Aufgabe der schließenden

Mehr

Kapitel IX - Neyman-Pearson-Tests

Kapitel IX - Neyman-Pearson-Tests Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel IX - Neyman-Pearson-Tests Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh Ausgangssituation:

Mehr

Kapitel V - Erwartungstreue Schätzfunktionen

Kapitel V - Erwartungstreue Schätzfunktionen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel V - Erwartungstreue Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

Kapitel VI - Maximum-Likelihood-Schätzfunktionen

Kapitel VI - Maximum-Likelihood-Schätzfunktionen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VI - Maximum-Likelihood-Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

Kapitel III - Grundannahmen der schließenden Statistik

Kapitel III - Grundannahmen der schließenden Statistik Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel III - Grundannahmen der schließenden Statistik Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo

Mehr

Kapitel XI - Operationscharakteristik und Gütefunktion

Kapitel XI - Operationscharakteristik und Gütefunktion Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XI - Operationscharakteristik und Gütefunktion Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo

Mehr

Kapitel VIII - Tests zum Niveau α

Kapitel VIII - Tests zum Niveau α Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VIII - Tests zum Niveau α Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh Testsituationen

Mehr

Kapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen

Kapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen Induktive Statistik Prof. Dr. W.-D. Heller

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei

Mehr

Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung

Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Induktive Statistik Prof. Dr. W.-D.

Mehr

Statistik für Ingenieure Vorlesung 5

Statistik für Ingenieure Vorlesung 5 Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:

Mehr

Kapitel XIV - Anpassungstests

Kapitel XIV - Anpassungstests Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XIV - Anpassungstests Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh 2. Grundannahme:

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

Kapitel XI - Die n-fache unabhängige Wiederholung eines Experiments

Kapitel XI - Die n-fache unabhängige Wiederholung eines Experiments Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XI - Die n-fache unabhängige Wiederholung eines Experiments Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion f(x) =

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie

Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie SS 2014 Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2014ss/dwt/uebung/ 5. Juni 2014 ZÜ DWT ZÜ VI Übersicht:

Mehr

Chi-Quadrat-Verteilung

Chi-Quadrat-Verteilung Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist

Mehr

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes) 3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f

Mehr

6.6 Poisson-Verteilung

6.6 Poisson-Verteilung 6.6 Poisson-Verteilung Die Poisson-Verteilung ist eine Wahrscheinlichkeitsverteilung, die zur Modellierung der Anzahl von zufälligen Vorkommnissen in einem bestimmten räumlichen oder zeitlichen Abschnitt

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Kapitel VI - Lage- und Streuungsparameter

Kapitel VI - Lage- und Streuungsparameter Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie

Mehr

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

1.5.4 Quantile und Modi. Bem [Quantil, Modus]

1.5.4 Quantile und Modi. Bem [Quantil, Modus] 1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.73. [Quantil, Modus] und Vertei- Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:

Mehr

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

5. Stichproben und Statistiken

5. Stichproben und Statistiken 5. Stichproben und Statistiken Problem: Es sei X eine ZV, die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X kennenlernen (z.b. mittels der VF F X (x)

Mehr

Kapitel XIII - Funktion und Transformation mehrdimensionaler Zufallsvariablen

Kapitel XIII - Funktion und Transformation mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XIII - Funktion und Transformation mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D.

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

3 Grundlagen statistischer Tests (Kap. 8 IS)

3 Grundlagen statistischer Tests (Kap. 8 IS) 3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung

Mehr

Kapitel IV - Spezielle Verteilungen: Diskrete Verteilungen

Kapitel IV - Spezielle Verteilungen: Diskrete Verteilungen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel IV - Spezielle Verteilungen: Diskrete Verteilungen Markus Höchstötter Lehrstuhl

Mehr

Seminar stabile Zufallsprozesse

Seminar stabile Zufallsprozesse Definitionen und Eigenschaften stabiler Verteilungen 2. November 2011 Inhalt 1 Definitionen Definitionen Beweis der Äquivalenz Beispiele 2 Eigenschaften 3 Charakteristische Funktion 4 Laplace Transformation

Mehr

Suffizienz und Vollständigkeit

Suffizienz und Vollständigkeit KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt

Mehr

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe 1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe Nachdem eine Stichprobe X 1,..., X n gezogen wurde berechnen wir gewöhnlich irgendwelchen Wert damit. Sei dies T = T (X 1,..., X n, wobei T auch

Mehr

Diskrete Strukturen II

Diskrete Strukturen II SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen

Mehr

Zufallsvariablen. f(x) dx = 1. Die stetige Zufallsvariable X wird also durch seine Dichtefunktion beschrieben. P(c < X < d) =

Zufallsvariablen. f(x) dx = 1. Die stetige Zufallsvariable X wird also durch seine Dichtefunktion beschrieben. P(c < X < d) = Diskrete Sei X stetig auf (a,b), wobei a, b unendlich sein können, a x 0 < x 1 b P(X = x 0 ) = 0, P(x 0 < X < x 1 ) > 0 (wenn f > 0). Die Funktion f heißt Dichtefunktion (von X) falls: 1. f(x) 0, a < x

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1 Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne

Mehr

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y] Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x

Mehr

W-Rechnung und Statistik für Ingenieure Übung 8

W-Rechnung und Statistik für Ingenieure Übung 8 W-Rechnung und Statistik für Ingenieure Übung 8 Aufgabe 1 : Motivation Anhand von Daten soll eine Aussage über die voraussichtliche Verteilung zukünftiger Daten gemacht werden, z.b. die Wahrscheinlichkeit

Mehr

Stochastik und Statistik für Ingenieure Vorlesung 4

Stochastik und Statistik für Ingenieure Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl

Mehr

4.2 Moment und Varianz

4.2 Moment und Varianz 4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge

Mehr

Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn Referenten: Belinda Höher, Thomas Holub, Maria Böhm.

Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn Referenten: Belinda Höher, Thomas Holub, Maria Böhm. Veranstaltung: Statistik für das Lehramt 16.12.2016 Dozent: Martin Tautenhahn Referenten: Belinda Höher, Thomas Holub, Maria Böhm Erwartungswert Varianz Standardabweichung Die Wahrscheinlichkeitsverteilung

Mehr

Statistik für Ingenieure und Naturwissenschaftler

Statistik für Ingenieure und Naturwissenschaftler Sheldon M. Ross Statistik für Ingenieure und Naturwissenschaftler 3. Auflage Aus dem Amerikanischen übersetzt von Carsten Heinisch ELSEVIER SPEKTRUM AKADEMISCHER VERLAG Spektrum Inhalt Vorwort zur dritten

Mehr

Induktive Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung

Induktive Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Induktive Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de

Mehr

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig) ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

2. Prinzipien der Datenreduktion

2. Prinzipien der Datenreduktion 2. Prinzipien der Datenreduktion Man verwendet die Information in einer Stichprobe X 1,..., X n, um statistische Inferenz über einen unbekannten Parameter zu betreiben. Falls n groß ist, so ist die beobachtete

Mehr

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Modellanpassung und Parameterschätzung. A: Übungsaufgaben 7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Typisierung der stetigen theoretischen Verteilungen Bibliografie:

Mehr

Schließende Statistik

Schließende Statistik Schließende Statistik Vorlesung an der Universität des Saarlandes Dr. Martin Becker Wintersemester 20/5 Schließende Statistik (WS 20/5) Folie Einleitung Organisatorisches. Organisatorisches I Vorlesung:

Mehr

6. Kontinuierliche Zufallsgrößen. Beispiel 1: Die Exponentialverteilungen Sei λ > 0. Setzen

6. Kontinuierliche Zufallsgrößen. Beispiel 1: Die Exponentialverteilungen Sei λ > 0. Setzen 6. Kontinuierliche Zufallsgrößen Definition: Eine Z. G. ξ ist absolut stetig mit (Wahrscheinlichkeits-) Dichte f : R R, wenn gilt: P ( a ξ < b ) = b a f(x) dx (a < b) allgem. Eigenschaften einer Dichte

Mehr

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften

Mehr

7.4 Charakteristische Funktionen

7.4 Charakteristische Funktionen 7.4 Charakteristische Funktionen Def. 25 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx

Mehr

Statistik für Ingenieure Vorlesung 6

Statistik für Ingenieure Vorlesung 6 Statistik für Ingenieure Vorlesung 6 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 05. Dezember 2017 3.4.3 Stetige Gleichverteilung Parameter: Intervall [a, b] R. Zufallsgröße

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr 1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

5 Binomial- und Poissonverteilung

5 Binomial- und Poissonverteilung 45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1

Mehr

Stetige Verteilungen Rechteckverteilung

Stetige Verteilungen Rechteckverteilung Stetige Verteilungen Rechteckverteilung Die Längenabweichungen X produzierter Werkstücke von der Norm seien gleichmäßig verteilt zwischen a = mm und b = 4mm. Die Dichtefunktion lautet also f(x) = für a

Mehr

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60 WESTFÄLISCHE WILHELMS - UNIVERSITÄT MÜNSTER Wirtschaftswissenschaftliche Faktultät Prof. Dr. Bernd Wilfling Professur für VWL, insbesondere Empirische Wirtschaftsforschung Musterlösung zur Klausur im Fach

Mehr

Zulassungsprüfung Stochastik,

Zulassungsprüfung Stochastik, Zulassungsprüfung Stochastik, 10.10.14 Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/52 Biostatistik, Sommer 2017 Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 02.06.2017 2/52 Inhalt 1 Wahrscheinlichkeit Bayes sche Formel 2 Diskrete Stetige 3/52 Wahrscheinlichkeit Bayes

Mehr

Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler

Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler Philipp Sibbertsen Hartmut Lehne Statistik Einführung für Wirtschafts- und Sozialwissenschaftler 2., überarbeitete Auflage 4^ Springer Gabler Inhaltsverzeichnis Teil I Deskriptive Statistik 1 Einführung

Mehr

Kapitel 9. Verteilungsmodelle. 9.1 Diskrete Verteilungsmodelle Die Gleichverteilung

Kapitel 9. Verteilungsmodelle. 9.1 Diskrete Verteilungsmodelle Die Gleichverteilung Kapitel 9 Verteilungsmodelle Es gibt eine Reihe von Verteilungsmodellen für univariate diskrete und stetige Zufallsvariablen, die sich in der Praxis bewährt haben. Wir wollen uns von diesen einige anschauen.

Mehr

Kapitel I - Das klassische Entscheidungsmodell

Kapitel I - Das klassische Entscheidungsmodell Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel I - Das klassische Entscheidungsmodell Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung

Mehr

5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung

5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung 5 Konfidenzschätzung 5. Einige Grundbegriffe zur Konfidenzschätzung Diesem Kapitel liegt das parametrische Modell {X, B X, P } mit P {P Θ} zugrunde. {Θ, B Θ } sei ein Meßraum über Θ und µ ein σ-finites

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

1.5.4 Quantile und Modi

1.5.4 Quantile und Modi 1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.70. [Quantil, Modus] Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

Modelle für Daten mit kontinuierlichen Wertebereich Verteilungen mit (Wahrscheinlichkeits-)Dichte. Normalverteilung N (µ, σ 2 ) mit Dichte

Modelle für Daten mit kontinuierlichen Wertebereich Verteilungen mit (Wahrscheinlichkeits-)Dichte. Normalverteilung N (µ, σ 2 ) mit Dichte Statistik II für Wirtschaftswissenschaftler Folie 6.1 Modelle für Daten mit kontinuierlichen Wertebereich Verteilungen mit (Wahrscheinlichkeits-)Dichte I) Werte in (, ), Parameter µ (, ), σ 2 > 0 Normalverteilung

Mehr

1 Relevante Beispiele für Verteilungen auf R

1 Relevante Beispiele für Verteilungen auf R Prof. Dr. H. Zähle Vorlesung Sachversicherungsmathemati, Anlage 1 Universität des Saarlandes, SS 2010 1 Relevante Beispiele Verteilungen auf R Wir bezeichnen die Menge aller W-Maße auf (R, B(R)) mit M

Mehr

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder

Mehr

Spezielle stetige Verteilungen

Spezielle stetige Verteilungen Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für

Mehr

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}. Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

8 Die Exponentialverteilung

8 Die Exponentialverteilung 8 Die Exponentialverteilung 8.1 Einführung Modelle Zuverlässigkeitsmodelle Lebensdauermodelle Bedienungsmodelle. 277 W.Kössler, Humboldt-Universität zu Berlin Def. 26 (Exponentialverteilung) Sei X eine

Mehr

Inhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5

Inhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5 Inhaltsverzeichnis Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite 1.0 Erste Begriffsbildungen 1 1.1 Merkmale und Skalen 5 1.2 Von der Urliste zu Häufigkeitsverteilungen 9 1.2.0 Erste Ordnung

Mehr

Übungsaufgaben zu Statistik II

Übungsaufgaben zu Statistik II Übungsaufgaben zu Statistik II Prof. Dr. Irene Prof. Dr. Albrecht Ungerer Die Kapitel beziehen sich auf das Buch: /Ungerer (2016): Statistik für Wirtschaftswissenschaftler Springer Gabler 4 Übungsaufgaben

Mehr

Statistik für NichtStatistiker

Statistik für NichtStatistiker Statistik für NichtStatistiker Zufall und Wahrscheinlichkeit von Prof. Dr. Karl Bosch 5., verbesserte Auflage R. Oldenbourg Verlag München Wien Inhaltsverzeichnis 1. ZufalLsexperimente und zufällige Ereignisse

Mehr

3 Stetige Zufallsvariablen

3 Stetige Zufallsvariablen 3 Stetige Zufallsvariablen Eine Zufallsvariable heißt stetig, falls zu je zwei Werten a < b auch jeder Zwischenwert im Intervall [a, b] möglich ist Beispiele: X = Alter, X = Körpergröße, X = Temperatur,

Mehr

Grundbegriffe der Stochastik II

Grundbegriffe der Stochastik II Grundbegriffe der Stochastik II Henrik Gebauer 6. Oktober 9 Zusammenfassung Dieser Vortrag dient der Wiederholung zentraler Begriffe der kontinuierlichen Stochastik. Wahrscheinlichkeitsverteilungen Sei

Mehr