Verteilungsfreie Verfahren

Größe: px
Ab Seite anzeigen:

Download "Verteilungsfreie Verfahren"

Transkript

1 Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2012

2 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests

3 verteilungsfrei/nichtparametrisch (distribution-free/nonparametric) -frei / nicht- : stehen im Gegensatz zu üblichen Methoden, die eine parametrische Familie von Verteilungen annehmen viele computerintensive Verfahren sind nichtparametrisch, die werden aber nicht in dieser Lehrveranstaltung betrachtet (sondern z.b. in Computerintensive Methoden, Schätzen und Testen I/II,... )

4 Beispiel x 1,..., x n R Messungen von µ R mit additiven Messfehlern ε 1,..., ε n (d.h. x i = µ + ε i ), Nullhypothese H 0 : µ µ 0, Alternativhypothese H 1 : µ > µ 0 parametrischer/verteilungsgebundener Test: Annahme: ε 1,..., ε n i.i.d. N(0, σ 2 ) mit σ unbekannt z.b. 1-Stichproben-t-Test: T := ( X µ 0) n (n 1) ni=1 (X i X ) 2 t n 1, wenn µ = µ 0 (verwerfe H 0 falls T c) nichtparametrischer/verteilungsfreier Test: z.b. Vorzeichentest: Annahme: ε 1,..., ε n i.i.d. mit P(ε i > 0) = 1 2 V := #{i : X i > µ 0 } Bin(n, 1 2 ), wenn µ = µ 0 (verwerfe H 0 falls V c )

5 Vorteile des verteilungsfreien Tests (Vorzeichentest): kann verwendet werden, auch wenn die Verteilungsfamilie der Messfehler unbekannt ist kann verwendet werden, auch wenn die Daten ordinal sind Vorteile des parametrischen Tests (1-Stichproben-t-Test): ist (leicht) effizienter, wenn die Verteilungsfamilie der Messfehler (genau) stimmt erlaubt exaktes Niveau

6 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests

7 Tests auf Verteilungsanpassung (tests of goodness of fit) Beispiel x 1,..., x n IQ-Werte von n zufällig ausgewählten Personen i.i.d. Frage: ist es plausibel, dass X 1,..., X n N(100, 15 2 )? parametrischer/verteilungsgebundener Anpassungstest: i.i.d. Annahme: X 1,..., X n N(µ, σ 2 ) mit (µ, σ) unbekannt Frage: ist es plausibel, dass (µ, σ) = (100, 15)? Lösung: konstruiere einen Konfidenzbereich für (µ, σ) und überprüfe, ob (100, 15) im Konfidenzbereich liegt nichtparametrischer/verteilungsfreier Anpassungstest: Annahme: X 1,..., X n i.i.d. (d.h. X 1,..., X n i.i.d. F mit F unbekannt) Frage: ist es plausibel, dass F = N(100, 15 2 )? Lösung: konstruiere einen Konfidenzbereich für F und überprüfe, ob N(100, 15 2 ) im Konfidenzbereich liegt

8 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests

9 Annahme: Zufallsobjekte X 1,..., X n i.i.d. F mit F unbekannt Daten: X 1 = x 1,..., X n = x n (nichtparametrische) Likelihood-Funktion für F : n lik(f ) := P F (X 1 = x 1,..., X n = x n ) = P F (X i = x i ) i=1 (nichtparametrische) ML-Schätzung für F : empirische Verteilung ˆF n : X ˆF n P ˆFn (X = x j ) = #{i : x i = x j } n

10 wenn X 1,..., X n Zufallsvariable sind, wird die empirische Verteilung ˆF n durch die zugehörige (kumulative) Verteilungsfunktion ˆF n beschrieben: X ˆF n ˆF n (x) := P ˆF n (X x) = #{i : x i x} n Satz (Fundamentalsatz der Statistik, Glivenko-Cantelli Theorem) Zufallsvariable X 1, X 2,... i.i.d. F ˆF n F 0 f.s. ( ( ) d.h. P lim ˆF n (x) F (x) = 0 sup n x R ) = 1

11 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests

12 Satz Zufallsvariable X 1,..., X n i.i.d. F mit F stetig Verteilung von K n := ˆF n F hängt nicht von F ab Beweis. { K n = ˆF i n F = max max i=1,...,n n F (X (i)), F (X (i) ) i 1 } = n =: g ( F (X (1) ),..., F (X (n) ) ) = g ( ) Y (1),..., Y (n) mit Y i := F (X i ) U(0, 1), da P (Y i y) = P (F (X i ) y) = y

13 k n,1 α : (1 α)-quantil der Verteilung von K n P ( ˆF ) n F k n,1 α = 1 α, wenn F stetig ist ) P ( ˆF n F k n,1 α 1 α, } {F : ˆF n F k n,1 α = { { } = F : max ˆFn (x) k n,1 α, 0 wenn F beliebig ist { }} F (x) min ˆFn (x) + k n,1 α, 1 ist einen (konservativen) (1 α)-konfidenzbereich für F Satz (Dvoretzky-Kiefer-Wolfowitz-Ungleichung) 1 k n,1 α 2 n log 2 α

14 Verteilung F 0 stetig und bekannt Annahme: Zufallsvariable X 1,..., X n i.i.d. F mit F unbekannt 1-Stichproben-Kolmogorov-Smirnov-Test (zweiseitig): Nullhypothese H0 : F = F 0 (d.h. F (x) = F 0(x) für alle x R) Alternativhypothese H1 : F F 0 (d.h. F (x) F 0(x) für mind. ein x R) Teststatistik: Kn = ˆF n F 0 = sup x R ˆF n(x) F 0(x) Entscheidung (zum Niveau α): verwerfe H0 falls K n k n,1 α

15 1-Stichproben-Kolmogorov-Smirnov-Test (einseitig ): Nullhypothese H0 : F F 0 (d.h. F (x) F 0(x) für alle x R) Alternativhypothese H1 : F F 0 (d.h. F (x) < F 0(x) für mind. ein x R) Teststatistik: K n := sup x R (F 0(x) ˆF ) n(x) Entscheidung (zum Niveau α): verwerfe H0 falls K n k n,1 α 1-Stichproben-Kolmogorov-Smirnov-Test (einseitig + ): Nullhypothese H0 : F F 0 (d.h. F (x) F 0(x) für alle x R) Alternativhypothese H1 : F F 0 (d.h. F (x) > F 0(x) für mind. ein x R) ( ) Teststatistik: K + n := sup x R ˆF n(x) F 0(x) Entscheidung (zum Niveau α): verwerfe H0 falls K + n k + n,1 α K n und K + n haben dieselbe Verteilung (wenn F = F 0 ), die nicht von F 0 abhängt, und k n,1 α = k+ n,1 α k n,1 2α für kleine α

16 K-S-ähnliche Anpassungstests: verteilungsfreie Tests basierend auf alternativen Definitionen des Abstands zwischen ˆF n und F 0 Cramér-von Mises-Test (zweiseitig): Teststatistik: Wn := ( ) 2 + ˆFn(x) F 0(x) df0(x) Anderson-Darling-Tests (zweiseitig): Teststatistik: Kn,ψ := sup x R ˆF n(x) F 0(x) ψ (F 0(x)) Teststatistik: Wn,ψ := ( ) 2 + ˆFn(x) F 0(x) ψ (F0(x)) df 0(x) Gewichtsfunktion ψ: insbesondere ψ(y) = 1 oder ψ(y) = 1 y (1 y)

17 zusammengesetzte Nullhypothese: Nullhypothese H0 : F F 0 mit F 0 = {F θ : θ Θ} Alternativhypothese H1 : F / F 0 z.b. F0 = {N(µ, σ 2 ) : (µ, σ) R R + } K-S-ähnliche Anpassungstests mit dem Abstand zwischen ˆF n und F ˆθ als Teststatistik sind konservativ (wobei ˆθ eine auf X 1,..., X n basierte Schätzung von θ ist) kritische Werte müssen korrigiert werden (z.b. Lilliefors-Korrekturen für den 1-Stichproben-Kolmogorov-Smirnov-Test), und dann sind die Tests verteilungsgebunden Verteilung F 0 nicht stetig: Nullhypothese H0 : F = F 0 Alternativhypothese H1 : F F 0 z.b. F0 = Pois(0.35) K-S-ähnliche Anpassungstests sind (sehr) konservativ kritische Werte müssen korrigiert werden, und dann sind die Tests verteilungsgebunden

18 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests

19 Annahme: w 1,..., w k Zufallsobjekte X 1,..., X n i.i.d. mit k möglichen Werten Verteilung von X i definiert durch p = (p 1,..., p k ) mit p j := P(X i = w j ) > 0 N j := #{i : X i = w j } (N 1,..., N k ) Mult(n, p 1,..., p k ) Abstand zwischen (N 1,..., N k ) und E(N 1,..., N k ) = (n p 1,..., n p k ): C n := k (N j n p j ) 2 oder G n := 2 n p j j=1 k j=1 N j log N j n p j Satz (N 1,..., N k ) Mult(n, p 1,..., p k ) C n d χ 2 k 1 und G n d χ 2 k 1

20 Beweisidee. G n = 2 log { lik(p) sup p S lik(p ) mit S = p [0, 1] k : } k j=1 p j = 1 d G n χ 2 k 1, da k 1 = dim(s) dim({p}) C n ist die Approximation von G n = 2 ( k j=1 N j log p j log N j n ), die man erhält, wenn man log p j mit dem Taylorpolynom zweiten Grades um ˆp j = N j n approximiert Gesetz der großen Zahlen: ˆp j p j f.s. C n d Gn C n d χ 2 k 1 N 1,..., N k unabhängig mit N j Pois(n p j ) ( (N 1,..., N k ) ) k j=1 N j = n Mult(n, p 1,..., p k ) N zentraler Grenzwertsatz: j n p j d k (N n pj N(0, 1) j n p j ) 2 j=1 n p ( j k (N j n p j ) 2 k d j=1 N j = n) χ 2 d k 1 C n χ 2 k 1 j=1 n p j d χ 2 k

21 π = (π 1,..., π k ) bekannt mit π 1,..., π k ]0, 1[ und π π k = 1 χ 2 -Test (Pearson s chi-square test): Nullhypothese H0 : p = π (d.h. p j = π j für alle j {1,..., k}) Alternativhypothese H1 : p π (d.h. p j π j für mind. ein j {1,..., k}) Teststatistik: Cn = k (N j n π j ) 2 j=1 n π j Entscheidung (zum Niveau α): verwerfe H0 falls C n c n,1 α G-Test: Nullhypothese H0 : p = π (d.h. p j = π j für alle j {1,..., k}) Alternativhypothese H1 : p π (d.h. p j π j für mind. ein j {1,..., k}) Teststatistik: Gn = 2 k j=1 N j log N j n π j Entscheidung (zum Niveau α): verwerfe H0 falls G n g n,1 α c n,1 α χ 2 k 1,1 α und g n,1 α χ 2 k 1,1 α für große n

22 zusammengesetzte Nullhypothese: Nullhypothese H0 : p Π mit Π = {π(θ) : θ Θ} Alternativhypothese H1 : p / Π z.b. (w1,..., w k ) = (0, 1, 2) und Π = {( (1 θ) 2, 2 θ (1 θ), θ 2) : θ ]0, 1[ } (d.h. H 0 : X i Bin(2, θ) mit θ unbekannt) falls ˆθ n eine auf N 1,..., N k basierte Minimum-χ 2 - oder ML-Schätzung von θ ist, d.h. falls ˆθ n die Minimumstelle von C n(θ) = k (N j n π j (θ)) 2 n π j (θ) j=1 bzw. G n(θ) = 2 k N j N j log n π j (θ) j=1 ist, dann gelten C n(ˆθ n) d χ 2 k 1 dim(π) und G n(ˆθ n) d χ 2 k 1 dim(π), wenn p Π Beweisidee: ˆθn ML-Schätzung von θ G n(ˆθ n) = 2 log sup θ Θ lik(π(θ)) { sup p S lik(p ) mit S = p [0, 1] k : } k j=1 p j = 1 G n(ˆθ n) d χ 2 k 1 dim(π), da k 1 dim(π) = dim(s) dim({π(θ) : θ Θ}) korrigierte kritische Werte für die χ 2 - und G-Tests mit C n(ˆθ n) bzw. G n(ˆθ n) als Teststatistiken: c n,1 α χ 2 k 1 dim(π),1 α und g n,1 α χ 2 k 1 dim(π),1 α für große n

23 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests

24 K-S-ähnliche Tests χ2 - und G-Test X i stetige ZV geeignet, nur nach Diskretisierung, verteilungsfrei asymptotisch verteilungsfrei X i diskrete ZV nur nach Korrektur, geeignet, verteilungsgebunden asymptotisch verteilungsfrei X i kategoriell nicht anwendbar geeignet, asymptotisch verteilungsfrei H 0 einseitig geeignet, nicht anwendbar verteilungsfrei H 0 zusammengesetzt nur nach Korrektur, geeignet, verteilungsgebunden asymptotisch verteilungsfrei

25 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests

26 Annahme: Zufallsobjekte X 1 = (A 1, B 1 ),..., X i = (A i, B i ),..., X n = (A n, B n ) i.i.d. mit k = g h möglichen Werten w 1,1 = (u 1, v 1 ),..., w j,l = (u j, v l ),..., w g,h = (u g, v h ) z.b. n zufällig ausgewählte Personen, mit A i : Blutgruppe der i-ten Person (g = 4) B i : Geschlecht der i-ten Person (h = 2) Frage: ist es plausibel, dass Blutgruppe und Geschlecht unabhängig sind? Verteilung von X i definiert durch p = (p 1,1,..., p g,h ) mit p j,l := P(X i = w j,l ) N j,l := #{i : X i = w j,l } (N 1,1,..., N g,h ) Mult(n, p 1,1,..., p g,h )

27 Nullhypothese H 0 : p Π mit Π = {π(θ) : θ Θ}, wobei { Θ = (q, r) ]0, 1[ g ]0, 1[ h : g j=1 q j = } h l=1 r l = 1 und π j,l (q, r) = q j r l ˆθn = (ˆq, ˆr) ML-Schätzung von θ = (q, r): ˆq j = #{i : A i = u j } n h l=1 = N j,l n und ˆr l = #{i : B i = v l } n = g j=1 N j,l n unter H 0 gelten C n (ˆθ n ) d χ 2 (g 1) (h 1) und G n (ˆθ n ) d χ 2 (g 1) (h 1) mit C n (ˆθ n ) = g j=1 l=1 h (N j,l n ˆq j ˆr l ) 2 und G n (ˆθ n ) = 2 n ˆq j ˆr l g h j=1 l=1 da π j,l (ˆθ n ) = ˆq j ˆr l und k 1 dim(π) = (g 1) (h 1) N j,l log N j,l n ˆq j ˆr l,

28 χ 2 -Test auf Unabhängigkeit (chi-square test of independence): Nullhypothese H0 : A i und B i unabhängig Alternativhypothese H1 : A i und B i abhängig Teststatistik: C (U) n := g h (N j,l n ˆq j ˆr l) 2 j=1 l=1 n ˆq j ˆr l Entscheidung (zum Niveau α): verwerfe H0 falls C (U) n c (U) n,1 α G-Test auf Unabhängigkeit: Nullhypothese H0 : A i und B i unabhängig Alternativhypothese H1 : A i und B i abhängig Teststatistik: G (U) n := 2 g j=1 h l=1 N j,l log N j,l n ˆq j ˆr l Entscheidung (zum Niveau α): verwerfe H0 falls G (U) n g (U) n,1 α c (U) n,1 α χ2 (g 1) (h 1),1 α und g (U) n,1 α χ2 (g 1) (h 1),1 α für große n

29 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests

30 lineare Rangtests für Lageprobleme (linear rank tests for location problems) Ränge von n verschiedene Werte x 1,..., x n R: r 1,..., r n mit r j = #{i : x i x j } {r 1,..., r n } = {1,..., n} und x (ri ) = x i (wobei x (1) < < x (n) ) Zufallsvariable X 1,..., X n i.i.d. F mit F stetig Ränge R 1,..., R n f.s. wohldefiniert und P (R 1 = π(1),..., R n = π(n)) = 1 n! für alle n! Permutationen π von {1,..., n} Behandlung von Bindungen (ties): Kombination (alle möglichen Rangkombinationen untersuchen) Elimination (Beobachtungen aus der Stichprobe entfernen) Randomisierung (zufällige Ränge bilden) Mittelung (Durchschnittsränge bilden)

31 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests

32 i.i.d. Annahme: Zufallsvariable X 1,..., X n F mit F stetig und symmetrisch um θ (d.h. F (θ + x) = 1 F (θ x) für alle x R) R + 1,..., R+ n Ränge von X 1 θ,..., X n θ g n : {1,..., n} R + Gewichtsfunktion Satz i.i.d. Zufallsvariable X 1,..., X n F mit F stetig und symmetrisch um θ L n := n g n (R + i ) hat dieselbe Verteilung wie g n (j) Y j i : X i >θ mit Y 1,..., Y n i.i.d. Ber( 1 2 ) j=1

33 Beweis. X i θ und I {Xi >θ} sind unabhängig, da für alle x 0 gilt P( X i θ x I {Xi >θ} = 1) = P(θ < X i θ + x) = P(θ < X i ) = P(θ x X i θ) = P( X i θ x I {Xi >θ} = 0) P(X i θ) X 1 θ,..., X n θ, I {X1>θ},..., I {Xn>θ} unabhängig L n = n n g n (R + i ) = g n (π(i)) I {Xi >θ} = g n (j) Y j i : X i >θ i=1 j=1 mit Y j := I {Xπ 1 (j) >θ}, wobei R + 1 = π(1),..., R+ n = π(n)

34 P ( Y 1 = y 1,..., Y n = y n R 1 + = π(1),..., R+ n = π(n) ) = = P ( I {X1>θ} = y π(1),..., I {Xn>θ} = y π(n) R 1 + = π(1),..., R+ n = π(n) ) = n = P(I {X1>θ} = y π(1),..., I {Xn>θ} = y π(n) ) = P(I {Xi >θ} = y π(i) ) = ( 1 2 )n für alle y 1,..., y n {0, 1} und alle Permutationen π von {1,..., n} i=1 P(Y 1 = y 1,..., Y n = y n ) = ( 1 2 )n für alle y 1,..., y n {0, 1}, d.h. Y 1,..., Y n i.i.d. Ber( 1 2 )

35 L n ist diskret mit höchstens 2 n möglichen Werten, und die Verteilung von L n ist symmetrisch um E(L n ) = 1 n 2 j=1 g n(j) mit Var(L n ) = 1 n 4 j=1 (g n(j)) 2 l n,1 α : unteres (1 α)-quantil der Verteilung von L n P(L n > l n,1 α ) α und P(L n l n,1 α ) > α l + n,α : oberes α-quantil der Verteilung von L n P(L n < l + n,α) α und P(L n l + n,α) > α zentraler Grenzwertsatz (unter Regularitätsbedingungen für g n ): L n E(L n ) Var(Ln ) d N(0, 1) l n,p l + n,p E(L n ) + Φ 1 (p) Var(L n ) für große n

36 θ 0 R bekannt R + 1,..., R+ n Ränge von X 1 θ 0,..., X n θ 0 1-Stichproben-Rangtest (zweiseitig): Nullhypothese H0 : θ = θ 0 Alternativhypothese H1 : θ θ 0 Teststatistik: Ln = i : X i >θ 0 g n(r + i ) Entscheidung (zum Niveau α): verwerfe H0 falls L n < l + n, α 2 oder L n > l n,1 α 2

37 1-Stichproben-Rangtest (einseitig ): Nullhypothese H0 : θ θ 0 Alternativhypothese H1 : θ > θ 0 Teststatistik: Ln = i : X i >θ 0 g n(r + i ) Entscheidung (zum Niveau α): verwerfe H0 falls L n > l n,1 α 1-Stichproben-Rangtest (einseitig + ): Nullhypothese H0 : θ θ 0 Alternativhypothese H1 : θ < θ 0 Teststatistik: Ln = i : X i >θ 0 g n(r + i ) Entscheidung (zum Niveau α): verwerfe H0 falls L n < l n,α +

38 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests

39 Güte eines Tests T : (wobei X i θ F 0 ) β T (α, n, θ, F 0 ) := P(H 0 verwerfen), wenn H 1 gilt seien θ k, n k, n k so, dass lim θ k = θ 0 und lim β T (α, n k, θ k, F 0 ) = lim β T (α, k k k n k, θ k, F 0 ) unter Regularitätsbedingungen ist die asymptotische relative Effizienz n k ARE T :T (F 0 ) = lim k n k von T gegenüber T wohldefiniert und hängt nur von der Verteilung F 0 von X i θ ab wenn X i θ F 0 angenommen wird (mit F 0 bekannt und θ unbekannt) und die Gewichtsfunktion ( ) g n (j) = ( log f 0 ) F 1 0 ( n+1+j 2 n+2 ) wohldefiniert ist (wobei f 0 die Dichte von F 0 ist), ist der zugehörige Rangtest T asymptotisch optimal: ARE T :T (F 0 ) 1 für alle Tests T

40 Van der Waerden-Test: asymptotisch optimal, wenn F0 eine Normalverteilung ist Gewichtsfunktion: gn(j) = Φ 1 ( n+1+j 2 n+2 ) Vorzeichentest (sign test): asymptotisch optimal, wenn F0 eine Laplace-Verteilung (Doppelexponentialverteilung) ist Gewichtsfunktion: gn(j) = 1 L n = #{i : X i > θ 0} L n Bin(n, 1 2 ), wenn θ = θ0 Wilcoxon-Vorzeichen-Rang-Test (Wilcoxon signed-rank test): asymptotisch optimal, wenn F0 eine logistische Verteilung ist Gewichtsfunktion: gn(j) = j L n = i:x i >θ 0 R + i E(L n) = n (n+1) n (n+1) (2 n+1) und Var(L 4 n) =, wenn θ = θ 24 0

41 F 0 Normal Laplace logistisch inf sup 4 ARE VdW :t (F 0 ) 1 π ARE Vorz:t (F 0 ) 2 π π ARE Wilc:t (F 0 ) π π F (ε) 0 (x) := (1 ε) Φ( x σ ) + ε Φ( x 3 σ ) ε ARE Wilc:t (F (ε) 0 )

42 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests

43 Annahme: Zufallsvariable X 1,..., X n, Y 1,..., Y m i.i.d. F mit F stetig R 1,..., R n+m Ränge von X 1,..., X n, Y 1,..., Y m g n,m : {1,..., n + m} R Gewichtsfunktion (steigend) Satz i.i.d. Zufallsvariable X 1,..., X n, Y 1,..., Y m F mit F stetig n L n,m := g n,m (Ri ) hat dieselbe Verteilung wie g n,m (j) i=1 j S mit S gleichverteilt auf {A {1,..., n + m} : #A = n}

44 Beweis. L n,m = n g n,m (Ri ) = g n,m (j) j S i=1 mit S := {π(1),..., π(n)}, wobei R 1 = π(1),..., R n+m = π(n + m) P (S = A) = P ({π(1),..., π(n)} = A, {π(n + 1),..., π(n + m)} = A c ) = = n! m! (n + m)! für alle A {1,..., n + m} mit #A = n, d.h. S ist gleichverteilt auf {A {1,..., n + m} : #A = n}

45 L n,m ist diskret mit höchstens (n+m)! n! m! möglichen Werten, E(L n,m ) = Var(L n,m ) = n n+m n+m j=1 g n,m(j), und n m (n+m) 2 (n+m 1) ( (n + m) n+m j=1 (g n,m(j)) 2 ( n+m ) ) 2 j=1 g n,m(j) l n,m,1 α : unteres (1 α)-quantil der Verteilung von L n,m P(L n,m > l n,m,1 α ) α und P(L n,m l n,m,1 α ) > α l + n,m,α : oberes α-quantil der Verteilung von L n,m P(L n,m < l + n,m,α) α und P(L n,m l + n,m,α) > α zentraler Grenzwertsatz (unter Regularitätsbedingungen für g n,m ): L n,m E(L n,m ) Var(Ln,m ) d N(0, 1) l n,m,p l + n,m,p E(L n,m ) + Φ 1 (p) Var(L n,m ) für große n, m

46 Annahme: Zufallsvariable X 1,..., X n, Y 1,..., Y m und Konstanten θ X, θ Y R so, dass X 1 θ X,..., X n θ X, Y 1 θ Y,..., Y m θ Y i.i.d. F 0 mit F 0 stetig X 1,..., X n und Y 1,..., Y m sind unabhängige Stichproben (gepaarte Stichproben: 1-Stichproben-Rangtest für die Differenzen X i Y i ) 2-Stichproben-Rangtest (zweiseitig): Nullhypothese H0 : θ X = θ Y Alternativhypothese H1 : θ X θ Y Teststatistik: Ln,m = n i=1 gn,m(r i ) Entscheidung (zum Niveau α): verwerfe H0 falls L n,m < l + n,m, α 2 oder L n,m > l n,m,1 α 2

47 2-Stichproben-Rangtest (einseitig ): Nullhypothese H0 : θ X θ Y Alternativhypothese H1 : θ X > θ Y Teststatistik: Ln,m = n i=1 gn,m(r i ) Entscheidung (zum Niveau α): verwerfe H0 falls L n,m > l n,m,1 α 2-Stichproben-Rangtest (einseitig + ): Nullhypothese H0 : θ X θ Y Alternativhypothese H1 : θ X < θ Y Teststatistik: Ln,m = n i=1 gn,m(r i ) Entscheidung (zum Niveau α): verwerfe H0 falls L n,m < l + n,m,α

48 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests

49 Güte eines Tests T : (wobei θ = θ X θ Y ) β T (α, n, m, θ, F 0 ) := P(H 0 verwerfen), wenn H 1 gilt seien θ k, n k, m k, n k, m k so, dass lim θ k = 0 und lim β T (α, n k, m k, θ k, F 0 ) = lim β T (α, k k k n k, m k, θ k, F 0 ) unter Regularitätsbedingungen ist die asymptotische relative Effizienz n k ARE T :T (F 0 ) = lim + m k k n k + m k von T gegenüber T wohldefiniert und hängt nur von F 0 ab wenn F 0 bekannt ist und die Gewichtsfunktion g n,m (j) = (log f 0 ) ( F 1 ) j 0 ( n+m+1 ) wohldefiniert ist (wobei f 0 die Dichte von F 0 ist), ist der zugehörige Rangtest T asymptotisch optimal: ARE T :T (F 0 ) 1 für alle Tests T

50 Van der Waerden-Test: asymptotisch optimal, wenn F0 eine Normalverteilung ist Gewichtsfunktion: gn,m(j) = Φ 1 ( Median-Test (median test): j ) n+m+1 asymptotisch optimal, wenn F0 eine Laplace-Verteilung (Doppelexponentialverteilung) ist { 1 falls j > n+m+1 Gewichtsfunktion: gn,m(j) 2 = 0 falls j n+m+1 2 L n,m = # {i {1,..., n} : X i > med(x 1,..., X n, Y 1,..., Y m)} Wilcoxon-Rangsummentest (Wilcoxon rank-sum test): asymptotisch optimal, wenn F0 eine logistische Verteilung ist Gewichtsfunktion: gn,m(j) = j L n,m = n i=1 R i E(L n,m) = n (n+m+1) 2 und Var(L n,m) = n m (n+m+1) 12, wenn θ X = θ Y

51 F 0 Normal Laplace logistisch inf sup 4 ARE VdW :t (F 0 ) 1 π ARE Med:t (F 0 ) 2 π π ARE Wilc:t (F 0 ) π π F (ε) 0 (x) := (1 ε) Φ( x σ ) + ε Φ( x 3 σ ) ε ARE Wilc:t (F (ε) 0 )

Konfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt

Konfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt Konfidenzintervalle Annahme: X 1,..., X n iid F θ. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt P θ (U θ O) = 1 α, α (0, 1). Das Intervall [U, O] ist ein Konfidenzintervall

Mehr

Stochastik Praktikum Testtheorie

Stochastik Praktikum Testtheorie Stochastik Praktikum Testtheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 11.10.2010 Definition X: Zufallsgröße mit Werten in Ω, (Ω, F, (P ϑ ) ϑ Θ ) statistisches Modell Problem: Teste H 0 : ϑ

Mehr

15.3 Statistische Tests von Pseudozufallszahlen

15.3 Statistische Tests von Pseudozufallszahlen 15.3 Statistische Tests von Pseudozufallszahlen Def. 52 Ein Test ist eine Entscheidungsvorschrift, die über die Akzeptanz genau einer von zwei alternativen Hypothesen entscheidet. Bsp. 109 (Analogie zur

Mehr

Hypothesentests für Erwartungswert und Median. Statistik (Biol./Pharm./HST) FS 2015

Hypothesentests für Erwartungswert und Median. Statistik (Biol./Pharm./HST) FS 2015 Hypothesentests für Erwartungswert und Median Statistik (Biol./Pharm./HST) FS 2015 Normalverteilung X N μ, σ 2 X ist normalverteilt mit Erwartungswert μ und Varianz σ 2 pdf: pdf cdf:??? cdf 1 Zentraler

Mehr

Klassifikation von Signifikanztests

Klassifikation von Signifikanztests Klassifikation von Signifikanztests Nach Verteilungsannahmen: verteilungsabhängig: parametrischer [parametric] Test verteilungsunabhängig: nichtparametrischer [non-parametric] Test Bei parametrischen Tests

Mehr

Blockpraktikum zur Statistik mit R

Blockpraktikum zur Statistik mit R Blockpraktikum zur Statistik mit R 08. Oktober 2010 Till Breuer, Sebastian Mentemeier und Matti Schneider Institut für Mathematische Statistik Universität Münster WS 2010/11 Gliederung 1 Ein-Stichproben-Fall

Mehr

Statistik II für Betriebswirte Vorlesung 3

Statistik II für Betriebswirte Vorlesung 3 Statistik II für Betriebswirte Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 2. November 2016 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Zusammenfassung PVK Statistik

Zusammenfassung PVK Statistik Zusammenfassung PVK Statistik (Diese Zusammenfassung wurde von Carlos Mora erstellt. Die Richtigkeit der Formeln ist ohne Gewähr.) Verteilungen von diskreten Zufallsvariablen Beschreibung Binomialverteilung

Mehr

Statistische Tests zu ausgewählten Problemen

Statistische Tests zu ausgewählten Problemen Einführung in die statistische Testtheorie Statistische Tests zu ausgewählten Problemen Teil 4: Nichtparametrische Tests Statistische Testtheorie IV Einführung Beschränkung auf nichtparametrische Testverfahren

Mehr

Kapitel XIV - Anpassungstests

Kapitel XIV - Anpassungstests Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XIV - Anpassungstests Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh 2. Grundannahme:

Mehr

Statistik II für Betriebswirte Vorlesung 2

Statistik II für Betriebswirte Vorlesung 2 Statistik II für Betriebswirte Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 26. Oktober 2016 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung

Mehr

Nichtparametrische statistische Methoden

Nichtparametrische statistische Methoden Herbert Büning / Götz Trenkler Nichtparametrische statistische Methoden 2., erweiterte und völlig überarbeitete Auflage w DE G_ Walter de Gruyter Berlin New York 1994 Inhaltsverzeichnis Vorwort zur zweiten

Mehr

Grundidee. χ 2 Tests. Ausgangspunkt: Klasseneinteilung der Beobachtungen in k Klassen. Grundidee. Annahme: Einfache Zufallsstichprobe (X 1,..., X n ).

Grundidee. χ 2 Tests. Ausgangspunkt: Klasseneinteilung der Beobachtungen in k Klassen. Grundidee. Annahme: Einfache Zufallsstichprobe (X 1,..., X n ). Grundidee χ 2 -Anpassungstest χ 2 -Unabhängigkeitstest χ 2 -Homogenitätstest χ 2 Tests Grundidee Ausgangspunkt: Klasseneinteilung der Beobachtungen in k Klassen Annahme: Einfache Zufallsstichprobe (X 1,,

Mehr

Der Begriff Statistik besitzt mehrere Bedeutungen: Ergebnis eines Zähl- oder Messprozesses, Resultate einer Erhebung,...

Der Begriff Statistik besitzt mehrere Bedeutungen: Ergebnis eines Zähl- oder Messprozesses, Resultate einer Erhebung,... Was ist Statistik? Statistische Grundbegriffe Was ist Statistik? Wozu braucht man Statistik? Formulierung des Versuchsplans Teilgebiete der Statistik Der Begriff Statistik besitzt mehrere Bedeutungen:

Mehr

5.9. Nichtparametrische Tests Übersicht

5.9. Nichtparametrische Tests Übersicht 5.9. Übersicht Es werden die wichtigsten Rang-Analoga zu den Tests in 5.2.-5.6. behandelt. 5.9.0 Einführung 5.9.1 Einstichprobenproblem (vgl 5.2), 2 verbundene Stichproben (vgl. 5.3) Vorzeichentest, Vorzeichen-Wilcoxon-Test

Mehr

Hypothesentests für Erwartungswert und Median. für D-UWIS, D-ERDW, D-USYS und D-HEST SS15

Hypothesentests für Erwartungswert und Median. für D-UWIS, D-ERDW, D-USYS und D-HEST SS15 Hypothesentests für Erwartungswert und Median für D-UWIS, D-ERDW, D-USYS und D-HEST SS15 Normalverteilung X N(μ, σ 2 ) : «X ist normalverteilt mit Erwartungswert μ und Varianz σ 2» pdf: f x = 1 2 x μ exp

Mehr

12 Rangtests zum Vergleich zentraler Tendenzen

12 Rangtests zum Vergleich zentraler Tendenzen 12 Rangtests zum Vergleich zentraler Tendenzen 12.1 Allgemeine Bemerkungen 12.2 Gepaarte Stichproben: Der Wilcoxon Vorzeichen- Rangtest 12.3 Unabhängige Stichproben: Der Wilcoxon Rangsummentest und der

Mehr

Inhaltsverzeichnis. Bibliografische Informationen digitalisiert durch

Inhaltsverzeichnis. Bibliografische Informationen   digitalisiert durch Inhaltsverzeichnis 1 Statistische Grundbegriffe 1 1.1 Skalenniveaus von Merkmalen 1 1.2 Wahrscheinlichkeitsrechnung 2 1.3 Eindimensionale Verteilungen 7 1.4 Mehrdimensionale Verteilungen 9 1.5 Momente,

Mehr

Anhang: Statistische Tafeln und Funktionen

Anhang: Statistische Tafeln und Funktionen A1 Anhang: Statistische Tafeln und Funktionen Verteilungsfunktion Φ(z) der Standardnormalverteilung Die Tabelle gibt die Werte Φ(z) der Verteilungsfunktion zu vorgegebenem Wert z 0 an; ferner gilt Φ( z)

Mehr

Tests für Erwartungswert & Median

Tests für Erwartungswert & Median Mathematik II für Biologen 26. Juni 2015 Prolog Varianz des Mittelwerts Beispiel: Waage z-test t-test Vorzeichentest Wilcoxon-Rangsummentest Varianz des Mittelwerts Beispiel: Waage Zufallsvariable X 1,...,X

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess

Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess Name: Vorname: Matrikelnummer: Lösungsvorschlag zur Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik (Stochastik) Datum: 07.

Mehr

5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung

5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung 5 Konfidenzschätzung 5. Einige Grundbegriffe zur Konfidenzschätzung Diesem Kapitel liegt das parametrische Modell {X, B X, P } mit P {P Θ} zugrunde. {Θ, B Θ } sei ein Meßraum über Θ und µ ein σ-finites

Mehr

Teil XI. Hypothesentests für zwei Stichproben. Woche 9: Hypothesentests für zwei Stichproben. Lernziele. Beispiel: Monoaminooxidase und Schizophrenie

Teil XI. Hypothesentests für zwei Stichproben. Woche 9: Hypothesentests für zwei Stichproben. Lernziele. Beispiel: Monoaminooxidase und Schizophrenie Woche 9: Hypothesentests für zwei Stichproben Patric Müller Teil XI Hypothesentests für zwei Stichproben ETHZ WBL 17/19, 26.06.2017 Wahrscheinlichkeit und Statistik Patric

Mehr

Statistik II für Betriebswirte Vorlesung 3

Statistik II für Betriebswirte Vorlesung 3 Statistik II für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 30. Oktober 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 3 Version:

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 22 Übersicht Weitere Hypothesentests in der Statistik 1-Stichproben-Mittelwert-Tests 1-Stichproben-Varianz-Tests 2-Stichproben-Tests Kolmogorov-Smirnov-Test

Mehr

Einführung in die Induktive Statistik: Testen von Hypothesen

Einführung in die Induktive Statistik: Testen von Hypothesen Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte

Mehr

Teil VIII Hypothesentests für zwei Stichproben

Teil VIII Hypothesentests für zwei Stichproben Woche 9: Hypothesentests für zwei Stichproben Teil VIII Hypothesentests für zwei Stichproben WBL 15/17, 22.06.2015 Alain Hauser Berner Fachhochschule, Technik und Informatik Berner

Mehr

3 Grundlagen statistischer Tests (Kap. 8 IS)

3 Grundlagen statistischer Tests (Kap. 8 IS) 3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Statistische Tests Übersicht

Statistische Tests Übersicht Statistische Tests Übersicht Diskrete Stetige 1. Einführung und Übersicht 2. Das Einstichprobenproblem 3. Vergleich zweier unabhängiger Gruppen (unverbundene Stichproben) 4. Vergleich zweier abhängiger

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

11 Testen von Hypothesen

11 Testen von Hypothesen Testen von Hypothesen Ausgehend von einem statistischen Modell X, B,P ϑ,x, ϑ Θ, interessiert manchmal nicht der genaue Wert des unbekannten Parameters ϑ, sondern lediglich, ob ϑ in einer echten Teilmenge

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

Die Familie der χ 2 (n)-verteilungen

Die Familie der χ 2 (n)-verteilungen Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +

Mehr

Statistisches Testen

Statistisches Testen Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall

Mehr

Die Familie der χ 2 (n)-verteilungen

Die Familie der χ 2 (n)-verteilungen Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +

Mehr

Grundlagen der schließenden Statistik

Grundlagen der schließenden Statistik Grundlagen der schließenden Statistik Schätzer, Konfidenzintervalle und Tests 1 46 Motivation Daten erhoben (Umfrage, Messwerte) Problem: Bei Wiederholung des Experiments wird man andere Beobachtungen

Mehr

Permutationstests II.

Permutationstests II. Resampling Methoden Dortmund, 2005 (Jenő Reiczigel) 1 Permutationstests II. 1. Zwei-Stichprobentest auf Variabilität 2. Mehrere Stichproben: Vergleich von Mittelwerten 3. Kurzer Exkurs: Präzision von Monte

Mehr

Einführung in die statistische Testtheorie II

Einführung in die statistische Testtheorie II 1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.

Mehr

Inhaltsverzeichnis Statistische Grundbegriffe Einf uhrung in SAS

Inhaltsverzeichnis Statistische Grundbegriffe Einf uhrung in SAS Inhaltsverzeichnis 1 Statistische Grundbegriffe... 1 1.1 SkalenniveausvonMerkmalen... 1 1.2 Wahrscheinlichkeitsrechnung... 2 1.3 EindimensionaleVerteilungen... 7 1.4 MehrdimensionaleVerteilungen... 9 1.5

Mehr

Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011

Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011 Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester 2011 28. Oktober 2011 Prof. Dr. Torsten Hothorn Institut für Statistik Nachname: Vorname: Matrikelnummer: Anmerkungen: ˆ Schreiben

Mehr

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente... Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,

Mehr

17 Nichtparametrische Schätzer

17 Nichtparametrische Schätzer 17 Nichtparametrische Schätzer In diesem Paragraphen werden kurz einige Möglichkeiten skizziert, auch in nichtparametrischen Modellenzu Schätzern fürinteressierende statistische Größenzugelangen. a Empirische

Mehr

Teil X. Hypothesentests für eine Stichprobe. Woche 8: Hypothesentests für eine Stichprobe. Lernziele. Statistische Hypothesentests

Teil X. Hypothesentests für eine Stichprobe. Woche 8: Hypothesentests für eine Stichprobe. Lernziele. Statistische Hypothesentests Woche 8: Hypothesentests für eine Stichprobe Teil X Patric Müller Hypothesentests für eine Stichprobe ETHZ WBL 17/19, 19.06.2017 Wahrscheinlichkeit und Statistik Patric

Mehr

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten

Mehr

1 wenn Erfolg im j-ten Versuch

1 wenn Erfolg im j-ten Versuch Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 5.1 Binomialverteilung - Alternative Darstellung n Versuche mit 2 möglichen Ausgängen. Setze Y j = 1 wenn Erfolg im j-ten Versuch 0 wenn

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Statistik II für Betriebswirte Vorlesung 1

Statistik II für Betriebswirte Vorlesung 1 Statistik II für Betriebswirte Vorlesung 1 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. Oktober 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 1 Version:

Mehr

3 Randomisierungs-Tests

3 Randomisierungs-Tests 28 3 Randomisierungs-Tests 3.1 Einführendes Beispiel a Hagel-Experiment:( GrossversuchIV imnapfgebiet1978-1983) Verringert das Impfen von potenziellen Hagelwolken mit Silberiodid die Hagelenergie? (Einfache

Mehr

Statistik II. Weitere Statistische Tests. Statistik II

Statistik II. Weitere Statistische Tests. Statistik II Statistik II Weitere Statistische Tests Statistik II - 19.5.2006 1 Überblick Bisher wurden die Test immer anhand einer Stichprobe durchgeführt Jetzt wollen wir die statistischen Eigenschaften von zwei

Mehr

- Normalverteilung (Gaußverteilung) kann auf sehr viele Zufallsprozesse angewendet werden.

- Normalverteilung (Gaußverteilung) kann auf sehr viele Zufallsprozesse angewendet werden. Normalverteilung und Standardnormalverteilung als Beispiel einer theoretischen Verteilung - Normalverteilung (Gaußverteilung) kann auf sehr viele Zufallsprozesse angewendet werden. - Stetige (kontinuierliche),

Mehr

Klausur zur Vorlesung

Klausur zur Vorlesung Institut für Mathematische Stochastik WS 2004/2005 Universität Karlsruhe 14. Februar 2005 Dr. Bernhard Klar Sebastian Müller Aufgabe 1: (15 Punkte) Klausur zur Vorlesung Statistik für Biologen Musterlösungen

Mehr

Statistik II. Version A. 1. Klausur Sommersemester 2011 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Statistik II. Version A. 1. Klausur Sommersemester 2011 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Statistik II Version A 1. Klausur Sommersemester 2011 Hamburg, 27.07.2011 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................

Mehr

Teil VII Hypothesentests für eine Stichprobe

Teil VII Hypothesentests für eine Stichprobe Woche 7: Hypothesentests für eine Stichprobe Teil VII Hypothesentests für eine Stichprobe WBL 15/17, 15.06.2015 Alain Hauser Berner Fachhochschule, Technik und Informatik Berner Fachhochschule

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 11. Juli 016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Statistik für Ingenieure Vorlesung 12

Statistik für Ingenieure Vorlesung 12 Statistik für Ingenieure Vorlesung 12 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 23. Januar 2017 5.1.1. Tests für eine Stichprobe mit stetiger Skala a) Shapiro-Wilk-Test

Mehr

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion 4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,

Mehr

Statistik. Andrej Depperschmidt. Sommersemester 2016

Statistik. Andrej Depperschmidt. Sommersemester 2016 Statistik Andrej Depperschmidt Sommersemester 2016 Schätzen der Varianz mit Stichprobenmittel Sei X = (X 1,..., X n ) eine Stichprobe u.i.v. ZV mit E[X i ] = µ R, Var[X i ] = σ 2 (0, ) und µ 4 = E[(X i

Mehr

Gepaarter und ungepaarter t-test. Statistik (Biol./Pharm./HST) FS 2014

Gepaarter und ungepaarter t-test. Statistik (Biol./Pharm./HST) FS 2014 Gepaarter und ungepaarter t-test Statistik (Biol./Pharm./HST) FS 2014 Wdh: t-test für eine Stichprobe 1. Modell: X i ist eine kontinuierliche MessgrÄosse; X 1 ; : : : ; X n iid N (¹; ¾ 2 X ); ¾ X wird

Mehr

Schriftliche Prüfung (2 Stunden)

Schriftliche Prüfung (2 Stunden) Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer 2015 Schriftliche Prüfung (2 Stunden) Bemerkungen: Erlaubte Hilfsmittel: 10 hand- oder maschinengeschriebene A4 Seiten (=5 Blätter). Taschenrechner

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X

Mehr

Wahrscheinlichkeit und Statistik BSc D-INFK

Wahrscheinlichkeit und Statistik BSc D-INFK Prof. Dr. M. Schweizer ETH Zürich Sommer Wahrscheinlichkeit und Statistik BSc D-INFK. a) (iii) b) (ii) c) (i) d) (ii) e) (ii) f) (iii) g) (ii) h) (i) i) (ii) j) (i). Für ein heruntergeladenes Dokument

Mehr

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu

Mehr

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Prof. Dr. M. Schweizer ETH Zürich Winter 2018 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Bitte... Lege deine Legi auf den Tisch. Trage deine Daten in dieses Deckblatt ein, und schreibe auf jedes

Mehr

Step-Down Prozeduren

Step-Down Prozeduren Step-Down Prozeduren zur Kontrolle der Family-Wise Error Rate WS 2010/2011 Jakob Gierl HU Berlin 07.02.2011 1 / 19 Modell Schrittweise Step-Down Modell mathematische Stichprobe X 1,..., X n iid im R J

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Parametrische und nichtparametrische Tests

Parametrische und nichtparametrische Tests XIII. Nichtparametrische Tests Seite 1 Parametrische und nichtparametrische Tests Parametrische Tests: Hier wird eine bestimmte Verteilung vorausgesetzt, und getestet, ob die gewählten Parameter passen.

Mehr

11. Nichtparametrische Tests

11. Nichtparametrische Tests 11. Nichtparametrische Tests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 In Kapitel 8 und 9 haben wir vorausgesetzt, daß die Beobachtungswerte normalverteilt sind. In diesem Fall kann

Mehr

Schriftliche Prüfung (90 Minuten)

Schriftliche Prüfung (90 Minuten) Dr. M. Kalisch Prüfung Statistik I Winter 2016 Schriftliche Prüfung (90 Minuten) Bemerkungen: Erlaubte Hilfsmittel: 10 hand- oder maschinengeschriebene A4 Seiten (=5 Blätter). Taschenrechner ohne Kommunikationsmöglichkeit.

Mehr

Nachklausur zur Vorlesung

Nachklausur zur Vorlesung Institut für Mathematische Stochastik WS 003/004 Universität Karlsruhe 30. April 004 Priv.-Doz. Dr. D. Kadelka Nachklausur zur Vorlesung Statistik für Biologen Musterlösungen Aufgabe 1 Gemessen wurde bei

Mehr

Mathematik 2 Dr. Thomas Zehrt

Mathematik 2 Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum 1 Universität Basel Mathematik Dr. Thomas Zehrt Testen Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere Kapitel

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Das empirische VaR bzw. CVaR

Das empirische VaR bzw. CVaR Das empirische VaR bzw. CVaR Sei x 1, x 2,..., x n eine Stichprobe der unabhängigen identischverteilten ZV X 1, X 2,..., X n mit Verteilungsfunktion F (Notation: Die ZV X 1, X 2,..., X n sind i.i.d. Empirische

Mehr

Vorlesung Wahrscheinlichkeit und Statistik D-Math, ETH Überblick über den Stoff der einzelnen Stunden

Vorlesung Wahrscheinlichkeit und Statistik D-Math, ETH Überblick über den Stoff der einzelnen Stunden Vorlesung Wahrscheinlichkeit und Statistik D-Math, ETH Überblick über den Stoff der einzelnen Stunden Hansruedi Künsch Frühlingssemester 2013 Repetition vom 19. 2. Ein Wahrscheinlichkeitsraum besteht aus

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

Klassifikation von Signifikanztests

Klassifikation von Signifikanztests Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II Statistik II 1. Ergänzungen zur Wahrscheinlichkeitstheorie Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 1. Ergänzungen zur

Mehr

Klausur zur Vorlesung

Klausur zur Vorlesung Institut für Mathematische Stochastik WS 2006/2007 Universität Karlsruhe 12. Februar 2007 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Aufgabe 1 (15 Punkte) Klausur zur Vorlesung Statistik für Biologen

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Wintersemester 2012/13. Namensschild. Dr.

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Wintersemester 2012/13. Namensschild. Dr. Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Wintersemester 2012/13 Namensschild Dr. Martin Becker Hinweise für die Klausurteilnehmer ˆ Kleben Sie bitte sofort Ihr Namensschild

Mehr

Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg

Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg Prof. Markus Schumacher, Dr. Stan Lai Physikalisches Institut Westbau 2 OG E-Mail: Markus.Schumacher@physik.uni-freiburg.de

Mehr

Definition 18 (Die verallgemeinerte Pareto Verteilung (GPD)) Die standard GPD G γ : ) 1/γ. G γ,ν,β = 1 (1 + γ x ν β

Definition 18 (Die verallgemeinerte Pareto Verteilung (GPD)) Die standard GPD G γ : ) 1/γ. G γ,ν,β = 1 (1 + γ x ν β Die POT Methode (Peaks over Threshold) Definition 18 (Die verallgemeinerte Pareto Verteilung (GPD)) Die standard GPD G γ : G γ (x) = { 1 (1 + γx) 1/γ für γ 0 1 exp{ x} für γ = 0 wobei x D(γ) D(γ) = { 0

Mehr

Zulassungsprüfung Stochastik,

Zulassungsprüfung Stochastik, Zulassungsprüfung Stochastik, 13.10.2017 Wir gehen stets von einem Wahrscheinlichkeitsraum Ω,A,P aus. Aufgabe 1 15 Punkte Seien a,b > 0 und x,y fest. Gegeben sei das Maß µ : B 1 [0,, µa := a1 A x+b1 A

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur

Mehr