Verteilungsfreie Verfahren
|
|
- Bastian Hochberg
- vor 5 Jahren
- Abrufe
Transkript
1 Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2012
2 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests
3 verteilungsfrei/nichtparametrisch (distribution-free/nonparametric) -frei / nicht- : stehen im Gegensatz zu üblichen Methoden, die eine parametrische Familie von Verteilungen annehmen viele computerintensive Verfahren sind nichtparametrisch, die werden aber nicht in dieser Lehrveranstaltung betrachtet (sondern z.b. in Computerintensive Methoden, Schätzen und Testen I/II,... )
4 Beispiel x 1,..., x n R Messungen von µ R mit additiven Messfehlern ε 1,..., ε n (d.h. x i = µ + ε i ), Nullhypothese H 0 : µ µ 0, Alternativhypothese H 1 : µ > µ 0 parametrischer/verteilungsgebundener Test: Annahme: ε 1,..., ε n i.i.d. N(0, σ 2 ) mit σ unbekannt z.b. 1-Stichproben-t-Test: T := ( X µ 0) n (n 1) ni=1 (X i X ) 2 t n 1, wenn µ = µ 0 (verwerfe H 0 falls T c) nichtparametrischer/verteilungsfreier Test: z.b. Vorzeichentest: Annahme: ε 1,..., ε n i.i.d. mit P(ε i > 0) = 1 2 V := #{i : X i > µ 0 } Bin(n, 1 2 ), wenn µ = µ 0 (verwerfe H 0 falls V c )
5 Vorteile des verteilungsfreien Tests (Vorzeichentest): kann verwendet werden, auch wenn die Verteilungsfamilie der Messfehler unbekannt ist kann verwendet werden, auch wenn die Daten ordinal sind Vorteile des parametrischen Tests (1-Stichproben-t-Test): ist (leicht) effizienter, wenn die Verteilungsfamilie der Messfehler (genau) stimmt erlaubt exaktes Niveau
6 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests
7 Tests auf Verteilungsanpassung (tests of goodness of fit) Beispiel x 1,..., x n IQ-Werte von n zufällig ausgewählten Personen i.i.d. Frage: ist es plausibel, dass X 1,..., X n N(100, 15 2 )? parametrischer/verteilungsgebundener Anpassungstest: i.i.d. Annahme: X 1,..., X n N(µ, σ 2 ) mit (µ, σ) unbekannt Frage: ist es plausibel, dass (µ, σ) = (100, 15)? Lösung: konstruiere einen Konfidenzbereich für (µ, σ) und überprüfe, ob (100, 15) im Konfidenzbereich liegt nichtparametrischer/verteilungsfreier Anpassungstest: Annahme: X 1,..., X n i.i.d. (d.h. X 1,..., X n i.i.d. F mit F unbekannt) Frage: ist es plausibel, dass F = N(100, 15 2 )? Lösung: konstruiere einen Konfidenzbereich für F und überprüfe, ob N(100, 15 2 ) im Konfidenzbereich liegt
8 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests
9 Annahme: Zufallsobjekte X 1,..., X n i.i.d. F mit F unbekannt Daten: X 1 = x 1,..., X n = x n (nichtparametrische) Likelihood-Funktion für F : n lik(f ) := P F (X 1 = x 1,..., X n = x n ) = P F (X i = x i ) i=1 (nichtparametrische) ML-Schätzung für F : empirische Verteilung ˆF n : X ˆF n P ˆFn (X = x j ) = #{i : x i = x j } n
10 wenn X 1,..., X n Zufallsvariable sind, wird die empirische Verteilung ˆF n durch die zugehörige (kumulative) Verteilungsfunktion ˆF n beschrieben: X ˆF n ˆF n (x) := P ˆF n (X x) = #{i : x i x} n Satz (Fundamentalsatz der Statistik, Glivenko-Cantelli Theorem) Zufallsvariable X 1, X 2,... i.i.d. F ˆF n F 0 f.s. ( ( ) d.h. P lim ˆF n (x) F (x) = 0 sup n x R ) = 1
11 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests
12 Satz Zufallsvariable X 1,..., X n i.i.d. F mit F stetig Verteilung von K n := ˆF n F hängt nicht von F ab Beweis. { K n = ˆF i n F = max max i=1,...,n n F (X (i)), F (X (i) ) i 1 } = n =: g ( F (X (1) ),..., F (X (n) ) ) = g ( ) Y (1),..., Y (n) mit Y i := F (X i ) U(0, 1), da P (Y i y) = P (F (X i ) y) = y
13 k n,1 α : (1 α)-quantil der Verteilung von K n P ( ˆF ) n F k n,1 α = 1 α, wenn F stetig ist ) P ( ˆF n F k n,1 α 1 α, } {F : ˆF n F k n,1 α = { { } = F : max ˆFn (x) k n,1 α, 0 wenn F beliebig ist { }} F (x) min ˆFn (x) + k n,1 α, 1 ist einen (konservativen) (1 α)-konfidenzbereich für F Satz (Dvoretzky-Kiefer-Wolfowitz-Ungleichung) 1 k n,1 α 2 n log 2 α
14 Verteilung F 0 stetig und bekannt Annahme: Zufallsvariable X 1,..., X n i.i.d. F mit F unbekannt 1-Stichproben-Kolmogorov-Smirnov-Test (zweiseitig): Nullhypothese H0 : F = F 0 (d.h. F (x) = F 0(x) für alle x R) Alternativhypothese H1 : F F 0 (d.h. F (x) F 0(x) für mind. ein x R) Teststatistik: Kn = ˆF n F 0 = sup x R ˆF n(x) F 0(x) Entscheidung (zum Niveau α): verwerfe H0 falls K n k n,1 α
15 1-Stichproben-Kolmogorov-Smirnov-Test (einseitig ): Nullhypothese H0 : F F 0 (d.h. F (x) F 0(x) für alle x R) Alternativhypothese H1 : F F 0 (d.h. F (x) < F 0(x) für mind. ein x R) Teststatistik: K n := sup x R (F 0(x) ˆF ) n(x) Entscheidung (zum Niveau α): verwerfe H0 falls K n k n,1 α 1-Stichproben-Kolmogorov-Smirnov-Test (einseitig + ): Nullhypothese H0 : F F 0 (d.h. F (x) F 0(x) für alle x R) Alternativhypothese H1 : F F 0 (d.h. F (x) > F 0(x) für mind. ein x R) ( ) Teststatistik: K + n := sup x R ˆF n(x) F 0(x) Entscheidung (zum Niveau α): verwerfe H0 falls K + n k + n,1 α K n und K + n haben dieselbe Verteilung (wenn F = F 0 ), die nicht von F 0 abhängt, und k n,1 α = k+ n,1 α k n,1 2α für kleine α
16 K-S-ähnliche Anpassungstests: verteilungsfreie Tests basierend auf alternativen Definitionen des Abstands zwischen ˆF n und F 0 Cramér-von Mises-Test (zweiseitig): Teststatistik: Wn := ( ) 2 + ˆFn(x) F 0(x) df0(x) Anderson-Darling-Tests (zweiseitig): Teststatistik: Kn,ψ := sup x R ˆF n(x) F 0(x) ψ (F 0(x)) Teststatistik: Wn,ψ := ( ) 2 + ˆFn(x) F 0(x) ψ (F0(x)) df 0(x) Gewichtsfunktion ψ: insbesondere ψ(y) = 1 oder ψ(y) = 1 y (1 y)
17 zusammengesetzte Nullhypothese: Nullhypothese H0 : F F 0 mit F 0 = {F θ : θ Θ} Alternativhypothese H1 : F / F 0 z.b. F0 = {N(µ, σ 2 ) : (µ, σ) R R + } K-S-ähnliche Anpassungstests mit dem Abstand zwischen ˆF n und F ˆθ als Teststatistik sind konservativ (wobei ˆθ eine auf X 1,..., X n basierte Schätzung von θ ist) kritische Werte müssen korrigiert werden (z.b. Lilliefors-Korrekturen für den 1-Stichproben-Kolmogorov-Smirnov-Test), und dann sind die Tests verteilungsgebunden Verteilung F 0 nicht stetig: Nullhypothese H0 : F = F 0 Alternativhypothese H1 : F F 0 z.b. F0 = Pois(0.35) K-S-ähnliche Anpassungstests sind (sehr) konservativ kritische Werte müssen korrigiert werden, und dann sind die Tests verteilungsgebunden
18 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests
19 Annahme: w 1,..., w k Zufallsobjekte X 1,..., X n i.i.d. mit k möglichen Werten Verteilung von X i definiert durch p = (p 1,..., p k ) mit p j := P(X i = w j ) > 0 N j := #{i : X i = w j } (N 1,..., N k ) Mult(n, p 1,..., p k ) Abstand zwischen (N 1,..., N k ) und E(N 1,..., N k ) = (n p 1,..., n p k ): C n := k (N j n p j ) 2 oder G n := 2 n p j j=1 k j=1 N j log N j n p j Satz (N 1,..., N k ) Mult(n, p 1,..., p k ) C n d χ 2 k 1 und G n d χ 2 k 1
20 Beweisidee. G n = 2 log { lik(p) sup p S lik(p ) mit S = p [0, 1] k : } k j=1 p j = 1 d G n χ 2 k 1, da k 1 = dim(s) dim({p}) C n ist die Approximation von G n = 2 ( k j=1 N j log p j log N j n ), die man erhält, wenn man log p j mit dem Taylorpolynom zweiten Grades um ˆp j = N j n approximiert Gesetz der großen Zahlen: ˆp j p j f.s. C n d Gn C n d χ 2 k 1 N 1,..., N k unabhängig mit N j Pois(n p j ) ( (N 1,..., N k ) ) k j=1 N j = n Mult(n, p 1,..., p k ) N zentraler Grenzwertsatz: j n p j d k (N n pj N(0, 1) j n p j ) 2 j=1 n p ( j k (N j n p j ) 2 k d j=1 N j = n) χ 2 d k 1 C n χ 2 k 1 j=1 n p j d χ 2 k
21 π = (π 1,..., π k ) bekannt mit π 1,..., π k ]0, 1[ und π π k = 1 χ 2 -Test (Pearson s chi-square test): Nullhypothese H0 : p = π (d.h. p j = π j für alle j {1,..., k}) Alternativhypothese H1 : p π (d.h. p j π j für mind. ein j {1,..., k}) Teststatistik: Cn = k (N j n π j ) 2 j=1 n π j Entscheidung (zum Niveau α): verwerfe H0 falls C n c n,1 α G-Test: Nullhypothese H0 : p = π (d.h. p j = π j für alle j {1,..., k}) Alternativhypothese H1 : p π (d.h. p j π j für mind. ein j {1,..., k}) Teststatistik: Gn = 2 k j=1 N j log N j n π j Entscheidung (zum Niveau α): verwerfe H0 falls G n g n,1 α c n,1 α χ 2 k 1,1 α und g n,1 α χ 2 k 1,1 α für große n
22 zusammengesetzte Nullhypothese: Nullhypothese H0 : p Π mit Π = {π(θ) : θ Θ} Alternativhypothese H1 : p / Π z.b. (w1,..., w k ) = (0, 1, 2) und Π = {( (1 θ) 2, 2 θ (1 θ), θ 2) : θ ]0, 1[ } (d.h. H 0 : X i Bin(2, θ) mit θ unbekannt) falls ˆθ n eine auf N 1,..., N k basierte Minimum-χ 2 - oder ML-Schätzung von θ ist, d.h. falls ˆθ n die Minimumstelle von C n(θ) = k (N j n π j (θ)) 2 n π j (θ) j=1 bzw. G n(θ) = 2 k N j N j log n π j (θ) j=1 ist, dann gelten C n(ˆθ n) d χ 2 k 1 dim(π) und G n(ˆθ n) d χ 2 k 1 dim(π), wenn p Π Beweisidee: ˆθn ML-Schätzung von θ G n(ˆθ n) = 2 log sup θ Θ lik(π(θ)) { sup p S lik(p ) mit S = p [0, 1] k : } k j=1 p j = 1 G n(ˆθ n) d χ 2 k 1 dim(π), da k 1 dim(π) = dim(s) dim({π(θ) : θ Θ}) korrigierte kritische Werte für die χ 2 - und G-Tests mit C n(ˆθ n) bzw. G n(ˆθ n) als Teststatistiken: c n,1 α χ 2 k 1 dim(π),1 α und g n,1 α χ 2 k 1 dim(π),1 α für große n
23 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests
24 K-S-ähnliche Tests χ2 - und G-Test X i stetige ZV geeignet, nur nach Diskretisierung, verteilungsfrei asymptotisch verteilungsfrei X i diskrete ZV nur nach Korrektur, geeignet, verteilungsgebunden asymptotisch verteilungsfrei X i kategoriell nicht anwendbar geeignet, asymptotisch verteilungsfrei H 0 einseitig geeignet, nicht anwendbar verteilungsfrei H 0 zusammengesetzt nur nach Korrektur, geeignet, verteilungsgebunden asymptotisch verteilungsfrei
25 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests
26 Annahme: Zufallsobjekte X 1 = (A 1, B 1 ),..., X i = (A i, B i ),..., X n = (A n, B n ) i.i.d. mit k = g h möglichen Werten w 1,1 = (u 1, v 1 ),..., w j,l = (u j, v l ),..., w g,h = (u g, v h ) z.b. n zufällig ausgewählte Personen, mit A i : Blutgruppe der i-ten Person (g = 4) B i : Geschlecht der i-ten Person (h = 2) Frage: ist es plausibel, dass Blutgruppe und Geschlecht unabhängig sind? Verteilung von X i definiert durch p = (p 1,1,..., p g,h ) mit p j,l := P(X i = w j,l ) N j,l := #{i : X i = w j,l } (N 1,1,..., N g,h ) Mult(n, p 1,1,..., p g,h )
27 Nullhypothese H 0 : p Π mit Π = {π(θ) : θ Θ}, wobei { Θ = (q, r) ]0, 1[ g ]0, 1[ h : g j=1 q j = } h l=1 r l = 1 und π j,l (q, r) = q j r l ˆθn = (ˆq, ˆr) ML-Schätzung von θ = (q, r): ˆq j = #{i : A i = u j } n h l=1 = N j,l n und ˆr l = #{i : B i = v l } n = g j=1 N j,l n unter H 0 gelten C n (ˆθ n ) d χ 2 (g 1) (h 1) und G n (ˆθ n ) d χ 2 (g 1) (h 1) mit C n (ˆθ n ) = g j=1 l=1 h (N j,l n ˆq j ˆr l ) 2 und G n (ˆθ n ) = 2 n ˆq j ˆr l g h j=1 l=1 da π j,l (ˆθ n ) = ˆq j ˆr l und k 1 dim(π) = (g 1) (h 1) N j,l log N j,l n ˆq j ˆr l,
28 χ 2 -Test auf Unabhängigkeit (chi-square test of independence): Nullhypothese H0 : A i und B i unabhängig Alternativhypothese H1 : A i und B i abhängig Teststatistik: C (U) n := g h (N j,l n ˆq j ˆr l) 2 j=1 l=1 n ˆq j ˆr l Entscheidung (zum Niveau α): verwerfe H0 falls C (U) n c (U) n,1 α G-Test auf Unabhängigkeit: Nullhypothese H0 : A i und B i unabhängig Alternativhypothese H1 : A i und B i abhängig Teststatistik: G (U) n := 2 g j=1 h l=1 N j,l log N j,l n ˆq j ˆr l Entscheidung (zum Niveau α): verwerfe H0 falls G (U) n g (U) n,1 α c (U) n,1 α χ2 (g 1) (h 1),1 α und g (U) n,1 α χ2 (g 1) (h 1),1 α für große n
29 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests
30 lineare Rangtests für Lageprobleme (linear rank tests for location problems) Ränge von n verschiedene Werte x 1,..., x n R: r 1,..., r n mit r j = #{i : x i x j } {r 1,..., r n } = {1,..., n} und x (ri ) = x i (wobei x (1) < < x (n) ) Zufallsvariable X 1,..., X n i.i.d. F mit F stetig Ränge R 1,..., R n f.s. wohldefiniert und P (R 1 = π(1),..., R n = π(n)) = 1 n! für alle n! Permutationen π von {1,..., n} Behandlung von Bindungen (ties): Kombination (alle möglichen Rangkombinationen untersuchen) Elimination (Beobachtungen aus der Stichprobe entfernen) Randomisierung (zufällige Ränge bilden) Mittelung (Durchschnittsränge bilden)
31 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests
32 i.i.d. Annahme: Zufallsvariable X 1,..., X n F mit F stetig und symmetrisch um θ (d.h. F (θ + x) = 1 F (θ x) für alle x R) R + 1,..., R+ n Ränge von X 1 θ,..., X n θ g n : {1,..., n} R + Gewichtsfunktion Satz i.i.d. Zufallsvariable X 1,..., X n F mit F stetig und symmetrisch um θ L n := n g n (R + i ) hat dieselbe Verteilung wie g n (j) Y j i : X i >θ mit Y 1,..., Y n i.i.d. Ber( 1 2 ) j=1
33 Beweis. X i θ und I {Xi >θ} sind unabhängig, da für alle x 0 gilt P( X i θ x I {Xi >θ} = 1) = P(θ < X i θ + x) = P(θ < X i ) = P(θ x X i θ) = P( X i θ x I {Xi >θ} = 0) P(X i θ) X 1 θ,..., X n θ, I {X1>θ},..., I {Xn>θ} unabhängig L n = n n g n (R + i ) = g n (π(i)) I {Xi >θ} = g n (j) Y j i : X i >θ i=1 j=1 mit Y j := I {Xπ 1 (j) >θ}, wobei R + 1 = π(1),..., R+ n = π(n)
34 P ( Y 1 = y 1,..., Y n = y n R 1 + = π(1),..., R+ n = π(n) ) = = P ( I {X1>θ} = y π(1),..., I {Xn>θ} = y π(n) R 1 + = π(1),..., R+ n = π(n) ) = n = P(I {X1>θ} = y π(1),..., I {Xn>θ} = y π(n) ) = P(I {Xi >θ} = y π(i) ) = ( 1 2 )n für alle y 1,..., y n {0, 1} und alle Permutationen π von {1,..., n} i=1 P(Y 1 = y 1,..., Y n = y n ) = ( 1 2 )n für alle y 1,..., y n {0, 1}, d.h. Y 1,..., Y n i.i.d. Ber( 1 2 )
35 L n ist diskret mit höchstens 2 n möglichen Werten, und die Verteilung von L n ist symmetrisch um E(L n ) = 1 n 2 j=1 g n(j) mit Var(L n ) = 1 n 4 j=1 (g n(j)) 2 l n,1 α : unteres (1 α)-quantil der Verteilung von L n P(L n > l n,1 α ) α und P(L n l n,1 α ) > α l + n,α : oberes α-quantil der Verteilung von L n P(L n < l + n,α) α und P(L n l + n,α) > α zentraler Grenzwertsatz (unter Regularitätsbedingungen für g n ): L n E(L n ) Var(Ln ) d N(0, 1) l n,p l + n,p E(L n ) + Φ 1 (p) Var(L n ) für große n
36 θ 0 R bekannt R + 1,..., R+ n Ränge von X 1 θ 0,..., X n θ 0 1-Stichproben-Rangtest (zweiseitig): Nullhypothese H0 : θ = θ 0 Alternativhypothese H1 : θ θ 0 Teststatistik: Ln = i : X i >θ 0 g n(r + i ) Entscheidung (zum Niveau α): verwerfe H0 falls L n < l + n, α 2 oder L n > l n,1 α 2
37 1-Stichproben-Rangtest (einseitig ): Nullhypothese H0 : θ θ 0 Alternativhypothese H1 : θ > θ 0 Teststatistik: Ln = i : X i >θ 0 g n(r + i ) Entscheidung (zum Niveau α): verwerfe H0 falls L n > l n,1 α 1-Stichproben-Rangtest (einseitig + ): Nullhypothese H0 : θ θ 0 Alternativhypothese H1 : θ < θ 0 Teststatistik: Ln = i : X i >θ 0 g n(r + i ) Entscheidung (zum Niveau α): verwerfe H0 falls L n < l n,α +
38 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests
39 Güte eines Tests T : (wobei X i θ F 0 ) β T (α, n, θ, F 0 ) := P(H 0 verwerfen), wenn H 1 gilt seien θ k, n k, n k so, dass lim θ k = θ 0 und lim β T (α, n k, θ k, F 0 ) = lim β T (α, k k k n k, θ k, F 0 ) unter Regularitätsbedingungen ist die asymptotische relative Effizienz n k ARE T :T (F 0 ) = lim k n k von T gegenüber T wohldefiniert und hängt nur von der Verteilung F 0 von X i θ ab wenn X i θ F 0 angenommen wird (mit F 0 bekannt und θ unbekannt) und die Gewichtsfunktion ( ) g n (j) = ( log f 0 ) F 1 0 ( n+1+j 2 n+2 ) wohldefiniert ist (wobei f 0 die Dichte von F 0 ist), ist der zugehörige Rangtest T asymptotisch optimal: ARE T :T (F 0 ) 1 für alle Tests T
40 Van der Waerden-Test: asymptotisch optimal, wenn F0 eine Normalverteilung ist Gewichtsfunktion: gn(j) = Φ 1 ( n+1+j 2 n+2 ) Vorzeichentest (sign test): asymptotisch optimal, wenn F0 eine Laplace-Verteilung (Doppelexponentialverteilung) ist Gewichtsfunktion: gn(j) = 1 L n = #{i : X i > θ 0} L n Bin(n, 1 2 ), wenn θ = θ0 Wilcoxon-Vorzeichen-Rang-Test (Wilcoxon signed-rank test): asymptotisch optimal, wenn F0 eine logistische Verteilung ist Gewichtsfunktion: gn(j) = j L n = i:x i >θ 0 R + i E(L n) = n (n+1) n (n+1) (2 n+1) und Var(L 4 n) =, wenn θ = θ 24 0
41 F 0 Normal Laplace logistisch inf sup 4 ARE VdW :t (F 0 ) 1 π ARE Vorz:t (F 0 ) 2 π π ARE Wilc:t (F 0 ) π π F (ε) 0 (x) := (1 ε) Φ( x σ ) + ε Φ( x 3 σ ) ε ARE Wilc:t (F (ε) 0 )
42 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests
43 Annahme: Zufallsvariable X 1,..., X n, Y 1,..., Y m i.i.d. F mit F stetig R 1,..., R n+m Ränge von X 1,..., X n, Y 1,..., Y m g n,m : {1,..., n + m} R Gewichtsfunktion (steigend) Satz i.i.d. Zufallsvariable X 1,..., X n, Y 1,..., Y m F mit F stetig n L n,m := g n,m (Ri ) hat dieselbe Verteilung wie g n,m (j) i=1 j S mit S gleichverteilt auf {A {1,..., n + m} : #A = n}
44 Beweis. L n,m = n g n,m (Ri ) = g n,m (j) j S i=1 mit S := {π(1),..., π(n)}, wobei R 1 = π(1),..., R n+m = π(n + m) P (S = A) = P ({π(1),..., π(n)} = A, {π(n + 1),..., π(n + m)} = A c ) = = n! m! (n + m)! für alle A {1,..., n + m} mit #A = n, d.h. S ist gleichverteilt auf {A {1,..., n + m} : #A = n}
45 L n,m ist diskret mit höchstens (n+m)! n! m! möglichen Werten, E(L n,m ) = Var(L n,m ) = n n+m n+m j=1 g n,m(j), und n m (n+m) 2 (n+m 1) ( (n + m) n+m j=1 (g n,m(j)) 2 ( n+m ) ) 2 j=1 g n,m(j) l n,m,1 α : unteres (1 α)-quantil der Verteilung von L n,m P(L n,m > l n,m,1 α ) α und P(L n,m l n,m,1 α ) > α l + n,m,α : oberes α-quantil der Verteilung von L n,m P(L n,m < l + n,m,α) α und P(L n,m l + n,m,α) > α zentraler Grenzwertsatz (unter Regularitätsbedingungen für g n,m ): L n,m E(L n,m ) Var(Ln,m ) d N(0, 1) l n,m,p l + n,m,p E(L n,m ) + Φ 1 (p) Var(L n,m ) für große n, m
46 Annahme: Zufallsvariable X 1,..., X n, Y 1,..., Y m und Konstanten θ X, θ Y R so, dass X 1 θ X,..., X n θ X, Y 1 θ Y,..., Y m θ Y i.i.d. F 0 mit F 0 stetig X 1,..., X n und Y 1,..., Y m sind unabhängige Stichproben (gepaarte Stichproben: 1-Stichproben-Rangtest für die Differenzen X i Y i ) 2-Stichproben-Rangtest (zweiseitig): Nullhypothese H0 : θ X = θ Y Alternativhypothese H1 : θ X θ Y Teststatistik: Ln,m = n i=1 gn,m(r i ) Entscheidung (zum Niveau α): verwerfe H0 falls L n,m < l + n,m, α 2 oder L n,m > l n,m,1 α 2
47 2-Stichproben-Rangtest (einseitig ): Nullhypothese H0 : θ X θ Y Alternativhypothese H1 : θ X > θ Y Teststatistik: Ln,m = n i=1 gn,m(r i ) Entscheidung (zum Niveau α): verwerfe H0 falls L n,m > l n,m,1 α 2-Stichproben-Rangtest (einseitig + ): Nullhypothese H0 : θ X θ Y Alternativhypothese H1 : θ X < θ Y Teststatistik: Ln,m = n i=1 gn,m(r i ) Entscheidung (zum Niveau α): verwerfe H0 falls L n,m < l + n,m,α
48 1. Anpassungstests 1.1. Empirische Verteilung 1.2. Kolmogorov-Smirnov-Anpassungstest 1.3. χ 2 -Anpassungstest 1.4. Vergleich der Anpassungstests 1.5. χ 2 -Test auf Unabhängigkeit 2. Rangtests 2.1. Einstichproben-Rangtests 2.2. Asymptotisch optimale Einstichproben-Rangtests 2.3. Zweistichproben-Rangtests 2.4. Asymptotisch optimale Zweistichproben-Rangtests
49 Güte eines Tests T : (wobei θ = θ X θ Y ) β T (α, n, m, θ, F 0 ) := P(H 0 verwerfen), wenn H 1 gilt seien θ k, n k, m k, n k, m k so, dass lim θ k = 0 und lim β T (α, n k, m k, θ k, F 0 ) = lim β T (α, k k k n k, m k, θ k, F 0 ) unter Regularitätsbedingungen ist die asymptotische relative Effizienz n k ARE T :T (F 0 ) = lim + m k k n k + m k von T gegenüber T wohldefiniert und hängt nur von F 0 ab wenn F 0 bekannt ist und die Gewichtsfunktion g n,m (j) = (log f 0 ) ( F 1 ) j 0 ( n+m+1 ) wohldefiniert ist (wobei f 0 die Dichte von F 0 ist), ist der zugehörige Rangtest T asymptotisch optimal: ARE T :T (F 0 ) 1 für alle Tests T
50 Van der Waerden-Test: asymptotisch optimal, wenn F0 eine Normalverteilung ist Gewichtsfunktion: gn,m(j) = Φ 1 ( Median-Test (median test): j ) n+m+1 asymptotisch optimal, wenn F0 eine Laplace-Verteilung (Doppelexponentialverteilung) ist { 1 falls j > n+m+1 Gewichtsfunktion: gn,m(j) 2 = 0 falls j n+m+1 2 L n,m = # {i {1,..., n} : X i > med(x 1,..., X n, Y 1,..., Y m)} Wilcoxon-Rangsummentest (Wilcoxon rank-sum test): asymptotisch optimal, wenn F0 eine logistische Verteilung ist Gewichtsfunktion: gn,m(j) = j L n,m = n i=1 R i E(L n,m) = n (n+m+1) 2 und Var(L n,m) = n m (n+m+1) 12, wenn θ X = θ Y
51 F 0 Normal Laplace logistisch inf sup 4 ARE VdW :t (F 0 ) 1 π ARE Med:t (F 0 ) 2 π π ARE Wilc:t (F 0 ) π π F (ε) 0 (x) := (1 ε) Φ( x σ ) + ε Φ( x 3 σ ) ε ARE Wilc:t (F (ε) 0 )
Konfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt
Konfidenzintervalle Annahme: X 1,..., X n iid F θ. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt P θ (U θ O) = 1 α, α (0, 1). Das Intervall [U, O] ist ein Konfidenzintervall
MehrStochastik Praktikum Testtheorie
Stochastik Praktikum Testtheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 11.10.2010 Definition X: Zufallsgröße mit Werten in Ω, (Ω, F, (P ϑ ) ϑ Θ ) statistisches Modell Problem: Teste H 0 : ϑ
Mehr15.3 Statistische Tests von Pseudozufallszahlen
15.3 Statistische Tests von Pseudozufallszahlen Def. 52 Ein Test ist eine Entscheidungsvorschrift, die über die Akzeptanz genau einer von zwei alternativen Hypothesen entscheidet. Bsp. 109 (Analogie zur
MehrHypothesentests für Erwartungswert und Median. Statistik (Biol./Pharm./HST) FS 2015
Hypothesentests für Erwartungswert und Median Statistik (Biol./Pharm./HST) FS 2015 Normalverteilung X N μ, σ 2 X ist normalverteilt mit Erwartungswert μ und Varianz σ 2 pdf: pdf cdf:??? cdf 1 Zentraler
MehrKlassifikation von Signifikanztests
Klassifikation von Signifikanztests Nach Verteilungsannahmen: verteilungsabhängig: parametrischer [parametric] Test verteilungsunabhängig: nichtparametrischer [non-parametric] Test Bei parametrischen Tests
MehrBlockpraktikum zur Statistik mit R
Blockpraktikum zur Statistik mit R 08. Oktober 2010 Till Breuer, Sebastian Mentemeier und Matti Schneider Institut für Mathematische Statistik Universität Münster WS 2010/11 Gliederung 1 Ein-Stichproben-Fall
MehrStatistik II für Betriebswirte Vorlesung 3
Statistik II für Betriebswirte Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 2. November 2016 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrZusammenfassung PVK Statistik
Zusammenfassung PVK Statistik (Diese Zusammenfassung wurde von Carlos Mora erstellt. Die Richtigkeit der Formeln ist ohne Gewähr.) Verteilungen von diskreten Zufallsvariablen Beschreibung Binomialverteilung
MehrStatistische Tests zu ausgewählten Problemen
Einführung in die statistische Testtheorie Statistische Tests zu ausgewählten Problemen Teil 4: Nichtparametrische Tests Statistische Testtheorie IV Einführung Beschränkung auf nichtparametrische Testverfahren
MehrKapitel XIV - Anpassungstests
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XIV - Anpassungstests Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh 2. Grundannahme:
MehrStatistik II für Betriebswirte Vorlesung 2
Statistik II für Betriebswirte Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 26. Oktober 2016 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung
MehrNichtparametrische statistische Methoden
Herbert Büning / Götz Trenkler Nichtparametrische statistische Methoden 2., erweiterte und völlig überarbeitete Auflage w DE G_ Walter de Gruyter Berlin New York 1994 Inhaltsverzeichnis Vorwort zur zweiten
MehrGrundidee. χ 2 Tests. Ausgangspunkt: Klasseneinteilung der Beobachtungen in k Klassen. Grundidee. Annahme: Einfache Zufallsstichprobe (X 1,..., X n ).
Grundidee χ 2 -Anpassungstest χ 2 -Unabhängigkeitstest χ 2 -Homogenitätstest χ 2 Tests Grundidee Ausgangspunkt: Klasseneinteilung der Beobachtungen in k Klassen Annahme: Einfache Zufallsstichprobe (X 1,,
MehrDer Begriff Statistik besitzt mehrere Bedeutungen: Ergebnis eines Zähl- oder Messprozesses, Resultate einer Erhebung,...
Was ist Statistik? Statistische Grundbegriffe Was ist Statistik? Wozu braucht man Statistik? Formulierung des Versuchsplans Teilgebiete der Statistik Der Begriff Statistik besitzt mehrere Bedeutungen:
Mehr5.9. Nichtparametrische Tests Übersicht
5.9. Übersicht Es werden die wichtigsten Rang-Analoga zu den Tests in 5.2.-5.6. behandelt. 5.9.0 Einführung 5.9.1 Einstichprobenproblem (vgl 5.2), 2 verbundene Stichproben (vgl. 5.3) Vorzeichentest, Vorzeichen-Wilcoxon-Test
MehrHypothesentests für Erwartungswert und Median. für D-UWIS, D-ERDW, D-USYS und D-HEST SS15
Hypothesentests für Erwartungswert und Median für D-UWIS, D-ERDW, D-USYS und D-HEST SS15 Normalverteilung X N(μ, σ 2 ) : «X ist normalverteilt mit Erwartungswert μ und Varianz σ 2» pdf: f x = 1 2 x μ exp
Mehr12 Rangtests zum Vergleich zentraler Tendenzen
12 Rangtests zum Vergleich zentraler Tendenzen 12.1 Allgemeine Bemerkungen 12.2 Gepaarte Stichproben: Der Wilcoxon Vorzeichen- Rangtest 12.3 Unabhängige Stichproben: Der Wilcoxon Rangsummentest und der
MehrInhaltsverzeichnis. Bibliografische Informationen digitalisiert durch
Inhaltsverzeichnis 1 Statistische Grundbegriffe 1 1.1 Skalenniveaus von Merkmalen 1 1.2 Wahrscheinlichkeitsrechnung 2 1.3 Eindimensionale Verteilungen 7 1.4 Mehrdimensionale Verteilungen 9 1.5 Momente,
MehrAnhang: Statistische Tafeln und Funktionen
A1 Anhang: Statistische Tafeln und Funktionen Verteilungsfunktion Φ(z) der Standardnormalverteilung Die Tabelle gibt die Werte Φ(z) der Verteilungsfunktion zu vorgegebenem Wert z 0 an; ferner gilt Φ( z)
MehrTests für Erwartungswert & Median
Mathematik II für Biologen 26. Juni 2015 Prolog Varianz des Mittelwerts Beispiel: Waage z-test t-test Vorzeichentest Wilcoxon-Rangsummentest Varianz des Mittelwerts Beispiel: Waage Zufallsvariable X 1,...,X
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
MehrInstitut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess
Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess Name: Vorname: Matrikelnummer: Lösungsvorschlag zur Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik (Stochastik) Datum: 07.
Mehr5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung
5 Konfidenzschätzung 5. Einige Grundbegriffe zur Konfidenzschätzung Diesem Kapitel liegt das parametrische Modell {X, B X, P } mit P {P Θ} zugrunde. {Θ, B Θ } sei ein Meßraum über Θ und µ ein σ-finites
MehrTeil XI. Hypothesentests für zwei Stichproben. Woche 9: Hypothesentests für zwei Stichproben. Lernziele. Beispiel: Monoaminooxidase und Schizophrenie
Woche 9: Hypothesentests für zwei Stichproben Patric Müller Teil XI Hypothesentests für zwei Stichproben ETHZ WBL 17/19, 26.06.2017 Wahrscheinlichkeit und Statistik Patric
MehrStatistik II für Betriebswirte Vorlesung 3
Statistik II für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 30. Oktober 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 3 Version:
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
MehrStatistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 22 Übersicht Weitere Hypothesentests in der Statistik 1-Stichproben-Mittelwert-Tests 1-Stichproben-Varianz-Tests 2-Stichproben-Tests Kolmogorov-Smirnov-Test
MehrEinführung in die Induktive Statistik: Testen von Hypothesen
Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte
MehrTeil VIII Hypothesentests für zwei Stichproben
Woche 9: Hypothesentests für zwei Stichproben Teil VIII Hypothesentests für zwei Stichproben WBL 15/17, 22.06.2015 Alain Hauser Berner Fachhochschule, Technik und Informatik Berner
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrStatistische Tests Übersicht
Statistische Tests Übersicht Diskrete Stetige 1. Einführung und Übersicht 2. Das Einstichprobenproblem 3. Vergleich zweier unabhängiger Gruppen (unverbundene Stichproben) 4. Vergleich zweier abhängiger
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation
Mehr3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
Mehr11 Testen von Hypothesen
Testen von Hypothesen Ausgehend von einem statistischen Modell X, B,P ϑ,x, ϑ Θ, interessiert manchmal nicht der genaue Wert des unbekannten Parameters ϑ, sondern lediglich, ob ϑ in einer echten Teilmenge
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
MehrDie Familie der χ 2 (n)-verteilungen
Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +
MehrStatistisches Testen
Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall
MehrDie Familie der χ 2 (n)-verteilungen
Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +
MehrGrundlagen der schließenden Statistik
Grundlagen der schließenden Statistik Schätzer, Konfidenzintervalle und Tests 1 46 Motivation Daten erhoben (Umfrage, Messwerte) Problem: Bei Wiederholung des Experiments wird man andere Beobachtungen
MehrPermutationstests II.
Resampling Methoden Dortmund, 2005 (Jenő Reiczigel) 1 Permutationstests II. 1. Zwei-Stichprobentest auf Variabilität 2. Mehrere Stichproben: Vergleich von Mittelwerten 3. Kurzer Exkurs: Präzision von Monte
MehrEinführung in die statistische Testtheorie II
1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.
MehrInhaltsverzeichnis Statistische Grundbegriffe Einf uhrung in SAS
Inhaltsverzeichnis 1 Statistische Grundbegriffe... 1 1.1 SkalenniveausvonMerkmalen... 1 1.2 Wahrscheinlichkeitsrechnung... 2 1.3 EindimensionaleVerteilungen... 7 1.4 MehrdimensionaleVerteilungen... 9 1.5
MehrNachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011
Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester 2011 28. Oktober 2011 Prof. Dr. Torsten Hothorn Institut für Statistik Nachname: Vorname: Matrikelnummer: Anmerkungen: ˆ Schreiben
Mehr1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...
Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,
Mehr17 Nichtparametrische Schätzer
17 Nichtparametrische Schätzer In diesem Paragraphen werden kurz einige Möglichkeiten skizziert, auch in nichtparametrischen Modellenzu Schätzern fürinteressierende statistische Größenzugelangen. a Empirische
MehrTeil X. Hypothesentests für eine Stichprobe. Woche 8: Hypothesentests für eine Stichprobe. Lernziele. Statistische Hypothesentests
Woche 8: Hypothesentests für eine Stichprobe Teil X Patric Müller Hypothesentests für eine Stichprobe ETHZ WBL 17/19, 19.06.2017 Wahrscheinlichkeit und Statistik Patric
MehrBeispiel 6 (Einige Aufgaben zur Gleichverteilung)
Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß
MehrWahrscheinlichkeitsrechnung und Statistik
10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten
Mehr1 wenn Erfolg im j-ten Versuch
Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 5.1 Binomialverteilung - Alternative Darstellung n Versuche mit 2 möglichen Ausgängen. Setze Y j = 1 wenn Erfolg im j-ten Versuch 0 wenn
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrStatistik II für Betriebswirte Vorlesung 1
Statistik II für Betriebswirte Vorlesung 1 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. Oktober 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 1 Version:
Mehr3 Randomisierungs-Tests
28 3 Randomisierungs-Tests 3.1 Einführendes Beispiel a Hagel-Experiment:( GrossversuchIV imnapfgebiet1978-1983) Verringert das Impfen von potenziellen Hagelwolken mit Silberiodid die Hagelenergie? (Einfache
MehrStatistik II. Weitere Statistische Tests. Statistik II
Statistik II Weitere Statistische Tests Statistik II - 19.5.2006 1 Überblick Bisher wurden die Test immer anhand einer Stichprobe durchgeführt Jetzt wollen wir die statistischen Eigenschaften von zwei
Mehr- Normalverteilung (Gaußverteilung) kann auf sehr viele Zufallsprozesse angewendet werden.
Normalverteilung und Standardnormalverteilung als Beispiel einer theoretischen Verteilung - Normalverteilung (Gaußverteilung) kann auf sehr viele Zufallsprozesse angewendet werden. - Stetige (kontinuierliche),
MehrKlausur zur Vorlesung
Institut für Mathematische Stochastik WS 2004/2005 Universität Karlsruhe 14. Februar 2005 Dr. Bernhard Klar Sebastian Müller Aufgabe 1: (15 Punkte) Klausur zur Vorlesung Statistik für Biologen Musterlösungen
MehrStatistik II. Version A. 1. Klausur Sommersemester 2011 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik II Version A 1. Klausur Sommersemester 2011 Hamburg, 27.07.2011 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................
MehrTeil VII Hypothesentests für eine Stichprobe
Woche 7: Hypothesentests für eine Stichprobe Teil VII Hypothesentests für eine Stichprobe WBL 15/17, 15.06.2015 Alain Hauser Berner Fachhochschule, Technik und Informatik Berner Fachhochschule
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 11. Juli 016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrStatistik für Ingenieure Vorlesung 12
Statistik für Ingenieure Vorlesung 12 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 23. Januar 2017 5.1.1. Tests für eine Stichprobe mit stetiger Skala a) Shapiro-Wilk-Test
Mehr4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion
4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,
MehrStatistik. Andrej Depperschmidt. Sommersemester 2016
Statistik Andrej Depperschmidt Sommersemester 2016 Schätzen der Varianz mit Stichprobenmittel Sei X = (X 1,..., X n ) eine Stichprobe u.i.v. ZV mit E[X i ] = µ R, Var[X i ] = σ 2 (0, ) und µ 4 = E[(X i
MehrGepaarter und ungepaarter t-test. Statistik (Biol./Pharm./HST) FS 2014
Gepaarter und ungepaarter t-test Statistik (Biol./Pharm./HST) FS 2014 Wdh: t-test für eine Stichprobe 1. Modell: X i ist eine kontinuierliche MessgrÄosse; X 1 ; : : : ; X n iid N (¹; ¾ 2 X ); ¾ X wird
MehrSchriftliche Prüfung (2 Stunden)
Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer 2015 Schriftliche Prüfung (2 Stunden) Bemerkungen: Erlaubte Hilfsmittel: 10 hand- oder maschinengeschriebene A4 Seiten (=5 Blätter). Taschenrechner
MehrOLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
MehrDWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
MehrWahrscheinlichkeit und Statistik BSc D-INFK
Prof. Dr. M. Schweizer ETH Zürich Sommer Wahrscheinlichkeit und Statistik BSc D-INFK. a) (iii) b) (ii) c) (i) d) (ii) e) (ii) f) (iii) g) (ii) h) (i) i) (ii) j) (i). Für ein heruntergeladenes Dokument
MehrParameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),
Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu
MehrStochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)
Prof. Dr. M. Schweizer ETH Zürich Winter 2018 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Bitte... Lege deine Legi auf den Tisch. Trage deine Daten in dieses Deckblatt ein, und schreibe auf jedes
MehrStep-Down Prozeduren
Step-Down Prozeduren zur Kontrolle der Family-Wise Error Rate WS 2010/2011 Jakob Gierl HU Berlin 07.02.2011 1 / 19 Modell Schrittweise Step-Down Modell mathematische Stichprobe X 1,..., X n iid im R J
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrParametrische und nichtparametrische Tests
XIII. Nichtparametrische Tests Seite 1 Parametrische und nichtparametrische Tests Parametrische Tests: Hier wird eine bestimmte Verteilung vorausgesetzt, und getestet, ob die gewählten Parameter passen.
Mehr11. Nichtparametrische Tests
11. Nichtparametrische Tests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 In Kapitel 8 und 9 haben wir vorausgesetzt, daß die Beobachtungswerte normalverteilt sind. In diesem Fall kann
MehrSchriftliche Prüfung (90 Minuten)
Dr. M. Kalisch Prüfung Statistik I Winter 2016 Schriftliche Prüfung (90 Minuten) Bemerkungen: Erlaubte Hilfsmittel: 10 hand- oder maschinengeschriebene A4 Seiten (=5 Blätter). Taschenrechner ohne Kommunikationsmöglichkeit.
MehrNachklausur zur Vorlesung
Institut für Mathematische Stochastik WS 003/004 Universität Karlsruhe 30. April 004 Priv.-Doz. Dr. D. Kadelka Nachklausur zur Vorlesung Statistik für Biologen Musterlösungen Aufgabe 1 Gemessen wurde bei
MehrMathematik 2 Dr. Thomas Zehrt
Wirtschaftswissenschaftliches Zentrum 1 Universität Basel Mathematik Dr. Thomas Zehrt Testen Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere Kapitel
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrDas empirische VaR bzw. CVaR
Das empirische VaR bzw. CVaR Sei x 1, x 2,..., x n eine Stichprobe der unabhängigen identischverteilten ZV X 1, X 2,..., X n mit Verteilungsfunktion F (Notation: Die ZV X 1, X 2,..., X n sind i.i.d. Empirische
MehrVorlesung Wahrscheinlichkeit und Statistik D-Math, ETH Überblick über den Stoff der einzelnen Stunden
Vorlesung Wahrscheinlichkeit und Statistik D-Math, ETH Überblick über den Stoff der einzelnen Stunden Hansruedi Künsch Frühlingssemester 2013 Repetition vom 19. 2. Ein Wahrscheinlichkeitsraum besteht aus
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management
für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt
MehrKlassifikation von Signifikanztests
Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II
Statistik II 1. Ergänzungen zur Wahrscheinlichkeitstheorie Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 1. Ergänzungen zur
MehrKlausur zur Vorlesung
Institut für Mathematische Stochastik WS 2006/2007 Universität Karlsruhe 12. Februar 2007 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Aufgabe 1 (15 Punkte) Klausur zur Vorlesung Statistik für Biologen
MehrStatistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrWirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Wintersemester 2012/13. Namensschild. Dr.
Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Wintersemester 2012/13 Namensschild Dr. Martin Becker Hinweise für die Klausurteilnehmer ˆ Kleben Sie bitte sofort Ihr Namensschild
MehrStatistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg
Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg Prof. Markus Schumacher, Dr. Stan Lai Physikalisches Institut Westbau 2 OG E-Mail: Markus.Schumacher@physik.uni-freiburg.de
MehrDefinition 18 (Die verallgemeinerte Pareto Verteilung (GPD)) Die standard GPD G γ : ) 1/γ. G γ,ν,β = 1 (1 + γ x ν β
Die POT Methode (Peaks over Threshold) Definition 18 (Die verallgemeinerte Pareto Verteilung (GPD)) Die standard GPD G γ : G γ (x) = { 1 (1 + γx) 1/γ für γ 0 1 exp{ x} für γ = 0 wobei x D(γ) D(γ) = { 0
MehrZulassungsprüfung Stochastik,
Zulassungsprüfung Stochastik, 13.10.2017 Wir gehen stets von einem Wahrscheinlichkeitsraum Ω,A,P aus. Aufgabe 1 15 Punkte Seien a,b > 0 und x,y fest. Gegeben sei das Maß µ : B 1 [0,, µa := a1 A x+b1 A
MehrStatistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur
Mehr