Kapitel 4. Testtheorie
|
|
- Stephanie Stein
- vor 6 Jahren
- Abrufe
Transkript
1 15 Kapitel 4 Testtheorie 41 Modell Es gelten die Modellvoraussetzungen 12, gegeben ist also ein statistischer Raum (Q,G, W Z ) mit W Z = {w h : h01}und einer Parametermenge 1, wobei wir die Familie W Z als mögliche Verteilungen einer Zufallsgröße Z interpretieren, dh P Z = w h für ein bestimmtes, aber unbekanntes h01 Gegeben sei weiter eine Zerlegung 1 = 1 0 c 1 1 der Parametermenge in zwei disjunkte nichtleere Mengen 1 0 und 1 1 und damit eine Zerlegung W Z = W 0 c W 1 der Familie W Z, wobei W i = {w h h01 i } für i=0,1 Nullhypothese H 0 : Die "wahre" Verteilung liegt in W 0 : w h 0 W 0 oder: der "wahre" Parameter liegt in 1 0 : h01 0 Gegenhypothese (Alternative) H 1 : Die "wahre" Verteilung liegt in W 1 : w h 0 W 1 oder: der "wahre" Parameter liegt in 1 1 : h Definition: nichtrandomisierte und randomisierte Tests Ein (nichtrandomisierter) Test (von H 0 gegen H 1 ) ist eine (meßbare) Entscheidungsregel *: Q 6 {0,1} mit der Bedeutung: *=1: H 0 verwerfen, also H 1 akzeptieren, *=0: H 0 nicht verwerfen, dh H 0 beibehalten Die Menge {*=1}={z0Q *(z)=1} heißt Verwerfungsbereich oder kritischer Bereich des Tests * Ein randomisierter Test (von H 0 gegen H 1 ) ist eine (meßbare) Entscheidungsregel *: Q 6 [0,1] mit der Bedeutung: *(z) = p: führe ein B(1,p)-Experiment durch; beim Ergebnis "1" wird H 0 verworfen, beim Ergebnis "0" beibehalten 43 Definition: Gütefunktion Sei *: Q 6 [0,1] ein Test von H 0 gegen H 1 Die Funktion g * = g: 1 6 [0,1] gemäß g(h) = E h (*); h01, heißt Gütefunktion des Tests * (power function) Für jedes h01 ist g(h) die Wahrscheinlichkeit, daß H 0 verworfen wird, falls h der wahre Parameter ist Ist speziell * nichtrandomisiert, so ist g(h) = w h {*=1} für alle h01 44 Definition: Fehler und Irrtumsniveau Sei *: Q 6 [0,1] ein Test von H 0 gegen H 1 Bei Anwendung des Tests * sind zwei Arten von Fehlern möglich: a) Fehler 1Art: Die Nullhypothese H 0 wird verworfen, obwohl sie wahr ist (dh h01 0 ) b) Fehler 2Art: Die Nullhypothese H 0 wird beibehalten, obwohl sie falsch ist (dh h01 1 ) "(*) := sup {g * (h) h01 0 } ist die größtmögliche Wahrscheinlichkeit eines Fehlers 1Art "(*) heißt effektives (Signifikanz- oder Irrtums-) Niveau des Tests * 1-"(*) heißt auch Sicherheitsniveau von * Für h01 1 ist 1 - E h (*) = 1 - g(h) ist die Wahrscheinlichkeit eines Fehlers 2Art, also $(*) := sup{1 - g(h) h01 1 } = 1 - inf{g(h) h01 1 } die größtmögliche Wahrscheinlichkeit eines Fehlers 2Art
2 45 Definition: Niveau-"-Tests Seien *: Q 6 [0,1] ein Test von H 0 gegen H 1, " 0 [0, 1] Falls "(*) # ", so heißt * (Signifikanz-)Test zum (Irrtums-)Niveau " oder kurz Niveau-"-Test (von H 0 gegen H 1 ) Erwünscht sind Niveau-"-Tests * mit möglichst großen g * (h) für h01 1 Dabei sollte das Irrtumsniveau " nach Möglichkeit ausgeschöpft werden, also "(*) = " sein Beispiel: siehe Vorlesung 46 Definition: Unverfälschte Tests Seien " 0 [0, 1], * ein Test mit der Gütefunktion g wie in 43 * heißt unverfälschter (unbiased) Niveau-"-Test, wenn "(*) # " # g(h) für alle h Definition: Gleichmäßig beste Tests (UMP und UMPU) Seien " 0 [0,1], )(") bzw ) u (") die Menge aller Niveau-"-Tests bzw aller unverfälschten Niveau-"-Tests von H 0 gegen H 1 1) Ein Test **0)(") heißt gleichmäßig bester Test (UMP = uniformly most powerful) von H 0 gegen H 1 zum Niveau ", falls für alle *0)(") und für alle h01 1 gilt: E h (*) # E h (**), dh der Test ** minimiert für jedes h01 1 die Wahrscheinlichkeit eines Fehlers 2Art unter allen Niveau-"-Tests 2) Ein Test **0) u (") heißt gleichmäßig bester unverfälschter Test (UMPU = uniformly most powerful unbiased) von H 0 gegen H 1 zum Niveau ", falls für alle *0) u (") und für alle h01 1 gilt: E h (*) # E h (**), dh der Test ** minimiert für jedes h01 1 die Wahrscheinlichkeit eines Fehlers 2Art unter allen unverfälschten Niveau-"-Tests 48 Definition: Der p-wert Es liege Modell 41 vor, also ein statistischer Raum (Q,G, W Z ) mit W Z = {w h : h01}, 1 = 1 0 c 1 1, H 0 : h01 0, H 1 : h01 1 Es sei T: Q 6 ú eine meßbare Abbildung (eine "Statistik"); für alle "0+0,1, sei B(")dú mit sup{w h (T0B(")) h01 0 }#" und *(") sei der nichtrandomisierte Test mit dem Verwerfungsbereich {T0B(")} Für alle " ist dann *(") ein Niveau-"-Test für H 0 gegen H 1 Sei p: Q 6 [0,1] definiert gemäß p(x) := inf{"0+0,1, T(x)0B(")}; x0q p(x) heißt p-wert (zur Beobachtung x); für alle x0q ist p(x) das kleinste Irrtumsniveau " derart, daß der Test *(") bei Beobachtung von x zur Verwerfung der Nullhypothese führt, also p(x) = inf{"0+0,1, *(")(x)=1} Je kleiner der p-wert, umso stärker spricht das Testergebnis gegen die Nullhypothese 49 Definition: Likelihoodquotienten und Neyman-Pearson-Tests Sei (Q,G, W Z ) ein Standardraum (vgl 134) mit 1 = {0, 1}, also W Z = {w 0, w 1 } mit Likelihoods f 0 bzw f 1 H 0 : h = 0, H 1 : h = 1 (Nullhypothese und Gegenhypothese sind hier einfach, dh einpunktig) Definiere q: Q 6 [0, 4] gemäß q(z) = f 1 (z)/f 0 (z), falls f 0 (z)>0, bzw q(z) = 4 sonst q heißt Likelihood-Quotient (LQ) Ein Test n: Q 6 [0,1] heißt Neyman-Pearson-Test (NP-Test) oder vom Neyman-Pearson- Typ, falls ein c0ú + existiert derart, daß n(z) = 1, falls q(z) > c, und n(z) = 0, falls q(z) < c c heißt Schwellenwert oder kritischer Wert des NP-Tests n 410 Neyman-Pearson-Lemma (Jerzy Neyman und Egon Pearson, 1932/33)
3 Mit den Voraussetzungen und Bezeichnungen von 49 gilt: 1) Ist n ein NP-Test, ":= E 0 (n), so ist n UMP-Test in )("), dh E 1 (n) $E 1 (n') für alle Niveau-"-Tests n' von H 0 gegen H 1 2) Zu beliebigem " 0 +0,1, existiert ein NP-Test ** mit " = E 0 (**) Setze dazu (1) c := inf{t0ú + w 0 (q>t) # "}, (2) ( := (" - w 0 (q>c))/w 0 (q=c), falls w 0 (q=c) > 0, bzw (=1 sonst, und definiere **: Q 6 [0,1] gemäß (3) **(z) = 1, falls q(z)>c, **(z) = 0, falls q(z)<c, und **(z) = (, falls q(z)=c Bemerkung Mit den Voraussetzungen und Bezeichnungen von 49 sei T: Q 6 ú eine Statistik, q': ú 6 [0, 4, monoton wachsend derart, daß q = q' B T 1) Sei c0ú und sei n ein Test mit {T>c} d {n=1} und {T<c} d {n=0} Dann ist n ein NP- Test (mit Schwellenwert c' = q'(c)) 2) Zu " 0 +0, 1, setze (1) d := inf{t0ú w 0 (T>t) # "}, (2) ( := (" - w 0 (T>d))/w 0 (T=d), falls w 0 (T=d) > 0, bzw (=1 sonst (3) **: Q 6 [0,1] gemäß **(z) = 1, falls T(z)>d, **(z) = 0, falls T(z)<d, und **(z) = (, falls T(z)=d, ist ein NP-Test mit E 0 (**) = " Beispiel: siehe Vorlesung 412 Modell Sei (Q,G, W Z ) ein Standardraum, W Z = {w h : h 0 1}, wobei 1 offenes Intervall in ú mit Likelihood L L sei eine Exponentialfamilie wie in 214 bezüglich einer Statistik T: Q 6 ú, also L(z,h) = h(z) exp{a(h)t(z) - b(h)}für alle z0q und alle h01 wobei h: Q 6 +0,4,, a: 1 6 ú stetig differenzierbar mit a' > 0 stets, b: 1 6 ú 413 Gleichmäßig beste Tests bei einseitigen Testproblemen Es gelten die Voraussetzungen und Bezeichnungen von 412 1) Sei c 0 ú und n: Q 6 [0,1] mit der Eigenschaft {T>c} d {n=1}und {T<c} d {n=0} Dann ist die Funktion 1hh 6 E h (n) monoton wachsend 2) Sei h(0)0 1 fest H 0 : h# h(0) H 1 : h> h(0) (linksseitiges Testproblem) und seien c und n wie in 1) Dann ist n gleichmäßig bester Test von H 0 gegen H 1 zum Niveau " = E h(0) (n) 3) Seien H 0 und H 1 wie in 2) und sei " 0 +0,1, vorgegeben Definiere hierzu c gemäß (1) c: = inf{t0ú w h(0) (T>t) # "}, sowie ( 0 [0,1] als Lösung der Gleichung (2) w h(0) (T>c) + ( w h(0) (T=c) = ", und setze (3) n(z) = 1, falls T(z) > c, n(z) = 0, falls T(z) < c, und n(z) = (, falls T(z) = c Dann ist n gleichmäßig bester Test von H 0 gegen H 1 zum Niveau " Bemerkung Zu 413 analoge Aussagen gelten für rechtsseitige Testprobleme, nämlich für H 0 : h$ h(0) gegen H 1 : h< h(0) (siehe Literatur, bzw Übungen) 414 Einseitige Binomialtests
4 18 Gegeben ist eine Bernoulli-Stichprobe Z = (X 1,, X n ) (siehe Beispiel 1 zu 14), also 1 = +0, 1,, Q = {0, 1} n, w p = B(1, p) qn für alle p01, Likelihood L(z, p) = p s (1-p) n-s für z = (x 1,, x n ) 0 Q, s = x x n, p01 Nach 2171 liegt eine Exponentialfamilie vor bezüglich S = X X n, wobei a(p) = n (ln(p) - ln(1-p)) streng monoton wachsend auf 1 Seien p(0) 0 +0, 1,, " 0 +0, 1, fest vorgegeben Der in 4133 (1),(2),(3) beschriebene Test n ist gleichmäßig bester Test in der Klasse aller Tests zum Signifikanzniveau " für H 0 : p # p(0) gegen H 1 : p > p(0) Da bezüglich w p(0) S ~ B(n,p(0)), sind c und ( zu wählen gemäß (1) c = min{d 0{0,,n} B(n,p(0))({k k>d}) # "}, (2) ( = (" - B(n,p(0))({k k>c}))/b(n,p(0))({c}); Es ist also n: {0,1} n 6 [0,1] gemäß n(x 1,,x n ) = 1, falls x x n > c, n(x 1,,x n ) = (, falls x x n = c, n(x 1,,x n ) = 0, falls x x n < c In der Praxis verwendet man meist den nichtrandomisierten Test mit dem Verwerfungsbereich {S > c}, wobei c zu " wie in (1) bestimmt wird Er ist allerdings nur näherungsweise gleichmäßig bester Test Diese Tests heißen linksseitige Binomialtests oder Tests auf eine unbekannte Wahrscheinlichkeit Beispiele: siehe Vorlesung 415 Einseitige Gaußtests Wir betrachten das Normalverteilungsmodell mit unbekanntem Erwartungswert m und bekannter Varianz v = v 0, also 1 = ú, Q = ú n, für alle m0ú hat w m die Likelihood (Lebesguedichte) L(z,m) = (2Bv 0 ) -n/2 exp{-(1/2v 0 )[(x 1 -m)²++(x n -m)²]}; z=(x 1,, x n )0ú n Gemäß 2172 ist dies eine Exponentialfamilie bezüglich M = (1/n)(X X n ), wobei a(m) = nm/v 0 streng monoton wachsend ist Die Voraussetzungen von 413 sind also mit T = M erfüllt Seien m(0)0ú, "0+0, 1, vorgegeben Sei H 0 : m # m(0), H 1 : m > m(0) Der in 4153 (1),(2),(3) beschriebene Test n ist gleichmäßig bester Test in der Klasse aller Tests zum Signifikanzniveau " für H 0 gegen H 1 Da bezüglich w m(0) M ~ N(m(0),v 0 /n) ist n nichtrandomisiert ((=1) und c ist das (1-")- Quantil von N(m(0),v 0 /n), dh M((c-m(0))(v 0 /n) -1/2 ) = 1-", also c = m(0) + (v 0 /n) 1/2 u 1-", wobei u 1-" das (1-")-Quantil von N(0,1) ist Der nichtrandomisierte Test n mit dem Verwerfungsbereich{M$m(0) + (v 0 /n) 1/2 u 1-" } ist gleichmäßig bester Test in der Klasse aller Niveau-"-Tests für H 0 gegen H 1 Dieser Test heißt einseitiger (linksseitiger) Gauß-Test 416 Konfidenzintervalle und Tests Es liege das Modell 11 vor; zusätzlich sei 8: 1 6 ú und ú fest Sei 1 0 = {h01 8(h)=8 0 } ( i), 1 1 = 1 (1 0, H 0 : 8(h) = 8 0, H 1 : 8(h) 8 0, " 0 +0,1, Sei Q hz 6 C(z) ein (1-")-Konfidenzintervall für 8(h) Dann ist der (nichtrandomisierte) Test * mit dem Verwerfungsbereich {*=1} = {z0 Q 8 0 ó C(z)} ein Niveau-"-Test von H 0 gegen H 1 Dabei ist "(*) = ", falls für wenigstens ein h01 0 w h {z0q 8(h) 0 C(z)} = 1-" 417 Der zweiseitige Binomialtest für eine unbekannte Wahrscheinlichkeit Es liegt das Binomialmodell wie in 414 vor: n0ù, 1 = +0, 1,, Q = {0, 1} n, W Z = {B(1,p) qn p01}; Z=(X 1,, X n ) Bernoullistichprobe vom Umfang n mit unbekannter
5 19 Erfolgswahrscheinlichkeit p; wie in 416 sei S = X X n = Anzahl der Erfolge; bezüglich w p ist S B(n,p)-verteilt Seien p* 0 +0, 1, fest, H 0 : p = p*, H 1 : p p*; " 0 +0, 1, fest Definiere c 1 := max{x0{0,,n} B(n,p*)({k k<x})#"/2} (= n - qbinom(1 - "/2, n,1-p*)) c 2 := min{x0{0,,n} B(n,p*)({k k>x})#"/2} (= qbinom(1 - "/2, n, p*)) Dann ist w p* (S<c 1 ) # "/2 und w p* (S>c 2 ) # "/2 Der nicht-randomisierte Test * mit dem Verwerfungsbereich {*=1} = {S < c 1 } c {S > c 2 } ist also ein Niveau-"-Test für H 0 gegen H 1 * heißt zweiseitiger Binomialtest Beispiele: siehe Vorlesung 418 Normalapproximationen der Binomialtests Gegeben sei wieder das Binomialmodell wie in 414 und 417; ferner seien "0+0, 1, und p*0+0, 1, vorgegeben; für jedes t0+0,1, bezeichne u t das t-quantil von N(0,1) Nach dem Satz von demoivre-laplace (V 25) ist B(n,p*) N(np*,np*(1-p*)) für große n 1) Beim einseitigen Binomialtest 414 ist der Schwellenwert c ein (1-")-Quantil von B(n,p*), welches man für große n durch das (1-")-Quantil von N(np*,np*(1-p*)), also durch np* + u 1-" (np*(1-p*)) 1/2 approximieren kann Der nichtrandomisierte Test * mit dem Verwerfungsbereich {*=1} = {S > np* + u 1-" (np*(1-p*)) 1/2 } ist dann für große n näherungsweise ein Niveau-"-Test für H 0 : p # p* gegen H 1 : p > p* 2) Beim zweiseitigen Binomialtest 417 ist die untere Schranke c 1 ein ("/2)-Quantil von B(n,p*) und die obere Schranke c 2 ein (1-"/2)-Quantil von B(n,p*) Da u "/2 = - u 1-"/2, ist c 1 np* - u 1-"/2 (np*(1-p*)) 1/2 und c 2 np* + u 1-"/2 (np*(1-p*)) 1/2 Der nichtrandomisierte Test * mit dem Verwerfungsbereich {*=1} = {S < np* - u 1-"/2 (np*(1-p*)) 1/2 } c {S > np* + u 1-"/2 (np*(1-p*)) 1/2 } ist dann für große n näherungsweise ein Niveau-"-Test für H 0 : p=p* gegen H 1 : p p* Diese Tests heißen Normalapproximationen der Binomialtests 414 bzw 417 Beispiele: siehe Vorlesung 419 Zweiseitige Gauß-Tests Gegeben ist das Normalverteilungsmodell mit bekannter Varianz v = v 0 wie in 415, also 1 = ú, Q = ú n, und für alle m0ú ist w m = N(m,v 0 ) qn Seien m(0)0ú, " 0+0,1, vorgegeben, und seien H 0 : m = m(0), H 1 : m m(0) U = (M-m(0))(v 0 /n) -1/2 sei die sogenannte Gauß-Statistik (vgl 392) Bezüglich w m(0) ist U standardnormalverteilt Der nichtrandomisierte Test * mit dem Verwerfungsbereich {*=1} = { U $ u 1-"/2 }, wobei u 1-"/2 das (1-"/2)-Quantil von N(0,1) ist, ist ein Niveau-"-Test von H 0 gegen H 1 * heißt zweiseitiger Gaußtest 420 Zweiseitige t-tests Zugrunde liegt das allgemeine Normalverteilungsmodell 142, dh Z = (X 1,,X n ) ist eine N(m,v)-verteilte Stichprobe vom Umfang n mit unbekannten Parametern m und v, also 1 = ú +0, 4,, Q = ú n, W Z = {w h h01}, wobei für h=(m,v)01 w h = N(m,v) qn Wie üblich bezeichne M das Stichprobenmittel, S² die Stichprobenvarianz Seien " 0 +0, 1,, m(0)0ú fest vorgegeben, und seien H 0 : m = m(0), H 1 : m m(0), also 1 0 = {(m,v)01 m=m(0)}, 1 1 = {(m,v)01 m m(0)}
6 20 T = (M-m(0))(S²/n) -1/2 sei die sogenannte t-statistik (vgl 391) Für jedes h01 0 ist bezüglich w h T t-verteilt mit n-1 Freiheitsgraden (siehe 391) Der nichtrandomisierte Test * mit dem Verwerfungsbereich { T > t n-1,1-"/2 }, wobei t n-1,1-"/2 das (1-"/2)-Quantil der t-verteilung mit n-1 Freiheitsgraden ist, ist ein Niveau-"-Test für H 0 gegen H 1 * heißt zweiseitiger t-test Beispiel: siehe Vorlesung 421 Chi-Quadrat-Tests für die Varianz Modellvoraussetzungen und Bezeichnungen wie in 420; vorgegeben seien "0+0, 1, und ein festes v 0 >0 Seien H 0 : v = v 0, H 1 : v v 0, also 1 0 = {(m,v)01 v=v 0 }, 1 1 = {(m,v)01 v v 0 } Für jedes h=(m,v 0 )01 0 ist bezüglich w h (n-1)s²/v 0 P² n-1 -verteilt (siehe 393) Der nichtrandomisierte Test * mit dem Verwerfungsbereich {S² < (v 0 /(n-1))p² n-1,"/2 }c{s² > (v 0 /(n-1))p² n-1,1-"/2 } ist ein Niveau-"-Test für H 0 gegen H 1 (Für m0ù, $0+0,1, bezeichne P² m,$ das $-Quantil der Chiquadrat-Verteilung mit m Freiheitsgraden) * heißt zweiseitiger Chiquadrat-Test (für die Varianz) Beispiel: siehe Vorlesung Wir betrachten weitere Tests in Normalverteilungsmodellen 422 Zwei-Stichproben-t-Test: Vergleich zweier Erwartungswerte Wir erweitern das Normalverteilungsmodell wie folgt: seien k,n0ù, die Zufallsgröße Z sei eine Folge X 1,,X k, Y 1,,Y n von unabhängigen Zufallsvariablen, wobei X 1,,X k identisch normalverteilt sind mit (unbekanntem) Erwartungswert m(1) und (unbekannter) Varianz v>0, Y 1,,Y n identisch normalverteilt mit (unkanntem) Erwartungswert m(2) und derselben Varianz v Als Parameterbereich liegt also vor 1 = ú ú +0,4,, der Stichprobenraum ist Q = ú k+n, und für alle h = (m(1),m(2),v) 0 1 hat w h die Likelihood (W-Dichte) L(z,h) = (2Bv) -(k+n)/2 exp{-(1/2v)[(x 1 -m(1))²++(x k -m(1))²+(y 1 -m(2))²+(y n -m(2))²]}; z = (x 1,,x k,y 1,,y n ) 0 ú k+n Seien M(1,k) = (1/k)(X 1 ++X k ) das X-Stichprobenmittel, M(2,n) = (1/n)(Y 1 ++Y n ) das Y-Stichprobenmittel, S²(k,n) := (k+n-2) -1 [(X 1 -M(1,k))²+(X k -M(1,k))²+(Y 1 -M(2,n))²++(Y n -M(2,n))²] die Zwei- Stichprobenvarianz, S(m,n) := (S²(m,n)) 1/2 die Zwei-Stichprobenstandardabweichung Sei T = T(Z) = (kn/(k+n)) 1/2 (M(1,k) -M(2,n))/S(m,n) = [(1/k)+(1/n)] -1/2 (M(1,k) -M(2,n))/S(m,n) Es gilt: (*) Für alle h=(m(1),m(2),v)01 mit m(1)=m(2) ist die "Teststatistik" T bezüglich w h t-verteilt ist mit k+n-2 Freiheitsgraden Sei " 0+0,1, vorgegeben; H 0 : m(1) = m(2), H 1 : m(1) m(2), also 1 0 = {h = (m(1),m(2),v)01 m(1)=m(2)}, 1 1 = 1(1 0 Aus (*) folgt, daß der nichtrandomisierte Test * mit dem kritischen Bereich {*=1} = { T > t k+n-2,1-"/2 } ein Niveau-"-Test für H 0 gegen H 1 ist (Dabei ist t k+n-2,1-"/2 das (1-"/2)-Quantil der t-verteilung mit k+n-2 Freiheitsgraden * heißt Zwei-Stichproben-t-Test 423 F-Tests: Vergleich zweier Varianzen
7 21 Ähnlich wie in 422 betrachten wir ein Normalverteilungsmodell wie folgt: seien k,n0ù, die Zufallsgröße Z sei eine Folge X 1,,X k, Y 1,,Y n von unabhängigen Zufallsvariablen, wobei X 1,,X k identisch normalverteilt sind mit (unbekanntem) Erwartungswert m(1) und (unbekannter) Varianz v(1)>0, Y 1,,Y n identisch normalverteilt mit (unkanntem) Erwartungswert m(2) und (unbekannter) Varianz v(2)>0 Als Parameterbereich liegt also vor 1 = ú ú +0,4, +0,4,, der Stichprobenraum ist Q = ú k+n und für alle h=(m(1),m(2),v(1),v(2))01 ist w h = N(m(1),v(1)) qk qn(m(2),v(2)) qn Wie in 422 sei M(1,k) (bzw M(2,n)) das X- (bzw Y-)Stichprobenmittel, ferner S²(1,k) := (k-1) -1 ((X 1 -M(1,k))²++(X k -M(1,k))²) die X-Stichprobenvarianz, S²(2,n) := (n-1) -1 ((Y 1 -M(2,n))²++(Y n -M(2n))²) die Y-Stichprobenvarianz H 0 : v(1) = v(2), H 1 : v(1) v(2), also 1 0 = {h = (m(1),m(2),v(1),v(2))01 v(1)=v(2)}, 1 1 = 1(1 0 Für h = (m(1),m(2),v,v)01 0 ist bezüglich w h Z 1 := (k-1)s²(1,k)/v Chiquadrat-verteilt mit k-1 Freiheitsgraden, und Z 2 := (n-1)s²(2,n)/v Chiquadrat-verteilt mit n-1 Freiheitsgraden (siehe 393); ferner sind Z 1 und Z 2 unabhängig Gemäß V11 ist dann F := (Z 1 /(k-1)) : (Z 2 /(n-1)) = S²(1,k)/S²(1,n) F k-1,n-1 -verteilt Zu vorgegebenem "0+0,1, sei u 1 das ("/2)-, u 2 das (1-"/2)-Quantil der F k-1,n-1 -Verteilung Dann ist der nichtrandomisierte Test * mit dem Verwerfungsbereich {*=1} = {F < u 1 }c{f > u 2 } ein Niveau-"-Test für H 0 gegen H 1 ("F-Test") Beispiel: siehe Vorlesung Zuletzt wollen wir Chi-Quadrat-Anpassungs- und Unabhängigkeitstests behandeln 424 Beispiel Bei der Kreuzung zweier Erbsensorten sind vier Ergebnisse möglich: Typ 1 (AB): rund und gelb; Typ 2 (ab): gerunzelt und gelb; Typ 3 (Ab): rund und grün; Typ 4 (ab): gerunzelt und grün Sei W = {1,2,3,4} und sei X die Zufallsvariable "Typ" mit dem Wertebereich W Ihre Verteilung ist unbekannt; sie wird durch einen vierdimensionalen W-Vektor p =(p 1,p 2,p 3,p 4 ) beschrieben, wobei p i = P(X=i) für i=1,2,3,4 Die Mendelsche Theorie behauptet: p = (9/16,3/16,3/16,1/16) Diese Behauptung soll durch einen sogenannten Anpassungstest überprüft werden 425 Modellvoraussetzungen für den Chi-Quadrat-Anpassungstest Sei r0ù, r$2, A = {a 1, a 2,, a r } eine r-elementige Menge und sei X eine Zufallsvariable mit Wertebereich A Die Verteilung von X wird beschrieben durch einen r-dimensionalen W- Vektor p = (p 1,, p r ): p D = P(X=a D }, D=1,,r p ist unbekannt, also 1 = P r = {p = (p 1,, p r ) p D > 0 für D=1,,r, p p r = 1} Parameterbereich Sei n0ù Das durch X beschriebene Zufallsexperiment wird n-mal unabhängig wiederholt, dies ergibt eine Stichprobe Z(n) = (X 1,, X n ) Es liegt also das statistische Modell (Q n,g n, W Z(n) ) vor, wobei Q n = A n, G n = -(Q n ), W Z(n) = {w p p01} mit w p = p qn für alle p01 (Wir identifizieren dabei endlich-diskrete Verteilungen mit ihren W-Vektoren) Für D=1,,r sei h D (n)= Anzahl der j0{1,,n} mit X j = a D, also die Besetzungszahl der D-ten Klasse, h(n) = (h 1 (n),, h r (n)) der Besetzungsvektor
8 22 Für jedes p01 ist bezüglich w p h(n) ~ Mult(n,r,p) (siehe V33) 426 Die Chi-Quadrat-Statistik für den Anpassungstest Q n : Q n P r 6 ú + gemäß Q n (Z(n), p) = (h 1 (n)-np 1 )²/(np 1 ) + + (h r (n)-np r )²/(np r ), wobei p = (p 1,, p r ), heißt Chi-Quadrat-Statistik Für p=(p 1,, p r )0P r ist bezüglich w p für D = 1,, r h D (n)~ B(n,p D ), insbesondere ist also np D die erwartete Besetzungszahl der D-ten Klasse Bei der Berechnung von Q n wird also summiert über das Quadrat der Differenz aus tatsächlicher und erwarteter Besetzungszahl geteilt durch die erwartete Besetzungszahl Es gilt: Q n (Z(n), p) = (1/n)(h 1 ²(n)/p h r ²(n)/p r ) - n 427 Satz (Karl Pearson, 1900) Für beliebige p0p r und große n ist die Zufallsvariable Q n (Z(n), p) bezüglich w p näherungsweise P 2 -verteilt mit r-1 Freiheitsgraden, dh bezüglich w p konvergiert Q n (Z(n), p) für n64 schwach gegen P² r Der Chi-Quadrat-Anpassungstest Gegeben r,n0ù, wobei r $2, (Q n,g n, W Z(n) ) mit W Z(n) = {w p p01}, 1 = P r wie in 425 Seien weiter p(0)0p r und "0+0,1, vorgegeben H 0 : p = p(0) (also 1 0 = {p(0)}); H 1 : p p(0) Sei P² r-1,1-" das (1-")-Quantil der P² r-1 -Verteilung, Q* := Q n (Z(n),p(0)) gemäß 426 Der nichtrandomisierte Test * mit dem Verwerfungsbereich {*=1} = {Q* > P² r-1,1-" } heißt Chi-Quadrat-Anpassungstest Wegen 427 ist * ein Test von H 0 gegen H 1 mit dem asymptotischen Signifikanzniveau " 429 Beispiele 1) Fortsetzung von 424: r=4, p(0) = (9/16,3/16,3/16,1/16), n=556, " = 01, P² 3,09 = Kreuzungen liefern den Zählvektor h = (315,101,108,32) Q* = Q(Z(n), p(0)) = 0470 < 625 Also *=0, das Ergebnis spricht nicht gegen die Mendelsche Theorie 2) und 3) siehe Vorlesung 430 Der Chiquadrat-Anpassungstest bei stetigen Verteilungen Der Chiquadrat-Anpassungstest gemäß 428 prüft die Nullhypothese, ob eine bestimmte endlich-diskrete Verteilung p(0) vorliegt oder nicht Will man diesen Test auch für stetige Verteilungen anwenden, muß man vorher diskretisieren Sei dazu X eine stetige reelle Zufallsvariable und sei < eine bestimmte stetige W-Verteilung auf (ú,b) Es soll die Nullhypothese P X = < untersucht werden Sei "0+0,1, gegeben Man unterteilt die Zahlengerade in r Teilintervalle I 1,, I r und setzt p D (0) := <(I D ) für D=1,,r, p(0) := (p 1 (0),, p r (0)) H 0 : p = p(0); H 1 : p p(0) Man erzeugt eine einfache Stichprobe Z=(X 1,, X n ) und setzt für D=1,,r h D = Anzahl der i0{1,,n}mit X i 0 I D ; h:= (h 1,, h r ) Teste nun H 0 gegen H 1 mit dem kritischen Bereich {Q* > P² r-1,1-" }, wobei Q* = Q n (Z, p(0)) Beachte: Ist P X = <, so ist h ~ Mult(n,r,p(0)), dh es liegt die Nullhypothese vor Liegt daher die Testgröße im kritischen Bereich, kann die Hypothese P X = < zum Signifikanzniveau " verworfen werden Die Wahrscheinlichkeiten für Fehler zweiter Art sind allerdings ia höher als im diskreten Fall, da verschiedene stetige Verteilungen zur gleichen Diskretisierung p(0) führen können
9 23 Mit dem im folgenden beschriebenen Unabhängigkeitstest soll untersucht werden, ob zwei Merkmale (Zufallsvariablen) X A und X B mit jeweils endlich vielen Ausprägungen A = {1,,a} und B = {1,,b} unabhängig sind Dabei seien a,b0ù({1} 431 Modellvoraussetzungen für den Chi-Quadrat-Unabhängigkeitstest Seien E = A B = {(i,j) i0a, j0b}, 1 = 1 E = {h=(h(i,j)) (i,j)0e 0 +0,1, E 3 (i,j) h(i,j) = 1} die Menge aller E-Wahrscheinlichkeitsmatrizen, 1 A = {"=("(i)) i0a 0 +0,1, A 3 i "(i) = 1}, 1 B = {$=($(j)) j0b 0 +0,1, B 3 j $(j) = 1} die Menge aller A- bzw B-Wahrscheinlichkeitsvektoren Im folgenden werden W-Matrizen und W-Vektoren mit den durch sie in kanonischer Weise induzierten W-Maßen auf E bzw A bzw B identifiziert Für jedes h01 setze h A = (h A (i)) i0a 0 1 A, wobei für i0a h A (i) = 3 j0b h(i,j), und h B = (h B (j)) j0b 0 1 B, wobei für j0b h B (j) = 3 i0a h(i,j) h A und h B sind also die zu h gehörigen Randverteilungen auf A bzw B (also die Verteilungen von X A respx B bezüglich h) Nullhypothese: X A und X B sind unabhängig, also H 0 : h = h A qh B oder H 0 : h01 0, wobei 1 0 = {"q$ = ("(i)$(j)) (i,j)0e "01 A, $01 B } Gegenhypothese: H 1 : h01 1 = 1(1 0 Im Gegensatz zu 428 (einfache, nämlich einelementige Nullhypothese) liegt hier eine zusammengesetzte (mehrelementige) Nullhypothese vor Sei n0ù Analog 425 beschaffen wir uns n unabhängige Wiederholungen des Zufallsvektors X = (X A,X B ): Z(n) = (X 1,,X n ) = ((X 1A,X 1B ),,(X na,x nb )) Es liegt also das statistische Modell (Q n,g n, W Z(n) ) vor, wobei Q n = E n, G n = -(Q n ), W Z(n) = {w h h01} mit w h = h qn für alle h01 Für (i,j)0e definieren wir die Besetzungsvariablen h n (i,j) := Anzahl der k0{1,,n} mit X k = (i,j), L n (i,j) = h n (i,j)/n, h n = (h n(i,j)) (i,j)0e die sogenannte Kontingenztafel nach n Beobachtungen, L n = (L n (i,j)) (i,j)0e die empirische gemeinsame Verteilung der beiden Merkmale nach n Beobachtungen Für n0ù, i0a sei h n A (i) = 3 j0b h n (i,j) = Anzahl der k0{1,,n} mit X k A = i, L n A (i) = h n A (i)/n, L n A = (L n A (i)) i0a die empirische Verteilung des Merkmals X A nach n Beobachtungen; für n0ù, j0b sei h n B (j) = 3 i0a h n (i,j) = Anzahl der k0{1,,n} mit X k B = j, L n B (j) = h n B (j)/n, L n B = (L n B (i)) j0b die empirische Verteilung des Merkmals X B nach n Beobachtungen h n 1 b h n A 1 h n (1,1) h n (1,b) h n A (1) a h n (a,1) h n (a,b) h na (a) h n B h nb (1) h nb (b) n
10 24 In der letzten Zeile der Kontingenztafel stehen also die Spaltensummen, in der letzten Spalte die Zeilensummen Für jedes h= (h(i,j))0 1 ist bezüglich w h die (zufällige) Kontingenztafel h n multinomialverteilt mit den Parametern n, a@b und h, also h n ~ Mult(n, a@b, h) 432 Die Chi-Quadrat-Statistik für den Unabhängigkeitstest D n := D n (X(n)) := 3 (i,j)0e[h n (i,j)-n L na (i)l nb (j)]²/(n L na (i)l nb (j)) Im Vergleich zur Q-Statistik aus 426 wurden hier die unbekannten Wahrscheinlichkeiten h(i,j) (= h A (i)h B (j) im Fall der Nullhypothese) jeweils durch ihre ML-Schätzwerte L n A (i)l n B (j) ersetzt Eine einfache Umformung ergibt: D n = n {3 (i,j)0e h n (i,j)²/(h n A (i)h n B (j)) - 1} 433 Der verallgemeinerte Satz von Pearson Für jedes D="q$01 0 gilt bezüglich w D : D n ist asymptotisch (n64) Chi-Quadrat-verteilt mit (a-1)(b-1) Freiheitsgraden 434 Der Chi-Quadrat-Unabhängigkeitstest Es gelte das Modell 431 und es sei D n wie in 432 Sei ferner " 0 +0,1, vorgegeben und sei P² (a-1)(b-1),1-" das (1-")- Quantil der Chi-Quadrat- Verteilung mit (a-1)(b-1) Freiheitsgraden Der nichtrandomisierte Test *: Q n 6{0,1} mit dem Verwerfungsbereich {D n > P² (a-1)(b-1),1-" } ist ein Test von H 0 gegen H 1 mit dem asymptotischen Signifikanzniveau " (wegen 433) * heißt Chi-Quadrat-Unabhängigkeitstest 435 Beispiele: siehe Vorlesung
Kapitel 1: Elemente der Statistik
1 Kapitel 1: Elemente der Statistik 1.1 Beispiel Ein Elektromarkt erhält eine Lieferung von N = 10000 Glühbirnen. Darunter ist eine unbekannte Anzahl h defekt, wobei h 0 1 = {0, 1,..., N}. Um Kenntnisse
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
MehrStatistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe
Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,
MehrStatistik II. Statistische Tests. Statistik II
Statistik II Statistische Tests Statistik II - 12.5.2006 1 Test auf Anteilswert: Binomialtest Sei eine Stichprobe unabhängig, identisch verteilter ZV (i.i.d.). Teile diese Stichprobe in zwei Teilmengen
MehrWir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, (
Kapitel 4 Konfidenzbereiche Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden Teil-Parameter
MehrKlassifikation von Signifikanztests
Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen
Mehr8. Konfidenzintervalle und Hypothesentests
8. Konfidenzintervalle und Hypothesentests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Beispiel. Sie wollen den durchschnittlichen Fruchtsaftgehalt eines bestimmten Orangennektars
MehrPraktikum zur Statistik
mit R Institut für Mathematische Statistik Universität Münster 7. Oktober 2010 Gliederung 1 Testtheorie: Ziel und Überblick Testtheorie Andere Entscheidungsprobleme 2 3 4 p-wert, Binomialtest Mittelwertvergleiche:
Mehrk np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr
Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p
MehrKapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Induktive Statistik Prof. Dr. W.-D.
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen
Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 7. Juni 2013 1 Binomialverteilung 2 Normalverteilung 3 T-Verteilung
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
MehrAllgemeines zu Tests. Statistische Hypothesentests
Statistische Hypothesentests Allgemeines zu Tests Allgemeines Tests in normalverteilten Grundgesamtheiten Asymptotische Tests Statistischer Test: Verfahren Entscheidungsregel), mit dem auf Basis einer
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen
Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Noémie Becker & Dirk Metzler 31. Mai 2016 Inhaltsverzeichnis 1 Binomialverteilung 1 2 Normalverteilung 2 3 T-Verteilung
MehrDie ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist.
.3. Stochastik Grundlagen Die ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist. Die RELATIVE HÄUFIGKEIT einer Merkmalsausprägung gibt an mit welchem Anteil
MehrMathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007
Mathematik IV für Maschinenbau und Informatik Stochastik Universität Rostock, Institut für Mathematik Sommersemester 007 Prof. Dr. F. Liese Dipl.-Math. M. Helwich Serie Termin: 9. Juni 007 Aufgabe 3 Punkte
MehrDiskrete Wahrscheinlichkeitstheorie
SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München http://www7.in.tum.de/um/courses/dwt/ss13 Sommersemester 2013 Teil V Induktive Statistik Induktive Statistik
MehrEinführung in die Induktive Statistik: Testen von Hypothesen
Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte
MehrKapitel 3 Schließende Statistik
Beispiel 3.4: (Fortsetzung Bsp. 3.) bekannt: 65 i=1 X i = 6, also ˆp = X = 6 65 = 0, 4 Überprüfen der Voraussetzungen: (1) n = 65 30 () n ˆp = 6 10 (3) n (1 ˆp) = 39 10 Dr. Karsten Webel 194 Beispiel 3.4:
Mehr9. Schätzen und Testen bei unbekannter Varianz
9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,
MehrBeurteilende Statistik
Beurteilende Statistik Wahrscheinlichkeitsrechnung und Beurteilende Statistik was ist der Unterschied zwischen den beiden Bereichen? In der Wahrscheinlichkeitstheorie werden aus gegebenen Wahrscheinlichkeiten
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrEinführung in die statistische Testtheorie II
1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 / Übungsaufgaben Prof. Dr. Achim Klenke http://www.aklenke.de 13. Vorlesung: 10.02.2012 1/51 Aufgabe 1 Aufgabenstellung Übungsaufgaben Ein Pharmakonzern möchte ein neues Schlankheitsmedikament
MehrSTATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik
Kapitel 15 Statistische Testverfahren 15.1. Arten statistischer Test Klassifikation von Stichproben-Tests Einstichproben-Test Zweistichproben-Test - nach der Anzahl der Stichproben - in Abhängigkeit von
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
MehrTest auf den Erwartungswert
Test auf den Erwartungswert Wir interessieren uns für den Erwartungswert µ einer metrischen Zufallsgröße. Beispiele: Alter, Einkommen, Körpergröße, Scorewert... Wir können einseitige oder zweiseitige Hypothesen
MehrEntscheidung zwischen zwei Möglichkeiten auf der Basis unsicherer (zufälliger) Daten
Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 4.1 4. Statistische Entscheidungsverfahren Entscheidung zwischen zwei Möglichkeiten auf der Basis unsicherer (zufälliger) Daten Beispiel:
MehrStatistische Tests (Signifikanztests)
Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)
MehrKapitel XI - Operationscharakteristik und Gütefunktion
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XI - Operationscharakteristik und Gütefunktion Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/453
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/453 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
MehrKapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen Induktive Statistik Prof. Dr. W.-D. Heller
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 19. Januar 2011 1 Nichtparametrische Tests Ordinalskalierte Daten 2 Test für ein Merkmal mit nur zwei Ausprägungen
Mehr10. Die Normalverteilungsannahme
10. Die Normalverteilungsannahme Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher haben wir vorausgesetzt, daß die Beobachtungswerte normalverteilt sind. In diesem Fall kann man
MehrStep-Down Prozeduren
Step-Down Prozeduren zur Kontrolle der Family-Wise Error Rate WS 2010/2011 Jakob Gierl HU Berlin 07.02.2011 1 / 19 Modell Schrittweise Step-Down Modell mathematische Stichprobe X 1,..., X n iid im R J
MehrTHEMA: "STATISTIK IN DER PRAXIS TESTEN IST BESSER ALS VERMUTEN" TORSTEN SCHOLZ
WEBINAR@LUNCHTIME THEMA: "STATISTIK IN DER PRAXIS TESTEN IST BESSER ALS VERMUTEN" TORSTEN SCHOLZ EINLEITENDES BEISPIEL SAT: Standardisierter Test, der von Studienplatzbewerbern an amerikanischen Unis gefordert
MehrDWT 334/460 csusanne Albers
Die Wahrscheinlichkeit fur den Fehler 1. Art wird mit bezeichnet, und man spricht deshalb gelegentlich vom -Fehler. heit auch Signikanzniveau des Tests. In der Praxis ist es ublich, sich ein Signikanzniveau
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
Mehr6. Statistische Hypothesentests
6. Statistische Hypothesentests Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang X habe die unbekannte VF F X (x) Interessieren uns für einen unbekannten Parameter θ der Verteilung von
Mehr1.6 Der Vorzeichentest
.6 Der Vorzeichentest In diesem Kapitel soll der Vorzeichentest bzw. Zeichentest vorgestellt werden, mit dem man Hypothesen bezüglich des Medians der unabhängig und identisch stetig verteilten Zufallsvariablen
Mehr3. Das Prüfen von Hypothesen. Hypothese?! Stichprobe Signifikanztests in der Wirtschaft
3. Das Prüfen von Hypothesen Hypothese?! Stichprobe 3.1. Signifikanztests in der Wirtschaft Prüfung, ob eine (theoretische) Hypothese über die Verteilung eines Merkmals X und ihre Parameter mit einer (empirischen)
MehrBiometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1
Biometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1 Aufgabe 1 (10 Punkte). 10 Schüler der zehnten Klasse unterziehen sich zur Vorbereitung auf die Abschlussprüfung einem Mathematiktrainingsprogramm.
MehrTesten von Hypothesen, Beurteilende Statistik
Testen von Hypothesen, Beurteilende Statistik Was ist ein Test? Ein Test ist ein Verfahren, mit dem man anhand von Beobachtungen eine begründete Entscheidung über die Gültigkeit oder Ungültigkeit einer
MehrHypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests
ue biostatistik: hypothesen, fehler 1. und. art, power 1/8 h. lettner / physik Hypothesen: Fehler 1. und. Art, Power eines statistischen Tests Die äußerst wichtige Tabelle über die Zusammenhänge zwischen
MehrStatistische Tests für unbekannte Parameter
Konfidenzintervall Intervall, das den unbekannten Parameter der Verteilung mit vorgegebener Sicherheit überdeckt ('Genauigkeitsaussage' bzw. Zuverlässigkeit einer Punktschätzung) Statistischer Test Ja-Nein-Entscheidung
MehrKlausur zu Statistik II
GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel
MehrKapitel 13. Grundbegriffe statistischer Tests
Kapitel 13 Grundbegriffe statistischer Tests Oft hat man eine Vermutung über die Verteilung einer Zufallsvariablen X. Diese Vermutung formuliert man als Hypothese H 0.Sokönnte man daran interessiert sein
MehrP n (k) f(k) = 1 σ 2π e ) 2. σ 2π
53 Allgemein gilt der folgende Satz. Satz 6.1 (Lokaler Grenzwertsatz von de Moivre und Laplace) Die Wahrscheinlichkeit P n (k) einer Binomialverteilung (mit der Erfolgswahrscheinlichkeit p im Einzelexperiment)
MehrBeispiel 8.1 Die Sommerfeldsche Feinstrukturkonstante Alpha hat einen Zahlenwert von
Kapitel 8 Statistische Tests 8.1 Begriffsbildung und Beispiele Beispiel 8.1 Die Sommerfeldsche Feinstrukturkonstante Alpha hat einen Zahlenwert von a 0 1 137.036. Der genaue Wert ist bis auf 10 15 genau
MehrSchließende Statistik
Schließende Statistik Die schließende Statistik befasst sich mit dem Rückschluss von einer Stichprobe auf die Grundgesamtheit (Population). Die Stichprobe muss repräsentativ für die Grundgesamtheit sein.
MehrOnline-Aufgaben Statistik (BIOL, CHAB) Auswertung und Lösung
Online-Aufgaben Statistik (BIOL, CHAB) Auswertung und Lösung Abgaben: 92 / 234 Maximal erreichte Punktzahl: 7 Minimal erreichte Punktzahl: 1 Durchschnitt: 4 Frage 1 (Diese Frage haben ca. 0% nicht beantwortet.)
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
MehrKlausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1
Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne
MehrÜberblick Hypothesentests bei Binomialverteilungen (Ac)
Überblick Hypothesentests bei Binomialverteilungen (Ac) Beim Testen will man mit einer Stichprobe vom Umfang n eine Hypothese H o (z.b.p o =70%) widerlegen! Man geht dabei aus von einer Binomialverteilung
MehrStatistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de
rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrStatistik II für Betriebswirte Vorlesung 1
Statistik II für Betriebswirte Vorlesung 1 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 19. Oktober 2016 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung
Mehr6. Schätzverfahren für Parameter
6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
MehrKapitel 10 Mittelwert-Tests Einstichproben-Mittelwert-Tests 10.2 Zweistichproben Mittelwert-Tests
Kapitel 10 Mittelwert-Tests 10.1 Einstichproben-Mittelwert-Tests 10.2 Zweistichproben Mittelwert-Tests 10.1 Einstichproben- Mittelwert-Tests 10.1.1 Einstichproben- Gauß-Test Dichtefunktion der Standard-Normalverteilung
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 23. Dezember 2010 1 Tests für Erwartungswerte Teststatistik Gauß-Test Zusammenhang zu Konfidenzintervallen t-test
MehrKonfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
MehrEin- und Zweistichprobentests
(c) Projekt Neue Statistik 2003 - Lernmodul: Ein- Zweistichprobentests Ein- Zweistichprobentests Worum geht es in diesem Modul? Wiederholung: allgemeines Ablaufschema eines Tests Allgemeine Voraussetzungen
Mehr1.8 Kolmogorov-Smirnov-Test auf Normalverteilung
1.8 Kolmogorov-Smirnov-Test auf Normalverteilung Der Kolmogorov-Smirnov-Test ist einer der klassischen Tests zum Überprüfen von Verteilungsvoraussetzungen. Der Test vergleicht die Abweichungen der empirischen
Mehr1.4 Der Binomialtest. Die Hypothesen: H 0 : p p 0 gegen. gegen H 1 : p p 0. gegen H 1 : p > p 0
1.4 Der Binomialtest Mit dem Binomialtest kann eine Hypothese bezüglich der Wahrscheinlichkeit für das Auftreten einer Kategorie einer dichotomen (es kommen nur zwei Ausprägungen vor, z.b. 0 und 1) Zufallsvariablen
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrPrüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003
Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003. Eine seltene Krankheit trete mit Wahrscheinlichkeit : 0000 auf. Die bedingte Wahrscheinlichkeit, dass ein bei einem Erkrankten durchgeführter
MehrSchließende Statistik: Hypothesentests (Forts.)
Mathematik II für Biologen 15. Mai 2015 Testablauf (Wdh.) Definition Äquivalente Definition Interpretation verschiedener e Fehler 2. Art und Macht des Tests Allgemein im Beispiel 1 Nullhypothese H 0 k
MehrTests einzelner linearer Hypothesen I
4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen
MehrAufgabenblock 4. Da Körpergröße normalverteilt ist, erhalten wir aus der Tabelle der t-verteilung bei df = 19 und α = 0.05 den Wert t 19,97.
Aufgabenblock 4 Aufgabe ) Da s = 8. cm nur eine Schätzung für die Streuung der Population ist, müssen wir den geschätzten Standardfehler verwenden. Dieser berechnet sich als n s s 8. ˆ = = =.88. ( n )
MehrKapitel 2 Wahrscheinlichkeitsrechnung
Definition 2.77: Normalverteilung & Standardnormalverteilung Es sei µ R und 0 < σ 2 R. Besitzt eine stetige Zufallsvariable X die Dichte f(x) = 1 2 πσ 2 e 1 2 ( x µ σ ) 2, x R, so heißt X normalverteilt
MehrÜbungsscheinklausur,
Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...
MehrKapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion
Kapitel 12 Stetige Zufallsvariablen 12.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig
MehrEinführung in Quantitative Methoden
Einführung in Quantitative Methoden Pantelis Christodoulides & Karin Waldherr 4. Juni 2014 Christodoulides / Waldherr Einführung in Quantitative Methoden 1/35 Ein- und Zweiseitige Hypothesen H 0 : p =
MehrGrundlagen der Statistik
Grundlagen der Statistik Übung 15 009 FernUniversität in Hagen Alle Rechte vorbehalten Fachbereich Wirtschaftswissenschaft Übersicht über die mit den Übungsaufgaben geprüften Lehrzielgruppen Lehrzielgruppe
MehrKATA LOGO Mathematik Statistik Roadmap: Von der Hypothese zum p-wert
KATA LOGO Mathematik Statistik Roadmap: Von der Hypothese zum p-wert 0. Das eigentliche Forschungsziel ist: Beweis der eigenen Hypothese H 1 Dafür muss Nullhypothese H 0 falsifiziert werden können Achtung!
MehrSchätzer (vgl. Kapitel 1): Stichprobenmittel X N. Stichprobenmedian X N
Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 8.1 Schätzer für Lage- und Skalenparameter und Verteilungsmodellwahl Lageparameter (l(x + a) = l(x) + a): Erwartungswert EX Median von X
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrStochastik III. Vorlesungsskript. Prof. Dr. Evgeny Spodarev
Stochastik III Vorlesungsskript Prof. Dr. Evgeny Spodarev Ulm 2015 Inhaltsverzeichnis 1 Tests statistischer Hypothesen 3 1.1 Allgemeine Philosophie des Testens...................... 3 1.2 Nichtrandomisierte
MehrGrundgesamtheit und Stichprobe
Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U
MehrAlternativtest Einführung und Aufgabenbeispiele
Alternativtest Einführung und Aufgabenbeispiele Ac Einführendes Beispiel: Ein Medikament half bisher 10% aller Patienten. Von einem neuen Medikament behauptet der Hersteller, dass es 20% aller Patienten
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood
MehrStatistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg
Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg Prof. Markus Schumacher, Dr. Stan Lai Physikalisches Institut Westbau 2 OG E-Mail: Markus.Schumacher@physik.uni-freiburg.de
Mehr2.4 Hypothesentests Grundprinzipien statistischer Hypothesentests. Hypothese:
2.4.1 Grundprinzipien statistischer Hypothesentests Hypothese: Behauptung einer Tatsache, deren Überprüfung noch aussteht (Leutner in: Endruweit, Trommsdorff: Wörterbuch der Soziologie, 1989). Statistischer
MehrAngewandte Statistik mit R
Reiner Hellbrück Angewandte Statistik mit R Eine Einführung für Ökonomen und Sozialwissenschaftler 2., überarbeitete Auflage B 374545 GABLER Inhaltsverzeichnis Vorwort zur zweiten Auflage Tabellenverzeichnis
Mehr1 Dichte- und Verteilungsfunktion
Tutorium Yannick Schrör Klausurvorbereitungsaufgaben Statistik Lösungen Yannick.Schroer@rub.de 9.2.26 ID /455 Dichte- und Verteilungsfunktion Ein tüchtiger Professor lässt jährlich 2 Bücher drucken. Die
MehrBlockpraktikum zur Statistik mit R
Blockpraktikum zur Statistik mit R 11. Oktober 2013 Fabian Buckmann Institut für Mathematische Statistik Universität Münster WS 13/14 Gliederung 1 Testtheorie: Ziel und Überblick Testtheorie Andere Entscheidungsprobleme
MehrEinführung in die Statistik Kapitel 6: Crash-Course in Statistik: Testtheorie
Einführung in die Statistik Kapitel 6: Crash-Course in Statistik: Testtheorie Jung Kyu Canci Universität Basel HS2015 1 / 15 Literatur Kapitel 6 Statistik in Cartoons : Kapitel 8 Krengel : 6 und 14 Storrer
MehrKapitel VIII - Tests zum Niveau α
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VIII - Tests zum Niveau α Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh Testsituationen
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrKapitel 5 KONVERGENZ
Kapitel 5 KONVERGENZ Fassung vom 21. April 2002 Claude Portenier ANALYSIS 75 5.1 Metrische Räume 5.1 Metrische Räume DEFINITION 1 Sei X eine Menge. Eine Abbildung d : X X! R + heißt Metrik oder Distanz
MehrStochastische Eingangsprüfung, 17.05.2008
Stochastische Eingangsprüfung, 17.5.8 Wir gehen stets von einem Wahrscheinlichkeitsraum (Ω, A, P) aus. Aufgabe 1 ( Punkte) Sei X : Ω [, ) eine integrierbare Zufallsvariable mit XdP = 1. Sei Q : A R, Q(A)
MehrInhaltsverzeichnis. Teil I Einführung
Inhaltsverzeichnis Teil I Einführung 1 Statistik-Programme... 1.1 Kleine Einführung in R... 1.1.1 Installieren und Starten von R. 1.1.2 R-Konsole... 1.1.3 R-Workspace... 1.1.4 R-History... 1.1.5 R-Skripteditor...
Mehr4 Messbare Funktionen
4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und
MehrMacht des statistischen Tests (power)
Macht des statistischen Tests (power) Realer Treatment ja Ergebnis der Studie H 0 verworfen statistisch signifikant O.K. Macht H 0 beibehalten statistisch nicht signifikant -Fehler Effekt nein -Fehler
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 9. Dezember 2010 1 Konfidenzintervalle Idee Schätzung eines Konfidenzintervalls mit der 3-sigma-Regel Grundlagen
MehrAuswertung und Lösung
Dieses Quiz soll Ihnen helfen, Kapitel 4.7 und 4.8 besser zu verstehen. Auswertung und Lösung Abgaben: 71 / 265 Maximal erreichte Punktzahl: 8 Minimal erreichte Punktzahl: 0 Durchschnitt: 5.65 Frage 1
Mehr