Kapitel 4. Testtheorie

Größe: px
Ab Seite anzeigen:

Download "Kapitel 4. Testtheorie"

Transkript

1 15 Kapitel 4 Testtheorie 41 Modell Es gelten die Modellvoraussetzungen 12, gegeben ist also ein statistischer Raum (Q,G, W Z ) mit W Z = {w h : h01}und einer Parametermenge 1, wobei wir die Familie W Z als mögliche Verteilungen einer Zufallsgröße Z interpretieren, dh P Z = w h für ein bestimmtes, aber unbekanntes h01 Gegeben sei weiter eine Zerlegung 1 = 1 0 c 1 1 der Parametermenge in zwei disjunkte nichtleere Mengen 1 0 und 1 1 und damit eine Zerlegung W Z = W 0 c W 1 der Familie W Z, wobei W i = {w h h01 i } für i=0,1 Nullhypothese H 0 : Die "wahre" Verteilung liegt in W 0 : w h 0 W 0 oder: der "wahre" Parameter liegt in 1 0 : h01 0 Gegenhypothese (Alternative) H 1 : Die "wahre" Verteilung liegt in W 1 : w h 0 W 1 oder: der "wahre" Parameter liegt in 1 1 : h Definition: nichtrandomisierte und randomisierte Tests Ein (nichtrandomisierter) Test (von H 0 gegen H 1 ) ist eine (meßbare) Entscheidungsregel *: Q 6 {0,1} mit der Bedeutung: *=1: H 0 verwerfen, also H 1 akzeptieren, *=0: H 0 nicht verwerfen, dh H 0 beibehalten Die Menge {*=1}={z0Q *(z)=1} heißt Verwerfungsbereich oder kritischer Bereich des Tests * Ein randomisierter Test (von H 0 gegen H 1 ) ist eine (meßbare) Entscheidungsregel *: Q 6 [0,1] mit der Bedeutung: *(z) = p: führe ein B(1,p)-Experiment durch; beim Ergebnis "1" wird H 0 verworfen, beim Ergebnis "0" beibehalten 43 Definition: Gütefunktion Sei *: Q 6 [0,1] ein Test von H 0 gegen H 1 Die Funktion g * = g: 1 6 [0,1] gemäß g(h) = E h (*); h01, heißt Gütefunktion des Tests * (power function) Für jedes h01 ist g(h) die Wahrscheinlichkeit, daß H 0 verworfen wird, falls h der wahre Parameter ist Ist speziell * nichtrandomisiert, so ist g(h) = w h {*=1} für alle h01 44 Definition: Fehler und Irrtumsniveau Sei *: Q 6 [0,1] ein Test von H 0 gegen H 1 Bei Anwendung des Tests * sind zwei Arten von Fehlern möglich: a) Fehler 1Art: Die Nullhypothese H 0 wird verworfen, obwohl sie wahr ist (dh h01 0 ) b) Fehler 2Art: Die Nullhypothese H 0 wird beibehalten, obwohl sie falsch ist (dh h01 1 ) "(*) := sup {g * (h) h01 0 } ist die größtmögliche Wahrscheinlichkeit eines Fehlers 1Art "(*) heißt effektives (Signifikanz- oder Irrtums-) Niveau des Tests * 1-"(*) heißt auch Sicherheitsniveau von * Für h01 1 ist 1 - E h (*) = 1 - g(h) ist die Wahrscheinlichkeit eines Fehlers 2Art, also $(*) := sup{1 - g(h) h01 1 } = 1 - inf{g(h) h01 1 } die größtmögliche Wahrscheinlichkeit eines Fehlers 2Art

2 45 Definition: Niveau-"-Tests Seien *: Q 6 [0,1] ein Test von H 0 gegen H 1, " 0 [0, 1] Falls "(*) # ", so heißt * (Signifikanz-)Test zum (Irrtums-)Niveau " oder kurz Niveau-"-Test (von H 0 gegen H 1 ) Erwünscht sind Niveau-"-Tests * mit möglichst großen g * (h) für h01 1 Dabei sollte das Irrtumsniveau " nach Möglichkeit ausgeschöpft werden, also "(*) = " sein Beispiel: siehe Vorlesung 46 Definition: Unverfälschte Tests Seien " 0 [0, 1], * ein Test mit der Gütefunktion g wie in 43 * heißt unverfälschter (unbiased) Niveau-"-Test, wenn "(*) # " # g(h) für alle h Definition: Gleichmäßig beste Tests (UMP und UMPU) Seien " 0 [0,1], )(") bzw ) u (") die Menge aller Niveau-"-Tests bzw aller unverfälschten Niveau-"-Tests von H 0 gegen H 1 1) Ein Test **0)(") heißt gleichmäßig bester Test (UMP = uniformly most powerful) von H 0 gegen H 1 zum Niveau ", falls für alle *0)(") und für alle h01 1 gilt: E h (*) # E h (**), dh der Test ** minimiert für jedes h01 1 die Wahrscheinlichkeit eines Fehlers 2Art unter allen Niveau-"-Tests 2) Ein Test **0) u (") heißt gleichmäßig bester unverfälschter Test (UMPU = uniformly most powerful unbiased) von H 0 gegen H 1 zum Niveau ", falls für alle *0) u (") und für alle h01 1 gilt: E h (*) # E h (**), dh der Test ** minimiert für jedes h01 1 die Wahrscheinlichkeit eines Fehlers 2Art unter allen unverfälschten Niveau-"-Tests 48 Definition: Der p-wert Es liege Modell 41 vor, also ein statistischer Raum (Q,G, W Z ) mit W Z = {w h : h01}, 1 = 1 0 c 1 1, H 0 : h01 0, H 1 : h01 1 Es sei T: Q 6 ú eine meßbare Abbildung (eine "Statistik"); für alle "0+0,1, sei B(")dú mit sup{w h (T0B(")) h01 0 }#" und *(") sei der nichtrandomisierte Test mit dem Verwerfungsbereich {T0B(")} Für alle " ist dann *(") ein Niveau-"-Test für H 0 gegen H 1 Sei p: Q 6 [0,1] definiert gemäß p(x) := inf{"0+0,1, T(x)0B(")}; x0q p(x) heißt p-wert (zur Beobachtung x); für alle x0q ist p(x) das kleinste Irrtumsniveau " derart, daß der Test *(") bei Beobachtung von x zur Verwerfung der Nullhypothese führt, also p(x) = inf{"0+0,1, *(")(x)=1} Je kleiner der p-wert, umso stärker spricht das Testergebnis gegen die Nullhypothese 49 Definition: Likelihoodquotienten und Neyman-Pearson-Tests Sei (Q,G, W Z ) ein Standardraum (vgl 134) mit 1 = {0, 1}, also W Z = {w 0, w 1 } mit Likelihoods f 0 bzw f 1 H 0 : h = 0, H 1 : h = 1 (Nullhypothese und Gegenhypothese sind hier einfach, dh einpunktig) Definiere q: Q 6 [0, 4] gemäß q(z) = f 1 (z)/f 0 (z), falls f 0 (z)>0, bzw q(z) = 4 sonst q heißt Likelihood-Quotient (LQ) Ein Test n: Q 6 [0,1] heißt Neyman-Pearson-Test (NP-Test) oder vom Neyman-Pearson- Typ, falls ein c0ú + existiert derart, daß n(z) = 1, falls q(z) > c, und n(z) = 0, falls q(z) < c c heißt Schwellenwert oder kritischer Wert des NP-Tests n 410 Neyman-Pearson-Lemma (Jerzy Neyman und Egon Pearson, 1932/33)

3 Mit den Voraussetzungen und Bezeichnungen von 49 gilt: 1) Ist n ein NP-Test, ":= E 0 (n), so ist n UMP-Test in )("), dh E 1 (n) $E 1 (n') für alle Niveau-"-Tests n' von H 0 gegen H 1 2) Zu beliebigem " 0 +0,1, existiert ein NP-Test ** mit " = E 0 (**) Setze dazu (1) c := inf{t0ú + w 0 (q>t) # "}, (2) ( := (" - w 0 (q>c))/w 0 (q=c), falls w 0 (q=c) > 0, bzw (=1 sonst, und definiere **: Q 6 [0,1] gemäß (3) **(z) = 1, falls q(z)>c, **(z) = 0, falls q(z)<c, und **(z) = (, falls q(z)=c Bemerkung Mit den Voraussetzungen und Bezeichnungen von 49 sei T: Q 6 ú eine Statistik, q': ú 6 [0, 4, monoton wachsend derart, daß q = q' B T 1) Sei c0ú und sei n ein Test mit {T>c} d {n=1} und {T<c} d {n=0} Dann ist n ein NP- Test (mit Schwellenwert c' = q'(c)) 2) Zu " 0 +0, 1, setze (1) d := inf{t0ú w 0 (T>t) # "}, (2) ( := (" - w 0 (T>d))/w 0 (T=d), falls w 0 (T=d) > 0, bzw (=1 sonst (3) **: Q 6 [0,1] gemäß **(z) = 1, falls T(z)>d, **(z) = 0, falls T(z)<d, und **(z) = (, falls T(z)=d, ist ein NP-Test mit E 0 (**) = " Beispiel: siehe Vorlesung 412 Modell Sei (Q,G, W Z ) ein Standardraum, W Z = {w h : h 0 1}, wobei 1 offenes Intervall in ú mit Likelihood L L sei eine Exponentialfamilie wie in 214 bezüglich einer Statistik T: Q 6 ú, also L(z,h) = h(z) exp{a(h)t(z) - b(h)}für alle z0q und alle h01 wobei h: Q 6 +0,4,, a: 1 6 ú stetig differenzierbar mit a' > 0 stets, b: 1 6 ú 413 Gleichmäßig beste Tests bei einseitigen Testproblemen Es gelten die Voraussetzungen und Bezeichnungen von 412 1) Sei c 0 ú und n: Q 6 [0,1] mit der Eigenschaft {T>c} d {n=1}und {T<c} d {n=0} Dann ist die Funktion 1hh 6 E h (n) monoton wachsend 2) Sei h(0)0 1 fest H 0 : h# h(0) H 1 : h> h(0) (linksseitiges Testproblem) und seien c und n wie in 1) Dann ist n gleichmäßig bester Test von H 0 gegen H 1 zum Niveau " = E h(0) (n) 3) Seien H 0 und H 1 wie in 2) und sei " 0 +0,1, vorgegeben Definiere hierzu c gemäß (1) c: = inf{t0ú w h(0) (T>t) # "}, sowie ( 0 [0,1] als Lösung der Gleichung (2) w h(0) (T>c) + ( w h(0) (T=c) = ", und setze (3) n(z) = 1, falls T(z) > c, n(z) = 0, falls T(z) < c, und n(z) = (, falls T(z) = c Dann ist n gleichmäßig bester Test von H 0 gegen H 1 zum Niveau " Bemerkung Zu 413 analoge Aussagen gelten für rechtsseitige Testprobleme, nämlich für H 0 : h$ h(0) gegen H 1 : h< h(0) (siehe Literatur, bzw Übungen) 414 Einseitige Binomialtests

4 18 Gegeben ist eine Bernoulli-Stichprobe Z = (X 1,, X n ) (siehe Beispiel 1 zu 14), also 1 = +0, 1,, Q = {0, 1} n, w p = B(1, p) qn für alle p01, Likelihood L(z, p) = p s (1-p) n-s für z = (x 1,, x n ) 0 Q, s = x x n, p01 Nach 2171 liegt eine Exponentialfamilie vor bezüglich S = X X n, wobei a(p) = n (ln(p) - ln(1-p)) streng monoton wachsend auf 1 Seien p(0) 0 +0, 1,, " 0 +0, 1, fest vorgegeben Der in 4133 (1),(2),(3) beschriebene Test n ist gleichmäßig bester Test in der Klasse aller Tests zum Signifikanzniveau " für H 0 : p # p(0) gegen H 1 : p > p(0) Da bezüglich w p(0) S ~ B(n,p(0)), sind c und ( zu wählen gemäß (1) c = min{d 0{0,,n} B(n,p(0))({k k>d}) # "}, (2) ( = (" - B(n,p(0))({k k>c}))/b(n,p(0))({c}); Es ist also n: {0,1} n 6 [0,1] gemäß n(x 1,,x n ) = 1, falls x x n > c, n(x 1,,x n ) = (, falls x x n = c, n(x 1,,x n ) = 0, falls x x n < c In der Praxis verwendet man meist den nichtrandomisierten Test mit dem Verwerfungsbereich {S > c}, wobei c zu " wie in (1) bestimmt wird Er ist allerdings nur näherungsweise gleichmäßig bester Test Diese Tests heißen linksseitige Binomialtests oder Tests auf eine unbekannte Wahrscheinlichkeit Beispiele: siehe Vorlesung 415 Einseitige Gaußtests Wir betrachten das Normalverteilungsmodell mit unbekanntem Erwartungswert m und bekannter Varianz v = v 0, also 1 = ú, Q = ú n, für alle m0ú hat w m die Likelihood (Lebesguedichte) L(z,m) = (2Bv 0 ) -n/2 exp{-(1/2v 0 )[(x 1 -m)²++(x n -m)²]}; z=(x 1,, x n )0ú n Gemäß 2172 ist dies eine Exponentialfamilie bezüglich M = (1/n)(X X n ), wobei a(m) = nm/v 0 streng monoton wachsend ist Die Voraussetzungen von 413 sind also mit T = M erfüllt Seien m(0)0ú, "0+0, 1, vorgegeben Sei H 0 : m # m(0), H 1 : m > m(0) Der in 4153 (1),(2),(3) beschriebene Test n ist gleichmäßig bester Test in der Klasse aller Tests zum Signifikanzniveau " für H 0 gegen H 1 Da bezüglich w m(0) M ~ N(m(0),v 0 /n) ist n nichtrandomisiert ((=1) und c ist das (1-")- Quantil von N(m(0),v 0 /n), dh M((c-m(0))(v 0 /n) -1/2 ) = 1-", also c = m(0) + (v 0 /n) 1/2 u 1-", wobei u 1-" das (1-")-Quantil von N(0,1) ist Der nichtrandomisierte Test n mit dem Verwerfungsbereich{M$m(0) + (v 0 /n) 1/2 u 1-" } ist gleichmäßig bester Test in der Klasse aller Niveau-"-Tests für H 0 gegen H 1 Dieser Test heißt einseitiger (linksseitiger) Gauß-Test 416 Konfidenzintervalle und Tests Es liege das Modell 11 vor; zusätzlich sei 8: 1 6 ú und ú fest Sei 1 0 = {h01 8(h)=8 0 } ( i), 1 1 = 1 (1 0, H 0 : 8(h) = 8 0, H 1 : 8(h) 8 0, " 0 +0,1, Sei Q hz 6 C(z) ein (1-")-Konfidenzintervall für 8(h) Dann ist der (nichtrandomisierte) Test * mit dem Verwerfungsbereich {*=1} = {z0 Q 8 0 ó C(z)} ein Niveau-"-Test von H 0 gegen H 1 Dabei ist "(*) = ", falls für wenigstens ein h01 0 w h {z0q 8(h) 0 C(z)} = 1-" 417 Der zweiseitige Binomialtest für eine unbekannte Wahrscheinlichkeit Es liegt das Binomialmodell wie in 414 vor: n0ù, 1 = +0, 1,, Q = {0, 1} n, W Z = {B(1,p) qn p01}; Z=(X 1,, X n ) Bernoullistichprobe vom Umfang n mit unbekannter

5 19 Erfolgswahrscheinlichkeit p; wie in 416 sei S = X X n = Anzahl der Erfolge; bezüglich w p ist S B(n,p)-verteilt Seien p* 0 +0, 1, fest, H 0 : p = p*, H 1 : p p*; " 0 +0, 1, fest Definiere c 1 := max{x0{0,,n} B(n,p*)({k k<x})#"/2} (= n - qbinom(1 - "/2, n,1-p*)) c 2 := min{x0{0,,n} B(n,p*)({k k>x})#"/2} (= qbinom(1 - "/2, n, p*)) Dann ist w p* (S<c 1 ) # "/2 und w p* (S>c 2 ) # "/2 Der nicht-randomisierte Test * mit dem Verwerfungsbereich {*=1} = {S < c 1 } c {S > c 2 } ist also ein Niveau-"-Test für H 0 gegen H 1 * heißt zweiseitiger Binomialtest Beispiele: siehe Vorlesung 418 Normalapproximationen der Binomialtests Gegeben sei wieder das Binomialmodell wie in 414 und 417; ferner seien "0+0, 1, und p*0+0, 1, vorgegeben; für jedes t0+0,1, bezeichne u t das t-quantil von N(0,1) Nach dem Satz von demoivre-laplace (V 25) ist B(n,p*) N(np*,np*(1-p*)) für große n 1) Beim einseitigen Binomialtest 414 ist der Schwellenwert c ein (1-")-Quantil von B(n,p*), welches man für große n durch das (1-")-Quantil von N(np*,np*(1-p*)), also durch np* + u 1-" (np*(1-p*)) 1/2 approximieren kann Der nichtrandomisierte Test * mit dem Verwerfungsbereich {*=1} = {S > np* + u 1-" (np*(1-p*)) 1/2 } ist dann für große n näherungsweise ein Niveau-"-Test für H 0 : p # p* gegen H 1 : p > p* 2) Beim zweiseitigen Binomialtest 417 ist die untere Schranke c 1 ein ("/2)-Quantil von B(n,p*) und die obere Schranke c 2 ein (1-"/2)-Quantil von B(n,p*) Da u "/2 = - u 1-"/2, ist c 1 np* - u 1-"/2 (np*(1-p*)) 1/2 und c 2 np* + u 1-"/2 (np*(1-p*)) 1/2 Der nichtrandomisierte Test * mit dem Verwerfungsbereich {*=1} = {S < np* - u 1-"/2 (np*(1-p*)) 1/2 } c {S > np* + u 1-"/2 (np*(1-p*)) 1/2 } ist dann für große n näherungsweise ein Niveau-"-Test für H 0 : p=p* gegen H 1 : p p* Diese Tests heißen Normalapproximationen der Binomialtests 414 bzw 417 Beispiele: siehe Vorlesung 419 Zweiseitige Gauß-Tests Gegeben ist das Normalverteilungsmodell mit bekannter Varianz v = v 0 wie in 415, also 1 = ú, Q = ú n, und für alle m0ú ist w m = N(m,v 0 ) qn Seien m(0)0ú, " 0+0,1, vorgegeben, und seien H 0 : m = m(0), H 1 : m m(0) U = (M-m(0))(v 0 /n) -1/2 sei die sogenannte Gauß-Statistik (vgl 392) Bezüglich w m(0) ist U standardnormalverteilt Der nichtrandomisierte Test * mit dem Verwerfungsbereich {*=1} = { U $ u 1-"/2 }, wobei u 1-"/2 das (1-"/2)-Quantil von N(0,1) ist, ist ein Niveau-"-Test von H 0 gegen H 1 * heißt zweiseitiger Gaußtest 420 Zweiseitige t-tests Zugrunde liegt das allgemeine Normalverteilungsmodell 142, dh Z = (X 1,,X n ) ist eine N(m,v)-verteilte Stichprobe vom Umfang n mit unbekannten Parametern m und v, also 1 = ú +0, 4,, Q = ú n, W Z = {w h h01}, wobei für h=(m,v)01 w h = N(m,v) qn Wie üblich bezeichne M das Stichprobenmittel, S² die Stichprobenvarianz Seien " 0 +0, 1,, m(0)0ú fest vorgegeben, und seien H 0 : m = m(0), H 1 : m m(0), also 1 0 = {(m,v)01 m=m(0)}, 1 1 = {(m,v)01 m m(0)}

6 20 T = (M-m(0))(S²/n) -1/2 sei die sogenannte t-statistik (vgl 391) Für jedes h01 0 ist bezüglich w h T t-verteilt mit n-1 Freiheitsgraden (siehe 391) Der nichtrandomisierte Test * mit dem Verwerfungsbereich { T > t n-1,1-"/2 }, wobei t n-1,1-"/2 das (1-"/2)-Quantil der t-verteilung mit n-1 Freiheitsgraden ist, ist ein Niveau-"-Test für H 0 gegen H 1 * heißt zweiseitiger t-test Beispiel: siehe Vorlesung 421 Chi-Quadrat-Tests für die Varianz Modellvoraussetzungen und Bezeichnungen wie in 420; vorgegeben seien "0+0, 1, und ein festes v 0 >0 Seien H 0 : v = v 0, H 1 : v v 0, also 1 0 = {(m,v)01 v=v 0 }, 1 1 = {(m,v)01 v v 0 } Für jedes h=(m,v 0 )01 0 ist bezüglich w h (n-1)s²/v 0 P² n-1 -verteilt (siehe 393) Der nichtrandomisierte Test * mit dem Verwerfungsbereich {S² < (v 0 /(n-1))p² n-1,"/2 }c{s² > (v 0 /(n-1))p² n-1,1-"/2 } ist ein Niveau-"-Test für H 0 gegen H 1 (Für m0ù, $0+0,1, bezeichne P² m,$ das $-Quantil der Chiquadrat-Verteilung mit m Freiheitsgraden) * heißt zweiseitiger Chiquadrat-Test (für die Varianz) Beispiel: siehe Vorlesung Wir betrachten weitere Tests in Normalverteilungsmodellen 422 Zwei-Stichproben-t-Test: Vergleich zweier Erwartungswerte Wir erweitern das Normalverteilungsmodell wie folgt: seien k,n0ù, die Zufallsgröße Z sei eine Folge X 1,,X k, Y 1,,Y n von unabhängigen Zufallsvariablen, wobei X 1,,X k identisch normalverteilt sind mit (unbekanntem) Erwartungswert m(1) und (unbekannter) Varianz v>0, Y 1,,Y n identisch normalverteilt mit (unkanntem) Erwartungswert m(2) und derselben Varianz v Als Parameterbereich liegt also vor 1 = ú ú +0,4,, der Stichprobenraum ist Q = ú k+n, und für alle h = (m(1),m(2),v) 0 1 hat w h die Likelihood (W-Dichte) L(z,h) = (2Bv) -(k+n)/2 exp{-(1/2v)[(x 1 -m(1))²++(x k -m(1))²+(y 1 -m(2))²+(y n -m(2))²]}; z = (x 1,,x k,y 1,,y n ) 0 ú k+n Seien M(1,k) = (1/k)(X 1 ++X k ) das X-Stichprobenmittel, M(2,n) = (1/n)(Y 1 ++Y n ) das Y-Stichprobenmittel, S²(k,n) := (k+n-2) -1 [(X 1 -M(1,k))²+(X k -M(1,k))²+(Y 1 -M(2,n))²++(Y n -M(2,n))²] die Zwei- Stichprobenvarianz, S(m,n) := (S²(m,n)) 1/2 die Zwei-Stichprobenstandardabweichung Sei T = T(Z) = (kn/(k+n)) 1/2 (M(1,k) -M(2,n))/S(m,n) = [(1/k)+(1/n)] -1/2 (M(1,k) -M(2,n))/S(m,n) Es gilt: (*) Für alle h=(m(1),m(2),v)01 mit m(1)=m(2) ist die "Teststatistik" T bezüglich w h t-verteilt ist mit k+n-2 Freiheitsgraden Sei " 0+0,1, vorgegeben; H 0 : m(1) = m(2), H 1 : m(1) m(2), also 1 0 = {h = (m(1),m(2),v)01 m(1)=m(2)}, 1 1 = 1(1 0 Aus (*) folgt, daß der nichtrandomisierte Test * mit dem kritischen Bereich {*=1} = { T > t k+n-2,1-"/2 } ein Niveau-"-Test für H 0 gegen H 1 ist (Dabei ist t k+n-2,1-"/2 das (1-"/2)-Quantil der t-verteilung mit k+n-2 Freiheitsgraden * heißt Zwei-Stichproben-t-Test 423 F-Tests: Vergleich zweier Varianzen

7 21 Ähnlich wie in 422 betrachten wir ein Normalverteilungsmodell wie folgt: seien k,n0ù, die Zufallsgröße Z sei eine Folge X 1,,X k, Y 1,,Y n von unabhängigen Zufallsvariablen, wobei X 1,,X k identisch normalverteilt sind mit (unbekanntem) Erwartungswert m(1) und (unbekannter) Varianz v(1)>0, Y 1,,Y n identisch normalverteilt mit (unkanntem) Erwartungswert m(2) und (unbekannter) Varianz v(2)>0 Als Parameterbereich liegt also vor 1 = ú ú +0,4, +0,4,, der Stichprobenraum ist Q = ú k+n und für alle h=(m(1),m(2),v(1),v(2))01 ist w h = N(m(1),v(1)) qk qn(m(2),v(2)) qn Wie in 422 sei M(1,k) (bzw M(2,n)) das X- (bzw Y-)Stichprobenmittel, ferner S²(1,k) := (k-1) -1 ((X 1 -M(1,k))²++(X k -M(1,k))²) die X-Stichprobenvarianz, S²(2,n) := (n-1) -1 ((Y 1 -M(2,n))²++(Y n -M(2n))²) die Y-Stichprobenvarianz H 0 : v(1) = v(2), H 1 : v(1) v(2), also 1 0 = {h = (m(1),m(2),v(1),v(2))01 v(1)=v(2)}, 1 1 = 1(1 0 Für h = (m(1),m(2),v,v)01 0 ist bezüglich w h Z 1 := (k-1)s²(1,k)/v Chiquadrat-verteilt mit k-1 Freiheitsgraden, und Z 2 := (n-1)s²(2,n)/v Chiquadrat-verteilt mit n-1 Freiheitsgraden (siehe 393); ferner sind Z 1 und Z 2 unabhängig Gemäß V11 ist dann F := (Z 1 /(k-1)) : (Z 2 /(n-1)) = S²(1,k)/S²(1,n) F k-1,n-1 -verteilt Zu vorgegebenem "0+0,1, sei u 1 das ("/2)-, u 2 das (1-"/2)-Quantil der F k-1,n-1 -Verteilung Dann ist der nichtrandomisierte Test * mit dem Verwerfungsbereich {*=1} = {F < u 1 }c{f > u 2 } ein Niveau-"-Test für H 0 gegen H 1 ("F-Test") Beispiel: siehe Vorlesung Zuletzt wollen wir Chi-Quadrat-Anpassungs- und Unabhängigkeitstests behandeln 424 Beispiel Bei der Kreuzung zweier Erbsensorten sind vier Ergebnisse möglich: Typ 1 (AB): rund und gelb; Typ 2 (ab): gerunzelt und gelb; Typ 3 (Ab): rund und grün; Typ 4 (ab): gerunzelt und grün Sei W = {1,2,3,4} und sei X die Zufallsvariable "Typ" mit dem Wertebereich W Ihre Verteilung ist unbekannt; sie wird durch einen vierdimensionalen W-Vektor p =(p 1,p 2,p 3,p 4 ) beschrieben, wobei p i = P(X=i) für i=1,2,3,4 Die Mendelsche Theorie behauptet: p = (9/16,3/16,3/16,1/16) Diese Behauptung soll durch einen sogenannten Anpassungstest überprüft werden 425 Modellvoraussetzungen für den Chi-Quadrat-Anpassungstest Sei r0ù, r$2, A = {a 1, a 2,, a r } eine r-elementige Menge und sei X eine Zufallsvariable mit Wertebereich A Die Verteilung von X wird beschrieben durch einen r-dimensionalen W- Vektor p = (p 1,, p r ): p D = P(X=a D }, D=1,,r p ist unbekannt, also 1 = P r = {p = (p 1,, p r ) p D > 0 für D=1,,r, p p r = 1} Parameterbereich Sei n0ù Das durch X beschriebene Zufallsexperiment wird n-mal unabhängig wiederholt, dies ergibt eine Stichprobe Z(n) = (X 1,, X n ) Es liegt also das statistische Modell (Q n,g n, W Z(n) ) vor, wobei Q n = A n, G n = -(Q n ), W Z(n) = {w p p01} mit w p = p qn für alle p01 (Wir identifizieren dabei endlich-diskrete Verteilungen mit ihren W-Vektoren) Für D=1,,r sei h D (n)= Anzahl der j0{1,,n} mit X j = a D, also die Besetzungszahl der D-ten Klasse, h(n) = (h 1 (n),, h r (n)) der Besetzungsvektor

8 22 Für jedes p01 ist bezüglich w p h(n) ~ Mult(n,r,p) (siehe V33) 426 Die Chi-Quadrat-Statistik für den Anpassungstest Q n : Q n P r 6 ú + gemäß Q n (Z(n), p) = (h 1 (n)-np 1 )²/(np 1 ) + + (h r (n)-np r )²/(np r ), wobei p = (p 1,, p r ), heißt Chi-Quadrat-Statistik Für p=(p 1,, p r )0P r ist bezüglich w p für D = 1,, r h D (n)~ B(n,p D ), insbesondere ist also np D die erwartete Besetzungszahl der D-ten Klasse Bei der Berechnung von Q n wird also summiert über das Quadrat der Differenz aus tatsächlicher und erwarteter Besetzungszahl geteilt durch die erwartete Besetzungszahl Es gilt: Q n (Z(n), p) = (1/n)(h 1 ²(n)/p h r ²(n)/p r ) - n 427 Satz (Karl Pearson, 1900) Für beliebige p0p r und große n ist die Zufallsvariable Q n (Z(n), p) bezüglich w p näherungsweise P 2 -verteilt mit r-1 Freiheitsgraden, dh bezüglich w p konvergiert Q n (Z(n), p) für n64 schwach gegen P² r Der Chi-Quadrat-Anpassungstest Gegeben r,n0ù, wobei r $2, (Q n,g n, W Z(n) ) mit W Z(n) = {w p p01}, 1 = P r wie in 425 Seien weiter p(0)0p r und "0+0,1, vorgegeben H 0 : p = p(0) (also 1 0 = {p(0)}); H 1 : p p(0) Sei P² r-1,1-" das (1-")-Quantil der P² r-1 -Verteilung, Q* := Q n (Z(n),p(0)) gemäß 426 Der nichtrandomisierte Test * mit dem Verwerfungsbereich {*=1} = {Q* > P² r-1,1-" } heißt Chi-Quadrat-Anpassungstest Wegen 427 ist * ein Test von H 0 gegen H 1 mit dem asymptotischen Signifikanzniveau " 429 Beispiele 1) Fortsetzung von 424: r=4, p(0) = (9/16,3/16,3/16,1/16), n=556, " = 01, P² 3,09 = Kreuzungen liefern den Zählvektor h = (315,101,108,32) Q* = Q(Z(n), p(0)) = 0470 < 625 Also *=0, das Ergebnis spricht nicht gegen die Mendelsche Theorie 2) und 3) siehe Vorlesung 430 Der Chiquadrat-Anpassungstest bei stetigen Verteilungen Der Chiquadrat-Anpassungstest gemäß 428 prüft die Nullhypothese, ob eine bestimmte endlich-diskrete Verteilung p(0) vorliegt oder nicht Will man diesen Test auch für stetige Verteilungen anwenden, muß man vorher diskretisieren Sei dazu X eine stetige reelle Zufallsvariable und sei < eine bestimmte stetige W-Verteilung auf (ú,b) Es soll die Nullhypothese P X = < untersucht werden Sei "0+0,1, gegeben Man unterteilt die Zahlengerade in r Teilintervalle I 1,, I r und setzt p D (0) := <(I D ) für D=1,,r, p(0) := (p 1 (0),, p r (0)) H 0 : p = p(0); H 1 : p p(0) Man erzeugt eine einfache Stichprobe Z=(X 1,, X n ) und setzt für D=1,,r h D = Anzahl der i0{1,,n}mit X i 0 I D ; h:= (h 1,, h r ) Teste nun H 0 gegen H 1 mit dem kritischen Bereich {Q* > P² r-1,1-" }, wobei Q* = Q n (Z, p(0)) Beachte: Ist P X = <, so ist h ~ Mult(n,r,p(0)), dh es liegt die Nullhypothese vor Liegt daher die Testgröße im kritischen Bereich, kann die Hypothese P X = < zum Signifikanzniveau " verworfen werden Die Wahrscheinlichkeiten für Fehler zweiter Art sind allerdings ia höher als im diskreten Fall, da verschiedene stetige Verteilungen zur gleichen Diskretisierung p(0) führen können

9 23 Mit dem im folgenden beschriebenen Unabhängigkeitstest soll untersucht werden, ob zwei Merkmale (Zufallsvariablen) X A und X B mit jeweils endlich vielen Ausprägungen A = {1,,a} und B = {1,,b} unabhängig sind Dabei seien a,b0ù({1} 431 Modellvoraussetzungen für den Chi-Quadrat-Unabhängigkeitstest Seien E = A B = {(i,j) i0a, j0b}, 1 = 1 E = {h=(h(i,j)) (i,j)0e 0 +0,1, E 3 (i,j) h(i,j) = 1} die Menge aller E-Wahrscheinlichkeitsmatrizen, 1 A = {"=("(i)) i0a 0 +0,1, A 3 i "(i) = 1}, 1 B = {$=($(j)) j0b 0 +0,1, B 3 j $(j) = 1} die Menge aller A- bzw B-Wahrscheinlichkeitsvektoren Im folgenden werden W-Matrizen und W-Vektoren mit den durch sie in kanonischer Weise induzierten W-Maßen auf E bzw A bzw B identifiziert Für jedes h01 setze h A = (h A (i)) i0a 0 1 A, wobei für i0a h A (i) = 3 j0b h(i,j), und h B = (h B (j)) j0b 0 1 B, wobei für j0b h B (j) = 3 i0a h(i,j) h A und h B sind also die zu h gehörigen Randverteilungen auf A bzw B (also die Verteilungen von X A respx B bezüglich h) Nullhypothese: X A und X B sind unabhängig, also H 0 : h = h A qh B oder H 0 : h01 0, wobei 1 0 = {"q$ = ("(i)$(j)) (i,j)0e "01 A, $01 B } Gegenhypothese: H 1 : h01 1 = 1(1 0 Im Gegensatz zu 428 (einfache, nämlich einelementige Nullhypothese) liegt hier eine zusammengesetzte (mehrelementige) Nullhypothese vor Sei n0ù Analog 425 beschaffen wir uns n unabhängige Wiederholungen des Zufallsvektors X = (X A,X B ): Z(n) = (X 1,,X n ) = ((X 1A,X 1B ),,(X na,x nb )) Es liegt also das statistische Modell (Q n,g n, W Z(n) ) vor, wobei Q n = E n, G n = -(Q n ), W Z(n) = {w h h01} mit w h = h qn für alle h01 Für (i,j)0e definieren wir die Besetzungsvariablen h n (i,j) := Anzahl der k0{1,,n} mit X k = (i,j), L n (i,j) = h n (i,j)/n, h n = (h n(i,j)) (i,j)0e die sogenannte Kontingenztafel nach n Beobachtungen, L n = (L n (i,j)) (i,j)0e die empirische gemeinsame Verteilung der beiden Merkmale nach n Beobachtungen Für n0ù, i0a sei h n A (i) = 3 j0b h n (i,j) = Anzahl der k0{1,,n} mit X k A = i, L n A (i) = h n A (i)/n, L n A = (L n A (i)) i0a die empirische Verteilung des Merkmals X A nach n Beobachtungen; für n0ù, j0b sei h n B (j) = 3 i0a h n (i,j) = Anzahl der k0{1,,n} mit X k B = j, L n B (j) = h n B (j)/n, L n B = (L n B (i)) j0b die empirische Verteilung des Merkmals X B nach n Beobachtungen h n 1 b h n A 1 h n (1,1) h n (1,b) h n A (1) a h n (a,1) h n (a,b) h na (a) h n B h nb (1) h nb (b) n

10 24 In der letzten Zeile der Kontingenztafel stehen also die Spaltensummen, in der letzten Spalte die Zeilensummen Für jedes h= (h(i,j))0 1 ist bezüglich w h die (zufällige) Kontingenztafel h n multinomialverteilt mit den Parametern n, a@b und h, also h n ~ Mult(n, a@b, h) 432 Die Chi-Quadrat-Statistik für den Unabhängigkeitstest D n := D n (X(n)) := 3 (i,j)0e[h n (i,j)-n L na (i)l nb (j)]²/(n L na (i)l nb (j)) Im Vergleich zur Q-Statistik aus 426 wurden hier die unbekannten Wahrscheinlichkeiten h(i,j) (= h A (i)h B (j) im Fall der Nullhypothese) jeweils durch ihre ML-Schätzwerte L n A (i)l n B (j) ersetzt Eine einfache Umformung ergibt: D n = n {3 (i,j)0e h n (i,j)²/(h n A (i)h n B (j)) - 1} 433 Der verallgemeinerte Satz von Pearson Für jedes D="q$01 0 gilt bezüglich w D : D n ist asymptotisch (n64) Chi-Quadrat-verteilt mit (a-1)(b-1) Freiheitsgraden 434 Der Chi-Quadrat-Unabhängigkeitstest Es gelte das Modell 431 und es sei D n wie in 432 Sei ferner " 0 +0,1, vorgegeben und sei P² (a-1)(b-1),1-" das (1-")- Quantil der Chi-Quadrat- Verteilung mit (a-1)(b-1) Freiheitsgraden Der nichtrandomisierte Test *: Q n 6{0,1} mit dem Verwerfungsbereich {D n > P² (a-1)(b-1),1-" } ist ein Test von H 0 gegen H 1 mit dem asymptotischen Signifikanzniveau " (wegen 433) * heißt Chi-Quadrat-Unabhängigkeitstest 435 Beispiele: siehe Vorlesung

Kapitel 1: Elemente der Statistik

Kapitel 1: Elemente der Statistik 1 Kapitel 1: Elemente der Statistik 1.1 Beispiel Ein Elektromarkt erhält eine Lieferung von N = 10000 Glühbirnen. Darunter ist eine unbekannte Anzahl h defekt, wobei h 0 1 = {0, 1,..., N}. Um Kenntnisse

Mehr

3 Grundlagen statistischer Tests (Kap. 8 IS)

3 Grundlagen statistischer Tests (Kap. 8 IS) 3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung

Mehr

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,

Mehr

Statistik II. Statistische Tests. Statistik II

Statistik II. Statistische Tests. Statistik II Statistik II Statistische Tests Statistik II - 12.5.2006 1 Test auf Anteilswert: Binomialtest Sei eine Stichprobe unabhängig, identisch verteilter ZV (i.i.d.). Teile diese Stichprobe in zwei Teilmengen

Mehr

Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, (

Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, ( Kapitel 4 Konfidenzbereiche Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden Teil-Parameter

Mehr

Klassifikation von Signifikanztests

Klassifikation von Signifikanztests Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen

Mehr

8. Konfidenzintervalle und Hypothesentests

8. Konfidenzintervalle und Hypothesentests 8. Konfidenzintervalle und Hypothesentests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Beispiel. Sie wollen den durchschnittlichen Fruchtsaftgehalt eines bestimmten Orangennektars

Mehr

Praktikum zur Statistik

Praktikum zur Statistik mit R Institut für Mathematische Statistik Universität Münster 7. Oktober 2010 Gliederung 1 Testtheorie: Ziel und Überblick Testtheorie Andere Entscheidungsprobleme 2 3 4 p-wert, Binomialtest Mittelwertvergleiche:

Mehr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p

Mehr

Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung

Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Induktive Statistik Prof. Dr. W.-D.

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 7. Juni 2013 1 Binomialverteilung 2 Normalverteilung 3 T-Verteilung

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Allgemeines zu Tests. Statistische Hypothesentests

Allgemeines zu Tests. Statistische Hypothesentests Statistische Hypothesentests Allgemeines zu Tests Allgemeines Tests in normalverteilten Grundgesamtheiten Asymptotische Tests Statistischer Test: Verfahren Entscheidungsregel), mit dem auf Basis einer

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Noémie Becker & Dirk Metzler 31. Mai 2016 Inhaltsverzeichnis 1 Binomialverteilung 1 2 Normalverteilung 2 3 T-Verteilung

Mehr

Die ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist.

Die ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist. .3. Stochastik Grundlagen Die ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist. Die RELATIVE HÄUFIGKEIT einer Merkmalsausprägung gibt an mit welchem Anteil

Mehr

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007 Mathematik IV für Maschinenbau und Informatik Stochastik Universität Rostock, Institut für Mathematik Sommersemester 007 Prof. Dr. F. Liese Dipl.-Math. M. Helwich Serie Termin: 9. Juni 007 Aufgabe 3 Punkte

Mehr

Diskrete Wahrscheinlichkeitstheorie

Diskrete Wahrscheinlichkeitstheorie SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München http://www7.in.tum.de/um/courses/dwt/ss13 Sommersemester 2013 Teil V Induktive Statistik Induktive Statistik

Mehr

Einführung in die Induktive Statistik: Testen von Hypothesen

Einführung in die Induktive Statistik: Testen von Hypothesen Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte

Mehr

Kapitel 3 Schließende Statistik

Kapitel 3 Schließende Statistik Beispiel 3.4: (Fortsetzung Bsp. 3.) bekannt: 65 i=1 X i = 6, also ˆp = X = 6 65 = 0, 4 Überprüfen der Voraussetzungen: (1) n = 65 30 () n ˆp = 6 10 (3) n (1 ˆp) = 39 10 Dr. Karsten Webel 194 Beispiel 3.4:

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

Beurteilende Statistik

Beurteilende Statistik Beurteilende Statistik Wahrscheinlichkeitsrechnung und Beurteilende Statistik was ist der Unterschied zwischen den beiden Bereichen? In der Wahrscheinlichkeitstheorie werden aus gegebenen Wahrscheinlichkeiten

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Einführung in die statistische Testtheorie II

Einführung in die statistische Testtheorie II 1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 / Übungsaufgaben Prof. Dr. Achim Klenke http://www.aklenke.de 13. Vorlesung: 10.02.2012 1/51 Aufgabe 1 Aufgabenstellung Übungsaufgaben Ein Pharmakonzern möchte ein neues Schlankheitsmedikament

Mehr

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik Kapitel 15 Statistische Testverfahren 15.1. Arten statistischer Test Klassifikation von Stichproben-Tests Einstichproben-Test Zweistichproben-Test - nach der Anzahl der Stichproben - in Abhängigkeit von

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Test auf den Erwartungswert

Test auf den Erwartungswert Test auf den Erwartungswert Wir interessieren uns für den Erwartungswert µ einer metrischen Zufallsgröße. Beispiele: Alter, Einkommen, Körpergröße, Scorewert... Wir können einseitige oder zweiseitige Hypothesen

Mehr

Entscheidung zwischen zwei Möglichkeiten auf der Basis unsicherer (zufälliger) Daten

Entscheidung zwischen zwei Möglichkeiten auf der Basis unsicherer (zufälliger) Daten Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 4.1 4. Statistische Entscheidungsverfahren Entscheidung zwischen zwei Möglichkeiten auf der Basis unsicherer (zufälliger) Daten Beispiel:

Mehr

Statistische Tests (Signifikanztests)

Statistische Tests (Signifikanztests) Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)

Mehr

Kapitel XI - Operationscharakteristik und Gütefunktion

Kapitel XI - Operationscharakteristik und Gütefunktion Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XI - Operationscharakteristik und Gütefunktion Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/453

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/453 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/453 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

Kapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen

Kapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen Induktive Statistik Prof. Dr. W.-D. Heller

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 19. Januar 2011 1 Nichtparametrische Tests Ordinalskalierte Daten 2 Test für ein Merkmal mit nur zwei Ausprägungen

Mehr

10. Die Normalverteilungsannahme

10. Die Normalverteilungsannahme 10. Die Normalverteilungsannahme Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher haben wir vorausgesetzt, daß die Beobachtungswerte normalverteilt sind. In diesem Fall kann man

Mehr

Step-Down Prozeduren

Step-Down Prozeduren Step-Down Prozeduren zur Kontrolle der Family-Wise Error Rate WS 2010/2011 Jakob Gierl HU Berlin 07.02.2011 1 / 19 Modell Schrittweise Step-Down Modell mathematische Stichprobe X 1,..., X n iid im R J

Mehr

THEMA: "STATISTIK IN DER PRAXIS TESTEN IST BESSER ALS VERMUTEN" TORSTEN SCHOLZ

THEMA: STATISTIK IN DER PRAXIS TESTEN IST BESSER ALS VERMUTEN TORSTEN SCHOLZ WEBINAR@LUNCHTIME THEMA: "STATISTIK IN DER PRAXIS TESTEN IST BESSER ALS VERMUTEN" TORSTEN SCHOLZ EINLEITENDES BEISPIEL SAT: Standardisierter Test, der von Studienplatzbewerbern an amerikanischen Unis gefordert

Mehr

DWT 334/460 csusanne Albers

DWT 334/460 csusanne Albers Die Wahrscheinlichkeit fur den Fehler 1. Art wird mit bezeichnet, und man spricht deshalb gelegentlich vom -Fehler. heit auch Signikanzniveau des Tests. In der Praxis ist es ublich, sich ein Signikanzniveau

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

6. Statistische Hypothesentests

6. Statistische Hypothesentests 6. Statistische Hypothesentests Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang X habe die unbekannte VF F X (x) Interessieren uns für einen unbekannten Parameter θ der Verteilung von

Mehr

1.6 Der Vorzeichentest

1.6 Der Vorzeichentest .6 Der Vorzeichentest In diesem Kapitel soll der Vorzeichentest bzw. Zeichentest vorgestellt werden, mit dem man Hypothesen bezüglich des Medians der unabhängig und identisch stetig verteilten Zufallsvariablen

Mehr

3. Das Prüfen von Hypothesen. Hypothese?! Stichprobe Signifikanztests in der Wirtschaft

3. Das Prüfen von Hypothesen. Hypothese?! Stichprobe Signifikanztests in der Wirtschaft 3. Das Prüfen von Hypothesen Hypothese?! Stichprobe 3.1. Signifikanztests in der Wirtschaft Prüfung, ob eine (theoretische) Hypothese über die Verteilung eines Merkmals X und ihre Parameter mit einer (empirischen)

Mehr

Biometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1

Biometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1 Biometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1 Aufgabe 1 (10 Punkte). 10 Schüler der zehnten Klasse unterziehen sich zur Vorbereitung auf die Abschlussprüfung einem Mathematiktrainingsprogramm.

Mehr

Testen von Hypothesen, Beurteilende Statistik

Testen von Hypothesen, Beurteilende Statistik Testen von Hypothesen, Beurteilende Statistik Was ist ein Test? Ein Test ist ein Verfahren, mit dem man anhand von Beobachtungen eine begründete Entscheidung über die Gültigkeit oder Ungültigkeit einer

Mehr

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests ue biostatistik: hypothesen, fehler 1. und. art, power 1/8 h. lettner / physik Hypothesen: Fehler 1. und. Art, Power eines statistischen Tests Die äußerst wichtige Tabelle über die Zusammenhänge zwischen

Mehr

Statistische Tests für unbekannte Parameter

Statistische Tests für unbekannte Parameter Konfidenzintervall Intervall, das den unbekannten Parameter der Verteilung mit vorgegebener Sicherheit überdeckt ('Genauigkeitsaussage' bzw. Zuverlässigkeit einer Punktschätzung) Statistischer Test Ja-Nein-Entscheidung

Mehr

Klausur zu Statistik II

Klausur zu Statistik II GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel

Mehr

Kapitel 13. Grundbegriffe statistischer Tests

Kapitel 13. Grundbegriffe statistischer Tests Kapitel 13 Grundbegriffe statistischer Tests Oft hat man eine Vermutung über die Verteilung einer Zufallsvariablen X. Diese Vermutung formuliert man als Hypothese H 0.Sokönnte man daran interessiert sein

Mehr

P n (k) f(k) = 1 σ 2π e ) 2. σ 2π

P n (k) f(k) = 1 σ 2π e ) 2. σ 2π 53 Allgemein gilt der folgende Satz. Satz 6.1 (Lokaler Grenzwertsatz von de Moivre und Laplace) Die Wahrscheinlichkeit P n (k) einer Binomialverteilung (mit der Erfolgswahrscheinlichkeit p im Einzelexperiment)

Mehr

Beispiel 8.1 Die Sommerfeldsche Feinstrukturkonstante Alpha hat einen Zahlenwert von

Beispiel 8.1 Die Sommerfeldsche Feinstrukturkonstante Alpha hat einen Zahlenwert von Kapitel 8 Statistische Tests 8.1 Begriffsbildung und Beispiele Beispiel 8.1 Die Sommerfeldsche Feinstrukturkonstante Alpha hat einen Zahlenwert von a 0 1 137.036. Der genaue Wert ist bis auf 10 15 genau

Mehr

Schließende Statistik

Schließende Statistik Schließende Statistik Die schließende Statistik befasst sich mit dem Rückschluss von einer Stichprobe auf die Grundgesamtheit (Population). Die Stichprobe muss repräsentativ für die Grundgesamtheit sein.

Mehr

Online-Aufgaben Statistik (BIOL, CHAB) Auswertung und Lösung

Online-Aufgaben Statistik (BIOL, CHAB) Auswertung und Lösung Online-Aufgaben Statistik (BIOL, CHAB) Auswertung und Lösung Abgaben: 92 / 234 Maximal erreichte Punktzahl: 7 Minimal erreichte Punktzahl: 1 Durchschnitt: 4 Frage 1 (Diese Frage haben ca. 0% nicht beantwortet.)

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1 Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne

Mehr

Überblick Hypothesentests bei Binomialverteilungen (Ac)

Überblick Hypothesentests bei Binomialverteilungen (Ac) Überblick Hypothesentests bei Binomialverteilungen (Ac) Beim Testen will man mit einer Stichprobe vom Umfang n eine Hypothese H o (z.b.p o =70%) widerlegen! Man geht dabei aus von einer Binomialverteilung

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Statistik II für Betriebswirte Vorlesung 1

Statistik II für Betriebswirte Vorlesung 1 Statistik II für Betriebswirte Vorlesung 1 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 19. Oktober 2016 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Kapitel 10 Mittelwert-Tests Einstichproben-Mittelwert-Tests 10.2 Zweistichproben Mittelwert-Tests

Kapitel 10 Mittelwert-Tests Einstichproben-Mittelwert-Tests 10.2 Zweistichproben Mittelwert-Tests Kapitel 10 Mittelwert-Tests 10.1 Einstichproben-Mittelwert-Tests 10.2 Zweistichproben Mittelwert-Tests 10.1 Einstichproben- Mittelwert-Tests 10.1.1 Einstichproben- Gauß-Test Dichtefunktion der Standard-Normalverteilung

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 23. Dezember 2010 1 Tests für Erwartungswerte Teststatistik Gauß-Test Zusammenhang zu Konfidenzintervallen t-test

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Ein- und Zweistichprobentests

Ein- und Zweistichprobentests (c) Projekt Neue Statistik 2003 - Lernmodul: Ein- Zweistichprobentests Ein- Zweistichprobentests Worum geht es in diesem Modul? Wiederholung: allgemeines Ablaufschema eines Tests Allgemeine Voraussetzungen

Mehr

1.8 Kolmogorov-Smirnov-Test auf Normalverteilung

1.8 Kolmogorov-Smirnov-Test auf Normalverteilung 1.8 Kolmogorov-Smirnov-Test auf Normalverteilung Der Kolmogorov-Smirnov-Test ist einer der klassischen Tests zum Überprüfen von Verteilungsvoraussetzungen. Der Test vergleicht die Abweichungen der empirischen

Mehr

1.4 Der Binomialtest. Die Hypothesen: H 0 : p p 0 gegen. gegen H 1 : p p 0. gegen H 1 : p > p 0

1.4 Der Binomialtest. Die Hypothesen: H 0 : p p 0 gegen. gegen H 1 : p p 0. gegen H 1 : p > p 0 1.4 Der Binomialtest Mit dem Binomialtest kann eine Hypothese bezüglich der Wahrscheinlichkeit für das Auftreten einer Kategorie einer dichotomen (es kommen nur zwei Ausprägungen vor, z.b. 0 und 1) Zufallsvariablen

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003 Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003. Eine seltene Krankheit trete mit Wahrscheinlichkeit : 0000 auf. Die bedingte Wahrscheinlichkeit, dass ein bei einem Erkrankten durchgeführter

Mehr

Schließende Statistik: Hypothesentests (Forts.)

Schließende Statistik: Hypothesentests (Forts.) Mathematik II für Biologen 15. Mai 2015 Testablauf (Wdh.) Definition Äquivalente Definition Interpretation verschiedener e Fehler 2. Art und Macht des Tests Allgemein im Beispiel 1 Nullhypothese H 0 k

Mehr

Tests einzelner linearer Hypothesen I

Tests einzelner linearer Hypothesen I 4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen

Mehr

Aufgabenblock 4. Da Körpergröße normalverteilt ist, erhalten wir aus der Tabelle der t-verteilung bei df = 19 und α = 0.05 den Wert t 19,97.

Aufgabenblock 4. Da Körpergröße normalverteilt ist, erhalten wir aus der Tabelle der t-verteilung bei df = 19 und α = 0.05 den Wert t 19,97. Aufgabenblock 4 Aufgabe ) Da s = 8. cm nur eine Schätzung für die Streuung der Population ist, müssen wir den geschätzten Standardfehler verwenden. Dieser berechnet sich als n s s 8. ˆ = = =.88. ( n )

Mehr

Kapitel 2 Wahrscheinlichkeitsrechnung

Kapitel 2 Wahrscheinlichkeitsrechnung Definition 2.77: Normalverteilung & Standardnormalverteilung Es sei µ R und 0 < σ 2 R. Besitzt eine stetige Zufallsvariable X die Dichte f(x) = 1 2 πσ 2 e 1 2 ( x µ σ ) 2, x R, so heißt X normalverteilt

Mehr

Übungsscheinklausur,

Übungsscheinklausur, Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...

Mehr

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion Kapitel 12 Stetige Zufallsvariablen 12.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden Einführung in Quantitative Methoden Pantelis Christodoulides & Karin Waldherr 4. Juni 2014 Christodoulides / Waldherr Einführung in Quantitative Methoden 1/35 Ein- und Zweiseitige Hypothesen H 0 : p =

Mehr

Grundlagen der Statistik

Grundlagen der Statistik Grundlagen der Statistik Übung 15 009 FernUniversität in Hagen Alle Rechte vorbehalten Fachbereich Wirtschaftswissenschaft Übersicht über die mit den Übungsaufgaben geprüften Lehrzielgruppen Lehrzielgruppe

Mehr

KATA LOGO Mathematik Statistik Roadmap: Von der Hypothese zum p-wert

KATA LOGO Mathematik Statistik Roadmap: Von der Hypothese zum p-wert KATA LOGO Mathematik Statistik Roadmap: Von der Hypothese zum p-wert 0. Das eigentliche Forschungsziel ist: Beweis der eigenen Hypothese H 1 Dafür muss Nullhypothese H 0 falsifiziert werden können Achtung!

Mehr

Schätzer (vgl. Kapitel 1): Stichprobenmittel X N. Stichprobenmedian X N

Schätzer (vgl. Kapitel 1): Stichprobenmittel X N. Stichprobenmedian X N Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 8.1 Schätzer für Lage- und Skalenparameter und Verteilungsmodellwahl Lageparameter (l(x + a) = l(x) + a): Erwartungswert EX Median von X

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Stochastik III. Vorlesungsskript. Prof. Dr. Evgeny Spodarev

Stochastik III. Vorlesungsskript. Prof. Dr. Evgeny Spodarev Stochastik III Vorlesungsskript Prof. Dr. Evgeny Spodarev Ulm 2015 Inhaltsverzeichnis 1 Tests statistischer Hypothesen 3 1.1 Allgemeine Philosophie des Testens...................... 3 1.2 Nichtrandomisierte

Mehr

Grundgesamtheit und Stichprobe

Grundgesamtheit und Stichprobe Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U

Mehr

Alternativtest Einführung und Aufgabenbeispiele

Alternativtest Einführung und Aufgabenbeispiele Alternativtest Einführung und Aufgabenbeispiele Ac Einführendes Beispiel: Ein Medikament half bisher 10% aller Patienten. Von einem neuen Medikament behauptet der Hersteller, dass es 20% aller Patienten

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood

Mehr

Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg

Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg Prof. Markus Schumacher, Dr. Stan Lai Physikalisches Institut Westbau 2 OG E-Mail: Markus.Schumacher@physik.uni-freiburg.de

Mehr

2.4 Hypothesentests Grundprinzipien statistischer Hypothesentests. Hypothese:

2.4 Hypothesentests Grundprinzipien statistischer Hypothesentests. Hypothese: 2.4.1 Grundprinzipien statistischer Hypothesentests Hypothese: Behauptung einer Tatsache, deren Überprüfung noch aussteht (Leutner in: Endruweit, Trommsdorff: Wörterbuch der Soziologie, 1989). Statistischer

Mehr

Angewandte Statistik mit R

Angewandte Statistik mit R Reiner Hellbrück Angewandte Statistik mit R Eine Einführung für Ökonomen und Sozialwissenschaftler 2., überarbeitete Auflage B 374545 GABLER Inhaltsverzeichnis Vorwort zur zweiten Auflage Tabellenverzeichnis

Mehr

1 Dichte- und Verteilungsfunktion

1 Dichte- und Verteilungsfunktion Tutorium Yannick Schrör Klausurvorbereitungsaufgaben Statistik Lösungen Yannick.Schroer@rub.de 9.2.26 ID /455 Dichte- und Verteilungsfunktion Ein tüchtiger Professor lässt jährlich 2 Bücher drucken. Die

Mehr

Blockpraktikum zur Statistik mit R

Blockpraktikum zur Statistik mit R Blockpraktikum zur Statistik mit R 11. Oktober 2013 Fabian Buckmann Institut für Mathematische Statistik Universität Münster WS 13/14 Gliederung 1 Testtheorie: Ziel und Überblick Testtheorie Andere Entscheidungsprobleme

Mehr

Einführung in die Statistik Kapitel 6: Crash-Course in Statistik: Testtheorie

Einführung in die Statistik Kapitel 6: Crash-Course in Statistik: Testtheorie Einführung in die Statistik Kapitel 6: Crash-Course in Statistik: Testtheorie Jung Kyu Canci Universität Basel HS2015 1 / 15 Literatur Kapitel 6 Statistik in Cartoons : Kapitel 8 Krengel : 6 und 14 Storrer

Mehr

Kapitel VIII - Tests zum Niveau α

Kapitel VIII - Tests zum Niveau α Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VIII - Tests zum Niveau α Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh Testsituationen

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Kapitel 5 KONVERGENZ

Kapitel 5 KONVERGENZ Kapitel 5 KONVERGENZ Fassung vom 21. April 2002 Claude Portenier ANALYSIS 75 5.1 Metrische Räume 5.1 Metrische Räume DEFINITION 1 Sei X eine Menge. Eine Abbildung d : X X! R + heißt Metrik oder Distanz

Mehr

Stochastische Eingangsprüfung, 17.05.2008

Stochastische Eingangsprüfung, 17.05.2008 Stochastische Eingangsprüfung, 17.5.8 Wir gehen stets von einem Wahrscheinlichkeitsraum (Ω, A, P) aus. Aufgabe 1 ( Punkte) Sei X : Ω [, ) eine integrierbare Zufallsvariable mit XdP = 1. Sei Q : A R, Q(A)

Mehr

Inhaltsverzeichnis. Teil I Einführung

Inhaltsverzeichnis. Teil I Einführung Inhaltsverzeichnis Teil I Einführung 1 Statistik-Programme... 1.1 Kleine Einführung in R... 1.1.1 Installieren und Starten von R. 1.1.2 R-Konsole... 1.1.3 R-Workspace... 1.1.4 R-History... 1.1.5 R-Skripteditor...

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Macht des statistischen Tests (power)

Macht des statistischen Tests (power) Macht des statistischen Tests (power) Realer Treatment ja Ergebnis der Studie H 0 verworfen statistisch signifikant O.K. Macht H 0 beibehalten statistisch nicht signifikant -Fehler Effekt nein -Fehler

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 9. Dezember 2010 1 Konfidenzintervalle Idee Schätzung eines Konfidenzintervalls mit der 3-sigma-Regel Grundlagen

Mehr

Auswertung und Lösung

Auswertung und Lösung Dieses Quiz soll Ihnen helfen, Kapitel 4.7 und 4.8 besser zu verstehen. Auswertung und Lösung Abgaben: 71 / 265 Maximal erreichte Punktzahl: 8 Minimal erreichte Punktzahl: 0 Durchschnitt: 5.65 Frage 1

Mehr