1 1. Einleitung Dateneingabe und Transformation Wahrscheinlichkeitsrechnung Beschreibende Statistik Statistische Tests

Größe: px
Ab Seite anzeigen:

Download "1 1. Einleitung Dateneingabe und Transformation Wahrscheinlichkeitsrechnung Beschreibende Statistik Statistische Tests"

Transkript

1 1 1. Einleitung 2 2. Dateneingabe und Transformation 3 3. Wahrscheinlichkeitsrechnung 4 4. Beschreibende Statistik 5 5. Statistische Tests 6 6. Multivariate Verfahren W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 271 / 566

2 Statistische Tests: Einführung und Übersicht Einstichprobenproblem Vergleich zweier abhängiger Gruppen Vergleich zweier unabhängiger Gruppen Vergleich von k unabhängigen Gruppen Vergleich k verbundener Stichproben Weitere Varianzanalyse-Modelle Anpassungstests Nichtparametrische Tests W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 272 / 566

3 5. Statistische Tests 5.1 Einführung und Übersicht Tests Einführung Sei X ein Merkmal (eine Zufallsvariable), F X (x) = P(X x) = P θ (X x) = F X,θ (x) θ: Parametervektor Beispiel: θ = (µ, σ 2 ) µ: Erwartungswert von X σ 2 : Varianz von X X 1, X 2,..., X n Beobachtungen von X µ 1 n n i=1 X i = X σ 2 1 n n 1 i=1 (X i X) 2 = s 2 D.h. die unbekannten Parameter werden geschätzt. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 273 / 566

4 Einführung Statistische Tests: Einführung Problem Schätzungen können sehr schlecht ausfallen! I.a. vertritt der Fachexperte gewisse Hypothesen bzgl. der (unbekannten) Parameterwerte! Diese Hypothesen werden verworfen, wenn die erhaltenen Schätzwerte (z.b. X, s 2 ) mit ihnen nicht in Einklang stehen. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 274 / 566

5 Einführung Statistische Tests: Einführung Eine verwandte Problemstellung Elektronischer Großhandel: TV-Geräte Händler sagt: Ausschußquote p 1% (p = 0.01) Käufer wäre einverstanden, prüft aber N Geräte! Davon: N f fehlerhaft, N f - Teststatistik N f N 100% 1% Ablehnung Zwei Fehler möglich a) Zufällig N f zu groß! p < 0.01 Käufer lehnt ab b) Zufällig N f zu klein! p groß, p 0.01 Käufer kauft W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 275 / 566

6 Einführung Statistische Tests: Einführung Risiken - Fehler Risiko des Händlers Käufer lehnt gute Ware ab (weil N f zufällig zu groß) Risiko des Käufers Käufer kauft schlechte Ware (weil N f zufällig zu klein) Risiken sollen quantifiziert werden: a) P( Nicht kaufen p 1%) b) P( Kaufen p > 1%) Beide Risiken nicht gleichzeitig zu minimieren. Lösung: P( Nicht kaufen p 1%) = α vorgeben P( Kaufen p > 1%) minimieren (oder es versuchen) W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 276 / 566

7 Hypothesentest Beispiel: Einstichproben-Lagetest Tests Einführung Sei µ ein Lageparameter, z.b. der Erwartungswert. Sei µ 0 ein vorgegebener Wert. Nullhypothese und Alternativhypothese a) H 0 : µ µ 0 H A : µ > µ 0 b) H 0 : µ µ 0 H A : µ < µ 0 c) H 0 : µ = µ 0 H A : µ µ 0 Teststatistik T(X 1,..., X n ) = X µ 0 s n T heißt auch Testgröße, Prüfgröße, Stichprobenfunktion. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 277 / 566

8 Hypothesentest Allgemein Tests Einführung Die Entscheidung für H A oder für H 0 wird anhand einer Teststatistik T = T(x 1,..., x n ) gefällt. Liegt der Wert von T in einem vorher bestimmten Bereich K, dem sogen. Ablehnungsbereich oder kritischen Bereich, dann wird H 0 abgelehnt, anderenfalls wird H 0 nicht abgelehnt. T K H 0 ablehnen, Entscheidung für H A T K H 0 nicht ablehnen, Entscheidung für H 0. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 278 / 566

9 Hypothesentest Annahme- und Ablehnungsbereich Tests Einführung a) H 0 : µ µ 0 H A : µ > µ 0 große Werte von T sprechen für H A. Annahmebereich Krit.Bereich... t krit b) H 0 µ µ 0 H A : µ < µ 0 kleine Werte von T sprechen für H A. Krit.B. Annahmebereich... t krit c) H 0 : µ = µ 0 H A : µ µ 0 große Werte von T sprechen für H A. Annahmebereich.... t krit t krit W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 279 / 566

10 Hypothesentest Fehler 1. Art, Fehler 2. Art Tests Einführung Fehler 1.Art Entscheidung für H A obwohl H 0 richtig ist. Fehler 2.Art Entscheidung für H 0 obwohl H A richtig ist Entscheidung Entscheidung für H 0 für H A H 0 richtig richtig, Sicher- Fehler 1. Art heitswkt. 1 α Fehlerwkt. α. H A richtig Fehler 2.Art richtig, Fehlerwkt. 1-β Güte β Entscheidung für H 0 heißt nicht notwendig, dass H 0 richtig ist. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 280 / 566

11 Hypothesentest Fehler 1. Art, Fehler 2. Art Tests Einführung α und (1 β) können nicht gleichzeitig minimiert werden. Man gibt α vor (z.b. α = 0.05), d.h. man behält α unter Kontrolle und versucht die Teststatistik so zu definieren, daß β maximal wird. β (und manchmal auch α) hängen von wahren (i.a. unbekannten) Parametern ab. Signifikanzniveau α = sup θ Θ0 β(θ). Θ 0 : Nullhypothesenraum, also z.b. die Menge {µ : µ µ 0 } oder {µ : µ = µ 0 }. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 281 / 566

12 Gütefunktion Tests Einführung Gütefunktion β = β(θ) = β(µ) = P µ (T K) K heißt Ablehnungsbereich oder Kritischer Bereich. Beispiel: t-test β(µ) = P(T K) K: kritischer Bereich = P(T > t 1 α,n 1 µ, σ 2 ) = 1 CDF( T, t 1 α,n 1, n 1, nc) nc = n µ µ 0 : Nichtzentralitätsparameter σ t 1 α,n 1 : kritischer Wert K = [t 1 α,n 1, ): kritischer Bereich. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 283 / 566

13 Gütefunktion Tests Einführung Einseitiger Test Zweiseitiger Test Test_Guete_t.sas Test_Guete_t2.sas W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 285 / 566

14 Gütefunktion Tests Einführung Ideal: Unter H 0 : Güte 0 (d.h. Fehler 1. Art =0) Unter H A : Güte 1 (d.h. Fehler 2. Art =0) Das ist aber nicht möglich! Ziel: Test mit möglichst großer Gütefunktion (unter H A ). Wir schlagen natürlich nur solche sinnvollen Tests vor. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 286 / 566

15 Lagetests (bei Normalverteilungsannahme) Tests Einführung Einstichprobenproblem H 0 : µ µ 0 H A : µ > µ 0 H 0 : µ µ 0 H A : µ < µ 0 H 0 : µ = µ 0 H A : µ µ 0 Zweistichprobenproblem H 0 : µ 1 µ 2 H A : µ 1 > µ 2 H 0 : µ 1 µ 2 H A : µ 1 < µ 2 H 0 : µ 1 = µ 2 H A : µ 1 µ 2 Einstichproben t-test PROC UNIVARIATE PROC TTEST Einstichproben t-test (verbundene Stichproben) t-test (unverbundene Stichproben) PROC UNIVARIATE PROC TTEST W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 287 / 566

16 Lage- und Skalentests (bei Normalverteilungsannahme) Einführung c-stichprobenproblem H 0 : µ 1 =... = µ c H A : (i, j) : µ i µ j einfache Varianzanalyse PROC ANOVA, PROC GLM Andere Alternativen sind: µ 1... µ c µ 1... µ c Skalentest Zwei unverbundene Stichproben H 0 : σ 2 1 = σ 2 2 H A : σ 2 1 σ 2 2 PROC TTEST (bei Normalverteilung) W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 288 / 566

17 p-werte Tests Einführung bisher: H 0 abgelehnt oder H 0 beibehalten wenig informativ. Wir könnten uns auch bei jedem α fragen, ob H 0 abgelehnt wird oder nicht. Wenn der Test bei Signifikanzniveau α ablehnt, wird er das auch für α > α tun. Es gibt also ein kleinstes α, bei dem der Test H 0 ablehnt. Der p-wert ist das kleinste α, bei dem wir H 0 ablehnen können. Test_t_p_value W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 290 / 566

18 Einführung p-wert T: (zufällige) Teststatistik, t: beobachtete Teststatistik Zweiseitige Alternative: µ µ 0 p-wert = P 0 ( T > t ) Einseitige Alternative: µ < µ 0 p-wert = P 0 (T < t) Einseitige Alternative: µ > µ 0 p-wert = P 0 (T > t) Der p-wert heißt auch Überschreitungswahrscheinlichkeit. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 291 / 566

19 p-wert Illustration Tests Einführung Einseitiger Test Zweiseitiger Test Fäche unter der Dichte rechts der schwarzen Linie: Fäche unter der Dichte rechts der roten Linie: p-wert halber p-wert links entsprechend. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 292 / 566

20 Einführung Bewertung von p-werten Der p-wert ist also, grob, ein Maß für den Grad dafür, dass die Nullhypothese nicht zutrifft. (vorsichtige) Interpretation p-wert Grad des Nicht-Zutreffens von H 0 < 0.01 sehr streng gegen H streng gegen H schwach gegen H 0 > 0.1 wenig oder gar nichts gegen H 0 Warnung: Ein großer p-wert heisst noch lange nicht, dass H 0 zutrifft. H 0 kann zutreffen, Der große p-wert kann aber auch daran liegen, dass der Test niedrige Güte hat! W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 293 / 566

21 Einführung p-wert und kritischer Wert Einseitiger Test, t krit = t 1 α t t krit p-wert α = H 0 angenommen, t > t krit p-wert < α = H 0 abgelehnt. Zweiseitiger Test, t krit = t 1 α/2 t t krit p-wert α = H 0 angenommen, t > t krit p-wert < α = H 0 abgelehnt. Ausgabe bei SAS Wenn nicht anders vermerkt: zweiseitige p-werte. Der p-wert ist nicht die Wahrscheinlichkeit, dass H 0 zurifft P(H 0 Daten) p-wert. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 294 / 566

22 5.2 Einstichprobenproblem Einstichprobenproblem Nulhypothese Alternative a) H 0 : µ µ 0 H A : µ > µ 0 b) H 0 : µ µ 0 H A : µ < µ 0 c) H 0 : µ = µ 0 H A : µ µ 0 Teststatistik T(X 1,..., X n ) = X µ 0 s Durchführung des Tests mit PROC UNIVARIATE MU0=µ 0 ; PROC TTEST H0=µ 0 n oder Student W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 295 / 566

23 Einstichprobenproblem Beispiel: Banknoten Test_t1_Banknote.sas Einstichprobenproblem µ 0 gr p-wert Pr> t > α = 0.05 nosign 2 < < α = 0.05 sign > α = 0.05 nosign < α = 0.05 sign. Das sind also zweiseitge p-werte (Alternative c)). Was machen wir bei Alternative a) oder b)? s.u. vorgegeben: Fehler 1.Art α (Signifikanzniveau) (üblich ist α = 0.05 oder α = 0.01) d.h. P µ0 ( T > t krit ) = α. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 297 / 566

24 Einstichprobenproblem Verteilung der Teststatistik T Nehmen wir in unserem Beispiel an, die Beobachtungen X i N(µ 0, σ 2 ),, i = 1,...,n sind normal und unabhängig, dann hat die (zufällige) Teststatistik T eine t-verteilung (Student s t), T = n(x µ0 ) s N(0, 1) 1 n 1 χ2 n 1 =: t n 1 (t-verteilung mit n 1 Freiheitsgraden) und t krit = t 1 α 2,n 1 ist (1 α ) - Quantil einer t-verteilung mit n 1 Freiheitsgraden. 2 W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 298 / 566

25 Einstichprobenproblem Dichtefunktion einer t-verteilung mit ν(= n 1) Freiheitsgraden (FG) f tν (x) = Γ( ν+1 2 ) ν π Γ( ν 2 x2 ν+1 (1 + ) ν ) 2 PDF( T, x, ν) Test_t_Dichte.sas W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 300 / 566

26 Einstichprobenproblem t-test Einstichprobenproblem a) H 0 : µ µ 0 H A : µ > µ 0 große Werte von T = X µ 0 s n indizieren Gültigkeit von H A. b) H 0 : µ µ 0 H A : µ < µ 0 kleine Werte von T indizieren H A c) H 0 : µ = µ 0 H A : µ µ 0 T groß indiziert Gültigkeit von H A. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 301 / 566

27 Hypothesentest Annahme- und Ablehnungsbereich Tests Einstichprobenproblem a) H 0 : µ µ 0 H A : µ > µ 0 große Werte von T sprechen für H A. Annahmebereich Krit.Bereich... t krit b) H 0 µ µ 0 H A : µ < µ 0 kleine Werte von T sprechen für H A. Krit.B. Annahmebereich... t krit c) H 0 : µ = µ 0 H A : µ µ 0 große Werte von T sprechen für H A. Annahmebereich.... t krit t krit W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 302 / 566

28 Hypothesentest Sei jetzt t eine Realisierung von T. Tests Einstichprobenproblem Zweiseitige Alternative H A : µ µ 0 Wenn t > t krit = t 1 α 2,n 1 so H 0 abgelehnt. Wenn t t krit = t 1 α 2,n 1 so H 0 nicht abgel. Abl. Annahme Ablehnung t krit 0 t t krit Einseitige Alternative H A : µ > µ 0 Wenn t > t krit = t 1 α,n 1 so H 0 abgelehnt. Wenn t t krit = t 1 α,n 1 so H 0 nicht abgel. Annahme Ablehnung t t krit Einseitige Alternative: H A : µ < µ 0 Wenn t < t krit = t α,n 1 so H 0 abgelehnt. Wenn t t krit = t α,n 1 so H 0 nicht abgel. Ablehnung Annahme t krit 0 t W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 303 / 566

29 Einstichprobenproblem p-werte bei einseitigen Alternativen Erinnerung: Der zweiseitige p-wert ist: P( T > t). P( T > t) = P((T > t) ( T > t)) = P((T > t) (T < t)) = 2 P(T > t), t > 0 P(T > t) = P(T < t) = 1 P(T t) = 1 1 P( T > t), t 0 2 (Die Verteilung von T ist stetig und symmetrisch.) W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 304 / 566

30 Einstichprobenproblem p-werte bei einseitigen Alternativen Fall a) H 0 : µ µ 0 H a : µ > µ 0 { 1 P( T > t), falls t > 0 2 p-wert = P(T > t) = 1 1 P( T > t), falls t 0 2 Ablehnung von H 0 falls P(T > t) < α. Die p-werte von SAS sind zweiseitig, sie sind also (wenn t > 0) durch 2 zu dividieren (wenn t 0 wird H 0 ohnehin nicht abgelehnt) W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 305 / 566

31 Einstichprobenproblem p-werte bei einseitigen Alternativen Fall b) H 0 : µ µ 0 H a : µ < µ 0 { 1 P( T > t ), falls t 0 2 p-wert = P(T < t) = 1 1 P( T > t), falls t > 0 2 Ablehnung von H 0 falls P(T < t) < α also wenn t < 0 so SAS-p-Wert durch 2 teilen! Im Fall der zweiseitigen Alternative (c) ist der p-wert P( T > t) genau das was SAS ausgibt, wir brauchen also nichts zu ändern. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 306 / 566

32 Einstichprobenproblem Zusammenfassung Einstichprobenproblem (1) Teststatistik T = n X µ 0 Realisierung t S X = 1 n i X i, S 2 = 1 n 1 i (X i X) 2 Zweiseitige Alternative, H 0 : µ = µ 0 H A : µ µ 0 t > t krit H 0 ablehnen p-value < α H 0 ablehnen Pr > t < α H 0 ablehnen W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 307 / 566

33 Einstichprobenproblem Zusammenfassung Einstichprobenproblem (2) Einseitige Alternative, H 0 : µ µ 0 H A : µ > µ 0 t > 0 und p-value 2 < α H 0 ablehnen Einseitige Alternative, H 0 : µ µ 0 H a : µ < µ 0 t < 0 und p-value 2 < α H 0 ablehnen W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 308 / 566

34 Konfidenzbereiche am Beispiel des t-tests Tests Einstichprobenproblem X N(µ, σ 2 ) n X µ t S n 1 wenn µ der wahre (Lokations-) Parameter ist. P( t 1 α 2,n 1 n X µ t 1 α 2 }{{ s,n 1 ) = 1 α } ( ) Die Ungleichungenen sind äuqivalent zu ( ) s t 1 α n 2,n 1 X µ s t 1 α n 2,n 1 X s n t 1 α 2,n 1 µ X + s n t 1 α 2,n 1 X + s n t 1 α 2,n 1 µ X s n t 1 α 2,n 1 X s n t 1 α 2,n 1 µ X + s n t 1 α 2,n 1 W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 309 / 566

35 Konfidenzbereiche Tests Einstichprobenproblem (1 α) Konfidenzintervall für den (unbekannten) Parameter µ [ s X t 1 α n 2,n 1, X + s ] t 1 α n 2,n 1 PROC TTEST ALPHA=Wert PROC UNIVARIATE ALPHA=Wert CIBASIC ALPHA: Konfidenzniveau (=Signifikanzniveau) CIBASIC: Konfidenzintervalle für µ, σ 2, σ basierend auf Normalverteilung CIPCTLDF: verteilungsfreie Konfidenzintervalle (basierend auf empirischen Quantilen) W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 311 / 566

36 Konfidenzbereiche Beispiel Tests Einstichprobenproblem Test_t1_Banknote Konfidenzintervalle für den Lageparameter µ = E laenge : echt gefälscht α = α = α = nichtparam. KI (für Median) PROC TTEST ALPHA=Wert PROC UNIVARIATE ALPHA=Wert CIBASIC CIPCTLDF W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 313 / 566

37 Einstichprobenproblem Konfidenzintervalle für σ 2 X N(µ, σ 2 ) (n 1) S2 σ 2 χ2 n 1 Dichte einer χ 2 ν-verteilung { 1 x ν/2 1 falls x 0 2 f χ 2 ν (x) = ν/2 Γ( ν 2 )e x/2 0 sonst. Test_Chi2_Dichte W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 315 / 566

38 Einstichprobenproblem Konfidenzintervall für σ 2 auflösen nach σ 2 : P ( χ 2 α/2,n 1 (n 1) S2 σ ) 2 χ2 1 α/2,n 1 = 1 α 1 α = P ( χ 2 S2 α/2,n 1 (n 1) σ ) 2 χ2 1 α/2,n 1 = P ( 1 σ 2 χ 2 1 α/2,n 1 (n 1)S 1 ) 2 χ 2 α/2,n 1 = P ( (n 1)S 2 χ 2 1 α/2,n 1 σ 2 (n 1)S2) χ 2 α/2,n 1 W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 316 / 566

39 Einstichprobenproblem Konfidenzintervall für σ 2 Konfidenzintervall (Vertrauensintervall) für den (unbekannten) Parameter σ 2 [ ] (n 1)s 2 (n 1)s2, χ 2 1 α/2,n 1 χ 2 α/2,n 1 PROC TTEST PROC UNIVARIATE ALPHA CIBASIC CIPCTLDF W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 318 / 566

40 Vergleich zweier abhängiger Gruppen 5.3 Vergleich zweier abhängiger Gruppen (verbundene Stichproben) H 0 : µ 1 = µ 2 H 1 : µ 1 µ 2 H 0 : µ 1 µ 2 H 1 : µ 1 < µ 2 H 0 : µ 1 µ 2 H 1 : µ 1 > µ 2 - Gewicht einer Person zu den Zeitpunkten t 1, t 2. - Banknoten (oben- unten, links - rechts) - Patient nimmt Medikament 1 und 2 - Kreuz- und selbstbefruchtete Pflanzen Test_t2_Banknote Test_t2_Darwin W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 320 / 566

41 Vergleich zweier abhängiger Gruppen Folgende Möglichkeiten: a) Transformation Z := X 1 X 2 und testen auf µ = 0 PROC UNIVARIATE; VAR Z; RUN; oder PROC TTEST H0=0; VAR Z; RUN; b) Mit der Prozedur TTEST: PROC TTEST; PAIRED X1*X2; RUN; W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 322 / 566

42 Vergleich zweier unabhängiger Gruppen 5.4 Vergleich zweier unabhängiger Gruppen (unverbundene Stichproben) H 0 : µ 1 = µ 2 H 1 : µ 1 µ 2 H 0 : µ 1 < µ 2 H 1 : µ 1 µ 2 H 0 : µ 1 > µ 2 H 1 : µ 1 µ 2 - Tibetische Schädel (Sikkim - Kham) - Wasserhärte (Nord - Süd) - Klinikaufenthalt (Klinik1 - Klinik2) - Banknoten (echt - gefälscht) Test_t2_Tibetan Test_t2_Heroin Test_t2_Banknote W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 324 / 566

43 Vergleich zweier unabhängiger Gruppen Vergleich zweier unabhängiger Gruppen X 1 N(µ 1, σ1 2 ), X 2 N(µ 2, σ2 2 ) Fall 1: Varianzen σ1 2, σ2 2 sind gleich Fall 2: Varianzen σ1 2, σ2 2 sind verschieden Fall 1: T = X 1 X 2 W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 325 / 566

44 Vergleich zweier unabhängiger Gruppen Vergleich zweier unabhängiger Gruppen X 1 N(µ 1, σ 2 1 ), X 2 N(µ 2, σ 2 2 ) Fall 1: Varianzen σ1 2, σ2 2 sind gleich Fall 2: Varianzen σ1 2, σ2 2 sind verschieden Fall 1: T = 1 n + 1 m n, m: Umfänge Stichprobe 1 und 2 S 2 1 = 1 n 1 n i=1 X 1 X 2 (n 1)S 2 1 +(m 1)S2 2 n+m 2 (X 1i X 1 ) 2 S 2 2 = 1 m 1 m (X 2i X 2 ) 2 i=1 W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 326 / 566

45 Erläuterung des Quotienten T Vergleich zweier unabhängiger Gruppen X 1 N(µ 1, σ 2 ), X 2 N(µ 2, σ 2 ) X 1 N(µ 1, σ 2 1 n ), X 2 N(µ 2, σ 2 1 m ) (n 1) S 2 σ 2 1 χ2 n 1, (n 1) S 2 σ 2 2 χ2 m 1 X 1 X 2 N(µ 1 µ 2, σ 2 ( 1 n + 1 m )) ( ) 1 (n 1) S 2 σ (m 1) S2 2 χ 2 n+m 2 unter H 0 (µ 1 = µ 2 ). T t n+m 2 W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 327 / 566

46 Vergleich zweier unabhängiger Gruppen Vergleich zweier unabhängiger Gruppen T ist eine Zufallsgröße! Werte von T werden mit gewissen Wktn. angenommen! Die Wkt. dafür, daß T sehr große Werte annimmt (wenn H 0 richtig ist) ist also sehr klein. Sei jetzt t eine Realisierung von T (also der Wert, der bei Ausrechnen anhand der gegebenen Daten entsteht). Wenn jetzt t sehr groß, t K (krit. Bereich) (aber die Wkt. dafür ist sehr klein, wenn H 0 richtig ist) H 0 ablehnen. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 328 / 566

47 Vergleich zweier unabhängiger Gruppen Vergleich zweier unabhängiger Gruppen ungleiche Varianzen Fall 2: Varianzen ungleich T = X 1 X 2 S1 2 n + S2 2 m T t ν approximativ. Die Zahl ν der Freiheitsgrade wird auch approximativ berechnet. (Welch-Test, 1937) SAS bietet Tests für beide Varianten an. Satterthwaite-Approximation (1946). PROC TTEST; CLASS Klassifikationsvariable; VAR auszuwertende Variable(n); RUN; W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 329 / 566

48 Vergleich zweier unabhängiger Gruppen Vergleich zweier unabhängiger Gruppen Welchen Test soll man nehmen? - Aus Vorinformation ist vielleicht bekannt, ob man gleiche Varianzen annehmen kann. - Man kann einen Test auf gleiche Varianzen vorschalten Problem: 2 stufiger Test Wird das Signifikanzniveau eingehalten?? W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 330 / 566

49 Vergleich zweier unabhängiger Gruppen Test auf Gleichheit der Varianzen Voraussetzung: Normalverteilung H 0 : σ 2 1 = σ2 2 H 1 : σ 2 1 σ2 2 F = S2 1 S 2 2 F n 1,m 1 (Fisher-) F- Verteilung mit (n 1, m 1) Freiheitsgraden. F ist Quotient zweier unabhängiger χ 2 -verteilter Zufallsgrößen. H 0 ablehnen, falls s 2 1 s 2 2 < F α 2,n 1,m 1 oder s 2 1 s 2 2 > F 1 α 2,n 1,m 1 W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 331 / 566

50 Vergleich zweier unabhängiger Gruppen Test auf Gleichheit der Varianzen F-Test F α 2,n 1,m 1 = 1 F 1 α 2,m 1,n 1 (beachten: Freiheitsgrade vertauschen sich) H 0 ablehnen, falls s 2 1 s 2 2 s 2 2 s 2 1 < 1 oder F 1 α 2,m 1,n 1 > F 1 α 2,m 1,n 1 oder s 2 1 s 2 2 s 2 1 s 2 2 > F 1 α 2,n 1,m 1 > F 1 α 2,n 1,m 1 W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 332 / 566

51 Vergleich zweier unabhängiger Gruppen Test auf Gleichheit der Varianzen F-Test, prakt. Durchführung s 2 M := max(s 2 1, s2 2 ) s2 m := min(s 2 1, s2 2 ) n M, n m : die entsprechenden Stichprobenumfänge H 0 ablehnen, falls s 2 M s 2 m Formulierung mit p-werten H 0 ablehnen, falls > F 1 α 2,n M 1,n m 1. W nm 1,n m 1 F nm 1,n m 1 P(W nm 1,n m 1 > s2 M ) < α s 2 m 2 W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 334 / 566

52 Vergleich zweier unabhängiger Gruppen Zweistichprobenproblem Output der Prozedur TTEST Konfidenzintervalle für µ 1, µ 2 und für µ 1 µ 2 Für die ersten beiden siehe Abschnitt 5.2 Konfidenzintervalle für µ = µ 1 µ 2 bekommt man analog zum Einstichprobenfall, hier wird die Zweistichproben-t-Teststatistik genommen (die für gleiche Varianzen) und die entsprechenden Ungleichungen umgeformt. Tabelle der durchgeführten t-tests - für gleiche Varianzen (pooled) - für ungleiche Varianzen (Satterthwaite) F-Test zum Vergleich der Varianzen (bitte ignorieren) W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 335 / 566

53 Vergleich zweier unabhängiger Gruppen Ein- und Zweistichprobenproblem Anmerkungen (1) Der F-Test (zum Skalenvergleich) ist sehr empfindlich gegenüber Abweichungen von der Normalverteilungsannahme mit größter Vorsicht genießen. Der Einstichproben- t-test ist nicht robust! Der Zweistichproben t-test ist etwas robuster als der t-test im Einstichprobenproblem Ausreißer können extremen Einfluß haben (ÜA). Wenn Gleichheit der Varianzen unklar t-test mit ungleichen Varianzen nehmen. (ist bei gleichen Varianzen nur ganz wenig weniger effizient) W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 336 / 566

54 Vergleich zweier unabhängiger Gruppen Ein- und Zweistichprobenproblem Anmerkungen (2) Besser nicht auf das Ergebnis des F-Tests verlassen. (Problematik: 2-Stufentest, Nicht-Robustheit). Es gibt robustere Skalentests Levene Test und Brown-Forsythe Test. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 338 / 566

55 Vergleich zweier unabhängiger Gruppen Test auf Gleichheit der Varianzen Levene-Test Bilden die Werte X j := X j X Y j := Y j Y Skalenunterschiede in (X, Y) spiegeln sich jetzt in Lageunterschieden in (X, Y ) wieder. Mit den neuen Beobachtungen wird jetzt ein t-test durchgeführt. Die t-verteilung gilt nur approximativ. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 339 / 566

56 Vergleich zweier unabhängiger Gruppen Test auf Gleichheit der Varianzen Brown-Forsythe Test Analog zum Levene-Test, nur hier bilden wir die Werte X j := X j med i X i Y j := Y j med i Y i Beide Tests sind (einigermaßen) robust gegen Abweichungen von der Normalverteilung. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 341 / 566

57 Vergleich zweier unabhängiger Gruppen Test auf Gleichheit der Varianzen Syntax PROC ANOVA; CLASS Klasse; MODEL var=klasse; MEANS Klasse / HOVTEST=Levene (TYPE=ABS); MEANS Klasse / HOVTEST=BF; RUN; Test_t2_Banknote W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 343 / 566

58 Varianzanalyse Vergleich von k unabhängigen Gruppen (einfaktorielle, einfache Varianzanalyse) A: Faktor (Gruppenvariable) mit k Stufen (Faktorstufen) Modell Y ij = µ + α i + ǫ ij, i = 1...k, j = 1...n i µ: Gesamterwartungswert α i : Effekt der i-ten Stufe von A ǫ ij : Fehler, ǫ ij (0, σ 2 ) Y ij : j-te Beobachtung der i-ten Faktorstufe k i=1 α i = 0 Parametrisierungsbedingung W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 344 / 566

59 Einfache Varianzanalyse Varianzanalyse H 0 : α 1 = α 2 =... = α k H 1 : α i α l (für ein i l) Im Fall k = 2 führt dieses Testproblem auf das Zweistichprobenproblem ( t-test). Output der Maschinen gleich? Klausurergebnisse unterschiedlich? Mageninhalt der Eidechsen gleich? Cortisolgehalt unterschiedlich? ANOVA_Maschinen Varianzanalyse_Modelle\PI12erg GLM_Eidechsen GLM_Cortisol W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 346 / 566

60 Varianzanalyse Tests Varianzanalyse Varianzanalyse macht eine Streuungszerlegung: Gesamt- = Varianz zwischen + Varianz innerhalb varianz den Faktorstufen der Faktorstufen SST = SSB + SSW (SSE) (Total) (Between) (Within) (Error) N = Y i = 1 n i Y ij, n i j=1 k i=1 n i Y = 1 N i,j Y i,j W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 347 / 566

61 Einfache Varianzanalyse Varianzanalyse Satz: Es gilt wobei SSB + SSW = SST SSB = SSW = SST = k n i (Y i Y) 2 (Between) i=1 k n i (Y ij Y i ) 2 (Within) i=1 j=1 k n i (Y ij Y) 2. (Total) i=1 j=1 W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 348 / 566

62 Einfache Varianzanalyse Varianzanalyse Satz: SSB + SSW = SST Beweis: SSB = i n i Y 2 i 2 N Y 2 + Y 2 N SSB + SSW = SSW = i,j Yij 2 2 n i Y 2 i + i i n i Y 2 i = i,j = i,j Yij 2 + n i Y 2 i N Y 2 n i Y 2 i i i Yij 2 N Y2 = (Y ij Y) 2 = SST j i W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 349 / 566

63 Varianzanalyse Tests Varianzanalyse PROC ANOVA; CLASS A; /*A: Faktor */ MODEL var=a; MEANS A / HOVTEST=Levene (TYPE=ABS); oder HOVTEST=BF; MEANS OUT=SAS-Ausgabedatei; RUN; oder: PROC GLM anstelle von PROC ANOVA; und weiter wie oben. ANOVA: schneller GLM: zusätzliche Auswertungen möglich, z.b. Ausgabe der Residuen HOVTEST: Test auf Varianzhomogenität W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 350 / 566

64 Einfache Varianzanalyse Varianzanalyse Dependent Variable: Y Source DF Sum of Mean F-value Pr > F Squares Squares MSB MODEL k-1 SSB(M) MSB p-wert MSE ERROR N-k SSW(E) MSE Total N-1 SST MSB = SSB k 1, SSW MSE = N k H 0 : α 1 = = α k H 1 : (i, j) : α i α j W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 351 / 566

65 Einfache Varianzanalyse H 0 wird getestet mit F = MSB MSE Varianzanalyse = Mittlere Var. zwischen d. Gruppen Mittlere Var. innerhalb d. Gruppen = N k k 1 SSB SSW = N k k 1 F groß, F > F 1 α,k 1,N k H 0 abgelehnt SST SSW SSW Bestimmtheitsmaß R 2 := SSB SST SSW = = 1 SSW SST SST SST Der Anteil der Varianz, der durch das Modell bestimmt wird, heißt Bestimmtheitsmaß W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 352 / 566

66 Einfache Varianzanalyse Offenbar: 0 R 2 1. Varianzanalyse F = MSB MSE = N k k 1 SSB SST SST SSW = N k k 1 R 2 1 R 2 R 2 0 = F 0 R 2 1 = F. Schätzung der Modellstandardabweichung σ RootMSE = 1 MSE = Variationskoeffizient CV = 100 RootMSE Y N k SSE W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 353 / 566

67 Varianzanalyse Einfache Varianzanalyse Anmerkungen Der F-Test in der Varianzanalyse ist (einigermaßen) robust gegenüber Abweichungen von der Normalverteilungsannahme Wenn man die Prozedur GLM verwendet, dann kann man die sogen. Residuen ˆǫ ij = Y ij ˆα i ˆµ abspeichern (Option RESIDUAL im OUTPUT-Statement) und auf Normalität testen. (PROC UNIVARIATE NORMAL) W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 354 / 566

68 Varianzanalyse Varianzanalyse F-Test verlangt auch Varianzhomogenität Daten balanziert (gleiche Stichprobenumfänge) Abweichungen nicht so schwerwiegend. Wenn die Varianzen verschieden sind, kann die Welch-Modifikation verwendet werden: MEANS Var/WELCH; W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 355 / 566

69 Varianzanalyse Einfache Varianzanalyse Test auf Varianzhomogenität H 0 : σ 2 1 = σ2 2 =... = σ2 k H 1 : (i, l) : σ 2 i σ 2 l Levene Test (1960) HOVTEST= LEVENE im MEANS-Statement Z ij = Y ij Y i. Brown-Forsythe-Test (1974) HOVTEST = BF Z ij = Y ij medy i W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 356 / 566

70 Einfache Varianzanalyse Test auf Varianzhomogenität (2) Varianzanalyse Mit diesen neuen ZV wird eine Varianzanalyse durchgeführt. W = 1 k 1 1 N k ni (Z i. Z ) 2 i,j (Z ij Z i.) 2 F k 1,N k. GLM_Cortisol W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 358 / 566

71 Varianzanalyse Geometrische Veranschaulichung zur Varaianzanalyse Y = (Y 11,..., Y knk ) Dimension N Ŷ = (Y 1,...,Y }{{} 1,...,Y k,...,y k ) }{{} n 1 mal n 2 mal Y = (Y,...,Y }{{} ), SST Y = 1 N i,j Y ij Y Y SSE... 0 γ SSB Ŷ Y SSB + SSW = SST R 2 = cos 2 γ Ŷ Y 2 + Y Ŷ 2 = Y Y 2 W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 359 / 566

72 Varianzanalyse Multiple Vergleiche Problemstellung: H 0 abgelehnt, aber zwischen welchen Faktorstufen liegt der Unterschied? Idee: Alle Paarvergleiche machen. Problem: Wenn wir das Signifikanzniveau α(= 0.05) so lassen, wird das Testniveau nicht eingehalten! Veranschaulichung: Bei 20 gleichzeitigen Tests können wir 20 α = 1 Ablehnung erwarten, auch wenn H 0 richtig ist. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 360 / 566

73 Multiple Vergleiche Lösungsmöglichkeiten Tests Varianzanalyse Option BON im MEANS Statement Signifikanzniveau für die gleichzeitigen Tests herabsetzen auf α nom ( 2), k bei k = 4 wäre das etwa αnom ( 4 2) = Begründung: Bonferroni-Ungleichung. Option TUKEY im MEANS Statement Bilden die Y j und die Spannweite dazu w = max i,j Y i Y j Dazu kommt noch die empirische Standardabweichung s. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 361 / 566

74 Multiple Vergleiche Lösungsmöglichkeiten Tests Varianzanalyse Option TUKEY im MEANS Statement tmax = w s die sogenannnte studentisierte Spannweite. Diese hat (wenn die Y i N ) eine (dem SAS-Programmierer) wohlbekannte Verteilung, und entsprechende Quantile und kritische Werte. Damit erhalten wir simultane Konfidenzintervalle für alle Paardifferenzen µ i µ j. Liegt 0 nicht darin, so wird H 0,ij : µ i = µ j abgelehnt zugunsten von H A,ij : µ i µ j. Bem.: Es gibt eine Fülle weiterer Varianten. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 362 / 566

75 Vergleich k verbundener Stichproben 5.6 Vergleich k verbundener Stichproben 2-faktorielle Varianzanalyse Modell: i = 1,...,a, j = 1,...,b. Y ij = µ + α i + β j + ǫ ij, ǫ ij (0, σ 2 ) Das Modell ist überparametrisiert, Bedingung: a i=1 α i = 0, b j=1 β j = 0. Folgene Hypothesen sind zu testen: H 0a : α 1 = = α a = 0 gegen H 1a : (i 1, i 2 ) : α i1 α i2 H 0b : β 1 = = β b = 0 gegen H 1a : (j 1, j 2 ) : β j1 β j2 GLM_Synchro GLM_Cache (eine Beobachtung je Zelle) W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 364 / 566

76 2-faktorielle Varianzanalyse Vergleich k verbundener Stichproben 1 a b Y.. = Y ij arith. Mittel aller Beob. a b i=1 j=1 Y i. = 1 b Y ij Mittel der i-ten Stufe von A b j=1 Y.j = 1 a Y ij Mittel der j-ten Stufe von B a i=1 a b SSA := b (Y i. Y.. ) 2 SSB := a (Y.j Y.. ) 2 SSE := SST := i=1 a i=1 a b (Y ij Y i. Y.j + Y.. ) 2 j=1 i=1 j=1 b (Y ij Y.. ) 2 j=1 W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 365 / 566

77 2-faktorielle Varianzanalyse Quadratsummenzerlegung Vergleich k verbundener Stichproben Dependent Variable: Y Source DF Sum Mean F-value Pr > F Squ. Squ. p-value A a-1 SSA MSA MSA MSE H 1a H 1b MSB B b-1 SSB MSB MSE Model a+b-2 SSM MSM MSM H MSE 1 Error (a-1)(b-1) SSE MSE Total a b - 1 SST SSM = SSA + SSB MSA = MSM = SSA (a 1) SSA + SSB a + b 2 SST = SSA + SSB + SSE MSB = SSB (b 1) SSE MSE = (a 1)(b 1) W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 366 / 566

78 2-faktorielle Varianzanalyse Tests H 0a gegen H 1a : F 1 = MSA MSE H 0b gegen H 1b : F 2 = MSB MSE Vergleich k verbundener Stichproben = mittl. Var. zwischen Stufen von A mittl. Var. innerhalb d. Gruppen F 1 F a 1,(a 1)(b 1) = mittl. Var. zwischen Stufen von B mittl. Var. innerhalb d. Gruppen F 2 F b 1,(a 1)(b 1) große Werte von F führen zur Ablehnung! F 1 F 2 > F 1 α,a 1,(a 1)(b 1) Ablehnung von H 0a > F 1 α,b 1,(a 1)(b 1) Ablehnung von H 0b W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 367 / 566

79 2-faktorielle Varianzanalyse Tests Vergleich k verbundener Stichproben H 0 : α 1 = α a = 0 und β 1 = β a = 0 gegen H 1 : (i 1, i 2 ): α i1 α i2 (j 1, j 2 ): β j1 β j2. F = MSModell MSE = SSA + SSB SSE (a 1)(b 1) a + b 2 MSModell = SSModell a + b 2 SSModell = SSA + SSB. H 0 ablehnen, falls F > F 1 α,a+b 2,(a 1)(b 1). W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 368 / 566

80 Vergleich k verbundener Stichproben Zweifaktorielle Varianzanalyse PROC GLM; CLASS A B; /*die beiden Faktoren*/ MODEL Y = A B; RUN; Output Balanzierter Fall: Variante I und III identisch Unbalanzierter Fall: Typ III-Summen sind vorzuziehen, da der entsprechende Test unabhängig von den Stichprobenumfängen ist. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 369 / 566

81 Vergleich k verbundener Stichproben 5.7 Weitere Varianzanalyse-Modelle Mehrere Beobachtungen pro Kombination der Faktoren A und B SAS-Prozedur ändert sich nicht! Output ändert sich gegebenenfalls a) balanzierter Fall eindeutig b) unbalanzierter Fall Es gibt verschiedene Möglichkeiten die Fehlerquadratsummen zu zerlegen. SAS bietet die Varianten an 3 Forscher graben eine Reihe von Schädeln in 3 verschiedenen Schichten aus. Gemessen wird die Nasenlänge.? Forschereffekt, Schichteneffekt W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 370 / 566

82 Vergleich k verbundener Stichproben Weitere Varianzanalyse-Modelle Mehrere Beobachtungen pro Kombination der Faktoren A und B Klinische Untersuchung in mehreren Zentren Ein Medikament zur Gewichtsreduktion soll getestet werden. 1: Medikament 0: Placebo 1-6: Zentren Modell: Y ijk = µ + α i + β j + ǫ ijk, ǫ ijk N(0, σ 2 ) Es interessiert nur das Medikament, nicht das Zentrum: H 0 : α 0 = α 1 H 1 : α 0 < α 1 W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 371 / 566

83 Vergleich k verbundener Stichproben Weitere Varianzanalyse-Modelle PROC GLM; CLASS Medik Zentrum; /*die beiden Faktoren*/ MODEL Y = Medik Zentrum; RUN; (dieselbe Prozedur wie oben) GLM_Drugeffect Zum Output: wie bisher. Balanzierter Fall: Variante I und III identisch. Unbalanzierter Fall: Typ III-Summen zu bevorzugen, da der entsprechende Test unabhängig von den Stichprobenumfängen ist. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 373 / 566

84 Vergleich k verbundener Stichproben Weitere Varianzanalyse-Modelle Wechselwirkungen ins Modell mit aufnehmen Y ijk = α + α i + β j + γ ij + ǫ ijk (+Reparametrisierungsbedingungen) geht nur, wenn für jede Faktorstufenkombination mehrere Beobachtungen vorliegen. PROC GLM; CLASS A B; /*die beiden Faktoren*/ MODEL Y = A B A*B; RUN; GLM_Insekten W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 375 / 566

85 Vergleich k verbundener Stichproben Weitere Varianzanalyse-Modelle Modell mit Wechselwirkungen Folgene Hypothesen sind zu testen: H 0a : α 1 = = α a = 0 gegen H 1a : (i 1, i 2 ) : α i1 α i2 H 0b : β 1 = = β b = 0 gegen H 1a : (j 1, j 2 ) : β j1 β j2 H 0c : γ 11 = = γ a b = 0 gegen H 1c : (j 1, j 2 ) : γ j1,j 2 0 W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 376 / 566

86 Vergleich k verbundener Stichproben Weitere Varianzanalyse-Modelle Faktoren (Effekte, Faktorstufen) sind zufällig hier ist Schätzung der Varianzkomponenten interessant und evtl. ein Hypothesentest Preisrichter seien zufällig ausgewählt. Die Frage ist, ob die Variabilität in den Scores an den Preisrichtern liegt? Y ij = µ + A }{{} i +b j + ǫ ij zufällig A i (0, σ 2 P) ǫ ij (0, σ 2 ) W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 377 / 566

87 Vergleich k verbundener Stichproben Varianzkomponentenschätzung PROC VARCOMP METHOD=Type1; CLASS Preisrichter Wettkaempfer; MODEL Score = Preisricher; RUN; GLM_syncro_zufaelligeEffekte METHOD=Type1: Auf den Quadratsummen beruhende Varianzschätzungen Annahme: A i, B j und ǫ ij unabhängig. var(y ij ) = var(a i ) + var(b j ) + var(ǫ ij ) Output: Schätzungen für die Varianzkomponenten. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 379 / 566

88 Vergleich k verbundener Stichproben Weitere Varianzanalyse-Modelle 7.4 Mehr als 2 Faktoren Frequenzspektren - höherfaktorielle VA Gemessen wird die Amplitude bei 35 verschiedenen Frequenzen, 4 Füllungen, 3 Richtungen, jede Messung wird 5 mal wiederholt.? Füllungs-, Richtungseffekt, Wiederholungseffekt? Frequenzeffekt? 4 Faktoren. PROC GLM; CLASS A B C D; MODEL Y = A B C D; RUN; /Beratung/Vogt/Glaeser1 W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 381 / 566

89 Vergleich k verbundener Stichproben Weitere Varianzanalyse-Modelle 7.5 Hierarchische Modelle Die Faktoren liegen in hierarch. Ordnung vor. A A1 A2 A3 A4 B11 B12 B13 B21 B22 B23 B31 B32 B33 B41 B42 B43 (mit zufäll. Effekten) Kalzium-Gehalt verschiedener Pflanzen und von verschiedenen Blättern 4 Pflanzen werden zufällig ausgewählt 3 Blätter davon 2 Stichproben zu 100mg von jedem Blatt Frage: Gibt es zwischen Pflanzen oder zwischen Blättern unterschiedliche CA-Konzentrationen? W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 382 / 566

90 Vergleich k verbundener Stichproben Weitere Varianzanalyse-Modelle Hierarchische Modelle (2) Modell Y ijk = µ + A i + B ij + ǫ ijk A i N(0, σa) 2 B ij N(0, σb 2) ǫ ijk N(0, σ 2 ) hier: n=2 a=4 b=3 vary ijk = vara i + varb ij + varǫ ijk = σ 2 a + σ 2 b + σ 2 H 0a : σ 2 a = 0 H 0b : σ 2 b = 0 GLM_hierarch W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 384 / 566

91 Vergleich k verbundener Stichproben Weitere Varianzanalyse-Modelle Hierarchische Modelle (3) PROC GLM; CLASS A B; MODEL Y = A B(A); hierarch. Struktur* RANDOM A B(A); Faktoren sind zufaellig* RUN; PROC VARCOMP; CLASS A B; MODEL Y=A B(A); RUN; W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 386 / 566

92 Anpassungstests 5.8 Anpassungstests 8.1 Einführung empirische Verteilungsfunktion 8.2 EDF-Anpassungstests Kolmogorov-Smirnov-Test Anderson-Darling-Test Cramer-von Mises-Test 8.3 Anpassungstest auf Normalverteilung - Shapiro-Wilk-Test 8.4. Anpassungstests auf weitere Verteilungen W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 387 / 566

93 Anpassungstests Einführung Tests Anpassungstests Problem Klassische Test- und Schätzverfahren sind oft konzipiert unter der Normalverteilungsannahme. Frage Gilt sie überhaupt? W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 388 / 566

94 Anpassungstests Gilt die Normalverteilung? (1) Hampel, 1980, Biometr. Journal Eine Zeitlang glaubte (fast) jeder an das normale Fehlergesetz, die Mathematiker, weil sie es für ein empirisches Faktum hielten, und die Anwender, weil sie es für ein mathematisches Gesetz hielten. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 389 / 566

95 Anpassungstests Gilt die Normalverteilung? (2) Geary 1947, Biometrika Normality is a myth; there never was, and never will be, a normal distribution. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 390 / 566

96 Anpassungstests Tests Anpassungstests (X 1,...,X n ) iid., X i F, F unbekannt. Anpassungstest auf eine spezifizierte Verteilung: H 0 : F = F 0 gegen H 1 : F F 0. I.A. hängt F von unbekannten Parametern ab. Anpassungstest auf eine Normalverteilung: H 0 : F(x) = Φ ( x µ ) σ H 1 : F(x) Φ ( x µ ) σ (µ, σ unbekannt) µ, σ, σ > 0 (Φ: Verteilungsfunktion der Standardnormal.). W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 391 / 566

97 Anpassungstests Tests Anpassungstests Gewicht von Hühnern Abmessungen von Banknoten, oben (echt, falsch) W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 392 / 566

98 Anpassungstests Auf der empirischen Verteilungsfunktion beruhende Tests Empirische Verteilungsfunktion Seien X 1,..., X n unabh. Beobachtungen, X (1)... X (n) die geordneten Beob. Die Funktion 0 x < X (1) i F n (x) = X n (i) x < X (i+1) i = 1...n 1 X (n) x heißt empirische Verteilungsfunktion. Satz v. Glivento-Cantelli: F n (x) F(x). (Hauptsatz der math. Statistik genannt) EDF.sas EDF_2.sas W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 394 / 566

99 Anpassungstests Anpassungstests Auf der empirischen Verteilungsfunktion beruhende Tests Kolmogorov-Smirnov-Test D = sup F n (x) F 0 (x) x Anderson-Darling-Test (F n (x) F 0 (x)) 2 A-sq = n F 0 (x)(1 F 0 (x)) df 0(x) Cramer-von Mises-Test W-sq = n ( Fn (x) F 0 (x) ) 2 df0 (x) W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 395 / 566

100 Anpassungstests Anpassungstests auf Normalverteilung Auf der empirischen Verteilungsfunktion beruhende Tests hier: F 0 (x) = Φ ( x ˆµ ), ˆσ ˆµ = X = 1 n X i, n i=1 ˆσ 2 = s 2 1 n = (X i X) 2 n 1 D D n (Kolmogorov-Verteilung) approx. lim P 0(D < x ) = 1 2 ( 1) k e 2k2 x 2 n n (Kolmogorov, 1933). W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 397 / 566 i=1 k=1

101 Anpassungstests Anpassungstests auf Normalverteilung Auf der empirischen Verteilungsfunktion beruhende Tests Modifikationen für endliche Stichproben (zur Info.) D: D ( n / n) A sq: A-sq ( /n /n 2 ) W-sq: W-sq ( /n) Große Werte von D, A-sq und W-sq führen jeweils zur Ablehnung von H 0. p-werte werden vom Programm berechnet. Test_GoF_Banknote.sas Test_GoFDarwin.sas aufg24.sas W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 399 / 566

102 Anpassungstests Shapiro-Wilk-Test Vorbemerkungen: Tests Anpassungstests X i N(µ, σ 2 ), Y i = X i µ σ i = 1,...,n. Geordnete Beobachtungen: Die Erwartungswerte N(0, 1) X (1)... X (n) Y (1)... Y (n). m i := E(Y (i) ) n! = (i 1)!(n i)! sind bekannt (und vertafelt). tφ i 1 (t)(1 Φ(t)) n i φ(t)dt W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 400 / 566

103 Shapiro-Wilk-Test Tests Anpassungstests Approximation (Blom, 1958) m i m i = Φ 1( i n ) EX (i) X (i) = µ + σm i = µ + σm i + ǫ i einfaches lineares Regressionsmodell mit Parametern µ, σ. Eǫ i = 0, aber die ǫ i sind nicht unabhängig. V := cov(y (i), Y (j) ), m := (m 1,...,m n ) X := (X (1),...,X (n) ). W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 401 / 566

104 Anpassungstests Verallgemeinerter Kleinster Quadrat-Schätzer von σ: ˆσ = m V 1 X m V 1 m wird verglichen mit der gewöhnlichen Standardabweichung s, s 2 = 1 n 1 n (X i X) 2. i=1 W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 402 / 566

105 Anpassungstests Anpassungstests Shapiro-Wilk-Statistik W = ˆσ 2 s 2 (n 1) (m V 1 m) 2 m V 2 m = (h X) 2 n i=1 (X i X) 2 h h wobei h = m V 1 (bekannt, vertafelt). Wegen h i = 0 folgt: W ist Quadrat des (empir.) Korrelationskoeffizienten von h und X: ( n i=1 (X i X)(h i h) ) 2 W = n i=1 (X i X) 2 n i=1 (h i h) 2, W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 404 / 566

106 Anpassungstests ( n i=1 (X i X)(h i h) ) 2 W = n i=1 (X i X) 2 n i=1 (h i h) 2, Offenbar: 0 W 1. W 1 indiziert, dass h = m V 1 ( 2m ): ein Vielfaches von X ist. D.h. die Punkte (m i, X (i) ) liegen etwa auf einer Geraden, was Normalverteilung indiziert. H 0 wird ablehnt, falls W < W α (n). Test_GoF_Shapiro_Wilk.sas W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 406 / 566

107 Anpassungstests Shapiro-Wilk Test Scores des 1 Wettkämpfers (5 Preisrichter) 31.2, 31.2, 31.4, 32.0, 33.1 Mit der Prozedur UNIVARIATE erhalten wir s = und mit der Prozedur GPLOT (Option REGEQN) ˆσ = im Regressionsmodell Y i = µ + σm i + ǫ i Für die Shapiro-Wilk Statistik bekommen wir (c: Normierungsfaktor) W = ˆσ2 s 2 c = W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 407 / 566

108 Anpassungstests Shapiro-Wilk Test Approximative Dichtefunktion von W (unter H 0 ) ( n i=1 (X i X)(h i h) ) 2 W = n i=1 (X i X) 2 n i=1 (h i h) 2, n = 10 n = W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 408 / 566

109 Anpassungstests Tests Anpassungstests SAS verwendet eine Approximation von W. Der Shapiro-Wilk-Test erweist sich für kleinere, mittlere und größere Stichprobenumfänge als geeignetster Test (höchste Güte). Früher wurde meist der sogen. χ 2 -Anpassungstest verwendet. Dieser hat jedoch geringe Güte. W ist etwas besser als A-sq, besser als W-sq, und viel besser als D und χ 2. D ist nur für sehr große Stichprobenumfänge zu empfehlen (n 2000). W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 409 / 566

110 Anpassungstests Tests Anpassungstests Man sollte beim Test auf Normalverteilung das Signifikanzniveau auf α = 0.1 hochsetzen, insbesondere wenn wenig robuste Tests (die NV verlangen) angewendet werden sollen. Robuste Tests haben meist geringen Effizienzverlust bei NV. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 410 / 566

111 Anpassungstests Anpassungstests Durchführung des Tests auf Normalverteilung Unter Verwendung von ˆµ, ˆσ: PROC UNIVARIATE NORMAL; RUN; PROC UNIVARIATE; HISTOGRAM variable / NORMAL; RUN; mit vorgebenen µ, σ: PROC UNIVARIATE; HISTOGRAM variable / NORMAL(mu=0, sigma=1); RUN; Bem.: Mit der Prozedur UNIVARIATE (Kommando HISTOGRAM) können Sie auch auf andere Verteilungen testen. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 412 / 566

112 Anpassungstests Anpassungstests 8.4 Anpassungstests auf weitere Verteilungen χ 2 -Anpassungstest (Pearson, 1900) Prinzip: Daten werden in p Klassen eingeteilt. Klassenhäufigkeiten: N i theoretische Klassenhäufigkeiten: np i X 2 = p (N i np i ) 2 i=1 np i X 2 χ 2 p 1 asymptotisch (bei bekannten µ, σ2 ) (Fisher, 1922) X 2 χ 2 p 3 approx. (bei 2 zu schätzenden Parametern, ML-Schätzung mit gruppierten Daten oder Minimum-χ 2 -Schätzung). W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 413 / 566

113 Anpassungstests χ 2 -Anpassungstest Tests Anpassungstests Nachteile des χ 2 -Anpassungstests Wert von X 2 abhängig von Klasseneinteilung. χ 2 - Anpassungstest auf Normalverteilung hat geringe Güte. Diskrete Verteilungen Hier kann der χ 2 -Anpassungstest genommen werden (natürliche Klasseneinteilung) Prozedur FREQ, Option CHISQ W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 414 / 566

114 Anpassungstests Anpassungstests χ 2 -Anpassungstest Diskrete Gleichverteilung PROC FREQ; TABLES var1 /CHISQ; RUN; Sonstige diskrete Verteilungen wie oben, zusätzlich sind die Einzelwktn. explizit zu formulieren, /CHISQ TESTP=(p 1,..., p k ); Test_GoF_Poisson.sas Anzahlen schon gegeben Die Variablen, die Anzahlen bezeichnen, werden durch ein WEIGHT-Kommando angegeben. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 416 / 566

115 Anpassungstests Anpassungstests EDF-Tests Stetige Verteilungen zugelassen sind: Normal, Gamma, Weibull, Lognormal, Exponential HISTOGRAM var1 / Gamma; Test_GoF_Darwin_1.sas W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 418 / 566

116 Nichtparametrische Tests 5.9. Nichtparametrische Tests Übersicht Es werden die wichtigsten Rang-Analoga zu den Tests in behandelt Einführung Einstichprobenproblem (vgl 5.2), 2 verbundene Stichproben (vgl. 5.3) Vorzeichentest, Vorzeichen-Wilcoxon-Test Zwei unverbundene Stichproben (vgl. 5.4) Wilcoxon-Test Mehrere unabhängige Stichproben (vgl. 5.5) Kruskal-Wallis-Test Mehrere verbundene Stichproben (vgl. 5.6) Friedman-Test W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 419 / 566

117 Nichtparametrische Tests Nichtparametrische Tests Einführung Was tun wenn Normalverteilung nicht vorliegt? Nichtparametrische Tests sie verwenden keine Parameterschätzung (wie X, s) sie halten das Signifikanzniveau (α) für jede stetige Verteilung (approx.) ein. α hängt also nicht von der zugrundeliegenden Verteilungsfunktion ab. sie sind relativ effizient. Der Effizienzverlust bei Normalvert. ist in vielen Fällen gering! Annahme: Verteilungsfunktion ist stetig (wenn nicht anders vermerkt) W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 420 / 566

118 Nichtparametrische Tests Einstichprobenproblem Nulhypothese Alternative a) H 0 : µ µ 0 H A : µ > µ 0 b) H 0 : µ µ 0 H A : µ < µ 0 c) H 0 : µ = µ 0 H A : µ µ 0 Nichtparametrische Tests Vorzeichentest Wie bisher werden die Differenzen X i µ 0 gebildet. { 1 falls X i µ 0 > 0 V i := 0 falls X i µ 0 < 0 V + = n i=1 = # Differenzen mit positivem Vorzeichen W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 421 / 566 V i

119 Nichtparametrische Tests Vorzeichentest (2) Nichtparametrische Tests Bem: Der Fall X i µ 0 = 0 tritt wegen der Stetigkeit der Vf. nur mit Wkt. 0 auf. Sollte der Wert X i µ 0 = 0 trotzdem vorkommen (Meßungenauigkeit) so wird die entspr. Beobachtung weggelassen und der Stichprobenumfang entsprechend verringert. (Nachteil: Es werden gerade Beob. weggelassen, die für die Nullhypothese sprechen!) Es gilt: V + B(n, 1 2 ) (V + = # Erfolge bei n Versuchen mit Wkt. je 1 2 ). krit. Werte können leicht bestimmt werden: BINV(1 α, n, 1 2 ) oder QUANTILE( Binomial,1 α, n, 1 2 ) W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 422 / 566

120 Nichtparametrische Tests Vorzeichentest (3) Teststatistik Nichtparametrische Tests M = V + n (= V+ V ) (zentriertestatistik) 2 2 n + : Realisierung von V + n : Realisierung von V Zweiseitiger p-wert: P( M n + n 2 ) = P( M max(n+, n ) n 2 )=(*) denn n + n n + n n + > n = n 2 n+ n + < n 2 = n n 2 W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 423 / 566

121 Nichtparametrische Tests Vorzeichentest (4) Der p-wert ist gleich Nichtparametrische Tests ( ) = P ( V + n 2 max(n+, n ) n + 2) P ( n 2 V+ max(n +, n ) n ) 2 = P ( V + max(n +, n ) ) + P ( n V + max(n +, n ) ) n ( ) n = 2 ( 1 j 2 )j ( 1 2 )n j j=max(n +,n ) = ( 1 2 )n 1 n j=max(n +,n ) = ( 1 min(n+,n ) 2 )n 1 j=0 ( ) n j W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 424 / 566 ( n j ).

122 Nichtparametrische Tests Vorzeichentest (5) Nichtparametrische Tests Die Verteilung von V + ist diskret, d.h. es gibt nicht zu jedem α einen entsprechenden kritischen Wert. Aber: p-werte gibt es immer, d.h.: p < α H 0 (c) ablehnen M > 0 p 2 < α H 0 (b) ablehnen M < 0 p 2 < α H 0 (a) ablehnen Der Vorzeichentest ist meist nicht sehr effizient (Ausnahme: Verteilung=Doppelexponential) besser ist der Wilcoxon-Vorzeichen-Rangtest W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 425 / 566

5.8 Anpassungstests. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 389 / 419

5.8 Anpassungstests. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 389 / 419 5.8 8.1 Einführung empirische Verteilungsfunktion 8.2 EDF- Kolmogorov-Smirnov-Test Anderson-Darling-Test Cramer-von Mises-Test 8.3 Anpassungstest auf Normalverteilung - Shapiro-Wilk-Test 8.4. auf weitere

Mehr

Einführung in die Induktive Statistik: Testen von Hypothesen

Einführung in die Induktive Statistik: Testen von Hypothesen Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte

Mehr

7. Zusammenfassung. Zusammenfassung

7. Zusammenfassung. Zusammenfassung Zusammenfassung Basiswissen Klassifikation von Merkmalen Wahrscheinlichkeit Zufallsvariable Diskrete Zufallsvariablen (insbes. Binomial) Stetige Zufallsvariablen Normalverteilung Erwartungswert, Varianz

Mehr

1.6 Der Vorzeichentest

1.6 Der Vorzeichentest .6 Der Vorzeichentest In diesem Kapitel soll der Vorzeichentest bzw. Zeichentest vorgestellt werden, mit dem man Hypothesen bezüglich des Medians der unabhängig und identisch stetig verteilten Zufallsvariablen

Mehr

1.8 Kolmogorov-Smirnov-Test auf Normalverteilung

1.8 Kolmogorov-Smirnov-Test auf Normalverteilung 1.8 Kolmogorov-Smirnov-Test auf Normalverteilung Der Kolmogorov-Smirnov-Test ist einer der klassischen Tests zum Überprüfen von Verteilungsvoraussetzungen. Der Test vergleicht die Abweichungen der empirischen

Mehr

Analyse von Querschnittsdaten. Signifikanztests I Basics

Analyse von Querschnittsdaten. Signifikanztests I Basics Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004

Mehr

Kapitel 3 Schließende Statistik

Kapitel 3 Schließende Statistik Beispiel 3.4: (Fortsetzung Bsp. 3.) bekannt: 65 i=1 X i = 6, also ˆp = X = 6 65 = 0, 4 Überprüfen der Voraussetzungen: (1) n = 65 30 () n ˆp = 6 10 (3) n (1 ˆp) = 39 10 Dr. Karsten Webel 194 Beispiel 3.4:

Mehr

Klausur zu Statistik II

Klausur zu Statistik II GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel

Mehr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p

Mehr

Statistik II für Betriebswirte Vorlesung 1

Statistik II für Betriebswirte Vorlesung 1 Statistik II für Betriebswirte Vorlesung 1 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 19. Oktober 2016 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/453

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/453 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/453 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

Statistische Tests für unbekannte Parameter

Statistische Tests für unbekannte Parameter Konfidenzintervall Intervall, das den unbekannten Parameter der Verteilung mit vorgegebener Sicherheit überdeckt ('Genauigkeitsaussage' bzw. Zuverlässigkeit einer Punktschätzung) Statistischer Test Ja-Nein-Entscheidung

Mehr

Schließende Statistik

Schließende Statistik Schließende Statistik Die schließende Statistik befasst sich mit dem Rückschluss von einer Stichprobe auf die Grundgesamtheit (Population). Die Stichprobe muss repräsentativ für die Grundgesamtheit sein.

Mehr

Entscheidung zwischen zwei Möglichkeiten auf der Basis unsicherer (zufälliger) Daten

Entscheidung zwischen zwei Möglichkeiten auf der Basis unsicherer (zufälliger) Daten Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 4.1 4. Statistische Entscheidungsverfahren Entscheidung zwischen zwei Möglichkeiten auf der Basis unsicherer (zufälliger) Daten Beispiel:

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 Hypothesentesten, Fehlerarten und Güte 2 Literatur Kreyszig: Statistische Methoden und ihre Anwendungen, 7.

Mehr

Statistische Tests zu ausgewählten Problemen

Statistische Tests zu ausgewählten Problemen Einführung in die statistische Testtheorie Statistische Tests zu ausgewählten Problemen Teil 4: Nichtparametrische Tests Statistische Testtheorie IV Einführung Beschränkung auf nichtparametrische Testverfahren

Mehr

Einfache Varianzanalyse für unabhängige Stichproben

Einfache Varianzanalyse für unabhängige Stichproben Einfache Varianzanalyse für unabhängige Stichproben VARIANZANALYSE Die Varianzanalyse ist das dem t-test entsprechende Mittel zum Vergleich mehrerer (k 2) Stichprobenmittelwerte. Sie wird hier mit VA abgekürzt,

Mehr

ANalysis Of VAriance (ANOVA) 2/2

ANalysis Of VAriance (ANOVA) 2/2 ANalysis Of VAriance (ANOVA) 2/2 Markus Kalisch 22.10.2014 1 Wdh: ANOVA - Idee ANOVA 1: Zwei Medikamente zur Blutdrucksenkung und Placebo (Faktor X). Gibt es einen sign. Unterschied in der Wirkung (kontinuierlich

Mehr

10. Die Normalverteilungsannahme

10. Die Normalverteilungsannahme 10. Die Normalverteilungsannahme Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher haben wir vorausgesetzt, daß die Beobachtungswerte normalverteilt sind. In diesem Fall kann man

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Formelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade

Formelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade Version 2015 Formelsammlung für das Modul Statistik 2 Bachelor Sven Garbade Prof. Dr. phil. Dipl.-Psych. Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de

Mehr

Test auf den Erwartungswert

Test auf den Erwartungswert Test auf den Erwartungswert Wir interessieren uns für den Erwartungswert µ einer metrischen Zufallsgröße. Beispiele: Alter, Einkommen, Körpergröße, Scorewert... Wir können einseitige oder zweiseitige Hypothesen

Mehr

Statistik II. Statistische Tests. Statistik II

Statistik II. Statistische Tests. Statistik II Statistik II Statistische Tests Statistik II - 12.5.2006 1 Test auf Anteilswert: Binomialtest Sei eine Stichprobe unabhängig, identisch verteilter ZV (i.i.d.). Teile diese Stichprobe in zwei Teilmengen

Mehr

8. Konfidenzintervalle und Hypothesentests

8. Konfidenzintervalle und Hypothesentests 8. Konfidenzintervalle und Hypothesentests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Beispiel. Sie wollen den durchschnittlichen Fruchtsaftgehalt eines bestimmten Orangennektars

Mehr

Kapitel 10 Mittelwert-Tests Einstichproben-Mittelwert-Tests 10.2 Zweistichproben Mittelwert-Tests

Kapitel 10 Mittelwert-Tests Einstichproben-Mittelwert-Tests 10.2 Zweistichproben Mittelwert-Tests Kapitel 10 Mittelwert-Tests 10.1 Einstichproben-Mittelwert-Tests 10.2 Zweistichproben Mittelwert-Tests 10.1 Einstichproben- Mittelwert-Tests 10.1.1 Einstichproben- Gauß-Test Dichtefunktion der Standard-Normalverteilung

Mehr

Grundlagen der Statistik

Grundlagen der Statistik Grundlagen der Statistik Übung 15 009 FernUniversität in Hagen Alle Rechte vorbehalten Fachbereich Wirtschaftswissenschaft Übersicht über die mit den Übungsaufgaben geprüften Lehrzielgruppen Lehrzielgruppe

Mehr

Statistik II: Signifikanztests /1

Statistik II: Signifikanztests /1 Medien Institut : Signifikanztests /1 Dr. Andreas Vlašić Medien Institut (0621) 52 67 44 vlasic@medien-institut.de Gliederung 1. Noch einmal: Grundlagen des Signifikanztests 2. Der chi 2 -Test 3. Der t-test

Mehr

Tests einzelner linearer Hypothesen I

Tests einzelner linearer Hypothesen I 4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen

Mehr

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests ue biostatistik: hypothesen, fehler 1. und. art, power 1/8 h. lettner / physik Hypothesen: Fehler 1. und. Art, Power eines statistischen Tests Die äußerst wichtige Tabelle über die Zusammenhänge zwischen

Mehr

Allgemeines zu Tests. Statistische Hypothesentests

Allgemeines zu Tests. Statistische Hypothesentests Statistische Hypothesentests Allgemeines zu Tests Allgemeines Tests in normalverteilten Grundgesamtheiten Asymptotische Tests Statistischer Test: Verfahren Entscheidungsregel), mit dem auf Basis einer

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 9. Dezember 2010 1 Konfidenzintervalle Idee Schätzung eines Konfidenzintervalls mit der 3-sigma-Regel Grundlagen

Mehr

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,

Mehr

KATA LOGO Mathematik Statistik Roadmap: Von der Hypothese zum p-wert

KATA LOGO Mathematik Statistik Roadmap: Von der Hypothese zum p-wert KATA LOGO Mathematik Statistik Roadmap: Von der Hypothese zum p-wert 0. Das eigentliche Forschungsziel ist: Beweis der eigenen Hypothese H 1 Dafür muss Nullhypothese H 0 falsifiziert werden können Achtung!

Mehr

Ein- und Zweistichprobentests

Ein- und Zweistichprobentests (c) Projekt Neue Statistik 2003 - Lernmodul: Ein- Zweistichprobentests Ein- Zweistichprobentests Worum geht es in diesem Modul? Wiederholung: allgemeines Ablaufschema eines Tests Allgemeine Voraussetzungen

Mehr

Kapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen

Kapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen Induktive Statistik Prof. Dr. W.-D. Heller

Mehr

Zweiseitiger Test für den unbekannten Mittelwert µ einer Normalverteilung bei unbekannter Varianz

Zweiseitiger Test für den unbekannten Mittelwert µ einer Normalverteilung bei unbekannter Varianz Grundlage: Zweiseitiger Test für den unbekannten Mittelwert µ einer Normalverteilung bei unbekannter Varianz Die Testvariable T = X µ 0 S/ n genügt der t-verteilung mit n 1 Freiheitsgraden. Auf der Basis

Mehr

Testen von Hypothesen:

Testen von Hypothesen: Testen von Hypothesen: Ein Beispiel: Eine Firma produziert Reifen. In der Entwicklungsabteilung wurde ein neues Modell entwickelt, das wesentlich ruhiger läuft. Vor der Markteinführung muss aber auch noch

Mehr

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik Kapitel 15 Statistische Testverfahren 15.1. Arten statistischer Test Klassifikation von Stichproben-Tests Einstichproben-Test Zweistichproben-Test - nach der Anzahl der Stichproben - in Abhängigkeit von

Mehr

Auswertung und Lösung

Auswertung und Lösung Dieses Quiz soll Ihnen helfen, Kapitel 4.7 und 4.8 besser zu verstehen. Auswertung und Lösung Abgaben: 71 / 265 Maximal erreichte Punktzahl: 8 Minimal erreichte Punktzahl: 0 Durchschnitt: 5.65 Frage 1

Mehr

1.4 Der Binomialtest. Die Hypothesen: H 0 : p p 0 gegen. gegen H 1 : p p 0. gegen H 1 : p > p 0

1.4 Der Binomialtest. Die Hypothesen: H 0 : p p 0 gegen. gegen H 1 : p p 0. gegen H 1 : p > p 0 1.4 Der Binomialtest Mit dem Binomialtest kann eine Hypothese bezüglich der Wahrscheinlichkeit für das Auftreten einer Kategorie einer dichotomen (es kommen nur zwei Ausprägungen vor, z.b. 0 und 1) Zufallsvariablen

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente... Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden Einführung in Quantitative Methoden Pantelis Christodoulides & Karin Waldherr 4. Juni 2014 Christodoulides / Waldherr Einführung in Quantitative Methoden 1/35 Ein- und Zweiseitige Hypothesen H 0 : p =

Mehr

Prüfgröße: Ist die durch eine Schätzfunktion zugeordnete reelle Zahl (etwa Mittelwert 7 C).

Prüfgröße: Ist die durch eine Schätzfunktion zugeordnete reelle Zahl (etwa Mittelwert 7 C). Statistik Grundlagen Charakterisierung von Verteilungen Einführung Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsverteilungen Schätzen und Testen Korrelation Regression Einführung Aus praktischen Gründen

Mehr

I. Deskriptive Statistik 1

I. Deskriptive Statistik 1 I. Deskriptive Statistik 1 1. Einführung 3 1.1. Grundgesamtheit und Stichprobe.................. 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................

Mehr

Eine Einführung in R: Statistische Tests

Eine Einführung in R: Statistische Tests Eine Einführung in R: Statistische Tests Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig http://www.uni-leipzig.de/ zuber/teaching/ws11/r-kurs/

Mehr

Lösungen zu den Übungsaufgaben in Kapitel 10

Lösungen zu den Übungsaufgaben in Kapitel 10 Lösungen zu den Übungsaufgaben in Kapitel 10 (1) In einer Stichprobe mit n = 10 Personen werden für X folgende Werte beobachtet: {9; 96; 96; 106; 11; 114; 114; 118; 13; 14}. Sie gehen davon aus, dass Mittelwert

Mehr

THEMA: "STATISTIK IN DER PRAXIS TESTEN IST BESSER ALS VERMUTEN" TORSTEN SCHOLZ

THEMA: STATISTIK IN DER PRAXIS TESTEN IST BESSER ALS VERMUTEN TORSTEN SCHOLZ WEBINAR@LUNCHTIME THEMA: "STATISTIK IN DER PRAXIS TESTEN IST BESSER ALS VERMUTEN" TORSTEN SCHOLZ EINLEITENDES BEISPIEL SAT: Standardisierter Test, der von Studienplatzbewerbern an amerikanischen Unis gefordert

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Statistik & Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte

Mehr

Biomathematik für Mediziner, Klausur SS 2001 Seite 1

Biomathematik für Mediziner, Klausur SS 2001 Seite 1 Biomathematik für Mediziner, Klausur SS 2001 Seite 1 Aufgabe 1: Von den Patienten einer Klinik geben 70% an, Masern gehabt zu haben, und 60% erinnerten sich an eine Windpockeninfektion. An mindestens einer

Mehr

Mathematik III - Statistik für MT(Master)

Mathematik III - Statistik für MT(Master) 3. Regressionsanalyse Fachbereich Grundlagenwissenschaften Prof. Dr. Viola Weiß Wintersemester 0/03 Mathematik III - Statistik für MTMaster 3. Empirische Regressionsgerade Optimalitätskriterium: Die Summe

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Einführung in die statistische Testtheorie II

Einführung in die statistische Testtheorie II 1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.

Mehr

Statistik. Ludwig Fahrmeir Rita Künstler Iris Pigeot Gerhard Tutz. Der Weg zur Datenanalyse. Springer. Zweite, verbesserte Auflage

Statistik. Ludwig Fahrmeir Rita Künstler Iris Pigeot Gerhard Tutz. Der Weg zur Datenanalyse. Springer. Zweite, verbesserte Auflage Ludwig Fahrmeir Rita Künstler Iris Pigeot Gerhard Tutz Statistik Der Weg zur Datenanalyse Zweite, verbesserte Auflage Mit 165 Abbildungen und 34 Tabellen Springer Inhaltsverzeichnis Vorwort v 1 Einführung

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 / Übungsaufgaben Prof. Dr. Achim Klenke http://www.aklenke.de 13. Vorlesung: 10.02.2012 1/51 Aufgabe 1 Aufgabenstellung Übungsaufgaben Ein Pharmakonzern möchte ein neues Schlankheitsmedikament

Mehr

Vertiefung der. Wirtschaftsmathematik. und Statistik (Teil Statistik)

Vertiefung der. Wirtschaftsmathematik. und Statistik (Teil Statistik) Selbstkontrollarbeit 1 Vertiefung der Wirtschaftsmathematik und Statistik (Teil Statistik) 18. Januar 2011 Aufgaben Aufgabe 1 Gegeben sei eine binomialverteilte Zufallsvariablen X mit den Parametern N

Mehr

11. Nichtparametrische Tests

11. Nichtparametrische Tests 11. Nichtparametrische Tests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 In Kapitel 8 und 9 haben wir vorausgesetzt, daß die Beobachtungswerte normalverteilt sind. In diesem Fall kann

Mehr

1.3 Das Testen von Hypothesen am Beispiel des Einstichproben t-tests

1.3 Das Testen von Hypothesen am Beispiel des Einstichproben t-tests 1.3 Das Testen von Hypothesen am Beispiel des Einstichproben t-tests Statistische Tests dienen dem Testen von Vermutungen, so genannten Hypothesen, über Eigenschaften der Gesamtheit aller Daten ( Grundgesamtheit

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 19. Januar 2011 1 Nichtparametrische Tests Ordinalskalierte Daten 2 Test für ein Merkmal mit nur zwei Ausprägungen

Mehr

Statistik II für Betriebswirte Vorlesung 3

Statistik II für Betriebswirte Vorlesung 3 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 3 5. November 2013 Beispiel: Aktiensplit (Aczel & Sounderpandan, Aufg. 14-28) Ein Börsenanalyst

Mehr

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007 Mathematik IV für Maschinenbau und Informatik Stochastik Universität Rostock, Institut für Mathematik Sommersemester 007 Prof. Dr. F. Liese Dipl.-Math. M. Helwich Serie Termin: 9. Juni 007 Aufgabe 3 Punkte

Mehr

6. Statistische Hypothesentests

6. Statistische Hypothesentests 6. Statistische Hypothesentests Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang X habe die unbekannte VF F X (x) Interessieren uns für einen unbekannten Parameter θ der Verteilung von

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

1. Erklären Sie den Unterschied zwischen einem einseitigen und zweiseitigen Hypothesentest.

1. Erklären Sie den Unterschied zwischen einem einseitigen und zweiseitigen Hypothesentest. Statistik II Übung 3: Hypothesentests Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier Stichproben). Verwenden

Mehr

Beurteilende Statistik

Beurteilende Statistik Beurteilende Statistik Wahrscheinlichkeitsrechnung und Beurteilende Statistik was ist der Unterschied zwischen den beiden Bereichen? In der Wahrscheinlichkeitstheorie werden aus gegebenen Wahrscheinlichkeiten

Mehr

Wiederholung Hypothesentests Zusammenfassung. Hypothesentests. Statistik I. Sommersemester Statistik I Hypothesentests I (1/36)

Wiederholung Hypothesentests Zusammenfassung. Hypothesentests. Statistik I. Sommersemester Statistik I Hypothesentests I (1/36) Statistik I Sommersemester 2009 Statistik I I (1/36) Wiederholung Grenzwertsatz Konfidenzintervalle Logik des 0.0 0.1 0.2 0.3 0.4 4 2 0 2 4 Statistik I I (2/36) Zum Nachlesen Agresti/Finlay: Kapitel 6+7

Mehr

2.4 Hypothesentests Grundprinzipien statistischer Hypothesentests. Hypothese:

2.4 Hypothesentests Grundprinzipien statistischer Hypothesentests. Hypothese: 2.4.1 Grundprinzipien statistischer Hypothesentests Hypothese: Behauptung einer Tatsache, deren Überprüfung noch aussteht (Leutner in: Endruweit, Trommsdorff: Wörterbuch der Soziologie, 1989). Statistischer

Mehr

Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg

Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg Übungsklausur Lineare le Prof. Dr. H. Toutenburg Aufgabe Ein lineares Regressionsmodell mit der abhängigen Variablen Körpergröße und der unabhängigen Variablen Geschlecht wurde einmal mit der dummykodierten

Mehr

9 Prinzipien der statistischen Hypothesenprüfung

9 Prinzipien der statistischen Hypothesenprüfung 9 Prinzipien der statistischen Hypothesenprüfung Prinzipien der statistischen Hypothesenprüfung Bei der Schätzung eines Populationsparamters soll dessen Wert aus Stichprobendaten erschlossen werden. Wenn

Mehr

Inhaltsverzeichnis. Vorwort

Inhaltsverzeichnis. Vorwort V Vorwort XI 1 Zum Gebrauch dieses Buches 1 1.1 Einführung 1 1.2 Der Text in den Kapiteln 1 1.3 Was Sie bei auftretenden Problemen tun sollten 2 1.4 Wichtig zu wissen 3 1.5 Zahlenbeispiele im Text 3 1.6

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure

Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure Von Prof. Hubert Weber Fachhochschule Regensburg 3., überarbeitete und erweiterte Auflage Mit zahlreichen Bildern, Tabellen sowie

Mehr

Jost Reinecke. 7. Juni 2005

Jost Reinecke. 7. Juni 2005 Universität Bielefeld 7. Juni 2005 Testtheorie Test für unabhängige Stichproben Test für abhängige Stichproben Testtheorie Die Testtheorie beinhaltet eine Reihe von Testverfahren, die sich mit der Überprüfung

Mehr

Statistik für das Psychologiestudium

Statistik für das Psychologiestudium Dieter Rasch / Klaus D. Kubinger Statistik für das Psychologiestudium Mit Softwareunterstützung zur Planung und Auswertung von Untersuchungen sowie zu sequentiellen Verfahren ELSEVIER SPEKTRUM AKADEMISCHER

Mehr

Inhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5

Inhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5 Inhaltsverzeichnis Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite 1.0 Erste Begriffsbildungen 1 1.1 Merkmale und Skalen 5 1.2 Von der Urliste zu Häufigkeitsverteilungen 9 1.2.0 Erste Ordnung

Mehr

Aufgabenblock 4. Da Körpergröße normalverteilt ist, erhalten wir aus der Tabelle der t-verteilung bei df = 19 und α = 0.05 den Wert t 19,97.

Aufgabenblock 4. Da Körpergröße normalverteilt ist, erhalten wir aus der Tabelle der t-verteilung bei df = 19 und α = 0.05 den Wert t 19,97. Aufgabenblock 4 Aufgabe ) Da s = 8. cm nur eine Schätzung für die Streuung der Population ist, müssen wir den geschätzten Standardfehler verwenden. Dieser berechnet sich als n s s 8. ˆ = = =.88. ( n )

Mehr

Analytische Statistik II

Analytische Statistik II Analytische Statistik II Institut für Geographie 1 Schätz- und Teststatistik 2 Das Testen von Hypothesen Während die deskriptive Statistik die Stichproben nur mit Hilfe quantitativer Angaben charakterisiert,

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 23. Dezember 2010 1 Tests für Erwartungswerte Teststatistik Gauß-Test Zusammenhang zu Konfidenzintervallen t-test

Mehr

1 Dichte- und Verteilungsfunktion

1 Dichte- und Verteilungsfunktion Tutorium Yannick Schrör Klausurvorbereitungsaufgaben Statistik Lösungen Yannick.Schroer@rub.de 9.2.26 ID /455 Dichte- und Verteilungsfunktion Ein tüchtiger Professor lässt jährlich 2 Bücher drucken. Die

Mehr

Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, (

Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, ( Kapitel 4 Konfidenzbereiche Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden Teil-Parameter

Mehr

Dipl.-Volksw. Markus Pullen Wintersemester 2012/13

Dipl.-Volksw. Markus Pullen Wintersemester 2012/13 Statistische Auswertungen mit R Universität Kassel, FB 07 Wirtschaftswissenschaften Dipl.-Volksw. Markus Pullen Wintersemester 2012/13 Beispiele 8. Sitzung Konfidenzintervalle, Hypothesentests > # Anwendungsbeispiel

Mehr

Zusammenfassung Stochastik I + II

Zusammenfassung Stochastik I + II Zusammenfassung Stochastik I + II Stephan Kuschel Vorlesung von Dr. Nagel Stochastik I: WS 007/08 Stochastik II: SS 008 zuletzt aktualisiert: 7. Juli 009 Da diese Zusammenfassung den Menschen, die sie

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1 Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne

Mehr

Biostatistik Erne Einfuhrung fur Biowissenschaftler

Biostatistik Erne Einfuhrung fur Biowissenschaftler Matthias Rudolf Wiltrud Kuhlisch Biostatistik Erne Einfuhrung fur Biowissenschaftler PEARSON Studium Inhaltsverzeichnis Vorwort xi Kapitel 1 Einfiihrung 1 1.1 Biostatistik als Bestandteil biowissenschafllicher

Mehr

R. Brinkmann Seite

R. Brinkmann  Seite R. Brinkmann http://brinkmann-du.de Seite 1 24.2.214 Grundlagen zum Hypothesentest Einführung: Wer Entscheidungen zu treffen hat, weiß oft erst im nachhinein ob seine Entscheidung richtig war. Die Unsicherheit

Mehr

3. Das einfache lineare Regressionsmodell

3. Das einfache lineare Regressionsmodell 3. Das einfache lineare Regressionsmodell Ökonometrie: (I) Anwendung statistischer Methoden in der empirischen Forschung in den Wirtschaftswissenschaften Konfrontation ökonomischer Theorien mit Fakten

Mehr

8. Methoden der klassischen multivariaten Statistik

8. Methoden der klassischen multivariaten Statistik 8. Methoden der klassischen multivariaten Statistik 8.1. Darstellung von Daten Voraussetzungen auch in diesem Kapitel: Grundgesamtheit (Datenraum) Ω von Objekten (Fällen, Instanzen), denen J-Tupel von

Mehr

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und Übersicht über die Vorlesung Teil 1: Deskriptive fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 2010 Teil

Mehr

DWT 334/460 csusanne Albers

DWT 334/460 csusanne Albers Die Wahrscheinlichkeit fur den Fehler 1. Art wird mit bezeichnet, und man spricht deshalb gelegentlich vom -Fehler. heit auch Signikanzniveau des Tests. In der Praxis ist es ublich, sich ein Signikanzniveau

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

1 Gemischte Lineare Modelle

1 Gemischte Lineare Modelle 1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst

Mehr

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion Kapitel 12 Stetige Zufallsvariablen 12.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig

Mehr

6. Multivariate Verfahren Zufallszahlen

6. Multivariate Verfahren Zufallszahlen 4. Zufallszahlen 6. Multivariate Verfahren Zufallszahlen - werden nach einem determinist. Algorithmus erzeugt Pseudozufallszahlen - wirken wie zufäll. Zahlen (sollen sie jedenfalls) Algorithmus: Startwert

Mehr

Inhaltsverzeichnis. 2 Kurzbeschreibung von SPSS Der SPSS-Dateneditor Statistische Analysen mit SPSS DieDaten...

Inhaltsverzeichnis. 2 Kurzbeschreibung von SPSS Der SPSS-Dateneditor Statistische Analysen mit SPSS DieDaten... Inhaltsverzeichnis Teil I Einführung 1 Kleine Einführung in R... 3 1.1 Installieren und Starten von R... 3 1.2 R-Befehleausführen... 3 1.3 R-Workspace speichern... 4 1.4 R-History sichern........ 4 1.5

Mehr