Versuch: Zufälliges Ziehen aus der Population

Größe: px
Ab Seite anzeigen:

Download "Versuch: Zufälliges Ziehen aus der Population"

Transkript

1 Wahrscheinlichkeit Ein Test diagnostiziert Kranke zu 99% richtig Gesunde zu 90% richtig 5% der Bevölkerung ist krank? Wie wahrscheinlich ist es, dass jemand krank ist, wenn der Test dies diagnostiziert? Formulierung mit Wahrscheinlichkeiten Versuch: Zufälliges Ziehen aus der Population Mögliche Ereignisse K + : K : Proband ist krank Proband ist gesund T + : Test ist positiv ( krank ) T : Test ist negativ Ereignisse treten ein oder treten nicht ein P : Wahrscheinlichkeit P(K + ) = : wissenschaftlich 5% : informell 11 EF16 1

2 P(K + ) = 05 P (K ) = 95 Gegenereignisse Wahrscheinlichkeiten von Gegenereignissen addieren sich zu 1 P (T + K + ) = 99 P (T K ) = 9 Bedingte Wahrscheinlichkeiten Bedingung nur logisch nicht zeitlich nicht kausal P (T K + ) = 01 P (T + K ) = 1 Gegenereignisse? P (K + T + ) =? 11 EF16 2

3 Bildung neuer Ereignisse Allgemein : A, B : Ereignisse A B : Beide Ereignisse ( A und B ) treten ein A B = B A K + T + : Proband ist krank und Test positiv? P ( K + T + ) =? Anteil der Kranken : 05 ( P (K + ) ) Davon : Anteil positiver Tests : 99 ( P (T + K + ) ) Anteil der Kranken mit positivem Test : (05) (99) = 0495 Formal : P (T + K + ) = P (K + ) P (T + K + ) Allgemein : P(A B) = P(A B) P (B) Folgerung : P(A B) = P(A B) P(B) Formal eigentlich umgekehrt : Zweite Formel ist Definition, erste dann Folgerung P (T + K ) = P (T + K ) P (K ) = (1)(95) = EF16 3

4 Bildung neuer Ereignisse Allgemein : A, B : Ereignisse A B : Mindestens ein Ereigniss ( A oder B ) tritt ein A B = B A Spezieller Gebrauch von oder ( Nicht ausschließend ) Wahrscheinlichkeiten von Vereinigungen Nur für Spezialfall A B = : Leere Menge Unmögliches Ereignis A B = heißt A und B können nicht gemeinsam eintreten Beispiel : K + K = Ist A B =, so P (A B) = P(A) + P(B) 11 EF16 4

5 ? P (T + ) =? T + = (T + K + ) (T + K ) (T + K + ) (T + K ) = P(T + ) = P (T + K + ) + P (T + K ) P(T + ) = = 1445? P (K + T + ) =? P (K + T + ) = P (K+ T + ) P (T + ) P (K + T + ) = = Hier reicht 34 oder EF16 5

6 Ereignisse B 1,, B J heißen (paarweise) disjunkt, wenn nie zwei B j gleichzeitig eintreten können Ereignisse B 1,, B J heißen erschöpfend, wenn immer mindestens ein B j eintritt Beispiele für Ereignisse, die disjunkt und erschöpfend sind : K + und K, ebenso T + und T Totale Wahrscheinlichkeit Voraussetzung : B 1,, B J sind disjunkt und erschöpfend, alle P(B j ) > 0 A ist weiteres Ereignis P ( A ) = J P ( A B j ) P (B j ) j=1 Beispiel : J = 2, B 1 : K +, B 2 : K, A : T + P (T + ) = P (T + K + ) P (K + ) + P (T + K ) P (K ) 11 EF16 6

7 Formel von Bayes Voraussetzung : B 1,, B J sind disjunkt und erschöpfend, alle P(B j ) > 0 A ist weiteres Ereignis, P (A) > 0 Für alle k = 1,, J gilt P ( B k A ) = P ( A B k ) P ( B k ) J P ( A B j ) P (B j ) j=1 Beispiel : B 1 : K +, B 2 : K, A : T +, k = 1 P ( K + T + ) = P (T + K + ) P (K + ) P (T + K + ) P (K + ) + P (T + K ) P (K ) 11 EF16 7

8 Terminologisches P ( B 1 ),, P ( B J ) : Basisraten, a-priori-wahrscheinlichkeiten P ( A B j ) : Übergangswahrscheinlichkeiten P ( B k A ) : a-posteriori-wahrscheinlichkeiten Bayes-Formel : Änderung der Wahrscheinlichkeiten durch Zusatzinformation P ( B k ) P ( B k A ) Im Beispiel : P ( K + ) P ( K + T + ) Konkret : EF16 8

9 Illustration T + T K + K T + K + K T Flächenanalogie Allgemeiner Maßbegriff umfasst ebenso Flächen- wie W-Maße 11 EF16 9

10 Fehlerwahrscheinlichkeit Diagnoseregel 1 ( R1 ) : T + K + T K Fehler : ( T + K ) ( T K + ) Zwei Typen von Fehlern ( T + K ) ( T K + ) = P ( Fehler ) = P ( T + K ) + P ( T K + ) = = 0955 Illustration T + T K + K 11 EF16 10

11 Alternative Regel Diagnoseregel 2 ( R2 ) : T + K T K P ( Fehler ) = P ( K + ) = 05? R2 besser als R1? Nur bei gleicher Gewichtung der Fehlertypen! Kennwerte immer im Zusammenhang sehen! Weitere Kennwerte : P ( K T + ) = 66 ( P ( K + T + ) = 34 ) P ( K T ) = 9994 P ( K + T ) = EF16 11

12 Alternativszenario Jetzt : P ( K + ) = 7 P ( K + T + ) = 96 P ( K T + ) = 04 P ( K T ) = 97 P ( K + T ) = 03 P ( Fehler ) = 037 Vergleich : T + K + K T T + K + K T P(K + T + ) in Abhängigkeit von P(K + ) P(K + T + ) P(K + ) 11 EF16 12

13 Interpretation W : Wahrscheinlichkeit Wieder : P ( K + ) = 05 Bei Herrn NN ist der Test positiv Die W, dass Herr NN krank ist, ist 34? Einfaches Beispiel : Münzwurf Aussage A : Die W für Zahl ist 5 Mögliche Äußerungen : 1 Beim Werfen einer idealen Münze gilt : A 2 Beim Werfen dieser Münze gilt : A 3 Gleich wird diese Münze geworfen A 4 Gerade wurde die Münze geworfen A? Korrekt? Sinnvoll? 11 EF16 13

14 Äußerungen : 1 Beim Werfen einer idealen Münze gilt : A 2 Beim Werfen dieser Münze gilt : A 3 Gleich wird diese Münze geworfen A 4 Gerade wurde die Münze geworfen A Kommentar : 1 Tautologie 2 Frage der Angemessenheit, nicht der Richtigkeit (? ) 3? 4????? Für uns : Wahrscheinlichkeit bezieht sich auf abstrakte Ereignisse Daher : 3 unsinnig, 4 erst recht Keine subjektiven Wahrscheinlichkeiten Subjektive Wahrscheinlichkeiten gibt es bei Bayesianern 11 EF16 14

15 Zitat : Aus den axiomatischen Begründungen der Geometrie, der Algebra, der Topologie und anderer mathematischer Disziplinen weiß man, dass dort davon abgesehen wird, Begriffe wie Punkt und Gerade, Zahl, Umgebung, usw inhaltlich zu definieren Ähnlich hat es sich gezeigt, dass für einen Aufbau der W-Theorie eine inhaltliche Definition von Begriffen wie Ereignis und Wahrscheinlichkeit nicht erforderlich, ja zur Vermeidung logischer Schwierigkeiten und im Hinblick auf eine möglichst umfangreiche und leichte Anwendbarkeit der Theorie nicht einmal erstrebenswert ist Wie in den genannten Disziplinen kommt es auch in der W- Theorie nur auf die formalen Eigenschaften dieser Begriffe an Heinz Bauer 11 EF16 15

16 Datenbeschreibung Gegeben sind 20 Werte einer Variablen X X : Fehleranzahl in Reaktionsexperiment 5 Durchgänge pro Versuchsperson ( Vp ) Anzahl der Vpn : n = 20 Daten : 4, 2, 1, 2, 3, 1, 2, 3, 2, 2, 2, 3, 1, 2, 0, 4, 2, 2, 1, 2 x i : Wert von Vp i x 5 = 3 X ist quantitativ ( Gegensatz : qualitativ ) X ist diskret ( Gegensatz : kontinuierlich ) Leicht verschiedener Sprachgebrauch in der W-Theorie 12 EF16 16

17 Daten ordnen Daten : 4, 2, 1, 2, 3, 1, 2, 3, 2, 2, 2, 3, 1, 2, 0, 4, 2, 2, 1, 2 w j : mögliche Werte ( j = 1, J ) Hier : J = 6, mögliche Werte : 0,, 5 n j : absolute Häufigkeit von w j h j := n j /n : relative Häufigkeit von w j Tabelle j w j n j h j EF16 17

18 Graphische Darstellung w j n j h j Absolute Häufigkeiten ( Balkendiagramm ) 10 ah Relative Häufigkeiten X rh X 12 EF16 18

19 Kennwerte Mittelwert : M X := 1 n n i=1 x i Kurz auch M, falls X aus Kontext klar Hier : M = = 205 Varianz : S 2 X := 1 n n (x i M) 2 i=1 Streuung, Standardabweichung : S X := S 2 X Kurz auch S 2, S, falls X aus Kontext klar Hier : S 2 = = 9475 S = 9475 = 9734 Alternativ : S 2 X = M X 2 ( M X ) 2 Hier : S 2 X = = 9475 Varianz ist Null Daten sind konstant 12 EF16 19

20 Rechentabelle i x i x i M (x i M) 2 x 2 i EF16 20

21 Graphische Darstellung Mittelwert mit Streuungsbalken S S M Mit Balkendiagramm rh X 12 EF16 21

22 Beispiele zur Streuung rh X rh X rh X rh X 12 EF16 22

23 Alternative Berechnung des Mittelwerts Daten : 4, 2, 1, 2, 3, 1, 2, 3, 2, 2, 2, 3, 1, 2, 0, 4, 2, 2, 1, 2 M = 1 20 ( ) Alternativ : M = 1 20 ( ) Zusammenfassen : M = 1 20 ( ) = = = 205 Allgemein : M = 1 n J j=1 n j w j = J j=1 n j n w j = J j=1 h j w j M = J j=1 w j h j 12 EF16 23

24 Ebenso : Varianz, Mittelwert von X 2 Rechentabelle w j h j w j h j w j M (w j M)h j (w j M) 2 (w j M) 2 h j wj 2 wj 2h j Sind a 1,, a m Zahlen und g 1,, g m nichtnegativ ( 0 ) mit g i = 1, so heißt m a i g i i=1 auch gewichtetes Mittel der a i mit Gewichten g i Der Mittelwert ist gewichtetes Mittel der möglichen Werte Gewichte sind die relativen Häufigkeiten Formel der totalen Wahrscheinlichkeit : J P ( A ) = P ( A B j ) P (B j ) j=1 P ( A ) ist gewichtetes Mittel der P ( A B j ) Gewichte sind die a-priori-wahrscheinlichkeiten P (B j ) 12 EF16 24

25 Erwartungswert Typische Sprechweise : Die Fehlerzahl unter Alkoholeinfluss ist größer als die ohne Alkohol? Was heißt Die Fehlerzahl unter Bedingung B? Naheliegend : Durchschnittliche Fehlerzahl, Mittelwert! Aber : Unterschiedliche Mittelwerte bei Replikationen Gegebene Daten und drei Replikationen : rh M = 205 X rh M = 240 X rh M = 245 X rh M = 220 X 13 EF16 25

26 Mittelwerte aus 100 Durchführungen : 205, 240, 245, 220, 245, 270, 175, 180, 240, 210, 195, 230, 235, 260, 265, 235, 230, 175, 230, 160, 230, 210, 220, 250, 250, 250, 210, 230, 210, 230, 230, 165, 255, 215, 230, 270, 245, 170, 255, 255, 225, 190, 200, 160, 230, 275, 230, 240, 190, 255, 200, 240, 200, 240, 205, 200, 205, 280, 195, 230, 220, 295, 180, 250, 220, 210, 180, 240, 200, 230, 205, 225, 220, 275, 205, 200, 210, 215, 215, 225, 210, 225, 230, 200, 240, 250, 230, 285, 240, 270, 280, 175, 285, 205, 225, 210, 240, 250, 240, 215? Zwischenproblem : Geeignete Zusammenfassung Klassenbildung Klasse k n k h k ( 15, 17 ] ( 17, 19 ] ( 19, 21 ] ( 21, 23 ] ( 23, 25 ] ( 25, 27 ] ( 27, 29 ] ( 29, 31 ] n k, h k : Absolute und relative Häufigkeit von Klasse k 13 EF16 26

27 Anmerkungen Schreibweisen für Intervalle ( a, b ] := {x R a < x b} a b R Statt ( a, b ] auch ] a, b ] [ a, b ] := {x R a x b} a b R ( a, b ) = ] a, b [ := {x R a < x < b} a b R [ a, b ) = [ a, b [ := {x R a x < b} [ a, ) := {x R a x} a b R a R Analog : (, b ) = (, b [ etc 13 EF16 27

28 Graphische Darstellung Klassifizierte Daten Klasse k n k h k ( 15, 17 ] ( 17, 19 ] ( 19, 21 ] ( 21, 23 ] ( 23, 25 ] ( 25, 27 ] ( 27, 29 ] ( 29, 31 ] Histogramm rh M Analog : Histogramm der absoluten Häufigkeiten 13 EF16 28

29 Histogramm rh M Geringere Streuung als bei Originaldaten Extreme Werte neutralisieren sich beim Mitteln Balkendiagramme - Histogramme Wenige unterschiedliche Daten, auch qualitativ Balkendiagramm Viele unterschiedliche quantitative Daten Histogramm Nachteil : Informationsverlust durch Klassenbildung Mittelwert und Streuung nur noch ungefähr rekonstruierbar 13 EF16 29

30 Unterschiedliche Histogramme für die gleichen Daten 5 rh rh M M 5 rh rh M M 3 rh rh M M Unterschiedlicher Eindruck je nach Wahl der Klassen 13 EF16 30

31 ? Was heißt Die Fehlerzahl unter Bedingung B? Mittelwert ist untauglich Einführung einer theoretischen Ebene Gegenstück : Empirische Ebene der Daten Theoretische Sichtweise : Die einzelnen Fehlerzahlen treten mit gewissen Wahrscheinlichkeiten auf Aus der Variable X wird eine Zufallsvariable ( Zva ) Dieser Begriff ist in der W-Theorie streng definiert Hier nur etwa : Mögliche Werte + Wahrscheinlichkeiten! Schwierigkeit ( nicht nur ) für Anfänger : Die Wahrscheinlichkeiten sind meistens unbekannt Womöglich prinzipiell Hilfskonstruktion : Olymp der Statistik 13 EF16 31

32 Wahrscheinlichkeit Zufall? Worin besteht der Zufall? Beispielsweise in Auswahl der Vpn Umgebungseinflüsse bei der Untersuchung Innere Zustände der Vpn etc Was dem Zufall überlassen bleibt, ist unterschiedlich in verschiedenen Experimenten in verschiedenen Bedingungen desselben Experiments In unterschiedlichen Experimenten / Bedingungen sind die Wn der möglichen Fehlerzahlen unterschiedlich Aus einer Variable ( informell ) werden unterschiedliche Zvan In festem Experiment : Eine Variable X ( informell ) Aber : So viele Zvan, wie Bedingungen ( X 1, X 2, ) Beispiel : ( Informelle ) Variable X : Fehlerzahl Im Experiment : verschiedene Zvan : X 1 : Fehlerzahl in Bedingung Nüchternheit X 2 : Fehlerzahl in Bedingung Alkohol 13 EF16 32

33 Verteilung Die Verteilung einer Zva X gibt an, wie wahrscheinlich die möglichen Werte x von X sind Mögliche Verteilung der Fehlerzahl X bei Nüchternheit : x P(X = x) X = x : Ereignis, dass X den Wert x annimmt In der Alkoholbedingung wäre die Verteilung anders Graphische Darstellung 1 p Bezeichnung : W-Funktion X 13 EF16 33

34 Erwartungswert Def: Der Erwartungswert E(X) einer Zva X ist E(X) := x x P(X = x) Eine Art Mittelwert auf theoretischer Ebene Gewichtetes Mittel der möglichen Werte x Gewichte : Wahrscheinlichkeiten Vergleiche : Mittelwertberechnung mit relativen Häufigkeiten Berechnungsbeispiel x P(X = x) x P(X = x) E(X) = 225 Hier ist E(X) kein möglicher Wert von X insbesondere kein erwarteter Bezeichnung für Erwartungswerte : Meist µ, µ i, etc 13 EF16 34

35 Graphische Darstellung p µ X Es gibt auch eine Streuung auf theoretischer Ebene? Was heißt Die Fehlerzahl unter Bedingung B etc? Präzisierung meist : Erwartungswert der entsprechenden Zva Diese Präzisierung ist im Vergleich zum Mittelwert M frei von Zufälligkeiten Allerdings : Erwartungswerte sind meist prinzipiell unbekannt 13 EF16 35

36 ? Wie groß sind Wahrscheinlichkeiten, Erwartungswerte,? Meistens streng genommen prinzipiell unbekannt Finde geeignete Schätzungen Beispiel : Würfel X : Ergebnis beim Würfeln Verteilung und Erwartungswert : x P(X = x) x P(X = x) 1 1/6 1/6 2 1/6 2/6 3 1/6 3/6 4 1/6 4/6 5 1/6 5/6 6 1/6 6/ p µ X 13 EF16 36

37 Ein Experiment mit 60 Würfen x abs H rh X Wahre Verteilung : p µ X 13 EF16 37

38 79 Experimente mit je 60 Würfen 13 EF16 38

39 Zusammenfassung zu Gesamtexperiment mit 4740 Würfen x abs H rh X Wahre Verteilung : 3 p µ X 13 EF16 39

40 Eindruck : Es eignen sich als Schätzer die relativen Häufigkeiten für die Wahrscheinlichkeiten der Mittelwert für den Erwartungswert Je größer die Stichprobe, um so besser die Schätzung Für sehr gute Schätzungen braucht man sehr große Stichproben Schätzungen sind fehlerbehaftet Fehler sollte mit wachsendem n kleiner werden 13 EF16 40

41 Stichprobengröße und Fehler Mittelwerte beim Würfeln 2 rh Mittelwerte aus je 15 Durchgängen M 2 rh Mittelwerte aus je 30 Durchgängen M 2 rh Mittelwerte aus je 60 Durchgängen M 13 EF16 41

42 Eindruck : Je größer die Stichprobe, um so näher liegen die Mittelwerte bei µ In der Tat : M ist ein konsistenter Schätzer von µ Vertrauensintervall Mittelwert M liefert Vorstellung über die Lage von µ jedoch : Kein Hinweis auf Genauigkeit der Schätzung Ziel der Vertrauensintervalle ( Konfidenzintervalle ) : Einfangen des Erwartungswerts in einem Intervall mit vorgegebener Wahrscheinlichkeit 13 EF16 42

43 Vertrauensintervall Vorbereitungen Gegeben : Stichprobe mit Werten x 1,, x n einer Variable X Stichprobenumfang : n, Mittelwert : M, Varianz : S 2 Def: Die Zahl s 2 := n n 1 S2 = 1 n 1 n ( x i M ) 2 i=1 heißt korrigierte Stichprobenvarianz, die Zahl s := s 2 korrigierte Stichprobenstreuung heißt Def: Die Zahl s/ n heißt Standardschätzfehler (des Mittelwerts) Abk: SEM ( Standard Error of Mean ) Deutung : Schätzung der Streuung von Mittelwerten von Stichproben des Umfangs n auf der Basis nur einer solchen Stichprobe Vgl S EF16 43

44 Ergebnisdarstellung mit Standardschätzfehler Situation : Experiment zu Alkohol und Reaktionsfähigkeit Zwei Bedingungen : N : Nüchternheitsbedingung A : Alkoholbedingung ( 20 g )? Sinkt die Reaktionsfähigkeit in Bedingung A? Messung mit Variable X : Fehlerzahl bei 5 Durchgängen Allgemeine Sprechweise : Untersucht wird Einfluss einer UV auf eine AV UV : Unabhängige Variable, experimentell manipuliert hier : Alkoholmenge hier : realisiert in zwei Stufen : N und A AV : Abhängige Variable ( abhängig : von der UV ) hier : Fehlerzahl X 13 EF16 44

45 Statistische Formulierung der Frage Aus Variable X werden zwei Zvan : X 1 in Bedingung N, Erwartungswert : µ 1 X 2 in Bedingung A, Erwartungswert : µ 2 Die Verteilungen von X 1 und X 2 sind unbekannt Die Erwartungswerte µ 1 und µ 2 ebenso Nicht ganz korrekte, aber griffige Sprechweise : µ 1 ist der Erwartungswert von X in Bedingung N ( 1 ) µ 2 ist der Erwartungswert von X in Bedingung A ( 2 ) Hypothese : µ 2 > µ 1 Zur Untersuchung dieser Frage : Erhebung der Daten von je 20 Vpn in Bedingung N und A 13 EF16 45

46 Untersuchungsergebnis vielleicht : Stichprobe in N liefert : M 1 = 205, S 2 1 = 9475 rh X Stichprobe in A liefert : M 2 = 285, S 2 2 = rh X Ermittlung der SEM : Stichprobe in N : s 2 1 = S2 1 = = SEM : s 1 20 = = 2233 Analog in A : SEM : EF16 46

47 Mittelwerte mit SEM N : 205 ( 2233 ) A : 285 ( 3267 ) Ergebnisdarstellung ( M ± SEM ) : X 1 N A UV M ± SEM-Bereiche Vorstellung von der Lage der µ i µ 2 > µ 1 ist nicht unplausibel 13 EF16 47

48 Unterschiedliche Fehlerbalken rh M ± S : M ± SEM : X Für SEM : Hier ist n = 20 Unterschied : M ± S : Hinweis auf Lage der Daten M ± SEM : Hinweis auf Lage des Erwartungswerts 13 EF16 48

49 Vertrauensintervall weitere Vorbereitungen Stetige ( theoretische ) Verteilungen ( mit Dichte ) Eine neue Klasse von Verteilungen von Zvan ( diskret ) Verteilung einer Zva X ist charakterisiert durch eine Dichte g g(x) X Zusammenhang mit Wahrscheinlichkeiten : Die Wahrscheinlichkeit für Werte in einem Intervall ist die Fläche über dem Intervall Formal : a b g(x) X P ( X [ a, b ] ) = P ( a X b ) = b a g(x) dx 13 EF16 49

50 Eigenschaften von Dichten und stetigen Verteilungen g(x) X Die Gesamtfläche unter g muss 1 sein Sie ist die W, dass X irgendeinen Wert annimmt Die W für jeden konkreten Wert a ist 0 g(x) a X Die Fläche entartet zu einer Strecke Wahrscheinlichkeit 0 heißt nicht unmöglich 13 EF16 50

51 Zwei Klassen von Verteilungen Diskrete Verteilungen Gekennzeichnet durch W-Funktion p X Höchstens abzählbar viele mögliche Werte Ermittlung von Wahrscheinlichkeiten durch Summation Stetige Verteilungen ( mit Dichte ) Gekennzeichnet durch Dichte g(x) X Überabzählbar unendlich viele mögliche Werte Ermittlung von Wahrscheinlichkeiten durch Integration Alle möglichen Werte haben Wahrscheinlichkeit 0 13 EF16 51

52 t -Verteilungen Eine wichtige Klasse von stetigen Verteilungen Charakterisiert durch die sogenannten Freiheitsgrade df : degree of freedom ( Freiheitsgrad ) Für jedes n 1 gibt es eine t -Verteilung mit n df Bezeichnung : t n Beispiele für t n -Dichtefunktionen : t 100 t 10 t 3 t X 13 EF16 52

53 α-fraktile Gegeben : Stetige Zva X mit Dichte g Def: Das α-fraktil der Verteilung von X ist der Wert, der von der Verteilung rechts α abschneidet g(x) α-fraktil α X α-fraktile sind meistens tabelliert Das α-fraktil der t n -Verteilung heißt t n; α 13 EF16 53

54 Ausschnitt aus einer möglichen Tabelle mit t-fraktilen α-fraktile der t n -Verteilungen ( t n; α ) n \ α Beispiel : t 59; 025 = t X EF16 54

55 Vertrauensintervall für µ VI : Vertrauensintervall Das VI soll µ mit einer vorgegebenen W überdecken Diese W nennt man üblicherweise 1 α Das VI heißt dann auch (1 α) - VI Beispiel : Vorgegebene W : 95 95% Dann : α = 05 Das VI heißt dann auch 95% - VI ( 95 - VI ) Gegeben : Zva X mit E(X) = µ ( unbekannt ) Dazu Stichprobe vom Umfang n Mittelwert : M, korrigierte Stichprobenstreuung : s Für gegebenes α nennt man das Intervall ] M tn1; α/2 s/ n, M + t n1; α/2 s/ n [ auch (1 α) - t - VI für µ 13 EF16 55

56 Unter gewissen Voraussetzungen ist die Wahrscheinlichkeit dafür, dass das (1 α) - t - VI für µ das unbekannte µ tatsächlich enthält, gleich (1 α) Dann trägt das VI also seinen Namen mit vollem Recht! Praktisch sind die Voraussetzungen eigentlich nie erfüllt Trotzdem gilt die W-Aussage sehr oft näherungsweise Beispiel : 60 Mal Würfeln liefert M = 3317, s = 1568? Gesucht : 95% - t - VI für µ VI ist ] M tn1; α/2 s/ n, M + t n1; α/2 s/ n [ t 59; 025 = 2001 t n1; α/2 s/ n = / 60 = 405 VI : ] , [ = ] 2912, 3722 [ Hier ist µ = EF16 56

57 Beispiel : 95% - t - VIe aus 79 Experimenten à 60 Mal Würfeln X µ!!!! 2/79 253% liegt im Toleranzbereich für 05 5% Kein Hinweis auf gravierende Verletzung des Niveaus 95% 13 EF16 57

58 VI und SEM (1 α) - t - VI : ] M tn1; α/2 s/ n, M + t n1; α/2 s/ n [ s/ n = SEM (1 α) - t - VI also auch : ] M tn1; α/2 SEM, M + t n1; α/2 SEM [ (1 α) - t - VI ist M ± SEM, vergrößert um Faktor t n1; α/2 M ± SEM ist eine Art Schablone für die t - VIe Vergrößerungsfaktor für (1 α) - t - VI : t n1; α/2 Grobe Regel ( n nicht zu klein ) : Vergrößerungsfaktor für 95% - t - VI ist etwa 2 Breite des VI wird mit Niveau (1 α) größer wird im Durchschnitt mit n kleiner Wesentlicher Faktor : 1/ n in SEM n 4-mal so groß Breite etwa 1/2-mal so groß etc 13 EF16 58

59 Beispiel : X : Fehlerzahl in Reaktionsexperiment Daten ( n = 20 ) M = 205, SEM : 2233 Ziel : (1 α) - t - VIe für α = 05, 01 t 19; 025 = 20930, t 19; 005 = rh X M ± SEM : 95% - t - VI : 99% - t - VI : ( Faktor : ) ( Faktor : ) 13 EF16 59

60 Ergebnisdarstellung mit VI ( unüblich ) Beispiel : Fehlerzahl in Reaktionsexperiment Bedingungen : N ( nüchtern ) A ( Alkohol ) Je 20 Vpn Mittelwerte ( SEM ) : N : 205 ( 2233 ), A : 285 ( 3267 ) Ergebnisdarstellung ( M ± SEM ) : X 1 N A UV Ergebnisdarstellung ( 95% - t - VI ) : X 1 N A UV 13 EF16 60

61 Interpretation des VI X : Fehlerzahl in Reaktionsexperiment ( E(X) = µ ) 20 Durchgänge liefern M = 205, SEM : % - t - VI für µ : ] 158, 252 [ Versuch einer Interpretation : Die W, dass sich µ in dem Intervall ] 158, 252 [ befindet, ist etwa 95% etwa wegen fehlender Voraussetzungen Die Interpretation bezieht sich auf ein konkretes schon eingetretenes Ereignis! Die Interpretation ist Unsinn Vgl S 57 Mögliche Interpretation : Das Intervall ] 158, 252 [ wurde nach einem Verfahren konstruiert, das ( unter gewissen Voraussetzungen ) mit einer W von 95% ein Intervall liefert, das µ enthält Hier bezieht sich die W-Aussage auf das Verfahren ( abstrakt ) 13 EF16 61

62 Zur Interpretation Richtig ist folgende Aussage : Die W, dass das sich µ in dem Intervall ] M tn1; α/2 s/ n, M + t n1; α/2 s/ n [ befindet, ist etwa 1 α Hier sind M und s gewissermaßen Zvan Das Intervall ist noch zufallsabhängig ( abstrakt ) Unsinnig wird die Aussage beim Einsetzen konkreter Werte Verwechslung von Zvan mit konkreten Werten 13 EF16 62

63 Ergänzung zu etwa? Wie groß ist die W, dass das 95% - t - VI µ enthält, wirklich? Antwortversuche für das Beispiel 60-mal Würfeln Zwei Zugangsweisen : Exakt Rechnen und Simulieren Exakt Rechnen Auflisten aller möglichen Serien von 60 Würfen Jeweils Bestimmung des zugehörigen VI Auszählen, wie oft diese VIe den Wert µ = 35 enthalten Gesuchte W ist Anzahl günstiger Serien Anzahl aller Serien Hier sind alle Serien gleich wahrscheinlich Konkret : Anzahl der Serien ist 6 60 = Benötigte Zeit ( in Jahren à 365 ) bei 5000 Serien pro Sekunde : EF16 63

64 Exakt Rechnen etwas intelligenter Statt Serien : bereits mögliche Häufigkeitsverteilungen Anzahl der möglichen Verteilungen : ( ) 65 = 65! = ! 60! Benötigte Zeit ( bei 5000 Verteilungen/sec ) : etwa 30 Minuten Mögliche Speicherprobleme Immerhin : Exakte Rechnung für kleinere Serien machbar Resultat : 1 p n p : W, dass das 95% - t - VI µ enthält n : Seriengröße 13 EF16 64

65 Ergänzung zu etwa? Wie groß ist die W, dass das 95% - t - VI µ enthält, wirklich? Zugangsweise : Simulieren Vorteil : Simulieren kann jeder Prinzip : Führe Versuch sehr oft durch bei gegebener Verteilung und virtuell Ermittle die relative Häufigkeit h günstiger Ergebnisse Benutze h als Schätzer für die gesuchte W Hier : Erzeuge sehr viele Serien von 60 Würfen Bestimme die relative Häufigkeit h, mit der das VI µ enthält Schätze das wahre Konfidenzniveau durch h 13 EF16 65

66 Virtuelles Würfeln Durch geeignete Computerprogramme Kleines Problem : Computer arbeiten deterministisch Ergebnis : nur Pseudozufallszahlen Vom wirklichen Zufall ( hoffentlich ) nicht unterscheidbar Kontrolle : Häufigkeitsverteilung von simulierten Würfen rh Der Computerwürfel scheint zu funktionieren Verbrauchte Zeit : < 02 sec Beispiel : Zwei Simulationen von 60 Würfen : Der Zufall sieht oft nicht nach Zufall aus Auch nicht in der Realität 13 EF16 66

67 Weitere Kontrolle der Simulation? Wie groß ist die W, dass das 95% - t - VI µ enthält, wirklich? Vergleich von Simulationsergebnissen mit der wahren W Größe der Serie : 20 Wahre W : 9485 Mehrere Simulationen von je Serien liefern 9517, 9515, 9505, 9436, 9483, 9499, 9486 Hinweis auf Brauchbarkeit der Simulation Rechenzeit pro Simulation : Etwa 18 sec Aufgaben pro Simulation : Serien von je 20 Würfen erzeugen Daraus die ( ) VIe bilden Feststellen der relativen Häufigkeit, mit der sie 35 enthalten Nun endlich : Anfangsfrage : Größe der Serien : 60 Mehrere Simulationen von je Serien liefern 9494, 9508, 9495, 9504, 9476, 9485, 9514 Dem VI scheint man einigermaßen trauen zu können 13 EF16 67

68 Hypothesentesten Beispielfragestellung :? Senkt Alkohol die Reaktionsleistung? Durchführung einer geeigneten Untersuchung Festlegung : Wie wird Reaktionsleistung gemessen? Beispielsweise durch Fehlerzahl X in Reaktionsexperiment Festlegung : Welche Bedingungen werden verglichen? Beispielsweise Nüchternheit ( N ) und 20 g Alkohol ( A ) Also : UV : Trunkenheitsgrad T mit zwei Stufen : A und N AV : Fehlerzahl X mit möglichen Werten 0, 1, 5 Festlegung : Wie viele Vpn? Beispielsweise 20 pro Bedingung Weitere Festlegungen Beispielsweise : Was für Vpn? Wann? Wo? 14 EF16 68

69 Formulierung der Hypothesen Unterscheide : Inhaltliche Hypothese Statistische Hypothesen Inhaltliche Hypothese : Alkohol erhöht die Fehlerzahl Ziel : Ableitung von statistischen Hypothesen Bezeichnungen : µ 1 : Erwartungswert von X in Bedingung N µ 2 : Erwartungswert von X in Bedingung A Formulierungen etwas unsauber Entsprechung der inhaltlichen Hypothese : µ 2 > µ 1 ( H 1 ) Formulierung einer Art Gegenteil Beispielsweise : µ 2 = µ 1 ( H 0 ) Ergebnis : Hypothesenpaar H 0 : Nullhypothese, H 1 : Alternativhypothese Normalerweise wird die inhaltliche Hypothese zur H 1 14 EF16 69

70 Statistische Hypothesen : H 0 : µ 2 = µ 1 H 1 : µ 2 > µ 1 Ziel : Entscheidung zwischen diesen Hypothesen Die Entscheidung beruht auf Daten Die Daten enthalten Zufallskomponenten Es ist mit Fehlentscheidungen zu rechnen H 0 : Entscheidung für H 0 H 1 : Entscheidung für H 1 Typen von Fehlern Entscheidung Wahr ist H 0 H 1 H 0 korrekt Fehler 1 Art H 1 Fehler 2 Art korrekt α : W des Fehlers 1 Art β : W des Fehlers 2 Art 14 EF16 70

71 Gesucht : Entscheidungsregel Forderung : Die W des Fehlers 1 Art soll klein bleiben Genauer : Es wird eine obere Grenze dafür vorgegeben Diese Grenze heißt auch Signifikanzniveau Bezeichnung meist α Doppeldeutigkeit von α W des Fehlers 1 Art und Signifikanzniveau Bedeutung ergibt sich jeweils aus dem Kontext Sinnvoll wären Zusätze : Fehler-W α, Signifikanzniveau α Hier gilt zunächst meistens : α ist die maximal zulässige W des Fehlers 1 Art In vielen Fällen ist dies α auch die tatsächliche Fehler-W! Bezeichnungen sind leider uneinheitlich 14 EF16 71

72 Gesucht : Entscheidungsregel Entscheidungsregeln benutzen meist sogenannte Teststatistiken Hier soll ein sogenannter t - Test durchgeführt werden Genauer : t - Test für zwei unabhängige Stichproben Bezeichnungen ( allgemein ) : n 1, n 2 : Größen der beiden Stichproben M 1, M 2 : Mittelwerte von X in den Stichproben s 2 1, s 2 2 : zugehörige korrigierte Stichprobenvarianzen n := n 1 + n 2 : Gesamtstichprobengröße Teststatistik für den t - Test : t := n 1 + n 2 n 1 n 2 M 2 M 1 (n 1 1) s (n 2 1) s 2 2 n 1 + n 2 2 Entscheidungsregel : Verwirf H 0, falls t t n2; α Verwerfen von H 0 bedeutet Entscheidung für H 1 14 EF16 72

73 Beispiel : ( Erhöht Alkohol die Fehlerzahl? ) Daten aus den beiden Gruppen ( n 1 = n 2 = 20 ) liefern M 1 = 205, s 2 1 = 9974 M 2 = 285, s 2 2 = X 1 N A T Rechnung : t = n 1 + n 2 n 1 n 2 M 2 M 1 (n 1 1) s (n 2 1) s 2 2 n 1 + n 2 2 = = t 38; 05 = H 0 kann verworfen werden ( α = 05 ) 14 EF16 73

74 Untersuchung der t - Statistik t = n 1 + n 2 n 1 n 2 M 2 M 1 (n 1 1) s (n 2 1) s 2 2 n 1 + n 2 2 Zähler : M 2 M 1 ( Mittelwertdifferenz ) Nenner Bestandteile : Zweiter Bestandteil : s 2 := (n 1 1) s (n 2 1) s 2 2 n 1 + n 2 2 Gewichtetes Mittel aus s 2 1 und s 2 2 Gewichte : ( n i 1 ) / ( n 1 + n 2 2 ) s := s 2 Erster Bestandteil : n 1 + n 2 n 1 n 2 = 1 n n 2 Spiegelt die Stichprobengrößen wider vgl SEM Insgesamt : Nenner ist eine Art Streuungsmaß 14 EF16 74

75 Untersuchung der t - Statistik t = n 1 + n 2 n 1 n 2 M 2 M 1 (n 1 1) s (n 2 1) s 2 2 n 1 + n 2 2 t wird groß bei großer Mittelwertsdifferenz M 2 M 1 bei kleinen Varianzen s 2 i bei großen Stichprobengrößen n i Große Werte von t sprechen für H 1 t erscheint als vernünftige Statistik Als sinnvoll erscheint die Entscheidungsregel : Verwirf H 0 für hinreichend große Werte von t? Was heißt hinreichend groß?? Wo ist die Grenze? Die Grenze heißt auch kritischer Wert Abkürzung : k 14 EF16 75

76 Bestimmung des kritischen Werts Unter geeigneten Voraussetzungen : Falls H 0 gilt, so hat t eine t n2 - Verteilung t n2 010 Gesuchte Entscheidungsregel bis jetzt : 1 t Verwirf H 0, falls t k ( noch unbekannt ) Unter H 0 gilt : Der Fehler 1 Art tritt auf genau dann, wenn t k gilt Die W eines Fehlers 1 Art ist die W für t k Diese W wird α genau für k = t n2; α 010 t n2 α 1 t n2; α t Damit ist t n2; α in der Tat der geeignete kritische Wert 14 EF16 76

77 Leider sind die geeigneten Voraussetzungen hier nicht erfüllt? Darf man den t - Test trotzdem durchführen? Ja, denn die Erfahrung zeigt : Der t - Test ist recht robust Das heißt : Bei nicht allzu gravierenden Verletzungen der Voraussetzungen ist die tatsächliche W eines Fehlers 1 Art immer noch etwa gleich dem Signifikanzniveau α Rechtfertigung beispielsweise mit Simulationen Beispiel einer solchen Simulation Erster Schritt : Festlegung von konkreten Verteilungen Genauer : Verteilung von X in den Bedingungen N und A Hier soll H 0 gelten Eine mögliche Wahl : Gleiche Verteilung in N und A, nämlich x P ( X = x ) Wegen gleicher Verteilung : Insbesondere µ 1 = µ 2 14 EF16 77

78 Beispiel : Wahl der gleichen Verteilung in N und A : p X Beispiel : Eine Simulation für diese Situation N : 2, 3, 3, 1, 1, 1, 0, 2, 4, 0, 4, 2, 2, 0, 3, 4, 5, 2, 0, 3 A : 1, 1, 1, 2, 3, 2, 2, 1, 2, 2, 2, 3, 3, 1, 2, 2, 2, 1, 3, 2 Kennwerte : M 1 = 21, S1 2 = 219, M 2 = 19, S2 2 = 49 t = 0533 Zweiter Schritt : Eigentliche Simulation : solche virtuellen Stichproben Ergebnis : 522 der t - Werte sind t 38; 05 = 1686 Relative Häufigkeit : 0522 Weiter Simulationen liefern 0496, 0477, 0514 Hier scheint der t - Test in Ordnung Mögliche Rechtfertigung für den untersuchten Fall : Viele andere Simulationen mit anderen H 0 - Verteilungen Oder eben : Berufung auf die Erfahrung 14 EF16 78

79 Diskussion möglicher Testergebnisse Zwei Möglichkeiten : t t n2; α und t < t n2; α Erster Fall : t t n2; α Sprechweisen : Das Ergebnis ist signifikant ( auf dem Niveau α ) t ist signifikant ( auf dem Niveau α ) Entscheidung für H 1 ( Teilweise ) Rechtfertigung : Beschränktes Risiko einer Fehlentscheidung, falls H 0 gilt α heißt gelegentlich auch Irrtumswahrscheinlichkeit Sprechweise dann : Entscheidung für H 1 bei Irrtumswahrscheinlichkeit α Versuch einer Interpretation eines signifikanten Ergebnisses Ich entscheide mich für H 1 Die Wahrscheinlichkeit, dass ich mich irre, ist höchstens ( etwa ) α! Unsinn aus den bekannten Gründen! Statistische Termini darf man fast nie wörtlich nehmen! 14 EF16 79

80 Diskussion möglicher Testergebnisse Zweiter Fall : t < t n2; α Das Ergebnis ist nicht signifikant Entscheidung für H 0? Rechtfertigung? Eine Rechtfertigung müsste auf β Bezug nehmen Über β lässt sich meist keine brauchbare Aussage machen Insbesondere könnte β oft womöglich ziemlich groß sein Entscheidung für H 0 lässt sich meist nicht rechtfertigen Jedenfalls nicht statistisch Daher : Korrektur des Entscheidungsverfahrens Signifikantes Ergebnis Entscheidung für H 1 Kein signifikantes Ergebnis keine Aussage Sprechweise bei nichtsignifikantem Ergebnis : H 0 kann nicht verworfen werden! Sehr oft wird falscher Eindruck suggeriert 14 EF16 80

81 Untersuchung von β Eigentlich müsste β neu definiert werden : W eines nichtsignifikanten Ergebnisses, falls H 1 gilt β kann ( im Prinzip ) bestimmt werden falls die Verteilungen von X 1, X 2 unter H 1 spezifiziert werden Meist sind viele Verteilungen mit H 1 verträglich H 1 heißt dann zusammengesetzt ( oder : unexakt ) Gegensatz : einfach ( oder : exakt ) Im betrachteten Fall sind beide Hypothesen zusammengesetzt β ist abhängig von dem Signifikanzniveau α den tatsächlichen Verteilungen von X den Stichprobengrößen Sprechweise auch : β ist eine Funktion von Abhängigkeit von den tatsächlichen Verteilungen Hier genauer : von den Verteilungen von X in den Bedingungen N und A 14 EF16 81

82 Untersuchung von β Hier beispielhaft mit Hilfe von Simulationen Zu spezifizieren sind α die Verteilungen von X für N und A die Stichprobengrößen Vergleichsbeispiel : α = 05 Verteilung von X 1 ( X unter N ) : x P ( X 1 = x ) Verteilung von X 2 ( X unter A ) : x P ( X 2 = x ) µ 1 = 225, µ 2 = 28 H 1 gilt n 1 = n 2 = Simulationen liefern 6101 nichtsignifikante Ergebnisse Relative Häufigkeit : 610 Hinweis auf ein großes β 14 EF16 82

83 β ist abhängig von α Je größer α um so kleiner der kritische Wert um so größer die Chance auf ein signifikantes Ergebnis um so kleiner β Beispiel : α = 1 statt 05 Kritischer Wert : t 38; 1 = 1304 ( statt 1686 ) Jetzt 4695 nichtsignifikante Ergebnisse ( statt 6101 ) β ist abhängig von der Verteilung Größere Unterschiede in den Verteilungen sollten eher zu signifikanten Ergebnissen also zu kleinerem β führen Beispiel : Änderung der Verteilung von X 2 zu x P ( X 2 = x ) µ 2 ist jetzt 37 ( statt 28 ) Jetzt 652 nichtsignifikante Ergebnisse ( statt 6101 ) 14 EF16 83

84 β ist abhängig von der Stichprobengröße Je größer die Stichproben um so genauer die Schätzungen um so größer sollte die Chance auf ein signifikantes Ergebnis und um so kleiner β werden Beispiel 1 : n 1 = n 2 = 5 ( statt 20 ) Kritischer Wert : t 8; 05 = 1860 ( statt 1686 ) Jetzt 8336 nichtsignifikante Ergebnisse ( statt 6101 ) Beispiel 2 : n 1 = n 2 = 100 ( statt 20 ) Kritischer Wert : t 198; 05 = 1653 ( statt 1686 ) Jetzt 858 nichtsignifikante Ergebnisse ( statt 6101 ) 14 EF16 84

85 Power ( 1 β ) heißt auch Power ( Güte ) des Tests Die Power ist die W für H 1, falls H 1 gilt oder : die W, mit der H 1 sich durchsetzt Die Power wird größer bei größerem Signifikanzniveau α bei größerer Verschiedenheit der Verteilungen mit wachsenden Stichprobengrößen Hier gilt sogar : Power 1 für n 1, n 2 Etwas ungenau : Mit wachsendem n wird alles signifikant Natürlich nur, wenn H 1 gilt! Gefahr korrekter, aber irrelevanter Ergebnisse Signifikanz Relevanz 14 EF16 85

86 Idealfall, graphisch Idealfall liegt hier nicht vor Graphik dennoch nützlich Hoffentlich näherungsweise richtig Dient der Veranschaulichung Verteilung von t unter H 0 : t n2 t n2? Verteilung von t unter H 1? 1 t Im Idealfall : t n2, δ Nonzentrale t - Verteilung δ : Nonzentralitätsparameter ( NZP ) Schaubild beispielsweise t n2, δ 1 t 14 EF16 86

87 t - Dichten mit unterschiedlichen NZPn 1 t Verformung ( nicht Verschiebung ) im Vergleich zu t - Dichte NZP ist Maß für Verformung Je größer NZP, um so stärker Verformung NZP wird größer mit wachsender Erwartungswertdifferenz µ 2 µ 1 mit sinkender ( theoretischer ) Streuung mit wachsendem n Bei Gültigkeit von H 1 ( und im Idealfall ) : Verteilung von t ist eine der vielen t n2, δ - Verteilungen Welche genau, ist unbekannt 14 EF16 87

88 Verteilung von t unter H 0 und H 1 ( eine H 1 - Möglichkeit im Idealfall ) H 0 H 1 Kritischer Wert k 1 t β H 0 H 1 1 k α t 1 Power β k t Power 14 EF k t

89 Power und NZP Beispiel : Wachsender NZP wegen wachsender Differenz µ 2 µ 1 Stichprobenumfang ( n = 40 ) etc soll gleich bleiben δ = 5 δ = 1 1 k Power t Power δ = k k t Power t Ähnliche Schaubilder bei wachsendem n 14 EF16 89

90 p - Werte Alternative Ergebnisbeschreibung Signifikanzniveau wird nicht explizit genannt Praktisch bei maschinellen Auswertungen Anstelle der Angabe ob signifikant auf gegebenem Niveau : p : Anteil, den der Wert der Teststatistik bei H 0 abschneidet Die Teststatistik ist hier t Typisches Beispiel einer solchen Angabe : t 38 = 19 ( p = 0325 ) t 38 bedeutet hier, dass die Zahl der df 38 ist Bezeichnung besser : t emp ( empirisches t ) statt t 38 Schaubild dazu : H 0 p 1 t t emp? Ist dieses Ergebnis signifikant auf dem 5% - Niveau? 14 EF16 90

91 t 38 = 19 ( p = 0325 ) H 0 p 1 t t emp? Ist dieses Ergebnis signifikant auf dem 5% - Niveau? Hilfsfrage : Wo liegt der kritische Wert k? k schneidet 5% ab H 0 05 p 1 t k t emp k liegt also weiter links Das Ergebnis ist signifikant auf dem 5% - Niveau t emp ist genau dann signifikant auf α - Niveau, wenn p α Alternative Definition von p : Das Niveau, auf dem t emp gerade noch signifikant wird Womöglich heißt auch p gelegentlich Irrtumswahrscheinlichkeit 14 EF16 91

92 Grenzen der Robustheit Mögliche Situation : Verteilung von X 1 ( X unter N ) : x P ( X 1 = x ) Verteilung von X 2 ( X unter A ) : x P ( X 2 = x ) µ 1 = µ 2 = 25 H 0 gilt also ( Theoretische ) Varianzen sind deutlich verschieden Fehlende Varianzhomogenität? Waren solche Situationen eigentlich gemeint? Zusätzlich : n 1 = 20, n 2 = 5 ( ungleiche Stichproben ) Signifikanzniveau : 5% Simulationen liefern 1903 signifikante t - Werte Hinweis auf deutliche Verletzung des Signifikanzniveaus Gefährliche Situation beim t - Test : Fehlende Varianzhomogenität und ungleiche Stichproben 14 EF16 92

93 Linksseitige Fragestellungen Statistische Hypothesen jetzt : H 0 : µ 2 = µ 1 H 1 : µ 2 < µ 1 H 1 : µ 2 > µ 1 heißt entsprechend rechtsseitig Testen : Gleiches Verfahren Wieder : Benutzung der t - Statistik Jetzt : Verwerfen von H 0 bei kleinen Werten α muss jetzt links abgeschnitten werden? Welches ist jetzt der kritische Wert? Die t - Verteilung ist symmetrisch ( zur y - Achse ) α t n2; α 010 t n2 α 1 t n2; α t Links wird α abgeschnitten von t n2; α 14 EF16 93

94 Linksseitiges Testen Regel für linksseitiges Testen also ( Niveau α ) : Verwirf H 0, falls t t n2; α Weitere Überlegungen : Völlig analog zum rechtsseitigen Fall Zusätzliche Überlegungen zeigen : Die Tests sind auch korrekt bei erweiterten Nullhypothesen Rechtsseitig : H 0 : µ 2 µ 1 H 1 : µ 2 > µ 1 Linksseitig : H 0 : µ 2 µ 1 H 1 : µ 2 < µ 1 Signifikanzniveau wird auch in Zusatzfällen eingehalten Alternativlösung für die linksseitige Fragestellung : Gruppen vertauschen und rechtsseitig testen 14 EF16 94

95 Zweiseitige Fragestellungen Statistische Hypothesen jetzt : H 0 : µ 2 = µ 1 H 1 : µ 2 µ 1 ( Richtung unklar schlechte inhaltliche Theorie? ) Testen : Wieder Benutzung der t - Statistik? Geeignete Entscheidungsregel? Sinnvoll jetzt : Verwerfen von H 0 bei kleinen oder großen Werten Auf beiden Seiten insgesamt α abschneiden Naheliegend : auf jeder Seite α/2 α/2 t n2; α/ t n2 α/2 t n2; α/2 t Insgesamt wird symmetrisch α abgeschnitten durch t n2; α/2 ( links ) und t n2; α/2 ( rechts ) 14 EF16 95

96 Zweiseitiges Testen Regel für zweiseitiges Testen also ( Niveau α ) : Verwirf H 0, falls t t n2; α/2 oder t t n2; α/2 Alternativ : Verwirf H 0, falls t t n2; α/2 Power zweiseitig : Power H 0 t n2; α/2 1 H 1 Power t t n2; α/2 Beide Anteile berücksichtigen! Power ist Summe aus beiden Teilflächen 14 EF16 96

97 p - Wert beim zweiseitigen Test Abschneiden jetzt zweiseitig ( symmetrisch ) Passend zum Test Beispielangabe : t 38 = 175 ( p = 088 ) Wieder t emp statt t 38 : t emp H 0 1 t t emp p t emp und t emp schneiden zusammen p ab t emp ist hier nicht signifikant auf 5% - Niveau? Ist eine gegebene p - Angabe einseitig oder zweiseitig? Zusatzinformation nötig Kontext Explizite Angabe ( zb one-tailed two-tailed ) Umrechnung : p zweiseitig = 2 p einseitig 14 EF16 97

98 Einseitige und zweiseitige Power Vergleiche Power des einseitigen und zweiseitigen t - Tests! Niveau : 5%, df : 38 t 38; 05 = 1686, t 38; 025 = 2024 Power zweiseitig H 0 H 1 Power einseitig 1 t Beim einseitigen Test ist die Power größer Praktische Konsequenz : Einseitige Fragestellungen einseitig testen! Theorien sollten möglichst zu einseitigen Fragen führen Vielleicht nochmal genauer nachdenken! 14 EF16 98

99 Beispiel für Mogeln Jemand hat eine rechtsseitige Hypothese : Alkohol steigert die Fehlerzahl Test liefert : t 38 = 19 ( p = 0325 ) Mittelwerte : M N = 324, M A = 306 Signifikant, aber leider in der falschen Richtung Erneutes Nachdenken führt zum Schluss : In der betrachteten Menge sollte Alkohol die Fehlerzahl senken Linksseitiger Test ( mit denselben Daten ) Jetzt ist das Ergebnis signifikant wie gewünscht? Problem? Insgesamt wird eigentlich zweiseitig getestet Ergebnis wird einseitig verkauft Das tatsächliche Testniveau ist doppelt so hoch wie angegeben Mögliche Folgerung : Einseitige Tests sind zu verbieten 14 EF16 99

100 Untersuchung von mehr als 2 Gruppen Wieder : Fehlerzahl nach Alkohol Zwei Experimentalgruppen ( A, A+ ), Kontrollgruppe ( N ) A, A+ : wenig bzw viel Alkohol Codierung : N 1 A 2 A+ 3 Erwartungswerte : µ 1, µ 2, µ 3 Inhaltliche Hypothese Alkohol hat eine Wirkung auf die Fehlerzahl Umsetzung in statistische Hypothesen H 0 : µ 1 = µ 2 = µ 3 H 1 : nicht H 0 Anmerkungen : Korrekte Verneinung von H 0 : Mindestens zwei Erwartungswerte unterscheiden sich Nicht : Alle Erwartungswerte unterscheiden sich Schon gar nicht : µ 1 µ 2 µ 3 H 1 hier inhaltlich eher unbefriedigend Entspricht aber dem Standard-Auswertungsverfahren Angemessenere Wege sind möglich 14 EF16 100

101 Beispieldaten : N A A Stichproben sind unangemessen klein Zunächst : Deskriptive Aufarbeitung Gruppe N A A+ Besetzung Mittelwert korr Stichprobenvarianz Standardschätzfehler Fehler 1 N A A+ Bedingung 14 EF16 101

102 Testen der Hypothesen Suche nach einer geeigneten Teststatistik Erinnerung : t - Statistik war im wesentlichen grob : Mittelwertdifferenz durch Streuung in den Gruppen Idee einer Teststatistik hier : Varianz der Mittelwerte durch Varianz in den Gruppen Bezeichnungen : j : Index für die Bedingungen / Gruppen J : Anzahl der Gruppen n j : Gruppengrößen y ij : Wert von Vp i in Gruppe j ( i = 1,, n j ) N : Gesamtzahl der Beobachtungen ( N = j n j ) M j : Gruppenmittelwerte s 2 j : korrigierte Stichprobenvarianzen in den Gruppen M : Gesamtmittelwert Hier : J = 3, N = 11, M = 3 j n j M j s 2 j Hier ist M auch Mittelwert der M j Zufall! 14 EF16 102

103 Quadratsummen Einführung von Hilfsgrößen J SS b := n j (M j M) 2 n J j ( J SS w := (y ij M j ) 2 = (n j 1) s 2 j j=1 j=1 i=1 j=1 ) SS tot := N Gesamtvarianz SS : Sum of Squares, Quadratsumme b, w, tot : between, within, total Deutung Ersetze Daten durch M j bzw Abweichungen von den M j Neue Werte : Originaldaten, M j, Abweichungen : N A A N A A N A A Varianzen dieser Werte : SS tot /N, SS b /N, SS w /N Bei Varianzbildung wird Gruppenzugehörigkeit nicht berücksichtigt Die SS sind Vorstufen der Varianzen Im Beispiel : SS tot = 24, SS b = 8, SS w = EF16 103

104 Quadratsummenzerlegung SS tot = SS b + SS w Bis auf 1/N : Zerlegung der Gesamtvarianz in einen systematischen Anteil und einen Fehleranteil Zerlegung kann Rechnungen verkürzen Idee einer Teststatistik : Varianz der Mittelwerte durch Varianz in den Gruppen Das wäre hier (SS b /N)/(SS w /N) = SS b /SS w Tatsächlich nimmt man F := SS b/(j 1) SS w /(N J) Unterschied nur Faktor (N J)/(J 1) J 1 : Zählerfreiheitsgrade N J : Nennerfreiheitsgrade Gegen H 0 sprechen große Werte von F 14 EF16 104

105 Ergebnistabelle Weitere Bezeichnungen : MS b := SS b /(J 1) MS w := SS w /(N J) MS : Mean sum of Squares, Mittlere Quadratsumme Damit : F = MS b /MS w Tabelle Varianzquelle SS df MS F between SS b J 1 MS b F within SS w N J MS w total SS tot N 1 Im Beispiel : Varianzquelle SS df MS F between within total Das Verfahren heißt (einfaktorielle) Varianzanalyse Auch : Einwegvarianzanalyse Mit Faktor ist die UV gemeint 14 EF16 105

106 Testen der Hypothesen H 0 ist für große Werte von F zu verwerfen? Was ist groß? Hierzu : Verteilung von F unter H 0? Unter Idealbedingungen hat F eine F J1, NJ - Verteilung Idealbedingungen hier nicht erfüllt Trotzdem gilt Verteilungsaussage ( hoffentlich ) näherungsweise F - Verteilungen Eine wichtige Klasse von stetigen Verteilungen Gekennzeichnet durch Zähler- und Nennerfreiheitsgrade Für jedes n 1 und jedes m 1 gibt es eine F - Verteilung mit n Zähler- und m Nenner-df Bezeichnung : F n,m Verwendung beispielsweise in Varianzanalysen 14 EF16 106

107 Beispiele von F - Verteilungen 1 F 1, 3 F 2, 8 F 4, 9 1 F Das α - Fraktil der F n, m - Verteilung heißt F n, m; α 1 1 F n, m α F n, m; α F 14 EF16 107

108 Testen in der Varianzanalyse Entscheidungsregel ( für Niveau α ) : Verwirf H 0, falls F F J1, NJ; α Tabellen mit F n, m; α - Fraktilen Üblicherweise gibt es getrennte Tabellen für verschiedene α Beispiel : Ausschnitt aus einer Tabelle für α = 05 m \ n Im Beispiel benötigt : F 2, 8; 05 = 446 ( für 5% - Niveau ) F = 200 ist also nicht signifikant H 0 kann nicht verworfen werden Mögliche Angabe hier auch : F 2, 8 = 200 ( p = 198 ) p hier : Anteil, den F bei H 0 -Verteilung rechts abschneidet 14 EF16 108

Versuch: Zufälliges Ziehen aus der Population

Versuch: Zufälliges Ziehen aus der Population Wahrscheinlichkeit Ein Test diagnostiziert Kranke zu 99% richtig Gesunde zu 90% richtig 5% der Bevölkerung ist krank? Wie wahrscheinlich ist es, dass jemand krank ist, wenn der Test dies diagnostiziert?

Mehr

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests ue biostatistik: hypothesen, fehler 1. und. art, power 1/8 h. lettner / physik Hypothesen: Fehler 1. und. Art, Power eines statistischen Tests Die äußerst wichtige Tabelle über die Zusammenhänge zwischen

Mehr

4.1. Nullhypothese, Gegenhypothese und Entscheidung

4.1. Nullhypothese, Gegenhypothese und Entscheidung rof. Dr. Roland Füss Statistik II SS 8 4. Testtheorie 4.. Nullhypothese, Gegenhypothese und Entscheidung ypothesen Annahmen über die Verteilung oder über einzelne arameter der Verteilung eines Merkmals

Mehr

Statistische Tests (Signifikanztests)

Statistische Tests (Signifikanztests) Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)

Mehr

Allgemeines zu Tests. Statistische Hypothesentests

Allgemeines zu Tests. Statistische Hypothesentests Statistische Hypothesentests Allgemeines zu Tests Allgemeines Tests in normalverteilten Grundgesamtheiten Asymptotische Tests Statistischer Test: Verfahren Entscheidungsregel), mit dem auf Basis einer

Mehr

Bereiche der Statistik

Bereiche der Statistik Bereiche der Statistik Deskriptive / Exploratorische Statistik Schließende Statistik Schließende Statistik Inferenz-Statistik (analytische, schließende oder konfirmatorische Statistik) baut auf der beschreibenden

Mehr

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9. 7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Methodenlehre. Vorlesung 10. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 10. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 10 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre I Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 25.9.13 Psychologie als Wissenschaft

Mehr

Statistisches Testen

Statistisches Testen Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall

Mehr

Inhaltsverzeichnis Einführung und deskriptive Statistik Grundlagen der Inferenzstatistik 1: Zufallsvariablen

Inhaltsverzeichnis Einführung und deskriptive Statistik Grundlagen der Inferenzstatistik 1: Zufallsvariablen Inhaltsverzeichnis 1 Einführung und deskriptive Statistik... 1 1.1 Wichtige mathematische Schreibweisen... 1 1.1.1 Das Summenzeichen... 1 1.1.2 Mengentheoretische Schreibweisen... 3 1.1.3 Variablentransformationen...

Mehr

2 Wiederholung statistischer Grundlagen Schließende Statistik empirischen Information aus Stichprobenrealisation x von X

2 Wiederholung statistischer Grundlagen Schließende Statistik empirischen Information aus Stichprobenrealisation x von X Hypothesentests Bisher betrachtet: Punkt- bzw. Intervallschätzung des unbekannten Mittelwerts Hierzu: Verwendung der 1 theoretischen Information über Verteilung von X empirischen Information aus Stichprobenrealisation

Mehr

3 Grundlagen statistischer Tests (Kap. 8 IS)

3 Grundlagen statistischer Tests (Kap. 8 IS) 3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung

Mehr

7. Hypothesentests. Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang. X habe die unbekannte VF F X (x)

7. Hypothesentests. Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang. X habe die unbekannte VF F X (x) 7. Hypothesentests Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang X habe die unbekannte VF F X (x) Interessieren uns für einen unbekannten Parameter θ der Verteilung von X 350 Bisher:

Mehr

Stichwortverzeichnis. Symbole

Stichwortverzeichnis. Symbole Stichwortverzeichnis Symbole 50ste Perzentil 119 A Absichern, Ergebnisse 203 Abzählbar unendliche Zufallsvariable 146 Alternativhypothese 237 238 formulieren 248 Anekdote 340 Annäherung 171, 191 Antwortquote

Mehr

Schließende Statistik

Schließende Statistik Schließende Statistik Die schließende Statistik befasst sich mit dem Rückschluss von einer Stichprobe auf die Grundgesamtheit (Population). Die Stichprobe muss repräsentativ für die Grundgesamtheit sein.

Mehr

Empirische Wirtschaftsforschung

Empirische Wirtschaftsforschung Empirische Wirtschaftsforschung Prof. Dr. Bernd Süßmuth Universität Leipzig Institut für Empirische Wirtschaftsforschung Volkswirtschaftslehre, insbesondere Ökonometrie 1 4. Basiskonzepte der induktiven

Mehr

Beispiel für Gütefunktionen Rechtsseitiger Test (µ 0 = 500) zum Signifikanzniveau α = 0.10

Beispiel für Gütefunktionen Rechtsseitiger Test (µ 0 = 500) zum Signifikanzniveau α = 0.10 6 Hypothesentests Gauß-Test für den Mittelwert bei bekannter Varianz 6.3 Beispiel für Gütefunktionen Rechtsseitiger Test (µ 0 = 500) zum Signifikanzniveau α = 0.10 G(µ) 0 α 0. 0.4 0.6 0.8 1 n = 10 n =

Mehr

Wahrscheinlichkeit und Statistik BSc D-INFK

Wahrscheinlichkeit und Statistik BSc D-INFK Prof. Dr. P. Bühlmann ETH Zürich Winter 2010 Wahrscheinlichkeit und Statistik BSc D-INFK 1. (10 Punkte) Bei den folgenden 10 Fragen ist jeweils genau eine Antwort richtig. Es gibt pro richtig beantwortete

Mehr

Inferenzstatistik verstehen

Inferenzstatistik verstehen Markus Janczyk Roland Pfister Inferenzstatistik verstehen Von A wie Signifikanztest bis Z wie Konfidenzintervall ^ Springer Spektrum vii 1 Einführung und deskriptive Statistik 1 1.1 Wichtige mathematische

Mehr

Beurteilende Statistik

Beurteilende Statistik Beurteilende Statistik Wahrscheinlichkeitsrechnung und Beurteilende Statistik was ist der Unterschied zwischen den beiden Bereichen? In der Wahrscheinlichkeitstheorie werden aus gegebenen Wahrscheinlichkeiten

Mehr

Methodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 12 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre II Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 18.2.15 Psychologie als Wissenschaft

Mehr

Konkretes Durchführen einer Inferenzstatistik

Konkretes Durchführen einer Inferenzstatistik Konkretes Durchführen einer Inferenzstatistik Die Frage ist, welche inferenzstatistischen Schlüsse bei einer kontinuierlichen Variablen - Beispiel: Reaktionszeit gemessen in ms - von der Stichprobe auf

Mehr

Varianzvergleiche bei normalverteilten Zufallsvariablen

Varianzvergleiche bei normalverteilten Zufallsvariablen 9 Mittelwert- und Varianzvergleiche Varianzvergleiche bei zwei unabhängigen Stichproben 9.3 Varianzvergleiche bei normalverteilten Zufallsvariablen Nächste Anwendung: Vergleich der Varianzen σa 2 und σ2

Mehr

So berechnen Sie einen Schätzer für einen Punkt

So berechnen Sie einen Schätzer für einen Punkt htw saar 1 EINFÜHRUNG IN DIE STATISTIK: SCHÄTZEN UND TESTEN htw saar 2 Schätzen: Einführung Ziel der Statistik ist es, aus den Beobachtungen eines Merkmales in einer Stichprobe Rückschlüsse über die Verteilung

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Fallzahlplanung bei unabhängigen Stichproben

Fallzahlplanung bei unabhängigen Stichproben Fallzahlplanung bei unabhängigen Stichproben Seminar Aktuelle biometrische Probleme Benjamin Hofner benjamin.hofner@stat.uni-muenchen.de 12. Januar 2005 Übersicht 1. Einführung und Grundlagen der Fallzahlplanung

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

Methodenlehre. Vorlesung 11. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 11. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 11 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 03.12.13 Methodenlehre I Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 25.9.13 Psychologie

Mehr

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,

Mehr

Wahrscheinlichkeit 1-α: richtige Entscheidung - wahrer Sachverhalt stimmt mit Testergebnis überein. Wahrscheinlichkeit α: falsche Entscheidung -

Wahrscheinlichkeit 1-α: richtige Entscheidung - wahrer Sachverhalt stimmt mit Testergebnis überein. Wahrscheinlichkeit α: falsche Entscheidung - wahrer Sachverhalt: Palette ist gut Palette ist schlecht Entscheidung des Tests: T K; Annehmen von H0 ("gute Palette") positive T > K; Ablehnen von H0 ("schlechte Palette") negative Wahrscheinlichkeit

Mehr

Konfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt

Konfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt Konfidenzintervalle Annahme: X 1,..., X n iid F θ. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt P θ (U θ O) = 1 α, α (0, 1). Das Intervall [U, O] ist ein Konfidenzintervall

Mehr

Signifikanzprüfung. Peter Wilhelm Herbstsemester 2016

Signifikanzprüfung. Peter Wilhelm Herbstsemester 2016 Signifikanzprüfung Peter Wilhelm Herbstsemester 2016 1.) Auswahl des passenden Tests 2.) Begründete Festlegung des Alpha-Fehlers nach Abschätzung der Power 3.) Überprüfung der Voraussetzungen 4.) Durchführung

Mehr

Signifikanzprüfung. Peter Wilhelm Herbstsemester 2014

Signifikanzprüfung. Peter Wilhelm Herbstsemester 2014 Signifikanzprüfung Peter Wilhelm Herbstsemester 2014 1.) Auswahl des passenden Tests 2.) Begründete Festlegung des Alpha- Fehlers nach Abschätzung der Power 3.) Überprüfung der Voraussetzungen 4.) Durchführung

Mehr

Aufgabenblock 4. Da Körpergröße normalverteilt ist, erhalten wir aus der Tabelle der t-verteilung bei df = 19 und α = 0.05 den Wert t 19,97.

Aufgabenblock 4. Da Körpergröße normalverteilt ist, erhalten wir aus der Tabelle der t-verteilung bei df = 19 und α = 0.05 den Wert t 19,97. Aufgabenblock 4 Aufgabe ) Da s = 8. cm nur eine Schätzung für die Streuung der Population ist, müssen wir den geschätzten Standardfehler verwenden. Dieser berechnet sich als n s s 8. ˆ = = =.88. ( n )

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Jost Reinecke. 7. Juni 2005

Jost Reinecke. 7. Juni 2005 Universität Bielefeld 7. Juni 2005 Testtheorie Test für unabhängige Stichproben Test für abhängige Stichproben Testtheorie Die Testtheorie beinhaltet eine Reihe von Testverfahren, die sich mit der Überprüfung

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 20. Januar 2011 1 Der F -Test zum Vergleich zweier Varianzen 2 Beispielhafte Fragestellung Bonferroni-Korrektur

Mehr

Die ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist.

Die ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist. .3. Stochastik Grundlagen Die ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist. Die RELATIVE HÄUFIGKEIT einer Merkmalsausprägung gibt an mit welchem Anteil

Mehr

Klassifikation von Signifikanztests

Klassifikation von Signifikanztests Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.15. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler unter allen Wählern war 2009 auf eine Nachkommastelle gerundet genau 33.7%. Wie groß ist die Wahrscheinlichkeit,

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments

73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments 73 Hypothesentests 73.1 Motivation Bei Hypothesentests will man eine gewisse Annahme über eine Zufallsvariable darauf hin überprüfen, ob sie korrekt ist. Beispiele: ( Ist eine Münze fair p = 1 )? 2 Sind

Mehr

T-Test für unabhängige Stichproben

T-Test für unabhängige Stichproben T-Test für unabhängige Stichproben Wir gehen von folgendem Beispiel aus: Wir erheben zwei Zufallstichproben, wobei nur die Probanden der einen Stichprobe einer speziellen experimentellen Behandlung (etwa

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Statistik II. Statistische Tests. Statistik II

Statistik II. Statistische Tests. Statistik II Statistik II Statistische Tests Statistik II - 5.5.2006 1 Ausgangslage Wir können Schätzen (z.b. den Erwartungswert) Wir können abschätzen, wie zuverlässig unsere Schätzungen sind: In welchem Intervall

Mehr

Die Familie der χ 2 (n)-verteilungen

Die Familie der χ 2 (n)-verteilungen Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +

Mehr

Die Familie der χ 2 (n)-verteilungen

Die Familie der χ 2 (n)-verteilungen Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden Einführung in Quantitative Methoden Pantelis Christodoulides & Karin Waldherr 4. Juni 2014 Christodoulides / Waldherr Einführung in Quantitative Methoden 1/35 Ein- und Zweiseitige Hypothesen H 0 : p =

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

2. Formulieren von Hypothesen. Nullhypothese: H 0 : µ = 0 Gerät exakt geeicht

2. Formulieren von Hypothesen. Nullhypothese: H 0 : µ = 0 Gerät exakt geeicht 43 Signifikanztests Beispiel zum Gauß-Test Bei einer Serienfertigung eines bestimmten Typs von Messgeräten werden vor der Auslieferung eines jeden Gerätes 10 Kontrollmessungen durchgeführt um festzustellen,

Mehr

Statistik II für Betriebswirte Vorlesung 1

Statistik II für Betriebswirte Vorlesung 1 Statistik II für Betriebswirte Vorlesung 1 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. Oktober 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 1 Version:

Mehr

Unterschiedshypothesen Vergleiche von Häufigkeiten bzw. Mittelwerten zwischen (mindestens) zwei Gruppen Zusammenhangshypothesen Korrelationsanalysen

Unterschiedshypothesen Vergleiche von Häufigkeiten bzw. Mittelwerten zwischen (mindestens) zwei Gruppen Zusammenhangshypothesen Korrelationsanalysen Statistische Überprüfung von Hypothesen Hypothesen sind allgemeine Aussagen über Zusammenhänge zwischen empirischen und logischen Sachverhalten.Allgemein bezeichnet man diejenigen Aussagen als Hypothesen,

Mehr

Methodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 12 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre I Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 25.9.13 Psychologie als Wissenschaft

Mehr

Beurteilende Statistik

Beurteilende Statistik Beurteilende Statistik SIGNIFIKANZ UND HYPOTHESENTESTS 12.02.2018 HOLGER WUSCHKE BEURTEILENDE STATISTIK 1 12.02.2018 HOLGER WUSCHKE BEURTEILENDE STATISTIK 2 12.02.2018 HOLGER WUSCHKE BEURTEILENDE STATISTIK

Mehr

8. Konfidenzintervalle und Hypothesentests

8. Konfidenzintervalle und Hypothesentests 8. Konfidenzintervalle und Hypothesentests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Beispiel. Sie wollen den durchschnittlichen Fruchtsaftgehalt eines bestimmten Orangennektars

Mehr

Nachgefragte Aufgaben über spezifische Themen

Nachgefragte Aufgaben über spezifische Themen Nachgefragte Aufgaben über spezifische Themen Aufgabe, Quiz 5 Macht und Fehler er/2er Art Frage a) Angenommen, bei einem Binomialtest ist das Signifikanzniveau 5%. Die Macht ist dann 95% Antwort und Erklärtung

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 12. Januar 2011 1 Vergleich zweier Erwartungswerte Was heißt verbunden bzw. unverbunden? t-test für verbundene Stichproben

Mehr

Biomathematik für Mediziner

Biomathematik für Mediziner Institut für Medizinische Biometrie, Informatik und Epidemiologie der Universität Bonn (Direktor: Prof. Dr. Max P. Baur) Biomathematik für Mediziner Klausur SS 2002 Aufgabe 1: Franz Beckenbauer will, dass

Mehr

WS 2014/15. (d) Bestimmen Sie die Wahrscheinlichkeitsfunktion von X. (e) Bestimmen Sie nun den Erwartungswert und die Varianz von X.

WS 2014/15. (d) Bestimmen Sie die Wahrscheinlichkeitsfunktion von X. (e) Bestimmen Sie nun den Erwartungswert und die Varianz von X. Fragenkatalog zur Übung Methoden der empirischen Sozialforschung WS 2014/15 Hier finden Sie die denkbaren Fragen zum ersten Teil der Übung. Das bedeutet, dass Sie zu diesem Teil keine anderen Fragen im

Mehr

3.Wiederholung: Toleranzbereiche Für EX Geg:

3.Wiederholung: Toleranzbereiche Für EX Geg: 3.Wiederholung: Toleranzbereiche Für EX Geg: Vl. 24.2.2017 Schätzfunktion für Güte: Ist X Problem: Feb 17 13:21 > Wir berechnen Bereiche (Toleranzbereiche) für sind untere und obere Grenzen, berechnet

Mehr

Statistik K urs SS 2004

Statistik K urs SS 2004 Statistik K urs SS 2004 3.Tag Grundlegende statistische Maße Mittelwert (mean) Durchschnitt aller Werte Varianz (variance) s 2 Durchschnittliche quadrierte Abweichung aller Werte vom Mittelwert >> Die

Mehr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X

Mehr

GRUNDPRINZIPIEN statistischen Testens

GRUNDPRINZIPIEN statistischen Testens Fragestellungen beim Testen GRUNDPRINZIPIEN statistischen Testens. Vergleiche Unterscheidet sich die Stichprobenbeobachtung von einer vorher spezifizierten Erwartung ( Hypothese ) mit ausreichender Sicherheit?

Mehr

Testen von Hypothesen

Testen von Hypothesen Elke Warmuth Humboldt-Universität zu Berlin Sommersemster 2010 1 / 46 2 / 46 1 Testen von Hypothesen 3 / 46 Signifikant, signifikant, signifikant,... 4 / 46 Signifikant, signifikant, signifikant,... 5

Mehr

Zusammenfassung PVK Statistik

Zusammenfassung PVK Statistik Zusammenfassung PVK Statistik (Diese Zusammenfassung wurde von Carlos Mora erstellt. Die Richtigkeit der Formeln ist ohne Gewähr.) Verteilungen von diskreten Zufallsvariablen Beschreibung Binomialverteilung

Mehr

Klassifikation von Signifikanztests

Klassifikation von Signifikanztests Klassifikation von Signifikanztests Nach Verteilungsannahmen: verteilungsabhängig: parametrischer [parametric] Test verteilungsunabhängig: nichtparametrischer [non-parametric] Test Bei parametrischen Tests

Mehr

Statistische Tests für unbekannte Parameter

Statistische Tests für unbekannte Parameter Konfidenzintervall Intervall, das den unbekannten Parameter der Verteilung mit vorgegebener Sicherheit überdeckt ('Genauigkeitsaussage' bzw. Zuverlässigkeit einer Punktschätzung) Statistischer Test Ja-Nein-Entscheidung

Mehr

Statistische Tests für unbekannte Parameter

Statistische Tests für unbekannte Parameter Konfidenzintervall Intervall, das den unbekannten Parameter der Verteilung mit vorgegebener Sicherheit überdeckt ('Genauigkeitsaussage' bzw. Zuverlässigkeit einer Punktschätzung) Statistischer Test Ja-Nein-Entscheidung

Mehr

Serie 9, Musterlösung

Serie 9, Musterlösung WST www.adams-science.org Serie 9, Musterlösung Klasse: 4U, 4Mb, 4Eb Datum: FS 18 1. Mädchen vs. Knaben 442187 Unter 3000 in einer Klinik neugeborenen Kindern befanden sich 1578 Knaben. Testen Sie mit

Mehr

Tests für Erwartungswert & Median

Tests für Erwartungswert & Median Mathematik II für Biologen 26. Juni 2015 Prolog Varianz des Mittelwerts Beispiel: Waage z-test t-test Vorzeichentest Wilcoxon-Rangsummentest Varianz des Mittelwerts Beispiel: Waage Zufallsvariable X 1,...,X

Mehr

Wahrscheinlichkeit und Statistik BSc D-INFK

Wahrscheinlichkeit und Statistik BSc D-INFK Prof. Dr. P. Embrechts ETH Zürich Sommer 2015 Wahrscheinlichkeit und Statistik BSc D-INFK Name: Vorname: Stud. Nr.: Das Folgende bitte nicht ausfüllen! Aufg. Summe Kontr. Pkte.-Max. 1 10 2 10 3 10 4 10

Mehr

Prüfung aus Statistik 2 für SoziologInnen

Prüfung aus Statistik 2 für SoziologInnen Prüfung aus Statistik 2 für SoziologInnen 11. Oktober 2013 Gesamtpunktezahl =80 Name in Blockbuchstaben: Matrikelnummer: Wissenstest (maximal 16 Punkte) Kreuzen ( ) Sie die jeweils richtige Antwort an.

Mehr

Bachelorprüfung: Statistik (1 Stunde)

Bachelorprüfung: Statistik (1 Stunde) Prof. H.R. Künsch D-BIOL, D-CHAB Winter 2010 Bachelorprüfung: Statistik (1 Stunde) Bemerkungen: Es sind alle mitgebrachten schriftlichen Hilfsmittel und der Taschenrechner erlaubt. Natels sind auszuschalten!

Mehr

Biomathematik für Mediziner, Klausur SS 2001 Seite 1

Biomathematik für Mediziner, Klausur SS 2001 Seite 1 Biomathematik für Mediziner, Klausur SS 2001 Seite 1 Aufgabe 1: Von den Patienten einer Klinik geben 70% an, Masern gehabt zu haben, und 60% erinnerten sich an eine Windpockeninfektion. An mindestens einer

Mehr

Mehrfaktorielle Varianzanalyse

Mehrfaktorielle Varianzanalyse Professur E-Learning und Neue Medien Institut für Medienforschung Philosophische Fakultät Einführung in die Statistik Mehrfaktorielle Varianzanalyse Überblick Einführung Empirische F-Werte zu einer zweifaktoriellen

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003 Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003. Eine seltene Krankheit trete mit Wahrscheinlichkeit : 0000 auf. Die bedingte Wahrscheinlichkeit, dass ein bei einem Erkrankten durchgeführter

Mehr

Kapitel 13. Grundbegriffe statistischer Tests

Kapitel 13. Grundbegriffe statistischer Tests Kapitel 13 Grundbegriffe statistischer Tests Oft hat man eine Vermutung über die Verteilung einer Zufallsvariablen X. Diese Vermutung formuliert man als Hypothese H 0.Sokönnte man daran interessiert sein

Mehr

Lösungen zum Aufgabenblatt 14

Lösungen zum Aufgabenblatt 14 Lösungen zum Aufgabenblatt 14 61. Das Gewicht von Brötchen (gemessen in g) sei zufallsabhängig und werde durch eine normalverteilte Zufallsgröße X N(µ, 2 ) beschrieben, deren Varianz 2 = 49 g 2 bekannt

Mehr

Methodenlehre. Vorlesung 13. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 13. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 13 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 19.05.15 Methodenlehre II Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 18.2.15 Psychologie

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Statistische Methoden in den Umweltwissenschaften

Statistische Methoden in den Umweltwissenschaften Statistische Methoden in den Umweltwissenschaften t-test Varianzanalyse (ANOVA) Übersicht Vergleich von Mittelwerten 2 Gruppen: t-test einfaktorielle ANOVA > 2 Gruppen: einfaktorielle ANOVA Seeigel und

Mehr

Statistik I für Betriebswirte Vorlesung 2

Statistik I für Betriebswirte Vorlesung 2 Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. April 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 9. April

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Hypothesentests. Hypothese Behauptung eines Sachverhalts, dessen Überprüfung noch aussteht.

Hypothesentests. Hypothese Behauptung eines Sachverhalts, dessen Überprüfung noch aussteht. Hypothese Behauptung eines Sachverhalts, dessen Überprüfung noch aussteht. Wissenschaftliche Vorgehensweise beim Hypothesentest Forscher formuliert eine Alternativhypothese H 1 (die neue Erkenntnis, die

Mehr

VS PLUS

VS PLUS VS PLUS Zusatzinformationen zu Medien des VS Verlags Statistik II Inferenzstatistik 2010 Übungsaufgaben und Lösungen - Inferenzstatistik 1 [Übungsaufgaben und Lösungenn - Inferenzstatistik 1] ÜBUNGSAUFGABEN

Mehr

Einfache Varianzanalyse für unabhängige Stichproben

Einfache Varianzanalyse für unabhängige Stichproben Einfache Varianzanalyse für unabhängige Stichproben VARIANZANALYSE Die Varianzanalyse ist das dem t-test entsprechende Mittel zum Vergleich mehrerer (k 2) Stichprobenmittelwerte. Sie wird hier mit VA abgekürzt,

Mehr