Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. ist auch das sichere Ereignis, ; das unmögliche Ereignis. B Operationen mit Ereignissen A; B; A ; A ; : : : A [ B Ereignis A oder B tritt ein A \ B Ereignisse A und B treten ein AnB Ereignis A tritt ein, nicht aber B S n i= A i = A [ A [ : : : [ A n mindestens eines der Ereignisse A i tritt ein T n i= A i = A \ A \ : : : \ A n alle A i treten ein na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt. A \ B = ; bedeutet, dass die Ereignisse A und B unvereinbar sind. Axiome nach Kolmogorov: P (A) heißt Wahrscheinlichkeit des zufälligen Ereignisses, falls () für alle Ereignisse A gilt: 0 P (A). Wahrscheinlichkeiten liegen zwischen 0 und. () P () = : (3) Für unvereinbare Ereignisse A ; A ; : : : ; A n, d.h. A i \ A j = ; für i 6= j, gilt: P! n[ A i = i= P (A i ). i= Dies gilt auch für unendlich viele Ereignisse n =. B Daraus lassen sich weitere Formeln ableiten: (4) P (;) = 0 (5) Falls A \ B = ; erfüllt ist, =) P (A [ B) = P (A) + P (B) (6) P ( A) = P (A) (7) P (A [ B) = P (A) + P (B) P (A \ B) = P (A \ B) + P ( A \ B) + P (A \ B)
(8) P (A) = P (A \ B) + P (A \ B) B Vierfeldertafel: B B A P (A \ B) P (A \ B) P (A) A P ( A \ B) P ( A \ B) P ( A) P (B) P ( B) Zeilensummen bzw. Spaltensummen nach (8), unterste Zeile und letzte Spalte nach (6) Definition: Es seien A; B Ereignisse mit P (B) > 0. Dann heißt P (A j B) = P (A \ B) P (B) die bedingte Wahrscheinlichkeit von A unter der Bedingung B. Definition: Die Ereignisse A und B heißen unabhängig, wenn P (A \ B) = P (A)P (B): B A und B sind genau dann unabhängig, wenn P (A j B) = P (A): Die Bayessche Formel Gegeben seien Ereignisse A; B; P (A) > 0; P (B) > 0. Formel der totalen Wahrscheinlichkeit P (A) = P (A j B) P (B) + P (A j B) P ( B) P (B j A) = P (A j B)P (B) P (A) B Gegeben seien Ereignisse A; B ; : : : ; B n, P (A) > 0; P (B i ) > 0. Die B i bilden ein vollständiges System von Ereignissen: = S n i= B i, B i \ B j = ; für i 6= j, d.h. die B i sind unvereinbar und schöpfen alle Möglichkeiten in aus. Das bedeutet, dass immer genau ein B i eintritt.
Formel der totalen Wahrscheinlichkeit P (A) = P (A j B i )P (B i ) i= Bayessche Formel P (B i j A) = P (A j B i)p (B i ) P (A) = P (A j B i)p (B i ) P (A j B j )P (B j ) j= 3
. Zufallsgrößen Diskrete Zufallsgrößen Verteilungstabelle: Wert x x : : : x r Wahrscheinlichkeit p p p r evtl. unendlich viele Werte p i = P (X = x i ) Bedingungen: 0 < p i < ; rx p i = i= Diskrete Verteilungen Verteilung Parameter Einzelwktn. Gleichverteilung n N (i = : : : n) n Poisson-Verteilung > 0 Binomialverteilung n N; p (0; ) p i i i! e (i = 0; ; : : :) n i p i ( p) n i (i = 0; : : : ; n) Verteilung Erwartungs- Varianz wert E(X) n+ Gleichverteilung Poisson-Verteilung Var(X) n Binomialverteilung np np( p) Kenngrößen diskreter Verteilungen Erwartungswert: Varianz (Streuung): E (X) = rx x i p i i= Var (X) = rx (x i E (X)) p i = i= rx x i p i (E (X)) i= Standardabweichung: (X) = p Var (X) 4
Stetige Zufallsgrößen B Verteilungsfunktion: F (x) = P (X x) Eigenschaften der Verteilungsfunktion einer stetigen Zufallsgröße: (a) lim F (x) = 0; lim F (x) = x! x! (b) F ist monoton wachsend, d.h. F (x) F (y) für x < y. (c) F ist stetig, d.h. lim F (x) = F (x 0 ) für alle x 0 : x!x 0 B Wahrscheinlichkeitsdichte (Dichtefunktion) der Zufallsgröße: f(x) = F 0 (x) =) P (a X b) = P (X a) = P (X b) = Z a Z b Z b a f(x) dx = F (b) f(x) dx = F (a) f(x) dx = F (b) F (a) Das Argument x, für das f(x) maximal wird, heißt Modalwert. B Eine Funktion f ist Dichte einer Zufallsgröße, falls ) f(x) 0, ) Z f(x) dx = Stetige Verteilungen Verteilung Parameter Dichtefunktion f(x) Gleichverteilung auf [a,b] a; b R; a < b (x [a; b]) b a Normalverteilung N (; ) R; (x ) > 0 p exp (x R) Exponentialverteil. Exp() > 0 e x (x > 0) Gammaverteilung p; > 0 p (p) xp e x= (x > 0) Weibullverteilung ; > 0 x e (x=) (x > 0) (n+)= t-verteilung ((n + )=) n N n Freiheitsgrade (n=) p + x (x R) n n exp(x) bedeutet e x ; Chiquadratverteilung n entspricht Gammaverteilung mit = ; p = n Normalverteilung N (0; ) ist die standardisierte Normalverteilung ist Verteilungsfunktion der standardisierten Normalverteilung!Tabelle 5
Verteilung Verteilungs- Erwartungswert Varianz funktion F (x) E(X) Var(X) x a a + b Gleichverteilung [a,b] b a x Normalverteilung Exponentialverteilung e x (b a) > 0 Gammaverteilung nicht explizit p p Weibullverteilung exp( (x=) ) + + + n-verteilung nicht explizit n n t n -Verteilung nicht explizit 0 n n (p) ist Gammafunktion!Tabelle; (m) = (m )! für m N; ( ) = p ; () = ; ( 3 ) = p ; () = ; ( 5 ) = 3 4p B Wahrscheinlichkeiten der Normalverteilung: X N (; ) a P (X a) = b P (a X b) = Beachte: ( x) = (x) für alle x, (0) = 0:5 b ; P (X b) = a Satz: Ist X N (; ), dann Y = ax + b N (a + b; a ): ; ; Erwartungswert: E(X) = Varianz: Var(X) = Z Kenngrößen stetiger Verteilungen Z (x E(X)) f(x) dx = xf(x) dx Z x f(x) dx (E(X)) 6
Standardabweichung: s Z (X) = (x E(X)) f(x) dx Schiefe: (X) = R (x E(X))3 f(x) dx p (Var (X)) 3 (X) > 0 bedeutet rechtsschiefe Verteilung, Modalwert liegt i.a. links neben E(X) (X) < 0 bedeutet linksschiefe Verteilung, Modalwert liegt i.a. rechts neben E(X) (X) = 0 symmetrische Verteilung Schiefe spezieller Verteilungen: Normalverteilung N (; )! (X) = 0 Exponentialverteilung Exp()! (X) = Definition: Eine Zahl q heißt Quantil der Ordnung der stetigen Zufallsgröße X mit der Verteilungsfunktion F, falls F (q ) = Dies bedeutet: P (X q ) = Z q f(x) dx = Median: m = q 0:5 P (X m) = P (X > m) = 0:5 z() Quantil der Standardnormalverteilung N (0; ), t n () Quantil der t n -Verteilung, n() Quantil der n-verteilung Unabhängigkeit von Zufallsgrößen Definition: Zwei Zufallsgrößen X und Y heißen unabhängig, falls gilt: P (X A; Y B) = P (X A) P (Y B) für alle Mengen A; B R. für stetige Zufallsgrößen P (X x; Y y) = P (X x) P (Y y) 8x; y R für diskrete Zufallsgrößen P (X = i; Y = j) = P (X = i)p (Y = j) 8i; j N 7
Rechenregeln für Wahrscheinlichkeiten und Kenngrößen B Seien X; Y zwei Zufallsgrößen. Dann gilt für reelle Zahlen a; b: () E(X + Y ) = E(X) + E(Y ) () E(aX) = ae(x) (3) E(XY ) = E(X) E(Y ), falls X und Y unabhängig (4) Var(X) = E(X E(X)) = EX (EX) (5) Var(aX) = a Var(X) (6) Var(X + Y ) = Var(X) + Var(Y ), falls X und Y unabhängig (7) Var(X) = 0 () P (X = a) = für ein a: =) E(aX + b) = ae(x) + b Var(aX + b) = a Var(X) (a; b R) 3. Statistik - Punktschätzungen Stichprobe X ; : : : ; X n unabhängiger Zufallsgrößen X i hat Verteilungsfunktion F. E(X i ) = ; Var(X i ) = B Stichprobenmittel (Mittelwert) B Stichprobenvarianz S X = n i= X = n i= X i X i X = n! Xi i= Satz: Bei X i N (; ) besitzt X n eine N (; =n)-verteilung. Ist X i nicht normalverteilt, dann nähert sich asymptotisch (n! ) die Verteilung von X n einer N (; =n)-verteilung. Satz: X i N (; ) =) n S n besitzt eine n -Verteilung. Maximum-Likelihood-Schätzer zu bestimmen sind Schätzer für die Parameter ~ = ( ; : : : ; k ) einer beliebigen stetigen Verteilung mit Dichte f ~ (x), Parametermenge 8
Likelihoodfunktion: L(x ; : : : ; x n j ~ ) = f ~ (x )f ~ (x ) : : : f ~ (x n ) Definition: Wir nennen ^ einen Maximum-Likelihood-Schätzer für den Parameter ~, falls die Likelihood-Funktion für ^ maximal wird. Bestimmung der Schätzer: ) Logarithmieren von L ) L(X ; : : : ; X n j ^) = max ~ L(X ; : : : ; X n j ~ ): @ @ i ln L(x ; : : : ; x n j ) = 0 8i = : : : k; Normalverteilung N (; ) Schätzer für spezielle Verteilungen ^ = X n = n i= X i ; ^ = S n = n (X i Xn ) i= Exponentialverteilung mit Parameter Poissonverteilung mit Parameter ^ = Xn = n i= X i ^ = X n = n i= X i Binomialverteilung mit Parameter p und vorgegebenem Parameter N ^p = nn i= X i 4. Kon denzbereiche Gegeben Stichprobe X ; X ; : : : ; X n unabhängiger Zufallsgrößen, Grundgesamtheit X X n Mittelwert, S n Stichprobenvarianz 9
Kon denzniveau " = Z n; X N (0; ), X und Z unabhängig. Die Zufallsgröße Y = X q Z n besitzt dann eine t-verteilung mit n Freiheitsgraden (n, Symbol: Y t n ). X N (; ) Kon denzintervall für den Erwartungswert bei bekannter Varianz J = X n z ( =) p ; Xn + z ( =) p n n P ( J) = Kon denzintervall für den Erwartungswert bei unbekannter Varianz J = X n t n ( =) S n p ; Xn + t n ( =) S n p n n P ( J) = Kon denzintervalle für die Varianz (n )Sn zweiseitig: J = n ( =) ; (n )Sn n (=) einseitig: J = 0; (n )Sn n () P ( J) = 5. Statistische Tests Stichprobe X ; X ; : : : ; X n unabhängiger Zufallsgrößen Verteilung mit Parameter, Parametermenge, 0
Nullhypothese H 0 : 0. H :, Teilmenge von n 0, heißt Alternativhypothese. B Schritte beim statistischen Test: ) Nullhypothese H 0, Alternativhypothese H, Voraussetzungen, Signi kanzniveau ) Auswahl des Tests, Berechnung der Testgröße T 3) Entscheidung zur Ablehnung/Nichtablehnung der Nullhypothese Wahrer Sachverhalt Entscheidung H 0 richtig und H falsch H 0 falsch und H richtig H 0 wird nicht richtige Fehler. Art abgelehnt, T = K Entscheidung H 0 wird abgelehnt Fehler. Art richtige T K Entscheidung K kritischer Bereich der Testgröße B Signi kanztest: P (T K ) für 0 Signi kanzniveau im Folgenden X N (; ). Tests für normalverteilte Grundgesamtheiten Gauß-Test bekannt, 0 vorgegeben Hypothese: a) H 0 : = 0, H : 6= 0 b) H 0 : 0, H : > 0 c) H 0 : 0, H : < 0 Testgröße: X T = n 0 p n Testentscheidung: H 0 wird also abgelehnt, falls: a) jt j > z( =); b) T > z( ), c) T < z( ): t-test unbekannt, 0 vorgegeben
Hypothese: a) H 0 : = 0, H : 6= 0 b) H 0 : 0, H : > 0 c) H 0 : 0, H : < 0 Testgröße: Testentscheidung: H 0 wird abgelehnt, falls: X T = n 0 p n S n a) jt j > t n ( =), b) T > t n ( ), c) T < t n ( ): Varianz-Test 0 vorgegeben Hypothese: a) H 0 : = 0, H : 6= 0 b) H 0 : 0, H : > 0 c) H 0 : 0, H : < 0 Testgröße: T = (n Testentscheidung: H 0 wird also abgelehnt, falls: ) S n 0 a) T > n ( =) oder T < n (=) b) T > n ( ), c) T < n (). Nun zwei Stichproben. Stichprobe: X ; X ; : : : ; X n, X i N ( X ; X ) Mittelwert X n, Stichprobenvarianz S X. Stichprobe: Y ; Y ; : : : ; Y m, Y i N ( Y ; Y ) Mittelwert Y m, Stichprobenvarianz S Y doppelter t-test X und Y unbekannt, X = Y Hypothese: a) H 0 : X = Y, H : X 6= Y b) H 0 : Y X, H : Y > X c) H 0 : Y X, H : Y < X Testgröße: mit S = T = r n m m + n Y m S Xn s (n )S X + (m )S Y n + m Testentscheidung: Die Hypothese H 0 wird abgelehnt, falls: a) jt j > t n+m ( =), b) T > t n+m ( ), c) T < t n+m ( ):
B Bei X 6= Y ist der sogenannte Welch-Test zu verwenden. Welch-Test X und Y unbekannt Hypothese: a) H 0 : X = Y, H : X 6= Y b) H 0 : Y X, H : Y > X c) H 0 : Y X, H : Y < X Testgröße: T = Y X q n S X + m S Y Testentscheidung: Die Hypothese H 0 wird abgelehnt, falls: a) jt j > t f ( =), b) T > t f ( ), c) T < t f ( ), Anzahl der Freiheitsgrade: F-Test f = Hypothese: H 0 : X = Y, H : X 6= Y Testgröße: n S X + m S Y n (n ) S4 X + m (m T = S X S Y ) S4 Y Testentscheidung: Die Hypothese H 0 wird abgelehnt, falls: T > F n ;m ( =) oder T < F m ;n ( =). 3