1. Grundbegri e der Stochastik

Ähnliche Dokumente
Zufallsvariablen [random variable]

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Die Varianz (Streuung) Definition

7.2 Moment und Varianz

Stochastik. 1. Wahrscheinlichkeitsräume

I. Deskriptive Statistik 1

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

Wahrscheinlichkeitsrechnung und schließende Statistik

Grundbegriffe der Wahrscheinlichkeitsrechnung

8. Stetige Zufallsvariablen

Statistische Tests für unbekannte Parameter

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen

Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Stochastik und Statistik für Ingenieure Vorlesung 4

Kenngrößen von Zufallsvariablen

Zweiseitiger Test für den unbekannten Mittelwert µ einer Normalverteilung bei unbekannter Varianz

Kapitel 2 Wahrscheinlichkeitsrechnung

Kapitel 10 Mittelwert-Tests Einstichproben-Mittelwert-Tests 10.2 Zweistichproben Mittelwert-Tests

Kapitel VI - Lage- und Streuungsparameter

1 Dichte- und Verteilungsfunktion

Statistik II für Betriebswirte Vorlesung 1

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Mögliche Fragen für mündliche Prüfung aus Statistik und Wahrscheinlichkeitstheorie von Prof. Dutter

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

P (X = 2) = 1/36, P (X = 3) = 2/36,...

Test auf den Erwartungswert

Elementare Wahrscheinlichkeitsrechnung

1.6 Der Vorzeichentest

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom

Statistik II. Statistische Tests. Statistik II

Schließende Statistik

Zusammenfassung Stochastik I + II

Ü b u n g s b l a t t 13

Allgemeines zu Tests. Statistische Hypothesentests

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

2 Zufallsvariable, Verteilungen, Erwartungswert

Inhaltsverzeichnis. 2 Kurzbeschreibung von SPSS Der SPSS-Dateneditor Statistische Analysen mit SPSS DieDaten...

Biometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Messtechnik und Analytik

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

Klausur Stochastik und Statistik 31. Juli 2012

Einführung in die Induktive Statistik: Testen von Hypothesen

Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung

Grundlagen der Mathematik, der Statistik und des Operations Research für Wirtschaftswissenschaftler

Kapitel 1: Elemente der Statistik

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch

Wahrscheinlichkeitsrechnung und Quantentheorie

8. Konfidenzintervalle und Hypothesentests

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Wahrscheinlichkeitsrechnung und schließende Statistik

5 Erwartungswerte, Varianzen und Kovarianzen

Wahrscheinlichkeitstheorie und Statistik vom

Willkommen zur Vorlesung Statistik (Master)

Kapitel 3 Schließende Statistik

Statistische Methoden für Bauingenieure WS 13/14. Einführungsbeispiel

6. Statistische Hypothesentests

Über den Autor 7. Teil Beschreibende Statistik 29

Inhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5

Inhaltsverzeichnis. Teil I Einführung

Statistik für Ökonomen

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet

Statistik. Datenanalyse mit EXCEL und SPSS. Prof. Dr. Karlheinz Zwerenz. R.Oldenbourg Verlag München Wien. Von

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

I. Zahlen, Rechenregeln & Kombinatorik

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

Gegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen. 0 sonst.

Univariates Datenmaterial

Vertiefung der. Wirtschaftsmathematik. und Statistik (Teil Statistik)

Einführung in die computergestützte Datenanalyse

Keine Panik vor Statistik!

Varianz und Kovarianz

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Statistik. Datenanalyse mit EXCEL und SPSS. R.01denbourg Verlag München Wien. Von Prof. Dr. Karlheinz Zwerenz. 3., überarbeitete Auflage

1.8 Kolmogorov-Smirnov-Test auf Normalverteilung

Spezielle stetige Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/453

Biostatistik Erne Einfuhrung fur Biowissenschaftler

Vorlesung Wirtschaftsstatistik 2 (FK ) Wiederholungen deskriptive Statistik und Einleitung Normalverteilungsverfahren. Dipl.-Ing.

2. Zufallsvariable, Verteilungsfunktion, Erwartungswert,

Übungsblatt 9. f(x) = e x, für 0 x

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

Stochastik für die Naturwissenschaften

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = ,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Kapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 8. Übung SS 16: Woche vom

Schätzer und Konfidenzintervalle

Über den Autor 7 Über den Fachkorrektor 7. Einführung 19

Diskrete Wahrscheinlichkeitstheorie - Probeklausur

0, t 0,5

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Übungen zur Stochastik, Blatt Nr. 1

Copula Funktionen. Eine Einführung. Nils Friewald

Lösungen zu den Übungsaufgaben

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Transkript:

Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. ist auch das sichere Ereignis, ; das unmögliche Ereignis. B Operationen mit Ereignissen A; B; A ; A ; : : : A [ B Ereignis A oder B tritt ein A \ B Ereignisse A und B treten ein AnB Ereignis A tritt ein, nicht aber B S n i= A i = A [ A [ : : : [ A n mindestens eines der Ereignisse A i tritt ein T n i= A i = A \ A \ : : : \ A n alle A i treten ein na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt. A \ B = ; bedeutet, dass die Ereignisse A und B unvereinbar sind. Axiome nach Kolmogorov: P (A) heißt Wahrscheinlichkeit des zufälligen Ereignisses, falls () für alle Ereignisse A gilt: 0 P (A). Wahrscheinlichkeiten liegen zwischen 0 und. () P () = : (3) Für unvereinbare Ereignisse A ; A ; : : : ; A n, d.h. A i \ A j = ; für i 6= j, gilt: P! n[ A i = i= P (A i ). i= Dies gilt auch für unendlich viele Ereignisse n =. B Daraus lassen sich weitere Formeln ableiten: (4) P (;) = 0 (5) Falls A \ B = ; erfüllt ist, =) P (A [ B) = P (A) + P (B) (6) P ( A) = P (A) (7) P (A [ B) = P (A) + P (B) P (A \ B) = P (A \ B) + P ( A \ B) + P (A \ B)

(8) P (A) = P (A \ B) + P (A \ B) B Vierfeldertafel: B B A P (A \ B) P (A \ B) P (A) A P ( A \ B) P ( A \ B) P ( A) P (B) P ( B) Zeilensummen bzw. Spaltensummen nach (8), unterste Zeile und letzte Spalte nach (6) Definition: Es seien A; B Ereignisse mit P (B) > 0. Dann heißt P (A j B) = P (A \ B) P (B) die bedingte Wahrscheinlichkeit von A unter der Bedingung B. Definition: Die Ereignisse A und B heißen unabhängig, wenn P (A \ B) = P (A)P (B): B A und B sind genau dann unabhängig, wenn P (A j B) = P (A): Die Bayessche Formel Gegeben seien Ereignisse A; B; P (A) > 0; P (B) > 0. Formel der totalen Wahrscheinlichkeit P (A) = P (A j B) P (B) + P (A j B) P ( B) P (B j A) = P (A j B)P (B) P (A) B Gegeben seien Ereignisse A; B ; : : : ; B n, P (A) > 0; P (B i ) > 0. Die B i bilden ein vollständiges System von Ereignissen: = S n i= B i, B i \ B j = ; für i 6= j, d.h. die B i sind unvereinbar und schöpfen alle Möglichkeiten in aus. Das bedeutet, dass immer genau ein B i eintritt.

Formel der totalen Wahrscheinlichkeit P (A) = P (A j B i )P (B i ) i= Bayessche Formel P (B i j A) = P (A j B i)p (B i ) P (A) = P (A j B i)p (B i ) P (A j B j )P (B j ) j= 3

. Zufallsgrößen Diskrete Zufallsgrößen Verteilungstabelle: Wert x x : : : x r Wahrscheinlichkeit p p p r evtl. unendlich viele Werte p i = P (X = x i ) Bedingungen: 0 < p i < ; rx p i = i= Diskrete Verteilungen Verteilung Parameter Einzelwktn. Gleichverteilung n N (i = : : : n) n Poisson-Verteilung > 0 Binomialverteilung n N; p (0; ) p i i i! e (i = 0; ; : : :) n i p i ( p) n i (i = 0; : : : ; n) Verteilung Erwartungs- Varianz wert E(X) n+ Gleichverteilung Poisson-Verteilung Var(X) n Binomialverteilung np np( p) Kenngrößen diskreter Verteilungen Erwartungswert: Varianz (Streuung): E (X) = rx x i p i i= Var (X) = rx (x i E (X)) p i = i= rx x i p i (E (X)) i= Standardabweichung: (X) = p Var (X) 4

Stetige Zufallsgrößen B Verteilungsfunktion: F (x) = P (X x) Eigenschaften der Verteilungsfunktion einer stetigen Zufallsgröße: (a) lim F (x) = 0; lim F (x) = x! x! (b) F ist monoton wachsend, d.h. F (x) F (y) für x < y. (c) F ist stetig, d.h. lim F (x) = F (x 0 ) für alle x 0 : x!x 0 B Wahrscheinlichkeitsdichte (Dichtefunktion) der Zufallsgröße: f(x) = F 0 (x) =) P (a X b) = P (X a) = P (X b) = Z a Z b Z b a f(x) dx = F (b) f(x) dx = F (a) f(x) dx = F (b) F (a) Das Argument x, für das f(x) maximal wird, heißt Modalwert. B Eine Funktion f ist Dichte einer Zufallsgröße, falls ) f(x) 0, ) Z f(x) dx = Stetige Verteilungen Verteilung Parameter Dichtefunktion f(x) Gleichverteilung auf [a,b] a; b R; a < b (x [a; b]) b a Normalverteilung N (; ) R; (x ) > 0 p exp (x R) Exponentialverteil. Exp() > 0 e x (x > 0) Gammaverteilung p; > 0 p (p) xp e x= (x > 0) Weibullverteilung ; > 0 x e (x=) (x > 0) (n+)= t-verteilung ((n + )=) n N n Freiheitsgrade (n=) p + x (x R) n n exp(x) bedeutet e x ; Chiquadratverteilung n entspricht Gammaverteilung mit = ; p = n Normalverteilung N (0; ) ist die standardisierte Normalverteilung ist Verteilungsfunktion der standardisierten Normalverteilung!Tabelle 5

Verteilung Verteilungs- Erwartungswert Varianz funktion F (x) E(X) Var(X) x a a + b Gleichverteilung [a,b] b a x Normalverteilung Exponentialverteilung e x (b a) > 0 Gammaverteilung nicht explizit p p Weibullverteilung exp( (x=) ) + + + n-verteilung nicht explizit n n t n -Verteilung nicht explizit 0 n n (p) ist Gammafunktion!Tabelle; (m) = (m )! für m N; ( ) = p ; () = ; ( 3 ) = p ; () = ; ( 5 ) = 3 4p B Wahrscheinlichkeiten der Normalverteilung: X N (; ) a P (X a) = b P (a X b) = Beachte: ( x) = (x) für alle x, (0) = 0:5 b ; P (X b) = a Satz: Ist X N (; ), dann Y = ax + b N (a + b; a ): ; ; Erwartungswert: E(X) = Varianz: Var(X) = Z Kenngrößen stetiger Verteilungen Z (x E(X)) f(x) dx = xf(x) dx Z x f(x) dx (E(X)) 6

Standardabweichung: s Z (X) = (x E(X)) f(x) dx Schiefe: (X) = R (x E(X))3 f(x) dx p (Var (X)) 3 (X) > 0 bedeutet rechtsschiefe Verteilung, Modalwert liegt i.a. links neben E(X) (X) < 0 bedeutet linksschiefe Verteilung, Modalwert liegt i.a. rechts neben E(X) (X) = 0 symmetrische Verteilung Schiefe spezieller Verteilungen: Normalverteilung N (; )! (X) = 0 Exponentialverteilung Exp()! (X) = Definition: Eine Zahl q heißt Quantil der Ordnung der stetigen Zufallsgröße X mit der Verteilungsfunktion F, falls F (q ) = Dies bedeutet: P (X q ) = Z q f(x) dx = Median: m = q 0:5 P (X m) = P (X > m) = 0:5 z() Quantil der Standardnormalverteilung N (0; ), t n () Quantil der t n -Verteilung, n() Quantil der n-verteilung Unabhängigkeit von Zufallsgrößen Definition: Zwei Zufallsgrößen X und Y heißen unabhängig, falls gilt: P (X A; Y B) = P (X A) P (Y B) für alle Mengen A; B R. für stetige Zufallsgrößen P (X x; Y y) = P (X x) P (Y y) 8x; y R für diskrete Zufallsgrößen P (X = i; Y = j) = P (X = i)p (Y = j) 8i; j N 7

Rechenregeln für Wahrscheinlichkeiten und Kenngrößen B Seien X; Y zwei Zufallsgrößen. Dann gilt für reelle Zahlen a; b: () E(X + Y ) = E(X) + E(Y ) () E(aX) = ae(x) (3) E(XY ) = E(X) E(Y ), falls X und Y unabhängig (4) Var(X) = E(X E(X)) = EX (EX) (5) Var(aX) = a Var(X) (6) Var(X + Y ) = Var(X) + Var(Y ), falls X und Y unabhängig (7) Var(X) = 0 () P (X = a) = für ein a: =) E(aX + b) = ae(x) + b Var(aX + b) = a Var(X) (a; b R) 3. Statistik - Punktschätzungen Stichprobe X ; : : : ; X n unabhängiger Zufallsgrößen X i hat Verteilungsfunktion F. E(X i ) = ; Var(X i ) = B Stichprobenmittel (Mittelwert) B Stichprobenvarianz S X = n i= X = n i= X i X i X = n! Xi i= Satz: Bei X i N (; ) besitzt X n eine N (; =n)-verteilung. Ist X i nicht normalverteilt, dann nähert sich asymptotisch (n! ) die Verteilung von X n einer N (; =n)-verteilung. Satz: X i N (; ) =) n S n besitzt eine n -Verteilung. Maximum-Likelihood-Schätzer zu bestimmen sind Schätzer für die Parameter ~ = ( ; : : : ; k ) einer beliebigen stetigen Verteilung mit Dichte f ~ (x), Parametermenge 8

Likelihoodfunktion: L(x ; : : : ; x n j ~ ) = f ~ (x )f ~ (x ) : : : f ~ (x n ) Definition: Wir nennen ^ einen Maximum-Likelihood-Schätzer für den Parameter ~, falls die Likelihood-Funktion für ^ maximal wird. Bestimmung der Schätzer: ) Logarithmieren von L ) L(X ; : : : ; X n j ^) = max ~ L(X ; : : : ; X n j ~ ): @ @ i ln L(x ; : : : ; x n j ) = 0 8i = : : : k; Normalverteilung N (; ) Schätzer für spezielle Verteilungen ^ = X n = n i= X i ; ^ = S n = n (X i Xn ) i= Exponentialverteilung mit Parameter Poissonverteilung mit Parameter ^ = Xn = n i= X i ^ = X n = n i= X i Binomialverteilung mit Parameter p und vorgegebenem Parameter N ^p = nn i= X i 4. Kon denzbereiche Gegeben Stichprobe X ; X ; : : : ; X n unabhängiger Zufallsgrößen, Grundgesamtheit X X n Mittelwert, S n Stichprobenvarianz 9

Kon denzniveau " = Z n; X N (0; ), X und Z unabhängig. Die Zufallsgröße Y = X q Z n besitzt dann eine t-verteilung mit n Freiheitsgraden (n, Symbol: Y t n ). X N (; ) Kon denzintervall für den Erwartungswert bei bekannter Varianz J = X n z ( =) p ; Xn + z ( =) p n n P ( J) = Kon denzintervall für den Erwartungswert bei unbekannter Varianz J = X n t n ( =) S n p ; Xn + t n ( =) S n p n n P ( J) = Kon denzintervalle für die Varianz (n )Sn zweiseitig: J = n ( =) ; (n )Sn n (=) einseitig: J = 0; (n )Sn n () P ( J) = 5. Statistische Tests Stichprobe X ; X ; : : : ; X n unabhängiger Zufallsgrößen Verteilung mit Parameter, Parametermenge, 0

Nullhypothese H 0 : 0. H :, Teilmenge von n 0, heißt Alternativhypothese. B Schritte beim statistischen Test: ) Nullhypothese H 0, Alternativhypothese H, Voraussetzungen, Signi kanzniveau ) Auswahl des Tests, Berechnung der Testgröße T 3) Entscheidung zur Ablehnung/Nichtablehnung der Nullhypothese Wahrer Sachverhalt Entscheidung H 0 richtig und H falsch H 0 falsch und H richtig H 0 wird nicht richtige Fehler. Art abgelehnt, T = K Entscheidung H 0 wird abgelehnt Fehler. Art richtige T K Entscheidung K kritischer Bereich der Testgröße B Signi kanztest: P (T K ) für 0 Signi kanzniveau im Folgenden X N (; ). Tests für normalverteilte Grundgesamtheiten Gauß-Test bekannt, 0 vorgegeben Hypothese: a) H 0 : = 0, H : 6= 0 b) H 0 : 0, H : > 0 c) H 0 : 0, H : < 0 Testgröße: X T = n 0 p n Testentscheidung: H 0 wird also abgelehnt, falls: a) jt j > z( =); b) T > z( ), c) T < z( ): t-test unbekannt, 0 vorgegeben

Hypothese: a) H 0 : = 0, H : 6= 0 b) H 0 : 0, H : > 0 c) H 0 : 0, H : < 0 Testgröße: Testentscheidung: H 0 wird abgelehnt, falls: X T = n 0 p n S n a) jt j > t n ( =), b) T > t n ( ), c) T < t n ( ): Varianz-Test 0 vorgegeben Hypothese: a) H 0 : = 0, H : 6= 0 b) H 0 : 0, H : > 0 c) H 0 : 0, H : < 0 Testgröße: T = (n Testentscheidung: H 0 wird also abgelehnt, falls: ) S n 0 a) T > n ( =) oder T < n (=) b) T > n ( ), c) T < n (). Nun zwei Stichproben. Stichprobe: X ; X ; : : : ; X n, X i N ( X ; X ) Mittelwert X n, Stichprobenvarianz S X. Stichprobe: Y ; Y ; : : : ; Y m, Y i N ( Y ; Y ) Mittelwert Y m, Stichprobenvarianz S Y doppelter t-test X und Y unbekannt, X = Y Hypothese: a) H 0 : X = Y, H : X 6= Y b) H 0 : Y X, H : Y > X c) H 0 : Y X, H : Y < X Testgröße: mit S = T = r n m m + n Y m S Xn s (n )S X + (m )S Y n + m Testentscheidung: Die Hypothese H 0 wird abgelehnt, falls: a) jt j > t n+m ( =), b) T > t n+m ( ), c) T < t n+m ( ):

B Bei X 6= Y ist der sogenannte Welch-Test zu verwenden. Welch-Test X und Y unbekannt Hypothese: a) H 0 : X = Y, H : X 6= Y b) H 0 : Y X, H : Y > X c) H 0 : Y X, H : Y < X Testgröße: T = Y X q n S X + m S Y Testentscheidung: Die Hypothese H 0 wird abgelehnt, falls: a) jt j > t f ( =), b) T > t f ( ), c) T < t f ( ), Anzahl der Freiheitsgrade: F-Test f = Hypothese: H 0 : X = Y, H : X 6= Y Testgröße: n S X + m S Y n (n ) S4 X + m (m T = S X S Y ) S4 Y Testentscheidung: Die Hypothese H 0 wird abgelehnt, falls: T > F n ;m ( =) oder T < F m ;n ( =). 3