Forschungsstatistik I

Größe: px
Ab Seite anzeigen:

Download "Forschungsstatistik I"

Transkript

1 Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R (Persike) R (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009 Fachbereich Sozialwissenschaften Psychologisches Institut Johannes Gutenberg Universität Mainz

2 Thema der Stunde Reanimation Mengenlehrekenntnisse Einführung in die Wahrscheinlichkeitslehre Begriff der Wahrscheinlichkeit Klassische Definition nach Laplace Abzählprinzipien I

3 Mengenlehre Wk-Theorie Grundlagen Mengenlehre, naive Venn- Diagramme Operationen G. Cantors Definition einer Menge (1895) Unter einer 'Menge' verstehen wir jede Zusammenfassung M von bestimmten wohlunterschiedenen Objekten m unserer Anschauung oder unseres Denkens (welche die 'Elemente' von M genannt werden) zu einem Ganzen. Schreibe: Somit auch: m M m M N Definition einer Menge: Extensional: M = {1, 3, 5, 7, 9} Intensional: M = {m ungerade natürliche Zahl < 10} lies: für die gilt

4 Mengenlehre Wk-Theorie Grundlagen Mengenlehre, naive Mächtigkeit und Identität von Mengen Venn- Diagramme M ist die Mächtigkeit einer Menge und bezeichnet die Anzahl der Elemente in der Menge. Operationen Bei der extensionalen Definition einer Menge sind die Anzahl gleicher Elemente und auch die Reihenfolge von Elementen gleichgültig. M 1 = {1, 3, 5, 7, 9} M 2 = {3, 7, 1, 9, 5} M 3 = {1, 1, 1, 3, 5, 5, 7, 9, 9} Die Menge der Mächtigkeit 0 ist die leere Menge M = { } bzw. M = sind dieselbe Menge der Mächtigkeit M = 5.

5 Mengenlehre Wk-Theorie Grundlagen Mengenlehre, naive Mengen und Teilmengen Venn- Diagramme Ist eine Menge A eine Teilmenge von B, so gilt für jedes a Є A auch a Є B. Operationen Dann schreibt man: A B Gilt A B und auch B A, so sind A und B gleich. Dann schreibt man: A = B Ambiguität: A B schließt A = B nicht aus. Nur wenn hier nicht B A gilt, ist A eine echte Teilmenge von B. Dann schreibt man: A B

6 Mengenlehre Wk-Theorie Grundlagen Mengenlehre, naive Venn-Diagramme Venn- Diagramme Jede Menge M 1 i und alle Beziehungen zwischen diesen Mengen sind durch einen Kreis repräsentiert. Operationen A B A B A B und B A A A = B B A B

7 Mengenlehre Wk-Theorie Grundlagen Mengenlehre, naive Die Potenzmenge Venn- Diagramme Eine Potenzmenge P(M) ist die Menge aller möglichen Teilmengen von M plus der leeren Menge. Formal: A P(M) genau dann, wenn A M Operationen Beispiel: Ergebnisse eines einmaligen Münzwurfs M = {K, Z, S} P(M) = {, {K}, {Z}, {S}, {K,Z}, {K,S}, {Z,S}, {K,Z,S}} Die Mächtigkeit einer Menge M sei M = n. Dann gilt für die Mächtigkeit der Potenzmenge: P(M) = 2 n

8 Mengenlehre Wk-Theorie Grundlagen Mengenlehre, naive Mengenoperationen Venn- Diagramme Vereinigung von Mengen: A B Operationen (Durch-)Schnitt von Mengen: A B Differenz von Mengen: A \ B Komplementärmenge: A

9 Mengenlehre Wk-Theorie Grundlagen Mengenlehre, naive Mengenoperationen Venn- Diagramme Vereinigung von Mengen: A B Operationen A B = {m m A oder m B} A B A B (Vereinigungsmenge)

10 Mengenlehre Wk-Theorie Grundlagen Mengenlehre, naive Mengenoperationen Venn- Diagramme Operationen (Durch-)Schnitt von Mengen: A B A B = {m m A und m B} A B A B (Schnittmenge)

11 Mengenlehre Wk-Theorie Grundlagen Mengenlehre, naive Mengenoperationen Venn- Diagramme Differenz von Mengen: A \ B Operationen A \ B = {m m A und nicht m B} A B A \ B (Differenzmenge)

12 Mengenlehre Wk-Theorie Grundlagen Mengenlehre, naive Mengenoperationen Venn- Diagramme Operationen Die Komplementärmenge A ist die Menge aller Elemente von Ω, die nicht Element der Menge A sind. Formal: a A genau dann, wenn a A A = Ω \A

13 Mengenlehre Wk-Theorie Grundlagen Ereignisse & Algebren Laplace Definition Abzählregeln Geschichte der WT Anfänge Mitte des 17. Jh. (Huygens, Pascal, Fermat, Bernoulli). Aufgaben des Glücksspiels. Nur Arithmetik und Kombinatorik. Weiterentwicklungen im Jh. durch Laplace, Gauss, Poisson: Fehlertheorie, Ballistik, Pop.stat. Durchbruch zu Beginn des 20. Jh: Entwicklung der W-Theorie, Fundament in axiomatischen Aufbau (Kolmogoroff). Theorie der stochastischen Prozesse (Wiener, Markoff, Chintchin), Partikelphysik. Heute zentraler Bestandteil wiss. Betätigung: Informationstheorie, Physik, Bevölkerungsstatistik, Epidemiologie, Materialprüfung, Statik, Personalauswahl, psychologische Testung, Versuchsplanung und Stichprobentheorie.

14 Mengenlehre Wk-Theorie Grundlagen Zufällige Ereignisse Ereignisse & Algebren Laplace Definition Abzählregeln Die Wahrscheinlichkeitslehre befasst sich mit zufälligen Ereignissen Für diese Zufallsereignisse gilt: 1. Sie sind wiederholbar 2. Sie besitzen eine Stabilität in der relativen Häufigkeit ihres Auftretens

15 Mengenlehre Wk-Theorie Grundlagen Ereignisse & Algebren Laplace Definition Abzählregeln Zufällige Ereignisse Empirische Definition der Wahrscheinlichkeit (von Mises, 1919) ( ): = lim A P A N n N Beispiel 2: Relative Häufigkeit für das Würfeln einer 6 in Abhängigkeit von der Anzahl der Würfelversuche: n A : Häufigkeit des Ereignisses A N : Gesamtzahl aller Versuche

16 Mengenlehre Wk-Theorie Grundlagen Ereignisse & Algebren Laplace Definition Abzählregeln Zufällige Ereignisse Statistische Definition der Wahrscheinlichkeit (von Mises, 1919) Probleme der Statistischen Definition In vielen Fällen ist die empirische Bestimmung einer Häufigkeitsverteilung nicht möglich Nur in wenigen der verbleibenden Fälle ist die Anzahl der Versuche sehr viel größer als 1 Der Limes ( ) ist praktisch nicht realisierbar; Wahrscheinlichkeit wäre also nur eine Hypothese Interpretation von Wahrscheinlichkeiten ist unklar

17 Mengenlehre Wk-Theorie Grundlagen Was ist ein Ereignis? Ereignisse & Algebren Laplace Definition Abzählregeln Ein (Zufalls-)Ereignis bezeichnet eine Menge möglicher Ergebnisse eines Zufallsexperimentes. Ein Ereignis ist die Realisation eines Komplexes Ξ von Bedingungen. Beispiel: Ein sechsseitiger Würfel wird einmal geworfen (= der Komplex Ξ von Bedingungen). Mögliche Ereignisse sind: Das Würfeln einer 6 : {6} Das Würfeln einer Zahl < 3: {1, 2} Das Würfeln einer Primzahl: {2, 3, 5}

18 Mengenlehre Wk-Theorie Grundlagen Elementarereignisse Ereignisse & Algebren Laplace Definition Abzählregeln Zwei Ereignisse B 1 und B 2 heißen paarweise unvereinbar (disjunkt), wenn gilt: Beispiel: E E = unmögliches Ereignis 1 2 Die kleinste Einheit disjunkter Ereignisse, in die sich mögliche Ergebnisse eines Zufallsexperimentes zerlegen lassen, heißt Elementarereignis. Beim Würfelwurf sind die Ereignisse {1}, {2}, {3}, {4}, {5}, {6} Elementarereignisse, nicht aber {2, 4, 6} und {1, 4, 5}.

19 Mengenlehre Wk-Theorie Grundlagen Stichprobenraum Ereignisse & Algebren Gilt: A = E E E 1 2 n Laplace Definition und sind die E i paarweise unvereinbar, so lässt sich A in genau die Teilereignisse E i zerlegen. Wenn stets mindestens eines der Ei eintritt, folgt Abzählregeln Ω = E E E 1 2 n sicheres Ereignis Dann bilden die E i ein vollständiges System paarweise unvereinbarer Ereignisse (Elementarereignisse), den Stichprobenraum.

20 Mengenlehre Wk-Theorie Grundlagen σ-algebra (auch: Ereignisalgebra) Ereignisse & Algebren Laplace Definition Abzählregeln Zu einem Stichprobenraum kann eine Ereignisalgebra konstruiert werden, die ein abgeschlossenes System von Ereignissen darstellt. Regel: Bilde eine Menge U aus dem sicheren Ereignis, dem unmöglichen Ereignis und allen Ereignissen, die sich in Elementarereignisse zerlegen lassen und füge die leere Menge hinzu.. Beispiel: E 1, E 2, E 3 seien die Felder eines Glücksrades {,{ 1},{ 2},{ 3},{ 1, 2},{ 1, 3},{ 2, 3},{ 1, 2, 3} } U = E E E E E E E E E E E E =Ω

21 Mengenlehre Wk-Theorie Grundlagen σ-algebra Der Begriff der Abgeschlossenheit Ereignisse & Algebren Laplace Definition {,{ 1},{ 2},{ 3},{ 1, 2},{ 1, 3},{ 2, 3},{ 1, 2, 3} } U = E E E E E E E E E E E E =Ω Warum heißt dieses System abgeschlossen für das betrachtete Zufallsereignis? Es erfüllt folgende Axiome: 1. Ω U und U Sicheres/unmögliches Ereignis in U Abzählregeln 2. Wenn A U, dann auch Ω \A U Komplementereignis in U 3. A 1 A 2 A n U und A 1 A 2 A n U Vereinigungs-/Schnittmenge in U Also: Alle denkbaren Ausgänge des Zufallsexperimentes sind in U enthalten.

22 Mengenlehre Wk-Theorie Grundlagen Ereignisse & Algebren Die Wahrscheinlichkeitsdefinition von Laplace Jedem Ereignis A, welches der σ-algebra U angehört, kann so eine Wahrscheinlichkeit zugewiesen werden. Laplace Definition Abzählregeln PA ( ) = m n m = Mächtigkeit der Menge an gleichmöglichen Elementarereignissen aus U, die Teilereignis von A sind. n = Mächtigkeit des Stichprobenraumes (also Anzahl aller Elementarereignisse aus U) Die Wahrscheinlichkeit ist demnach eine auf der σ- Algebra U definierte Funktion P(A).

23 Mengenlehre Wk-Theorie Grundlagen Ereignisse & Algebren Laplace Definition Abzählregeln Die Wahrscheinlichkeitsdefinition von Laplace Folgerungen aus der Definition von P(A) 1. Für jedes A aus U gilt: P(A) 0, weil weder m noch n negativ werden können 2. Für das sichere Ereignis gilt: P(Ω) = 1, weil hier m = n 3. Ist ein Ereignis A zerlegbar in die Elementarereignisse E 1, E 2, E i so gilt: P(A) = P(E 1 ) + P(E 2 ) + + P(E i ) Additionstheorem der Wahrscheinlichkeiten

24 Mengenlehre Wk-Theorie Grundlagen Ereignisse & Algebren Laplace Definition Abzählregeln Die Wahrscheinlichkeitsdefinition von Laplace Folgerungen aus der Definition von P(A) 4. Für A gilt also: 0 P(A) 1 5. Für das Komplement A von A gilt: P(A) = 1 P(A) 6. Für die Wahrscheinlichkeit von A oder A gilt: P(A) + P(A) = 1

25 Mengenlehre Wk-Theorie Grundlagen Beispiele Ereignisse & Algebren Summe von 2 Würfelwürfen Laplace Definition Anzahl von Zahl bei 3 Münzwürfen Abzählregeln Frage des Landsknechts an Huygens

26 Permutation Kombination Fundamentales Abzählprinzip Abzählprinzipien Das fundamentale Abzählprinzip Ziehen mit Zurücklegen Ziehen ohne Zurücklegen Kann man einen Vorgang k-mal wiederholen, und zwar zunächst auf n 1 Weisen, danach auf n 2 Weisen, zuletzt auf n k Weisen ausführen, dann gibt es insgesamt N= n 1 n 2 n k verschiedene Möglichkeiten für die gesamte Sequenz.

27 Permutation Kombination Fundamentales Abzählprinzip Abzählprinzipien Permutationen beim Ziehen mit Zurücklegen Ziehen mit Zurücklegen Ziehen ohne Zurücklegen Für die Anordnung von n unterscheidbaren Elementen in einer Reihe mit Zurücklegen gibt es N = n k = n n n Reihenfolgen. K-mal

28 Permutation Kombination Fundamentales Abzählprinzip Ziehen mit Zurücklegen Ziehen ohne Zurücklegen Abzählprinzipien Permutationen beim Ziehen ohne Zurücklegen Für die Anordnung von n unterscheidbaren Elementen in einer Reihe ohne Zurücklegen gibt es N = n n-1 n-2 1 Reihenfolgen. Sollen die n Elemente in einem Ring ohne Anfang/Ende angeordnet werden, ist die Platzierung des ersten Elementes gleichgültig. Deshalb gibt es für die Anordnung in einem Ring ohne Zurücklegen N = n-1 n-2 1 Reihenfolgen. Man verliert in der Ringpermutation n Möglichkeiten.

29 Permutation Kombination Fundamentales Abzählprinzip Ziehen mit Zurücklegen Ziehen ohne Zurücklegen Abzählprinzipien Permutation und der Fakultätsbegriff Permutation können in Fakultätsnotation geschrieben werden als: N = n! = n n-1 n-2 1 sprich: n Fakultät Oder kurz: 1 n! = i i= n

30 Permutation Kombination Fundamentales Abzählprinzip Abzählprinzipien Permutationen mit Restriktion Ziehen mit Zurücklegen Sollen nur k der n Elemente angeordnet werden, gibt es N = n n-1 n-2 (n k + 1) Reihenfolgen. Ziehen ohne Zurücklegen Dies kann einfacher berechnet werden als N = n! ( n k)!

31 Permutation Kombination Fundamentales Abzählprinzip Ziehen mit Zurücklegen Abzählprinzipien Permutationen mit gleichen Elementen Sind nicht alle n Elemente wohlverschieden, so gibt es m Gruppen gleicher Elemente, womit für die Gesamtzahl aller Elemente n gilt: Ziehen ohne Zurücklegen n m = n i= 1 i Jede dieser m Gruppen ergibt n i! gleiche Folgen. Damit ist: N alle Folgen n! = = m gleiche Folgen n i= 1 i!

32 Permutation Kombination Beispiele Elektrostimulationsexperiment mit Blöcken Klassenarbeit mit Abschreiben Geburtstagsproblem Ballspiele im Ikea Kinderland 09/11 Reichen 20 Zahlen?

33 Permutation Kombination Abzählprinzipien Kombination Binomialkoeffizient Hypergeometrische Formel Für die Anordnung von k Elementen aus einer Menge von n unterscheidbaren Elementen in einer Reihe ohne Zurücklegen gibt es Beispiele N = n! ( n k)! Reihenfolgen. Spielt die Reihenfolge der Elemente keine Rolle, gibt es nur noch N ' = N k! Möglichkeiten.

34 Permutation Kombination Binomialkoeffizient Hypergeometrische Formel Abzählprinzipien Kombination und der Binomialkoeffizient Für die Anordnung von k Elementen aus einer Menge von n unterscheidbaren Elementen in einer Reihe ohne Zurücklegen ohne Beachtung der Reihenfolge ( Kombination ) gibt es also Beispiele N n n! = = k k!( n k)! Reihenfolgen. N n = k (lies: n über k) heißt Binomialkoeffizient

35 Permutation Kombination Abzählprinzipien Hypergeometrische Formel Binomialkoeffizient Hypergeometrische Formel Werden aus N Elementen n ohne Zurücklegen ohne Beachtung der Reihenfolge gezogen und sind davon K Elemente günstig, so gibt es für die Anzahl von k günstigen in den n gezogenen Elementen Beispiele N N K K = n k k Möglichkeiten. Möglichkeiten für ungünstige Ziehungen Möglichkeiten für günstige Ziehungen

36 Permutation Kombination Abzählprinzipien Hypergeometrische Formel Binomialkoeffizient Hypergeometrische Formel Beispiele Gilt also: N ist die Anzahl aller Elemente K ist die Anzahl günstiger Elemente in den N n ist die Anzahl der Ziehungen k ist die Anzahl der günstigen in den Ziehungen so ist die gesuchte Wahrscheinlichkeit Pk ( ) = N K K n k k N n Hypergeometrische Formel Hinweis: Diese Formel ist auch bei Beachtung der Reihenfolge anzuwenden.

37 Permutation Kombination Beispiele Binomialkoeffizient Hypergeometrische Formel Beispiele Ausschuss bilden Boltzmann und Bose-Einstein Geschlechterteilung Steineschieber 2 Asse in 5 Karten Zahlenlotto

38 Regeln Beispiele Abzählregeln Permutation und Kombination mit und ohne Wiederholung Wiederholung Reihenfolge mit ohne wichtig n k n! (n k)! egal n+k 1 k = (n+ k 1)! k!(n 1)! n k = n! k!(n k)! nicht alle verschieden: n! n 1!n 2!...n k!

39 Regeln Beispiele Ereignisalgebren Schreiben Sie den Stichprobenraum für den Wurf einer idealen Münze auf (Kopf oder Zahl). Schreiben Sie die Ereignisalgebra für diesen Fall auf. Schreiben Sie den Stichprobenraum für den Wurf zweier Würfel auf. Wie viele Elemente umfasst er? Wieviele Elemente umfasst die Ereignisalgebra für diesen Fall.

40 Regeln Beispiele Ereignisalgebren Was versteht man unter der Partitionierung des Stichprobenraums? Geben Sie eine mögliche Partitionierung des Stichprobenraums für den Wurf zweier Würfel an, damit beide Partitionen gleich viele Elemente enthalten.

41 Regeln Beispiele Permutationen Wie viele Möglichkeiten gibt es, 5 sechsseitige Würfel in einer Reihe anzuordnen Wie viele mögliche Ergebnisse gibt es beim Spiel 77, wie viele beim Spiel Super 6? Wie viele Möglichkeiten gibt es, 8 Personen auf 8 Stühle zu verteilen, wenn die Stühle in einer Reihe stehen Wie viele Möglichkeiten gibt es, 8 Politiker am runden Tisch anzuordnen? Wie viele Möglichkeiten gibt es, Folgen von 3 aus 32 Spielkarten ohne Zurücklegen zu ziehen? Wie viele Möglichkeiten gibt es, die Buchstaben des Wortes Mathekenntnis neu anzuordnen?

42 Regeln Beispiele Permutationen Eine Psychologin führe ein Elektrostimulationsexperiment durch. Sie habe 4 Stromstufen und eine Chillout-Phase. In jeder Stromstufe möchte Sie drei Tests applizieren (Konzentration, Memory, Trackingaufgabe), in der Chillout-Phase noch zwei Fragebögen. Nun möchte sie die vier Stromstärken randomisieren, ebenso wie die Tests innerhalb der Stromstärken. Die Chillout-Phase steht am Ende des Experimentes, auch hier soll die Fragebögenreihenfolge randomisiert werden. Wie viele mögliche Reihenfolge gibt es? Wie viele gäbe es bei nur zwei Stromstärken?

43 Regeln Beispiele Permutationen Peggy und Marvin wollen in einer Klassenarbeit abschreiben. Mit ihnen schreiben weitere 6 Personen diese Arbeit. Sollte die Klassenarbeit besser in einer Tischreihe oder im Kreis geschrieben werden, wenn die beiden mit höherer Wahrscheinlichkeit abschreiben können sollen? Wie viele Personen muss man auf eine Party einladen, damit die Wahrscheinlichkeit, dass mindestens zwei von ihnen am gleichen Tag Geburtstage haben, größer als 50% ist? Versuchspersonen in einem Experiment sollen sich ihre eigene ID zuweisen. Reicht es zu sagen Wählen Sie sich eine von 20 Zahlen., damit die Wahrscheinlichkeit, dass sich zwei Personen dieselbe Zahl merken, hinreichend klein ist?

44 Regeln Beispiele Permutationen Ihre kleine Schwester hat 4 gelbe, drei grüne und 2 rote Bälle aus dem IKEA Kinderland mitgenommen. Wie viele Reihenfolgen kann man mit den Bällen legen, wenn die Bälle unterscheidbar sind? Und bei Ununterscheidbarkeit der Bälle? Wie groß ist die Wahrscheinlichkeit, dass bei zufälliger Ziehung Bälle gleicher Farbe zusammenliegen bei unterscheidbaren Bällen/bei ununterscheidbaren Bällen?

45 Regeln Beispiele Kombinationen In der Fachschaft sind 32 Personen, davon 15 Frauen. Wie viele Möglichkeiten gibt es, einen Ausschuss mit 5 Personen aus den 32 FS-Mitgliedern zu bilden? Am Ausschuss sollen mindestens zwei weibliche Mitglieder beteiligt sein. Wie viele Möglichkeiten der Ausschussbildung gibt es nun? In einer Schulklasse gibt es 34 Schüler, davon die Hälfte weiblich. Angenommen, man teilt sie zufällig in zwei Gruppen. Wie groß ist die Wahrscheinlichkeit, dass auch in diesen beiden Gruppen jeweils die Hälfte weiblich ist.

46 Regeln Beispiele Vermischtes Boltzmann-Statistik: Es gibt N Kästchen, in die n Teilchen gelegt werden können (n N). Angenommen, die Teilchen sind unterscheidbar. Wie viele Möglichkeiten gibt es, die Teilchen auf die Kästchen zu verteilen, wenn a) beliebig viele Teilchen in einem Kästchen liegen dürfen oder b) in jedem besetzten Kästchen nur ein Teilchen liegen darf? Bose-Einstein-Statistik: Beantworten Sie die Fragen a) und b), aber unter der Annahme, dass die Teilchen nicht unterscheidbar sind.

47 Regeln Beispiele Hypergeometrische Formel Sie ziehen 5 aus 32 Karten ohne Zurücklegen. Wie viele Möglichkeiten gibt es, die 5 Karten in einer Reihe anzuordnen? Wie viele Möglichkeiten gibt es, 5 Karten ohne Beachtung der Reihenfolge zu ziehen? Wie wahrscheinlich ist es, dass unter den 5 Karten genau 2 Asse sind? Und mindestens 2 Asse? Wie wahrscheinlich ist es, 0 Richtige im Lotto zu haben? Und mindestens 2 Richtige?

48 Kolmogoroff-Wk Bedingte Wk Probleme der Laplace-Wk Wk Definition Kolmogoroff Die Wahrscheinlichkeitsdefinition von Laplace Recap Jedem Ereignis A, welches der σ-algebra U angehört, kann so eine Wahrscheinlichkeit zugewiesen werden. Bedingte Wk Satz von Bayes PA ( ) = m n m = Mächtigkeit der Menge an gleichmöglichen Elementarereignissen aus U, die Teilereignis von A sind. n = Mächtigkeit des Stichprobenraumes (also Anzahl aller Elementarereignisse aus U) Beispiele: Münzwurf, Würfelwurf, Runder Tisch

49 Kolmogoroff-Wk Bedingte Wk Probleme der Laplace-Wk Wk Definition Kolmogoroff Bedingte Wk Satz von Bayes Die Wahrscheinlichkeitsdefinition von Laplace Probleme Die Definition von P(A) ist zirkulär, da Gleichmöglichkeit nur ein Synonym für Gleichwahrscheinlichkeit ist. Die Klasse der enthaltenen Zufallsprozesse ist durch das Konzept der Gleichmöglichkeit von Elementarereignissen stark eingeschränkt.

50 Kolmogoroff-Wk Bedingte Wk Probleme der Laplace-Wk Thema der Stunde Wk Definition Kolmogoroff Bedingte Wk Satz von Bayes Die axiomatische Definition der Wahrscheinlichkeit nach Kolmogoroff Folgerungen aus den Axiomen Einführung in das Konzept der bedingten Wahrscheinlichkeit

51 Kolmogoroff-Wk Bedingte Wk Probleme der Laplace-Wk Wk Definition Kolmogoroff Bedingte Wk Satz von Bayes Die axiomatische Wk- Definition von Kolmogoroff Die auf U definierte Funktion P(A) besitzt folgende Eigenschaften: 1. Für jedes Ereignis A der Algebra U gilt: P(A) 0 2. Für das sichere Ereignis gilt: P(Ω) = 1 3. Läßt sich das Ereignis A in die unvereinbaren Teilereignisse B und C zerlegen (A, B, C U an), gilt: P(A) = P(B) + P(C) Additionstheorem der Wahrscheinlichkeiten

52 Kolmogoroff-Wk Bedingte Wk Probleme der Laplace-Wk Wk Definition Kolmogoroff Folgerungen aus den Axiomen P( ) = 0 Wahrscheinlichkeit des unmöglichen Ereignisses ist 0. Bedingte Wk Satz von Bayes Es gilt ja für den Stichprobenraum Ω: Ω =Ω =Ω+ Und mit Axiom 3 (Additionstheorem): P( Ω ) = P( Ω ) + P( ) Und mit Axiom 2 nun: 1= 1 + P( ) Durch Umformen folgt der Satz.

53 Kolmogoroff-Wk Bedingte Wk Probleme der Laplace-Wk Wk Definition Kolmogoroff Bedingte Wk Satz von Bayes Folgerungen aus den Axiomen ( ) = 1 P( A) P A Wahrscheinlichkeit des Komplements ist 1 minus die WK des Ereignisses Es gilt ja für den Stichprobenraum Ω: Ω = A A Und mit Axiom 2 folglich: 1 = P( A A) Und mit Axiom 3 (Additionstheorem) dann: 1 = P( A) + P( A) Woraus der Satz folgt.

54 Kolmogoroff-Wk Bedingte Wk Probleme der Laplace-Wk Folgerungen aus den Axiomen Wk Definition Kolmogoroff Gilt A B, so folgt ( ) P( B) P A Bedingte Wk B lässt sich als Vereinigung der disjunkten Ereignisse A und B\A ( B ohne A ) schreiben: Satz von Bayes Da P(B\A) 0 folgt der Satz. B = A B\A A B\A

55 Kolmogoroff-Wk Bedingte Wk Probleme der Laplace-Wk Folgerungen aus den Axiomen Wk Definition Kolmogoroff Bedingte Wk P(A\B) = P(A) P(A Β) A lässt sich als Vereinigung der disjunkten Ereignisse A\B und A B schreiben: A = (A\B) (A B) A\B A B B Satz von Bayes Wegen des Additionstheorems folgt sofort P(A) = P(A\B) + P(A B) Und hieraus folgt der Satz.

56 Kolmogoroff-Wk Bedingte Wk Probleme der Laplace-Wk Wk Definition Kolmogoroff Bedingte Wk Satz von Bayes Folgerungen aus den Axiomen P(A B) = P(A) + P(B) - P(A B) (Allgemeiner Additionssatz) A B lässt sich als Vereinigung der disjunkten Ereignisse A\B und B schreiben: A B = (A\B) B Wegen des Additionstheorems folgt P(A B) = P(A\B) + P(B) A\B Wir zeigten aber vorher: P(A\B) = P(A) P(A B) B Einsetzen gibt: P(A B) = P(A) + P(B) P(A B) Und dies ist der allgemeine Additionssatz.

57 Kolmogoroff-Wk Bedingte Wk Probleme der Laplace-Wk Wk Definition Kolmogoroff Bedingte Wk Satz von Bayes Folgerungen aus den Axiomen P(Α) = P(A1) + P(A2) + + P(An) wenn alle A i paarweise disjunkt Ist A in die unvereinbaren Teilreignisse A i zerlegbar, ist die Wk für A gleich der Summe der Wken der Teilereignisse. Für zwei unvereinbare Ereignisse gilt: Wir zeigten aber vorher: P( ) = 0 Wegen des allgemeinen Additionssatzes ist also: P(A) = P(A 1 + A 2 ) = P(A 1 ) + P(A 2 ) - P(A 1 A 2 ) = P(A 1 ) + P(A 2 ) A i A = j Durch vollständige Induktion ist dies der erweiterte Additionssatz.

58 Kolmogoroff-Wk Bedingte Wk Probleme der Laplace-Wk Wk Definition Kolmogoroff Bedingte Wk Satz von Bayes Bedingte Wahrscheinlichkeit PB ( A) = P( A B) PA ( ) Ist die Wahrscheinlichkeit für das Ereignis B, gegeben dass das Ereignis A bereits eingetreten ist (lies: B gegeben A ). Die Wahrscheinlichkeit P(A) wird als Grundwahrscheinlichkeit bezeichnet. P(B A) wird bedingte Wahrscheinlichkeit genannt. A A B B S Im Venn Diagramm kann P(B A) als Anteil der Fläche A B nicht mehr am gesamten Stichprobenraum S, sondern nur noch an der Fläche A interpretiert werden.

59 Kolmogoroff-Wk Bedingte Wk Probleme der Laplace-Wk Wk Definition Kolmogoroff Bedingte Wk Satz von Bayes Bedingte Wahrscheinlichkeit Im Laplace Ansatz Es seien a die für das Ereignis A günstigen Elementarereignisse b die für das Ereignis B günstigen Elementarereignisse c die für das Ereignis AB (bzw. A B) günstigen El.e. n die Menge aller Elementarereignisse. Dann ist zunächst P(A) = a / n P(B) = b / n P(AB) = c / n Aus dem Venn Diagramm sieht man auch: P(B A) = c / a Durch n/n teilen ergibt c PB ( A) = n = a n P( A B) PA ( )

60 Kolmogoroff-Wk Bedingte Wk Probleme der Laplace-Wk Wk Definition Kolmogoroff Bedingte Wahrscheinlichkeit Im Kolmogoroff Ansatz In der axiomatischen Definition der Wahrscheinlichkeit kann die Berechnungsvorschrift für bedingte Wahrscheinlichkeiten nicht bewiesen werden. Bedingte Wk Deshalb muss die bedingte Wahrscheinlichkeit hier definiert werden: Satz von Bayes! P( A B) PB ( A) = PA ( )

61 Kolmogoroff-Wk Bedingte Wk Probleme der Laplace-Wk Wk Definition Kolmogoroff Bedingte Wahrscheinlichkeit Das Multiplikationstheorem Man sieht sofort dass gilt: P(A B) = P(B A) Bedingte Wk Satz von Bayes Damit erhalten wir durch Umformen PA ( B) P( A B) PB ( A) = PAB ( ) = PA ( ) PB ( ) P( A B) = P( B A) P( A) PA ( B) = PAB ( ) PB ( ) Multiplikationstheorem

62 Kolmogoroff-Wk Bedingte Wk Probleme der Laplace-Wk Wk Definition Kolmogoroff Bedingte Wk Satz von Bayes S Wahrscheinlichkeitsbäume Additions- und Multiplikationstheorem für bedingte Wahrscheinlichkeiten lassen sich gut an einem Wahrscheinlichkeitsbaum veranschaulichen. P(A 1 ) P(A 1 ) P(A 1 ) Ereignis A A 1 A 2 A 3 P(B 1 A 1 ) P(B 2 A 1 ) P(B 1 A 2 ) P(B 2 A 2 ) P(B 1 A 3 ) P(B 2 A 3 ) Ereignis B, gegeben A B 1 B 2 B 1 B 2 B 1 P(B 1 A 1 )P(A 1 ) P(B 2 A 1 )P(A 1 ) P(B 1 A 2 )P(A 2 ) P(B 2 A 2 )P(A 2 ) P(B 1 A 3 )P(A 3 ) Multiplikationstheorem für Wk ten Man sieht auch: P(A 1 B 1 A 2 B 1 A 3 B 1 )= P(B 1 A 1 )P(A 1 )+ P(B 1 A 2 )P(A 2 )+ P(B 1 A 3 )P(A 3 ) B 2 P(B 2 A 3 )P(A 3 )

63 Kolmogoroff-Wk Bedingte Wk Probleme der Laplace-Wk Wk Definition Kolmogoroff Bedingte Wk Satz von Bayes Satz der totalen Wahrscheinlichkeit Wenn die Ereignisse B 1, B 2, B k paarweise disjunkt sind und das Ereignis A immer mit einem der B i auftritt, gilt A = AB 1 AB 2 AB k Mit dem Additionsthorem erhalten wir k P( A) = P( ABi ) i= 1 Und mit dem Multiplikationssatz wird daraus k i= 1 S B k B 1 B 2 P( A) = P( B) P( A B) Satz der totalen i i A Wahrscheinlichkeit

64 Kolmogoroff-Wk Bedingte Wk Probleme der Laplace-Wk Satz von Bayes Wir sehen anhand des Multiplikationstheorems, dass Wk Definition Kolmogoroff P(B A) P(A) = P(A B) P(B) Damit gilt Bedingte Wk PB ( A) = P( A BPB ) ( ) PA ( ) bzw. PAB ( ) = P( B A) P( A) PB ( ) Satz von Bayes Die bedingte Wahrscheinlichkeit eines Ereignisses A gegeben B ist zu berechnen aus der Wahrscheinlichkeit für B gegeben A und den Grundwahrscheinlichkeiten von A und B. Diese Beziehung ist der Satz von Bayes.

65 Kolmogoroff-Wk Bedingte Wk Probleme der Laplace-Wk Wk Definition Kolmogoroff Bedingte Wk Satz von Bayes Satz von Bayes Verallgemeinerung Hat man mehrere Ereignisse B 1, B 2,, B k wird beim Satz von Bayes PB ( A) = i P( A Bi) P( Bi) PA ( ) vorausgesetzt, dass die Grundwahrscheinlichkeit für A bekannt ist. Häufig kennt man aber nur die P(A B i ). Mit dem Satz der totalen Wahrscheinlichkeit erhält man aus dem Satz von Bayes diese allgemeine Bayes-Formel: PAB ( i) PB ( i) PB ( i A) = P( A B) P( B) i i i

66 Unabhängigkeit Zufallsvariablen Multiplikations satz Wechselseitigkeit Gegenereignisse Stochastische Unabhängigkeit Wenn gilt: P(B) = P(B A) werden die Ereignisse A und B stochastisch unabhängig genannt, weil die Wahrscheinlichkeit des Auftretens des Ereignisses B nicht vom Auftreten von A abhängt. Setzen wir die rechte Seite der Gleichung in das Multiplikationstheorem ein, erhalten wir: P(A B) = P(B A) P(A) = P(A) P(B) Kurz: P(A B) = P(A) P(B) Multiplikationssatz für stoch. unabh. Ereignisse

67 Unabhängigkeit Zufallsvariablen Multiplikations satz Wechselseitigkeit Gegenereignisse Stochastische Unabhängigkeit Wechselseitigkeit Wir haben beim Multiplikationstheorem gesehen, dass P(A B) = P(B A) P(A) = P(A B) P(B) Und beim Multiplikationssatz, dass für ein von A stochastisch unabhängiges Ereignis B [also P(B) = P(B A)] gilt: P(A B) = P(A) P(B) Einsetzen der zweiten Gleichung in die erste führt zu P(A B) P(B) = P(A) P(B) also P(A B)= P(A) Also: Ist B von A unabhängig, so ist es auch A von B.

68 Unabhängigkeit Zufallsvariablen Multiplikations satz Wechselseitigkeit Gegenereignisse Stochastische Unabhängigkeit Verallgemeinerung des Multiplikationssatzes Wenn die Ereignisse A 1, A 2, A k insgesamt unabhängig sind, so gilt P(A 1 A 2 A k ) = P(A 1 ) P(A 2 ) P(A k ) Achtung: Die Disjunktheit von Ereignissen hat mit der stochastischen Unabhängigkeit nichts zu tun. A und B sind disjunkt (A B = { }). Wenn aber A eingetreten ist, verändert sich P(B) zu P(B) / P(S \ A), wird also größer, solange A { }. A B S

69 Unabhängigkeit Zufallsvariablen Multiplikations satz Stochastische Unabhängigkeit Gegenereignisse Wechselseitigkeit Nach de Morgans Gesetzen gilt: A B= A B A B= A B Gegenereignisse Damit lässt sich zeigen, dass P( A B) = P( A) P( B) P( A B) = P( A) P( B) A B P( A B) = P( A) P( B) Wenn also die Ereignisse A und B stochastisch unabhängig sind, so sind es auch ihre Gegenereignisse und alle Paarungen daraus.

70 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariable Zufallsexperimente Stichprobenraum, Messung und Realisation Beispiel: Anzahl korrekter Antworten im Mathekenntnistest Grafische Darstellung Verteilungsformen Stichprobenraum Ω Zufallsvariable Y(Ω) Messung von Y(Ω) Realisationen: y 1, y 1, Alle Personen in diesem Raum Mögl. Werte: 0, 1, 2, Test einer Person im Raum Messwerte: 2, 0, 1, 1, 4, 3,

71 Unabhängigkeit Zufallsvariablen Zufallsvariable Zufallsvariablen Definitionen Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen Die Ergebnisse eines Zufallsexperimentes werden als Realisationen bezeichnet Ist Y eine Funktion, die jeder möglichen Realisation aus dem Stichprobenraum Ω eine reelle Zahl zuordnet, so wird diese Variable als Zufallsvariable bezeichnet. Die Menge der möglichen Funktionswerte Y(Ω) ist damit der Wertebereich von Y Die Zuweisung von Zahlen zu den Realisationen von Y wird als Messung bezeichnet, die gemessenen Realisationen häufig als Messwerte

72 Unabhängigkeit Zufallsvariablen Zufallsvariable Zufallsvariablen Notation Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen Zufallsvariablen werden mit Großbuchstaben bezeichnet, häufig mit Y oder X. Realisationen von Zufallsvariablen werden mit Kleinbuchstaben bezeichnet, z.b. y 1, y 2,, y n Hinweis: Häufig werden sowohl die möglichen Realisationen als auch die tatsächlichen Realisationen aus n Messungen mit denselben Kleinbuchstaben bezeichnet. Beispiel beim Münzwurf: {y 1 = 0; y 2 =1} aber auch: y 1 =0, y 2 =0, y 3 =1, y n =1

73 Unabhängigkeit Zufallsvariablen Zufallsvariable Zufallsvariablen Notation für Wahrscheinlichkeiten Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen Auf der Zufallsvariable können nun Ereignisse definiert werden, z.b. a Y b oder Y = a. Diesen Ereignissen können reelle Zahlen zugewiesen werden, die die Kolmogoroff Axiome erfüllen, z. B. P(a Y b) oder P(Y = a) In der Wahrscheinlichkeitstheorie besonders wichtig ist die Punktwahrscheinlichkeit, also dass die Zufallsvariable Y eine bestimmte Ausprägung annimmt: Y = y Die Wk für Y = y wird als P(Y = y) geschrieben Werte für diese Wk werden mit p bezeichnet

74 Unabhängigkeit Zufallsvariablen Zufallsvariable Zufallsvariablen Wahrscheinlichkeiten und Vererbung Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen Der Wertebereich Y(Ω) einer Zufallsvariablen ist wieder ein Stichprobenraum Die Ergebnisse in diesem Raum haben dieselben Wahrscheinlichkeiten P(y) wie die Ergebnisse im ursprünglichen Stichprobenraum P(Y) ( Vererbung ) und erfüllen auch die Kolmogoroff Axiome Die Zuordnungsvorschrift, die den Ergebnissen im Wertebereich die durch die Vererbung vorgegebenen Wahrscheinlichkeiten zuordnet, heißt Wahrscheinlichkeitsverteilung (probability distribution) der Zufallsvariablen

75 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariablen Definition Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen Eine Zufallsvariable, die abzählbar viele Werte annehmen kann (in endlich oder unendlich vielen Ausprägungen), wird als diskrete Zufallsvariable bezeichnet Das Ereignis, dass die diskrete Zufallsvariable Y eine bestimmte (die i-te) Ausprägung annimmt, wird bezeichnet als Y = y i Die Wk für Y = y i wird als P(Y = y i ) geschrieben Werte für diese Wk werden mit p i bezeichnet

76 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariablen Übersicht Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen?

77 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariablen Häufigkeit und Wahrscheinlichkeit Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen Die empirische beobachtete Häufigkeit des Auftretens einer Realisation Y = y in einem Zufallsexperiment wird als h(y = y) geschrieben. h(y = y) wird auch als absolute Häufigkeit bezeichnet. Die relative Häufigkeit f(y=y) ist dann definiert als der Quotient aus absoluter Häufigkeit und der Anzahl n aller Versuche, also f(y=y) = h(y=y) / n

78 Unabhängigkeit Zufallsvariablen Zufallsvariable Gesetz der großen Zahlen Law of large numbers Diskrete Zufallsvariable Grafische Darstellung Bei unabhängigen Wiederholungen eines Zufallsexperiments strebt die mittlere relative Häufigkeit h(a) für Das Auftreten eines Ereignisses A gegen die Wahrscheinlichkeit P(A) P A ( ) : = lim h( A) n Verteilungsformen

79 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariablen Übersicht Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen

80 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariable Grafische Darstellung Diskrete Zufallsvariablen Wahrscheinlichkeitsverteilung Die Verteilung der P(Y = y i ) wird als diskrete Wahrscheinlichkeitsverteilung bezeichnet. Sie wird definiert als { } P( Y = y ) = p falls y y y f( y) = 0 sonst i i i 1 k Verteilungsformen Wert von Y y 1 y 2 y i y k P(Y = y i ) p(y 1 ) p(y 2 ) p(y i ) p(y k )

81 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen Diskrete Zufallsvariablen Verteilungsfunktion Die Verteilung der P(Y y m ) wird als Verteilungsfunktion der Zufallsvariablen Y oder kumulierte Wahrscheinlichkeitsverteilung bezeichnet. Sie wird definiert als F( y) = P( Y ym) = p m i= 1 i Wert von Y y 1 Y 2 Y m P(Y y i ) p(y 1 ) p(y 1 ) + p(y 2 ) p(y 1 ) + p(y 2 ) + + p(y m )

82 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariablen Theoretische und empirische Wk-Verteilung Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen Die empirische relative Häufigkeitsverteilung der f(y) und die Wahrscheinlichkeitsverteilung der P(y) sind konzeptuell strikt zu trennen Die empirische Verteilungsfunktion und die Verteilungsfunktion einer Zufallsvariablen sind ebenfalls konzeptuell strikt zu trennen Die theoretischen Verteilungen bedürfen keiner Daten, denn sie sind gegeben Die theoretischen Verteilungen bestimmen, was für die empirischen Verteilungen zu erwarten ist

83 Unabhängigkeit Zufallsvariablen Zufallsvariable Grafische Beschreibung von empirischen Häufigkeitsverteilungen Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen Absolute Häufigkeitsverteilung Stamm-Blatt Diagramm Absolute und relative Häufigkeitsverteilungen, Wahrscheinlichkeitsverteilungen Kreisdiagramm Balkendiagramm Histogramm Verteilungsfunktionen Empirische Verteilungsfunktion

84 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariable Grafische Darstellung Grafische Beschreibung Stamm-Blatt Diagramm Das Stamm-Blatt Diagramm stellt Häufigkeitsdaten grafisch ohne Verlust von Informationen dar. Es eignet sich besonders für kleine Datensätze. Das Diagramm besteht aus 2 Spalten Verteilungsformen Stamm = Äquivalenzklassen (feste Dezimalstellen) Blätter = Merkmale (variable Dezimalstellen) Die Stammbreite bezeichnet dabei die Breite der Klassen des Stamm-Blatt Diagramms

85 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen Grafische Beschreibung Stamm-Blatt Diagramm Beispiel: Gegeben seien die Realisationen eines Zufallsexperimentes mit n = 30. (2, 8, 10, 11, 11, 12, 13, 14, 15, 17, 18, 19, 20, 21, 21, 23, 23, 24, 24, 25, 25, 26, 27, 27, 28, 28, 29, 29, 30, 32) Mit Stammbreite = 10

86 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen Grafische Beschreibung Stamm-Blatt Diagramm Beispiel: Gegeben seien die Realisationen eines Zufallsexperimentes mit n = 30. (2, 8, 10, 11, 11, 12, 13, 14, 15, 17, 18, 19, 20, 21, 21, 23, 23, 24, 24, 25, 25, 26, 27, 27, 28, 28, 29, 29, 30, 32) Mit Stammbreite = 5

87 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariable Grafische Beschreibung Stamm-Blatt Diagramm Das Stamm- Blatt Diagramm eignet sich auch zum Vergleich zweier Verteilungen. Grafische Darstellung Verteilungsformen Mit Stammbreite = 5

88 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen Grafische Beschreibung Kreisdiagramm Das Kreis- oder Tortendiagramm stellt die relativen oder absoluten Häufigkeiten von Klassen als Kreissegmente eines Vollkreises ( Tortenstücke ) dar. Der Öffnungswinkel α eines Tortenstücks ist dabei durch den Anteil der Klassenelemente an allen Elementen definiert und wird berechnet als H( y) α = 360 = 360 h( y) n Die Summe der Öffnungswinkel aller Kreissegmente sollte wieder 360 ergeben

89 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariable Grafische Beschreibung Kreisdiagramm Beispiel: Von den Wahlgängern der Bundestagswahl 2005 haben gewählt: Grafische Darstellung % % % % Verteilungsformen % SPD CDU/CSU FDP Grüne % Linke Sonstige

90 Unabhängigkeit Zufallsvariablen Zufallsvariable Grafische Beschreibung Balkendiagramm Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen Das Balken- oder Säulendiagramm stellt die relativen oder absoluten Häufigkeiten von Klassen als Balken (waagerecht) oder Säulen (senkrecht) dar. Der Länge der Säulen bzw. Balken ist dabei durch den Anteil der Klassenelemente am Ganzen definiert. Die Breite der Balken variiert i.d.r. nicht innerhalb eines Balkendiagramms

91 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariable Grafische Beschreibung Balkendiagramm Beispiel: Von den Wahlgängern der Bundestagswahl 2005 haben gewählt: Grafische Darstellung Verteilungsformen

92 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariable Grafische Beschreibung Balkendiagramm Warum gleiche Balkenbreiten? Grafische Darstellung Verteilungsformen Menschen neigen zur Größenbewertung anhand der Fläche.

93 Unabhängigkeit Zufallsvariablen Zufallsvariable Grafische Beschreibung Histogramm Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen Das Histogramm stellt die Häufigkeiten vieler Kategorien in einem Säulendiagramm mit weniger Klassen als Kategorien dar Die Klassen müssen nicht notwendig gleich breit sein Die Fläche einer Säule repräsentiert die Häufigkeit der Elemente in der Klasse. Die Häufigkeiten können dabei entweder absolute Häufigkeiten (absolutes Histogramm) sein oder relative Häufigkeiten (relatives, normiertes Histogramm)

94 Unabhängigkeit Zufallsvariablen Zufallsvariable Grafische Beschreibung Histogramm Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen Da die Fläche A i einer Säule die Häufigkeit repräsentiert, gilt für eine Klasse y i A = f(y i ), und damit f(y i ) = a i d i (a i ist die Höhe der Säule, d i die Klassenbreite) Somit ist die Höhe einer Säule a i = f(y i ) / d i Dies gilt auch für die Darstellung mit absoluten Häufigkeiten h(y i ) Dann ist die Höhe einer Säule a i = h(y i ) / d i

95 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen Grafische Beschreibung Histogramm Beispiel: Verteilung des IQ in diesem Raum. Student IQ h(iq) f(iq) 92 Werte zwischen 89 und 140

96 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariable Grafische Beschreibung Histogramm Zur Bestimmung der Anzahl von Säulen bei k Klassen gibt es verschiedene Formeln. Als Faustregeln gelten: Grafische Darstellung Verteilungsformen Anzahl der Messungen Balkenzahl 5 bis 50 5 bis 8 50 bis bis bis bis 12 >250 8 bis 25 Achtung: Die Wahl der Klassenanzahl kann für die Aussage der Darstellung entscheidend sein.

97 Unabhängigkeit Zufallsvariablen Grafische Beschreibung Histogramm und Klassenbreiten Beispiel: Körpergrößen an der Geisteswissenschaftlichen Fakultät der Uni Mainz Klassenbreite: 25 Klassenbreite: 10

98 Unabhängigkeit Zufallsvariablen Zufallsvariable Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen Grafische Beschreibung Empirische Verteilungsfunktion Die empirische Verteilungsfunktion ist definiert als F( y) = f( Y ym) = f m i= 1 Note h F cum(h) i Zur grafischen Darstellung werden also die empirischen relativen Häufigkeiten aufsummiert

99 Unabhängigkeit Zufallsvariablen Zufallsvariable Grafische Beschreibung How-not -to Diskrete Zufallsvariable Grafische Darstellung Verteilungsformen

100 Unabhängigkeit Zufallsvariablen Grafische Beschreibung How-not -to Keine Geschlechterlücke mehr beim Gehalt von Führungskräften

101 Verbale Darstellung Numerische Darstellung Recap Empirische Häufigkeiten: Notation Absolute Häufigkeit eines Wertes x : h( x) Relative Häufigkeit eines Wertes x : (N = Anzahl aller Werte) f x ( ) = h( x) N Kumulierte absolute Häufigkeit ( ) ( i) bis zu einer Schranke x : Relative kumulierte Häufigkeit i ( ) i H x = h u u x 1 F x = f u u x N bis zu einer Schranke x : ( ) ( ) i ( ) i i (Empirische Verteilungsfunktion)

102 Verbale Darstellung Numerische Darstellung Recap Grafische Beschreibung von Häufigkeitsverteilungen Absolute Häufigkeitsverteilung Stamm-Blatt Diagramm Absolute und relative Häufigkeitsverteilungen, Wahrscheinlichkeitsverteilungen Kreisdiagramm Balkendiagramm Histogramm Verteilungsfunktionen Empirische Verteilungsfunktion

103 Verbale Darstellung Numerische Darstellung Recap Gütekriterien grafischer Darstellung Bild fragt: Brauchen wir eine Ausländerquote an deutschen Schulen? als Reaktion auf PISA 2008

104 Verbale Darstellung Numerische Darstellung Beschreibungsarten von Häufigkeitsverteilungen Grafische Beschreibung Verbale Beschreibung Schiefe Modalität Numerische Beschreibung Klassenbildung Maße der zentralen Tendenz Streuungsmaße (Dispersionsmaße)

105 Verbale Darstellung Numerische Darstellung Schiefe Verbale Beschreibung von Häufigkeitsverteilungen: Schiefe/Skewness Modalität

106 Verbale Darstellung Numerische Darstellung Verbale Beschreibung von Häufigkeitsverteilungen: unimodal und multimodal Die Modalität einer Verteilung bezieht sich auf die Anzahl der lokalen Maxima in den relativen Häufigkeiten h(y).

107 Verbale Darstellung Numerische Darstellung Klassen Numerische Beschreibung von Häufigkeitsverteilungen: Klassenbildung Maße zentraler Tendenz Streuungsmaße Die Messwertklassen dürfen sich nicht überschneiden, sie sind also wechselseitig ausschließend. Die obere Klassengrenze OG i gehört zur Klasse c i, die untere Grenze UG i nicht. Dies wird geschrieben als c i = [UG i OG i ] oder c i = (OG i-1 OG i ] Alle Klassen haben im Normalfall dieselbe Breite. Die Anzahl der Klassen ist zunächst frei wählbar. Es ist aber zu beachten: 1. Es sollte keine leeren Klassen geben 2. Es sollten keine in den Daten enthaltenen wichtigen Informationen herausggregiert werden (z.b. Bimodalität)

108 Verbale Darstellung Numerische Darstellung Klassen Maße zentraler Tendenz Streuungsmaße Numerische Beschreibung Beispiel zur Klassenbildung 25 Abiturienten erreichen in ihrer Abschlussarbeit folgende Punktzahlen: (11, 9, 10, 12, 11, 6, 9, 1, 7, 4, 7, 14, 10, 8, 11, 13, 11, 13, 11, 15, 8, 10, 8, 12, 12) Klassenbreite? Schreibweise in der Klassentabelle? Klasse h(x) f(x) F(x) a(x) f(x) Säulendiagramm Histogramm 4% % % % 16% Notenklasse Notenklasse

109 Verbale Darstellung Numerische Darstellung Klassen Maße zentraler Tendenz Streuungsmaße Numerische Beschreibung Maße der zentralen Tendenz Wichtige Maße der zentralen Tendenz sind Modus, Modalwert Median Mittelwert

110 Verbale Darstellung Numerische Darstellung Klassen Numerische Beschreibung Maße der zentralen Tendenz: Modus Maße zentraler Tendenz Streuungsmaße Der Modus ist die Ausprägung mit der größten Häufigkeit. Notation: y mod Der Modus ist robust gegenüber Ausreißern. Der Modus ist eindeutig, falls die Häufigkeitsverteilung ein eindeutiges Maximum besitzt. Er ist aber bei multimodalen Verteilungen oft ohne wesentliche Aussagekraft.

111 Verbale Darstellung Numerische Darstellung Klassen Numerische Beschreibung Maße der zentralen Tendenz: Median Maße zentraler Tendenz Streuungsmaße Mindestens 50% der Beobachtungen einer Variablen sind kleiner oder gleich dem Median Mindestens 50% der Beobachtungen einer Variablen sind größer oder gleich dem Median Notation: ymed oder Der Median ist robust gegenüber Ausreißern Bei einer geraden Zahl von Beobachtungen ist der Median nicht eindeutig y

112 Verbale Darstellung Numerische Darstellung Klassen Maße zentraler Tendenz Numerische Beschreibung Maße der zentralen Tendenz: Median Berechnung des Median Streuungsmaße N ungerade Der N te 2 Wert N gerade Mittel zwischen N tem 2 N Wert und ten

113 Verbale Darstellung Numerische Darstellung Klassen Numerische Beschreibung Maße der zentralen Tendenz: Mittelwert Maße zentraler Tendenz Streuungsmaße Ist bei N Beobachtungen y 1 y N definiert als 1 1 y y y y y N = ( N) = N N i = 1 Ist durch extreme Werte beeinflussbar (ausreißerempfindlich) Ist der Schwerpunkt der Beobachtungen, d.h. N i= 1 y i y = 0 i

114 Verbale Darstellung Numerische Darstellung Klassen Numerische Beschreibung Maße der zentralen Tendenz - Eigenschaften Maße zentraler Tendenz Streuungsmaße Mittelwert (und Median) stimmen häufig mit keiner beobachteten Realisation überein Alle drei Maße der zentralen Tendenz sind äquivariant gegenüber gewissen (z.b. linearen) Transformationen Insbesondere 1. Addition einer Konstanten c zu allen N Beobachtungen y 1 y N y + c = y + c 2. Multiplikation aller N Beobachtungen y 1 y N mit einer Konstanten c c y = c y

115 Verbale Darstellung Numerische Darstellung Klassen Maße zentraler Tendenz Streuungsmaße Numerische Beschreibung Maße der zentralen Tendenz - Eigenschaften Lageregeln für die Maße der zentralen Tendenz Bei symmetrischen Verteilungen: y y y med mod Bei linkssteilen Verteilungen: y > y y med Bei rechtssteilen Verteilungen y < y y med mod mod

116 Verbale Darstellung Numerische Darstellung Klassen Maße zentraler Tendenz Streuungsmaße Numerische Beschreibung von Häufigkeitsverteilungen: Quantile Quantile sind Zahlen, die einen Datensatz mit N Beobachtungen in bestimmtem Verhältnis teilen p-quantil (0 < p < 1) besitzt folgende Eigenschaften: 1. Mindestens N p Beobachtungen sind kleiner oder gleich dem Quantil 2. Mindestens N (1 p) Beobachtungen sind größer oder gleich dem Quantil Notation: y p (z. B. y 0.75 ) Je nach der Anzahl von Unterteilungen unterscheidet man Centile (100er Einteilung), Dezentile (10er Einteilung) und Quartile (4er Einteilung)

117 Verbale Darstellung Numerische Darstellung Klassen Maße zentraler Tendenz Streuungsmaße Numerische Beschreibung von Häufigkeitsverteilungen: Quantile Gegeben: Beobachtungen: y 1,,y n Ordnen der Beobachtungen nach aufsteigender Größe: y (1),,y (n) Bestimmung des Quantils y p Fall 1: N p ganzzahlig: y p =(y np +y np+1 )/2 Fall 2: N p nicht ganzzahlig: y p =y ([np]+1) Dabei bezeichnet [np] die größte ganze Zahl, welche kleiner oder gleich np ist, also die Abrundung von np

118 Verbale Darstellung Numerische Darstellung Klassen Numerische Beschreibung Wichtige Quantile Maße zentraler Tendenz Streuungsmaße Minimum (0. Quartial) und Maximum (4. Quartil) Median (50% Quantil, 2. Quartil) 25% Quantil (1. Quartil, unteres Quartil) und 75% Quantil (3. Quartil, oberes Quartil) Dezile: y.10, y.20,, y.90

119 Verbale Darstellung Numerische Darstellung Klassen Maße zentraler Tendenz Streuungsmaße Numerische Beschreibung Streuungsmaße Wichtige Dispersionsmaße sind Spannweite (Halber) Interquartilsabstand Mittlere Abweichung Varianz, Standardabweichung

120 Verbale Darstellung Numerische Darstellung Klassen Numerische Beschreibung Streuungsmaße: Spannweite Maße zentraler Tendenz Streuungsmaße Die Spannweite d N ist die Differenz zwischen dem kleinsten und größten Wert aller Realisationen. Sie ist definiert als: d = y y N max min Die Spannweite ist nicht identisch mit der Anzahl unterschiedlicher Realisationen. Diese wäre y max y min + 1. Die Spannweite ist eher uninformativ, da sie nur zwei von N Ausprägungen berücksichtigt.

121 Verbale Darstellung Numerische Darstellung Klassen Numerische Beschreibung Streuungsmaße: Interquartilsabstand Maße zentraler Tendenz Streuungsmaße Der Interquartilsabstand d ist die Differenz zwischen dem 1. und 3. Quartil Er ist definiert als d = y y q.75.25

122 Verbale Darstellung Numerische Darstellung Klassen Numerische Beschreibung Der Box-Whisker-Plot Maße zentraler Tendenz Streuungsmaße Mithilfe der Fünf-Punkte- Zusammenfassung (y min, y.25, y med, y.75, y max ) können Häufigkeitsdaten grafisch am Boxplot veranschaulicht werden dq y.75 y y.25 dq Box und Whisker enden dabei am letzten Datenpunkt innerhalb ihrer Reichweite dq < 3 dq Ausreißer >3d q werden mit Sternchen (*) markiert. Note

123 Verbale Darstellung Numerische Darstellung Klassen Maße zentraler Tendenz Numerische Beschreibung Streuungsmaße: Mittlere Abweichung Als mittlere Abweichung (MD) von N Beobachtungen y 1 y N in einem Datensatz wird die Summe aller Abweichungsbeträge zum Median bezeichnet. Streuungsmaße 1 N i MD= y y N i = 1 Für jeden anderen Wert als für den Median ist der mittlere Abweichungsbetrag größer, d.h. N 1 1 N y y y c N i i= 1 N i= 1 i

124 Verbale Darstellung Numerische Darstellung Klassen Maße zentraler Tendenz Streuungsmaße Numerische Beschreibung Streuungsmaße: Varianz und Standardabweichung Die Varianz ist das mittlere Abweichungsquadrat aller N Beobachtungen eines Datensatzes y 1 y N vom Mittelwert. 1 N i N i = 1 Var x = x x ( ) ( ) 2 Die Standardabweichung ist die Wurzel der Varianz 1 N i N i = 1 s x = Var x = x x ( ) ( ) ( ) 2

125 Verbale Darstellung Numerische Darstellung Klassen Maße zentraler Tendenz Streuungsmaße Numerische Beschreibung Streuungsmaße: Varianz und Standardabweichung Für jeden anderen Wert als für den Mittelwert ist die Summe der Abweichungsquadrate höher 1 1 N N N ( ) 2 ( ) 2 xi x xi c i= 1 N i= 1 Erfasst die Streuung um den Mittelwert Nur falls keine Streuung besteht, ist var = 0, d.h. alle beobachteten Werte sind gleich. Sonst: var > 0 Je größer die Streuung um den Mittelwert, desto größer ist die Standardabweichung Ist anfällig gegenüber Ausreißern

126 Verbale Darstellung Numerische Darstellung Klassen Maße zentraler Tendenz Streuungsmaße Numerische Beschreibung Eigenschaften von Varianz und Standardabweichung Verhalten der Varianz bei Transformationen der N Beobachtungen y 1 y N 1. Die Addition einer Konstanten c zu allen Werten y verändert Varianz und Standardabweichung nicht Var(y + c) = Var(y) s(y + c) = s(y) 1. Die Multiplikation aller Werte y mit einer Konstanten c führt zu einer Erhöhung der Varianz um c² und der Standardabweichung um c Var(c y) = c² Var(y) s(a y) = c s(y)

127 Verbale Darstellung Numerische Darstellung Klassen Maße zentraler Tendenz Streuungsmaße Standardisierung z-transformation Ziel: Angabe der relativen Lage von Werten in einer Verteilung. 1. Quantile: wie bereits gesehen 2. Angabe einer normierten Differenz eines Messwertes zum Mittelwert Berechnungsvorschrift: Jede Differenz eines Messwertes wird durch die Standardabweichung aller Messwerte geteilt. Die erhaltenen Werte werden als z-werte bezeichnet. z = y s y y

128 Verbale Darstellung Numerische Darstellung Klassen Maße zentraler Tendenz Standardisierung z-transformation - Eigenschaften Der z-wert kann auch als Differenz eines normierten Datenwertes vom normierten Mittelwert betrachtet werden, denn Streuungsmaße z y y y y = = s s s y y y Der Mittelwert von z-werten ist immer 0 Die Standardabweichung von z-werten ist immer 1

129 Skalenniveaus Diskrete Wk-Vert. Nominalskala Skalenniveaus Ordinalskala Wir haben bereits eine Unterscheidung von Typen von Zufallsvariablen anhand der Art der Daten kennen gelernt. Intervallskala Höhere Skalenniveaus Eine diskrete Zufallsvariable besitzt zumeist endlich viele und feste Werte, die man über Ganzzahlen beschreiben kann Eine kontinuierliche (stetige) Zufallsvariable kann unendlich viele beliebige Werte annehmen, die man über reelle Zahlen beschreibt

130 Skalenniveaus Diskrete Wk-Vert. Nominalskala Skalenniveaus Ordinalskala Intervallskala Höhere Skalenniveaus Eine andere Art der Klassifikation von Zufallsvariablen ist die Einteilung in Skalenniveaus. Nominalskala Ordinalskala Intervallskala Verhältnisskala (Ratioskala) Absolutskala Der Informationsgehalt nimmt von der Nominalskala zur Absolutskala hin zu Bei Messungen psychischer Merkmale kommen die Verhältnis- und die Absolutskala so gut wie nie vor

131 Skalenniveaus Diskrete Wk-Vert. Nominalskala Ordinalskala Skalenniveaus Nominalskala Definition Intervallskala Höhere Skalenniveaus Bei einer Nominalskala werden den Realisationen einer Zufallsvariablen Zahlen mit dem Ziel zugeordnet, Kategorien zu unterscheiden Die Zahlen selbst sind nicht interpretierbar Die Anwendung der üblichen Rechenoperationen auf die Werte einer nominalskalierten Zufallsvariablen ist im Allgemeinen nicht sinnvoll

132 Skalenniveaus Diskrete Wk-Vert. Nominalskala Ordinalskala Skalenniveaus Nominalskala Beispiele Konstitutionstypen Intervallskala Höhere Skalenniveaus a) Leptosomer Typ b) Athletischer Typ c) Pyknischer Typ Temperamentstypen

133 Skalenniveaus Diskrete Wk-Vert. Nominalskala Ordinalskala Intervallskala Skalenniveaus Nominalskala Zulässige Transformationen Zulässige Transformationen sind eineindeutige Abbildungen, so dass die Unterscheidbarkeit der Werte erhalten bleibt. Höhere Skalenniveaus

134 Skalenniveaus Diskrete Wk-Vert. Nominalskala Skalenniveaus Ordinalskala Definition Ordinalskala Intervallskala Höhere Skalenniveaus Bei einer Ordinalskala können die Realisationen einer Zufallsvariablen geordnet werden Die Zuordnung der Zahlen zu den Ausprägungen spiegelt die Ordnung wieder Abstände zwischen den Zahlen können nicht interpretiert werden Die Anwendung der üblichen Rechenoperationen auf die Werte einer ordinalskalierten Zufallsvariablen ist im Allgemeinen nicht sinnvoll

135 Skalenniveaus Diskrete Wk-Vert. Nominalskala Skalenniveaus Ordinalskala Beispiel Ordinalskala Intervallskala Höhere Skalenniveaus Phasen kognitiver Entwicklung nach J. Piaget (1958) (I) (II) (III) (IV) (V) Sensumotorisches Stadium: Erwerb von sensomotorischer Koordination, praktischer Intelligenz und Objektpermanenz (Objektpermanenz aber noch ohne interne Repräsentation) Präoperationales Stadium: Erwerb des Vorstellungs- und Sprechvermögens, gekennzeichnet durch Realismus, Animismus und Artifizialismus (Egozentrismus) Konkretoperationales Stadium: Erwerb von Dezentrierung, Reversibilität, Invarianz, Seriation, Klasseninklusion und Transitivität Formaloperationales Stadium: Erwerb der Fähigkeit zum logischen Denken und der Fähigkeit Operationen auf Operationen anzuwenden Methoden-Kritik: Denken reflektiert sich selbst (Metakognition)

136 Skalenniveaus Diskrete Wk-Vert. Nominalskala Ordinalskala Skalenniveaus Ordinalskala Zulässige Transformationen Zulässig sind alle streng monotonen Transformationen, so dass die Rangordnung der Werte erhalten bleibt. Intervallskala Höhere Skalenniveaus

137 Skalenniveaus Diskrete Wk-Vert. Nominalskala Ordinalskala Skalenniveaus Intervallskala Definition Es wird eine Einheit definiert Intervallskala Höhere Skalenniveaus Es existiert kein natürlicher Nullpunkt Verhältnisse zwischen Differenzen können verglichen werden Wird am häufigsten in empirischen psychologischen Untersuchungen angenommen

138 Skalenniveaus Diskrete Wk-Vert. Nominalskala Skalenniveaus Intervallskala Beispiel Ordinalskala Intervallskala Höhere Skalenniveaus Attitudes Toward Housecleaning Scale von Ogletree, Worthen, Turner & Vickers (2006). Ihre Aufgabe ist es, ihre Gefühle gegenüber jeder Aussage dahingehend zu kennzeichnen, ob sie (1) stark zustimmen, (2) etwas zustimmen, (3) weder zustimmen noch ablehnen, (4) etwas ablehnen oder (5) stark ablehnen. Bitte verdeutlichen Sie Ihre Meinung dadurch, dass sie entweder 1, 2, 3, 4 oder 5 auf dem Antwortblatt schwärzen. Einen Stapel dreckigen Geschirrs über Nacht im Spülbecken liegen zu lassen finde ich ekelhaft. Ich finde Staubwischen entspannend. Den Müll rauszubringen macht mir Spaß Frauen sollten die primäre Verantwortung für die Hausarbeit übernehmen. Eine unordentliche Wohnung zu haben macht mir nichts

139 Skalenniveaus Diskrete Wk-Vert. Nominalskala Ordinalskala Skalenniveaus Intervallskala Zulässige Transformationen Zulässig sind alle linearen Transformationen, so dass die Verhältnisse zwischen Differenzen erhalten bleiben. Intervallskala Höhere Skalenniveaus

140 Skalenniveaus Diskrete Wk-Vert. Nominalskala Skalenniveaus Intervallskala Zulässige Transformationen Ordinalskala Intervallskala Höhere Skalenniveaus

141 Skalenniveaus Diskrete Wk-Vert. Nominalskala Skalenniveaus Verhältnisskala Definition Ordinalskala Intervallskala Höhere Skalenniveaus Bei der Verhältnisskala wird eine Einheit definiert Es existiert ein natürlicher Nullpunkt Verhältnisse zwischen Werten können verglichen werden Wird kaum in empirischen psychologischen Untersuchungen angenommen

142 Skalenniveaus Diskrete Wk-Vert. Nominalskala Ordinalskala Skalenniveaus Verhältnisskala Zulässige Transformationen Zulässig sind alle Ähnlichkeitstransformationen, so dass die Verhältnisse zwischen Werten erhalten bleiben. Intervallskala Höhere Skalenniveaus

143 Skalenniveaus Diskrete Wk-Vert. Nominalskala Skalenniveaus Absolutskala Definition Ordinalskala Intervallskala Höhere Skalenniveaus Bei der Absolutskala ist die Einheit natürlich vorgegeben Es existiert ein natürlicher Nullpunkt Werte können direkt interpretiert werden Wird kaum in empirischen psychologischen Untersuchungen angenommen Es existieren keine erlaubten Transformationen

144 Skalenniveaus Diskrete Wk-Vert. Nominalskala Ordinalskala Skalenniveaus Zusammenfassung Intervallskala Höhere Skalenniveaus

145 Skalenniveaus Diskrete Wk-Vert. Bernoulli-Exp. Endlich abzählbare Verteilungen Unendlich abzählbare Verteilungen Folgen unabhängiger Ereignisse Bernoulli Experimente Kann ein Zufallsexperiment mehrfach unter demselben Komplex Ξ durchgeführt werden und sind die einzelnen Versuche stochastisch unabhängig, so spricht man von einem Bernoulli Versuch. Wenn eine einzelne Durchführung die Ergebnisse y 1, y 2 y k ergeben kann und diesen Realisierungen die Wahrscheinlichkeiten p(y 1 ), p(y 2 ),, p(y k ) zugeordnet sind, so ist die Wahrscheinlichkeit einer bestimmten Folge von n Ziehungen n = 1 2 = n i= 1 P P( y ) P( y ) P( y ) P( y ) i

146 Skalenniveaus Diskrete Wk-Vert. Bernoulli-Exp. Endlich abzählbare Verteilungen Unendlich abzählbare Verteilungen Folgen unabhängiger Ereignisse Bernoulli Experimente mit Zurücklegen Der Stichprobenraum Ω eines Bernoulli Experimentes umfasst alle möglichen Folgen der Ergebnisse der einzelnen Ziehungen. Beispiel: Eine Münze wird Mal geworfen Wurf Nr. Ergebnis y 1 Kopf 0 2 Kopf 0 3 Zahl 1 4 Kopf 0 5 Zahl 1 Ein Elementarereignis

147 Skalenniveaus Diskrete Wk-Vert. Bernoulli-Exp. Endlich abzählbare Verteilungen Diskrete Wk-Verteilungen Binomialverteilung Der Stichprobenraum Ω eines Bernoulli Experimentes umfasst alle möglichen Folgen der Ergebnisse der einzelnen Ziehungen. Unendlich abzählbare Verteilungen Für ein Bernoulli Experiment mit 2 disjunkten Ergebnissen gelte n sei die Anzahl aller Versuche mit Zurücklegen m sei die Anzahl günstiger Ergebnisse in den n Ziehungen p sei die Wk für jedes m q sei die Wk der übrigen n-m Ergebnisse, also, q = 1 - p n f ( mn,, p) = pmqn m m Dies ist die Binomialverteilung

148 Skalenniveaus Diskrete Wk-Vert. Bernoulli-Exp. Endlich abzählbare Verteilungen Unendlich abzählbare Verteilungen Diskrete Wk-Verteilungen Multinomialverteilung Für ein Bernoulli Experiment mit k Ergebnissen gelte n sei die Anzahl aller Versuche mit Zurücklegen m 1, m 2,, m k seien die Auftretenshäufigkeiten der k Ergebnisse p 1, p 2,, p k seien die Wahrscheinlichkeiten für die k Ergebnisse (,, ) n! m1 m2 m f m m n p p = p p p k 1 k 1 k 1 2 k m1! m2! mk! Dies ist die Multiomialverteilung

149 Skalenniveaus Diskrete Wk-Vert. Bernoulli-Exp. Endlich abzählbare Verteilungen Unendlich abzählbare Verteilungen Diskrete Wk-Verteilungen Hypergeometrische Verteilung Für ein Bernoulli Experiment mit 2 Ergebnissen gelte N ist die Anzahl aller Elemente M ist die Anzahl günstiger Elemente in den N n ist die Anzahl der Ziehungen ohne Zurücklegen m ist die Anzahl der Günstigen in den Ziehungen so ist die gesuchte Wahrscheinlichkeit f( M, m, N, n) = N M M n m m N n Hypergeometrische Verteilung

150 Skalenniveaus Diskrete Wk-Vert. Bernoulli-Exp. Endlich abzählbare Verteilungen Unendlich abzählbare Verteilungen Diskrete Wk-Verteilungen Poisson Verteilung Für ein Bernoulli Experiment mit 2 disjunkten Ergebnissen gelte Die Wahrscheinlichkeit, dass ein Ereignis in einem kleinen Zeitintervall Δt auftritt ist ungefähr λδt. Die Wahrscheinlichkeit des Eintretens von m Ereignissen in einem Zeitintervall ist nur von der Länge des Intervalls abhängig, nicht von seiner Lage auf der Zeitachse Für zwei disjunkte Zeitintervalle sind Ereignisse stochastisch unabhängig Die Wahrscheinlichkeit für das Eintreten von m Ereignissen in einem Zeitintervall ist dann f( m, λ) = e m! λ m λ Poisson Verteilung (e = Eulersche Zahl; 2.718)

151 Skalenniveaus Diskrete Wk-Vert. Bernoulli-Exp. Diskrete Wk-Verteilungen Poisson Verteilung Endlich abzählbare Verteilungen f( m, λ) = e m! λ m λ Unendlich abzählbare Verteilungen λ wird auch als Intensitätsparameter der Poisson- Verteilung bezeichnet Anders als alle bisher betrachteten diskreten Wahrscheinlichkeitsverteilungen ist die Poisson-Verteilung unendlich abzählbar.

152 Skalenniveaus Diskrete Wk-Vert. Bernoulli-Exp. Endlich abzählbare Verteilungen Unendlich abzählbare Verteilungen Diskrete Wk-Verteilungen Poisson Verteilung als Approximation der Binomialvert. Wenn n groß ist und p klein, ist die Bestimmung von Wahrscheinlichkeiten aus der Binomialverteilung mathematisch aufwändig. Die Poisson-Verteilung approximiert die Binomialverteilung für seltene Ereignisse sehr gut Dabei wird angenommen, dass λ = n p np m e ( n p) n m n m f( m, n p) = p (1 p) = f( m, n, p) m! m Poisson Binomial

153 Skalenniveaus Diskrete Wk-Vert. Bernoulli-Exp. Endlich abzählbare Verteilungen Unendlich abzählbare Verteilungen Diskrete Wk-Verteilungen Poisson Verteilung als Approximation der Binomialvert. Die Poisson Verteilung wird wegen ihrer Nähe zur Binomialverteilung mit kleinem p auch häufig als Verteilung für seltene Ereignisse bezeichnet. Hier ist streng zu unterscheiden zwischen einer kleinen Wahrscheinlichkeit p und einer theoretisch beliebig großen Anzahl der seltenen Ereignisse n p. Die Güte der Approximation bezieht sich auf den relativen Approximationsfehler, d.h. den Quotienten aus der Binomial-Wk und der Poisson-Wk

154 Erwartungswerte Beispiele Erwartungswert Erwartungswerte Definition der Lage einer Zufallsvariablen Varianz Diskrete Zufallsverteilungen Bei einer Stichprobe von Beobachtungen einer Zufallsvariablen wird in der deskriptiven Statistik der Mittelwert x zur Beschreibung der Lage verwendet Die Lage der Wahrscheinlichkeitsverteilung einer Zufallsvariablen Y wird durch den Erwartungswert von Y, in Zeichen E(Y), charakterisiert Der Erwartungswert einer Zufallsvariablen erfordert keine Beobachtungen, sondern bezieht sich auf die theoretische Wahrscheinlichkeitsverteilung Der Erwartungswert E(Y) einer Zufallsvariablen Y wird oft auch alternativ mit µ ( mü ) bezeichnet

155 Erwartungswerte Beispiele Erwartungswert Erwartungswerte Definition der Lage einer Zufallsvariablen Varianz Für eine diskrete Zufallsvariable Y mit endlich vielen Ausprägungen y 1,,y k und Wahrscheinlichkeiten p i = P(Y=y i ) ergibt sich der Erwartungswert über Diskrete Zufallsverteilungen EY ( ) k = i= 1 yp i i E(Y) kann als gewichtetes Mittel der möglichen Realisationen einer Zufallsvariablen aufgefasst werden, wobei die Wahrscheinlichkeiten die Gewichte darstellen. Der Erwartungswert repräsentiert den Schwerpunkt der Wahrscheinlichkeitsverteilung einer Zufallsvariablen, so wie der Mittelwert der Schwerpunkt der Häufigkeitsverteilung ist.

156 Erwartungswerte Beispiele Erwartungswert Erwartungswerte Rechenregeln Varianz Diskrete Zufallsverteilungen Falls a eine konstante Zahl ist und Y eine Zufallsvariable mit E(Y), dann ist E(Y + a) = a + E(Y) Falls b eine konstante Zahl ist und Y eine Zufallsvariable, dann ist E(b Y) = b E(Y) Damit gilt auch: E(b Y + a) = b E(Y) + a Wenn die Zufallsvariable Y eine Konstante a ist, dann ist E(a) = a

157 Erwartungswerte Beispiele Erwartungswert Erwartungswerte Rechenregeln Varianz Für die Summe mehrerer Zufallsvariablen gilt EY ( + Y + + Y) = EY ( ) + EY ( ) + + EY ( ) 1 2 k 1 2 k Diskrete Zufallsverteilungen also: k E( Y) = E( Y) k i i= 1 i= 1 i Für ihre Differenz gilt dann folgerichtig EY ( Y Y) = EY ( ) EY ( ) EY ( ) 1 2 k 1 2 k

158 Erwartungswerte Beispiele Erwartungswert Erwartungswerte Definition der Varianz einer Zufallsvariablen Varianz Diskrete Zufallsverteilungen Bei einer Stichprobe von Beobachtungen einer quantitativen Variablen wurden in der deskriptiven Statistik die Varianz bzw. Standardabweichung zur Beschreibung der Streuung verwendet Die Varianz von Y wird häufig alternativ statt mit Var(Y) auch mit σ² ( sigma ) bezeichnet Für eine diskrete Zufallsvariable Y wird die Varianz wie folgt definiert: [( ( )) ] σ = E Y E Y Y 2 2

159 Erwartungswerte Beispiele Erwartungswert Erwartungswerte Definition der Varianz einer Zufallsvariablen Varianz Diskrete Zufallsverteilungen Die Varianz einer Zufallsvariablen Y ist also die mittlere quadratische Abweichung der möglichen Ausprägungen von Y vom Erwartungswert E(Y) Wie bei der Varianz von Stichprobendaten gilt auch für die Varianz einer ZV die rechnerisch günstige Formel σ = E( Y ) E( Y) Y Die Standardabweichung einer Zufallsvariablen Y wird als Wurzel aus ihrer Varianz definiert und σ bezeichnet

160 Erwartungswerte Beispiele Erwartungswert Erwartungswerte Definition der Varianz einer Zufallsvariablen Varianz Diskrete Zufallsverteilungen Für eine diskrete Zufallsvariable Y mit endlich vielen Ausprägungen y1,,yk und Wahrscheinlichkeiten p i = P(Y=y i ) ergibt sich Erwartungswert der Varianz von Y über k 2 ( ) 2 ( ) 2 Y = EY Y = yi Y pi i= 1 σ μ μ = ( y μ ) p + + ( y μ ) p 1 Y 1 k Y k Die quadratischen Abweichungen der Realisationen einer Zufallsvariablen vom Erwartungswert werden also mit der jeweiligen Wahrscheinlichkeit gewichtet.

161 Erwartungswerte Beispiele Erwartungswert Erwartungswerte Rechenregeln Varianz Diskrete Zufallsverteilungen Falls a eine konstante Zahl ist und Y eine Zufallsvariable mit E(Y), dann ist Var(Y + a) = Var(Y) Falls b eine konstante Zahl ist und Y eine Zufallsvariable, dann ist Var(b Y) = b² E(Y) Damit gilt auch: Var(b Y + a) = b² Var(Y) Wenn die Zufallsvariable Y eine Konstante a ist, dann ist Var(a) = 0

162 Erwartungswerte Beispiele Erwartungswert Erwartungswerte Rechenregeln Varianz Diskrete Zufallsverteilungen Für die Summe mehrerer Zufallsvariablen gilt σ ( Y + Y + + Y ) = σ ( Y) + σ ( Y ) + + σ ( Y ) Y 1 2 k Y 1 Y 2 Y k Anders als für den Erwartungswert gilt für die Varianz der Differenz mehrerer Zufallsvariablen ebenso σ ( Y Y Y ) = σ ( Y) σ ( Y ) σ ( Y ) Y 1 2 k Y 1 Y 2 Y k

163 Erwartungswerte Beispiele Erwartungswert Varianz Diskrete Zufallsverteilungen Diskrete Wk-Verteilungen Erwartungswerte und stochastische Unabhängigkeit Für k stochastisch unabhängige Zufallsvariablen Y 1 Y k galt ja für die Punktwahrscheinlichkeit des gemeinsamen Auftretens von Realisationen y 1 y k P(Y 1 =y 1,, Y k =y k ) = P(Y 1 =y 1 ) P(Y k =y k ) Damit erhält man automatisch auch für die gemeinsame Verteilungsfunktion P(Y 1 y 1,, Y k y k ) = P(Y 1 y 1 ) P(Y k y k ) Nur für stochastisch unabhängige Zufallsvariablen gilt damit E(Y X) = E(X) E(Y)

164 Erwartungswerte Beispiele Binomialvertelung Poissonverteilung Diskrete Wk-Verteilungen Beispiele für Erwartungswerte Für eine binomialverteilte Zufallsvariable Y mit der Wahrscheinlichkeitsverteilung f(m, n, p) gilt 1. E(Y) = n p Erwartungswert 2. σ Y ² = n p q Varianz 3. s Y = n p q Standardabweichung

165 Erwartungswerte Beispiele Binomialvertelung Poissonverteilung Diskrete Wk-Verteilungen Beispiele für Erwartungswerte Für eine poisssonverteilte Zufallsvariable Y mit der Wahrscheinlichkeitsverteilung f(λ, n) gilt 1. E(Y) = λ Erwartungswert 2. σ Y ² = λ (1-λ/n) λ Varianz 3. s Y = λ für große n (siehe 2.) Standardabw.

166 Stetige Verteilungen Normalverteilung Ausblick: Inferenzstatistik Das Prinzip des statistischen Testens Binomialtest Der Hersteller eines elektronischen Wahlsystems verspricht, dass durch den Einsatz einer neuartigen Technik beim Urnengang Abstimmungsergebnisse zuverlässiger vorhergesagt werden können. Der Ypsilant-O-Mat führt dazu eine Videoanalyse der abgegebenen Stimmzettel durch und leitet bei sogenannten Devianzvoten automatisch ein Parteiausschlussverfahren ein. Laut Hersteller wird hierdurch die Wahrscheinlichkeit für eine abweichende Gewissensentscheidung unentschlossener Wahlteilnehmer auf 8% gesenkt. Bei einer Abstimmung soll das System getestet werden. 24 indifferente Abgeordnete schreiten zur Wahl und geben ihre Stimme ab. 5 Voten fallen wider das gewünschte Ergebnis aus.

167 Stetige Verteilungen Normalverteilung Ausblick: Inferenzstatistik Das Prinzip des statistischen Testens Wenn die Wahrscheinlichkeitsfunktion eines Zufallsexperimentes theoretisch bekannt ist, können die bei einer Durchführung erwarteten empirischen Häufigkeiten bestimmt werden. Beobachtete absolute oder relative Häufigkeiten können dann mit den erwarteten Häufigkeiten verglichen werden. Wenn eine beobachtete Häufigkeit zu unwahrscheinlich ist, um unter der gegebenen Wahrscheinlichkeitsfunktion zu entstehen, kann die Wahrscheinlichkeitsfunktion als nicht zutreffend betrachtet werden. Entweder sind dann ihre Parameter falsch definiert oder die Funktion selbst ist nicht zutreffend.

168 Stetige Verteilungen Normalverteilung Definition Merkmale Stetige Zufallsvariablen Definition Falls eine Zufallsvariable jeden Wert in einem Intervall annehmen kann, wird sie stetige Zufallsvariable genannt Die Wahrscheinlichkeitsfunktion f(y) einer stetigen Zufallsvariable wird zumeist als mathematische Funktion definiert. Sie wird bei stetigen ZV auch als Dichtefunktion bezeichnet. Die Verteilungsfunktion einer stetigen Zufallsvariablen ist dann + F( y) = f( y) dy

169 Stetige Verteilungen Normalverteilung Definition Stetige Zufallsvariablen Definition Merkmale Eine Funktion f(y) ist gemäß der Kolmogoroff Axiome genau dann eine Dichtefunktion, wenn gilt + f( y) 0 und F( y) = f( y) dy = 1 Dabei reicht der Wertebereich von f(y) nicht für jede Zufallsvariable von - bis + (z.b. Reaktionszeit).

170 Stetige Verteilungen Normalverteilung Definition Merkmale Stetige Zufallsvariablen Merkmale Für eine stetige Zufallsvariable ist die Punktwahrscheinlichkeit P(Y = y) immer 0. Die Wahrscheinlichkeitsdichte f(y) liefert also nicht unmittelbar die Wahrscheinlichkeiten für Ereignisse, die Wahrscheinlichkeiten ergeben sich aus der Fläche unter der Dichtefunktion Es sind nur Wahrscheinlichkeiten für Intervalle von Realisationen zu berechnen, also P(a y b). Diese wird dann berechnet als b P( a y b) = f( y) dy a

171 Stetige Verteilungen Normalverteilung Definition Normalverteilung Definition Standard-NV Binomialapproximation Im psychologischen Kontext ist die Normalverteilung die wohl prominenteste Wahrscheinlichkeitsverteilung. Sie ist theoretischer Natur, da sie (anders als z.b. die Binomialverteilung) nicht direkt aus dem Bedingungskomplex Ξ abgeleitet werden kann. Die Normalverteilung ist durch zwei Parameter, μ und σ definiert. f( y, μσ, ) = 1 e 2πσ 1 2 y μ σ 2 Ist eine Zufallsvariable Y normalverteilt, wird dies häufig geschrieben als Y N(μ, σ)

172 Stetige Verteilungen Normalverteilung Normalverteilung Beispiele Der Parameter μ ist direkt der Erwartungswert der Normalverteilung σ ist direkt die Varianz der Normalverteilung

173 Stetige Verteilungen Normalverteilung Definition Normalverteilung Warum die Normalverteilung? Standard-NV Binomialapproximation 1. Sie ergibt sich, wenn viele Zufallsprozesse bei der Realisierung einer Zufallsvariablen additiv zusammenwirken. 2. Sie ist die Verteilung des Mittelwerts aller Realisierungen bei sehr häufiger Wiederholung eine Zufallsexperiment ( Zentraler Grenzwertsatz ). 3. Sie ist die Verteilung von Zufallsvariablen, wenn diese eine messfehlerbehaftete Erfassung eines Merkmals darstellen. 4. Sie ist mathematisch relativ leicht zu behandeln.

174 Stetige Verteilungen Normalverteilung Definition Normalverteilung Eigenschaften Standard-NV Binomialapproximation Ist symmetrisch, unimodal und glockenförmig Verschiedene Normalverteilungen unterscheiden sich bezüglich Erwartungswert (µ) und/oder Standardabweichung (σ) Der Wertebereich reicht von bis + Die Kurve berührt oder schneidet nie die x-achse Jedes Intervall mit einer Länge größer Null hat eine Wahrscheinlichkeit größer Null Der Typ (i.e. die Form) der Verteilung ändert sich für lineare Transformationen der Zufallsvariable nicht (siehe Transformationsregelen für Erwartungswert und Varianz).

175 Stetige Verteilungen Normalverteilung Definition Standard-NV Binomialapproximation Standardnormalverteilung z-transformation Wir haben bereits die z-standardisierung von Realisierungen einer Zufallsvariablen kennen gelernt. Standardisiert man eine normalverteilte Zufallsvariable erhält man die Standardnormalverteilung. Für die Standardnormalverteilung gilt: μ = 0, σ = 1 Die Formel der Normalverteilung reduziert sich damit auf f ( z) = 1 e 2π 1 z 2 2 Der Werte der Dichte- und Verteilungsfunktion hängen also nur von z ab

176 Stetige Verteilungen Normalverteilung Definition Standardnormalverteilung Quantile Standard-NV Binomialapproximation

177 Stetige Verteilungen Normalverteilung Definition Standardnormalverteilung Die Regel Standard-NV Binomialapproximation

178 Stetige Verteilungen Normalverteilung Definition Standardnormalverteilung Verteilungsfunktion Standard-NV Binomialapproximation

179 Stetige Verteilungen Normalverteilung Definition Standard-NV Binomialapproximation Standardnormalverteilung Verteilungsfunktion Die Verteilungsfunktion der Normalverteilung wird häufig auch als Φ (Phi) geschrieben. Häufig ist es wichtig, die Inverse der Verteilungsfunktion der Normalverteilung zu berechnen, z.b. für die Bestimmung von Quantilen. Die Inverse der Verteilungsfuntion wird dann geschrieben als Φ -1 Sowohl die Verteilungsfunktion als auch die Inverse der Verteilungsfunktion sind mathematisch nicht als einfacher Formelausdruck zu beschreiben (anders als die Dichtefunktion).

180 Stetige Verteilungen Normalverteilung Definition Standard-NV Binomialapproximation Normalverteilungsapproximation der Binomialverteilung Bei sehr kleinem p kann die Binomialverteilung durch die Poissonverteilung approximiert werden (wie gesehen) Bei großem Produkt n p wird die Binomialverteilung sehr gut durch die Normalverteilung approximiert. Daumenregel: Eine gute Approximation ergibt sich bereits für n p q > 9 (also σ² > 9). [Eine alternative Faustregel besagt, dass für eine hinreichend gute Approximation n p 10 und n q 10 sein sollen.] Als Parameter μ ist dann n p einzusetzen, der Parameter σ ist n p q. Eine binomialverteilte ZV Y kann approximiert werden als Y N( np, npq)

181 Stetige Verteilungen Normalverteilung Definition Standard-NV Binomialapproximation Normalverteilungsapproximation der Binomialverteilung Sind die Faustregeln für eine gute Approximation erfüllt, können sowohl die Punktwahrscheinlichkeit als auch die Intervallwahrscheinlichkeit für die Binomialverteilung aus der Normalverteilung approximiert werden. Punktwahrscheinlichkeit: Für ein beliebiges Ereignis Y = y i einer binomialverteilten ZV ist die NV-approximierte Punktwahrscheinlichkeit definiert als P(y i -0.5 y i y i +0.5) = Φ(y i +0.5) - Φ(y i -0.5) Intervallwahrscheinlichkeit: Die Intervallwahrscheinlichkeit u y i o ist analog definiert als P(u-0.5 y i o+0.5) = Φ(u+0.5) - Φ(o-0.5)

182 Stetige Verteilungen Normalverteilung Definition Standard-NV Binomialapproximation Normalverteilungsapproximation der Binomialverteilung - Stetigkeitskorrektur Die Subtraktion bzw. Addition von 0.5 wird auch als Stetigkeitskorrektur bezeichnet. Die Stetigkeitskorrektur bringt besonders bei hohem n (also dem Grund für die Verwendung der NV- Approximation) nur wenig mehr Rechengenauigkeit bei der Berechnung von Intervallwahrscheinlichkeiten. Sie ist aber prinzipiell notwendig, da eine beliebige Kategorie y i (z.b. 4) in der Binomialverteilung theoretisch von y i -0.5 bis y i +0.5 (z.b. 3.5 bis 4.5) reichen muss. Bei fehlender Stetigkeitskorrektur entstehen Lücken in der NV-Approximation. Die Wahrscheinlichkeiten P(Y y i ) und P(Y > y i ) addieren sich dann nicht mehr zu 1, da der Bereich von y i bis y i +1 fehlt.

183 QQ-Plot Beispiel Normalverteilung empirischer Daten Der QQ-Plot Häufig ist es wichtig zu entscheiden, ob die Daten einer Stichprobe normalverteilt sind. Beispiel: Liefert ein neu entwickelter EQ-Test (Emotional Intelligence) normalverteilte Ergebnisse? Es gibt statistische Tests zur Prüfung der Normalverteilung von empirischen Häufigkeitsdaten, die wir im Rahmen der Inferenzstatistik kennenlernen werden. Der Quantil-Quantil Plot ist eine einfache grafische Methode der Normalverteilungsprüfung

184 QQ-Plot Beispiel Normalverteilung empirischer Daten Der QQ-Plot Idee: Wenn Stichprobendaten normalverteilt sind, sollten die empirischen Quantile mit den theoretischen Quantilen übereinstimmen. Gegeben sei die beobachtete Realisation y. Wenn unterhalb von y für eine theoretisch normalverteilte Zufallsvariable p Werte liegen [also P(Y y) bzw. F(y)] solte auch in den Stichprobendaten unterhalb von y ein Anteil p der Werte liegen. Theoretisches Quantil Empirisches Quantil

185 QQ-Plot Beispiel Normalverteilung empirischer Daten Der QQ-Plot Bei n Beobachtungen existieren n direkt bestimmbare empirische Quantile. Das Quantil für das i-te Datum (i = 1 n) der sortierten Datenreihe wird berechnet als p i = i 0.5 n Über die Subtraktion von 0.5 ist der Tatsache Rechnung getragen, dass das 100% Quantil für die Normalverteilung nicht definiert (bzw. ) ist Die theoretischen Quantile für die erhaltenen z-werte können nun aus den (standardisierten) Daten anhand der inversen Normalverteilung Φ -1 bestimmt werden.

186 QQ-Plot Beispiel Normalverteilung empirischer Daten Der QQ-Plot - Verfahren Schritt 1: Sortieren der Stichprobendaten nach aufsteigender Größe Nr Datum Sortiert z p Qp e

187 Normalverteilung empirischer Daten Der QQ-Plot - Verfahren Schritt 2: z-transformation der Rohdaten Qp Sortiert Datum z p e Nr x x z s = QQ-Plot Beispiel

188 QQ-Plot Beispiel Normalverteilung empirischer Daten Der QQ-Plot - Verfahren Schritt 3: Bestimmung der Quantilszahlen p Nr Datum Sortiert z p Qp e

189 QQ-Plot Beispiel Normalverteilung empirischer Daten Der QQ-Plot - Verfahren Schritt 4: Bestimmung der erwarteten Quantile Q p aus der theoretischen standardnormalen Verteilung Φ -1 (p, x, s) Nr Datum Sortiert z p Qp e

190 QQ-Plot Beispiel Normalverteilung empirischer Daten Der QQ-Plot - Verfahren Schritt 5: Zeichnen des QQ-Plots 3 Beobachtetes Quantil Erwartetes Quantil

191 QQ-Plot Beispiel Normalverteilung empirischer Daten Der QQ-Plot - Verfahren Schritt 6: Bestimmung der Güte der Passung Die Gesamtvarianz der Daten wurde berechnet als Es kann nun aber für jeden (standardisierten) Rohdatenwert ein eigener Erwartungswert Y Qp bestimmt werden, nämlich das zugehörige Quantil aus der theoretischen Verteilungsfunktion 1 s y y n 2 = ( ) 2 i N i = 1 1 s y y n 2 ( ) 2 e = i Qp N i = 1 Die damit berechnete Varianz ist die sogenannte Fehlervarianz oder unaufgeklärte Varianz

192 QQ-Plot Beispiel Normalverteilung empirischer Daten Der QQ-Plot - Verfahren Schritt 6: Bestimmung der Güte der Passung Die Differenz (s² - s e ²) ist dann die aufgeklärte Varianz Nun kann der Anteil der aufgeklärten Varianz an der Gesamtvarianz berechnet werden als η 2 s2 s2 = e 100% s2 Zur Bewertung des η² ( eta ) gibt es Faustregeln. Ein Anteil von mindestens 70% ist als akzeptabel zu bewerten, mindestens 80% als gut, mindestens 90% als sehr gut.

193 QQ-Plot Beispiel Normalverteilung empirischer Daten Der QQ-Plot - Verfahren Schritt 6a: Bestimmung der Abweichung e zwischen beobachtetem und erwartetem Quantil. Nr Datum Sortiert z p Qp e

194 QQ-Plot Beispiel Normalverteilung empirischer Daten Der QQ-Plot - Verfahren Schritt 6b: Bestimmung des Anteils der erklärten Varianz an der Gesamtvarianz. Die Gesamtvarianz s² ist bei standardisierten Daten immer 1. Bei unstandardisierten Daten wäre es schlicht die Varianz der Rohdaten. Die Fehlervarianz ist der Mittelwert aller Abweichungsquadrate (y i -y Qp )², im Beispiel s e2 = Damit ergibt sich für die aufgeklärte Varianz η² = ( ) / 1 = 0.973, also 97.3%. Die Annahme normalverteilter Stichprobendaten wird gestützt.

195 QQ-Plot Beispiel Normalverteilung Zusammenfassung Für die theoretische Wahrscheinlichkeitsverteilung psychologisch relevanter Zufallsvariablen wird oft die Normalverteilung angenommen. Sie ist durch zwei Parameter, μ und σ definiert. Ob diese Annahme haltbar ist, kann a priori nur durch ein theoretisches Rational begründet werden. Die erfolgreiche Prüfung empirischer Daten auf Normalverteilung ist kein Indikator für die Validität des theoretischen Rationals. Zur naturnotwendigen Normalverteilung bestimmter Zufallsvariablen siehe Glass & Hopkins (1996), God loves the normal curve, S. 80 ff.

196 Zentralmomente Normalverteilung Zentralmomente Schiefe Kurtosis Wir haben bereits die Schiefe einer Verteilung als optisches Beschreibungskriterium kennen gelernt (Links-/Rechtssteilheit) Anhand der Zentralmomente kann das Merkmal der Schiefe zahlenmäßig bewertet werden Zwei bereits bekannte Zentralmomente sind der Mittelwert (erstes Zentralmoment) sowie die Varianz (zweites Zentralmoment)

197 Zentralmomente Normalverteilung Zentralmomente Schiefe Die in der beschreibenden Statistik wichtigsten Zentralmomente von Wk-Verteilungen sind: Kurtosis Mittelwert Erstes Zentralmoment Varianz Zweites Zentralmoment Schiefe Drittes Zentralmoment Kurtosis Viertes Zentralmoment μ = E( Y ) σ = E( Y E( Y)) μ ν = = σ μ γ = = σ 2 2 E( Y E( Y)) σ EY ( EY ( )) σ

198 Zentralmomente Normalverteilung Schiefe empirischer Daten Schiefe Kurtosis Die Schiefe (3. Zentralmoment) berechnet sich als m n = n n ( y y) i= 1 3 ( n 1)( n 2) s i 3 Die Schiefe der Normalverteilung (wie auch jeder anderen symmetrischen Verteilung) ist 0. Ein positiver Schiefekoeffizient bedeutet Linkssteilheit (bzw. Rechtsschiefe) Ein negativer Schiefekoeffizient bedeutet Rechtssteilheit (bzw. Linksschiefe)

199 Zentralmomente Normalverteilung Schiefe empirischer Daten Schiefe Kurtosis

200 Zentralmomente Normalverteilung empirischer Daten Kurtosis empirischer Daten Schiefe Die Kurtosis (Exzess; 4. Zentralmoment) berechnet sich als Kurtosis m g n nn ( + 1) ( y ) 4 i y = i= 1 4 3( n 1) 2 ( n 1)( n 2)( n 3) s ( n 2)( n 3) Die Kurtosis (Wölbung) der Normalverteilung ist 0. Eine positive Kurtosis zeigt eine steilere ( spitzere ) Verteilung als die NV an Eine negative Kurtosis zeigt eine flachere ( rundere ) Verteilung als die NV an.

201 Zentralmomente Normalverteilung empirischer Daten Kurtosis empirischer Daten Schiefe Kurtosis

202 Zentralmomente Normalverteilung empirischer Daten Kurtosis empirischer Daten Schiefe Kurtosis Die Kurtosis hat nichts zu tun mit der optischen Höhe/Steilheit der Verteilungskurve. Alle drei Kurven haben dieselbe Kurtosis, aber unterschiedliche Standardabweichungen (σ rot = 2; σ blau = 1; σ grün = 0.5)

203 Population & Stichprobe Das d Maß Nomenklatur z-test Verteilungsannahmen & Nomenklatur Population und Stichprobe Die Annahme einer Wahrscheinlichkeitsverteilung in der bezieht sich immer auf eine Population oder Grundgesamtheit Eine Population, für die eine gewählte Wahrscheinlichkeitsdichte gelten soll, ist ein Konstrukt und als solches zumeist nicht a priori definiert (z.b. Studenten, Hausfrauen, Depressive ) Die in einem Zufallsexperiment ausgewählten tatsächlichen Beobachtungseinheiten werden dann als Stichprobe bezeichnet Eine Verteilungsannahme bezieht sich also immer auf die Population. Für die Stichprobe ist sie empirisch zu prüfen.

204 Population & Stichprobe Das d Maß Nomenklatur z-test Ausblick: Inferenzstatistik Das Prinzip des statistischen Testens z-test Das ZQ hat einen neuen Fragebogen zur Messung der Studiumsfrustration bei studierenden entwickelt. Es sei bekannt, dass der Frustrationsindex (FI) etwa in der Mitte des ersten Semesters maximal wird, und zwar bei solchen Studierenden, die regelmäßig an der Statistikveranstaltung teilgenommen haben. Das ZQ erwartet als Verteilung des FI für diese Gruppe von Studierenden eine Normalverteilung mit den Parametern μ=13.66 und σ=4.25. Eine bestimmte Studierende erziele in besagtem Fragebogen einen FI von 21. Gehört sie wahrscheinlich zur Population der Studierenden mit regelmäßigem Veranstaltungsbesuch?

205 Population & Stichprobe Das d Maß Nomenklatur z-test Ausblick: Inferenzstatistik Das Prinzip des statistischen Testens z-test Wie schon beim Binomialtest kann mithilfe des z-tests überprüft werden, ob ein beobachtetes Datum zu unwahrscheinlich ist, um unter einer bestimmten Verteilungsannahme zustande gekommen zu sein Gegeben sei eine Population mit einem Merkmal Y. Von diesem sei bekannt, dass es normalverteilt ist mit einem Erwartungswert μ und einer Varianz σ². Der z-wert eines beobachteten Datums y berechnet sich dann wie bei der z-standardisierung als z y = y μ σ

206 Population & Stichprobe Das d Maß Nomenklatur z-test Ausblick: Inferenzstatistik Das Prinzip des statistischen Testens z-test Mithilfe der angenommenen Verteilungsfunktion Φ(z y ) kann geprüft werden, wie wahrscheinlich das Auftreten des Datums y oder eines noch extremeren Wertes ist Dabei muss entschieden werden, ob ein- oder zweiseitig geprüft werden soll. 1. Bei einseitiger Prüfung wird berechnet, wie wahrscheinlich ein gleicher oder noch extremerer Wert in Richtung des Vorzeichens von z y wäre 2. Bei zweiseitiger Prüfung wird berechnet, wie wahrscheinlich ein Wert gleich oder größer von z y und gleich oder kleiner von - z y wäre.

207 Population & Stichprobe Das d Maß Nomenklatur z-test Ausblick: Inferenzstatistik Das Prinzip des statistischen Testens z-test Für die berechnete Wahrscheinlichkeit gibt es keine formal ableitbaren Grenzen des noch Wahrscheinlichen In der empirischen Statistik haben sich deshalb sich Cut- Off Werte von 5% und 1% etabliert. Diese werden auch als Irrtumswahrscheinlichkeiten bezeichnet Die Irrtumswahrscheinlichkeit ist diejenige Wk, mit der bei zutreffender Verteilungsannahme ein Wert y oder ein noch extremerer Wert beobachtet worden wäre Ist die Irrtumswahrscheinlichkeit unterschritten, wird angenommen, dass das Datum y nicht aus der Population stammen kann, für die die Zufallsvariable Y definiert wurde

208 Population & Stichprobe Das d Maß Grundidee Konfusionsmatrix Das d Maß Mittelwerteabstand aus Wk en Das d Maß In der experimentellen Forschung soll häufig anhand mehrerer gleichartiger Beobachtungen zwischen zwei Zuständen unterschieden werden Beispiele: Wie gut differenziert das BDI zwischen Depressiven und Nicht-Depressiven? Nimmt ein Mensch einen sehr schwachen Geruchsreiz wahr? Wie geeignet ist mein Fragebogen, um zwischen Sensitizern und Repressern zu unterscheiden? Die allgemeine Frage hier kann formuliert werden als: Wie sensitiv ist mein Messinstrument für Unterschiede?

209 Population & Stichprobe Das d Maß Grundidee Konfusionsmatrix Das d Maß Mittelwerteabstand aus Wk en Das d Maß Bei einer solchen Fragestellung kann in der Population theoretisch einer von zwei Zuständen vorliegen. Zumeist können diese charakterisiert werden als H 0 : Merkmal liegt nicht vor H 1 : Merkmal liegt vor In der Stichprobe zeigt dann das Messinstrument entweder den Zustand H 0 oder den Zustand H 1 an. Aufgrund des Messfehlers werden das theoretische H 0 /H 1 und die empirische Entscheidung über H 0 /H 1 nicht immer deckungsgleich sein (Messfehler). Aus der Messtechnik wird die H 0 deshalb auch häufig als Rauschen und die H 1 als Signal bezeichnet.

210 Population & Stichprobe Das d Maß Grundidee Konfusionsmatrix Fehler 1. und 2. Art Konfusionsmatrix Das d Maß Entscheidung für H 0 H 1 In der Population gilt H 0 H 1 Correct Miss Rejection ( 0 H0) P H False Alarm Hit (Fehler 1. Art) (Fehler 2. Art) ( 0 H1) P H P( H 1 H0) P( H1 H1) Die Wahrscheinlichkeit P(H H) wird auch als Likelihood bezeichnet.

211 Population & Stichprobe Das d Maß Grundidee Konfusionsmatrix Das d Maß Mittelwerteabstand aus Wk en Das d Maß Annahme I: Die Messfehler sind normalverteilt Annahme II: Die Messungen (und damit auch die Messfehler) sind stochastisch unabhängig Annahme III: Der Mittelwert aller Messfehler ist 0 Annahme IV: Die Streuung der Messfehler ist unter H 0 und H 1 gleich Annahme V: Die Entscheidung des Messinstrumentes für H 0 oder H 1 fällt durch den Vergleich des Messwertes mit einem konstanten Kriterium k

212 Population & Stichprobe Das d Maß Grundidee Mittelwerteabstand aus Wk en Das d Maß Konfusionsmatrix Das d Maß

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009

Mehr

Forschungsstatistik I

Forschungsstatistik I Psychologie Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

Forschungsstatistik I

Forschungsstatistik I Psychologie Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de

Mehr

Forschungsstatistik I

Forschungsstatistik I Psychologie Prof. Dr. G. Meinhardt 6. Stock, TB II R. 06-206 (Persike) R. 06-321 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206 Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de lordsofthebortz.de lordsofthebortz.de/g+

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt Methodenlehre Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Dr. Malte Persike persike@uni-mainz.de

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de lordsofthebortz.de lordsofthebortz.de/g+

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de

Mehr

Primer: Wahrscheinlichkeitstheorie 1.0

Primer: Wahrscheinlichkeitstheorie 1.0 : Wahrscheinlichkeitstheorie 1.0 Dr. Malte Persike persike@uni-mainz.de methodenlehre.com twitter.com/methodenlehre methodenlehre.com/g+ iversity.org/schoolinger Inhalte der nächsten Minuten Von der Pike

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg 2 R. 06-206 (Persike) R. 06-214 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009

Mehr

Basiswissen Daten und Zufall Seite 1 von 8 1 Zufallsexperiment Ein Zufallsexperiment ist ein Versuchsaufbau mit zufälligem Ausgang, d. h. das Ergebnis kann nicht vorhergesagt werden. 2 Ergebnis (auch Ausgang)

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg 2 R. 06-206 (Persike) R. 06-214 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Rumpfskript Elementare Wahrscheinlichkeitsrechnung Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Vorbemerkung Vorbemerkung Das vorliegende Skript heißt nicht nur Rumpf skript, sondern

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

2.2 Ereignisse und deren Wahrscheinlichkeit

2.2 Ereignisse und deren Wahrscheinlichkeit 2.2 Ereignisse und deren Wahrscheinlichkeit Literatur: [Papula Bd., Kap. II.2 und II.], [Benning, Kap. ], [Bronstein et al., Kap. 1.2.1] Def 1 [Benning] Ein Zufallsexperiment ist ein beliebig oft wiederholbarer,

Mehr

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung

Mehr

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet Kapitel 10 Zufall und Wahrscheinlichkeit 10.1. Grundbegriffe Wahrscheinlichkeitsrechnung Zufallsvorgang Klein-Omega ω Groß-Omega Ω Stellt Modelle bereit, die es erlauben zufallsabhängige Prozesse abzuschätzen

Mehr

Institut für Biometrie und klinische Forschung. WiSe 2012/2013

Institut für Biometrie und klinische Forschung. WiSe 2012/2013 Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele

Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Wahrscheinlichkeitstheorie Agenda:

Mehr

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007 . Grundlagen der Wahrscheinlichkeitstheorie. Zufallsereignisse, Ereignisraum und Ereignismenge Zufallsexperiment: nach einer bestimmten Vorschrift ausgeführter, unter gleichen edingungen beliebig oft wiederholbarer

Mehr

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik Kapitel 11 Diskrete Zufallsvariablen 11.1. Wahrscheinlichkeits- und diskret Wahrscheinlichkeitsverteilungen Wahrscheinlichkeitsfunktion von X Nimmt abzählbare Anzahl von Ausprägungen an (z.b. Zählvariablen)

Mehr

Kombinatorik kompakt. Stochastik WS 2016/17 1

Kombinatorik kompakt. Stochastik WS 2016/17 1 Kombinatorik kompakt Stochastik WS 2016/17 1 Übersicht Auswahl/Kombinationen von N aus m Elementen Statistische unterscheidbare ununterscheidbare Physik Objekte (gleiche) Objekte ( ohne m N m+n 1 ) N mit

Mehr

Kapitel 2 Wahrscheinlichkeitsrechnung

Kapitel 2 Wahrscheinlichkeitsrechnung Motivation bisher: Beschreibung von Datensätzen = beobachteten Merkmalsausprägungen Frage: Sind Schlußfolgerungen aus diesen Beobachtungen möglich? Antwort: Ja, aber diese gelten nur mit einer bestimmten

Mehr

Teil II. Wahrscheinlichkeitsrechnung

Teil II. Wahrscheinlichkeitsrechnung Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2014) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse

Mehr

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) Teil II Wahrscheinlichkeitsrechnung 5 Zufallsexperimente Ergebnisse Ereignisse Wahrscheinlichkeiten Deskriptive Statistik und Wahrscheinlichkeitsrechnung

Mehr

Zusammenfassung Stochastik

Zusammenfassung Stochastik Zusammenfassung Stochastik Die relative Häufigkeit Ein Experiment, dessen Ausgang nicht vorhersagbar ist, heißt Zufallsexperiment (ZE). Ein Würfel wird 40-mal geworfen, mit folgendem Ergebnis Augenzahl

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 1

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 1 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/ Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie svorschläge zu

Mehr

Stochastik für Ingenieure

Stochastik für Ingenieure Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.prof. Dr. Waltraud Kahle Empfehlenswerte Bücher:

Mehr

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg R. 06-06 (Persike) R. 06-31 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

3. Grundbegriffe der Wahrscheinlichkeitstheorie

3. Grundbegriffe der Wahrscheinlichkeitstheorie 03. JULI 2006: BLATT 17 3. Grundbegriffe der Wahrscheinlichkeitstheorie (v.a. nach Manning/Schütze: 40ff und Fahrmeir /Künstler/Pigeot/Tutz: 171ff) Übersicht Um entscheiden zu können, ob eine statistische

Mehr

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum

Mehr

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26) Gegeben Menge Ω (Wahscheinlichkeitsraum, Menge aller möglichen Ausgänge eines Zufallsexperiments), Abbildung P : P(Ω) [0, 1] (Wahrscheinlichkeit): Jeder Teilmenge

Mehr

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/

Mehr

Statistik Einführung // Wahrscheinlichkeitstheorie 3 p.2/58

Statistik Einführung // Wahrscheinlichkeitstheorie 3 p.2/58 Statistik Einführung Wahrscheinlichkeitstheorie Kapitel 3 Statistik WU Wien Gerhard Derflinger Michael Hauser Jörg Lenneis Josef Leydold Günter Tirler Rosmarie Wakolbinger Statistik Einführung // Wahrscheinlichkeitstheorie

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 1 Vorbemerkungen

Mehr

Eindimensionale Zufallsvariablen

Eindimensionale Zufallsvariablen Eindimensionale Grundbegriffe Verteilungstypen Diskrete Stetige Spezielle Maßzahlen für eindimensionale Erwartungswert Varianz Standardabweichung Schwankungsintervalle Bibliografie Bleymüller / Gehlert

Mehr

Dr. H. Grunert Einführung in die Wahrscheinlichkeitsrechnung Vorlesungscharts. Vorlesung 1. Grundbegriffe der Wahrscheinlichkeitsrechnung

Dr. H. Grunert Einführung in die Wahrscheinlichkeitsrechnung Vorlesungscharts. Vorlesung 1. Grundbegriffe der Wahrscheinlichkeitsrechnung Vorlesungscharts Vorlesung 1 Grundbegriffe der Wahrscheinlichkeitsrechnung Zufallsvorgänge und Zufallsereignisse Definitionen der Wahrscheinlichkeit Seite 1 von 11 Chart 1: Vorgänge deterministisch zufällig

Mehr

Inhaltsverzeichnis Inhaltsverzeichnis VII Erst mal locker bleiben: Es f angt ganz einfach an! Keine Taten ohne Daten!

Inhaltsverzeichnis Inhaltsverzeichnis VII Erst mal locker bleiben: Es f angt ganz einfach an! Keine Taten ohne Daten! Inhaltsverzeichnis Inhaltsverzeichnis VII 1 Erst mal locker bleiben: Es fängt ganz einfach an! 1 1.1 Subjektive Wahrscheinlichkeit - oder warum...?..... 4 1.2 Was Ethik mit Statistik zu tun hat - Pinocchio

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit

Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit Teil I: Wahrscheinlichkeitstheorie 1 Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 3: Bedingte Wahrscheinlichkeit Kapitel 4: Zufallsvariablen Kapitel 5: Erwartungswerte, Varianz, Kovarianz

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Die ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist.

Die ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist. .3. Stochastik Grundlagen Die ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist. Die RELATIVE HÄUFIGKEIT einer Merkmalsausprägung gibt an mit welchem Anteil

Mehr

Wahrscheinlichkeitstheorie

Wahrscheinlichkeitstheorie Kapitel 2 Wahrscheinlichkeitstheorie Josef Leydold c 2006 Mathematische Methoden II Wahrscheinlichkeitstheorie 1 / 24 Lernziele Experimente, Ereignisse und Ereignisraum Wahrscheinlichkeit Rechnen mit Wahrscheinlichkeiten

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen Ü b u n g 1 Aufgabe 1 Die Ereignisse A, B und C erfüllen die Bedingungen P(A) = 0. 7, P(B) = 0. 6, P(C) = 0. 5 P(A B) = 0. 4, P(A C) = 0. 3, P(B C) = 0. 2, P(A B C) = 0. 1 Bestimmen Sie P(A B), P(A C),

Mehr

Beschreibende Statistik

Beschreibende Statistik Beschreibende Aufgaben der beschreibenden : Erhebung von Daten Auswertung von Daten Darstellung von Daten Erhebung von Daten Bei der Erhebung von Daten geht es um die Erfassung von Merkmalen (Variablen)

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Sachrechnen/Größen WS 14/15-

Sachrechnen/Größen WS 14/15- Kapitel Daten & Wahrscheinlichkeit 3.1 Kombinatorische Grundlagen 3.2 Kombinatorik & Wahrscheinlichkeit in der Grundschule 3.3 Daten Darstellen 3.1 Kombinatorische Grundlagen Verschiedene Bereiche der

Mehr

Wahrscheinlichkeitsrechnung [probability]

Wahrscheinlichkeitsrechnung [probability] Wahrscheinlichkeitsrechnung [probability] Hinweis: Die Wahrscheinlichkeitsrechnung ist nicht Gegenstand dieser Vorlesung. Es werden lediglich einige Begriffsbildungen bereitgestellt und an Beispielen erläutert,

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

UE Statistik 1, SS 2015, letztes Update am 5. März Übungsbeispiele

UE Statistik 1, SS 2015, letztes Update am 5. März Übungsbeispiele UE Statistik, SS 05, letztes Update am 5. März 05 Übungsbeispiele Beispiele mit Musterlösungen finden Sie auch in dem Buch Brannath, W., Futschik, A., Krall, C., (00) Statistik im Studium der Wirtschaftswissenschaften..

Mehr

1. Grundlagen der Wahrscheinlichkeitsrechnung

1. Grundlagen der Wahrscheinlichkeitsrechnung 1. Grundlagen der Wahrscheinlichkeitsrechnung Ereignisse und Wahrscheinlichkeiten Zufälliger Versuch: Vorgang, der (zumindest gedanklich) beliebig oft wiederholbar ist und dessen Ausgang innerhalb einer

Mehr

htw saar 1 EINFÜHRUNG IN DIE STATISTIK: BESCHREIBENDE STATISTIK

htw saar 1 EINFÜHRUNG IN DIE STATISTIK: BESCHREIBENDE STATISTIK htw saar 1 EINFÜHRUNG IN DIE STATISTIK: BESCHREIBENDE STATISTIK htw saar 2 Grundbegriffe htw saar 3 Grundgesamtheit und Stichprobe Ziel: Über eine Grundgesamtheit (Population) soll eine Aussage über ein

Mehr

Inhaltsverzeichnis. 3 Bedingte Wahrscheinlichkeit und Unabhängigkeit Folgen unabhängiger Versuche Der Satz von Bayes...

Inhaltsverzeichnis. 3 Bedingte Wahrscheinlichkeit und Unabhängigkeit Folgen unabhängiger Versuche Der Satz von Bayes... Inhaltsverzeichnis Wahrscheinlichkeitsbegriff 3. Intuitive Vorstellungen über Zufälligkeit..................... 3.2 Klassische Wahrscheinlichkeitsdefinition..................... 4.3 Verallgemeinerungen

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

4. Die Laplacesche Gleichverteilung

4. Die Laplacesche Gleichverteilung Universität Basel Wirtschaftswissenschaftliches Zentrum Grundlagen der Stochastik Dr. Thomas Zehrt Inhalt: 1. Die Ereignismenge 2. Die Wahrscheinlichkeitsverteilung 3. Eigenschaften einer Wahrscheinlichkeitsverteilung

Mehr

Psychologische Methodenlehre und Statistik I

Psychologische Methodenlehre und Statistik I Psychologische Methodenlehre und Statistik I Pantelis Christodoulides & Karin Waldherr SS 2013 Pantelis Christodoulides & Karin Waldherr Psychologische Methodenlehre und Statistik I 1/61 Zufallsexperiment

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung. Semester Begleitendes Skriptum zur Vorlesung im FH-Masterstudiengang Technisches Management von Günther Karigl FH Campus Wien 206/7 Inhaltsverzeichnis. Semester: Wahrscheinlichkeitsrechnung

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

Modelle diskreter Zufallsvariablen

Modelle diskreter Zufallsvariablen Statistik 2 für SoziologInnen Modelle diskreter Zufallsvariablen Univ.Prof. Dr. Marcus Hudec Zufallsvariable Eine Variable (Merkmal) X, deren numerische Werte als Ergebnisse eines Zufallsvorgangs aufgefasst

Mehr

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Wahrscheinlichkeitsrechnung Theorie Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem,

Mehr

Forschungsstatistik I

Forschungsstatistik I Psychologie Prof. Dr. G. Meinhardt 6. Stock, TB II R. 06-206 (Persike) R. 06-321 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 7. Übung SS 16: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 7. Übung SS 16: Woche vom Übungsaufgaben 7. Übung SS 16: Woche vom 23. 5. 27. 5.. 2016 Stochastik I: Klassische Wkt.-Berechnung Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/... (SS16).html

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 8. Übung SS 16: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 8. Übung SS 16: Woche vom Übungsaufgaben 8. Übung SS 16: Woche vom 30. 5. 3.6. 2016 Stochastik II: Klassische Wkt.-Berechnung; Unabhängigkeit Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

15 Wahrscheinlichkeitsrechnung und Statistik

15 Wahrscheinlichkeitsrechnung und Statistik 5 Wahrscheinlichkeitsrechnung und Statistik Alles, was lediglich wahrscheinlich ist, ist wahrscheinlich falsch. ( Descartes ) Trau keiner Statistik, die du nicht selbst gefälscht hast. ( Churchill zugeschrieben

Mehr

Kapitel II - Wahrscheinlichkeitsraum

Kapitel II - Wahrscheinlichkeitsraum Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel II - Wahrscheinlichkeitsraum Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

SBP Mathe Aufbaukurs 1 # 0 by Clifford Wolf. SBP Mathe Aufbaukurs 1

SBP Mathe Aufbaukurs 1 # 0 by Clifford Wolf. SBP Mathe Aufbaukurs 1 SBP Mathe Aufbaukurs 1 # 0 by Clifford Wolf SBP Mathe Aufbaukurs 1 # 0 Antwort Diese Lernkarten sind sorgfältig erstellt worden, erheben aber weder Anspruch auf Richtigkeit noch auf Vollständigkeit. Das

Mehr

Kapitel 5 Stochastische Unabhängigkeit

Kapitel 5 Stochastische Unabhängigkeit Kapitel 5 Stochastische Unabhängigkeit Vorlesung Wahrscheinlichkeitsrechnung I vom SoSe 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 5.1 Das Konzept der stochastischen Unabhängigkeit. 1 Herleitung anhand

Mehr

Es werden 120 Schüler befragt, ob sie ein Handy besitzen. Das Ergebnis der Umfrage lautet: Von 120 Schülern besitzen 99 ein Handy.

Es werden 120 Schüler befragt, ob sie ein Handy besitzen. Das Ergebnis der Umfrage lautet: Von 120 Schülern besitzen 99 ein Handy. R. Brinkmann http://brinkmann-du.de Seite 08..2009 Von der relativen Häufigkeit zur Wahrscheinlichkeit Es werden 20 Schüler befragt, ob sie ein Handy besitzen. Das Ergebnis der Umfrage lautet: Von 20 Schülern

Mehr

Wie hoch ist das Risiko, dass ein System, das aus mehreren Komponenten besteht, ausfällt?

Wie hoch ist das Risiko, dass ein System, das aus mehreren Komponenten besteht, ausfällt? In diesem Kapitel werden wir den egriff Wahrscheinlichkeit und die Grundlagen der Wahrscheinlichkeitsrechnung kennenlernen, um z.. folgende Fragestellungen zu beantworten. Wie hoch ist das Risiko, dass

Mehr

3.3 Bedingte Wahrscheinlichkeit

3.3 Bedingte Wahrscheinlichkeit 28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

9. Elementare Wahrscheinlichkeitsrechnung

9. Elementare Wahrscheinlichkeitsrechnung 9. Elementare Wahrscheinlichkeitsrechnung Beispiel (Einmaliges Würfeln): verbal mengentheoretisch I. Zufällige Ereignisse Beispiel (Einmaliges Würfeln): Alle möglichen Ausgänge 1,,, 6 des Experiments werden

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

SozialwissenschaftlerInnen II

SozialwissenschaftlerInnen II Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Wahrscheinlichkeitsfunktionen

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Verteilung diskreter Zufallsvariablen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Haug verwendet man die Denition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A \ B] = Pr[BjA] Pr[A] = Pr[AjB] Pr[B] : (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1 ; : : : ; A n

Mehr