Wahrscheinlichkeitstheorie Alea iacta est!
"Wissenschaftliche Theorien, die auf Eigenschaften einer großen Zahl von Individuen rekurrieren, [...] werden anfällig gegen Fehlinterpretationen, wenn man die zufällige Natur ihrer Beweisgrundlagen aus dem Auge verliert." Ronald Aylmer Fisher (1890-1962)
Ein Ereignis wird als zufällig bezeichnet, wenn sein Ausgang variabel und nicht vorhersagbar ist.
Pierre-Simon Laplace (1749-1827) Die klassische Interpretation Die Wahrscheinlichkeit eines Ereignisses ist das Verhältnis zwischen der Anzahl günstiger und möglicher Ausgänge eines Zufallsexperiments. Beispiel: Mit einem Würfel soll eine 5 geworfen werden. Von den sechs möglichen Ausgängen des Wurfs ist hierfür nur einer günstig. Also beträgt die Wahrscheinlichkeit für "die Augenzahl lautet 5" ein Sechstel.
Die frequentistische Interpretation Die Wahrscheinlichkeit eines Ereignisses in einer Serie von Versuchen ist der Grenzwert der relativen Häufigkeit des Ereignisses. John Venn (1834-1923) Beispiel: Wirf einen Würfel sehr oft und notiere jedes mal die Augenzahl. Die relative Häufigkeit von "die Augenzahl lautet 5" ist ungefähr ein Sechstel. Der Grenzwert der relativen Häufigkeit ist genau ein Sechstel.
Die subjektive Interpretation Wahrscheinlichkeit ist ein Maß für den Glauben an den Eintritt eines Ereignisses. Frank P. Ramsey (1903-1930) Beispiel: Nimm an Du wettest, dass die Augenzahl 5 lautet. Du setzt einen Dollar ein und bekommst sechs Dollar zurück, wenn Du gewinnst. Diese Wette empfindest Du als fair.
Die axiomatische Interpretation Eine Wahrscheinlichkeit ist etwas, was die Axiome der Wahrscheinlichkeitstheorie erfüllt. Andrej N. Kolmogorov (1903-1987)
Kolmogorovs Axiome Es sei Ωeine nicht leere Menge und eine Familie von Teilmengen von Ω, die Ωenthält und die abgeschlossen ist bezüglich der Komplementbildung und Vereinigung von Mengen. Es sei P eine Abbildung von in die reellen Zahlen mit den folgenden Eigenschaften: 1. Nicht-Negativität P(A) 0 für alle A 2. Normalität P(Ω) = 1 3. Additivität P(A 1 A 2...) = P(A 1 )+P(A 2 )+... für alle A 1, A 2,... mit A i A j = Ø P heißt "Wahrscheinlichkeitsfunktion" und (Ω,, P) ist ein so genannter "Wahrscheinlichkeitsraum". Grundbegriffe der Wahrscheinlichkeitsrechnung (1933)
Würfelspiel P=6/6 P=4/6 P=2/6 {1,2,3,4,5,6} Ω {1,2,3,4} {1,2,3,5} {1,2,3,6} {1,2,4,5} {1,2,4,6} {1,2,5,6} {1,3,4,5} {1,3,4,6} {1,3,5,6} {1,4,5,6} {2,3,4,5} {2,3,4,6} {2,3,5,6} {2,4,5,6} {3,4,5,6} {1,2} {1,3} {1,4} {1,5} {1,6} {2,3} {2,4} {2,5} {2,6} {3,4} {3,5} {3,6} {4,5} {4,6} {5,6} P=5/6 P=3/6 P=1/6 {1,2,3,4,5} {1,2,3,4,6} {1,2,3,5,6} {1,2,4,5,6} {1,3,4,5,6} {2,3,4,6,5} {1,2,3} {4,5,6} {1,2,4} {3,5,6} {1,2,5} {3,4,6} {1,2,6} {3,4,5} {1,3,4} {2,5,6} {1,3,5} {2,4,6} {1,3,6} {2,4,5} {1,4,5} {2,3,6} {1,4,6} {2,3,5} {1,5,6} {2,3,4} {1} {2} {3} {4} {5} {6} P=0/6 Ø
Maßtheoretische Sicht der Wahrscheinlichkeit Ω Ω A B A A C A B: Ereignis A oder Ereignis B oder beide treten ein. A B: Ereignisse A und B treten gleichzeitig ein. A C : Das Komplement (Gegenteil) von Ereignis A tritt ein. P(A B) = P(A)+P(B)-P(A B) P(A)+P(A C ) = P(A A C ) = P(Ω) = 1 P(A C ) = 1-P(A)
Unabhängigkeit von Ereignissen Zwei Ereignisse A und B heißen "unabhängig", wenn P(A B) = P(A) P(B)
Blutdruck und Blutfette Etwa 25% der erwachsenen US-Amerikaner haben einen erhöhten Blutdruck. (A) Etwa 20% der erwachsenen US-Amerikaner haben erhöhte Blutfettwerte. (B) Etwa 17% der erwachsenen US-Amerikaner sind hypertensiv und hyperlipidämisch. (A B) P(A B) = 0.17 > 0.05 = 0.25 0.20= P(A) P(B)
Zufallsvariable... bilden komplexe Zufallsereignisse aus der Realität auf eine einfache (meistens numerische) Skala ab. X: Häufigkeit, mit der die ersten fünf Würfel die Augenzahl 6 zeigen X = 2 eine "Realisierung" von X
Diskrete Zufallsvariable X: Häufigkeit, mit der die ersten fünf Würfel die Augenzahl 6 zeigen X = 2 eine "Realisierung" von X Wahrscheinlichkeitsfunktion von X f(a)=p(x=a) für alle möglichen Werte a von X
Binomialverteilung Bin(n,π) Modell: n unabhängige Wiederholungen eines Experiments mit binärem Ausgang ("Erfolg", "Misserfolg") und konstanter Erfolgswahrscheinlichkeit π bei jeder Wiederholung X: Anzahl der Erfolge f(k) = P(X = k) = n k π k (1 π) n k n k = 1 2... n 1 2... k 1 2... (n k) = n! k!(n k)! "Binomialkoeffizient"
Münzwurf n=5, k=3 π (1-π) π (1-π) π=π 3 (1-π) 2 (1-π) π π (1-π) π=π 3 (1-π) 2 1 2 3 4 5 Wieviel verschiedene Möglichkeiten gibt es, aus 5 Positionen genau 3 Positionen auszuwählen? 5 4 3 3 2 1 = 10 = 5 4 3 2 1 3 2 1 2 1 = 5! 3! 2!
Wirksamkeit von Antibiotika Ein Antibiotikum wirkt bei 85% aller Patienten mit einer bestimmten Krankheit. Mit welcher Wahrscheinlichkeit werden mindestens 8 von 10 Patienten durch das Medikament geheilt? P(X 8) = f(8) + f(9) + f(10) = n=10, π=0.85, k=8, 9 oder 10 = 10 8 0.858 0.15 2 + 10 9 0.859 0.15 1 + 10 10 0.8510 0.15 0 = 45 0.272 0.023 + 10 0.232 0.150 + 1 0.197 1.000 = 0.820
Wahrscheinlichkeitsfunktion 0.4 Bin(10,0.85) 0.3 f(k) 0.2 0.1 0.0 0 1 2 3 4 5 6 7 8 9 10 k
Stetige Zufallsvariable X = 22.5 Verteilungsfunktion von X F(b)=P(X b) für reelle Zahlen b
Verteilungsfunktion 1,0 0,8 F(b) 0,6 0,4 0,2 0,0-4 -3-2 -1 0 1 2 3 4 b 0 F(b) 1 F(b) ist monoton wachsend
y Verteilung einer stetigen Zufallsvariablen b f(x) "Dichte" x F(b) = b f(x)dx y P(a < X b) = F(b) F(a) a b x
Unabhängigkeit von Zufallsvariablen Zwei Zufallsvariable X und Y heißen "stochastisch unabhängig", wenn P(X a,y b) = P(X a) P(Y b) für jede Auswahl reeller Zahlen aund b.
Unabhängigkeit von Zufallsvariablen Beispiele unabhängig X: Körpergröße Y: Untersuchungszeitpunkt X: Geschlecht Y: Haarfarbe nicht unabhängig X: Body-Mass-Index Y: Alter X: Blutdruck Y: Blutfettwerte
Erwartungswert E(X) Der Erwartungswert (oder das "Populationsmittel") einer Zufallsvariablen gibt ihren durchschnittlichen bzw. zentralen Wert an. Er fasst wesentliche Charakteristika der Verteilung der Variablen in einer Kennzahl zusammen. http://www.stats.gla.ac.uk/steps/glossary/index.html diskret stetig E(X) = a P(X = a a) E(X) + = x f(x) dx
Würfelspiel X: Augenzahl in einem Wurf E(X) = 1 1 / 6 + 2 1 / 6 + 3 1 / 6 + 4 1 / 6 + 5 1 / 6 + 6 1 / 6 = 3.5 Y: Summe der Augenzahl in zwei Würfen E(Y) = 2 1 / 36 + 3 2 / 36 + 4 3 / 36 + 5 4 / 36 + 6 5 / 36 + 7 6 / 36 + 8 5 / 36 + 9 4 / 36 + 10 3 / 36 + 11 2 / 36 +12 1 / 36 = 7
Gesetz der Großen Zahlen X 1, X 2,, X n unabhängig und identisch verteilt mit E(X 1 ) =... = E(X n ) = µ X = X 1 +... n + X n µ wenn n sehr groß wird
Würfelspiel X i : Augenzahl eines einzelnen Wurfs (i=1,...,n) X: durchschnittliche Augenzahl 5.5 5.0 100 Wiederholungen 4.5 4.0 X 3.5 3.0 2.5 2.0 1.5 n=10 n=100 n=500
Varianz Var(X) Die Varianz einer Zufallsvariablen ist eine nicht negative reelle Zahl, die einen Eindruck von der zu erwartenden Streuung der Realisierungen einer Zufallsvariablen vermittelt. Je größer die Varianz, umso verstreuter werden diese Beobachtungen sein. http://www.stats.gla.ac.uk/steps/glossary/index.html Var(X) = E([X-E(X)] 2 ) Var(X) "Standardabweichung"
Varianz Var(X) E(X 1 ) E(X 2 ) Var(X 1 ) < Var(X 2 )
Würfelspiel X: Augenzahl in einem Wurf Var(X) = (1-3.5) 2 1 / 6 + (2-3.5) 2 1 / 6 + (3-3.5) 2 1 / 6 + (4-3.5) 2 1 / 6 + (5-3.5) 2 1 / 6 + (6-3.5) 2 1 / 6 = 2.9 Y: Summe der Augenzahl in zwei Würfen Var(Y) = (2-7) 2 1 / 36 + (3-7) 2 2 / 36 + (4-7) 2 3 / 36 + (5-7) 2 4 / 36 + (6-7) 2 5 / 36 + (7-7) 2 6 / 36 +(8-7) 2 5 / 36 + (9-7) 2 4 / 36 + (10-7) 2 3 / 36 + (11-7) 2 2 / 36 + (12-7) 2 1 / 36 = 5.8
Einige Rechenregeln E(X+Y) = E(X) + E(Y) E(α X) = α E(X) Var(α X) = α 2 Var(X) wenn X und Y unabhängig sind E(X Y) = E(X) E(Y) Var(X+Y) = Var(X) + Var(Y)
Normalverteilung N(µ,σ 2 ) f(x) = 1 e (x µ) 2 2σ 2 σ 2π µ = E(X), σ 2 = Var(X)
Standard-Normalverteilung N(0,1) z 0 1 2 3 4 5 6 7 8 9 0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359 0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753 0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141 0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517 0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879 0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224 0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549 0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852 0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133 P(Z z)=φ(z) 0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389 1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621 1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830 1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015 1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177 1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319 1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441 1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545 1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633 1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706 1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767 2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
Standardisierung von N(µ,σ 2 ) Wenn X normalverteilt ist mit Erwartungswert µund Varianz σ 2, dann hat die Zufallsvariable Z = X µ σ eine Standard-Normalverteilung. Für die Verteilungsfunktion F(b) von X gilt F(b) = b Φ( µ σ )
Blutdruck Der diastolische Blutdruck von Normalpersonen sei normalverteilt mit Erwartungswert µ=80 mmhg und Standardabweichung σ=10 mmhg. Mit welcher Wahrscheinlichkeit weist eine zufällig ausgewählte Normalperson einen Blutdruck zwischen 70 mmhg und 85 mmhg auf? P(70 X 85) = F(85) F(70) = = 85 80 70 80 Φ( ) Φ( ) 10 10 Φ( 0.5) Φ( 1) = 0.6915 0.1587 =0.5328
Standard-Normalverteilung N(0,1) P(-1.00 Z +1.00) = 0.68 P(µ-σ X µ+σ) = 0.68
Standard-Normalverteilung N(0,1) P(Z 0.00) = 0.50= P(Z 0.00) P(X µ) = 0.50 = P(X µ)
Standard-Normalverteilung N(0,1) P(-1.96 Z +1.96) = 0.95 P(µ-1.96σ X µ+1.96σ) = 0.95
Standard-Normalverteilung N(0,1) P(Z 1.65) = 0.95 = P(Z -1.65) P(X µ+1.65σ) = 0.95 = P(X µ-1.65σ)
Normalverteilung N(µ,σ 2 ) N(0,1) N(1,1) N(0,4) N(0,0.25)
Zentraler Grenzwertsatz X 1, X 2,, X n unabhängig und identisch verteilt mit Erwartungswert µund Varianz σ 2 n σ X 1 +... + X n µ n Z für ein standard-normalverteiltes Z, wenn n sehr groß wird
"Galton-Brett" Ein Brett mit mehreren Reihen versetzter, aber in gleichem Abstand zueinander angebrachter Nägel; benannt nach seinem Erfinder Francis Galton (1822-1911) http://www.rand.org/methodology/stat/applets/clt.html
Würfelspiel X : durchschnittliche Augenzahl aus n Würfen 3.7 3.6 30 X 3.5 25 3.4 3.3 3.2 n=500 Frequency 20 15 10 5 100 Wiederholungen 0 X
Die (Fast) Universelle Natur der Normalität Länge Sauerstoffverbrauch Fruchtbarkeit Schnabellänge Gewicht
Zusammenfassung -Die Wahrscheinlichkeitstheorie ist eine mathematische Disziplin auf der Grundlage der Kolmogorovschen Axiome. -Zufallsvariablebilden komplexe (reale) Ereignisse auf einer einfachen numerischen, diskreten oder stetigen Skala ab. -Die Verteilung einer Zufallsvariablen wird charakterisiert durch ihre Wahrscheinlichkeitsfunktion bzw. Dichte. -Zufallsvariable heißen unabhängig,wenn ihre gemeinsame Verteilung gleich dem Produkt der einzelnen Verteilungen ist. -Wichtige Kennzahlen der Verteilung von Zufallsvariablen sind deren Erwartungswert und Varianz. -Die Normalverteilungist eine universelle Annäherung des umfangreichen "Durchschnitts" anderer Zufallsvariable.